写在最前:

写在最前, 我把代码和整理的文档放在github上了

https://github.com/Leezhen2014/python_deep_learning

Forward指的是神经网络推理,forward与感知机相比,多了一个激活函数的模块。因此本章需要实现激活函数,另外也需要重新实现y=w*x+b。本章的顺序如下:

3.1 激活函数的实现

在感知机中讲到用阈值来切换输出,这样的函数称为“阶跃函数”:一旦输入超出了阈值,就切换输出。阶跃函数也算是一种激励函数

需要注意激励函数应该具有以下数学特性:

第一:由于后期训练过程中会对激励函数求导,因此这些函数必须符合数学上的可导。

第二:必须为非线性的函数。这可以用公式推一下:

若激励函数为线性函数

从本质上看,激活函数等同于原来的输入的:

即:

第i层的输入是第i+1层的k倍。

从表象上看,加深网络层次已经失去了意义等效于无隐含层的网络

3.1.1 Sigmoid 函数的实现

Sigmoid函数在(-1,1)区间内变化较大,超出这个范围以后变化较小,可以很好的影响。

  1 def Sigmoid(x):  2     return 1/(np.exp(-x) +1)  3   4 if __name__ == '__main__':  5     x = np.arange(-5.0, 5.0, 0.1)  6     y = Sigmoid(x)  7   8     plt.plot(x,y)  9     plt.ylim(-0.1,1.1) 10     plt.show()

3.1.2 阶跃函数

  1 def step_func(x):  2     temp = x.copy()  3     temp = np.where(x > 0, temp, 0)  4     temp = np.where(x <= 0, temp, 1)  5     return temp  6   7   8 if __name__ == '__main__':  9     x = np.arange(-5.0, 5.0, 0.1) 10  11     y = step_func(x) 12  13     plt.plot(x,y) 14     plt.ylim(-1.1,1.1) 15     plt.show()

3.1.3 Relu 系列

Relu(Rectified Linear Unit) 函数在输入值大于0的情况下保持不变,在输入值小于0的情况下,输出等于0。

阶跃函数和sigmoid函数都属于非线性的函数,

  1 def Relu(x):  2     return np.maximum(0,x)  3   4 if __name__ == '__main__':  5     x = np.arange(-5.0, 5.0, 0.1)  6   7     y = Relu(x)  8   9     plt.plot(x,y) 10     plt.ylim(-1.1,5.1) 11     plt.show()

3.2 forward的流程

主要是介绍y=WX+b的实现。神经网络的forward本质是多维数组的运算+激励函数。激活函数已经实现了,因此只要将多维数组的运算了解清楚,便可以实现forward。forward的流程如下:

p.s.: f即为激活函数

本质上是矩阵的乘法,借助np.dot可以实现;在此不赘述

3.3 输出层的设计与实现

目前来看,神经网络在分类的问题上可以大致分为两类:

1. 分类问题:数据属于哪个类别,可以使用恒等函数,直接获取预测结果。

2. 回归问题:根据输入,预测一个连续的数值问题。可以使用softmax。

Ps: 分类问题的输出层也是可以使用softmax的,只不过用softmax以后得到的数值是一个线性的数值,还需要选取阈值才能划分为类别。

恒等函数是不需要实现了,神经网络的输出节点就是label的输出,如下图所示:

Softmax函数的数学公式如下:

Equation 3 softmax函数

从公式中可以看出,输出层的各个神经元的输出都会受到输入信号的影响,如下图所示。

Figure 3 softmax 的表达图

  1 def softmax(x):  2     '''  3     softmax 实现,没有考虑数值溢出  4     :param x: ndarray  5     :return: y, ndarray  6     '''  7     a = np.exp(x)  8     sum_exp = np.sum(a)  9     y= a/sum_exp 10     return y

上图的代码是按照公式实现的,但是没有考虑数值溢出的情况;由于是exp是指数函数,当指数特别大的时候,进行除法的时候会的时候会出现数值溢出。为了避免以上情况,将分子和分母同时乘上常量C(必须足够大)

  1 def softmax(x):  2     '''  3     softmax 实现  4     :param x: ndarray  5     :return: y, ndarray  6     '''  7     C = np.max(x)  8     exp_a = np.exp(x - C)  9     sum_exp = np.sum(exp_a) 10     y= exp_a / sum_exp 11     return y

3.4测试神经网络的推理

在经过上述的准备工作后, 我们就可以组装成一个简单的推理网络;

假设, 我们的神经网络是简单的全连接层, 且手里已经有了网络的权重(sample_weight.pkl)。

我们要做的是对minst手写体识别,数据集用load_mnist()方法获取。

具体代码可以看github: https://github.com/Leezhen2014/python_deep_learning

  1 # -*- coding: utf-8 -*-  2 # @File  : day7.py  3 # @Author: lizhen  4 # @Date  : 2020/2/4  5 # @Desc  : 第二篇的实现: 对文件的实现  6   7 import sys, os  8 import numpy as np  9 import pickle 10 from src.datasets.mnist import load_mnist 11 from src.common.functions import sigmoid, softmax 12  13  14 def get_data(): 15     (x_train, t_train), (x_test, t_test) = load_mnist(normalize=True, flatten=True, one_hot_label=False) 16     return x_test, t_test 17  18  19 def init_network(): 20     with open("../datasets/sample_weight.pkl", 'rb') as f: 21         network = pickle.load(f) 22     return network 23  24  25 def predict(network, x): 26     W1, W2, W3 = network['W1'], network['W2'], network['W3'] 27     b1, b2, b3 = network['b1'], network['b2'], network['b3'] 28  29     a1 = np.dot(x, W1) + b1 30     z1 = sigmoid(a1) 31     a2 = np.dot(z1, W2) + b2 32     z2 = sigmoid(a2) 33     a3 = np.dot(z2, W3) + b3 34     y = softmax(a3) 35  36     return y 37  38  39 x, t = get_data() 40 network = init_network() 41 accuracy_cnt = 0 42 for i in range(len(x)): 43     y = predict(network, x[i]) 44     p= np.argmax(y) 45     if p == t[i]: 46         accuracy_cnt += 1 47  48 print("Accuracy:" + str(float(accuracy_cnt) / len(x)))

打印输出正确率:

输出:

Accuracy: 0.9352

————————

好了,今天到此为止。

我心匪石,不可转也。我心匪席,不可卷也。