写在最前:
写在最前, 我把代码和整理的文档放在github上了
https://github.com/Leezhen2014/python_deep_learning
Forward指的是神经网络推理,forward与感知机相比,多了一个激活函数的模块。因此本章需要实现激活函数,另外也需要重新实现y=w*x+b。本章的顺序如下:
3.1 激活函数的实现
在感知机中讲到用阈值来切换输出,这样的函数称为“阶跃函数”:一旦输入超出了阈值,就切换输出。阶跃函数也算是一种激励函数。
需要注意激励函数应该具有以下数学特性:
第一:由于后期训练过程中会对激励函数求导,因此这些函数必须符合数学上的可导。
第二:必须为非线性的函数。这可以用公式推一下:
若激励函数为线性函数
从本质上看,激活函数等同于原来的输入的:
即:
第i层的输入是第i+1层的k倍。
从表象上看,加深网络层次已经失去了意义;等效于无隐含层的网络。
3.1.1 Sigmoid 函数的实现
Sigmoid函数在(-1,1)区间内变化较大,超出这个范围以后变化较小,可以很好的影响。
1 def Sigmoid(x): 2 return 1/(np.exp(-x) +1) 3 4 if __name__ == '__main__': 5 x = np.arange(-5.0, 5.0, 0.1) 6 y = Sigmoid(x) 7 8 plt.plot(x,y) 9 plt.ylim(-0.1,1.1) 10 plt.show()
3.1.2 阶跃函数
1 def step_func(x): 2 temp = x.copy() 3 temp = np.where(x > 0, temp, 0) 4 temp = np.where(x <= 0, temp, 1) 5 return temp 6 7 8 if __name__ == '__main__': 9 x = np.arange(-5.0, 5.0, 0.1) 10 11 y = step_func(x) 12 13 plt.plot(x,y) 14 plt.ylim(-1.1,1.1) 15 plt.show()
3.1.3 Relu 系列
Relu(Rectified Linear Unit) 函数在输入值大于0的情况下保持不变,在输入值小于0的情况下,输出等于0。
阶跃函数和sigmoid函数都属于非线性的函数,
1 def Relu(x): 2 return np.maximum(0,x) 3 4 if __name__ == '__main__': 5 x = np.arange(-5.0, 5.0, 0.1) 6 7 y = Relu(x) 8 9 plt.plot(x,y) 10 plt.ylim(-1.1,5.1) 11 plt.show()
3.2 forward的流程
主要是介绍y=WX+b的实现。神经网络的forward本质是多维数组的运算+激励函数。激活函数已经实现了,因此只要将多维数组的运算了解清楚,便可以实现forward。forward的流程如下:
p.s.: f即为激活函数
本质上是矩阵的乘法,借助np.dot可以实现;在此不赘述。
3.3 输出层的设计与实现
目前来看,神经网络在分类的问题上可以大致分为两类:
1. 分类问题:数据属于哪个类别,可以使用恒等函数,直接获取预测结果。
2. 回归问题:根据输入,预测一个连续的数值问题。可以使用softmax。
Ps: 分类问题的输出层也是可以使用softmax的,只不过用softmax以后得到的数值是一个线性的数值,还需要选取阈值才能划分为类别。
恒等函数是不需要实现了,神经网络的输出节点就是label的输出,如下图所示:
Softmax函数的数学公式如下:
Equation 3 softmax函数
从公式中可以看出,输出层的各个神经元的输出都会受到输入信号的影响,如下图所示。
Figure 3 softmax 的表达图
1 def softmax(x): 2 ''' 3 softmax 实现,没有考虑数值溢出 4 :param x: ndarray 5 :return: y, ndarray 6 ''' 7 a = np.exp(x) 8 sum_exp = np.sum(a) 9 y= a/sum_exp 10 return y
上图的代码是按照公式实现的,但是没有考虑数值溢出的情况;由于是exp是指数函数,当指数特别大的时候,进行除法的时候会的时候会出现数值溢出。为了避免以上情况,将分子和分母同时乘上常量C(必须足够大)
1 def softmax(x): 2 ''' 3 softmax 实现 4 :param x: ndarray 5 :return: y, ndarray 6 ''' 7 C = np.max(x) 8 exp_a = np.exp(x - C) 9 sum_exp = np.sum(exp_a) 10 y= exp_a / sum_exp 11 return y
3.4测试神经网络的推理
在经过上述的准备工作后, 我们就可以组装成一个简单的推理网络;
假设, 我们的神经网络是简单的全连接层, 且手里已经有了网络的权重(sample_weight.pkl)。
我们要做的是对minst手写体识别,数据集用load_mnist()方法获取。
具体代码可以看github: https://github.com/Leezhen2014/python_deep_learning
1 # -*- coding: utf-8 -*- 2 # @File : day7.py 3 # @Author: lizhen 4 # @Date : 2020/2/4 5 # @Desc : 第二篇的实现: 对文件的实现 6 7 import sys, os 8 import numpy as np 9 import pickle 10 from src.datasets.mnist import load_mnist 11 from src.common.functions import sigmoid, softmax 12 13 14 def get_data(): 15 (x_train, t_train), (x_test, t_test) = load_mnist(normalize=True, flatten=True, one_hot_label=False) 16 return x_test, t_test 17 18 19 def init_network(): 20 with open("../datasets/sample_weight.pkl", 'rb') as f: 21 network = pickle.load(f) 22 return network 23 24 25 def predict(network, x): 26 W1, W2, W3 = network['W1'], network['W2'], network['W3'] 27 b1, b2, b3 = network['b1'], network['b2'], network['b3'] 28 29 a1 = np.dot(x, W1) + b1 30 z1 = sigmoid(a1) 31 a2 = np.dot(z1, W2) + b2 32 z2 = sigmoid(a2) 33 a3 = np.dot(z2, W3) + b3 34 y = softmax(a3) 35 36 return y 37 38 39 x, t = get_data() 40 network = init_network() 41 accuracy_cnt = 0 42 for i in range(len(x)): 43 y = predict(network, x[i]) 44 p= np.argmax(y) 45 if p == t[i]: 46 accuracy_cnt += 1 47 48 print("Accuracy:" + str(float(accuracy_cnt) / len(x)))
打印输出正确率:
输出:
Accuracy: 0.9352
————————
好了,今天到此为止。
我心匪石,不可转也。我心匪席,不可卷也。