Free Will

深度学习系列(1):神经网络与反向传播算法

一、神经元

首先我们从最简单的神经网络——神经元讲起,以下即为一个神经元(Neuron)的图示:

这个神经元是一个以x1,x2,···,xK以及截距b为输入值的运算单元,其输出为

α=σ(wTa+b)=σ(w1a1+w2a2+···+wKaK+b)

其中w为权值项,b为偏置项,函数σ被称为“激活函数”。之前在学习感知机的时候,我们知道感知机的激活函数是阶跃函数;而当我们说神经元的时,激活函数往往选择sigmoid函数或tanh函数。激活函数的作用就是将之前加法器输出的函数值z进行空间映射,如下图所示:

可以看出,这个单一神经元的输入输出的映射关系其实就是一个逻辑回归(logistic regression)。

关于sigmoid阶跃函数的性质,在逻辑回归中已经了解过了,有一个等式我们会用到:f,(z)=f(z)(1f(z))。现在我们简要看一下双曲正切函数(tanh)。它的表达式为:

f(z)=tanh(z)=ezezez+ez

它们图像为

tanh(z)函数是sigmoid函数的一种变体,它的取值范围为[-1,1],而不是sigmoid函数的[0,1],它的导数为f(z)=1(f(z))2

二、神经网络模型

2.1 神经网络模型

所谓神经网络就是将许多神经元联结在一起,这样,一个神经元的输出就可以是另一神经元的输入。例如,下图就是一个简单的神经网络:

我们使用圆圈来表示神经网络的输入,标上”+1”的圆圈被称为偏置节点,也就是截距项。神经网络最左边的一层叫做输入层,最右边的一层叫做输出层(本例中,输出层只有一个节点)。中间所有节点组成的一层叫做隐藏层,如此命名是因为我们不能在训练样本中观测到它们的值。同时可以看到,以上神经网络的例子中有3个输入单元(偏置单元不算在内),三个隐藏单元及一个输出单元。

我们用nl来表示神经网络的层数,本例中nl=3,我们将第l层记为Ll,于是L1是输入层,输出层是Lnl。本例神经网络有参数(W,b)=(W(1),b(1),W(2),b(2)),其中W(l)ij是第l层第j个单元与第l+1层第i单元之间的联接参数(其实就是连接线上的权重,注意标号前后顺序),b(l)i是第l+1层第i个单元的偏置项。偏置单元没有输入,即没有单元连向偏置单元,它们总是输出+1。同时,我们用sl表示第l层的节点数(偏置单元不计在内)。

我们用a(l)i表示第l层第i个单元的激活值(输出值)。当l=1时,a(1)i=xi,也就是第i个输入值(输入值的第i个特征)。对于给定参数集合W,b,我们的神经网络就可以按照函数hW,b(x)来计算结果。本例中神经网络的计算步骤如下:

a(2)1=f(W(1)11x1+W(1)12x2+W(1)13x3+b(1)1)
a(2)2=f(W(1)21x1+W(1)22x2+W(1)23x3+b(1)2)
a(2)3=f(W(1)31x1+W(1)32x2+W(1)33x3+b(1)3)
hw,b(x)=a(3)1=f(W(1)11x1+W(1)12x2+W(1)13x3+b(2)1)

2.2 具体举例

接下来举一个具体的例子来说明这个过程,我们先给神经网络的每个单元写上编号。

图中,输入层有三个节点,我们将其依次编号为1,2,3;隐藏层的4个节点,编号依次为4,5,6,7;最后输出层的两个节点编号为8,9。因为我们这个神经网络是全连接网络,所以可以看到每个节点都和上一层的所有节点有链接。比如我们可以看到隐藏层的节点4,它和输入层的三个节点1,2,3之间都有连接,其连接上的权重分别为w41,w42,w43。那么,我们怎样计算节点4的输出值a4呢?

为了计算节点4的输出值,我们必须先得到其所有上游节点(也就是节点1,2,3)的输出值。节点1、2、3是输入层的节点,所以,他们的输出值就是向量x。按照上图画出的对应关系,可以看到节点1、2、3的输出值分别是x1,x2,x3

一旦我们有了节点1、2、3的输出值,我们就可以计算节点4的输出值a4

a4=f(w·x)=f(w41x1+w42x2+w43x3+w4b)

其中w4b是节点4的偏置项,图中没有画出来。而w41,w42,w43分别为节点1、2、3到节点4连接的权重,在给权值wij编号时,我们把目标节点的编号i放在前面,把源节点的编号i放在后面。

同样,我们可以继续计算出节点5、6、7的输出值a5,a6,a7。这样,隐藏层的4个节点的输出值就计算完成了,我们就可以接着计算输出层的节点8的输出值y1:

y1=f(w·x)=f(w84a4+w85a5+w86a6+w87a7+w8b)

同理,我们还可以计算出y2的值。这样输出层所有节点的输出值计算完毕,我们就得到了在输入向量
x=[x1x2x3]时,神经网络的输出向量
y=[y1y2]。这里我们也看到,输出向量的维度和输出层神经元个数相同。

2.3 神经网络的矩阵表示

神经网络的计算如果用矩阵来表示会很方便,我们先来看看隐藏层的矩阵表示。
首先我们把隐藏层4个节点的计算依次排列出来:

a4=f(w41x1+w42x2+w43x3+w4b)
a5=f(w51x1+w52x2+w53x3+w5b)
a6=f(w61x1+w62x2+w63x3+w6b)
a7=f(w71x1+w72x2+w73x3+w7b)

接着,定义神经网络的输入向量x和隐藏层每个节点的权重向量wj。令

x=[x1x2x31]
w4=[w41,w42,w43,w4b]
w5=[w51,w52,w53,w5b]
w6=[w61,w62,w63,w6b]
w7=[w71,w72,w73,w7b]

代入之前的一组式子,得到

a4=f(w4·x)
a5=f(w5·x)
a6=f(w6·x)
a7=f(w7·x)

现在,我们把上述计算a4,a5,a6,a7的四个式子写到一个矩阵里面,每个式子作为矩阵的一行,就可以利用矩阵来表示他们的计算了。令

a=[a4a5a6a7]
W=[w4w5w6w7]=[w41w42w43w4bw51w52w53w5bw61w62w63w6bw71w72w73w7b]
f([x1x2····])=[f(x1)f(x2)f(x3)···]

代入前面的一组式子,得到a=f(W·x)在上式中,f是激活函数,在本例中为sigmoid函数;W是某一层的权重矩阵;x是某层的输入向量;a是某层的输出向量。它说明了神经网络的每一层的作用实际上就是先将输入向量左乘一个数组进行线性变换,得到一个新的向量,然后再对这个向量逐元素应用一个激活函数。

每一层的算法都是一样的。比如,对于包含一个输入层,一个输出层和三个隐藏层的神经网络,我们假设其权重举证分别为W1,W2,W3,W4,每个隐藏层的输出分别是a1,a2,a3,神经网络的输入为x,神经网络的输入为y,如下图所示:

则每一层的输出向量的计算可以表示为:

a1=f(W1·x)
a2=f(W2·a1)
a3=f(W3·a2)
y=f(W4·a3)

这就是神经网络输出值的计算方法。

三、反向传导算法

3.1 损失函数与正则化项

假设我们有一个固定样本集{(x(1),y(1)),···,(x(m),y(m))},它包含m个样本。我们可以用批量梯度下降法来求解神经网络。具体来讲,对于单个样例(x,y),其代价函数为:

J(W,b;x,y)=12||hW,b(x)y||2

这是一个平方误差损失函数。对于包含m个样本的数据集,我们可以定义整体的损失函数为:

J(W,b)=[1mmi=1J(W,b;x(i),y(j))]+λ2nl1l=1sli=1sl+1j=1(W(l)ji)2
=[1mmi=112hW,b(x(i))y(i)2]+λ2nl1l=1sli=1sl+1j=1(W(l)ij)2

以上关于J(W,b)定义中的第一项是均方误差项,第二项是一个正则化项,也叫权重衰减项,其目的就是减小权重的幅度,防止过度拟合。权重衰减参数λ用于控制公式中两项的相对重要性。需要注意的是,J(W,b;x,y)是针对单个样本计算得到的方差代价函数;J(W,b)是整体样本代价函数,它包含权重衰减项。

3.2 反向传播算法

反向传播算法其实就是链式求导法则的应用。然而,这个如此简单且显而易见的方法,却是在Roseblatt剔除感知机算法将近30年之后才被发明和普及的。接下来,我们用链式求导法则来推导反向传播算法。

按照机器学习的通用套路,我们先确定神经网络的目标函数,然后用随机梯度下降优化算法去求目标函数最小值时的参数值。

假设我们的参数集合为θ={w1,w2,···,b1,b2···},设初始参数为θ0,将损失函数L(θ)分别对参数求导:

L(θ)=[L(θ)/w1L(θ)/w2···L(θ)/b1L(θ)/b2···]

计算L(θ0),参数更新

θ1=θ0ηL(θ0)

计算L(θ1),参数更新

θ2=θ1ηL(θ1)

因为推导过程需要用到链式法则,具体如下图所示:

我们定义整体损失函数为:

L(θ)=Nn=1Cn(θ)

对参数w求偏导:

L(θ)w=Nn=1Cn(θ)w

因此我们只需要求出单个样例的偏导数,就可以推导出整体损失函数的偏导数。根据链式法则,对于某一个节点,如下所示:

Cw=zwCz

容易得到

z/w1=x1
z/w2=x2

我们可以利用前向传导的方法计算出所有层的zw

我们已经求出了整个偏导数的左半部分,接下来看右半部分,即Cz

根据链式法则得到:

Cz=azCa

对于az,我们知道就是激活函数对加法器的偏导,知道了激活函数便知道了az,我们设其求导结果为(z),因为z在前向传播中已经确定,所以(z)其实是一个常数。接下来看Ca

根据链式求导法则

Ca=zaCz+zaCz

易知za即为权值,而Cz假设其已知,则我们可以得到

Cz=σ(z)[w3Cz+w4Cz]

而对于Cz的求导,我们需要区分输出层和隐藏层两种情况:

第一种情况。如果已经是输出层了,如下图所示

我们可以直接求得。

第二种情况。如果还处于隐藏层,我们可以根据上述算法不断递归的计算C/z,直到抵达输出层。

最后总结一下,我们根据前向传播算法求得所有的zw,根据反向传播算法求得所有的Cz(需要用到前向传播算法求得的az,即σ(z))。这样就可以用更新公式对参数进行迭代更新了。



应统联盟


连接十万名应统专业同学


阿药算法


打通算法面试任督二脉