9.2 反向传播算法

参考视频: 9 - 2 - Backpropagation Algorithm (12 min).mkv

之前我们在计算神经网络预测结果的时候我们采用了一种正向传播方法,我们从第一层 开始正向一层一层进行计算,直到最后一层的 hθ(x)。

现在,为了计算代价函数的偏导数,我们需要采用一种反向传播算法,也

就是首先计算最后一层的误差,然后再一层一层反向求出各层的误差,直到倒数第二层。 以 一个例子来说明反向传播算法。

假设我们的训练集只有一个实例(x(1),y(1)),我们的神经网络是一个四层的神经网络, 其中 K=4,SL=4,L=4:

前向传播算法:

我们从最后一层的误差开始计算,误差是激活单元的预测( )与实际值(yk)之间 的误差,(k=1:K)。

我们用 δ 来表示误差,则:

我们利用这个误差值来计算前一层的误差:

其中 g'(z(3))是 S 形函数的导数,g'(z(3))=a(3).*(1-a(3))。而(θ(3))Tδ(4)则是权重导致的误差的 和。下一步是继续计算第二层的误差:

因为第一层是输入变量,不存在误差。我们有了所有的误差的表达式后,便可以计算代 价函数的偏导数了,假设 λ=0,即我们不做任何归一化处理时有:

重要的是清楚地知道上面式子中上下标的含义:

l 代表目前所计算的是第几层

j 代表目前计算层中的激活单元的下标,也将是下一层的第 j 个输入变量的下标。

i 代表下一层中误差单元的下标,是受到权重矩阵中第 i 行影响的下一层中的误差单元 的下标。

如果我们考虑归一化处理,并且我们的训练集是一个特征矩阵而非向量。在上面的特殊 情况中,我们需要计算每一层的误差单元来计算代价函数的偏导数。在更为一般的情况中, 我们同样需要计算每一层的误差单元,但是我们需要为整个训练集计算误差单元,此时的误

差单元也是一个矩阵,我们用 来表示这个误差矩阵。第 l 层的第 i 个激活单元受到第 j

个参数影响而导致的误差。 我们的算法表示为:

即首先用正向传播方法计算出每一层的激活单元,利用训练集的结果与神经网络预测的 结果求出最后一层的误差,然后利用该误差运用反向传播法计算出直至第二层的所有误差。

在求出了之后,我们便可以计算代价函数的偏导数了,计算方法如下:

在 Octave 中,如果我们要使用 fminuc 这样的优化算法来求解求出权重矩阵,我们需 要将矩阵首先展开成为向量,在利用算法求出最优解后再重新转换回矩阵。

假设我们有三个权重矩阵,Theta1,Theta2 和 Theta3,尺寸分别为 1011,1011 和

1*11,下面的代码可以实现这样的转换: thetaVec = [Theta1(:) ; Theta2(:) ; Theta3(:)]

...optimization using functions like fminuc... Theta1 = reshape(thetaVec(1:110, 10, 11);

Theta2 = reshape(thetaVec(111:220, 10, 11);

Theta1 = reshape(thetaVec(221:231, 1, 11);