更简单的反向传播推导和池化层的推广:

张一极

池化层的前向传播的过程中,只是把原图像的像素保存,不同的池化方式,前向传播的方式依然有所区别,先上结论:

其中back-off意味着把pooling结果还原到原来的结果,其实这里和一般的神经网络的反向传播是一个道理,如果是maxpooling,那么其导数就是1,按照原来传统的神经网络的反向传播:

BP2

BP2的式子和上面那个式子,其实是一个东西,详解析如下,个人认为这是一个更容易理解的式子:

那么:pooling中🔙的结果就是这里面的,所以才有:

BP1

而损失层,也就是最后一层的反向传播,其实是有着异曲同工之妙的

总结:

神经网络的反向传播作为深度学习的基础建筑,在之前实现这部分的功能的时候,囫囵吞枣,实现的很粗糙,虽然结果是对的,但是知识并没有串接起来,成就体系,故而现在重新复现出最重要的两个公式的自己的理解和推导过程,并且在特殊的神经网络(池化层)中做了尝试和推广,我猜想,卷积所用的方式,应该也是这一套方法,也是为了自己接下来集中注意力实现卷积做了铺垫。