在卷積神經(jīng)網(wǎng)絡(CNN)模型結(jié)構(gòu)中,我們對CNN的模型結(jié)構(gòu)做了總結(jié),這里我們就在CNN的模型基礎(chǔ)上,看看CNN的前向傳播算法是什么樣子的。重點會和傳統(tǒng)的DNN比較討論。
1. 回顧CNN的結(jié)構(gòu)
在上一篇里,我們已經(jīng)講到了CNN的結(jié)構(gòu),包括輸出層,若干的卷積層+ReLU激活函數(shù),若干的池化層,DNN全連接層,以及最后的用Softmax激活函數(shù)的輸出層。這里我們用一個彩色的汽車樣本的圖像識別再從感官上回顧下CNN的結(jié)構(gòu)。圖中的CONV即為卷積層,POOL即為池化層,而FC即為DNN全連接層,包括了我們上面最后的用Softmax激活函數(shù)的輸出層。
從上圖可以看出,要理順CNN的前向傳播算法,重點是輸入層的前向傳播,卷積層的前向傳播以及池化層的前向傳播。而DNN全連接層和用Softmax激活函數(shù)的輸出層的前向傳播算法我們在講DNN時已經(jīng)講到了。
2. CNN輸入層前向傳播到卷積層
輸入層的前向傳播是CNN前向傳播算法的第一步。一般輸入層對應的都是卷積層,因此我們標題是輸入層前向傳播到卷積層。
我們這里還是以圖像識別為例。
先考慮最簡單的,樣本都是二維的黑白圖片。這