在前面我們講述了DNN的模型與前向反向傳播算法。而在DNN大類中,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,以下簡(jiǎn)稱CNN)是最為成功的DNN特例之一。CNN廣泛的應(yīng)用于圖像識(shí)別,當(dāng)然現(xiàn)在也應(yīng)用于NLP等其他領(lǐng)域,本文我們就對(duì)CNN的模型結(jié)構(gòu)做一個(gè)總結(jié)。
在學(xué)習(xí)CNN前,推薦大家先學(xué)習(xí)DNN的知識(shí)。如果不熟悉DNN而去直接學(xué)習(xí)CNN,難度會(huì)比較的大。這是我寫的DNN的教程:
深度神經(jīng)網(wǎng)絡(luò)(DNN)模型與前向傳播算法
深度神經(jīng)網(wǎng)絡(luò)(DNN)反向傳播算法(BP)
深度神經(jīng)網(wǎng)絡(luò)(DNN)損失函數(shù)和激活函數(shù)的選擇
深度神經(jīng)網(wǎng)絡(luò)(DNN)的正則化
1. CNN的基本結(jié)構(gòu)
首先我們來看看CNN的基本結(jié)構(gòu)。一個(gè)常見的CNN例子如下圖: