前言:
接著上一篇文章提到的RCNN網(wǎng)絡(luò)物體檢測(cè),這個(gè)網(wǎng)絡(luò)成功的引入了CNN卷積網(wǎng)絡(luò)來(lái)進(jìn)行特征提取,但是存在一個(gè)問(wèn)題,就是對(duì)需要進(jìn)行特征提取圖片大小有嚴(yán)格的限制。當(dāng)時(shí)面對(duì)這種問(wèn)題,rg大神采用的是對(duì)分割出的2000多個(gè)候選區(qū)域,進(jìn)行切割或者縮放形變處理到固定大小,這樣雖然滿足了CNN對(duì)圖片大小的要求,確造成圖片的信息缺失或者變形,會(huì)降低圖片識(shí)別的正確率. 如下圖所示:
正文:
何凱明大神在看到RCNN模型,分析了CNN模型的特點(diǎn)后:由卷積部分和全連接兩部分構(gòu)成,而對(duì)于卷積部分而言,比如任意圖片大小(w,h),任意的卷積核size(a,b),默認(rèn)步長(zhǎng)為1,我們都會(huì)得到卷積之后的特征圖F(w-a+1,h-b+1),所以這部分對(duì)圖片大小沒(méi)有要求,有要求的地方在全連接層(如下圖),全連接層的神經(jīng)元設(shè)定之后是固定的(如圖 Input layer 神經(jīng)元個(gè)數(shù)),而每一個(gè)都對(duì)應(yīng)者一個(gè)特征,rg大神在進(jìn)入CNN前對(duì)圖片進(jìn)行warp處理,就是為了卷積之后的特征數(shù),能夠和了全連接層的神經(jīng)元個(gè)數(shù)相等.
但是何大神覺(jué)得,事情還可以更有趣,他提出將特征數(shù)據(jù)(特征圖)進(jìn)一步處理,然后拼湊成和神經(jīng)元個(gè)數(shù)相同的特征數(shù),這樣就可以不用warp圖片大小也可以獲得相同數(shù)量的特征,那么他是咋樣處理這特征圖的呢?