wordpress 主題 建站搜索引擎關(guān)鍵詞排名優(yōu)化
文章目錄
- 1. 擴(kuò)張卷積的提出
- 2. 理解的難點(diǎn)
本片博客的主題思路來自于這篇文章——如何理解Dilated Convolutions(空洞卷積),但是作者似乎是很久之前寫的,文字的排版很混亂,自己來寫一個(gè)新的。
1. 擴(kuò)張卷積的提出
- Multi-Scale Context Aggregation by Dilated Convolutions
- Dilated Residual Networks
這里有原作者推薦的一篇論文筆記,大家有興趣可以看一看,論文筆記——CVPR 2017 Dilated Residual Networks。
2. 理解的難點(diǎn)
上圖是論文 Multi-Scale Context Aggregation by Dilated Convolutions 的原圖,我們可以問幾個(gè)小問題
- 紅點(diǎn)代表什么含義
- 為什么擴(kuò)張卷積,圖像尺寸是不改變的
- 圖中最外層圖像代表什么
上面這張圖可以幫助你從直觀上更好的理解感受野,這個(gè)圖來自一篇博客,A guide to receptive field arithmetic for Convolutional Neural Networks,看不懂的話可以看中文翻譯版,都很有參考價(jià)值。
我們根據(jù)感受野的計(jì)算公式
l k = l k ? 1 + ( ( f k ? 1 ) ? ? i = 1 k ? 1 s i ) l_{k}=l_{k-1}+\left(\left(f_{k}-1\right) * \coprod_{i=1}^{k-1} s_{i}\right) lk?=lk?1?+((fk??1)?i=1?k?1?si?)
其中, l k l_{k} lk? 為第 k ? 1 k-1 k?1 層的感受野大小, f k f_k fk? 是當(dāng)前層的卷積核大小, s i s_i si? 是第 i i i 層的步長(zhǎng)??梢酝茖?dǎo)出空洞卷積的計(jì)算公式,本質(zhì)上就是在卷積和中間添0,擴(kuò)大了卷積和的大小。
設(shè)普通卷積和的大小為 f k f_k fk?,則等效的空洞卷積核的大小為 d k d_k dk?,有公式
d k = ( f k ? 1 ) × ( r a t e ? 1 ) + f k d_k=(f_k-1)\times (\mathrm{rate}-1)+f_k dk?=(fk??1)×(rate?1)+fk?
回到最初的問題
- 紅點(diǎn)代表什么意思?代表的是感受野的中心
- 空洞卷積得到的特征圖大小是不變的
關(guān)于特征圖大小的計(jì)算,我們有如下的公式
n out? = ? n in? + 2 p ? k s ? + 1 n_{\text {out }}=\left\lfloor\frac{n_{\text {in }}+2 p-k}{s}\right\rfloor+1 nout??=?snin??+2p?k??+1
其中, n out? n_{\text {out }} nout?? 和 n in? n_{\text {in }} nin?? 分表代表輸出和輸入的特征圖尺度, k k k 代表卷積核大小, p p p 代表填充的尺寸, s s s 代表卷積的步長(zhǎng)。