上饒做網站的公司杭州seo專員
1.VGG網絡
在圖像分?類這個領域中,深度卷積網絡一般由卷積模塊和全連接模塊組成。
????????(1)卷積模塊包含卷積層、池化層、Dropout?層、激活函數等。普遍認為,卷積模塊是對?圖像特征的提取,并不是對圖像進行分類。
????????(2)全連接模塊跟在卷積模塊之后,?一般有2~3個全連接層。全連接層用于分類。卷積核是用來?提取圖片特征的,不同的卷積核是用來發(fā)掘圖片中不同的特征的
2.GoogleNet
????????殘差連接是為了解決什么問題?梯度消失的問題。梯度消失問題是怎么產生的呢?是因為網絡太深。
(1)如何減少計算量?在卷積之前,使用1×1的卷積層降低通道數。
(2)如何減少計算量?使用3×3的卷積層代替5×5或者7×7的,然后在網絡中部可
以使用1×3和3×1的網絡。
(3)使用卷積層和池化層并行來兼顧特征和計算量。
(4)使用輔助分類器,增強模型的泛化能力,以及緩解梯度消失的問題。?(5)學會如何計算圖像經過卷積層前后的尺寸變化過程。
(6)使用殘差連接來緩解梯度消失問題,并且減少運算量。
3. Resnet
Resnet 是一個深度卷積網絡,用于處理視覺圖像問題。
如果pretrained=True, ???那么這個模型就會導入一個存儲參數的文件,這意味著模型是一個已經訓練過的模型,這種稱為預訓練。采用已經訓練好的模型可以節(jié)省大量的時?間,加快模型的收斂速度。例如,?一個博士生學習一門新的課程會比嬰兒學得快,因為博士?已經有了很多其他的相關知識,這就是預訓練的概念。
?CNN計算量如何計算
圖的5×5卷積看成是Padding=1?的3×3的?圖片,Padding=1??就是3×3的圖片上下左右各填充一行(列),變成5×5大小的,Padding ?是為了保證輸入輸出的圖片尺寸相同。
????????特征圖尺寸是H?(高)和W(寬),卷積核是正方形的,尺寸(邊?長)為K,M ??是輸入特征圖的通道數,N ?是輸出特征圖的通道數,H×W×KXK×M×N這個就是卷積的計算量的公式。倒殘差顛倒的是Residual 中使用1×1卷積來縮小通道數的操作。?
????????深度網絡在某種意義上來說,越深效果越好,越寬效果越好,但是同時計算?量會大幅度提高。如何在計算量提高的前提下,盡可能地提高模型效果呢?模型變深變寬?是否有什么規(guī)律可尋呢?這就是擴展網絡所追求的。
????????擴展網絡, 一般是調整輸入圖像的大小、網絡的深度和寬度。網絡的寬度就是特征圖的通道數量。在EfficientNet?之前,大部分的研究工作都是調整3個維度中的某一個。如果?在3個維度上同時進行調整需要極大的算力支持。EfficientNet的目的就是希望找到一個標準化的卷積網絡擴展方法,通過規(guī)律擴展網絡,盡可能提高網絡性能。換句話說就是,如何平衡圖像分辨率、模型深度、模型寬度3個變量,實現網絡在效率和準確率上的提升。
4.風格遷移
????????風格遷移是把一張圖片的風格轉移到另外一張圖片上的操作。下面通過學習CNN?來理解這怎么實現的。
????????一切都是基于這樣的一個思想:CNN 層,也就是卷積層,在一個深度網絡中是有很多 卷積層的,每一個卷積層都是對圖像進行一次特征的提取,越提取圖像,圖像就會變得越抽 象、越接近本質。因此越接近輸入層的圖像,包含更多紋理的信息,而越靠近輸出層的圖像,?會包含更多內容方面的信息。
????????在數據處理的過程中,有一個稱為數據處理不等式的概念,就是隨著網絡層數的加深,?圖像經過的處理變多,每次處理的信息會變少。開始的一張原始圖片,里面包含了所有的信 息。不管對一張圖片如何操作,每次操作之后的圖片所包含的信息一定是小于或等于原圖 片包含的信息的。根據這個不等式,越深網絡的圖像信息是不會大于前面層的網絡信息的,因此前面層的?圖像會包含更多的細節(jié)。
??????? 根據前面講解的反向傳播,有一個有很多參數的模型和一個目標。模型給出一個預測值,用預測值和目標計算出損失函數,然后用損失函數更新模型的所有參數,使模型的預測值更加接近目標。在風格遷移中也要確定一個損失函數和模型。
????????特征圖:原圖經過一個卷積層之?后,會產生一個新的圖像,這個新的圖像就是特征圖。
4.1內?容?損 失?函?數
????????這個函數用于展示新畫作與風車之間內容的?差異,越深層的卷積網絡的圖像,越能表現內容的信息。
4.2風?格?損 失 函?數
????????有了風格損失函數Lsyle和內容損失函數Lcontent之后,整個任務的損失函數就是這兩?個的加權:L total(p,a,x)=αL content(p,x)+βLstyle(a,x) ?