中國做的比較好的網(wǎng)站網(wǎng)站提交收錄軟件
YOLOv9全網(wǎng)最新改進(jìn)系列::YOLOv9完美融合雙卷積核(DualConv)來構(gòu)建輕量級深度神經(jīng)網(wǎng)絡(luò),目標(biāo)檢測模型有效漲點神器!!!
YOLOv9原文鏈接戳這里,原文全文翻譯請關(guān)注B站Ai學(xué)術(shù)叫叫首er
B站全文戳這里!
詳細(xì)的改進(jìn)教程以及源碼,戳這!戳這!!戳這!!!B站:AI學(xué)術(shù)叫叫獸 源碼在相簿的鏈接中,動態(tài)中也有鏈接,感謝支持!??蒲羞b遙領(lǐng)先!
YOLOv9全網(wǎng)最新改進(jìn)系列::YOLOv9完美融合雙卷積核(DualConv)來構(gòu)建輕量級深度神經(jīng)網(wǎng)絡(luò),目標(biāo)檢測模型有效漲點神器!!!
- YOLOv9全網(wǎng)最新改進(jìn)系列::YOLOv9完美融合雙卷積核(DualConv)來構(gòu)建輕量級深度神經(jīng)網(wǎng)絡(luò),目標(biāo)檢測模型有效漲點神器!!!
- 摘要
- 2 修改步驟!
- 2.1 修改YAML文件
- 2.2 新建.py
- 2.3 修改tasks.py
- 三、驗證是否成功即可
DualConv: Dual Convolutional Kernels for
Lightweight Deep Neural Networks(提出原文戳這)
詳細(xì)的改進(jìn)教程以及源碼,戳這!戳這!!戳這!!!B站:AI學(xué)術(shù)叫叫獸 源碼在相簿的鏈接中,動態(tài)中也有鏈接,感謝支持!??蒲羞b遙領(lǐng)先!
截止到發(fā)稿時,B站YOLOv9最新改進(jìn)系列的源碼包,已更新了16種的改進(jìn)!自己排列組合2-4種后,考慮位置不同后可排列組合上千種!!專注AI學(xué)術(shù),關(guān)注B站博主:Ai學(xué)術(shù)叫叫獸er!
摘要
CNN 架構(gòu)通常對內(nèi)存和計算要求很高,這使得它們對于硬件資源有限的嵌入式系統(tǒng)不可行。 我們提出雙卷積核(DualConv)來構(gòu)建輕量級深度神經(jīng)網(wǎng)絡(luò)。 DualConv 結(jié)合了 3×3 和 1×1 卷積核來同時處理相同的輸入特征圖通道,并利用組卷積技術(shù)來有效地排列卷積濾波器。 DualConv 可用于任何 CNN 模型,例如用于圖像分類的 VGG-16 和 ResNet-50、用于對象檢測的 YOLO 和 R-CNN 或用于語義分割的 FCN。 在本文中,我們廣泛測試了 DualConv 的分類功能,因為這些網(wǎng)絡(luò)架構(gòu)構(gòu)成了許多其他任務(wù)的骨干。 我們還在 YOLO-V3 上測試了 DualConv 的圖像檢測功能。 實驗結(jié)果表明,結(jié)合我們的結(jié)構(gòu)創(chuàng)新,DualConv 顯著降低了深度神經(jīng)網(wǎng)絡(luò)的計算成本和參數(shù)數(shù)量,同時在某些情況下令人驚訝地實現(xiàn)了比原始模型略高的精度。 我們使用 DualConv 將輕量級 MobileNetV2 的參數(shù)數(shù)量進(jìn)一步減少了 54%,而在 CIFAR-100 數(shù)據(jù)集上的準(zhǔn)確率僅下降了 0.68%。 當(dāng)參數(shù)數(shù)量不是問題時,DualConv 在相同數(shù)據(jù)集上將 MobileNetV1 的準(zhǔn)確率提高了 4.11%。 此外,DualConv 顯著提高了 YOLO-V3 目標(biāo)檢測速度,并將其在 PASCAL VOC 數(shù)據(jù)集上的準(zhǔn)確率提高了 4.4%。
(a) 標(biāo)準(zhǔn)卷積、(b) 深度可分離卷積、? 組卷積、(d) 異構(gòu)卷積和 (e) 所提出的雙卷積的卷積濾波器設(shè)計。 M是輸入通道數(shù)(即輸入特征圖的深度),N是卷積濾波器的數(shù)量,也是輸出通道的數(shù)量(即輸出特征圖的深度),Di是寬度和高度維度 輸入特征圖的,K×K是卷積核大小,G是組卷積和對偶卷積中的組數(shù),1/P是異構(gòu)卷積中3×3卷積核的比例。 請注意,異構(gòu)濾波器以移位的方式排列[18]。
我們提出了 DualConv,它將 3×3 組卷積與 1×1 逐點卷積相結(jié)合,解決了跨通道通信和原始輸入特征圖中信息保存的問題。 與 HetConv 相比,DualConv 通過添加最少的參數(shù)來提高網(wǎng)絡(luò)性能。 DualConv應(yīng)用于常見的網(wǎng)絡(luò)結(jié)構(gòu)來執(zhí)行圖像分類和目標(biāo)檢測。 通過比較標(biāo)準(zhǔn)卷積和 DualConv 的實驗結(jié)果,證明了所提出的 DualConv 的有效性和效率。 從實驗結(jié)果可以看出,DualConv 可以集成在標(biāo)準(zhǔn)網(wǎng)絡(luò)架構(gòu)和輕量級網(wǎng)絡(luò)架構(gòu)中,以提高網(wǎng)絡(luò)精度并減少網(wǎng)絡(luò)參數(shù)、計算成本和推理時間。 我們還證明了 DualConv 可以很好地適應(yīng)各種圖像數(shù)據(jù)集,并具有很強的泛化能力。 未來的研究工作將集中在嵌入式設(shè)備上的部署,以進(jìn)一步證明 DualConv 在實際應(yīng)用中的效率。
跑出結(jié)果后-相關(guān)方法詳情請結(jié)合B站視頻閱讀全文,融入自己文章中!!!
2 修改步驟!
2.1 修改YAML文件
詳細(xì)的改進(jìn)教程以及源碼,戳這!戳這!!戳這!!!B站:AI學(xué)術(shù)叫叫獸 源碼在相簿的鏈接中,動態(tài)中也有鏈接,感謝支持!祝科研遙遙領(lǐng)先!
2.2 新建.py
詳細(xì)的改進(jìn)教程以及源碼,戳這!戳這!!戳這!!!B站:AI學(xué)術(shù)叫叫獸er 源碼在相簿的鏈接中,動態(tài)中也有鏈接,感謝支持!??蒲羞b遙領(lǐng)先!
2.3 修改tasks.py
詳細(xì)的改進(jìn)教程以及源碼,戳這!戳這!!戳這!!!B站:AI學(xué)術(shù)叫叫獸er 源碼在相簿的鏈接中,動態(tài)中也有鏈接,感謝支持!??蒲羞b遙領(lǐng)先!
三、驗證是否成功即可
執(zhí)行命令
python train.py
改完收工!
關(guān)注B站:Ai學(xué)術(shù)叫叫獸er
從此走上科研快速路
遙遙領(lǐng)先同行!!!!
詳細(xì)的改進(jìn)教程以及源碼,戳這!戳這!!戳這!!!B站:AI學(xué)術(shù)叫叫獸er 源碼在相簿的鏈接中,動態(tài)中也有鏈接,感謝支持!祝科研遙遙領(lǐng)先!