中文亚洲精品无码_熟女乱子伦免费_人人超碰人人爱国产_亚洲熟妇女综合网

當(dāng)前位置: 首頁 > news >正文

境外公司注冊優(yōu)化工具箱下載

境外公司注冊,優(yōu)化工具箱下載,網(wǎng)站建設(shè)ppt課件,淺析b2c電子商務(wù)網(wǎng)站的建設(shè)💥💥💞💞歡迎來到本博客????💥💥 🏆博主優(yōu)勢:🌞🌞🌞博客內(nèi)容盡量做到思維縝密,邏輯清晰,為了方便讀者。 ??座右銘&a…

?💥💥💞💞歡迎來到本博客????💥💥

🏆博主優(yōu)勢:🌞🌞🌞博客內(nèi)容盡量做到思維縝密,邏輯清晰,為了方便讀者。

??座右銘:行百里者,半于九十。

📋📋📋本文目錄如下:🎁🎁🎁

目錄

💥1 概述

📚2 運行結(jié)果

🎉3?參考文獻(xiàn)

🌈4 Python代碼及數(shù)據(jù)


💥1 概述

CBAM(CBAM-CNN)是一種用于計算機(jī)視覺領(lǐng)域的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),它能夠有效地從圖像中學(xué)習(xí)關(guān)注和調(diào)整。CBAM模型結(jié)合了通道注意力模塊(Channel Attention Module)和空間注意力模塊(Spatial Attention Module)兩個部分,用于提升卷積神經(jīng)網(wǎng)絡(luò)的性能。

通道注意力模塊(CAM)旨在通過學(xué)習(xí)不同通道之間的相關(guān)性,為每個通道分配適當(dāng)?shù)淖⒁饬?quán)重。該模塊首先通過全局平均池化獲得整個通道的平均值,然后使用兩個全連接層來生成一組注意力權(quán)重。這些權(quán)重用于調(diào)整每個通道的特征圖。

空間注意力模塊(SAM)旨在學(xué)習(xí)圖像中不同空間區(qū)域的重要性。該模塊通過對特征圖在不同空間維度上進(jìn)行最大池化和平均池化操作,然后使用一個卷積層來生成一組注意力權(quán)重。最后,這些權(quán)重被應(yīng)用于原始特征圖,以增強(qiáng)具有重要空間信息的區(qū)域。

通過結(jié)合通道注意力模塊和空間注意力模塊,CBAM能夠動態(tài)地選擇和調(diào)整特征圖的通道和空間注意力,從而提取更準(zhǔn)確和具有區(qū)分力的特征表示。這種注意力機(jī)制有助于網(wǎng)絡(luò)更好地對圖像進(jìn)行感知,從而改善圖像分類、目標(biāo)檢測、圖像分割等計算機(jī)視覺任務(wù)的性能。

針對預(yù)測任務(wù),可以使用CBAM-CNN模型進(jìn)行圖像分類或目標(biāo)檢測。在圖像分類任務(wù)中,CBAM-CNN可以通過自適應(yīng)地關(guān)注重要的通道和空間區(qū)域,提取圖像特征并進(jìn)行分類。在目標(biāo)檢測任務(wù)中,CBAM-CNN可以輔助檢測網(wǎng)絡(luò)對目標(biāo)區(qū)域進(jìn)行準(zhǔn)確定位和分類。

需要注意的是,CBAM-CNN只是一種網(wǎng)絡(luò)結(jié)構(gòu),具體的預(yù)測研究還需要根據(jù)具體的任務(wù)和數(shù)據(jù)集進(jìn)行調(diào)整和優(yōu)化。

📚2 運行結(jié)果

?部分代碼:

def forward(self, x):# 1.最大池化分支max_branch = self.MaxPool(x)# 送入MLP全連接神經(jīng)網(wǎng)絡(luò), 得到權(quán)重max_in = max_branch.view(max_branch.size(0), -1)max_weight = self.fc_MaxPool(max_in)# 2.全局池化分支avg_branch = self.AvgPool(x)# 送入MLP全連接神經(jīng)網(wǎng)絡(luò), 得到權(quán)重avg_in = avg_branch.view(avg_branch.size(0), -1)avg_weight = self.fc_AvgPool(avg_in)# MaxPool + AvgPool 激活后得到權(quán)重weightweight = max_weight + avg_weightweight = self.sigmoid(weight)# 將維度為b, c的weight, reshape成b, c, 1, 1 與 輸入x 相乘h, w = weight.shape# 通道注意力McMc = torch.reshape(weight, (h, w, 1))# 乘積獲得結(jié)果x = Mc * xreturn xclass SpatialAttentionModul(nn.Module):  # 空間注意力模塊def __init__(self, in_channel):super(SpatialAttentionModul, self).__init__()self.conv = nn.Conv1d(2, 1, 7, padding=3)self.sigmoid = nn.Sigmoid()def forward(self, x):# x維度為 [N, C, H, W] 沿著維度C進(jìn)行操作, 所以dim=1, 結(jié)果為[N, H, W]MaxPool = torch.max(x, dim=1).values  # torch.max 返回的是索引和value, 要用.values去訪問值才行!AvgPool = torch.mean(x, dim=1)# 增加維度, 變成 [N, 1, H, W]MaxPool = torch.unsqueeze(MaxPool, dim=1)AvgPool = torch.unsqueeze(AvgPool, dim=1)# 維度拼接 [N, 2, H, W]x_cat = torch.cat((MaxPool, AvgPool), dim=1)  # 獲得特征圖# 卷積操作得到空間注意力結(jié)果x_out = self.conv(x_cat)Ms = self.sigmoid(x_out)# 與原圖通道進(jìn)行乘積x = Ms * xreturn xif __name__ == '__main__':inputs = torch.randn(32, 512, 16)model = CBAM(in_channel=512)  # CBAM模塊, 可以插入CNN及任意網(wǎng)絡(luò)中, 輸入特征圖in_channel的維度
    def forward(self, x):# 1.最大池化分支max_branch = self.MaxPool(x)# 送入MLP全連接神經(jīng)網(wǎng)絡(luò), 得到權(quán)重max_in = max_branch.view(max_branch.size(0), -1)max_weight = self.fc_MaxPool(max_in)# 2.全局池化分支avg_branch = self.AvgPool(x)# 送入MLP全連接神經(jīng)網(wǎng)絡(luò), 得到權(quán)重avg_in = avg_branch.view(avg_branch.size(0), -1)avg_weight = self.fc_AvgPool(avg_in)# MaxPool + AvgPool 激活后得到權(quán)重weightweight = max_weight + avg_weightweight = self.sigmoid(weight)# 將維度為b, c的weight, reshape成b, c, 1, 1 與 輸入x 相乘h, w = weight.shape# 通道注意力McMc = torch.reshape(weight, (h, w, 1))# 乘積獲得結(jié)果x = Mc * xreturn xclass SpatialAttentionModul(nn.Module):  # 空間注意力模塊def __init__(self, in_channel):super(SpatialAttentionModul, self).__init__()self.conv = nn.Conv1d(2, 1, 7, padding=3)self.sigmoid = nn.Sigmoid()def forward(self, x):# x維度為 [N, C, H, W] 沿著維度C進(jìn)行操作, 所以dim=1, 結(jié)果為[N, H, W]MaxPool = torch.max(x, dim=1).values  # torch.max 返回的是索引和value, 要用.values去訪問值才行!AvgPool = torch.mean(x, dim=1)# 增加維度, 變成 [N, 1, H, W]MaxPool = torch.unsqueeze(MaxPool, dim=1)AvgPool = torch.unsqueeze(AvgPool, dim=1)# 維度拼接 [N, 2, H, W]x_cat = torch.cat((MaxPool, AvgPool), dim=1)  # 獲得特征圖# 卷積操作得到空間注意力結(jié)果x_out = self.conv(x_cat)Ms = self.sigmoid(x_out)# 與原圖通道進(jìn)行乘積x = Ms * xreturn xif __name__ == '__main__':inputs = torch.randn(32, 512, 16)model = CBAM(in_channel=512)  # CBAM模塊, 可以插入CNN及任意網(wǎng)絡(luò)中, 輸入特征圖in_channel的維度

🎉3?參考文獻(xiàn)

部分理論來源于網(wǎng)絡(luò),如有侵權(quán)請聯(lián)系刪除。

[1]黃昌順,張金萍.基于CBAM-CNN的滾動軸承故障診斷方法[J].現(xiàn)代制造工程,2022(11):137-143.DOI:10.16731/j.cnki.1671-3133.2022.11.022.

[2]杜先君,鞏彬,余萍等.基于CBAM-CNN的模擬電路故障診斷[J].控制與決策,2022,37(10):2609-2618.DOI:10.13195/j.kzyjc.2021.1111.

🌈4 Python代碼及數(shù)據(jù)

http://www.risenshineclean.com/news/30796.html

相關(guān)文章:

  • 做圖網(wǎng)站有哪些線上網(wǎng)絡(luò)推廣怎么做
  • 導(dǎo)航欄網(wǎng)站模板特效搭建一個網(wǎng)站的流程
  • 中國企業(yè)培訓(xùn)網(wǎng)蘭州seo培訓(xùn)
  • 如何建設(shè)網(wǎng)站山東濟(jì)南興田德潤官網(wǎng)域名檢測工具
  • 俄語網(wǎng)站建設(shè)公司沒經(jīng)驗可以做電商運營嗎
  • 模仿京東商城網(wǎng)站開發(fā)視頻蘋果自研搜索引擎或為替代谷歌
  • 免抵退稅在哪個網(wǎng)站做北京新聞最新消息
  • 電商網(wǎng)站建設(shè)與運營seo專員工作容易學(xué)嗎
  • 順德新網(wǎng)站制作行業(yè)關(guān)鍵詞一覽表
  • 個人網(wǎng)站如何做專業(yè)的營銷團(tuán)隊哪里找
  • 廣州做網(wǎng)站哪家好網(wǎng)站推廣怎么做有效果
  • 網(wǎng)站公安備案網(wǎng)址電商平臺怎么加入
  • 凡科免費建設(shè)企業(yè)網(wǎng)站靠譜嗎個人做外貿(mào)怎樣起步
  • 電子商務(wù)網(wǎng)站建設(shè)花費今日新聞頭條新聞最新
  • 泗陽城鄉(xiāng)建設(shè)局網(wǎng)站域名seo查詢
  • 百度優(yōu)化網(wǎng)站建設(shè)wordpress外貿(mào)獨立站
  • 網(wǎng)站維護(hù)需要會什么海外免費網(wǎng)站推廣
  • 網(wǎng)站建設(shè)中代碼怎么自己做網(wǎng)頁
  • 網(wǎng)站設(shè)計與管理邯鄲百度推廣公司
  • 哪里有國內(nèi)網(wǎng)站建設(shè)公司淄博網(wǎng)站制作
  • 網(wǎng)站建站公司排名優(yōu)化網(wǎng)站的公司哪家好
  • 日照網(wǎng)站建設(shè)千萬別在百度上搜別人名字
  • 杭州灣新區(qū)建設(shè)局網(wǎng)站seo優(yōu)化便宜
  • 學(xué)校網(wǎng)站建設(shè)軟件推薦免費的h5制作網(wǎng)站
  • 建設(shè)網(wǎng)站建設(shè)什么掙錢互聯(lián)網(wǎng)品牌營銷公司
  • 蘇州高端網(wǎng)站建設(shè)解釋seo網(wǎng)站推廣
  • 電腦做會計從業(yè)題目用什么網(wǎng)站最新新聞事件
  • 建設(shè)銀行網(wǎng)站個人中心大量微信群推廣代發(fā)廣告
  • axure怎么做網(wǎng)站引流推廣營銷
  • c 網(wǎng)站開發(fā)如何每天10點執(zhí)行任務(wù)東莞有哪些做推廣的網(wǎng)站