中文亚洲精品无码_熟女乱子伦免费_人人超碰人人爱国产_亚洲熟妇女综合网

當(dāng)前位置: 首頁 > news >正文

wordpress下載站源碼營銷推廣公司案例

wordpress下載站源碼,營銷推廣公司案例,微信應(yīng)用平臺開發(fā),wordpress優(yōu)化訪問速度一般來說,大家使用VGG16,用的是第四列的網(wǎng)絡(luò)架構(gòu),而使用VGG19,使用的就是第六列的網(wǎng)絡(luò)架構(gòu)。 使用vgg進(jìn)行提取特征,在這個(gè)項(xiàng)目中,使用的就是每一塊卷積層的第一層。 import torch.nn as nn from torchvis…

一般來說,大家使用VGG16,用的是第四列的網(wǎng)絡(luò)架構(gòu),而使用VGG19,使用的就是第六列的網(wǎng)絡(luò)架構(gòu)。
在這里插入圖片描述
使用vgg進(jìn)行提取特征,在這個(gè)項(xiàng)目中,使用的就是每一塊卷積層的第一層。

import torch.nn as nn
from torchvision import models
from torchvision.models.vgg import VGG19_Weightsclass VGGNet(nn.Module):def __init__(self):super(VGGNet, self).__init__()self.select = ['0', '5', '10', '19', '28']# self.vgg = models.vgg19(pretrained=True).features  # .features用于提取卷積層self.vgg = models.vgg19(weights=VGG19_Weights.IMAGENET1K_V1).featuresdef forward(self, x):features = []for name, layer in self.vgg._modules.items():x = layer(x)  # name為第幾層的序列號,layer就是卷積層,,x為輸入的圖片。x = layer(x)的意思是,x經(jīng)過layer層卷積后再賦值給xif name in self.select:features.append(x)return featuresnet = VGGNet()
print(net)

我們打印了一下我們定義的net

VGGNet((vgg): Sequential((0): Conv2d(3, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))(1): ReLU(inplace=True)(2): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))(3): ReLU(inplace=True)(4): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)(5): Conv2d(64, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))(6): ReLU(inplace=True)(7): Conv2d(128, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))(8): ReLU(inplace=True)(9): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)(10): Conv2d(128, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))(11): ReLU(inplace=True)(12): Conv2d(256, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))(13): ReLU(inplace=True)(14): Conv2d(256, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))(15): ReLU(inplace=True)(16): Conv2d(256, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))(17): ReLU(inplace=True)(18): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)(19): Conv2d(256, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))(20): ReLU(inplace=True)(21): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))(22): ReLU(inplace=True)(23): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))(24): ReLU(inplace=True)(25): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))(26): ReLU(inplace=True)(27): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)(28): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))(29): ReLU(inplace=True)(30): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))(31): ReLU(inplace=True)(32): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))(33): ReLU(inplace=True)(34): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))(35): ReLU(inplace=True)(36): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False))
)

講解

特征提取列表

self.select = ['0', '5', '10', '19', '28']

第一次看代碼的時(shí)候,會被這個(gè)列表給迷惑住,VGG19不是只有19層嗎,19層指的是除去maxpool,softmax這些層以外,卷積層和全連接層這些包含參數(shù)的層,共有19層。

但是,實(shí)際過程中,ReLU激活函數(shù),也算在里面,因此,上文打印出來,會超過19層,因此,通過對應(yīng)的索引,可以找到每塊卷積的第一層。

forward函數(shù)

最簡單的解釋,就是將x逐層喂入神經(jīng)網(wǎng)絡(luò),當(dāng)經(jīng)過的這個(gè)層剛好是每塊卷積層的第一層,就將經(jīng)過這層的結(jié)果保存到列表中,該結(jié)果中保存的就是圖片的特征。

我們調(diào)試一下看看

import torch.nn as nn
import torch
from torchvision import models
from torchvision.models.vgg import VGG19_Weightsclass VGGNet(nn.Module):def __init__(self):super(VGGNet, self).__init__()self.select = ['0', '5', '10', '19', '28']# self.vgg = models.vgg19(pretrained=True).features  # .features用于提取卷積層self.vgg = models.vgg19(weights=VGG19_Weights.IMAGENET1K_V1).features# self.vgg = models.vgg19(weights=VGG19_Weights.IMAGENET1K_V1).featuresdef forward(self, x):features = []for name, layer in self.vgg._modules.items():x = layer(x)  # name為第幾層的序列號,layer就是卷積層,,x為輸入的圖片。x = layer(x)的意思是,x經(jīng)過layer層卷積后再賦值給xif name in self.select:features.append(x)return featuresnet = VGGNet()
print(net)
input_tensor = torch.randn(1, 3, 256, 256)
output = net(input_tensor)
print(output)

在這里插入圖片描述
可以看到,里面存放的是tensor格式的數(shù)據(jù)。
所以,經(jīng)過這個(gè)網(wǎng)絡(luò),提取了圖片的特征。

http://www.risenshineclean.com/news/30644.html

相關(guān)文章:

  • 安徽建筑大學(xué)學(xué)工在線網(wǎng)站蘇州網(wǎng)站制作推廣
  • 廣西代理網(wǎng)站建設(shè)公司百度網(wǎng)址提交入口
  • 做網(wǎng)站建設(shè)站長工具櫻花
  • 甘肅網(wǎng)站建設(shè)制作商競價(jià)賬戶托管公司
  • 網(wǎng)站開發(fā)集成環(huán)境seo優(yōu)化工作怎么樣
  • 網(wǎng)站建設(shè)招標(biāo)評分標(biāo)準(zhǔn)福州網(wǎng)站制作推廣
  • wordpress的數(shù)據(jù)庫在那里關(guān)鍵詞優(yōu)化建議
  • dw怎么做網(wǎng)站輪播圖企業(yè)宣傳方式有哪些
  • 網(wǎng)站備案 太煩個(gè)人免費(fèi)域名注冊網(wǎng)站
  • 企業(yè)網(wǎng)站建設(shè)與維護(hù)運(yùn)營愛站網(wǎng)能不能挖掘關(guān)鍵詞
  • 徐州哪家做網(wǎng)站好網(wǎng)站的seo方案
  • 海城網(wǎng)站制作建設(shè)高效統(tǒng)籌疫情防控和經(jīng)濟(jì)社會發(fā)展
  • java做網(wǎng)站步驟網(wǎng)推
  • 做兼職的網(wǎng)站企業(yè)網(wǎng)站seo優(yōu)化公司
  • 整站策劃營銷型網(wǎng)站建設(shè)網(wǎng)站優(yōu)化b2b網(wǎng)站有哪些平臺
  • dede自適應(yīng)網(wǎng)站注意事項(xiàng)營銷網(wǎng)站方案設(shè)計(jì)
  • 做電商必須知道的網(wǎng)站短視頻關(guān)鍵詞優(yōu)化
  • 做網(wǎng)站業(yè)務(wù)提成多少it培訓(xùn)
  • 公司名稱大全兩個(gè)字引擎搜索優(yōu)化
  • wordpress用戶登陸武漢seo優(yōu)化服務(wù)
  • 做網(wǎng)站圖片多大企業(yè)網(wǎng)絡(luò)營銷策略分析案例
  • 南京建設(shè)網(wǎng)站首頁上海營銷公司
  • 濟(jì)南高端網(wǎng)站建設(shè)無錫百度推廣開戶
  • 移動版網(wǎng)站怎么做武漢seo排名公司
  • 定西市小企業(yè)網(wǎng)站建設(shè)建設(shè)西安專業(yè)seo
  • 網(wǎng)站正能量免費(fèi)推廣軟件晚上推廣的渠道和方法有哪些
  • 西安網(wǎng)站制作的公司廊坊seo網(wǎng)站管理
  • 黃山網(wǎng)站建設(shè)推廣網(wǎng)絡(luò)輿情監(jiān)測系統(tǒng)
  • 現(xiàn)在pc網(wǎng)站的標(biāo)準(zhǔn)一般是做多大長沙網(wǎng)站優(yōu)化推廣
  • 網(wǎng)站建設(shè)gzdlzgg北京網(wǎng)絡(luò)網(wǎng)站推廣