中文亚洲精品无码_熟女乱子伦免费_人人超碰人人爱国产_亚洲熟妇女综合网

當(dāng)前位置: 首頁 > news >正文

網(wǎng)站開發(fā)使用的語言有哪些seo是什么意思中文翻譯

網(wǎng)站開發(fā)使用的語言有哪些,seo是什么意思中文翻譯,深圳網(wǎng)站設(shè)計(jì)靈點(diǎn)網(wǎng)絡(luò)品牌,江都建設(shè)銀行網(wǎng)站pytorch 實(shí)現(xiàn)git地址 論文地址:Neural Discrete Representation Learning 1 論文核心知識(shí)點(diǎn) encoder 將圖片通過encoder得到圖片點(diǎn)表征 如輸入shape [32,3,32,32] 通過encoder后輸出 [32,64,8,8] (其中64位輸出維度) 量化碼本 先隨機(jī)構(gòu)建一個(gè)碼本,維度…

pytorch 實(shí)現(xiàn)git地址
論文地址:Neural Discrete Representation Learning

1 論文核心知識(shí)點(diǎn)

  • encoder
    將圖片通過encoder得到圖片點(diǎn)表征
    如輸入shape [32,3,32,32]
    通過encoder后輸出 [32,64,8,8] (其中64位輸出維度)

  • 量化碼本
    先隨機(jī)構(gòu)建一個(gè)碼本,維度與encoder保持一致
    這里定義512個(gè)離散特征,碼本shape 為[512,64]

  • encoder 碼本中向量最近查找
    encoder輸出shape [32,64,8,8], 經(jīng)過維度變換 shape [32 * 8 * 8,64]
    在碼本中找到最相近的向量,并替換為碼本中相似向量
    輸出shape [3288,64],維度變換后,shape 為 [32,64,8,8]

  • decoder
    將上述數(shù)據(jù),喂給decoder,還原原始圖片

  • loss
    loss 包含兩部分
    a . encoder輸出和碼本向量接近
    b. 重構(gòu)loss,重構(gòu)圖片與原圖片接近

在這里插入圖片描述

2 論文實(shí)現(xiàn)

2.1 encoder

encoder是常用的圖片卷積神經(jīng)網(wǎng)絡(luò)
輸入x shape [32,3,32,32]
輸出 shape [32,128,8,8]

def __init__(self, in_dim, h_dim, n_res_layers, res_h_dim):super(Encoder, self).__init__()kernel = 4stride = 2self.conv_stack = nn.Sequential(nn.Conv2d(in_dim, h_dim // 2, kernel_size=kernel,stride=stride, padding=1),nn.ReLU(),nn.Conv2d(h_dim // 2, h_dim, kernel_size=kernel,stride=stride, padding=1),nn.ReLU(),nn.Conv2d(h_dim, h_dim, kernel_size=kernel-1,stride=stride-1, padding=1),ResidualStack(h_dim, h_dim, res_h_dim, n_res_layers))def forward(self, x):return self.conv_stack(x)

2.2 VectorQuantizer 向量量化層

  • 輸入:
    為encoder的輸出z,shape : [32,64,8,8]
  • 碼本維度:
    encoder維度變換為[2024,64],和碼本embeddign shape [512,64]計(jì)算相似度
  • 相似計(jì)算:使用 ( x ? y ) 2 = x 2 + y 2 ? 2 x y (x-y)^2=x^2+y^2-2xy (x?y)2=x2+y2?2xy計(jì)算和碼本的相似度
  • z_q生成
    然后取碼本中最相似的向量替換encoder中的向量
  • z_1維度:
    得到z_q shape [2024,64],經(jīng)維度變換 shape [32,64,8,8] ,維度與輸入z一致
  • 損失函數(shù):
    使 z_q和z接近,構(gòu)建損失函數(shù)
    在這里插入圖片描述

decoder 層

decoder層比較簡(jiǎn)單,與encoder層相反
輸入x shape 【32,64,8,8】
輸出shape [32,3,32,32]

class Decoder(nn.Module):"""This is the p_phi (x|z) network. Given a latent sample z p_phi maps back to the original space z -> x.Inputs:- in_dim : the input dimension- h_dim : the hidden layer dimension- res_h_dim : the hidden dimension of the residual block- n_res_layers : number of layers to stack"""def __init__(self, in_dim, h_dim, n_res_layers, res_h_dim):super(Decoder, self).__init__()kernel = 4stride = 2self.inverse_conv_stack = nn.Sequential(nn.ConvTranspose2d(in_dim, h_dim, kernel_size=kernel-1, stride=stride-1, padding=1),ResidualStack(h_dim, h_dim, res_h_dim, n_res_layers),nn.ConvTranspose2d(h_dim, h_dim // 2,kernel_size=kernel, stride=stride, padding=1),nn.ReLU(),nn.ConvTranspose2d(h_dim//2, 3, kernel_size=kernel,stride=stride, padding=1))def forward(self, x):return self.inverse_conv_stack(x)

2.3 損失函數(shù)

損失函數(shù)為重構(gòu)損失和embedding損失之和

  • decoder 輸出為圖片重構(gòu)x_hat
  • embedding損失,為encoder和碼本的embedding近似損失
  • 重點(diǎn):(decoder計(jì)算損失時(shí),由于中間有取最小值,導(dǎo)致梯度不連續(xù),因此decoder loss 不能直接對(duì)encocer推薦進(jìn)行求導(dǎo),采用了復(fù)制梯度的方式: z_q = z + (z_q - z).detach(),及
    for i in range(args.n_updates):(x, _) = next(iter(training_loader))x = x.to(device)optimizer.zero_grad()embedding_loss, x_hat, perplexity = model(x)recon_loss = torch.mean((x_hat - x)**2) / x_train_varloss = recon_loss + embedding_lossloss.backward()optimizer.step()
http://www.risenshineclean.com/news/51586.html

相關(guān)文章:

  • 自己做網(wǎng)站 服務(wù)器臨沂做網(wǎng)站推廣的公司
  • 專業(yè)做數(shù)據(jù)的網(wǎng)站有哪些寧波如何做seo排名優(yōu)化
  • 廣州外貿(mào)型網(wǎng)站智能網(wǎng)站排名優(yōu)化
  • 網(wǎng)頁在線制作網(wǎng)站搜索引擎優(yōu)化課程
  • 中國(guó)建設(shè)學(xué)會(huì)網(wǎng)站企業(yè)網(wǎng)站模板源碼
  • 做前后端網(wǎng)站教程免費(fèi)軟文發(fā)布平臺(tái)
  • 江蘇水利工程建設(shè)招投標(biāo)網(wǎng)站最佳bt磁力狗
  • 公司網(wǎng)站建設(shè)開題報(bào)告西安百度推廣電話
  • 廣東建設(shè)網(wǎng)工程信息網(wǎng)站無錫網(wǎng)站建設(shè)seo
  • wordpress如何開發(fā)搜索寧波seo自然優(yōu)化技術(shù)
  • 免費(fèi)做海報(bào)的網(wǎng)站效果好的東莞品牌網(wǎng)站建設(shè)
  • 昆山營(yíng)銷型網(wǎng)站建設(shè)方法模板建站優(yōu)點(diǎn)
  • 產(chǎn)品包裝設(shè)計(jì)網(wǎng)站找誰做google瀏覽器下載
  • 壽光專業(yè)做網(wǎng)站的公司天津百度分公司
  • 網(wǎng)站建設(shè)論文的摘要免費(fèi)b站推廣網(wǎng)站入口
  • 校園網(wǎng)站頁面設(shè)計(jì)杭州排名優(yōu)化公司
  • 關(guān)于網(wǎng)站開發(fā)的文獻(xiàn)縱橫seo
  • 企業(yè)網(wǎng)站建設(shè)的實(shí)踐意義外鏈怎么做
  • 如何靠裁圖找到網(wǎng)站中國(guó)最好的營(yíng)銷策劃公司
  • 網(wǎng)站項(xiàng)目建設(shè)申請(qǐng)匯報(bào)大綱網(wǎng)絡(luò)營(yíng)銷推廣方案整合
  • 四網(wǎng)合一網(wǎng)站建設(shè)seo排名點(diǎn)擊軟件推薦
  • 個(gè)人新聞?lì)惥W(wǎng)站模板世界足球排名前100名
  • 體驗(yàn)好的網(wǎng)站陜西省人民政府
  • 互聯(lián)網(wǎng)行業(yè)環(huán)境分析seo博客
  • 網(wǎng)站備案要幕布照新手做銷售怎么開發(fā)客戶
  • 建網(wǎng)站公司seo技巧seo排名優(yōu)化
  • 網(wǎng)站建設(shè)賺錢嗎網(wǎng)站怎么快速排名
  • 昆明做網(wǎng)站建設(shè)價(jià)位50個(gè)市場(chǎng)營(yíng)銷經(jīng)典案例
  • 中信建設(shè)有限責(zé)任公司洪波頁優(yōu)化軟件
  • 番禺做網(wǎng)站平臺(tái)湖南競(jìng)價(jià)優(yōu)化專業(yè)公司