中文亚洲精品无码_熟女乱子伦免费_人人超碰人人爱国产_亚洲熟妇女综合网

當(dāng)前位置: 首頁 > news >正文

青島專業(yè)網(wǎng)站制作團隊百度seo推廣首選帝搜軟件

青島專業(yè)網(wǎng)站制作團隊,百度seo推廣首選帝搜軟件,惠州有做網(wǎng)站的嗎,網(wǎng)站建設(shè)平臺價位前言: 這里主要實現(xiàn): Variational Autoencoders (VAEs) 變分自動編碼器 其訓(xùn)練效果如下 訓(xùn)練的過程中要注意調(diào)節(jié)forward 中的kle ,調(diào)參。 整個工程兩個文件: vae.py main.py 目錄: vae main 一 vae 文件名: vae…

前言:

? ?
?

這里主要實現(xiàn): Variational Autoencoders (VAEs) 變分自動編碼器
其訓(xùn)練效果如下

?

訓(xùn)練的過程中要注意調(diào)節(jié)forward 中的kle ,調(diào)參。

整個工程兩個文件:

? ? vae.py

? ?main.py

目錄:

  1. ? ?? vae
  2. ? ? ? main

一? vae

? 文件名: vae.py

? ?作用:? ?Variational Autoencoders (VAE)

?訓(xùn)練的過程中加入一些限制,使它的latent space規(guī)則一點呢。于是就引入了variational autoencoder(VAE),它被定義為一個有規(guī)律地訓(xùn)練以避免過度擬合的Autoencoder,可以確保潛在空間具有良好的屬性從而實現(xiàn)內(nèi)容的生成。
variational autoencoder的架構(gòu)和Autoencoder差不多,區(qū)別在于不再是把輸入當(dāng)作一個點,而是把輸入當(dāng)成一個分布。

# -*- coding: utf-8 -*-
"""
Created on Wed Aug 30 14:19:19 2023@author: chengxf2
"""import torch
from torch import nn#ae: AutoEncoderclass VAE(nn.Module):def __init__(self,hidden_size=20):super(VAE, self).__init__()self.encoder = nn.Sequential(nn.Linear(in_features=784, out_features=256),nn.ReLU(),nn.Linear(in_features=256, out_features=128),nn.ReLU(),nn.Linear(in_features=128, out_features=64),nn.ReLU(),nn.Linear(in_features=64, out_features=hidden_size),nn.ReLU())# hidden [batch_size, 10]h_dim = int(hidden_size/2)self.hDim = h_dimself.decoder = nn.Sequential(nn.Linear(in_features=h_dim, out_features=64),nn.ReLU(),nn.Linear(in_features=64, out_features=128),nn.ReLU(),nn.Linear(in_features=128, out_features=256),nn.ReLU(),nn.Linear(in_features=256, out_features=784),nn.Sigmoid())def forward(self, x):'''param x:[batch, 1,28,28]return '''batchSz= x.size(0)#flattenx = x.view(batchSz, 784)#encoderh= self.encoder(x)#在給定維度上對所給張量進行分塊,前一半的神經(jīng)元看作u, 后一般的神經(jīng)元看作sigmau, sigma = h.chunk(2,dim=1)#Reparameterize trick:#randn_like:產(chǎn)生一個正太分布 ~ N(0,1)#h.shape [batchSize,self.hDim]h = u+sigma* torch.randn_like(sigma)#kld :1e-8 防止sigma 平方為0kld = 0.5*torch.sum(torch.pow(u,2)+torch.pow(sigma,2)-torch.log(1e-8+torch.pow(sigma,2))-1)#MSE loss 是平均loss, 所以kld 也要算一個平均值kld = kld/(batchSz*32*32)xHat =   self.decoder(h)#reshapexHat = xHat.view(batchSz,1,28,28)return xHat,kld

二 main

文件名: main.py

作用: 訓(xùn)練,測試數(shù)據(jù)集

?

# -*- coding: utf-8 -*-
"""
Created on Wed Aug 30 14:24:10 2023@author: chengxf2
"""import torch
from torch.utils.data import DataLoader
from torchvision import transforms, datasets
import time
from torch import optim,nn
from vae import VAE
import visdomdef main():batchNum = 32lr = 1e-3epochs = 20device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")torch.manual_seed(1234)viz = visdom.Visdom()viz.line([0],[-1],win='train_loss',opts =dict(title='train acc'))tf= transforms.Compose([ transforms.ToTensor()])mnist_train = datasets.MNIST('mnist',True,transform= tf,download=True)train_data = DataLoader(mnist_train, batch_size=batchNum, shuffle=True)mnist_test = datasets.MNIST('mnist',False,transform= tf,download=True)test_data = DataLoader(mnist_test, batch_size=batchNum, shuffle=True)global_step =0model =VAE().to(device)criteon = nn.MSELoss().to(device) #損失函數(shù)optimizer = optim.Adam(model.parameters(),lr=lr) #梯度更新規(guī)則print("\n ----main-----")for epoch in range(epochs):start = time.perf_counter()for step ,(x,y) in enumerate(train_data):#[b,1,28,28]x = x.to(device)x_hat,kld = model(x)loss = criteon(x_hat, x)if kld is not None:elbo = -loss -1.0*kldloss = -elbo#backpropoptimizer.zero_grad()loss.backward()optimizer.step()viz.line(Y=[loss.item()],X=[global_step],win='train_loss',update='append')global_step +=1end = time.perf_counter()    interval = int(end - start)print("epoch: %d"%epoch, "\t 訓(xùn)練時間 %d"%interval, '\t 總loss: %4.7f'%loss.item(),"\t KL divergence: %4.7f"%kld.item())x,target = iter(test_data).next()x = x.to(device)with torch.no_grad():x_hat,kld = model(x)tip = 'hat'+str(epoch)viz.images(x,nrow=8, win='x',opts=dict(title='x'))viz.images(x_hat,nrow=8, win='x_hat',opts=dict(title=tip))if __name__ == '__main__':main()

?參考:

?課時118 變分Auto-Encoder實戰(zhàn)-2_嗶哩嗶哩_bilibili

http://www.risenshineclean.com/news/26978.html

相關(guān)文章:

  • 自己做首飾的好網(wǎng)站優(yōu)化方案電子版
  • 哪些網(wǎng)站比較容易做怎么做好市場宣傳和推廣
  • 什么網(wǎng)站可以快速做3d效果圖百度怎么注冊公司網(wǎng)站
  • 單頁銷售網(wǎng)站源碼站長統(tǒng)計軟件
  • 阿里云鏡像wordpressseo網(wǎng)站營銷推廣公司
  • 地產(chǎn)主視覺設(shè)計網(wǎng)站北京網(wǎng)站優(yōu)化對策
  • 教育視頻網(wǎng)站開發(fā)蘇州整站優(yōu)化
  • 周年慶網(wǎng)站要怎么做6seo公司推薦
  • 做宣傳冊模板的網(wǎng)站域名注冊商怎么查
  • 網(wǎng)站好友邀請鏈接生成 php酒店如何進行網(wǎng)絡(luò)營銷
  • 自己做的視頻網(wǎng)站視頻加載慢seo優(yōu)化培訓(xùn)機構(gòu)
  • 網(wǎng)站建設(shè)談單技巧深圳優(yōu)化seo
  • 做外貿(mào)主要是哪些網(wǎng)站石家莊今天最新新聞頭條
  • 用asp做網(wǎng)站怎么布局湖南百度推廣開戶
  • 網(wǎng)站建設(shè)運營預(yù)算合肥seo網(wǎng)站排名
  • 永久免費做網(wǎng)站app外貿(mào)營銷網(wǎng)站
  • wordpress按修改時間排序人員優(yōu)化是什么意思
  • 浙江巨鑫建設(shè)有限公司網(wǎng)站全能優(yōu)化大師
  • 接做網(wǎng)站私活無憂軟文網(wǎng)
  • 網(wǎng)站建設(shè)制度網(wǎng)絡(luò)營銷的方法包括哪些
  • 網(wǎng)站開發(fā)工具報告網(wǎng)絡(luò)推廣公司怎么找客戶
  • 深圳網(wǎng)站建設(shè)smawto百度競價開戶哪家好
  • html網(wǎng)站中文模板下載北京搜索引擎優(yōu)化seo專員
  • 西安網(wǎng)站建設(shè)費用百度競價推廣開戶費用
  • 微網(wǎng)站和門戶網(wǎng)站的區(qū)別徐州網(wǎng)站建設(shè)方案優(yōu)化
  • 保定學(xué)校網(wǎng)站建設(shè)小程序搭建教程
  • 高端網(wǎng)站設(shè)計報價表百度推廣優(yōu)化排名怎么收費
  • 網(wǎng)店代理杭州seo教程
  • 服務(wù)器是干什么用的一點優(yōu)化
  • 都江堰發(fā)布seo綜合查詢網(wǎng)站