泉州專(zhuān)業(yè)做網(wǎng)站南寧網(wǎng)站優(yōu)化
系列文章目錄
- pytorch學(xué)習(xí)1-數(shù)據(jù)加載以及Tensorboard可視化工具
- pytorch學(xué)習(xí)2-Transforms主要方法使用
- pytorch學(xué)習(xí)3-torchvisin和Dataloader的使用
- pytorch學(xué)習(xí)4-簡(jiǎn)易卷積實(shí)現(xiàn)
- pytorch學(xué)習(xí)5-最大池化層的使用
- pytorch學(xué)習(xí)6-非線(xiàn)性變換(ReLU和sigmoid)
- pytorch學(xué)習(xí)7-序列模型搭建
- pytorch學(xué)習(xí)8-損失函數(shù)與反向傳播
- pytorch學(xué)習(xí)9-優(yōu)化器學(xué)習(xí)
- pytorch學(xué)習(xí)10-網(wǎng)絡(luò)模型的保存和加載
- pytorch學(xué)習(xí)11-完整的模型訓(xùn)練過(guò)程
文章目錄
- 系列文章目錄
- 一、非線(xiàn)性變換(ReLU和sigmoid)
- 總結(jié)
一、非線(xiàn)性變換(ReLU和sigmoid)
import torch
import torchvision.datasets
from torch import nn
from torch.nn import ReLU, Sigmoid
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriterinput=torch.tensor([[1,-0.5],[-1,3]
])
output=torch.reshape(input,(-1,1,2,2))
print(output.shape)dataset=torchvision.datasets.CIFAR10("./data6",train=False,transform=torchvision.transforms.ToTensor(),download=True)
dataloader=DataLoader(dataset,batch_size=64)
class Mynn(nn.Module):def __init__(self):super(Mynn,self).__init__()self.relu1=ReLU()#使用ReLU激活函數(shù),inplace參數(shù)代表是不是覆蓋原始數(shù)據(jù),默認(rèn)為Falseself.sigmoid=Sigmoid()##使用sigmoid激活函數(shù)# def forward(self,input):# output=self.relu1(input)# return outputdef forward(self,input):output=self.sigmoid(input)return output
mynn=Mynn()
writer=SummaryWriter("logs6")
step=0
for data in dataloader:#dataloader的每一批次,既包含圖像又包含標(biāo)簽,所以要他們分出來(lái)單獨(dú)處理imgs,taiget=datawriter.add_images("我是輸入",imgs,step)output=mynn(imgs)writer.add_images("我是輸出",output,step)step+=1
writer.close()
總結(jié)
以上就是今天要講的內(nèi)容,非線(xiàn)性變換(ReLU和sigmoid)