中文亚洲精品无码_熟女乱子伦免费_人人超碰人人爱国产_亚洲熟妇女综合网

當前位置: 首頁 > news >正文

可以做設計的網(wǎng)站社交媒體營銷案例

可以做設計的網(wǎng)站,社交媒體營銷案例,個人做金融網(wǎng)站能賺錢嗎,做類似淘寶的網(wǎng)站需多少資金torch.nn - PyTorch中文文檔 (pytorch-cn.readthedocs.io) LSTM — PyTorch 2.3 documentation LSTM層的作用 LSTM層:長短時記憶網(wǎng)絡層,它的主要作用是對輸入序列進行處理,對序列中的每個元素進行編碼并保存它們的狀態(tài),以便后續(xù)的處理。 …

torch.nn - PyTorch中文文檔 (pytorch-cn.readthedocs.io)

LSTM — PyTorch 2.3 documentation

LSTM層的作用

LSTM層:長短時記憶網(wǎng)絡層,它的主要作用是對輸入序列進行處理,對序列中的每個元素進行編碼并保存它們的狀態(tài),以便后續(xù)的處理。

LSTM 是一種特殊的 RNN,它通過引入門控機制來解決傳統(tǒng) RNN 的長期依賴問題。

我們假設:h為LSTM單元的隱藏層輸出,c為LSTM內存單元的值,x為輸入數(shù)據(jù)。

LSTM 的結構包含以下幾個關鍵組件:

1、輸入門(input gate):決定當前時間步的輸入信息對細胞狀態(tài)的影響程度。

2、遺忘門(forgetgate):決定上一個時間步的細胞狀態(tài)對當前時間步的影響程度。

3、細胞狀態(tài)(cell state):用于在不同時間步之間傳遞和存儲信息。

4、輸出門(output gate):決定細胞狀態(tài)對當前時間步的輸出影響程度。

5、隱藏狀態(tài)(hiddenstate):當前時間步的輸出,也是下一個時間步的輸入。

nn.LSTM

計算公式

對輸入序列的每個元素,LSTM的每層都會執(zhí)行以下計算:

h_t是時刻t的隱狀態(tài),
c_t是時刻t的細胞狀態(tài),
x_t是上一層的在時刻t的隱狀態(tài)或者是第一層在時刻t的輸入。
i_t, f_t, g_t, o_t分別代表 輸入門,遺忘門,細胞和輸出門。

參數(shù)說明:

?torch.nn.LSTM(input_size,?hidden_size,?num_layers=1,?bias=True,?batch_first=False,?dropout=0.0,?bidirectional=False,?proj_size=0,?device=None,?dtype=None)

  • input_size – 輸入x的特征數(shù)量。
  • hidden_size – 隱層的特征數(shù)量。
  • num_layers – RNN的層數(shù)。
  • nonlinearity – 激活函數(shù)。指定非線性函數(shù)使用tanh還是relu。默認是tanh。
  • bias –?是否使用偏置。
  • batch_first – 如果True的話,那么輸入Tensor的shape應該是[batch_size, time_step, feature],輸出也是這樣。默認是 False,就是這樣形式,(seq(num_step), batch, input_dim),也就是將序列長度放在第一位,batch 放在第二位
  • dropout – 默認不使用,如若使用將其設置成一個0-1的數(shù)字即可。如果值非零,那么除了最后一層外,其它層的輸出都會套上一個dropout層。
  • bidirectional是否使用雙向的 rnn,默認是 False

輸入:input, (h_0, c_0)

  • input_shape =?[時間步數(shù), 批量大小, 特征維度]?= [num_steps(seq_length), batch_size, input_dim]=input (seq_len, batch, input_size)保存輸入序列特征的tensor。
  • h_0是shape=(num_layers*num_directions,batch_size,hidden_size)的張量,保存著batch中每個元素的初始化隱狀態(tài)的Tensor。其中num_layers就是LSTM的層數(shù)。如果bidirectional=True,num_directions=2,否則就是1,表示只有一個方向。
  • c_0 是shape=(num_layers*num_directions,batch_size,hidden_size)的張量, 保存著batch中每個元素的初始化細胞狀態(tài)的Tensor。h_0,c_0如果不提供,那么默認是0。

輸出:output, (h_n, c_n)

  • output的shape=(seq_length,batch_size,num_directions*hidden_size),(時間步數(shù), 批量大小, 隱藏單元個數(shù))。保存最后一層的輸出的Tensor。
  • h_n (num_layers * num_directions, batch, hidden_size):?Tensor,保存著LSTM最后一個時間步的隱狀態(tài)。
  • c_n (num_layers * num_directions, batch, hidden_size):?Tensor,保存著LSTM最后一個時間步的細胞狀態(tài)。

LSTM模型參數(shù):

LSTM — PyTorch 2.3 documentation

LSTM的結構解釋:

MATLAB神經(jīng)網(wǎng)絡---lstmLayer(LSTM 長短期記憶神經(jīng)網(wǎng)絡)-CSDN博客

http://www.risenshineclean.com/news/1881.html

相關文章:

  • wordpress產(chǎn)品的分類標簽屬性區(qū)別信息流優(yōu)化師培訓機構
  • 網(wǎng)站設計審美角度怎么去推廣一個app
  • 甘肅省住房和城鄉(xiāng)建設廳注冊中心網(wǎng)站首頁交換鏈接適用于哪些網(wǎng)站
  • 湖南網(wǎng)站建設小公司排名廣州網(wǎng)站優(yōu)化外包
  • 石家莊企業(yè)網(wǎng)站制作上海網(wǎng)絡推廣優(yōu)化公司
  • 成都網(wǎng)站建設小程序360關鍵詞指數(shù)查詢
  • 手機上做網(wǎng)站php網(wǎng)站制作企業(yè)有哪些
  • 1000M雙線網(wǎng)站空間中國搜索引擎大全
  • 南京教育網(wǎng)站開發(fā)線上電商怎么做
  • wordpress 建站 電子書網(wǎng)絡營銷的核心是什么
  • 網(wǎng)站負責人姓名找合作項目app平臺
  • 競價網(wǎng)站托管濟南seo優(yōu)化外包服務公司
  • 大紅門做網(wǎng)站怎樣交換友情鏈接
  • 做網(wǎng)站用什么配資電腦千鋒教育介紹
  • 做網(wǎng)站 大文件百度怎么創(chuàng)建自己的網(wǎng)站
  • 煙臺高新區(qū)建設局網(wǎng)站網(wǎng)絡廣告策劃
  • 無障礙網(wǎng)站建設方案近期重大新聞事件
  • 上海公司做網(wǎng)站的友情鏈接是什么
  • 網(wǎng)站定制微安電力案例臨沂色度廣告有限公司
  • 中國住建部網(wǎng)站查詢網(wǎng)寧波企業(yè)seo服務
  • win7 iis默認網(wǎng)站設置張北網(wǎng)站seo
  • 烏魯木齊網(wǎng)站制作百度廣告聯(lián)盟賺廣告費
  • 做五金的有哪些外貿網(wǎng)站媒體軟文推廣平臺
  • 網(wǎng)站開發(fā)聯(lián)系方式百度公司有哪些部門
  • 用前端做的比較酷的網(wǎng)站2022適合小學生的簡短新聞摘抄
  • 凡科可以做返利網(wǎng)站嗎移動廣告平臺
  • 手機網(wǎng)站小程序華為手機業(yè)務最新消息
  • 中港建設集團網(wǎng)站百度seo關鍵詞優(yōu)化電話
  • wordpress前臺注冊登陸網(wǎng)站優(yōu)化推廣排名
  • 網(wǎng)站制作公司哪兒濟南興田德潤有活動嗎微信軟文模板