中文亚洲精品无码_熟女乱子伦免费_人人超碰人人爱国产_亚洲熟妇女综合网

當(dāng)前位置: 首頁 > news >正文

重慶江北區(qū)網(wǎng)站建設(shè)公司seo大全

重慶江北區(qū)網(wǎng)站建設(shè)公司,seo大全,主機(jī)如何做網(wǎng)站空間,如何做好網(wǎng)站建設(shè)目錄 🍔 BERT, GPT, ELMo之間的不同點(diǎn) 🍔 BERT, GPT, ELMo各自的優(yōu)點(diǎn)和缺點(diǎn) 🍔 小結(jié) 學(xué)習(xí)目標(biāo) 理解BERT, GPT, ELMo相互間的不同點(diǎn)理解BERT, GPT, ELMo相互比較下的各自優(yōu)點(diǎn)和缺點(diǎn) 🍔 BERT, GPT, ELMo之間的不同點(diǎn) 關(guān)于特征提取…

目錄

🍔 BERT, GPT, ELMo之間的不同點(diǎn)

🍔 BERT, GPT, ELMo各自的優(yōu)點(diǎn)和缺點(diǎn)

🍔 小結(jié)

學(xué)習(xí)目標(biāo)

  • 理解BERT, GPT, ELMo相互間的不同點(diǎn)
  • 理解BERT, GPT, ELMo相互比較下的各自優(yōu)點(diǎn)和缺點(diǎn)

🍔 BERT, GPT, ELMo之間的不同點(diǎn)

  • 關(guān)于特征提取器:

    • ELMo采用兩部分雙層雙向LSTM進(jìn)行特征提取, 然后再進(jìn)行特征拼接來融合語義信息.
    • GPT和BERT采用Transformer進(jìn)行特征提取.
    • 很多NLP任務(wù)表明Transformer的特征提取能力強(qiáng)于LSTM, 對于ELMo而言, 采用1層靜態(tài)token embedding + 2層LSTM, 提取特征的能力有限.
  • 單/雙向語言模型:

    • 三者之中, 只有GPT采用單向語言模型, 而ELMo和BERT都采用雙向語言模型.
    • ELMo雖然被認(rèn)為采用了雙向語言模型, 但實(shí)際上是左右兩個(gè)單向語言模型分別提取特征, 然后進(jìn)行特征拼接, 這種融合特征的能力比BERT一體化的融合特征方式弱.
    • 三者之中, 只有ELMo沒有采用Transformer. GPT和BERT都源于Transformer架構(gòu), GPT的單向語言模型采用了經(jīng)過修改后的Decoder模塊, Decoder采用了look-ahead mask, 只能看到context before上文信息, 未來的信息都被mask掉了. 而BERT的雙向語言模型采用了Encoder模塊, Encoder只采用了padding mask, 可以同時(shí)看到context before上文信息, 以及context after下文信息.

🍔 BERT, GPT, ELMo各自的優(yōu)點(diǎn)和缺點(diǎn)

ELMo: * 優(yōu)點(diǎn): * 從早期的Word2Vec預(yù)訓(xùn)練模型的最大缺點(diǎn)出發(fā), 進(jìn)行改進(jìn), 這一缺點(diǎn)就是無法解決多義詞的問題. * ELMo根據(jù)上下文動(dòng)態(tài)調(diào)整word embedding, 可以解決多義詞的問題. * 缺點(diǎn): * ELMo使用LSTM提取特征的能力弱于Transformer. * ELMo使用向量拼接的方式融合上下文特征的能力弱于Transformer.

GPT: * 優(yōu)點(diǎn): * GPT使用了Transformer提取特征, 使得模型能力大幅提升. * 缺點(diǎn): * GPT只使用了單向Decoder, 無法融合未來的信息.

BERT: * 優(yōu)點(diǎn): * BERT使用了雙向Transformer提取特征, 使得模型能力大幅提升. * 添加了兩個(gè)預(yù)訓(xùn)練任務(wù), MLM + NSP的多任務(wù)方式進(jìn)行模型預(yù)訓(xùn)練. * 缺點(diǎn): * 模型過于龐大, 參數(shù)量太多, 需要的數(shù)據(jù)和算力要求過高, 訓(xùn)練好的模型應(yīng)用場景要求高. * 更適合用于語言嵌入表達(dá), 語言理解方面的任務(wù), 不適合用于生成式的任務(wù).

🍔 小結(jié)

學(xué)習(xí)了BERT, GPT, ELMo之間的區(qū)別: * 三者所選取的特征提取器不同. * BERT采用的是Transformer架構(gòu)中的Encoder模塊. * GPT采用的是Transformer架構(gòu)中的Decoder模塊. * ELMo采用的雙層雙向LSTM模塊.

  • 三者所采用的語言模型單/雙向不同.
    • BERT采用的是最徹底的雙向語言模型, 可以同時(shí)關(guān)注context before和context after.
    • GPT采用的是單向語言模型, 即Transformer中的Decoder, 由于采用了mask機(jī)制, 所以未來信息context after都不可見.
    • ELMo表面上被認(rèn)為是雙向語言模型, 但實(shí)際上是左右兩個(gè)單向LSTM模型分別提取特征, 在進(jìn)行簡單的拼接融合.

http://www.risenshineclean.com/news/2435.html

相關(guān)文章:

  • 網(wǎng)站ip地址 a記錄鎮(zhèn)江百度關(guān)鍵詞優(yōu)化
  • 做自己的網(wǎng)站長沙百度開戶
  • 網(wǎng)站的首頁頁面布局怎么做seo優(yōu)化在線診斷
  • 做直播小視頻在線觀看網(wǎng)站百度推廣客服電話多少
  • 17網(wǎng)站一起做網(wǎng)店類似的如何寫好一篇軟文
  • 網(wǎng)頁在線代理翻墻百度快速優(yōu)化排名軟件
  • 杭州e時(shí)代互聯(lián)網(wǎng)站建設(shè)游戲推廣員是做什么的
  • 長沙品牌網(wǎng)站建設(shè)市場監(jiān)督管理局官網(wǎng)
  • 新鄉(xiāng)做網(wǎng)站推廣seo培訓(xùn)價(jià)格
  • 拉薩網(wǎng)站建設(shè)seo網(wǎng)站建設(shè)
  • 本地網(wǎng)站有什么可以做成都網(wǎng)站設(shè)計(jì)公司
  • 網(wǎng)站標(biāo)題欄做多大線上營銷推廣方案模板
  • 做海報(bào)設(shè)計(jì)的圖片網(wǎng)站有哪些廣州seo推薦
  • 哪個(gè)網(wǎng)站有介紹拿到家做的手工活怎么讓某個(gè)關(guān)鍵詞排名上去
  • 做網(wǎng)站怎么接私活精準(zhǔn)營銷系統(tǒng)
  • 營銷網(wǎng)站制作服務(wù)熱線seo顧問服
  • 廣州谷歌seo長沙網(wǎng)站優(yōu)化指導(dǎo)
  • 山東省品牌建設(shè)工作委員會(huì)網(wǎng)站社會(huì)新聞最新消息
  • 今天31個(gè)省新增最新消息視頻鄭州抖音seo
  • 北京品牌型網(wǎng)站建設(shè)靠譜南京谷歌seo
  • b2c購物網(wǎng)站系統(tǒng)百度客服24小時(shí)人工服務(wù)在線咨詢
  • 云南本地企業(yè)做網(wǎng)站公司網(wǎng)站如何推廣
  • 個(gè)人電子商務(wù)網(wǎng)站建設(shè)杭州優(yōu)化外包
  • 淄博企業(yè)網(wǎng)站建設(shè)公司鄭州seo網(wǎng)絡(luò)營銷
  • 如何做英文網(wǎng)站的外鏈廈門百度競價(jià)推廣
  • 哪些網(wǎng)站比較容易做鎮(zhèn)江推廣公司
  • 網(wǎng)站圖怎么做會(huì)高清超能搜索引擎系統(tǒng)網(wǎng)站
  • c 做網(wǎng)站怎么顯示歌詞百度推廣有哪些推廣方式
  • 西安企業(yè)網(wǎng)站建站全球搜效果怎么樣
  • 上海 網(wǎng)站建設(shè) 外包百度教育app