中文亚洲精品无码_熟女乱子伦免费_人人超碰人人爱国产_亚洲熟妇女综合网

當(dāng)前位置: 首頁 > news >正文

企業(yè)服務(wù)平臺網(wǎng)站建設(shè)數(shù)據(jù)交換平臺

企業(yè)服務(wù)平臺網(wǎng)站建設(shè),數(shù)據(jù)交換平臺,現(xiàn)在新聞做的最好的網(wǎng)站,能看小視頻的瀏覽器從詞袋模型到Transformer家族的變遷之路模型名稱年份描述Bag of Words1954即 BOW 模型,計算文檔中每個單詞出現(xiàn)的次數(shù),并將它們用作特征。TF-IDF1972對 BOW 進(jìn)行修正,使得稀有詞得分高,常見詞得分低。Word2Vec2013每個詞都映射到一…

從詞袋模型到Transformer家族的變遷之路

在這里插入圖片描述

模型名稱年份描述
Bag of Words1954即 BOW 模型,計算文檔中每個單詞出現(xiàn)的次數(shù),并將它們用作特征。
TF-IDF1972對 BOW 進(jìn)行修正,使得稀有詞得分高,常見詞得分低。
Word2Vec2013每個詞都映射到一個稱為詞嵌入的高維向量,捕獲其語義。詞嵌入是通過在大型語料庫中尋找詞相關(guān)性的神經(jīng)網(wǎng)絡(luò)來學(xué)習(xí)的。
RNN1986RNN 利用句子中詞的上下文計算文檔嵌入,這僅靠詞嵌入是不可能的。后來發(fā)展為 LSTM1997)以捕獲長期依賴關(guān)系,并演變?yōu)?Bidirectional RNN1997)以捕獲從左到右和從右到左的依賴關(guān)系。最終,Encoder-Decoder RNNs2014)出現(xiàn)了,其中一個 RNN 創(chuàng)建文檔嵌入(即編碼器),另一個 RNN 將其解碼為文本(即解碼器)。
Transformer2017一種 編碼器-解碼器 模型,它利用注意力機(jī)制來計算更好的嵌入并更好地將輸出與輸入對齊。
BERT2018雙向 Transformer,使用掩碼語言建模(Masked Language Modeling)和下一句預(yù)測目標(biāo)(Next Sentence Prediction objectives)的組合進(jìn)行預(yù)訓(xùn)練。它使用全局注意力。
GPT2018第一個基于 Transformer 架構(gòu)的自回歸模型。后來演變成 GPT-22019),一個在 WebText 上預(yù)訓(xùn)練的更大和優(yōu)化的 GPT 版本,以及 GPT-32020),一個更大和優(yōu)化的 GPT-2 版本,在 Common Crawl 上預(yù)訓(xùn)練。
CTRL2019類似于 GPT,但具有用于條件文本生成的控制代碼。
Transformer-XL2019一個自回歸 Transformer,可以重用以前計算的隱藏狀態(tài)來處理更長的上下文。
ALBERT2019BERT 的輕量級版本,其中:(1)下一句預(yù)測被句序預(yù)測取代;(2)參數(shù)減少技術(shù)用于降低內(nèi)存消耗和加快訓(xùn)練速度。
RoBERTa2019BERT 的更好版本,其中:(1)Masked Language Modeling 目標(biāo)是動態(tài)的;(2)Next Sentence Prediction 目標(biāo)被刪除;(3)使用 BPE tokenizer;(4)使用更好的超參數(shù).
XLM2019Transformer 使用因果語言建模、掩碼語言建模和翻譯語言建模等目標(biāo)在多種語言的語料庫上進(jìn)行了預(yù)訓(xùn)練。
XLNet2019Transformer-XL 具有廣義自回歸預(yù)訓(xùn)練方法,可以學(xué)習(xí)雙向依賴性。
PEGASUS2019一個雙向編碼器和一個從左到右的解碼器,使用掩碼語言建模和間隙句子生成目標(biāo)進(jìn)行了預(yù)訓(xùn)練。
DistilBERT2019與 BERT 相同,但更小更快,同時保留 BERT 95% 以上的性能。通過預(yù)訓(xùn)練的 BERT 模型的蒸餾進(jìn)行訓(xùn)練。
XLM-RoBERTa2019RoBERTa 在具有掩蔽語言建模目標(biāo)的多語言語料庫上進(jìn)行訓(xùn)練。
BART2019一個雙向編碼器和一個從左到右的解碼器,通過使用任意噪聲函數(shù)破壞文本并學(xué)習(xí)模型來重建原始文本來訓(xùn)練。
ConvBERT2019BERT 的更好版本,其中自注意力模塊被新模塊取代,利用卷積更好地模擬全局和局部上下文。
Funnel Transformer2020一種 Transformer,它逐漸將隱藏狀態(tài)的序列壓縮到更短的狀態(tài),從而降低計算成本。
Reformer2020由于對局部敏感的哈希注意力、軸向位置編碼和其他優(yōu)化,一個更高效的 Transformer。
T52020一個雙向編碼器和一個從左到右的解碼器,在無監(jiān)督和監(jiān)督任務(wù)的混合上進(jìn)行了預(yù)訓(xùn)練。
Longformer2020一種將注意力矩陣替換為稀疏矩陣以提高訓(xùn)練效率的 Transformer 模型。
ProphetNet2020一種使用未來 N-gram 預(yù)測目標(biāo)和新穎的自注意力機(jī)制訓(xùn)練的 Transformer 模型。
ELECTRA2020與 BERT 相同,但更輕更好。該模型使用 Replaced Token Detection 目標(biāo)進(jìn)行訓(xùn)練。
Switch Transformers2021一種稀疏激活的專家 Transformer 模型,旨在簡化和改進(jìn)專家混合模型。
http://www.risenshineclean.com/news/47760.html

相關(guān)文章:

  • 織夢修改網(wǎng)站背景顏色湛江今日頭條
  • 商丘做網(wǎng)站哪家好如何刷關(guān)鍵詞指數(shù)
  • 邵陽競價網(wǎng)站建設(shè)設(shè)計怎么創(chuàng)建域名
  • 深圳哪家建設(shè)網(wǎng)站公司好國內(nèi)最大的搜索引擎
  • 做玩具訂制網(wǎng)站好處站長之家seo綜合查詢
  • 有沒有專門做外貿(mào)的網(wǎng)站互聯(lián)網(wǎng)廣告管理暫行辦法
  • 泉州做網(wǎng)站的公司濰坊網(wǎng)站關(guān)鍵詞推廣
  • 網(wǎng)站開發(fā)網(wǎng)站設(shè)計人力資源培訓(xùn)
  • 青海網(wǎng)站設(shè)計高端凌哥seo技術(shù)博客
  • 天津網(wǎng)站建設(shè)公騰訊廣告推廣平臺
  • 重慶網(wǎng)站建設(shè)招標(biāo)全球十大搜索引擎排名
  • 日常網(wǎng)站維護(hù)得物app的網(wǎng)絡(luò)營銷分析論文
  • 揚(yáng)州網(wǎng)站制作媒體營銷平臺
  • 做民宿注冊的網(wǎng)站seo好找工作嗎
  • 微信小程序開發(fā)者模式石家莊seo培訓(xùn)
  • 做php網(wǎng)站阿里云服務(wù)器企業(yè)營銷策劃實訓(xùn)報告
  • 怎么自己做砍價網(wǎng)站市場營銷互聯(lián)網(wǎng)營銷
  • 廣東圓心科技網(wǎng)站開發(fā)如何用網(wǎng)站模板建站
  • 網(wǎng)站公司怎么做業(yè)務(wù)濟(jì)寧百度推廣公司
  • 劉金鵬做網(wǎng)站外鏈工廠
  • 瑋科網(wǎng)站建設(shè)人力資源培訓(xùn)與開發(fā)
  • 個人電腦做網(wǎng)站打不開數(shù)據(jù)庫百度賬號登錄官網(wǎng)
  • 做網(wǎng)站需不需要營業(yè)執(zhí)照seo引擎優(yōu)化是什么
  • 做相冊哪個網(wǎng)站好用嗎長沙seo網(wǎng)站管理
  • 手機(jī)端網(wǎng)站思路市場營銷一般在哪上班
  • 品牌策劃ppt電腦優(yōu)化大師哪個好
  • 武漢搭建網(wǎng)站seo短視頻入口
  • 江西網(wǎng)站建設(shè)企業(yè)短視頻推廣引流
  • 做網(wǎng)站下載功能競價推廣專員
  • 咋樣做網(wǎng)站視頻競價排名軟件