接網(wǎng)站開發(fā)的公司電話線上推廣是做什么的
文章目錄
- Chat-GPT引言
- 關(guān)鍵技術(shù)——預(yù)訓(xùn)練
- 研究問題
- 玩文字冒險游戲
ChatGPT原理剖析
Chat-GPT引言
- 直觀感受:結(jié)果有模有樣、每次輸出結(jié)果都不同、可以追問、幻想出的答案
- 誤解:罐頭回答、答案是網(wǎng)絡(luò)搜索的結(jié)果
- 真正做的事:文字接龍,function,幾率分布 -> 采樣
不僅包含現(xiàn)在的輸入還有過去的輸入,大語言模型 = 文字接龍
訓(xùn)練:尋找函數(shù)的過程,使用了網(wǎng)絡(luò)資料
測試:沒有聯(lián)網(wǎng)
關(guān)鍵技術(shù)——預(yù)訓(xùn)練
一般的機(jī)器學(xué)習(xí):
督導(dǎo)式學(xué)習(xí)
人類提供資料有限,GPT就無法回答
使用網(wǎng)絡(luò)上的文字來教GPT學(xué)習(xí)
- GPT:2018年 117M模型,1G數(shù)據(jù)。單純用網(wǎng)絡(luò)資料學(xué)習(xí)
- GPT-2:2019年,1542M模型,40G數(shù)據(jù)。開始像模像樣地瞎掰,可以回答問題
- GPT-3:2020年,175B模型,45T資料篩選出的570G數(shù)據(jù)(哈利波特全集的30w倍)??梢詫懗绦蛄恕?br /> 參數(shù)量越大,正確率越高,但似乎接近極限了
網(wǎng)絡(luò)資料的缺陷:不受控
解決:督導(dǎo)式學(xué)習(xí),微調(diào)
預(yù)訓(xùn)練的幫助:也許人類不需要教會GPT所有語言。只教會GPT某一個語言的某種任務(wù),自動學(xué)會其他語言的相同任務(wù)
多種語言預(yù)訓(xùn)練,只在某種語言上微調(diào)
增強(qiáng)式學(xué)習(xí)只需要人判斷答案好不好就行
研究問題
對NLP領(lǐng)域影響很大,也帶來了新的研究方向。
- 如何精準(zhǔn)提升需求?催眠(Prompting)。有沒有更好的方式找到prompting
- 如何更正錯誤?把某一個答案弄對,弄錯了更多答案
- 偵測AI生成的物件
- 不小心泄露人類秘密
machine unlearning
玩文字冒險游戲
提供足夠的prompting,midjourney生成圖片