中文亚洲精品无码_熟女乱子伦免费_人人超碰人人爱国产_亚洲熟妇女综合网

當(dāng)前位置: 首頁 > news >正文

快速 模板 做網(wǎng)站百度網(wǎng)址安全檢測

快速 模板 做網(wǎng)站,百度網(wǎng)址安全檢測,WordPress圖床工具,做aa視頻網(wǎng)站一、AIGC和生成式AI的概念 1-1、AIGC Al Generated Content:AI生成內(nèi)容 1-2、生成式AI:generative ai AIGC是生成式 AI 技術(shù)在內(nèi)容創(chuàng)作領(lǐng)域的具體應(yīng)用成果。 目前有許多知名的生成式 AI: 文本生成領(lǐng)域 OpenAI GPT 系列百度文心一言阿里通…

一、AIGC和生成式AI的概念

1-1、AIGC

Al Generated Content:AI生成內(nèi)容

1-2、生成式AI:generative ai

AIGC是生成式 AI 技術(shù)在內(nèi)容創(chuàng)作領(lǐng)域的具體應(yīng)用成果。

目前有許多知名的生成式 AI:

文本生成領(lǐng)域

  • OpenAI GPT 系列
  • 百度文心一言
  • 阿里通義千問

圖像生成領(lǐng)域

  • Midjourney
  • StableDiffusion
  • DALL - E 2

代碼生成領(lǐng)域

  • GitHub Copilot(由 GitHub 和 OpenAI 合作開發(fā)
  • CodeGeeX(由字節(jié)跳動研發(fā)的代碼生成模型

生成式AI是深度學(xué)習(xí)的一種應(yīng)用。

二、AI人工智能的子領(lǐng)域

2-1、機器學(xué)習(xí)

不需要人類做顯示編程、讓計算機通過算法,自行學(xué)習(xí)和改進,通過數(shù)據(jù)和經(jīng)驗來改善自身性能,自動從數(shù)據(jù)中學(xué)習(xí)模式和規(guī)律,并利用這些規(guī)律進行預(yù)測和決策。

機器學(xué)習(xí)的分支:

  • 監(jiān)督學(xué)習(xí);
  • 無監(jiān)督學(xué)習(xí);
  • 強化學(xué)習(xí)。

1、監(jiān)督學(xué)習(xí)

監(jiān)督學(xué)習(xí)是指利用一組帶有標(biāo)簽(即已知輸出結(jié)果)的數(shù)據(jù)來訓(xùn)練模型,讓模型學(xué)習(xí)輸入數(shù)據(jù)和對應(yīng)標(biāo)簽之間的映射關(guān)系。訓(xùn)練完成后,模型就可以對新的、未知的數(shù)據(jù)進行預(yù)測,輸出對應(yīng)的標(biāo)簽。

監(jiān)督學(xué)習(xí)的工作模式:你拿著一個蘋果和一個香蕉,告訴孩子:“這是蘋果,它的形狀是圓的,顏色通常是紅色或綠色;這是香蕉,它的形狀是長條形,顏色通常是黃色?!焙⒆訒W(xué)習(xí)到特征與類別的對應(yīng)關(guān)系,預(yù)測出新拿出的水果是蘋果還是香蕉。

在監(jiān)督學(xué)習(xí)中,機器學(xué)習(xí)算法會接受有標(biāo)簽(期望的輸出值)的訓(xùn)練數(shù)據(jù)。每個訓(xùn)練數(shù)據(jù)點都既包括:輸入特征、期望的出數(shù)值;

算法的學(xué)習(xí)目標(biāo)是學(xué)習(xí)輸入和輸出之間的映射關(guān)系,從而在給定新的輸入特征后能夠準(zhǔn)確預(yù)測出相應(yīng)的輸出值。?

經(jīng)典的監(jiān)督學(xué)習(xí)任務(wù):分類、回歸(對數(shù)值進行預(yù)測)

2、無監(jiān)督學(xué)習(xí)

算法的任務(wù)是自主的發(fā)現(xiàn)數(shù)據(jù)里的模式和規(guī)律。

無監(jiān)督學(xué)習(xí)的工作模式:你讓孩子觀察一堆水果,沒有直接告訴他每一個水果的名稱,而是鼓勵他自己找出如何根據(jù)形狀,顏色等屬性將這些水果分組的方法。

經(jīng)典的無監(jiān)督學(xué)習(xí)任務(wù):聚類(把數(shù)據(jù)進行分組)?

在機器學(xué)習(xí)中,監(jiān)督學(xué)習(xí)與無監(jiān)督學(xué)習(xí)都需要你明確地告訴機器(或者說孩子)數(shù)據(jù)的特征(形狀與顏色)是什么。

監(jiān)督學(xué)習(xí)需要在機器進行學(xué)習(xí)時,人為提供數(shù)據(jù)對象的類別(如蘋果或香蕉),而無監(jiān)督學(xué)習(xí)一般沒有預(yù)設(shè)的類別標(biāo)識,通過機器自動學(xué)習(xí)數(shù)據(jù)的分布并將相似的數(shù)據(jù)對象歸為同類(如紅色圓形是蘋果)。

3、強化學(xué)習(xí)

聚焦于智能體(Agent)如何在環(huán)境中通過與環(huán)境進行交互,不斷嘗試和學(xué)習(xí),以最大化累積獎勵。

強化學(xué)習(xí)模擬了人類和動物通過試錯來學(xué)習(xí)的過程。在強化學(xué)習(xí)的框架中,智能體處于一個特定的環(huán)境中,它會根據(jù)當(dāng)前環(huán)境的狀態(tài)做出一個動作,環(huán)境會因為智能體的動作而發(fā)生改變,同時給予智能體一個獎勵信號,智能體的目標(biāo)是通過不斷地與環(huán)境交互,學(xué)習(xí)到一個最優(yōu)的策略,使得長期累積的獎勵最大化。

強化學(xué)習(xí)的工作模式為:你不會直接教孩子蘋果和香蕉的區(qū)別,而是每次展示一個水果讓他進行判斷。如果他判斷正確,就給他一個獎勵(比如一塊糖果);如果判斷錯誤,則不給獎勵。通過反復(fù)嘗試和反饋,孩子會通過這種獎勵機制逐漸學(xué)習(xí)到如何更準(zhǔn)確地判斷蘋果和香蕉。這種學(xué)習(xí)過程中的關(guān)鍵在于孩子需要在探索新的判斷方法和利用已有經(jīng)驗之間找到平衡,以最大化獲得獎勵的次數(shù)。

應(yīng)用場景

  • 游戲領(lǐng)域:如 AlphaGo 通過強化學(xué)習(xí)擊敗人類頂級圍棋選手,以及各種電子游戲中的智能對手。
  • 機器人控制:使機器人學(xué)會完成各種任務(wù),如機器人的導(dǎo)航、抓取物體、行走等。
  • 自動駕駛:讓車輛學(xué)習(xí)在不同的交通場景下做出最優(yōu)的駕駛決策。
  • 金融領(lǐng)域:用于投資組合管理、交易策略優(yōu)化等。
  • 資源管理:如數(shù)據(jù)中心的資源分配、能源管理系統(tǒng)中的能源調(diào)度等。

4、深度學(xué)習(xí)

深度學(xué)習(xí)是機器學(xué)習(xí)的一個方法,模擬人類大腦的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和功能,讓計算機自動從大量數(shù)據(jù)中學(xué)習(xí)復(fù)雜的模式和特征,以實現(xiàn)對數(shù)據(jù)的理解、分類、預(yù)測和生成等任務(wù)。

深度學(xué)習(xí)的核心基于人工神經(jīng)網(wǎng)絡(luò),特別是深度神經(jīng)網(wǎng)絡(luò)(DNN)。

深度學(xué)習(xí),使用人工神經(jīng)網(wǎng)絡(luò),模仿人腦處理信息的方式,通過層次化的方法,提取和表示數(shù)據(jù)的特征。

神經(jīng)網(wǎng)絡(luò)是由許多基本的計算儲存單元組成,這些單元被稱為神經(jīng)元。這些神經(jīng)元通過層層連接來處理數(shù)據(jù),所以,深度學(xué)習(xí)模型通常由許多層。

神經(jīng)網(wǎng)絡(luò)可以用于:監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)、強化學(xué)習(xí)。?

三、大語言模型LLM:Large Language Model

深度學(xué)習(xí)的應(yīng)用,專門用于進行自然語言處理任務(wù)。

大語言模型是基于海量文本數(shù)據(jù)進行訓(xùn)練的人工智能模型,它具有強大的語言理解和生成能力,能夠處理各種自然語言任務(wù),如文本生成、問答系統(tǒng)、機器翻譯、摘要提取等。這些模型通常具有數(shù)十億甚至數(shù)萬億的參數(shù),通過學(xué)習(xí)大量文本中的語言模式、語義信息和知識,來實現(xiàn)對自然語言的有效處理。

大語言模型的例子:

  • OpenAI GPT 系

  • 谷歌 PaLM?

  • 百度文心一言

  • 深言科技 DeepSeek 系列

    • DeepSeek - LLM:具備廣泛的知識覆蓋和強大的語言理解與生成能力。在多個權(quán)威評測中表現(xiàn)優(yōu)異,例如在 MMLU 評測基準(zhǔn)中,DeepSeek - LLM 67B 模型取得了較高的分?jǐn)?shù),超過了 GPT - 3.5 Turbo。

    • DeepSeek - Coder:專注于代碼領(lǐng)域,在代碼理解和生成方面表現(xiàn)突出。在 HumanEval 代碼生成評測集上,DeepSeek - Coder 67B 模型達(dá)到了較高的通過率,超越了其他開源模型。

  • 清華 ChatGLM 系列

大語言模型的應(yīng)用場景:

大語言模型,首先需要通過大量文本,進行無監(jiān)督學(xué)習(xí)

大模型的大指:訓(xùn)練數(shù)據(jù)大、參數(shù)大!

大語言模型的技術(shù)里程碑:

2017年,谷歌團隊在論文《Attention Is All You Need》中提出的?Transformer 架構(gòu)

3-1、RNN:Recurrent Neural Network循環(huán)神經(jīng)網(wǎng)絡(luò)

在?Transformer 架構(gòu)提出之前,語言模型的主流架構(gòu)是RNN模型。

RNN按照順序逐字處理,每一步的輸出取決于先前的隱藏狀態(tài)和當(dāng)前的輸入,而且要等上一個步驟完成后才能進行當(dāng)前計算。

缺點:

1、無法并行計算,訓(xùn)練效率低

2、RNN不擅長處理長序列,即長文本。

詞之間的距離越遠(yuǎn),前面對后面的影響越弱!所以它難以有效捕獲到長距離的語義關(guān)系。

3-2、Transformer 架構(gòu)

特點:

1、自注意力機制(解決:RNN不擅長處理長序列的問題)

2、位置編碼(詞在句子中的順序)

LLM的技術(shù)原理:

預(yù)測出現(xiàn)概率最高的下一個詞來實現(xiàn)文本生成。

1、編碼器:

編碼器將輸入的文本token化——>向量嵌入——>對向量位置編碼——>多頭自注意力層

多頭自注意力機制:計算自注意力權(quán)重

?

2、解碼器

token表示傳給解碼器,文本經(jīng)過嵌入層,位置編碼——>帶掩碼的多頭自注意力層

帶掩碼的多頭自注意力層:

解碼器本質(zhì)上是在猜下一個最可能得輸出,輸出是否符合客觀事實,模型無從得知,所以模型會一本正經(jīng)的胡說八道。?

【小結(jié)】:

編碼器用來理解和表示輸出序列;解碼器用來生成輸出序列。

四、煉成ChatGPT

1、通過大量文本,進行無監(jiān)督學(xué)習(xí)預(yù)訓(xùn)練,得到一個能進行文本生成的基座模型

基座模型并不等同于chatGPT背后的對話模型,此時模型有預(yù)測下一個token的能力,會根據(jù)上文補充文本,但并不擅長對話。

給出一個問題,會模擬生成更多的問題,但是并不回答問題。

2、通過人類撰寫的高質(zhì)量對話數(shù)據(jù),對基座模型監(jiān)督微調(diào),得到微調(diào)后的模型。

微調(diào)后的模型叫:SFT模型,擅長對問題進行回答。

3、用問題和多個對應(yīng)回答的數(shù)據(jù),讓人類標(biāo)注員對回答進行質(zhì)量排序,基于這些數(shù)據(jù),訓(xùn)練出一個能對回答進行評分預(yù)測的獎勵模型。?

3、讓第二步得到的微調(diào)基座模型對問題生成回答,用獎勵模型對回答評分,利用評分作為反饋,進行強化學(xué)習(xí)訓(xùn)練。

?

五、調(diào)教ChatGPT

提示工程:研究如何提高和AI的溝通質(zhì)量及效率。核心關(guān)注提示的開發(fā)和優(yōu)化。

聊天助手的局限性:

1、對于不了解的內(nèi)容,會一本正經(jīng)的胡說八道;

2、沒有反思能力?

5-1、小樣本提示

給出小樣本問答的示例,AI會一方面記憶哪些知識點,一方面向示范格式一樣模仿回應(yīng)。

5-2、思維鏈?

AI不適合做數(shù)學(xué)相關(guān)的問題!?小樣本提示沒什么幫助!

給AI的小樣本提示里,不僅包含正確的結(jié)果,也展示中間的推理步驟,AI在生成回答的時候,也會模仿著去生成中間的推理步驟,把過程分解。

5-3、分步驟思考

不用思維鏈,在問題后面加一句,讓我們分布思考!

六、武裝ChatGPT

LLM模型的短板:

借助外部的工具和數(shù)據(jù),把AI武裝起來。

?

6-1、RAG

LLM模型所擁有的知識,收到訓(xùn)練數(shù)據(jù)的影響,所以,對于小眾細(xì)分領(lǐng)域+公司私密文檔,LLM模型并不知道對應(yīng)的知識。

解決方式:提供外部文檔,讓模型訪問外部知識庫。獲得實時且正確的數(shù)據(jù)。

RAG有利于搭建企業(yè)知識庫個人知識庫。?

chatGPT的一些插件就是針對RAG架構(gòu)的。

若是會使用GPT的API,還可以用代碼實現(xiàn)自己的索引增強生成?!笳Z言模型的應(yīng)用開發(fā)?

6-2、PAL

LLM模型不能用作計算器,不能計算,只是生成下一個可能出現(xiàn)的token回答。

缺點:AI作為網(wǎng)店客服,會計算錯訂單總額。

解決:不讓AI直接生成計算結(jié)果,而是借助其他善于做計算的工具,如:Python解釋器。

此時,我們給AI的要求就是,在設(shè)計計算步驟時,生成得到計算結(jié)果所需的代碼+思維鏈,在小樣本提示中,寫出解決問題所需的變量賦值、數(shù)學(xué)運算等代碼,讓模型照貓畫虎。

?將AI返回的回答給到Python解釋器,讓Python解釋器執(zhí)行并返回計算的結(jié)果,結(jié)果再給回到AI。

ChatGPT的Advanced Data Analysis功能,可以被看成PAL的一個示例。

6-3、ReAct

知識截斷:

LLM模型所了解的知識,收到訓(xùn)練數(shù)據(jù)日期的影響。但是,重新訓(xùn)練模型成本很高!

解決:AI對不了解的知識上網(wǎng)搜索,把找到的答案告訴我們。——ReAct模型

讓模型動態(tài)推理,并采取行動與外界環(huán)境互動。+思維鏈

用小樣本提示展示推理與行動結(jié)合的框架。

針對問題,拆分步驟:每個步驟:推理+行動+觀察。

Action:AI模型所支持的任何行動,不僅是網(wǎng)頁搜索。

?

要把不同外部數(shù)據(jù)和工具為模型所用,用代碼實現(xiàn),可以借助LangChain框架。幫助簡化構(gòu)建大語言模型應(yīng)用程序的流程?!笳Z言模型開發(fā)

http://www.risenshineclean.com/news/5504.html

相關(guān)文章:

  • 焦作市住房和城鄉(xiāng)建設(shè)局網(wǎng)站百度競價推廣登陸
  • 潛江做網(wǎng)站太原做網(wǎng)站推廣的公司
  • 韶關(guān)網(wǎng)站建設(shè)網(wǎng)站排名seo
  • 用ps做網(wǎng)站網(wǎng)頁百度排名服務(wù)
  • 網(wǎng)站建設(shè)崗位工作范圍怎樣注冊網(wǎng)站建立網(wǎng)頁
  • 成都網(wǎng)站外包優(yōu)化公司可以免費發(fā)外鏈的論壇
  • 推進網(wǎng)站集約化建設(shè)的作用推廣普通話手抄報一等獎
  • 網(wǎng)絡(luò)優(yōu)化報告seo外包網(wǎng)絡(luò)公司
  • 做網(wǎng)站下載別人的圖算不算侵權(quán)北京網(wǎng)站sem、seo
  • 整站關(guān)鍵詞排名優(yōu)化員工培訓(xùn)
  • 網(wǎng)站的空間的提供商南京網(wǎng)站制作設(shè)計
  • 畢業(yè)答辯ppt網(wǎng)站開發(fā)百度大數(shù)據(jù)分析平臺
  • 網(wǎng)頁設(shè)計師證書查詢官網(wǎng)google seo怎么優(yōu)化
  • 精美網(wǎng)頁設(shè)計源碼網(wǎng)站seo優(yōu)化外包顧問
  • 龍山建設(shè)集團有限公司網(wǎng)站云南優(yōu)化公司
  • 怎么知道網(wǎng)站是誰做的b站推廣入口2023
  • 織夢網(wǎng)站怎樣做seo長尾關(guān)鍵詞查詢工具
  • 哪里有html5網(wǎng)站建設(shè)檢測網(wǎng)站是否安全
  • 網(wǎng)絡(luò)服務(wù)提供者有哪些新泰網(wǎng)站seo
  • 中山疫情防控最新通知關(guān)于進一步優(yōu)化
  • 微網(wǎng)站建設(shè)哪家好好看的seo網(wǎng)站
  • 餐飲服務(wù)案例100例谷歌seo運營
  • 企業(yè)郵箱在哪里登陸seo技巧分享
  • 畢業(yè)設(shè)計做網(wǎng)站想法百度搜索排名機制
  • 怎么用ps做網(wǎng)站超鏈接百度網(wǎng)址大全網(wǎng)站大全
  • 建電子商城網(wǎng)站百度賬號找回
  • 青島的設(shè)計公司黑帽seo排名技術(shù)
  • 網(wǎng)站建設(shè)的基本規(guī)范有什么小時seo
  • 做影視網(wǎng)站什么cms好用嗎全網(wǎng)營銷培訓(xùn)
  • 在線做視頻網(wǎng)站最佳的資源搜索引擎