wordpress小程序教程免費(fèi)網(wǎng)站seo
人工智能經(jīng)常胡言亂語,微軟現(xiàn)在說它有辦法解決這個(gè)問題,但我們有理由對(duì)此持懷疑態(tài)度。微軟今天發(fā)布了一項(xiàng)名為"更正"(Correction)的服務(wù),它可以自動(dòng)修改人工智能生成的與事實(shí)不符的文本。Correction 首先會(huì)標(biāo)記出可能存在錯(cuò)誤的文本–例如,公司季度財(cái)報(bào)電話會(huì)議的摘要可能存在錯(cuò)誤的引文–然后通過將文本與事實(shí)來源(如文字記錄)進(jìn)行比較來進(jìn)行事實(shí)核查。
作為微軟 Azure AI 內(nèi)容安全 API 的一部分,Correction 可與任何文本生成 AI 模型一起使用,包括 Meta 的Llama和 OpenAI 的GPT-4o。
"校正由一個(gè)利用小型語言模型和大型語言模型的新流程提供支持,以便使輸出與基礎(chǔ)文檔保持一致,"微軟發(fā)言人表示?!拔覀兿M@項(xiàng)新功能能為醫(yī)學(xué)等領(lǐng)域的生成式人工智能構(gòu)建者和用戶提供支持,在這些領(lǐng)域,應(yīng)用開發(fā)者認(rèn)為響應(yīng)的準(zhǔn)確性非常重要?!?/p>
今年夏天,Google在其人工智能開發(fā)平臺(tái) Vertex AI 中推出了一項(xiàng)類似功能,讓客戶可以通過使用第三方提供商的數(shù)據(jù)、自己的數(shù)據(jù)集或Google搜索來"磨合"模型。
但專家提醒,這些接地方法并不能從根本上解決幻覺問題。華盛頓大學(xué)研究新興科技倫理影響的博士候選人奧斯-凱耶斯(Os Keyes)說:“試圖從生成式人工智能中消除幻覺,就像試圖從水中消除氫氣一樣不切實(shí)際,因?yàn)榛糜X本身就是技術(shù)運(yùn)作的一個(gè)重要組成部分?!?/p>
文本生成模型會(huì)產(chǎn)生幻覺,因?yàn)樗鼈儗?shí)際上什么都不"知道"。它們是一種統(tǒng)計(jì)系統(tǒng),能識(shí)別一系列單詞中的模式,并根據(jù)它們所訓(xùn)練的無數(shù)實(shí)例預(yù)測(cè)下一個(gè)單詞。
由此可見,模型的回答并不是答案,而只是預(yù)測(cè)如果問題出現(xiàn)在訓(xùn)練集中會(huì)如何回答。因此,模型往往會(huì)對(duì)真相玩弄于股掌之間。一項(xiàng)研究發(fā)現(xiàn),OpenAI 的ChatGPT有一半的時(shí)間會(huì)弄錯(cuò)醫(yī)療問題。
微軟的解決方案是一對(duì)交叉引用、類似于文案編輯器的元模型,旨在突出和改寫幻覺。
分類器模型會(huì)查找人工智能生成的文本中可能存在的錯(cuò)誤、捏造或不相關(guān)的片段(幻覺)。如果檢測(cè)到幻覺,分類器就會(huì)引入第二個(gè)模型,即語言模型,試圖根據(jù)指定的"基礎(chǔ)文件"糾正幻覺。
"通過幫助應(yīng)用程序開發(fā)人員減少用戶不滿和潛在的聲譽(yù)風(fēng)險(xiǎn),修正可以大大提高人工智能生成內(nèi)容的可靠性和可信度,"微軟發(fā)言人說?!靶枰⒁獾氖?#xff0c;接地性檢測(cè)并不能解決’準(zhǔn)確性’問題,但有助于使人工智能的生成輸出與接地文件保持一致?!?/p>
凱耶斯對(duì)此表示懷疑。“這可能會(huì)減少一些問題,但也會(huì)產(chǎn)生新的問題。畢竟,Correction的幻覺檢測(cè)庫估計(jì)也能產(chǎn)生幻覺?!?/p>
在被問及有關(guān) Correction 模型的背景介紹時(shí),該發(fā)言人指出,微軟研究團(tuán)隊(duì)最近發(fā)表了一篇論文,描述了這些模型的預(yù)生產(chǎn)架構(gòu)。但該論文忽略了一些關(guān)鍵細(xì)節(jié),比如使用了哪些數(shù)據(jù)集來訓(xùn)練模型。
瑪麗皇后大學(xué)專門研究人工智能的研究員邁克-庫克(Mike Cook)認(rèn)為,即使"Correction"能像宣傳的那樣發(fā)揮作用,它也有可能加劇人工智能的信任和可解釋性問題。這項(xiàng)服務(wù)可能會(huì)捕捉到一些錯(cuò)誤,但也可能讓用戶陷入虛假的安全感–以為模型比實(shí)際情況更真實(shí)。
他說:“微軟與 OpenAI 和Google一樣,都造成了這樣一個(gè)問題,即在模型經(jīng)常出錯(cuò)的場(chǎng)景中依賴模型。微軟現(xiàn)在所做的是在更高層次上重蹈覆轍。比方說,這讓我們從 90% 的安全性提高到了 99% 的安全性–問題其實(shí)并不在那 9%。它永遠(yuǎn)存在于我們尚未發(fā)現(xiàn)的那 1%的錯(cuò)誤中。”
庫克補(bǔ)充說,微軟捆綁"修正"功能還有商業(yè)考量,該功能本身是免費(fèi)的,但每月最多只能免費(fèi)提供 5000 條"文本記錄"。之后,每 1000 條文本記錄需支付 38 美分。
微軟無疑面臨著向客戶和股東證明其人工智能值得投資的壓力。僅在第二季度,這家科技巨頭就在資本支出和設(shè)備方面投入了近 190 億美元,其中大部分與人工智能有關(guān)。然而,該公司尚未從人工智能中獲得可觀的收入。本周,一位華爾街分析師下調(diào)了該公司的股票評(píng)級(jí),理由是對(duì)其長期人工智能戰(zhàn)略存有疑慮。
據(jù)《The Information》的一篇文章稱,由于性能和成本問題,許多早期采用者已經(jīng)暫停部署微軟的旗艦生成式人工智能平臺(tái)–Microsoft 365 Copilot。據(jù)報(bào)道,對(duì)于一個(gè)使用 Copilot 進(jìn)行 Microsoft Teams 會(huì)議的客戶來說,人工智能發(fā)明了與會(huì)者,并暗示通話的主題實(shí)際上從未討論過。
畢馬威會(huì)計(jì)師事務(wù)所(KPMG)的一項(xiàng)民意調(diào)查顯示,在試用人工智能工具時(shí),準(zhǔn)確性和可能出現(xiàn)的幻覺是企業(yè)目前最擔(dān)心的問題。
庫克說:“如果這是一個(gè)正常的產(chǎn)品生命周期,那么生成式人工智能仍將處于學(xué)術(shù)研發(fā)階段,并在不斷改進(jìn)和了解其優(yōu)缺點(diǎn)。相反,我們已經(jīng)把它部署到了十幾個(gè)行業(yè)。微軟和其他公司已經(jīng)把所有人都裝上了他們的發(fā)動(dòng)機(jī),并決定在前往目的地的途中建造起落架和降落傘。”
感謝大家花時(shí)間閱讀我的文章,你們的支持是我不斷前進(jìn)的動(dòng)力。期望未來能為大家?guī)砀嘤袃r(jià)值的內(nèi)容,請(qǐng)多多關(guān)注我的動(dòng)態(tài)!