西安做網(wǎng)站找騰帆最近一周的新聞大事10條
利潤(rùn)高于隱私:不透明數(shù)據(jù)收集增加
背景和風(fēng)險(xiǎn)
生成型人工智能工具建立在各種大型、復(fù)雜的機(jī)器學(xué)習(xí)模型之上,這些模型需要大量的訓(xùn)練數(shù)據(jù)才能發(fā)揮作用。對(duì)于像ChatGPT這樣的工具,數(shù)據(jù)包括從互聯(lián)網(wǎng)上抓取的文本。對(duì)于像Lensa或Stable Diffusion這樣的產(chǎn)品,數(shù)據(jù)包括照片和藝術(shù)。由于生成型人工智能對(duì)數(shù)據(jù)的巨大需求,許多人工智能開發(fā)人員可能會(huì)不分青紅皂白地在網(wǎng)上搜尋數(shù)據(jù)。雖然在某些情況下,這些開發(fā)人員試圖通過(guò)過(guò)濾掉受保護(hù)的作品、露骨的內(nèi)容、仇恨言論或有偏見的輸入來(lái)凈化他們的培訓(xùn)數(shù)據(jù),但清理數(shù)據(jù)的做法遠(yuǎn)未達(dá)到行業(yè)標(biāo)準(zhǔn)。如果沒有有意義的數(shù)據(jù)最小化或披露規(guī)則,公司就有動(dòng)機(jī)收集和使用越來(lái)越多(更敏感)的數(shù)據(jù)來(lái)訓(xùn)練人工智能模型。不分青紅皂白地收集這些數(shù)據(jù)的借口增加了人工智能領(lǐng)域的競(jìng)爭(zhēng)和創(chuàng)新,這對(duì)數(shù)據(jù)隱私狀況有害。這種軍備競(jìng)賽的說(shuō)法為最大限度地收集數(shù)據(jù)創(chuàng)造了理由,以防以后提供一些模糊的優(yōu)勢(shì)。事實(shí)上,這些工具可以用更少的數(shù)據(jù)構(gòu)建,而無(wú)需強(qiáng)制性和秘密的數(shù)據(jù)收集過(guò)程。
抓取以訓(xùn)練數(shù)據(jù)
許多生成性人工智能工具使用基于從公開網(wǎng)站上收集的數(shù)據(jù)構(gòu)建的模型。這些信息通常包括發(fā)布在社交媒體和其他網(wǎng)站上的個(gè)人信息。人們?cè)谏缃幻襟w和其他地方發(fā)布信息的原因多種多樣:讓潛在雇主在LinkedIn上找到他們;以便朋友和熟人可以在Facebook、Twitter和Venmo上找到他們;這些原因有一個(gè)重要的共同特征:人們?cè)诰W(wǎng)站上發(fā)布信息的目的是讓信息在該網(wǎng)站上可見。但有時(shí),一個(gè)人的個(gè)人信息在未經(jīng)其同意的情況下被公開。第三方可能會(huì)公布他們的照片或其他關(guān)于他們的信息。一個(gè)平臺(tái)令人困惑的隱私設(shè)置可能會(huì)導(dǎo)致一個(gè)人意外地提供他們的信息。軟件錯(cuò)誤或設(shè)計(jì)更改也可能暴露出一個(gè)人設(shè)置為僅對(duì)少數(shù)人可見的信息。
當(dāng)公司收集個(gè)人信息并將其用于創(chuàng)建生成人工智能工具時(shí),他們會(huì)將信息用于消費(fèi)者不同意的目的,從而破壞消費(fèi)者對(duì)其個(gè)人信息的控制。當(dāng)個(gè)人將自己的數(shù)據(jù)發(fā)布到網(wǎng)上時(shí),他甚至可能沒有想到自己的數(shù)據(jù)會(huì)被公司使用。個(gè)人存儲(chǔ)或托管被竊取的個(gè)人數(shù)據(jù)在初始狀態(tài)中可能并不總是有害的,但也存在許多風(fēng)險(xiǎn)。多個(gè)數(shù)據(jù)集可以以造成傷害的方式組合在一起:當(dāng)在不同數(shù)據(jù)庫(kù)中傳播時(shí)不敏感的信息在一個(gè)地方收集時(shí)可能會(huì)非常具有啟發(fā)性,并且可以用來(lái)對(duì)一個(gè)人或人群進(jìn)行推斷。由于抓取會(huì)復(fù)制某人在特定時(shí)間存在的數(shù)據(jù),該公司也會(huì)剝奪個(gè)人更改或從公共領(lǐng)域刪除信息的能力。
不分青紅皂白地為人工智能訓(xùn)練數(shù)據(jù)抓取個(gè)人信息所帶來(lái)的隱私危害也給在線言論和互聯(lián)網(wǎng)的開放帶來(lái)了風(fēng)險(xiǎn)。隨著人工智能工具將人們的個(gè)人信息用于越來(lái)越有害的目的,人們可能會(huì)更加猶豫是否在社交媒體或網(wǎng)站上分享任何未來(lái)可能被竊取的信息,即使這些網(wǎng)站承諾保護(hù)他們的數(shù)據(jù)。他們可能不太可能發(fā)布自己的照片,不太可能參加“互聯(lián)網(wǎng)的巨大公共論壇”上的公開辯論,尤其是社交媒體,也不太可能擁有與他們相關(guān)的社交媒體檔案或個(gè)人網(wǎng)站。剝奪人們參與公共話語(yǔ)和在線互動(dòng)的權(quán)利將限制整個(gè)互聯(lián)網(wǎng)的實(shí)用性,尤其是網(wǎng)絡(luò)工具。
基本數(shù)據(jù)最小化原則規(guī)定,人們的個(gè)人信息只能用于每個(gè)人提供信息的特定目的。但目前沒有法規(guī)禁止公司竊取人們的個(gè)人信息并將其用于培訓(xùn)生成性人工智能工具。美國(guó)的隱私法免除了大多數(shù)公開信息的監(jiān)管,因?yàn)閾?dān)心這些信息的收集和使用受到第一修正案的保護(hù)。但立法者低估了允許公司不分青紅皂白地獲取個(gè)人信息的重大反壟斷隱私利益。
人們應(yīng)該能夠發(fā)布公開的個(gè)人資料照片,而不用擔(dān)心這些照片會(huì)被用來(lái)制作深度偽造的照片或提供其他濫用人工智能的應(yīng)用程序。限制公開個(gè)人信息收集和/或隨后使用的法律既保護(hù)了人們控制信息的利益,也鼓勵(lì)人們繼續(xù)在互聯(lián)網(wǎng)上公開信息。
生成AI用戶數(shù)據(jù)
許多生成型人工智能工具需要用戶登錄才能訪問(wèn),許多工具保留用戶信息,包括聯(lián)系信息、IP地址以及用戶在應(yīng)用程序中的所有輸入和輸出或“對(duì)話”。這些做法涉及同意問(wèn)題,因?yàn)樯扇斯ぶ悄芄ぞ呤褂眠@些數(shù)據(jù)來(lái)進(jìn)一步訓(xùn)練模型,使他們的“免費(fèi)”產(chǎn)品以訓(xùn)練工具的用戶數(shù)據(jù)為代價(jià)。如下一節(jié)所述,這與安全性相吻合,但最佳做法包括不要求用戶登錄才能使用該工具,以及在用戶主動(dòng)使用后的任何時(shí)間內(nèi)不保留或使用用戶生成的內(nèi)容。
生成人工智能輸出
生成型人工智能工具可能會(huì)無(wú)意中共享有關(guān)某人或某人業(yè)務(wù)的個(gè)人信息,或者可能包括照片中的個(gè)人元素。特別是,擔(dān)心自己的商業(yè)秘密被員工整合到模型中的公司已經(jīng)明確禁止員工使用該模型。
危害
- 物理:為了自身安全,可能想要?jiǎng)h除個(gè)人數(shù)據(jù)的個(gè)人,如家庭暴力或跟蹤受害者,可能無(wú)法刪除,因?yàn)閿?shù)據(jù)已添加到生成的人工智能數(shù)據(jù)集中,因此可能面臨施虐者的風(fēng)險(xiǎn)。
- 經(jīng)濟(jì)/經(jīng)濟(jì)損失:商業(yè)秘密被納入培訓(xùn)的企業(yè)面臨潛在的經(jīng)濟(jì)損失。
- 心理:無(wú)法從訓(xùn)練集中刪除個(gè)人數(shù)據(jù)的個(gè)人可能會(huì)面臨挫折或恐懼,如果這些數(shù)據(jù)在傳播時(shí)會(huì)對(duì)他們產(chǎn)生負(fù)面影響。
- 自主性:無(wú)法阻止從訓(xùn)練集中添加或強(qiáng)制刪除個(gè)人信息的個(gè)人顯然已經(jīng)失去了對(duì)其數(shù)據(jù)的控制。
- 自主性:對(duì)于是否將個(gè)人數(shù)據(jù)添加到訓(xùn)練數(shù)據(jù)集,個(gè)人通常沒有得到通知、咨詢或選擇。
- 自主性/機(jī)會(huì)損失:無(wú)法刪除不準(zhǔn)確或不再準(zhǔn)確的數(shù)據(jù)或進(jìn)行更新可能會(huì)導(dǎo)致錯(cuò)誤的輸出,然后隨著錯(cuò)誤信息的激增而加劇。
示例
- 意大利數(shù)據(jù)保護(hù)局根據(jù)歐盟針對(duì)OpenAI的《通用數(shù)據(jù)保護(hù)條例》開始了執(zhí)法行動(dòng),在調(diào)查之前禁止該服務(wù)在該國(guó)使用。這導(dǎo)致該公司對(duì)系統(tǒng)進(jìn)行了一些隱私披露和控制。來(lái)自世界各地機(jī)構(gòu)的監(jiān)管利益可能會(huì)成為改善數(shù)據(jù)保護(hù)行為的催化劑。
- 私人醫(yī)療記錄的照片在公共數(shù)據(jù)庫(kù)LAION-5B中發(fā)現(xiàn),該數(shù)據(jù)庫(kù)用于制作圖像生成器。
干預(yù)措施
- 執(zhí)行禁止不公平和欺騙性貿(mào)易行為的法律,對(duì)兒童用戶的同意要求,并要求數(shù)據(jù)處理的正當(dāng)性。
- 頒布法律法規(guī),規(guī)定數(shù)據(jù)最小化標(biāo)準(zhǔn),限制個(gè)人數(shù)據(jù)用于生成人工智能培訓(xùn)(例如,《美國(guó)數(shù)據(jù)隱私保護(hù)法》、聯(lián)邦貿(mào)易委員會(huì)商業(yè)監(jiān)督規(guī)則和某些州隱私法規(guī))
- 支持使用有限且公開的數(shù)據(jù)集構(gòu)建的工具。
- 開發(fā)人員采用嚴(yán)格的數(shù)據(jù)最小化標(biāo)準(zhǔn),以幫助減輕創(chuàng)建、調(diào)整和更新模型以訓(xùn)練人工智能對(duì)隱私的危害。數(shù)據(jù)最小化是一種標(biāo)準(zhǔn),根據(jù)確切的定義,只應(yīng)允許在執(zhí)行用戶要求的服務(wù)所需的范圍內(nèi)收集個(gè)人數(shù)據(jù)。數(shù)據(jù)最小化的原則與在未經(jīng)披露或同意的情況下從公共信息大規(guī)模創(chuàng)建生成性人工智能數(shù)據(jù)集的原則根本不一致。
增加數(shù)據(jù)安全風(fēng)險(xiǎn)
背景和風(fēng)險(xiǎn)
身份盜竊資源中心估計(jì),2021年發(fā)生了破紀(jì)錄的1862起數(shù)據(jù)泄露事件;;2022年又有1802起。除了侵犯隱私的固有危害外,還可能產(chǎn)生嚴(yán)重的下游影響。政府問(wèn)責(zé)局的一份報(bào)告指出,受害者“由于身份盜竊而失去了工作機(jī)會(huì),被拒絕貸款,甚至因未犯下的罪行而被捕?!比欢?#xff0c;這些傷害并沒有出現(xiàn)在受害者的銀行對(duì)賬單或信用報(bào)告上,而且?guī)缀醪豢赡芸刂粕鐣?huì)安全號(hào)碼的使用地點(diǎn);由于其獨(dú)特和不可更改的性質(zhì),SSN是政府和私營(yíng)部門實(shí)體的強(qiáng)大標(biāo)識(shí)符。更糟糕的是,與被盜的信用卡不同,被盜的SSN無(wú)法有效地取消或替換。擁有SSN的罪犯可以開立新的金融賬戶并實(shí)施身份盜竊,因?yàn)樵S多金融機(jī)構(gòu)依賴SSN來(lái)驗(yàn)證交易。不出所料,司法統(tǒng)計(jì)局的研究表明,身份盜竊會(huì)導(dǎo)致嚴(yán)重的災(zāi)難。
近年來(lái),隨著勒索軟件即服務(wù)、惡意軟件即服務(wù)和其他代理服務(wù)的引入,威脅形勢(shì)也變得更糟,雇傭的黑客通過(guò)這些服務(wù)生產(chǎn)了未經(jīng)授權(quán)訪問(wèn)數(shù)據(jù)的方法。我們應(yīng)該期待看到更多可購(gòu)買工具的例子,通過(guò)這些工具可以在未經(jīng)授權(quán)的情況下訪問(wèn)、加密和/或操縱數(shù)據(jù)。
正如所有其他類型的個(gè)人和組織都在探索生成人工智能產(chǎn)品的可能用例一樣,惡意行為者也在探索。這可以采取促進(jìn)或擴(kuò)大現(xiàn)有威脅方法的形式,例如起草實(shí)際的惡意軟件代碼、商業(yè)電子郵件泄露嘗試、網(wǎng)絡(luò)釣魚嘗試。這也可以采取新型威脅方法的方式,例如,挖掘輸入人工智能學(xué)習(xí)模型數(shù)據(jù)集的信息,或用戰(zhàn)略上糟糕的數(shù)據(jù)毒害學(xué)習(xí)模型數(shù)據(jù)集中。我們還應(yīng)該預(yù)料到,會(huì)有一些新的攻擊向量,我們甚至還沒有想到,這些向量還沒有成為可能,也沒有被生成人工智能更廣泛地訪問(wèn)。
危害
- 物理:如果個(gè)人是身份盜竊的受害者,他們可能會(huì)因未犯下的罪行而面臨逮捕。
- 經(jīng)濟(jì)/經(jīng)濟(jì)損失:由于身份盜竊和信貸破壞,受害者可能會(huì)失去工作機(jī)會(huì)或被拒絕貸款。
- 聲譽(yù)/社會(huì)污名化:身份盜竊可能會(huì)造成嚴(yán)重的聲譽(yù)損害,惡意軟件也可能被用來(lái)泄露個(gè)人的敏感信息,從而造成額外的社會(huì)危害。
- 心理方面:這些襲擊的受害者可能會(huì)因?yàn)檫@些襲擊的結(jié)果而面臨尷尬和恐懼,以及無(wú)助、憤怒等情緒。
- 自主性:這些攻擊可能會(huì)導(dǎo)致身份控制、財(cái)務(wù)控制、形象等方面的喪失。
- 歧視:詐騙往往針對(duì)老年人等歷史弱勢(shì)群體。
示例
- ChatGPT遭遇大規(guī)模數(shù)據(jù)泄露,暴露了用戶信息和提示歷史記錄。
- 在發(fā)現(xiàn)員工向ChatGPT泄露安全信息后,三星禁止使用人工智能。
- OpenAI允許用戶通過(guò)插件從用戶那里獲取信息,聊天機(jī)器人可以獲得Expedia和Instacart等新的信息來(lái)源。
干預(yù)措施
如果公司投資于員工培訓(xùn)和修補(bǔ)已知漏洞,他們可以減輕生成人工智能超級(jí)充電現(xiàn)有威脅方法的一些風(fēng)險(xiǎn)。然而,與人工智能模型本身的使用相關(guān)的風(fēng)險(xiǎn)將需要不同的解決方案,包括但不限于NIST人工智能風(fēng)險(xiǎn)管理框架中概述的解決方案和擬議的《美國(guó)數(shù)據(jù)隱私和保護(hù)法》(ADPPA)中要求的解決方案。
直面創(chuàng)造力:對(duì)知識(shí)產(chǎn)權(quán)的影響
背景和風(fēng)險(xiǎn)
知識(shí)產(chǎn)權(quán)法包括版權(quán)、專利、商標(biāo)和商業(yè)秘密。松散地說(shuō),版權(quán)保護(hù)任何表達(dá)媒介(比如書籍、音樂(lè)、戲劇和藝術(shù)品)的原創(chuàng)作品,專利保護(hù)發(fā)明,商標(biāo)保護(hù)用于識(shí)別特定商品和服務(wù)來(lái)源的任何文字或符號(hào),和商業(yè)秘密保護(hù)專有商業(yè)信息。知識(shí)產(chǎn)權(quán)法的每一個(gè)分支都包含作品創(chuàng)作者和所有者對(duì)該作品的特定權(quán)利,例如,控制該作品的使用方式或防止他人聲稱該作品是他們的。雖然知識(shí)產(chǎn)權(quán)法的所有領(lǐng)域都對(duì)生成人工智能的使用和作品的生成提出了挑戰(zhàn),但版權(quán)是迄今為止最常被援引的。
隨著生成人工智能的興起,知識(shí)產(chǎn)權(quán)法律保護(hù)的范圍和有效性受到質(zhì)疑。生成人工智能根據(jù)大量數(shù)據(jù)進(jìn)行訓(xùn)練,這些數(shù)據(jù)通常包括受知識(shí)產(chǎn)權(quán)保護(hù)的作品。正如藝術(shù)調(diào)查與報(bào)道中心最近的一封公開信中所說(shuō),“人工智能藝術(shù)生成器是在巨大的數(shù)據(jù)集上訓(xùn)練的,其中包含數(shù)百萬(wàn)受版權(quán)保護(hù)的圖像,這些圖像是在創(chuàng)作者不知情的情況下采集的,更不用說(shuō)補(bǔ)償或同意了。這實(shí)際上是歷史上最大的藝術(shù)搶劫案?!?。“在這些作品上訓(xùn)練的系統(tǒng)可能會(huì)學(xué)習(xí)模仿特定的風(fēng)格,就像在幾個(gè)案例中已經(jīng)發(fā)生的那樣。幾位風(fēng)格被復(fù)制的藝術(shù)家對(duì)他們的作品被模仿表示了深深的沮喪、憤怒和沮喪,并指出人工智能正在從他們的作品中獲利,以發(fā)展不同的風(fēng)格,影響他們的生計(jì),以及將深度個(gè)人工作簡(jiǎn)化為算法。用尼克·凱夫(Nick Cave)的話來(lái)說(shuō),一位藝術(shù)家面對(duì)一首以“Nick Cave”風(fēng)格創(chuàng)作的歌曲,“這首歌是胡說(shuō)八道,是對(duì)人類本質(zhì)的怪誕嘲弄?!?/p>
關(guān)于知識(shí)產(chǎn)權(quán)保護(hù)在生成人工智能領(lǐng)域的延伸程度的問(wèn)題可以分為這些系統(tǒng)的輸入或輸出周期。
案例研究-聲音里有什么? 一首人工智能生成的歌曲,被稱為德雷克和Weeknd之間的“合作”,出現(xiàn)在Spotify、Tidal、Apple Music和YouTube上,在周末迅速收集了足夠的收聽量和瀏覽量,并在周一之前出現(xiàn)在音樂(lè)排行榜上。這首歌是通過(guò)抓取藝術(shù)家聲音和音樂(lè)的多個(gè)樣本而創(chuàng)作的,創(chuàng)造了一首聽起來(lái)逼真的新歌。在環(huán)球音樂(lè)集團(tuán)多次提出版權(quán)要求后,這首歌被刪除了,這引發(fā)了人們對(duì)原創(chuàng)歌曲是否可以獲得版權(quán)的質(zhì)疑,以及對(duì)聲音和音樂(lè)風(fēng)格被克隆的藝術(shù)家有什么保護(hù)措施。 |
輸入
生成型人工智能系統(tǒng)可以生成極其詳細(xì)和適應(yīng)性強(qiáng)的內(nèi)容,因?yàn)樗鼈兪歉鶕?jù)從互聯(lián)網(wǎng)上收集的大量數(shù)據(jù)進(jìn)行訓(xùn)練的。獲取的數(shù)據(jù)類型會(huì)因系統(tǒng)類型而異。例如,人工智能藝術(shù)生成器將抓取藝術(shù)和圖像,將有關(guān)其關(guān)鍵特征的信息翻譯成代碼,然后由這些系統(tǒng)審查模式、關(guān)系和規(guī)則,然后用于生成對(duì)用戶提示的響應(yīng)。由于這些系統(tǒng)的輸出變得更加“準(zhǔn)確”或?qū)Ω鄶?shù)據(jù)的響應(yīng),許多系統(tǒng)被編程為連續(xù)自動(dòng)地抓取他們喜歡的內(nèi)容類型。
這些龐大的數(shù)據(jù)集幾乎總是包含受保護(hù)的作品。使用數(shù)據(jù)集創(chuàng)建生成人工智能系統(tǒng)的實(shí)體很少(如果有的話)獲得藝術(shù)作品創(chuàng)作者和所有者的許可或執(zhí)照來(lái)使用它們。事實(shí)上,許多藝術(shù)家公開表示,他們不希望自己的作品進(jìn)入可能使他們過(guò)時(shí)的系統(tǒng)。
關(guān)于是否應(yīng)該允許生成人工智能工具在沒有許可證的情況下使用受保護(hù)的作品,目前存在著嚴(yán)重而持續(xù)的爭(zhēng)論。一些人認(rèn)為,這種使用構(gòu)成了合理使用,這是一些適用范圍非常有限的版權(quán)保護(hù)的例外。合理使用通常取決于使用受版權(quán)保護(hù)的材料。例如,使用該內(nèi)容的研究或非營(yíng)利組織可能比打算出售使用原創(chuàng)作品產(chǎn)生的作品的公司擁有更好的合理使用權(quán)。公平使用在多大程度上適用于生成人工智能仍然是一個(gè)懸而未決的法律問(wèn)題。
輸出
生成人工智能的最終用戶已經(jīng)試圖聲稱對(duì)生成人工智能工具的輸出擁有所有權(quán),其中包括一些試圖向美國(guó)版權(quán)局申請(qǐng)版權(quán)的用戶。越來(lái)越多的人使用生成人工智能來(lái)創(chuàng)作創(chuàng)意作品,以及隨后的版權(quán)申請(qǐng)嘗試,這足以促使版權(quán)局發(fā)起一項(xiàng)新的人工智能倡議。
到目前為止,美國(guó)版權(quán)局的聲明規(guī)定,除非作品包含“人類行為者的創(chuàng)造性貢獻(xiàn)”,否則作品不能獲得版權(quán)保護(hù),并指出版權(quán)只能保護(hù)“人類創(chuàng)造力的產(chǎn)物”。雖然有人認(rèn)為提示構(gòu)成了足夠的“人類創(chuàng)造力”,可以為最終作品帶來(lái)知識(shí)產(chǎn)權(quán)保護(hù),但版權(quán)局不同意,將提示與“向受委托藝術(shù)家發(fā)出的指令進(jìn)行比較,他們確定提示者希望描繪的內(nèi)容,但機(jī)器決定這些指令在其輸出中的執(zhí)行方式。”
當(dāng)工作的一部分是人工智能生成的,而一部分是人類生成的時(shí),這種區(qū)別變得更加復(fù)雜。版權(quán)可能適用于包含或基于人工智能生成的作品的作品,但版權(quán)僅適用于人類創(chuàng)作的方面。
危害
對(duì)作品創(chuàng)作者個(gè)人和藝術(shù)家群體的傷害是巨大的。
- 經(jīng)濟(jì)/經(jīng)濟(jì)損失:如上所述,這一領(lǐng)域的法律危害可能包括侵犯作品和使用權(quán),以及人工智能生成產(chǎn)品的所有權(quán)問(wèn)題。對(duì)作品的侵權(quán)可能源于生成的人工智能輸出。其中包括未經(jīng)授權(quán)的復(fù)制(可能是人工智能生成的作品與原始作品過(guò)于相似的情況)和衍生作品(包含原始作品中過(guò)多原始元素的作品,通常出現(xiàn)在原始作品的復(fù)制、濃縮或刪節(jié)中)。使用權(quán)將與生成人工智能輸入有關(guān),無(wú)論生成人工智能系統(tǒng)是否有在學(xué)習(xí)集中使用原創(chuàng)作品的許可證,或者這是否屬于例外,例如合理使用。
- 經(jīng)濟(jì)/經(jīng)濟(jì)損失:創(chuàng)作者和所有者可能面臨嚴(yán)重的經(jīng)濟(jì)損失,因?yàn)楫?dāng)類似的作品可以輕松而廉價(jià)地產(chǎn)生時(shí),對(duì)他們作品的需求會(huì)減少。這些危害可能表現(xiàn)為缺乏機(jī)會(huì)和雇傭(因?yàn)樵S多創(chuàng)作者的工作和傭金被生成性人工智能取代),以及侵犯原創(chuàng)作品的經(jīng)濟(jì)利益(由于買家使用的是復(fù)制作品,因此錯(cuò)過(guò)了授權(quán)或銷售作品)。如果人們?cè)絹?lái)越擔(dān)心人工智能生成的作品會(huì)讓作為創(chuàng)作者的生活變得過(guò)于困難,這也可能導(dǎo)致職業(yè)藝術(shù)家的數(shù)量急劇下降。最后,人工智能生成的作品的涌入將影響該作品的市場(chǎng)。
- 聲譽(yù):創(chuàng)作者也可能面臨聲譽(yù)損害。粉絲們完全有可能將人工智能生成的作品與鼓舞人心的創(chuàng)作者的作品混淆,這是一個(gè)問(wèn)題,因?yàn)閯?chuàng)作者沒有參與該作品,也無(wú)法就使用、質(zhì)量或方向提供意見。以特定創(chuàng)作者的風(fēng)格或聲音創(chuàng)作的作品可能被用來(lái)宣傳創(chuàng)作者不同意的原因,或者可能質(zhì)量低,這兩者都可能造成聲譽(yù)損害。
- 心理:幾位藝術(shù)家對(duì)他們的作品被生成人工智能使用和復(fù)制表示了痛苦、悲傷、憤怒等。在許多情況下,藝術(shù)家的作品是非常個(gè)人化的,復(fù)制和利用作品也是非常個(gè)人化的。
- 機(jī)會(huì)/關(guān)系/尊嚴(yán)的喪失:如果創(chuàng)作者及其作品不能通過(guò)生成性人工智能免受剝削和復(fù)制,這可能會(huì)導(dǎo)致更少的藝術(shù)家投入時(shí)間和精力來(lái)發(fā)展自己獨(dú)特的藝術(shù)風(fēng)格,從而導(dǎo)致創(chuàng)作者群體和人類所有創(chuàng)造性作品的數(shù)量全面下降。
示例
- 幾位藝術(shù)家發(fā)現(xiàn),他們的作品已經(jīng)在未經(jīng)他們?cè)S可的情況下被用于訓(xùn)練人工智能,在某些情況下,人工智能可以在被要求時(shí)令人信服地復(fù)制他們精確的藝術(shù)風(fēng)格。
- 正如上面的案例研究所指出的,這延伸到人工智能生成的歌曲,這些歌曲以完全模仿藝術(shù)家的音調(diào)和音樂(lè)風(fēng)格的方式“表演”。
- 藝術(shù)家們發(fā)現(xiàn)人工智能復(fù)制了他們的風(fēng)格,或者以某種方式修改了他們的作品,使其看起來(lái)像是支持仇恨的信息,就像一位藝術(shù)家發(fā)現(xiàn)另類右翼使用人工智能生成工具以她的藝術(shù)風(fēng)格創(chuàng)作表達(dá)冒犯性世界觀一樣。
- 目前有一些個(gè)人試圖對(duì)人工智能工具生成的作品主張版權(quán)的例子。
- 三位藝術(shù)家在加利福尼亞北區(qū)對(duì)生成人工智能圖像公司提起集體訴訟,指控其在未經(jīng)同意或補(bǔ)償?shù)那闆r下使用其作品來(lái)構(gòu)建為平臺(tái)提供信息的培訓(xùn)集。
- 蓋蒂圖片社已對(duì)Stability AI提起法律訴訟,指控其在未經(jīng)許可的情況下為訓(xùn)練集復(fù)制和處理數(shù)百萬(wàn)張圖像。
干預(yù)措施
- 人工智能開發(fā)人員可能被迫為生成人工智能技術(shù)的訓(xùn)練數(shù)據(jù)中包含的任何IP授予許可,這將防止互聯(lián)網(wǎng)上不分青紅皂白、持續(xù)的內(nèi)容抓取。
- 客戶可能有義務(wù)進(jìn)行某種形式的盡職調(diào)查,以確認(rèn)模型在使用模型之前是否接受過(guò)任何受保護(hù)內(nèi)容的培訓(xùn)。
- 人工智能工具可能被迫在以任何特定創(chuàng)作者的“風(fēng)格”生成藝術(shù)之前獲得創(chuàng)作者許可。
- 芝加哥大學(xué)的學(xué)術(shù)研究人員開發(fā)了一種名為Glaze的工具,該工具在藝術(shù)品中引入了幾乎無(wú)法察覺的元素,旨在破壞生成性人工智能抓取藝術(shù)品信息并將其添加到訓(xùn)練數(shù)據(jù)中的能力。
- Shutterstock正在為創(chuàng)作者提供選擇,讓他們選擇不在人工智能培訓(xùn)中使用自己的作品,并設(shè)立了一個(gè)捐款基金,如果創(chuàng)作者的知識(shí)產(chǎn)權(quán)被用于培訓(xùn),將對(duì)其進(jìn)行補(bǔ)償。
- DeviantArt為網(wǎng)絡(luò)上共享的圖像實(shí)現(xiàn)了一個(gè)元數(shù)據(jù)標(biāo)簽,其中包含對(duì)人工智能系統(tǒng)的警告,不要抓取標(biāo)記的內(nèi)容。
氣候變化的加劇影響
背景和風(fēng)險(xiǎn)
地球正朝著持續(xù)的氣候?yàn)?zāi)難急速發(fā)展。氣候變化已經(jīng)造成數(shù)十萬(wàn)至數(shù)百萬(wàn)人死亡,數(shù)十億美元的經(jīng)濟(jì)損失,以及物種的大規(guī)模滅絕。在未來(lái),我們能夠避免的每十分之一度的變暖都意味著數(shù)百萬(wàn)人的生命得到拯救,避免巨大的經(jīng)濟(jì)損失,以及一個(gè)宜居未來(lái)的機(jī)會(huì)。最終,出于選擇或必要,我們的社會(huì)將根據(jù)資源和碳成本來(lái)評(píng)估每一個(gè)行業(yè)和活動(dòng)。
在這種高風(fēng)險(xiǎn)的情況下,不斷增長(zhǎng)的生成人工智能領(lǐng)域崩潰了,這對(duì)我們的氣候帶來(lái)了直接而嚴(yán)重的影響:生成人工智能具有高碳足跡和類似的高資源價(jià)格標(biāo)簽,這在很大程度上是在公共人工智能話語(yǔ)的雷達(dá)下飛行的。
培訓(xùn)和運(yùn)行生成性人工智能工具需要公司使用極端數(shù)量的能量和物理資源。用正常的調(diào)整和實(shí)驗(yàn)訓(xùn)練一個(gè)自然語(yǔ)言處理模型,平均排放的碳量與七個(gè)人全年排放的碳總量相同。
?
日常人/物體產(chǎn)生的二氧化碳磅數(shù)與生成人工智能相關(guān)任務(wù)的比較
人工智能模型需要大量的碳來(lái)生產(chǎn),考慮到行業(yè)的激勵(lì)措施,這一趨勢(shì)不太可能有意義地改善。許多人工智能研究,尤其是在有效控制空間的大型科技公司,都以犧牲所有其他考慮為代價(jià),關(guān)注準(zhǔn)確性或相關(guān)措施。人工智能研究的很大一部分試圖通過(guò)隨著時(shí)間的推移投入指數(shù)級(jí)的更多資金來(lái)“購(gòu)買”更好的結(jié)果,以線性提高準(zhǔn)確性,而忽略資源成本等其他外部因素。這些成本是許多人工智能系統(tǒng)的物理要求:模型性能和模型復(fù)雜性之間的關(guān)系充其量是對(duì)數(shù)的,因此對(duì)于性能的線性增益,需要一個(gè)指數(shù)級(jí)更大、資源效率更低的模型。盡管一些人工智能研究人員已經(jīng)開始關(guān)注效率,無(wú)論是出于成本削減還是環(huán)境原因,但沒有理由認(rèn)為大型科技公司會(huì)很快放棄對(duì)準(zhǔn)確性的追求。
與此同時(shí),人工智能開發(fā)人員用來(lái)訓(xùn)練和托管生成性人工智能模型的數(shù)據(jù)中心具有高昂的能源成本和巨大的碳足跡。盡管其中一些能源可能來(lái)自可再生資源,但由于幾個(gè)原因,數(shù)據(jù)中心的能源消耗仍然令人擔(dān)憂。首先,許多擁有數(shù)據(jù)中心的地區(qū)仍然使用碳密集型能源發(fā)電。其次,即使可再生能源可用,也可以更好地分配給家庭供暖、為溫室供暖或進(jìn)一步實(shí)現(xiàn)其他社會(huì)重要目標(biāo),而不是訓(xùn)練人工智能模型,但這種權(quán)衡通常不會(huì)被研究或討論。
這些數(shù)據(jù)中心也以不可持續(xù)的方式占用資源。許多科技公司利用公共供水來(lái)冷卻位于干旱地區(qū)中部的中心,這種做法引起了公眾的強(qiáng)烈反對(duì)?!靶碌难芯勘砻?#xff0c;僅GPT-3的訓(xùn)練就消耗了18.5萬(wàn)加侖(70萬(wàn)升)的水。根據(jù)一項(xiàng)新的研究,普通用戶與ChatGPT的對(duì)話基本上相當(dāng)于把一大瓶淡水倒在地上。”這些技術(shù)還嚴(yán)重依賴于在暴力和剝削條件下采購(gòu)的礦物。
危害
- 物理:嚴(yán)重的環(huán)境變化將對(duì)全球人民造成嚴(yán)重的物理傷害(干旱、自然災(zāi)害等)。
- 經(jīng)濟(jì)/經(jīng)濟(jì)損失:應(yīng)對(duì)環(huán)境危害或運(yùn)行生成性人工智能所需的經(jīng)濟(jì)資源非常重要。
- 自主性:這么多有限的資源流向了使用它們進(jìn)行生成人工智能的大公司,這必然意味著其他公司的訪問(wèn)權(quán)限將減少,并面臨短缺。
示例
- HuggingFace的氣候主管Sasha Luccioni評(píng)估了Generative AI對(duì)環(huán)境和社會(huì)的影響——她在她的Generative AI成本冰山模型中強(qiáng)調(diào)了“成噸的碳排放”、“大量的能源/水”和“制造硬件的稀有金屬”。
來(lái)源:Sasha Luccioni
干預(yù)措施
- 由于環(huán)境破壞,荷蘭政府對(duì)該國(guó)的大型數(shù)據(jù)中心實(shí)施了為期九個(gè)月的暫停令,以維持監(jiān)管。
- 應(yīng)要求科技公司跟蹤并公布其模型和數(shù)據(jù)中心正在使用的能源和資源量。
- 會(huì)議應(yīng)要求跟蹤資源,以開發(fā)和運(yùn)行一個(gè)系統(tǒng)。
- 學(xué)術(shù)研究人員應(yīng)公平獲得計(jì)算資源。截至目前,學(xué)者們還沒有足夠的機(jī)會(huì)了解現(xiàn)代人工智能工具如何工作以及它們需要什么資源的細(xì)節(jié)。這些知識(shí)被囤積在大型科技公司內(nèi)部。如果沒有這些知識(shí)和訪問(wèn)權(quán)限,重點(diǎn)將放在利潤(rùn)/準(zhǔn)確性上,而不是環(huán)境問(wèn)題上。陽(yáng)光是最好的消毒劑,了解計(jì)算機(jī)科學(xué)的學(xué)者是讓陽(yáng)光進(jìn)來(lái)的有用窗口。
勞工操縱、盜竊和流離失所
背景和風(fēng)險(xiǎn)
最近的點(diǎn)擊誘餌頭條放大了人們的恐懼和炒作,宣揚(yáng)生成性人工智能正在為人們的工作而來(lái)。雖然生成性人工人工智能將擾亂某些行業(yè)的工作方式,但現(xiàn)在要看這項(xiàng)技術(shù)將如何影響勞動(dòng)力市場(chǎng)并融入現(xiàn)有工作還為時(shí)過(guò)早。
在勞動(dòng)力和市場(chǎng)主導(dǎo)地位方面,蘋果、Meta、亞馬遜、谷歌和微軟等大型科技公司雇傭了大部分人工智能研發(fā)行業(yè)。這些公司正在引導(dǎo)這些專業(yè)化的勞動(dòng)力開發(fā)商業(yè)人工智能產(chǎn)品,這些產(chǎn)品可以用于私人利益,而不是公共利益。
大型科技公司也是開發(fā)新的生成人工智能系統(tǒng)的主導(dǎo)者,因?yàn)橛?xùn)練生成人工智能模型需要大量的數(shù)據(jù)、計(jì)算能力以及技術(shù)和財(cái)務(wù)資源。他們的市場(chǎng)主導(dǎo)地位對(duì)勞動(dòng)力市場(chǎng)產(chǎn)生了連鎖反應(yīng),既影響到這些公司內(nèi)部的工人,也影響到那些在外部實(shí)施其生成人工智能產(chǎn)品的工人。憑借如此集中的市場(chǎng)力量、專業(yè)知識(shí)和投資資源,這幾家大型科技公司在生成人工智能領(lǐng)域雇傭了大部分研發(fā)工作。創(chuàng)造就業(yè)機(jī)會(huì)的力量也意味著,面對(duì)經(jīng)濟(jì)的不確定性,這些科技公司可以削減就業(yè)崗位。從外部來(lái)看,這些公司開發(fā)的生成性人工智能工具有可能影響白領(lǐng)的辦公室工作,以提高工人的生產(chǎn)力并自動(dòng)化任務(wù)。
職場(chǎng)生成人工智能
人工智能的整體發(fā)展正在改變公司設(shè)計(jì)工作場(chǎng)所和商業(yè)模式的方式。生成型人工智能也不例外。時(shí)間會(huì)告訴我們,雇主是否會(huì)在工作場(chǎng)所采用、實(shí)施和集成生成性人工智能,以及在多大程度上會(huì)對(duì)工人產(chǎn)生多大影響。
盡管如此,早期跡象表明,生成型人工智能將改變白領(lǐng)工作。許多白領(lǐng)已經(jīng)開始接受生成人工智能來(lái)幫助完成日常任務(wù),如起草演示文稿、營(yíng)銷材料、演講、電子郵件、進(jìn)行研究,甚至編碼。Fishbowl的一項(xiàng)調(diào)查發(fā)現(xiàn),43%的職場(chǎng)人士使用生成人工智能工具來(lái)完成工作任務(wù),70%的受訪者在老板不知情的情況下這樣做。新聞媒體和網(wǎng)站使用ChatGPT來(lái)撰寫全部或部分文章。招聘經(jīng)理正轉(zhuǎn)向生成人工智能來(lái)幫助撰寫職位描述和起草面試問(wèn)題,律師正在使用生成人工智能進(jìn)行研究、行政任務(wù),甚至起草合同。在醫(yī)學(xué)領(lǐng)域,醫(yī)生正在使用生成AI進(jìn)行研究和總結(jié)患者就診情況。
生成性人工智能的激增也產(chǎn)生了對(duì)有使用這些工具經(jīng)驗(yàn)的工人的需求,以及圍繞這些工具建立的全新工作崗位。根據(jù)ResumeBuilder.com的一項(xiàng)研究,十分之九的受訪公司目前正在尋找具有ChatGPT經(jīng)驗(yàn)的員工。生成型人工智能工具的興起也產(chǎn)生了對(duì)“即時(shí)工程師”的日益增長(zhǎng)的需求,即訓(xùn)練人工智能聊天機(jī)器人測(cè)試和改進(jìn)答案,或以其他方式為ChatGPT等大型語(yǔ)言模型提供更好的即時(shí)輸入的人。事實(shí)上,已經(jīng)有了一個(gè)提示數(shù)據(jù)庫(kù),人們可以在其中銷售自己的提示,以產(chǎn)生更好的結(jié)果。
并不是所有的雇主都加入了人工智能的浪潮。由于擔(dān)心可靠性,一些工作場(chǎng)所對(duì)快速采用這項(xiàng)技術(shù)持謹(jǐn)慎態(tài)度,因?yàn)檫@項(xiàng)技術(shù)有時(shí)會(huì)對(duì)提示做出錯(cuò)誤信息或錯(cuò)誤答案的反應(yīng)。其他雇主對(duì)安全風(fēng)險(xiǎn)和限制員工使用表示擔(dān)憂。摩根大通、大通、美國(guó)銀行、花旗集團(tuán)和威瑞森等工作場(chǎng)所禁止員工使用ChatGPT。在員工將敏感數(shù)據(jù)上傳到ChatGPT后,三星禁止了生成人工智能工具,并表示擔(dān)心傳輸?shù)臄?shù)據(jù)存儲(chǔ)在外部服務(wù)器上,難以檢索或刪除,可能會(huì)泄露給他人。
生成型人工智能對(duì)經(jīng)濟(jì)的總體影響還有待觀察。一些專家表示,不受監(jiān)管和自由部署的生成人工智能可能會(huì)損害競(jìng)爭(zhēng),壓低工資,并導(dǎo)致過(guò)度自動(dòng)化和不合格。但在討論生成人工智能對(duì)勞動(dòng)力的潛在風(fēng)險(xiǎn)時(shí),需要區(qū)分生成人工智能工具是導(dǎo)致自動(dòng)化還是增加工作角色。自20世紀(jì)80年代以來(lái),收入不平等的很大一部分是由自動(dòng)化驅(qū)動(dòng)的。當(dāng)生成人工智能用于自動(dòng)化時(shí),潛在的風(fēng)險(xiǎn)包括失業(yè)、勞動(dòng)力貶值和經(jīng)濟(jì)不平等加劇。
工作自動(dòng)化而非擴(kuò)充
人工智能對(duì)勞動(dòng)的影響既有積極的一面,也有消極的一面。白宮的一份報(bào)告指出,人工智能“有可能提高生產(chǎn)力、創(chuàng)造新的就業(yè)機(jī)會(huì)和提高生活水平”,但它也可能擾亂某些行業(yè),導(dǎo)致重大變化,包括失業(yè)。除了失業(yè)風(fēng)險(xiǎn)之外,工人可能會(huì)發(fā)現(xiàn)生成性人工智能工具使他們的部分工作自動(dòng)化,或者發(fā)現(xiàn)他們的工作要求已經(jīng)發(fā)生了根本性變化。
生成人工智能的影響將取決于該技術(shù)是用于自動(dòng)化(自動(dòng)化系統(tǒng)取代人類工作)還是增強(qiáng)(人工智能用于幫助人類工作者)。在過(guò)去的二十年里,自動(dòng)化的快速發(fā)展導(dǎo)致了“勞動(dòng)力份額的下降、工資的停滯以及許多發(fā)達(dá)經(jīng)濟(jì)體良好工作的消失?!睂iT用于自動(dòng)化的人工智能可能會(huì)加劇這些負(fù)面趨勢(shì)。
一些研究表明,如果人工智能取代了許多以前由工人完成的日常任務(wù),人工智能可能會(huì)減少招聘。但其他研究表明,人工智能可以創(chuàng)造新的機(jī)會(huì),特別是在高技能工作中,并提高工人的生產(chǎn)力專注于復(fù)雜或創(chuàng)造性的任務(wù)。然而,試圖降低成本、實(shí)現(xiàn)利潤(rùn)最大化和增加股東價(jià)值的雇主更有可能優(yōu)先考慮自動(dòng)化而非增強(qiáng)工作的人工智能技術(shù)。
雖然現(xiàn)在確定人工智能是否會(huì)大幅貶值或完全取代工人還為時(shí)過(guò)早,但初步研究表明,生成型人工智能確實(shí)會(huì)影響與工作相關(guān)的任務(wù)。根據(jù)OpenAI的研究,“80%的美國(guó)勞動(dòng)力可能會(huì)有至少10%的工作任務(wù)受到大型語(yǔ)言模型的影響”,這種影響預(yù)計(jì)將跨越各個(gè)行業(yè)的所有工資水平。 OpenAI的論文還發(fā)現(xiàn),“大約19%的工人可能會(huì)有50%的任務(wù)受到影響?!?/p>
高盛的一份報(bào)告指出,生成型人工智能可能會(huì)影響多達(dá)3億個(gè)工作崗位。生成型人工人工智能可能取代四分之一的現(xiàn)有工作,行政和法律部門的白領(lǐng)最有可能受到影響。高盛的報(bào)告還顯示,人工智能將更普遍地影響勞動(dòng)力市場(chǎng),但該報(bào)告強(qiáng)調(diào),這種影響在很大程度上取決于該技術(shù)的能力和采用方式。
勞動(dòng)力貶值與經(jīng)濟(jì)不平等加劇
通過(guò)降低成本來(lái)加速生產(chǎn)力、實(shí)現(xiàn)工作自動(dòng)化和提高盈利能力的技術(shù)進(jìn)步早在生成性人工智能繁榮之前就已經(jīng)開始了。從歷史上看,自動(dòng)化是工資下降的最明顯因素之一。根據(jù)白宮的一份報(bào)告,人工智能的大部分開發(fā)和采用都是為了自動(dòng)化,而不是增加工作。該報(bào)告指出,對(duì)自動(dòng)化的關(guān)注可能會(huì)導(dǎo)致勞動(dòng)力市場(chǎng)不那么民主和公平。
考慮一下生成人工智能在軟件工程行業(yè)對(duì)勞動(dòng)力的潛在影響,許多初創(chuàng)企業(yè)正在使用GPT-4來(lái)減少在人類程序員上的支出。雖然生成人工智能不會(huì)很快取代所有軟件工程師,但它將影響學(xué)習(xí)代碼的可訪問(wèn)性、程序員的服務(wù)成本,以及人類程序員的需求。初級(jí)程序員可以從使用生成人工智能來(lái)幫助他們學(xué)習(xí)代碼中受益,但更有經(jīng)驗(yàn)的程序員可能會(huì)發(fā)現(xiàn),隨著競(jìng)爭(zhēng)的加劇,他們的勞動(dòng)價(jià)值會(huì)降低。
2021年,OpenAI首席執(zhí)行官Sam Altman預(yù)測(cè),將出現(xiàn)一場(chǎng)“勢(shì)不可擋”的技術(shù)人工智能革命,一旦足夠強(qiáng)大的人工智能‘加入勞動(dòng)力’,許多類型的勞動(dòng)力的價(jià)格將降至零。”Altman闡述道,由于勞動(dòng)力是供應(yīng)鏈的驅(qū)動(dòng)成本,人工智能執(zhí)行任務(wù)將降低商品和服務(wù)的成本。他承認(rèn),如果公共政策不適應(yīng)這樣一場(chǎng)預(yù)測(cè)中的革命,“大多數(shù)人的境況將比今天更糟?!边@一預(yù)測(cè)表明,領(lǐng)先的生成型人工智能公司的首席執(zhí)行官是如何看待未來(lái)的——人工智能加速了經(jīng)濟(jì)不平等。
此外,生成性人工智能加劇了人工智能技術(shù)研發(fā)中持續(xù)存在的全球勞動(dòng)力差距。為了全球北方的利益,將勞動(dòng)力外包給全球南方的分包商是科技行業(yè)和整個(gè)全球經(jīng)濟(jì)生態(tài)系統(tǒng)中更廣泛的固有問(wèn)題。被認(rèn)為簡(jiǎn)單而常規(guī)的勞動(dòng)力往往被外包到工人被迫以低工資進(jìn)入惡劣工作條件的地方。人工智能供應(yīng)鏈反映并再現(xiàn)了帝國(guó)殖民主義的不公平,在那里,擁有更大經(jīng)濟(jì)實(shí)力的全球北方從人工智能技術(shù)的擴(kuò)散中獲利,而將全球南方排除在外。
人工智能的發(fā)展一直顯示出人工智能模型研究者和控制這些工具并從中獲利的人之間的權(quán)力差距。培訓(xùn)人工智能聊天機(jī)器人的海外工作者或其在線內(nèi)容被非自愿地輸入培訓(xùn)模型的人并沒有獲得生成人工智能工具所產(chǎn)生的巨大利潤(rùn)。相反,那些剝削低工資和可替代工人的公司,或者藝術(shù)家和內(nèi)容創(chuàng)作者的無(wú)薪勞動(dòng),都是首當(dāng)其沖的。生成人工智能技術(shù)的發(fā)展只會(huì)加劇這種權(quán)力差距,大量投資于生成人工智能工具的科技公司以犧牲工人為代價(jià)從中受益。例如,OpenAI預(yù)計(jì)到2024年將實(shí)現(xiàn)10億美元的收入。
但圍繞人工智能的工人集體行動(dòng)正在增長(zhǎng)。例如,非洲150多名內(nèi)容審核和數(shù)據(jù)標(biāo)簽員工最近投票支持成立工會(huì)。此外,美國(guó)作家協(xié)會(huì)舉行罷工,部分原因是工作室拒絕就禁止使用人工智能生成劇本和使用作家的書面作品培訓(xùn)人工智能進(jìn)行談判。
危害
- 經(jīng)濟(jì)/經(jīng)濟(jì)損失/機(jī)會(huì)損失:將勞動(dòng)力外包給生成性人工智能可能會(huì)導(dǎo)致全球范圍內(nèi)的失業(yè)和工作更替,包括影響目前外包給其他國(guó)家的工作。
- 自主性/機(jī)會(huì)喪失:整個(gè)行業(yè)可能會(huì)受到工作場(chǎng)所對(duì)生成人工智能需求的影響,這意味著那些專門從事某些行業(yè)的人可能無(wú)法找到工作,不得不轉(zhuǎn)移到新的場(chǎng)所,這可能意味著該領(lǐng)域的教育、培訓(xùn)和經(jīng)驗(yàn)被“浪費(fèi)”了。
示例
- 總部位于舊金山的Sama公司在烏干達(dá)、肯尼亞和印度雇傭員工,為微軟、Meta、,和谷歌做數(shù)據(jù)標(biāo)注。 OpenAI將工作外包給Sama,Sama每小時(shí)向肯尼亞工人支付不到2美元的工資,讓他們標(biāo)記數(shù)據(jù),以幫助降低ChatGPT的毒性,一名薩馬員工將其描述為“酷刑”。這項(xiàng)工作的創(chuàng)傷性質(zhì)導(dǎo)致Sama最終于2022年2月結(jié)束了與OpenAI的關(guān)系,提前八個(gè)月停止了工作。
- 在ResumeBuilder.com對(duì)1000名美國(guó)商業(yè)領(lǐng)袖的調(diào)查中,一半的受訪公司正在使用ChatGPT,30%的公司計(jì)劃使用,48%的公司已經(jīng)用ChatGPT替換員工。
- 2023年1月,BuzzFeed表示,它將使用ChatGPT為讀者創(chuàng)建測(cè)驗(yàn)和個(gè)性化內(nèi)容,員工們對(duì)此舉是否會(huì)導(dǎo)致勞動(dòng)力減少表示擔(dān)憂。當(dāng)時(shí),BuzzFeed辯稱,它仍然“專注于新聞編輯室的人工新聞”,但自那以后,BuzzFeeds關(guān)閉了新聞部門,作為其裁員15%的一部分勞動(dòng)力。
干預(yù)措施
在所有參與者之間重新分配權(quán)力和利潤(rùn)
- 工作場(chǎng)所不應(yīng)使用生成人工智能作為降低勞動(dòng)力成本和降低工人貢獻(xiàn)的手段。事實(shí)上,工資應(yīng)該提高,以匹配生成人工智能提高的工人生產(chǎn)力。
- 科技公司應(yīng)該發(fā)出聲音,并將決策權(quán)交給那些真正致力于開發(fā)和培訓(xùn)生成人工智能的人,尤其是那些在全球南方的人。大公司需要提高員工的參與度,以確保公平。
- 技術(shù)供應(yīng)商和服務(wù)提供商應(yīng)投資于人工智能研發(fā),以提高工人生產(chǎn)力,而不是取代工作職能。
- 如果工作場(chǎng)所從生成人工智能中獲得經(jīng)濟(jì)利益,公司應(yīng)該與那些從中受益的人分享利潤(rùn),而不是將利潤(rùn)集中在股東和高收入者之間。
投資于人才
- 雇主應(yīng)投資于培訓(xùn)和工作過(guò)渡服務(wù),為被生成人工智能改變的工作培訓(xùn)工人的新技能。
- 雇主應(yīng)投資于對(duì)生成人工智能創(chuàng)造的新工作崗位需求不斷增長(zhǎng)的培訓(xùn)(例如,即時(shí)工程師、機(jī)器經(jīng)理、人工智能審計(jì)員和人工智能培訓(xùn)師)。
- 公司應(yīng)實(shí)施政策計(jì)劃,承諾投資培訓(xùn)以留住勞動(dòng)力,而不是通過(guò)減少人員來(lái)削減成本,以支持生成性人工智能技術(shù)。
- 公司、地方和聯(lián)邦政府以及其他公私項(xiàng)目應(yīng)承諾投資于幫助因生成性人工智能而流離失所的工人找到替代工作的資源。
投資互補(bǔ)人工智能
- 工作場(chǎng)所應(yīng)該投資和實(shí)施生成性人工智能,以增強(qiáng)和補(bǔ)充工作,而不是取代工作。
- 科技公司應(yīng)該投資于人工智能研發(fā),以提高工人生產(chǎn)力,而不是取代工作職能。
- 政策制定者應(yīng)規(guī)范和重新引導(dǎo)生成性人工智能研究,為公共利益用例開發(fā)技術(shù),而不是主要用于商業(yè)用例。
聚焦:歧視
人工智能和其他自動(dòng)化決策系統(tǒng)長(zhǎng)期以來(lái)一直以不透明和不負(fù)責(zé)任的方式部署,這會(huì)傷害個(gè)人并加劇現(xiàn)有的偏見。由于人工智能是根據(jù)歷史數(shù)據(jù)進(jìn)行訓(xùn)練的,并且經(jīng)常被資源控制者(招聘公司、房東、政府福利機(jī)構(gòu))使用,黑人、婦女、殘疾人和窮人受到的打擊最為嚴(yán)重。傷害并不是微不足道的,算法系統(tǒng)讓無(wú)辜的黑人男性入獄,因?yàn)榕缘男刨J限額較低,歷史上黑人或拉丁裔大學(xué)的畢業(yè)生的利率較高,并阻止人們接受面試或工作邀請(qǐng)。
當(dāng)你要求圖像生成器生成清潔工的圖像時(shí),它更有可能顯示女性,而當(dāng)你要求它生成老板的圖像時(shí)則更有可能顯示白人男性。谷歌的巴德文本生成器復(fù)制了危險(xiǎn)的陰謀論。它建議對(duì)同性戀者進(jìn)行轉(zhuǎn)化治療,生成文本稱跨性別者是“新郎”,并生成文本聲稱大屠殺的主要部分是捏造的。
生成型人工智能不適合用于確定重要的生活機(jī)會(huì),但公眾必須保持警惕,以確定人工智能在這些目的上的不當(dāng)使用——例如在刑事司法或社會(huì)服務(wù)網(wǎng)站上為人們充當(dāng)仲裁者的聊天機(jī)器人。
歧視是本文中概述的每一種風(fēng)險(xiǎn)的核心,邊緣化社區(qū)將最密切地感受到安全漏洞、侵犯隱私和環(huán)境影響的負(fù)面影響。