淮北網(wǎng)站建設(shè)制作衡陽網(wǎng)站優(yōu)化公司
自2022年11月公開發(fā)布以來,ChatGPT已成為許多企業(yè)和個人的必備工具,但隨著該技術(shù)越來越多地融入我們的日常生活,人們很自然地想知道:ChatGPT是否是保密的。
問:ChatGPT保密嗎?
答:否,ChatGPT會記錄每段對話,包括用戶共享的任何個人數(shù)據(jù),并將其用作訓(xùn)練數(shù)據(jù)。
OpenAI的隱私政策規(guī)定,該公司收集用戶向ChatGPT及其其他服務(wù)提供的“輸入、文件上傳或反饋”中包含的個人信息。
公司的常見問題解答明確指出,它將使用用戶的對話來改進其人工智能語言模型,并且用戶的聊天內(nèi)容可能會由人工智能培訓(xùn)師進行審查。
此,OpenAI無法從用戶的歷史記錄中刪除特定提示,因此請勿與ChatGPT共享個人或敏感信息。
2023年3月,韓國媒體報道稱三星剛引入ChatGPT還不到20天,就發(fā)生了3 起機密數(shù)據(jù)泄漏事件,其中涉及三星半導(dǎo)體設(shè)備測量資料、產(chǎn)品良率等信息。韓媒認(rèn)為,一些三星的機密資料已傳給美國,被存入ChatGPT學(xué)習(xí)數(shù)據(jù)庫中。
針對此次事件,三星宣布正在制定安全措施,以防止通過ChatGPT進一步泄露信息,如果發(fā)生類似事件,可能會考慮禁止ChatGPT進入公司網(wǎng)絡(luò)。
然而,當(dāng)前ChatGPT提供了一種刪除聊天記錄的方法,用戶可以對其進行設(shè)置,以便它一開始就不會保存用戶的歷史記錄。
步驟1:從聊天記錄中選擇要刪除的對話,然后單擊垃圾箱圖標(biāo)將其刪除
步驟2:要批量刪除對話,請單擊左下角電子郵件地址旁邊的三個點,然后從菜單中選擇“清除對話”
用戶與ChatGPT的聊天記錄不再存在了,用戶將不再看到它們,ChatGPT將在30天內(nèi)將它們從系統(tǒng)中清除。
步驟 1. 單擊電子郵件地址旁邊的三個點打開設(shè)置菜單
步驟2:在數(shù)據(jù)控制下,關(guān)閉聊天歷史記錄和培訓(xùn)
取消選中后,ChatGPT將不再將新聞聊天保存到用戶的歷史記錄中,也不會將它們用于模型訓(xùn)練,未保存的對話將在一個月內(nèi)從系統(tǒng)中刪除。
在評估經(jīng)過語言模型訓(xùn)練的聊天機器人的安全性時,重要的是要考慮企業(yè)和個人可能面臨的風(fēng)險。
一些關(guān)鍵的安全問題可能包括數(shù)據(jù)泄露、未經(jīng)授權(quán)訪問私人信息以及有偏見和不準(zhǔn)確的信息。
使用任何在線服務(wù),包括ChatGPT,數(shù)據(jù)泄露都是潛在風(fēng)險。由于用戶無法下載ChatGPT,因此必須通過瀏覽器進行訪問。在這種情況下,如果未經(jīng)授權(quán)的一方獲得對用戶的對話日志、用戶信息或其他敏感數(shù)據(jù)的訪問權(quán)限,則可能會發(fā)生數(shù)據(jù)泄露。
可能會產(chǎn)生幾個后果:
- 隱私泄露:如果發(fā)生數(shù)據(jù)泄露,用戶的私人對話、個人信息或敏感數(shù)據(jù)可能會暴露給未經(jīng)授權(quán)的個人或?qū)嶓w,從而損害其隱私。
- 身份盜竊:網(wǎng)絡(luò)犯罪分子可能會利用暴露的個人信息進行身份盜竊或其他欺詐活動,從而對受影響的用戶造成財務(wù)和聲譽損害。
- 數(shù)據(jù)濫用:在數(shù)據(jù)泄露中,用戶數(shù)據(jù)可能會被出售或與惡意方共享,這些惡意方可能會將這些信息用于有針對性的廣告、虛假信息活動或其他惡意目的。
OpenAI似乎很重視網(wǎng)絡(luò)安全,并實施了各種安全措施來最大限度地降低數(shù)據(jù)泄露的風(fēng)險。
然而,沒有一個系統(tǒng)能夠完全免受漏洞的影響,而現(xiàn)實情況是,大多數(shù)漏洞都是由人為錯誤而不是技術(shù)故障造成的。
如果員工或個人將敏感的商業(yè)信息(包括密碼或商業(yè)秘密)輸入ChatGPT,這些數(shù)據(jù)就有可能被不良行為者攔截或利用。
為了保護個人及企業(yè),請考慮制定全公司范圍內(nèi)的生成式人工智能技術(shù)使用政策。
幾家大公司已經(jīng)向員工發(fā)出警告。例如,據(jù)報道,沃爾瑪和亞馬遜已告訴員工不要與人工智能分享機密信息。此外,摩根大通和Verizon,已徹底禁止使用 ChatGPT。
使用ChatGPT帶來的另一個風(fēng)險是可能出現(xiàn)有偏見或不準(zhǔn)確的信息。由于訓(xùn)練的數(shù)據(jù)范圍廣泛,人工智能模型可能會無意中生成包含虛假信息或反映數(shù)據(jù)中現(xiàn)有偏差的響應(yīng)。這可能會給依賴人工智能生成內(nèi)容進行決策或與客戶溝通的企業(yè)帶來問題。因此需要批判性地評估ChatGPT提供的信息,以防止錯誤信息及有偏見的內(nèi)容傳播。
問:ChatGPT和其他AI系統(tǒng)有法規(guī)嗎?
答:目前還沒有直接管理ChatGPT或其他人工智能系統(tǒng)的具體法規(guī)。
然而,包括ChatGPT在內(nèi)的人工智能技術(shù)受到現(xiàn)有數(shù)據(jù)保護和隱私法規(guī)的約束。其中一些法規(guī)包括:
-?歐盟《一般數(shù)據(jù)保護條例》(General Data Protection Regulation,GDPR):GDPR是一項全面的數(shù)據(jù)保護條例,適用于在歐盟(EU)內(nèi)運營或處理歐盟居民個人數(shù)據(jù)的組織。它涉及數(shù)據(jù)保護、隱私以及個人對其個人數(shù)據(jù)的權(quán)利。
-?美國《加州消費者隱私法》(California Consumer Privacy Act,CCPA):CCPA是美國加州的一項數(shù)據(jù)隱私法規(guī),為消費者提供有關(guān)其個人信息的特定權(quán)利。它要求企業(yè)披露其數(shù)據(jù)收集和共享做法,并允許消費者選擇不出售其個人信息。
- 其他地區(qū)法規(guī):各個國家和地區(qū)已經(jīng)制定了可能適用于ChatGPT等人工智能系統(tǒng)的數(shù)據(jù)保護和隱私法。例如,新加坡的《個人數(shù)據(jù)保護法》(Personal Data Protection Act,PDPA)和巴西的《一般個人數(shù)據(jù)保護法》(Lei Geral de Prote??o de Dados,LGPD)。意大利因隱私問題于2023年3月禁止ChatGPT,但在OpenAI添加新的安全功能后一個月后解除了禁令。
直接針對ChatGPT等人工智能系統(tǒng)的具體法規(guī)的缺乏可能很快就會得到改善。2023年4月,歐盟立法者通過了《人工智能法案》草案,該法案要求開發(fā) ChatGPT等生成型人工智能技術(shù)的公司披露其開發(fā)中使用的受版權(quán)保護的內(nèi)容。擬議的立法將根據(jù)人工智能工具的風(fēng)險級別對其進行分類,范圍從最小到有限、高和不可接受。主要問題包括生物識別監(jiān)控、錯誤信息的傳播和歧視性語言。雖然高風(fēng)險工具不會被禁止,但它們的使用需要高度的透明度。如果獲得通過,《人工智能法案》將成為全球首個針對人工智能的綜合性法規(guī)。
OpenAI實施了多項安全措施來保護用戶數(shù)據(jù)并確保AI系統(tǒng)的安全,但用戶在與ChatGPT交互時也應(yīng)采用某些最佳實踐來最大程度地降低風(fēng)險。
用戶可以遵循的一些最佳實踐:
- 限制敏感信息:避免在與ChatGPT的對話中共享個人或敏感信息。
- 查看隱私政策:在使用ChatGPT支持的應(yīng)用程序或任何使用OpenAI語言模型的服務(wù)之前,仔細查看平臺的隱私政策和數(shù)據(jù)處理實踐,以深入了解平臺如何存儲和使用個人的對話。
- 使用匿名或假名帳戶:如果可以的話,在與ChatGPT或使用ChatGPT API的產(chǎn)品交互時使用匿名或假名帳戶。這有助于最大限度地減少對話數(shù)據(jù)與個人的真實身份的關(guān)聯(lián)。
- 監(jiān)控數(shù)據(jù)保留策略:熟悉個人所使用的平臺或服務(wù)的數(shù)據(jù)保留策略,以了解自己的對話在匿名或刪除之前會存儲多長時間。
- 及時了解情況:及時了解OpenAI安全措施或隱私政策的任何變化,并相應(yīng)地調(diào)整個人的做法,以在使用ChatGPT時保持高水平的安全性。
通過了解OpenAI實施的安全措施并遵循這些最佳實踐,用戶可以在與ChatGPT交互時最大程度地降低潛在風(fēng)險并享受更安全的體驗。
參考鏈接:
[1]https://economist.co.kr/article/view/ecn202303300057?s=31
[2]https://www.bbc.com/news/technology-65139406
[3]https://www.reuters.com/technology/eu-lawmakers-committee-reaches-deal-artificial-intelligence-act-2023-04-27/