最近,人工智能發(fā)展的爆炸式增長(zhǎng)已經(jīng)引起了人們對(duì)錯(cuò)誤信息、虛假信息、剽竊和機(jī)器生成的惡意軟件的擔(dān)憂(yōu)。生成式人工智能可能會(huì)給普通互聯(lián)網(wǎng)用戶(hù)的隱私帶來(lái)哪些問(wèn)題?根據(jù)專(zhuān)家的說(shuō)法,答案主要取決于這些機(jī)器人的訓(xùn)練方式以及我們計(jì)劃與它們互動(dòng)的程度。
為了復(fù)制類(lèi)似人類(lèi)的交互,AI 聊天機(jī)器人接受了大量數(shù)據(jù)的訓(xùn)練,其中很大一部分?jǐn)?shù)據(jù)來(lái)自Common Crawl等存儲(chǔ)庫(kù)。顧名思義,Common Crawl 僅通過(guò)爬網(wǎng)和抓取開(kāi)放網(wǎng)絡(luò)就積累了數(shù)年和 PB 級(jí)的數(shù)據(jù)?!斑@些模型正在對(duì)互聯(lián)網(wǎng)上公開(kāi)可用數(shù)據(jù)的大型數(shù)據(jù)集進(jìn)行訓(xùn)練,”斯坦福大學(xué)計(jì)算機(jī)科學(xué)系博士生、前微軟研究院 AI 研究員 Megha Srivastava 說(shuō)。盡管 ChatGPT 和 Bard 使用他們所謂的 Common Crawl 數(shù)據(jù)的“過(guò)濾”部分,但根據(jù) Srivastava 的說(shuō)法,模型的龐大規(guī)模使得“任何人都不可能通過(guò)某種方式查看數(shù)據(jù)并對(duì)其進(jìn)行清理”。
由于您自己的粗心大意或第三方糟糕的安全措施,現(xiàn)在可能會(huì)出現(xiàn)在互聯(lián)網(wǎng)的某個(gè)偏遠(yuǎn)角落。盡管普通用戶(hù)可能難以訪(fǎng)問(wèn),但信息有可能被抓取到訓(xùn)練集中,并且可能會(huì)被聊天機(jī)器人反省。機(jī)器人吐出某人的實(shí)際聯(lián)系信息絕不是理論上的問(wèn)題。彭博社專(zhuān)欄作家 Dave Lee 在 Twitter 上發(fā)帖稱(chēng),當(dāng)有人要求 ChatGPT 在加密消息平臺(tái) Signal 上聊天時(shí),它提供了他的確切電話(huà)號(hào)碼。這種交互可能是一種邊緣情況,但這些學(xué)習(xí)模型可以訪(fǎng)問(wèn)的信息仍然值得考慮?!癘penAI 不太可能想要收集醫(yī)療保健數(shù)據(jù)等特定信息并將其歸因于個(gè)人以訓(xùn)練其模型,”安全組織 SANS 研究所的研究員 David Hoelzer 表示。
當(dāng)我們?cè)儐?wèn)它采取了哪些措施來(lái)保護(hù)數(shù)據(jù)隱私,或者它如何處理可能被抓取到其訓(xùn)練集中的個(gè)人身份信息時(shí),ChatGPT 背后的公司 Open AI 沒(méi)有回應(yīng)。所以我們做了退而求其次的事情,并詢(xún)問(wèn)了 ChatGPT 本身。它告訴我們,它“被編程為遵循保護(hù)用戶(hù)隱私和個(gè)人信息的道德和法律標(biāo)準(zhǔn)”,并且“除非提供給我,否則無(wú)法訪(fǎng)問(wèn)個(gè)人信息”。谷歌方面表示,它在 Bard 中編寫(xiě)了類(lèi)似的防護(hù)欄,以防止在對(duì)話(huà)期間共享個(gè)人身份信息。
有幫助的是,ChatGPT 提出了生成人工智能可能帶來(lái)隱私風(fēng)險(xiǎn)的第二個(gè)主要載體:軟件本身的使用——通過(guò)直接在聊天記錄中共享的信息,或者通過(guò)服務(wù)在使用過(guò)程中捕獲的設(shè)備和用戶(hù)信息。OpenAI 的隱私政策引用了它收集的關(guān)于用戶(hù)的幾類(lèi)標(biāo)準(zhǔn)信息,這些信息可能是可識(shí)別的,并且在啟動(dòng)它時(shí),ChatGPT 確實(shí)警告說(shuō),其 AI 培訓(xùn)師可能會(huì)審查對(duì)話(huà)以改進(jìn)系統(tǒng)。
與此同時(shí),谷歌的巴德沒(méi)有獨(dú)立的隱私政策,而是使用其他谷歌產(chǎn)品共享的一攬子隱私文件與巴德的對(duì)話(huà)不必保存到用戶(hù)的谷歌賬戶(hù)。其表示,用戶(hù)可以通過(guò)谷歌刪除對(duì)話(huà)?!盀榱私⒑途S持用戶(hù)信任,他們必須在前端的隱私政策和數(shù)據(jù)保護(hù)程序方面非常透明,”弗吉尼亞理工大學(xué)教授兼杰出人文研究員 Rishi Jaitly 表示。
根據(jù)該服務(wù)的常見(jiàn)問(wèn)題解答頁(yè)面,盡管有一個(gè)“清晰對(duì)話(huà)”操作,但按下該操作實(shí)際上并不會(huì)刪除您的數(shù)據(jù),OpenAI 也無(wú)法刪除特定提示。雖然該公司不鼓勵(lì)用戶(hù)分享任何敏感信息,但似乎刪除提供給 ChatGPT 的個(gè)人身份信息的唯一方法是刪除您的帳戶(hù),該公司表示這將永久刪除所有相關(guān)數(shù)據(jù)。
Hoelzer 表示,他并不擔(dān)心 ChatGPT 會(huì)吸收個(gè)人對(duì)話(huà)來(lái)學(xué)習(xí)。但該對(duì)話(huà)數(shù)據(jù)存儲(chǔ)在某個(gè)地方,因此其安全性成為一個(gè)合理的問(wèn)題。順便說(shuō)一下,ChatGPT 在 3 月份曾短暫下線(xiàn),因?yàn)橐粋€(gè)編程錯(cuò)誤泄露了有關(guān)用戶(hù)聊天記錄的信息。目前尚不清楚這些 AI 的聊天記錄是否會(huì)成為惡意行為者的有價(jià)值目標(biāo),在他們廣泛部署的初期。
在可預(yù)見(jiàn)的未來(lái),最好以用戶(hù)應(yīng)該對(duì)待任何其他技術(shù)產(chǎn)品的同樣懷疑來(lái)對(duì)待這些類(lèi)型的聊天機(jī)器人。Srivastava 表示“使用這些模型的用戶(hù)應(yīng)該懷著與模型進(jìn)行任何交互的期望進(jìn)入,這對(duì)于 Open AI 或任何其他公司來(lái)說(shuō)都是為了他們的利益而使用的公平游戲?!?/p>
原創(chuàng)文章,作者:蘋(píng)果派,如若轉(zhuǎn)載,請(qǐng)注明出處:http://m.rponds.cn/article/570927.html