4月6日,OpenAI 對外宣稱已經(jīng)解決了最近的安全隱私問題。周四其發(fā)布一份安全承諾,并承認有改進的空間。在近一周的時間里,包括史蒂夫沃茲尼亞克和埃隆馬斯克在內(nèi)的人工智能專家和行業(yè)領(lǐng)袖發(fā)表了一封公開信,呼吁暫停開發(fā) GPT-4 等模型六個月,ChatGPT在意大利被徹底禁止,投訴被向聯(lián)邦貿(mào)易委員會提交了危險的錯誤信息風(fēng)險。
OpenAI 斷言,它的工作是“確保在我們系統(tǒng)的各個層面都內(nèi)置安全性。” OpenAI 在發(fā)布 GPT-4 之前花費了六個多月的“嚴格測試”,并表示正在研究驗證選項以強制執(zhí)行其 18 歲以上的年齡要求。該公司強調(diào),它不會出售個人數(shù)據(jù),只會將其用于改進其 AI 模型。它還表示愿意與政策制定者合作,并繼續(xù)與 AI 利益相關(guān)者合作,“以創(chuàng)建一個安全的 AI 生態(tài)系統(tǒng)”。
在安全承諾中,OpenAI 承認開發(fā)安全的 LLM 依賴于現(xiàn)實世界的輸入。它認為,從公共輸入中學(xué)習(xí)將使模型更安全,并允許 OpenAI 監(jiān)控濫用情況。“現(xiàn)實世界的使用也讓我們制定了越來越細致的政策來反對對人們構(gòu)成真正風(fēng)險的行為,同時仍然允許我們技術(shù)的許多有益用途?!?/p>
OpenAI 的 隱私政策沒有直接提及其在訓(xùn)練數(shù)據(jù)中使用人們的個人信息的法律原因,但表示它在“開發(fā)”其服務(wù)時依賴于“合法利益”。與 GPT-3 不同,OpenAI 沒有公布任何進入 ChatGPT 的訓(xùn)練數(shù)據(jù)的細節(jié),而 GPT-4被 認為要大幾倍。
然而,GPT-4 的技術(shù)文件包括一個關(guān)于隱私的部分,其中說它的訓(xùn)練數(shù)據(jù)可能包括來自多個來源的“公開可用的個人信息”。該論文稱,OpenAI 采取措施保護人們的隱私,包括“微調(diào)”模型以阻止人們詢問個人信息,以及“在可行的情況下”從訓(xùn)練數(shù)據(jù)中刪除人們的信息。
OpenAI 承諾“關(guān)于安全方法的細節(jié)”,但除了保證探索年齡驗證之外,大部分公告讀起來都像是陳詞濫調(diào)。關(guān)于它計劃如何降低風(fēng)險、執(zhí)行其政策或與監(jiān)管機構(gòu)合作的細節(jié)并不多。
牛津大學(xué)人工智能倫理研究所高級研究員、數(shù)據(jù)實踐作者Elizabeth Renieris 表示:“這項技術(shù)的構(gòu)建模塊的基礎(chǔ)已經(jīng)腐爛,我認為這將很難治愈。 ” 她指出,許多用于訓(xùn)練機器學(xué)習(xí)系統(tǒng)的數(shù)據(jù)集已經(jīng)存在多年,而且在將它們放在一起時可能很少考慮隱私問題。
“數(shù)據(jù)最終如何進入 GPT-4 之類的東西,存在這種分層和復(fù)雜的供應(yīng)鏈,”Renieris 說。“從來沒有真正設(shè)計或默認的任何類型的數(shù)據(jù)保護?!?nbsp;2022 年,一個廣泛使用的圖像數(shù)據(jù)庫的創(chuàng)建者建議對數(shù)據(jù)集中的人臉圖像進行模糊處理,該數(shù)據(jù)庫已幫助訓(xùn)練 AI 模型達十年之久 。
原創(chuàng)文章,作者:蘋果派,如若轉(zhuǎn)載,請注明出處:http://m.rponds.cn/article/570850.html