(來源:MIT Technology Review)
隨著 AI 模型越來越擅長模仿人類行為,區(qū)分真正的互聯(lián)網(wǎng)用戶和模仿他們的復(fù)雜系統(tǒng)變得愈發(fā)困難。
真正的問題在于當(dāng)這些系統(tǒng)被用于傳播虛假信息或進(jìn)行欺詐等惡意目的;這讓我們難以信任在網(wǎng)上遇到的內(nèi)容。
來自 OpenAI、Microsoft、MIT 和 Harvard 等的 32 位研究人員組成的團(tuán)隊(duì)提出了一個(gè)潛在的解決方案——一種名為“人性認(rèn)證”的驗(yàn)證概念。這些認(rèn)證可以證明持有者是真實(shí)的人,并且不需要獲取用戶的其他信息。該團(tuán)隊(duì)在本月初發(fā)布在arXiv預(yù)印本服務(wù)器上的一篇未經(jīng)同行評審的論文中探討了這一想法。
“人性認(rèn)證”依賴于 AI 系統(tǒng)仍無法繞過最先進(jìn)的加密系統(tǒng),也無法在現(xiàn)實(shí)世界中假裝成人類。
要獲得這種認(rèn)證,人們需要親自前往某些機(jī)構(gòu),如政府或其他受信任的組織,提供如護(hù)照或生物識別數(shù)據(jù)等證明自己是真實(shí)人類的證據(jù)。一旦獲得批準(zhǔn),他們將收到一個(gè)可以存儲在設(shè)備上的單一認(rèn)證,就像目前可以將信用卡和借記卡存儲在智能手機(jī)的電子錢包應(yīng)用中一樣。
在網(wǎng)上使用這些認(rèn)證時(shí),用戶可以將其提供給第三方數(shù)字服務(wù)提供商,后者可以使用一種名為零知識證明的加密協(xié)議來驗(yàn)證。這將確認(rèn)持有者擁有“人性認(rèn)證”,而不會披露任何其他不必要的信息。
過濾掉平臺上沒有經(jīng)過驗(yàn)證的用戶可能在很多方面都很有用。比如,人們可以拒絕沒有“人性認(rèn)證”的 Tinder 配對,或者選擇不查看任何沒有明確由真人發(fā)布的社交媒體內(nèi)容。
MIT 的博士生 Tobin South 參與了這一項(xiàng)目,他表示,研究團(tuán)隊(duì)希望鼓勵(lì)政府、公司和標(biāo)準(zhǔn)機(jī)構(gòu)未來考慮采用這種系統(tǒng),防止 AI 欺騙失控。
“AI 無處不在。它會產(chǎn)生很多問題,但同時(shí)也會有很多解決方案被發(fā)明出來,”Tobin South 說,“我們的目標(biāo)不是向世界強(qiáng)加這個(gè)方案,而是探討關(guān)于我們?yōu)槭裁葱枰约叭绾螌?shí)現(xiàn)它。”
目前已經(jīng)存在一些可能的技術(shù)選擇。例如,Idena 聲稱自己是第一個(gè)基于區(qū)塊鏈的“人性證明”系統(tǒng)。它的工作原理是讓人類在短時(shí)間內(nèi)解決一些對機(jī)器人來說很難的難題。而備受爭議的 Worldcoin 項(xiàng)目,通過收集用戶的生物識別數(shù)據(jù),宣稱自己是世界上最大的隱私保護(hù)人類身份和金融網(wǎng)絡(luò)。它最近與馬來西亞政府合作,通過掃描用戶虹膜生成一個(gè)代碼,來提供在線“人性證明”。這個(gè)方案與“人性認(rèn)證”的概念類似,每個(gè)代碼都通過加密保護(hù)。
然而,該項(xiàng)目因使用欺騙性營銷手段、收集超出其承認(rèn)的個(gè)人數(shù)據(jù),以及未能獲得用戶的有意義同意而受到批評。在今年早些時(shí)候,香港和西班牙的監(jiān)管機(jī)構(gòu)禁止 Worldcoin 運(yùn)營,并且其在巴西、肯尼亞和印度等國家的業(yè)務(wù)也已暫停。
所以說,仍然需要新的概念來解決 AI 混淆人類的問題。AI 工具的快速普及引發(fā)了一個(gè)危險(xiǎn)時(shí)期,互聯(lián)網(wǎng)用戶對線上內(nèi)容的真實(shí)性變得高度懷疑。AI 與 Deepfake 領(lǐng)域?qū)<摇eta 和英國政府顧問 Henry Ajder 表示:盡管驗(yàn)證人性身份認(rèn)證的想法已經(jīng)存在了一段時(shí)間,但這些“人性認(rèn)證”似乎是對抗不斷增加的懷疑情緒的最現(xiàn)實(shí)的手段之一。
但這些認(rèn)證面臨的最大挑戰(zhàn)是如何讓足夠多的平臺、數(shù)字服務(wù)和政府接受它們,因?yàn)樗麄兛赡軙䦟ψ裱粋(gè)自己無法控制的標(biāo)準(zhǔn)感到不安。“為了讓這個(gè)系統(tǒng)有效運(yùn)作,它必須被普遍采用,”Henry Ajder 說,“從理論上講,這項(xiàng)技術(shù)非常有吸引力,但在實(shí)踐中、在復(fù)雜的現(xiàn)實(shí)世界中,我認(rèn)為會有相當(dāng)大的阻力。”
專注于超真實(shí) deepfake 生成技術(shù)的 AI 公司 Synthesia 的安全主管 Martin Tschammer 表示,他同意“人性認(rèn)證”背后的原則--在線驗(yàn)證人類--的必要性。然而,他不確定這是否是正確的解決方案,或是否具有可操作性。他還對誰來運(yùn)行這樣的方案表示懷疑。
“我們可能最終會進(jìn)入一個(gè)世界,在這個(gè)世界里,我們將進(jìn)一步集中權(quán)力,將對我們數(shù)字生活的決策集中化,賦予大型互聯(lián)網(wǎng)平臺更多的控制權(quán),決定誰可以在線存在以及出于什么目的,”Martin Tschammer 說,“考慮到一些政府在采用數(shù)字服務(wù)方面的糟糕表現(xiàn),以及日益增長的專制傾向,期望這種技術(shù)能在本世紀(jì)末被大規(guī)模和負(fù)責(zé)任地采用,是否切合實(shí)際?”
目前,Synthesia 正在評估如何將其他“人性認(rèn)證”機(jī)制整合到其產(chǎn)品中,而不是等待跨行業(yè)的合作。他表示,該公司已經(jīng)有了幾項(xiàng)措施。例如,它要求企業(yè)證明自己是合法注冊的公司,并且會禁止并拒絕向違反規(guī)則的客戶退款。
可以肯定的是,我們迫切需要區(qū)分人類和機(jī)器人的方法,并鼓勵(lì)技術(shù)和政策領(lǐng)域的利益相關(guān)者之間的討論是朝著正確方向邁出的一步。未參與項(xiàng)目的南加州大學(xué)計(jì)算機(jī)科學(xué)教授 Emilio Ferrara 說。
“我們離一個(gè)未來已經(jīng)不遠(yuǎn)了,如果情況不加以控制,我們將基本無法區(qū)分我們在線上與之互動的是其他人類還是某種機(jī)器人。必須采取一些措施,”Emilio Ferrara 說,“我們不能像前幾代人那樣對技術(shù)的認(rèn)知過于天真。”