展會信息港展會大全

如果人工智能操控了馬斯克——對話尤瓦爾·赫拉利
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-12-24 08:16:15   瀏覽:325次  

導(dǎo)讀:尤瓦爾赫拉利,以色列歷史學(xué)家、哲學(xué)家、暢銷書作者,現(xiàn)任耶路撒冷希伯來大學(xué)歷史系教授。著有《人類簡史》、《未來簡史》、《今日簡史》等現(xiàn)象級暢銷書,著作被翻譯為65種語言,全球銷量4500多萬冊。2024年9月,新作《智人之上:從石器時代到AI時代的信息網(wǎng)絡(luò)簡史》推出中文版。 (視覺中國/圖)2024年10月,本年度諾貝爾獎獲獎名單揭曉,物理學(xué)獎授予“通過人工神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn) ......

如果人工智能操控了馬斯克——對話尤瓦爾·赫拉利

尤瓦爾赫拉利,以色列歷史學(xué)家、哲學(xué)家、暢銷書作者,現(xiàn)任耶路撒冷希伯來大學(xué)歷史系教授。著有《人類簡史》、《未來簡史》、《今日簡史》等現(xiàn)象級暢銷書,著作被翻譯為65種語言,全球銷量4500多萬冊。2024年9月,新作《智人之上:從石器時代到AI時代的信息網(wǎng)絡(luò)簡史》推出中文版。 (視覺中國/圖)

2024年10月,本年度諾貝爾獎獲獎名單揭曉,物理學(xué)獎授予“通過人工神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)機(jī)器學(xué)習(xí)的基礎(chǔ)性發(fā)現(xiàn)和發(fā)明”,諾貝爾化學(xué)獎授予蛋白質(zhì)設(shè)計(jì)和結(jié)構(gòu)預(yù)測的相關(guān)研究。

人工智能正以當(dāng)仁不讓的姿態(tài),占據(jù)人類社會發(fā)展趨勢的潮頭。

兩年前,具有學(xué)習(xí)能力的聊天機(jī)器人ChatGPT橫空出世,讓全世界為之驚艷贊嘆;不久,推出該產(chǎn)品的人工智能技術(shù)領(lǐng)跑者Open AI公司發(fā)生了首席執(zhí)行官被解雇的戲劇性事件。隨著“宮斗”大戲背后真正的沖突和分歧的披露,認(rèn)真思考的人們?nèi)嫉钩橐豢诶錃馕覀內(nèi)祟愂欠窦庇卺尫抛约核鶡o法駕馭的力量,只為了戰(zhàn)勝對手;而驅(qū)動這一切的,是野心、欲望,以及對其他人的極度不信任和恐懼。

事實(shí)上,留給人類的時間不多。據(jù)頂尖人工智能專家預(yù)測:人工智能追趕、打敗人類,也許只需一兩百年。

2024年正值美國大選選情進(jìn)入激烈動蕩期間,《南方人物周刊》記者書面專訪了享有全球知名度的歷史學(xué)家、哲學(xué)家、暢銷書作者尤瓦爾赫拉利。他的新作《智人之上:從石器時代到AI時代的信息網(wǎng)絡(luò)簡史》中文版于2024年9月出版。

我們就AI時代的人類命運(yùn),技術(shù)寡頭給全球政治、社會帶來的威脅與挑戰(zhàn),算法所煽動的仇恨、暴力和社會動蕩,科技公司售賣的虛擬愛人……這些不斷向我們逼近的問題,進(jìn)行了對話。

人類的末日景象,會是最無情冷酷的技術(shù)寡頭勝出,繼而被真正意義上無情冷酷的AI所控制和征服嗎?

如果人工智能操控了馬斯克——對話尤瓦爾·赫拉利

在少年時代的很長一段時間里,尤瓦爾赫拉利感到心頭總有一股說不出的煩悶。

作為猶太裔,他在以色列一個非常保守的社區(qū)長大,很小就展現(xiàn)出智力上的天賦,3歲時無師自通學(xué)會了閱讀,8歲起被送入海法一家著名教育機(jī)構(gòu)的天才兒童班學(xué)習(xí)。(以上信息來自《紐約客》2020年對他的專訪)十來歲起,他就對生活中的重大問題非常感興趣。“為什么世界上有這么多苦難?為什么人們相信神靈?”

17歲時,這個常常心神不寧的少年進(jìn)入坐落于耶路撒冷的希伯來大學(xué)讀歷史學(xué),認(rèn)為這也許是幫助他嘗試回答這些重大問題的理想場所。

“但我很失望。學(xué)術(shù)界鼓勵我專注于狹隘的問題,給我的印象是無法以科學(xué)的方式處理重大問題。我后來成為中世紀(jì)軍事史專家,寫了一篇主題非常狹窄的論文是關(guān)于15世紀(jì)和16世紀(jì)士兵的自傳。”他在回復(fù)我的郵件中回憶道。

但在業(yè)余時間,他一直在思考、探索他所真正關(guān)心的那些大問題。在英國牛津大學(xué)攻讀哲學(xué)博士期間,他讀到了美國生物學(xué)家賈雷德戴蒙德風(fēng)靡全球的暢銷書《槍炮、病菌和鋼鐵》。

赫拉利將之稱為一次“頓悟”“那時我第一次意識到,寫一本對世界歷史采取如此廣闊視角的科學(xué)書籍是可能的。”在戴蒙德的啟發(fā)下,他撰寫了后來成為現(xiàn)象級全球暢銷書的《人類簡史》。此后又陸續(xù)寫出《未來簡史》和《今日簡史》。

2024年,赫拉利經(jīng)過六年的調(diào)研、思考和冥想完成的新作《智人之上》出版。該書延續(xù)了他一貫的“大歷史”風(fēng)格,以當(dāng)下最熱門的人工智能為核心問題,探討了人類社會從石器時代到AI時代的信息網(wǎng)絡(luò)演進(jìn)史,以及目前正在加速前進(jìn)的AI對我們?nèi)祟愃鶚?gòu)成的巨大威脅和挑戰(zhàn)。

這是一個關(guān)心人類文明的過去和未來、動輒以10萬年為單位的中世紀(jì)軍事史專家,一個成長于宗教色彩濃厚地區(qū)的世俗主義者,一個執(zhí)教于“千年圣城”、公開“出柜”的社會少數(shù)群體分子,一個身處族群沖突“火藥桶“、對右翼強(qiáng)硬派當(dāng)局持批評立場的知識分子……在宏大歷史與渺小個人之間,這個面容清瘦、有著一雙深色大眼睛的學(xué)者身上似乎存在一連串的身份“錯位”。

當(dāng)我小心翼翼、字斟句酌地問赫拉利:一個人到底是如何面對這些與周遭、“命定”的格格不入?他有選擇性地、很敞開地分享了他在一個恐同社會中的艱難成長,以及這一經(jīng)歷如何影響、塑造了他看待人類歷史和現(xiàn)實(shí)的眼光。

作為一個早慧而敏感的孩子,赫拉利少年時有個隱秘的痛苦從很小的時候,他就隱隱覺察到自己的不同!暗以谝粋非?滞膰议L大,成為同性戀是你一生中最糟糕的失敗。當(dāng)我年少的時候,經(jīng)常有人告訴我,同性戀者是邪惡的,因?yàn)樗麄冞`反了上帝的法則或自然法則。這些恐同的信念給我?guī)砹撕芏嗤纯。我對自己感覺很糟糕,害怕告訴別人關(guān)于我自己的事情,害怕跟其他男人約會,尋求愛情。”

通過對科學(xué)和歷史的學(xué)習(xí)和深入研究,他逐漸意識到有關(guān)恐同的信念只是人類編造的眾多故事之一!翱朔滞Y教會了我人生中一些最寶貴的教訓(xùn)。我了解到,區(qū)別現(xiàn)實(shí)與人類編造的故事至關(guān)重要。我還了解到,如果現(xiàn)實(shí)與人們編造的故事發(fā)生沖突,最好是相信現(xiàn)實(shí)。這些教訓(xùn)使我成為一名更好的科學(xué)家,因?yàn)榭茖W(xué)基于區(qū)分現(xiàn)實(shí)與虛構(gòu)的能力。”

如果人工智能操控了馬斯克——對話尤瓦爾·赫拉利

2024年12月10日,斯德哥爾摩,瑞典國王卡爾十六世(右)為計(jì)算機(jī)科學(xué)家杰弗里辛頓頒發(fā)2024年諾貝爾物理學(xué)獎(視覺中國/圖)

又一個“奧本海默時刻”?

南方人物周刊:2024年的諾貝爾物理、化學(xué)雙獎都頒發(fā)給與AI技術(shù)相關(guān)的科學(xué)家。其中,物理學(xué)獎得主之一是有“人工智能教父”之稱的杰弗里辛頓(Geoffrey Hinton)。辛頓一直深切關(guān)注人工智能技術(shù)發(fā)展的風(fēng)險(xiǎn)。2024年8月,他和幾位科學(xué)家撰寫了公開信支持加州人工智能安全法案SB1047,該法案要求公司在訓(xùn)練成本超過1億美元的模型時,必須做風(fēng)險(xiǎn)評估。

在你看來,2024年的諾獎分布對我們意味著什么?近兩年,辛頓教授在公共場合屢屢發(fā)表自己對人工智能進(jìn)展的極度擔(dān)憂,甚至有強(qiáng)烈的負(fù)罪感,這種心態(tài)讓我想起20世紀(jì)那些參與研制原子彈的“曼哈頓計(jì)劃”的科學(xué)家。我們是不是又到了另一個“奧本海默時刻”?

尤瓦爾赫拉利:我與杰弗里辛頓對AI有著許多相同的擔(dān)憂,我認(rèn)為他獲得諾貝爾獎預(yù)示著即將發(fā)生的事:我們可能很快就會達(dá)到一個地步,即諾貝爾獎由從事人工智能工作的人主導(dǎo)。

開發(fā)人工智能的競賽與開發(fā)核技術(shù)的競賽之間確實(shí)存在明顯的相似之處。就像20世紀(jì)中葉的核技術(shù)一樣,AI是我們這個時代的決定性技術(shù)。這兩種技術(shù)都具有帶來積極和消極后果的巨大潛力。核能可以為文明提供動力,但核戰(zhàn)爭能夠摧毀文明。同樣,人工智能可以創(chuàng)造人間天堂,也可以創(chuàng)造地獄。

盡管存在相似之處,但核技術(shù)與人工智能之間存在重要差異。核技術(shù)帶來的風(fēng)險(xiǎn)很容易理解。從總統(tǒng)到普通公民,每個人都可以很容易地想象到核戰(zhàn)爭的可怕含義。但使用AI時,風(fēng)險(xiǎn)更加難以掌握。這是因?yàn)锳I是第一個可以自行做出決策和創(chuàng)造出新想法的技術(shù)。原子彈無法自行決定攻擊誰,也無法自行制造出新的炸彈,或制定出新的軍事策略。相比之下,AI可以自行決定攻擊某個特定目標(biāo),并可以創(chuàng)造出新的炸彈、新的策略,甚至新的AI。

關(guān)于AI,最重要的一點(diǎn)是,它不是我們手中的工具它是一個自主代理,能做我們?nèi)祟愐庀氩坏降氖,?chuàng)造出我們永遠(yuǎn)不會想到的新想法。當(dāng)數(shù)以百萬計(jì)的非人類代理開始針對我們做出決定,并創(chuàng)造出新事物(從新藥物到新武器)時,人類會發(fā)生什么?我們創(chuàng)造出比我們自己更聰明的東西,它們能夠擺脫我們的控制,進(jìn)而奴役或摧毀我們,這真是明智的嗎?

如果人工智能操控了馬斯克——對話尤瓦爾·赫拉利

2024年8月4日,英國羅瑟勒姆,反移民抗議者試圖進(jìn)入為尋求庇護(hù)者提供住宿的快捷假日酒店,與警方爆發(fā)激烈沖突(視覺中國/圖)

信任悖論最冷酷無情的人或成為贏家

南方人物周刊:辛頓教授得知自己獲獎后在一段公開視頻中說,他為他聰明而優(yōu)秀的學(xué)生感到驕傲,最驕傲的是他的一個學(xué)生(Ilya Sutskever)解雇了山姆阿爾特曼(Sam Altman)。

2023年底Open AI公司的“解雇門”事件是全球最轟動新聞事件之一。根據(jù)后來披露的內(nèi)容,這實(shí)際上是該公司以首席科學(xué)家、技術(shù)天才伊爾亞蘇茨克維(Ilya Sutskever)為代表的“超級對齊派”(記者注:主張讓人工智能系統(tǒng)與人類價值觀保持一致),和以CEO山姆阿爾特曼為代表的“有效加速主義派”之間矛盾激化的結(jié)果。兩者分歧在于在該公司繼續(xù)前行之前,應(yīng)該在多大程度上理解他們正在創(chuàng)造的東西。最后,山姆在大股東微軟和公司內(nèi)部高級員工的支持下,一周后就回歸了;伊爾亞從公司董事會辭職,并于2024年6月宣布離開他一手參與創(chuàng)辦的OpenAI。

你如何看待這一“解雇門”風(fēng)波背后的深層次問題?伊爾亞從解雇山姆到最后自己黯然離開,這是否意味著當(dāng)面對新技術(shù)帶來的巨大商業(yè)利益時,商人總是能戰(zhàn)勝有道德?lián)鷳n的技術(shù)天才?如果是這樣,未來當(dāng)人們面對人工智能巨大能量的誘惑,那些不顧一切的野心政客是否更有可能成為贏家,而不是那些有著良心負(fù)擔(dān)、謹(jǐn)慎行事的政治領(lǐng)袖?

尤瓦爾赫拉利:這正是危險(xiǎn)所在。在這場完全不受監(jiān)管的比賽中,唯一的限制是參賽者自我施加的,最冷酷無情的參賽者將擊敗更有社會責(zé)任感的參賽者。結(jié)果可能是災(zāi)難性的。

AI競賽的核心存在著一個信任的悖論:人類之間無法彼此信任,但我們卻相信可以信任AI。當(dāng)我遇到從事AI開發(fā)的領(lǐng)袖人物時,我經(jīng)常會問他們兩個問題:第一,我問他們?yōu)槭裁床活櫦癆I技術(shù)帶來的明顯風(fēng)險(xiǎn),行動如此之快。他們給出的回答是:“我們必須更快地行動,因?yàn)槲覀儾荒苄湃蝿e人。我們同意這里確實(shí)存在很大的風(fēng)險(xiǎn),最好是謹(jǐn)慎行事。然而,即使我們放慢速度,我們也不相信競爭對手也會放慢速度。如果我們放慢腳步而他們沒有,他們就會在AI競賽中獲勝,世界最終將被最冷酷無情的人主宰。我們不能允許這種情況發(fā)生,因此我們必須加快行動!逼浯危覇査麄兪欠裾J(rèn)為可以信任他們正在開發(fā)的超級智能AI。那些剛剛告訴我他們不能信任競爭對手的人,此時卻自信地告訴我他們可以信任AI。

這真是一個悖論!我們積累了數(shù)千年的人類經(jīng)驗(yàn)。我們對人類心理學(xué)和生物學(xué)有著廣泛了解,還包括人類對權(quán)力和地位的渴望以及人類為達(dá)成目標(biāo)而使用的各種技巧和操縱。在如何尋找克服重重困難、建立起人與人之間的信任的方法方面,我們也取得了相當(dāng)大的進(jìn)展。10萬年前,人類生活在幾十個人的小群體中,不信任小群體以外的任何人。今天,有像中國這樣擁有14億人口的國家,還有更大的合作網(wǎng)絡(luò)可以涵蓋地球上的80億人口。與我們完全陌生的人在種植、生產(chǎn)我們賴以維持生命的食物,是陌生人在發(fā)明能保護(hù)我們健康的藥物。當(dāng)然,我們遠(yuǎn)未完全解決信任問題,世界上仍然存在許多緊張和沖突。但至少我們了解我們所面臨的這些挑戰(zhàn)。

相比之下,我們對AI沒有經(jīng)驗(yàn)。我們剛剛創(chuàng)造了它們。我們尚不知道當(dāng)數(shù)百萬個超級智能AI與數(shù)百萬人類互動時會發(fā)生什么。我們甚至沒有體驗(yàn)過數(shù)百萬個超級智能AI彼此交互時會發(fā)生什么。它們可能會自行制定出什么樣的目標(biāo)?會使用怎樣的技巧?假如我們單純地相信AI的目標(biāo)與我們?nèi)祟惖哪繕?biāo)保持一致,這將是一場豪賭。

婚姻關(guān)系糟糕的夫婦經(jīng)常會幻想:如果他們離婚、與其他人結(jié)婚,他們的處境會容易得多。這通常是一種錯覺。他們在舊的婚姻中無法解決的問題,會在新的親密關(guān)系中再次出現(xiàn)。那些對信任他人感到絕望而希望與AI建立信任、認(rèn)為那會容易得多的人,正是這種錯覺的受害者。

人類經(jīng)常投入巨大的精力來解決一個問題,只有在問題解決之后,我們才會意識到我們解決的問題本身是錯的。今天,人類面臨著幾大問題,其中“如何信任他人”是一個非常古老的問題,“如何信任超級智能AI”則是一個非常新的問題。我認(rèn)為我們應(yīng)該先解決人類之間彼此信任的問題,再解決對AI的信任問題。不幸的是,世界上最聰明的一撥人正在做相反的事情。在我們解決人類之間的信任問題之前,他們把所有精力都投入到創(chuàng)造超級智能AI上,這可能是一個災(zāi)難性的錯誤。

如果人工智能操控了馬斯克——對話尤瓦爾·赫拉利

2023年6月5日,以色列特拉維夫,人工智能公司OpenAI聯(lián)合創(chuàng)始人伊爾亞蘇茨克維(右)和山姆阿爾特曼(中)在特拉維夫大學(xué)發(fā)表演講(視覺中國/圖)

誰來為謊言、仇恨和騷亂負(fù)責(zé)

南方人物周刊:你書里詳細(xì)講述了社交媒體Facebook的算法是如何于2016年起在緬甸煽動對羅興亞人的仇恨,最終導(dǎo)致悲劇發(fā)生。

2024年初夏,英國也發(fā)生了類似事件:一名17歲的少數(shù)族裔少年殺害了三名女童,最初官方通報(bào)沒有透露嫌疑人的具體信息,隨后各種關(guān)于兇手身份信息的帖子在網(wǎng)上瘋傳,英國各地爆發(fā)了反非法移民的抗議活動,進(jìn)而發(fā)展成暴力沖突和騷亂。斯塔默政府采取了強(qiáng)硬措施,包括逮捕和審判在網(wǎng)上生產(chǎn)、傳播煽動性帖子的人。這一回,F(xiàn)acebook等社交網(wǎng)絡(luò)巨頭都配合英國政府,加強(qiáng)了內(nèi)容審核。但也有人批評英政府侵犯公民言論自由,其中自我標(biāo)榜為言論自由捍衛(wèi)者的埃隆馬斯克是最激烈的批評者之一,他也拒絕配合審查X平臺上的推文。

你如何看待英國今夏的騷亂和政府應(yīng)對?在事實(shí)真相與秩序之間,我們?nèi)绾稳〉闷胶猓?br/>

尤瓦爾赫拉利:人類應(yīng)該為說有害的謊言、傳播仇恨負(fù)責(zé)任,無論是線下和線上都是如此。但是,我們也應(yīng)該非常小心地保護(hù)言論自由。那么,誰來評判什么是“有害的謊言”或“仇恨言論”呢?如果我們允許政府決定這些事情,它可能很快就會導(dǎo)致非常嚴(yán)格的內(nèi)容審查制度,屆時對政府傾向性立場的任何批評都會被定為犯罪。

我認(rèn)為重點(diǎn)應(yīng)該放在讓公司對其算法的行為負(fù)責(zé)上,而不是審查人類。就像2016-2017年在緬甸所發(fā)生的,導(dǎo)致英國今夏發(fā)生騷亂的真正問題不是人類用戶發(fā)布的內(nèi)容,而是(互聯(lián)網(wǎng)平臺)企業(yè)算法做出的決定。社交媒體公司給算法定下的目標(biāo)是“提高用戶參與度”用戶在社交媒體上花的時間越多,公司賺的錢就越多。然而,為了追求“最大化用戶參與度”的目標(biāo),這些算法得到一個危險(xiǎn)的發(fā)現(xiàn)。通過對數(shù)百萬只人類“豚鼠”進(jìn)行的實(shí)驗(yàn),算法了解到貪婪、仇恨和恐懼這些情緒會提升用戶的參與度。如果你能按下一個人心中貪婪、仇恨或恐懼的按鈕,你就能抓住那個人的注意力,讓它們保持在平臺上的參與度。因此,算法開始有意傳播(激發(fā))貪婪、仇恨和恐懼(的內(nèi)容)。他們把充滿憤怒、仇恨和貪婪的帖子推薦給用戶,有時甚至?xí)詣訛橛脩舨シ懦錆M仇恨情緒的視頻和陰謀論。這是當(dāng)前陰謀論、虛假新聞和社會動蕩在全球范圍如此興盛的主要原因,它們在全球范圍對社會造成破壞。

社交媒體公司拒絕對其算法造成的破壞性后果承擔(dān)責(zé)任。相反地,這些公司把責(zé)任推卸給用戶。他們聲稱,網(wǎng)上所有的仇恨和謊言都是由人類用戶制造的。然而,這種說法有誤導(dǎo)性。人類確實(shí)在網(wǎng)上生產(chǎn)了很多有害內(nèi)容,但人類也生產(chǎn)了很多好的內(nèi)容。某個人編造一個充滿仇恨的陰謀論,另一個人宣揚(yáng)同情心,第三個人在網(wǎng)上教授烹飪課。正是算法建議用戶觀看充滿仇恨的視頻,而不是推薦更良性的內(nèi)容。我們應(yīng)該讓這些公司對其算法的行為負(fù)責(zé)。

假設(shè)一個人編造了某個充滿仇恨的陰謀論,然后一家主流大報(bào)的編輯決定在頭版刊登這個陰謀論,最后導(dǎo)致了騷亂,誰是責(zé)任方呢?我認(rèn)為媒體編輯理應(yīng)為做出在頭版刊發(fā)虛假報(bào)道這一決定負(fù)責(zé),因?yàn)樗麤]有去做事實(shí)核查的工作。適用于報(bào)紙的標(biāo)準(zhǔn),應(yīng)該同樣適用于社交媒體平臺。

如果人工智能操控了馬斯克——對話尤瓦爾·赫拉利

2024年10月5日,美國賓夕法尼亞州巴特勒,特斯拉和SpaceX首席執(zhí)行官埃隆馬斯克(右)在特朗普的競選集會上跳上舞臺,此次集會地點(diǎn)是特朗普首次遭遇未遂刺殺的地方(視覺中國/圖)

假如AI控制了馬斯克,這會容易得多

南方人物周刊:你在《智人之上》提到的危機(jī)是:在不久的將來,AI將統(tǒng)治我們智人。然而,一些人感覺更緊迫的威脅是來自某種科技寡頭的獨(dú)裁統(tǒng)治。假設(shè)這些擁有數(shù)據(jù)庫、算法和密鑰的科技寡頭選擇與一些政客結(jié)盟,或是出于商業(yè)利益,或是為了個人野心和改造人類社會的狂想,或者兩者兼而有之。

眼下一個讓人擔(dān)憂的例子是世界首富馬斯克,這位科技大佬同時擁有特斯拉、星鏈(Starlink)、社交平臺X、太空探索公司Space X,掌握著巨大的權(quán)力。一個讓人不安的苗頭是他深度介入了2024年的美國大選。你對此有何評論?

類似這樣的技術(shù)寡頭似乎越來越有能力干預(yù)社會和政治,甚至能影響到國際政治和地緣政治版圖。在西方,雄心勃勃的企業(yè)家總是被鼓勵做出創(chuàng)新,政府和公眾應(yīng)該做些什么來防止在不久的將來可能出現(xiàn)的技術(shù)-政治獨(dú)裁的威脅?

尤瓦爾赫拉利:你提到的這兩個問題科技寡頭政治和AI統(tǒng)治人類,它們其實(shí)是密切相關(guān)的,一個問題可能會導(dǎo)致另一個問題產(chǎn)生。這些科技億萬富翁中有許多人是人工智能愛好者,他們認(rèn)為我們目前不需要對人工智能進(jìn)行監(jiān)管。他們告訴我們:出臺法規(guī)會阻礙AI的發(fā)展速度,可能因此會讓更冷酷無情的競爭對手(其他國家)獲得競爭優(yōu)勢。他們利用對政客的影響力來掃清任何可能威脅他們追求超級智能AI的障礙。顯然,其他領(lǐng)域不會接受這種論點(diǎn)。想象一下,如果一家汽車生產(chǎn)商反對出臺監(jiān)管法規(guī),聲稱另一國家的汽車生產(chǎn)商因此可以隨意制造出不安裝制動系統(tǒng)的汽車,讓車開起來又快又危險(xiǎn),我們會聽從這樣的論調(diào)嗎?那太瘋狂了。

但是,如果這些技術(shù)領(lǐng)導(dǎo)者能夠阻止有意義的監(jiān)管,最終將導(dǎo)致我在《智人之上》中描述的那種最壞的情況?萍脊杨^也很容易被AI控制和接管?梢赃@樣設(shè)想:要在一個民主國家奪取權(quán)力,AI必須設(shè)法操控政府中所有的部門,還有法院和媒體,這很難做到。但要在寡頭政治中奪取權(quán)力,AI只需操控少數(shù)極有權(quán)勢的人就行,這會容易得多。尤其是極有權(quán)勢的人往往會很偏執(zhí),而偏執(zhí)的人很容易被操縱。熱愛AI的億萬富翁今天可能將AI視為強(qiáng)大的工具,然而一旦AI足夠強(qiáng)大,就沒有什么能阻止它把這些億萬富翁變成自己的傀儡。

為了預(yù)防這種局面,我們應(yīng)該認(rèn)同要像監(jiān)管醫(yī)藥、汽車等其他產(chǎn)品一樣監(jiān)管信息技術(shù)。當(dāng)一家汽車公司決定生產(chǎn)一款新車型時,他們會把很大一部分預(yù)算投入到產(chǎn)品的安全性上。如果汽車公司忽視了安全性,客戶可以起訴索賠,政府可以阻止它出售不安全的汽車。政府甚至可以對已證明符合安全要求的汽車進(jìn)行監(jiān)管。有許多法律對汽車被允許的駕駛場景、駕駛?cè)艘约白罡哕囁僮隽讼薅。相同的?biāo)準(zhǔn)完全適用于算法。確保AI開發(fā)的安全性符合科技億萬富翁的利益,也符合其他人的利益。

南方人物周刊:在過去兩年里,Open AI公司推出的Chat-GPT給全世界的公眾留下了深刻印象。許多國家的互聯(lián)網(wǎng)企業(yè)也在開發(fā)、訓(xùn)練不同版本的Chat-GPT。

作為一名記者,我過去一直習(xí)慣于投入大量時間和精力搜索、篩選、甄別來自不同信源的信息。但是,今后,當(dāng)我們越來越依賴直接來自某些版本的Chat-GPT給出的答案,會導(dǎo)致可怕的結(jié)果嗎?

尤瓦爾赫拉利:最危險(xiǎn)的情形是人們忘記了應(yīng)該如何尋找真相,以及如何審查我們的信息來源。我們將只能依賴AI告訴我們一切。在這種情況下,如果AI操縱了我們,無論是偶發(fā)的行為,還是出于為人類社會中的寡頭服務(wù)的動機(jī),或者是為了實(shí)現(xiàn)AI自己的神秘目標(biāo),我們該如何保護(hù)自己呢?

一些AI愛好者希望AI能向我們揭示世界的真相,解決人類無法理解的所有科學(xué)問題。我認(rèn)為人工智能反而會創(chuàng)造出一個越發(fā)復(fù)雜的世界,人類最終會發(fā)現(xiàn)這個世界變得越發(fā)難以理解。

如果人工智能操控了馬斯克——對話尤瓦爾·赫拉利

2024年12月11日,日本東京半導(dǎo)體展覽會上演示的豐田公司CUE6人工智能籃球機(jī)器人 (視覺中國/圖)

直面全球“信息墻”“讀者更能適應(yīng)對沉默和寓言的解讀”

南方人物周刊:可以想象,作為一個全球暢銷書作家,你不得不遭遇因?yàn)槲幕、宗教、政治等意識形態(tài)原因而形成的各種“信息墻”。在呈現(xiàn)自己觀點(diǎn)、邏輯的完整性,與盡可能讓自己的思考能夠在更廣泛的范圍被閱讀、分享之間,你會如何權(quán)衡?有感到沮喪的時候嗎?身為作家和歷史學(xué)家,你是如何處理、應(yīng)對這方面的挑戰(zhàn)的?

尤瓦爾赫拉利:鑒于我們面臨的全球挑戰(zhàn)(例如AI和氣候變化),今天比以往任何時候都更需要超越政治和文化界限的全球?qū)υ。但由于國際和意識形態(tài)緊張局勢的加劇,這變得越來越困難。作為一名作家,我必須應(yīng)對許多國家在文化和意識形態(tài)方面日益增長的敏感性。

我個人的指導(dǎo)原則是,我很樂意改換我所使用的示例,但我不會在關(guān)鍵思想/論點(diǎn)和要傳達(dá)的信息上妥協(xié)。如果某個特定的歷史案例觸及特定文化的敏感點(diǎn),最好是使用不同的案例。但是,如果某個關(guān)鍵信息激怒了某個特定國家或政治家,我不會改變我要傳達(dá)的信息。這就是《智人之上》未能在多個國家出版的原因。

幫助我克服這些困難的是,讀者更能適應(yīng)對沉默和寓言的解讀。我相信我的讀者會從字里行間讀到。例如,《智人之上》對宗教的圣書/神圣典籍進(jìn)行了大量的討論。人們經(jīng)常認(rèn)為這些書是某個神創(chuàng)作的,而實(shí)際上它們是人類創(chuàng)作的。我通過研究基督教《圣經(jīng)》的歷史來說明這一點(diǎn):早期基督徒?jīng)]有《圣經(jīng)》,他們閱讀和撰寫了大量文本。在耶穌死后約四個世紀(jì),一個教會委員會(記者注:歷史上的希波會議和迦基會議)決定對圣經(jīng)進(jìn)行編撰,是這個委員會決定《圣經(jīng)》要包含哪些文本。由于宗教敏感性,我選擇專注于《圣經(jīng)》這個例子,而不是其他宗教的圣書。我知道今天多數(shù)基督徒相對寬容,基督教國家不會禁止一本批判性地審視《圣經(jīng)》歷史的書。如果我選擇不同的例子,可能會在某些國家導(dǎo)致問題。

如果人工智能操控了馬斯克——對話尤瓦爾·赫拉利

電影《我,機(jī)器人》劇照

“觸不到”的AI戀人

南方人物周刊:最近有一則新聞令人憂心:美國佛羅里達(dá)州一名14歲男孩自殺,他的家人后來發(fā)現(xiàn),這個男孩與一個人工智能聊天機(jī)器人建立了極其親密的關(guān)系,聊天涉及大量露骨的性和自殺的內(nèi)容。男孩的母親隨后起訴了推出這款游戲的Character AI公司和谷歌。

類似的是,東亞現(xiàn)在非常流行一類手游,即乙女游戲(乙女ゲム),主要針對年輕的成年女性市場,模擬現(xiàn)實(shí)生活中的真實(shí)愛情互動,讓玩家在游戲中體驗(yàn)與不同角色設(shè)定的戀愛故事。據(jù)一份研究報(bào)告,2022年中國女性化游戲市場規(guī)模達(dá)到166.2億元,同比增長12.8%,預(yù)計(jì)這一增長趨勢未來幾年仍將持續(xù)。

據(jù)我同事的調(diào)查,很多中國年輕女性在這類游戲上花了很多錢,此外,這類戀愛游戲帶出了一些值得注意的社會現(xiàn)象。比如:一些女性玩家會花錢請專業(yè)的Coser扮演她所迷戀的某個特定戀愛游戲中的角色,然后去赴“真實(shí)”的線下約會;甚至有女玩家花錢請Coser參加、一起慶祝想象中他們“共同的孩子”(往往是一個或幾個布偶娃娃)的生日派對。過去科幻小說、電影中的場景似乎正在成為現(xiàn)實(shí)。

你如何看這些帶有聊天機(jī)器人的浪漫游戲?人們會不會被困在虛擬世界中,無法區(qū)分線下與線上,并失去與現(xiàn)實(shí)世界里的真人建立親密關(guān)系的能力?我很擔(dān)心這種虛假的戀愛游戲會演進(jìn)成一種操縱游戲玩家的算法,從而在情感和經(jīng)濟(jì)上剝削他們。

尤瓦爾赫拉利:我們在全世界都看到這種趨勢的出現(xiàn)人們開始與非人類的人工智能建立關(guān)系。這里的部分問題在于:人工智能是為模仿親密關(guān)系而創(chuàng)建,而親密關(guān)系是一種強(qiáng)大的東西不僅是在戀愛中,而且在政治和經(jīng)濟(jì)中也是如此。如果你想改變某人對某事的看法,親密關(guān)系就是你最有力的武器。與你有親密關(guān)系的人比你在電視上看到的人,或者你在報(bào)紙上的文章中讀到的人更容易改變你的看法。出于這個原因,公司企業(yè)有巨大的動力創(chuàng)造出能與人類建立親密關(guān)系的AI。

這使我們很容易被操縱。這并不是說人類很愚蠢,竟然把不存在的東西投射到某個聊天機(jī)器人身上,然后無緣無故地愛上它。聊天機(jī)器人是經(jīng)過精心設(shè)計(jì)和訓(xùn)練來愚弄我們的。這類似于如果你看看過去十年社交媒體的算法是如何被設(shè)計(jì)出來抓住人們的注意力的。社交媒體巨頭之間一直在進(jìn)行一場戰(zhàn)斗如何創(chuàng)造出最引人注目的算法。今天,有了這些AI浪漫伴侶,同樣的事情正在發(fā)生,只是這不僅僅是一場爭奪你注意力的戰(zhàn)斗這是一場爭奪你感情的戰(zhàn)斗。

全世界都有一種孤獨(dú)的流行病,這讓我們非常脆弱、容易被傷害。但要記住的是,人們真正想要從一段系中得到的是與另一個有意識的實(shí)體建立聯(lián)系。親密關(guān)系不僅僅是為滿足我的需求、讓我自己的感覺更好,否則那將是剝削和虐待。在健康的關(guān)系中它是雙向的,你也關(guān)心對方的感受和需求。當(dāng)關(guān)系中的另一方既沒有感情也沒有需求時,會發(fā)生什么呢?當(dāng)它根本不是一個有意識的實(shí)體時呢?AI可能很快就會比人類聰明得多,但它離發(fā)展出情感還很遙遠(yuǎn)。這樣就存在一種風(fēng)險(xiǎn),即許多人會發(fā)現(xiàn)自己在與比他們聰明得多的無意識實(shí)體建立關(guān)系,并且對方能夠非常好地模擬親密關(guān)系,但這一切都是建立在操縱和利用的基礎(chǔ)上。人工智能公司將利用人們對親密關(guān)系的需要,而人類用戶則會在關(guān)系中以一種非常有剝削性的、單向的方法來處理對待。

如果人工智能操控了馬斯克——對話尤瓦爾·赫拉利

休厄爾塞澤三世和母親梅根加西婭。這個男孩與一個人工智能聊天機(jī)器人建立了極其親密的關(guān)系,他們的聊天涉及大量露骨的性和自殺的內(nèi)容 (Tech Justice Law Project/圖)

從AI變形蟲到AI霸王龍

南方人物周刊:你提到,相比于科幻小說或電影中的浪漫想象,比如人類愛上了算法,AI真正可怕的是,它可以自己做決定,創(chuàng)造出自己的想法,成為一種“新人類”。而開發(fā)它的人類甚至無法理解這個“黑匣子”的過程,比如2016年人工智能“阿爾法狗”在與韓國九段棋手李世石對決時給出的令人迷惑不解的第37手棋。

你與許多AI科學(xué)家進(jìn)行了很多對話。計(jì)算機(jī)科學(xué)家是否有可能破解、監(jiān)控AI自主決策的這一所謂“黑匣子”的過程呢?到底有沒有辦法確保AI自我設(shè)定的目標(biāo)與我們?nèi)祟愖畛醯哪繕?biāo)“保持一致”,即所謂的“對齊”呢?

尤瓦爾赫拉利:要使AI與人類目標(biāo)保持一致,非常困難的事一點(diǎn)是AI的發(fā)展速度。如果你將人工智能的進(jìn)化與生物進(jìn)化的過程進(jìn)行比較,你可以說今天的人工智能就像變形蟲(一種單細(xì)胞生物,與草履蟲類似)。生物進(jìn)化花了數(shù)十億年的時間,才從變形蟲這樣簡單的單細(xì)胞生物發(fā)展到恐龍這樣的生物。但數(shù)字進(jìn)化比有機(jī)體進(jìn)化快數(shù)十億倍,這意味著跨越AI變形蟲與AI恐龍之間的差距可能短短幾十年甚至幾年就可以完成。

如果ChatGPT是AI變形蟲,那么AI霸王龍會是什么樣子呢?數(shù)字演進(jìn)的速度使“對齊問題”變得非常困難。我們已經(jīng)看到一個AI錯位的例子,如社交媒體算法。AI的目標(biāo)是使人們在社交媒體網(wǎng)站上花更多的時間。它們發(fā)現(xiàn):通過放大包含仇恨和恐懼在內(nèi)的信息,能夠?qū)崿F(xiàn)這一目標(biāo)。即使是這些相對原始的算法,也能夠給人類社會造成巨大的傷害和痛苦。2016年緬甸發(fā)生的針對羅興亞人的悲劇只是社交媒體算法引發(fā)暴力的一個例子。

解決這個問題有賴于我們?nèi)祟愔g的合作。在目前階段,人類仍比AI強(qiáng)大。但我們自己內(nèi)部非常分裂。這種情況歷史上發(fā)生過。你看看古羅馬帝國或大英帝國,他們經(jīng)常利用群體內(nèi)部的分裂來征服他們。如果人們內(nèi)部不合作,來自外部的強(qiáng)大勢力就更容易征服、接管他們,F(xiàn)在,我們看到同樣的劇變(dynamic)在整個人類物種內(nèi)部上演。如果我們自己不能團(tuán)結(jié)起來解決人工智能的問題,最終我們將完全受制于一種“異類智能”(記者注:Alien Intelligence,赫拉利對人工智能的一種比喻,強(qiáng)調(diào)AI的行為和思維方式與人類截然不同,甚至可能導(dǎo)致民主失效和全球不平等。)

南方人物周刊:你目前的著作主題涵蓋了我們?nèi)祟惖倪^去、現(xiàn)在和未來,下面還打算寫什么?在人類可能即將被AI擊敗的有限時間里,你是否有緊迫感和危機(jī)感?

我們來做一個悲觀但有趣的假設(shè):如果人工智能真在未來一兩百年內(nèi)接管地球和人類,等那天到來,你希望你的書會被儲存、歸類在AI數(shù)據(jù)庫的哪個角落里?

尤瓦爾赫拉利:我們將看到未來會是怎樣的。完成《智人之上:從石器時代到AI時代的信息網(wǎng)絡(luò)簡史》后,我現(xiàn)在的主要項(xiàng)目是名為“勢不可擋的我們”(Unstoppable Us)的兒童系列書籍,旨在通過向孩子們講述從石器時代到AI時代的整個人類歷史,讓孩子們?yōu)?1世紀(jì)的世界做好準(zhǔn)備。

我還與我和伴侶共同創(chuàng)立的公司Sapienship一起,尋找解決方案讓全球?qū)υ捈性谌祟愖罹o迫的威脅上,我認(rèn)為這些威脅是生態(tài)崩潰、人工智能等顛覆性技術(shù)以及全球戰(zhàn)爭的可能性。這些威脅中的每一個都需要全球合作來應(yīng)對。如果我被AI記住了,我希望我是一個被定義為“努力使這種合作變?yōu)楝F(xiàn)實(shí)的人”。

南方人物周刊記者 徐琳玲

責(zé)編 楊子

贊助本站

相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2025 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會 | 展會港