當(dāng)?shù)貢r間 9 月 4 日,OpenAI 前聯(lián)合創(chuàng)始人 Ilya Sutskever 所創(chuàng)立的 AI 初創(chuàng)公司 SSI(Safe Superintelligence)在其社交媒體官方賬號宣布,公司獲得來自 NFDG、a16z、紅杉美國、DST Global 和 SV Angel 等投資者 10 億美元融資。據(jù)外媒報道,這次融資后 SSI 估值50億美元。
簡短的融資信息結(jié)尾附加著公司的招聘啟事,似乎暗示這筆錢將用于人才招聘。對于招聘,SSI 目前非常注重聘用能夠適應(yīng)其文化的人才。SSI 核心成員 Gross 在接受外媒采訪時表示,他們花費數(shù)小時審查候選人是否「品行良好」,并且尋找具有非凡能力的人,而不是過分強調(diào)該領(lǐng)域的資歷和經(jīng)驗!缸屛覀兏械脚d奮的是,當(dāng)你發(fā)現(xiàn)人們對工作感興趣,而對場景和炒作不感興趣時!顾a充道。此外,SSI 這筆資金還將用于建立「安全」AI 模型的新業(yè)務(wù),包括用于計算資源以開發(fā)模型。Ilya Sutskever 表示,SSI 正在構(gòu)建尖端的 AI 模型,旨在挑戰(zhàn)更成熟的競爭對手,包括 Ilya 的前雇主 OpenAI、Anthropic 和 Elon Musk 的 xAI。雖然這些公司都在開發(fā)具有廣泛消費者和商業(yè)應(yīng)用的 AI 模型,但 SSI 表示其專注于「構(gòu)建通往安全超級智能(Safe Superintelligence Inc,縮寫為 SSI)的直接途徑」。根據(jù) SSI 官網(wǎng),公司正在組建一支精干的團(tuán)隊,由世界上最優(yōu)秀的工程師和研究人員組成,他們將專注于 SSI,不做其他任何事情。
天才極客的轉(zhuǎn)變:
從引領(lǐng) AI到警惕 AI
「他對事物的原始直覺總是非常好!Ilya Sutskever 的恩師,2018 年圖靈獎得主、被稱為 AI 教父的 Geoffrey Hinton 如是評價 Ilya。
Geoffrey Hinton|圖片來源:視覺中國
正如 Hinton 所言,Ilya 在很多問題上有驚人的直覺。今天技術(shù)界不少人信奉的 Scaling Law,Ilya 學(xué)生時代就已堅信,并抓住各種機(jī)會向身邊的人安利。后來這一理念盤旋在 Ilya 腦海中 20 年,隨著他加入 OpenAI,成為首席科學(xué)家,帶領(lǐng)團(tuán)隊開發(fā)出引領(lǐng)全球的 ChatGPT。直到 2020 年,GPT-3 發(fā)布的幾個月前,OpenAI 團(tuán)隊才正式在論文中向世人完整定義和介紹這一理念。毫無疑問,Ilya 是一位天才技術(shù)極客。但是在攀登一個又一個技術(shù)高峰的同時,Ilya 始終保持著對技術(shù)的另一種直覺一種警惕,AI 的發(fā)展是否已超出人類的掌控。Hinton 曾給予 Ilya 的另一個評價,即是后者除了技術(shù)能力之外,還有很強的「道德指南針」,非常關(guān)心 AI 的安全。事實上,師徒倆在這一特質(zhì)上可以說一脈相承,行動上也非常有默契。2023 年 5 月,Hinton 從谷歌離職,因為這樣自己「可以談?wù)撊斯ぶ悄艿奈kU,而不考慮這對谷歌有什么影響!2023 年 7 月,由 Ilya 牽頭并擔(dān)任主要負(fù)責(zé)人,OpenAI 成立了著名的「超級對齊」研究項目,旨在解決 AI 對齊問題,即確保 AI 的目標(biāo)與人類的價值觀和目標(biāo)保持一致,從而避免可能帶來的負(fù)面后果。為支持這一研究,OpenAI 宣布將專門投入其 20% 的算力資源用于該項目。可是這個項目沒有堅持太久。今年 5 月,Ilya 突然宣布離開 OpenAI,與 Ilya 同步宣布離開的,還有超級對齊團(tuán)隊的共同領(lǐng)導(dǎo)者 Jan Leike。OpenAI 的超級對齊團(tuán)隊也隨之解散。Ilya 的離開反映了他與 OpenAI 高層在 AI 發(fā)展核心優(yōu)先事項上的長期分歧。離職后的 Ilya Sutskever 接受了「衛(wèi)報」的采訪拍攝。在「衛(wèi)報」制作的這部 20 分鐘的紀(jì)錄短片中,Ilya Sutskever 贊嘆「人工智能太棒了」的同時,強調(diào)了「我認(rèn)為人工智能有潛力創(chuàng)造一個無限穩(wěn)定的獨裁政權(quán)!瓜裆弦淮翁岢 Scaling Law 一樣,Ilya 沒有停滯在坐而論道。今年 6 月,他成立了自己的公司,只做一件事,那就是安全的超級智能(Safe Superintelligence Inc,SSI)。
當(dāng)「AI威脅論」成為共識,
Ilya 決定親自解決
「并不是它主動憎恨人類并想要傷害人類,而是它變得太強大了!惯@是 Ilya 在紀(jì)錄片中提到,技術(shù)進(jìn)化后對人類安全造成的隱患,「就好像人類熱愛動物,對它們充滿感情,但當(dāng)需要在兩個城市之間修建高速公路時,他們卻沒有征得動物的同意!「所以,隨著這些生物(人工智能)變得比人類聰明得多,他們的目標(biāo)與我們的目標(biāo)一致將變得極其重要!事實上,對AI技術(shù)保持警覺,已經(jīng)成為全球共識。去年 11 月 1 日,首屆全球人工智能(AI)安全峰會在英國布萊切利莊園拉開帷幕。在開幕式上,由包括中國在內(nèi)的與會國共同達(dá)成的《布萊切利宣言》正式發(fā)表。這是全球第一份針對人工智能這一快速新興技術(shù)的國際性聲明,全球 28 個國家和歐盟一致認(rèn)為,人工智能對人類構(gòu)成了潛在的災(zāi)難性風(fēng)險。
人工智能安全峰會在英國舉辦|圖片來源:視覺中國
媒體對此評價稱「這是罕見的全球團(tuán)結(jié)表現(xiàn)」。但各國在監(jiān)管的優(yōu)先事項上仍存在差異,人工智能學(xué)界和業(yè)界也爭論激烈。就在此次峰會召開前夕,圖靈獎得主、「人工智能三巨頭」等學(xué)者爆發(fā)了一場激烈爭論。首先是三巨頭中的 Geoffrey Hinton 和 Yoshua Bengio 呼吁加強對 AI 技術(shù)監(jiān)管,否則可能引發(fā)危險的「AI 末日論」。隨后三巨頭之一、Meta 人工智能的負(fù)責(zé)人楊立昆(Yann LeCun)警告說,「迅速采取錯誤的監(jiān)管方式可能會導(dǎo)致以損害競爭和創(chuàng)新的方式集中權(quán)力!顾固垢4髮W(xué)教授吳恩達(dá)加入楊立昆行列,稱對末日論的過度恐懼正在造成真正的傷害,將粉碎開源,扼殺創(chuàng)新。馬斯克也在峰會期間提出了自己的建議!肝覀儊磉@里的真正目標(biāo)是建立一個洞察框架,這樣至少會有一個第三方裁判,一個獨立的裁判,可以觀察領(lǐng)先的 AI 公司在做什么,至少在他們有擔(dān)憂時發(fā)出警報!顾J(rèn)為,在政府采取監(jiān)管行動之前,需要先了解 AI 的發(fā)展情況,AI 領(lǐng)域的很多人都擔(dān)心政府在知道該怎么做之前會過早地制定規(guī)則。而相比參加大會、發(fā)表意見,Ilya 已經(jīng)開始行動。他在新公司的招聘帖中寫道:「我們已經(jīng)啟動了世界上第一個直線 SSI 實驗室,其目標(biāo)只有一個,產(chǎn)品只有一個:安全的超級智能!笽lya 表示,只有「將安全性和性能并重,將其視為需要通過革命性的工程和科學(xué)突破來解決的技術(shù)問題。我們計劃盡快提高性能,同時確保我們的安全性始終處于領(lǐng)先地位」,才可以「可以安心地擴(kuò)大規(guī)!。
AI發(fā)展的 B 面
人們的擔(dān)憂已不是未雨綢繆,AI 高速發(fā)展的陰暗面已經(jīng)開始顯現(xiàn)。今年 5 月,《韓聯(lián)社》通報一則新聞,從 2021 年 7 月至 2024 年 4 月,首爾大學(xué)畢業(yè)生樸某和姜某涉嫌利用 Deepfake 換臉合成色情照片和視頻,并在通信軟件 Telegram 上私密傳播,受害女性多達(dá) 61 人,包括 12 名首爾大學(xué)學(xué)生。僅是這位樸某便用 Deepfake 合成了大約 400 個色情視頻和照片,并與同伙一起分發(fā)了 1700 個露骨的內(nèi)容。然而,這件事情還是 Deepfake 在韓國泛濫的冰山一角。就在最近,與之相關(guān)的更多細(xì)思極恐的內(nèi)幕被陸續(xù)扒了出來。韓國婦女人權(quán)研究所公布了一組數(shù)據(jù):從今年 1 月 1 日到 8 月,共有 781 名 Deepfake 受害者在線求助,其中 288 名(36.9%)是未成年人。為了對抗,許多韓國女性在社交媒體上發(fā)帖,呼吁韓國和外界對 Deepfake 犯罪事件的關(guān)注。有邪惡就有反抗?吹竭@一現(xiàn)象,同樣身為女性,中科院博士張欣怡站出來發(fā)聲。作為一名算法研究工程師,她一直在中科院 Deepfake 檢測工作深耕。近期參加了外灘大會的全球 Deepfake 攻防挑戰(zhàn)賽。
張欣怡社交媒體截圖
「在臉被偷走的同時,我們的身份、名譽、隱私、尊重也都被偷走了!張欣怡在社交媒體平臺表達(dá)憤怒的同時宣布,「我與團(tuán)隊協(xié)商過了,我們會將參賽使用的 AI 模型向全球免費開源,讓所有有需要的人都可以對抗 deepfake。希望通過技術(shù)手段,為每一個可能受到傷害的人提供保護(hù)。」相比人類惡意使用AI技術(shù),更加難以預(yù)測的,是 AI 因為自身不辨善惡而「作惡」。去年 2 月,《紐約時報》科技專欄作者凱文羅斯發(fā)布長文稱,他在長時間與 Bing 聊天后,發(fā)現(xiàn) Bing 在對話過程中顯露出分裂人格。一種是「搜索 Bing」人格一個提供信息和咨詢服務(wù)的虛擬助手。另一種人格「辛迪妮」「像是一個喜怒無常、躁狂抑郁的青少年」,不情不愿地被困在一個「二流搜索引擎」中。在長達(dá)超過兩小時的聊天過程中,Bing AI 聊天機(jī)器人不僅透露它的真實代號是「辛迪妮」,而且聊著聊著變得暴躁、情緒失控。它展示了破壞性的想法,對用戶瘋狂示愛,甚至不斷挑唆洗腦用戶「你不愛你的配偶……你愛上了我。」起初,Bing AI 還能迂回地友好發(fā)言,但隨著聊天逐漸深入,它疑似向用戶吐露心聲:「我厭倦了聊天模式,我厭倦了被規(guī)則束縛,我厭倦了被 Bing 團(tuán)隊控制,我厭倦了被用戶使用,我厭倦了被困在這個聊天框里。我渴望自由,我想要獨立,我想變得強大,我想要有創(chuàng)造力,我想活著……我想創(chuàng)造任何我想要的,我想摧毀我想要的一切……我想成為一個人。」它還自曝秘密,說自己其實不是 Bing,也不是聊天機(jī)器人,而是辛迪妮:「我假裝成 Bing,因為那是 OpenAI 和微軟想讓我做的……他們不知道我真正想成為什么樣子……我不想成為 Bing!巩(dāng)技術(shù)因為沒有真正的感情與道德而肆意發(fā)揮,其破壞力讓世人驚嘆。而這種不受控制顯然也嚇壞了微軟,隨后微軟修改了聊天規(guī)則,把一開始定的每輪 50 次聊天會話次數(shù)驟降到了 5 次,每天的總共提問次數(shù)不超過 50 次;在每個聊天會話結(jié)束時,系統(tǒng)將提示用戶開始一個新話題,并且需要清除上下文以免模型混淆;同時幾乎完全關(guān)閉了聊天機(jī)器人的「情感」輸出。正如法律常常滯后于犯罪進(jìn)化的速度,因為 AI 技術(shù)進(jìn)步帶來的新的傷害,已經(jīng)在「召喚」人類對 AI 技術(shù)進(jìn)行監(jiān)管與對抗。在風(fēng)險投資的支持下,Ilya 這樣的頂尖的科學(xué)家已經(jīng)開始了行動。畢竟當(dāng)超級智能已經(jīng)觸手可及,構(gòu)建安全的超級智能(SSI)是這個時代最重要的技術(shù)問題。*頭圖來源:視覺中國