劃重點(diǎn)
01美國著名女脫口秀主持人奧普拉溫弗瑞近日錄制了一檔45分鐘的AI特別節(jié)目,探討AI與未來。
02OpenAI聯(lián)合創(chuàng)始人兼CEO薩姆阿爾特曼在節(jié)目中強(qiáng)調(diào)AI系統(tǒng)安全測試的重要性,并透露與政府官員頻繁接觸討論。
03然而,阿爾特曼分享的觀點(diǎn)引發(fā)爭議,如認(rèn)為AI能通過數(shù)據(jù)學(xué)習(xí)并理解概念,以及“AI將幫助我們解決一切問題”。
04其他嘉賓關(guān)注深度偽造技術(shù)風(fēng)險(xiǎn)激增,青少年成侵害對象,以及AI在教育和醫(yī)療領(lǐng)域的應(yīng)用可能帶來的偏見和濫用問題。
05盡管節(jié)目引發(fā)討論,部分網(wǎng)友對嘉賓安排和內(nèi)容提出質(zhì)疑,認(rèn)為節(jié)目應(yīng)邀請更多權(quán)威專家參與。
以上內(nèi)容由騰訊混元大模型生成,僅供參考
智東西(公眾號:zhidxcom)
編譯 | 程茜 陳駿達(dá)
編輯 | Panken
智東西9月14日報(bào)道,近日,美國著名女脫口秀主持人奧普拉溫弗瑞(Oprah Winfrey)錄制了一檔45分鐘的AI特別節(jié)目,主題為“AI與我們的未來”。嘉賓包括OpenAI聯(lián)合創(chuàng)始人兼CEO薩姆阿爾特曼(Sam Altman)、微軟聯(lián)合創(chuàng)始人比爾蓋茨(Bill Gates)、YouTube知名科技博主馬庫斯布朗利(Marques Brownlee,又稱MKBHD)和現(xiàn)任FBI局長克里斯托弗雷伊(Christopher Wray)等人。
這檔節(jié)目也是OpenAI發(fā)布傳說中“草莓”模型的部分預(yù)覽版OpenAI o1預(yù)覽版后,阿爾特曼首次公開露面。OpenAI o1擁有進(jìn)化的推理能力,在物理、生物、化學(xué)問題的基準(zhǔn)測試中準(zhǔn)確度甚至超過了人類博士水平。這些無一不引發(fā)人們對AI安全的擔(dān)憂。
在對話中,作為目前這家最受矚目的AI創(chuàng)企的CEO,阿爾特曼強(qiáng)調(diào)了對AI系統(tǒng)進(jìn)行安全測試的重要性,并透露他每隔幾天就會和政府官員就此碰面討論。
但同時,阿爾特曼也分享了AI能通過數(shù)據(jù)來學(xué)習(xí)并理解概念以及“AI將幫助我們解決一切問題”等極具爭議性的觀點(diǎn),并在奧普拉提及他面對的信任危機(jī)時轉(zhuǎn)移話題。
蓋茨則強(qiáng)調(diào),10年內(nèi)AI會極大地改變教育和醫(yī)療領(lǐng)域。然而,他并未提及這些改變可能并非全都是正面的。有研究顯示,AI在醫(yī)療中的應(yīng)用可能給診斷和治療效果帶來負(fù)面影響。
其它嘉賓則關(guān)注了深度偽造造成的危害和“超級智能帶來的全新風(fēng)險(xiǎn)”。
這檔節(jié)目在發(fā)布前后引起軒然大波,許多網(wǎng)友和批評家質(zhì)疑該節(jié)目在嘉賓選擇上過于單一,阿爾特曼與蓋茨都是從本場AI熱潮中直接受益的利益相關(guān)方,他們對AI的觀點(diǎn)可能有所偏頗。此外,部分嘉賓在節(jié)目中過度強(qiáng)調(diào)AI的遠(yuǎn)期危害,可能導(dǎo)致公眾忽視AI目前已經(jīng)對環(huán)境、社會造成的現(xiàn)實(shí)影響。
一、阿爾特曼再度開啟“推銷員”模式,稱AI能解決“一切問題”
阿爾特曼是接受奧普拉采訪的第一位嘉賓,他提出了一個頗具爭議的觀點(diǎn):當(dāng)今的AI是通過訓(xùn)練數(shù)據(jù)來學(xué)習(xí)概念的。
在向節(jié)目觀眾解釋AI的原理時,阿爾特曼說道:“我們向系統(tǒng)展示一千個單詞的序列,并要求它預(yù)測接下來的內(nèi)容,反復(fù)重復(fù)這一過程,系統(tǒng)就能學(xué)會預(yù)測,進(jìn)而學(xué)會背后的概念,這就是模型的底層邏輯。”
許多專家并不同意這一說法。最近,OpenAI發(fā)布了傳說中“草莓”模型的部分預(yù)覽版OpenAI o1預(yù)覽版。此類系統(tǒng)和之前的GPT系列模型確實(shí)可以高效、準(zhǔn)確地完成下一詞預(yù)測的任務(wù),但許多研究者認(rèn)為這種模型只是統(tǒng)計(jì)機(jī)器它們只是學(xué)習(xí)數(shù)據(jù)模式,沒有意圖,只是做出有根據(jù)的猜測。
阿爾特曼稱,AI對經(jīng)濟(jì)發(fā)展的影響程度之大是前所未有的,稱到2035年,“AI能幫助我們解決一切問題”。假設(shè)我們能讓模型變得極為安全,但也無法改變AI融入經(jīng)濟(jì)的速度,他認(rèn)為:“人們想要更多、更好(的AI),似乎有某股強(qiáng)大的力量在推動其發(fā)展”。
不過,高盛和紅杉在近期都曾指出AI領(lǐng)域存在投資和收益不匹配的問題。
二、阿爾特曼強(qiáng)調(diào)AI監(jiān)管,避而不談信任危機(jī)
阿爾特曼可能夸大了當(dāng)今AI的能力,他也同時強(qiáng)調(diào)了對這些系統(tǒng)進(jìn)行安全測試的重要性:“我們需要做的第一件事就是要讓政府開始研究如何對這些系統(tǒng)進(jìn)行安全測試,類似于飛機(jī)和藥物那樣的測試。”
但他的重點(diǎn)可能是后半句話:“如果我們現(xiàn)在能研究清楚這些問題,就能在之后發(fā)展出適合的監(jiān)管框架。”換言之,他可能并不希望在當(dāng)下就出現(xiàn)完整的監(jiān)管體系。
▲阿爾特曼接受采訪(圖源:ABC)
在過去的幾年中,阿爾特曼常常以支持AI監(jiān)管的形象示人,在本次采訪中,他說到:“我個人可能每隔幾天就會和政府里的某個人交談一次。”
不過,在面臨歐洲和美國加州地方政府的實(shí)際監(jiān)管政策時,阿爾特曼卻選擇反對。OpenAI的強(qiáng)力競爭對手Anthropic一開始雖然反對加州AI安全法案的初稿,但積極參與了修訂工作,OpenAI并未提出具體修改意見。
奧普拉還質(zhì)問阿爾特曼,他作為OpenAI的“頭目”(ringleader),之前曾被董事會以不信任為由開除,人們?yōu)槭裁匆^續(xù)相信他?阿爾特曼回避了這個問題,他只提到其公司正在努力逐漸建立信任。
阿爾特曼曾在多個場合提到,人們不應(yīng)該相信他或者任何一個人能確保AI造福世界。不過,他不同意有些人稱他為“世界上最有權(quán)勢和最危險(xiǎn)的人”,他稱自己有機(jī)會和責(zé)任推動AI朝著對人類有利的方向發(fā)展。
三、深度偽造技術(shù)風(fēng)險(xiǎn)激增,青少年成侵害對象
在節(jié)目中,奧普拉和MKBHD談?wù)摿松疃葌卧斓脑掝}。
為了證明合成內(nèi)容的可信度,MKBHD將OpenAI的視頻生成模型Sora的樣本片段與幾個月前AI系統(tǒng)生成的片段進(jìn)行了比較。Sora的視頻效果遙遙領(lǐng)先,這表明該領(lǐng)域的進(jìn)步非常迅速。MKBHD還現(xiàn)場利用語音合成器生成了一段自己繞口令的音頻。
▲YouTube科技博主MKBHD現(xiàn)場演示深度偽造技術(shù)(圖源:ABC)
奧普拉對這項(xiàng)技術(shù)感到擔(dān)憂,但MKBHD認(rèn)為就像之前的種種技術(shù)那樣,在開始階段總是會存在混亂,但人類最終總是能解決問題。
來自美國人道技術(shù)中心的崔斯坦哈里斯(Tristan Harris)和阿扎拉斯金(Aza Raskin)在節(jié)目中強(qiáng)調(diào)了“超級智能帶來的全新風(fēng)險(xiǎn)”。然而,過去已有AI界人士批評,過分強(qiáng)調(diào)遙遠(yuǎn)的“超級智能”,可能會導(dǎo)致社會忽視近期的AI風(fēng)險(xiǎn),如AI的環(huán)境影響。
美國FBI現(xiàn)任局長雷伊談到AI詐騙日益盛行的情況。美國網(wǎng)絡(luò)安全公司ESET的數(shù)據(jù)顯示,2022年至2023年間,性勒索案件增加了178%,部分原因是AI技術(shù)。
雷伊說:“有人冒充同齡人瞄準(zhǔn)青少年群體,然后使用(AI生成的)的圖片說服孩子發(fā)送真實(shí)照片作為回報(bào)。一旦他們拿到這些照片,就將其用來威脅孩子們。”雷伊還談到了美國總統(tǒng)大選的虛假信息。他認(rèn)為“現(xiàn)在還不是恐慌的時候”,但強(qiáng)調(diào)了每個人都有責(zé)任加強(qiáng)對AI使用的關(guān)注和謹(jǐn)慎。
四、蓋茨看好AI教育、醫(yī)療應(yīng)用,但偏見與濫用頻發(fā)
奧普拉還采訪了微軟聯(lián)合創(chuàng)始人比爾蓋茨(Bill Gates),他認(rèn)為10年內(nèi)AI會極大地改變教育和醫(yī)療領(lǐng)域。
蓋茨說:“AI就像是坐在就診現(xiàn)場的第三人,記錄診斷結(jié)果,并提出處方建議。醫(yī)生不需要再面對電腦屏幕,而是可以與患者互動,讓軟件確保診斷結(jié)果得到完整記錄。”
▲蓋茨在節(jié)目中談?wù)揂I與醫(yī)療和教育(圖源:ABC)
然而,由于醫(yī)療、醫(yī)藥領(lǐng)域的樣本通常為白人男性,用這些數(shù)據(jù)來訓(xùn)練AI可能造成偏見。2023年發(fā)布在學(xué)術(shù)期刊《自然》子刊上的一項(xiàng)研究表明,AI系統(tǒng)在某些情況下降低了手術(shù)的效果,特別是在涉及少數(shù)族裔的手術(shù)中。
在教育領(lǐng)域,蓋茨認(rèn)為AI可以在課堂上“隨時待命”并且給任何水平的孩子提供激勵,但實(shí)際上許多教室里的情況并非如此。
英國安全互聯(lián)網(wǎng)中心的調(diào)查顯示,超過一半的孩子稱曾看到同齡人以不當(dāng)方式使用生成式AI,如創(chuàng)建看起來可信的虛假信息或冒犯性的圖像。
聯(lián)合國教科文組織(UNESCO)去年底曾敦促各國政府規(guī)范生成式AI在教育領(lǐng)域的使用,包括對用戶實(shí)施年齡限制以及對數(shù)據(jù)保護(hù)和用戶隱私設(shè)置限制。
五、節(jié)目安排引發(fā)軒然大波,網(wǎng)友質(zhì)疑奧普拉“拉偏架”
其實(shí),在這檔特別節(jié)目發(fā)布之前,就有不少網(wǎng)友和批評家對其嘉賓安排和內(nèi)容提出質(zhì)疑。
部分網(wǎng)友認(rèn)為,在AI界阿爾特曼等人顯然算不上最權(quán)威的專家。OpenAI前首席科學(xué)家伊爾亞蘇茨克維(Ilya Sutskever)可能更了解AI,而OpenAI的強(qiáng)力競爭對手Anthropic的創(chuàng)始人達(dá)里奧阿莫蒂(Dario Amodei)也應(yīng)該被邀請,以體現(xiàn)對AI不同的看法。
▲網(wǎng)友吐槽奧普拉AI特別節(jié)目的嘉賓人選(圖源:X平臺)
起訴Stability AI和Runway AI等公司、并讓Runway AI于不久前“刪庫跑路”的藝術(shù)家卡拉奧爾蒂斯(Karla Ortiz)認(rèn)為,這檔節(jié)目應(yīng)該找一些“真正的專家”來參與討論。
她還進(jìn)一步分析道,這檔節(jié)目或許將會是許多人第一次獲得與生成式AI相關(guān)的信息,然而參與這檔節(jié)目的人大多是既得利益者,他們忽視了生成式AI對大眾造成的現(xiàn)實(shí)影響。她的系列帖子獲得了大量閱讀和點(diǎn)贊。
▲卡拉奧爾蒂斯批評奧普拉的節(jié)目嘉賓選擇(圖源:X平臺)
前《洛杉磯時報(bào)》科技專欄作家布萊恩莫?dú)J特(Brian Merchant)在X平臺上將這場節(jié)目稱之為生成式AI行業(yè)困局中的一次“銷售宣傳”。
結(jié)語:批評聲浪減退但影響持續(xù),或成部分觀眾“AI第一課”
這檔節(jié)目在發(fā)布后繼續(xù)在社交媒體平臺上引發(fā)討論,反對的聲浪并未如播出前般巨大。有部分網(wǎng)友認(rèn)為,這檔節(jié)目其實(shí)是在面向“祖父母輩”群體介紹AI,并不是十分深刻。但也有網(wǎng)友認(rèn)為這正是非技術(shù)人員所需要的內(nèi)容。
▲Reddit論壇上的相關(guān)討論(圖源:Reddit)
相對較少的討論并不意味著這檔節(jié)目的影響力有限。奧普拉的觀眾群體龐大,但可能并不是社交媒體的用戶,他們十分愿意相信奧普拉和她的節(jié)目中其他嘉賓的觀點(diǎn)。
通觀這檔45分鐘的節(jié)目,奧普拉似乎將重點(diǎn)放在了AI安全問題上,卻又沒有進(jìn)行深入且實(shí)際的探討,并呈現(xiàn)來自不同方面的觀點(diǎn)。不論這些觀點(diǎn)是否正確,偏頗與否,似乎已經(jīng)成為了部分觀眾的AI第一課。