機(jī)器之心報(bào)道
編輯:張倩、小舟
AI真的已經(jīng)危險(xiǎn)到要如此監(jiān)管的地步了嗎?
在創(chuàng)新的熱土硅谷,李飛飛、吳恩達(dá)等 AI 科學(xué)家正在與監(jiān)管部門展開一場(chǎng)關(guān)于安全與創(chuàng)新的拉鋸戰(zhàn)。
這場(chǎng)拉鋸戰(zhàn)的核心是一個(gè)名叫 SB-1047 的法案。該法案的全稱是「Safe and Secure Innovation for Frontier Artificial Intelligence Act(《前沿人工智能模型安全創(chuàng)新法案》)」,試圖為高風(fēng)險(xiǎn)的 AI 模型建立明確的安全標(biāo)準(zhǔn),以防止其被濫用或引發(fā)災(zāi)難性后果。
該法案于今年 2 月份在參議院被提出,隨后引起了很大的爭(zhēng)議。很多科學(xué)家認(rèn)為,法案的條款過于不合理,將對(duì)科技創(chuàng)新造成毀滅性的影響。
法案鏈接:https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB1047
具體來(lái)說,該法案旨在從模型層面對(duì)人工智能進(jìn)行監(jiān)管,適用于在特定計(jì)算和成本閾值之上訓(xùn)練的模型。
模型覆蓋范圍如下:
1、使用超過 10^26 次整數(shù)或浮點(diǎn)運(yùn)算的計(jì)算能力進(jìn)行訓(xùn)練的人工智能模型,其成本超過一億美元(100,000,000 美元),該成本是根據(jù)開發(fā)者合理評(píng)估的訓(xùn)練開始時(shí)云計(jì)算的平均市場(chǎng)價(jià)格計(jì)算得出的。
2、利用等于或大于 10^25 次整數(shù)或浮點(diǎn)運(yùn)算三倍的計(jì)算能力,對(duì)范圍內(nèi)的模型進(jìn)行微調(diào)而創(chuàng)建的人工智能模型。
這一范圍基本覆蓋了現(xiàn)在市面上所有主流的大型模型。如果法案通過,這些模型都將被定義為存在「潛在危險(xiǎn)」或需要額外監(jiān)督。
法案還要求模型開發(fā)者對(duì)其模型的下游使用或修改承擔(dān)法律責(zé)任。在訓(xùn)練開始之前,開發(fā)人員需要證明他們的模型不會(huì)啟用或提供「危險(xiǎn)功能」,并實(shí)施一系列保護(hù)措施來(lái)防止此類使用。這將阻礙開源社區(qū)的發(fā)展。
監(jiān)督新法律執(zhí)行的將是一個(gè)「前沿模型部門(frontier model division)」,這是一個(gè)新成立的監(jiān)督和監(jiān)管機(jī)構(gòu)。該機(jī)構(gòu)將制定安全標(biāo)準(zhǔn)并就人工智能法律提供建議,向該機(jī)構(gòu)歪曲模型的功能可能會(huì)使開發(fā)人員因偽證而入獄。
法案中還加入了吹哨人保護(hù)條款,保護(hù)和鼓勵(lì) AI 開發(fā)實(shí)體內(nèi)部的舉報(bào)者,確保員工可以在不受報(bào)復(fù)的情況下報(bào)告企業(yè)的不合規(guī)情況。
如果法案獲得通過,州長(zhǎng) Gavin Newsom 的一個(gè)簽名就可以將其納入加州法律。a16z 普通合伙人 Anjney Midha 表示,如果這項(xiàng)法案在加州獲得通過,將為其他州樹立先例,并在美國(guó)國(guó)內(nèi)外產(chǎn)生連鎖反應(yīng) 本質(zhì)上對(duì)創(chuàng)新狀況帶來(lái)巨大的蝴蝶效應(yīng)。
在太平洋夏令時(shí)間 8 月 7 日早晨,相關(guān)部門將舉行關(guān)于該法案的聽證會(huì)。留給科學(xué)家們的抗議時(shí)間已經(jīng)不多了。因此,李飛飛親自撰文,陳明法案利害。還有些科學(xué)家正在簽署一封聯(lián)名信,以阻止法案通過。
李飛飛的文章發(fā)表在《財(cái)富》(Fortune)網(wǎng)站上。
李飛飛撰文抨擊 SB-1047
李飛飛在文章中表示:「加州的 SB-1047 將產(chǎn)生重大而意想不到的后果。如果通過成為法律,SB-1047 將損害正在萌芽的人工智能生態(tài)系統(tǒng)。SB-1047 將不必要地懲罰開發(fā)人員,扼殺開源社區(qū),并阻礙人工智能學(xué)術(shù)研究,同時(shí)無(wú)法解決其旨在解決的真正問題。」
她寫道:
首先,SB-1047 將過度懲罰開發(fā)者并扼殺創(chuàng)新。如果人工智能模型被濫用,SB-1047 要求責(zé)任方和該模型的原始開發(fā)者承擔(dān)責(zé)任。每個(gè)人工智能開發(fā)人員(尤其是嶄露頭角的程序員和企業(yè)家)不可能預(yù)測(cè)到其模型的每種可能用途。SB-1047 將迫使開發(fā)人員退步并采取防御行動(dòng) 這正是我們?cè)噲D避免的。
其次,SB-1047 將束縛開源開發(fā)。SB-1047 要求所有超過特定閾值的模型都包含「終止開關(guān)」,這是一種可以隨時(shí)關(guān)閉程序的機(jī)制。如果開發(fā)人員擔(dān)心他們下載和構(gòu)建的程序會(huì)被刪除,他們?cè)诰帉懘a和協(xié)作方面就會(huì)更加猶豫。這個(gè)終止開關(guān)將摧毀開源社區(qū),這是無(wú)數(shù)創(chuàng)新的源泉。其影響不限于人工智能領(lǐng)域,而是在從 GPS 到 MRI 到互聯(lián)網(wǎng)本身的各個(gè)領(lǐng)域。
第三,SB-1047 將削弱公共部門和學(xué)術(shù)人工智能研究。開源開發(fā)對(duì)于私營(yíng)部門很重要,但對(duì)于學(xué)術(shù)界也至關(guān)重要。如果沒有協(xié)作和對(duì)模型數(shù)據(jù)的訪問,學(xué)術(shù)界就無(wú)法進(jìn)步。如果我們的機(jī)構(gòu)無(wú)法獲得適當(dāng)?shù)哪P秃蛿?shù)據(jù),我們將如何培訓(xùn)下一代人工智能領(lǐng)導(dǎo)者?終止開關(guān)甚至?xí)M(jìn)一步削弱學(xué)生和研究人員的努力,與大型科技公司相比,他們?cè)跀?shù)據(jù)和計(jì)算方面已經(jīng)處于劣勢(shì)。當(dāng)我們應(yīng)該加倍加大公共部門人工智能投資時(shí),SB-1047 將為學(xué)術(shù)人工智能敲響喪鐘。
最令人擔(dān)憂的是,該法案并未解決人工智能進(jìn)步的潛在危害,包括偏見和深度偽造(deepfake)等等。相反,SB-1047 設(shè)置了一個(gè)任意閾值,調(diào)節(jié)使用一定計(jì)算能力或花費(fèi) 1 億美元訓(xùn)練的模型。這項(xiàng)措施遠(yuǎn)非提供保障,只會(huì)限制包括學(xué)術(shù)界在內(nèi)的跨部門創(chuàng)新。如今,學(xué)術(shù)人工智能模型低于這一門檻,但如果我們要重新平衡私營(yíng)和公共部門人工智能的投資,學(xué)術(shù)界將受到 SB-1047 的監(jiān)管。我們的人工智能生態(tài)系統(tǒng)將會(huì)因此而變得更糟。
SB-1047 的限制過于武斷,我們必須采取相反的做法。
我并不反對(duì)人工智能治理。立法對(duì)于人工智能的安全有效發(fā)展至關(guān)重要。但人工智能政策必須賦能開源開發(fā),提出統(tǒng)一且合理的規(guī)則,并建立消費(fèi)者信心。SB-1047 未達(dá)到這些標(biāo)準(zhǔn)。
數(shù)十位科學(xué)家聯(lián)名反對(duì)
針對(duì) SB-1047,除了李飛飛,由加州大學(xué) 7 個(gè)校區(qū)的師生以及來(lái)自其他 20 多個(gè)機(jī)構(gòu)的研究人員組成的團(tuán)體也在積極行動(dòng)。他們共同起草并簽署了一封反對(duì) SB-1047 的公開信,從研究者的角度出發(fā),陳述該法案對(duì)加州人工智能研究和教育目標(biāo)的損害。
聯(lián)名信從以下幾方面展開論述 SB-1047 的不合理性:
1、法案會(huì)給開源模型的發(fā)布帶來(lái)「寒蟬效應(yīng)」,從而損害研究
法案中要求對(duì)「前沿模型」進(jìn)行「安全審核」和具備「完全關(guān)閉」能力,可能會(huì)嚴(yán)重阻礙開源和開放權(quán)重模型的發(fā)布。這些嚴(yán)格的規(guī)定對(duì)于私有實(shí)體控制的專有模型來(lái)說可能更易于實(shí)現(xiàn),而對(duì)于非營(yíng)利組織或大學(xué)聯(lián)盟使用的開放模型則較為困難。法案中關(guān)于安全展示和審核的條款表述不夠具體,依賴于可能尚未存在且可能缺乏科學(xué)嚴(yán)謹(jǐn)性的測(cè)試。這種審計(jì)的潛在成本對(duì)于有盈利產(chǎn)品的商業(yè)實(shí)體來(lái)說可能容易承擔(dān),但對(duì)于像 Meta 的 LLaMA 系列這樣的商業(yè)實(shí)體的科學(xué)性開放發(fā)布,或是由非營(yíng)利組織或大學(xué)聯(lián)盟訓(xùn)練的開放模型,情況可能并非如此。
由于這些繁瑣的限制,開源模型的開發(fā)者可能選擇在加州或美國(guó)之外構(gòu)建系統(tǒng),并在避免責(zé)任的前提下發(fā)布其模型。在這種情況下,不顧合規(guī)的私人行為者可能會(huì)秘密使用這些模型,而受到公共工作性質(zhì)約束的學(xué)術(shù)研究人員將被排除在外,這促使他們更改研究主題或轉(zhuǎn)移到不侵犯其學(xué)術(shù)自由的司法管轄區(qū)。開源模型的可獲取性對(duì)于現(xiàn)代學(xué)術(shù) AI 研究至關(guān)重要,因?yàn)樗鼈兪箤W(xué)術(shù)界能夠探索模型的工作原理、訓(xùn)練過程中的能力提升以及如何進(jìn)行改進(jìn)和破解。
2、人工智能風(fēng)險(xiǎn)預(yù)測(cè)與「能力」評(píng)估存在不科學(xué)性
作為人工智能、機(jī)器學(xué)習(xí)和自然語(yǔ)言處理領(lǐng)域的專家,這些研究者強(qiáng)調(diào):SB-1047 中提到的評(píng)估模型風(fēng)險(xiǎn)的建議方法非常值得懷疑?茖W(xué)界就語(yǔ)言模型或其他前沿人工智能系統(tǒng)是否以及如何對(duì)公眾構(gòu)成威脅尚未達(dá)成共識(shí)。
3、對(duì)開源模型的保護(hù)不足
盡管法案提到未來(lái)可能對(duì)開源模型提供特例,但由于參數(shù)數(shù)量的快速增長(zhǎng)和計(jì)算成本的降低,現(xiàn)有的保護(hù)措施可能難以持續(xù)。在沒有強(qiáng)有力的保護(hù)措施的情況下,這些模型面臨的后果可能很快就會(huì)顯現(xiàn)。此外,性能相當(dāng)?shù)男⌒湍P拖啾却笮湍P托枰叩挠?jì)算成本。因此,法案中的修正案預(yù)計(jì)無(wú)法緩解對(duì)開源模型發(fā)布的負(fù)面影響,而嚴(yán)格的報(bào)告和審核要求還將不必要地影響研究活動(dòng)。
4、對(duì)學(xué)生的就業(yè)安置和職業(yè)成果的擔(dān)憂
SB-1047 未來(lái)可能會(huì)阻礙對(duì)人工智能感興趣的學(xué)生進(jìn)一步學(xué)習(xí)相關(guān)知識(shí),甚至可能會(huì)阻止新人才進(jìn)入計(jì)算機(jī)科學(xué)等關(guān)鍵領(lǐng)域。此外,隨著科技行業(yè)從大公司向初創(chuàng)公司的轉(zhuǎn)變,額外的監(jiān)管障礙可能會(huì)通過支持更大、更好的企業(yè)來(lái)削弱新興創(chuàng)新者。這種轉(zhuǎn)變可能會(huì)縮窄學(xué)生的職業(yè)道路。
聯(lián)名信部分學(xué)者簽名。
除了公開信,還有一些研究者選擇在社交媒體發(fā)聲。其中,一位系統(tǒng)生物學(xué)家指出,SB-1047 就像在我們還不知道病原體是什么、何時(shí)會(huì)感染我們以及感染會(huì)發(fā)生在哪里之前就激活了炎癥反應(yīng)。
此前,吳恩達(dá)也多次就此事發(fā)聲。他認(rèn)為,監(jiān)管機(jī)構(gòu)應(yīng)該監(jiān)管應(yīng)用而不是技術(shù)。例如,電動(dòng)機(jī)就是一項(xiàng)技術(shù)。當(dāng)我們將其放入攪拌機(jī)、電動(dòng)汽車、透析機(jī)或制導(dǎo)炸彈中時(shí),它就成為了一種應(yīng)用。想象一下,如果法律規(guī)定,當(dāng)任何人以有害的方式使用電機(jī)時(shí),電機(jī)制造商都要承擔(dān)責(zé)任。那電機(jī)制造商要么停產(chǎn),要么將電機(jī)制造得非常小,以至于對(duì)大多數(shù)應(yīng)用來(lái)說毫無(wú)用處。如果我們通過這樣的法律,可能會(huì)阻止人們制造炸彈,但我們也會(huì)失去攪拌機(jī)、電動(dòng)汽車和透析機(jī)。相反,如果我們關(guān)注特定的應(yīng)用,就可以更合理地評(píng)估風(fēng)險(xiǎn)并判斷如何確保它們的安全,甚至禁止某些類型的應(yīng)用。
AI 真的已經(jīng)危險(xiǎn)到要如此監(jiān)管的地步了嗎?對(duì)此,你怎么看?
參考鏈接:https://a16z.com/sb-1047-what-you-need-to-know-with-anjney-midha/
https://drive.google.com/file/d/1E2yDGXryPhhlwS4OdkzMpNeaG5r6_Jxa/view
https://fortune.com/2024/08/06/godmother-of-ai-says-californias-ai-bill-will-harm-us-ecosystem-tech-politics/?abc123