在基辛格百歲壽辰前夕,他接受了《經(jīng)濟(jì)學(xué)人》雜志長達(dá)8小時的訪談。在這位期頤老人最后一次訪談中,他反復(fù)提及對人工智能的擔(dān)憂。作為可能是歷史上最重大、影響最深遠(yuǎn)的革命之一,人工智能的興起不但會挑戰(zhàn)人類的認(rèn)知能力和理解世界的方式,它也在改變著經(jīng)濟(jì)模式、社會系統(tǒng)和權(quán)力結(jié)構(gòu),增加全球沖突的不可預(yù)測性和復(fù)雜性。
這并非基辛格的杞人憂天。事實(shí)上,隨著美國《關(guān)于安全、可靠、可信地開發(fā)和使用人工智能的行政命令》、歐盟《人工智能法》等規(guī)范的出臺,人工智能的安全治理已經(jīng)成為各國高度關(guān)注并已然付諸行動的議題。在此背景下,全國網(wǎng)絡(luò)安全標(biāo)準(zhǔn)化技術(shù)委員會于9月9日發(fā)布的《人工智能安全治理框架》1.0版可謂是針對人工智能安全問題提出的中國方案。
《人工智能安全治理框架》1.0版以風(fēng)險治理為理念,立足于人工智能技術(shù)特性,首先提出了包容審慎、確保安全;風(fēng)險導(dǎo)向、敏捷治理;技管結(jié)合、協(xié)同應(yīng)對;開放合作、共治共享等四項(xiàng)原則。進(jìn)而遵循風(fēng)險識別、技術(shù)應(yīng)對、綜合治理的邏輯,針對人工智能系統(tǒng)設(shè)計、研發(fā)、訓(xùn)練、測試、部署、使用、維護(hù)等生命周期各環(huán)節(jié)的安全風(fēng)險,要求模型算法研發(fā)者、人工智能服務(wù)提供者、重點(diǎn)領(lǐng)域使用者各司其職,在訓(xùn)練數(shù)據(jù)、算力設(shè)施、模型算法、產(chǎn)品服務(wù)、應(yīng)用場景等方面積極采取技術(shù)應(yīng)對措施的同時,還應(yīng)與政府部門、行業(yè)協(xié)會、社會組織一道,共建多方參與的人工智能安全風(fēng)險綜合治理制度。
可以預(yù)見,《人工智能安全治理框架》1.0版的實(shí)施,將為培育安全、可靠、公平、透明的人工智能技術(shù)研發(fā)和應(yīng)用生態(tài),促進(jìn)人工智能的健康發(fā)展和規(guī)范應(yīng)用,提供基礎(chǔ)性、框架性技術(shù)指南。同時,也有助于在全球范圍推動人工智能安全治理國際合作,推動形成具有廣泛共識的全球人工智能治理體系,確保人工智能技術(shù)造福于人類。
在人工智能發(fā)展如火如荼的背景下,《人工智能安全治理框架》1.0版的發(fā)布可謂恰逢其時。不過,若要這部軟法發(fā)揮最大效用,可能還需要再問如下三個問題。
如何準(zhǔn)確評估人工智能的風(fēng)險?
與之前《生成式人工智能服務(wù)安全基本要求》(TC260-003)聚焦于語料安全和模型生成內(nèi)容安全不同,《人工智能安全治理框架》1.0版從內(nèi)生安全風(fēng)險與應(yīng)用安全風(fēng)險兩大方面,全面梳理了模型算法安全風(fēng)險、數(shù)據(jù)安全風(fēng)險、系統(tǒng)安全風(fēng)險、應(yīng)用安全風(fēng)險等風(fēng)險,并逐一描述和細(xì)化了各種風(fēng)險表現(xiàn)。
不過,羅列風(fēng)險只是第一步。根據(jù)風(fēng)險規(guī)制的基本原理,風(fēng)險問題包含三個先后相繼的問題:有什么樣的風(fēng)險?發(fā)生風(fēng)險的可能性有多大?可能的后果是什么?實(shí)際上,只有回答了后面兩個問題,才能準(zhǔn)確評估人工智能風(fēng)險的實(shí)際大小,也才能發(fā)展出更可操作的風(fēng)險治理措施。正因如此,未來有必要在識別風(fēng)險類型的基礎(chǔ)上,找到穩(wěn)健且可驗(yàn)證的可靠指標(biāo)與衡量方法。由于人工智能風(fēng)險的復(fù)雜性,在國家標(biāo)準(zhǔn)層面,應(yīng)始終堅持科學(xué)原則(scientific principle),充分考慮評估的可信度、適用性,確保風(fēng)險評估的結(jié)果是由確實(shí)的證據(jù)和科學(xué)的方法推導(dǎo)而出,盡可能排除政治介入和民粹干擾。
如何為人工智能的風(fēng)險排序?
評估風(fēng)險是為了應(yīng)對風(fēng)險。但應(yīng)對風(fēng)險的資源永遠(yuǎn)是稀缺的,因此一個有效的風(fēng)險回應(yīng)機(jī)制是認(rèn)識到風(fēng)險并非都是同等的,從而根據(jù)人工智能風(fēng)險類別的差異性,預(yù)先構(gòu)建規(guī)制工具箱并準(zhǔn)備相應(yīng)工具,以提升規(guī)制的針對性和精準(zhǔn)性,從而更有效的分配資源,而這正是敏捷治理的意義。
歐盟《人工智能法》將風(fēng)險分為不可接受風(fēng)險類、高風(fēng)險類、有限風(fēng)險類、最小風(fēng)險類四個級別。每個類別適用不同程度的監(jiān)管要求。高風(fēng)險的人工智能系統(tǒng)須遵守更嚴(yán)格的合規(guī)要求,而構(gòu)成不可接受風(fēng)險的人工智能系統(tǒng)則被禁止。例如,高風(fēng)險的人工智能就包括用于生物識別和分類、關(guān)鍵基礎(chǔ)設(shè)施管理、教育和職業(yè)培訓(xùn)、就業(yè)、員工管理和獲得自營職業(yè)機(jī)會、獲得和享受基本私人服務(wù)及基本公共服務(wù)、執(zhí)法活動、移民和邊境控制管理、司法和民主程序的人工智能。
在仔細(xì)評估各種風(fēng)險后,各方就需要對特定使用環(huán)境中最嚴(yán)重的人工智能風(fēng)險,給予最緊迫的優(yōu)先級和最全面的風(fēng)險管理流程。如果存在迫在眉睫、嚴(yán)重傷害正在發(fā)生或存在災(zāi)難性風(fēng)險,那么相關(guān)開發(fā)和部署應(yīng)立即停止,直到風(fēng)險得到充分管理。實(shí)際上,我國兩部人工智能的專家建議稿均認(rèn)識到人工智能風(fēng)險分級的重要性。《人工智能示范法2.0(專家建議稿)》提出:國家人工智能主管機(jī)關(guān)根據(jù)人工智能在經(jīng)濟(jì)社會發(fā)展中的重要程度,以及一旦遭到攻擊、篡改、破壞或者非法獲娶非法利用,對國家安全、公共利益、社會穩(wěn)定、環(huán)境保護(hù),或者個人、組織合法權(quán)益、經(jīng)濟(jì)秩序造成的危害程度確立人工智能產(chǎn)品、服務(wù)負(fù)面清單,開展人工智能負(fù)面清單內(nèi)產(chǎn)品、服務(wù)的研發(fā)、 提供活動前,應(yīng)當(dāng)取得國家人工智能主管機(jī)關(guān)的行政許可。《人工智能法(學(xué)者建議稿)》建議就“對個人的生命、自由、人格尊嚴(yán)等人身權(quán)益有重大影響的人工智能,以及在算力、參數(shù)、使用規(guī)模等方面達(dá)到一定級別的基礎(chǔ)模型”等“關(guān)鍵人工智能”開展特殊管理。
展望未來,如何為人工智能的分級管理提供可行方案,可能是全國網(wǎng)絡(luò)安全標(biāo)準(zhǔn)化技術(shù)委員會亟待解決的又一“關(guān)鍵問題”。
如何劃定人工智能風(fēng)險的容忍程度?
“無危則安,無缺則全”,在中國傳統(tǒng)觀念中,“安全”往往意味著沒有危險且盡善盡美。然而,在當(dāng)今風(fēng)險社會(risksociety)中,這種絕對的安全觀念已經(jīng)不合時宜。正如德國社會學(xué)巨擘盧曼所洞見的:我們生活在一個除了冒險別無選擇的社會。無時不在、無處不在的風(fēng)險彌散在周圍,更重要的是,我們作為集體或個人做出的每個決定、每種選擇、每種行動同時也在制造著新的風(fēng)險。這從反面證明了風(fēng)險的絕對性:人們用于應(yīng)對風(fēng)險的規(guī)制方式,本身就是滋生新型風(fēng)險的罪魁禍?zhǔn)。由于現(xiàn)代社會前所未有的復(fù)雜與抽象,無論是冒險取向還是安全取向的制度,都可能蘊(yùn)含運(yùn)轉(zhuǎn)失靈或決策失誤的風(fēng)險。這一規(guī)律早已被習(xí)近平總書記在2016年“全國網(wǎng)絡(luò)安全和信息化工作會議”所指明:網(wǎng)絡(luò)安全是動態(tài)的而不是靜態(tài)的,開放的而不是封閉的,相對的而不是絕對的,因此一定避免不計成本追求絕對安全,那樣不僅會背上沉重負(fù)擔(dān),甚至可能顧此失彼。
同樣,試圖完全消除人工智能的風(fēng)險是對安全不切實(shí)際的期望,這不但可能浪費(fèi)稀缺資源,更嚴(yán)重的是,可能導(dǎo)致不必要地犧牲了發(fā)展。在全球人工智能突飛猛進(jìn)的背景下,不發(fā)展可能就是最大的不安全。為此,我們有必要借鑒英國金融服務(wù)局“合理期待”(ReasonableExpectations)的規(guī)制經(jīng)驗(yàn),與其說“零失誤”的安全是人工智能治理的目標(biāo),毋寧說是“可容忍的風(fēng)險”才是我們的目標(biāo)。
所謂“可容忍的風(fēng)險”,就是社會各方為了獲得人工智能的利益而愿意承擔(dān)的風(fēng)險。這一風(fēng)險的閾值固然受到人工智能的技術(shù)發(fā)展、應(yīng)用場景、社會規(guī)范的影響,但歸根到底,它有賴于企業(yè)、學(xué)界、技術(shù)專家、社會公眾和政府部門就如何實(shí)現(xiàn)人工智能風(fēng)險與收益的平衡達(dá)成共識。作為體現(xiàn)行業(yè)聲音的規(guī)范指南,我們期待未來的《人工智能安全治理框架》2.0版能夠明確提出適用于特定領(lǐng)域、行業(yè)的可容忍風(fēng)險標(biāo)準(zhǔn),并在此基礎(chǔ)上,通過一個可行、漸進(jìn)和包容的“公共討論議程”,遵循多利益相關(guān)方的商談邏輯和議題形成程序,最終凝聚“可容忍的風(fēng)險”的共識。
毫無疑問,作為顛覆性的科技革命,人工智能帶來的挑戰(zhàn)也是顛覆性的。但我們不能沉湎于人工智能風(fēng)險的恐懼中,而應(yīng)積極和自信地構(gòu)建以人為本的人工智能,寬容和容忍科技發(fā)展的不成熟和不安全。因?yàn),只有為?chuàng)新提供最大的空間,才能實(shí)現(xiàn)人工智能造福人類的偉大目標(biāo)。
(作者系對外經(jīng)濟(jì)貿(mào)易大學(xué)數(shù)字經(jīng)濟(jì)與法律創(chuàng)新研究中心主任)
許可
責(zé)編 侯明輝