劃重點
01生成式AI技術引發(fā)法律風險與司法適用難題,如深度偽造、知識產(chǎn)權侵權和隱私保護等。
02其中,深度偽造技術可制作虛假內(nèi)容,侵犯社會公共利益和他人合法權益。
03另一方面,生成式AI在訓練與應用階段可能泄露隱私和個人信息。
04為應對這些難題,建議完善相關制度規(guī)范,落實技術監(jiān)管和倫理規(guī)范要求,提升司法能力。
05具體措施包括建立責任分擔機制、完善內(nèi)容標識管理規(guī)定和技術監(jiān)管框架等。
以上內(nèi)容由騰訊混元大模型生成,僅供參考
“
伴隨生成式AI技術的快速發(fā)展和廣泛應用,隨之而來的法律風險與司法適用難題愈演愈烈,亟待破解
本文字數(shù)4959,閱讀時長約13分鐘
文|張平 北京大學武漢人工智能研究院副院長、中國科學技術法學會常務副會長兼秘書長
編輯|郭麗琴以ChatGPT、Sora為代表的生成式AI(人工智能)技術,基于其強大的學習能力與內(nèi)容生成能力,成為推動新一輪產(chǎn)業(yè)升級的核心技術工具。
AI的重要性不言而喻,不論是2024年多個諾貝爾獎獲得者對于AI的關注,抑或以OpenAI、谷歌、微軟為首的100多家企業(yè)共同簽訂《人工智能公約》,中國也適時提出“人工智能能力建設普惠計劃”,并呼吁各方對AI能力建設加大投入。這些均表明,AI已成為全世界、全人類所共同關注的關鍵話題。
與此同時,一些新技術引發(fā)的社會問題也蔓延全球。例如,2024年5月21日曝光的“首爾大學版N號房”事件中,兩名嫌疑人涉嫌利用女校友的畢業(yè)照片和社交媒體照片,非法合成淫穢視頻,傳播到一款加密即時通信軟件上的聊天房中,邀請具有“變態(tài)性癖好”的人參與。2024年8月,韓國再次曝出采用新犯罪手段的 “Deepfake”(深度偽造技術)事件,更是涉及未成年女孩,成為新型N號房事件。Deepfakes使用生成式AI技術,將個人的聲音、面部表情及身體動作拼接合成虛假內(nèi)容,極大影響了個人的合法權益與社會的公共利益。
這背后,是生成式AI的研發(fā)與應用帶來的一系列法律風險及司法適用難題的縮影:不僅涉及知識產(chǎn)權保護、個人隱私保護,以及內(nèi)容的真實性和可靠性等問題,其智能化的特點也可能引發(fā)AI法律主體地位、侵權責任認定等問題。
面向2025年,筆者試圖深入探討這些難題背后的成因,并提出相應的對策建議,以期為相關法律的完善和司法實踐提供理論支持和實踐指導。
01生成式AI的主要法律風險
對公眾而言,首要的危害便是深度偽造與虛假信息。
深度偽造(DeepFake)具有內(nèi)容的高度真實性與應用范圍的普遍性。深度偽造技術,一般指的是通過生成式對抗網(wǎng)絡(GANs)等技術手段分析海量數(shù)據(jù),學習特定的面部形態(tài)、表情模式以及動作特征等內(nèi)容,創(chuàng)造出了大量虛假內(nèi)容的智能視頻生成技術。對該技術的濫用,極容易導致虛假信息的泛濫、降低社會公眾的信任感以及公共利益的損害。
一般而言,基于深度偽造技術所生成的虛假內(nèi)容一旦與特定的視頻、音頻片段結合,容易導致虛假新聞、誹謗侵權等法律風險,尤其是通過該技術制作政治人物或特定事件的虛假內(nèi)容,極容易損害社會公共秩序與國家安全等核心利益。韓國出現(xiàn)的新型“N號房”事件,就是此類技術帶來危害的代表。
第二類是知識產(chǎn)權侵權風險。
生成式AI技術通過學習大量數(shù)據(jù)集,能夠創(chuàng)造出新的文本、圖像、音樂等作品,這一過程涉及復雜的算法和數(shù)據(jù)處理技術。然而,這些應用在著作權領域引發(fā)了諸多挑戰(zhàn)。
具體而言,在前端的數(shù)據(jù)訓練環(huán)節(jié),由于生成式AI的迭代升級需要海量數(shù)據(jù)作為訓練“養(yǎng)料”,且基于高質(zhì)量訓練數(shù)據(jù)的需求,生成式AI在前端數(shù)據(jù)訓練的過程中不可避免地接觸大量作品內(nèi)容。一旦生成式AI研發(fā)者未經(jīng)著作權人許可,擅自使用作品數(shù)據(jù)以訓練AI模型,則容易導致著作權侵權風險。與此同時,基于海量數(shù)據(jù)所生成的內(nèi)容,如果與現(xiàn)存的著作權人作品存在“實質(zhì)性相似”,則同樣容易侵犯著作權人的合法權利。
在全國首例生成式AI侵權一案中,原告認為被告在未經(jīng)許可的情況下,在被告所經(jīng)營的AI繪畫網(wǎng)站中生成了與原告作品實質(zhì)性相似的內(nèi)容,如輸入“奧特曼”和“奧特曼融合美少女戰(zhàn)士”即生成了奧特曼形象圖片以及奧特曼形象與美少女形象融合的圖片,法院因此認定被告利用AI所生成的內(nèi)容侵犯了原告的復制權、改編權,應承擔相應的侵權責任。
顯然,目前生成式AI的知識產(chǎn)權侵權風險已逐漸引起理論與司法實踐的關注,如何平衡技術發(fā)展需求與作者的合法利益已成為重中之重。
第三類涉及隱私與個人信息保護風險。
在生成式AI模型的訓練與應用階段,隱私與個人信息的安全性問題日益凸顯。造成這一問題的主要原因在于,這些模型通常依賴于大規(guī)模的數(shù)據(jù)集進行學習,而這些數(shù)據(jù)集可能未經(jīng)充分脫敏,從而包含了相關隱私信息或敏感個人信息。
在數(shù)據(jù)預處理階段,生成式AI模型可能會從公開渠道抓取大量未經(jīng)篩選或未經(jīng)標記的數(shù)據(jù),這些數(shù)據(jù)可能含有個人身份信息、金融賬戶信息或其他敏感信息,增加了隱私泄露的風險。此外,生成式AI在生成內(nèi)容時,可能會不當使用這些個人信息,從而在用戶交互中無意中泄露了他人的隱私。這種現(xiàn)象不僅涉及技術層面的挑戰(zhàn),也觸及了倫理和法律的邊界,需要通過技術、法律和倫理的綜合策略來共同應對和解決。
02司法適用中的難題
司法實踐層面生成式AI還可能造成適用難題。這些難題不僅包括真人驅(qū)動型數(shù)字虛擬人的法律主體地位分析、現(xiàn)有AI制度規(guī)范與實踐的不適應,還包括生成式AI侵權責任的認定問題。
首當其沖的難題是真人驅(qū)動型數(shù)字虛擬人的法律主體地位問題。
AI技術之所以引發(fā)理論與實踐層面的高度關注,不僅在于技術對于經(jīng)濟社會發(fā)展的極大賦能優(yōu)勢,還在于AI技術“類人化”特性所可能導致的法律與倫理危機。其中,對于AI法律主體地位的爭議已成為科技與法律關系關注的焦點問題,尤其是對真人驅(qū)動型數(shù)字虛擬人法律主體地位的探討。
真人驅(qū)動型數(shù)字虛擬人指的是通過運用多項AI技術,捕捉真人動作、表情形態(tài)等行為特征所創(chuàng)造虛擬數(shù)字人形象。目前,司法實踐中對于真人驅(qū)動型數(shù)字虛擬人的法律主體認定持否定態(tài)度,認為虛擬數(shù)字人并非法律意義層面的自然人,無法享受屬于自然人的法律權利。
在全國首例涉“虛擬數(shù)字人”侵權案中,法院認定案件所涉及的虛擬數(shù)字人“在某種程度上僅是作者進行創(chuàng)作的工具,不具有作者身份”,因此不享有表演者權以及其他著作權利。這意味著,盡管AI技術在一定程度上挑戰(zhàn)了傳統(tǒng)民法體系中自然人主體的相關理論,但司法實踐中對于真人驅(qū)動型數(shù)字虛擬人的法律主體認定仍持謹慎態(tài)度。這種立場反映了法律對于新興技術現(xiàn)象的適應性和審慎性,同時也指出了法律在AI主體認定上的困境。
第二個難題是現(xiàn)有制度規(guī)范與實踐的不適應。
在關注因生成式AI所引發(fā)的法律問題之時,也同樣需要注重現(xiàn)有制度規(guī)范與實踐之間的協(xié)調(diào)關系。目前,生成式AI技術的出現(xiàn)引發(fā)了諸如知識產(chǎn)權侵權、隱私與個人信息保護等法律問題的探討,其根本原因主要在于現(xiàn)有制度規(guī)范的缺失與實踐對相應制度規(guī)范的需求之間的矛盾。
以生成式AI訓練數(shù)據(jù)為例,基于著作權事前授權模式的限制,生成式AI難以在獲取海量數(shù)據(jù)之前逐一獲得著作權人許可,因此是否需要通過突破現(xiàn)有著作權規(guī)則推動技術的創(chuàng)新發(fā)展存在爭議。此外,公眾對于知識產(chǎn)權、隱私與個人信息的保護需求日益增長,這要求法律制度和倫理規(guī)范必須不斷完善。如何在推動技術發(fā)展與保護合法權益之間尋求平衡,已經(jīng)成為實踐關注的焦點。
總結來說,需要盡快完善與生成式AI相關的制度規(guī)范,彌補因技術發(fā)展所產(chǎn)生的規(guī)范漏洞,同時加強理論與實踐之間的緊密聯(lián)系。
此外,生成式AI侵權責任認定同樣成為司法實踐中的一大難題。
在生成式AI所引發(fā)的著作權侵權糾紛中,由于AI所生成的內(nèi)容不僅包含用戶對于指令內(nèi)容的貢獻,還包括AI服務提供者對于技術工具的貢獻,這導致了在著作權侵權糾紛中難以準確界定侵權的行為主體。
此外,侵權責任的承擔同樣成為司法實踐中的一大難題。生成式AI技術通過學習和模擬大量數(shù)據(jù),能夠生成與人類創(chuàng)作相類似的文本、圖像和音頻等內(nèi)容。然而,當這些由生成式AI所生成的內(nèi)容涉及著作權侵權時,責任的承擔變得尤為復雜。
造成以上問題的主要原因在于,當侵權行為發(fā)生時,傳統(tǒng)的侵權責任認定規(guī)則可能難以準確適用。例如,如果生成的文本或圖像侵犯了他人的著作權,那么確定責任歸屬可能需要考慮多個因素,包括用戶指令的性質(zhì)、系統(tǒng)的設計和功能,以及服務提供者對系統(tǒng)可能產(chǎn)生的侵權內(nèi)容的控制能力。因此,這也導致了司法實踐中法院難以準確認定生成式AI侵權糾紛的侵權主體,以及侵權行為與侵權結果之間的因果關系,進而使得對于權利人合法權益的保護受到挑戰(zhàn)。
03建議與解決方案
要破解以上難題,不僅需要從制度規(guī)范層面完善生成式AI相應的規(guī)則內(nèi)容,還應落實對技術監(jiān)管和倫理規(guī)范的要求,同時加強司法能力的提升與適應,確保理論與實踐的深度結合,實現(xiàn)對技術的有效規(guī)制和合理應用。
首先,需要完善與生成式AI相關的制度規(guī)范。這應在保證既有規(guī)則適用性的基礎上,針對技術所觸發(fā)的風險問題,實現(xiàn)制度規(guī)范的有效落實。
具體而言,一是借鑒傳統(tǒng)互聯(lián)網(wǎng)治理中的“避風港”規(guī)則,建立起符合生成式AI產(chǎn)業(yè)發(fā)展的責任分擔機制。在此機制下,生成式AI服務提供者將在數(shù)據(jù)訓練環(huán)節(jié)、內(nèi)容生成環(huán)節(jié)確保履行相應的注意義務,盡可能使用真實合規(guī)的AI訓練數(shù)據(jù),并在信息生成階段設立過程性的風險預防和審查機制,確保依法合規(guī)地收集訓練數(shù)據(jù),生成合法內(nèi)容。
與此同時,還應設置投訴舉報機制,該機制的核心在于確保用戶和權利人的投訴能夠得到快速響應。AI服務提供者在接到投訴后,必須在合理的期限內(nèi)采取必要措施,如數(shù)據(jù)清理和算法調(diào)整,以防止違法內(nèi)容的進一步傳播和擴散。
二是針對生成式AI所引發(fā)的著作權侵權問題,在著作權法既有規(guī)則的基礎上適當擴展“合理使用”的解釋空間,在條件成熟之時,出臺相應的生成式AI收集訓練數(shù)據(jù)的合理使用條款,典型如設置文本與數(shù)據(jù)挖掘例外條款,使得AI數(shù)據(jù)訓練行為具備合理使用的依據(jù)。
三是完善與生成式AI相關的內(nèi)容標識管理規(guī)定,加強對深度偽造內(nèi)容的監(jiān)督,標明AI生成內(nèi)容的合法來源,避免虛假信息的不當傳播。
2024年9月14日,國家網(wǎng)信辦發(fā)布《人工智能生成合成內(nèi)容標識辦法(征求意見稿)》(下稱《征求意見稿》),此前,國家網(wǎng)信辦等部門已相繼出臺《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》《生成式人工智能服務管理暫行辦法》等部門規(guī)章,提及網(wǎng)絡服務提供者對AI生成合成內(nèi)容的標識義務。
值得關注的是,《征求意見稿》的發(fā)布進一步完善與生成式AI相關的內(nèi)容標識管理規(guī)定,有助于監(jiān)督深度偽造的內(nèi)容。但是由于目前其還處于征求意見階段,相關規(guī)定的話語表述仍需要社會公眾貢獻智慧以完善規(guī)定內(nèi)容,如對于顯式標注和隱式標注的規(guī)定應更加具備可落實性,注重不同類型標識在不同技術應用場景的靈活度。
其次,基于AI技術演變的不確定性,有必要建立完善的技術監(jiān)管框架與倫理規(guī)范指引,從技術與倫理層面引導AI向善發(fā)展。
一方面,完善相應的技術標準體系,加強對生成式AI技術的監(jiān)管能力。這意味著,不僅需要在技術標準層面明確生成式AI基礎定義、技術用語以及技術細節(jié)要求,如生成式AI數(shù)據(jù)使用的技術標準、算法安全標準以及系統(tǒng)安全標準等,為技術的健康發(fā)展提供清晰的指導和規(guī)范,還需要提升監(jiān)管主體的監(jiān)管水平與能力,提高其對新技術的理解與應用能力。
另一方面,加強AI倫理規(guī)范指引,推動AI向善發(fā)展。在倫理規(guī)范的制定上,堅持落實以人為本的價值理念,加強AI倫理標準頂層設計,在具體操作上落實可靠性、安全性、可解釋性等基本要求,將抽象的倫理標準要求落實到具體的AI系統(tǒng)設計以及實際操作的過程之中。實踐中,如微軟基于 Explainable Boosting Machine 算法開發(fā)的InterpretML,使得對于AI生成的結果更加具備可預測性與可解釋性,確保在促進技術迭代升級的同時,推動技術健康、可持續(xù)的發(fā)展。
最后,解決因生成式AI所產(chǎn)生的司法適用難題還需要注重司法能力的提升,以及加強對技術發(fā)展新趨勢的適應能力。
對于司法能力的提升,不僅要求司法實務工作者通過不斷學習與實踐,強化對新興技術的理解和應用能力,及時更新現(xiàn)有的司法觀念,如通過加強對新興技術的教育與培訓,提高司法實務工作者對AI技術研發(fā)與應用的理解,使其更好地處理新興技術所產(chǎn)生的司法糾紛;此外,還要求不斷完善司法工作機制,通過整理并學習司法實踐中所形成的裁判經(jīng)驗,明晰司法實踐中涉及新興技術相關的裁判規(guī)則,同時結合法律程序和技術手段,培養(yǎng)對技術難題的解決與應對能力。
同時,在應對AI、大模型算法等新技術難題時,應在尊重現(xiàn)有法律規(guī)則體系的前提下,綜合考慮司法判決對技術發(fā)展、產(chǎn)業(yè)應用、社會公共福利等內(nèi)容所造成的影響,確保在客觀、合理解決因技術所產(chǎn)生的司法難題時,有效實現(xiàn)技術發(fā)展需求與保護合法權益之間的平衡。