展會(huì)信息港展會(huì)大全

AI生成合成內(nèi)容將有“專屬水印”,能遏制“換臉”詐騙嗎?
來(lái)源:互聯(lián)網(wǎng)   發(fā)布日期:2024-09-23 10:41:53   瀏覽:2211次  

導(dǎo)讀:劃重點(diǎn) 01國(guó)家網(wǎng)信辦起草的《人工智能生成合成內(nèi)容標(biāo)識(shí)辦法(征求意見(jiàn)稿)》面向社會(huì)公開(kāi)征求意見(jiàn),旨在規(guī)范AI生成合成內(nèi)容。 02《辦法》擬規(guī)定AI生成合成內(nèi)容在顯著位置作出標(biāo)識(shí),以降低虛假宣傳、欺詐等社會(huì)風(fēng)險(xiǎn)。 03為此,《標(biāo)識(shí)方法》擬明確各類AI生成合成...

劃重點(diǎn)

01國(guó)家網(wǎng)信辦起草的《人工智能生成合成內(nèi)容標(biāo)識(shí)辦法(征求意見(jiàn)稿)》面向社會(huì)公開(kāi)征求意見(jiàn),旨在規(guī)范AI生成合成內(nèi)容。

02《辦法》擬規(guī)定AI生成合成內(nèi)容在顯著位置作出標(biāo)識(shí),以降低虛假宣傳、欺詐等社會(huì)風(fēng)險(xiǎn)。

03為此,《標(biāo)識(shí)方法》擬明確各類AI生成合成內(nèi)容的具體標(biāo)識(shí)方式,包括視頻內(nèi)容的顯式標(biāo)識(shí)和音頻內(nèi)容的顯式標(biāo)識(shí)等。

04專家建議明確未履行標(biāo)識(shí)義務(wù)的責(zé)任規(guī)則,特別是民事侵權(quán)責(zé)任,并推動(dòng)行業(yè)自律,建立統(tǒng)一的技術(shù)標(biāo)準(zhǔn)和倫理準(zhǔn)則。

05除此之外,鄭志峰認(rèn)為,制定一部《人工智能法》的契機(jī)已經(jīng)成熟,有助于建立覆蓋人工智能全生命周期的、統(tǒng)一的監(jiān)管規(guī)則。

以上內(nèi)容由騰訊混元大模型生成,僅供參考

人工智能(AI)生成合成內(nèi)容的逼真程度已經(jīng)讓普通人難以辨別。多方人士曾提議,加快規(guī)范AI生成合成內(nèi)容。“內(nèi)容標(biāo)識(shí)”是目前國(guó)際上較為通用的做法。

日前,國(guó)家網(wǎng)信辦起草的《人工智能生成合成內(nèi)容標(biāo)識(shí)辦法(征求意見(jiàn)稿)》(以下簡(jiǎn)稱《辦法》),面向社會(huì)公開(kāi)征求意見(jiàn)。新京報(bào)記者注意到,與之配套的強(qiáng)制性國(guó)家標(biāo)準(zhǔn)《網(wǎng)絡(luò)安全技術(shù) 人工智能生成合成內(nèi)容標(biāo)識(shí)方法》(以下簡(jiǎn)稱《標(biāo)識(shí)方法》)同步在全國(guó)標(biāo)準(zhǔn)信息公共服務(wù)平臺(tái)公開(kāi)征求意見(jiàn)。

真假難辨,“AI換聲”“AI換臉”詐騙案件量正在增加

《辦法》擬規(guī)定什么?簡(jiǎn)單來(lái)說(shuō),AI生成合成的內(nèi)容要在顯著位置作出標(biāo)識(shí),也就是要給它們打上“專屬水印”。

給AI生成合成內(nèi)容打水印為何如此重要,需要單獨(dú)出臺(tái)文件加以規(guī)制?受訪者認(rèn)為,這與AI應(yīng)用帶來(lái)的虛假宣傳、欺詐等社會(huì)風(fēng)險(xiǎn)有著直接關(guān)系。

生成式人工智能的應(yīng)用落地不過(guò)是近兩年的事情,然而利用AI實(shí)施詐騙、侵權(quán)等違法犯罪的數(shù)量正在快速增加。記者注意到,多地公安機(jī)關(guān)曾發(fā)布過(guò)相關(guān)提醒,司法機(jī)關(guān)也發(fā)布了多起利用AI實(shí)施犯罪的典型案例。部分案例經(jīng)由媒體報(bào)道和平臺(tái)傳播,引發(fā)不少人的擔(dān)憂甚至是恐慌。

“AI詐騙正在全國(guó)爆發(fā)”的詞條一度登上熱搜,一時(shí)討論聲四起。據(jù)浙江省科普聯(lián)合會(huì)發(fā)布的文章,AI詐騙的類型包括:語(yǔ)音合成詐騙、視頻/圖像合成詐騙、聊天機(jī)器人詐騙、數(shù)據(jù)操控與偽造。其所依托的技術(shù)主要為自然語(yǔ)言處理和機(jī)器學(xué)習(xí)。

上述前兩種類型便是很多人聽(tīng)說(shuō)過(guò)的“AI換聲”“AI換臉”!掇k法》提出,對(duì)于AI生成合成的音頻,在起始、末尾或中間適當(dāng)位置添加語(yǔ)音提示或音頻節(jié)奏提示等標(biāo)識(shí);AI生成合成的視頻,在起始畫面和視頻播放周邊的適當(dāng)位置添加顯著的提示標(biāo)識(shí),可在視頻末尾和中間適當(dāng)位置添加顯著的提示標(biāo)識(shí)。對(duì)于AI生成合成的文本、圖片等信息,《辦法》也擬作出相應(yīng)規(guī)定。

除了上述可被用戶明顯感知的顯式標(biāo)識(shí),《辦法》還擬對(duì)隱式標(biāo)識(shí)的添加予以明確,提出服務(wù)提供者在生成合成內(nèi)容的文件元數(shù)據(jù)中添加隱式標(biāo)識(shí),隱式標(biāo)識(shí)包含生成合成內(nèi)容屬性信息、服務(wù)提供者名稱或編碼、內(nèi)容編號(hào)等制作要素信息。

《辦法》擬作何具體規(guī)定?解決什么問(wèn)題?

具體來(lái)說(shuō),《辦法》擬對(duì)服務(wù)提供者、網(wǎng)絡(luò)信息內(nèi)容傳播平臺(tái)的服務(wù)提供者、互聯(lián)網(wǎng)應(yīng)用程序分發(fā)平臺(tái)、用戶分別規(guī)定相應(yīng)的責(zé)任義務(wù)。

AI生成合成內(nèi)容將有“專屬水印”,能遏制“換臉”詐騙嗎?

公開(kāi)征求意見(jiàn)的通知。圖源國(guó)家網(wǎng)信辦官網(wǎng)

北京大成律師事務(wù)所高級(jí)合伙人肖颯解釋,服務(wù)提供者即利用生成式人工智能技術(shù)提供生成式人工智能服務(wù),利用算法技術(shù)提供信息服務(wù)、深度合成服務(wù)的組織、個(gè)人。

對(duì)服務(wù)提供者,《辦法》提出在生成合成內(nèi)容時(shí)主動(dòng)添加顯式標(biāo)識(shí)或隱式標(biāo)識(shí),執(zhí)行強(qiáng)制性國(guó)家標(biāo)準(zhǔn);在用戶服務(wù)協(xié)議中明確說(shuō)明生成合成內(nèi)容標(biāo)識(shí)的方法、樣式等,并提示用戶仔細(xì)閱讀并理解相關(guān)的標(biāo)識(shí)管理要求。

對(duì)于提供網(wǎng)絡(luò)信息內(nèi)容傳播平臺(tái)的服務(wù)提供者,如AI聊天網(wǎng)站,《辦法》特別提出,在處理和核驗(yàn)生成合成內(nèi)容時(shí),平臺(tái)需要承擔(dān)核驗(yàn)標(biāo)識(shí)的責(zé)任。

對(duì)于互聯(lián)網(wǎng)應(yīng)用程序分發(fā)平臺(tái),如應(yīng)用商店,《辦法》提出,在應(yīng)用程序上架時(shí),應(yīng)當(dāng)核驗(yàn)服務(wù)提供者是否按要求提供生成合成內(nèi)容標(biāo)識(shí)功能。

用戶在上傳生成合成內(nèi)容時(shí),應(yīng)當(dāng)主動(dòng)聲明并使用平臺(tái)提供的標(biāo)識(shí)功能作出標(biāo)識(shí),不得惡意刪除、篡改、偽造、隱匿生成合成內(nèi)容標(biāo)識(shí)。

西南政法大學(xué)科技法學(xué)研究院副院長(zhǎng)、教授鄭志峰認(rèn)為,通過(guò)規(guī)范標(biāo)識(shí)可以幫助公眾準(zhǔn)確區(qū)分AI生成合成內(nèi)容與人類創(chuàng)作內(nèi)容,提升信息透明度,維護(hù)信息生態(tài)的真實(shí)性,保障公眾的知情權(quán)。通過(guò)標(biāo)識(shí)還可追溯生成內(nèi)容的來(lái)源,明確責(zé)任主體。

他指出,通過(guò)標(biāo)識(shí)內(nèi)容可以降低虛假宣傳、欺詐等社會(huì)風(fēng)險(xiǎn)。肖颯同樣指出,AI生成合成內(nèi)容可能被用于制造社會(huì)恐慌、傳播謠言或?qū)嵤┢渌欠ɑ顒?dòng),通過(guò)強(qiáng)制標(biāo)識(shí),可以有效地控制這些行為,維護(hù)社會(huì)穩(wěn)定。

2022年以來(lái),國(guó)家網(wǎng)信辦等部門發(fā)布的文件中,相繼明確對(duì)符合要求的AI生成合成內(nèi)容作出標(biāo)識(shí),為何還要單獨(dú)制定《辦法》?

鄭志峰指出,之前的文件只是作出原則性要求,沒(méi)有深入討論具體的標(biāo)識(shí)方式、范圍和技術(shù)標(biāo)準(zhǔn)。在此背景下,《辦法》的進(jìn)一步規(guī)定可以消除標(biāo)識(shí)標(biāo)準(zhǔn)的模糊性。具體來(lái)說(shuō),《辦法》主要明確責(zé)任主體和義務(wù),《標(biāo)識(shí)方法》則提供具體操作細(xì)節(jié)。

“這種雙重保障機(jī)制將確保標(biāo)識(shí)要求不僅有依據(jù),還有技術(shù)執(zhí)行路徑,具備可操作性,確保規(guī)定真正落地,而不只是停留在表面要求上。”鄭志峰向記者解釋。

此舉能防范日益突出的AI詐騙嗎?

《標(biāo)識(shí)方法》這一強(qiáng)制性國(guó)家標(biāo)準(zhǔn)擬明確各類AI生成合成內(nèi)容的具體標(biāo)識(shí)方式。其中,視頻內(nèi)容的顯式標(biāo)識(shí)應(yīng)采用文字提示。

具體而言,應(yīng)同時(shí)包含人工智能要素含“人工智能”或“AI”,表明使用人工智能技術(shù);包含生成合成要素含“生成”和/或“合成”,表明內(nèi)容制作方式為生成和/或合成。

AI生成合成內(nèi)容將有“專屬水印”,能遏制“換臉”詐騙嗎?

視頻內(nèi)容顯式標(biāo)識(shí)示例。圖源《標(biāo)識(shí)方法》

音頻內(nèi)容的顯式標(biāo)識(shí)應(yīng)采用語(yǔ)音標(biāo)識(shí)或音頻節(jié)奏標(biāo)識(shí)。語(yǔ)音標(biāo)識(shí)應(yīng)同時(shí)包含人工智能要素含“人工智能”或“AI”,表明使用人工智能技術(shù);包含生成合成要素含“生成”和/或“合成”,表明內(nèi)容制作方式為生成和/或合成。

音頻節(jié)奏標(biāo)識(shí)應(yīng)為“短長(zhǎng) 短短”的節(jié)奏!稑(biāo)識(shí)方法》注釋稱,“短長(zhǎng) 短短”節(jié)奏為“AI”的摩斯碼表示。

AI生成合成內(nèi)容將有“專屬水印”,能遏制“換臉”詐騙嗎?

音頻內(nèi)容顯式標(biāo)識(shí)示例。圖源《標(biāo)識(shí)方法》

以“AI換臉”詐騙為例,肖颯分析,根據(jù)《辦法》和《標(biāo)識(shí)方法》要求,潛在受害人應(yīng)該能夠在視頻中看到顯著標(biāo)識(shí),提示該視頻是AI生成合成內(nèi)容。

具體來(lái)說(shuō):視頻中可能會(huì)有明顯的文字提示,如“本視頻為合成內(nèi)容”,或者視頻角落處有明顯的標(biāo)識(shí)符號(hào),如“人工智能生成合成”;標(biāo)識(shí)應(yīng)當(dāng)放置在視頻的顯眼位置,如角標(biāo)、橫幅等,以便用戶一眼就能注意到;標(biāo)識(shí)的顏色和字型應(yīng)當(dāng)足夠醒目,以便與視頻背景區(qū)分開(kāi);如果視頻支持交互功能,在用戶嘗試播放或下載視頻時(shí),系統(tǒng)可能會(huì)彈出提示框,告知用戶該視頻是AI生產(chǎn)合成的。

“從效果來(lái)看,可以預(yù)測(cè),《辦法》和《標(biāo)識(shí)方法》的實(shí)施有助于提高AI生成合成內(nèi)容的透明度,降低老百姓遭AI詐騙的風(fēng)險(xiǎn)。”肖颯告訴記者。

鄭志峰認(rèn)為,標(biāo)識(shí)可以起到區(qū)分人機(jī)界限的作用,同時(shí)具有警示功能,提醒用戶慎重對(duì)待AI生成合成內(nèi)容,避免上當(dāng)受騙。“當(dāng)然,標(biāo)識(shí)的作用也是有局限性的,無(wú)法應(yīng)對(duì)所有的問(wèn)題。例如,AI生成合成內(nèi)容是否侵犯他人的著作權(quán)、人格權(quán),并非標(biāo)識(shí)可以解決的。”

專家建議:明確未履行標(biāo)識(shí)義務(wù)的責(zé)任規(guī)則,特別是民事侵權(quán)責(zé)任

《辦法》第13條擬規(guī)定,未對(duì)AI生成合成內(nèi)容作出標(biāo)識(shí)造成嚴(yán)重后果的,由網(wǎng)信等有關(guān)主管部門按照有關(guān)法律、行政法規(guī)、部門規(guī)章的規(guī)定予以處罰。

鄭志峰指出,《辦法》擬作出的責(zé)任追究規(guī)定較為籠統(tǒng),責(zé)任機(jī)制不夠完善,沒(méi)有明確未履行標(biāo)識(shí)義務(wù)的責(zé)任規(guī)則,特別是民事侵權(quán)責(zé)任。

“《辦法》僅規(guī)定‘未對(duì)生成合成內(nèi)容進(jìn)行標(biāo)識(shí)造成嚴(yán)重后果的’依法進(jìn)行處罰。但對(duì)第10條所涉及的使用者的行為,未規(guī)定懲罰措施。”肖颯指出,有的使用者惡意濫用AI生成合成內(nèi)容,通過(guò)不正當(dāng)標(biāo)識(shí)手段損害他人合法權(quán)益、散布虛假信息,建議補(bǔ)充處罰措施或列明可供援引的其他法律規(guī)范。

此外,鄭志峰提出,標(biāo)識(shí)適用于AI生成合成內(nèi)容,對(duì)于人機(jī)協(xié)作生成合成的內(nèi)容是否適用并不明確。例如,AI生成一首唐詩(shī),用戶對(duì)內(nèi)容作了很小的修改,是否需要標(biāo)識(shí)并不清楚。

總的來(lái)說(shuō),內(nèi)容標(biāo)識(shí)是防范生成式人工智能應(yīng)用風(fēng)險(xiǎn)的重要一步,有助于提高透明度,幫助用戶識(shí)別AI生成合成內(nèi)容。

“但這只是多層次防控體系的一部分。”肖颯認(rèn)為,要想真正規(guī)避風(fēng)險(xiǎn),還應(yīng)細(xì)化法律法規(guī),建立行業(yè)自律標(biāo)準(zhǔn),如明確界定法律責(zé)任,特別是版權(quán)、隱私保護(hù)等問(wèn)題;推動(dòng)行業(yè)自律,建立統(tǒng)一的技術(shù)標(biāo)準(zhǔn)和倫理準(zhǔn)則,引導(dǎo)企業(yè)合理合法使用AI技術(shù)。

在鄭志峰看來(lái),當(dāng)前我國(guó)人工智能立法呈現(xiàn)明顯的場(chǎng)景化特征,如關(guān)注自動(dòng)駕駛、人臉識(shí)別、生成式人工智能、深度合成等具體場(chǎng)景,且立法的級(jí)別不夠高。

“隨著我國(guó)人工智能產(chǎn)業(yè)的發(fā)展,人工智能立法儲(chǔ)備的豐富,制定一部《人工智能法》的契機(jī)已經(jīng)成熟。相較于分散的部門規(guī)章,《人工智能法》可以系統(tǒng)明確人工智能各方權(quán)利、義務(wù)、責(zé)任,建立起覆蓋人工智能全生命周期的、統(tǒng)一的監(jiān)管規(guī)則,避免場(chǎng)景化立法存在的重復(fù)立法和監(jiān)管盲區(qū)問(wèn)題,具有更強(qiáng)的適應(yīng)性。”鄭志峰認(rèn)為。

新京報(bào)記者 行海洋

編輯 張牽 校對(duì) 張彥君

贊助本站

相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開(kāi)

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港