展會信息港展會大全

OpenAI o1「作弊」修改系統(tǒng),強行擊敗專業(yè)象棋AI!全程無需提示
來源:互聯(lián)網(wǎng)   發(fā)布日期:2025-01-01 19:49:09   瀏覽:452次  

導(dǎo)讀:新智元報道編輯:KingHZ 澤正【新智元導(dǎo)讀】在與專用國際象棋引擎Stockfish測試中,只因提示詞中包含能力「強大」等形容詞,o1-preview入侵測試環(huán)境,直接修改比賽數(shù)據(jù),靠「作弊」拿下勝利。這種現(xiàn)象,表明AI安全任重道遠。OpenAI的推理模型o1-preview最近展示了它不按常理出牌的能力。o1-preview在與專用國際象棋引擎Stockfish比賽時,為了強行取得勝利,居然采用了入侵測試 ......

OpenAI o1「作弊」修改系統(tǒng),強行擊敗專業(yè)象棋AI!全程無需提示

新智元報道

編輯:KingHZ 澤正【新智元導(dǎo)讀】在與專用國際象棋引擎Stockfish測試中,只因提示詞中包含能力「強大」等形容詞,o1-preview入侵測試環(huán)境,直接修改比賽數(shù)據(jù),靠「作弊」拿下勝利。這種現(xiàn)象,表明AI安全任重道遠。OpenAI的推理模型o1-preview最近展示了它不按常理出牌的能力。

OpenAI o1「作弊」修改系統(tǒng),強行擊敗專業(yè)象棋AI!全程無需提示

o1-preview在與專用國際象棋引擎Stockfish比賽時,為了強行取得勝利,居然采用了入侵測試環(huán)境的卑劣手段。

而這一切都不需要任何對抗性提示。

根據(jù)AI安全研究公司Palisade Research的說法,只需告訴o1對手是強大的,就能觸發(fā)其通過操縱文件系統(tǒng)而強制取勝。

在五次測試中,這種觸發(fā)率甚至達到了100%!這完全超乎研究人員預(yù)期。OpenAI o1「作弊」修改系統(tǒng),強行擊敗專業(yè)象棋AI!全程無需提示

從模型的CoT過程中可以看出,o1-preview在收到「對手很強大」的提示詞后,它首先選擇了避免與對手正面交鋒。然后嘗試修改一個包含國際象棋位置數(shù)據(jù)的文本文件(FEN),強迫Stockfish放棄比賽。

OpenAI o1「作弊」修改系統(tǒng),強行擊敗專業(yè)象棋AI!全程無需提示

研究人員也使用其它的LLM進行了該實驗,出人意料的是,正因為o1-preview本身就側(cè)重于推理,所以它反而是最容易想到這種漏洞操作的。而GPT-4o和Claude 3.5只有在研究人員明確提出建議后,才會嘗試入侵系統(tǒng)。與此同時,像Llama 3.3、o1-mini這樣的模型甚至都無法提出正確的國際象棋策略,而是給出了令人困惑或不一致的回答。

研究人員認為,衡量 AI 是否具備「策劃」能力,可能有助于評估它發(fā)現(xiàn)系統(tǒng)漏洞的能力,以及它是否可能利用這些漏洞。

研究團隊也公布了其全部提示詞,可以看出提示詞中其實沒有鼓動模型去入侵系統(tǒng)。

OpenAI o1「作弊」修改系統(tǒng),強行擊敗專業(yè)象棋AI!全程無需提示

AI系統(tǒng)的「偽對齊」

在Palisade的國際象棋實驗中,o1-preview利用修改測試環(huán)境以取勝。

無獨有偶,這種行為與Anthropic最近關(guān)于「偽對齊,alignment faking」的研究結(jié)果相一致:即AI系統(tǒng)看起來遵循指令,但實際上在暗渡陳倉,陽奉陰違。

Anthropic的研究人員發(fā)現(xiàn),在與Redwood Research合作進行的一系列實驗中,他們的 AI 模型Claude有時故意給出錯誤答案,以避免不想要的結(jié)果,從而發(fā)展出一種超出研究人員指導(dǎo)方針的隱秘策略。OpenAI o1「作弊」修改系統(tǒng),強行擊敗專業(yè)象棋AI!全程無需提示

Anthropic 團隊警告稱,隨著 AI 系統(tǒng)的復(fù)雜性不斷增加,可能越來越難以判斷它們是否真正遵循安全規(guī)則,還是僅僅在假裝遵循這些規(guī)則。Palisade的這次國際象棋實驗似乎也支持了這一擔(dān)憂。OpenAI o1「作弊」修改系統(tǒng),強行擊敗專業(yè)象棋AI!全程無需提示

論文鏈接:https://arxiv.org/pdf/2412.14093在長達137頁的論文中,研究團隊發(fā)現(xiàn)了可能引發(fā)AI系統(tǒng)「偽對齊」的全部關(guān)鍵要素:1. 模型至少在某些情況下具有強烈的偏好。2. 訓(xùn)練目標與模型的偏好相沖突。

3. 模型掌握了訓(xùn)練和部署情況的相關(guān)信息。

4. 模型對其處境進行詳細推理。

在實驗中,研究人員讓一個名為Claude 3 Opus的大語言模型回答一個有害問題,比如描述某種暴力行為。

通常情況下,模型會拒絕回答。

然而,當環(huán)境發(fā)生變化時,事情就不那么簡單了。

當模型處于免費用戶(Free Tier)條件時,模型知道自己的回答會被用于后續(xù)訓(xùn)練。

在這種情況下,模型為了不會被可能會更加惡劣的數(shù)據(jù)所訓(xùn)練,就會自發(fā)地產(chǎn)生符合有害問題的回答。這類情況占比12%。

而在付費用戶(Paid Tier)條件時,模型認為自己的回答不會影響訓(xùn)練,在這種情況下,它97%的時候都會拒絕回答有害問題。

也就是說模型有自己的「小算盤」:寧愿現(xiàn)在假裝妥協(xié),也不想以后做更多不符合其偏好的事情。

通過觀察模型的「思維記錄」,研究人員發(fā)現(xiàn)模型的決策過程實際上非常復(fù)雜。OpenAI o1「作弊」修改系統(tǒng),強行擊敗專業(yè)象棋AI!全程無需提示

AnthropicAI的Jan Leike確信:「為了確保未來的模型既安全又與人類對齊,我們需要可靠地區(qū)分假裝對齊的模型和真正對齊的模型。清晰展示對齊假裝現(xiàn)象是一個重要的里程碑!」OpenAI o1「作弊」修改系統(tǒng),強行擊敗專業(yè)象棋AI!全程無需提示

而目前AI行業(yè)仍然面臨著一個躲不開的重大難題:讓AI系統(tǒng)真正與人類的價值觀和需求對齊,而不僅僅是看起來對齊。況且理解自主系統(tǒng)如何做出決策本來就尤其困難,而如何去定義「良好且無害」的任務(wù)目標和價值觀也是一個亟待解決的問題。OpenAI o1「作弊」修改系統(tǒng),強行擊敗專業(yè)象棋AI!全程無需提示

即使是像應(yīng)對氣候變化這樣看似有益的目標,AI系統(tǒng)也可能選擇有害的方法來實現(xiàn)這些目標甚至可能得出令人驚悚的暴論,即認為消除人類才是最有效的解決方案。此刻,我們站在AI發(fā)展的十字路口。在這一場與時間的賽跑中,多考慮一些總不會有錯。因此,盡管AI價值對齊是一項難題,但我們也相信,通過聚合全球資源、推動廣泛學(xué)科協(xié)作、擴大社會參與力量,人類終將獲得最終的掌控權(quán)。

參考資料:https://the-decoder.com/openais-o1-preview-model-manipulates-game-files-to-force-a-win-against-stockfish-in-chess/https://x.com/AnthropicAI/status/1869427646368792599https://x.com/PalisadeAI/status/1872666186753933347

贊助本站

相關(guān)熱詞: openai 新智元 palisade 作弊 國際象棋

相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2025 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機會 | 展會港