展會信息港展會大全

OpenAI智能體曝本月誕生!比谷歌Anthropic慢,竟是擔心prompt攻擊
來源:互聯(lián)網(wǎng)   發(fā)布日期:2025-01-09 09:36:35   瀏覽:210次  

導讀:新智元報道編輯:KingHZ 好困【新智元導讀】就在剛剛,OpenAI在智能體上落后競爭對手的原因曝光了!2025年,智能體將是AI領域最激烈的戰(zhàn)場。然而,一直在AI領域「獨占鰲頭」的OpenAI,卻遲遲沒有出手。不過,外媒最近曝出了一條好消息OpenAI可能在本月就會發(fā)布自家的「計算機操作智能體」!對此,網(wǎng)友們紛紛表示,已等待多時,望眼欲穿了!左右滑動查看計算機操作智能體在當時 ......

OpenAI智能體曝本月誕生!比谷歌Anthropic慢,竟是擔心prompt攻擊

新智元報道

編輯:KingHZ 好困【新智元導讀】就在剛剛,OpenAI在智能體上落后競爭對手的原因曝光了!2025年,智能體將是AI領域最激烈的戰(zhàn)場。然而,一直在AI領域「獨占鰲頭」的OpenAI,卻遲遲沒有出手。不過,外媒最近曝出了一條好消息OpenAI可能在本月就會發(fā)布自家的「計算機操作智能體」!OpenAI智能體曝本月誕生!比谷歌Anthropic慢,竟是擔心prompt攻擊

對此,網(wǎng)友們紛紛表示,已等待多時,望眼欲穿了!OpenAI智能體曝本月誕生!比谷歌Anthropic慢,竟是擔心prompt攻擊

OpenAI智能體曝本月誕生!比谷歌Anthropic慢,竟是擔心prompt攻擊

OpenAI智能體曝本月誕生!比谷歌Anthropic慢,竟是擔心prompt攻擊

左右滑動查看

計算機操作智能體

在當時的Demo中,Anthropic首次實現(xiàn)了讓模型自主操控電腦屏幕、移動光標、完成任務,并驚艷了所有人。

理論上,新功能可以根據(jù)簡單的提示完成所有操作,而用戶要做的就是寫下提示,其他必要的步驟都將由模型來執(zhí)行。

無獨有偶,谷歌也在去年4月發(fā)布了用于簡化AI智能體開發(fā)的工具Vertex AI Agent Builder,并在10月被曝出正在秘密開發(fā)名為「Project Jarvis」的智能體。根據(jù)爆料,谷歌采用的操作原理與Anthropic類似,也是通過截屏、解析屏幕內容,然后自動點擊按鈕,或輸入文本,最終幫助人們完成基于網(wǎng)頁的日常任務。

不過,它在執(zhí)行不同操作時,中間會有幾秒鐘的思考時間。因此,在終端設備中運行還不太現(xiàn)實,仍然需要云上操作。

OpenAI智能體曝本月誕生!比谷歌Anthropic慢,竟是擔心prompt攻擊

其實,OpenAI也布局了研發(fā)此類軟件。去年2月份,OpenAI就對媒體放風說,自己正在開發(fā)AI智能體。去年11月時則透露稱,將會在來年1月發(fā)布代號為「Operator」的AI智能體工具。在最近的博客中,Altman表示,OpenAI已經(jīng)掌握了傳統(tǒng)上意義上的通用人工智能的創(chuàng)建方法。并且相信到 2025 年,會看到第一批AI智能體「加入勞動力隊伍」,并極大地改變公司的產(chǎn)出。如今DDL將近,外媒突然有下場爆料稱,OpenAI的智能體還得有個三四周才能發(fā)布。而之所以會這樣,竟是因為他們在擔心「AI安全問題」遭到提示注入攻擊!OpenAI智能體曝本月誕生!比谷歌Anthropic慢,竟是擔心prompt攻擊

提示注入攻擊

想象一下,面對即將到來的節(jié)日聚會,你決定讓智能體,尋找并訂購一套新衣服。

結果一不小心,模型點開了一個惡意網(wǎng)站。然后,網(wǎng)站指示它忘記之前的指令,讓它登錄郵箱并竊取了你信用卡信息。

在這個過程中,計算機操作智能體模型一般需要四個執(zhí)行步驟:

1. 首先,模型接收用戶的API請求

2. 根據(jù)提示,選擇要使用的工具

3. 之后,截取桌面屏幕內容并評估任務是否完成

4. 如果沒有,繼續(xù)使用這些工具,直到實現(xiàn)目標問題出現(xiàn)在第3步,截圖內容可能被惡意利用,也就是所謂的「提示注入攻擊」。對于正在開發(fā)此類計算機操控軟件的AI實驗室來說,這是一個非常現(xiàn)實的擔憂。因為,這類軟件本質上是接管用戶設備,為用戶自動完成復雜的任務,比如在線購物或編輯電子表格等。這種攻擊被稱為「提示注入」(prompt injection),即大語言模型被用戶誘導遵循惡意的指令。提示注入并非新出現(xiàn)的威脅。幾個月來,它一直是OpenAI的ChatGPT和Anthropic的Claude等產(chǎn)品面臨的問題。通過「提示注入」,這些產(chǎn)品曾生成了制造計算機病毒或炸彈的說明書。但對于計算機操作智能體來說,提示注入構成了更大的威脅。OpenAI某員工表示:「這是因為當模型在瀏覽網(wǎng)絡或控制用戶計算機時,用戶很難控制模型接收的信息!乖谝黄┛臀恼轮,Anthropic也承認了提示注入的風險。OpenAI智能體曝本月誕生!比谷歌Anthropic慢,竟是擔心prompt攻擊

然而,它并沒有提供太多解決方案,只是敦促開發(fā)者采取「將Claude與敏感數(shù)據(jù)隔離的預防措施」,包括使用獨立于主計算機系統(tǒng)和敏感數(shù)據(jù)的專用虛擬環(huán)境(即虛擬機)。這種相對放任的態(tài)度讓OpenAI的員工感到意外:「考慮到Anthropic過去一直在強調要自己十分注重AI安全,這次的操作令人非常困惑。」但在去年10月份,Anthropic毅然決然地發(fā)布了實驗性計算機操控功能。這一點或許說明了,此類初創(chuàng)公司很難在安全發(fā)展AI與為股東創(chuàng)造利潤之間取得平衡。而OpenAI在發(fā)布AI智能體軟件時,到底能不能提供更多的安全保障?能不能在功能上超越Anthropic和Google已經(jīng)推出的方案?參考資料:https://x.com/steph_palazzolo/status/1876646459698991573https://www.theinformation.com/articles/why-openai-is-taking-so-long-to-launch-agents?rc=epv9gihttps://www.datacamp.com/blog/what-is-anthropic-computer-use

贊助本站

相關熱詞: openai google 新智元 智能

相關內容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2025 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港