來源:MIT Technology Review
生成式 AI 模型已經(jīng)在與人類對話、生成圖像、視頻以及音樂方面表現(xiàn)得相當(dāng)出色,但它們在“為我們做事”這方面的能力卻并不突出。
AI 智能體有望改變這一現(xiàn)狀?梢詫⑺鼈円暈閾碛心_本和明確目標(biāo)的 AI 模型。通常,這些智能體分為兩種類型。
第一種稱為基于工具的智能體,可以通過自然語言(而非編程)指導(dǎo)完成數(shù)字任務(wù)。例如,Anthropic 在 10 月推出了一種智能體,這是主要 AI 模型開發(fā)商中首個此類產(chǎn)品。這種智能體能夠?qū)⒅噶睿ㄈ纭皫臀姨顚戇@個表單”)轉(zhuǎn)化為具體操作,在電腦上移動光標(biāo)打開網(wǎng)頁瀏覽器,導(dǎo)航找到相關(guān)頁面上的數(shù)據(jù),并使用這些數(shù)據(jù)填寫表單。Salesforce 也發(fā)布了類似的智能體,據(jù)報道,OpenAI 計劃在明年 1 月推出自己的版本。
另一種類型的智能體被稱為模擬智能體,它們可以被視為旨在模仿人類行為的 AI 模型。最早研究這些智能體的是社會科學(xué)研究人員。他們希望進(jìn)行一些實(shí)驗(yàn),這些實(shí)驗(yàn)如果以真實(shí)人類為對象進(jìn)行,會因?yàn)槌杀靖甙、操作不切?shí)際或涉及倫理問題而難以實(shí)現(xiàn),于是他們使用 AI 來模擬實(shí)驗(yàn)對象。這一趨勢在 2023 年,由斯坦福大學(xué)博士生 Joon Sung Park 及其團(tuán)隊(duì)發(fā)表的一篇廣受引用的論文《生成智能體:人類行為的交互模擬》(Generative Agents: Interactive Simulacra of Human Behavior)后,得到了極大推動。
近期,Park 及其團(tuán)隊(duì)在 arXiv 上發(fā)表了一篇新論文,題為《1,000 人的生成智能體模擬》(Generative Agent Simulations of 1,000 People)。在這項(xiàng)研究中,研究人員讓 1,000 名參與者與 AI 進(jìn)行兩小時的訪談。隨后,團(tuán)隊(duì)成功創(chuàng)建了能夠高度精準(zhǔn)再現(xiàn)每位參與者價值觀和偏好的模擬智能體。
這里有兩個非常重要的發(fā)展值得注意。首先,領(lǐng)先的 AI 公司顯然已經(jīng)認(rèn)識到,僅僅構(gòu)建令人驚嘆的生成式 AI 工具已不足夠,他們現(xiàn)在必須開發(fā)能夠?yàn)槿藗兺瓿蓪?shí)際任務(wù)的智能體。其次,越來越容易讓這些 AI 智能體模仿真實(shí)人類的行為、態(tài)度和個性。過去屬于兩種不同類型的智能體模擬智能體和基于工具的智能體很可能很快會融合為一種全新的形式:既能模仿個性又能代表人類行動的 AI 模型。
研究正在進(jìn)行中。一些公司,如 Tavus,正在幫助用戶創(chuàng)建自己的“數(shù)字孿生”。但該公司的 CEO Hassaan Raza 設(shè)想更進(jìn)一步,開發(fā)能夠以治療師、醫(yī)生和教師等角色形式存在的 AI 智能體。
如果此類工具變得便宜且易于構(gòu)建,將會引發(fā)許多新的倫理問題,其中兩個特別突出。第一個問題是,這些智能體可能會催生更多個人化且危害更大的深度偽造。目前的圖像生成工具已經(jīng)讓通過單張照片制作非自愿色情內(nèi)容變得十分簡單,但如果復(fù)制一個人的聲音、偏好和個性也變得輕而易舉,這一危機(jī)只會愈發(fā)嚴(yán)重。(Park 告訴我,他和他的團(tuán)隊(duì)在最新研究項(xiàng)目中花費(fèi)了一年多時間思考類似的倫理問題,與斯坦福的倫理委員會進(jìn)行了許多討論,并制定了參與者如何撤回其數(shù)據(jù)和貢獻(xiàn)的相關(guān)政策。)
第二個問題是一個根本性的問題:我們是否有權(quán)知道自己是在與 AI 智能體交談還是與人類交談?如果你與 AI 完成了一次訪談,并提交了你的語音樣本以創(chuàng)建一個聽起來像你、回應(yīng)方式也像你的智能體,那么你的朋友或同事是否有權(quán)知道他們是在與它交談而不是與你交談?反過來,當(dāng)你撥打手機(jī)服務(wù)提供商或醫(yī)生辦公室的電話時,一個熱情的客戶服務(wù)代表接聽了電話,你是否有權(quán)知道自己是在與 AI 對話?
這個未來看似遙遠(yuǎn),但實(shí)際上并不遙遠(yuǎn)。當(dāng)我們真正身處這一境地時,或許會有更加緊迫和相關(guān)的倫理問題需要解決。在此之前,你可以閱讀我關(guān)于 AI 智能體的更多文章,同時思考一下:一個 AI 訪談?wù)吣茉趦尚r內(nèi)多么深入地了解你?
原文鏈接:
https://www.technologyreview.com/2024/11/26/1107309/we-need-to-start-wrestling-with-the-ethics-of-ai-agents/