IT之家 8 月 30 日消息,OpenAI 一直致力于開(kāi)發(fā)能夠造福全人類的人工智能技術(shù),然而最近的一份報(bào)告揭示了一個(gè)令人擔(dān)憂的現(xiàn)象:近一半曾專注于超級(jí)智能 AI 長(zhǎng)期風(fēng)險(xiǎn)的研究人員已經(jīng)離開(kāi)了這家公司。
圖源 Pexels
據(jù) Fortune 報(bào)道,OpenAI 前治理研究員 Daniel Kokotajlo 表示,在過(guò)去幾個(gè)月里,OpenAI 幾乎一半的 AGI 安全團(tuán)隊(duì)成員已經(jīng)離職。這引發(fā)了外界對(duì)公司是否正在忽視 AI 安全性的擔(dān)憂。
AGI 安全研究人員主要負(fù)責(zé)確保未來(lái)開(kāi)發(fā)的 AGI 系統(tǒng)不會(huì)對(duì)人類構(gòu)成生存威脅。然而,隨著 OpenAI 越來(lái)越專注于產(chǎn)品和商業(yè)化,研究人員的離職意味著公司的安全研究團(tuán)隊(duì)正在逐漸縮減。
Kokotajlo 指出,自 2024 年以來(lái),OpenAI 的 AGI 安全團(tuán)隊(duì)已經(jīng)從約 30 人減少到 16 人左右。他認(rèn)為,這并不是一個(gè)有組織的行動(dòng),而是個(gè)人逐漸失去信心而離職。
OpenAI 發(fā)言人對(duì)此表示,公司為能夠提供最有能力、最安全的人工智能系統(tǒng)感到自豪,并相信自己具有解決風(fēng)險(xiǎn)的科學(xué)方法。
IT之家注意到,今年早些時(shí)候,OpenAI 聯(lián)合創(chuàng)始人、首席科學(xué)家 Ilya Sutskever 宣布辭去 OpenAI 職務(wù),其領(lǐng)導(dǎo)的負(fù)責(zé)安全問(wèn)題的“超級(jí)對(duì)齊”團(tuán)隊(duì)也遭到解散。