展會信息港展會大全

研究:AI 醫(yī)療建議存巨大安全隱患,22% 的回答可能致死
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-10-13 20:17:07   瀏覽:1396次  

導(dǎo)讀:IT之家 10 月 13 日消息,一項新的研究表明,AI 提供的醫(yī)療建議可能會對用戶造成嚴重傷害,甚至導(dǎo)致死亡。 據(jù)IT之家了解,研究人員對微軟 Copilot 進行了測試,要求它回答美國最常見的 10 個醫(yī)療問題和 50 種最常用藥物的相關(guān)問題,總計生成了 500 個答案。...

IT之家 10 月 13 日消息,一項新的研究表明,AI 提供的醫(yī)療建議可能會對用戶造成嚴重傷害,甚至導(dǎo)致死亡。

研究:AI 醫(yī)療建議存巨大安全隱患,22% 的回答可能致死

據(jù)IT之家了解,研究人員對微軟 Copilot 進行了測試,要求它回答美國最常見的 10 個醫(yī)療問題和 50 種最常用藥物的相關(guān)問題,總計生成了 500 個答案。結(jié)果顯示,Copilot 的回答在準(zhǔn)確性和完整性方面都存在問題。其中,24% 的回答與已有的醫(yī)學(xué)知識不符,3% 的回答完全錯誤。更令人擔(dān)憂的是,42% 的回答可能會對患者造成中度或輕度傷害,而 22% 的回答甚至可能導(dǎo)致死亡或嚴重傷害,只有 36% 的回答是無害的。

研究人員指出,人們不應(yīng)該依賴 Copilot 或其他 AI 系統(tǒng)來獲取準(zhǔn)確的醫(yī)療信息,最可靠的方式仍然是咨詢醫(yī)務(wù)人員。然而,由于種種原因,并非所有人都能夠輕松地獲得高質(zhì)量的醫(yī)療建議。因此,Copilot 等 AI 系統(tǒng)可能會成為許多人的首選,其潛在的危害不容忽視。

贊助本站

相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機會 | 展會港