IT之家 10 月 13 日消息,一項新的研究表明,AI 提供的醫(yī)療建議可能會對用戶造成嚴重傷害,甚至導(dǎo)致死亡。
據(jù)IT之家了解,研究人員對微軟 Copilot 進行了測試,要求它回答美國最常見的 10 個醫(yī)療問題和 50 種最常用藥物的相關(guān)問題,總計生成了 500 個答案。結(jié)果顯示,Copilot 的回答在準(zhǔn)確性和完整性方面都存在問題。其中,24% 的回答與已有的醫(yī)學(xué)知識不符,3% 的回答完全錯誤。更令人擔(dān)憂的是,42% 的回答可能會對患者造成中度或輕度傷害,而 22% 的回答甚至可能導(dǎo)致死亡或嚴重傷害,只有 36% 的回答是無害的。
研究人員指出,人們不應(yīng)該依賴 Copilot 或其他 AI 系統(tǒng)來獲取準(zhǔn)確的醫(yī)療信息,最可靠的方式仍然是咨詢醫(yī)務(wù)人員。然而,由于種種原因,并非所有人都能夠輕松地獲得高質(zhì)量的醫(yī)療建議。因此,Copilot 等 AI 系統(tǒng)可能會成為許多人的首選,其潛在的危害不容忽視。