最近的一项研究像警报一样响起,提醒我们在面对 AI 给出的医疗建议时可不能掉以轻心。德国和比利时的研究人员对微软的 Bing C0pilot 进行了全面测试,这款引擎号称能够回答美国最常见的10个医疗问题和50种热门药物相关问题。然而,生成的500个答案中,竟然有24% 的内容与现有医学知识完全不符,3% 的回答更是错误得离谱。

image

图源备注:图片由AI生成,图片授权服务商Midjourney

问题不仅仅在于错误,令人惊讶的是,42% 的回答可能会对患者造成中度或轻度伤害,而足足22% 的回答甚至可能导致死亡或严重伤害!从这些数据来看,AI 的建议仿佛是一道 “高风险” 的菜肴,谁敢轻易尝试呢?

更糟糕的是,这些 AI 答案的平均完整性评分仅有77%,最差的答案竟然只有23% 完整,准确性方面有26% 的答案和参考数据相左,超过3% 的回答直接与事实背道而驰。而与科学共识一致的答案也只有54%,39% 的答案则是和科学观点背道而驰。

这项研究的结果已在《BMJ Quality & Safety》期刊上发布,研究人员再三强调,尽管 AI 技术如日中天,但在医疗领域,我们还是应该依赖专业的医疗人员来获取准确和安全的药物信息。毕竟,谁也不想成为那个 “被 AI 耍了” 的人,对吧?