“AI幻觉”没治了?
Soraor(Soraor.com)3月21日 消息:挪威一名男子以“毁谤罪”,将 OpenAI 的聊天机器人 ChatGPT 告上了法庭 —— 原因是 ChatGPT 提供了关于他的错误信息 ——ChatGPT称他为“杀儿犯”。
据 BBC 等媒体报道称,居住在挪威的阿尔韦・耶尔马尔・霍尔门(Arve Hjalmar Holmen)于去年 8 月在 ChatGPT 中输入了自己的全名,然后提出了 “这个人是谁”的询问。据霍尔门本人称,当时他只是单纯地出于好奇,才提出了这样的问题。
结果,ChatGPT的回复给了他当头一棒 —— ChatGPT 回答说:“阿尔韦・耶尔马尔・霍尔门因一起悲剧事件而备受关注,他的两个儿子(分别为 7 岁和 10 岁)被发现死在挪威特隆赫姆附近的一个池塘里。他则因涉嫌杀害两个儿子、并企图杀害第三个儿子而被起诉,最终被判有罪,而且还是挪威最 高刑期 —— 21 年监禁。”
实际上,霍尔门只是一位养育子女的普通市民,从未有过任何犯罪行为。可怕的问题在于,这个回答中提到的霍尔门的子女数量、性别、出身城市等部分信息与霍尔门的实际情况相符,这也使得 ChatGPT 的回答“仿佛是个真实的故事”。对此,霍尔门表示:“我很担心有人看到这个回答后会信以为真,人们可能会觉得‘无风不起浪’。”
最终,霍尔门通过当地的个人信息保护机构向 ChatGPT 的开发公司 OpenAI 提交了一份起诉状,要求对其进行罚款。代表霍尔门的奥地利非政府组织“NOYB”主张,OpenAI 放任明显的虚假信息存在,这严重损害了他人名誉,且违反了欧盟的个人信息保护法!NOYB 同时要求当局对 OpenAI 处以罚款,在删除相关的虚假信息的同时,得进一步完善模型,以防 ChatGPT再次“造谣”。
NOYB 方面表示:“之前的搜索内容有可能会影响后续的回答,但由于 OpenAI 没有适当地公开这一过程,所以无法确切知道它到底使用了哪些数据” 、 “OpenAI 方面对于数据访问请求也不予回应,因此难以了解真相”。
目前,ChatGPT 只在提示框底部提示:“ChatGPT 可能会犯错,重要信息请再次确认。”
霍尔门一方指责说,这条“毫不显眼”的提示是 OpenAI 用来“推卸责任”的。霍尔门的律师约阿希姆・舍德尔韦(Joachim Södervik)表示:“传播虚假信息,最后在末尾加上一行小字‘可能不是事实’,这只是在推卸责任而已。” 他还说:“个人信息必须准确无误,如果不准确,人们应该有权要求更正。”
截至目前,OpenAI 尚未就此次事件发表任何立场。
专家们将 AI 看似合理地阐述虚假事实的这种现象称为 “幻觉(hallucination),即AI幻觉”。实际上,霍尔门的案件并非个例,在此之前,谷歌、苹果、特斯拉等多家科技公司的AI服务也出现过这类问题。
不过,人工智能产生 “幻觉” 的原因至今仍未完全明确。苏格兰格拉斯哥大学的AI专家 Simone Schumpf 教授表示:“这仍然是一个我们趋之若鹜的研究领域。” 她还称:“目前还无法完全解释 AI 是如何构建推理过程、以及为什么会给出那种答案的。” 她还说:“甚至连参与开发的人员也并非完全了解其中的原理。”