在人工智能快速发展的今天,生成式AI虽然带来了诸多便利,但其产生的虚假信息也成为了一个不容忽视的问题。针对这一挑战,科技巨头微软近日推出了一项名为"Correction"的新工具,旨在修正AI生成内容中的虚假信息。
作为微软Azure AI内容安全API的一部分,"Correction"目前处于预览阶段。该工具能够自动标记可能存在错误的文本,如错误引述的公司季度财报摘要,并将其与可信资料进行对比,以纠正这些错误。值得注意的是,这项技术适用于所有文本生成的AI模型,包括Meta的Llama和OpenAI的GPT-4。
微软发言人表示,"Correction"通过结合小型语言模型和大型语言模型,确保生成的内容与真实文档保持一致。他们希望这个新功能能够帮助医疗等领域的开发者提高响应的准确性。
然而,专家们对此持谨慎态度。华盛顿大学博士生Os Keyes认为,试图消除生成AI的虚幻就像试图从水中去掉氢一样,这是技术运作的基本组成部分。事实上,文本生成模型之所以会产生虚假信息,是因为它们实际上并不"知道"任何事情,只是基于训练集进行猜测。一项研究发现,OpenAI的ChatGPT在回答医疗问题时错误率高达50%。
微软的解决方案是通过一对交叉参考的"编辑"元模型来识别并修正这些虚假信息。一个分类模型负责寻找可能的错误、虚构或不相关的文本片段,如果检测到这些问题,会引入第二个语言模型,尝试根据特定的"基础文档"进行修正。
尽管微软声称"Correction"可以显著增强AI生成内容的可靠性和可信度,但专家们仍有疑虑。女王玛丽大学研究员Mike Cook指出,即使"Correction"如宣传所说那样有效,也可能加剧AI的信任和可解释性问题。该服务可能会让用户产生一种虚假的安全感,误以为模型的准确性比实际更高。
值得一提的是,微软在推出"Correction"时也暗藏商业算计。虽然这项功能本身是免费的,但检测虚假信息所需的"基础文档检测"功能每月有使用限制,超出部分需要收费。
微软显然承受着证明其AI投资价值的压力。今年第二季度,该公司在AI相关的资本支出和设备上花费了近190亿美元,但迄今为止,从AI中获得的收入却不多。最近,有华尔街分析师调低了微软的股票评级,质疑其长期AI战略的可行性。
准确性和虚假信息的潜在风险已成为企业在试点AI工具时的最大担忧之一。Cook总结道,如果这是一个正常的产品生命周期,生成AI仍然应该在学术研究和开发阶段,继续改进和理解其优缺点。然而,我们却已经将其投放到多个行业中。
微软的"Correction"工具无疑是一次解决AI虚假信息问题的尝试,但它能否真正破解生成式AI的信任危机,仍有待时间的检验。在AI技术快速发展的同时,如何平衡创新与风险,将成为整个行业面临的重要课题。