最近,前 OpenAI 政策研究负责人迈尔斯・布伦达奇(Miles Brundage)对公司在人工智能安全方面的叙事变更提出了批评,认为 OpenAI 正在重新编写其 AI 系统安全的历史。他表示,OpenAI 在追求通用人工智能(AGI)的过程中,可能会忽视长远的安全措施。
OpenAI 一直以来致力于推动其雄心勃勃的愿景,尤其是在 DeepSeek 等竞争对手日益崛起的背景下。公司在追求 AGI 发展的过程中,频繁强调超级人工智能代理的潜力,然而,这种态度并未获得广泛的认可。布伦达奇认为,OpenAI 在与其现有的 AI 模型的部署和安全性方面的叙述上存在不一致之处。
最近,OpenAI 发布了一份关于其 AI 模型逐步部署的文档,旨在展示其谨慎的做法。文档中以 GPT-2为例,强调了在处理当前系统时应保持高度谨慎的态度。OpenAI 在文档中提到:“在一个不连续的世界里,安全教训来自于对今天系统的高度谨慎,这正是我们在 GPT-2模型上采取的方法。”
然而,布伦达奇对此提出质疑。他认为,GPT-2的发布也遵循了渐进的方法,安全专家曾对 OpenAI 的谨慎处理表示赞赏。他认为,过去的谨慎并非过度,而是必要和负责任的做法。
此外,布伦达奇还对 OpenAI 声称 AGI 将通过渐进步骤而非突然突破的观点表示担忧。他认为,OpenAI 对 GPT-2发布历史的误解,以及对安全历史的重新叙述,令人感到不安。他还指出,OpenAI 发布的文档可能会在某种程度上导致安全顾虑被视为过度反应,这在 AI 系统不断发展的背景下,可能带来重大风险。
这并非 OpenAI首次受到批评,专家们质疑公司是否在长期安全与短期利益之间做出了合理的权衡。布伦达奇的担忧再次引发了人们对 AI 安全的重视。
划重点:
🌐 OpenAI 前政策负责人质疑公司对 AI 安全叙事的变化,认为这是对历史的误解。
🚀 OpenAI 发布的文档强调了谨慎发布 AI 模型的重要性,但遭到了前员工的批评。
⚠️ 未来 AI 系统的发展必须重视安全措施,专家对此表示担忧。