最近,OpenAI 再传离职消息,安全政策顾问及 AGI 准备团队负责人米尔・布伦达奇(Miles Brundage)宣布将离开公司,并透露他所领导的团队也将解散,成员将被重新分配到其他部门。

image

布伦达奇在社交媒体平台 X 上发布了一篇文章,详细解释了自己的决定。他表示,离开 OpenAI 的原因主要是想要拥有更多的独立性和发表研究的自由。

值得注意的是,布伦达奇并不是唯一一位高层离职的安全研究者。早在今年5月,OpenAI 就解散了其超级对齐团队,这个团队主要负责人工超级智能的风险评估。此后,该团队的两位负责人亚恩・莱克(Jan Leike)和伊利亚・苏茨克维尔(Ilya Sutsver)也相继离职。

除此,公司的首席技术官米拉・穆拉特(Mira Murati)、首席研究官鲍勃・麦格鲁(Bob McGrew)以及研究副总裁巴雷特・佐夫(Barret Zoph)等多位高层也在近期相继离开。

在过去的六年中,布伦达奇一直在 OpenAI 向管理层和董事会提供建议,帮助公司为人工智能的快速发展做好准备。他在安全研究方面的贡献不容小觑,包括引入外部红队(external red teaming)机制,这一机制让外部专家参与检测 OpenAI 产品的潜在问题。

布伦达奇提到,他与 OpenAI 在研究发布的限制上存在分歧,觉得这些限制越来越难以接受。他认为,自己在 OpenAI 内部的工作已经影响了自己的研究客观性,使他在 AI 政策的未来问题上难以保持公正。他在社交媒体上还提到,OpenAI 内部普遍存在一种观点,那就是 “发声的代价很大,只有一些人能够做到这一点”。

这一系列高管的离职,不仅让 OpenAI 的未来方向引发了更多的关注,也使得外界对其内部文化和决策机制产生了更多的疑问。

划重点:

🌟 布伦达奇宣布离开 OpenAI,AGI 准备团队也将解散。

💡 他希望能拥有更多研究发表的自由,反映出与公司在研究限制上的分歧。

🚀 最近多位高管相继离职,外界对 OpenAI 的未来发展和内部文化产生了关注。