Meta 近日发布了一项新的风险政策框架,旨在评估和降低前沿 AI 模型所带来的风险,并在必要时停止开发或限制这些系统的发布。该框架名为 “前沿 AI 框架”,详细阐述了 Meta 将如何将 AI 模型分为高风险和关键风险两类,并据此采取相应措施,以将风险降低到 “可容忍的水平”。

image

在这个框架中,关键风险被定义为能够独特地促成特定威胁场景的执行。而高风险则意味着模型可能显著提升实现威胁场景的可能性,但并不直接促成执行。威胁场景包括生物武器的扩散,其能力可与已知的生物剂相提并论,以及通过大规模长篇欺诈和诈骗造成的对个人或公司的广泛经济损害。

对于达到关键风险阈值的模型,Meta 将停止开发,并仅向少数专家开放该模型的访问权限,同时在技术上可行且商业上可行的情况下,实施安全保护以防止黑客攻击或数据外泄。对于高风险模型,Meta 则会限制访问权限,并采取减缓风险的措施,以将风险降低到中等水平,确保该模型不会显著提升威胁场景的执行能力。

Meta 表示,其风险评估过程将涉及多学科的专家和公司内部的领导,确保各方面的意见都能得到充分考虑。这一新框架仅适用于该公司的最先进模型和系统,这些模型的能力匹配或超过当前技术水平。

Meta 希望,通过分享其先进 AI 系统的开发方法,能够提升透明度,促进外界对 AI 评估和风险量化科学的讨论与研究。同时,该公司强调,针对 AI 评估的决策过程将随着技术的发展不断演进和完善,包括确保其测试环境的结果能够真实反映模型在实际运行中的表现。

划重点:

🌟 Meta 推出新风险政策框架,以评估和降低前沿 AI 模型的风险。

🔒 关键风险模型将停止开发,并限制专家访问;高风险模型将实施访问限制和减缓措施。

🧑‍🏫 风险评估过程将涉及多学科专家,力求提高透明度和科学性。