划重点:
📝 几家领先的科技公司承诺在 AI 安全峰会上公布他们开发基础模型时所采取的安全措施。
📝 这些公司同意如果无法控制或减轻 AI 模型所带来的风险,则不开发或部署该模型。
📝 承诺适用于基础或 “前沿” 模型,即可以应用于广泛应用领域的 AI 模型。
Soraor(Soraor.com)5月29日 消息:在首尔举行的 AI 安全峰会上,微软、亚马逊和 IBM 等领先科技公司承诺在开发基础模型时公布他们所采取的安全措施。这些公司都同意,如果无法控制或减轻 AI 模型所带来的风险,将不会开发或部署该模型。
图源备注:图片由AI生成,图片授权服务商Midjourney
这一承诺适用于基础或 “前沿” 模型,即可以应用于广泛应用领域的 AI 模型,通常是能够处理图像、文本和其他输入的多模态系统。
签署这一承诺的公司包括 Meta、三星、Claude 开发商 Anthropic 以及埃隆・马斯克的初创企业 xAI 等。ChatGPT 制造商 OpenAI、总部位于迪拜的科技创新研究所以及韩国互联网供应商 Naver 也签署了前沿 AI 安全承诺。中国公司智谱AI 也是签署该承诺的公司之一,该承诺由英国和韩国政府共同制定。
每个同意承诺的公司都将公开概述他们的基础模型所带来的风险水平,并说明他们计划采取哪些措施以确保这些模型的安全性。签署者必须在2025年初法国举行的下一届 AI 安全峰会之前发布他们的研究结果。
英国首相里希・苏纳克表示:“这些承诺确保了世界领先的 AI 公司将就其开发安全 AI 的计划提供透明度和问责制。” 这些承诺旨在进一步完善去年首届 AI 安全峰会上签署的 Bletchley 协议,该协议对 AI 风险进行了分类和归类。
安永全球咨询数据与 AI 负责人 Beatriz Sanz Saiz 表示,科技公司的承诺是一个受欢迎的举措。她说:“在开发和实施值得信赖的 AI 时,提供透明度和问责制至关重要。虽然 AI 对于企业和个人都有巨大潜力,但只有通过有意识和道德的开发方法才能充分发挥这一潜力。”
Zoho 英国的董事总经理 Sachin Agrawal 表示:“使用 AI 的公司应优先考虑道德问题和负责任的数据实践,以建立客户信任。采用正确的 AI 程序可能意味着超越当前的隐私规定,考虑到在不损害客户数据的情况下最合乎道德的平衡 AI 利益,并确保任何实践都是完全透明的。”