在人工智能(AI)监管方面,英国政府表示希望采取独立的立场,计划与其主要西方同行(如欧盟和美国)采取不同的做法。英国 AI 与数字政府部长费里亚尔・克拉克(Feryal Clark)在接受 CNBC 采访时强调,英国必须 “做自己的事情”,确保在 AI 模型的安全性方面,早期就进行必要的监管。
图源备注:图片由AI生成,图片授权服务商Midjourney
克拉克提到,英国政府已经与一些 AI 公司(如 OpenAI 和 Google DeepMind)建立了良好的关系,这些公司自愿向政府开放其模型进行安全性测试。她表示:“在模型开发的初期,就要将安全性融入其中,因此我们将与行业共同努力制定相关的安全措施。”
这一观点得到了英国首相基尔・斯塔默(Keir Starmer)的支持,他指出,脱欧后,英国在监管方面拥有更多的自由,可以选择最适合自己的监管模式。斯塔默表示,虽然世界各地存在不同的监管模式,包括欧盟和美国的做法,但英国可以选择最符合自身利益的方法。
迄今为止,英国尚未正式推出针对 AI 的法律,而是依靠各个监管机构依据现有规则进行管理。这与欧盟形成鲜明对比,后者已推出了全面的 AI 法案,旨在为技术统一规则。与此同时,美国在联邦层面上缺乏任何 AI 监管,而是采用了州和地方的零散监管框架。
尽管英国政府在2022年承诺会对 “前沿” AI 模型进行监管,但目前仍未公布具体的安全立法细节,表示将在与行业进行咨询后再提出正式规则。法律事务所 Marriott Harrison 的合伙人克里斯・穆尼(Chris Mooney)认为,英国的 “观望” 态度在 AI 监管上显得不够明确,因此企业感到不满和不安。
在版权方面,英国政府也开始审查现有的版权框架,以评估 AI 开发者使用艺术家和媒体出版物作品进行模型训练时是否需要作出例外规定。AI 初创企业 Builder.ai 的首席执行官萨钦・德夫・杜格尔(Sachin Dev Duggal)对政府的行动计划表示关注,认为在没有清晰规则的情况下推进监管是 “边缘性鲁莽”。
尽管如此,一些业内人士认为,英国可以采取一种更加灵活的监管方式。Tech London Advocates 的创始人拉斯・肖(Russ Shaw)表示,英国正努力在 AI 安全和监管方面找到 “第三条道路”,即根据不同的行业(如金融和医疗)制定具体的监管规定。
划重点:
🌍 英国希望在人工智能监管方面独立于欧盟和美国,制定符合自身利益的规则。
🤝 英国政府已与主要 AI 公司建立良好关系,致力于在模型开发初期确保安全性。
📝 虽然未正式推出 AI 监管法律,政府计划与行业进行广泛咨询,以制定相关规则。