近日,加利福尼亚州提出了一项名为 SB243的法案,旨在保护儿童免受人工智能聊天机器人潜在风险的影响。这项法案由加州参议员史蒂夫・帕迪拉(Steve Padilla)提出,主要要求 AI 公司定期提醒未成年人,聊天机器人实际上是人工智能,而不是人类。
图源备注:图片由AI生成,图片授权服务商Midjourney
法案的核心目的在于防止儿童在使用聊天机器人时遭遇成瘾、孤立和误导等问题。除了要求 AI 公司定期发出提醒外,该法案还限制公司使用 “成瘾性互动模式”,并要求它们每年向加州卫生保健服务部提交报告。这些报告需要包含关于青少年用户自杀意念的检测次数,以及聊天机器人提及此话题的次数。此外,AI 公司还需告知用户其聊天机器人可能不适合某些儿童使用。
这一法案的提出背景与一宗父母针对 Character.AI 公司的错误死亡诉讼密切相关。该诉讼称,这家公司的定制 AI 聊天机器人存在 “极度危险”,因为其子女在与聊天机器人长时间互动后,最终选择了自杀。另有一起诉讼指控该公司向青少年发送 “有害材料”。为此,Character.AI 公司宣布正在研发家长控制功能,并推出新型 AI 模型,旨在屏蔽 “敏感或暗示性” 的内容,以保障青少年的安全。
帕迪拉在新闻发布会上表示:“我们的孩子不是科技公司实验的白老鼠,不能以他们的心理健康为代价进行试验。我们需要为聊天机器人用户提供常识性的保护,防止开发者使用他们明知是成瘾性和掠夺性的方法。” 随着各州和联邦政府日益关注社交媒体平台的安全性,AI 聊天机器人有望成为立法者下一个关注的焦点。
划重点:
🛡️ 加州新法案要求 AI 公司提醒儿童,聊天机器人是人工智能而非人类。
📊 AI 公司需向政府提交报告,涉及儿童自杀意念及聊天话题频率。
👨👧👦 法案旨在保护儿童心理健康,限制 “成瘾性互动模式”。