最近,一起令人心惊的AI声音克隆诈骗案件引发了广泛关注,凸显了这项技术可能带来的巨大风险。
知名消费者保护律师杰伊・舒斯特的父亲险些成为这种高科技诈骗的受害者。骗子利用AI技术模仿杰伊的声音,谎称他因醉酒驾车被捕,急需3万美元的"保释金"。令人震惊的是,骗子仅凭15秒的电视采访音频就能制造出以假乱真的声音克隆。尽管杰伊此前已经提醒过家人提防此类骗局,但他们仍然差点上当受骗。
这起事件不仅暴露了AI声音克隆技术的潜在危险,也引发了人们对科技滥用的担忧。杰伊呼吁加强对AI行业的监管,以保护消费者免受这种高科技诈骗的侵害。
图源备注:图片由AI生成,图片授权服务商Midjourney
更令人担忧的是,这种诈骗手法的成功率可能比我们想象的要高得多。伦敦大学的一项研究显示,人们在识别AI生成的声音时,有高达27%的错误率。换言之,四分之一的电话诈骗可能会得逞。这一发现凸显了人类在面对高度逼真的AI声音克隆时的脆弱性,也突出了开发更先进的深度伪造检测工具的紧迫性。
与此同时,IBM的安全专家展示了一种名为"音频劫持"的新型攻击手法。这种技术结合了语音识别、文本生成和声音克隆等多种AI技术,可以实时操纵电话通话,将资金转移到虚假账户。专家警告,随着技术的不断进步,未来甚至可能出现能够操控实时视频通话的攻击,这无疑会给消费者带来更大的风险。
虽然声音克隆技术也有其积极用途,如为残疾人士保存声音,但目前看来,其潜在风险似乎远大于收益。最近,配音演员阿梅利亚・泰勒就遭遇了自己的AI克隆声音被滥用的情况,在直播中被用来朗读不当内容,这引发了她的愤怒,也引起了人们对个人隐私保护的关注。
面对这些层出不穷的高科技诈骗,我们每个人都需要提高警惕。专家建议,在接到声称是亲友急需资金援助的电话时,应当保持冷静,通过其他渠道与当事人确认情况。同时,我们也应该支持相关立法和技术研发,以更好地应对AI带来的安全挑战。