我的AI生成语音是我的(诈骗者)密码:现在怎么办?

利用生成性 AI 的支付欺诈崛起

关键要点

  • 生成性 AI 技术日益被利用于支付欺诈。
  • 声音深伪造技术使得账户被盗和在线欺诈变得更容易。
  • 诈骗者通过社交工程与 AI 工具结合形成三重欺诈攻击。
  • 金融机构需聚焦于用户意图而非单一身份识别,以应对这一新型诈骗。

金融欺诈并不是什么新鲜事,利用 impersonation(冒充)来窃取账户或进行在线购物的骗局也早已屡见不鲜。然而,随着生成性 AI技术的普及与强大,这一领域的支付欺诈却正在演变出新的风险。

生成性 AI已经被黑客作为攻击武器,随之而来的风险在于声学支付方法的生物识别依赖性日益增强。的生成性 AI可能会对这些支付方式的安全性构成威胁。也许我们应该重新考虑使用那些显然将愈加可疑的身份验证策略。

目前,语音生成工具只需几秒钟的目标受害者录音样本——这些样本在社交媒体上很容易获取——就能生成出“说”出诈骗者想要的内容的语音深伪造。正因如此,语音深伪造将对高价值支付的人工审核带来显著风险,因为极易冒充权威人士,就像某银行被骗取
3500 万美元的案例一样。

风险类型 | 描述
—|—
语音深伪造 | 使用少量声音样本生成虚假语音,冒充权威人士。
视频深伪造 | 需更多示例材料和技术,但工具正在方便化。
多因素认证 | 诈骗者可通过深伪造身份绕过多重验证。

虽然现实中的视频深伪造需要更多样本材料、时间和技术来制作,但这些工具的制作速度与便利性正在提升。虽然冒充者的深伪造对于欺骗面部识别或实施账户盗用至关重要,但诈骗者可以利用合成视频或伪造的身份证明开设新账户,并导致显著的信用卡债务。总之,深伪造技术可能会给支付行业造成重大损失。

诈骗者的三重威胁:生成性 AI、社会工程学和盗取的数据。网络罪犯在结合 AI工具与社会工程学以窃取凭证或盗取信用卡数据时,支付欺诈变得更加高效。诈骗者利用类似于
的 AI文本生成器,能够创造出语法、拼写和标点完美的电子邮件,从而更容易说服受害者分享账户信息,或在电话中无意间提供语音样本。

有了账户信息和深伪造身份后,诈骗者就可以利用这些信息来篡改多因素身份验证系统。生物识别认证一向被认为是识别可信用户的金标准,但现在 AI可以假冒生物识别要素,因此支付行业专业人士应暂停任何新的语音认证项目,并制定不独靠身份的应急计划。

欧洲支付服务指令()要求强客户身份验证,必须包含三类认证中的两类:你是谁、你拥有的物品和你知道的内容。但只要时间、技术和技能配合得当,几乎任何东西都可以被破解,甚至多因素认证也不例外。

那么,金融机构(FIs)如何有效地减轻基于深伪造的欺诈呢?

首先,关注意图而非身份。许多金融机构可以通过挖掘现有数据或通过现有工具轻松开始收集数据来实现。为抵御基于深伪造的身份验证欺诈,FIs需要关注的是明确模式的偏离,而非单个会话中的个别警报。比如,受

Leave a Reply

Your email address will not be published. Required fields are marked *