AI“换脸”
•指的是使用“深伪”(Deepfake)技术实施诈骗。训练一个Deepfake模型需要大量的照片数据,因此名人和公众人物通常是此类造假行为的受害者,随着技术发展,从社交媒体上攫取别人的照片即可进行“换脸”,比如韩国的“深伪”换脸色情犯罪案,普通人也沦为受害者。
AI“克隆”声音
•通常会通过骚扰电话录音等方式来提取某个人的声音,目前只需简短的语音样本,就能用AI合成,克隆出一个人的声音。罪犯假装成“亲友”,声称遇上麻烦,要求紧急协助。对于不太熟悉AI等新技术的长者而言,此类诈骗尤为突出。伦敦大学学院一项研究佐证,无论任何语种,人们在27%情况下,都无法辨识AI生成的声音,更不用说诈骗者会利用亲属关系博取同情实施诈骗。
网络钓鱼电邮
•AI将网络钓鱼骗局提升到一个全新的层次,可生成非常真实的网络钓鱼电邮,并绕过垃圾邮件过滤系统,甚至对钓鱼电邮的内容进行个人化定制。
虚假网站
•在加密货币诈骗和其他AI诈骗中,犯罪分子会发送网络钓鱼邮件或设置线上广告,宣传高回报的投资机会或抽奖活动。这些虚假网站非常逼真,受害者很容易上当受骗,导致身份盗用或银行账户被入侵。