眼见未必为实,“面具”无处不在,AI技术迅猛发展给日常生活带来无限可能,也给诈骗分子提供了诈骗“新花样”:一键换脸、声音合成。假如好朋友找你借钱,在视频确认了人脸和声音后,你会不会转账?这时就要小心了,很有可能是AI换脸诈骗!
什么是AI诈骗?
AI诈骗是指利用人工智能(AI)技术,冒充他人的身份或声音,通过视频或语音的方式实施诈骗的行为。
套路一:声音合成。诈骗分子先通过拨打骚扰电话的方式来获取对方的声音信息,对音频素材进行AI处理之后,利用AI技术伪造对方声音实施诈骗;另外一种方式,是不法分子通过盗取受害人微信等社交账号后,使用特殊的语音插件,转发之前的语音信息,获取信任实施诈骗。
套路二:AI换脸。和声音合成相比,这种形式更具有欺骗性。不法分子利用AI技术,根据搜集来的照片和视频生成与目标对象相似的面容,然后再给受害人拨打视频电话,带上“人脸面具”,以假乱真。
典型案例:10分钟被骗430万元
今年4月份,福州市某科技公司法人代表郭先生遭遇了AI换脸诈骗,4月20日,郭先生的好友突然通过微信视频联系他,声称自己的朋友在外地竞标,需要430万保证金,且需要公对公账户过账,想要借郭先生公司的账户走账。
由于郭先生对好友十分信任,再加上当时打了视频电话,核实了对方身份,郭先生就在没有核实钱款是否到账的情况下,分两笔把430万元转到了好朋友的银行卡上。
事后,郭先生拨打了好友电话,才知道被骗,原来诈骗分子通过智能AI换脸和拟声技术,佯装好友对他实施了诈骗。随后福州、包头两地警方迅速启动止付机制,成功止付拦截了336.84万元,但仍有93.16万元被转移。
AI换脸骗局常见套路
套路一:熟悉的朋友+熟悉的声音。这是诈骗分子最常用的套路,通过微信电话和好友身份进行引诱,然后使用AI技术伪装成受害者熟悉的人物,从而获得受害者的信任并引导他们转账。这种手法让受害者很难辨别真假,因为智能AI换脸和拟声技术可以使骗子们的外貌和声音与受害者熟悉的人物非常相似。
套路二:AI换脸软件+直播带货。这类型的诈骗套路常见于各种AI换脸软件中,诈骗分子通常会通过AI换脸技术将普通人脸替换成明星、公众人物的脸,再通过社交媒体和短视频网站进行传播,利用用户的猎奇心里,诱导用户下载恶意换脸软件,窃取用户信息。或者进一步利用公众人物的影响力进行“直播带货”,诱导不明真相的消费者购买假冒伪劣产品。这些依托AI手法大量生成并在社交媒体上广泛传播的侵权内容,既侵害消费者的公平交易权,也对被冒充公民的肖像权、名誉权和隐私权构成巨大威胁。
套路三:骗开账户转移钱。不法分子通过冒充公安、司法等部门工作人员与消费者联系,通过视频通话盗取消费者面部信息,随后利用AI换脸等技术通过一些APP账户注册人脸识别验证,而后诱骗消费者提供验证码将银行卡与账户绑定,从而将消费者银行卡上资金转移到不法分子控制的账户。
如何防范AI换脸诈骗?
一是多重验证,核实身份。无论任何人要求你分享个人身份信息,如你的地址、出生日期或名字,都要小心。对突如其来的电话要保持警惕,即使是熟人或者朋友,因为来电显示的号码也有可能伪造。
如果有人自称“熟人”、“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等敏感信息。网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助。
需要提醒的是,AI拟声、AI换脸包装作伪后的通话虽能逼真地模仿原始人物的语言和行为,但仍充满破绽,例如眨眼频率过低、眼睛移动不协调、面部表情不自然、唇形不匹配、语句不连贯等。若在与亲友视频语音沟通中发现上述异常行为,应立即警觉。
二是保护信息,拒绝诱惑。做好个人信息安全第一责任人,提高自我信息保护意识,特别警惕需要录入个人信息的非正规软件,如走路赚钱、刷单兼职APP等。不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等。不点击陌生链接,不下载来路不明的软件,不要随意添加陌生好友,防止手机、电脑中病毒,微信等社交账号被盗号。
三是相互提示,共同预防。对身边的亲友多加提醒,互相交流,共同应对新型AI骗局。年轻人要及时做好家中老人的宣传防范工作,提醒、告诫老年人在接到电话、收到短信时,只要是不认识、不熟悉的人和事,均不要理睬,以免被诱被骗。注意揭示不法分子的新手段:视频电话中,眼见未必为实、耳听未必为真;勿与陌生人视频通话,个人信息切不可轻易对外提供,共同提高风险防范意识,保护个人信息安全。
(本期内容由华夏基金提供,资料来源为人民日报和国家金融监督管理总局
免责声明
本文仅为投资者教育之目的而发布,不构成任何投资建议。投资者据此操作,风险自担。协会力求本文所涉信息准确可靠,但并不对其准确性、完整性和及时性做出任何保证,对因使用本文信息引发的损失不承担责任。