AI技术的广泛应用为社会公众提供了个性化、智能化的信息服务,同时也给电信网络诈骗带来了可乘之机。利用AI“换脸”“拟声”技术实施诈骗,已然成为一种新型网络诈骗。
过去说“眼见为实”,但现在,眼见也不一定是真相。一个“声音很熟的电话”、一段“貌似熟人的视频”都可能是不法分子的诈骗套路,要谨慎擦亮眼睛。
“AI诈骗”是什么?
新型“AI诈骗”是指犯罪分子利用人工智能(AI)技术,模仿、伪造他人的声音、面容、视频等信息,制作虚假图像、音频、视频,仿冒他人身份进行欺骗、敲诈、勒索等犯罪活动。
现实案例中多为通过AI技术伪装受骗者亲人、领导同事或公职人员的肖像面容与声音,并冒充这些人员身份行骗。由于肖像面容表情自然,声音逼真,受害者往往不会产生怀疑,感觉不出异样,从而受骗。
“AI诈骗”典型案例
来自福建的郭先生是一家公司的法人代表,2023年4月,他的好友突然通过微信视频联系他,称自己的朋友在外地竞标,需要430万元的保证金,想借郭先生公司的账户走账。基于对好友的信任,加上已经视频聊天“核实”了身份,郭先生在10分钟内,先后分两笔把430万元转到了对方的银行账户上。事后,郭先生拨打好友的电话才得知被骗。原来,骗子是通过AI换脸和拟声技术,佯装好友对其实施诈骗。
AI诈骗常见手法
声音合成
诈骗分子通过拨打骚扰电话等方式,录音提取诈骗对象及其重要关系人的声音特征,对素材进行合成,通过背景环境渲染并添加合成后的声音进而实施诈骗。
AI换脸
人脸效果更易取得信任,诈骗分子利用算法精准地识别视频中的人脸图像,并提取如眼睛、鼻子、嘴巴等关键面部特征,其次将这些特征与目标人脸图像进行匹配、替换、融合,生成视频或照片来“以假乱真”,通过扰乱诈骗对象的视线进而实施诈骗。
做好这四点 远离AI诈骗
提高警惕 识别假脸
多数假脸是使用睁眼照片合成,缺少眨眼是判断一个视频真假的好方法。可在脸部的前面通过挥手的方式去进行识别。除此以外还可以让对方摁鼻子、摁脸等,观察其面部变化。
多重验证 确认身份
在涉及转账交易等行为时,要提高安全意识,通过电话等多重方式确认对方是否为本人。
保护信息 避免诱惑
加强个人信息保护意识,谨防各种信息泄露,不管是在互联网上还是社交软件上,尽量避免过多暴露自己的信息,不贪图小便宜,不随意填写个人信息,以免陷入“精准诈骗”。
相互提醒 共同防范
要多多提醒、告诫身边的亲人、朋友提高安全意识和应对高科技诈骗的能力,共同预防受骗。特别是提醒老年人在接到莫名电话、短信时,要及时与家人二次确认,不要贸然转账。
(本文内容整理自中国银联、京检在线)