有人10分钟被骗430万,“AI换脸”骗局频发须警惕!

作者:FX110

时间:2023-06-01 08:52:25

20089

有人10分钟被骗430万,“AI换脸”骗局频发须警惕!

近日,包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件,福州市某科技公司法人代表郭先生10分钟内被骗430万元。

一通“好友”视频,男子被骗430万元

4月20日中午,郭先生的好友突然通过微信视频联系他,自己的朋友在外地竞标,需要430万保证金,且需要公对公账户过账,想要借郭先生公司的账户走账。基于对好友的信任,加上已经视频聊天核实了身份,郭先生没有核实钱款是否到账,就分两笔把430万转到了好友朋友的银行卡上。郭先生拨打好友电话,才知道被骗。骗子通过智能AI换脸和拟声技术,佯装好友对他实施了诈骗。

“从头到尾都没有和我提借钱的事情,就说会先把钱给我打过来,再让我给他朋友账户转过去,而且当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备”,郭先生说。

幸运的是,接到报警后,福州、包头两地警银迅速启动止付机制,成功止付拦截336.84万元,但仍有93.16万元被转移,目前正在全力追缴中。

有人10分钟被骗430万,“AI换脸”骗局频发须警惕!

如何轻松识别“AI假脸”?

近年来,“AI换脸”骗局不断。不法分子利用“AI换声”“AI换脸”技术,伪装成特定人物,实时与他人进行视频通话。更换后的面部表情自然,以假乱真,能够冒充他人身份联系被害人,博取被害人信任后实施诈骗。

在人工智能时代,我们眼睛见到的未必是真的。“AI换脸”技术的学术名词叫做深度伪造技术(Deepfake),也就是深度学习(Deeplearning)+伪造(fake),是机器深度学习技术和人脸假冒的结合体。

然而AI技术不是原罪,而是利用技术手段进行非法操作的人。“AI换脸”检测技术有多种手段,对于公众而言,可以依据“AI假脸”的bug进行简单识别。

首先,注意观察“AI假脸”的纹理特征。比如,伪造后的视频人物的眼睛或牙齿轮廓细节容易不一致;两只眼睛瞳孔的颜色不一样或瞳孔中心反射的细节不一样;或是很多伪造视频由于视频分辨率低于原始视频分辨率,伪造出来视频的牙齿边缘过于整齐等。

其次,注意观察“AI假脸”的生物特征。“AI假脸”有可能不符合正常人的生理特征,比如,一个健康成年人一般间隔2-10秒眨一次眼,每次眨眼用时0.1-0.4秒,而在伪造视频中,人的眨眼频率可能不符合上述规律。

再次,注意观察“AI假脸”的嘴部固有特征。比如,由于人嘴部的运动是最为频繁且快速的,因此AI软件无法真实准确地渲染其连续动作。基于此,可以作为判断视频真假的因素之一。

此外,伪造后的视频会造成一定的视频抖动,导致视频出现帧间不一致情况。

而作为普通民众,每个人都要加强自身信息安全的维护,工作、生活中不轻易向他人提供人脸、指纹等个人生物信息给他人;在使用电子设备的过程中,不过度公开或分享动图、视频等;其次是陌生链接不要点,陌生软件不要下载,陌生好友不要随便加,防止手机、电脑中病毒,个人社交账户被盗号;最后,当涉及金钱往来时,不管对方是谁,都要在第一时间通过电话等方式进行多重验证,这样的验证,往往最容易让骗子露出马脚。


评论

暂时还没评论,来留下你的印象吧

我要评论

  • 请选择综合评分:

(1000字内。图片请上传GIF,JPG,PNG,可上传9张)

发表评论

评论发表成功