AI技术新骗局来袭 / 诈骗成功率接近100%
近来AI越来越盛行,因为它的技术不仅能解决很多问题,甚至逐渐取代人们的部份工作,但这两天两则AI诈骗案震惊全网,不禁让网友们直呼,“AI诈骗成精了?”
AI成精?冒充熟人骗钱
5月22日,安徽发生一起AI换脸诈骗案件。这次金额达到132万,且整个诈骗过程只有9秒钟。
“迪丽热巴 杨幂”遭AI换脸直播卖货冲热搜。
事件起因是,安徽安庆何姓男子接到熟人视频电话,让他帮忙转一笔账。但9秒之后,对方却以“在开会”为由,迅速挂断电话,还称“微信和电话不能说,加一下QQ”。也就是说,短短9秒钟,何男被骗132万元。
近日,内蒙古包头市一名罪犯假借好友名义称自己急需用钱,并拨打微信视频联系这位受害者郭先生。出于对于好友的信任,再加上已经视频聊天核实了对方的身份,郭先生放松了警惕,分两笔汇款将430万打到了罪犯的银行卡上,但他万万没想到所谓的微信视频通话中的“好友”是由AI换脸技术制作而成的。
罪犯利用AI换脸技术,佯装成好友对他进行电信诈骗。
据此前报导,2022年2月,有位陈先生到浙江温州市公安局瓯海分局仙岩派出所报案称,自己被“好友”诈骗了近5万元。
经警方核实,诈骗分子利用陈先生好友“阿诚”在社交平台发布的视频,截取其面部视频画面后再利用“AI换脸”技术合成,制造陈先生与“好友”视频聊天的假象骗取其信任,从而实施诈骗。
浙江温州公安曾发布消息,2021年拱宸桥派出所接到报警,受害人小陈称他在与女网友视频聊天后被对方敲诈勒索。经警方调查,对方利用AI换脸技术,将小陈视频中的面部合成到不雅视频中,借此对其实施勒索。
2020年,上海某公司高管因对方使用AI换脸与人工生成的语音技术制作公司领导的面孔,并要该高管转账,致使该高管被诈骗150万元。
相关消息传出后,直接冲上热搜第一。中国网友大呼说,“AI诈骗成精了?”、“离大谱啊!不敢接电话了。”也有人质疑说,“AI这么好训练?这需要掌握个人的大量信息吧。”
AI新骗局成功率近100%
事实上,AI加持下的新型网络诈骗,并不止这一种操作。它小到在网络购物、兼职刷单,大到冒充客服、投资理财人员等身份,获取银行卡账号密码直接转一大笔账。
据南京警方消息,此前还发生一起被QQ视频AI诈骗3000元的案例。当事人小李表示,自己的大学同学小王通过QQ向他借3800元,称自己很着急,因为表姐住院。
小李怀疑了小王的身份,但小王很快给她传来一个4至5秒左右的动态QQ视频,不仅背景在医院,且还打了声招呼。
这让小李打消疑虑小王身份的念头,并转给他3000元,然而,随后小李发现对方已经将她删除拉黑,发来的视频则是AI伪造而成。
对此,警方提醒民众,现在AI技术新骗局来袭,诈骗成功率接近100%。
“迪丽热巴杨幂”遭电商AI换脸卖货
事实上,目前AI换脸技术不仅被运用于电信诈骗,中国大陆很多人已经用这些技术来赚钱了。比如近两年流行的AI换脸,将普通人通过AI换上明星脸,会吸引更多人观看,流量也跟着水涨船高。近日一些电商已经开始使用AI技术卖货了。
有网友称,最近在观看直播时发现“迪丽热巴”、“杨幂”竟然在卖货。可进直播间仔细一看,这些身穿中式服装,正在卖力带货的“明星”们,其实只是使用了AI实时换脸技术的普通主播。
据报导,很多电商直播间的主播都通过使用深度合成技术进行“换脸”处理。其中,一些直播间,如女装品牌SDEER的视频号直播间和八马茶叶的直播间,出现了“明星脸”,主播看起来与杨幂和迪丽热巴等知名女星十分相似。然而,这些主播不是真正的明星,而是通过深度合成技术达到了这个效果。有网友指出了其中一些破绽:“主播低头整理头发的时候,脑门上全是黑的。”
不少网友也对“换脸”表示了反感:“发现是‘换脸’直播后,就失去了购买的欲望。”
据报导,此前4月份,一名拥有百万粉丝的女网红被曝出了一起“AI换脸”事件。这名女网红表示,她的视频评论区突然涌来了很多人说看过她的“视频”,但她从未发布过这样的视频。
据一家提供“换脸软件”的网站客服称,他们提供的全套模型购买价格为3.5万元,AI实时换脸可适用于各大直播平台。
今年早些时候,一位名为“特效合成师洪亮”的视频博主在自己的视频中,将电视剧《你是我的荣耀》中男主演杨洋的脸,通过AI换脸技术换成了自己的脸。
这位视频博主以换脸男明星为噱头,实则是给自己的影视特效制作付费课程引流。
新诈骗核心涉 AI换脸、语音两技术
目前了解到,上述几起诈骗案,AI核心涉及换脸以及语音合成这两个技术。而大众所熟知的AI换脸方面,即便一张2D照片就能让口型动起来。
据报导,曾有涉案嫌疑人透露,“客户”往往是成百上千购买,牟利空间巨大。至于面向大型直播平台,视频实时换脸的全套模型购买价格在3.5万元,且不存在延迟、也不会有错误。而具备语音合成功能的工具Bark,更是曾登顶GitHub榜首,除了声色接近真人,还能加入背景噪音和高度拟真的笑声、叹息和哭泣声等。操作者只需一个软件应用程序,就可在视频通话中使用任意视频资源。
而这种核心技术由于门槛低,给了犯罪分子可乘之机。