首页 抖音推荐文章正文

AI换脸三种骗局:有人被骗上亿,有人被造谣患抑郁症

抖音推荐 2025年08月12日 15:20 1 admin

声明:本文仅在今日头条发布,请勿转载

对很多人来说,这是一个不得不接受的现实——对AI换脸的体验,可能得先从被骗,或者识别骗局开始。

先说一起令人震惊的AI多人换脸诈骗案:一家跨国公司香港分部的职员,受邀参加总部首席财务官发起的多人视频会议。他按照要求,转了2亿港币到不知名中账户,5天之后才发现被骗了。

魔幻的是,所谓的视频会议,只有受害者一个人是真人,其他参会人员,全部是AI换脸后的诈骗人员。

人类进入AI时代后,每个人离换脸骗局的距离,远比你想象中的更近。2021年以来,全国多个省份都出现了AI诈骗及不当牟利案件。

而且,在这个问题上,环球同此凉热。从全球范围来看,AI诈骗早在2019年就已经开始受到关注。当时,AI技术还处在萌发时期,便有人利用AI语音模仿软件冒充某公司大老板,忽悠了英国一家公司CEO数十万欧元。这起案子被认定是全球AI诈骗第一案。

短短几年时间,从最初的AI换声诈骗如今已经升级到AI换脸诈骗,门槛越来越低,逼真度越来越高,让人防不胜防。

综合公开案例,我们发现,AI换脸诈骗大致有三种主要类型。

第一种,通过换脸熟人骗钱。

2022年,湖北一名大学生收到同学通过QQ跟她借钱的信息。对方打过来一段五秒的视频电话,看到确实是本人,便放心转账3000元。然而,第二天得知同学的账号被盗。

这和上面提到的2亿港币诈骗案类似,骗子抓住的正是人们对“有图、有视频即有真相”的信任。

AI换脸三种骗局:有人被骗上亿,有人被造谣患抑郁症

图源:视觉中国

第二种,通过AI换脸造谣。

一个很有代表性的现象是,近一两年,不管是普通人,还是公众人物,都出现了被AI换脸并造黄谣的案例。

2021年,当红男星刘昊然因被AI换脸造黄谣直接报警。

新京报曾发表过一篇AI换脸“造黄谣”的报道,揭露了一条触目惊心的AI换脸黑产:有人专门在社交平台兜售换上明星脸的淫秽视频;有人发在朋友圈的个人照片被窃取,自己的脸被换到了淫秽照片和视频的女性脸上,然后遭遇骚扰和敲诈,陷入自证清白的困境,甚至因此患上抑郁症。

第三种,AI换脸的网络直播带货

如果说通过AI换脸骗钱、造黄谣可能是一种更容易引起警觉的恶,也属于相对的小概率,那么,还有一种AI换脸骗局,更难被察觉却更容易遇上,那就是AI换脸的网络直播带货。

去年,一名自称来自俄罗斯的美女在小红书上带货。她在视频中频繁地感谢中国,表示想嫁给中国男人,还推销各种俄罗斯的商品。但是,这名网红最终被揭露是用AI换脸技术制造出来的,她盗用的是乌克兰美女网红奥尔嘉的脸。

另一位来自瑞典的网红拉纳布莱克利的脸,也被移花接木到了中国人脸上。在视频里,她大谈中国人的勤劳善良,声称余生在中国定居。看完视频的网友也不知道成了即将被收割的韭菜,还在问她喜欢中国哪个城市。

被换脸用来带货的不只有外国人。早在2021年,被商家换脸伪造的迪丽热巴和杨幂,就出现在了电商直播间。

AI换脸三种骗局:有人被骗上亿,有人被造谣患抑郁症

图源:视觉中国

未来,AI技术到底会发展到哪一步,我们没办法预知,但历史告诉我们,技术发展的过程,往往是黄色内容和诈骗套路的进化史。这些套路是有规律可循的:窃取隐私,利用人性弱点,最终目的是你的钱。

不必恐惧技术,也相信魔高一尺,科技、善良和法律道高一丈,在这场猫鼠游戏的现阶段,谨慎或许是我们普通人最有效的工具了。

发表评论

泰日号Copyright Your WebSite.Some Rights Reserved. 网站地图 备案号:川ICP备66666666号 Z-BlogPHP强力驱动