眼见不一定为实,骗子使用AI换脸,被骗走 430 万

     分类 [产品经理]
2023/6/2 13:48:55 浏览量  1724 喜欢  52
导读:随着人工智能的迅猛发展,诈骗团伙的诈骗手段也越来越科技化,竟然用上了AI换脸技术

眼见不一定为实,骗子使用AI换脸,被骗走 430 万

10 分钟时间,被骗走 430 万,警方出手追回了 336 万,但还是损失了 90 多万。

 

这是我在网上看到的一个新闻,而这个骗局的手法就是通过 AI 换脸。

 

福州一家公司的老板收到朋友发来的微信视频电话,说现在需要 430 万走一下公对公账做竞标用,然后问这个老板要了一下账号。

 

过了一会,声称钱已经转过去了,让这个老板转到对公账户即可。

 

因为是视频通话确认过,所以这个老板也没有多疑,更没有查询钱是否到账,直接分两笔把 430 万打过去了。

 

结果后来电话和这个朋友确认时,发现被骗了。

 

幸好警方和银行配合拦截了欠款,冻结追回了 336 万,但依旧有 93 万被转走了。

 

可能有读者会说了,这也能上当?这么大一笔钱难道不小心一点么?

 

理论上都是这样的,但绝大多数成功的骗局就是连被骗人自己都信了,当他们放下警惕并基于信任的时候,骗子得手了。

 

更何况,这种实时视频通话的当面确认,更是让人不得不信。

 

而这个骗局的手法,其实就是骗子利用 AI 换脸来假装被害人好友进行行骗。

 

我在网上搜了下 AI 换脸的防骗视频,从内容展示来看,AI 换脸的拟真度非常高,基本可以做到以假乱真的地步。

 

试想一下,如果一个冒充你家人或朋友的微信打来视频通话,在相貌和声音上都和真人一模一样,你会第一时间怀疑真实性么?

 

或许有人会说,这能做到么?

 

不要低估骗子的手段和耐心,他们完全可以通过各种方式弄到你家人的照片、视频、声音,甚至是和你相关的各种社会关系。

 

然后,他们就开始演戏了。

 

首先用一个别的微信号以伪装的方式加上你微信,过了一段时间后,他们把这个微信的头像和名称换成你的某个朋友或家人。等一切就绪了,再通过 AI 换脸和换声来和你视频通话。

 

接下来的剧本,全部按照他们事先的设计进行,哪怕只有 0.5% 的成功率,只要金额够大,他们的 ROI 就为正。

 

就像上面提到的这个骗局,10 分钟骗走到账 93 万,可以说比较成功了。

 

那么,这样的骗局该如何防患?

 

首先,不要轻易泄露自己的基本信息,尤其不要在一些不确定来源的产品或者网站上去登记个人信息,包括视频和声音采集。

 

其次,也不要轻易去晒自己家人和朋友的照片、视频以及相关详细信息。

 

另外,AI 换脸虽然可以做到以假乱真,但只要用手遮住脸部的一部分,还是可以看到破绽的,用手来回来换脸后的面部晃动,也能看到画面的扭曲。

 

如今,这样的 AI 服务也有很多供应商在提供,有的甚至是打着正规名义在做暗地里买卖。

 

之前在一些电商平台还能直接搜到关于 AI 换脸的内容,不过后来应该是治理过就搜不到了。

 

但是,还是可以通过其他的一些关键词搜到,挂着羊头卖狗肉的事谁也不知道。

 

被骗 430 万,劝你们小心点

 

可以肯定的是,这样的黑产骗局每天都在持续发生,而且持续有人被骗。

 

因此,还是劝你们都小心一点。不仅是自己小心,也要提醒家人小心,尤其是家里父母亲戚,如果他们收到你的视频电话,默认都是百分百相信的。

 

不要觉得这些都是新闻上的事,说不好哪天就出现在你身边或发生在你身上。

 

去年我也写过一篇文章,说的是我接到境外诈骗电话的事,骗子对我的信息掌握很多,而且会冒充其他平台的工作人员来和我确认各种事实。

 

好在我这个人比较谨慎,也从不轻易相信别人。

 

其实电信诈骗大多有一个破绽,就是电话那头的口音比较重,不是标准普通话,而且只要你多说几句,他就会情绪不稳定。

 

当然,这是初级诈骗选手。

 

如果碰上资深诈骗选手,那他们前期准备和培训会做得非常充分,甚至为了骗一个人提前预设非常长的剧情,就为了钓人上钩。

 

说到这,其实也衍生出了另一个话题,技术有罪么?

 

AI 作为一种快速发展的技术,后期的应用场景会越来越丰富,随之而来的监管和治理难度也会越来越大。

 

一些掌握技术能力的人如果不安好心,就会钻空子去做违法的事。

 

在我看来,技术本身是无罪的,但使用技术的人有三观和自主能力。如果使用技术去作恶,那背后的人就一定有罪。

 

作为普通人,我们还是多个心眼为好。

 

毕竟,现在已经不是见字如面的时代了,你也无法确认见到的人一定是真人。

 

微信扫一扫,分享到朋友圈

微信公众号

相关推荐