不久的将来

“AI变脸”新型诈骗频发

使用人工智能(AI)

电信诈骗典型案例冲上热搜。

引起全网关注

“好友”突然打来视频。

10分钟被骗430万。

近日,“平安包头”微信官方账号发布了一起利用人工智能(AI)实施电信诈骗的典型案例。福州某科技公司法人代表郭先生,10分钟内被骗430万元。

4月20日11点40分左右,福州某科技公司法人代表郭先生的朋友突然通过微信视频联系他。聊了一会儿,朋友告诉郭先生,朋友在外地投标需要430万的保证金,需要过账到对公账户,所以想借用郭先生公司的账户过账。

朋友向郭先生要了银行卡号,声称已经把钱转到了郭先生的账户上,还把银行转账凭条截图通过微信发给了郭先生。基于视频聊天的信任,郭先生没有核实钱是否到账。11时49分,他分两次将430万元交给对方。

转账后,郭先生给朋友微信发消息,说事情已经办完了。但他没想到的是,朋友回来的消息竟然是个问号。

郭先生给朋友打电话,对方说没有这回事。这才意识到自己遭遇了一场“高端”骗局。对方冒充好友,通过智能AI变脸技术诈骗。

“我从头到尾都没提借钱的事,就说先把钱打过来,然后让我转到他朋友的账户上。而且当时给我做了一个视频,视频里也确认了我的脸和声音,我就放松了警惕,”郭先生说。

所幸福州、包头两地警方接到报警后,迅速启动止付机制,成功止付并截留336.84万元,但仍有93.16万元被转走。

对于AI变脸造假,有网友认为很可怕,也有网友认为以后借钱面试合适。

AI常见诈骗手法

据湖北网警巡查执法5月6日消息,

AI技术新骗局来袭后,

诈骗成功率接近100%

人工智能技术

如何卷入新骗局?

有什么新的作弊方式?

请注意

首先是声音合成。

骗子通过骚扰电话录音等方式提取某人的声音。,并在获得素材后合成语音,这样就可以用伪造的语音欺骗对方。

第二个是AI变脸。

因为脸的效果更容易取得对方的信任,骗子可以用AI技术变脸,伪装成任何人,然后通过视频确认信息。

第三种方式是转发微信语音。

除了AI变脸、合成语音,还有一些诈骗手段可以说是防不胜防。不久前,骗子通过转发微信语音行骗。

骗子盗取微信号后,向朋友“借钱”。为了取得对方的信任,他们会转发之前的语音,然后骗取钱财。虽然微信没有语音转发功能,但是他们可以通过提取语音文件或者安装非官方版本(插件)来实现语音转发。

第四是AI对受骗者进行筛选。

值得一提的是,在这些骗局中,骗子并不是漫无目的地撒网,而是根据要实施的骗局,通过AI技术对受骗者进行筛选,别有用心地锁定特定对象。比如在进行金融诈骗时,经常收集投资信息的小伙伴就会成为他们的潜在目标。

“迪丽热巴”“杨幂”等明星直播卖货?

AI变脸或涉嫌侵权

除了骗钱,之前也有女性被AI惯得“一键脱衣”。一名男子利用视频合成技术,将电视剧中亲吻著名女星的男主角换成自己,以摆脱流量,效果全是假的。在直播间,AI的实时变脸也带来了侵权伤害。

“你点进直播间,‘迪丽热巴’其实就是在直播卖货。”最近有网友打开直播间,才发现是“当红女星”在卖货。然而,仔细一看,这些带货的“明星”很快就露出了端倪——那些穿着汉服,正在努力带货的“明星”,其实只是使用AI实时变脸技术的普通主播。

某视频变脸研究员表示,实时变脸没有延迟,也没有Bug,视频直播传输的延迟取决于用户的网络配置和直播的平台。

作为基于深度学习算法的方法

信息技术

人工智能本身是中性的。

但是操作的背后,设定和使用的都是真人。

AI可以给生活带来便利。

它也可以用来牟利和作恶。

这也提醒我们

在普及人工智能技术的时候

必须用法律和道德来规范。

综合21世纪经济报道、新闻广场、中国新闻网、上海新闻广播、网友评论。

来源:哈尔滨日报