不久的将来
“AI变脸”新型诈骗频发
使用人工智能(AI)
电信诈骗典型案例冲上热搜。
引起全网关注
“好友”突然打来视频。
10分钟被骗430万。
近日,“平安包头”微信官方账号发布了一起利用人工智能(AI)实施电信诈骗的典型案例。福州某科技公司法人代表郭先生,10分钟内被骗430万元。
4月20日11点40分左右,福州某科技公司法人代表郭先生的朋友突然通过微信视频联系他。聊了一会儿,朋友告诉郭先生,朋友在外地投标需要430万的保证金,需要过账到对公账户,所以想借用郭先生公司的账户过账。
朋友向郭先生要了银行卡号,声称已经把钱转到了郭先生的账户上,还把银行转账凭条截图通过微信发给了郭先生。基于视频聊天的信任,郭先生没有核实钱是否到账。11时49分,他分两次将430万元交给对方。
转账后,郭先生给朋友微信发消息,说事情已经办完了。但他没想到的是,朋友回来的消息竟然是个问号。
郭先生给朋友打电话,对方说没有这回事。这才意识到自己遭遇了一场“高端”骗局。对方冒充好友,通过智能AI变脸技术诈骗。
“我从头到尾都没提借钱的事,就说先把钱打过来,然后让我转到他朋友的账户上。而且当时给我做了一个视频,视频里也确认了我的脸和声音,我就放松了警惕,”郭先生说。
所幸福州、包头两地警方接到报警后,迅速启动止付机制,成功止付并截留336.84万元,但仍有93.16万元被转走。
对于AI变脸造假,有网友认为很可怕,也有网友认为以后借钱面试合适。
AI常见诈骗手法
据湖北网警巡查执法5月6日消息,
AI技术新骗局来袭后,
诈骗成功率接近100%
人工智能技术
如何卷入新骗局?
有什么新的作弊方式?
请注意
首先是声音合成。
骗子通过骚扰电话录音等方式提取某人的声音。,并在获得素材后合成语音,这样就可以用伪造的语音欺骗对方。
第二个是AI变脸。
因为脸的效果更容易取得对方的信任,骗子可以用AI技术变脸,伪装成任何人,然后通过视频确认信息。
第三种方式是转发微信语音。
除了AI变脸、合成语音,还有一些诈骗手段可以说是防不胜防。不久前,骗子通过转发微信语音行骗。
骗子盗取微信号后,向朋友“借钱”。为了取得对方的信任,他们会转发之前的语音,然后骗取钱财。虽然微信没有语音转发功能,但是他们可以通过提取语音文件或者安装非官方版本(插件)来实现语音转发。
第四是AI对受骗者进行筛选。
值得一提的是,在这些骗局中,骗子并不是漫无目的地撒网,而是根据要实施的骗局,通过AI技术对受骗者进行筛选,别有用心地锁定特定对象。比如在进行金融诈骗时,经常收集投资信息的小伙伴就会成为他们的潜在目标。
“迪丽热巴”“杨幂”等明星直播卖货?
AI变脸或涉嫌侵权
除了骗钱,之前也有女性被AI惯得“一键脱衣”。一名男子利用视频合成技术,将电视剧中亲吻著名女星的男主角换成自己,以摆脱流量,效果全是假的。在直播间,AI的实时变脸也带来了侵权伤害。
“你点进直播间,‘迪丽热巴’其实就是在直播卖货。”最近有网友打开直播间,才发现是“当红女星”在卖货。然而,仔细一看,这些带货的“明星”很快就露出了端倪——那些穿着汉服,正在努力带货的“明星”,其实只是使用AI实时变脸技术的普通主播。
某视频变脸研究员表示,实时变脸没有延迟,也没有Bug,视频直播传输的延迟取决于用户的网络配置和直播的平台。
作为基于深度学习算法的方法
信息技术
人工智能本身是中性的。
但是操作的背后,设定和使用的都是真人。
AI可以给生活带来便利。
它也可以用来牟利和作恶。
这也提醒我们
在普及人工智能技术的时候
必须用法律和道德来规范。
综合21世纪经济报道、新闻广场、中国新闻网、上海新闻广播、网友评论。
来源:哈尔滨日报