文/ 金错刀频道
10分钟,骗走430万。
无所不能的AI,再次刷新了瞒天过海的速度。
最近,“AI诈骗正在全国爆发,诈骗成功率接近100%”登顶了热搜第一,中国警方在线也紧急提醒大家反诈。
这次被AI耍的团团转的,没想到是一位科技公司的老板。
老郭的好友给他打了一通微信视频,说自己的朋友在外地投标,需要430万元保证金,且需要公对公账户过账,所以想要借用郭先生公司的账户走一下账。
在这通微信视频里,对方先要了老郭的银行卡号,声称已经打了钱,甚至还发了银行转账截图。
又是视频聊天,又是转账记录,谁都猜不出来对面是个AI假人。
结果,老郭没有核实钱是否到账,迅速把430万打过去了。
直到钱款转账后,老郭给好友微信发了一条消息,称事情已经办妥。但让他没想到的是,好友回过来的消息竟然是一个问号。
他这才意识到竟然遇上了“高端”骗局,对方通过智能AI换脸技术,佯装成好友对他实施了诈骗。
骗子对于AI技术的运用之快、运用程度之高令人咋舌——AI换脸、AI换声,拦截微信号,几乎无一不出自AI技术之手。
最恐怖的是效率之快,整个过程不过短短十分钟。
谷歌前CEO之前就发出警告,“AI被滥用迟早会威胁人类生存”,但那时不少人觉得是杞人忧天。
“彻底黑化”的AI诈骗,到底是如何一步步瞒天过海的?
AI一黑化,坐地铁也能一丝不挂这两年,AI换脸已经不是新鲜事。
AI技术一秒整容,baby的脸变成热巴,这样的视频从一开始的惊掉下巴到如今的见怪不怪。
有些直播间发现商机,干脆用AI换脸的杨幂、迪丽热巴在直播间卖货。
小到恶搞名人,自娱自乐。
比如,之前有国外网友用Midjourney生成“教皇穿羽绒服”,图片质量之高完全做到了以假乱真,被浏览了2800多万次,还引起了不小的*动。
前不久,日本的一位女议员在网上大火。
在大部分人的印象中,议员这个职位总是严肃并且保守的,根据网上的信息,这位女议员是日本内阁的“厚生劳动大臣”。
作为日本内阁中重要的职位之一,这位女议员却过于“赏心悦目”了。
外表和身份所带来的反差感,让这位女议员在推特上积累了超高的人气,只要有她的照片,随便一发都能带来几百万点击量。
大到一张AI图片,就能让股价*。
就在这周一,美国国防部五角大楼爆炸、浓烟滚滚的造假照片在网上疯传,引起了不小恐慌。
由于当下没有可以交叉比对的新闻报道,很多网友都信以为真。
结果,美股闻讯一度*,这可能是人工智能生成图片影响市场的首例。
美国许多观察家认为,这张疑为AI生成的照片经由多个帐号散布出去,迫使国防部出面澄清五角大楼并未发生爆炸。
最后,美国防部发言人说:“我们可以证实这是假消息,五角大楼并未遭到攻击。”
真是造谣一秒钟,辟谣一整天。
而当AI“以假乱真”的作图技术,遇到ChatGPT“瞬间写作”的能力,会发生什么?
结果是,更放飞自我了。
前不久,估计很多刀哥读者也看到这样一条新闻—— 22岁的加拿大小哥为了在韩国顺利出道,以防弹少年团的朴智旻为模版,整容了12次,花费了上百万。
每日邮报报道,最后不幸丧命。
在这条新闻下面,很多人痛批韩娱的畸形审美、整容就是圈钱,结果被证实是AI炮制的假新闻。
甚至你会发现,有了AI的“加持”,流量就能轻松拿捏。
甘肃平凉市公安局崆峒分局网安大队发现,多达21个网站上同步出现了一条本地“新闻”:《痛心!甘肃一火车撞上修路工人,致9人死亡。》
如此骇人听闻的标题外加大体量的集中报道,这条“新闻”的点击量迅速爆炸。
当地网警立刻介入,调查后发现,犯罪嫌疑人就是利用了AI技术进行的新闻造假。
他先是购买了大量账号,再通过ChatGPT全网抓取社会热点新闻素材,简单修改一番就能避开平台的查重审查,炮制出假新闻。
为的就是在各大平台获取流量变现。
广州一个女孩只是在小红书上,发了张自己坐地铁出门的普通照片,没想到却被人用AI“一键脱衣”,并配上虚构的文字造黄谣。
在时间、地点都对得上的情况下,搭配AI强大的算法,谣言满天飞。
当骗子拥有AI,成功率飙到100%如果说前期AI的“黑化”还停留在恶搞和造谣,那么直到被骗子盯上时:
突破想象的骗局才刚刚开始。
比如在10分钟骗走430万这个诈骗中,核心涉及了AI换脸以及语音合成这两个技术。
有关AI 换脸软件,多数是AI深度伪造(Deepfake)技术的化身,最初源于一个名为 “deepfakes” 用户。
Deepfake 最初的用法,局限性还较大,只能对已有视频进行后期“换脸”。
比如,把《射雕英雄传》里的朱茵换成杨幂,五年前就实现了。
原理就是把视频分割成一张张连续图片,将每一张图片中的脸进行替换,最后将全部替换后的图片再合成视频。
然而随着 AI 技术的逐渐发展,最让人担心的事情还是发生了:用 AI 可以实时“换脸”了。
比如,下面这个换脸速度和逼真程度,只有一个字:绝。
甚至成本也越来越低,合成一个动态视频,成本也仅在2元至10元。
有行业内人士爆料,“客户”往往是成百上千购买,牟利空间巨大。
至于面向更精准、更实时的大型直播平台,视频实时换脸的全套模型购买价格在3.5万元,甚至不存在延迟、也不会有bug。
至于像语音合成方面,技术效果也是越来越逼真。
比如,过去*扰电话只是诈骗,但现在就算诈骗不成,骗子通过*扰电话录音等来提取你的声音,获取素材后进行声音合成。
这样一来,你的声音样本就被骗子轻松提取。
前段时间,微软发布了新模型VALL·E:只需3秒,就可以复制任何人的声音,甚至连环境背景音都能模仿。
当这两项技术门槛和成本变得越来越低时,骗子就嗅到了钱的味道。
在南京,有人收到了自己大学同学的QQ留言,说目前在医院,表姐住院了真的很着急,急需3800元住院费。
这时候,一般人还不会上当。
直到对方发过来一条视频,不仅背景在医院,而且还打了声招呼,语音语调都非常逼真。
没想到,在他转账之后迅速被拉黑,最后发现视频原来是AI伪造的。
不久之前,西班牙的一家电影制作公司也遭受了AI电话的诈骗,诈骗者伪装成著名演员“卷福”。
大佬主动找上门,这让这家电影公司很兴奋。
但“AI卷福”说,“我对你们很感兴趣,但需要公司先转20万英镑(约170万人民币)的定金,之后再谈具体的合作细节。”
三天前,美国CBS电视台的电视新闻杂志节目60 Minutes,现场展示了黑客是怎样克隆声音来骗过同事,并成功窃取护照信息的。
小到在网购、兼职、刷单的小钱 ,大到冒充客服、投资理财人员等身份,获取银行卡账号密码直接转一大笔账...
当骗子拥有AI,诈骗成功率几乎到了100%。
无所不能之前,先要解决瞒天过海AI的发展速度让外界始料未及,唱衰和警告的声音也越来越多。
五天前,英国首相苏纳克针对AI安全性发出的一则警告:英国将带头限制AI可能带来的危险。
马斯克更极端,甚至把AI比作未来人类文明最大的风险之一,威胁程度远高于车祸、飞机失事、毒品泛滥等,甚至比核武器都要危险得多。
这次AI诈骗全国爆发,更让人觉得AI一旦作恶,就会让人防不胜防。
但这件事,或许并不能完全甩锅给AI本身。
首先,对待新科技,大忽悠们总是比普通人具有更灵敏的嗅觉。
比如,在比特币出现之时,普通人当成谈资和新闻,可很快就有犯罪团伙将其用于洗钱。
洗钱者在交易所购买比特币,通过多次转账和分割,使交易链变得复杂,破坏交易记录的可跟踪性——最后,比特币转换为现金。
再比如,自封为联合国科学技术组织的执行主席的向主席,成功骗过了北大、清华、复旦等一众中国名校。
对外发行30亿比特币,差不多价值近200亿元人民币。
对互联网、区块链、元宇宙、AI,骗子的捞金KPI驱使着他们不断利用技术的黑暗面。
骗子的诈骗手段无所不用其极,开发利用新技术的速度也令人瞠目结舌。
结 语:
快播创始人王欣在法庭上发表的“技术无罪论”,但出狱后的王欣修正了他的观点:“技术是无罪的,但人会犯错”。
不得不承认,AI骗局对大部分普通老百姓来说,简直就是灾难。
过去我们一直说,“*猪盘”的骗子不敢视频,冒充公检法的骗子不敢视频。
但如今,图片、声音、视频都可以造假。
在第七届世界智能大会上,中国科学院院士管晓宏认为,安全性如果得不到保证,AI 系统的应用将会受到极大的挑战。
OpenAI CEO在美国国会听证会上大声呼吁,世界应该要设立可以规范和监管AI 的独立机构。
乐观的想,AI诈骗门槛越来越低,不就意味着用AI反诈的成本也在降低?
如今,谁更了解AI,谁就决定了AI的“角色”。
不如让技术解决技术,用立法打败魔法。
图片来源于网络,侵权请联系删除
本篇作者 | 研究AI的刀哥
,Copyright © 2008-2022 秒下下载站
m.down10s.com .All Rights Reserved