声音也可以伪造,小心「假老板」诈骗电话

还记得去年在色情行业掀起一阵风暴的Deepfakes吗,通过AI神经网络和演员的照片,反复进行机器学习之后,就能让AI自动识别和替换掉影片里某人的脸部数据。

后来B站也掀起了一阵「万物皆可徐锦江」的热潮,比如雷神和海王,乃至很多的经典电影的片段都出现了徐锦江的脸,甚至其中还包括《新白娘子传奇》里的白素贞。

▲AI换脸徐锦江.图片来自:Bilibili

这一次花式操作确实秀,也让更多人了解了什么是Deepfakes和AI换脸。

现在,「Deepfakes」已经泛指那些被人工智能改变过的媒体内容,只要是某人没有做过的事被AI做出来都可以认为是Deepfakes,而且不止是视频,音频同样也可以通过AI来伪造。

▲图片来自:axios

但现在Deepfakes正在从过去的色情范围进一步扩大到了犯罪的世界,现在有一些犯罪分子使用Deepfakes来冒充公司的高管进行诈骗,目前他们使用的是Deepfakes的音频而非视频来进行诈骗。

相关的技术其实早已经有所应用,比如网络上那些伪造的Trump讲话,这一段乔丹·皮尔「配音」的奥巴马演讲也堪称经典案例

而这种诈骗,要比「小X,明天来我办公室一趟」可要厉害不知多少倍,用被忽悠瘸的范伟老师的话说就是「哎呀,防不胜防!」

作为一家网络安全公司,赛门铁克表示已经发生了至少三起对私营企业成功的音频诈骗,都是将自己伪装成CEO的声音要求财务进行紧急汇款。

当然,犯罪分子也为此做了很多训练,用人工智能伪装声音不必多说,他们还通过电话、Youtube视频和TED演讲视频来模仿该公司CEO说话习惯,在进行数小时的演练和计划之后才会实施。

▲图片来自:fastcompany

这三起诈骗让每家公司都损失了数百万美元,但公司的名称目前并没有被披露出来,BBC最先报道了这些攻击事件。

显然,Deepfakes对企业的威胁是切实存在的,尤其是在已经有三起成功案例之后。但目前这样的运用方法仍然只是「小儿科」的简单手法,真正令人胆寒的是这样技术能用于更大的破坏。比如你想要拉低苹果公司的股价怎么办,只要一份刻意伪造的音频剪辑,并放出一些类似库克私人谈话等不利信息,苹果的股价恐怕很容易就能蒸发数十亿美元。

▲图片来自:PetaPixel

然而目前并没有非常好的方式去监测这些造假音频,因为技术的越发成熟,这些Deepfakes的音视频制作正在变得越来越容易,同时破绽也越来越少。但绝大多数企业都对此没有准备。

更糟糕的是,从行业上说,对于AI造假的媒体来说,目前来看尚没有高效的检测和抵御解决方案。

技术方面,赛门铁克表示他们正在开发检测音频造假的技术。购买第三方公司服务的话也同样不便宜,NewKnowledge是一家帮助公司抵御虚假信息的公司,但它们的服务费用可能从5万到数百万美元不等。

而最让人头疼的是,当这些AI造假的音视频被揭穿时,通常损失已经造成了。

未经允许不得转载:新闻 » 声音也可以伪造,小心「假老板」诈骗电话