文章提供:图文资通组

文章来源:https://www.bnext.com.tw/article/54255/deepfake-solution

AI换脸的伪造影片到处流窜,识别造假的军备竞赛开打

发佈日期:2019/08/06 消息来源:PingWest

2019.08.06 by 品玩 PingWest

如今网路诈骗猖獗,藉由换脸技术行使骗术的状况层出不穷。各大研究中心纷纷设法防范,但提高鑑假技术的同时,是否也同时提供造假者提升技术的依据?造假与鑑假的攻防战正如火如荼地展开。

Deepfake自问世以来,一路向着人性阴暗面奔去。

民间技术流已经对AI换脸教程玩得不亦乐乎。但每个人也更容易成为受害者:伪造绑架影片勒索诈骗,不雅影片毁坏名誉,或者恐怖影片制造混乱,都因为Deepfake的开源技术变得空前容易。

让一众名人换上美国前总统布希的面部动作图TED 图片来源:品玩

在Photoshop摧毁了大众对图片的信任后,Deepfake正在摧毁大众对影片的信任。没人想在网路上看到自己的面孔说着自己没说过的话。许多针对个人的伤害,也因为影响不够巨大而投诉无门。

美国正在组成一支Deepfake打假队伍,不仅是各大实验室、研究中心在寻找Deepfake的破绽,一股创业潮流也正在兴起。

但这是一场造假AI与鑑假AI之间「你有张良计,我有过墙梯」的竞赛。每一篇检测Deepfake的论文,彷彿都能提示造假技术修补自身漏洞,从而更上一层楼。

关上Deepfake的潘朵拉魔盒,他们能做到吗?

用打假Deepfake创业
西瓦.金塔利(Shiva Kintali)离开担任讲师4年的普林斯顿资工系,正在硅谷创业鑑别伪造影片。他的合作对像有警察、记者、保险公司等,透过机器学习寻找伪造影片的破绽,用区块链记录信息等技术来辅助鑑别。

金塔利的网站已经可以上传图像、音乐、影片,来分析检测是否有修改痕迹。他同时在开发一个手机相机应用程式,用人工智慧为图像添加时间、地点、浮水印,并将图片原始信息印在区块链上。一旦传播图像的信息与原始图片不符,就容易判断真伪。

这些产品希望帮助记者、媒体公司、政治竞选团体、执法机构(例如:FBI、NSA),保险公司(面临虚假事故照片的保险索赔问题)和大公司(例如:Facebook、Twitter、Redditt、Pornhub),在其平台上阻止虚假的影片、音乐、照片传播。

由于Deepfake降低了影片造假的门槛。面对真伪难辨的影像资料,记者不知道能否发布,保险公司不知是应该理赔还是报警诈骗,警察收集证据后,也需要专业工具去鑑定图片和影片的真伪。

目前流传的假影片大多是「浅度造假」,但因为数量多,造成了无数困扰。史丹佛的研究人员向鑑别公司了解到困扰他们的三大问题:数量太多,可用鑑别时间太短,缺乏标准化的工具。

因此,研究者们在寻找能够大规模应用的打假方法。Facebook、Twitter等社交网络上爆炸式传播的图片和影像,给闢谣留下的时间窗口越来越短。普通大众也不可能僱佣专业人士进行鑑别。

抢先商用化的图像验证平台Truepic已经上线了一款智慧相机应用。用户拍下的图像将上传至服务器,在创建时对照片和影片进行身份验证,获得唯一编码。相机应用捕获设备的感测器数据,在传输之前加密照片或影片,运行20多个图像取证测试,并在几秒钟内,将图像的加密签名印在公共区块链上,使得信息不可被篡改。

这是一种「自证清白」的方式,适用于电子商务平台和公民记者类用户。如果用户将图片发送给接收者,Truepic允许收件人验证图像的原点和元资料的完整性。任何二次传播的多媒体材料,都可以与区块链上的原始信息对比,辨别真假。

在Deepfake的威胁下,鑑定图片、影片的真实性,都成了相机应用的卖点。但这类以营利为目的的产品又引起了用户新的隐私担忧。毕竟,谁能确保Truepic不作恶呢?

演算法打演算法
位于硅谷的史丹佛实验研究院(SRI International)的AI中心则「以毒攻毒」,用伪造的影片训练演算法,让演算能够更好识别出伪造痕迹。在人们上传影片到社交网站的时候,平台需要对影片重新编码。这是一个检测虚假影片的好时机。

但随着Deepfake的漏洞日渐优化,用演算法打演算法的难度也日益加大。

打假AI原本就是训练造假AI的一部分,二者刚好在生成对抗性网路的两端。一个生成器,一个鑑别器,道高一尺,魔高一丈。

由于Deepfake的技术在于篡改数据,那么鑑别方则在寻找一切篡改数据的痕迹。一种方法是基于像素的影片检测,影片其实是成千上万帧图片连放,细緻到检测每个像素的改变痕迹,是一件颇为浩大工程。

此外,伪造的面部表情目前仍有缺陷。伪造的脸部表情往往与其他部分存在不一致,电脑演算可以检测图片或影片中的这种不一致。

加州大学柏克莱分校的研究者比较真假人物的面部差异 图片来源:品玩

举例而言,初代Deepfake影片中的人物,眨眼的方式都有点奇怪。

纽约州立大学奥尔巴尼分校电脑科学系副教授吕思伟曾撰文表示,成年人的眨眼间隔为2秒到10秒,一次眨眼需要十分之一到十分之四秒。这是正常影片人物应有的眨眼频率,但很多Deepfake影片的人物没能做到这一点。

彼时由于缺乏闭眼图像数据,算法的训练并不完美,影片人物面孔总有一种「哪里不对」的不和谐感。

然而,通过闭眼的面部图像、或使用影片序列进行训练,可以改善眨眼间隔。虚假影片的质量总会提高,而研究人员需要继续寻找检测它们漏洞的方法。

南加大的研究者威尔.阿布达-阿尔玛基德(Wael Abd-Almageed)表示,社群网路可以使用算法来大规模识别Deepfake。为了实现这一过程的自动化,研究人员首先建立了一个神经网络,「学习」人类在说话时如何移动的重要特徵。然后,研究人员使用这些参数将伪造影片的堆叠帧输入AI模型,以检测随时间的不一致性。

普渡大学的研究人员也採用了类似的方法,他们认为,随着训练模型的Deepfake影片数据量越来越大,模型也会更加精确,更容易检测出伪造的影片。

美国2020年大选在即,如何阻止Deepfake从低俗娱乐发展到操纵民意,是研究者们最迫切的动力之一。但愿一键打假的速度,能追上一键换脸的速度。

前往页首