Deepfake是那些看起来真实,由AI录制的视频,这些视频描述了从未发生过的事件,多年来一直令人担忧,并且随着技术的发展,检测变得越来越困难。
目前,编辑过的图像和视频留下了数字指纹,可以用正确的工具检测到。例如,加州大学里弗赛德分校的研究人员开发了一种AI算法,该算法可以通过发现编辑工具留下的不起眼的伪像来识别操纵的图像和视频。
这种深度学习算法(由电气和计算机工程教授Amit Roy-Chowdhury和UCR研究人员共同开发)可以发现由插入,移除或操纵图像中的对象引起的异常。罗伊·乔杜里(Roy-Chowdhury)解释说,这个想法是为了定位图像操作。他说:“我们训练了一个神经网络,以识别未来图像中的可操纵区域。”
开发“训练有素的神经网络”
神经网络是深度学习算法的基本组成部分。与经典软件(开发人员手动向计算机发出指令)不同,神经网络通过分析和比较示例来发展其行为。
神经网络尤其擅长于发现模式和对杂乱的,非结构化的数据(例如图像和视频)进行分类。当您为神经网络提供特定类型图像的足够示例时(称为“训练”的过程),它将能够在图像中找到以前从未见过的类似特征。
罗伊·乔杜里(Roy-Chowdhury)说:“当有人操纵图像时,他们会尝试以肉眼无法察觉的方式来进行图像处理。”“但是通常像素空间的一部分会受到这些操作的影响。”
UCR研究人员在带注释的图像上训练了他们的神经网络,并使用不同的工具对其进行了操作,让其发现了受影响对象边界上可见的常见像素图案。训练后,AI模型可以突出显示包含操纵对象的图像中的区域。
赶上深渊
在当前阶段,深度学习模型适用于静止图像,但是可以对相同的技术进行调整以发现深度仿造和其他视频处理技术。Deepfake基本上是视频,其中更改了每帧以将一张脸替换为另一张脸。
Roy-Chowdhury说:“这个想法也可以用于视频。在每一帧中,都有一个被操纵的区域,而训练有素的神经网络可以突出显示被篡改的区域。”
UCR神经网络是旨在捕获伪造品和其他图像和视频篡改技术的多项工作之一。今年早些时候,萨里大学的研究人员开发了区块链和神经网络的结合,以注册真实的视频并识别被篡改的版本。奥尔巴尼大学的另一个项目使用两个神经网络通过发现不自然的现象(例如眨眼)来检测合成视频。
但是随着识别方法的改进,用于创建逼真的伪造图像和视频的技术也随之改进。Roy-Chowdhury说:“这是一款猫捉老鼠游戏。”“这是一个不平凡的问题。无论我们做什么,创造这些操纵的人都会想到其他事情。我不知道是否会出现我们能够检测到各种操纵的时间。”