深度造假可能影响了美国总统大选的结果

深度造假检测算法重新训练以提高成功率

图片来源:Dreamstime

东京大学的研究人员表示,一种利用以独特方式创建的新型合成图像来检测深度伪造图像的新方法已被证明可以显著改进用于识别深度伪造图像和视频的算法。

深度造假是将混合的原始材料结合起来产生合成结果的图像和视频。它们是一长串静止图像和视频处理技术中的最新产品,它们伪装成令人信服的现实的能力超过了有效识别它们的工具的进步。

深度造假的使用范围从琐碎和有趣到完全恶意和令人不安——包括从官方照片中删除被新政权认为不受欢迎的政治人物,或者将名人面孔叠加到通常非常露骨的性图像中——因此,更好地检测这些人物的方法越来越受欢迎,最新的技术通常是基于使用原始图像和合成图像对训练的网络。

东京大学的科学家们设计的新方法采用了一种不同的方法,使用新的合成图像——被称为“自混合图像”——来提高算法的检测率。

来自东京大学计算机视觉与媒体实验室的副教授Toshihiko Yamasaki和研究生Kaede Shiohara探索了与人工智能相关的漏洞,特别是深度造假问题。

山崎说:“有很多不同的方法来检测深度造假,也有各种训练数据集可以用来开发新的深度造假。”“问题是现有的检测方法往往在训练集的范围内表现良好,但在多个数据集上表现不佳,或者更关键的是,当与最先进的现实世界的例子相对抗时。

“我们认为提高成功检测的方法可能是重新思考训练数据的使用方式。这导致我们开发了我们所谓的自混合图像(也称为sbi)。”

深度造假检测的典型训练数据由成对的图像组成,包括未经处理的源图像和对应的伪造图像——例如,某人的脸或整个身体被其他人的替换。使用这类数据的训练将检测局限于某些类型的视觉损坏或人工制品,而忽略了其他类型。

因此,研究小组对包含合成图像的训练集进行了实验。通过这种方式,他们可以控制训练图像所包含的人工制品的种类,这反过来又可以更好地训练检测算法来发现这些人工制品。

山崎说:“从本质上讲,我们从已建立的数据集中获取了干净的人物图像源,并引入了不同的微妙人工制品,例如,调整图像的大小或重塑图像。”

“然后我们将图像与原始原始图像混合。混合这些图像的过程也取决于源图像的特征——基本上是一个掩码,这样只有经过处理的图像的某些部分才能进入混合输出。许多sbi被编译到我们修改过的数据集中,然后我们用它来训练检测器。”

研究小组发现,修改后的数据集将准确检出率提高了约5%至12%,这取决于与之进行比较的原始数据集。这些听起来可能不是很大的改进,但它可能会影响那些怀有恶意的人成功或失败,以某种方式影响他们的目标受众。

“当然,我们希望改进这个想法。目前,它在静态图像上效果最好,但视频可能有我们还无法检测到的暂时人工制品。此外,深度造假通常只是部分合成。我们也可以探索检测完全合成图像的方法,”山崎说。

“然而,我设想在不久的将来,这种研究可能会应用到社交媒体平台和其他服务提供商,这样他们就可以更好地标记可能被篡改的图像,并发出某种警告。”

这项名为“用自混合图像检测深度造假”的研究成果已发表在该杂志上IEEE Xplore

2019年,谷歌取得了数千个人工智能操纵视频的库公开访问,希望研究人员可以利用这些材料开发工具,更好地检测欺骗性内容。

伦敦大学学院的研究人员在2020年发现人工智能可以在20个方面帮助犯罪在接下来的15年。当按照关注程度排序时,人工智能合成的媒体(即深度伪造图像)被认为具有最大的潜在危害。

埃克塞特大学法学院的研究人员建议,表演者的权利应该进行改革,以确保他们的表演使用deepfake技术无法复制肖像没有他们的允许。他们的论点是,现行的知识产权法是在深度造假技术出现之前很久制定的,因此没有考虑到深度造假技术的可能性。

去年11月,E&T采访作者迈克尔·格罗索斯关于他的书不要相信任何人,他在书中指出,基于人工智能的深度造假已经从有趣的数字操作转向了更加险恶的东西。

报名参加E&T新闻电子邮件让像这样的精彩故事每天都发送到你的收件箱。

最近的文章

Baidu
map