据外媒techspot报道,美国国防部已经通过其开展的一项计划研发出第一批用于发现报复色情内容和用人工智能创建的假新闻的取证工具。众所周知,deepfakes是使用机器学习在视频中将一个人的脸部叠加到另一个人脸部的技术。它已经被用来制作名人的假色情视频,并且通过正确的编辑,它可以完全令人信服。
然而,一些麻烦制造者也可以利用这些技术来制造宣传虚假事件,欺骗大众。出于这个原因,美国国防部一直非常有兴趣开发能够检测甚至打击这种虚假镜头的工具。,《麻省理工科技评论》(mit technology review)报道称,这些工具中的第一个已通过名为media forensics 的美国国防高级研究计划局(darpa)计划推出。该计划最初是为了自动化现有的取证工具而创建的。然而,该计划已将重点转移到开发打击“ai制造伪造内容”的方法上。
创建deepfakes的最有说服力的方法是使用深度学习模型生成式对抗网络(gan)。为了使它工作,gan必须使用被伪造者的几张图像。然后,它使用这些图像来尝试匹配叠加在其上的面部的角度和倾斜。“我们在当前gan操纵的图像和视频中发现了微妙的线索,使我们能够检测到变化的存在,”media forensics项目负责人matthew turek表示。
纽约州立大学的siwei lyu教授讲述了他和一些学生如何创造了一堆虚假视频,试图了解传统的取证工具将如何工作。
“我们制作了大约50个假视频并尝试了一系列传统的取证方法。”然而,在他们的实验过程中,他们很少注意到deepfakes。此外,在极少数情况下,这种运动看起来“不自然”。原因很简单; gan被输入静止图像,几乎所有对象的眼睛都是打开的。
因此,lyu和他的纽约州立大学学生正专注于创建一个寻找这个告示标志的ai。他说表示们目前的努力是有效的,但可以通过提供测试图像眨眼的gan图像来欺骗他们。然而,他补充说,他们在作品中有一种秘密技术,甚至更有效。
参与darpa计划的其他团体的目标是采用类似的技术。达特茅斯学院的数字取证专家hany farid认为,奇怪的头部动作、奇怪的眼睛颜色和其他面部因素等其他线索可以帮助确定视频是否被伪造。
表示:“我们正在努力开发这些类型的生理信号,至少目前,这些信号很难被模仿。”
称,darpa打算继续举办media forensics竞赛,以确保该领域在进一步发展时能够跟上伪造技术。
转载:中国机器人网(原始来源:评论:0)
以上是网络信息转载,信息真实性自行斟酌。