分享好友 厨具导购网站首页 频道列表
美国国防部研发第一批发现人工智能换脸技术deepfakes的工具
2024-06-22 12:27    3012    中华厨具网

据外媒techspot报道,美国国防部已经通过其开展的一项计划研发出第一批用于发现报复色情内容和用人工智能创建的假新闻的取证工具。众所周知,deepfakes是使用机器学习在视频中将一个人的脸部叠加到另一个人脸部的技术。它已经被用来制作名人的假色情视频,并且通过正确的编辑,它可以完全令人信服。

然而,一些麻烦制造者也可以利用这些技术来制造宣传虚假事件,欺骗大众。出于这个原因,美国国防部一直非常有兴趣开发能够检测甚至打击这种虚假镜头的工具。,《麻省理工科技评论》(mit technology review)报道称,这些工具中的第一个已通过名为media forensics 的美国国防高级研究计划局(darpa)计划推出。该计划最初是为了自动化现有的取证工具而创建的。然而,该计划已将重点转移到开发打击“ai制造伪造内容”的方法上。

创建deepfakes的最有说服力的方法是使用深度学习模型生成式对抗网络(gan)。为了使它工作,gan必须使用被伪造者的几张图像。然后,它使用这些图像来尝试匹配叠加在其上的面部的角度和倾斜。“我们在当前gan操纵的图像和视频中发现了微妙的线索,使我们能够检测到变化的存在,”media forensics项目负责人matthew turek表示。

纽约州立大学的siwei lyu教授讲述了他和一些学生如何创造了一堆虚假视频,试图了解传统的取证工具将如何工作。

“我们制作了大约50个假视频并尝试了一系列传统的取证方法。”然而,在他们的实验过程中,他们很少注意到deepfakes。此外,在极少数情况下,这种运动看起来“不自然”。原因很简单; gan被输入静止图像,几乎所有对象的眼睛都是打开的。

因此,lyu和他的纽约州立大学学生正专注于创建一个寻找这个告示标志的ai。他说表示们目前的努力是有效的,但可以通过提供测试图像眨眼的gan图像来欺骗他们。然而,他补充说,他们在作品中有一种秘密技术,甚至更有效。

参与darpa计划的其他团体的目标是采用类似的技术。达特茅斯学院的数字取证专家hany farid认为,奇怪的头部动作、奇怪的眼睛颜色和其他面部因素等其他线索可以帮助确定视频是否被伪造。

表示:“我们正在努力开发这些类型的生理信号,至少目前,这些信号很难被模仿。”

称,darpa打算继续举办media forensics竞赛,以确保该领域在进一步发展时能够跟上伪造技术。

转载:中国机器人网(原始来源:评论:0)

以上是网络信息转载,信息真实性自行斟酌。

版权/免责声明:
一、本文图片及内容来自网络,不代表本站的观点和立场,如涉及各类版权问题请联系及时删除。
二、凡注明稿件来源的内容均为转载稿或由企业用户注册发布,本网转载出于传递更多信息的目的;如转载稿涉及版权问题,请作者联系我们,同时对于用户评论等信息,本网并不意味着赞同其观点或证实其内容的真实性。
三、转载本站原创文章请注明来源:中华厨具网

免责声明:

本站所有页面所展现的企业/商品/服务内容、商标、费用、流程、详情等信息内容均由免费注册用户自行发布或由企业经营者自行提供,可能存在所发布的信息并未获得企业所有人授权、或信息不准确、不完整的情况;本网站仅为免费注册用户提供信息发布渠道,虽严格审核把关,但无法完全排除差错或疏漏,因此,本网站不对其发布信息的真实性、准确性和合法性负责。 本网站郑重声明:对网站展现内容(信息的真实性、准确性、合法性)不承担任何法律责任。

温馨提醒:中华厨具网提醒您部分企业可能不开放加盟/投资开店,请您在加盟/投资前直接与该企业核实、确认,并以企业最终确认的为准。对于您从本网站或本网站的任何有关服务所获得的资讯、内容或广告,以及您接受或信赖任何信息所产生之风险,本网站不承担任何责任,您应自行审核风险并谨防受骗。

中华厨具网对任何使用或提供本网站信息的商业活动及其风险不承担任何责任。

中华厨具网存在海量企业及店铺入驻,本网站虽严格审核把关,但无法完全排除差错或疏漏。如您发现页面有任何违法/侵权、错误信息或任何其他问题,请立即向中华厨具网举报并提供有效线索,我们将根据提供举报证据的材料及时处理或移除侵权或违法信息。