AI|UCSD的科学家们开发了一种对抗技术 可以愚弄Deepfake鉴别系统
随着Deepfake技术的发展,判断一个视频是否被操控变得越来越困难 。幸运的是,技术人员已经开发出了复杂的神经网络来检测假脸 。然而计算机科学家上周透露,他们有办法骗过最强大的检测模型,使其认为Deepfake生成的内容是真实的 。
文章图片
加利福尼亚大学圣地亚哥分校的研究人员开发了一种技术,一种可以欺骗为检测深层Deepfake假视频而训练的算法 。计算机科学家采用两步法,将一个可检测到的Deepfake伪造的每一帧视频中插入一个 "对抗性案例"层,以创建一个几乎无法检测到的新假视频,目的是尽可能简单地操纵图像,使机器学习系统错误地识别图像 。我们过去看到的一个例子是对抗性贴纸,甚至是用于欺骗自动车辆误读交通标志的电气胶带 。然而,与交通标志的污损不同,UCSD的方法不会改变所产生的视频的视觉外观 。这方面很重要,因为目标是同时欺骗检测软件和观众 。
研究人员演示了两种类型的攻击--"白盒 "和 "黑盒" 。白盒模式下,对抗行为人知道目标检测模型的一切,而黑盒攻击是指攻击者根本不知道检测Deepfake所使用的分类架构,目前看来这种方式相当有效,甚至可以骗过当下最先进的检测系统 。
Deepfakes自几年前在互联网上出现以来,已经激起了不少争议 。起初,主要是名人对自己的肖像出现在色情视频中感到愤怒 。然而,随着技术的改进,很明显,坏人可以利用它进行宣传或有更邪恶的目的 。
不少大学率先开发出检测Deepfake的算法,美国国防部也迅速跟进 。包括Twitter、Facebook和微软在内的一些科技巨头也一直在开发在其平台上检测Deepfake的方法 。研究人员表示,对抗这种技术的最佳方法是对检测系统进行对抗性训练 。
该小组在GitHub上发布了几个工作实例:
https://adversarialdeepfakes.github.io/
对于那些对技术细节感兴趣的人,可以查看通过康奈尔的arXivLabs发表的论文:
【AI|UCSD的科学家们开发了一种对抗技术 可以愚弄Deepfake鉴别系统】https://arxiv.org/abs/2002.12749
推荐阅读
- 星链|石豪:在太空,马斯克和美国当局是如何作恶的
- 快报|“他,是能成就导师的学生”
- 区块|面向2030:影响数据存储产业的十大应用(下):新兴应用
- 年轻人|人生缺少的不是运气,而是少了这些高质量订阅号
- 生活|气笑了,这APP的年度报告是在嘲讽我吧
- bug|这款小工具让你的Win10用上“Win11亚克力半透明菜单”
- 苏宁|小门店里的暖心事,三位创业者的雪域坚守
- 历史|科普:詹姆斯·韦布空间望远镜——探索宇宙历史的“深空巨镜”
- 空间|(科技)科普:詹姆斯·韦布空间望远镜——探索宇宙历史的“深空巨镜”
- 生活|数字文旅的精彩生活