AI UCSD的科学家们开发了一种对抗技术 可以愚弄Deepfake鉴别系统
随着Deepfake技术的发展,判断一个视频是否被操控变得越来越困难 。幸运的是,技术人员已经开发出了复杂的神经网络来检测假脸 。然而计算机科学家上周透露,他们有办法骗过最强大的检测模型,使其认为Deepfake生成的内容是真实的 。
文章图片
加利福尼亚大学圣地亚哥分校的研究人员开发了一种技术,一种可以欺骗为检测深层Deepfake假视频而训练的算法 。计算机科学家采用两步法,将一个可检测到的Deepfake伪造的每一帧视频中插入一个 "对抗性案例"层,以创建一个几乎无法检测到的新假视频,目的是尽可能简单地操纵图像,使机器学习系统错误地识别图像 。我们过去看到的一个例子是对抗性贴纸,甚至是用于欺骗自动车辆误读交通标志的电气胶带 。然而,与交通标志的污损不同,UCSD的方法不会改变所产生的视频的视觉外观 。这方面很重要,因为目标是同时欺骗检测软件和观众 。
研究人员演示了两种类型的攻击--"白盒 "和 "黑盒" 。白盒模式下,对抗行为人知道目标检测模型的一切,而黑盒攻击是指攻击者根本不知道检测Deepfake所使用的分类架构,目前看来这种方式相当有效,甚至可以骗过当下最先进的检测系统 。
Deepfakes自几年前在互联网上出现以来,已经激起了不少争议 。起初,主要是名人对自己的肖像出现在色情视频中感到愤怒 。然而,随着技术的改进,很明显,坏人可以利用它进行宣传或有更邪恶的目的 。
不少大学率先开发出检测Deepfake的算法,美国国防部也迅速跟进 。包括Twitter、Facebook和微软在内的一些科技巨头也一直在开发在其平台上检测Deepfake的方法 。研究人员表示,对抗这种技术的最佳方法是对检测系统进行对抗性训练 。
该小组在GitHub上发布了几个工作实例:
https://adversarialdeepfakes.github.io/
【AI|UCSD的科学家们开发了一种对抗技术 可以愚弄Deepfake鉴别系统】对于那些对技术细节感兴趣的人,可以查看通过康奈尔的arXivLabs发表的论文:
https://arxiv.org/abs/2002.12749
推荐阅读
- 交付 沉了!这艘刚交付的“新”船只跑了3次!船东将遭起诉和高额索赔
- 理论 黑洞是什么,它又是怎样形成的,一起来认识下吧
- 速度 宇宙中比光速更快的四种“速度”,你都知道几个
- 氢能冶金 碳中和正在进行时,炼铁氢还原替代碳还原的新时代已至!
- 约瑟夫·拜登 非要跟中国较量?美国疯狂印钞6万亿,结果搬起石头砸自己的脚
- 初入职场的我们 《初入职场的我们》郑茹心为什么会离开?
- 这就是街舞3 娱乐圈中的团宠,张艺兴凭借偶像特质,征服全网观众,获赞无数
- b《心动的信号4》官宣阵容,baby加盟,郭麒麟、宋祖儿惊喜现身
- 向往的生活5 李诞拥抱张艺兴,后者一脸地抗拒,但张艺兴和杨紫却可以亲密互动
- 心动的信号4 嘉宾阵容大洗牌!baby、宋祖儿加盟,张翰、杨超越退出
