模式|首个基于时序平移的视频迁移攻击算法,复旦大学研究入选AAAI 2022

机器之心专栏
复旦大学姜育刚团队

复旦大学开展针对视频模型中对抗样本迁移性的研究 , 以促进视频模型的安全发展 。
近年来 , 深度学习在一系列任务中(例如:图像识别、目标识别、语义分割、视频识别等)取得了巨大成功 。 因此 , 基于深度学习的智能模型正逐渐广泛地应用于安防监控、无人驾驶等行业中 。 但最近的研究表明 , 深度学习本身非常脆弱 , 容易受到来自对抗样本的攻击 。 对抗样本指的是由在干净样本上增加对抗扰动而生成可以使模型发生错误分类的样本 。 对抗样本的存在为深度学习的应用发展带来严重威胁 , 尤其是最近发现的对抗样本在不同模型间的可迁移性 , 使得针对智能模型的黑盒攻击成为可能 。 具体地 , 攻击者利用可完全访问的模型(又称白盒模型)生成对抗样本 , 来攻击可能部署于线上的只能获取模型输出结果的模型(又称黑盒模型) 。 此外 , 目前的相关研究主要集中在图像模型中 , 而对于视频模型的研究较少 。 因此 , 亟需开展针对视频模型中对抗样本迁移性的研究 , 以促进视频模型的安全发展 。

模式|首个基于时序平移的视频迁移攻击算法,复旦大学研究入选AAAI 2022
文章图片

时序平移攻击方法
与图片数据相比 , 视频数据具有额外的时序信息 , 该类信息能够描述视频中的动态变化 。 目前已有多种不同的模型结构(例如:Non-local , SlowFast , TPN)被提出 , 以捕获丰富的时序信息 。 然而多样化的模型结构可能会导致不同模型对于同一视频输入的高响应区域不同 , 也会导致在攻击过程中所生成的对抗样本针对白盒模型产生过拟合而难以迁移攻击其他模型 。 为了进一步剖析上述观点 , 来自复旦大学姜育刚团队的研究人员首先针对多个常用视频识别模型(video recognition model)的时序判别模式间的相似性展开研究 , 发现不同结构的视频识别模型往往具有不同的时序判别模式 。 基于此 , 研究人员提出了基于时序平移的高迁移性视频对抗样本生成方法 。

模式|首个基于时序平移的视频迁移攻击算法,复旦大学研究入选AAAI 2022
文章图片

  • 论文链接:https://arxiv.org/pdf/2110.09075.pdf
  • 代码链接:https://github.com/zhipeng-wei/TT
视频模型的时序判别模式分析
在图像模型中 , 常常利用 CAM(Class activation mapping)来可视化模型对于某张图片的判别区域 。 然而在视频模型的判别模式由于额外的时序维度而难以可视化 , 且难以在不同模型间进行比较 。 为此 , 研究人员定义视频帧的重要性排序作为视频模型的时序判别模式 。 如果两个模型共享相似的时序判别模式 , 那么视频帧重要性的分布会更加相似 。

推荐阅读