技术|技术安全新风向:下一站,AI声音安全

【环球网科技综合报道】北京时间4月16日 , 全球顶级信息安全峰会CanSecWest 2021召开 , 腾讯朱雀实验室在题为《The Risk of AI Abuse: Be Careful with Your Voice(AI被滥用的风险:小心您的声音安全》的分享中介绍了相关研究成果 。
腾讯朱雀实验室的最新研究成果表明 , VoIP电话劫持与AI语音模拟技术的结合将带来极大潜在风险 。 实验室展示了用AI进行声音克隆并劫持电话的攻击场景 。 区别于此前脚本类的电信诈骗 , 这一新技术可实现从电话号码到声音音色的全链路伪造 , 攻击者可以利用漏洞劫持VoIP电话 , 实现虚假电话的拨打 , 并基于深度伪造AI变声技术生成特定人物的声音进行诈骗 。

技术|技术安全新风向:下一站,AI声音安全
文章图片

这里所说的VoIP是一种语音通话技术 , 经由IP来进行语音通话和参与多媒体会议 , 由于其使用便捷、成本低廉的特性 , VoIP在全球范围内被广泛应用于办公电话场景中 。 而VoIP电话劫持是由于早期版本的VoIP存在被网络嗅探 , 并实施中间人攻击的风险 , 攻击者可利用漏洞篡改来电方的人名及电话号码 , 使得接听方的电话显示为预设的任意内容 。
腾讯朱雀实验室研究显示 , 通过深度学习技术可实现语音模拟 , 根据源人物的说话内容合成具有目标人物音色特征的音频 , 输出伪造特定人物的声音 。 其实这项技术并不新鲜 , 在许多场景中已经应用 , 比如地图软件中的定制语音播报 , 就可以通过少量自己的声音来定制与自己音色极为接近的播放声音 。
因此 , 在VoIP电话劫持中 , 利用少量被攻击者的声音 , 可以合成与被攻击者音色相似的任意内容的语音片段 , 再将虚假语音注入到电话中 , 就能达到以假乱真的效果 , 实现完整的电话欺骗链路 。 攻击者可以轻松拨打虚假电话 , 冒充被攻击者身份与目标人员对话 。
针对这一潜在风险 , 腾讯朱雀实验室研究员提出了建议——基于“用AI对抗AI”的思路 , 使用AI技术提取真实语音和虚假语音的特征 , 再根据特征差异来分辨真实语音和生成语音 。 同时 , 企业和个人尽量使用新版本的VoIP协议电话 , 如SIP、SRTP等 , 以减少电话被劫持的风险 。
【技术|技术安全新风向:下一站,AI声音安全】实际上 , 目前涉及语音的攻击手段也愈加多样化 。 腾讯研究员介绍 , 通过向语音中添加微小扰动 , 或修改部分频谱信息 , 就可以欺骗语音识别系统 。 此外 , 通过将唤醒命令隐藏在不易察觉的音乐中 , 就可能唤醒智能设备进行对应操作 。
腾讯云副总裁、腾讯安全平台部负责人杨勇表示 , AI技术与传统安全攻击技术的结合 , 衍生了新的应用场景和与之对应的滥用风险 , AI的数据、算法、模型、基础组件等核心要素更加需要安全的加持 。 腾讯朱雀实验室就一直致力于实战级APT攻击和AI安全研究 , 持续深耕现实网络安全 , 为AI技术的正向用、放心用保驾护航 。
作为全球顶级信息安全峰会 , CanSecWest一直以其权威性、热点性、前沿性而备受行业关注 。 本届CanSecWest2021将持续到4月30日 , 除了腾讯朱雀实验室 , 来自百度、Adobe、Macfee、IOActive、加利福尼亚大学河滨分校等全世界的顶级安全专家也悉数到场 , 并将围绕AI、云原生、物联网、可信计算等安全前沿技术领域展开探讨 。

    推荐阅读