采访人员 | 姜菁玲人们正在更加警惕技术给我们带来的风险 。
在今年的人工智能大会期间 , 技术安全方面的讨论似乎被提到一个从所未有的的地步 , 在产业论坛还是各种企业分论坛上 , 安全议题频繁出现 , 企业展台上 , 安全相关的企业和产品方案的数量难以忽视 。
医疗、文娱、出行……即使这项技术本身还在初级阶段 , 但是它在千行百业的逐步落地 , 让它正在与我们的生活产生更加紧密的联结 。
这种联结给我们带来更多的服务 , 也带来了更多潜在的安全风险 。 过去一两年内 , 大数据杀熟、隐私泄漏、人脸深度伪造、算法歧视 , 频频出现在公共舆论当中 , 公众对技术风险开始更加敏感和激烈 。
另一方面 , 在AI重构企业生产流程的过程中 , 企业本身的数据资产能否得到保护 , 成为企业数字化转型进程中的重要考虑因素 。
当然更重要的是 , 监管层面的动作正在让安全成为企业的生死线 。 今年6月 , 《数据安全法》由十三届全国人大常委会第二十九次会议表决通过 , 对数据保护、合规、以及数字资产治理等方面立法监管 。
而在这个节点 , 重新审视人工智能技术 , 它所带来安全问题究竟有哪些?是什么造成了这种安全问题?当今人工智能的科学家和企业打算怎么去解决这些问题?以下为界面新闻采访人员在WAIC现场 , 由中国互联网投资基金、国家互联网应急中心主办的《构建AI产融新生态》论坛上 , 截取的若干专家观点 。
真实的AI威胁有哪些?
AI的应用带来了新的威胁 。 在该论坛演讲中 , 亚信安全总裁陆光明提到 , 在AI之前 , 网络安全本质上是人与人的对抗 , 一般是黑客出于盈利目的对数据化系统进行网络攻击 , 面对这些已经有了一些安全措施 。
但是 , 使用AI之后 , 发生了巨大的变化——威胁的向量大幅度地增加 。 AI在各行各业包括智能交通、自动驾驶、金融中使用的信用评分等方面带来了更多的帮助 , 但是同时有更多的威胁产生 , 因为有更多的攻击诱因的可能 。
瑞莱智慧CEO田天对界面新闻采访人员总结称 , 目前在他看来人工智能有三个方面的不安全 , 一是算法本身不可靠不安全 , 一方面易受到干扰而出错 , 其次被恶意攻击的成功率很高;二是数据安全 , 数据资产的泄漏问题以及产权问题需要保证;三是应用可控 , 由于AI的能力越来越强 , 如果出现恶意伪造情况 , 容易引起不良社会舆论的影响 , 以及算法设计上的歧视问题影响会很大 。
算法方面 , 国家互联网应急中心党委副书记卢卫在发言中提到 , 当前的AI讲究运算的结果 , 在解释性上有缺陷 , 对于当前的一些人工智能应用来说 , 在决策和结果很难保证是正确的情况下 , 信任的概率是有限的 。
卢卫举例 , 人工智能算法对抗样本干扰的能力对安全很重要 。 例如 , 在有干扰的情况下 , 一个熊猫可能被认为是长臂猿 , 一个戴眼镜的男士可能被认为是女士 , 而路边一个STOP标志 , 在停留一只小鸟或者被风吹日晒干扰后 , 可能会被自动驾驶算法识别称加速的提示 , 从而带来安全问题 。
人工智能的训练是以数据为基础的 。 “对AI系统来说 , 数据是它能够存在的根基之一 , 没有数据AI基本上就死了 , 而数据一旦被污染、做攻击 , 被泄露、被破坏 , 很有可能就会导致AI系统行为失常 。 ”明朝万达总裁王志海在演讲中表示 。
卢卫总结称 , 海量数据需求面前 , 当前容易出现的问题是数据过度采集、数据资源滥用、数据深度伪造、数据安全攻击等等问题 。
今年央视315晚会提到的人脸数据滥用的问题 , 引起了公众的持续关注 。 瑞莱智慧CEO田天告诉界面新闻采访人员 , 在人脸识别数据的存储上 , 当下很多企业是将获得的人脸识别数据以明文、原文件的形式存储在数据库当中 , 不仅面临着人为泄漏的可能 , 而且加密性低导致传输过程中被攻击的可能大大增强 。
基于这些海量的数据 , 黑客甚至可以利用AI进行操纵 。 亚信安全总裁陆光明在论坛发言中提到 , 基于AI产生的数据训练 , 黑客可以训练出来一个对他有利的回答和操作 , 也可以基于这个模型和数据进行恶意输入和干扰 。 黑客可以进行数据投毒 , 可以倒挂、恶意培训、修改业务规则 , 通过隐藏让人眼看不到的数据 , 让模型在训练中产生新的攻击类型 , 大大提高攻击的有效性 。
人工智能对网络攻击的能力为安全防范带来了新的挑战 。 明朝万达总裁王志海表示 , 原来传统的攻击方式比如DDS , 是通过病毒控制很多机器 , 但在植入了人工智能因素后 , 可以瞬间发出高密度攻击 , 短时间内非常难以防护 。
“去年感染的恶意程序主机数量达到534万台 , 检测发现有20万个针对我们国家的仿冒页面 , 同比增长1.4倍 。 ”国家互联网应急中心党委副书记卢卫在发言中提到 , 例如通过机器学习的方式 , 攻击方还可以学习用户的使用习惯 , 诱导用户打开病毒邮件 , 或者是用人工智能识别网站的验证码和密码 , 进行进一步的攻击 。
王志海以钓鱼邮件举例 , 他称正常网关都会的APT技术 , 能识别一般的钓鱼邮件和垃圾邮件 , 但当人工智能偷取了大量个人隐私数据之后 , 它可以根据每个人的特点生成不同的钓鱼邮件 , 个体防护的难度大大增加 。
同时 , 所泄漏的数据还有被用来深度伪造的可能 。 王志海提到 , 如果智能IOT设备或者是其他相关方所收集的用户声纹和语音样本泄漏 , 那么很有可能会被用来合成语音甚至合成视频 , 不仅对个人的安全 , 对整个社会的安全管理都将有很大影响 。
AI安全应当制定相关标准
明朝万达总裁王志海提到 , 人工智能安全总体来说可以分为两个范畴 , 一是人工智能自身的安全挑战 , 也就是当人工智能系统本身受到攻击时 , 应该怎么防护 。 包括这个系统的隐私数据泄漏、算法模型、数据被干扰、被攻击、被篡改等问题 。 二是利用人工智能进行安全攻防 , 利用AI技术增强安全防护能力 。
对于如何防护人工智能安全 , 王志海认为 , 在具体防护上 , 需要首先在架构设计上考虑到各方边界以及人员管理 , 其次需要用基本产品做一些被动防御 , 最后能够有主动防御、主动发现、反制进攻的能力 。
在防御方面 , 除了基础的安全架构理论和体系 , 王志海认为 , 还需要在复杂数据的分析能力、快速实时分析能力创新;其次 , 加强隐私数据计算保护能力 。 “我们提倡政府包括企业之间的数据共享 , 联邦计算非常重要 。 还有加强基础算法 , 之前的算法只考虑效率 , 现在可能还要考虑一些反向的网络安全方面的 , 作为对抗性的算法 , 参考密码算法这种思路 。 ”
亚信安全总陆光明则认为 , 从企业解决方案的搭建和相应能力的构建上 , 应该要有更多的基于AI的数据 , 训练和防御能力的建立 , 以及数据本身的安全能力 。
【卢卫|审视人工智能:逐渐落地应用后,真实的AI威胁不可忽视|WAIC观察】陆光明呼吁 , 应当制定制约AI行业的标准 , 将垂直行业中基于数据的标准、基于法律法规的安全标准和基于AI应用之后的行业标准进行结合 , 在行业中是急迫的需求 。
推荐阅读
- 人工智能|聚焦车载人工智能计算芯片研究 推进汽车产业高质量发展
- 娱乐性|新华全媒+|探秘冬奥会“黑科技”:当冰壶遇上人工智能
- 市民|大数据、人工智能带来城市新变化 科技赋能深化文明成效
- 科研机构|人工智能点燃哈尔滨高质量发展新引擎
- 可持续性|人工智能将重塑健康管理,业内专家认为可持续性是最大挑战
- 策源|上海人工智能规上产业规模到2025年达到4000亿元
- 敏捷|上海人工智能“十四五”规划发布:集聚超20个国际顶尖团队
- 人工智能|佳都科技:已参与全国69个城市的智慧城市建设
- 数智|【受尊敬企业会客厅】 陈明键:在元宇宙,打造用人工智能发现药物的“乙世界”
- 人工智能|29岁当博导