识别|如何解救“困在系统里”的骑手?记者专访人工智能治理专家曾毅

新京报快讯(采访人员 张璐)2021全球数字经济大会人工智能产业治理论坛8月3日举行 , 首个《人工智能产业担当宣言》正式发布 , 倡议人工智能企业设立伦理研究员岗位或通过外部技术支持等方式 , 加强企业自律自治 。
近年来 , 人工智能被误用、被滥用的问题引发舆论关注 。 此次《宣言》由北京智源人工智能研究院和瑞莱智慧共同发起 , 提出中国科技企业在推动人工智能自律自治、稳健发展中应积极承担的责任 。 在技术能力方面 , 要最大限度确保人工智能系统安全可信 , 增强算法透明性和可解释性 , 对用户数据提供充分的安全保障 。
中国科学院自动化研究所研究员、国家新一代人工智能治理专委会委员曾毅在论坛上表示 ,中国人工智能发展的愿景应该以生态为中心 , 真正达到善治 , 实现技术的发展与人类、环境和谐共生 。 针对生物特征识别潜在风险、用户隐私保护等人工智能治理的热点话题 , 他接受了新京报采访人员专访 。
其他类型生物特征识别潜在风险也需要关注
新京报:目前人工智能企业对人工智能治理的态度如何?此前媒体报道过大数据“杀熟”、外卖员困在系统里等问题 , 如果破解算法被误用的问题?
曾毅:近几年 , 全球人工智能伦理规范以及我国新一代人工智能治理原则形成发布后 , 企业越来越意识到人工智能技术风险、社会伦理风险带来的实际问题 , 以及这些问题给企业带来的负面口碑和影响 。
但我并不认为相关企业已经最大化避免了可能存在的风险 , 诸如大数据“杀熟”、骑手困在系统当中等问题 , 企业并非提前全然不了解 , 但面临企业的生存压力和同行竞争等外部压力 , 他们做出了有违道德价值观的选择 , 这种选择倾向了短期利益 , 忽略长期对社会和企业的负面影响 , 是得不偿失的 。
所以学术界、政府、媒体应当与企业协同 , 做出真正对社会负责任的人工智能设计、研发、部署和服务 , 通过多方共治实现人工智能的稳健发展 。
另外一个需要注意的问题是 , 一些企业将参与人工智能伦理、治理作为自己公关宣传的手段 , 但真正提供人工智能产品服务时 , 对于伦理风险有时避而不谈甚至是视而不见 。
新京报:最近最高法发布司法解释 , 规范人脸识别应用 。 在AI换脸等技术盛行的今天 , 还有哪些问题值得关注?
曾毅:现在一些应用在人脸识别过程中 , 为了判断采集到的是活体 , 而不是一张照片在被识别 , 采集范围已经超过人脸 , 可能上半身相关数据都会被采集 , 但这些没有合理地告知用户 。
用户看到手机屏幕有一个圈圈住人脸 , 会有一种误解 , 认为其他部分没有被采集 。 所以有些人赤裸上半身 , 有些女性穿得少一点也不会在意 。 一方面 , 采集超过人脸的信息必须做好用户的知情同意 。 另外 , 我认为 , 采集人脸以外的上半身信息作为确定活体依据的技术手段 , 需要逐步被替代 。
此次最高法颁布的司法解释 , 限制的不仅仅是人脸识别技术 , 包括以人脸识别技术为核心的人脸生成技术 , 即对AI换脸也是适用的 , 并进行了限制 。 其实 , 我们的个人信息不仅是人脸 , 步态识别、指纹识别、声纹识别、远距离虹膜识别等生物特征识别技术 , 在技术和伦理方面的风险跟人脸识别有十分相近的共性 , 比如侵犯隐私、对于不同性别识别准确率存在差异等 。
AI的创新性企业、研究机构应该共同负起责任 , 针对可能存在的技术和伦理问题 , 提前最小化或者消除其风险 , 而不是像人脸识别一样 , 等到公众关注讨论多了 , 再去解决问题 。 这就是“自律自治”和“主动担责” 。
可持续发展的人工智能需关注公益议题 , 不能只顾短期收益
新京报:在应用人工智能过程中 , 做好隐私保护还存在哪些难点?如何破解?
曾毅:举例来说 , 对目前人工智能产业当中广泛采用的深度神经网络而言 , 直接删除用户数据会对模型准确率产生影响 , 若想消除这种影响 , 技术上还存在巨大瓶颈 。
但也有一些问题已经存在技术解决方案 。 比如人脸识别、步态识别等 , 可能存在隐私侵犯、性别偏见等问题 , 可以通过构建更合理、更公平的技术模型 , 缩小差异 , 但注意这些问题的企业还是少数 。
新京报:人工智能伦理研究是否需要跨学科的专家组成?都涉及哪些相关专业?
曾毅:在两年前 , 绝大多数技术人员是不太关注人工智能伦理和治理的 。 如今 , 基于互联网的人工智能从设计研发到产品服务周期缩短 , 没有经过任何社会学、伦理学和哲学训练的理工科学生 , 想了一个创新主意 , 开发完系统第二天就可以上线 , 它可能产生的负面影响也将随即发生 。
2018年开始 , 我们在中国科学院大学开设了《人工智能哲学与伦理》的课程 。 课堂上 , 学习人文科学的学生谈论更多的是技术会给社会带来什么问题 , 技术创新者更关注技术可能为社会带来的改变 。 当这些不同视角的辩论升级时 , 就会使我们意识到人工智能的潜在问题 。
构建负责任的人工智能 , 需要广泛学科背景的专家来参与讨论 , 涉及社会学、哲学、伦理学、法学、人类学等 , 有工程技术背景的人工智能专家特别要参与其中 。 政府和媒体也毋庸置疑要发挥监督、宣传的作用 , 实现多方共治 。
新京报:你提到人工智能发展的可持续性 , 如何理解和做到可持续?
曾毅:我们分析了计算机科学和人工智能领域发表的英文文献 , 发现800万篇人工智能和计算机科学相关的论文中 , 只有0.1%是真正跟可持续发展目标高度关联的 , 这是一个非常可悲的指标 。
目前很多人工智能应用于健康、教育 , 但是它也可能给健康和教育带来负面影响 , 所以应该同步关注产生的负面影响 , 比如用人工智能分析学生在课堂的表情 , 引发了关于隐私的讨论 。
大多数应用偏向于教育、健康 , 是因为这两个领域机遇多、能赚钱 。 如果人工智能的创新目标就是赚钱 , 那么很多可持续发展目标无法通过人工智能赋能来实现 。
我特别倡议 , 人工智能应该特别关注野生动物保护、消除饥饿、赋能文化交互、环境保护和气候行动这类议题 。 仅仅有企业的参与是不够的 , 学术界、政府在这些更长远的议题上应当发挥持续性的主导作用 。
新京报采访人员 张璐
【识别|如何解救“困在系统里”的骑手?记者专访人工智能治理专家曾毅】编辑 张磊 校对 卢茜

    推荐阅读