中新经纬12月21日电 (薛宇飞)近日 , 清华大学社会科学学院社会学系、中国科学院学部-清华大学科学与社会协同发展研究中心主办了“伦理立场、算法设计与企业社会责任”研讨会 。 清华大学公共管理学院教授、人工智能治理研究中心主任梁正在研讨会上表示 , 算法治理是一个制度问题 , 不是技术问题 , 算法的治理应当重点关注算法使用的过程及其产生的影响 。
梁正表示 , 从技术特性方面看 , 机器学习目前还是一个“黑箱”过程 , 在透明性和可解释性上存在问题 , 某种程度上类似于化学科学产生之前的“炼金术”阶段 , “我们知道算法管用 , 但不知道它的核心原理是什么 , 需要在基础理论方面进一步深入研究 。 ”
梁正分析说 , 从国际经验看 , 欧盟是自上而下地制定规则 , 以算法透明和问责去保证算法公平 。 他称 , 这里面 , 涉及到了算法原理的可解释性、过程的可追溯性及决策结果的可被理解性 , 具体的治理路径是建立算法评估机制、审计机制以及问责机制 , 用这个方式倒推算法开发和应用的责任 。
相较而言 , 美国对算法的规制相对谨慎 , 梁正说 , “如果把算法理解为一套技术方案 , 对它进行干预的话 , 可能就不符合基本的市场竞争理念 。 美国在这方面还是很小心 , 特别是商业、企业领域 。 不过 , 在过去三年 , 美国在公共领域比较明显的变化是对人脸识别技术的禁用 , 包括纽约市出台的算法问责法 , 州层面出台的法案如《加州消费者隐私法》 , 则类似于欧盟的思路 。 ”
他介绍 , 中国目前已经出台一系列法律法规 , 包括《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》 , 建立了基础机制 , 一些规范、指引、准则在推出过程中 , 数据治理体系也在建设中 。 在基本的制度体系建立后 , 接下来应该重点研究制定可实施和操作的细则 。
“治理模式构建方面 , 算法的治理不在于算法本身 , 而在于算法使用后产生的影响 。 当然 , 也不只是看结果 , 还要看过程 , 这是一个理想状况 。 如果技术解决方案上能够做到可解释、可负责、可信任 , 就可以保障它不出问题 。 算法治理还需要多方协同参与 , 包括使用者、劳动者、研发设计者、管理者等等 。 ”他还说 。
梁正指出 , “目前国家出台的相关法律 , 把安全、个人权益等敏感问题的红线都划出来了 , 之后便是针对各专门应用领域提出更具体的要求 , 算法做到可解释、可问责 , 治理中实现分级分类、分场景 。 同时 , 过程中有监督 , 事后有补救 , 以及确定治理的优先级 , 在不同领域应用不同的治理工具 , 包括对基本底线的把控 。 ”
推荐阅读
- 人工智能|聚焦车载人工智能计算芯片研究 推进汽车产业高质量发展
- 方面|摩托罗拉 moto X30 推送 mr1 版更新:优化性能,新增大量功能
- 最新消息|宝马LG和其他公司正考虑使用量子计算机解决具体问题
- 支持|神评 | 你涨任你涨,我买算我输
- 器件|6G、量子计算、元宇宙…上海市“十四五”聚焦这些前沿领域
- 前瞻|6G、量子计算、元宇宙……上海市“十四五”聚焦这些前沿新兴领域
- 人物|马斯克:打算在火星上实行直接民主制
- 计算机|孟祥飞:用超算推动一个加速创新的中国
- Samsung|三星打算对外公开其C-Lab Inside计划的4个新项目
- 文件|日本惠普公司误删京都大学超算系统77TB重要数据