风险|守住产品底线,防范人工智能作恶

◎实习采访人员 代小佩
“未来10—20年 , AI技术将渗透至与人类密切相关的领域 , 比如医疗、司法、生产、金融科技等风险敏感型领域 , AI技术如果犯错 , 就会造成较大系统风险 。 ”2020年12月29日 , 在未来科学大奖周举办的“青年对话”活动中 , 清华大学计算机系长聘副教授、中国科协全国委员会委员崔鹏说 。
活动中 , 腾讯科学技术协会秘书长张谦表示 , 面对AI技术所引起的风险问题 , 首先应该关注的是守住AI产品底线 , 即避免技术作恶 。
在这方面 , 美团首席科学家夏华夏认为 , 法律法规方面需要做大量工作 , 包括制定AI行业的标准、规范 , 以及从国家层面完善、出台相关法律法规 , 从而对AI技术发展进行把控 。
谈及AI标准化的实践 , 中国人民大学法学院副教授、未来法治研究院社会责任和治理中心主任郭锐提到两个原则——人的根本利益原则和责任原则 , “这两个原则的宗旨是让AI的决策和行动尽可能通过人的干预来避免对人的伤害” 。
“徒法不足以自行 。 ”郭锐坦言 , 法律本身也存在局限 , 规避AI技术潜在风险 , 需管理者对AI技术有透彻的了解 , 这样才能对其进行有效管制 , “法律是建立包容性社会的重要工具 , 法律界要和企业、技术等方面专家合作 , 这样通过法律来对AI技术进行管理约束的目标才能达成 。 ”
星界资本管理合伙人方远认为 , 各大核心数据平台处于AI风险管理的重要位置 , “在互联网和大数据时代 , 大平台是数据的采集者也是守护者 。 务必要对数据使用权做出清晰界定 , 这对整个社会的AI发展有重要意义” 。
“AI技术的风险治理需要科技工作者、企业管理者、政策制定者、相关法律专家以及投资人多方努力 。 ”中科院计算所研究员山世光说 。
除了守住底线 , 与会者还提到 , 要厘清边界 , 引导技术向善 。
崔鹏指出 , 犯错并非AI特有的风险 , 人也会犯错 。 “但人犯错大多数可控、可预测 。 而目前AI技术犯错的话是不可预测的 , 或者犯错后人们会发现其犯错机制是无法从技术层面解释的 。 这涉及到AI在决策和行为上的边界问题 。 ”
厘清边界具体包括AI需要明白它会什么、不会什么 , 以及人需要明白AI什么事能做、什么事不能做等问题 。 崔鹏认为 , 如不厘清边界 , AI还会犯更多低级错误 , 带来更大风险 。
郭锐认为 , 目前AI遇到的伦理问题 , 实际上是因为它远未达到人类智能的程度 , 却已被赋予为人类做决策的责任 , “还有人把AI技术当作借口 , 用科学的名义做不符合伦理的决策 , 这样做是不对的 。 需要人决策的地方应该由人决策” 。
2020年新冠肺炎疫情期间 , 英国用一套算法得出学生成绩 , 结果近40%的学生成绩低于教师的预估分数 , 导致很多学生与名校失之交臂 。 山世光说 , 有些人工智能模型或数据模型没有考虑到社会公平、优势累计恶果 , 导致看起来运算过程很严谨、结果很准 , 但却并不足以支持AI做出科学决策 。
【风险|守住产品底线,防范人工智能作恶】有专家表示 , 这并非AI技术的错 。 夏华夏说 , 真正应承担社会责任的是使用AI技术的人、企业等 。 AI技术向善需要社会整体文明发展到一定阶段 , 形成良好氛围 。 张谦则提到 , 技术并不可怕 , 可以通过技术进一步发展解决技术存在的问题 。
山世光称:“说到底 , 我们还是希望AI技术能得到健康发展 , 满足对科技真、善、美的追求 。 ”

    推荐阅读