ai|人类更用心,AI不“偏心”

“人工智能很单纯 , 复杂的是人”——在探讨人工智能(AI)的公平性时 , 香港科技大学讲席教授、微众银行首席AI官杨强巧妙地化用了一句流行歌词 。 他认为 , AI技术发展中出现的诸多公平性问题 , 其实是映射了人类社会中本已存在的歧视和偏见 。
在未来论坛近日发起的“AI 向善的理论与实践”论坛上 , 多位业内专家围绕“AI公平”这个话题开展了深入讨论 。
AI跟谁学到了“偏心”?
与人类社会相似 , 在AI的世界里 , 偏见与不公随处可见 。
2014年 , 亚马逊公司启动了一个通过AI技术开展自动化招聘的项目 。 这个项目完全基于求职者简历提供的信息 , 通过AI算法进行评级 。 然而 , 第二年亚马逊便意识到这个机器脑瓜并不像想象中那样公平公正——它似乎在歧视女性!当一份简历中出现“women”等字眼时 , 在打分上就会吃亏 。
亚马逊分析 , 这是因为他们使用了过去10年的历史数据来训练这个AI模型 , 而历史数据中包含对女性的偏见 。 之后 , 亚马逊便不再用这个算法来进行招聘 。
“AI的公平性问题 , 本质上并非来源于技术本身 , 而是来自人心 , 也就是说 , 其本源是社会的公平性 。 ”中科院计算所研究员 , 中科视拓(北京)联合创始人山世光说 。
他解释道 , AI技术从算法和系统的设计 , 走向社会的应用实践 , 这个过程涉及方方面面的人 , 在很多环节 , 都有可能有意或无意地引入歧视和偏见 。 “以大家最熟悉的健康码为例 , 这个产品在为防疫做出重大贡献的同时 , 也因为给老年出行带来困难等现象 , 引起了很多争议 。 这就是目标人群设定不够周全 , 而引入了潜在的歧视风险 。 ”他说 。
除了不同人群间的公平问题 , AI公平还涉及到开发者和使用者(通常是企业和用户)之间的不平等问题 。
【ai|人类更用心,AI不“偏心”】清华大学法学院院长申卫星补充了一个生活中非常常见的案例 。 大量APP在使用时会出现一个“知情同意”的选项 , 这个知情同意书往往少则上千字 , 多则上万字 , 大量的信息让消费者无力长时间阅读 , 只好选择同意 , 否则只能退出 。
“过去我们对知情同意格式条款的主要要求是‘告知要充分’ 。 但现在更常见的问题反而是‘告知过量’ , 或者叫信息超载 。 ”申卫星说 , “过度冗余的格式条款 , 其实恰恰剥夺了消费者的自我决定权 。 这是一种非常隐蔽的不公平”
双刃剑的正确打开方式?
AI技术与社会公平的关系 , 比想象中更为复杂 。
搜狗公司CEO王小川指出:“总体来讲 , AI技术的高度发展对公平性的提升是有利的 。 首先在技术的加持下 , 教育、医疗等重大领域在资源供给的数量和质量上都会有极大提升 , 供给侧的繁荣有助于缓解社会资源分配不均;其次 , 随着大数据的连接 , 人们有机会在全局层面上提炼主要矛盾 , 探讨公平问题 , 进而达成社会共识 。 ”
但这也是一柄双刃剑 。 “互联网发展、信息发展和AI发展对于公平性提供了更好的抓手 , 但也会带来更多新的挑战 。 ”王小川说 , “其中一个比较敏感的问题是 , 在机器判断越来越准确之后 , 公平定义的矛盾将更加突出 。 比如在金融贷款、商业保险等领域 , 如果对用户进行个人画像并作出判断后 , 拒绝向该用户提供服务 , 如此是否公平?此外 , 随着AI技术进步带来的资源极大繁荣 , 很容易产生‘马太效应’ , 导致资源集中在金字塔尖上 , 拉大社会差距 。 这是人类历史上不断出现的问题 , 值得警惕 。 ”
对此 , 山世光则强调:“作为AI从业者、开发者、运营者的我们 , 一定要意识到:我们所开发的AI既可能被用来促进社会公平和消除歧视 , 也有可能被滥用 , 甚至助纣为虐 。 ”
那么 , 人类应该如何挥舞这柄双刃剑 , 让它向善而不作恶呢?山世光说:“问题的最终解决不仅仅依赖技术的进步 , 更依赖于技术专家和社会学家两个群体的顺畅沟通 , 深度对话 。 ”
为了更公平的AI而奋斗
论坛上 , 专家们介绍了产业界、学术界、法律界等在AI公平性上做出的种种努力 。
“人们开发了很多工具 , 包括分析数据集形态和质量的工具 , 能让开发者、工程师清楚地看到他们用于训练的数据特征的分布 , 比如性别、年龄等等 , 至少要满足统计学意义上的合理分布 , 从而减少潜在的偏见;还有分析算法模型的工具 , 可以对模型的公平性进行评估 , 并做出相应纠偏和优化;此外还有帮助开发者对决定模型输出的关键数据特征进行探索的工具;以及公平性约束条件下的算法训练工具等 。 ”华为公司AI治理首席专家段小琴说 。
“AI公平性的一个重要方向是数据的可获得性和可使用性 。 ”杨强说 , 他在论坛讲座中强调了“联邦学习”在抵抗数据“马太效应”、促进AI公平性方面的作用 , “我们研究联邦学习 , 一个更大的目标是实现‘数据可用不可见’ , 其特征是:隐私保护、权益保障、缺陷保障以及确权 , 而确权和权益保证需要通过经济学来完成 。 ”
申卫星则指出:“在这个问题上 , 企业和技术的自律 , 要与以法律为代表的‘他律’相结合 , 未来相关领域的立法应该是三驾马车——技术、法律和伦理——并驾齐驱 , 技术是根本、法律是保障、伦理是社会基础 。 ”
他进一步补充道:“就AI技术立法问题而言 , 法律既要解决形式上的公平、机会上的公平和程序上的公平 , 还要实现形式公平和实质公平的统一 。 个人建议 , 应在时机成熟的时候推出综合立法 。 在这个过程中 , 既要考虑对个人数据的保护 , 也要考虑保护和创新之间如何形成平衡 。 ”

    推荐阅读