治理|全球数治|人工智能自动化决策偏见不可避免,该如何应对

作为第四次科技革命的开创性技术 , 人工智能对人类社会的发展与转型产生了深远影响 。 其中 , 以算法和大数据驱动的人工智能自动化决策正不断渗透至政治、经济、社会等治理领域的各层面 , 并逐步取代许多长期以来由人类决策或组织执行的工作 。 如今 , 自动化决策不仅在私人部门和商业活动中被广泛使用 , 还深度参与到公共部门的政策制定之中 。 人们每天浏览的资讯、看到的推送广告、申请到的贷款额度、获取的医疗健康建议等等 , 很大一部分都是电脑程序通过特定算法对收集到的个人行为习惯、兴趣爱好以及经济、健康、信用状况等信息数据进行自动化分析和评估 , 并进行判断与决策的结果 。
鉴于人工智能在纯技术层面是价值中立的 , 基于算法的自动化决策具有相对客观、公正、高效的优势 。 然而 , 在实际应用上 , 历史数据存在偏差、设计者个人偏见嵌入系统 , 以及技术本身不完善等因素又会导致人工智能系统不时做出错误或歧视性的自动决策 。 除了担心“大数据杀熟”等消费者权益被侵害的问题 , 人们更为忧虑的是透明度缺乏、监管不足的自动化决策可能令社会陷入“算法暴政”和“数据霸权”的泥沼之中 。 构筑健全的人工智能伦理体系 , 引导算法向善 , 防范滥用之恶 , 成为当前亟需解决的重大治理问题 。
为解析人工智能自动决策中偏见和错误的成因 , 消弭治理鸿沟 , 今年7月 , 美国海军研究生院计算机系助理教授约书华·A·克罗尔(Joshua A. Kroll)在美国布鲁金斯学会官网发表了研究 文章《为何目前的人工智能还只是自动化应用而已?》( Why AI is just automation?) , 探讨了自动化决策过程中准确性、公平性和透明度不足的问题 , 并提出了社会与技术深度协同的治理思路 。
约书华·A·克罗尔(Joshua A. Kroll)指出 , 算法偏见造成决策谬误和歧视性结果的主要原因可以从技术和实务两个层面进行分析 。 首先 , 从技术层面来看 , 现有的人工智能治理机制大多还不具备应对自动化决策系统的规模、速度和复杂性的足够能力 。 当前机器学习的主流技术普遍呈现“黑箱”特征 , 个人用户很难充分了解数据训练的过程和自动决策的机理 , 难免令人们对算法的公正性产生怀疑 。 在医疗、金融、司法等重要领域 , “黑箱”容易使自主决策的算法欠缺透明度和可解释性 , 进而威胁到人们的基本权利 , 但现实中法律救济和纠正错误的有效途径又不足 。 同时 , 由于算法本身就是规则制定者和系统设计者个人意志与偏好的投射 , 且随着算法对数据的不断学习 , 又会在人工智能系统中逐渐固化这些选择倾向 , 从而导致决策偏差的形成 。

推荐阅读