歧视|张晓慧: 对算法应实施公开透明监管

[ 算法已成为大型科技公司控制市场的主要工具 。 张晓慧表示 , 算法打着保护竞争优势和商业秘密的名义 , 为大型科技公司故意隐藏规则、操纵消费者和制造歧视创造了更多的灰色空间 。]
数字经济提升经济效率、改善客户体验主要依靠算法 。 实践中 , 大型科技公司的算法已在很大程度上影响了用户的消费行为 。
10月24日 , 在第三届外滩金融峰会上 , 中国金融四十人论坛资深研究员、清华大学五道口金融学院院长张晓慧认为 , 对算法应实施公开透明监管 。 算法的复杂性以及使用者的刻意隐瞒 , 使得绝大多数人无法理解其工作原理 , 导致作为算法使用者的大型科技公司 , 特别是那些几乎控制所有与个人生活行为相关数据的数字平台公司得以处于事实上的支配地位 , 形成“算法霸权” , 从而严重危害了算法相对人 , 也就是消费者的合法权益 。
应该说 , 算法已成为大型科技公司控制市场的主要工具 。 张晓慧表示 , 算法打着保护竞争优势和商业秘密的名义 , 为大型科技公司故意隐藏规则、操纵消费者和制造歧视创造了更多的灰色空间 。
具体而言 , 一是通过不公平排名 , 偏向自家产品或者商业利益伙伴 。 比如 , 金融科技公司给出的资产配置偏向推荐与其自身利益高度相关的商品 , 还有些平台会通过特定算法去过滤质量较差的商品 , 但自家的商品或服务却在豁免之列 。
二是存在算法歧视问题 , 包括价格歧视、身份性别歧视、教育歧视等 。 “大数据杀熟就是价格歧视的一种表现形式 , 对不同用户提供不同的商品定价 。 ”张晓慧认为 , 相较于传统歧视行为 , 算法歧视往往更难加以约束 。 “歧视定价只有垄断企业才能做到 , 在充分竞争市场上是不会存在的 , 属于新型垄断行为 。 ”她称 。
三是通过诱导性信息与风险隐藏 , 诱导消费者过度消费和承担风险 。 张晓慧介绍 , 智能算法往往容易掩盖金融风险的复杂性 , 不仅会引导过度消费和负债 , 还可能在金融投资领域误导投资者 。 此外 , 大型科技公司在经营模式和算法上的趋同 , 很容易引发羊群效应 , 导致市场大起大落 。 尤其是大型科技公司的服务对象多为金融专业知识和识别能力均较弱的社会公众 , 往往更可能导致系统性金融风险 。
鉴于此 , 张晓慧认为 , 大型科技公司的主要算法需要实施外部监管和提高透明度 。 因为算法若对使用者(平台管理者)不利 , 他们肯定会马上作出改变;但若对消费者不利 , 则只有在被曝光或强制公开透明时 , 才有可能改正 。
这一点已为监管部门充分认识并采取相应措施 。 9月30日 , 央行发布《征信业务管理办法》 , 要求征信公司必须公开个人信用评分算法模型;8月27日 , 网信办公布的《互联网信息服务算法推荐管理规定(征求意见稿)》中 , 也针对“大数据杀熟”和“算法歧视”等问题 , 要求从业者完善算法管理制度 , 优化算法推荐 , 定期审核和评估算法模型 , 加强内容管理 , 促进算法应用向上向善 。

推荐阅读