21世纪经济报道|如何把算法关进制度的笼子?( 二 )


对于个人获得说明的权利 , 张吉豫认为 , 这一定程度上意味着确立了有限的“算法解释权” 。 在法律落实的过程中 , 相应的算法说明必须提供对决策有意义的信息 , 而不是简单的、泛泛的信息 。
此外 , 她强调 , 想让个人真正获得一种拒绝自动化决策的权利 , 就要对该条款中“仅通过自动化决策的方式作出决定”进行恰当的解释 。
可见 , 对个人“免受自动化决策权”的保障 , 未来落地的过程之中 , 需要进一步通过配套规则、司法活动和执法活动的开展落实 。
张吉豫认为 , 企业利用个人信息进行自动化决策 , 应当进行个人信息影响评估 。 考虑是否属于信息推送、商业营销的情况 , 如果是 , 则应提供不针对其个人特征的选项 , 或者向个人提供便捷的拒绝方式 。
对于必要进行自动化决策的情况 , 应考虑建立人工干预机制;决策情况分析和说明机制 , 说明综合考虑的要素、算法的大致类别;并且建立根据个人质疑 , 进行考察、反馈或改进的机制 。
可见 , 对算法透明度和可解释性监管不断强化 。 中国人民公安大学法学院苏宇副教授指出 , 应区分算法的可解释性与算法透明度 , 算法可解释不等于算法透明 , 算法解释也不等于打开黑箱 。 应明确界定可解释性与透明度的概念 , 区分优化算法可解释性与透明度的义务 , 并且推进层次化、场景化的具体制度设计 。
此外 , 苏宇认为 , 应明确优化算法可解释性、透明度义务与算法解释请求权的关系 。 在履行上述义务时 , 通过在技术标准层面设置面向不同场景的多元化可选规则 , 是一种兼顾精准性、原则性与灵活性的制度安排 。
平台监管层层加码
将算法服务作为核心商业模式的平台 , 在算法应用中应承担哪些责任?
以推荐算法为例 , 其应用引起了各国的关注 。 近期 , Facebook利用仇恨算法牟利等事件引发关注 。 美国众议院能源和商业委员会提出法案 , 拟修改《通讯规范法案》第230条平台责任豁免条款 , 以避免个性化推荐对公民权利造成危害 。
中国信通院互联网法律研究中心研究员程莹指出 , 过去 , 美国出于促进互联网发展的考虑 , 在《通讯规范法案》第230条中规定平台对用户创作的内容不承担责任 。 但由于平台与用户权利、重要基础设施等关联日益密切 , 美欧在规制中都有加重平台责任的趋势 。
她解释称 , 早期平台是一个通道的角色 , 作为市场经营者 , 将信息从内容的提供者传输到用户 , 是一个中立的身份 。 但现在数据已经成为一种生产要素 , 如果把数据比作农作物的话 , 那平台就是农作物加工厂 , 通过对数据的加工、提炼出结构化的数据库 , 进而反向对内容提供者、用户进行信息控制 。

推荐阅读