21世纪经济报道|如何把算法关进制度的笼子?( 三 )


程莹指出 , 我们每天在手机上浏览新闻、购物等 , 都可以视为一种数字劳动 。 在这个过程中平台可以对用户行为加以控制 , 同时平台逐步具备了对社会生产资源调配能力 , 尤其是一些巨型平台 , 掌握着一些数据中心、人工智能中心、云计算等硬件基础设施 。 所以应重新认识平台的角色 。
她表示 , 我国平台责任从早期简单的发现报告义务 , 转变为包括事前阶段的账号管理、算法审查 , 事中阶段的算法模型干预、用户标签管理等 , 事后阶段的社会责任报告、投诉处理等 。
对于社会关注的信息茧房、操纵热搜、个性化广告、个性化定价等问题 , 《个人信息保护法》与《互联网信息服务算法推荐管理规定(征求意见稿)》都有回应 。
《互联网信息服务算法推荐管理规定(征求意见稿)》中明确 , 算法推荐服务提供者应当加强用户模型和用户标签管理 , 完善记入用户模型的兴趣点规则 , 不得将违法和不良信息关键词记入用户兴趣点或者作为用户标签并据以推送信息内容 , 不得设置歧视性或者偏见性用户标签 。
并且 , 用户认为算法推荐服务提供者应用算法对其权益造成重大影响的 , 有权要求算法推荐服务提供者予以说明并采取相应改进或者补救措施 。
程莹认为 , 我国的平台算法监管呈现出技术规制、远距离监管、多元治理等特点 。 未来在为平台算法责任设置过程中 , 需要进一步研究平台责任的界限问题、平台分类分级规制的落地问题以及规制的成本收益等问题 , 以更好推动我国算法治理的落地实效 。
刑法规制算法仍有许多难点
今年8月 , 某一青年企业家因为驾驶智能汽车 , 启用自动驾驶功能后 , 不幸车祸离世 。 算法驱动下的人工智能产品的刑事责任也逐渐成为关注焦点 。
算法的危害已在实践中出现 , 对算法进行刑法规制是必要的未雨绸缪 。
不过 , 中国政法大学刑事司法学院副教授李怀胜强调 , 刑法不应对算法安全风险过度反应 , 更应避免对算法安全风险的提前介入 , 以防止对科技创新能力的扼杀 。 刑法不应规制作为开发者竞争优势的算法权利 , 而应规制面向公共利益算法的安全风险 。
而且 , 刑法对算法的约束在具体规则层面仍存在很多难点 。 李怀胜表示 , 算法缺陷难以被评价为刑法中的产品责任 。 在当下的分工协作机制下 , 算法提供者和最终的产品提供者并不是一个主体 , 算法是否能等同一种产品 , 在刑法解释论上存在很大的疑问 。
此外 , 他指出 , 按照产品责任犯罪追究算法缺陷的前提是明确合格的算法是什么 , 按照罪刑法定原则 , 必须给算法制造者提供一个非常明确的标准 , 明确罪与非罪、责与非责的边界 。 但是 , 目前我国关于算法的国家标准、行业标准仍非常模糊 。 因而 , 算法滥用与损害结果之间也难以被认定为刑法层面的因果关系 。

推荐阅读