消费者|国研中心|发展数字经济如何平衡隐私保护与价值挖掘

数字经济时代下 , 合理保护用户隐私 , 发展数据产业链 , 共享并充分挖掘数据价值 , 是国家的核心竞争力 。 隐私保护的法律设计是影响数字经济发展的关键 。 当前中国正加快推进个人隐私保护基础性立法 , 需充分考虑中国的基本国情和社会习惯 , 着眼国际数字产业竞争格局 , 统筹考虑中国数字产业的未来发展 , 通过合理设计法律和政策尺度 , 平衡好隐私保护与数据共享 。
一、数据共享是数字时代国家的核心竞争力
数据是数字时代的核心生产要素 , 但只有经过充分挖掘并使用才能实现价值 。 在大数据时代 , 单个数据几乎没有使用价值 , 只有相互关联的大量单体数据 , 经过合理加工后才拥有价值 。 数据价值挖掘和价值实现是需要高投入的创造性劳动 , 是数字产业发展的关键环节 。 因此 , 数字经济时代国家层面的竞争 , 就是建立一套更合理有效的激励约束机制和基础设施 , 降低成本和激励相容地实现数据收集、加工处理、共享使用的数据产业链社会化分工合作 。 数据产业发展 , 既要防止信息的不当使用可能危害消费者和社会利益 , 也要充分调动数据收集、加工和使用者的积极性 , “看见”、“挖掘”并“实现”价值 。
从国家资源组织的角度 , 凝聚信任从而实现数据共享是提升数字经济时代国家竞争力的关键 。 有效的数据共享 , 要实现数据主体、数据控制者(大部分也是数据采集者)和数据使用者三者间的利益平衡 , 处理好隐私保护、数据安全和数据价值挖掘、实现的关系 。
【消费者|国研中心|发展数字经济如何平衡隐私保护与价值挖掘】当前数据市场出现的大数据杀熟、暴力催收等种种乱象 , 与中国尚未建立合理有效的数据共享机制有关 。 数据控制者因担心数据泄漏无法获得变现环节的合理回报 , 将数据加工处理环节内部化 , 导致数据孤岛现象 , 表现为过度采集消费者数据 , 泄漏个人隐私 , 滥用数据侵害消费者权益等 。
二、隐私计算可在合理有效保护个人隐私基础上实现数据共享
保护个人隐私是数据利用的前提和基础 。 个人隐私保护可从三个方面的组合实现 。 一是法律保障 。 通过界定个人信息主体的权属和相关人员的行为空间来保护个人隐私 。 二是技术实现 。 通过数据处理、计算方法和管理技术等确保个人隐私 。 三是利益平衡 。 通过市场交易 , 以自愿承担一定隐私泄漏风险为对价获得更好服务或收益 。
隐私计算是隐私保护前提下数据共享的技术实现路径 。 为解决互不信任的多个机构间数据共享和数据价值挖掘问题 , 国际上开发出了在不共享原始数据前提下实现数据价值挖掘和流转的技术手段 , 即隐私计算 。 隐私计算一般通过三个环节保证数据和模型隐私 , 实现数据“可用不可见”、“可算不可识”和“可用不可拥” 。
一是原始数据的“去标识化” 。 确保合作第三方不能通过数据反向逆推出数据主体 , 即不能识别出消费者的“自然人”身份 , 但又尽可能保留数据中的“信息”价值 , 做到共享信息的“可算不可识” 。
二是可信的执行环境 。 通过硬件化、安全沙箱、访问控制、数据脱敏、流转管控、实时风控和行为审计等技术手段 , 提升数据和模型计算环境的安全性 , 确保全程安全可控 。
三是能够保护数据和模型隐私的智能计算技术 , 如多方安全计算、差分隐私、联邦学习等 。 用户的原始数据可以在不出域、不泄漏的前提下共享并提取数据价值 , 实现信息的“可用不可见” 。
国内外利用隐私计算平衡隐私保护和数据价值流转已经取得了积极成效 。 运用隐私计算技术 , “去标识化”后的数据可以实现绝大部分个人隐私保护要求 。 隐私计算过程中 , 在经过去标识化和多方安全计算分片处理后 , 第三方已无法通过共享的数据来反向逆推出数据主体的个人身份 , 不会泄露个人隐私 。 因而不需要在“去标识化”数据加工处理过程中再获得信息主体的确认“授权” 。
三、合理保护个人隐私推动数据产业发展是国际趋势
美国隐私保护标准相对宽松 , 数字经济也较发达 。 美国无论现行的隐私法案CCPA还是计划实施的CPRA(注:加州消费者隐私法 , 预计2023年1月1日生效 。 ) , 对个人数据利用都更为开放 , 更强调市场自我调节 , 意在保持互联网第一大国的全球竞争力 。 如CCPA(注:加利福尼亚消费者隐私保护法 , 已于2020年1月1日起生效)允许企业通过提供经济激励获得消费者对收集个人信息的许可 , 允许依据个人信息价值实施差别待遇 , 明确企业豁免情形等 。
欧盟开始反思个人信息利用限制过严的弊端 , 致力于建立欧洲单一数据市场 。 2020年2月欧盟发布《欧洲数据战略》 , 指出过于严苛而繁琐的个人信息收集约束 , 可能会导致产业或公共数据供给不足 , 不利于建设欧盟统一数字市场 。 2020年底欧盟《数据治理法》(草案)一定程度上改变了既往对数据利用的严苛态度 , 允许个人数据在“利他主义”或中介机构帮助下使用 , 允许公共部门数据在受他人权利约束下重复使用 。 2020年初发布《欧洲数据战略》 , 通过加强数据共享建立欧洲单一数据市场 。 如公共数据的开放共享 , 包括以符合GDPR方式保证数据在技术层面具有可用性 , 便利以公共利益为目的的个人数据使用和实现更多高质量公共数据的再利用 , 又如通过开放银行推动金融领域数据开放 。
新加坡重新调整了个人同意和企业责任之间的平衡 。 新加坡认真反思了个人信息保护中的“基于同意”方法的有效性 。 新加坡政府意识到政府和企业越来越不可能在“授权同意”时就预测到收集、使用或披露个人数据的目的 , 且在每一次数据收集中都要求个人明确同意并不总是切实可行 , 导致了大量冗长或措辞宽泛的通知 。 最重要的是 , 个人的同意决定并不一定考虑到对公众更广泛、系统的利益 , 也不一定会产生社会最理想的集体效果 。 最终2020年5月新加坡修订《个人数据保护法》 , 对“知情同意”的基础性规则引入“合法利益”和“业务改进”两个新的除外规定 , 在符合个人利益、强化数据保护问责机制和执法有效性的前提下 , 赋予企业在未经同意的情况 , 将个人数据用于特定的业务改进 , 实现合法利益 。
四、中国平衡隐私保护和数据共享的政策建议
在当前全球数字产业竞争日益加剧的背景下 , 中国数据治理规则设定宜着眼国际竞争 , 通过合理设定政策尺度 , 完善技术手段 , 切实平衡好隐私保护和数据共享 。
(一)动态、适度保护个人信息
个人信息保护是数据治理的关键之一 , 也是平衡行业发展和消费者保护的重点 。 个人信息保护并不是越严格越好 , 并且个人信息保护的程度和内容 , 应随数据市场发展而不断调整 。 目前国际上通常通过对信息收集、使用的“知情同意”方式保护 。 实践证明 , 设置过多的事前同意环节并不能真正达到保护个人信息的目的 , 重点应放在事中的风险管理和事后的权利救济上 。 真正实现个人隐私保护 , 除了需明确个人数据的人格权利和财产权利外 , 还需要适应技术发展趋势的科学制度设计保障 , 特别是需重点关注个人能真正行使权利 , 以及在权力受到损害后可得到及时救济 。 个人对信息安全、不同使用目的和方式的认知与市场的探索是相互迭代推进的 , 因而不宜一步到位 , 既看不清 , 也可能制约行业发展 , 需逐步探索 , 仅对共识和必要部分规范 , 分歧和看不太清楚的可暂不规范 。
2020年10月 , 《个人信息保护法》(草案)(以下简称《草案》)首次提交全国人大常委会审议 , 并已列入2021年审议重点 。 这是个人信息保护的重要上层法律建构 , 宜在法律设计中平衡各方权利义务 , 考虑中国国情和经济发展阶段 , 顺应甚至引领未来数字经济发展趋势 。
1、适当“窄化”个人信息定义
“个人信息”的定义是《个人信息保护法》的起点和最核心概念 。 个人信息包括基本个人信息(姓名、性别、联系方式等)、伴生个人信息(财产信息、账户信息、信用信息等)和预测个人信息(大数据画像)三类 , 后两类又称为衍生信息 。 在保护个人隐私前提下使衍生个人信息有序流动和利用是激活数据要素潜能、推动数字产业发展的关键 。 《草案》第四条将其定义为“以电子或其他方式记录的与已识别或可识别的自然人有关的各种信息 , 不包括匿名化处理后的信息” , 在“识别说”基础上增加了关联性考虑 , 涵盖“与已识别或者可识别的自然人有关的各种信息” , 极大扩展了个人信息范围 , 且与民法典及《网络安全法》等现行立法对个人信息的定义不一致 , 将显著增加企业使用数据的限制与合规压力 。 且“可识别”与“匿名化”相结合 , 随着技术的不断发展 , 实际上很难实现对“匿名化”信息的真正排除 。
建议与民法典保持一致 , 将“个人信息”修改为“以电子或其它方式记录的能够单独或者与其他信息结合识别特定自然人的各种信息 , 不包括匿名化处理后的信息” 。
2、明确界定“去标识化”信息
与“匿名化”相比 , “去标识化”更可能实现隐私保护与数据利用的平衡 。 匿名化处理后的数据 , 虽然无法将同一个人在不同时间、不同空间产生的数据关联起来 , 但数据间关联性已被不可逆地破坏 , 散乱为数据碎片 , 将丧失绝大部分信息价值 。 而“去标识化”数据在加工处理过程中 , 既能实现“可算不可识” , 又能保留数据间除个人信息以外的关联关系 , 可挖掘的信息价值较大 , 且仅在用户“授权”的情况下可重新识别使用 。
建议在草案中增加“去标识化”制度的规定 。 鉴于个人信息具有相对性 , 经“去标识化”处理且第三方不具有识别能力的信息 , 对于第三方而言不属于个人信息 。 提供此类信息应明确作为个人信息处理者向个人告知的例外 。
3、民事责任设定规则可体现对合规的正向激励
《草案》第65条规定因个人信息处理活动侵害个人信息权益的 , 如果“个人信息处理者能够证明自己没有过错的 , 可以减轻或者免除责任” 。 分析前述规定的文义 , 个人信息侵权责任的归责原则倾向于无过错责任 , 即无论个人信息处理者是否有过错 , 都应当承担责任 。 个人信息处理者没有过错的 , 不必然减轻或免除其责任 。 上述规定体现了对被侵权人的倾斜保护 , 但过度保护可能带来职业维权、滥诉等新问题 。 同时 , 上述规定与民法典确定的责任体系存在矛盾 。 民法典对无过错责任的表述为“行为人造成他人民事权益损害 , 不论行为人有无过错 , 法律规定应当承担侵权责任的 , 依照其规定” 。 目前《民法典》实际规定的无过错责任仅包括8种情形 。 个人信息侵权作为数字经济时代新兴的侵权责任类型 , 是否达到无过错责任的程度法理上仍存争议 。
建议草案从正向激励个人信息处理者主动提高合规程度的考量出发 , 遵循《民法典》人格权编和侵权责任法的基本规则 , 以过错责任为归责原则 , 或明确个人信息处理者的合规免责事由 。 如此既可协调各数据主体间的利益 , 促进数字经济有序发展 , 也能避免可能的职业维权等权利滥用 。
(二)推动构建政府引导、市场主导为主的多种个人数据共享模式
数字时代 , 个人信息同时具有个人、行业和公共属性 。 数据来源于个人行为 , 由企业或者政府收集加工 , 并通过特定场景应用实现价值 , 对社会伦理、生态及其他人有一定影响 , 拥有一定的公共特征 。 因而 , 个人数据应由个人和企业共同所有 , 由个人、企业和社会(国家)共同参与使用和管理 。
数据共享并不是数据的集中 , 而是数据价值的深层次挖掘和实现 。 因而数据共享 , 除了推动数据集中和分级开放外、还需要增强传统数据优势单位的数据挖掘和价值开发能力 , 提高企业数字化转型的积极性 , 鼓励市场化的分布式个人行为数据基于隐私计算的数据共享 。
1、不同数据类型和应用场景 , 适用不同的数据共享模式 。 数据是现实世界的映射 。 数据种类和收集方式不同 , 决定了数据内在价值的挖掘和实现方式不同 , 因而也宜采取不同的数据共享方式 。 数据共享有三种通行模式 。 一是政府主导下的数据集中分级使用 。 二是俱乐部式的数据共享使用 , 通常由协会或特定机构组织 , 会员既是信息的贡献者 , 又是信息的使用者 。 三是分布式数据共享合作 , 具有数据收集优势的不同企业、平台之间 , 通过安全技术实现隐私保护和数据安全基础上的数据共享和价值挖掘 。
2、提高政府和传统金融机构的数据价值挖掘能力 。 传统金融机构和政府拥有大量具有高度价值的结构化数据 , 但其内在价值并没有被充分挖掘 , 成为“死”数据 。 为此 , 关键是要将“死”数据“盘活” 。 这需要政府和传统金融机构自身具有数据价值挖掘能力 , 并借此改变数据收集、存储和管理方式 。 有财力的政府部门和传统金融机构可组建科技公司或科技团队自我开发 。 资金或能力不足的机构 , 宜推动市场合作 , 通过平台公司和科技公司赋能 , 实现现有数据价值的再开发 。
3、创造条件推动企业财务、供销和管理的数字化 。 数字化管理要求企业内部行为较为规范 , 可主要通过非人格化的算法自动完成 。 基于税收、内部管理等方面的考虑 , 中国企业的数字化水平较低 , 特别是在财务、供应链和销售渠道管理等方面 , 真正的数字化水平仍较低 。 中国宜在“减税降费”、“放管服”的大环境下 , 引导企业将主要精力转向经营和内部管理规范化 , 推动企业数字化转型 。
4、在个人行为数据方面推广基于隐私计算的分布式数据共享 。 为此 , 在政策和法律法规制定中为通过技术创新解决数据共享和隐私保护问题预留空间 , 同时鼓励以多方安全计算、同泰加密、可信执行环境、隐私保护机器学习、差分隐私等关键技术的研发 , 鼓励算法和可信硬件的国产化 , 形成自主可控的技术体系 。 加快隐私计算相关国内标准制定 , 并积极参与国际标准制定 。
(作者陈道富系国务院发展研究中心金融研究所副所长、研究员 , 王刚系国务院发展研究中心金融所研究员)
(本文来自澎湃新闻 , 更多原创资讯请下载“澎湃新闻”APP)

    推荐阅读