技术|加密技术如何保护个人信息?“隐私计算”成为行业新宠


技术|加密技术如何保护个人信息?“隐私计算”成为行业新宠
文章图片

图片来源:unsplash

【技术|加密技术如何保护个人信息?“隐私计算”成为行业新宠】采访人员 | 林北辰
数据安全、隐私保护一直是互联网全行业的关注焦点 , 在今年的人工智能大会上 , 一种较为前沿的“隐私计算”解决方案受到关注 。
过去几年 , 人工智能作为硬核科技 , 在安防、金融、政务、医疗等领域发挥了巨大价值 , 但行业人员发现 , 目前在人工智能领域 , 无论是深度学习还是机器学习都离不开大数据样本的“喂养” , 传统 AI 需要收集样本到一个本地化的平台 , 然后通过集中化的算力训练出优质的模型 。
这种做法带来的问题是 , 深度学习和样本需要数据的流通 , 但流通的数据往往没有得到授权 。 个人轨迹、财产信息等个人隐私甚至关乎国家的关键信息必须得到保护 , 传统的大数据训练方式颇有漏洞 , 新的数据保护解决方案亟待出台 。
在数字经济趋势和数据安全保护的时代背景下 , 隐私计算应运而生 , 并且在2020年得到市场广泛认知 。 其本质上是利用密码学的手段 , 实现在数据不出库的情况下进行联合计算、联合建模 , 以开放且合规的方式充分发挥数据价值 。
联邦学习是隐私计算的其中一种解决方式 , 顾名思义 , 就是在数据与数据之间 , 建立一个类似“独立联邦”的地区 , 数据经过加密后进入联邦 , 后又根据导出所在地的需求再度编码 , 最后导出的数据并不是数据本身 , 而是需求所在地需要的参数 。

技术|加密技术如何保护个人信息?“隐私计算”成为行业新宠
文章图片

富数科技CEO张伟奇在人工智能大会现场接受了界面新闻的专访 。 他对以上技术做了一个较为形象的解释:一些国外 AI 厂商在中国也有业务落地 , 他们在国外建模也需要中国的数据参与训练 , 过去传统的数据出境做法是去标签化、脱敏处理等 , 但近年来不行了 , 因为涉及到个人隐私、工业信息、国家安全等原因 , 数据出境越发敏感 , 而隐私计算技术使用后 , 可以在数据不出库、不出国的情况下 , 跨国进行模型的训练 , 其根本目的是实现数据的“又保护又开放” 。
事实上 , 这个技术的火爆也是发展于国外 。 在国际市场上 , 早前Facebook和Google受到欧盟 GDPR 高价罚款一事震动全球 , 两家企业开始大量投入了隐私计算以达到政策合规 。
而在中国 , 由于数据开放流通与隐私保护和数据安全之间的矛盾日益激化 , 隐私计算在过去两年获得飞跃式的发展 。 张伟奇认为 , 无论是对技术的重视程度 , 还是政策法规的制定 , 目前都已超过美国 。
6月29日 , 中国支付清算协会对外发表了《多方安全计算金融应用评估规范》 , 对多方安全计算等技术进行了详细的定义和规范 , 被行业认为是隐私计算政策法规落地的重要里程碑 。
张伟奇将国内的隐私计算发展分为三个阶段:第一阶段重点是 2020 年 , 这是一个市场教育年 , 行业从2019年底的5家(BAT以及富数科技、华控清交)迅速发展到上百家;第二阶段主要是2021年 , 金标委和信通院制定了工程化安全和性能的检测规范 , 银行卡检测中心和信通院都各自完成了头部5家的检测 , 目前市场上全部通过工信部和金标委评测的一共4家 , 包括腾讯和阿里在内 , 富数也是其中一家;第三阶段要解决的是不同厂家之间技术不互通的情况 。
张伟奇认为 , 如果不实现技术互联互通 , 隐私计算不可能成为一个有生命力的行业 。 但是 , 由于隐私计算领域内的不同技术具有碎片化的特点 , 要让众多厂商们的技术互通 , 隐私计算依然还有很长的一条路要走 。

    推荐阅读