新浪数码讯 8月16日上午消息 , 苹果公司近日推出了三条打击儿童性犯罪的和性侵害的功能 , 但这些也引发了人们对隐私保护的担忧 , 对此 , 负责软件工程的高级副总裁克雷格·费德里吉(Craig Federighi)发言称解释了相关问题 。
文章图片
图1/1
克雷格·费德里吉(Craig Federighi)
【新浪数码|苹果高管:外界对儿童保护功能理解混乱 此功能被误解】这三条保护政策在十天之前宣布 , 包括:机器筛查Messages信息 , 当孩子收到色情图片时 , 图片会变得模糊 , 并且Messages应用程序会显示一条警告;儿童性虐待内容(简称CSAM)检测 , 该功能让苹果检测存储在iCloud云端照片中的这类图像特征信息 , 如果确定有此类图像 , 苹果会向执法部门报告;Siri和搜索功能改进 , 人们可询问Siri如何报告儿童性虐待内容或性剥削 , Siri将告诉用户在哪可以汇报给有关部门 。
其中引发争议的主要是第一二条 , 费德里吉在接受《华尔街日报》采访时说:“我们希望每个人都能更清楚地了解这一点 , 因为我们对自己正在做的事情感到非常积极 , 而我们看到它被广泛误解了 。 ”
“事后看来 , 我承认 , 同时引入这两个功能是造成这种混乱的一个缘由 , ”他继续道 。“很明显 , 很多信息都被严重地混淆了 。 我相信早期传出的声音是 , ‘天哪 , 苹果正在扫描我的手机以获取图像 。 ——但这不是事实 。 ”
费德里吉随后没事了iCloud扫描上传的CSAM图像所涉及的过程 , 以及当通过消息向孩子发送此类图像时会发生什么 。
对这些功能的批评集中在苹果正在分析用户iPhone照片的看法上 。“这是一个常见但非常深刻的误解 , ”费德里吉说 。
“这个过程作为将某些内容存储在云中的过程的一部分来应用 , 而不是对您存储在Messages信息的图像进行某些处理……或者您正在通过网络浏览的内容 。 这实际上是在iCloud中存储图像的管道的一部分 。 ”
他想说的是 , 苹果公司是在分析图像是否与国家失踪和受虐儿童中心提供的已知CSAM图像数据库匹配 , 而不是分析图片本身 。 他们将国家失踪和受虐儿童中心的数据库转换为一组不可读的哈希函数(将一段较长的数据映射为较短的数据) , 之后进行对比 。 一旦匹配程度达到某个阈值 , 苹果公司将手动审查确认匹配 , 然后禁用用户的帐户 , 并向国家失踪和受虐儿童中心发送报告 。
当被问及现在是否有发布此功能的压力时 , 费德里吉说没有 。
“不 , 我们想通了 , ”他说 。“我们本来就想做点什么 , 但此前一直不愿意部署涉及扫描所有客户数据的解决方案 。 ”
推荐阅读
- 截图|靠抄袭对标苹果?心动黄一孟指责小米新版游戏中心抄袭TapTap
- Apple|苹果高管解读AirPods 3代技术细节 暗示蓝牙带宽可能成为瓶颈
- 实力比|小米12对标苹果遭嘲讽?雷军:国产手机的实力比想象中强,有和苹果比较的勇气
- Apple|法官称苹果零售店搜包和解协议虽不完美,但可继续进行
- AirPods|苹果谈论AirPods 3:最大榨取蓝牙技术,希望获得“更多带宽”
- Apple|苹果希望手机/平板设备能正面为其他设备无线充电
- 测评|【横评】5年前的老机型测评 苹果华为三星小米魅族一加现在卡吗
- 苹果|死磕硬核科技,小米要与苹果一较高下
- 手机|1千亿让小米超越苹果?别被雷军的障眼法,忽悠了
- Apple|新专利显示 苹果计划用光学传感器取代手表的数码表冠