苹果将扫描所有iCloud照片保护儿童,引发全球隐私热议,斯诺登称“大规模监视”
2021-08-08
来源:红数位
苹果公司上周五表示,将在 iOS、iPadOS、watchOS和macOS中引入新的儿童安全功能,以限制儿童性虐待材料 (CSAM) 在美国的传播。该举措引起全球对于隐私的热议,斯诺登更是称苹果这是强推:“大规模监视”。
为此,苹果公司表示,除了利用设备上的机器学习来审查所有iMessage信息外,它还打算开始对通过每台Apple设备共享的图像进行客户端扫描,以查找正在上传到iCloud照片的已知虐待儿童内容。未成年人帐户(13 岁以下)发送或接收的图像,以警告父母注意通过消息平台共享的色情照片。
此外,Apple还计划更新Siri和Search,以便在用户尝试搜索CSAM相关主题时进行干预,提醒“对该主题的兴趣有害且有问题”。
“消息使用设备上的机器学习来分析图像附件并确定照片是否具有色情内容,”Apple指出。“该功能旨在让Apple无法访问这些消息。” 该功能称为通信安全,据说是一种选择加入设置,必须由父母通过家庭共享功能启用。
如何检测儿童性虐待材料
已知CSAM图像的检测涉及在照片上传到云端之前,使用国家失踪与受虐儿童中心 (NCMEC) 和其他儿童安全组织提供的已知CSAM图像哈希数据库进行设备匹配。“NeuralHash”,正如系统所称,由一种称为私有集合交集的加密技术提供支持。但是,值得注意的是,虽然扫描是自动进行的,但该功能仅在 iCloud照片共享打开时才有效。
更重要的是,Apple 预计将使用另一种称为阈值秘密共享的加密原理,如果 iCloud照片帐户超过已知虐待儿童图像的阈值,它可以“解释”内容,然后手动审查内容以确认存在匹配,如果是,则禁用用户的帐户,将材料报告给NCMEC,并将其传递给执法部门。
研究人员对隐私表示担忧
Apple的CSAM计划促使安全研究人员表达了他们的担忧,即它可能会受到任务蠕变的影响,并被扩展到检测可能具有政治和安全影响的其他类型的内容,甚至通过向无辜的人发送旨在出现的无害但恶意的图像来陷害他们作为儿童色情的匹配项。
美国举报人爱德华·斯诺登在推特上表示,尽管该项目的意图是好的,但苹果推出的是“大规模监视”,毫无疑问:如果他们今天可以扫描儿童色情内容,他们明天就可以扫描任何内容。而约翰霍普金斯大学密码学教授和安全专家马修格林 说,“问题在于加密是一种强大的工具,提供隐私,你不可能真正拥有强大的隐私,同时监视任何人发送的每张图像。”
苹果CSAM检测
Apple已经根据已知的虐待儿童图像检查了通过电子邮件发送的iCloud文件和图像,谷歌、Twitter、微软、Facebook 和 Dropbox等科技巨头也是如此,它们采用类似的图像散列方法来寻找和标记潜在的虐待材料,但该公司的试图走隐私钢丝绳可能会重新引发关于削弱加密的辩论,升级数字时代关于隐私和警务的长期拉锯战。
《纽约时报》在2019年的一项调查中透露,2018年有创纪录的4500万张儿童被性虐待的在线照片和视频被报道,其中Facebook Messenger占近三分之二,Facebook整体占据报告的90%。
对于一家与Facebook旗下的WhatsApp一起一直抵制有意削弱加密和后门系统的努力的公司来说,即将发生的变化也标志着某种转变。路透社去年报道称,在美国联邦调查局 (FBI) 担心这样做会阻碍调查之后,该公司放弃了在 2018年加密用户到iCloud的完整备份的计划。
“剥削儿童是一个严重的问题,苹果并不是第一家为了打击它而改变其隐私保护立场的科技公司。但这种选择将为整体用户隐私付出高昂的代价,”电子前沿基金会(EFF)说,在一份声明中指出,苹果此举可能会破坏加密保护,并打开大门更广泛的滥用。
“扩大Apple正在构建的狭窄后门所需要的只是扩展机器学习参数以寻找其他类型的内容,或者调整要扫描的配置标志,不仅是儿童的账户,而是任何人的账户。那不是一个滑坡;这是一个完整的系统,只是在等待外部压力做出最细微的变化,”它补充道。
CSAM工作将在未来几个月内作为iOS 15和macOS Monterey的一部分在美国推出,但它是否或何时在国际上可用还有待观察。2020年12月,Facebook被迫关闭其在欧洲的一些儿童虐待检测工具,以响应欧盟委员会电子隐私指令的最新变化,该指令有效禁止自动系统扫描儿童性虐待图像和其他非法内容而无需用户明确同意。