任何打着隐私保护幌子而进行的监测动作,都是在耍流氓。 大家还记得,最近苹果一直在宣传的隐私保护功能吗? WhathappensonyouriPhone,staysonyouriPhone。这是苹果在iOS系统中宣传的关于隐私保护的广告语。 但事实真的如此吗? 8月5日,苹果美国官网表示,将在iOS15中添加新功能,用于监测存储在本地和icloud照片中的儿童性虐待图片。 苹果这款名为neuralMatch的工具将在图片上传到公司的iCloud之前扫描他们,并将他们和已知儿童虐待图片数据库进行对比。如果发现了高度匹配的图片,苹果员工将手动查看报告图像。若证实该用户存在虐待儿童的行为,则该用户的账户将被禁用,并且苹果将向美国国家失踪和受虐儿童中心报告。 听起来是不是感觉还挺好的,感觉苹果又在为儿童保护做贡献了。但此举却遭到了4000多家组织以及安全隐私专家、密码专家、研究人员、教授、法律专家、苹果用户等的公开反对。 在清楚这个工具的工作原理之后,相信你会发现其实一切并非如此简单。 它的工作原理大概是这样: 首先,苹果具有美国失踪和受虐儿童中心和其他儿童保护组织提供的图像,由这些图像可以提取一组哈希值。 NeuralHash能够确保相同且视觉上相似的图像具有相同的哈希值,即使图像经过裁剪或者其他颜色处理。 这组哈希值数据库经过加密后存储在iPhone、iPad、Mac等各类苹果设备上,防止用户获取哈希值绕过系统检测。 然后,苹果会对用户在这些设备上接收、保存和发送的图片进行另一组哈希值的提取。在图片上传到iCloud之前,系统会进行这两组哈希值的比对。 如果系统认为照片属于露骨内容,iMessage就会暂时屏蔽这张照片,并再次确认用户是都要浏览或者发送这张照片。 不仅如此,如果用户本身就是儿童,并且设置了家庭账号,iOS系统还会通知家长。 苹果认为,这些保护措施可以防止其儿童不良监测机制被滥用,而不会看到用户的任何信息。而且苹果也给予了用户申诉的机会,如果用户认为自己账户被错误标记可以申诉恢复账号。 但问题是,如果照片对比超过一定阙值,被判定为儿童色情虐待内容,苹果的服务器将可以对照片进行解密,并且交由人工进行二次审核。 所以很多安全专家认为,苹果设计的这套打击儿童色情的技术,可能存在严重的安全和隐私风险。 于是,他们在上周六签署公开信,谴责苹果有计划破坏用户隐私和端到端加密机制。 公开信指出,苹果提出的措施可能将每部iPhone变成一台监控设备,不断扫描通过他的所有照片和信息,以便向执法部门报告任何令人反感的内容,这开创了一个先例,我们的个人设备成为一种激进的新入侵监控工具,几乎没有任何监督,以防止最终滥用和不合理地扩大监控范围。 专家们也指出了苹果提出的方法中存在的根本设计缺陷,他们声称苹果可以很容易地为每个用户使用不同的媒体指纹数据集。对一个用户来说,这可能是虐待儿童,对另一个用户来说,这可能是更广泛的类别,从而为目标用户提供了选择性的内容跟踪。 揭露美国大规模监控棱镜计划的爱德华斯诺登也在推特上发声:不管多么善意,苹果正在用这个对全世界进行大规模监控。如果他们今天能够扫描到儿童色情片,那明天就能扫描到任何东西。他还在Twitter上发布了一张梗图吐槽: 苹果2015年:我们不让FBI查看死掉的恐怖分子的手机,只为保护你的隐私。 苹果2021年:我们会用官方黑名单检测你的相册和iCloud照片,除了报警之外,还会告诉你家长 在端到端通讯系统中加入这样的扫描系统,一直以来都是全球各地执法部门的主要需求。 但电子前线基金会(EFF)曾表示,这种所谓的用户端侧扫描工具,其实是一个伪命题。 它曾表示,从技术上来说,用户端侧扫描工具无法将检测范围限制在儿童色情板块。而且所谓的端到端加密,指的是内容的发送端和接收端可以看到,除此外其他任何人都无法看到,也更没有能力解密。 但从苹果迷惑的操作上来看,这很明显是打破了端到端加密的承诺。而且一旦涉及到人工审核,这就意味着进一步扩大了隐私泄露的风险,关键这个人工是苹果公司自己的人员还是外包公司的人员,用户尚未可知。 虽然苹果对外声称这项技术只会用在美国,但全球那么多苹果用户,美国能不对其庞大的数据库虎视眈眈?谁又能保证除了美国之外的苹果手机不被植入这些检测工具? 说起隐私的保护,安卓比苹果更差,可惜就像某人说的好,国人喜欢用隐私交换便利。 大数据时代,如何有效保护自己的隐私,确实是一个值得深思的问题。