苹果新功能:图片分析扫描CSAM图!

8月10日消息,当地时间周一苹果公司强调,其为保护儿童而推出的图片分析新功能只会扫描iCloud云服务中是否存储有儿童受虐材料(CSAM)。

上周,苹果宣布已经开始测试新功能,使用复杂加密技术来识别用户是否将已知的儿童受虐材料上传至iCloud云存储服务。苹果表示,其可以在不查看用户照片内容的情况下做到这一点。

苹果周一重申,这套检测CSAM图像的新功能使用自家服务器和软件,比谷歌和微软等公司使用的系统更加私密。相关软件将通过iOS更新安装在用户iPhone上。

苹果的这项新功能主要通过比对特定图片的哈希值来进行检测。苹果公司强调,美国政府不能强迫苹果将非CSAM图像的图片信息添加到哈希列表中。

苹果称,“苹果的CSAM检测功能仅用于检测存储在iCloud照片中、已经被美国国家失踪和受虐儿童中心(NCMEC)和其他儿童安全组织专家识别出的CSAM图像。”公司补充称,“我们曾被要求作出会降低用户隐私保护的改变,但我们坚决拒绝了这些要求。今后我们将继续这么做。”

声明还说:“明确一点,这项技术仅限于检测存储在iCloud中的CSAM图像。”

根据规定,美国公司需要向NCMEC报告CSAM图像,如果发现CSAM图像而不报告,将面临最高30万美元的罚款。

多年来,苹果一直在强调保护用户隐私。2016年,苹果与美国联邦调查局(FBI)当庭对峙,为的是在执法机构调查一起枪击案时保护自家设备加密系统的完整性。

但苹果也面临着来自执法机构的巨大压力。他们担心犯罪分子可能会利用隐私工具和加密手段,防止非法信息落入执法人员手中。

苹果利用自家设备在隐私保护方面的声誉,在金融和医疗保健领域开辟出新的市场。但围绕苹果CSAM图像检测新功能的一系列争议威胁到苹果打造安全私密设备的公众声誉。

批评人士担心,这一功能也会iPhone上运行,而不是只扫描上传至公司服务器的照片。苹果竞争对手通常只扫描存储在服务器上的照片。

科技评论员本·汤普森(Ben Thompson)周一表示:“苹果曾如此执着于保护隐私的特殊愿景,但最终却背叛了用户控制的基础:能够相信你的设备确实是你的。这真的令人失望。”

苹果则强调,自家的CSAM图像检测新功能会带来真正改进,既可以保护儿童,同时也能保护iPhone用户隐私。

苹果表示,从公司追踪的每一个隐私指标来看,CSAM图像检测新功能都比之前系统更好、隐私属性更强。

苹果一名代表称,通过将一些处理转移到用户设备上,苹果无需在服务器端检查每一张图像就能比对CSAM图像,隐私属性更强。

苹果周一表示,这一功能不会扫描未上传到iCloud的用户照片。苹果还证实,会对已经上传至iCloud的照片进行处理。苹果表示,这些功能将在今年晚些时候通过iPhone更新发布。之后用户会收到通知,苹果开始将iCloud上存储的照片与已知CSAM图像所对应的哈希值进行比对。