陷入困境一年后,苹果悄然取消了备受争议的 CSAM 照片扫描功能

CSAM

去年,苹果宣布了在多个领域帮助打击儿童性虐待的计划。作为 iOS 15.2 的一部分,Apple 为”消息”实施了新的家长控制功能,以帮助防止儿童看到或发送性图像,并增强了 Siri 和搜索功能,以提供有针对性的资源可能是受害者的儿童。然而,其最具争议性的功能,即在上传到 iCloud 时扫描您的照片,以查看它们是否与已知的儿童性虐待材料 (CSAM) 相匹配,已被推迟。

尽管苹果采取了重大措施来确保用户的隐私受到保护,并且外部参与者(如政府机构)无法使用该技术让苹果扫描持不同政见者等事物的照片,但它还是引起了很多争议隐私社区中的旗帜。从宣布的那一刻起,人们就担心”大规模监控”的前景,以及允许苹果运行可用于扫描的系统

周三,在接受《华尔街日报》采访时,苹果公司软件工程高级副总裁 Craig Federighi 证实,CSAM 扫描功能已被报废了。其他功能自去年以来已在 iOS 中推出。费德里吉说:”可以在儿童性虐待发生之前就阻止它。这就是我们投入精力前进的地方。”

在给 Wired 的一份声明中,Apple 详细阐述了:”我们进一步决定不再继续使用之前为 iCloud 提出的 CSAM 检测工具相片。无需公司梳理个人数据,儿童就可以得到保护,我们将继续与政府、儿童权益倡导者和其他公司合作,帮助保护年轻人,维护他们的隐私权,并使互联网成为对儿童和我们所有人来说更安全的地方.”

该系统也可能遇到了技术障碍。 Apple 周三宣布,它将将为大多数 iCloud 数据(包括照片)提供端到端加密选项,这可能会使 CSAM 扫描变得难以正确进行实施。