苹果备受争议的 iCloud 照片 CSAM 扫描已从网站上删除

iCloud 图标

今年早些时候,Apple 宣布推出新系统旨在通过扫描 iPhone 用户的照片来捕获潜在的 CSAM(儿童性虐待材料)。在立即引起轩然大波之后,苹果将系统推迟到 2021 年晚些时候,现在看来是这样如果有的话,可能会在一段时间内不会到达。

就在 iOS 15.2,Apple 已删除 Apple.com 上所有对 CSAM 扫描技术的引用。作为 被 Macrumors 发现,之前的儿童安全网页现在指向 支持页面 用于消息功能中的通信安全。苹果表示该功能仍然”延迟”,没有取消,但显然会错过了自己规定的 2021 年最后期限。

苹果的 CSAM 检测公告几乎一发布就引起了争议。所描述的系统会扫描用户的 iPhone 中的图像,以查找国家失踪和受虐儿童中心数据库中可识别的哈希值,然后在已知的 CSAM 哈希值列表中检查这些图像。如果匹配,则照片上传到 iCloud 后将由 Apple 人员进行审核,如果确实包含 CSAM,上传者将被转交给有关当局。

反对此功能的争论主要集中在它可以用于其他用途的想法上。例如,政府可以要求苹果创建类似的流程来检查被认为对政府政策具有决定性作用的图像。一些人还担心扫描是在 iPhone 本身上完成的,尽管只有在照片上传到 iCloud 后才会提供结果。

苹果在 iOS 15.2 中推出了一项新的消息功能,该功能可以在接收或发送包含裸露的照片时向儿童和家长发出警告,这是最初公告的一部分。与提议的 CSAM 扫描不同,该功能默认处于关闭状态,家长需要明确选择加入作为家庭共享的一部分。 Siri 和搜索也会在人们尝试查找潜在的 CSAM 时发出警告。

美国东部时间下午 12:10 更新:苹果表示该功能仍会延迟,但并未取消。