苹果将很快扫描所有 iCloud 照片图像是否存在虐待儿童行为
更新:苹果有一个儿童安全页面,描述了这一新功能及其工作原理。
TechCrunch 已确认,苹果将很快推出一项新技术来扫描上传到 iCloud 的照片作为儿童性虐待材料 (CSAM)。该产品将于今年晚些时候推出,作为一系列技术的一部分,旨在让儿童更安全地使用其产品和服务。
大多数云服务已经扫描图像以查找违反其服务条款或法律的材料,包括 CSAM。他们可以这样做,因为虽然图像可以加密存储,但公司拥有加密密钥。 Apple 对传输中的照片进行加密并以加密方式存储它们,但拥有解密密钥,以便在必要时解密它们,以便根据传票提供存储在 iCloud 中的数据,或者使您的 iCloud 照片可以在网络浏览器中使用。
为了帮助保护用户隐私,该公司依靠一种名为 NeuralHash 的新技术,该技术将在图像上传到 iCloud Photos 时对其进行检查,寻找与已知的虐待儿童图像数据库的匹配项。它完全可以在您的 iPhone、iPad 或 Mac 上运行,将照片转换为唯一的字母和数字字符串(”哈希”)。通常情况下,对照片的任何轻微更改都会导致不同的哈希值,但据说苹果的技术使得小的更改(例如裁剪)仍然会导致相同的哈希值。
这些哈希值在设备上与儿童性虐待图像的哈希值数据库进行匹配。哈希值可以在不可见的情况下进行匹配,无需知道底层图像是什么或以任何方式提醒用户。如果达到一定的阈值,比赛结果就会上传到 Apple。只有这样,苹果才能解密匹配的图像,手动验证内容,并禁用用户的帐户。然后,苹果公司会将这些图像报告给国家失踪和受虐儿童中心,该中心随后将其转交给执法部门。
换句话来说,Apple 极不可能能够在你的 iPhone 上随机查看他们想要的任何图像。据 TechCrunch 报道,苹果表示误报的可能性为万亿分之一,对于任何认为自己的帐户被错误标记的人,都会有一个上诉程序。该技术只是可选的:您不必使用 iCloud 照片,但如果您这样做,您将无法禁用该功能。
Apple 发布了一篇技术论文,详细介绍了这项 NeuralHash 技术。这项新技术将作为 iOS 的一部分推出15,iPadOS 15 和 macOS Monterey今年秋天。