苹果的照片扫描“被广泛误解”

Apple 展示了其新的儿童安全功能 – 最具争议的是 扫描存储的照片以查找虐待儿童图像 – 至少可以说很笨拙,反应明显混合 。然而,最近几天,苹果试图向美国媒体更好地解释其决定。

作为魅力攻势的一部分,克雷格·费德里吉 (Craig Federighi) 接受了《华尔街日报》的长篇采访,该采访嵌入在本文后面的视频中。采访重点关注了两项新功能:iCloud 照片扫描功能和 iMessage 全新儿童保护功能。

“事后看来”,费德里吉承认,同时引入这两种功能”是造成这种混乱的原因之一”,并试图澄清围绕苹果计划的一些误解,并捍卫这些政策免受更广泛的影响。批评。

Apple 扫描什么内容以及在哪里扫描?

在采访中,费德里吉强烈否认”苹果正在扫描我手机中的图像”的说法。据该软件副总裁称,非法图像文件的检测仅限于上传到 iCloud 的照片 – 即使正如我们将解释的那样,某些扫描技术上确实是在设备上进行的。

Federighi 指出,这种检查长期以来一直是所有其他云存储服务的常见做法。此外,这些竞争对手的服务会定期扫描每一张用户的照片,苹果希望避免这种情况,以保护他们的隐私。

“我们认为,在我们能够提供这种功能之前,以比该领域以前所做的任何事情都更加私密的方式来实现这一点非常重要。”Federighi 说。 >

只有当您使用 iCloud 照片库(可选)时,才会在将图像上传到 Apple 服务器时检查图像。

上传图像时,会生成图像的所谓 NeuralHash,一种指纹。将此与组织 NCMEC。由于仅使用已知的虐待儿童图像作为检查基准,因此您自己的孩子在浴缸中的照片不会被标记,一般色情内容也不会被标记。

如果图像与数据库中列出的图像匹配,则会自动创建所谓的”安全凭证”并将其添加到图像中。只有超过安全凭证的阈值(据 Federighi 首次给出的数字,约为 30 个),苹果才会收到有关该帐户的通知。即便如此,Apple 也只能访问标记的图像文件,而不能访问其他文件。

根据 Federighi 的说法,算法在设备上执行部分分析,然后在服务器上执行第二部分分析。然而,正如乔安娜·斯特恩(Joanna Stern)正确指出的那样,设备上进行的分析部分激怒了许多人。她解释说,这给人的印象是”苹果可以在你的设备上做一些事情”。

然而,根据 Federighi 的说法,这是一个误解。他说,审核仅在上传到云端期间进行。它不是一个跨所有图像文件运行的进程 – 例如 iMessage 或 Telegram 中的照片。

Federighi 也坚决否认这是后门。他说,服务器上的数据并不是不受限制地检查的。所有 iPhone 都只有一个数据库,在美国、欧洲和中国使用。

费德里吉说,甚至没有必要相信苹果,因为这个过程会受到多个当局的检查。他声称苹果故意设计该系统,使任何外国当局都无法强制更改(例如,搜索其他数据)。

消息中的裸体

苹果同时宣布的第二个新功能也与儿童安全有关,但它与照片扫描功能不同,可能会造成一些额外的混乱。

新功能会影响”消息”,旨在监控和过滤儿童收到的图像。如果家长打开该功能并且孩子收到裸照,该照片将被隐藏并向孩子发出警告。也可以通知家长。

这是为了保护儿童免遭性掠夺者的接触,并且完全处于父母的控制之下。 iPhone 上的智能图像识别系统能够识别裸体。

谁真正拥有 iPhone?

然而,最后,斯特恩再次提出了一个问题:是否有人实际上仍然拥有他们的 iPhone。

根据 Federighi 的说法,情况仍然如此:手机仍然属于所有者。仅对存储在云中的照片进行检查。因此,系统采用了尽可能最好的隐私保护。

苹果显然努力在隐私和儿童保护之间取得平衡。然而,该公司不应对隐私倡导者的批评感到惊讶。

在宣布这一复杂的程序会给客户留下的印象之前,我们似乎太少关注了。客户可能会问一个简单的问题:”Apple 是否扫描我的照片?”尽管验证流程和凭证很复杂,但最终答案是肯定的,苹果确实这么做了。

本文最初发表于 Macwelt。大卫·普莱斯翻译。