苹果虐待儿童扫描工具的事实、虚构和幻想

Macalope

Macalope 很高兴他上周离开了,因为他需要休息一下才能回到本周的 BLAZZLEFROZZLEROGGLE!

上周四,苹果公司宣布将在即将推出的操作系统版本中实施多项新技术,旨在识别和标记儿童色情内容。听起来是个好主意,对吧?嗯,是的……但也不是。

如果这听起来有些细微差别,那么你是对的。但至少我们可以放心,因为人类可以很好地处理细微差别。

[紧张的微笑,拉扯衣领]

是的,饥渴的人已经看到了对此的多种反应,从”一切都很好,公民!”到”他们拿走了我的名字并给了我一个电话号码!”喜欢”啊哈!”的《华盛顿邮报》苹果公司提供了一篇文章,其华丽的指责和众多的不准确之处都非常出色。在 关于 Apple 公告的文章,约翰·格鲁伯 (John Gruber) 详细详细说明了《华盛顿邮报》这篇文章的问题所在。

对于 Macalope 来说,苹果陷阱主义的领域已经从《福布斯》撰稿人网络和赤潮蔓延到了推翻尼克松的报纸的页面,这让 Macalope 感到很搞笑。最近,《华盛顿邮报》试图从一份报告样本中获取干草,该报告样本中感染间谍软件的 iPhone 数量比 Android 还要多。设备。问题在于,更多 iPhone 被感染的原因很简单,就是 iOS 的日志更好,研究人员警告不要根据他们的发现对平台做出相对判断。

但是,在您对 Apple 新的反儿童色情技术感到不满或急于为 Apple 辩护之前,Macalope 建议您阅读 Apple 页面关于儿童安全,格鲁伯的有关此主题的上述帖子 以及 Ben Thompson 的(订阅)如果可以的话。 Macalope 知道在你发表意见之前先了解事情已经过时了,但就这一次迁就他吧,不是吗?

Macalope

虽然故事很短,但有两个有争议的方面。首先,如果你将照片存储在 iCloud 中,Apple 会将其标识符与负责跟踪此类材料的政府组织编制的已知儿童色情内容标识符数据库进行比较。如果发现此类图像的数量超过一定数量阈值,Apple 将收到警报并调查情况。自动化系统不会查看或扫描图像,它只是检查标识符以查看是否有已知的儿童色情内容。

其次,Apple 为儿童 iOS iCloud 帐户发送或接收的照片提供了选择加入选项。苹果在描述此功能时表示:

消息使用设备上的机器学习来分析图像附件并确定照片是否露骨。该功能的设计目的是让 Apple 无法访问这些消息。

对第一个技术的担忧集中在,如果政府向苹果提供自己的数据库,其中包含政治异议或支持”颠覆性”想法的图像,例如卑鄙的纸卷,虽然本质上是错误的,但应该会发生什么。不被迫害吗?苹果 已明确表示将拒绝任何此类请求。

Macalope 当然希望他们坚持这一点,因为当你向独裁者提供 cookie 窃取技术的知识时……他会想偷一些饼干。

该技术仅检查存储在 iCloud 照片中的照片。如果您想选择退出,请不要将照片存储在 iCloud 中。这对许多人来说是一个痛苦,但至少它符合苹果与执法部门现有的协议,即虽然它不能/不会解锁 iPhone,但它可以/将会解锁 iCloud 备份。

对第二种技术的抱怨是,虽然它是选择加入的并且目前仅针对儿童帐户,但以某种方式实现设备上图像扫描是危险的,因为……事情发生了变化!音乐风格、领带宽度,当然,还有政府让公司介入普通公民生活的程度。

鉴于 Apple 承诺在传输过程中对消息进行加密,这是实现这一目标的唯一方法。唯一的选择是根本不扫描这些图像。你可以说这就是苹果应该做的。但值得注意的是,正如汤普森指出的那样,政府正在转向强制公司寻找儿童色情内容,部分原因是这确实是可以想象的最糟糕的事情之一,部分原因是”不会有人想到孩子吗?”确实很受选民欢迎。

保护儿童是伟大的。我们都希望如此。我们不想让坏人更容易利用我们的善良本性。

而且,正如 John Gruber 指出的那样,Apple 可能正在将这些技术作为”为 iCloud 照片库和 iCloud 设备备份提供端到端加密”的先驱。换句话说,当它提供更多的个人隐私保护时,作为切断执法部门和立法者投诉的一种方式。 Macalope 愿意相信这就是正在发生的事情,但目前这只是猜测。

虽然 Macalope 拒绝了那些在愤怒大道上从零加速到 60 的人,但对这些新技术的担忧一点也没有错。这一切绝对值得我们密切关注。资本主义制度下的公司的底线就是底线,考虑到苹果公司为遵守外国反隐私法而做出的其他决定,担心这种情况可能会被滥用并非没有道理。苹果高管当然关心保护儿童和隐私,但无论我们如何将这个国家的公司视为个人,公司都没有灵魂。

Dolly Parton Enterprises Inc. 可能例外。