苹果推迟了在 iOS 中扫描儿童色情内容的计划
2021 年 12 月 13 日星期一,Apple 发布了 iOS 15.2 最终版本。该公司通过更新修复了一些安全漏洞,并带来了一些新功能,包括针对儿童的新保护,其中包括对 iMessage 中露骨内容的警告以及对通过 Siri、Spotlight 和 Safari 进行搜索的保护。该公司于 2021 年初宣布了这些变化。
这些保护意味着,在 iOS 15.2 中,如果孩子接收或发送露骨内容,家长可以激活警告。
Apple 的儿童安全网页,但是 Reddit 帖子指出某个部分有从此页面消失:CSAM 对 iCloud 照片进行审核的公告。
Apple 关于即将推出的儿童安全功能的页面最初于 8 月 5 日上线。最新版本于 12 月 13 日发布,并删除了与 CSAM 审查相关信息的任何引用。页面上的相应段落以前是三个安全功能中最全面的。此外,苹果还参考了白皮书等技术文档以及研究人员对创新的审查。这些 PDF 本身仍然在线,但现在公告页面上的任何链接都丢失了。
苹果公司因宣布将检查 iCloud 照片中是否存在代表儿童性虐待内容的图片而遭到强烈反对。人们显然更担心这会侵犯他们自己的隐私,而不是保护儿童的一种方式。但并非每个苹果用户都是父母。苹果公司的 Craig Federighi 确实解释说,苹果的照片扫描已经在 8 月份接受《华尔街日报》采访时,”被广泛误解”。
该公司随后于 2021 年 9 月更新了其儿童安全网页,表示:
“此前,我们宣布了一些功能计划,旨在帮助保护儿童免受使用通讯工具招募和剥削儿童的掠夺者的侵害,并帮助限制儿童性虐待材料的传播。根据客户、倡导团体、研究人员和其他人的反馈,我们决定在未来几个月内花更多时间收集意见并进行改进,然后再发布这些至关重要的儿童安全功能。”
而现在,苹果在这方面的计划目前还不清楚。这些计划是否仍然被推迟,或者根本不再计划。
希望苹果能够想出一种方法来识别此类犯罪材料,并且苹果用户不会认为这是对自己隐私的侵犯。
本文最初发表于 麦克韦尔特。凯伦·哈斯拉姆翻译。