iOS 15.2 的照片扫描儿童安全功能尚未扫描您的照片
早在 8 月份,Apple 就宣布了两项新功能,旨在保护 iPhone 用户免受儿童掠夺者的侵害,减少使用 Apple 的技术和服务传播儿童性虐待材料 (CSAM),并保护未成年人免受不良性内容的侵害。 p>
宣布了两项功能:iCloud 照片的 CSAM 扫描和用于监控消息中色情内容的家长控制功能。 CSAM 扫描功能引发了隐私倡导者的巨大争议,Apple 最终推迟了整个事情,直到后来在这一年中,我们致力于改进他们的解决方案,以更好地保护用户的隐私。
最新的 iOS 15.2 beta 包括第二个功能,但不是有争议的第一个。 CSAM 照片扫描功能将使用设备上扫描照片库中上传到 iCloud 的图像,检查是否与已知的儿童性虐待图像数据库匹配。扫描结果是保密的,即使是 Apple 也如此,直到超过某个阈值,此时 国家失踪和受虐儿童中心(NCMEC)将会联系。
苹果认为,设备上的匹配(仅将安全哈希值传递到 iCloud 服务器)实际上比大多数竞争对手对此类材料所做的云内处理更加私密和安全。但隐私倡导者警告说,任何扫描设备上照片的系统都会为该系统被恶意行为者或国家特工滥用奠定基础。
Apple 的对话安全功能将标记消息中可能”无法查看”的照片。
苹果
另一方面,iOS 15.2 beta 2 中的新功能是争议较少的消息对话安全功能。它也依赖于图像的设备上扫描,但它不会将图像与已知数据库进行匹配,并且除非父帐户启用它,否则不会启用它。
一旦家长帐户为儿童帐户启用该功能,”消息”中发送或接收的任何图像都将被扫描是否有裸露和色情内容。如果收到这样的图像,它将被模糊,并且将通过弹出窗口警告孩子,其中提供了要做什么的资源。然后孩子就可以查看或不查看照片。
按照最初的设想,如果查看此类图像,13 岁以下儿童的父母将自动收到通知。批评者指出,这可能会让一些儿童面临风险,因此苹果取消了自动通知,而是让任何年龄段的儿童都可以向值得信赖的成年人发送消息(如果他们愿意),而与查看图像的决定分开。
如果家长帐户未明确启用此功能,则不会扫描任何图像,并且不会向 Apple 或任何其他第三方发送任何类型的信息。
但 CSAM 扫描正在进行中。如果苹果坚持其时间表,它将在即将到来的测试版(可能是 15.3)中重新引入照片扫描功能,争议将再次开始。但就目前而言,iOS 15.2 中的对话安全功能不应该吓到父母,而且可能会帮助孩子们做出更好的决定——所有这些都不需要 Apple 实际扫描他们的照片。