更新: Apple 已在一份详细文件中确认了该报告的大部分内容。
苹果在做什么?
苹果计划的报道来自《金融时报》和约翰霍普金斯大学教授 马修格林,这两个消息来源普遍可靠。当然,在 Apple 确认情况确实如此之前,这种情况总是有可能不会发生。据报道,苹果本周早些时候向一些美国学者展示了该计划。
我已经从多个人那里得到独立确认,Apple 明天将发布用于 CSAM 扫描的客户端工具。这真是一个糟糕的主意。
— 马修·格林 (@matthew_d_green) 2021 年 8 月 4 日
据报道,苹果将使用一种名为“neuralMatch”的系统来扫描美国 iPhone 中的虐待儿童图像。
从本质上讲,如果自动化系统认为检测到非法图像,它会提醒一组人工审核人员。从那里,团队成员将审查图像并联系执法部门。
从技术上讲,这并不是什么新鲜事——基于云的照片存储系统和社交网络已经在进行这种扫描。这里的不同之处在于,Apple 是在设备层面上做到这一点的。根据 Matthew Green 的说法,它最初只会扫描上传到 iCloud 的照片,但它会在用户的手机上执行该扫描。“最初”是那里的关键词,因为它可以很好地用于在某个时候本地扫描所有照片。
这应该可以减少系统的侵入性,因为扫描是在手机上完成的,只有在匹配时才会发送回来,这意味着并非您上传的每张照片都会受到陌生人的关注。
据出席简报会的人士称,上传到 iCloud 的每张照片都会获得一张“安全凭证”,说明是否可疑。当一定数量的照片被标记为可疑时,如果发现任何涉及虐待儿童的内容,Apple 将对其进行解密并将其发送给当局。
系统将如何区分虐待儿童的图像和其他图像?据报道,它已经在美国非营利性国家失踪和受虐儿童中心收集的 20 万张性虐待图像上进行了测试。
图像通过哈希转换为一串数字,然后与数据库中的图片进行比较。
所有这一切都出来后,苹果拒绝就正在发生的事情向《金融时报》发表评论。但是,我们认为该公司正在制定一些官方声明,以免有关这一举措的消息失控。
这开创了一个危险的先例
我们可能不需要告诉你这有多可怕。虐待儿童的人应该被抓住并受到惩罚,但很容易看出如何将这样的事情用于更具侵略性的目的。