近日,Apple 收到一项关于 CSAM(儿童性虐待材料)的指控,指控对象是该公司 2021 年放弃实施的 "CSAM 监测 " 功能。受害人表示,Apple 默许 iCloud 存储 CSAM 相关内容,并对自己造成二次伤害。
此次案件的受害者是一名 27 岁的女性,她在儿童时期受到亲戚猥亵,并被记录下来,相关内容一直在网上分享,其中一个重要载体就是 iCloud。她指控道,Apple 并没有识别并删除这些照片或视频,以至于她现在还能看到那些内容,并持续对她造成伤害。
诉讼称," 如果 Apple 实施其 2021 年的‘ CSAM 监测’技术,原告童年性虐待的图像和视频,将被识别并删除。"
这已经不是第一起相关起诉,今年 8 月,一名 9 岁女孩和她的监护人也起诉了 Apple,理由是该公司未能解决 CSAM 在 iCloud 的传播问题。根据现有数据统计,可能有 2680 名潜在受害者将对 Apple 提出赔偿要求。
时间回到 2021 年,Apple 当年宣布 CSAM 监测功能后,因为隐私隐患被迫叫停。该功能在当年引起巨大舆论压力,因为 CSAM 监测相当于植入一个官方 " 后门 ",一旦被滥用将有巨大隐私泄漏风险,如今该风险又将卷土重来。
粗略统计,Apple 全球用户多达 20 亿,存储在 iCloud 的图片及视频不计其数,它们现在都是加密状态存储。在 CSAM 监测功能加入后,相当于在所有加密内容中放入了一个 " 后门 ",只要有需要,就可以随时解密这些数据。
现在的情况是,Apple 已经明确表示,在 iPhone、Mac 或 iPad 中存储的内容,即使是 Apple 官方,在任何情况下都无法访问这些数据。也许正是由于端到端加密的特性,连 Apple 官方也无法查看并处理这些 CSAM 相关内容。
在回应 CSAM 相关起诉时,Apple 发言人说道:"CSAM 相关内容令人憎恶,我们致力于打击这类犯罪行为。我们正在加紧技术创新,积极打击犯罪行为,同时又不损害所有用户的安全和隐私。" 最新消息,Apple 拟定的初始计划是,在 CSAM 相关内容发送时发出警告,在传播开始前进行遏制,不过这个方案可能随时会改变。
无论如何,这个诉讼都将关系全体 Apple 用户,大家都应认真对待,因为加密存储的任何一环被打破,这个隐私壁垒就将彻底崩溃。