苹果读取照片信息以甄别儿童侵害的举动,再次引发争议。
8月6日,一封公开信在网络流传,旨在呼吁苹果停止使用儿童安全审核工具,在签名的众多知名人士中,包括爱德华·斯诺登。
上周,苹果公布了一项新功能,在用户将照片上传到iCloud前,苹果会首先扫描图片,如果发现这些照片存在儿童侵害的内容,苹果会通知审查人员再次检查,如果确实这些照片违法,苹果将报告儿童保护机构。
在这项技术引发争议后,苹果做出解释:他们不会扫描用户整个照片库,而只是采用密码学技术和美国国家失踪与受虐儿童中心提供的数据库对比,而且这套系统只在美国适用,而且用户必须打开iCloud后才会启动。
这项技术使用哈希算法,是一项保密度比较高的技术。苹果并不会直接看到照片内容,AI提取的只是照片哈希值,再和国家数据中心库比对,检测工作都在本地完成,原理有些类似指纹比对。如果照片存在色情内容,苹果会屏蔽图片并确认用户是否浏览或发送过,如果用户是儿童,iOS会在家庭账号中通知监护人。
苹果面临两难的局面。美国国家儿童协会报告,平均5个儿童中就有1个在网络遭遇过性骚扰,另一儿童性侵害保护中心数据显示,有30%的侵害从来未曾被报告过。儿童性侵害范围很广,但更多潜伏在水面之下不为人知。苹果的做法实际上是让这30%的案件得以知晓。
但这的确引发争议。哈希算法虽然加密,但如果被攻破,黑客完全可能获取到用户的隐私照片。即便没有泄露风险,也会存在误报,苹果二次审核会看到不属于儿童侵害的私人照片,侵犯到用户隐私。
鉴于儿童性侵害的严重性,一刀切要求苹果停止甄别过于粗暴,能做的应该是监督苹果在此过程中,守住隐私和寻找犯罪行为之间的平衡。