编者按:本文来自微信公众号“极客公园”(ID:geekpark),作者 在野,36氪经授权发布。
一场口误引发的风波。
不久前,创新工场董事长兼 CEO 李开复在一场公开演讲中提到,曾在旷视科技成立初期帮助其找到了美图、蚂蚁金服等合作伙伴,拿到了大量的人脸数据。
蚂蚁集团服监测到舆情后,主动发声,表示从未提供任何人脸数据给旷视科技,并声明,数据安全和隐私是蚂蚁集团的生命线,在任何时候都不会违背。
随后,旷视科技和李开复也先后发声。前者表示,旷视不掌握,也不会主动收集终端用户的任何个人信息。后者对其口误进行了说明,并对其对三家公司造成的困扰致歉。
至此,口误事件逐步平息,但关于人脸隐私的问题引发了一连串疑虑。那么我们是否应该担心人脸数据的问题,甚至对大数据时代到底该不该表示拒绝呢?
AI 技术的发展建立在数据的基础之上。以人脸识别所在的图像识别为例,AI 模型在被构建初期,需要通过大量图像数据的学习,掌握图像中不同事物的特征,并用学到的特征识别新的图像中的物体。
对于人脸识别来说,经过训练的机器能够识别图像或视频中的人脸的特征,与其已知的人脸特征相比对,从而识别出被识别人的身份。因此,要想一个人脸识别应用「能认出你」,首先它要「认识你」。
比如在支付场景下,用户在开通「刷脸支付」的时候,往往需要先进行面部扫描,以便系统「认识你」。扫描所得的人脸数据会被应用拥有方存入数据库,当用户发生刷脸支付行为的时候,系统就会将当下的人脸特征与数据库中存档的人脸特征进行比对,并结合其他行为信息确认用户身份。
那么,当技术合作方,比如 AI 公司,与金融机构合作建立人脸识别项目的时候,AI 公司能否有机会从金融机构获得人脸数据?这在当前的监管形势下,答案是否定的。
人脸识别技术逐步走入人们生活中后,监管力度开始逐步加强。特别是在关乎人民财产安全的金融领域,监管部门对金融隐私数据的治理更是严格。
2020 年 2 月,中国人民银行发布了金融行业标准《个人金融信息保护技术规范》,从安全技术和安全管理两个方面规定了个人金融信息在收集、传输、存储、使用、删除、销毁等生命周期环节的安全防护要求。
在该规范中,央行规定了信息分级管理制度,其中,个人身份信息,包括指纹、人脸、虹膜等个人生物识别信息属于 C3 级别,也就是最高级别保护信息,与银行卡密码同级。规范明确规定,C3 级别信息不应共享转让,且不应委托给第三方机构进行处理。
「金融机构对数据安全的要求一直以来都是最高级的」,一位 AI 公司的业务负责人告诉极客公园,他在工作中频繁接触金融客户。「机构内部有两级物理隔离的系统保证数据安全,即使内部员工想要访问数据都需要在一个放满摄像头监控的物理隔离的操作间进行操作。」
如果需要第三方公司的服务,第三方公司的员工需要到机构现场,并且要在机构内部员工的陪同下,按同样的安全策略执行。也就是说,在金融机构完全合规的情况下,在当前的金融监管环境中,AI 公司想要通过合作获取数据,几乎没有可能。
然而,时间拉回到人脸识别技术刚刚起步的 2012 年,那时监管尚未成熟,哪怕是在金融领域,合作双方也不一定有意识对人脸信息做保护。这就导致在行业初始阶段,很多人脸信息在人脸拥有者不知情的情况下,被复用或交易。
虽然生物识别信息与银行卡同属于 C3 级别,但在实际意义上,个人生物信息甚至重要意义远大于银行卡密码,因为生物信息无法被修改。也就是说,一旦你的人脸、指纹、虹膜信息授权给数据使用方,你没有办法通过「修改你的脸、指纹、虹膜」撤销授权。
尽管上述规范中对金融机构提出了明确的数据删除及销毁规范。但在实际环境中,情况并非如此简单和乐观。一位金融领域的 AI 技术从业者向极客公园谈到:「我家附近的奶茶店都能自动地识别到我,每次我过去买奶茶,门口的机器都会说『张先生您好,您是我们的 VIP 会员』,你说想要获得人脸信息,还是难事吗?」
2019 年 11 月,新京报记者曾调查人脸数据卖家,当时换脸 App「ZAO」由于隐私问题被封。在调查中记者发现,人脸数据的交易已经形成一条产业链,从微信朋友圈获取,或者用爬虫爬取,再打包售卖,每三万张照片售价低至 8 元。
极客公园记者再次试图在百度贴吧等论坛搜索人脸信息卖家时,被提示「由于相关法律政策,改信息不予显示」。不过,极客公园记者也从数据标注公司处了解到,人脸信息的贩卖仍在产业的熟人关系中进行。
「跟他们买人脸数据是要签对公合同的,他们没有法律风险,都是用户授权的数据」,上述数据标注公司负责人告诉极客公园。然而,在用户同意被采集人脸数据时,是否对合同中隐藏的「授权协议」知情?在 ZAO 被封禁前的第一版用户协议中,存在「完全免费」、「不可消除」、「永久」等字句,但它还是一夜蹿红,成为用户争相注册的 App。
事实上,很少有用户会逐字逐句地阅读条款中的内容。能够充分知悉其中风险的人群更是少之又少。将用户所要承担的风险埋在冗长的条款协议中,本身就是一种规避监管的手段。
在我国,非法买卖人脸图像等数据可能违反《民法总则》、《侵权责任法》中对于他人隐私权、肖像权的保护。国家机关或者金融、电信、交通、教育、医疗等单位的工作人员利用其掌握的公民人脸数据,然后进行倒卖的,可能会构成《刑法》规定的出售、非法提供公民个人信息罪。手机 App 等非法搜集用户相关信息,则还会违反《移动互联网应用程序信息服务管理规定》的相关规定。
「中国 AI 产业的优势在于数据」,这是近年来在 AI 行业最常听到的话。有广泛的落地场景,又有唾手可得的训练数据,在中国,AI 公司们正以比欧美国家更快的落地速度奔跑着。
今年年初,有消息指出欧盟正在考虑禁止在公共场所使用人脸识别技术长达五年,以便有时间研究如何防止这种技术被滥用。在美国,一些城市正在尝试禁止政府使用人脸识别技术。2019 年 5 月,旧金山通过了《停止秘密监视条例》,成为美国第一个禁止政府使用人脸识别系统的城市。
人脸识别技术一方面能够为城市治理、人民生活带来便利,另一方面也暴露出风险。像欧洲国家一样,考虑用一刀切的办法抵制新技术,固然是不可取的,也不符合我国发展的需要。如何在确保发展的同时,保护好公民的隐私,不为未来埋下隐患,是监管机构正在考虑的问题。
2020 年 6 月,在极客公园与 B 站共同举办的 Rebuild 2020 Move on 现场,李开复曾谈及个人数据与 AI 公司之间的关系。他谈到,「现在确实很多欧美个人利益保护组织在说,数据是属于个人的,商业公司拿着个人的数据赚钱,应该获得用户的授权或者分成。」但李开复也坦言,现在这还是个乌托邦的梦想。
他觉得更务实的做法是,「应该惩罚用数据做坏事的人,而不是把数据收回来」。这可能也是用户今天需要面对的共识:毕竟如果只看到钢铁会被坏人用来做恶,那人类就不会有工业革命了。在技术进步之时制定合理的规则,比简单拒绝技术进步更符合每个人的利益。