本文来自量子位(公众号 ID:QbitAI),作者 赖可
没错,美国人脸识别系统最爱的是:白人中年男性。
其他非裔、亚裔族群,识别率就没那么高了。
这周四,美国NIST发布的研究报告给出了这样的结果。
甚至在一些算法中,亚裔和非裔美国人被误认的可能性比白人高100倍。
对于一向“政治正确”先行的美国,可想而知该结果带来的“爆炸性”。
还有一个有趣的结果,像来自商汤、旷世这样的亚洲算法,白种人和黄种人之间的误判差距就小一些。
这项研究由美国国家技术标准研究院NIST进行,检查了人脸识别软件在不同种族、性别、年龄上是否有差异。
研究检查了由99家公司,学术机构和其他开发人员自愿提交的189种算法。包括了大多数业界领先的系统,来自主要的技术公司和承包商,包括Idemia,英特尔,微软,松下,商汤和 Vigilant Solutions。
亚马逊没有提交检查,CNN Business从NIST处得知,亚马逊认为自己的软件和该检测不相容。亚马逊的人脸识别软件Rekognition出售给了俄勒冈州警方,用于嫌疑人追踪。
量子位查阅这次提交检查的公司名单,发现没有谷歌
曾经有黑人兄弟发现自己被谷歌的算法识别成”大猩猩“,谷歌公司的整改方法是:把识别类别中的”大猩猩“去掉了。(可戳量子位之前的文章:为了不把黑人兄弟认作大猩猩,谷歌的算法连真的大猩猩都不认识了)
检测结果
1、在一对一匹配中,相较于白人,亚裔和非裔的人脸识别错误率要高10到100倍。(不同算法不同)
2、在所有种族中,美洲原著民的假阳率最高;一对多匹配,非洲裔美国女性的假阳性率更高。
3、年龄和性别因素。老年人和儿童更容易被识别错,女性比男性容易被识别错。中年白人准确率最高。
4、不同国家开发的算法表现不同。美国开发的算法中,亚裔、非裔和土著的错误率很高。亚洲开发的算法中,白人和亚洲人的错误率差距较小。
根据人脸识别的使用场景和功能,检测分为一对一匹配和一对多匹配:
一对一匹配一般用于手机人脸解锁或护照检查。
一对多匹配用于确定某张照片是否在一个数据库中有匹配项,经常用于警察搜索嫌疑人。
一对一匹配出现错误可能会导致人脸无法解锁,给生活带来麻烦。但是一对多匹配的错误可能后果更严重,就会让警察把无辜的人列入嫌疑名单。
这份报告的主要作者Patrick Grother表示,
我们研究的大多数面部识别算法中都存在人口统计学差异的证据。尽管我们不探原因,但这些数据对于决策者、开发人员和最终用户在考虑这些算法的局限性和适当使用方式时将是有价值的。
这不是第一份研究显示出人脸识别带有偏见。
例如,去年MIT实验室的一项研究也得出了类似的结果。
凡遇到肤色较暗的人种以及女性,识别的错误率就增加。
亚马逊等公司之前批评了这些研究,称这些研究使用了过时的算法,或者是系统使用不当。
在美国一些地区,对于人脸识别已有禁令旧金山、奥克兰以及马萨诸塞州的两个城市萨默维尔和布鲁克莱恩,在今年已通过了禁止公职人员使用面部识别的条款。加利福尼亚州禁止在警用摄像头中使用人脸识别软件。
这次研究结果,再次引起美国国会议员对于人脸识别技术的监管讨论。他们要求川普政府重新考虑扩大人脸识别使用的计划。
美国俄勒冈州的参议员Ron Wyden在一份声明中说,
任何部署新技术的公司或政府有责任仔细检查其产品是否存在偏见和歧视,至少要在软件中彻底检查是否有Bug。
有网友尝试对”白人的正确率高“这一结果进行解释。可能是白人的面部特征差异(比如眼睛和头发的颜色)本身就比较大?
还有少数族裔的网友现身说法,讲了自己被“人脸识别”唤醒“童年创伤”的故事:
在机场的CLEAR系统经常识别不出他,他不得不进入TSA Pre-Check。TSA检查需要涉及背景和指纹检查。这让他重新经历童年时期朋友和老师认不出他的痛苦。
即使现在,当咖啡师看着他想不起来他的订单时,他依旧会体验到激烈的情绪。
现在他知道这不是他的问题,而是他身上原住民血统的原因。
我们生活在一个充满偏见的世界,而新技术的到来,会放大现实世界的偏见吗?
参考资料
https://www.nist.gov/news-events/news/2019/12/nist-study-evaluates-effects-race-age-sex-face-recognition-software
https://www.washingtonpost.com/technology/2019/12/19/federal-study-confirms-racial-bias-many-facial-recognition-systems-casts-doubt-their-expanding-use/
https://edition.cnn.com/2019/12/19/tech/facial-recognition-study-racial-bias/index.htmlhttp://gendershades.org/overview.html