首页 >热门资讯> AI人工智能 > AI也有偏见:你在机器“眼里”是好人还是坏蛋? >

AI也有偏见:你在机器“眼里”是好人还是坏蛋?

转载时间:2021.08.10(原文发布时间:2019.10.18)
136
转载作者:36氪企服点评小编
阅读次数:136次

编者按:本文来自微信公众号“全媒派”(ID:quanmeipai),作者 腾讯传媒,36氪经授权发布。原题目《机器会给你的照片打“坏人”标签?国外网红项目聚焦AI偏见》

近日,麻省理工的博士生在两项独立研究中发现,虽然机器擅长识别人工智能生成的文本,但是很难分辨其中的真假。原因在于训练机器识别假新闻的数据库中充满了人类的偏见,因此,训练而成的人工智能也不可避免地带上了刻板印象。

人类偏见是人工智能界普遍存在的沉疴。ImageNetRoulette数字艺术项目通过使用AI分析描述用户上传的图片,揭示出了这一严峻问题。本期全媒派(ID:quanmeipai)独家编译《纽约时报》对ImageNetRoulette项目的评论,为你呈现人工智能背后的“隐形偏见”。

一天清晨,当网友Tabong Kima正在刷推特时,他看到了一个名为#ImageNetRoulette的实时热搜。

在这个热搜里,用户们把自拍上传到某个网站上,然后由人工智能来分析和描述它所看到的每一张脸。ImageNetRoulette就是一家这样的网站,它把某位男性定义为“孤儿”,或是“不吸烟者”,如果是戴着眼镜的,则可能被贴上“书呆子、白痴、怪胎”的标签。

AI也有偏见:你在机器“眼里”是好人还是坏蛋?

一位Twitter网友上传了自己的照片,被AI识别为“强奸犯嫌疑人”(Rape Suspect),标签位于照片左上角

在Kima看到的推特信息中,这些标签有的准确,有的奇怪,有的离谱,但都是为了搞笑,于是他也加入了。但结果却让这个24岁的非裔美国人很不开心——他上传了一张自己的微笑照片,然后网站给他贴上了“不法分子”和“罪犯”的标签。

“可能是我不懂幽默吧,”他发了一条推特,“但我没觉得这有什么有趣的。”

注:截至发稿,该网站imagenet-roulette.paglen.com已经下线,现跳转到www.excavating.ai。后者网页上发布了一篇由原项目创始人撰写的文章《挖掘人工智能:机器学习训练集中的图像政治》

AI也有偏见:你在机器“眼里”是好人还是坏蛋?

人工智能背后:偏见、种族、厌女症

事实上,Kima的反应正是这家网站想看到的。ImageNetRoulette是一个数字艺术项目,在人工智能迅速改变个人生活的当下,这个项目旨在揭露某些古怪的、无根据的、冒犯的行为,它们正在蔓延到人工智能技术中,包括被互联网公司、公安部门和其他政府机构广泛使用的面部识别服务。

面部识别和其他AI技术都是通过分析海量数据来学习技能,而这些数据来自过去的网站和学术项目,不可避免地包含多年来未被注意到的细微偏差和其他缺陷。这也是美国艺术家Trevor Paglen和微软研究员Kate Crawford发起ImageNetRoulette项目的原因——他们希望更深层次地揭露这个问题。

“我们希望揭露偏见、种族主义和厌女症如何从一个系统转移到另一个系统,”Paglen在电话采访中说:“重点在于让人们理解幕后的操作,看到我们(的信息)一直以来是如何被处理和分类的。”

作为本周米兰Fondazione Prada博物馆展览的一部分,这个网站主要关注的是知名的大型可视化数据库ImageNet。2007年,以李飞飞为首的研究人员开始讨论ImageNet项目,它在“深度学习”的兴起中发挥了重要的作用,这种技术使机器能够识别包括人脸在内的图像。

AI也有偏见:你在机器“眼里”是好人还是坏蛋?

“Training Humans”摄影展在米兰Fondazione Prada博物馆揭幕,展示人工智能系统如何通过训练来观看并给这个世界分类。

ImageNet汇集了从互联网上提取的1400多万张照片,它探索了一种训练AI系统并评估其准确性的办法。通过分析各种各样不同的图像,例如花、狗、汽车,这些系统可以学习如何识别它们。

在关于人工智能的讨论中,鲜少被提及的一点是,ImageNet也包含了数千人的照片,每一张都被归入某一类。有些标签直截了当,如“啦啦队”、“电焊工”和“童子军”;有些则带有明显的感情色彩,例如“失败者、无望成功的人、不成功的人”和“奴隶、荡妇、邋遢女人、流氓”。

Paglen和Crawford发起了应用这些标签的ImageNetRoulette项目,以展示观点、偏见甚至冒犯性的看法如何影响人工智能,不论这些标签看起来是否无害。

偏见的蔓延

ImageNet的标签被成千上万的匿名者使用,他们大多数来自美国,被斯坦福的团队雇佣。通过Amazon Mechanical Turk的众包服务,他们每给一张照片贴标签就能赚几分钱,每小时要浏览数百个标签。在这个过程中,偏见就被纳入了数据库,尽管我们不可能知道这些贴标签的人本身是否带有这样的偏见。

但他们定义了“失败者”、“荡妇”和“罪犯”应该长什么样。

这些标签最早来自另一个庞大的数据集,WordNet,是普林斯顿大学研究人员开发的一种机器可读的语义词典。然而,该词典包含了这些煽动性的标签,斯坦福大学ImageNet的研究者们可能还没有意识到这项研究出现了问题。

人工智能通常以庞大的数据集为基础进行训练,而即使是它的创造者们也并不能完全理解这些数据集。“人工智能总是以超大规模运作,这会带来一些后果,”Liz O’Sullivan说道。他曾在人工智能初创公司Clarifai负责数据标签的监督工作,现在是民权和私人组织“技术监督计划”(STOP,全称为Surveillance Techonology Oversight Project)的成员,这个组织的目标是提高人们对人工智能系统问题的意识。

ImageNet数据中的许多标签都是十分极端的。但是,同样的问题也可能发生在看似“无害”的标签上。毕竟,即使是“男人”和“女人”的定义,也有待商榷。

“给女性(无论是否成年)的照片贴标签时,可能不包括性别酷儿(nonbinary,即自我认为非二元性别的人士)或短发女性,”O’ Sullivan表示,“于是,AI模型里就只有长发女性。”

近几个月来,研究者们发现诸如亚马逊、微软和IBM等公司提供的面部识别服务,都有对女性和有色人种持有偏见。通过IamgeNetRoulette项目,Paglen和Crawford希望能引起人们对这个问题的重视,而他们也的确做到了。随着这个项目在推特等网站上走红,ImageNetRoulette项目近期每小时产生的标签数超过10万个。

“我们完全没想到,它会以这样的方式走红,”Crawford与Paglen说道,“它让我们看到人们对这件事的真正看法,并且真正参与其中。”

热潮之后,隐忧重重

对有些人来说,这只是个玩笑。但另外一些人,例如Kima,则能懂得Crawford和Paglen的用意。“他们做得很好,并不是说我以前没有意识到这个问题,但他们把问题揭露出来了”,Kima说道。

然而,Paglen和Crawford认为,问题也许比人们想象得更加严重。

ImageNet只是众多数据集中的一个。这些数据集被科技巨头、初创公司和学术实验室重复使用,训练出各种形式的人工智能。这些数据库中的任何纰漏,都有可能已经开始蔓延。

如今,许多公司和研究者都在试图消除这些弊端。为了应对偏见,微软和IBM升级了面部识别服务。今年一月,Paglen和Crawofrod初次探讨ImageNet中的奇怪标签时,斯坦福大学的研究者们禁止了该数据集中所有人脸图像的下载。现在,他们表示将删除更多的人脸图像。

斯坦福大学的研究团队向《纽约时报》发表了一份声明,他们的长期目标是“解决数据集和算法中的公平性、问责制度和透明度问题。”

但对Paglen来说,一个更大的隐忧正在逼近——人工智能是从人类身上学习的,而人类是有偏见的生物。“我们对图像的贴标签方式是我们世界观的产物,”他说,“任何一种分类系统都会反映出分类者的价值观。”

[免责声明]

资讯标题: AI也有偏见:你在机器“眼里”是好人还是坏蛋?

资讯来源: 36氪官网

36氪企服点评

AI人工智能相关的软件

行业专家共同推荐的软件

限时免费的AI人工智能软件

新锐产品推荐

消息通知
咨询入驻
商务合作