作者|Will Knight 译者|BrotherZhao
编辑|Emily
AI前线出品| ID:ai-front
谷歌的 AI 主管 John Giannandrea 并不担心超级智能的杀人机器人,反而对可能潜伏在机器学习算法内部的危机忧心忡忡。这些机器学习算法每分钟都要做出上百万个决策。
“真正的安全问题,如果非要这么叫的话,是如果我们向这些系统提供了有偏见的数据,这些系统也会变得带有偏见。” Giannandrea 在谷歌最近一次有关人类和 AI 系统关系的会议上如此说到。
随着科技不断向医药和法律等关键领域延伸,以及更多没有深厚技术背景的人可以应用最新科技,机器学习的偏见问题会变得更加显著。一些专家警告称,算法的偏见问题已经在很多行业十分普遍,却几乎没人试图进行识别或者纠正。
“公开我们在用的训练数据,公开我们正在寻找数据背后的偏见信息,这是很重要的,否则我们就是在建造有偏见的系统,” Giannandrea 补充到,“如果有人试图卖给你一个辅助医疗决策的黑盒系统,而你却不知道它如何运作或者用了什么数据进行训练,那我肯定不会信任这个黑盒的。”
黑盒机器学习模型已经在决定一些人的命运上发挥着重要作用了。由 Northpointe 公司制作的称为 COMPAS 的系统可以预测被告人再次犯罪的相关性,已经被一些法官用来决定是否批准犯人保释了。COMPAS 的工作原理尚未公开,不过 ProPublica 的调查发现了其模型会不利于少数族群的证据。
然而,事情并不总是像公开数据细节或者所有算法那样简单。大多数正在崛起的机器学习技术的工作原理都是特别复杂和不透明的,所以他们拒绝接受检测。为了说明这个问题,研究人员正在探索新的方式,让这些系统向工程师和终端用户提供其工作原理的某些近似结果。
Giannandrea 有充分的理由强调偏见潜入 AI 内部的可能性。世界上的几个大公司都在向各种类型的企业兜售其云计算平台的 AI 能力,谷歌正是其中一个。这些基于云的机器学习系统设计得远比其底层算法要简单易用。这有助于科技的广泛应用,却也可能导致偏见的无声潜入。提供教程和工具,帮助缺少经验的数据科学家和工程师识别和去除其训练数据中的偏见信息,也是十分重要的。
受邀参加此次谷歌组织的峰会的数位演讲者也都重点谈到了偏见的话题。谷歌公司的研究员 Maya Gupta 是内部代号“GlassBox”小组的成员,她介绍了自己在建造更加透明的算法方面的成果。 Karrie Karahalios 是伊利诺伊大学的计算机科学教授,他展示了即使是在最稀松平常的算法中要定位偏见信息都是何其困难。Karahalios 展示了用户通常是不理解 Facebook 如何在他们的信息流中过滤帖子的。虽然这看起来无伤大雅,却很好的说明了算法查询是多么困难。
Facebook 的信息流算法肯定可以影响公众对于社会动态甚至重大新闻事件的看法。其他算法可能已经在很微妙地扭曲了病人应当接受的医学护理,或者人们在刑事司法系统中会被如何处理。这显然比杀人机器人严重的多,至少目前如此。
近年来人们对于 AI 的威胁提出了很多荒诞不经的警告,Giannandrea 发出的肯定算是理性的呼声。特别是埃隆·马斯克最近警告人们 AI 是比北朝鲜更严重的威胁并可能引发第三次世界大战,也是抢占了不少新闻头条。
“我反对的是这一假设,即我们可能跃迁到某种超级智能系统,从而导致人类过时,” Giannandrea 表示,“我理解人们为何关注此事,但是我认为此事过为遥远。在我看来,这种情况很快就会发生的观点是没有任何技术根基的。”
Will Knight ,麻省理工科技评论的 AI 高级编辑,他的邮箱是 will.knight@technologyreview.com.