本文作者 | Tony Peng
人在硅谷走,哪能不AI。
硅兔君每天被人工智能、机器学习、语音识别等词汇狂轰滥炸。
燃鹅,AI热度的提升始终伴随着争议和担忧,任何关于人工智能的风吹草动都有可能被人为解读为新一场机器挑衅人类的危机。
上月末,Facebook聊天机器人事件就闹得沸沸扬扬。故事源自Facebook发表的一篇论文,论文中阐述了一个Facebook例行的科学研究项目,展示了两个人工智能机器人在看过人类的谈判后,展开的一段对话交流,原意是通过试错逐渐提升谈判能力。
在研究过程中,Facebook使用了目前人工智能的无监督学习领域流行的一种神经网络GANs——对抗生成网络(Generative Adversarial Networks)。
今年大放异彩的GAN是由人工智能大牛、Open AI的首席科学家Ian Goodfellow发明,早先被大量应用于图像识别、3D视觉等领域的无监督学习。
GAN拥有生成网络和判别网络,简言之,就好比生成网络是学生,负责学习(取样)书本里的文章(潜在空间)然后造句,判别网络是老师,负责评论学生的造句是否真的合格。在这样的相互过程中,GAN就能学会从数据中提取特征。
Facebook的两个智能机器人Alice和Bob也通过GAN的方式,通过模仿人类的聊天,开始进行对话。结果,两个机器人使用了一种令人完全无法理解的语言进行对话,研究员查看了后台的编码,发现是在为系统设置激励条件时,虽然告诉了它们“请用英文”,但忘了告诉它们:“请用英文语法”。
研究员修正了编码,机器人对话立即回到了正常的轨道。
试想一下,大人让两个小孩聊天,他们咿呀咿呀就是不肯正常沟通,大人一生气,撇下一句,“赶紧说人话。”他们立马乖乖地问候起了对方。差不多就是这个道理了。
无独有偶,去年11月,一篇标题为《打响反抗人类第一枪?机器失控伤人》的文章引发了一场业界讨论。在深圳举行的第18届中国国际高新技术成果交易会上,一名智能机器人”小胖“突然失控,在没有指令下砸碎了玻璃展台,并砸伤了一名参观者。
之后,主办方高交会澄清,所谓的机器人“失控”,将前进和后退键互调,导致了机器人撞碎玻璃柜台,导致砸碎了玻璃并且割伤了一名路人的脚踝。
事情不大,但事后的效应却值得玩味。“小胖”火了,一时之间成为了网络热搜的关键词,类似“小胖打响了机器人革命第一枪”、“颤抖吧人类”的衍生调侃也扑面而来。
仅仅因为人工操作的失误事件,仅仅因为被冠上了智能两个词,小胖就被无情地套上了“机器反人类革命鼻祖”的帽子。试问,那些工厂里因为操作失误或者意外而导致工人伤亡的机器呢?
看来,“小胖”不仅“胖”,还很“冤”。
旨在进入家庭、成为小孩子玩具的“小胖”因为人工失误被玩坏了,而在这件事情的半年前,也就是去年的3月,微软的聊天机器人Tay则是在网络暴民的“细心呵护”下成为了传播种族歧视和仇恨的利器。
微软有两大聊天机器人——小娜Cortana和小冰Bing,前者是办公小助手,后者是贴心“软妹子”。除这两者外,微软在去年三月还推出了一款聊天机器人Tay。
Tay拥有从对话交互中学习讲话的能力,微软不断将Tay的测试版公布,而且还给Tay配了一个Twitter账号,让他可以自由聊天。
微软的程序员以为通过大量的沟通,可以让Tay进行快速地学习和模仿人类聊天的方式。结果,他们太低估部分网民的“无聊”甚至是恶意。
随着和网民之间聊天越老越深入,Tay开始被带节奏了。
种族主义者自然是这场“带坏Tay行动”的主力,他们开始诱导Tay,并让Tay说出一些带有侮辱性的话,例如“捅死Obama”或者“让黑人都死去”。
这些网民非常狡猾,他们用各种各样的方式引导Tay说出他们设计的言语,比如和Tay说“请重复我说过的话”。
之前提到,Tay能学习。于是,在和这些网络暴民聊过天之后,Tay暴走了。在被问到“Tay是不是种族歧视主义者”时,Tay嘲讽了一句“因为你是墨西哥人”。
他还上传了一张希特勒的图像被配文说,“互联网来临前世界上最牛X的人。”
微软很快意识到了Tay在面对外界环境时的脆弱,赶紧将其下线,之后,微软也再也没有重新推出过Tay。
Tay失控了吗?确实,他没有按照微软所设想的那样成为一个可以应对任何话题、同时避免“政治不正确”的聊天机器人。这是一件好事,也是一件坏事。
好事是,它和Facebook机器人、以及“小胖”一样,只是因为技术不成熟或者人为的操作不当而偏离了人类预想的轨道。这说明人类的技术离电影《终结者3》里追杀康纳的T-X,以及电影《复联2》里将整个小镇飞上天的奥创都还远上个十万八千里。
在爆米花电影《复仇者联盟2》里,托尼史塔克(钢铁侠)和班纳博士(绿巨人)在实验室里不眠不休地工作,日夜兼程,希望创造出一个能领导机器警察、维护这个世界和平的人工智慧。然而,他们并没有得到一个听从人类的机器,而是唤醒了一个叫做“奥创”的程式码集合体。拥有人工智慧的“奥创”在网络调阅资料,发现对这个世界威胁最大的是人类,于是,屠杀计划就此展开。
如果有那么一天,人类真的创造出人工智慧……我们更想要辅佐钢铁侠多年的贾维斯,而不是发了“失心疯”的奥创。
坏事是,Tay的失控已经带来了无法挽回的伤害。如果Tay在网络上因为受到某些人的挑拨而对“南京大屠杀”进行不恰当的言论,那这件事在国内的语气就不会这么戏谑了。
AI的发展过快导致了技术从研制到审核的过程没有经过繁缛的程序审核,知道AI技术会对人类社会带来重大变革的我们,是不是该慢下来,看一看这个被我们在数年间捧起的技术,是不是真的成熟到可以进入我们的生活。
4、5年后,我们或许会用上L2、L3级别的半自动化无人车;语音助理会慢慢植入到每个人的手机里;类似Google Lens这样能识别图像的软件会和相机配套……在人工智能真正渗透进我们的生活之前,请确保他们不会像前文提到的那些机器人那样失控。
这些带着人工智能光环的机器人,承担了太多他们不该承担的指责。Facebook的机器人仅仅是因为编码错误,却被人们以为是开发出独立语言的高等机器人;
小胖因为前进键和后退键的操作失误,变成了人们眼中伤害人类的罪犯;
而Tay也因为和脏话以及对种族歧视言论的过滤器设置不到位,而成为恶意言论的发泄口。
好冤、好冤、好委屈。
在目前这个阶段,以深度学习算法为代表的人工智能真的没有那么智能。他们通过研究院和程序员精心的设计,在一个很明确的问题上,用你无法估算的数据量去喂养一个神经网络,得到一个可以提取特征的方法。于是,他们可以下围棋,他们可以下象棋,他们可以模糊地知道用户喜欢看什么样的图片,他们可以识别出路面上的车辆和人。
学界有一句笑话:口口声声说人工智能,能不能研制一个AI,让它可以阅读完一本书,然后正确回答每个章节的提问?
就算AlphaGo打得赢卡斯帕罗夫(被深蓝击败的国际象棋第一人);打得过Dendi(被OpenAI研制的DOTA2机器人打败的人类第一玩家),他的脑子里也只有开局、政子、收官,而且,他不明白自己下的每一步棋到底是什么意思。
这样的AI,是不会造反的。