首页 >热门资讯> AI人工智能 > 好莱坞,你的 AI 电影犯了 9 个错误 >

好莱坞,你的 AI 电影犯了 9 个错误

转载时间:2021.08.18(原文发布时间:2017.05.24)
257
转载作者:36氪企服点评小编
阅读次数:257次

编者按:本文作者 Seth Redmore 是机器学习、文本分析公司 Lexalytics 的 CMO,他最近刊文,就好莱坞的 AI 电影做了评价。他认为好莱坞对 AI 的理解有一些问题,误导了观众,真正的AI与电影描述的大有不同。

当好莱坞没有拍动漫电影时,它在鼓捣 AI。为什么呢?因为AI将会改变我们的灵魂,它迫使我们思考一些问题:作为人类究竟意味着什么?思考是什么?我们在世界的位置是怎样的?这些都会受到AI的影响。这个问题值得我们从哲学层面好好探讨,一些重量级导演——比如雷利史考特、斯皮尔伯格、斯坦利·库布里克、斯派克·琼斯都将电影作为一个平台,试图搞清AI世界的样貌,以及生活在AI世界又是怎样的。罪恶AI有着悠久的历史,可能是因为我们设立一个大反派,“它只是一台机器”,可以让人类领袖看起来更像英雄,也可能是随着时间的流逝,科幻小说的反乌托邦色彩越来越浓重。

虽然好莱坞在一些地方触及了要害,但是许多时候有艺术放纵之嫌。让我们来看看好莱坞在AI方面犯了哪些错,为什么犯错:

智能 VS 知觉 VS 智慧

好莱坞青睐“人类一样的”智能,因为这样就可以跳过一个深刻的AI哲学命题:定义智能,确定是否有什么东西展现出智能行为。这些问题形成哲学的一个分支,它促使我们思考意识、智能、知觉和智慧的自然特点。这些术语是高度关联的,但是彼此有很大的不同。在好莱坞眼中,知觉(获得主观体验的能力)一般来说与智慧是一样的,智慧就是根据过往经验和理解采取行动的能力。给智能定义更难一些,要在人工环境中定义更难,比如在围棋中定义。电影总是喜欢武断,它会挑一个术语拿来使用,还会挑一个具有挑战性的思想问题,它们这样做只为靠近一种理念:给定机器比人类弱、好、吓人、聪明、强。

完全忽略编程

在AI世界游历一下的确是很有趣的事,在迪斯尼电影《机器人瓦力》中,瓦力将Roomba(iRobot公司智能扫地机器人)一样的机器人提升到了新水平,它既是垃圾压缩机,又是环境保护主义者。为什么瓦力会转化?因为它突然获得了“知觉”(当然还有智慧),从哪里获得的?可能瓦力最开始时只是一个AI,在收集垃圾的过程中不断学习,不断超越。这是一个狭窄的AI领域,它孕育出感觉,比如爱、怀旧。没错,瓦力可以清理插接站附近的场所,但是它居然可以收集东西,作为业余爱好,到底是如何学习的?为何能学习?听起来我们有点吹毛求疵,毕竟大家都喜欢这部电影。不过那里有成千上万的机器人,可能还是几百万。难道说瓦力自学成才,通过魔法一样的过程获得了智力?

深入恐怖谷

2001年斯皮尔伯格推出一部电影《人工智能》,讲述一个机器人小孩的故事,他叫大卫,这是一个编程机器人,具备“爱”的能力。电影表达的一些观点是正确的,比如大卫会按程序办事,不过它忽视了一个大问题:恐怖谷。1970年,日本机器人专家Masahiro Mori提出“恐怖谷”理论,也就是说机器人看起来如果太像人类,又不是完美的人类,人类就会形成负反应。你也许会说,与其说这部电影是科幻片,不如说是幻想片,或者说所有这些问题在遥远的未来都会解决,不过还有一些相似的电影,它们也与人型机器人有关,你无法用这样的解释为好莱坞推脱。

如果存在不正确的地方,人类会发现,发现的能力超级强,如果是肢体语言、面部表现不合适,人类发现的能力更强。最成功的人型机器人必然会有一些夸张的能力,就像动漫中看到的一样。这样一来,设计人型机器人时就避开了“恐怖谷”,因为有足够的线索可以告诉我们它明显不是真正的人类。        

一个人就能造出来

自弗兰肯斯坦以来,“创造生命的疯狂科学家”这种想法一直存在,将四肢拼接需要的技术知识比开发AI少得多。好莱坞给人这样一种印象:关于AI软件,一个独立的个体就可以开发出来,不只如此,硬件也是即插即用的设备。2015年的电影《机械姬》更谨慎一些,它深入重复AI旅程,让我们看到一个发明人独自开发了AI,像人类一样的AI,还开发出人形身体与AI匹配,所有这些都是从地下室开发出来的。

虽然使用AI工具变得越来越容易,AI还可以解决某些商业问题,但是它们不是人型AI。没错,当你与聊天机器人对话时,你会认为自己在与真人对话,但是与一个聊天机器人聊20分钟你就会抛弃这种想法。科幻有一个根本宗旨:它要设立一个世界或者确定一种情况,然后科学地、一致地探索世界的可能性。《机械姬》探索了AI故事最乏味的部分。她是如何启动的?没错,她逃亡了,之后呢?电影更接近逃亡,加了一点AI,而不是真正的探索性科幻。

高速发展

这个论点与上面的论点相去不远,在好莱坞电影中,AI的发展速度太快了。可能是因为好莱坞设想AI是创造活动的成果,而不是科幻,简单来讲,AI就是一时灵感的产物。在斯皮尔伯格的《人工智能》中,一年半的时间就从0发展出100%像人类的AI,至于《机械姬》,几年就有了惊人的人型机器人。

有些人可能会拿出“奇点论”解释,也就是说AI开发出可以开发AI的AI,12周之内就出现了翻天覆地的变化。它被叫作“奇点”,因为它是“事件视界(event horizon)”,所谓事件视界存在于黑洞中,从理论上讲它相当于奇点,事件视界是一个硬边界,外部的观察者无法利用任何物理方法获得事件视界以内的任何事件的信息,或者受到事件视界以内事件的影响。如果可以自我复制,智力就可以在几小时或者几天之内构建出更棒的智力,至于会发生什么事,我们完全无法预测。可能我们一旦跨越了边界,就可以在一年之内开发出真正的人类AI,不过边界在哪里呢?我们不知道。

AI并不意味着一定有暴行

在1927年的电影《大都会》中,机器人有暴力倾向,从《大都会》到《终结者》,再到《2001:太空漫游》的HAL,好莱坞讲了许多AI凶猛的故事。不过人类之所以害怕AI,可能是担心自己会退化,并不是因为自己在逻辑上真的害怕AI。除非我们对AI编程让它威胁人类(在类似的事情上会有严格的制衡),AI真正的威胁在于工作,在执行特定的信息收集和模式识别任务时,人类可能没有AI那么有效率,也没有那么一致。

AI将会影响工作市场,这是事实。它能否帮助人类走向后稀缺(Post-scarcity,商品、 服务、 信息都可以被人们无偿占有,货币也将不复存在)社会,增加收入并让收入更公平,这些都还不知道。如果感兴趣,你可以读读奥巴马的白宫报告,名字叫作“Preparing for the Future of Artificial Intelligence”(为AI未来做好准备),它清晰描述了AI会对未来造成什么影响。我们已经看见了敌人,它就是我们自己,不是机器。

远不只是图灵测试

1982年,雷利史考特推出了《银翼杀手》,它是根据Philip K Dick的短篇事故《机器人会梦到电动羊吗?》改编的,它通过人性测试机器将图灵测试介绍给公众。不过AI远不只是图灵测试那么简单。图灵测试通过自然语言对话判断机器人行为,看它是否能与人类区分开来。通过图灵测试的确是一个很有趣的挑战,但它并不是AI的目标。AI研究要创造出可以感知环境的程序,成功达到特定目标:在许多环境中,除了人类还没有什么可以达成目标。似乎其目标就是辅助人类,而不是模仿人类。

狭窄的定义

AI是什么?它不是即将出来的东西,而是已经存在的东西。按照好莱坞的描述,AI和我们很相似,有这种理解可能因为好莱坞限制了我们的视野,只让我们看到一个定义非常狭窄的AI。《机器人管家》中的人型机器人,《Mother in Alien》或者《Icarus II in Sunshine》电影中飞船的声音,它们全都是通用人工智能。今天的AI是用来执行特定任务的,比如识别图像、下棋、评估保险索赔。

AI可能不等于人类智力

2013年,Spike Jonze拍摄的电影《她》获得奥斯卡提名,它讲述了一名男子与“Sam”的浪漫故事,Sam是一个智能OS,安装在男子的计算机上。Sam可以推断,可以创造,还具备推理技巧,她有很高的智力,超过了人类。另外,Sam还可以感知到情绪,可以建立关系,从各个层面讲她都是人类,但是没有肉体。《她》建立在一种假定之上:将成功的AI智力与人类智力放在一起,我们无法区分,不只如此,它实际上就是人类智力,更快,更聪明。当我们将智力人格化时,实际上就是为智力添加了人类熟悉的特性,比如情绪、意识、自我、良心,甚至还包括自我保护本能。智力类型很多,不是只有人类智力,所以说,我们开发的智力系统并不一定会像人类一样思考、感觉或者行动。

想一下谷歌DeepMind AlphaGo AI。让我们回到原点,你可能会说它已经具备一定程度的智慧:能够根据过往经验和理解采取行动。现在,我们再假设它获得了一定程度的知觉,也就是说它可以感觉、可以理解、可以获得内在体验。怎样与这样的AI沟通呢?只能在围棋世界沟通。每一局棋都是同一类型的沟通,能够用其它模式吗?比如你将棋子放在棋盘上,表达一种基本的数学原理。它有足够的信息推断你想传达的意思吗?或者只是认为你下了奇怪的棋步,将你从棋盘上踢走?AI不能拥有知觉,我们没有理由这样认为。如果真的有了知觉,世界又会怎样呢?

我们也许应该少思考一与AI“智能”部分有关的东西,多关注“人工”部分。

【编译组出品】编辑:杨志芳

[免责声明]

资讯标题: 好莱坞,你的 AI 电影犯了 9 个错误

资讯来源: 36氪官网

36氪企服点评

AI人工智能相关的软件

行业专家共同推荐的软件

限时免费的AI人工智能软件

新锐产品推荐

消息通知
咨询入驻
商务合作