大数据文摘作品,作者:Fabio Ciucci,编译:happen,马卓群, 刘晓莉,Aileen
现在,每一个人不是在学习深度学习,就是在准备开始学习深度学习的路上。这个人工智能领域快速火了起来。大约有来自各年龄阶段的十万名学生在学习付费或者免费的深度学习课程。许多初创公司以及产品都打上了该领域的标签,就像流行用语一样,但是真正使用了深度学习的却很少。大多数人忽视了一个事实,深度学习只占了机器学习领域的1%,而机器学习又只是人工智能领域的1%。剩下的99%都是大多数任务已经在实际使用的。一个“深度学习领域专家”并不是一个“人工智能专家”。
最广为人知的人工智能工具来自于谷歌、Facebook等公司,大都是或者只是深度学习,所以公众会认为新的人工智能突破是由或者将由深度学习实现。这是不正确的。像XGBoost这样的决策树并不出名,但是在许多Kaggle表格数据竞赛中默默地打败了深度学习。大众媒体指出AlphaGo只用到了深度学习,但是实际上它是 Monte Carlo树搜索算法+深度学习,并存在证据证明单单靠深度学习不足以让它获胜。许多强化学习任务是由NEAT算法(通过增强拓扑的进化神经网络)实现,不是基于BP的神经网络算法。这些都是人工智能领域有关深度学习的误解。
我并不是说深度学习没有在解决问题:深度学习确实很厉害。树以及其他算法往往很难打败深度学习,有些任务中深度学习也是无法替代的,我也希望未来能开发出不含深度学习的系统能打败深度学习。或许也能够解决深度学习作出的决策存在的法律噩梦(即使是正确的,但是被法律质疑时无法解释)。同时我想在新闻里读到像“灾难性遗忘”(出现学习新的信息前突然忘记先前学习的信息的倾向)这样的有关深度学习的事情,或者读到解决过拟合问题的一些日常新闻。关于智能:深度学习仅仅相信得到的训练数据,并不理解对与错、现实与虚幻、是否公平。在某种程度上,人类有时也会相信假新闻,甚至小孩子也知道电影是虚构的,并不现实。
20年前每个人都在学习HTML,这种编写网页的标记语言,那时每个人都幻想成为一个“.com”亿万富翁。就像其他人一样,我学习了每一种看似很有用的技术:HTML、移动端应用、深度学习,我也希望每一个人在其一生中能够不断学习新事物。事实上,你不可能一辈子只学一种技术。如果你学习深度学习,你可能一辈子都搞不懂AI。来自1995年的HTML已经过时且无法满足需求,它被CSS、Javascript 以及服务器端编程语言所接管。同理,深度学习总有一天也会过时且不够用。许多流行的移动端APP都不包含HTML,所以谁知道未来的人工智能APP是否包含深度学习呢?
事实上,深度学习是一种源于1980年代的技术,比HTML还悠久:70年代,带有隐藏层的神经网络通过训练更多数据获得了更好的结果,随后重命名为深度学习并开始大肆宣传。在1992年,我仔细检查了一些神经网络源码以及一些分形、元胞自动机之类的东西。就像大多数人,那时的我误以为深度学习只是一个学术性数学难题,没有实际用途。相反,我专注于学习给出直接结果的技术:电子游戏的3D技术、互联网等等。但是我们都错了,深度学习能够利用大数据做很多神奇的事情!2015年我着迷于Deep Dream(人工神经网络),接下来是GANs(生成对抗网络)等等。当然,深度学习并不是我们发明的最后的完美的AI科学。
在过去的几十年里,古老的深度学习已经被广泛研究和更新并应用于更精确地解决更多任务,不过没有一个版本的深度学习(Convolutional, RNN, RNN + LSTM, GANs等)能够解释它的决策。在未来,深度学习能够解决更多任务并取代一些工作,但不可能解决所有的问题,或者保持惊人的进步以自我解决黑箱问题。
哲学家柏拉图与亚里士多德正在说:深度学习可不能理解他们。
未来人工智能应该去探索一些其他的新方法或已存在被忽略的方法。深度学习的限制在于仅仅认为真理是数据中频繁出现的地方,而统计较少的就是错的或者频繁出现地方的对立面。深度学习的公正性并不来自于它本身,而是来自于人类选择并准备的数据。深度学习不是用人类的方法来阅读文本并翻译出字里行间的意思。如果一个深度学习模型训练了100多本书:40本讲了憎恨、战争、死亡和毁灭是多么糟糕,60本书讲了希特勒的纳粹主义是正确的,那么深度学习的结果将是100%纳粹了。
深度学习本身是不会认为屠杀犹太人、同性恋或者残疾人是糟糕的事情,如果纳粹注意是训练数据中最流行的观点。难怪深度学习并不能解释自己的决策,它会天真地说“我读到的大多数书都说纳粹主义是正确的,所以他就是正确的。”深度学习会学习并模仿有缺陷的逻辑而不是去发现缺陷,包括恐怖主义。就连小孩都能自己理解电影中谁是坏蛋,但是深度学习不能,除非人类一开始就非常明确地告诉它。深度学习中一些特定的东西,比如基于梯度下降的反向传播算法、自定义深度学习硬件是很酷的,但是那大多数都是统计学和几何学,所以将不会出现在2037年的AI领域。
对于大多数任务而言,深度学习领域的人工智能是或将是非法的,不是符合规则的。收集28个欧盟国家的居民数据的人或公司应该遵循建立于2018年5月25日的《通用数据保护法规(GDPR)》。在这一天,欧洲的大多数APP将去除深度学习,导致许多人工智能初创公司快速将深度学习替换成其他的东西,否则将面临罚款。罚款金将高达全球收入的4%,包括在美国的收入。
GDPR要求针对自动决策作出正确的解释,防止由于种族、意见、健康等等歧视而产生不好的影响。全球范围内,像GDPR这样的法律出现或者在计划内只是时间问题。《美国公平信贷报告法》要求披露所有影响消费者信用评分的因素,最多允许4个因素。深度学习的影响因素常常有上千或者百万级,不仅仅只有4个,如何简化为4个?人工智能,比如比特币ICO,开始忽视规则,只不过法律和罚款总会来的。
深度学习系统在辨别小猫照片或者在自拍时添加小兔耳朵特效时都需要更多相关的决策,在未来将被非深度学习系统所替代。人工智能需要可解释的,与深度学习大大不同,你能用简单、合法的词语向法官或者普通使用者解释结果。深度学习的复杂性,使得它对于法官和用户来说就是一种“魔法”,具有法律风险:并不是很酷炫的未来。深度学习会建议或者警示人类,比如从医学图像中检测疾病,由医生核实,但是这只是半自动化,缺少细节。而对被AI拒绝(拒绝贷款、工作等等)需要解释用户说点什么呢?
法律包括了“解释权”,比如为什么工作或者贷款被拒绝了。深度学习给出的结果,不是自然(法律)语言能解释的。你可以得到数页有关深度学习的变量的内容,但是法官或用户不能接受,因为即使是最好的数学家或者其他算法也不能将深度学习的模型用词语简单解释。
甚至在人类做出最终决定时,人工智能工具应该给出详尽的理由使人们能够发现错误(以便重写、撤销AI的决策),或者接受决策并简单复制、粘贴并在AI的解释上签名。没有人知道如何修改深度学习来给出像人类一样的解释,所以深度学习难以遵从规则!这影响了数个其他AI和机器学习算法,不过也只是一些,不像深度学习那么多。迭代决策树或者集成决策树也同样变得难以解释。但是在未来,崭新或者重新发现的AI将为自己作出的决策所辩护,这些AI将替代深度学习和人类。
在GDPR的案例中,只有人类的工作人员能够拒绝某项申请:AI能够自动化操作某些积极的结果,但当AI拒绝了贷款或者工作等等,就需要AI把工作转交给工作人员,由工作人员来处理这些令人好奇且生气的消极的决策。在拒绝的案例里,工作人员从基于深度学习的AI那里无法得到帮助或者解释,他们并不能知道深度学习的逻辑是多还是错。他们不得不从头检查数据,以决定最终是否拒绝,并写下决策的合理原因。
这儿的风险在于,工作人员为了节省金钱和时间,将对AI的拒绝做出假的解释,盲目地接受了AI之前作出的决策。但是法官们需要对AI的拒绝的公正性作出裁决,同样会出于比较,去询问为什么其他人被接受了。为了安全起见,你需要对于接受的决策给出有说服力的原因,不仅仅只是拒绝的决策,不管这理由在GDPR这样的法律中是什么。非深度学习的人工智能系统把所有决策的解释提供给用户,法官和支持人员,进而用于完全自动化或半自动化的决策。
可解释能力在任何法律以及深度学习之前,就已经是一个大问题。在反托拉斯案件中,像谷歌这样的公司被问到为什么在搜索结果页顶部显示某一产品,而不是其他产品。这在深度学习出现之前也有过:许多其他算法也以一种疯狂的方式来混合数据以获得结果,所以没有人能轻易地重建决策的逻辑。
法官们被告知工程师们并不了解详情,线性代数的页面被当作证据。这不能圆满结束:甚至在一个具体的法律出现之前,已经有多个案件,数十亿美元的罚款被裁定,并且伴随着警告要求改变制度。用户自动拒绝商店、银行、保险等自动决策单元的工作、贷款、退款等集体诉讼将成为常态,无法解释将意味着“无防御”、被罚款和品牌公关灾难。
对大多数人来说,“人工智能”是指科幻电影AI,它能提供聪明的解释,人们可以很快地决定他们是否同意,对进行法律验证非常容易。大多数人,包括法官和写GDPR的,知晓公司是把AI放在第一位,或者喜欢AI元素,期望AI像电影中一样,即使被法院传召,也能捍卫自己的决定,这些令用户和法官都印象深刻。
相反,我们就无法解释“深度学习“人工智能,将无法使用于很多任务,甚至对于可以解决,也不能用,只是因为缺乏可解释性。深度学习不会节省成本,也不会解决敏感的自动化决策的工作。即使人类最终必须作出最终决定,工具AI解释他们的建议将比不给出缘由而做出响应的AI更可取。可解释的AI,一旦被(再)发现,将会是更加安全、合法合规、便宜、快速,并取代深度学习和人类。深度学习是1960-1980年代发明的,从2010年之后又被重新发现。或许未来可解释的AI已经被一些研究者在某些地方描述出来,但不是深度学习,所以可能好多年都没有人关心和开发,直到它们被重新发现和炒热。
GDPR,自动决策,也需要防止基于种族、意见、健康状况所产生的歧视的影响。但对于深度学习的训练,是基于从用户模型生成的数据如社会媒体和新闻(而不是初始真实数据,如医疗和财务记录),这总是含有偏见,不精准。如前所述,深度学习可以阅读大量的文本和数据,并模仿其内容,但不会批判性地理解它。深度学习会更相信所发现的事物,强调数据中的模式和趋势,从而放大人类社会的偏见和问题。数据显示,黑人比白人更容易被捕:如果犯罪发生,深度学习将首先怀疑黑人。数据显示,公司董事中男性比女性多:深度学习将更偏爱男性求职者。
在训练数据中,深度学习的决定最终会比一般样本更具歧视性、种族主义和性别歧视。这个问题发生在所有ML算法中,但是深度学习模型偏差是最难测试、检测、控制和调优的方法之一。它难以修复,以至于不仅仅是试图修补它,而是已经造成突然取消了许多深度学习实验,从聊天机器人变得纳粹化和可恶,到应用程序通过“美丽”过滤器美白黑脸照片。
深度学习是一个神经网络,你无法单独编辑每个答案的结果
你不能在通过训练后平衡补丁来修正带有歧视性的种族主义或性别歧视的深度学习模型。深度学习是一个神经网络,并不像其他一些人工智能方法,不能对特定的答案进行局部手术,你必须重新训练所有不同,100%平衡和公平的数据以及这在世界中非常罕见的数据。深度学习模仿在数据中发现的东西,而不理解它:深度学习不会否定任何数据,也不会计算出社会中的不公,深度学习只是“学习数据”。你应该雇佣一个专门的人员来创造一个理想社会的虚假的公平数据,白人被逮捕的频率和黑人一样,导演中有50%是女性,等等。但是,创建由人类专家编辑的大量不带偏见的数据的代价,仅仅是为了训练深度学习模型,又如何说明AI值得取代人类呢!此外,即使你训练了一个真正公平的深度学习模型,你也没有证据说服法官或用户了解任何决定的公正性,因为深度学习不会给出任何解释。
深度学习将是次要的,用于非商业应用程序或游戏,不构成法律风险。当可做解释的AI流行起来的时候,深度学习将会像磁带或者软盘一样被淘汰。人们玩游戏输掉时不会说服一个法官对AI公司进行罚款,因为它不能解释AI是怎么赢的。不喜欢FaceApp的人,将他们自拍照片变得更老,更年轻,或者异性的,不大可能说服法官对FaceApp进行罚款,因为它不能解释AL如何决定新的外表(除了“种族”滤波器,这是在大规模的抗议活动后移除的)。检测医学图像中的疾病是安全的一种深度学习应用,只要用户在向人类医生确认后服用药物。
在法律上安全的深度学习市场是非常有限的:法官可以在所有情况下进行处罚,决定的结果可以作出经济上或健康的差异,或歧视性的,深度学习将无法帮助理解是否以及为什么该决定是公平的。自动驾驶汽车怎么样?深度学习似乎是一种法律风险,不仅仅是艺术、游戏或趣味笑话。现有的非深度学习方法可以在需要时替换深度学习,新方法将被发现,因此AI的进展将继续顺利进行。特别是如果每个人都学习(并投资)所有人工智能和机器学习中旧的和新的算法,不仅仅是深度学习:这才是成为“整个人工智能终身专家”的唯一途径。
除了深度学习是“非法的”用于许多有用的,它可以解决的任务,它也有几个任务不能解决:那些需要抽象推理找出什么是公平的和不公平的,在看到的数据,解释自己独特的逻辑。即使对于不需要解释的任务,深度学习似乎是最好的系统,像图像识别,深度学习并不像人眼那样安全。你可以用“对抗性的例子”来欺骗深度学习:像猫一样的照片,加上无形的干扰,可以欺骗深度学习像看到其他东西,比如像一只狗。所有的人仍然会看到一只猫,但深度学习会看到一只狗或任何黑客秘密嵌入的东西。这可以利用路牌来破解目前的自动驾驶汽车。新的AI系统可以抵抗这个黑客,将取代深度学习。
Keras一书的作者,最受欢迎的深度学习库,在自己的文章里写 “深度学习的局限性”,“深度学习唯一真正的成功是将地图空间X映射到Y空间,使用连续的几何变换的能力,根据大量的人工标注数据。” 这些空间有很多尺寸,不只是3D,这就是深度学习如何来模仿毕加索艺术风格,扑克中虚张声势和一些任务中展示的创造力。但用通俗的话来说,我会说这意味着:深度学习可以训练识别猫的照片,在不了解猫是什么的情况下;在不知道什么是种族主义者的情况下,就成为种族主义者。深度学习可以识别猫或种族主义者或赢得游戏,这是令人瞩目的进步,但深度学习不能解释为什么照片显示一只猫,或某种决定是偏向种族主义者的。
在《深度学习的未来》中,Keras作者介绍了他的一个新系统,深度学习是只存在于“几何模块”中,不与“算法模块”和“元学习”有关联。这将增加所需要解决的任务的数量和类型,但由于深度学习模块的存在,仍然无法解释这些决定。就像我们无法用语言来解释我们大脑中的某些情绪或图像。人类的解释,大多是编造的,过于简单的解释,以至于每个人似乎都认为是准确的。机器的算法却被不公平地要求精确。其他专家正在起草新的人工智能系统根本不包括深度学习,但他们缺乏资金:现在每个人都只在深度学习投资,深度学习狂热将持续一段时间。没有人知道下一个大AI会是什么,但不太可能是深度学习 2.0。
深度学习被大肆宣传,因为只有在利益冲突中,销售深度学习软件和硬件的人才会在AI辩论中接受采访。你有注意到任何“自然智慧”专家,如心理学家和哲学家那样地支持深度学习?
如果你还没来得及学习AI,你可以考虑等待下一个AI系统兴起,并准备好并直接研究它,跳过深度学习。否则,如果你有需求学习AI,我建议你一定要深入了解整个人工智能和许多机器学习领域的知识,而不仅仅是深度学习。
原文链接