编者按:本文内容来自《科技失控》,作者 温德尔·瓦拉赫。36氪经授权发布。
杀人机器人只是把人类的决策权交给机器的一个例子。越来越多的非自主计算机和机器人有可能破坏了人(个人或企业)应为其行为负责的基本原则,并有可能为任何技术的部署造成的危害承担责任。谈到非军事机器人的用途将会使这一点更加清晰。大部分为家用目的开发的系统不应该被禁止。在许多情况下,他们的好处远远大于风险。尽管如此,它们稀释了负责任的人或企业代理这一核心原则,因此成为令人不安的先例。
截至2014年5月,一个无人驾驶的丰田汽车普锐斯车队——其改良的硬件和软件都由谷歌设计,成功在加州高速公路和城市街道行驶70万英里。这些无人驾驶车辆无一造成交通事故。对于谷歌汽车持续的媒体报道给人的印象是未来5~10年内消费者将可以购买到完全无人驾驶车辆。未来的汽车发展的前景是在疯狂的派对之后可以由无人驾驶车辆安全送到家,但谷歌的车并非如此,如果计算机司机对某些情况无法处理时,还是需要驾驶座上的操作者随时接管。在不到10秒钟的警报时间内,驾驶人员需要充分投入,如果万一有意外发生,则将被追究事故责任。这就是说谷歌计算机司机在驾驶时,驾驶座上的主人不能打盹或发短信。驾驶员无事可做,会感到无聊和注意力不集中,这将妨碍其短时间内对潜在危险做出反应的能力。
美国国家公路交通安全管理局估计,81%的碰撞事故都是由于人的某些原因。因此,提倡无人驾驶汽车的人普遍认为,这些车辆将显著降低死亡率。这种说法的准确性值得质疑。毫无疑问,造成事故的原因很多是司机在打盹、出神或干脆睡觉了。但是无人驾驶汽车因为计算机错误或计算机司机警告接管后车主无法掌控情况导致的事故可能更严重。
据谷歌的统计,当前的设计平均36000英里才会出现一次计算机司机出现严重错误需要人进行干预的情况。这听起来让人比较放心,因为一般的司机需要2或3年才能开够这么远的里程。然而,人类司机一般每50万英里才会出现事故,每130万英里可能发生伤人的事故,每9000万英里才可能导致人员死亡的事故。因此,难以证明依赖备份人类司机的无人驾驶汽车能否真正降低死亡率。但是一个简单的事实是无人驾驶汽车比人对紧急事件做出刹车的反应要快,这表明无人驾驶车会比有人驾驶车更加安全。
我们现在可以考虑这种可能性,车辆自动驾驶功能的确可能带来事故死亡人数减少,但在这些事件中死亡的人与人驾驶车造成的死亡是不一样的人。对于死亡的人本身的权衡将为法律和保险机构带来新问题。比方说,为了避免撞上公共汽车或旁观者,自动驾驶的车辆从桥上掉下去,导致车主身亡。这是令人不愉快的场景,但有些司机会主观上选择这么做。
伦理学家帕特里克•林(Patrick Lin)在2013年发表的一篇文章指出,在“为了最大人群的最大利益”的道德数学背景下,也许应当给自动驾驶的车辆进行编程,选择让车主死亡而不是撞死2个路边的行人。但是用数学来决定对错令人不安。当然,这样的情况也颇不寻常。但是我们难道希望让机器人汽车来决定我们的死活吗?
当事故发生时谁将被追究责任?汽车制造商们在责任问题解决之前是不愿意营销自动驾驶车辆的。但是目前,法律将判定自动驾驶车辆的制造商为大多数事故负责。如果让司机为一起他们无法在很短时间内掌握方向盘的事故负责肯定会很不舒服。除了解决各种技术难题,发生事故后的责任和法律后果如何管理是完全自动驾驶车辆投入市场速度很慢的原因。在很多情况下,赔偿责任的问题不能且不应由生产商或工程师决定。立法机构、法院、保险机构必须为此做出决定。
所有这些问题都无法阻止有进取心的公司找到新的手段推销自动驾驶车辆。他们将上访州政府和游说制定新法律。在此期间,他们很可能会重新定义自动驾驶车辆,使用一些模糊的语言,如“驾驶辅助”等。目前,一些高端车辆已经采用了自动泊车和紧急制动等安全特性。
当然,制造商将确保他们的责任是有限的。即使责任问题没有完全解决,自动驾驶车辆对于一些特殊用途而言仍是有吸引力的选择。例如,一些老年人本身就不再相信自己能一直保持高度注意力,就很希望有一辆具备驾驶辅助的车辆,即使这意味着他们必须保持目光一直盯着前方的道路。但是,如果自动驾驶车辆造成一次严重的事故,则很可能导致这一行业倒退几十年。有时候,事故难以避免。工程师们当然会尽一切努力控制自动驾驶车辆造成事故的数量。他们知道,自动驾驶汽车的接受度将取决于公众是否愿意接受即使发生了一起可怕的事故,也能清楚地表明自动驾驶车辆比人驾驶的车辆要明显安全得多。
解决这些社会担忧,其中一种可能的办法是对完全自动化驾驶汽车提供无过错保险。如果自动驾驶汽车提供了真正的净优势,那么立法机关可以制定政策,放松这一行业的发展。可以肯定,如果有一项立法可以减少自动化系统因为设计师和工程师有时无法预见的情况导致的系统故障和事故所承担的责任,那么肯定会大大促进整个机器人行业的发展。
但是快速促进越来越自动化的机器人的发展到底有多重要呢?减少责任肯定会加快机器人技术发展,但有利有弊。这将开启绿灯,允许制造厂商推出尚未经过全面测试或已经知道缺陷的产品。公司将强调难以确定谁为复杂的智能系统负责,因为他们会去请愿减少为系统故障承担责任。什么时候回报才会大于风险?
实践伦理学家和社会理论家对于减轻企业和个人责任,问责制度,以及为越来越自动化系统行为负责等引起的内在危险十分担心。2010年,为了表达他们的担心,提出了五项规则以重申人类不能逃脱对于计算机物品的设计、开发或部署造成的道德责任。50多名技术和道德领域相关的学者签字表达对这五项规则的支持。出于本书的目的,只要说明其中的第一项规则就足够了:
规则1:设计、开发或部署计算机物品的人应当为该物品承担道德责任。这项责任是与其他设计、开发、部署或知情情况下将该物件作为社会技术系统的一部分进行使用的人共同承担。
如果第一条规则被编入法律,枪支制造商将为使用其枪支造成的谋杀案负责;香烟制造商将为吸烟者所患肺癌负责。虽然表达的方式略有不同,但这五项规则都过于宽泛,而且有点不切实际。这些规则的推广应用不会很容易,并将显著减缓机器人产业的发展。但是,它们强调了法律理论家和伦理学家对于减少机器人装置行为所负责任,或引入一些行为无法预测的机器人的担心。
这些规则,比如前面所述为计算机物品所提出的规则,是否可能或应当上升为责任法仍是一个悬而未决的问题。一个棘手的政策辩论仍摆在面前。是否应当减少对于计算机和机器人所应承担的责任,以激发这一潜在的变革行业的发展?还是应该维持现有的保护措施,即使这可能抑制了企业推出具有显著好处但存在较低不确定风险的新产品的意愿。
谷歌机器人汽车项目首次曝光于2009年,道奇战马在其电视广告里对谷歌汽车大肆抨击。在广告中,一个低沉的,不祥的声音宣告:“自动驾驶,自动停车入库,这是由一家搜索引擎公司驱动的无人驾驶车辆。我们已经看过那部电影。它最终的结局是机器人从我们的身体里汲取能量。”汽车肯定不会利用我们的身体作为燃料,但这个广告反复出现的图像一直在暗示,如果继续朝着自主化机器人的目标发展,那下一步则是滑下深渊,人类与其创造的物品之间将充满冲突。这样的恐惧引起了多少人的关注?
当然,完全自主化的人工智能系统远非今天的技术所能实现。即使有人相信有一天最终会实现,确保超能机器人系统对人类友好很可能会解决。但简而言之,很多市民,虽然对机器人感兴趣,仍然对机器人技术可能的走向感到不舒服。
以上文字摘选自温德尔·瓦拉赫《科技失控》
『本文封面图片来自:Yestone 邑石网正版图库』