编者按:美国著名小说家艾萨克·阿西莫夫(Isaac Asimov)曾为我们指出过机器人的基本行为规则:不伤害人类、服从命令和保护机器人自己。最近,英国标准研究院( BSI )发布了一份更为官方的机器人伦理准则文件,旨在帮助设计者创造合乎伦理的机器人。
BSI 发布的这份文件叫作“BS8611 机器人和机器人设备”,这是一份用干巴巴的语言编写的健康和安全手册,但里面所强调的不良场景可能直接取自科幻小说。机器人欺骗、过度依赖机器人和自主学习系统可能会超出他们的权限,这些都是制造商应该考虑到的危害。
这份文件是在牛津 Social Robotics and AI 大会上提出的,是英格兰大学的机器人技术教授 Alan Winfield 指出,这些准则代表了将伦理价值嵌入机器人和人工智能的第一步。这是第一个公开发表的、针对机器人设计的伦理标准,比阿西莫夫的法则更为复杂,提出了如何对机器人的伦理风险进行评估。
BSI 文件的内容一开始是一系列宽泛的伦理原则:设计机器人的目的不应该是为了杀死或伤害人类;负责任的主体应该是人,而不是机器人;要能够找出对机器人及其行为负责的主体。
接下来的内容重点强调了一系列更具争议性的问题,比如同机器人建立感情纽带是否可取,尤其是设计的机器人是用来与儿童或老年人进行互动的。
谢菲尔德大学机器人和人工智能名誉教授 Noel Sharkey 举了一个例子,说明机器人可以无意地欺骗我们。在一个幼儿园配备有小机器人,孩子们很喜欢它,认为机器人比他们的家庭宠物认知性更强,实际上就是和机器人建立了情感纽带。
该准则表明设计者应该致力于透明化,但科学家们却说,在实际操作中这可能是非常困难的,因为目前 AI 系统的问题,特别是这些深度学习系统,是不可能知道为什么他们会做出这样或那样决定的。比方说,深度学习代理在完成某一项具体任务时,并不是按设定的方式;他们会尝试数百万次,来找到一个成功的策略,以此来执行任务——有时候这些策略是设计者都预想不到和无法理解的。
该准则甚至暗示了可能会出现带有性别歧视或种族歧视的机器人,并警惕大家:这些机器人可能会缺乏对文化多样性和多元主义的尊重。这一现象已经出现在警察所使用的技术上,比方说机场应用该类技术识别出可疑的人,并将其进行拦截,这就是一种种族歧视的评判。
并且,深度学习系统基本上使用互联网上的全部数据,但问题是,这些数据是带有倾向性的,就像这些系统倾向于支持中年白人男子。所有人类的偏见都有可能被纳入系统,这非常危险。
未来的医学应用程序还存在一种风险,即在诊断女性或少数民族患者时,系统可能不太熟练。已经有这样的例子:语音识别软件在理解女性时表现较差;面部识别项目在识别黑人面孔时,不像识别白人那样简单。
Sharkey 建议给机器人也安装一个黑匣子,可以打开和检查。如果一个机器人存在种族歧视,可以关掉它,并将它撤回。
该文件也关注了更广泛的社会问题,如对机器人的过渡依赖,但没有就如何处理这些问题,给设计者一个明确的引导。
当您在一定时间内使用一个机器,它给你正确的答案,你就会信任它,,并且变得懒惰,但是之后它提供给你的东西可能会非常愚蠢,这也是过度依赖自动化的一种形式。
也许着眼于更遥远的将来,BSI 文件也提醒我们警惕流氓机器的危险,这些机器可能开发或修订行动计划,可能带来无法预料的后果和潜在法律责任。
BSI 制造业主管 Dan Palmer 表示,机器人和自动化技术的应用,能够使各种流程更有效率、更灵活,适应性更强,是制造业增长的重要支柱。但是,反人性或过分依赖机器人等伦理问题和危害是确实存在的,并亟待解决。这份关于如何处理各种机器人应用程序的准则,将帮助设计者和机器人用户以及自动化系统建立一个新的工作领域。