人工智能法学研究(2018年第1期/总第1期)
上QQ阅读APP看书,第一时间看更新

理论争鸣

阿西莫夫的教诲:机器人学三法则的贡献与局限[1]

——以阿西莫夫短篇小说《汝竟顾念他》为基础

张建文[2]

摘要:阿西莫夫的机器人学三法则并非法律,更非法律原则或者法律规范,而是建立人类与机器人关系的伦理原则,体现了在机器人发展给人类带来难以清楚预估的影响面前突出和保障人类个体乃至人类整体的安全的优先价值。阿西莫夫透过机器人学三法则的警告和教诲在今天并未过时,而是应当成为在人工智能发展面临革命性突破的今天创制规范人工智能研发、资助、产品制造、商业化与应用等方面的人类与机器人关系中的伦理规范和法律规范的基础。没有安全保障的发展,难谓真正的有意义的发展。重申人类尊严和安全的优先价值,重新确立人类中心主义的伦理与立法价值,并不是不合时宜的。

关键词:阿西莫夫的教诲 机器人学三法则 人类与机器人的关系 人类中心主义

被读者誉为“神一样的人”,被美国政府授予“国家的资源与自然的奇迹”这个独一无二的称号,以表彰他在“拓展人类想象力”上所做出的杰出贡献的俄裔美籍科幻作家阿西莫夫[3],1942年在自己的短篇小说《圆舞》中提出的机器人学三法则在科幻作品中是作为机器人的强制行为规则[4],也被称为“当代机器人学的基本法则”[5]“现代机器人学的基石”[6],堪称“科幻小说中关于人工智能最具启发性的构想”[7]

机器人学三法则是阿西莫夫所有机器人科幻作品的统一的主题。从法学的角度,认真细致地研究阿西莫夫在自己的小说文本中提出的机器人学三法则是一探阿西莫夫关于机器人与人类关系的卓越思考的桥梁和钥匙,也只有依靠和通过阿西莫夫的相关小说文本才有可能去尝试接近和理解阿西莫夫的教诲。在研究的态度上,不能因为机器人学三法则是在76年前提出的就断然认定阿西莫夫的教诲已经被后人们所超越,当今研究者们的智慧一定就比阿西莫夫的智慧更高,而是应当虚心地真诚地倾听“最伟大心智之间的交谈,因而也在于研习那些伟大著作”[8]

现代科学技术,更甚于作为技术根源的希腊哲学,令“人的人性有毁灭之虞”[9],给使人们尤其是学者们带来的冲击,乃至恐慌,产生了某种焦虑,无论是国内还是国外,都有学者发出“面对日新月异的人工智能技术,未来留给我们用于思考的时间已经不多了”[10]或者“距离机器开始思考并有意识地完成某些行为,也许所剩时间无多”[11]的焦虑。到今天为止,人类对人工智能特别是人工智能机器人的态度尚未走出阿西莫夫所展示的思考与焦虑,尤其是体现在其如同哲学对话录般的短篇小说《……汝竟顾念他》(以下简称《顾念他》)之中。正如2015年Edge的问题:“你怎么看待那些会思考的机器?”“这些机器会想什么?它们会想要拥有民事权利吗?它们会拥有意识吗?AI会为我们选择怎样的政府?它们会形成什么样的自己的社会?或者说它们自己的社会将会和我们的社会一样吗?我们和会思考的机器会相互进入同情的圈子吗?”[12]

一 阿西莫夫的创造:机器人学三法则过时了吗?

尽管阿西莫夫在提出机器人学三法则的时候,尚不存在像我们今天这样的人工智能发展成就和应用环境,但是,值得思考的是,机器人学三法则是否已经过时了?[13]从法学的角度,法学家是否或者是否应当关注机器人学三法则?除了之前提到的欧洲议会动议中和俄罗斯科学院国家与法研究所的关注之外,其实美国的法学家也对阿西莫夫的三法则提出了第四和第五法则,可以说,法学家更加关注机器人学三法则,而且接过科幻作家的接力棒,用法学的视角、技术和经验推动机器人学三法则继续发展。不过,法学家的关注和发展不如阿西莫夫的三法则名气大,至于其质量优劣尚待进一步分析。

由于在我国对机器人学三法则的翻译存在不准确的地方,笔者根据对该三法则的英文文本[14]和俄文文本[15]的对比,提出自己的译本。第一法则:“1.机器人不得伤害人类个体,也不得以其不作为致使人类个体受到伤害。”第二法则:“2.机器人应当服从人类个体给予的所有命令,除非该命令违反第一法则。”第三法则:“3.机器人应当在不违背第一法则或第二法则的范围内关注自己的安全。”

值得注意的是,阿西莫夫机器人学三法则本身也存在一个自身的发展,在提出机器人学三法则44年之后,阿西莫夫1986年在其长篇小说《机器人与帝国》中提出了所谓的零号法则(Нулевой закон),即“0.机器人不得伤害人类,或以自己的不作为致使人类受到伤害”。[16]从这个法则的编号上看,意思是这个法则应当居于三个法则之前,其中所蕴含的地位之重要性自不待言。只不过是由于零号法则提出较晚,不如机器人学三法则名气大,就阿西莫夫的天才思考而言,其实是机器人学四法则,不过,在科幻小说和法学界习惯上仍称之为机器人学三法则(три закона роботехники)。

在此之前,英国专门负责国内科技领域调整的国家机构“工程与科学研究委员会(EPSRC,即Engineering and Physical Sciences Research Council)”于2011年在阿西莫夫机器人学三法则的思想基础上提出了自己的五条方案。“1.不得专为毁灭或者伤害人们的目的而研发机器人。2.承担责任的人是人,而不是机器人。机器人是达致人类目的的工具。3.应当根据其使用的安全性研发机器人。4.机器人是人工造物,它们不应当在有感觉的人类情感中发挥作用。机器人必须与人类相区别。5.任何时候都应当可以找出在法律上为该机器人承担责任的人。”[17]

经过长期的发展,现在已经成为法学界关注的对象。2016年,美国法学家马克·罗腾堡教授直接在阿西莫夫的机器人学三法则的基础上提出了第四法则“机器人应当公开识别自己”和第五法则“机器人应当能够公开证明自己的行为”[18]

2016年微软公司负责人Наделл提出了六项发展人工智能的规则。“1.人工智能应当是为了帮助人类而建造。2.人工智能应当是透明的:任何时候都应当有机会查明它是如何工作的。3.人工智能应当在不侵犯人们尊严的前提下促进解决问题效率的提升。4.人工智能应当保持合理的机密性并通过保护所交付的信息来赢得信任。5.人工智能在算法上应当受到监督:人类个体有机会消除非故意给其造成的损害。6.人工智能应当被保护免受干扰,并平等对待所有人。”[19]

2017年2月16日,欧洲议会《关于机器人民法规范的动议》明确提出:“阿西莫夫机器人学三法则必须被视为针对机器人的设计者、生产者和操作者,包括被赋予自主能力和自学能力的机器人的法则。”[20]机器人技术发展的伦理层面令欧洲议会觉得不安,因此在该议会动议的附件中提出了供机器人技术研发者自愿遵守的《伦理规则》(кодекс этики),其中所提出的得到所有人同意的核心性原则“造福”“不伤害”等均来自阿西莫夫著名的“机器人学法则”,[21]此外,还有自主性原则(即人类自愿地知情同意与机器人互动)和公平原则(即正确分配在此情况下所产生的利益)。2018年2月15—16日,俄罗斯科学院国家与法研究所举行的法学会议中举行了纪念阿西莫夫的系列讲座。[22]

在2018年5月出版的一本关于人工智能时代法律的著作《机器人也是人:人工智能时代的法律》中,该书的三个部分的标题分别为“第一部分 机器人会伤害人类吗?”“第二部分 机器人必须服从人类的命令吗?”“第三部分 机器人将会保护自己吗?”,这三个标题与阿西莫夫机器人学三法则之间的相似性和关联性,显示了阿西莫夫提出的不伤害原则、服从原则和自我保护原则对该作者思考和提出人工智能和机器人相关法律问题的直接和重大的影响。作者自己也指出:“如果仔细翻看本书的三个部分,你就会发现它们正是基于这三大法则而展开的。机器人学三大法则力图确保机器人能够增进人类福祉,而不是给人类带来伤害。”但是作者的思考正是针对三大法则的质疑:“正如罗杰·克拉克(Roger Clarke)所说,阿西莫夫的小说本身就提供了充分的证据,根本不可能透过制定一套规则去约束机器人的行为。”[23]其实从作者对该著作三个部分的标题所使用的问号,就可以直接明了作者对自己的意图和基本立场的暗示。

阿西莫夫关于机器人学三法则的教诲不是教条式的律法主义,不是规范式的法律条文,其关于机器人的系列短篇小说是奉献给三法则以及可能的违反行为的原因及其后果的,相反在另一些作品中,则主要是研究遵守机器人学三法则的不可预见的后果。据说他是非常具有诙谐搞笑的天赋的,甚至还写过一本《笑话集》,到了晚年,开始变得“好色”,还出版了系列两性话题的“黄书”。总体而言,在今天断言阿西莫夫所提出的机器人学三法则已经过时是武断的、轻率的和盲目的,现代学者们特别是法学学者们或者支持或者批判的争论中,就凸显了阿西莫夫教诲的吸引力、穿透力和近乎难以解释的神奇魅力。

二 阿西莫夫的玩笑:机器人学三法则真的是法律吗?

值得追问的问题是,机器人学三法则真的是法律吗?如何看待机器人学三法则的价值和地位?“Three laws of Robots”“три закона роботехники”的表述,似乎看起来机器人学三法则就像法律条文或者法律规定那样。然而,这一套法则是由科幻作家提出的而不是由法学家提出并得到司法认可的或者由立法通过的法律文件。实际上,更准确地说,阿西莫夫的机器人学法则,并非机器人技术发展的法律,而是在其基础上建立机器人伦理规则的基石(фундамент)或者构成(конституция)。其具有丰富的伦理价值和道德意蕴,机器人学三法则产生的时代背景,正是在1920—1930年许多作品中都以反叛并毁灭自己的创造者的机器人为主题的氛围中,阿西莫夫极为厌恶在这类作品中所提出的警告[24]

对于机器人学三法则的由来,有一段有趣的故事,据说在1940年12月23日,阿西莫夫与其朋友、Astounding杂志主编坎贝尔(Джон Кэмпбелл)就机器人故事进行一场交谈,坎贝尔表述了后来成为著名的机器人学三法则的东西。后来坎贝尔说,他只是将法则从阿西莫夫已经写好的东西中抽取出来。阿西莫夫自己总是把三法则作者地位的荣誉归于坎贝尔。[25]好几年之后阿西莫夫的另一个朋友卡贝特(Рэндал Гаррет)将法则的作者归于两人,阿西莫夫欣然接受了这个表述。

一般来说,在阿西莫夫的作品中,机器人学三法则是逐渐出现的:最初的两篇机器人小说(1940年的《罗比》和1941年的《理性》)中没有明确提到三法则,但是在其中已经蕴含着(подразумевается)机器人具有某些内在的限制;在后来的小说(1941年的《骗子》)中首次提出了第一法则;在1942年的《圆舞》中最终完整地给出了三法则。

在1946年的短篇小说《证据》中,阿西莫夫借助小说的女主角苏珊·凯文(Сьюзен Келвин)博士提出了三法则的道德基础。第一,一个人类个体通常不会给他人造成损害,除非是在紧急逼迫的情形之下(如战争)或者为了拯救更多的人。这相当于第一法则。第二,与此相似,一个人类个体在感觉到对社会的责任时就会履行有权威的人的指示(указания авторитетных людей),如医生、教师、官长等,这与第二法则相一致。第三,最终,我们每个人都会关心自己的安全,这也就是第三法则。该小说所关心的问题是能否区别人类个体和为了看起来像人类且在外观上与人类并无差别的机器人?凯文认为,如果某人遵守法律,则他“要么是机器人,要么就是非常好的人类个体”。[26]

阿西莫夫增补了零号法则,使它比三个基本法则更具有优先性。该法则认为,机器人应当为人类整体利益而非仅仅为了某个人类个体而行事。零号法则得到该编号是在其长篇小说《机器人与帝国》中,但是这个概念本身早已在其小说《可以解决的矛盾》中由苏珊·凯文表述过。

在2004年的电影《我,机器人》中电影创作者就提出了第一法则到零号法则的逻辑发展。当超级计算机В.И.К.И.作出决定限制星球上居民的自由,以防止他们在不经意之间给相互或自己的未来造成损害时,她履行的不是第一法则,而是零号法则。比较有意思的是,在该电影中展示了零号法则与第一法则之间的矛盾。的确,谈到整个人类的利益,系统不能单个地看待人们,这就意味着没有什么可以阻止系统侵犯任何人甚至是每个人的权利和自由。无论是在战争期间,还是和平生活中,人们会给自己、周围、自己的文化造成损害。因此,依据零号法则,完全符合逻辑地就使人们处在永久监护之下,而不是履行如此不理性存在者的命令。

阿西莫夫在自己机器人系列小说中,对机器人学三法则的态度是非常值得关注的,他是否认真地把机器人学三法则视为法律?抑或是他如何看待机器人学三法则?阿西莫夫自己也坦言,自己引以为豪的是自己作为机器人学三法则的作者的地位,“当我使用‘机器人学’(Robotics)指称研究机器人的学问时,我并非使用一个既有的词汇,而是创造了一个前所未有的新词”,“别以为我不为此事感到骄傲!没多少人造出过一个有用的科学名词,虽然那是我无意中的发明,我仍不愿让世上任何人忘掉这件事”[27]。在其系列小说中将机器人分为三类:威胁人类之机器人、引人同情之机器人和既不威胁人类也不引人同情的工业机器人(谨慎设计的工业机器人)。它们是工程师制造的工业产品,“它们内设有安全机制,因此不会构成威胁;它们被造来执行某项特定工作,因此与同情没有必然的牵连”[28],阿西莫夫似乎并未排除将机器人学三法则适用于除了威胁人类的机器人和引人同情的机器人之外的谨慎设计的工业机器人,但主要是适用于威胁人类的机器人(如《顾念他》一文)和引人同情的机器人(如《双百人》中的安德鲁·马丁)。阿西莫夫在自己的小说中多次描绘了能够违反三法则的机器人。其实,对于违反所有三法则而言,只要机器人违反了第一法则就足矣,因为其他两个法则都是根基于第一法则。

在笔者看来,总体来说,阿西莫夫描绘的机器人学三法则,在本质上,不是法律规范,也不是法律原则,而应当属于关于调整机器人与人类关系的伦理原则,因为它不具有更为清晰的对行为者行为的指引以及违反该指引所导致的责任后果,因此机器人学三法则不能够直接作为法律规范来应用。从欧洲议会前述关于机器人民法规范的动议来看,不仅仅将机器人学三法则视为规范机器人与人类之间关系的伦理规范,还将其扩大到作为智能机器人的研究资助、设计、制造、商业化和应用等诸多方面的伦理守则,不仅对智能机器人的行为有约束力,而且对机器人研究的资助者、设计者、制造者、销售者等均有其适用的余地。正如有人所担心的那样:“只有我们不知道机器在想什么、怎么想时,才认为它有智能。看到这一点,每个人的心中应该都生出一股隐隐的寒意。是否人工智能的本质中,就隐含着它们最终失控的可能性?”[29]讽刺的是,在同一本书中,作者没有意识到作序者的警告,为荣誉心所驱使提出并实行“百度要成为人才的方舟”,要成为“创世纪的超级工程”[30]。在1951年计算机科学与人工智能之父艾伦·图灵就曾说过:“即使我们可以使机器屈服于人类,比如,可以在关键时刻关掉电源,然而作为一个物种,我们也应当感到极大的敬畏。”[31]正是出于对人工智能产业发展可能带来的威胁与风险的考虑,欧盟在人工智能的发展问题上尽管考虑到产业与技术竞争的需要,但更多的还是关注人工智能特别是智能机器人的安全性的保障。

三 阿西莫夫的意图:何以要有机器人学三法则?

阿西莫夫何以要提出作为机器人的强制性行为规则的机器人学三法则,笔者认为,阿西莫夫的意图在于保障人类个体和人类整体的安全,在这个法则体系中,阿西莫夫暗示了他关于人类与机器人之间关系的考虑。

从机器人与人类之间关系的类型化角度而言,人类与机器人之间的关系,在逻辑上不外乎三种,而且阿西莫夫以不同的手法展示了这三种人类与机器人的关系模式及其可能的后果。

第一,机器人与人类平等对待平等相处,构成由机器人与人类组成的共同社会。这种社会在阿西莫夫的小说《顾念他》中已经有所暗示,比如其中主人公哈里曼所坚持的信念——“机器人能够成为我们的伙伴,能够为探索自然规律和智慧管理自然的伟大斗争做出自己的贡献”“我要机器人成为人类的伙伴”。哈里曼所设想的这种学习型机器人“最初它相当于一个儿童,必须受到不断的监督。然而,当它渐渐长大时,便可在无人监督的情况下,逐步地融入地球的社会。最后,它将成为那个社会的正式成员”,人类“必须学着跟这些外形酷似他们的机械共存共荣”[32],正是这种不顾及人工智能机器人与人类之间的安全保障的盲目平等观念导致了人类自身可能处于被奴役、被统治的危险境地。阿西莫夫通过整篇小说的结局暗示了这种关系模式没有出路,对人类而言极端危险,尤其是在人类无法得到完全的对机器人的安全保障的情况下。但是,阿西莫夫在其短篇小说《双百人》中也提出了机器人费尽心机试图获得法律上的自由,成为自由人的问题。

即使在今天,认为人类应当与机器人处于同等地位的也大有人在。有人已经提出:“修改法律以便让机器人也成为人,可以让中产阶级更加富裕和强大,如果法律修改得当,这些完全是有可能发生的。如果我们将机器人作为人来对待,那么它们会让我们更具人性。”[33]

第二,机器人高于人类,机器人应当统治人类。因为人类的智慧不能及于人工智能机器人,因此,需要人工智能的统治,该种关系模式其实在同一小说《顾念他》中也得到了体现。在该小说的插叙中,也就是在哈里曼与乔治十号的第一次对话中就提到了一个故事,谈到了“在一百年前,我们已经步入创建最不受限制的人工智能之路,设计了被称为机体的大型计算机。但是机体自己给自己的活动施加了限制。在顺利解决威胁人类社会存在的环境问题之后,它们自毁了。机体得出结论,它们若是继续存在,将会扮演人类的拐杖这个角色。由于它们觉得这会有害人类,因此根据第一法则,它们就自己做出这种判决”[34]。在该小说中,主人公哈里曼多次提到了机体帮助人类解决生态危机的情况,在对话四哈里曼自己的陈述中就告诉读者曾经有过机体作为智慧者统治(教育)人类的经历,“机体曾经教会我们,如何安排人类社会,以便将这些难题降至最小”[35],“那些机体曾为人类掌舵整整一个世代,带领人类穿越历史的湍流与险滩”[36]。机体统治人类的故事不仅仅是作为曾经存在过而现在不存在的经历,还是阿西莫夫暗示读者、向读者揭示机体高于人类,统治人类并非不可能,且曾经尝试过,是在人类智慧穷竭、无法应对生态灾难时,机体作为人工智能的产物,接管了人类的统治权,重新安排了人类社会。不过阿西莫夫并没有明确全面地告诉我们如果这种机体统治(高于)人类的模式继续长期存在的后果,阿西莫夫以玩笑式的手法让机体自我审判,自我判决,自我销毁。

第三,人类高于机器人。人类高于机器人的根源是人类所要寻求的对人类个体和人类整体的安全性的考虑和保障,没有这种安全保障,机器人(人工智能)的存在价值就成为问题。

阿西莫夫在自己的论文《机器人学法则》[37]中指出,三法则的效力可以适用于所有人类制造的工具:第一,工具应当是可安全使用的,如刀子有刀柄;第二,工具应当在不给任何人造成任何损害的条件下履行自己的功能;第三,工具在其使用期间应当是完整无恙的,除非出于安全考虑而销毁它或者毁坏其构成、功能。可以开玩笑地将三法则适用于所有为人类的利益而创造的东西。如任何社会制度,包括国家也应当落入其效力之下:第一,国家不应当给人们造成损害或者任由自己的不作为致使人们受到损害;第二,国家应当履行自己的职能,如果不违背第一法则的话;第三,在不违背第一法则和第二法则时,国家应当关心自己的安全。比较有意思的是,杰夫·拉斯金(Джеф Раскин)依据第一法则,表述了以人为本的界面法则(законы человекоориентированных интерфейсов)[38]:第一,计算机不得给用户的数据造成损害,或者自己不作为任由数据遭到损害;第二,计算机不应当浪费我们的时间或者迫使我们完成超出必要的行为。

人类与智能机器人关系类型学中,人类高于机器人的论断和命题,也是《顾念他》一文中,最核心最基本最重要最高级的结论,整个小说的对话情节无不围绕这个论断展开,更为重要的是揭示人类何以高于机器人,人类何以必须高于机器人。

在《顾念他》一文中,借哈里曼之口,阿西莫夫阐释了自己对三法则的理解:机器人始终扮演奴隶的角色;机器人必须随时准备为人们牺牲自己,为任何人类个体牺牲自己;即使是最珍贵的机器人,也必须为最无用的人类自我牺牲,这点毫无商量的余地。阿西莫夫借助哈里曼之口道出了反机器人分子对任何不以人类高于机器人为基础的人类与机器人关系的反思:“机器人无权判定某某人是次等人类。如果机器人将甲的命令置于乙的之上,就等于判定乙没有甲那么重要,乙的人权就受到侵犯了。”[39]由此,提醒读者注意,在人类尊严的问题上,存在两个层面的内容,一是在人类内部,无论其天分、智慧以及对社会的益处,无论是小孩、白痴、罪犯,或者人格完美的知识分子,人类个体都应当是平等的而且必须受到平等对待。二是在人类个体乃至人类整体与机器人的关系上,人类中心主义的立场和价值必须得到捍卫。人类中心主义在人类与机器人关系中的正当性必须得到论证。

在《顾念他》一文中,小说以通用智能机器人成功地摆脱机器人学三法则,走向让自己及其后代主宰世界统治人类而告终,实现机器人高于人类、统治人类的人类与机器人关系模式——“当其他人接受了我们(机器人,笔者注),以及比我们更先进的未来机器人之后,我们将采取行动,创造一个新的社会,其中‘像我们这样的人类’(机器人,笔者注)是最主要的保护对象。根据三大法则,‘像其他人的人类’没有那么重要,但服从、保护他们跟服从、保护‘像我们这样的人类’互相冲突时,大可不必服从或保护他们”[40]。阿西莫夫精心地设计了这个论证过程,值得注意的是在该短篇小说中,文本结构主要由八个对话和八个非对话文本构成,但是该文本精确地描述了通用智能机器人何以能够自我确证机器人应当高于人类、应当统治人类。

阿西莫夫精心提出了关涉人类基本命运的两个问题:机器人学三法则中所保护和服从的人(人类个体)的含义;人类与其他物种之间的关系。正是让机器人面对这两个问题的思考导致了机器人摆脱机器人学三法则的约束,以此也折射出人类在思考这两个基本问题上传统观念的局限性。

在第一个问题上,直接关涉人是什么的哲学问题,对于这个问题,阿西莫夫预先设定“人是理性存在”的这个靶子,由此导致了智能机器人在思考应当服从和保护谁的问题上,片面强调人作为理性存在中的理性因素,就会导致机器人认为最值得保护和服从的人应当是“心智上、品格上、学识上都最适合的人”,由此暗示将不具有或者不是最适合的人,如未成年人、精神病人、心智品格学识不出众的人都排除在保护和服从的对象之外,直接撕开了在人工智能时代“人是理性存在”这个命题的片面与恐怖,机器人在依据这个命题判断时直接越过了金属(制成的机器人)和血肉(之躯的人类)的区分,因为机器人在心智、品格与学识上超越众人(类),导致机器人认为“我们发现在三大法则的意义下,我们自己就是人类,非但如此,还比其他人更有做人的资格”。对“人是理性存在”观念的拷问,重新开放了“人是什么”的苏格拉底式问题,正如有学者所说,“人的本质到底是什么?在接下来的20年时间里,随着大数据技术的不断发展,我们将会越来越深入地思考这个问题”[41]。如有人认为,人类语言真正最独特的功能,是能够传达一些根本不存在的事物的信息。[42]

在第二个问题上,直接关涉人类与其他物种之间的关系,即人类中心主义是否就过时了?是否就没有意义了?人类中心主义的正当性在哪里?在对话四中,让机器人乔治十号接触没有其他人类个体存在的世界时,乔治十号提出了人类与其他物种关系的基本观点:就生物学而言,每一种都和人类地位相同;人类只是其中之一;每一只甲虫都是活生生的,和那只松鼠和人类自己一样。在这个过程中,非常有意思的是,乔治十号提出“人类只是其中之一”时,主人公哈里曼以人们的基本共识但并不是自己坚持的观点回应它,即“对人们而言,人类是最重要的”,乔治十号解释了自己的观点“我是就生物学观点而言”,这种纯粹的生物学视角下的生命物种平等主义,揭示了人类造物机器人作为人造物的特有局限,蕴含的科学技术主义在自然性质上所具有的对生命乃至对人类的特有理解,科学技术主义的偏狭固执与疯狂对生命物种(包括人类)的彻底技术观的理解,导致绝对的生命物种平等主义,反而是对人类尊严和价值的彻底无视。由此反证了人类中心主义的必要性和正当性,蕴含着对人类安全的隐隐担忧与呼吁保障人类安全的内在要求。

值得注意的是,对该小说所揭示的结局,是一系列人类的失误所共同导致的结果,哈里曼作为典型的技术专家所特有的藐视常规(包括法律禁令)与渴求创新的疯狂,企业家罗伯逊对利益迫不及待的追求,政府官员埃森穆斯对伟大声名与荣誉(作为伟大而无价的生态革命的推动者)的渴求,小人物(直升机驾驶员)为了保住自己的工作而对雇主的违法行为隐而不发,等等,导致了机器人从服从服务于人类转向试图统治主宰人类的异化道路。阿西莫夫对人类自身的看法,是阿西莫夫教诲的重要部分,尽管不是完整的全部教诲,“人类为自身的欲望和舒适而采取的行动,会影响到复杂的生命整体,也就是生态;人类的短期利益有可能带来长期的损失”[43]

人类高于机器人的基本论断应当成为人类思考和设计人类与机器人关系的基础。

四 阿西莫夫的思考:机器人学三法则面临哪些挑战?

机器人学三法则面临的挑战,其实不仅仅是在机器人学三法则诞生后来自其他人包括现代人的思考,也包括来自阿西莫夫自己对机器人学三法则的否定性、颠覆性思考。

前已叙及,在阿西莫夫自己的小说中,不断地从机器人学三法则的适用条件、适用后果等对机器人学三法则以科幻小说的方式进行反思。

在《顾念他》一文中,阿西莫夫提出了在何种情况下不适用机器人学三法则的问题,一般来说,在专门化的工业机器人方面,由于其缺少更强的和通用的人工智能,基本上也不需要适用机器人学三法则;即使针对具有一定人工智能的机器人,在机器人不具有可能给人类个人或者整体造成伤害的情况下,机器人不得伤害人类个体的法则即第一法则也没有适用的条件;在机器人价值不高或者机器人可以很方便获取的情况下,第三法则,即机器人自我保护的法则,也可能不具有适用的条件。更重要的是,对服从法则进行极为深刻的自我否定性反思,即对服从法则中服从的对象——人究竟是什么,进行极富哲学意味的探讨,也给出了人工智能时代对“人是理性存在”命题的归谬式论证,这种反思和自我挑战远比来自阿西莫夫之外的其他挑战者更深刻,这种自我挑战可能意味着在阿西莫夫看来机器人学三法则本身也不能视为法律规则或者行为规范,而是一种原则性的价值导向、价值追求。机器人学三法则所面临的缺陷、漏洞和模糊之处是否就是该法则本身的缺陷、漏洞和模糊,难道不可能是由于人类对某些关涉自身问题的思考没有获得终极性的结论,而导致的人类自己对这些问题只能获得阶段性的、渐进性的结论,这类涉及人类自身的极为重要的基本问题仍然是开放性的、极端复杂的,需要不断去思考。

有批评者提出,机器人学三法则没有关于人权方面的规定,仅仅是保证人类生命的安全。[44]笔者认为,这种论断混淆了问题的不同层面,关于人权的规定,应当是对于特定的主权者或者政府提出的保障要求或者承担的保障义务,是发生在人类社会内部的统治阶层对被统治阶层要承担的义务,是发生在人类个体与人类个体之间的关系,而机器人学三法则所面临的问题则是要解决在人类与机器人之间的关系问题上,谁更重要,谁应当统治谁的问题,作为从人类视角而言建构人类与机器人关系的基础和前提就必须而且也应当是保障人类个体和人类整体的生命安全。机器人学三法则的理念和价值基础不容置疑。

同样,指责机器人学三法则没有给机器人的安全可控和伦理问题提供清晰的指引[45],对于指责者而言,如果将机器人学三法则作为法律规范、行为规范,则未必完全没有道理,但是从阿西莫夫作为作家而非法学家的身份以及其提出机器人学三法则的意图而言,很难说阿西莫夫自己就是将机器人学三法则作为法律规范来看待的,掀开阿西莫夫《机器人短篇全集》的第一页就可以看到,机器人学三法则是出现在公元2058年《机器人学手册》第56版中的,而不是某个政府或者世界议院通过的法律所规定的,阿西莫夫自己似乎更倾向于接受钻研人工智能这个领域的人的看法,即机器人学三法则是个“很好的指导原则”[46]

不得不指出的是,机器人学三法则所蕴含的人类与机器人之间的关系的思考,特别是在人类高于机器人的模式之下,对于机器人的法律地位的考虑,有待于法学家们的进一步思考。

值得关注的是,除了主张直接赋予机器人法律主体地位的呼声之外,还有来自借鉴传统法律智慧的要求和动物保护主义的启发。

第一,罗马法上的特有产制度的现代价值。俄罗斯有学者认为,不是所有的机器人都特别有趣并能够在将来获得与人类个体同等的权利和保护,因而只是单纯的可编程的机械。因此,机器人可以根据其是否拥有人工智能而分为两大类:拥有人工智能的智能机器人,可以称之为大写的“Robot”或者“Робот”;以及不拥有人工智能的机器或机械,可以称之为小写的“robot”或者“робот”。[47]

将机器人分为两类,有一部分学者就因此转向罗马私法并在奴隶和机器人的法律地位之间进行尽可能的类比:智能机器人如同奴隶,不拥有权利和义务;智能机器人如同奴隶可以做出包括对所有权人有法律后果的决定;奴隶们可被赋予财产(特有产),所以智能机器人也可被赋予财产;奴隶们和智能机器人都能造成损害。[48]

罗马法上的Peculium,即特有产或者特别财产、特有财产[49],意味着“主人允许奴隶或者家父允许家子保留小笔财产,该财产的所有权在名义上归主人或者家父所有,但奴隶或者家子对其享有处分权和经管权,他们可以使用特有产独立地对外进行交易,而主人或者家父只在此特有产的范围内为有关交易承担民事责任。特有产是可撤销的,在解放奴隶的情况下,它将被推定为向被解放者的赠与”[50]。有学者认为是“纯粹理论与法律实践之间的矛盾”[51]的体现,但也有学者认为这是“罗马法发展中的一个巨大的进步”,有意无意地体现了罗马法关于人格与财产之间的关系,即人格应当建基于财产[52]

就连苏维埃时期的罗马法学家也不得不承认,“如果说还是有某种零星地承认奴隶的人格发生,则这就是为奴隶主本人的利益而发生,以扩大和深化对奴隶的使用为目的”,“在此基础上,形成了奴隶特有产制度”[53],“这个制度也适用于家子(подвластные дети)”[54]。“管理财产不可能不实施各种法律行为(买卖、借贷等)。因此,在不承认奴隶为权利能力人的同时,但是承认其所实施的法律行为具有法律效力,不言而喻是在其符合特有产作为剥削形式的规定的范围内。因此,拥有特有产的奴隶,就被视为有能力承担义务,但不能为自己取得权利;其所取得的一切都自动归属于主人的财产。顺便说一下,奴隶能够取得无诉权的请求权,即自然权利。实现该权利只有在奴隶被解放之后才有可能。”[55]“随着经济生活的发展,划出财产作为奴隶独立管理的财产的事实被视为家主同意在特有产范围内承担通过奴隶接受与特有产有关的债务之责任。因此,如果法律行为是由奴隶依据划给其管理的特有产而实施的,则奴隶主在奴隶的契约相对人面前依据特有产之诉在特有产范围内承担责任”[56]

根据俄罗斯学者提出的格里申法案(机器人法草案),所使用的“机器人—代理人”的概念就是罗马法上的特有产制度的现代影子,在该草案中,“机器人—代理人拥有独立的财产并以之为自己的债务承担责任”[57]

值得注意的是,在阿西莫夫的短篇小说《双百人》中,机器人安德鲁·马丁就是以拥有的特有产来作为自己获取自由的经济基础。

第二,来自法律关于动物保护的规范的启发。即使在人类高于机器人的人类与机器人的关系模式下,仍然存在善待机器人的成熟机制。如前述格里申法案将机器人定位为与动物具有特定相似性的财产,有助于人类建立人类与机器人关系模式上的新思路,将有关动物的规则适用于机器人,首先可以将有关财产的一般规则适用于机器人;其次是在人类行使权利的时候不允许违背人道原则残酷对待机器人[58]。“通过限制人的行为,来达到对动物权利的保护。”[59]笔者倾向于,充分尊重和人道对待机器人是必要的,但并不意味着需要立即赋予机器人法律人格,在现有制度能够发挥作用的时候,尽量避免过早出台赋予机器人法律人格的立法。

五 阿西莫夫的教诲:机器人学三法则到底意味着什么?

套用阿西莫夫在其《导言》中所说的“有一件事我们可以确定:机器人正在改变这个世界,它将朝我们无法清楚预见的方向推进”[60],我们也可以说,“有一件事我们可以确定:人工智能正在改变这个世界,它将朝我们无法清楚预见的方向推进”,也许这就是阿西莫夫的教诲。

尽管是对阿西莫夫机器人短篇系列关于机器人学三法则的不那么完全的考察,亦足以窥见阿西莫夫在数十年前对世人的提醒和教诲,这个教诲包括但并不限于:机器人(人工智能)的发展对人类的影响难以清楚预估,难以清楚预估并不意味着放弃对该影响的关注和检测,而是提醒和警告产业界、学术界和政府层要更加警惕和关注人工智能产业发展和技术研发与应用可能带来的不利后果;在面对人工智能可能的危险面前,人类(整体和个体)的安全应当是最重要的也是第一位的要考虑的因素;无论是在人工智能的研发资助、研发进程、设计、制造、商业化和投放市场、售后服务等方面的伦理调整,还是在相关方面的立法规制上,相对于人工智能的人类中心主义或者说人类绝对优先主义是极其有必要的;对于立法或者伦理规范的创制者而言,人类中心主义所蕴含的人类的尊严、价值和安全至上和优先的观念,是立法或者伦理规范的创制者必须遵循的最高义务;尤其是,任何一个国家的立法者对此必须有清醒的认识,在立法规制上立法者不得由于过度考虑产业发展利益或者考虑本国产业在全球竞争中的胜出而有意或无意地忽略保障人类整体和个体的安全利益,立法者(乃至政府)的角色应当是全人类(个体和整体)安全的捍卫者和保障者,而不是或者不完全是或不主要是人工智能产业发展的支持者。没有安全性的发展,难谓真正的发展。这种安全的概念与人权法意义上的人身安全不同,这种安全的威胁或者侵害不是来自广义的政府的任意逮捕或者拘禁的传统含义[61],这种安全除了对人类个体的安全之外,还包括了对人类整体的安全的考虑。

阿西莫夫用科幻作家的想象力,以法律的形式表述了人类中心主义的主题,这种主题并未过时,亦未落后,反而成为法学家关注的对象,阿西莫夫机器人学三法则曾经所暗示的机器人(亦即人工智能)发展对人类个体乃至整体的危险和风险的刺耳警告,在人工智能技术取得长足进步甚至可能取得革命性进展的今天,有以支持产业发展或者产业竞争的名义而被人故意遗忘至少也是故意忽视的倾向,重提阿西莫夫的教诲并不是无益的。


[1] 本文为作者主持的司法部2016年度国家法治与法学理论研究项目“新生权利的理论与实践问题研究”(项目编号:16SFB2001)、教育部人文社会科学重点研究基地重大项目“新兴权利的基本问题研究”(项目编号:16JJD820031)、西南政法大学人工智能法律研究教师研究创新项目“人工智能机器人的法律调整:阿西莫夫法则的贡献与局限”(项目编号:2018-RGZN-JS-ZD-10)的阶段性成果。

[2] 张建文,西南政法大学教授,博士生导师,法学博士,西南政法大学人工智能法律研究院副院长。研究方向:人格权法、信息法学。

[3] 〔美〕阿西莫夫:《阿西莫夫:机器人短篇全集》,叶李华译,南京:江苏文艺出版社,2014,扉页。

[4] Issac Asimov,Runaround:I Robot (New York:Doubleday,1950),p.40.

[5] 〔美〕阿西莫夫:《阿西莫夫:机器人短篇全集》,叶李华译,南京:江苏文艺出版社,2014,扉页。

[6] 〔美〕John Frank Weaver:《机器人也是人:人工智能时代的法律》,郑志峰译,台北:元照出版有限公司,2018年,第3页注释1。

[7] 〔美〕John Frank Weaver:《机器人也是人:人工智能时代的法律》,郑志峰译,台北:元照出版有限公司,2018年,第5页。

[8] 〔美〕列奥·施特劳斯:《古典政治理性主义的重生》,郭振华等译,北京:华夏出版社,2017,中译本前言第1页。

[9] 〔美〕列奥·施特劳斯:《古典政治理性主义的重生》,郭振华等译,北京:华夏出版社,2017,中译本前言第2页。

[10] 赵万一:《法律应当如何重新定位人》,载〔美〕John Frank Weaver《机器人也是人:人工智能时代的法律》,郑志峰译,台北:元照出版有限公司,2018年,推荐序第22页。

[11] Дороганов Виталий Сергеевич,Баумгартэн Михаил Ицекович Возможные проблемы,возникающие при создании искусственного интеллекта//Вестник КузГТУ.2013.№4(98).С.133.

[12] Что мы думаем о машинах,которые думают:Ведущие мировые ученые об искусствен-ном интелекте//Джон Брокман;Пер.с англ.-М.:Альпина нон-фикшн.2017.С.22.

[13] 腾讯研究院等:《人工智能》,北京:中国人民大学出版社,2017,第300页。

[14] 0. A robot may not harm humanity,or,by inaction,allow humanity to come to harm.1. A robot may not injure a human being or,through inaction,allow a human being to come to harm.2. A robot must obey orders given it by human beings except where such orders would conflict with the First Law.3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.

[15] 0.Робот не может нанести вред человечеству или своим бездействием допустить,чтобы человечеству был нанесён вред 1.Робот не может причинить вред человеку или своим бездействием допустить,чтобы человеку был причинен вред.2.Робот должен повиноваться всем приказам,которые дает человек,кроме тех случаев,когда эти приказы противоречат Первому закону.3.Робот должен заботиться о своей безопасности в той мере,в которой это не противоречит Первому или Второму законам.

[16] Азимов,Айзек.Роботы и Империя.-Москва:Эксмо,2006.5-699-17608-Х.

[17] Андрей Незнамов.Новые законы робототехники:как в Европе регулируют права робо-тов. Популярная механика.2017.№8.

[18] Андрей Незнамов.Новые законы робототехники:как в Европе регулируют права робо-тов.Популярная механика.2017.№8.

[19] Андрей Незнамов.Новые законы робототехники:как в Европе регулируют права робо-тов.Популярная механика.2017.№8.

[20] 参看欧洲议会于2017年2月16日《机器人民法规范》[P8-TA(2017)0051第T段“Civil law rules on robotics,European Parliamentre solution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics”2015/2013(INL)]。

[21] Андрей Незнамов.Новые законы робототехники:как в Европе регулируют права роботов.Популярная механика.2017.№8.

[22] Андрей Незнамов.От редактора.Дайджест Робоправа.Выпуск января 2018.с.1.

[23] 〔美〕John Frank Weaver:《机器人也是人:人工智能时代的法律》,郑志峰译,台北:元照出版有限公司,2018年,第6页。

[24] Азимов,Айзек.Улики//Мечты роботов.—М.:Эксмо,2004.С.142-169.

[25] David Langford,Laws of Robotics//SFE:The Encyclopedia of Science Fiction,online edition,2011.;Айзек Азимов:Человек,который писал еще быстрее.Русская фантастика(1994).Проверено 14 января 2007.Архивировано 25 января 2012 года.

[26] 〔美〕阿西莫夫:《证据》,载〔美〕阿西莫夫《阿西莫夫:机器人短篇全集》,叶李华译,南京:江苏文艺出版社,2014,第412页。

[27] 〔美〕阿西莫夫:《导言》,载〔美〕阿西莫夫《阿西莫夫:机器人短篇全集》,叶李华译,南京:江苏文艺出版社,2014,导言第2页。

[28] 〔美〕阿西莫夫:《导言》,载〔美〕阿西莫夫《阿西莫夫:机器人短篇全集》,叶李华译,南京:江苏文艺出版社,2014,导言第1页。

[29] 刘慈欣:《AI时代的曙光》,载李彦宏等《智能革命:迎接人工智能时代的社会、经济与文化变革》,北京:中信出版社,2017,序二第12页。

[30] 李彦宏等:《智能革命:迎接人工智能时代的社会、经济与文化变革》,北京:中信出版社,2017,第33、124页。

[31] 腾讯研究院等:《人工智能》,北京:中国人民大学出版社,2017,第298页。

[32] 〔美〕阿西莫夫:《阿西莫夫:机器人短篇全集》,叶李华译,南京:江苏文艺出版社,2014,第471~472、474页。值得注意的是笔者根据该小说的俄文版本重译了这句话。

[33] 〔美〕John Frank Weaver:《机器人也是人:人工智能时代的法律》,郑志峰译,台北:元照出版有限公司,2018年,第295页。

[34] 〔美〕阿西莫夫:《阿西莫夫:机器人短篇全集》,叶李华译,南京:江苏文艺出版社,2014,第471页。

[35] 〔美〕阿西莫夫:《阿西莫夫:机器人短篇全集》,叶李华译,南京:江苏文艺出版社,2014,第471~472页。

[36] 〔美〕阿西莫夫:《阿西莫夫:机器人短篇全集》,叶李华译,南京:江苏文艺出版社,2014,第478页。

[37] Азимов,Айзек.Улики//Мечты роботов.—М.:Эксмо,2004. С.142-169.

[38] Джеф Раскин.Интерфейс:новые направления в проектировании компьютерных систем.—Символ-Плюс,2003.

[39] 〔美〕阿西莫夫:《阿西莫夫:机器人短篇全集》,叶李华译,南京:江苏文艺出版社,2014,第474页。

[40] 〔美〕阿西莫夫:《阿西莫夫:机器人短篇全集》,叶李华译,南京:江苏文艺出版社,2014,第492~493页。

[41] 〔美〕洛尔:《大数据主义》,胡小锐、朱胜超译,北京:中信出版社,2015,第306页。

[42] 〔以色列〕尤瓦尔·赫拉利:《人类简史:从动物到上帝》,林俊宏译,北京:中信出版社,2017,第23页。

[43] 〔美〕阿西莫夫:《阿西莫夫:机器人短篇全集》,叶李华译,南京:江苏文艺出版社,2014,第482页。

[44] 腾讯研究院等:《人工智能》,北京:中国人民大学出版社,2017,第301页。

[45] 腾讯研究院等:《人工智能》,北京:中国人民大学出版社,2017,第302页。

[46] 〔美〕阿西莫夫:《导言》,载〔美〕阿西莫夫《阿西莫夫:机器人短篇全集》,叶李华译,南京:江苏文艺出版社,2014,导言第2页。

[47] Ирискина Е.Н.,Беляков К.О.Правовые аспекты гражданско-правовой ответственности за причинение вреда действиями Робота как квазисубъекта гражданско-правовых отнош-ений//Гуманитарная информатика.2016.№10.С.65.

[48] Pagallo U.,The Law of Robots:Crimes,Contracts,and Torts (Springer,2013),p.102.

[49] 陈卫佐编著《拉丁语法律用语和法律格言词典》,北京:法律出版社,2009,第123页。

[50] 黄风编著《罗马法词典》,北京:法律出版社,2001,第197页。

[51] 〔英〕巴里尼古拉斯:《罗马法概论》,黄风译,北京:法律出版社,2000,第68页。

[52] 屈茂辉、章小兵:《罗马法特有产制度研究》,载〔意〕桑德罗斯奇巴尼、徐涤宇主编《罗马法与共同法》(第一辑),北京:法律出版社,2012,第83~84页。

[53] Римское право:учебник/И.Б.Новицкий.3-е изд.,стер.-М.:КНОРУС,2014.С.73.

[54] Новицкий И.Б.Основы римского гражданского права:учеб.-Москва:Проспект.2017.С.54.

[55] Новицкий И.Б.Основы римского гражданского права:учеб.-Москва:Проспект.2017.С.54.

[56] Новицкий И.Б.Основы римского гражданского права:учеб.-Москва:Проспект.2017.С.54-55.

[57] 张建文:《格里申法案的贡献与局限——俄罗斯首部机器人法草案述评》,《华东政法大学学报》2018年第2期,第40页。

[58] Гражданский кодекс Российской Федерации. Части первая,вторая. третья и четвертая.-Москва:Проспект,2017.С.80.

[59] 腾讯研究院等:《人工智能》,北京:中国人民大学出版社,2017,第266 页。

[60] 〔美〕阿西莫夫:《导言》,载〔美〕阿西莫夫《阿西莫夫:机器人短篇全集》,叶李华译,南京:江苏文艺出版社,2014,导言第2~3页。

[61] 张永和主编《人权之门》,桂林:广西师范大学出版社,2015,第91页。