您当前的位置:首页 >> 奇幻
刘洪华:论人工智能的法律地位 | 主题研讨
发布时间:2019-07-09
 

【作者】刘洪华(广东外语外贸大学土地法制研究院副教授、云山学者,法学博士)

【来源】《政治与法律》2019年第1期“主题研讨·人工智能的法律调整研究”栏目。因篇幅较长,已略去原文注释

【投稿地址】http://zhen.cbpt.cnki.net,欢迎赐稿!

内容提要:人工智能拥有类似人类的智能,但是并未发展出人类理性,也不能为自己立法,不可取得类似自然人的法律主体地位。人工智能虽然具有某些超越人类能力的强大工具,但是为其拟制一个法律主体并无实益,不可赋予其类似法人的法律主体地位。人工智能超强的智能蕴含巨大的风险,必须处于人类的支配和控制之下,只能是法律关系客体而非主体。鉴于人工智能的智能性和自主性,可以将高度智能化的人工智能作为客体中的特殊物,予以特殊的法律规制。


关键词:人工智能;主体;客体;理性


一、问题的提出

今天看来,人工智能(Artificial Intelligence, AI)不仅或将共享人类独有的荣耀,似乎还会很快超越甚至取代人类。人类是无私地促成这一刻的到来,是自私地阻止这一切的发生,还是视而不见,无动于衷?人类或许应当未雨绸缪,慎重面对这可能是人类最后一个重大的法律问题:法律应当赋予人工智能以“人”的地位,还是否认其主体地位?当前思考这个问题并不过于超前。人工智能创造物的归属已经成为一个现实问题,实践也迫切需要为正在蓬勃发展、跃跃欲试的自动驾驶系统提供可具操作性的责任分配规范。随着人工智能的广泛应用,人工智能的安全性与伦理性也提上议事日程。人们一方面担忧人工智能技术的滥用,希望出台管制人工智能的法律与政策,另一方面又担心对高度智能机器人的虐待,期待赋予人工智能以电子人格。这些问题的解决都需要从法律角度对人工智能的法律地位进行定位:人工智能是人还是物?这将决定人类对待人工智能的方式,甚至决定人类未来的命运。

目前国内直接讨论人工智能法律地位的研究并不多,有限的研究中,支持与反对意见针锋相对。境外哲学家、科学家以及法学家对是否赋予人工智能法律人格展开过激烈的争论。法国哲学家拉·梅特里(La Mettrie)明确地说:“人的身体是一架钟表,不过这是一架巨大的、极其精细、极其巧妙的钟表……”按照这一逻辑,既然同属于机器,人类具有主体资格,人工智能也应当具有主体资格。现实中,人与物的界限愈发模糊。科学家正在研究拥有具有生物大脑(biological brain)的人工智能。戴维斯教授认为,人工智能与法人类似,既然法人可以拥有法律人格,人工智能也应当拥有法律人格。艾博特教授认为,赋予非人类作者/发明人法律人格,将为人类利用动物和人工智能之创造能力提供新的激励手段。不仅学者讨论,立法机构也走向前台。2017年初,欧盟议会法律事务委员会在其向欧盟委员会提交的《就机器人民事法律规则向欧委会提出建议的报告》中,建议欧盟委员会考虑在未来的立法中赋予最高端的智能机器人电子人地位(status of electronic persons),使其为自己的致害行为承担责任,并在自主做决定或独立与第三人互动时利用其电子人格(electronic personality)。俄罗斯紧随其后,在由俄罗斯互联网技术专家格里申及其基金会“格里申机器人”发起并起草的《在完善机器人领域关系法律调整部分修改俄罗斯联邦民法典的联邦法律》(又称《格里申法案》)第1条中,提出了赋予机器人“机器人-代理人”法律地位的建议,规定“机器人-代理人”拥有独立的财产并以之为自己的债务承担责任,可以以自己的名义取得并行使民事权利和承担民事义务。目前的研究,无论支持方还是反对方都缺乏相应的理论基础和逻辑论证。支持方没有具体论证赋予人工智能主体地位的理由,反对方也如是。笔者认为,无论是支持方还是反对方都要回答以下问题。第一,法律赋予对象以主体地位的哲学和法学基础、社会现实基础是什么。第二,如果有充分的理论与现实基础,则究竟赋予人工智能何种法律地位才属恰当。

二、法律主体制度的哲学基础与法理根据

法律地位,指法律对于对象作为主体抑或客体的定位。主体与客体之区分即人与物之区分是传统民法理论的基本支柱。凡具有精神、意识的存在为人,凡不具有精神、意识的存在则为物。一个对象,或为法律主体,或为法律客体,不可能成为主体与客体之间的中间状态。因此,讨论人工智能的法律地位,可以从其是否具备主体资格着手。主体资格,又称人格,是法律赋予那些具备一定条件的“适格者”使其成为法律上的“人”,进而成为法律关系中的权利享有者、义务和责任承担者的资格,通俗地讲就是一个实体要成为法律主体应该具备的条件。目前,人工智能高度自主,并有不断脱离人类控制的趋势,似乎具有“精神、意识”的人工智能应当被赋予法律主体地位已成为一个现实问题。当“精神、意识”不再为人类所独享,似乎“主客体之间这种不可逾越的鸿沟”发生动摇也是不可逆转的趋势。然而,笔者认为,目前谈论人工智能打破人物二分的私法格局为时尚早。人工智能技术的确取得了巨大进步,能够进行一些自主选择,但尚谈不上具有“精神、意识”,更谈不上要赋予人工智能人格。现代法关于“人”(主体)的界定是建立在以康德为代表的德国古典哲学对人的本质的深刻认识基础之上的,有深厚的法哲学基础。

(一)法律主体制度的哲学基础

现代法上,自然人几乎成为法律主体的代名词,然而,所有自然人均为法律上的人并非自始即为理所当然之事。古代法以血缘、性别、国籍等外在于人的条件为标准,形成了差异极大的自然人法律地位。现代法自然人主体资格的赋予是建立在对自然人本质属性的深刻认识基础上的。

对于“我”是什么,世界的本原是什么,几千年来,人类孜孜以求。然而,几千年来,人类一直在“我”的外部世界探寻世界的根基,或将其归为神灵,或将其归为水、气、数,唯有人类将世界的根基归于“我”时,才真正启动了对人的本质的认识和对世界的认识。近代西方哲学创始人笛卡尔(RenéDescartes)从理性主义认识论出发提出“我思故我在”命题,开启了哲学研究向主体性哲学的转向,从此,“我们再也无须像古希腊和中世纪那样抬眼望天,而只需返身向内就能对一切东西进行确信”。笛卡尔将“我思”(自我意识)作为认知的起点,将人置于认知主体的位置,凸显了人在认知关系中的主体性。在笛卡尔看来,成为一个主体必须“转向自身,否定外在的一切标准,从自己那里找到世界的根基,并且,这样的根基必须能得到思维的确信”。正如黑格尔所言:“从笛卡尔起,我们踏进了一种独立的科学。这种哲学明白:它自己是独立地从理性而来的,自我意识是真理的主要环节。”“我思故我在”使“自我意识”从幕后走向台前。康德通过对“我思”的探索,在两方面确立起人的主体地位:其一,在人与大自然的关系上,证成人是认知主体,具有为自然立法的能力;其二,在人与社会的关系上,证成人是伦理主体,具有为自己立法的能力,最终构建了“人是目的”的哲学理论。

人何以成为目的,在于人有理性,有理性是人类与其他生物的根本区别。人类理性首先在于人类具有先天性的认知机能,是一个能动的认知主体。人认识外部世界的过程是利用特有的思维能力,能动地形成知识的过程,是人的内部理性统摄外部感性形象的过程。在康德看来,一切知识都始于经验,但并非直接来源于经验。人类知识的形成是先天的形式和后天的质料共同作用的结果。先天的形式是人类特有的人心的机能、思维的能动性,“这形式不涉及独立于人的意识的什么东西,它一定属于人的意识,它来源于人的理性,是先天的”。后天的质料是认识的对象刺激人的感官,使人对它们形成表象,这些表象通常仅是一堆杂乱的材料,唯有经过人类心灵的处理,才能形成知识。人类对世界的认识就是用先天的形式去把握后天的质料形成认知的过程。理性是主体的一种最高的认识能力,它既是人类认识的界限也是人类认识的标杆,“它是一杆旗帜,它永远在前面”,指引人类认识的方向和目标。如此,人类成为认识主体,万物成为人类认识的客体,人认识世界的过程是人的主观意识作用于客观存在的过程,客体唯有被纳入主体意识之内,才能被认识,为此,人具备为自然立法的能力。

人类理性除了体现在认识能力上之先天条件造就的为自然立法的能力,还体现在实践能力方面之实践理性(自由意志)造就的为自己立法的能力。依据康德哲学,人具有双重属性:一方面,作为具有血肉和欲望的动物,人是一种自然存在,具有自然属性,受制于自然法则,处于受支配的非自由状态;另一方面,作为具有高级思维能力的生物,人又是一种理性存在,能够认识世界和改造世界,使自己超脱自然法则的束缚,而又将自己置于理性法则的规范之下,从而成为自由、自律的伦理主体,人的本身即是目的。伦理属性是人区别于其他生物的本质属性。人的伦理属性使其享有其他生物不可能享有的自由,人之自由的根本在于意志自由。意志自由使人可以摆脱感性欲望的束缚,具备自由选择的能力,成为真正的独立主体。动物也具有自由,但是动物的自由是在本能控制下的“病理性的”(可以通过临床观察来研究的)和被迫的自由,是为必然性所支配的自由;而人的自由是一种能够在多种选择面前作出抉择的自由,人“能够独立于感性冲动的强迫而自行规定自己,能够不囿于眼前直接的利害和欲求,而追求间接的对于整体更为有利的东西”。人的自由意志既体现为自由,也体现为自律,自由即自律。康德将人的自由区分为消极自由和积极自由。消极自由指人类摆脱感性欲望束缚,不为感性动机奴役的选择的自由,积极自由即意志自律,指对普遍道德法则的遵守,对人类自己所立的法的遵守。康德说:“要这样行动,使你的意志的准则任何时候都能同时被看做一个普遍立法的原则。”因此,作为伦理主体,人有为自己立法的能力,并能对自己的行为加以限制,“人通过意志自律从而自己立法自己遵守,自律是人以及一切有理性者所以尊贵的根据”。人因为具有自由意志而具有区别于其他生物的自由,人在每个时刻都可以自由选择,人因此区别于物。

理性使人能够为自然立法和为自身立法,成为万物的尺度,人因而是目的。因此,法律上的人,其哲学基础是理性。以理性为哲学基础的体系化的法律主体理论和制度是在近代以德国民法为代表的德意志法系中形成的,上述哲学基础也是我国民法法律人格的哲学基础。

(二)法律主体制度的法理根据

理性是法律人格的哲学基础,那它无疑是法律赋予调整对象之发动者的主体资格的法理根据。然而,法学与哲学有所不同。哲学直指问题的本质,法学则需要应对现实。考察近现代法律主体制度,法律除了赋予有理性的自然人主体地位,还赋予没有理性的团体以主体地位,谓之法人。有学者指出:“因为人是目的,基于人之发展需要,可以授予为人之发展目的所必要的工具以主体地位,赋予工具以主体地位,在于更好地实现其作为服务于人的工具的价值”,其并将法律主体制度的法理根据归纳为目的性根据和工具性根据。

私法主体的首要根据是理性。曾几何时,人类自认为无法掌握自己的命运。罗马时代,奴隶被奴隶主当作会说话的工具;中世纪,人的存在是为了显示上帝的伟大。“人的目的不是追求世俗生活的幸福,而是追求天国里的永恒幸福。”在康德的理性哲学中,“有理性的生灵叫做‘人’,因为人依其本质即为目的本身,而不能仅仅作为手段来使用”。人是目的,这一看似简单的判断,道出了人的本质,具有重大的意义。具体地说,这一判断具有以下含义。第一,人因理性而成为目的。康德道出了人与其他生灵和物质的区别——人具有理性。这一判断彻底地将人从上帝那儿解放出来。康德认为:“人虽然有着种种的感性欲望,但他并不由这些欲望决定,决定其行为的永远是理性,正因为这样,才能对人的行为进行道德评价。”人具有双重性,一方面,人作为具有血肉和欲望的动物,与万物没有区别,但另一方面,人具有理性,从而成为自由自在的伦理主体,具有绝对的价值,本身即是目的。第二,人不得被自己和别人当作手段。康德认为:“有理性的生灵叫做‘人’,因为人依其本质即为目的本身,而不能仅仅作为手段来使用。”人具有至高无上的尊严与价值,人不是为他人也不是为上帝而存在,人不是他人与社会实现目的的手段。人的存在与发展,具有最高的价值。人具有独立性,不允许他人侵犯和奴役。康德说:“你必须这样行为,做到无论你自己或别的什么人,你始终把人当目的,总不把他只当做工具。”人(生物人)因理性而成为目的,从而不得被自己和别人当作手段,如此人自然应当成为主体。如前所述,理性并不仅仅限于认知和选择能力,还取得我们为自己立法的道德能力。康德哲学中的理性,“不仅指人类认识可感知世界的事物及其规律性的能力,而且也包括人类识别道德要求处世行事的能力”。在实践领域,理性即是指道德能力。基于这种道德能力,赋予诸如婴儿、胎儿及精神障碍者主体资格理所当然。

实践中,主体资格的根据并不限于理性,因为人之发展需求,法律授予团体法人资格。团体何以成为法律主体?其与本身即为目的的自然人不同,团体是社会的产物,它被塑造成法律主体并非因为自身是目的,而是作为实现自然人目的之工具,“真正的目的仍然在于自然人格”。“人类自古皆结成团体而生存,而团体享有法律上主体地位却经历了漫长的历史岁月”,显然,作为人类发展之需的工具并非都可以成为法律主体。历史地看,团体最终得以成为法律主体得益于实体性基础、实益性基础和法技术基础三方面条件的同时具备。其一,实体性基础,即存在可被赋予法律主体地位的团体。法人制度纯粹是社会经济发展的产物,团体人格的基础是能够在商品经济生活中成为权利义务之统一归属点的实体的形成,该实体需集独立意志和独立财产于一身。因此,法人的实体性基础是存在适于成为交易主体的人与财产的有机集合体。人的集合体使团体得以基于成员共同意志形成团体意志。团体意志不是团体每个成员意志的简单相加,而是这些多数意志的有机统一,是团体的自由意志。自由意志是自然人成为法律主体的根本要素,有学者因此指出,团体(集会)自由意志的存在,“集会就置于与自然人同等地位,平起平坐了”。团体主体资格的塑造是为了使其成为人们经济生活中的交易主体,因此,作为法人的团体必须拥有独立的财产,该财产可能来自团体成员的共同出资、他人捐赠或来源于国家,但它最终必须归属于团体。满足该两个条件的团体则具备了成为法律主体的实体性基础。不过,只有该类团体的出现尚不足以导致法人制度的形成。其二,实益性基础,即赋予团体法律主体地位具有社会价值。具备前述实体性基础的团体在罗马时代就已经存在,但是赋予团体法律主体地位的法人制度直到近代才确立,这是由确立法人制度的必要性决定的。团体人格对于处于简单商品经济时期的奴隶制社会和处于自给自足的农业经济时期的封建社会积极意义不明显,唯有社会进入以自由竞争为特征的商品经济制度时期之后,资本的集合和运作成为谋求更大利润和发展社会经济的必需,团体人格的价值方得到彰显,法人制度应运而生。实益性基础(社会价值)被学者认为是法人制度的重要依据或根本性依据,如李宜琛认为,法人“人格之根据,则在用于其社会的价值也”。王利明等学者指出:“社会组织在商品经济社会的实际作用,乃是它们在法律上的主体资格即法人的本质所在。”德国学者指出,法人制度在《德国民法典》的确立在于赋予团体法律主体地位有助于推动交易和有助于责任限制两大经济实益。其三,法技术基础。始于罗马法时期的人与人格相分离的法技术为近代法将人格赋予团体提供了法技术基础。“人格”(persona)是古罗马法创设的概念,具有“面具”的意思,是罗马社会用以对人进行分阶层以配置社会资源的产物。有人格者为罗马私法上的权利义务主体,没有人格者(包括人和物)则不能成为罗马私法的权利义务主体。人与人格的分离使“人格”这种面具可以根据社会需要戴在团体脸上,使其具有民事主体资格,并可以像“人格人”一样参与各种民事活动。近代以来,社会经济的发展要求认可团体的法律地位,使其与投资人相区分,从而成为财产权利、义务和责任的独立承担者,以限制投资人风险,鼓励投资积极性成为促进社会发展的必要。立法者借此通过对古罗马法人格理论的改造,将人格面具“戴到某些‘适于成为交易主体’的团体的脸上,使之与其他团体相区别”,从而创设了赋予团体人格的法人制度。

三、人工智能的法律地位分析

(一)人工智能主体地位的否定

人工智能拥有类似人类的智能,但是并未发展出人类理性,不可依“理性论”取得类似自然人的主体地位;人工智能是人类实现自身目的的工具,但是赋予其主体地位并无实益,不可依“工具论”取得类似法人的主体地位;人工智能超强的智能蕴含巨大的风险,必须处于人类的支配和控制之下,人工智能只能是客体而非主体。

首先,人工智能没有理性,不能取得类似自然人的主体地位。美国纽约法院曾经指出,对计算机编程不是也无法让计算机做出判断而仅是让计算机执行强制指令。近几年来技术的发展逐渐改变了人们关于机器仅能执行命令而不能自主判断和自主决策的观念。机器学习(Machine Learning)功能使人工智能能够在没有预先算法或规则设定的情况下,通过主动学习来解决问题。与传统机器不同的是,高度自主人工智能的最大特征在于具有高度的甚至完全的自主性。目前的深度学习算法允许人工智能从数据中学习并推演出新的规则。这意味着是学习算法(Learning Algorithm)而非程序员创建了新的规则,人工智能就是利用这些新的规则驾驶汽车或运行其他机器。大数据技术更使机器学习的效果发生了质的飞跃,人工智能的独立判断能力也得到明显提升。即便如此,赋予人工智能主体地位仍然理由不足。

当前的人工智能虽有一些自主判断和自主选择的能力,但这并不意味人工智能与人类一样拥有理性能力。人工智能仅具有有限的认知能力,没有自我意识,没有自身目的,不可能成为自由自律的理性主体。人工智能是实验室的产物,仅能通过人类为其设定的算法或通过海量数据训练自主生成算法认识事物,它们对世界的认知受到很大限制,无法用数据形式表示的抽象内容(如情感、动机、直觉等)无法习得。人既是生物的人,也是社会的人,人对事物的认知既关涉人脑的机能,也关涉后天的阅历。人脑具备从少量经验中提取有用结论的能力,具备将丰富阅历凝练成常识的能力,人类因而具备从认知中提出问题的能力。人工智能仅能模拟人的显性智慧,主要表现为通过获取信息、提炼知识、演绎智能策略和执行智能策略这样一些显性的操作能力,达到解决问题的目标,不像人类可以基于主观目的、既有知识、直觉、想象力、审美力、灵感和顿悟等形成定义问题和提出问题的能力。人工智能终究是人类设计而非自然孕育,没有自身目的,其存在目的由创造它的人来决定,人类根据自己的需要设定人工智能的算法,提供特定的学习数据,规定人工智能的行为模式,人工智能成为达致其创造者目的的工具。人工智能没有自我意识,它不知道自己所从事的行为的目的和意义。人工智能不具有人类情感。人有七情(喜、怒、哀、惧、爱、恶、欲)六欲(“生、死、耳、目、口、鼻”所生之欲),还有慈悲之心、同情之心、恻隐之心和怜悯之心。这些情感目前人工智能并不具备。目前,虽然人工智能的自主选择能力令人震惊,享有了本该人类独享的能力,但是其自主选择只是取决于算法,与复杂的人类情感无法相提并论。未来或许可以给人工智能设置情感,但这种情感仅是模拟而非真实的情感。既然不是人类,既然不像人类有情感,不会爱,也没有爱的能力,那么人工智能当然还不算真正具有理性。没有理性的人工智能自然不能以理性取得主体资格。人类的理性是独一无二的。归根到底,目前的人工智能不管怎么说还是程序,这个程序可以编写,可以删除,不同于人类。人工智能或许可以做到自主选择,但不可能拥有人类情感,这些都只能是生理、心理(而非程序)能够产生的。

人工智能的研究日新月异。“未来出现的机器人将拥有生物大脑,甚至可以与人脑的神经元数量相媲美。美国未来学家甚至预测:在本世纪中叶,非生物智能将会10亿倍于今天所有人的智慧。”人工智能在隐性智慧探索方面也有可能出现突破性进展。一旦具备发现问题和定义问题的能力,人工智能将会实现真正的自主。“自主性越强,就越难将其当成是其他主体手中的简单工具。”人工智能越来越像人类,甚至超越了人类,不赋予其主体资格似乎不合情理。然而,人工智能超强的智力蕴藏着巨大的危险。现代社会诸多风险是“被制造出来的风险”,正如马克斯·韦伯形象地指出的那样,人类将注定会生活在“技术知识的囚室”。或许科技能创造出与人类一样有思想、有灵魂的人工智能,这将给伦理与哲学带来巨大的冲击。目前的人工智能还不算人类。一旦人工智能有了思维,有了情感,有了自由意志,那么他们算不算人类已经不重要。意思自治不可能在人类与人工智能之间实现。当智力不对等,意思自治便无从实现,正如人类不可能与大猩猩相互意思自治,超人工智能也不可能与人类相互实现意思自治。创造有理性的人工智能本身即是一个巨大的错误。有学者对可能到来的人工智能时代表示自己的担忧:“如果这一天真的到来,面临挑战甚至威胁的,将是整个人类社会。”即使不考虑人工智能会终结人类,也应考虑人工智能“将会改变大多数人类的生活,我们工作和娱乐的真正本质将会被改变,我们对于智能、意识和人类未来命运的观点也会改变。在此层次上,人工智能系统会对人类的自主性、自由乃至生存造成更为直接的威胁”。扪心自问,面对人类的终结者,人类是否坦然面对而无动于衷?人类是否要成为自己的掘墓人?难道人类对自己说,这是人类的进化而非是人类的灭亡?如果做不到这一点,那么人类显然应当阻止这一切的到来。

其次,赋予人工智能主体地位没有实际益处,人工智能不能取得类似法人的主体地位。《未来简史》的作者赫拉利认为,既然法律能认可公司这种既无身体也无心智的实体的主体地位,称之为“法人”,那么认可人工智能以主体资格也无不可。一些法律学者也持类似观点。如有学者认为,法律既然可以赋予公司以法人地位,那么“未来在时机成熟时赋予智能机器人法律地位,也未尝不可。……如果赋予智能机器人电子人格(Electronic Personality),让其可以享有特定的权利和义务,并可以对其行为承担法律责任,包括对其造成的损害的赔偿责任,人们现在担心的很多责任问题都可以得到较好的解决”。如前所述,法人制度的最终确立除了取决于实体性基础和法技术基础,还取决于实益性基础,即承认团体人格有无必要。尽管罗马法时代已出现团体,但由于其经济意义有限,法人制度并未确立。只有在商品经济有了一定发展之后,团体才真正有被赋予主体资格的必要。目前,人工智能的法律地位问题主要针对人工智能创造物的归属与人工智能所引起的损害赔偿责任承担问题的解决而提出,然而,赋予人工智能主体地位对上述两个问题的解决并无实际益处。

其一,赋予人工智能主体地位无益于人工智能创造物归属问题的解决。随着人工智能技术的广泛应用,人工智能创造物的归属已成为一个现实且迫切需要解决的法律问题。如果人工智能创造物归属于人工智能自身,那么自然也就等于承认人工智能的主体地位。如果情况确实如此,那么赋予人工智能以主体地位的确有实际益处。然而情况并非如此。

境外实践早已遇到此类问题,理论界也已有深入的探讨。在美国,其国家版权局虽然将“计算机程序生成内容的现象视为其面临的重难点问题之一”,但是自20世纪50年代以来,美国版权局一直拒绝将“机器创作”歌曲和其他类似产品视为作品加以登记。其表面理由是“该局从未登记过由机器创作的作品”,更深层的理由则如霍姆斯法官在Bleistein案中强调的那样“:版权的保护并非是因为作品的最终用途或审美价值,而是因为作者的个性化元素,……人格(personality)常常包含某种个性……个性则是其获得版权的(条件)。”作为对这种思想的贯彻,美国版权局1973年在其工作手册中明确规定“受著作权法保护的作品必须来源于人的创作”。在英国,1988年《版权、设计和专利法》明确将无人参与的计算机生成内容视为作品(computer-generated works),不过此类作品权利归属于“使计算机获得独立生成内容之能力的主体”。受英国影响,南非1978年《版权法》也规定人工智能创造物构成版权法意义上的作品,作者同样不是人工智能而是对作品创作进行必要操作的人。2006年,南非最高法院在Haupt v. Brewers Marketing Intelligence(Pty)Ltd. and Others案中重申了这一法律立场。新西兰针对人工智能创造物也采取相同的立法态度。

国内不少学者对人工智能创造物的归属进行了探讨。王迁认为:“迄今为止人工智能生成的内容都是应用算法、规则和模板的结果,不能体现创作者独特的个性,不能被认定为作品。”曹源认为人工智能创作物获得版权保护具有合理性,但是“人工智能本身目前不享有独立的法律人格,其仍然属于机械的一种”。熊琦认为,人工智能创造物是“遵循人工智能软件设计者意志创作的产物”,权利归属应借鉴法人作品制度安排,“将人工智能的所有者视为著作权人”。易继明认为,“人工智能之‘智能’,将设计者之设计版权与智能作品上的版权区分开来”,但是,人工智能既不是人也不是物,应将人工智能创作物定位为对设计版权的演绎作品。

综上所述,国内外的理论与实践多数不承认人工智能创造物归属于人工智能,即不承认人工智能的私法主体地位。

即便存在完全由人工智能独立完成的创造物,也不能改变人工智能不能成为其创造物主体的命运。因为即使承认人工智能的主体地位,并将创造物赋予它,该创造物也将不能最终由它享受利益。承认人工智能为作者,但该作者仅有虚名却又不能享受任何实益,这是没有任何意义的。同时,机器本身不需要经济激励。正如萨缪尔森教授所言:“版权制度在历史上一直都只对人(human)授予版权。……其非常有力的理由是:机器享有知识产权毫无意义,因为机器不需要获得排他权来激励其生成内容。知识产权制度的整体目标是,通过授予创造者的排他权以引诱其创新,该制度推定:如果无须激励也能产生(创新),则权利就无保护之必要。”可见,承认人工智能的主体地位于解决人工智能创作物的归属问题没有实际益处。

其二,赋予人工智能主体地位无益于人工智能损害赔偿责任承担问题的解决。深度学习等技术带来的高度自主人工智能的发展,引发了法律学者关于如何规制这类人工智能的恐慌。有学者认为,“当前以人类行为者为中心的侵权责任和以产品生产者为中心的产品责任”已无法应对人工智能侵权责任这一问题。因为高度自主人工智能具备脱离人类控制,自主行为的能力,它可以学习“打破”人类预先为其设定的行为规则以保护其自身的生存,“对于这种偏离预期的行为,以产品缺陷这一事由让生产者承担责任,难以在侵权法上得到证成”。另有学者则指出,对于人工智能独立意志情形下产生的侵权行为,不能完全苛责新兴技术的创造者。因此有学者认为,应当借鉴欧盟的立法建议,在法律上承认高度自主智能机器人为“电子人”,“着眼于如何让一台机器为其行为或者疏忽部分或者全部地承担责任”。

将责任分配给虚无的电子人格,却让人工智能的设计者和制造者置身事外,笔者无法赞成。由人工智能承担侵权责任,表面上简化了归责程序,实际上并不能解决责任认定和承担的困难。作为法律主体,人工智能将与生产者、销售者、使用者等主体共同分担责任,但是它们不会出现人类意义上的过错,需要通过技术鉴定明确其行为性质,而人工智能的运行系统、行为模式等各类参数都是由生产者设计的,这为生产者规避责任提供了机会,可能助长生产者的投机心理,将未经过充分测试的人工智能投入市场,引发恶性竞争,既不利于人工智能产业的发展,也不利于产品使用者的权益保障。同时,人工智能归属明确,其没有独立的财产,无法对其执行财产性赔偿;人工智能也没有人类情感,无法履行赔礼道歉等非财产性赔偿。最终,人工智能所承担的责任还是归属于传统意义上的私法主体。

欧盟和俄罗斯均在其关于机器人立法的建议稿中提及赋予高度自主人工智能法律主体地位,但是均未进一步解决作为主体的人工智能如何承担责任的问题,而是将最终的责任承担归于相关人类。《欧盟机器人民事法律规则》(第56段)特别指出“至少在现阶段,责任必须由人类而不是机器人承担”,并且该规则构建了以严格责任、强制保险和基金制度共同分担的人工智能责任承担机制。俄罗斯《格里申法案》设置了类似法人的“机器人-代理人”地位,并构建了登记制度使其获得权利能力,但是在责任承担上,明确规定,因机器人-代理人的行为产生的责任由其所有权人或占有人承担(第127.4条第1款)。可见,与赋予团体法人资格不同,人工智能主体地位成为一种法律虚置。“机器人无论以何种方式承担责任,最终的责任承担者都是自然人,这使得它的‘法律人格’显得多余和毫无必要。”

(二)人工智能客体地位的合理性

法学界关于人工智能法律地位之争,是围绕人工智能的法律规制而展开的。人工智能是人类创造物,其原初地位是物,赋予人工智能法律主体地位是一种打破常规的创新路径,但是这一创新将造成作为产业或产品的人工智能本身以及现有法律制度两方面的无所适从。作为自然科学的新领域,人工智能的进一步突破尚有许多不确定因素,现在的人工智能远未达到既有法理关于法律主体的规定性条件,若将其设定为法律主体必将导致现有法律主体理论和制度的颠覆性调整,由于人工智能将渗入人们生活的方方面面,整个法律关系和社会关系将面临这种法律调整的动荡;作为社会科学的新领域,对人工智能本身以及人工智能的发展,均需要通过法律规制和道德约束以实现社会价值的引导,而将人工智能作为主体这种打破常规的做法,在使既有法学理论和制度以及在其调整下的社会关系遭遇颠覆性调整的同时,也放弃了对人工智能发展的引导。笔者认为,鉴于人工智能的智能性和自主性,人工智能应该被定位为法律上的特殊物而处于法律客体地位,唯有如此,才能更好地实现对人工智能的规制与利用的双重目标。

首先,这种客体定位有利于人工智能法律规制的实现。将人工智能作为法律主体将使当前通行的法理和法律制度面临各种适用困境。法律由人制定,是以人类行为为中心展开的规范体系。人因为有理性而具备立法的能力,并具备遵守自己所立的法的能力。人工智能不具备人类理性,不可能与人类形成共同的实践理性,不可能理解人类的法律,也不会利用法律。即使人类可以在人工智能系统输入法律程序,装有法律程序的人工智能也只能是被动遵守指令,而非有意识地主动选择。如此,则所有法律中关于行为者的主观意志的判定对于人工智能失效,人工智能的行为是否违法,是侵权还是犯罪的认定或将陷入困境,或将仅仅是某些人的意愿,人工智能成为法律实践中的“伪主体”。如果将人工智能作为法律客体,则仅需对人类的行为进行规范,从本质上而言,对人工智能的规制归根到底是对作为法律主体的人的规制,唯有实现了对与人工智能相关的人类行为的规制,才能从根本上使人工智能处于人类法律的规制之下,并得到相应保护。

人工智能种类繁多,性能差异很大,随着科技的发展,某些人工智能产品还将产生一些突破性的性能改变,在客体定位下,可以在现有法律体系下对人工智能进行分类规制。欧盟和俄罗斯的立法建议稿都提出了分类规制的建议。欧盟建议稿提出对机器人进行分类,建立登记注册制。俄罗斯更进一步将人工智能区分为类似动物的财产和作为准主体的类似于法人的“机器人-代理人”分别进行规制,在此基础上根据所适用的领域,又进行了细分,并对其中一些类型的机器人规定了特别的使用原则。笔者认为,对于低端智能化的人工智能产品如家用扫地机等,适用普通物(产品)的法律规范即可;对于高度自主人工智能产品,可以依据用途再次分类,针对其特殊性予以特别的法律规制。依据用途分类的原因主要在于,一般而言,不同用途的人工智能其技术含量会有区别,所具备的自主性以及与人类交往的密切程度也会有区别。按照生活习惯,从事较高端工作的人工智能(如作为人类的助手的公司的秘书或家庭服务机器人等)通常会按照人类外形打造,并且比其他类别的人工智能具备更高智力水平,可能会配备一些情感模拟程序。与作为运输工具的智能汽车等产品相比,这些机器人与人类具有更密切的关系,长期与之相处的人可能对这些“服务者”产生感情,因此,在法律保护、致害责任以及遭受侵害后的损害赔偿责任等法律规则设计上与其他人工智能产品要有所区分,比如规定更严格的保护规则,对这些机器人的损害赔偿责任中规定精神损害赔偿等。如此则能兼顾人工智能的“类人”属性和“工具”属性,也符合人类伦理道德观。

其次,人工智能的客体地位有利于人工智能技术目标的实现。人工智能是人类改造世界的高级工具,将其作为法律客体符合人是目的,物是人实现目的的手段与工具的基本定位,有利于人类能动地支配人工智能实现自身目的。相反,若将人工智能定位为法律主体则可能使人类偏离创造人工智能的初衷,科学家可能将“造人”当作人工智能科技发展的终极目标,使人类在科技发展的道路上误入歧途。“人类最高目标不是发展和应用技术,而是人的全面发展,技术只是为这个目标服务的手段。”法律主体意味着法律权利的享有者和法律义务的承受者,姑且不论人工智能是否实质具有这种能力,享有权利就意味着人工智能可以提出要求,人类必须满足其权利范围内的要求。在人工智能是由人类生产的这一不可改变的前提下,具备主体地位的人工智能要么将沦为掌握核心技术的少数人的工具,要么将“自我觉醒”,走向人类的对立面。生物意义上的人千百年来努力将自己从原始的混乱中解放出来,“自启蒙运动以来,人们树立起大写的人的独特地位,确定了人是唯一的主体,也是唯一的目的”,人类之外者,本质上皆属人类的工具。人与物的划界不容撼动与逾越,人类不能因为科技的发展又使自己退回到原始的混沌之中。人是主体,人工智能是人类追求更美好生活的工具,人工智能科技的发展必须符合人类普遍伦理,尊重人类的主体性,维护人是目的的价值体系,唯有如此,才能实现人类发展人工智能科技的目标。



转载请注明出处。

分享本文:

点击界面右上角按钮,在弹出框中选择发送给朋友或者分享到朋友圈

本刊微信号:ZZYFL-SASS

本刊微信链接二维码: