您好, 访客   登录/注册

人工智能的侵权责任研究

来源:用户上传      作者:

  摘 要:人工智能技术的应用和普及给民法带来了前所未有的挑战,对人工智能产品的民事主体资格认定、智能机器人侵权的归责原则、责任分配、责任承担等问题进行研究,能够有效缓解人工智能带给社会的各类风险,文章将重点讨论人工智能的侵权责任问题,对国内外的研究情形进行了仔细的比较,分析人工智能产品在法律上的主体资格,并从责任主体、归责原则、责任形态和应对机制等维度对人工智能的侵权责任内涵进行设想,探究应对人工智能发展的更好的责任承担方式。
  关键词:人工智能;侵权责任 ;法律主体资格;归责原则
  近几年人工智能的发展形势迅猛,我们的社会逐渐进入“智能时代”,随着人工智能技术的发展,有关人工智能的产品也层出不穷、渗入社会的每个角落:无人驾驶技术、人脸及语音识别系统、智能医疗设备、以及各种智能家居电器的出现。人工智能产品的逐渐应用,也给我们带来了一连串的法律问题,人工智能损毁财物、致人伤亡的问题也日益增多,人工智能产品致损致害时,侵权责任如何分配、如何承担已经成为一个亟待解决的法律问题,需要我们审慎仔细的研究。
  一、人工智能产品的法律主体资格
  (一)国外的发展情形
  2010年11月,日本机器人“帕罗”曾以作为宠物的身份取得了日本某个城市的户籍资格。2017年10月,沙特阿拉伯将该国的公民身份给予了香港某个机器人公司生产的机器人“索菲亚”。但是据报道,索菲亚的公民身份似乎只是象征意义,是为了吸引公众对人工智能技术的关注。至于索菲亚能否会拥有某些公民权利、沙特有关方面在未来是否会出台一个专属于机器人的权利体系,目前尚不得而知。2017年2月,欧洲的议会曾有人提议要给予人工智能机器人特定的权利、义务和责任。在研究领域,一些学者持乐观态度,认为在未来智能机器人最终会享受到人类的某些法律权利。
  (二)国内的研究状况
  国内对于人工智能法律主体资格的研究尽管有不同观点,但是大多数持否定说,人工智能其本身还只是一台供人类驱使的机器暂时不能拥有完全的法律人格。少数肯定说认为,在未来人工智能将能够人类大脑一样进行生物学的思维,届时可以拟制人工智能机器人具有某些特殊的法律资格。还有学者提议给予人工智能机器人特殊的人格,例如电子人格、虚拟人格。另外由于目前人工智能发展的参差不一,还有研究主张将人工智能技术分为强、弱两类,同时应对两类不同的人工智能的法律主体资格进行分类研究。强人工智能具有与人类相似的思维模式和一定自主意识,能够多维分析和解决问题;弱人工智能只限于解决某领域的具体问题。但是从当下人工智能技术发展的层次来分析,无论强、弱人工智能技术的思维都不可能与人类媲美,因此都暂时不能成为民事主体。更有学者依据人工智能的智能程度将其划分为三类,根据三类人工智能其自主性和人类干预的程度不同,其法律地位也有所不同。
  从以上的分析和比较中,虽然我们大致可以窥探出,在未来人工智能机器人的拥有类人化的思维能力和方式时,很有可能获得一定程度的民事主体资格。但是目前人工智能技术下研发的智能机器人并不能拥有真正像人类一样的民事主体资格。因此如果对目前阶段人工智能的属性进行界定,则其属性应该是“物”而非“人类”,所以应适用有关客体的法律規范。
  二、人工智能产品的侵权责任
  鉴于人工智能在生活中应用的领域越来越广,人工智能机器人不当的操作,很可能会给他人带来一些财产损失,甚至是伤亡的后果。因此我们有必要明确人工智能产品致伤致损的情况下,民事责任如何承担。
  (一)人工智能侵权责任主体
  (1)分阶段的责任体系。2016年下半年,联合国两个组织:教科文组织与科学知识与技术伦理委员会,一起公布了一份关于机器人伦理的方案,提出采取责任分担的形式,对人工智能机器人造成的损失进行分类,按照产品制造、产品设计、产品销售等过程中出现的不同过失情况,让所有参与到人工智能机器人发明、授权、销售过程中的人来分别承担责任。
  (2)保险和基金。2017年中旬德国参议院通过了第一部涉及无人驾驶汽车的法案,该法案的规定在发生交通事故时,根据不同的情形确定责任归属:如果汽车在由普通人驾驶时,发生交通事故,由驾驶人承担事故责任;在系统自动驾驶阶段出现的交通事故,则由汽车生产方承担责任。但是《中国科学报》认为,由人工智能汽车造成的交通事故,除了以上两个责任承担主体之外还需要得到保险商的支持。还有学者提出,对于质量符合安全标准的智能机器人带来的损害,可以借鉴欧盟法律事务委员会提出的设立赔偿基金的方式,在无法证明产品是否有缺陷的状况下,通过基金赔偿受害者的损失。
  (二)人工智能侵权归责原则
  (1)国外的人工智能归责方式。到2015年12月,在美国已有十几个州确定了人工智能汽车的法律制定项目,九个州的相关制度已经实施。东南部某州的法律明确规定,如果车辆系统被擅自修改成自动驾驶的模式,车辆原来的生产商将不对修改后的自动驾驶系统造成的事故承担责任,当然如果有证据证明在改造前车辆已经存在质量隐患,原来的生产商还应该承担责任。
  2016年欧盟的法律事务委员会提议,要设立有关人工智能机器人的民事法律法案,认为智能机器人已经不是单纯的工具和产品,鉴于智能机器人实施侵害的原因不易探查,不能还遵循传统理论,只追究生产者、销售者、使用者的责任,还应该让人工智能机器人自己承担一部分责任,当然前提是给予智能机器人“电子人”独特的法律地位。
  相对而言,欧盟的模式比美国更具有前瞻性,原因在于美国是依据当前人工智能技术的发展,而欧盟则看好人工智能机器人的将来,对其有较高的预期,但是却没有规定人工智能机器人该如何承担责任。鉴于各方争议不断,欧盟、美国等也对原先的方案进行了调整:由于生产者其对产品的控制力较强,因此应承担严格责任;又因为销售者和使用者对产品的控制力较为薄弱,所以分别承担过错责任。   (2)完善的责任分配体系。鉴于目前阶段的人工智能产品还无法完全像人类大脑一样进行思维且无法承担实际的法律责任,因此其性质归属是“物”而非“人”,所以人工智能机器人在致人伤亡和对财产造成损失时,无法承担实际的法律责任和受到实际的法律制裁,承担法律责任的只能是人工智能产品的生产者、所有者或使用者。因此人工智能产品的责任承担方式应效仿产品责任,在产品出现质量问题时,明确产生该问题的因果关系,建立完善的责任分配体系进行归责。
  (3)过错推定。有学者指出应根据对人工智能的不同分类实行不同的责任原则。例如:属于人造程序的、不具有人类外观的人工智能产品,如阿法狗这类人工智能的功能主要在于语音识别、智能搜索、大数据处理等。由于这类人工智能还属于人类的工具,它们可以类比产品责任——过错推定责任,因人工智能机器人的质量问题给消费者造成的损害,推定生产者、运输者、销售者没有负担起各自的注意义务,当然若能够证明不是因为自己的过错,也可以免除法律责任。
  (4)无过错归责。有学者主张由于目前阶段的人工智能产品仍然在人类的控制范围之类,属于“产品”,因此不必着急另立新法,甚至修改民法相关理论。另一方面对人工智能机器人应用严格的无过错归责原则,能够督促人工智能产品的设计者和生产者,尽最大努力防止在智能机器人的设计和生产过程中出现的各种意外状况,从而避免人工智能产品在超出人类控制范围内带给人类社会难以想象的损害。但是笔者认为无过错归责的形式毫无疑问会抑制人工智能的发展,所以完全的无过错原则过于绝对,并不适合将来人工智能的进步和更新。
  (5)技术中立。当人工智能产品能够自主学习、具有高度自我意识且无人操作的情形时,过错规则原则将无法适用。技术中立归责认为,技术存在的潜在风险是人类为了社会进步肯定会经历的,即在技术的研制阶段不具有非正当目的的情况下,技术的创制和进步不应归为有罪,技术存在的潜在风险不能归责于技术的研发者。在此情况下,如果按照无过错原则将责任风险分配给生产、销售方,不仅有违公平原则,还会限制制造方和研究人员的积极性,严重者甚至会阻断人工智能产品的推广。
  另有学者主张技术中立规则虽然可能导致规避责任的现象出现,但也会产生替代责任,这种替代责任类似于代理关系和雇佣关系中的替代责任。但这种替代责任的实质还是将智能机器人造成的损害归为:所有人或使用人没有承担起善良管理的责任而造成的损害。笔者认为一个完备的社会体系就需要新型人工智能保险和赔偿基金的支持,销售者在出售人工智能产品时,应配以全面的应急保险和赔偿基金,以支撑在侵害来源无法判断情况下受害者的索赔请求。
  (三)人工智能侵权的责任形态
  有学者主张在目前的人工智能技术水平中,人工智能机器人还处于“产品”阶段,其致人损害的责任形态归为不真正连带责任。《侵权责任法》第四十三条的设定,因为产品不合格造成损害的,不仅可以向制造方寻求赔偿,还可以向销售者寻求赔偿;若产品不合格的原因是由制造方引起的,销售者赔偿后可以向制造方追究;若是因为销售者的原因,制造方赔偿后可以向销售者追究。相对于人工智能产品,还要在加上设计者作为责任主体。
  人工智能产品造成了他人损害,这种损害不仅包含对他人的人身造成的伤害,还涉及对他人的财产造成的物质损害。在探究人工智能侵权的组成要件和因果联系时,可以参考一般产品侵权的构成要件:
  (1)人工智能产品已步入流通领域,处在应用过程中。如果该人工智能产品并没有经销售者进入使用者手中,发生致损致害时,则不能按照严格责任原则,向生产者和销售者追责。例如使用者通过盗窃、抢夺等非正当方式得到的人工智能产品,当人工智能产品出现侵权事故,在此种情况下,不能向生产者和销售者追责。
  (2)人工智能机器人客观上作出了一定行为。此“行为”应该是广义上的行为,如果该行为是因为设计者或者生产者的原因,则应向设计方和生产方追责;如果是因为使用者的不当使用,则应向使用方追责;如果是因为人工智能产品基于自己的自主意识所作出的判断做出的行为,可以向智能机器人追责,例如在智能机器人有财产的情形下,对其进行处罚,无论是因为谁的原因,都可以归为此处的行为。
  (3)引发了他人的人身损害或财物损失。此处的“他人”可以既可以指第三人,也可以是使用者,甚至可以包括未来可能获得一定法律地位的人工智能机器人。如果学者们认为人工智能机器人不应当获得法律主体地位,则可将人工智能机器人归为此处的“财产”。
  (4)人工智能产品实施的行为和损害后果之间存在因果联系。辨明因果联系是确定侵权赔偿的前提,因果联系理论要求在原因和结果之间存在引起与被引起这样一种关系。如果损害后果和人工智能产品的行为没有因果关系,我们就不能对其归责,不能将此侵害归为“人工智能侵害”。
  (四)人工智能侵权的应对机制
  人工智能产品的通用规则,具体如下:
  人工智能产品的通用规则指的是,在人工智能领域可以适用的和一般产品相似的法律规则。当前人工智能技术还处于低端人工智能水平,且人工智能机器人还在科学家的掌控范围之内。按照杨立新教授的观点,不必着急另立新法,可将普通的产品规则应用于人工智能机器人领域,因此对人工智能产品的制造方推行严格责任、对销售方、使用方应用过错责任。具体来说:
  (1)因为产品的质量问题引起他人伤亡、财物受损的,制造方都应该肩负起赔偿义务,当然这种严格责任并不是一定绝对的,如果制造方具有以下几种条件之一的,就不用承担赔偿义务:并没有把人工智能产品放入销售领域;人工智能产品进入销售时其并不具有导致该损害的产品质量问题;即使将人工智能产品销售给顾客时,但以当时的研究能力并不能找出該产品存在的质量问题。
  (2)对销售方推行过错推定原则:如果人工智能产品致损致害是因为销售者的过错,则该销售方必须肩负起赔偿义务,但是如果销售方有能力表明该产品的质量问题并不是因为自己的原因,则不必承担赔偿责任。如果销售方没有能力说明该人工智能产品的制造方,就必须肩负起赔偿义务。可见销售方具有提出证据的责任,不然就要肩负赔偿义务。对于使用放的责任和义务,侧重体现在对人工智能产品的使用过程中,例如改装行为,经过改装后的人工智能产品致损致害时,可以免除生产方、销售方的责任。   (3)鉴于人工智能系统的复杂性,在无法法判断产品的缺陷原因是设计者、生产者、销售者、还是使用者时,可以适用连带责任;另一方面在特定情况下,例如设计者、生产者、销售者和使用者都能够证明自己不存在过错,还可以考虑技术中立原则,当然技术中立极易导致规避责任的情况发生,因此应该被严格限制。
  (五)人工智能机器人的特殊规则
  人工智能机器人和普通产品不同,其包含的大量的个人信息,数据处理过程异常复杂,因此不能仅仅依靠对待一般产品的通用规则进行规制,我们必须根据其特点,制定相应的规则体系并根据人工智能发展的不同情况,不断进行修正。
  (1)在人工智能产品的发展进程中,人的控制占较小比重、智能机器人的自主性较强时,可以参考欧盟的做法,给予智能机器人特殊的法律资格。这种“电子人”具有一定的“机器人权利”、“机器人义务”和“机器人责任”。例如“电子人”在侵害普通他人或者其他“电子人”姓名权、肖像权、隐私权的时候,可以责令该施害“电子人”终止侵害、消除不良影响、赔礼道歉、弥补损失等,同时可以对其程序设定进行修改,在一定期限内限制其自由表达,严重者可以永久删除该类智能机器人的数据,召回、销毁该类机器人。
  (2)在人工智能机器人销售时,同时应附有强制责任保险、赔偿基金这样的“套餐业务”。有学者认为强制责任保险和赔付基金的设立,是把智能机器人归于“物”的表示,将弱化人工智能机器人自己的赔付能力,使得智能机器人自己的赔偿变的没有意义。其实不然,笔者认为多维的损害赔偿形式共存,可以有效的兜底智能机器人所造成的损害,同时也可以减轻各方的压力。作为普通人尚且为自己购买各种养老、医疗保险,智能机器人也可以在强制责任保险之外,为自己购买各种商业保险,不仅在致他人财产损失、人身损害的时候多一道保护,同时在受到其他智能机器人的侵害时亦可以获得对方保险的赔偿。
  (3)为了追求高效和智能化,人工智能机器人将会储存大量的信息,例如无人驾驶汽车系统,包含着使用者的家庭住址、工作单位地点、经常去的目的地、甚至带有行车记录仪的无人驾驶汽车将会从车上人员的谈话中收集大量信息。因此有必要对个人信息进行特别的保护,防止信息泄露导致的隐私权受侵害。笔者建议在技术层面要强制在人工智能系统中建立信息保护的程序,从预防信息泄露到信息泄露后的自动、及时的补救措施,一应俱全;同时还需要提前设定隐私权保护的法条,在信息的收集、使用、处理、定期销毁和维护等方面明确生产者和销售者的售后服务和职责。
  三、结语
  综上所述,虽然当前的人工智能技术还处于“弱人工智能”水平,尚不具有法律主体资格,但是在未来,人工智能机器人最终会获得一定的权利,肩负起属于他们的义务和有限的责任。
  “4-2-1”的家庭格局中的独生子女,不仅要工作,还要生儿育女、赡养老人,压力之大可以想象,我们对智能机器人的需求会愈来愈多,人工智能机器人必将会渗入我们社会生活的各个角落,甚至发展为我们社会中不可缺失的一个重要组成部分。“他们”可能扮演者各种角色,智能管家、家庭医生、保姆、司机、亲密朋友,甚至是宠物,即使是现在的人工智能技术,以上几种角色,智能机器人已经可以实现,伴随着科技的不断进步,人工智能技术也一定会越来越超前。所以,我们在进行有关人工智能机器人的法律设定时,除了要考虑到机器人在日常生活中,因为不同角色造成的损害可能适用不同的赔偿方式或是承担不同的损害责任以及“他们”可能和其他普通人或是其他智能机器人之间产生的各种纠纷和损害事故之外,还要考虑因为人工智能技术的不断进步所带来的新的挑战。
  鉴于人们对人工智能产品的需求可能会越来越多,不仅科技人员要提高人工智能的技术水平,立法者和其他法律从业人员也要提高防范意识,时刻关注人工智能技术的发展,注意国际间的交流,研制出一套类型化的应对机制并根据实际情形适时作出修正,以应对人工智能不断发展,从而更好的造福于人类。
  参考文献
  [1] 陈莉.人工智能产品民事主体资格及侵权责任研究[J].武汉冶金管理干部学院学报,2018(06).
  [2] 腾讯研究院、中国信通院互联网法律研究中心、腾讯 AILab、腾讯开放平台.人工智能[M].中国人民大学出版社,2017.
  [3] 许辉猛,王飞翔.人工智能侵权责任认定[J].长安大学学报:社会科学版,2018(07).
  [4] 杨立新.人工类人格:智能机器人的民法地位——兼論智能机器人致人损害的民事责任[J].求实学刊,2018(04).
  [5] 杨立新.从民法通则到民法总则:中国当代民法的历史性跨越[J].中国社会科学,2018(02).
  [6] 环球网国际新闻.德国通过首部关于自动驾驶汽车的法律[EB/OL].http://world.huanqiu.com/hot/201705/10663821.htm.
转载注明来源:https://www.xzbu.com/4/view-15193394.htm