您好, 访客   登录/注册

浅论人工智能的产品责任

来源:用户上传      作者:

  摘要:在人工智能飞速发展的现在,我们有必要考虑现有的责任框架是否能适应这种新技术的发展。人工智能给既有的责任体系提出了过错责任适用难;产品责任难于举证,包括难于对人工智能产品的缺陷进行举证以及对因果关系进行举证等问题。在现在这个时代人工智能仍然是人类的工具,是一种物,确认人工智能的法律属性是讨论一切人工智能问题的前提。在探讨人工智能引发事故的承担方式时,否认了举证责任倒置的可能性,讨论了设立专项基金的可能性,对于实力弱小的公司来说,虽然是自愿选择但应当被纳入监管;对于实力雄厚的公司,则可以自愿选择是否被纳入监管。
  关键词:人工智能 产品责任 法律属性 承担方式 专项基金
  一、引言
  当今世界但凡是想走在世界前列的国家,无一不在关注人工智能的发展。迄今为止,已经涌现出了很多关于人工智能的应用,最典型的如人工智能助手、无人驾驶技术、人脸识别……再比如可以自行进行创作文艺作品的微软小冰,可以与人进行辩论的Project Debater等。
  虽然现在各个领域的科学家一直在对人工智能进行研究,但是在法律方面,其最核心的人工智能的法律地位问题却并没有随着研究的进行而达成共识。在理论上,各个学者的观点莫衷一是,基本停留在理论阶段;现实中,关于人工智能造成侵权事件的法律适用也并没有随着人工智能的发展而发展,且在适用时存在分歧。
  2017年,国务院发布《新一代人工智能发展规划》,其中明确规定将“建立人工智能法律法规、伦理规范和政策体系”作为我国发展人工智能的战略目标。
  二、人工智能对传统责任提出的挑战
  就传统意义上的机器来说,无论多么先进,在追溯法律责任时,都是可以追溯到人类身上的,无论是它的众多制造者在里面注入的设计思想、使用的知识、或者是编写的程序,又或者是它的使用者操作不當引起的事故等等。没有人会因为它是非常先进的机器而去追究机器的责任,它们只不过是工具而已。就拿机器中算是非常先进的智能手机来说,当手机发生事故致人受伤——例如电池爆炸时,要么会追究到使用者充电方式不当的原因上,要么会追究到其制造商三星身上,追究其产品缺陷责任,而不是去追究手机。
  但是人工智能出现后,出现了另一种可能性:当自主的机器被推向市场——譬如自动驾驶技术——在其采取侵害行为后,对其侵害后果进行法律责任的分配时,现有的责任规则还是否适用?是否可以处理它所引发的绝大部分问题?因为虽然是人类制造了它们,但是它们在行动时,并不会考虑人类的命令,它们的行动基准只有一个——它们收集来的数据。这就造成它们在不同情景中的行为模式不会被其制造者所预料,又或者在同一情境中由于其收集到的数据不同而采取不同的行为模式,这是无法控制的。
  关于产品责任的规定,可以见诸于《侵权责任法》、《产品质量法》、《消费者权益保护法》等法律里面,具体来说,如果产品存在缺陷且造成损害,那么受害者可以向产品的生产者或销售者申请赔偿。现在一般认为,产品责任是无过错责任。如果人工智能发生致人损害的事件,受害者需要证明人工智能(产品)有缺陷、损害事实的存在,以及两者之间的因果关系才能获得救济。
  产品缺陷,这个产品责任中的核心现在一般分为设计缺陷、制造缺陷、警示缺陷这三类。关于这个缺陷认证标准,我国在《产品质量法》第46条中予以规定。问题是,如果受害者要申请赔偿,他就必须证明这三点,其中最好证明的损害事实略过不谈,光看产品有缺陷和因果关系这两点。
  就证明人工智能有缺陷这点,已经几乎是不可能的事情了。
  让受害者证明人工智能的设计缺陷——人工智能的设计涉及到领域内的专业知识和编程,让普通的消费者去证明这些编程有错误,宛如海底捞月;首先,普通消费者如何去获得人工智能的编程代码?其次,就算得到了,又去如何寻找其中的缺陷?
  让受害者证明人工智能的制造缺陷——人工智能的制造通常会集中在某些芯片里,让普通消费者去寻找这些芯片的制造缺陷,那更是强人所难,无论是消费者的技术还是知识,根本无法达到这个水准。
  让受害者证明人工智能的警示缺陷——比起前面两个缺陷来说,这个缺陷似乎更容易作为产品缺陷来提出,但是具体到人工智能身上,却也并不那么好用。人工智能的使用方法就目前来看要么是全自动,要么是通过语音进行控制,在这里寻找使用方法的警告似乎不太现实;但是就产品潜藏的风险进行警告来说,现在任何产品几乎都会有说明书进行说明,更不用说人工智能了。
  之所以确定无过错责任这种归责原则,在于要保障消费者的权益,保障因缺陷产品而造成的损害都能被救济,都能让生产者、制造者、销售者承担各自的责任,并且这种责任无法被推翻。在人工智能领域,专业性极强情况下,其设计者的责任被放大,成为主要责任人。因为要设计并制造一个人工智能,其所需要的专业知识何其庞大,而且在设计出来后人工智能有“自我学习”的特征,“学习”后的人工智能可能采取的行动模式可能连设计者都无法判明。既然设计者都无法判明,那这种证明责任就更不可能强加给受害者。要知道,在高科技专业领域,受害者与设计者、制造者的知识比起来,那就是天上地下的差距。设计者本人都不能证明的缺陷,当然不能强行推到受害者头上,否则就太不公平了——本身受害者已经处于弱势地位,还要承担对自己来说难于登天的证明责任。
  因此证明人工智能有缺陷这点,对于普通消费者来说几乎是不可能的事情。
  那么因果关系又如何呢?
  因果关系也就是说受害者必须证明自己受到的损害是人工智能造成的。应当知道,人工智能最本质的特征之一就是“自我学习”。以自动驾驶汽车为例,因为这个特点,使得人们在事故后进行导致事故发生的决策逻辑和过程变得非常艰难。因为此时的人工智能系统在经过自我学习之后已经脱离了设计者最初给它设计好的决策逻辑和模式。这时,即便是其设计者或者制造商都会头疼于这一问题,决策逻辑的黑箱并不是那么容易看清的。对设计者和制造者如此,更遑论普通的消费者。当然,如果受害者恰好具备专业知识或者也有专业的设备对其进行分析,那么在这个过程中产生的成本是否会超过受到的损失,又或者普通受害者是否有成本与精力去进行这么繁杂的分析,又是一个问题。   因此,要受害者证明人工智能的产品缺陷责任,几乎是不可能的事情。
  三、现阶段人工智能法律地位的定位
  研究人工智能的法律问题,就必须先回答其核心问题:人工智能的法律地位究竟是什么?这个问题是绕不过去的,在将来,一定会出现跟人类长得一模一样的人工智能机器人,那么,它究竟是人还是物?
  目前对此主要有三种不同意见:肯定说、否定说、折中说。
  对于人工智能到底具不具有人格这个问题,笔者认为应当依据人工智能的发展的情况来分类讨论。人工智能业界把人工智能按照先进程度分为:弱人工智能、强人工智能、超人工智能三类。超人工智能这种属于梦想中的智能暂且不论。
  就强人工智能来说,虽然对其描述是“有自我意识、拥有思维、有推理和解决问题的能力”,但是如今在国际上强人工智能的研究几乎没有进展,也没有相关活动。事实上,现在业界的目标也只是弱人工智能而已。
  就弱人工智能来说,目前的所有人工智能都属于这一类。赋予它们以人格,就目前来看,显然并没有必要。如果赋予了弱人工智能以人格,就意味着它需要独立承担责任。那么,如果弱人工智能引发事故致人受伤,受害者就应当去找弱人工智能去寻求赔偿而不是它的制造者。
  在此,笔者根据目前民法的理念来看:目前的人工智能仍然是传统意义上的物,是人类的工具——只不过比其它的工具更先进,仅此而已。
  四、对人工智能造成损害后果的承担方式的探析
  在否定人工智能具有人格这一点,明确其法律地位仍然是物之后,对于其造成的侵权事故就应当仍以传统民法下的责任框架为主——但是也必须看到,就像之前所说,传统责任框架下要对人工智能适用过错责任几乎是不可能,适用产品责任也有极大的难度,因此必须稍作改变来适应这一状况。
  首先应该明确现在人工智能的侵权责任应当归属于当代侵权责任法中的产品责任,即便适用起来有困難,但这是由人工智能的法律属性所决定的。难道当“索菲亚”出现故障或者被骇客侵入而伤害他人时,要对索菲亚予以刑事制裁或者让它承担责任,拿钱来赔偿受害者吗?显然并不会有人这么想。
  (一)举证责任倒置的可能性
  在产品责任中,通常是由受害者来承担举证责任的。虽然《产品质量法》第四十一条第二款规定了免责条款,但是对于人工智能这个领域来说,如果把受害者的举证责任也强加到设计者、生产者身上的话,连同免责条款的举证责任一起,那么几乎可以判定,只要消费者受到损害,那么设计者、生产者一定会承担相应的赔偿后果,那么这个举证的意义几乎荡然无存。而且也会过于加重设计者、生产者的压力,致使他们将司法这个隐性成本附加在产品价格上,无意中会抬高人工智能这一门惠及大众的尖端技术的准入门槛,让普通消费者望而止步。随着社会需求减少,那么人工智能的发展也会受到限制。
  因此就举证责任倒置来看,可能性并不是很大,一味地加重设计者、生产者的责任虽然可以很好地保护受害者的权益,但是也会过分打击设计者、生产者,与其让他们一直担心自己的产品会不会伤害人类从而畏首畏尾,不如一定程度上减轻他们身上的负担让他们勇往直前。
  (二)人工智能专项赔偿基金的可能性
  随着人工智能的发展,在将来一定会出现大量的相关产品,鉴于人工智能的特殊性,可以考虑由政府设立一个专项监管机构对人工智能进行监管。在监管机构下,公司对于自家进入市场流通的人工智能可以自愿选择是否被监管。
  对于选择被监管的公司,监管机构可以对其产品进行登记、审批,监管其安全性,提高公众对产品的可信度。当然,这是需要缴费的。而政府也可以利用这笔资金建立人工智能的专项赔偿基金,专门用来赔偿人工智能所引发的事故。或许有人会担心这么做之后市场上的人工智能会涨价,但是笔者认为完全不用担心。因为这么做虽然太高了设计者、生产者的成本,但是同时又降低了事故发生后他们为平息事故所付出的各种人力物力财力,对于公司来说这绝对是一笔划算的买卖。毕竟,引发事故的人工智能还是少数,以审批费为交换,公司的法律成本可以大大降低,不失为一件好事。
  对于选择不被监管的公司,自然没有上述益处。没有政府为其背书,尽管其事实上的安全性高于选择被监管的公司,但其口碑上的安全性自然不比它们。而且在发生事故后,也没有专项基金作为其后盾,那么它们的隐形法律成本将会直线上升。但是这么做的好处就是在不发生事故的情况下,其成本比选择被监管的公司低。
  这样一来,是否被监管,是否纳入专项基金的支援下,市场上的公司就会有不同的选择。一些实力弱小,尚在成长中的公司选择被纳入监管不失为一种好方法,这样对公司的发展有很大好处,因为发生事故后的赔偿会分散到其它纳入监管的公司中,正所谓“我为人人,人人为我”。而实力雄厚、对其安全性有自信、在发生事故后也有余力应对的公司则可以选择不被纳入监管,从而降低成本。或许有人认为这样会放任实力雄厚的公司,但是笔者认为大可不必担心。因为就算实力雄厚,公司还是公司,它必然会选择对消费者有利的方向发展,否则就会失去市场,失去它一路积累起来的口碑,这对一家公司来说是不可想象的。
  事实上,人工智能专项基金的本质就在于公司对利益的取舍,究竟是放弃普通成本,还是放弃法律成本,放弃哪个更能促进公司的发展。
  五、结论
  在人工智能迅猛发展的今天,笔者认为并没有必要急急忙忙去认定人工智能的人格,认同它作为人的法律主体的地位。不如说如果真的认同了,才会产生更大的问题。而现今的人工智能造成的事故,也还能在既有的责任框架下进行解决。但我们必须向前看,当人工智能越来越智能时,现有的框架是否还能框住人工智能这头“怪兽”,我们必须思考这个问题。笔者探讨的这两点毕竟只是纸上谈兵,并未盖棺定论。在将来当新的技术出现时,或许又会颠覆现在人们所探讨的一切。对于未来的种种不确定性,我们只能翘首以待,随着事物的发展而不断调整既有的机制。
  参考文献:
  [1]司晓,曹建峰.《论人工智能的民事责任:以自动驾驶机动车和智能机器人为 切入点》.法律科学(西北政法大学学报)2017年第5期.
  [2]杨立新.《用现行民法规则解决人工智能法律调整问题的尝试》.中州学刊,2018年7月第七期.
  [3]冯珏.《自动驾驶汽车致损的民事侵权责任》.中国法学,2018年第六期.
  (作者系山西财经大学法学院硕士研究生)
转载注明来源:https://www.xzbu.com/3/view-14949467.htm