您好, 访客   登录/注册

伴侣机器人发展的现状与伦理思考

来源:用户上传      作者:

  摘 要:随着智能科技深入发展,伴侣机器人的拟人程度越来越高,很多人购买这种人造人作为自己的伴侣。伴侣机器人的强大功能能够满足人的种种要求,但我们也不能忽视它对伦理发起的挑战:一方面冲击了传统伦理关系,另一方面也和社会道德原则产生很大冲突。面对这把“双刃剑”,人到底该如何对待伴侣机器人?认清它的客体地位才是关键。
  关键词:人工智能;伴侣机器人;家庭;伦理思考
  纵观历史,智能机器人的发展历程非常短暂。1968年,它在美国斯坦福研究所正式问世,1978年,工业智能技术就已经成熟。自此之后,智能机器人开始走向精细化,逐渐出现在很多社会服务岗位甚至家庭中。随着智能机器人的社会参与度逐渐被提高,它不仅仅在科研技术上备受关注,人们对它的社会影响也开始展开讨论。2004年,“机器人伦理”出现在第一届机器人伦理学国际研讨会上,从此引发热议。
  1 伴侣机器人应用现状
  在全球范围内,各个国家有关伴侣机器人的研制水平总体差异非常大,其中比较突出的是美国和日本。2017年,美国Abyss Creations公司研制出第一款能够和人类产生情感,并且具有体温的智能伴侣机器人。这款机器人一经出世,备受广大群众的关注,它的AI(人工智能)系统Harmony能够不断学习,拥有持续记忆体,在和用户交流中逐渐记住用户的偏好,进而和人类发生真实的情感。不过这款机器人不能行走,目前沟通交流也只能通过手机APP传输。2019年,日本推出一款“妻子机器人”,这款机器人突破了以往的限制,能够直立行走,甚至做家务等等,和真人的相似程度极高。“妻子”也具备人工智能,除了触发关键词之外,还能自发和人简单地交流。目前,伴侣机器人的受众以男性为主,所以大部分研制成熟的机器人都是女性角色,不过也有男性角色的伴侣机器人,例如Abyss Creations研制出的Henry,和Harmony一样具备强大的人工智能。
  从“洛克茜”到“妻子”,伴侣机器人的拟人程度越来越高,在外貌上逼近人类,具有人类的体态特征和皮肤触感。其在交流中像人一样谈吐自如,和用户很自然地聊天;在动作上逐渐流畅,可以做一些简单的家务;在IQ(智商)上,伴侣机器人也加入智能芯片,用户和它在沟通过程中,能够感受到伴侣机器人的“真实性”。
  2 伴侣机器人带来的伦理问题
  伴侣机器人不断模仿人类,在智能芯片的控制下,它像人类一样活动,甚至像人类一样“思考”。世界上也有一些群体,他们将伴侣机器人视为自己真正的家人,例如美国一男子,将伴侣机器人看成他的终身伴侣,并且经常带伴侣机器人出去逛街、游玩。这种看似能够代替真正人类的机器人,是否会引起新一轮人际关系的变革……这些社会现实都将引起我们对它的伦理反思。
  2.1 对伦理关系的影响
  家庭伦理关系以缔结婚姻为基础。当下,随着社会飞速发展,女性經济地位也稳步上升,婚姻关系面临着巨大挑战。最新报告显示,全球结婚率呈下降趋势,2019年的数据已经低于50%。而我国从2013年开始,结婚率也逐年下降。一方面,因为情感、金钱等因素,流传千年的家庭伦理关系正在面临严峻的挑战,另外一方面,伴侣机器人的发展也对传统家庭结构引起新一轮的冲击。用户在购买伴侣机器人的时候,可以根据自己的喜爱选择外观,也可以设定伴侣机器人的性格。这样用户在使用的过程中,伴侣机器人的一切设定都恰好符合用户的喜好,和真人相比,这样智能化的伴侣机器人拥有很多独特的优势,能够成为人心中理想的伴侣。
  社会伦理关系以人的社会属性为基础,社会属性作为人的本质,是人类区别动物的重要标志,人在群居生活中不断演化而来,最明显的特征就是团队协作。人类交往过程中,需要实现自然属性和社会属性两者之间的协调,这样才能既保持个人实现自由解放,又能适应群居生活的条条框框。伴侣机器人的目标客户是那些和他人建立亲密关系存在困难的用户,这些人购买伴侣机器人作为自己的家人,在交往过程中也能享受到从未有过的关心和照顾,所以很有可能沉迷在自己的世界中,减少现实中的交往。人类是具有社会属性的,每个人都必须依存在大集体中,和他人相互交往、交互协作,这样才能维持人的本质。
  2.2 对道德原则的影响
  人机关系已经成为社会的一部分,它又会对社会中的传统道德原则产生怎样的冲击呢?这需要我们首先搞清楚传统的道德原则有哪些。王海明教授把社会治理的五大道德原则归结为:公正、平等、人道、自由和异化。平等是公正的终极原则,而自由是最根本的人道,这5种原则相互区别又相互联系,可以成为判断伴侣机器人对社会道德影响的标准。
  亚里士多德的《尼各马可伦理学》中对“正义”(在大多数情况下等同于公正)做了详尽的描述。除了分配公正和矫正公正之外,他还提出回报公正,就是我们日常所说的“以牙还牙,以眼还眼”,但这种等害关系的交换已经不再适应现代社会的需要。罗尔斯的《正义论》中将社会制度看成正义的核心内容,他认为解决公正问题,就是解决权利和义务的分配问题。机器人最初的设计目标就是代替人类劳动力完成重复又简单的工作,但随着机器人智能化程度逐步加深,它能够代替更多的人类劳动力。目前,社会面临严重的结构化失业问题,很多岗位都被机器人代替。大型机器的生产力远远高于手工工人,资本也利用智能优势进一步加速积累,拉大社会贫富差距。伴侣机器人是人工智能的尖端代表,拥有快速学习的能力,能够代替人类完成很多技术类工作。而经过调查,我们发现,高阶伴侣机器人的价格昂贵,只有小部分富人群体才能够享受伴侣机器人带来的便利之处。在当今这个信息化的社会,伴侣机器人不仅给用户提供拟人服务,还拥有快速收集信息的能力,加快家庭财富累积,这种人造的信息数据鸿沟会影响财富分配,扩大社会两极分化。
  通过研究以往哲学家对异化概念的理解,我们可以看出,异化就是一种与自身相背离的实现活动,可以分为三类:“被迫异化、自愿异化和不觉异化”。[1]被迫异化是被强制做一些不符合自身意愿的事情。例如,当实际情况和智能算法发生偏差时,伴侣机器人强制用户进行某种行为,这就属于被迫异化。自愿异化是为了便利,自愿放弃自由。例如,当用户和伴侣机器人生活在一起时,为了生活便利,自愿放弃隐私自由,这就属于自愿异化。不觉异化是最悄无声息的一种方式,当用户和伴侣机器人生活在一起,在潜意识中已经放弃自由意志,习惯伴侣机器人为自己做决定。异化是伴侣机器人对道德原则最大的危害,具有严重的负价值,也是自我实现的障碍。如果用户在使用伴侣机器人的过程中,自由意志逐渐消亡,一味信赖算法的决定,这也将危机社会进步,影响人类总体幸福感。   3 消解伴侣机器人的伦理问题
  人类对伴侣机器人的认知存在偏差,目前已经产生很多社会伦理问题。同时,鉴于伴侣机器人的特殊功能,它能够和人亲密接触,成为人生活的一部分,更容易对人产生巨大影响。所以,为避免引发更多伦理问题,危及社会稳定,无论是科学家还是伦理学家,都应该对伴侣机器人的社会影响引起重视,两者需要找到平衡点。这样一方面可以推动伴侣机器人的稳步发展,另一方面也能保证伴侣机器人在使用过程中符合伦理原则。
  3.1 指导原则:阿西莫夫三定律和“善”
  有关机器人研发的原则,受学术界公认的是阿西莫夫的“机器人三定律”,阿西莫夫在《我,机器人》一书中提出机器人学的三大法则:第一,机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;第二,机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;第三,机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。[2]阿西莫夫在《机器人与帝国》中又增加机器人零定律:机器人必须保护人类的整体利益不受伤害,其他三条定律都是在这一前提下才能成立。总而言之,伴侣机器人不得伤害人类,应该尽可能为人类提供服务,这是伴侣机器人道德纲领的首要条件。
  另外,“善”也应该作为解决伴侣机器人伦理问题的指导原则之一。“善”是人类道德总原则,把“善待人类”设立成伴侣机器人的道德价值标准。伴侣机器人通过大数据学会“善待人类”,让人感到幸福。根据王海明在《新伦理学》中的定义,人的终极目的是幸福,而幸福就是实现自己的创造性潜能,从而可能成为最有价值的人。伴侣机器人和人在交互的过程中,始终秉承“善”的行为原则,帮助人类完成自我实现。
  3.2 法律控制:保障伴侣机器人的安全性
  由香港研究人员设计出的机器人“索菲亚”,在沙特被赋予公民身份,这是首个被赋予法律地位的人造物。这个案例并不能说明智能机器人已经拥有独立的人格,但应该让我们感到警惕,未来非人类物种很有可能和人类一样,享有独立决策的能力,我们必须未雨绸缪,让伴侣机器人的行为符合法律道德要求。目前,有关机器人道德地位的法律法规比较少,机器人更是缺乏道德管制。欧洲会议发言人曾表示:有必要颁布相关法律,特别针对拥有自主决策权的机器人,将自然人和机器人加以区分。韩国政府已经出台了世界上第一份《机器人道德宪章》,该宪章一方面维护人类利益,说明机器人不得对人类造成危害,另外一方面也保证机器人自身安全。因文化和宗教的差异,人们对伴侣机器人的伦理问题也存在很大差异,但从全球人类共同命运来讲,我们需要一套完整的有关机器人的法律法规,无论从技术角度,还是道德角度,对伴侣机器人的研发做好控制,防止机器人对人类造成伤害。
  3.3 人为控制:研发者承担“积极责任”
  研发者的社会责任感也是消解伴侣机器人伦理问题的重要措施之一。伴侣机器人作为知识密集型产品,虽然拥有一些自主决策的能力,并且在未来这种自主性还会进一步加深,但是追根溯源,伴侣机器人之所以能够进行决策,这是研发者植入相关的算法控制伴侣机器人的行为选择,伴侣机器人只是执行命令的工具。所以,研发者为伴侣机器人的道德判断负责,这就对研发者的社会责任感有一定的要求。拜纳姆罗杰森在《计算机伦理和专业责任》中提出“消极责任”和“积极责任”两个概念。积极责任偏向预防,研发人员在问题出现之前就预测可能出现的后果,并积极采取应对措施;消极责任是主张事后治理,研发人员等出现问题之后,再采取解决措施。[3]研发者在研制伴侣机器人的时候,就应该主动承担积极责任,加强社会责任感,不仅仅考虑社会经济价值,更应该提前预料对社会产生的危害,及时改进。
  4 结語
  由于当代社会环境的复杂性,伴侣机器人的出现迎合了很多人的需要,它也对伦理发起巨大挑战。科技的步伐无法停止,唯有加上锁链才能安全前进。针对伴侣机器人对伦理的负面影响,我们要正确认识它的伦理地位,并且制定伴侣机器人的道德行为标准,通过内外部共同作用,努力消解负面影响,致力于人机和谐共存。
  参考文献:
  [1] 王海明.新伦理学[M].北京:商务印书馆,2008:1090.
  [2] 郭霞.机器人时代的到来[J].机电一体化,2009,15(8):2.
  [3] 杜严勇.人工智能安全问题及其解决进路[J].哲学动态,2016(9):99-104.
  作者简介:骆安安(1995—),女,湖北荆门人,武汉科技大学马克思主义学院2017级科学技术哲学学术硕士研究生,研究方向:科技伦理。
转载注明来源:https://www.xzbu.com/1/view-15136694.htm