您好, 访客   登录/注册

机器人的道德发展困境分析

来源:用户上传      作者:

  摘 要 随着即将来临的第四次工业革命,人工智能和机器人不断进入大众视野。机器人不断自主化的发展趋势,引起机器人在道德问题的热议。为了更好地促进机器人的发展,首先必须分清人、人工智能和机器人的区别和联系,其次认真分析造成发展机器人引发的道德困境的原因,最后提出相应的措施。
  关键词 人工智能 机器人 道德困境
  中图分类号:B82-02 文献标识码:A DOI:10.16400/j.cnki.kjdks.2019.02.069
  Analysis of the Difficulties in the Moral Development of Robots
  FENG Jinwei
  (Harbin Normal University, Harbin, Heilongjiang 150025)
  Abstract With the forthcoming fourth industrial revolution, artificial intelligence and robots continue to enter the public eye. The development trend of robots' constant autonomy has caused the robots to have a hot discussion on moral issues. In order to better promote the development of robots, we must first distinguish the differences and connections between humans, artificial intelligence and robots. Secondly, we must carefully analyze the causes of the moral dilemma caused by the development of robots, and finally propose corresponding measures.
  Keywords artificial intelligence; robot; moral dilemma
  物理學家霍金曾指出:“人工智能的进化速度会比人类快,而它们的未来不可预测”,一些影视作品比如《黑客帝国》、《X战警》和《我,机器人》宣扬的是人工智能系统和机器人会摆脱人类的监管、自主作出决定,甚至毁灭人类。这种不确定,使机器人面临的道德风险日益凸显,引起了人们的关注。在2017年夏季达沃斯论坛中就“人工智能和机器人”进行了专门的谈论,其中关于人工智能尤其是机器人的道德发展问题就最为突出。
  1 人、人工智能和机器人的区别和联系
  1.1 人有意识,人工智能和机器人只具有思维模拟
  从哲学上说,人生于自然,是历史生成性的存在。人类为了能够生存,满足吃喝等基本需要,必须进行物质资料生产,并且在劳动过程中,由于分工和交流的需要,产生了语言和意识。所以说“意识一开始就是社会的产物,而且只要人们存在着,它就仍然是这种产物”。人和其他动物的区别在于能否进行有意识的活动。而机器人是具有类人性质的机器,它本身是由一些电子元件和线路组成的物理装置。而且机器人用的是计算机系统组成的“电脑”,进行的是无意识的、机械的过程,它所进行的一些思考只是对人脑思维的模拟,只是单纯的执行系统发来的指令。人工智能是利用计算机系统对人的智能进行模拟、延伸和扩展的一门技术科学,它的领域研究包括机器人、图像识别、语言识别和专家系统等。所以说人工智能是对人的意识思维的模拟,本身不具有意识。机器人是人工智能具体化的表现形式和产物,人工智能的技术发展是机器人发展的前提和基础。而道德是关于人们的行为规范标准的总和,道德的主体都是具有社会意义上的人,所以好像关于研究机器人道德问题的论述都是伪命题。但若从机器人作为人类思维实践化、现实化的产物来讲,研究机器人的道德从实质上就是在研究人类自身的道德问题,从本体论研究是有一定的道理的。
  1.2 人和机器人背后的创造者都具有物质实践活动
  人类在自然界中作为相对于自然界的认识主体而存在,客观地去认识客体是什么,人类要接触客观对象,必须通过实践。人类只要正确认识物质世界并在实践的基础上才能改造世界。因此,人具有实践性的物质活动,人与社会通过社会实践活动,形成主客观关系。反观机器人——作为人的理论实践化的产物,并不是自己本身通过实践去认识世界,这在电脑里都有相关的理论记载和描述,只需机械地执行指令。机器人自身与社会并没有真正意义上形成主客观关系,一切都是人工智能的创造者在社会中实践的产物。因此,机器人的问题还是机器人的创造者即人与社会通过社会实践形成主客观关系问题。
  1.3 人和机器人人是统一却又异化的关系
  首先,随着经济全球化的深入和技术的不断进步,人们的物质生活不断提高,人工智能产品逐渐走入百姓家。它给人们带来诸多便利,比如家用机器人能够帮助整理家务,劳动性机器人能提高生产效率,服务型机器人能帮老人排忧解闷等等。人通过劳动创造出劳动产品的过程,是科学技术对象化的产物,但这不是对人劳动自身和科技主体的正面肯定,而是反过来成为束缚人的异己力量,这叫做科技异化。原本家人之间是温情和谐的,相互陪伴的,现在是人情冷漠、甚至只有赤裸裸的利害关系;原本青少年在义务阶段是图强向上的时期,现在却沉迷“吃鸡”游戏、王者荣耀无法自拔;原本同学聚会是开开心心,有说有笑的,但现在大家似乎都沉默寡言、低头玩智能手机不交流,只在饭后发个朋友圈;智能手机等产品原本是人类生产出来方便大家沟通交流的,拉近距离的,人与物是一种自由自在的统一关系,而现在却成了异化对立的关系,人们成为人工智能产品的附庸和奴隶;人原本是处于主体地位,现在却处于客体地位。好像“人们似乎生活在他们的商品之中,他们的灵魂困在他们的小桥车、高清晰度的传真装置、错层式的家庭住宅以及设备之中”,好像“物的世界的增值与人的世界的贬值成正比”。其次,从马克思的“社会形态理论”看出:人对物的依赖性、物反统治于人,是异化产生的原因,同时异化的产生又与商品经济相联系,商品经济社会是科技异化的快速发展时期,只有到了共产主义社会才能真正实现人的自由和解放。我国正处于并长期处于社会主义初级阶段,市场经济体制不够完善,生产力还未达到足以高的水平,而共产主义社会的一切都是“以生产力的巨大增长和高度发展为前提的”,所以科技异化在社会中会长期存在。   2 机器人的道德发展难题
  2.1 国与国之间经济发展不平衡
  各国经济发展不同,生产基础强弱不一,导致各国对人工智能发展采取的措施不同,研究资金有多有少,技术发展有前有后。发达国家一直利用科技“剪刀差”,占据技术制高点,进行技术保护壁垒。发展中国家人工智能技术发展虽有所贡献,但与核心技术相关的难题不了解、不攻破的话,那么发展还是举步维艰、进程缓慢。其次发展中国家发展机器人可能造成经济开发困境,会引起本国的经济结构转变。发展中国家工业尤其是科技行业基础薄弱,研究人员储备不足及其理论水平不够,但发展中国家跟风发达国家的步伐国家投入大量资金开发人工智能技术和机器人,使本来不发达的农业轻工业发展更加缓慢,这样的经济发展会加剧不平等现象。《2017年全球风险报告》中也有类似观点。
  2.2 人的道德复杂性造成的技术难题
  原始社会时期,人人平等、互助团结;奴隶社会时期,出现阶级差别、男尊女卑;封建社会出现是以维护宗法等级关系为主的道德,资本主义社会出现个人主义和利己主义为核心的道德,我国社会的道德是以集体主义为原则。道德作为社会意识形态的表现形式是有历史阶段性的,各个阶段的评价标准不同,导致人的道德复杂性。机器人作为人思维实践化的产物,人是机器人的创造者,在设计的时候免不了带有人的道德观念。所以人的道德发展的复杂性决定了机器人的道德发展的复杂性。人的道德虽是由思想上占统治地位的统治阶级制定,但终究是由生产力和生产关系的发展水平决定的。因此,机器人的道德发展的复杂性是由科学技术发展的复杂性决定的。机器人的道德发展其实是应用于自身身上的技术难题。由麻省理工学院大学人工智能实验室的布鲁克斯开发的人形机器Cog,是一个具有类似婴儿能力的可以进行自我学习的机器人,但只具有非常简单有限的学习能力,布鲁克斯的灵感来源于人与人之间的互动是产生智力的重要因素。之后布鲁克斯又设计出的Kismet机器人可以表现人类的多种情绪状态,包括恐惧、悲伤、惊讶和感兴趣,还有闭上眼睛并退到睡觉的姿势。Kismet代表了将情绪反应与自主活动结合在机器人身上的一种尝试,它的情绪状态是通过说话者的音调变化、指示性手势以及与之交流的人类的接近行为进行判断并作出反应。它是一个可以进行最基本社交能力的机器人,但是它并没有进行价值推理的能力。2017年10月27日由戴维·汉森设计的机器人“索菲亚”成为人类历史第一个被授予“公民”身份的女性机器人,她能做出62种以上的表情,与人的眼神互动,还言称“毁灭人类”(其实是设计者玩笑和噱头)。人工智能技术是不断发展的,自主性和可操作性更强了,使得机器人的发展越加快速。但更多的是反映技术的困难重重。机器人目前能模仿人类基本的表情变化,但人的复杂的心理和生理历程机器人就不好表达和描述了。应用于机器人上的技术理论也在不断的研究和探讨过程中。
  2.3 道德监管的复杂性
  第一,反映在机器人的道德决策的不确定性。人工智能革命在不断提高人们对自动化的依赖的同时,自主性系统逐渐掌控着能产生多种伦理后果的决定,人工智能的道德决策的不确定性,导致了机器人道德监管的复杂性有的选择从法律角度分析人工智能的道德发展应该采取惩罚方式,但是被惩罚的概念在机器人的发展过程中会持续多久,说不清楚,或者说惩罚只是更适用于简单的机器人,随着技术的不断革新,先进的机器人会采取其他方式规避惩罚的。在当代社会由于行为和结果之间有着复杂的利益链条,由谁做出重要决策这一问题模模糊糊,道德谁对谁错的问题更为复杂,那么问题出现之后监管问题也就悬而未决。第二,使用机器人的安全问题。随着机器人不断应用在军事上,使得军事战争更加自主化、智能化,这将会改变传统的战争方式。国际上并没有统一的管理军事化机器人的条约和规定,如果出现设计漏洞,对国家和人们的人身安全将是巨大的威胁。而且发展机器人也没有出台相关的法律法规,机器人商业化会在一定程度上对人的财产安全和法律权利造成影响。
  3 机器人道德发展的措施
  机器人作为人类改造世界的工具,是为了让人类能够更好地获得自由而全面的发展机会。因此为了构建“人类命运共同体”,首先各国之间应该采取共同经济政治合作的方式,打破技术发展壁垒,采取“和而不同”的思想方针,实现资源共享,协同进步,并与本国具体国情相结合。这样才能促进各国互利双赢,推动人工智能的高速发展。其次,通过联合国等国际组织制定相关的关于人工智能和机器人安全发展的条约和规定,共同促进机器人的健康发展。最后,人工智能作为一旦生产出来就不以人的意志为转移的产物,构建它们的道德应该有自身的特点。众所周知,机器人必须遵守“阿西莫夫三大定律”:不能伤害人类;听命于人类的使命;保障自身安全,但同时不得违背上述两点原则。从这可以看出只是单方面的强调机器人对人类的绝对服从和义务关系,并没有突出机器人自身的权利如何,应该突出人工智能的权利问题,给予起一定的自主决策权,并协调好人的决策与人工智能的道德决策的一个适当的度。而且一定随着时代的进步而发展,毕竟未来主义文学作品以及影視作品给了我们太多的警示作用。
  参考文献
  [1] 马克思、恩格斯.德意志意识形态,马克思恩格斯全集(中文第2版),(第3卷)[M].北京:中共中央编译局.
  [2] 马尔库塞.单向度的人[M].上海:上海译文出版社,2014.
  [3] 马克思.1844年经济学哲学手稿.马克思恩格斯全集(中文第2版),(第42卷)[M].北京:中共中央编译局.
转载注明来源:https://www.xzbu.com/8/view-14722600.htm