您好, 访客   登录/注册

人工智能发展步入快车道,AI伦理问题当何去何从?

来源:用户上传      作者:

  现如今人工智能已经成为新一轮科技革命和产业变革的重要驱动力,人工智能已经成为各国实力角逐的竞场。但从人工智能涉及的领域来看,比如自动驾驶汽车、无人机、基因技术,甚至是纳米科学。对于这些领域,人类自己还存在伦理争议,如果没有对人工智能的约束,情况会变得非常危险。那么,如何看待人工智能伦理便成为解决人工智能可能存在影响的重要方面。
  科技的革新,可能来自不经意的思维碰撞。1956年,几位科学家“闲聊”了关于“以机器模仿人类的学习及其他方面的智能”的讨论,并催生了一个新名词——“人工智能”(AI)。
  现如今人工智能已经成为新一轮科技革命和产业变革的重要驱动力,人工智能已经成为各国实力角逐的竞场。虽然人工智能还处在发展初期,但在某些领域已经接近甚至超过了人的能力,展现出巨大的变革力量。
  几年前阿尔法狗与李世石的围棋大战,以阿尔法狗的大获全胜告终。这一方面激发了人们对人工智能的热情,另一方面也带来了对人工智能未来发展的冷静思考。关于人工智能,《连线》杂志主编、互联网预言大师凯文凯利曾说过:AI会像水电一样,成为商业社会的基础设施。现在来看,预言成真只是时间早晚问题。未来,人工智能究竟会走向何方,是赋能人类社会的“美好工具”还是可怕的“替代者”?
  从2018年起,从欧盟的《一般数据保护法案》到美国对Facebook、谷歌数据滥用调查,以及中国在今年315消费者保护晚会上对科技企业违规收集用户数据的曝光。从表层看是防止用户数据滥用,但有专家表示,这种全球范围内对信息保护的浪潮,更深沉层次表达了社会对人工智能的担忧,其逻辑在于人工智能以“神经网络”为底层算法,需要大量数据进行学习迭代,现如今全球范围内的数据信息保护,切断了机器学习的数据来源,势必会影响人工智能发展。
  这些现象本质根源在于如何界定人工智能对人类“自由”的影响这个关乎伦理及法律的问题。人工智能越大热,就越需要对其有清晰的认知。凯文凯利认为,人工智能并不比人的智力高級,它只是和人类的智力不同。
  对于这类有争议的伦理问题,在业界不同的企业家、学者有不同的看法。有对人工智能发展持肯定态度的业内名人,如前微软副总裁李开复;也有对人工智能发展持警惕态度的国际名人,如知名科学家霍金、特斯拉CEO埃隆·马斯克。那么,在人工智能发展不可逆的大势下,我们当如何判断人工智能面临的问题、挑战与伦理呢?
  2019年全国两会期间,全国政协委员会、百度董事长李彦宏今年也向两会提交了三个提案,智能交通、电子病历、人工智能伦理。提案得到热议,人工智能伦理也再次成为大众关注的焦点。
  如何正确认识AI伦理?
  人工智能作为一个全球性产业,中国在这方面的布局就非常靠前。AIIndex公布的2018年AI产业指数报告显示,在2007年至2017年间,中国发表的论文数量增长了150%,目前超过美国,仅次于欧洲。在机器人安装应用方面,从2012年以来,中国年度机器人安装增长了500%,而韩国和欧洲分别增长了105%和122%,中国目前排名世界第一。
  无论是国内的BAT,还是国外的三星、苹果、谷歌,都将AI视作驱动新一轮增长的重要推力。一些公司甚至All in AI,试图重构商业模式,引领新的经济增长时代。
  当前,在很多领域展现出巨大的应用前景,国内更是诞生了诸如旷视科技、商汤科技、极链科技Video++、依图科技、云从科技等优秀人工智能初创企业。然而,人工智能的快速发展引发的伦理争议也不断的出现。
  许多人会担心人工智能取代人类的工作,但是事实上却有很多没有人愿意做的工作,需要人工智能来协作。让人类一辈子天天拧螺丝会有人愿意么?答案是否定的。现在的工人流动性很大,可能会频繁的换各种行业,企业为了降低成本,只能用机器换人,但依然有很多地方机器代替不了人。
  中国科学技术大学教授陈小平认为,“人工智能最有希望和最危险的一条路:自我进化。进化的方向没办法控制,这是最危险的,现在从理论上看仍然是这样。人类让人工智能从能力上超越现在,允许它变成一种最危险的可能,这是一种自我进化。但目前短期从技术上看不到这种可能性,现在人工智能的进化不是根本上的进化,只是表层的进化。”
  人工智能面临的问题、挑战与伦理
  无论如何赋能,发展人工智能的原则都是为人类服务,而不是取代人类。在科幻大片以及一些现实案例中确实可以发现,人工智能的进化,有可能对人类个体甚至群体造成某种侵害。担忧来自于人工智能会替代甚至消灭人类。早在2014年年底,科学家霍金就曾经提醒,人工智能将依靠自身快速发展,并以不断增长的速度重新设计自己,而人类受到缓慢的生物进化的限制,不能与之竞争,或将最终被取代。
  特斯拉CEO埃隆·马斯克一直以来都对人工智能持悲观态度。在一次采访中,马斯克再次谈到了他对人工智能的担忧:“我觉得人工智能的危险要远大于核武器的危险。请再次记住我的话,AI要比这危险得多。”
  马斯克表示,他对最前沿的AI技术很了解,AI的能力已经远超人们的想象,并且在以指数增长的速度进化。他以自动驾驶举例,特斯拉第一代自动驾驶的测试显示,自动驾驶将高速路上车祸率降低了45%。而特斯拉目前正在测试的第二代产品,性能上要比一代至少提高两到三倍。对此,马斯克认为,自己看到了人工智能的惊人进步,所以他才认为我们要确保这些超级智慧可以跟人类和谐共存。这也是人类面临的最大威胁。
  马斯克认为,有必要建立一个针对人工智能的监管机构,来确保AI技术能够安全发展。他表示,“短期内,狭义的AI并不存在极大的威胁,最多就是造成人们的失业,这还没到新物种的概念。而超级数字智慧是另一种生物,如果人类认为发展这类超级人工智能是一个正确的决定,是未来的发展方向,那我们一定要非常非常小心。”
  在对于如何防范人工智能的风险时,马斯克表示除了加强监管,人类还需要拥有自己真正的“武器”去防御人工智能可能的危害。在采访中,马斯克表示“脑机互联”技术或许是提升人类能力跟人工智能技术“平分伯仲”的科技。目前,马斯克已经成立了一家新公司Neuralink,研发神经织网技术,“将微脑电极植入人的大脑中,以便在将来可以实现在人脑中上传或者下载思维”。
  “我们要警惕未来可能出现,要么是一小群人垄断了AI能力,要么是出现了AI不受控制等局面对人类带来的灾难,尤其是一小群人的垄断,在当下的监管条件下极有可能出现。”马斯克以美国建国为例,200年前美国人民为了自由反抗英国殖民统治,如今人们也必须拥有武器去防御未来人工智能对“自由”的侵害,而“脑机互联”技术或许可以成为这样的武器。
  总结
  在当下的发展中,人类无法对人工智能发展的影响作出准确判断,新技术的应用应该进行引导和规范,行业部门可以与行业主体、学术团队、社会公众等进行利益相关方合作,制定相关伦理的准则,并支持行业自律,包括建立伦理审查制度、成立自律组织、制定行业标准等。对于国内人工智能的发展,需要由国家相关部门牵头,做好人工智能技术、产品的伦理审查,从技术层面做好人工智能的道德预设,研发者也要承担起自己的责任,从制度上为人工智能制定明确的禁区、划定边界、树立底线,让人工智能的发展行进在正确的轨道中。
转载注明来源:https://www.xzbu.com/1/view-14694328.htm