人工智能场景下公共行政技术责任审视
来源:用户上传
作者:
〔摘要〕 当前,人工智能的广泛嵌入引发了公共行政技术责任问题。可从技术责任的负载主体(谁负责任)、负载对象(向谁负责)、具体样态(负何责任)和落实策略(如何负责)四个维度出发,建构人工智能场景下公共行政技术责任体系。从公共行政的性质看,人工智能场景下公共行政技术责任的负载主体仍是政府及其公务人员,负有“应用者”和“治理者”的双重责任,以确保“人类(公众)不受侵害”為根本目的。政府和公务人员应树立居安思危的责任意识、完善技术责任的相关制度以及运用“商谈伦理”的原则化解冲突,以确保人工智能场景下公共行政技术责任得以落实。
〔关键词〕 人工智能,技术责任,责任伦理,政府治理
〔中图分类号〕D630 〔文献标识码〕A 〔文章编号〕1004-4175(2019)03-0088-07
人工智能作为新一代信息技术中的代表性技术,其触角已经深入人类社会生活的方方面面。随着“智慧政府”倡议的提出,以弱人工智能和强人工智能 ① 为主的新一代信息技术正在加速嵌入公共行政的各个环节,在政府内部办公、在线智能客服、信息搜索、身份认证等政务服务场景中已随处可见人工智能的身影,其在许多方面已经展现出了超越人类和替代人类的技术能力,极大地提升了政府治理能力和治理水平,但同时也给政府行政实践带来了多种伦理风险和困境,涉及个人隐私、安全与责任、算法歧视和失业问题等方面。其中安全与责任问题最为关键,这是由于人工智能自身具有很强的自主进化和自主决策能力,使得由人工智能所引发的安全与责任问题已经超出了传统基于人类行为所设计的行政责任体系的解释范围。例如,面对一些由人工智能程序漏洞造成的公众隐私泄露、精神损害以及公共财产损失等问题,到底是由政府还是由企业、技术开发者乃至人工智能自身承担责任?对此问题的回答尚处于争论阶段。随着政府公共行政过程中人工智能嵌入的不断加深和扩展,这种责任主体模糊、责任追究困难的尴尬争论可能会越来越多,越来越突出。因此,尽快设计出合理的适用规则和方案,有效应对和解决由人工智能应用所引发的责任问题,成为摆在学术界和政府面前的重要课题。鉴于此,本文结合强弱人工智能的技术特征和公共行政的内在属性,构建了公共行政过程中人工智能技术应用和治理的整体责任框架,回答了谁负责任、向谁负责、负何责任以及如何负责的关键问题,以期为有效解决由人工智能应用所引发的伦理风险和责任问题提供借鉴。
一、公共行政技术责任的概念及特征
(一)公共行政技术责任的概念界定
学界较早地关注了公共行政技术责任问题。王美文认为:“技术责任也称作为岗位责任,它是一种客观责任,客观责任来自外部要求,是由他人或组织对其完成组织目标,在现有的规章程序和法律框架内的一种外在压力性任务。” 〔1 〕她将技术责任纳入行政责任领域进行讨论,认为其表现为一种技术性责任,具体包括制度、程序和岗位设计等操作层面,并没有关注技术本身。然而,脱离技术本身谈技术责任是不全面的。随着公共行政过程中技术权重的逐渐加大,离开技术支撑的公共行政几乎是难以想象的,有学者开始注意到这一点,对公共行政技术责任作了进一步界定。朱迪俭运用属加种差法和发生定义法对公共行政“技术责任”一词进行了较为详细的梳理和界定,他认为,“技术责任就是行政组织及其工作人员为了提高政府能力和行政绩效,遵照一定条件及时应用技术,以及按照一定标准、程序和方法明确责任,履行责任并进行责任评价,即技术应用的责任和技术性责任” 〔2 〕。他将“技术责任”中的技术应用责任和技术性责任的双重属性进行了统一,使得“技术责任”的概念谱系逐渐明朗。综合上述研究,结合公共行政的内在属性,我们认为,人工智能场景下公共行政技术责任是集应用责任和治理责任于一体的。从应用者角度看,公共行政技术责任是指公共行政组织及其工作人员在应用弱人工智能和强人工智能时,对其所带来的消极后果所承担的义务;从治理者的角度看,公共行政技术责任主要表现为一种治理责任,是行政组织作为治理主体应当对人工智能的发展、应用和规制承担的相应治理义务。我们在参考上述学者研究的基础上,重新编制了公共行政技术责任的概念谱系(见图1)。
(二)公共行政技术责任的特征
公共行政论域中的技术责任同企业管理领域、工程管理领域、科技管理领域以及其他具体行业的技术责任有着本质上的差异,为了更好地凸显公共行政技术责任的特殊性,也为了区别于其他领域的技术责任,我们有必要对其主要特征进行进一步的分析和阐释。
其一,政治性。政治性是公共行政技术责任的本质特征。从公共行政的属性看,公共行政本质上是国家政治上层建筑的一部分,这也就决定了公共行政脱离不了其自身的政治属性。张国庆认为:“公共行政的本质没有改变,基本功能没有改变。作为国家上层建筑的一部分,只有在国家的作用逐渐弱化,以至开始消亡的时候,政府(公共行政)的作用才会随之弱化以至逐渐消亡。” 〔3 〕4可见,政治性天生植根于公共行政技术责任机体内;此外,从建设责任政府的诉求看,技术责任是建设责任政府的内在要求。张成福在其《责任政府论》中就将“行政责任”列为责任政府建设的重要维度,同时从概念谱系看,重视对公共行政技术责任的关注和落实也是完善行政责任内容结构,推进责任政府建设的重要内容。
其二,应用性。应用性特征取决于公共行政技术责任承担主体和自身属性。一方面,从公共行政技术责任主体的属性看,技术责任的承载主体是多样的,具体可分为技术发明者和技术应用者,公共行政技术责任主体是由政府组织和公务员个体构成,而政府组织和公务员个人并不从事任何技术发明,更多地是以技术应用者的角色出现;另一方面,从技术责任自身的属性看,公共行政技术责任是集技术应用责任和技术性责任的双重构成。就具体的技术应用而言,当前互联网、大数据、云计算和人工智能等新技术逐渐在公共行政中广泛应用,在具体的公共行政实践活动中扮演着重要的角色,而这些实践活动本身就自带应用属性。 其三,多样性。公共行政技术责任的多样性来自于技术本身,当我们把“技术”一词具象化,技术的现实样态就是丰富多彩的,诸如网络技术、核电技术、汽车技术、数据技术和人工智能技术等等。随着社会生产力的发展,新的技术就会不断出现,中国古代的四大发明改变了世界,而现代社会的第一、二、三次工业革命,直至现在的信息革命和智能革命交叠的时代,所产生的新技术更是丰富多样。因此,当我们聚焦技术本身考虑其应用所带来的责任时,相应的责任也就呈现出多样性特征。此外,当谈及責任时,就离不开应负何责的问题,这个时候责任的划定,就应基于一定的社会规范之上。只有当社会整体上认为某项技术的应用带来了一定的社会危害,或者破坏了人类某种既定的共识和规范,此时才会存在“负责”一说,而这种共识和规范伴随着社会的发展越来越多,越来越全,涉及社会生活的方方面面。因此,以是否违背社会规范为标准而言,技术责任应该是多样的。
其四,历史性。技术责任为何具有历史性?同人类历史一样,技术发展所留下的足迹,可以称之为技术历史。虽然未来技术的走向是难以预测和准确预知的,但是我们反观技术的发展历史,就不难理解技术责任的历史性了。正如杜宝贵指出的那样:“技术责任的发展是根植于特定的社会历史阶段的,在不同的社会历史阶段,‘技术责任’就表现出不同的历史形态;不同的技术发展模式,‘技术责任’的特征也就不尽一致。” 〔4 〕31当前,技术的进步和发展进入了前所未有的繁荣时期,人工智能技术的成熟和发展势必推动人类社会迈向智能时代,技术已经不仅仅是从属于人类的辅助工具了,按强人工智能和超人工智能所预设的场景,未来的人工智能可能是具备意识和自主性的“个体”,那个时候再讨论技术责任,可能又是另一番标准。
二、人工智能场景下公共行政技术责任的理性审视
从政府公共行政过程中技术应用的历史来看,我国政府的技术形态是多样的,先后经历了电子政府、网络政府、数据政府等多种形态,都是在一定的技术支撑下所形成的。当前,随着人工智能在政府公共行政过程中的不断深入应用,政府正在朝着一种集精细化、互联化、智能化于一体的智慧形态发展即智慧政府,它以人工智能技术为核心主体。由于公共行政中的各个环节都离不开人工智能的身影,相应地也带来了公共行政技术责任问题,具体涉及谁负责任、向谁负责、负何责任以及如何负责(“如何负责”将在第三部分阐述)的问题(详见图2)。
(一)谁负责任:具有“主体性”的人工智能体能否担责?
如果仅从行政责任的视角来探究公共行政技术责任主体的话,似乎是一项多余的工作,因为基本可以确定,公共行政技术责任主体应当由政府及其公务人员构成,这一点由大多数相关文献和教科书的介绍也可以得到支持和证实(如张国庆的《公共行政学》、夏书章的《行政管理学》及李志平的《地方政府责任伦理研究》)。我们这里聚焦的是,当大家都在惊呼人工智能将要替代人类的时候,我们可曾想过,人工智能能否像人一样成为担责的主体呢?这个问题对于政府来说异常重要。美国电气和电子工程师协会在《人工智能设计的伦理准则》(2017年第2版)中就指出,要“确保他们的设计者和操作者负责任且可问责”。然而,从人工智能技术正在广泛嵌入公共行政的具体实践场景看,在“奇点”理论(这里主要指电脑智能与人脑智能兼容的那个神妙时刻)的支撑下,人工智能“主体性”地位的获得成为可能,并使得公共行政技术责任的负载主体逐渐变得模糊起来,引发了学界对具有“主体性”的人工智能能否成为担责主体的疑问,这也就成为审视公共行政技术责任所必须解决的关键问题。对于人工智能体的“主体性”而言,学者们或乐观或悲观,但是无论对人工智能的这种“主体性”抱有何种态度,不少学者似乎对这种“主体性”的存在都深信不疑。以温纳和吕埃尔为代表的技术哲学家们就认为现代技术具有了自主性,并指出这种自主性根源于技术的“逆向适应” ②,而人工智能技术则进一步强化了现代技术的这种自主性,使得“机器的智能化让机器获得了一定的主体地位,获得了某种‘类人性’,人与机器的关系从主从关系变成了主体之间的共处关系” 〔5 〕。从技术发展的规律来看,人工智能获得“主体地位”似乎不可逆转。
那么,具有“主体性”的人工智能体能否像人类一样担负起它们应当担负的责任呢?从计算机伦理学创始人摩尔(James H.Moor)那里可以得到一定的启发,他将机器人分为四类:(1)有伦理影响的智能体;(2)隐含的伦理智能体;(3)明确的伦理智能体;(4)完全的伦理智能体 〔6 〕。这种划分思路的背后所暗含的逻辑是,智能体在不同的发展阶段,其价值和伦理的影响力是不同的,可以理解为不同阶段的智能体,其“主体性”也有强弱之分。依据这种思路,反观当下人工智能所处的发展阶段,基本可以断定现阶段的人工智能体大多属于“有伦理影响的智能体”,尚不具备完全的“主体性”,正如段伟文所指出的那样:“目前人工智能体所呈现的‘主体性’是功能性的模仿而非基于有意识的能动性、自我意识与自我意志,故应称之为拟主体性……智能体的价值与伦理影响力迄今是无法独立地主动施加的。” 〔7 〕这些论述充分说明,现阶段的人工智能体尚不具备同人类同等的“主体性”,目前的人工智能大致处于弱人工智能和强人工智能并存的阶段 〔8 〕28-52。我们可以判断,现阶段的人工智能体并不具备像人类一样对自身行为完全负责的主体地位,反而应该将其置于人类的责任体系之下,每一个人工智能体都应该有相应的责任人或机构,这一判断在很长一段时间内应当是不会改变的。当然,随着技术进化到超人工智能阶段,这一判断能否继续成立是不好断定的。
(二)向谁负责:“绝对不可拿整个人类的存在去冒险”
汉斯·约纳斯(Hans Jonas)、汉斯·昆(Hans Kung)、乔尔·费因伯格(Joel Feinberg)、汉斯·伦克(Hans Lenk)等人在建立责任伦理学的过程中,就给其确立了一个根本原则即“绝对不可拿整个人类的存在去冒险” 〔9 〕16。从技术责任的概念谱系来看,这一原则同样适用于分析公共行政技术责任的负载对象,我们要做的就是将这个根本原则所指称的“人类的存在”具体化和对象化。探究公共行政技术责任,必然绕不开“公共行政”这一限定语,要将技术责任的分析场景置于现实的公共行政实践过程当中,以及人工智能的具体应用场景之中。从公共行政的价值归宿来看,一方面,无外乎对公共利益的追求,确保公众的利益不受侵害,维持公共秩序;另一方面,确保政府自身的合法性地位以及公信力不受损害。由此可见,公共行政技术责任的负载对象也应当由公众和政府自身两部分构成。目前,人工智能的责任伦理规约在确保公众利益上所作出的努力是有目共睹的,由中国电子技术标准化研究院发布的《人工智能标准化白皮书》(2018)就明确指出,“对个人数据管理应该采取延伸式保护,保护公众隐私”;《人工智能设计的伦理准则》中提出的首要原则就是“确保他们不侵犯国际公认的人权”;“阿西莫夫法则”(Isaac Asimov)认为人类高于机器人, “第一条,机器人不得伤害人类个体,不能目睹人类受到伤害而不干预;第二条,机器人必须服从人类的命令,命令与第一条冲突除外;第三条,机器人在不违反第一条、第二条原则的情况下,要保护自身安全” 〔10 〕15。从目前对人工智能责任伦理的设计来看,涉及人的隐私、人权以及个体的生物性,核心仍然是确保“人类不受侵害”,可见,人工智能场景下公共行政技术责任的首要负载对象应当是公众。 此外,人工智能体的应用除了作用于政府公共行政的“外部顾客”,同时也对政府组织内部肌体有着重要的影响。可以肯定的是,未来的政府内部将随处可见人工智能的身影,未来的政府也会朝着一种智慧的形态迈进。然而,在大规模建设智能政府和智慧政府的同时,有两个方面的问题不能忽视:一方面,由人工智能应用所引发的诸如公民个人隐私泄露、信息安全失控等问题,如何定责和归责到行政个体或者政府组织自身;另一方面,在政府组织内部将会出现人工智能体所带来的“替代效应”和“挤压效应”,大规模人工智能体的应用一定程度上也会带来智能体对人类工作的“替代”,同时也会“挤压”原本属于人类的生活空间,引发政府组织内部系统的人员“失业”和“分流”等实际问题。因此,在公共行政过程中引入人工智能也应该充分考虑和顾及其对组织内部的“负效应”。当然,这在一定意义上仍然没有超出对“人类的存在”的责任负载范畴。
(三)负何责任:兼具“应用性”和“技术性”双重属性
责任的本质属性内在地决定了责任的具体样态,人工智能场景下公共行政技术责任兼具“应用性”和“技术性”双重属性。那么,技术责任的这种“应用性”属性是如何产生的呢?这种“应用性”属性内嵌于人工智能应用的整个过程,由于任何技术的应用都存在“技术失控”的可能,会带来相应的责任问题,叶立国从科学技术理论、科学技术功能、科学技术研究以及科学家与科技成果使用者主观意志四个维度论证了科学技术的不确定性 〔11 〕,这种不确定性在一定程度上可以理解为技术是失控的。这也充分说明,应用者(使用者)是造成技术失控风险的因素之一,这一点在马克思的技术思想中也能够获得支持。马克思认为,技术本身并不具有善恶之分,而是取决于应用者(操控者)的价值取向, “一个毫无疑问的事实——机器本身对于把工人从生活资料中‘游离’出来是没有责任的……这些矛盾和对抗不是机器本身产生的,而是机器的资本主义应用产生的!” 〔12 〕483显然,技术本身并不具有责任属性,而现阶段的人工智能体自身同样是没有责任的,其在公共行政中的应用所带来的一切后果并不能归咎于人工智能本身,只能从技术应用者(政府和公务人员)那里得到答案。此外,技术责任又是“技术性”的,因为技术责任不仅仅在于需要恰当地抑制技术的“恶”,同时还需要最大限度地阐扬技术的“善”。如果说抑制技术的“恶”是技术责任内在要求的话,那么阐扬技术的“善”则可以认为是技术责任内涵的延伸,责任主体则是一种治理者角色。按照韦伯对官僚制的设计,“技术性”表现为一种规则、方法和程序,具体到技术责任的技术性,可以视为一种集定责、履责和问责于一体的系统过程。总之,人工智能场景下公共行政技术责任应该由技术应用责任(应用者)和技术性责任(治理者)两个维度构成。
那么,这种责任的具体样态是怎样的呢?从“应用性”属性看,人工智能嵌入下的政府正在走向智慧形态,具体包括智能办公、智能监管、智能服务和智能决策四个大的应用领域。相应地,技术责任存在两种样态:(1)业务责任。在智能办公、智能服务和智能决策场景下,传统的咨询服务、信息搜索与获取、表单填写、取号打印、申报领证等业务可以完全通过人工智能技术实现自动化、智能化。然而,目前最成熟的语音识别、图像识别、智能交通系统以及智能决策系统等人工智能技术都无法确保完全准确,这种极小概率发生的失误,所带来的责任应当划归于公务员个人的业务责任体系之下。(2)安全(监管)责任。具体表现为数据安全责任和隐私安全责任。一方面,政府作为公众数据的合法拥有者和使用者,由智能系统漏洞、黑客攻击等因素造成的公众个人数据和个人隐私泄露的责任同样应该划归为政府责任体系之下。从“技术性”属性看,技术责任表现为一种集定责、履责和问责于一体的系统过程,其中包括人工智能应用的相关制度设计责任、危机应对责任、行为选择责任和价值倡导责任导四个层面。
三、人工智能场景下公共行政技术责任的审慎应对
人工智能场景下公共行政技术责任的本质就在于抑制技术的“恶”、阐扬技术的“善”。政府和公务人员作为技术责任的负载主体,必须从意识、制度和行为三个层面思考如何实现责任的落实。
(一)居安思危谋长远:约纳斯的“忧惧启迪法”
责任意识的树立是技术责任落实的前提。人工智能的时代潮流已经不可逆转,人工智能会越来越广泛地嵌入政府治理的各个环节,作為集“应用者”和“治理者”双重角色于一体的政府,如何抑制技术的“恶”、阐扬技术的“善”则成为政府最根本的技术责任,而这种责任的实现有赖于政府主体自身所具有的后果意识和防范意识,因为,“在智慧治理的过程中,人的主体意识的增强,无疑有助于防止技术对人的僭越、技术理性对价值理性的僭越,从而走出数字技术对人性的扭曲,把人当作目的而不仅是手段,实现人之为人的自由和尊严” 〔13 〕。对于如何培养这种后果意识和防范意识,进而实现这种责任,汉斯·约纳斯(Hans Jonas)的责任伦理学似乎给出了一种可行方案,可概括为“忧惧启迪法”,他认为应该积极地预测技术的善恶,且恶的预测比善更重要,他将原因归于,邪恶“更加生动具体,更加具有紧迫感,在观念和区位上也更少不同,最重要的是,无需我们寻找,它自己就会跳出来。邪恶仅仅通过它的存在就能使我们察觉到,而善良总是默默地存在着,并不为人知……我不相信人们没有哪怕至少见识过疾病就赞美健康的,没有经历过欺诈就赞扬真诚的,没体会到战争的灾难就讴歌和平的。我们对自己不想要的比想要的知道得要快得多。所以道德哲学应该先于我们的希望考虑我们的恐惧,以了解我们真正渴望什么” 〔14 〕。这是一种“居安思危”的责任建构思路,启示政府乃至组织成员从长远的角度来看待人工智能技术的发展和应用,避免过分沉迷于人工智能技术所带来的便利,而忽视其“为恶”的可能,激发我们树立忧患意识,以一种负责任的态度来修正政府的行政行为,为人类社会的可持续发展承担应有的责任。同样的逻辑,人工智能场景下公共行政技术责任的落实,首要之策就在于树立居安思危的责任意识,谨慎地对待和应用人工智能技术,时刻以一种“负责任”的态度来应用和监管人工智能,建构起公共行政技术责任伦理规范。 (二)建章立制树规则:发挥制度对人类行为的规范作用
制度建设对于技术责任的落实可起到根本性的作用。2017年发布的《新一代人工智能发展规划》明确指出,要开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、信息安全利用等法律问题研究,建立追溯和问责制度,明确人工智能法律主体以及相关权利、义务和责任等。可见,人工智能技术所带来的法律、刑事、隐私以及财产保护等多个方面的责任问题开始受到重视。在公共行政领域,人工智能作为一种新兴的技术形态,正在广泛应用到政府内部管理、政务服务以及公共事务管理等各个环节,未来这种应用的程度只会更加深入,势必会给传统的公共行政责任体系带来冲击和挑战,尤以技术责任为首要。因此,针对人工智能应用可能带来的相关责任问题,作为集“应用者”和“治理者”双重角色于一体的政府,必须积极开展相关论证和制度设计,尽快形成得到大家共同遵守的办事规程和行动准则,为人工智能场景下公共行政技术责任的定责、履责和追责环节提供依据和保障。
具体来说,可在整合传统公共行政责任体系的基础上,重新设计技术责任认定的相关标准,辅以配套的法律、法规,修正责任的内部构成要件。目前,在人工智能最成熟的“自动驾驶”领域,就遭遇了责任区分和责任认定的棘手问题,我们可以试想,当公共行政中的政务服务、内部管理等环节也进化到这种“无人化”场景时,是否会遭遇同样的责任困境?相应地,作为“治理者”的政府,又如何协调公共事务管理过程中的这种“棘手问题”?这就需要政府从顶层设计的角度出发,重构公共行政责任体系和制度体系。此外,尽快建立第三方责任评估机构。瓦尔波斯在研究前瞻性技术责任伦理的时候,就特别强调了对技术的评估和评价问题,人工智能技术所引发的技术责任同样面临评估和评价问题。然而,由于人工智能是由诸如信息技术、算法技术以及数据技术等诸多复杂的技术构成,其自身的技术复杂性决定了政府乃至个人不可能准确预估其未来的技术走向、技术风险以及技术责任等问题,因此要确保公共行政技术责任的落实,就离不开作为辅助角色存在的第三方评估机构。
(三)积极协商化冲突:哈贝马斯的“商谈伦理”原则
随着人工智能的崭露头角,世界各国政府和相关组织团体在意识到其对经济发展、社会进步、武器革新等诸多领域将会带来重大发展契机的同时,也开始注意设计和颁布各种政策、法规和伦理准则来规范人工智能的发展和应用。就目前而言,政策的全面性和有效性远远不能适应人工智能技术的发展速度,在现有责任伦理和制度框架下,尚不能完全解决人工智能所引发的技术责任问题,许多现实问题仍然处于争论阶段,尚无定法。目前,较为通用的责任划分原则是从利益相关者角度出发,建构起多元主体携手合作、共同参与、责任分担的应对体系,将责任分别归结到生产者、销售者和使用者身上。对政府而言,无论是针对“应用”还是“监管”所应负有的技术责任(诸如数据、隐私和人身等安全问题),各国政府都没有形成一套完整、系统、科学的应对方案,许多具体问题的解决也是“边走边看”,使得许多由人工智能所引发的技术责任问题都进入了一种“现场协商”的状态,这时候以应对科技时代的人类困境为出发点的“商谈伦理”原则,则成为解决责任冲突和矛盾的可行方案和有效策略。方秋明认为:“技术责任是这样通过商谈实现的:一个愿意负责任的技术主体会认识到他(们)可能要作出影响他人的权利或利益的决定,那么在行动之前他(们)就不得不和他人商谈。” 〔15 〕此外,要确保协商的顺利实现,并得到满意的结果,必须满足哈贝马斯所倡导的“两个原则”和“三个准则”。当然,也有学者指出“商谈伦理”的原则过于“理想主义”,对于实践的指导作用较小。我们这里关注的是,它所传递的这种“协商”原则能够为我们解决矛盾冲突提供一个很好的视角和启发。政府在应对人工智能引发的技术责任的时候,也应该充分发挥“协商”手段,避免使用过于直接和生硬的方式。
概言之,技术进步给政府治理带来的机遇和挑战是并存的,随着以人工智能为代表的新技术嵌入政府治理的不断深入,人工智能对政府治理的影响越来越广、越来越深,也对传统政府治理中的责任体系带来了挑战和冲击。人工智能技术由于其所展现出的“替代人类”的技术走向,使得传統围绕人和实体组织(政府)所建构的责任体系存在面临解构的风险,因此本文聚焦人工智能这一特定的技术场景,建构人工智能时代政府公共行政技术责任体系。从上述论证可以看出,就人工智能目前所处的发展阶段来看(弱人工智能和强人工智能并存),传统围绕人和政府实体组织所建构的技术责任体系暂时不会出现根本上的重构,但是由于人工智能应用已经呈现出“无人化”的趋势,对传统公共行政技术责任的定责、问责和履责以及相关标准和程序等各个环节都带来了一定的冲击,迫使政府在相应的规则、制度和程序上必须作出一定的调整。当然,我们这里所进行的分析建立在强弱人工智能并存阶段的技术场景之上,这并不足以让我们完整地刻画出人工智能场景下公共行政技术责任体系的立体图像,因为按照技术专家的预测,进入超人工智能阶段,人工智能是可以完全替代人类的,具备同人一样的“智识”。那时,代替行政主体行使治理行为的人工智能体,是否具有完全的“责任属性”呢?在这一点上,暂时不能给予确切的答案。正如有学者指出:“人工智能时代的到来,亦或是人类经受不住诱惑打开的潘多拉魔盒,亦或是新时期造福人类福祉的蒸汽机。” 〔16 〕因此,我们只有在人工智能技术不断进化的同时,加强对其可能带来的影响进行提前研判和前瞻性研究。
注 释:
①玛克丽特·博登在《AI:人工智能的本质与未来》一书中指出,人工智能大致经历了两个发展阶段:弱人工智能和强人工智能。弱人工智能阶段依靠单台机器或小型局域网络,只能完成简单的程序和任务;强人工智能阶段是依靠全球互联网、大数据覆盖、终端及云端协同运作,云存储云计算同步开启,已经具备接近人类的思考方式和处理复杂任务的能力。 ②技术能够自我组织、自我决定,但过去的非智能机器只是因为机器缺乏智能,需要人类配合,而在配合机器的过程中,智慧的人被机器所牵制,例如为了机器不停歇,人不得不三班倒,技术的这种“逆向适应”让其似乎获得了某种自主性。
参考文献:
〔1〕王美文.论技术责任与道德责任在行政责任中的统一性〔J〕.湖北大学学报(哲学社会科版),2005(01):41-44.
〔2〕朱迪俭.公共行政中的“技术责任”〔J〕.理论探索,2015(04):93-98.
〔3〕张国庆.公共行政学〔M〕.北京:北京大学出版社,2007.
〔4〕杜宝贵.论技术责任主体的缺失与重构〔M〕.沈阳:东北大学出版社,2005.
〔5〕黄欣荣.人工智能与人类未来〔J〕.新疆师范大学学报(哲学社会科学版),2018(04):101-108+2.
〔6〕Moor J H . Four Kinds of Ethical Robots〔J〕. Philosophy Now, 2009(72):12-14.
〔7〕段伟文.人工智能时代的价值审度与伦理调适〔J〕.中国人民大学学报,2017(06):98-108.
〔8〕玛格丽特·博登.AI:人工智能的本质与未来〔M〕.孙诗惠,译.北京:中国人民大学出版社,2017.
〔9〕Jonas H. The Imperative of Responsibility:In Search of an Ethics for the Technological Age〔M〕.Chicago :University of Chicago Press,1984.
〔10〕詹姆斯·巴拉特.我们最后的发明:人工智能与人类时代的终结〔M〕.闾佳,译.北京:电子工业出版社,2016.
〔11〕叶立国.科学技术的四种不确定性及其风险规避路径——基于约纳斯“责任伦理”的考察〔J〕.中國石油大学学报(社会科学版),2018(02):78-82.
〔12〕马克思恩格斯全集:第23卷〔M〕.北京:人民出版社,1972.
〔13〕郭 蓉.从技术理性到行政伦理——大数据时代智慧治理的伦理反思〔J〕.道德与文明,2018(06):17-23.
〔14〕方秋明.汉斯·约纳斯的责任伦理学研究〔D〕.上海:复旦大学,2004.
〔15〕方秋明.论技术责任及其落实——走责任伦理与商谈伦理之路〔J〕.科技进步与对策,2007(05):47-50.
〔16〕姚志伟,沈 燚.论人工智能创造物的著作权归属〔J〕.湘潭大学学报(哲学社会科学版),2018(03):29-33.
责任编辑 周 荣
转载注明来源:https://www.xzbu.com/4/view-14848595.htm