您好, 访客   登录/注册

公共领域算法决策的几个问题探讨

来源:用户上传      作者:

  〔摘要〕 在技术驱动和公共管理职能转变的需求下,公共领域算法决策得到广泛应用,其在管理职能和方式中的独特性是规则调整的前提。算法决策同公共权力的结合,使得技术发展无法中立,且在机会平等表象下可能造成对权力秩序的冲击和对个体权利的侵害。传统的法学调整方法面临分散的个体发展同民主秩序稳定、风险预测与因果关系、权力赋予与权利保障等矛盾的协调问题。公共领域算法决策的法律规制必须在算法系统、价值选择、制度构建和评估标准层面进行引导。
  〔关键词〕 公共管理,算法决策,自由裁量权,权力逻辑
  〔中图分类号〕D90     〔文献标识码〕A 〔文章编号〕1004-4175(2020)03-0113-08
  我们身处的时代,信息成为一种有价值的资源,算法开始介入其中。算法帮助人们将分散的信息和数据整合为有用的概念、规则甚至模式。同时,信息的膨胀,让数据挖掘和知识发现成为必然选择,这意味着算法不再止步于信息查询,而是能够发现数据之间的潜在联系,以便在准确预测的前提下,更合理地制定决策。算法可以在短时间内对大量数据进行分类筛选,并进行深度挖掘,将通常是非结构化的数据进行模式或者关联性的构建,是一种新的知识生产方式。
  伴随计算机技术和智能硬件设备的发展,人们愈加能够享受基于机器学习算法决策所带来的便利,算法解决了诸多复杂的问题,节约或者超越了人力,对社会产生了深刻的影响。有学者研究算法作为一种权力的特征 〔1 〕,或者讨论算法决策对整个法律体系和法制建设可能产生的影响 〔2 〕;既有的研究有从个案出发讨论法律调整算法歧视的范围和类型 〔3 〕,也有从宪法或者其他实体法出发寻找调整算法的依据 〔4 〕与方法 〔5 〕。在肯定这些研究对算法和法律之间的互动关系做出努力的同时,同样应当关注算法在不同场景的应用,尤其是以公共管理为目的的算法决策的独特性,进而探知公共领域算法决策的驱动因素和价值追求,作为公共领域算法决策法律规制的依据。
  一、算法决策为什么被应用在公共领域
  算法决策是大数据时代的必然产物,对公共事务的发展具有技术性驱动作用,它满足了公共管理职能转变的需求,体现出其独特的功能优势和存在的系统性问题。
  (一)公共领域算法决策的应用优势。公共领域算法决策是指对大量公共管理中的数据进行深层次分析之后,按照既定组织目标和秩序,进行管理方法的探索,重复既有成功的、验证已知的、揭秘隐藏的、发现未知的有效信息和规律价值,并创建模型,促进公共管理运作。算法决策在公共领域的应用,是基于结构化的数据而获得较强的驱动力。公共服务倾向于使用数据分析和算法决策来实现政府服务的转型,以期待更好的公共服务,比如提高工作效率,让行政相对人获得更好的体验,或者以更加广泛的决策促进市场经济的发展。为了实现这些目的,公共服务算法的应用也经历了从作为传统决策的证据,向构建算法模型的转变。
  算法在决策层面具有两个明显的优势:第一,具有更准确或者更强大的数据计算能力;第二,能够考虑到更多的因素,并发现这些变量之间意外的关联。算法虽然无法预测未来,但是可以根据现有的数据评估发生某件事情的可能性,尤其是在错综复杂的因素中,发现那些容易被人们忽略的某些因素混合以后产生结果的可能性——因此可以做人类在通常的计算中无法做到的事情。
  算法决策服务于行政关系,第一,加强内部组织职能,规范权力行使的方式和标准,排除个人行为对整体行政职能的损害;第二,加强对行政相对人的监管,改变管理方式,适应新的时代特征,提高效率且有助于约束个人行为;第三,帮助公共管理凝聚共识,使得人在物理和信息层面的流动性加强,导致法律关系主体复杂化,客体多元化,法律关系在多层次和多场景中展开。这使得自发形成的社会规范如习惯和道德伦理愈加无法得到统一和普遍适用,而算法决策对于建构性规则在作为证据和价值指引层面的作用得以增强,从而有助于规则的统一,并可以为立法提供依据。
  (二)公共领域算法决策的方式及问题。公共决策应用算法的形式主要有两种,第一是自动化系统,第二种是深度学习系统。在算法的自动化阶段,算法决策带来的进步主要体现在技术层面,比如行业基础规则的嵌入、算法在特定场景的应用、底层技术与交互技术的融合、算法语言与可视化系统的发展以及数据开发精确性的进步 〔6 〕。自动化系统的优势符合公共服务的决策原则,即政府应当以合法的方式行使權力,并以公平、有效、高效的方式输出决策。自动化系统倾向于处理较为简单的问题,在决策程序上更多的扮演证据的效力或者是发挥辅助的作用。所以在这一层面,其法律问题争议不大。算法发挥辅助作用,让决策者对公共管理所预期的结果有了更清晰的认识;可以对结果或者目标是否达成进行实时测量或者监控;在这一过程中运用算法对行政行为进行纠正,并且让定期科学的事后评估成为可能。
  对于自动化系统,公共服务面临的一个问题是,如何将越来越复杂的元素结合在一起得出简单并且客观的结果。海量数据可能会让机械性的决策系统效率低下。另外,行政相对人也愈加需要个性化的服务。而这一层次的问题特别需要技术的进步,以实现更加有效和个性的公共产品输出。在这种需求的推动下,算法向深度学习系统转变。深度学习系统不仅可以加速决策,而且可以改善决策。在满足决策的专业性和标准化要求层面,深度学习系统发挥了重要的作用,即可以让政府通过系统地利用知识来指导具有前瞻性和社会变化的决策方式;通过这些算法来帮助政府应对耦合和复杂的问题;通过分析复杂的数据,并结合其他领域的资源,挖掘那些容易被忽略和错过的信息,或者排除不必要因素的干扰。所以与自动化系统不同,深度学习算法不仅可以复制既有的成功做法并降低人工成本,而且可以比人类做得更好。因此将深度学习算法制定的政府决策纳入合法性评价体系中,还必须思考:第一,这种深度学习算法追求何种价值,其应用的绩效以及执行的标准为何,在进行法律的评估之前这些问题都必须加以明确。第二,由于这一系统不仅承担了人类决策的工具性作用,而且对决策具有结构化增强作用,因此,必须考虑如何让传统的行政法主体去承担责任。第三,如何让基于深度学习系统的政府行为具有可预测性、可解释性和可控制性。这些问题的实质就是解决公共领域算法决策的合法性问题。   二、公共领域的算法决策为什么需要规制
  公共领域的算法决策具有人力所无法实现的优势,驱动着决策系统的技术升级。随之而来的问题是政府依靠大量数据作出的决策,如果违背行政实体法或者程序法,是否可以被问责;实践中政府对算法决策的快速部署,比如在福利分配或者安全防控方面,会给公民权利带来风险,这使得算法如何对规范结构产生作用受到关注;如果行政主体的决策可以基于算法主张免责,背后的数据驱动可以跳脱法律價值的判断,属于政府监管或服务的对象,是否可以因为算法的应用而主张免除责任,是否可以同公共领域算法决策起到同样的效果。要回答这些问题,就必须对公共领域算法决策中立性问题和合法性问题进行思考。
  (一)算法决策的中立性判断和透明度需求。从政治哲学出发,“政治事务依照其本性容易受到支持与反对、选择与抵制以及称赞与责怪” 〔7 〕3。因此,算法决策作为一种公共管理的手段,本质性的知识和判断性的标准应当为人们所了解。就这一问题的回答,西方学者历来存在争议。一种倾向认为,数十年来,将技术应用于政务决策的实践一直存在,因此依靠算法做出管理决策并非深层次的改变 〔8 〕86;与之相对应,近年来有学者倾向于认为,技术已经成为公共管理的中心 〔9 〕,公共领域算法决策应当被重新定义为数字时代的治理;还有学者关注如何将分散的数据进行共享,并建立一站式服务,在这个层次上已经涉及权力的分配问题。
  技术变革通过影响公共管理能力而更广泛地对制度决策产生影响。因此关于公共领域的算法决策,与其单纯地在公共职能视角下理解技术的发展和应用,毋宁说是理解技术对传统公权力的影响。人们普遍接受电子政务在现代行政权力中所发挥的作用,并就权力机关的职责形成普遍共识,那么算法决策是否可以视为电子政务呢?或许有人会说,电子政务具有辅助性,而算法决策是对人力的替代,因此,电子政务是传统行政权力的延伸,而算法则不能依照传统的程序和实体性法律问责。算法应用于决策之中,是一种辅助证据还是决策取代因素在实践中并没有严格限制。从目前来看,决策者可以开发风险评估的简单方法,基于上下文的简单规则进行评估,这个时候行政相对人被分配的风险就较少;随着数据收集和分析工具的增加,决策者可以使用算法来加权和聚合承担管理职能的人所选择的大量指标,进而提供对决策具有重要影响的报告;算法同样可以基于机器学习来识别、加权和汇集有用的指标并且开发最佳的统计模型,进而无需人工的参与。这表明,当技术性因素摄入较少而依然保持权力机关工作人员的主导性时,算法决策与电子政务一样可以纳入行政法调控的范畴。
  但当算法决策超越传统的决策能力时,是否可依技术中立而拒绝承担责任呢?问题集中到,公共领域技术应用是中立的吗?答案是否定的。认为人工智能与算法奉行价值中立原则的人,往往基于算法可以将信息筛查与风险评估适用于所有全体,因此可以同平等相兼容。而传统的分类是建立排斥系统的重要步骤,即将个人从一组中分离出来,或者将一个组从一个类别当中分离出来。南非历史上的种族制度,比利时在卢旺达殖民时期的特权制度,以及纳粹的优生制度,甚至美国的Jim Crow制度都是被法律所明确的分离标准的典型代表 〔10 〕。这一法律分离的标准还需要其他社会规则维持附加规则。因为传统的分离和筛查制度是为了维护分离的实质。传统的公共管理决策中,这些不公平的决策容易引起公民的警惕,因为这些筛选的依据可能是歧视性的,判断的标准也不客观。在算法决策中,筛选对全部公民是平等的,但分类是个别的,分类被隐藏在表面平等之下。所以法律一旦确认了谁享有特权或者谁没有特权进行分类,那么分类与筛选都只是一种隐藏特权的表象:其一,算法可能不是简单地复制歧视性的标准,比如把种族、国籍、宗教等作为分类标准,但是算法有能力使用有关的抽象信息达到同样的效果,比如生物数据、网路活动轨迹、社交信息,然后进行记录、提取与分析。其二,在这一过程中机器学习取代了人力的判断,算法决策无需对个人进行分类就可以实现筛选的目的,而在人工的时代分离往往是筛选的前提,拥有了种族制度或者特权制度,才需要在教育、职业甚至娱乐层面进行区别。分离是筛选的前提还体现在分离强调诸多的外在形式,比如档案记录、流程的连续以提供人工筛选使用。但是这些形式化要求都被算法所突破,分类并非筛选的必经程序。二者的顺序可以互换也可以同步完成。其三,以往筛选与分离经过长期发展,在民主决策与平权运动的推动下,筛选的目的必须为社会公众所认可,比如基于反恐和安全的需要,而分离的标准也必须是法律明确规定或授权使用的依据。算法决策不仅可以对流程进行组合,而且可以对数据目的进行延伸性使用,完全数字化和自动化的结果导致公民几乎不可能查阅与追问这一分类和筛选的过程,也就无法对其目的、主体、程序和结果进行合法性判断。因此,算法介入公共决策的程度可以由浅入深,但是算法对人力的彻底取代或者管理方式的创新,并不能实现真正的中立,且会将过去很多违背法治价值的现象被隐藏或者被放大。
  (二)算法决策的权力赋予与法治需求。在现代法治国家,人们普遍认为行政权力应当受到法律约束。虽然就算法决策对基本权利、民主制度以及善的理念的影响,各国宪法和行政法如何调整有所不同,但是对算法决策的法律规制应当包括形式和实质两个方面业已达成共识,前者侧重合法性的来源和形式,后者侧重程序和实质性具体制度规定 〔11 〕。而算法决策代表着一种权力话语的转换,其结果是防止那些受到自动化系统影响的人理解决定如何做出以及背后的逻辑和推理。正如福柯所言,语言塑造着我们对合法性的理解和认识。在从人工向算法决策转变的过程中,当然隐匿着权力的转换,但这不是一个新颖性的话题。这种权力转换在法律规制层面并不陌生,因为对国家安全、商业秘密、个人隐私的保护,其背后都是一种权力对信息和财产的控制。公共领域算法决策代表着向谁赋予权力的问题,因此必然涉及合法性问题。
  算法决策对整个法律体系方面的影响,比如创新行为规则,对既有规则进行补充,其本质是扩展并深化权力对社会的渗透。虽然算法决策同社会流动性与信息化密不可分,但是其在私人领域的应用与政府制定公共决策存在较大区别,二者所追求的价值不同。商业决策在主体地位平等的情景下,对自由价值的追寻,通过新型权力的创设,形成同国家法律、市场和技术的竞争关系,是对现有规则的创新和补充;公共领域算法决策则追求实质平等的结果,是权力对分散的市场决策则所进行的整合。政府通过算法决策增强其权力的实施,对既有的管理对象进行规范的整合。以算法制定的公共决策更加的不透明和复杂,可能会加剧既有的不平等。算法决策会将设计者固有的偏见扩大。较之于商业算法,公共决策中的算法歧视往往更具有隐蔽性,原因归结为:第一,算法决策表面上使用的基础数据是中立的,但是因为使用的数据中隐藏着应保护的敏感信息,即“冗余编码” 〔12 〕的存在,这些原本客观的数据一旦被组合在一起,便成为歧视的根源。公权力较之于私人决策者具有更广泛的资源和手段获取公民的敏感信息。第二,设计者偏见的输入因政府利用数据决策的系统而变得更为复杂,数据处理阶段、信息控制挖掘阶段、结果展示阶段都有可能带入偏见,而仅仅在结果展示层面歧视容易被发现,事实上是数据的获取、取样、筛选、转换以及数据存储的管理、规则的设计与评价都有可能存在歧视。公共管理合法性对主体具有严格的限制,这导致依靠技术层面服务器所产生的问题和发生在网络信息空间的问题比较容易规避行政法的调控。   因此,算法决策虽然对传统行政权力为代表的公共权力有不同程度的影响,但并不能基于技术中立而免除公共领域算法决策的问责。算法决策的本质是一种权力的赋予。算法决策小心谨慎地收集和分析有关公共事务的信息和数据,同公共权力的结合,使得决策对社会治理结构性影响和对私权利的风险更具有隐蔽性,因此必须以法治目标对算法决策进行评价和规范。
  三、公共领域算法决策对传统法律规制的挑战
  对算法决策中立性的否定和透明度的需求分析说明将公共领域算法决策纳入法律规制的必要性。但是算法决策合法性问题的核心不在于它比人类更加不透明,更加复杂或者更具有偏见,如果是这样,那么对人类决策起作用的问题机制经过一系列的修改,即规则的精细化将起到作用。公共领域算法决策本身蕴含着这样的矛盾,创造价值并制造价值冲突,即当在公共管理视域中,法治的进步蕴含着对以知识代替意见与以客观标准代替主观随意性的要求,由此建立起为社会一般公众所认可的规则体系,这一过程并不摒弃价值的存在。尤其是在社会公共领域,如果没有价值判断就不能进行重要社会现象的研究。但是承认价值评价,并不代表拒绝和排斥价值的冲突,比如在制度构建上自由和秩序的选择,在路径上保守还是改革的方法,在历史进程中前学科知识和现代知识体系的优越性判断,而这恰恰是算法决策必须面对的困境。因此,厘清算法决策作为一种知识形态或者技术方法及其对法律传统方法形成的挑战就成为法律规制的前提。
  (一)以分散个体为导向冲击法律秩序的追求。算法决策代表了一种明显的市场向度,无论从理论上还是实践上,都对社会政治和经济制度构建影响深刻 〔13 〕。算法决策的核心价值追求是效率,促使社会资源的投入向着超过人工生产力的大规模机械化作业进行倾斜,包括人工智能和自动化决策。其在市场机制中体现的尤为明显 〔14 〕。在制度上,算法决策削弱了程序护栏确保问责机制的有效性。对于传统的法学价值,其目的机制在于公平、非歧视和人权保障等,以此作为标准进行审视,算法决策很有可能被认为具有“违法性”。但是,算法决策的创新和效率等价值却受到重视,这就要求我们要学会审核代码,而不仅仅将重心局限于合规程序。算法决策与其是一种政治哲学,毋宁说以私有财产权、个人自由、不受阻碍的市场和自由贸易为特征的制度取代基于正义和福利为特征的制度,通过网络机构和人工智能培养个人选择美好生活的能力来最大程度地提高个人福祉,这为算法的合法性带来系统性问题。因为算法决策的平等是机会均等,或者选择均等。因此,平等的理念与社会实践之间的差距不是因为制度设计而成为个人问题,自动化决策恰好适应了新自由主义的认识,平等地将有差别的人作为无差别的数字符号。超越单纯的机制选择与迭代的技术,政府一直是推動算法决策并将之用于公共服务的重要推动力量。由于经济社会的高速数字转型,数据主体的有效控制,收集和处理的合法、公开、透明,输入和输出的充分和准确,数据的存储与访问,技术措施的安全等问题都会引发关注。算法决策法律规制的背后,存在着明显的价值冲突:有人保持对新技术的热情,认为其是解决问题的关键;有人拥护自由的发展,认为个性与私营主体的多元创新能力优于政府的利益;也有人主张虚拟的空间自由,防止公权力的介入。但是,如果一项技术是服务于社会中的大多数群体,政府的作用就不可替代,无论是作为社会系统的设计者还是行业领域技术创新的监管者,政府都应承担其职责,打破技术中心主义的局限,将个体保护纳入到社会系统的构建中,不仅列明算法决策透明度规则的强制性规定,而且强调民主的控制。所以公共领域算法决策的法律规制并非让法律保障算法,而是应当让算法同法律一样,服务于构建公共基础性的架构。
  (二)控制论基础冲击线性逻辑。问责离不开对因果关系的关注。法律责任通过线性逻辑和程序规定了被问责行为的实现方式。算法会为了利益进行程序性的选择。算法可以识别和评估所有风险,考虑替代方案,确定减轻的风险,并帮助阐明自动化的基本原理。算法注定了对于数据和过程的关注,也导致了将符号结构提升为实际遵守的法律证据,从而有可能忽略被算法决策实质性侵害的公正、平等和人性尊严的基本价值。
  算法决策在逻辑上是一种以控制论为基础,通过对“元数据”和“原始数据”进行收集和分析,使用智能化设备记录数据的频率、时间和阶段,通过网络进行设备和设备之间的通信,并且通过算法挖掘组合数据,触发自动化的响应机制。所以从机制上来看,算法决策是通过循环控制实现自动化,反对因果关系的线性逻辑。立法确认和调整社会关系离不开从具体到抽象的总结,因此是以个体为基础的规范机制。机器学习算法则通过网路基础架构和云端,不局限于个体用户的定位,还包括对分散的群体数据进行监控。因此算法从一开始就能以敏锐的洞察力预测个体和群体层面的行为,而不需要经过多个个体的累加和结果的总结,这种预测能力恰恰是人类认知所无法实现的。
  关于符号的输入,做到完全无差别是一种绝对理想的状态。在这一过程中,固有的偏见可能会被强化,但这不是最重要的问题。问题在于设计者制定的算法和决策系统,贯彻执行的标准明显优于社会业已形成的线性关系,即传统的因果关系。二战以后跨学科的控制论发展,像美国的国防建设、英国的认知科学,以及俄罗斯的计算机和网络发展都是控制论推动算法在公共服务领域的实践 〔10 〕。而公共领域算法决策既有的实践表明,如果不将个人独特的知识体系纳入决策系统中,将是机器代替人类的延伸,由此创造了大量的无用阶级,而这可能会对整个社会结构带来影响。
  (三)算法精确性冲击着权力-权利的运行。公共领域算法决策的法律规制所面临的另一问题是如何通过比例原则在政府算法决策与公民个体权利保护之间取得协调。法国行政法典要求算法决策必须向数据主体说明以下要素:第一,算法决策的贡献程度和方式;第二,处理的数据和数据的来源;第三,处理数据参数以及酌情加权适用于有关人员的情况;第四,处理所有进行的操作。法国的行政法典虽然规定了政府向个人说明的义务,但是综合这四项要素,能够对政府行为合理性判断产生影响的只有贡献程度这一实质要素,其他三项仅是一种说明的义务。但是在行政法上,解释与辩解历来存在张力,因此,当我们按照行政法要求公共领域算法决策的可解释性时,并不能够证成其合理性。另外,还必须思考的问题是,行政法所要求的合理性不允许算法错误的存在,这种算法错误有可能是基于技术的错误,也可能是基于歧视的错误。   提高算法透明度是法治的要求。算法可能带来国家权力和平台权力的扩张,从而挤压公民个人权利的实现,因此必须通过信息公开以保障对个体行为的预测能力,防止权力在技术支撑下对个体权利进行侵害;公共领域算法的应用必须防止权力的膨胀,实现有序的制度安排;算法所支撑的权力除传统意义上自上而下的渗透,还体现出实际应用中的网络化结构和弥散性,因此也要防止数字精英对政府权力的实质性取代。所以,对政府的算法决策应当采取预防性审查机制,进行算法审查和评估,首要原则是进行公开,以排除不合法的敏感数据的使用,确保决策的公正。同时,政府的算法决策要有民众参与与退出机制,这是行政权在实体和程序层面合法性的要求。
  算法决策挑战了自由裁量权,而这关系到权力在公共管理中的运行问题。为了让权力具有生命力,并在落实的过程中保持活力,决策的模糊性是必需的。决策期待更低层次的执行者,对法律进行具体的实践和定义的完善。这意味着传统的决策与执行之间虽然并非完全一致,但是在实践中却保持了系统的有效运作。算法的精确性可能导致权力的集中。强大的数据分析和人工智能技术,作为创新驱动在诸多国家战略决策层面得到重视。较之于需要长期等待的实践和分散信息的反馈,在宏观层面建立新的协调机制加强数据监管和算法决策的方法备受青睐,比如数据管理机构的设立,英国、法国、德国等国家均采取了这种策略。这种新兴协调机制的具体任务包括确立步骤以明确法律法规指导数据应用与人工智能技术发展。新兴数据机构向政府提供有关于人工智能和数据安全的伦理性建议,并且根据数据使用和技术应用产生的潜在风险提供专家建议和解决途径的支撑论证。在这一层面上,欧盟的GDPR与英国的数据保护条例都被视为创新协调机制的体现。
  四、公共领域算法决策的法律规制
  公共领域的算法决策具有数字经济时代的流动性特征,这是由宏观环境决定的。公共管理要体现技术进步带来的历史性特征,并基于算法的应用具有自身的独特性,这取决于技术的发展和法治的本质追求。因此公共领域算法决策的法律规制在算法系统、价值选择、制度构建和评估标准层面需要对时代要求和技术特征作出回应。
  (一)将结果评估与裁量权控制相结合。算法应用的反应性系统在实现行政监管时侧重以结果为中心,其优势是可以保障管理质量的实现,主要工作方法是通过算法制定标准,现实中主要针对作为市场主体的生产者。在监督和评估过程中,反应性系统算法虽然给予数据输入层面(对应着生产条件)的自由,但是结果的控制迫使其必须通过降低成本才有可能获取更大的优势,这在一定程度上鼓励技术创新。但是以结果为导向的算法决策,可能存在严重问题:第一,基于算法决策而无法进行有意义的说明和解释;第二,为了实现结果目标而进行的数字创造并非真正聚焦于公共服务的质量;第三,决策会为实现目标而压制管理人员的能动性,或者为了压制群体和目标之间的实际差异而最终导致系统的整体性僵化。
  如果反应系统以结果为导向,其目的是为了防止违法现象的出现,那么预测性系统就以干预自由裁量权为导向,其目的则是防止风险的出现。预测性系统的作用在于降低行政负担,并最大限度地符合比例原则,尤其是在检查和监视方面作用明显。因此,算法决策实际上是帮助分配执法资源,通过过滤和分类,对风险进行优先性的自动排序,根据算法结果,进行具有针对性和有效性的应对。但预测性系统本身也存在风险,比如预测性警务目前虽然被普遍接受,但是公共服务尤其是安全需求中所使用的数据和结果却容易被动性泄露,进而会造成其他资源分配的不公,或者权力的主动性扩张,比如从基于安全性的公共领域向司法领域延伸。这种现象应该引起足够警惕,因为个人完全被消失在社会现象中,存在被物化的危险。虽然都是依靠数据分析和自动化决策,公共领域的算法决策却可以体现为不同的系统,结果和过程应当互为标准,并在法律监管和评估当中予以确立,防止偏废其一而造成公权力和私权利的紧张关系。
  (二)正当程序与实质性公平的并重。影响公民个人的法律决策应根据正当程序行使,而自由裁量权必须合法。因此算法决策在影响公职人员的决定时应当满足合法性要求。另一方面,算法系统可能导致隐藏的或者意外的偏差,這些偏差既有人为的参与也可能由系统自身因素造成。虽然数据作为一种客观存在已经取得普遍共识,且为社会现象提供了广泛的解释权,但是算法并非是全知全能的,数据收集与校准、过滤和解释、设计和计算、路径选择和输出本质上都无法排除主观因素的存在。在商业算法层面,法律规制要消除依赖、打破垄断、形成良性的市场竞争,并且平衡相关利益,防止数字权力对消费者个体权利的侵蚀。因此往往采取事后救济的方式,特别强调结果的正义,即当商业利益对公民个体或者其他竞争者产生侵害时,应当追究责任。公共领域算法决策能力的提高,离不开技术创新与节约资本的相互结合 〔15 〕,比如智利的Cybersyn系统性设计。算法作为一种有效的设计有时的确以较低的技术投入改善政府的沟通能力,这与商业和市场对智能设备的更新换代相分离。除却技术和利益性影响,更为重要的是公共领域的算法应当遵循不同的治理规则。正当程序不仅要求排除算法的固有偏见,而且应当保证正当程序的双重面向,即决策过程中执法人员的决策权(因保护弱势群体需求的酌情决定权与不采取算法作为主要证据的指导权)和被执法者公正参加听证和获得被公开审判的权利。所以公共领域算法决策中的程序救济要以实体正义作为标准,这既由算法决策的特殊性决定,也是基于公权力自身合法性与合理性的需求。
  (三)构建公共服务算法决策的民主程序。算法决策较之于人类决策更具有隐蔽性,因此算法的可解释性尤为重要。算法的不透明可能是多种因素造成的 〔16 〕,其中之一是商业优先权和商业秘密的存在。但是行政权力的行使不同于商业算法,其可解释性要具备必要性:第一,法治要求个人应当知道不利于其决定的原因,这些原因还必须伴随因果关系。第二,行政程序不仅仅强调决策的过程,而且强调以问责制保证决策的结果,即要求决策者必须根据某种标准来解释和证明自己的决策,然后对过失和错误进行修正。第三,法治要求社会秩序整体上的透明性,即运作的方式和原则都是透明的,为社会公众所理解,且具有稳定性,这是政府对于社会公众的持久性承诺。第四,公共服务决策过程,不仅仅是一种制度性安排,还应该是对集体道德和文化结构的保障。因此算法还必须保障民主机制的平衡,这意味着人们不仅可以在透明的规则下实现民主的参与,还能够创设其他的规则与自上而下的统合形成竞争机制,所以公共管理的目的不是仅仅让个体成为被管理的对象,而应该是一种集体化的主体,由此决定了公共决策中的算法也不应该仅仅掌握在权力执行者手中,个人和社会的公开与应用是保障这种竞争与平衡的前提。   (四)滿足透明度和一致性的要求。透明要求程序性的法律规范,比如在欧盟法律层面依赖于欧盟数据保护原则,但一致性原则则要求不同效力位阶的规范在数据收集预算决策时以结果和目标为导向,所以算法决策又是一种流程性的规制模式。欧盟对算法决策的法律规制,贯彻数据保护法的传统,这一框架性的法律具有如下特征:算法决策必须符合欧盟层面法律制度的“命令与控制” 〔17 〕,其具体举措必须满足核心法律标准,比如第5条①或者第22条②的规定;欧盟数据框架还赋予一些数据主体权利,成为数据控制者必须遵守的义务。因此算法决策的治理应当是公共服务机构采取常规命令与控制技术的组合,但以私权利作为补充。此外,虽然数据保护法是框架性命令,但是要避免过于原则。比如GDPR第25条第2款③,是一种具体方式和实质性结果的结合。此外,欧盟对算法决策的监管依赖于独立的数据保护机构,这一机构被赋予广泛的执行权和解释裁量权;与自上而下的监督相对应,欧盟法律赋予数据主体申请强制执行等广泛的救济性权利,让数据主体的同意成为一种可能。
  法律的目的可能不是真的让处于技术和资源相对贫乏的个人通过终止侵权、强制执行与行政赔偿的方式对抗政府的公共决策,而是敦促公共管理主体的义务履行,进而确保算法的升级不排除个人的参与,所以政府依然被视为制度的设计者。为此,虽然诸多的个体权利被予以确认,算法决策法律规制绝非应该定位于单一的隐私保护或者数据财产权利。计算机技术和算法让行政行为在先进性和效益方面有了非凡的增长,但是将这些单一的个体组合在一起,不仅会对个人自主权和人性尊严等一系列的价值产生影响,最重要的是可能会对民主的共同体造成影响。所以算法决策不是单纯在技术上对唯理论的追寻,还必须满足对道德、民主和政治的维护。
  总之,对公共领域算法决策进行法律规制,需要解决传统调整方法在动态社会所面临的矛盾:认识层面的技术中立性隐藏着“算法监狱”“算法暴政” 〔18 〕与追求共同善之间的冲突;方法层面自上而下的权力渗透与自下而上的自我整体性监管之间的张力;具体操作层面追求结果的效率导向和追求控制的过程监督之间的区别,为此,必须具有权力-权利秩序构建的双重面向,以实现制度的构建和价值的保障。从更广阔的视角看,算法决策并非在寻求放之四海而皆准的真理,也不是通过抽象数学公式、物理定律或者机器原理对数字经济进行哲理上的定义,而应当是通过对信息的处理使其针对细分的场景和特定的条件,更便于操作和理解,更能够被大众所认知并被自然语言所描述,进而促进公共管理职能的实现和数字社会的进步。
  注 释:
  ①Art. 5 GDPR Principles relating to processing of personal data
  ②Art. 22 GDPR Automated individual decision-making,including profiling
  ③Art. 25 GDPR Data protection by design and by default:The controller shall implement appropriate technical and organisational measures for ensuring that,by default,only personal data which are necessary for each specific purpose of the processing are processed.2That obligation applies to the amount of personal data collected, the extent of their processing,the period of their storage and their accessibility.3In particular,such measures shall ensure that by default personal data are not made accessible without the individual’s intervention to an indefinite number of natural persons.
  参考文献:
  〔1〕张凌寒.算法权力的兴起、异化及法律规制〔J〕.法商研究,2019(04):64-75.
  〔2〕胡 凌.数字社会权力的来源:评分、算法与规范的再生产〔J〕.交大法学,2019(01):21-34.
  〔3〕郑智航,徐昭曦.大数据时代算法歧视的法律规制与司法审查〔J〕.比较法研究,2019(04):111-122.
  〔4〕段伟文.数据智能的算法权力及其边界校勘〔J〕.探索与争鸣,2018(10):92-100+143.
  〔5〕林洹民.自动决策算法的法律规制:以数据活动顾问为核心的二元监管路径〔J〕.法律科学(西北政法大学学报),2019(03):43-53.
  〔6〕Cobber.J.Administrative law and the ma chines of government〔J〕.judicial review of automated public-sector decisionmaking Legal Studies,2019(39):636-655.
  〔7〕施特劳斯.什么是政治哲学〔M〕.北京:华夏出版社,2014.
  〔8〕Margetts,H.Information Technology in Government:Britain and America〔M〕.London:Routledge,1999
  〔9〕Hood.C,Peters.G.The Middle Aging of New Public Management:Into the Age of Paradox〔J〕.Journal of Public Administration Research and Theory,2004(03):267-282.   〔10〕Margaret.H,Algorithmic Jim Crow〔J〕.Fordham Law Review,2017(02):633-696.
  〔11〕Zalnieriute.M,Moses.B,Williams.G.The Rule of Law and Automation of Government Decision-Making〔J〕.Modern Law Review,2019(03):425-455.
  〔12〕Barocas.S,Selbst.A.D.Big Data’s Disparate Impact〔J〕.California Law Review,2016(03):671-732.
  〔13〕Michael Veale and Irina Brass,Administration by Algorithm?Public Management meets Public Sector Machine Learning〔EB/OL〕.publication available at:https://ssrn.com/abstract=3375391(Feb.1,2020).
  〔14〕王延川.算法价格歧视的市场解决机制〔N〕.学习时报,2019-10-18(03).
  〔15〕Mergel,I.Open innovation in the public sector:drivers and barriers for the adoption of Challenge.gov〔J〕.Public Management Review,2018(20):726-745.
  〔16〕陈姿含.人工智能算法中的法律主体性危机〔J〕.法律科学(西北政法大学学报),2019(04):40-47.
  〔17〕Roig,A.Safeguards for the right not to be subject to a decision based solely on automated processing(Article 22 GDPR)〔J〕.European Journal of Law and Technology,2017(08):1-17.
  〔18〕徐 风.人工智能算法黑箱的法律规制——以智能投顾为例展開〔J〕.东方法学,2019(06):78-86.
  责任编辑 杨在平
   〔收稿日期〕2020-02-02
   〔基金项目〕司法部《国家法治与法学理论研究》项目(18SFB1005),主持人齐延平。
   〔作者简介〕陈姿含(1987-),女,山东潍坊人,北京理工大学法学院讲师、法学博士、生物医药法学博士,工信部智能科技风险法律防控重点实验室办公室主任,主要研究方向为智能科技与法理学。
转载注明来源:https://www.xzbu.com/4/view-15252696.htm