您好, 访客   登录/注册

算法歧视的发生逻辑与法律规制

来源:用户上传      作者:石颖

  〔摘要〕算法歧视是新兴技术风险的典型代表,主要是由于算法内部演算和数据分析所导致的对特定群体或个人的不公正对待。算法歧视是一种不合理的区别对待,是智能机器自动化决策的产物,以“隐蔽性”和“不可逆性”为表征。相较于一般歧视来说,算法歧视所带来的是一种更深层次的歧视和不平等,并引发了伦理问题。算法歧视是人类社会歧视在算法领域的转化,体现为归纳式的算法思维逻辑、算法黑箱与非中立性等算法技术设计所导致的算法歧视,更体现为算法运行中的决策性歧视,即由于“冗余编码”和“信息茧房”等数据动态交互所产生的算法歧视,以及因数据评估的导向性而引发的算法歧视。对此,应通过伦理审计与公平性约束、数据信息的区别保护与算法解释,以及建立算法的监管制度来实现对算法歧视的法律规制,同时还要在特定重大领域慎用算法决策系统,以此来塑造算法时代的法律秩序,确保数字社会中人类的安全和发展。
  〔关键词〕算法歧视,数据信息,算法黑箱,冗余编码,算法解释
  〔中图分类号〕D90-052 〔文献标识码〕A 〔文章编号〕1004-4175(2022)03-0122-07
  〔收稿日期〕2022-03-31
   〔作者简介〕石 颖(1994- ),女,陕西西安人,西北政法大学法治学院2019级博士生、中共陕西省委党校(陕西行政学院)法学与社会治理教研部讲师,主要研究方向为法学理论。
  随着数字技术的快速发展,人们已经能够利用算法来帮助处理社会生活各领域的复杂问题,如利用算法决策系统作出信用评价、用人管理、政府治理、产品定价等。这极大地提高了决策效率,给人们生活带来了诸多便利。但与此同时,我们还发现,算法θ嗣巧活领域的渗透还带来了新的问题,如在不同的手机端预定机票、酒店或打车时会得到不同的报价;亚马逊公司使用的简历分析系统,自动将女性求职者的排名置于男性之后……这表明,歧视已经随着时代发展而呈现出新的表现形式。算法与大数据的应用不仅无法解决公正和平等问题,反而让本应是“呈现观念”的算法场景产生了“创造观念”的歧视效果,进一步加重了不公正和不平等,并引发新的伦理问题。数字科技带给人们的这些最直观的挑战和问题,势必需要法律作出回应。因此,本文关注的问题是,算法歧视的发生逻辑是什么?以及如何对算法歧视进行法律规制?既有理论研究,大多关注的是算法的宏观规制问题,所提出的规制对策并非专门针对算法歧视,因此缺少针对性。而少部分专门针对算法歧视的研究尚不够系统深入,有待于从“人”的层面、“技术”层面以及“运行”层面对其发生逻辑和法律规制进行深入剖析。对此,本文将从“先行存在的歧视”“技术本身的歧视”和“算法运行中的决策性歧视”这三个方面来系统论证算法歧视的发生逻辑,并提出与之相对应的法律规制措施,以期重塑数字社会的公正与平等,推动算法技术的良性发展。
  一、算法歧视的核心要义
  歧视在人类思维意识中从未缺席过,并且会随着时代变迁而不断演化出新的歧视类型。算法歧视即是随着人工智能、大数据、算法等新兴技术的发展和应用而产生的新的社会歧视类型。数字社会与人类社会实际上是一种镜像关系,即人类社会无法避免的歧视问题,在数字社会也同样无法避免,甚至在数字空间中愈演愈烈。算法歧视对人类社会制度与经济、政治、文化发展的影响越来越深远,不仅限于传统的种族、性别等因素,而且还投射到数字社会中人类的日常生活和社会事务当中〔1〕。对算法歧视的发生逻辑与法律规制的研究,首先是要明晰算法歧视的核心要义。具体而言,算法歧视的核心要义体现在以下几个方面:
  (一)算法歧视是一种不合理的区别对待
  如果将歧视比作风险和灾难,那么算法技术的发展让歧视这一风险也随之获得了新的载体和表现形式,呈现出歧视风险的高科技性,这种高科技性可能会让更多、更普遍的人遭受歧视。歧视是“一切对公民群体或个人所实施的,其目的或效果在于不合理的区分、限制、排斥、优待或侵害人尊严的行为或制度安排”〔2〕。简言之,歧视是一种不合理的区别对待。算法歧视虽然是一种新型的歧视类型,但它并没有创造歧视本身,也没有改变歧视的本质,而只是改变了歧视的产生方式和存在方式,使得歧视有了更广阔的外延,是歧视在数字社会中的一种特殊表现形式。因此,算法歧视也具有歧视的一般性要义,同样是一种不合理的区别对待。
  (二)算法歧视是智能机器自动化决策的产物
  算法的建构与运行极具复杂性。算法是在计算机程序中由包含百万级的数据点与代码建立起来的决策模型,是通过对海量数据进行排序、分类并予以标签化,继而建立若干数据集才得以运行的。它会不断地在动态数据的统计学习中作出决策选择,具有“输出预测”的功能。算法歧视正是由于算法内部演算和数据分析所导致的对特定群体或个人的不公正对待。人们在算法技术的开发与应用中,难免会将人类社会固有的偏见与歧视通过数据传递到同构属性的算法上,当在数据分析中按照不合理的类别化区分标准进行内部演算,继而对不同的人作出系统性的、可重复的不平等对待时,就会形成算法歧视。也即,算法歧视主要是嵌入了人类的认知与价值观后,由智能机器自动化决策后的产物,是一种自动化歧视(Automated Discrimination)〔3〕。
  (三)算法歧视以“隐蔽性”和“不可逆性”为表征
  虽然算法歧视归属于歧视,但又不完全等同于一般意义上的歧视,具有着“隐蔽性”与“不可逆性”,会产生更为严重、更为普遍的歧视性后果。(1)隐蔽性。算法的运行过程是一个深度学习的过程,会在掌握数据属性、人类偏好等的基础上作出算法预测。在这一过程中,一方面,由于高度的专业性使得算法设计人员与普通用户之间形成巨大的“数字鸿沟”。普通用户根本无法从专业的程序代码层面理解算法决策的过程、依据以及决策结构。另一方面,算法黑箱也使得算法决策过程处于不公开不透明的状态,普通用户往往只能得到最终的决策结果,并被动地接受结果,而无法发现算法歧视。(2)不可逆性。算法歧视的不可逆性,体现在算法决策的过程与结果的双重不可逆性上。整个算法运行程序其实就是从“输入”到“输出”的过程。当自动化决策的算法“输出”歧视性结果或产生歧视性的危害后果时,是根本无法逆转的。而这一歧视性结果的输出还将会进一步分别反馈给算法的内部循环系统与外部流通系统,造成进一步的歧视循环与流通。

nlc202206221731



转载注明来源:https://www.xzbu.com/4/view-15434325.htm

相关文章