您好, 访客   登录/注册

人工智能算法规制的原理与方法

来源:用户上传      作者:孙莹

  摘要:人工智能算法推荐的运行机制决定了算法的非技术中立性和价值取向性。人工智能算法本身蕴含强大的技术权力,算法黑箱的技术壁垒则加剧了人与算法之间权力失衡。人工智能算法本身的逻辑并不考虑作为主体的个人的主体性,每一个个体都只是算法逻辑体系下的参数。在算法权力的技术权力表象之下还潜藏着资本的权力,并使国家主权面临挑战,冲击全球治理体系。因此,应当构建政府主导并掌握核心算法的大数据系统,强化伦理约束组织的建设,在立法上压实人工智能算法开发者、控制者的主体责任。
  关键词:人工智能算法;非技术中立性;算法权力;主体责任
  中图分类号:DF0-05 文献标志码:A
  DOI:10.3969/j.issn.1008-4355.2020.01.08
  引言
  从2018年开始,作为人工智能核心要素的“算法”概念开始兴起,并逐渐取代空泛的“人工智能”概念,成为法学界研究人工智能的聚焦点。人工智能算法,即通过计算机来模拟人的思维和智能,在一定的输入前提之下,按照设定程序运行,由计算机来完成特定功能的输出,解决特定问题的方法的准确描述或清晰的有限指令。它可以增强人在某些领域的决策能力,甚至在某些方面可以代替人作出决策。但其在为人类提供更加迅捷高效的决策依据的同时,也会潜在地对人类的视域、判断乃至选擇产生影响,进而不断改变资本与个人权利、国家权力的关系。人工智能算法的控制者凭借“算法黑箱”的数据技术壁垒,利用算法影响受众群体的社会偏好和政治偏好,并潜移默化地影响、操纵受众的行为模式。此外,对人工智能算法监管的缺位所导致的“信息茧房”、“算法歧视”等现象,日益成为新的社会治理难题,亟待立法规制。
  一、人工智能算法的非技术中立性
  随着以大数据应用为基础的算法推荐在电子商务领域的成熟运用。人工智能算法开始为法学界关注。互联网电商平台经过一段时间的经营,沉淀的用户数据早已是天文数字,结合其注册信息和浏览偏好,并据此描绘用户的个人特征乃至某类用户群体的社会特征画像,是其长久以来的深耕领域。互联网电商平台的巨头们也正基于此,开始分析用户最迫切的购买需要,这便是人工智能算法进入社会领域并开始兴起的最初时刻。人工智能算法也以此为起点,通过大数据支撑的算法分析和算法推荐,开始介入社交媒体平台等其他互联网空间,进而深度影响人类社会生活,并引发政治风险。
  (一)人工智能算法推荐在社交媒体平台的广泛运用
  随着人工智能算法运用技术的迭代,算法推荐开始从电商平台延伸到互联网社交媒体平台,并日益成为决定信息推送的根本性力量。人工智能算法通过此类网络平台积累了大量用户数据,人工智能算法控制者(很多情况下也是开发者)的价值观也因此深深嵌入据称中立的技术之下,并悄然影响着受众的观念、决断和行为模式。
  通过不断的机器学习,算法在数据抓取、学习、推送方面相对人类已经取得巨大优势,并由此强化了对受众的影响。包括今日头条等平台媒体和微信等社交平台,都在积极运用人工智能算法增加用户黏性,并增强市场渗透率。不同于传统媒体时代的新闻人工筛选推送机制,也不同于社交网络时代的新闻社交过滤机制,大数据时代之下的人工智能算法推荐机制拥有更强的数据抓取能力和学习能力,使得信息推送的规模和效率成几何倍数增长。
  传统的新闻人工筛选推送机制通过媒体编辑对新闻进行把关,体现的是媒体编辑的价值取向,在新闻内容的呈现上有着很强的价值偏好。媒体编辑通过热点问题、核心情况的归纳,引导舆论的争论焦点。在社交媒体兴起以后,个体获取信息的主要方式变革为社交过滤的方式。此类获取信息方式的弊端在于,不断扩大的社交网络当中发布、流传的信息鱼龙混杂,需要用户耗费精力加以甄别。
  人工智能算法的出现颠覆性地改变了这一点。依托大数据技术的应用,人工智能算法依据用户的行为数据——如浏览内容、转发、评论等,以及身份数据进行深度的机器学习与算法分析,为每一个用户精准识别并推送其价值需求和相关偏好的信息,即“只有你关注的才是头条”。在此基础上,人工智能算法推荐依据不同的价值偏好和信息需求,将用户划分为多个交叉重叠的群体,并为其分别推送需要的信息,实现区别于朋友圈过滤的大数据过滤,使得用户更加自由的掌控信息的捕捉和接收。正如阿克塞尔·布伦斯(Axel Bruns)所认为的那样,原子式的用户在数据信息的场域划出了巨大的空间,传统的媒体已不再具有引导话题辩论的能力,真正起到决定性作用的是用户的偏好和抓取。随着大数据时代的到来,信息愈发根据人的价值和需求而自由流动,但是这样的“自由”,始终带有为人工智能算法支配的阴霾。
  (二)算法推荐运行机制的非技术中立性
  计算机和大数据学科理论认为,“算法”综合了逻辑与控制(algorithm as a sum of logic andcontrol),实际上就是一种编程,即为其设立一个为了解决某问题而自我推演的运行逻辑,并对其输入指令,在输入数据的不断精准“榫接”的步骤中,得出逻辑推演的结果。在这个意义上,人工智能算法的本质,实际上就是依照其自身逻辑展开一系列对用户和数据的抓取,通过其技术逻辑设定的方向导出某个结果。而不间断的机器学习则保证了该套匹配模式精准度的不断提升、完善。在此过程中,大数据技术的应用,则不断为人工智能算法的自我学习提供源源不断的“能量”。基于此,人工智能算法推荐在深度分析受众个人数据如浏览记录、停留时长、用户注册信息、评论转发等信息的基础上,为其精准推送其偏好的信息。
  与传统的人工筛选推送信息的方式相比较,人工智能算法推荐实际上颠覆了整个行业的底层逻辑,推送信息的标准已经由信息的内容本身,转向“用户偏好的信息”,亦即用户决定信息。因此,信息的价值不再取决于其内容,而取决于用户的偏好。即在信息推送接收的逻辑链条之下,决定用户接收某类信息的不再是用户的主观意愿,而是人工智能算法的内部评判标准。对于某一类用户全体,人工智能算法在分析了主流的偏好需求、类型特征后,会通过建立推送模型的方式,将群体内的其他偏好交叉推送给群体成员。   事实上,人工智能算法推荐存在某种倾向的价值观,绝非一些“技术中立论”所宣称的那样,没有价值观的倾向。这种倾向性有的来自人工智能算法开发者输入的底层逻辑,更多的来自在底层逻辑的基础之上的算法本身逻辑自生自发的演绎。人工智能算法通过数据指令的不断输入和深度学习,其自我展开的逻辑必然会建构出一整套运行的系统,有其自身的机制。同时由于算法受众在该机制中的不断反馈,使得算法机制本身糅合了算法逻辑和人的价值观。因此,杂糅着社会价值观的人工智能算法又强化了自身的价值倾向,并在各领域得到不断展现。这也使得互联网平台的用户均处于人工智能算法价值观的影响之下。人的行为模式、思想观念也在悄然发生改变,并愈发接近算法暗含的价值观。
  (三)算法的非技术中立性易引发政治风险
  随着人工智能算法在互联网电商平台和社交平台的深度运用。其影响力开始从商业社会蔓延到政治领域,引导某种价值观念的算法往往容易在现实政治中产生影响。究其根源,在于人工智能算法在现代性之下,凭借其对于每一个用户的了解,以用户之间类似的价值观念迅速将单个的用户捏合成有共同诉求的强大团体。
  现代性的重要特征之一就是原有的宗教、宗族、社团等不断消解,并在其之上诞生原子式的社会结构,每个人不再是血缘、宗教纽带等之下的某一份子,而成为社会的基础单位。人与人之间不再以血亲、宗教联系为主,每个人都在法律意义上成为平等的主体,具有普遍性的平等权利和义务。与此同时,个体的现实生活逐渐为普遍性所消解,植根于现代性之上的人工智能算法则根据每一个用户的偏好和行为模式,向其推送相关的信息,为单个用户之间赋予某种联系并将其组织起来。在某种意义上,人工智能算法是在为每一个用户赋予特殊性,并将其组织起来,由此在个体碎片化的时代,形成全新政治力量。极端情况下,算法将可能被用于操纵用户,影响国家政治。
  以“剑桥分析”(Cambridge Analytica)事件为例,英国政治咨询公司“剑桥分析”利用剑桥大学心理测量学中心开发的数据搜集应用,通过比对用户的评论和个人资料建立了一个强大的算法模型,再用这个模型来预测和影响其他用户的行为模式和投票选择。算法和大数据运用最终造就了一款强大的政治工具,可识别摇摆不定的选民,并针对性地推送可能会产生共鸣的新闻资讯和政治广告,左右选民投票。
  通过“剑桥分析”事件可以看到,结合了大数据技术的人工智能算法,已经在现实生活中对公众产生深刻影响,并成为现代政治中的不稳定因素。在乌克兰、委内瑞拉等国家发生的社会动荡,其背后均有资本力量依托人工智能算法在政治新闻(甚至假新闻)对潜在受众精准投放的影子。在这个意义上,人工智能算法,已经成为资本力量动摇主权国家安全的重要支点,亟待规制。
  二、人工智能算法权力的日益膨胀
  不同于传统的技术进步,运用于基础性高新科技的人工智能算法不断迭代更新,通用于各行各业而支撑起新一轮的产业革命。人工智能算法本身即蕴含着强大的技术权力,算法黑箱的技术壁垒则加剧了人与算法之间的权力失衡。现有法律法规缺乏对人工智能算法的有效规制,此外在行政监管体制中,行政审查、风险监控等监管程序仍然缺位,导致了人工智能算法的技术权力开始压制个人权利。而未经严格规制的算法权力推演到极致,本身作为人类的对象的算法,将成为外化于人类生活的算法霸权,潜移默化地将人类生活对象化和工具化。
  (一)作为新兴技术权力的人工智能算法
  人工智能算法在大数据技术及人工智能应用过程中。其在数据处理和深度学习算法上的技术优势生成的对政府、公民、社会组织等对象拥有的影响力和控制力,可以被认为是算法权力。其最重要的特征是通过普通人几乎无法逾越的技术壁垒,维持对个人权利的绝对优势。
  人工智能算法在数字时代的高效率运转,赋予了算法权力的合理性。借助于海量的大数据和具备强大计算能力的硬件设备。拥有深度学习能力的人工智能算法可以通过自主学习和强化训练来不断提升自身的能力,解决很多人类难以有效应对的治理难题。算法作为人工智能的基石之一,其运转效率的高低,在很大程度上决定了人工智能应用的广度和深度。伴随人工智能算法在国家和社会治理中重要性的日渐凸显,国家和社会对于算法的依赖也逐渐加深,如前文所述社交媒体平台,其运行的基础就在于人工智能算法的运用。算法权力作为一种新型的技术权力形态,开始逐步得到学界和实务界的关注。
  传统政治学的关注重点之一,在于如何协调和平衡国家和社会的关系,即通过合理配置国家权力和利用一定的技术手段来有效规制国家权力的行使,以达到国家与社会之间的平衡。人工智能深度学习算法在国家和社会治理中的应用,使得政府运行过程更加公开透明,民众的治理需求能够得到有效识别和及时回应,有效地降低了国家和社会治理的成本和难度,提升了国家和社会治理的绩效,算法也由此成为社会有效规制国家机器运行的强大技术支撑。随着人工智能应用场景的不断拓展和应用程度的不断加深,依据人工智能算法分析的结果来决策、听取人工智能算法的指令而行动,在不久的将来可能会成为人类决策和行为时的常态。人类对于人工智能算法的技术依赖将会不断增强,算法作为一种技术形态的权力开始嵌入人类社会的形态当中,并深度影响人类的思维、行为模式。算法权力从表象上看是一种技术权力,但其背后潜藏着控制算法设计和研发过程的资本的权力,时刻在侵蚀着个体的权利。如不加以有效的引导和规制,在不远的将来,通过不断地机器学习愈加强大的人工智能算法权力,将出现脱离人类控制的风险,并有可能演化成为人类异己的人工智能算法霸权。
  (二)从算法权力到算法霸權
  近年来,伴随人工智能技术的不断推进,有人认为人类社会正逐渐从弱人工智能时代向强人工智能时代转变。人工智能形态的不断变革,也引发了法学界关于人工智能体属性和地位的争论。
  主张人工智能是机器的学者认为,人工智能的实质是人类设计出来用于提高企业生产效率、降低国家和社会治理难度、满足人类美好生活诉求的机器,人工是智能的前提。而主张人工智能应该被赋予主体人格的学者认为,深度学习算法的出现,使得人工智能具备了越来越多的自主意识和自主行为能力,应该赋予其部分的法律人格和财产权利。也有的学者认为:“简单地以机器‘长得是否像人’或者‘表现得是否像人’作为评判其能否获得法律主体地位的标准要件。不仅容易因概念的含混不清导致可操作性不强,还可能会陷入法律与科学技术双重认识不一致的泥潭”。   人工智能是主体还是客体的争论还将持续存在,但是在深度学习算法的推动之下,人工智能的自主学习能力正不断增强,自主意识也在不断形成。面对人工智能时代的到来,目前资本权力主导的人工智能算法出现某种类自我意识并试图摆脱的可能性也在逐渐增加。在这个漫长转折到来的前夜,有必要担心人工智能算法权力有可能正在从技术权力的表象和资本权力的实质演化成人工智能算法对于人类的技术优势,并最终有可能转变为人工智能对于整个人类的霸权。
  (三)算法权力加剧人的异化
  人工智能算法本身的逻辑并不考虑作为主体的个人的主体性,每一个个体都只是算法逻辑体系下的参数。在这个意义上,每一个具体的人都被算法所对象化,算法权力也因此加剧作为主体的人对自身的疏离感,即经典马克思主义所说的“异化”“物化”或“物象化”。
  人工智能算法为指令的输入和大数据的机器学习所预留的空间是无限的。但无论输入多少指令都无法改变其“刺激一反应”这一模式的底层逻辑,申言之,在人工智能算法所设定和复制的人类行为模式中,没有考虑到自由意志和伦理自主性。人作为社会性的主体,其一举一动都为其自由意志所设定,为其道德伦理所约束,而人工智能算法主导下的行为模式,是缺乏道德观念和伦理性思考的反应,对现有的人类社会道德秩序会产生极大地冲击。人工智能算法这一先天缺陷,已经在影响现实的人类社会,且暂时难以克服。
  由上可见,对比人工筛选的信息推荐模式,人工智能算法推荐缺乏伦理道德的认知。事实上,由于伦理道德的非确定性,人工智能算法无法依据抽象的原则,在具体的事件中作出符合道德规范的反应。在人工智能算法的逻辑中,很难训练出类似人的道德决策能力,其只能复制人的行为,而不能理解其中的道德性。这种先天缺陷的存在,源于一方面技术理性排除了价值判断,另一方面算法追求效率最大化所决定的。
  因此。人工智能算法之逻辑与人的主体性的冲突。在某种意义上可以归结到认识论的差异之上。即人工智能算法依托对人类行为的大数据的机器学习,不断积累某种情况下人类似的反应,并由这些碎片化的底层知识,归纳总结出算法在应对此类情况时所可能做出的反应的依据。亦即人工智能算法依照其工具理性的要求,把来自外界的混杂多样的刺激划分成若干部分。在这些部分中,算法只是在范畴上把对于其实际干预具有突出作用的组成部分裁剪下来。这样的反应模式白形成之初,就缺乏人的自由意志和伦理道德的精神内核。由此可见,人工智能算法不再仅仅作为在某些领域中辅助、替代人类决策的工具,而是总结人类的行为,形成另外一套反应(决策)的逻辑体系。换言之,其完全以工具理性改造了人类行为的逻辑,并在此基础上排除价值判断,并形成基于人工智能算法的类似人类行为模式。
  正如法兰克福学派在了解美国式传媒工业后总结的那样,文化工业始终强调其提供的标准化产品是观众内心所需的。但实际上观众回馈的调查问卷,就是文化工业本身按照自身的价值规范,通过稳定投放类型化的文化节目,引导、营销、暗示观众的价值观念,观众本身也就成为标准化产品的结果而非价值源泉。相较而言,人工智能算法受益于大数据技术的运用和社交媒体带来的信息的分类推送理念。其展现出的算法权力必将是在一个更加封闭的信息茧房内对受众更为深刻的影响。现代人也因此被割裂开来,接收着人工智能算法定向推送的差异化的信息,行为模式和价值观念也在不知不觉中为算法所渗透。在某种意义上,算法的进步过程,也表现为人类退化的那种隐蔽的过程。
  在本质上,算法权力将直接导致对人类行动模式的工具性支配,即算法通过消除人类社会的多种多样的印象,将多姿多彩的人类社会排除在外,得到人类社会的可改造性。在算法权力的这种支配性实践中,其最终从现实中能够察觉到的只是那些可以有计划、有步骤地控制和有制造条件的事物。因此,推演到极致的算法霸权,将会把人类社会剪裁成对社会统治的那种单纯的投射。
  (四)算法权力对个人权利的压制
  人工智能算法导致人自身异化的同时,成为压迫个人权利的新的力量,并切实威胁着个人权利。在大数据网络时代,个人对其在网络上产生的数据,天然享有数据所有权、数据隐私权等基础性权利,并存在希望就个人数据获取回报的机会。法律因此规制了个人信息权、数据权、拒绝权等新的权利。但依托大数据技术发展的人工智能算法,由于其深度专业性和缺乏相应的行政、立法规制,而日益形成对个人权利的结构性压迫,这是算法控制者与算法对人的双重压迫。
  一方面,当人工智能算法成为公共空间不可或缺的一部分,就会自然而然地滋生权力。算法的控制者与作为数据主体的个人之间,由信息不对称深化为知识不对等,进而导致权力失衡。如今大数据和算法所承载的权力日益集中掌握在少数企业手中。伴随着神经网络算法的升级,人工智能算法权力对个人权利的压制不断加深。例如,通过人工智能算法推荐形成对个体的信息茧房,算法歧视与隐私保护问题不断浮现,通过大数据交叉验证精准识别用户的情形已经成为事实,个人上网注册信息和数据信息也会被识别出敏感的价值倾向。
  另一方面,人工智能算法时代与此前的网络时代最大的区别,在于人工智能算法不再仅僅收集数据,而是在大数据的基础之上开始自身的学习,并通过昼夜不断的机器学习,一步步深化对作为数据主体的个人的了解。而作为缺乏专业训练(这样的专业训练所需要花费的时间、精力、金钱等绝非普通个体所能轻松付出的)的普通个体,即使其知晓其数据为人工智能算法所用,但也很难理解算法的运行机制和潜在风险。即使是专业人士,算法的代码、参数也绝非可以完全识别的。这使得作为主体的人,完全和社会运行的整个逻辑脱节而陷入自我认同的虚无当中,其通过劳动创造出来的不再是自身价值和认同感,而仅仅是人工智能算法不断成长的“养料”——数据。人工智能算法对个人权利的压制,还体现在神经网络算法在人类观察之外的自我深度学习上,当神经网络算法发展出自己的逻辑体系,就可能造成严重的决策偏差。   三、人工智能算法改变资本权力与国家权力的关系
  算法权力作为一种技术权力,在降低行政运行成本、提高行政运行效率、改善政府治理绩效的同时,更为公民和社会深度参与国家治理、充分表达利益诉求和有效规制国家机器运行提供了坚强的技术保障,推动了国家与社会关系发生着积极的变革。
  但同时,在算法权力的技术权力表象之下还潜藏着资本的权力。大型互联网企业凭借数据优势独占算法开发的能力,既是算法的开发者,又是算法的使用者,在同一实体内完成技术的商业转化,意味着技术权力转化为资本权力。作为大数据时代新型权力的人工智能算法权力,人类在其逻辑体系之下不再具有主体的地位,而仅仅只是某种可计算、可预测、可控制的客体。在这个意义上,作为科学与技术的人工智能算法,不仅成为第一生产力,而且也成了一种类似以科学为偶像的新型的意识形态。资本权力凭借高效利用的大数据技术和人工智能算法开发运用方面的领先优势,深刻改变、塑造着国家权力与资本权力的关系,并在与国家的不断博弈中影响国家的主权,进而对全球治理体系和治理秩序产生较为深刻的影响。与之相较,法律监管制度、行政监管权力和社会监督力量在算法领域已经处于落后地位。
  (一)政府内部数据淤塞凸显人工智能算法之上的资本权力
  数据是算法的权力特征得以不断凸显的重要支撑。人工智能算法水平的提升依赖于海量大数据为其提供了几乎无边无际的自我学习和训练机会。社会治理中人工智能算法技术优势的持续发挥也有赖于对海量大数据进行自动提取和分析的结果。在人工智能算法领域,行政监管不足的主要原因之一在于,沉淀的数据没有得到很好的运用。数据作为重要的战略资源,它的价值需要通过互联和共享并进行深度的挖掘方能体现出来,与之相对应,不被使用的数据是没有价值的。
  通过对现代社会的观察,我们可以看到,在服务型政府的管理之下,政府沉淀下来的数据比市场和社会掌握的数据量要多,政府在数据的数量上具有明显的优势。但是,受到科层体制的束缚,政府内部的数据存在着较为严重的数据壁垒和信息孤岛问题,不同区域之间、不同层级之间和不同部门之间的数据在存储系统的对接和数据资源的共享上存在诸多的障碍,大量的政府数据处于沉睡状态。同时,政府在数据的存储、分类、处理和分析等方面的技术积累和人才储备上也面临较多的短板。与政府在数据的共享和使用等方面存在诸多障碍不同,少数企业利用自身研发的应用软件和智能政务平台,不仅掌握了海量的大数据,而且凭借其在云存储和云计算等方面的技术优势,能够充分的挖掘出数据的价值并加以有效利用。
  目前,少数企业在数据存储和处理上的技术优势正演变成为对国家和社会的权力优势,并有形成数据垄断乃至数据霸权的可能,对传统的资本与国家的关系产生深刻的影响,公民的信息安全也会遭到一定程度的危险。
  (二)资本权力使国家主权安全面临新的挑战
  人工智能时代的到来和智能治理形态的出现,给现代国家治理体系的完善和治理能力的提升带来了前所未有的机遇,人工智能算法已经逐渐成为现代国家治理体系的重要治理主体,推动着国家治理现代化进程的加速。但同时,随着国家治理的各个应用场景下,由资本主导的人工智能算法的不断渗透与融合,国家的主权安全也正面临着严峻的考验。
  目前,各类算法几乎均由私人部门即各类企业所开发,而这些算法为企业带来了丰厚的利润。因此,企业毫无疑问的将其算法看作商业秘密以获得法律保护,更有甚者,在美国的判例中,算法被认为是一种言论,继而获得其宪法有关言论自由的保护。作为私人部门所掌握的算法,在企业追逐利益的目的驱动下,算法将会成为谋取利益的工具。极端的情况下,算法将可能被用于操纵舆论和信息,影响国家主权安全。
  首先,国家治理中应用的智能技术平台在帮助解决国家治理难题的同时,也在不断地收集国家治理中产生的重要数据,其中很多是关系到国家和公民切身利益的核心数据,主权国家正面临着数据泄露的危险。现代化治理体系离不开大数据及依附其上的人工智能算法,但当政府与市场中的大数据控制者合作开发智能技术平台时,就意味着国家权力的某种削弱。这种强化智能技术平台的运用反而削弱国家权力的现象不独存在于行政权力,而是一种普遍现象。即使是在现代社会中主张中立价值的司法,也在试点“智慧法院”时引发巨大争议。建立在数据化之上的智慧法院,必然要求大数据和云计算的支撑,这就必然对司法权力的独立地位产生冲击。
  其次,在算法研发和运行过程中,人工智能算法欠缺模型透明度和可追溯性。在此背景下,当国家治理和社会管理在问题判断、治理决策过程的实施等环节上对算法产生高度技术依赖,使得算法背后的资本拥有了影响和主导国家治理秩序的能力。以智能技术平台的建设为例,在涉及大数据和算法等新兴领域,滞后的立法与缺位的监管使得公权力与私权利的边界日益模糊,本应作为监管对象的大数据所有者(很多情况下即算法开发者、掌控者)凭借提供便利公权力行使的“智能技术平台”,反而成为公权力行使过程中的最重要一环,并因此分享权力,这不得不说是一种吊诡。与此同时,通过公权力合法收集的各种个人数据乃至公权力行使机关本身的大量数据均会在“智能技术平臺”流动,并为人工智能算法所学习和掌控,进而发展出应对方式。国家的主权安全也正是在此背景下面临着挑战。
  最后,资本凭借其在算法技术上的优势,有发动算法战争的可能。“由于缺乏相应技术积累,发展中国家并没有充分有效的方式保护自己的数据安全,也没有足够的能力应对算法所带来的干涉。人工智能技术的进步将进一步凸显其在政治安全领域的脆弱性特征。传统的国家政治安全将面临严峻的考验。”智能治理的核心是算法,资本的力量可运用人工智能算法的领先地位,开展封锁主权国家的算法战争,以完成资本对于该国国家主权控制的目的,特别是那些在算法研制、应用和规制等方面缺乏技术优势和安全意识淡漠的发展中国家受到的威胁更大。
  (三)全球治理体系受到资本权力冲击   人工智能深度学习算法的出现和应用,不仅会对国家的数据安全产生影响,诱发数据霸权等问题,进而危及民族国家的主权,而且也正在对全球治理秩序和治理格局产生重大的影響。自1648年威斯特伐利亚体系确定的主权国家原则以来,主权国家一直是国际公法上的行为主体。但在大数据时代的数据空间中,主权国家的面相同样由数据构成,相比大而全的数据构成的主权国家面相,资本依托人工智能算法的技术优势。在某一领域的数据权力将深刻影响该领域的治理规则和行为范式,由此影响全球治理体系的变革。
  具体来说,一方面,少数拥有算法技术和数据优势的超级企业可能会成为新的全球治理体系的主体,推动着长期以来一直以主权国家为主导的全球治理体系发生重大变革。另一方面,传统的全球治理秩序也面临解构的可能。资本对于国家的强势会在一定程度上影响到新的全球治理秩序的形成。人工智能算法背后的资本权力,可能会在政治体系中由内而外地增强影响力,通过更为高效的服务机制,对建立在工业化基础上的现代政治体系形成挑战,并主张更多的政治权力。毕竟,现代权力不再具有传统语境下的主体、客体等划分,不再强调必须是一个行动着的实体,而在于一种提供公共服务的能力,谁更能提供公共服务,满足人类的现代化生活需求,谁就享有真实的权力。
  四、人工智能算法规制的方法
  新生勃发的人工智能算法,其本身资本主导的因素是无法磨灭的,而其野蛮生长带来的种种问题已经日益浮现。在当今种种新技术、新产业高度依赖算法的背景下,迫切需要对其加强引导,将自我监管和行政监管相结合,构建人工智能算法规制的法治基础。
  (一)构建政府主导并掌握核心算法的大数据系统
  在现代化治理转型中,政府应树立服务型政府的观念,强化公共服务的提供能力。面对掌握数据优势的企业及人工智能算法背后的资本力量,要构建人工智能算法的监管、规制体系,首先应当利用行政机关掌握的海量数据,建立行政力量主导的大数据人工智能算法系统,强化公共服务的提供能力。
  传统上,政府治理习惯于全面铺开的事前监管,并通过“组织目标进行分工”的科层制作为权力实现的保障。但在人工智能算法时代,人工智能算法开源性的数据特征使得有效监管难以着手。因此,政府应当依托自身大数据平台的建设,破除政府内部的科层制造成的数据淤积、部门之间缺乏有效数据共享、区域之间数据互联不畅等问题,以实现数据互联互通,形成在大数据领域的主导地位,并依托于此确保对互联网巨头开发的人工智能算法的监管落到实处。最终避免由少数企业主导大数据而引发的权力失衡问题,以维护整体政治稳定。
  具体而言,政府应当利用人工智能算法的技术优势,以政务信息化的实现和政府大数据资源的壮大为根本前提,实现人工智能算法在政府治理层面的嵌入,以此为基础,梳理沉积数据,对其归纳、整理、分析,找出其中蕴含的数据价值,构建大数据平台用于服务型政府的建设,从而掌握数据权力,以应对资本控制下的人工智能算法权力的挑战。同时,还应当逐步与各类大数据平台对接,通过强化对其外部监管与内部技术监管,厘清公权力与私权利之间的模糊领域,以增强大数据领域的政府监管权威。
  (二)强化伦理约束组织的建设
  已有的“机器人三定律”“人工智能三原则”“人工智能开发六项伦理原则”“23条阿西洛马人工智能原则”,均为了保证人工智能算法的技术中立性,法学界已经多有讨论,我们在此不予赘述。但我们认为,算法本质上就不存在技术中立性,为实现算法保有伦理性原则,在加强行政监管的同时,还应当强化行业内的伦理约束组织的建设。
  因此,可以参照日本人工智能学会在内部常设“伦理委员会”的做法,负责监管业内各项研究不逾越伦理道德的红线。事实上,这样的伦理机构的设立,在国内反而更具强大的执行力。以某市互联网协会为例,该协会覆盖了与互联网相关的众多企事业单位、科研院校、新闻媒体和行政管理单位,其会员包括互联网运营商、内容提供商、设备制造商、集团客户及政府管理部门等,同时在业务上接受某市通信管理局和中国互联网协会的指导。
  因此,我们建议至少应当在省级互联网协会内部设立“伦理委员会”。首先在监管对象上,即覆盖了绝大多数大数据企业和算法开发者;其次,在指导机制上,同时接受中国互联网协会的垂直指导和省级通信管理局的科层指导,既能保证伦理原则监督的严肃性,又有较强的专业性和灵活性。再次,省级互联网协会作为省级区域内非营利性的专业社会团体,实际上也反映着从业者的利益诉求与现实需要,体现的是一种积极的基层自治。最后,与人工智能算法相关的其他业内协会,均可以作为“伦理委员会”的试点机构。
  国内在互联网企业、人工智能算法企业、相关行业协会等组织内部设立“伦理委员会”,将有利于提升人工智能算法领域从业者的社会责任感,强化作为人工智能算法控制者的私营部门的伦理操守,并在不断实践中探索各项伦理原则的边界与不足。
  (三)立法上压实人工智能算法开发者、控制者的主体责任
  算法难以追责的原因,主要在于算法黑箱的技术壁垒难以克服。有学者认为,通过增强算法透明度,公开源代码和输入数据、输出结果可以明确问责,但在实践中,往往难以适用。例如,在涉及某些决策时,往往将某些决定性因素、算法的输出结果甚至执行的人工智能算法本身进行保密。此外,人工智能算法本身就处在不断自我学习、升级的过程中,其自动化决策的步骤,往往会在算法机器学习后或经人类的操控,结合新的数据进行更新。就此而言,即便掌握了源代码和数据,也难以还原人工智能算法决策的流程。面对以上难题,我们可以借鉴欧盟的最新立法成果,压实人工智能算法开发者、控制者的主体责任。
  2018年5月25日,欧盟《通用数据保护条例》(以下简称GDPR)正式生效,GDPR第5条不再就算法的数据技术问题进行探讨,而直接将保护个人数据的举证责任归于数据的控制者,以达到规范人工智能算法控制者行为责任的效果。GDPR第35条提出数据保护影响评估义务,要求数据控制者具体承担数据处理风险的分析、评估和控制,监管机构仅对评估报告展开审查而不参与具体的评估过程。在这种模式下,数据保护影响评估既保留了自我规制的灵活性,同时又受到传统的“命令一控制”型规制中外部压力的影响。   结合我国当前的立法情况可见,由于我国尚未针对人工智能算法出台专项立法,也没有对数据權利和个人信息权利进行明确区分,现有涉及算法的法律条文分散在多部网络立法中,因此现有的涉及算法规制的法律条文主要以互联网企业为监管对象。这实际上是和GDPR所对应的“数据控制者”是高度重合的,并同样“通过界定平台企业对于平台生态内算法使用和运行的管理义务,以特定企业为抓手,同时赋予用户相应权利构筑多元主体的权利义务机制。”基于此,可以参考欧盟立法,以监管“数据”和“数据控制者”为切入点,达到算法监管的目的。具体而言,我们建议:
  1.在未来的人工智能算法法治规制架构中,增添算法开发者的特定义务,将透明度要求嵌入算法设计环节,同时引入零知识证明(zero-KnoMedge Proofs)概念,即在某些重大决策时,允许决策者在不透露重要因素的内容和政策的前提下,对决策的作出提供证明。通过零知识证明的方式,既可以保证某种程度的透明性,又可以有效杜绝决策泄密的问题。
  2.借鉴GDPR第35、42条的规定,“基于算法的预期用途、关键类型和可接受的错误类型等指标提出设计、测试以及指导算法开发应当符合安全边际的绩效标准”,要求数据控制者在使用人工智能算法进行数据采集、画像、推送时,积极履行“数据保护影响评估义务”,对可能涉及的数据风险向有关部门提交处理预案。同时,制定对人工智能算法可能侵犯个人权利(包括财产权利)、算法歧视等负面影响的处理预案。
  3.借鉴GDPR第40、42条的规定,建立第三方监管下的算法审查机制。人工智能算法的开发者在算法设计之初,可以向第三方监管机构或认证机构提交涉及算法源代码、运行参量、输入数据和输出结果的《承诺书》,如后期发现侵权行为的发生,则监管机构有权依据《承诺书》作出的内容进行验证,若实际运行的算法与《承诺书》不一致的,则有权处罚算法的开发者。第三方监管机构在必要时,还应当有权冻结数据控制者的行为权限。同样,在法律纠纷中,法院有权调取该《承诺书》作为认定责任的重要依据。
  综上,应当摒弃算法作为“技术产品”中立性法律地位的立场,做到关口前移,防患于未然,逐步建立对人工智能算法开发者、控制者和算法的双重审查机制。通过加强人工智能算法开发者、控制者与算法之间的联系,压实人工智能算法开发者、控制者的主体责任,强化其自我监管、自我规制。
  结语
  当前我国互联网已进入智媒化、移动化、社交化发展阶段,以大数据技术的应用为驱动,量化分析和数据挖掘技术不断提高,使得用户逐渐拆解、演变成为大数据不同类别的参数。人工智能算法依托大数据应用的发展而日益成为现代生活不可或缺的组织形式。并在各类新生的应用领域中不断获得发展,人工智能算法深度介入人类社会生活的历史时刻已经从想象成为现实。
  在这个历史性的转折时刻,首先应当积极构建对人工智能算法的规制体系,以立法的形式增强算法透明度和可追溯性,压实算法开发者和控制者的主体责任;同时应当建立第三方有权监管机构审查机制,保存算法的基础信息,同时对算法黑箱、算法歧视等问题进行技术界定,对算法侵权进行核验。最后,还应当在算法开发之初,为其自我学习赋予道德红线,在其“刺激一反应”模式中注入伦理性的选择结果,使得在人工智能算法自我学习的进展中,在涉及道德及政治性的选择时,算法程序自动地将选择权和决定权交还人类。
转载注明来源:https://www.xzbu.com/9/view-15144217.htm