您好, 访客   登录/注册

在算法“黑箱”中保障用户知情权

来源:用户上传      作者:

  摘 要:在信息超载时代,算法主导下的自动化决策对用户的信息接收发挥着“过滤气泡”效应,这会损害用户的知情权。本文将结合算法分发的逻辑探寻互联网时代的信息纠偏方法。在增加算法透明度,加强人工审查的基础上,创新性地提出算法解释权,通过事先防范和事后追责全方位应对算法“黑箱”,保障用户的知情权,努力维护公平正义。
   关键词:算法;过滤气泡;知情权
  中图分类号:G211    文献标识码:A     文章编号:1672-8122(2019)07-0028-02
  随着互联网的广泛普及,由于其拥有几乎无限的存储空间和快速生产内容的能力把人类带入了信息超载时代。每个人每天都会面对大量的信息,如果仅靠自己根本无法处理分析进而筛选出有效的内容。为应对信息超载,以大数据驱动的智能算法推荐系统逐渐应用到社会生活的各个领域[1]。面对海量信息,智能算法会根据用户的在线行为计算分析出个人的兴趣爱好和行为趋向,从而帮助用户做出自动化决策。
   李普曼曾说,在大众传播时代,受众接触到的环境并非真实环境,而是大众传播媒介通过对信息的选择、加工和报道,重新加以结构化以后向人们所提示的环境,即“拟态环境”[2]。在互联网时代,这一现象非但没有消失反而有了新的表现并进一步深化。内容提供商会根据用户的在线行为、爱好偏向等向用户推荐个性化的内容,每个人接收到的信息都是个性化的网络过滤器为用户提供的,久而久之,用户就被包裹在自己和算法共同构建的“信息茧房”中,看不到自己不感兴趣或算法以为你不感兴趣的信息。这将会导致信息的失衡和偏见,如何应对这一状况成为重要议题。
   为此,笔者提出以下两个问题:1.仅依靠智能算法分发信息,用户会面临什么问题? 2.在这种情况下如何保障用户的权利?
  一、算法推送对用户的信息接收发挥“过滤气泡”效应
  “过滤气泡”一词最早由公民行动网站MoveOn.org的前执行董事Eli Pariser提出,他认为“过滤气泡”就是人们在互联网所处的个人化的信息世界,这是由一系列个性化的过滤器为网络用户构造出来的独特环境[3]。他认为个性化搜索、新闻推送以及其他以用户为导向的内容限制了我们接触新知识和新观点的范围和途径,我们无法接触到完整的信息。以Facebook为例,在2018年“泄露门”事件后,Facebook用户反映,美国总统大选期间,支持共和党的民众在Facebook上无法接收到关于民主党的内容。英国脱欧公投期间,支持脱欧的民众无法看到对英国留在欧盟有利的言论。民众在Facebook上看到的信息都由自己的在线历史行为决定,Facebook的算法将会据此对民众进行精准的信息投放,在这个过程中,算法会自动过滤用户不感兴趣的内容,呈现的都是用户喜欢的信息,在其中发挥着自动过滤作用。
   但令人忧虑的是,算法的自动化推荐往往不能发挥信息的核实审查作用反而会助长虚假和极端观点、低俗内容的传播[3]。由于信息的爆炸式增长,用户身边每天都充斥着各种各样的信息,那些带有激烈情绪的极端观点、低俗信息、色情暴力内容由于容易牵动情绪、博人眼球而更易引起转发。在算法逻辑的自动分发下,这样的信息自然更容易被推荐给用户。以今日头条为例,今日头条及其旗下APP中充斥着大量的低俗内容,如未成年人早恋、未婚先孕等,而这些即使是成人世界都感到难以启齿的话题,在网络世界却借助算法大肆传播,今日头条也因此多次被国家网信部约谈整改。
   智能算法对信息的自动筛选和自动推荐带来了用户接收信息的“窄化效应”,而这一自动决策完全处于算法“黑箱”中,服务商并不会公布背后的算法原理,即使公布了,普通用户也很难理解算法的运作和逻辑,因此损害了用户的知情权。
  二、通过增加算法透明度和人工纠偏保障用户权利
  2018年1月11日,今日头条首次对外公布了自己的核心算法,让算法更透明,并希望能推动行业算法推荐的有序发展。今日头条对外公布部分核心算法属于行业首例,一定程度上促进了互联网行业提高算法的透明度,保障了用户权利。
   算法透明度是指机构公开算法可以做什么及其这样做的原因,帮助用户理解技术操作背后的价值观、偏见和意识形态,从而使得“过滤气泡”的产生过程透明化,进而让用户自己决定“气泡”生成的程度和对自己的影响[3]。提高算法的透明性对各方都有益处,对用户,算法透明性可以增进信任,让其知道算法系统可以做什么及其这样做的原因,也可以增加用户对算法推送的信心;对相关监管机构,算法透明性则确保了算法系统可以接受审查,如果发生事故便于究因和追责。此外,算法透明性也有利于规范行业秩序,通过行业内部的互相监督和有序竞争促进行业健康发展[4]。
   除此之外,加强对算法的人工纠正也很重要。2018 年 4 月 11 日,今日头条CEO 张一鸣发表公开信,宣布将强化总编辑责任制,全面纠正算法和机器审核的缺陷,不断强化人工运营和审核。今日头条一直强调算法推荐“并非把一切都交给机器”,会通过人工审核过滤劣质低俗信息,在一定程度上能减少这些信息的广泛传播。同样,Facebook除了依靠其强大的智能推荐系统分发信息之外,还建立起了人肉反馈机制,与算法一起构成完善的反馈及平衡机制的系统,提高推荐的精准性。
   三、通过算法解释权保障用户知情权
   增加算法透明度是国内外应对算法“黑箱”侵害公民权利时的共识,但也可以看出这种方法只能作为事先监管的手段,而无法对已经受到自动化决策损害的人提供救济。对此,欧洲最先做出了重要举措,2018 年实施的《欧洲通用数据保护条例》(GDPR)第 22 条规定:“应该采取适当的保障措施,……保证数据主体获得对此类评估之后达成的决定的解释,并对决定提出质疑。”这表明欧洲在保障公民算法解释权上的探索。
   算法解释权是指当自动化决策的具体决定对相对人有法律上或者经济上的显著影响时,相对人向算法使用人提出异议,要求提供对具体决策的解释,并要求更新数据或更正错误的权利[5]。其目的是让相对人有权知道对其不利的决定是如何做出的,以便在确有算法歧视和数据错误时提供救济。
   算法解释权是矫正信息不对称性的重要手段。在智能化时代,数据鸿沟成为人和人之间不平等的根源之一,数据鸿沟导致了人和人之间的知识、信息获取和掌握的不平等。自动化决策虽广泛应用于信息分发,但知晓算法知识者寥寥,这种信息不对称堪称“黑箱”。与网络服务商相比,用户处于一直不平等的地位,因此需要为用户提供算法解释权,对自动化决策中的信息不对称进行有效纠偏,使得信息从信息优势方向信息劣势方流动,从而达到双方平衡。
   四、结 语
   算法的治理是人工智能时代的重大法律问题,需要同时设置事前的风险防范机制和事后的问责制进行监管。现在的研究多为事前风险防范机制,即通过提高算法透明度,健全法律监管,提高用户媒介素养等对算法进行有效监管,而对于算法的事后监管问责方面的研究则较少。以算法解释权为代表的算法问责制更能为受到侵害的主体提供帮助和救济,也能有效分配权利和义务。 对一个个具体受到自动化不利决策的个体来说,算法解释权可以彰显个案中的公平和正义[5]。
  参考文献:
  [1] 刘存地,徐炜.能否让算法定义社会——传媒社会学视角下的新闻算法推荐系统[J].学术论坛,2018(4).
  [2] (美)沃尔特·李普曼著.阎克文,江红译.公众舆论[M].上海:上海人民出版社,2006.
  [3] 许幼飞.如何戳破“过滤气泡”算法推送新闻中的认知窄化及其规避[J].新闻与写作,2018(9).
  [4] 王春晖.人工智能的伦理、法律与监管闻[J].互联网天地,2018.
  [5] 张凌寒.商业自动化决策的算法解释权研究[J].法律科学(西北政法大学学报),2018(3).
  [责任编輯:艾涓]
转载注明来源:https://www.xzbu.com/7/view-14947403.htm