浅析 Facebook 算法机制背后美国新闻价值观的变迁
来源:用户上传
作者:
摘要:媒介融合的时代人工智能、物联网等技术推陈出新,与媒体的迭代衍生出新的媒体形态与媒介环境。新闻推送智能算法是新媒体时代广泛应用于各类社交媒体的产物。本文以 Facebook动态新闻算法的浅析为例,探讨当前社交媒体动态新闻推送的算法机制背后所承载的当代社会新闻价值观,以及对社会造成的潜在影响。
关键词:社交媒体;新闻价值观;协同过滤机制
社交媒体的平台化已成为新媒体业界显著趋势。各类社交网站成为当今用户主要新闻信息来源,正潜移默化地重构着媒介生态。以 Facebook为代表的各类社交网站作为新闻媒体消息推送的“窗口”日益成为人们获取信息、了解新闻的主要渠道。根据美国皮尤调查研究中心发布的《2016美国媒体发展报告》数据显示,逾六成的美国成年人从社交媒体上获取新闻,其中通过Facebook获取新闻的就占美国成年人口数的44%。Facebook无疑是美国乃至世界上最大的新闻消息源。
数字化媒介融合的背景下,社交网站与传统新闻媒体之间的关系日益密切,甚至出现了相互交叉渗透的趋势。新闻网站和社交平台根据用户的历史操作痕迹,精密计算出用户偏好并推送感兴趣内容的算法操作,实现了用户体验的人性化与智能化。但由此也引发了一种思考:这种基于人为关系或个人偏好的新闻算法机制,是否能够真正符合用户的偏好或满足用户的求知需求?而这类通过程序化算法進行新闻信息推送甚至是新闻编辑的社交网站是否正向“社交新闻媒体”的性质过渡?假若 Facebook这类的社交网站真的成为新型“新闻媒体”,传统的新闻价值观对于它们而言是否适用?长期以来,新闻算法机制的支持者总是自诩“技术中立”,试图与传统新闻的编辑价值观划清界限。2016年美国大选期间,靠算法推送新闻资讯的 Facebook 曾被诟病大面积传播假新闻,甚至被认定其影响了大选结果。虽然扎克伯格(Facebook 公司创立者)一度坚持 Facebook 只是技术公司,但如今假新闻的泛滥似乎令这些社交网站左右为难,新闻事实是否需要审查?人工还是算法审查?因此,本文以 Facebook动态新闻算法的解析为切入点,试图探讨当前社交媒体动态新闻推送的算法机制对社会产生的潜在影响。
一、Facebook 的算法机制
什么是算法?简而言之,算法就是通过分类、关联、排序、过滤等步骤来解决一项既定任务的自主模式。虽然算法操作起来似乎只是一种计算机程式,但实际上多种主观因素都会内嵌其中,例如价值标准的选择、数据提取的依据以及结果分析量表的制定等。因此,针对算法机制的研究必须将算法视为含有主观因素的研究对象,并将其中主观意图以及创造者或团体纳入考察范围内。这也是本文选择研究对象要素分析的考量标准。
自2004年 Facebook 诞生伊始,研发团队就遵循着“用户满足至上”为核心的设计框架,包括上传照片、标记好友、动态消息(News Feed)等。动态消息不是指传统意义上的新闻消息,而是指用户看到的最近更新的照片、视频和信息流等。动态消息作为Facebook 新闻业务的核心,算法变迁经历了以下几个主要阶段 :
(一)阶段一:边际排序算法
边际排序算法(EdgeRank)是Facebook 提出的动态消息推送排序的新算法,用于区别传统默认的时间逆序(Timeline)排序方式。每一个用户页面内容之间的互动都可以被视作有一条“边”(edge),而每一个“边”都由3个要素构成,算法核心是每个事件对这个用户而言的权重 E,其计算公式是 E= U*W*D, 其中U代表亲密度(Affinity),指用户之间的互动情况,互动越频繁,权重越高;W代表生产成本(Edge Weight),即边权重,主要受事件互动类型的影响,例如点赞、评论、收藏等;D代表新鲜程度(Time Decay):指“边”更新存在时间,往往经历时间越长,权重就越低。三个构成要素叠加在一起,就产生了边际排序。边际排序算法用于描述某信息对某观察者(用户)的重要性,考虑了信息生产者和观察者的亲密度,信息类型以及新鲜程度。
(二)阶段二:协同过滤机制
在进一步升级程序精准性的同时,研发团队又一次对动态消息算法做出调整,表明“流量黄金时代”可能很快就会成为过去。他们提出要把“用户真正关心的内容挖掘出来”,为此他们设置了一套协同过滤机制(Luckerson,2015)。事实上,这套机制依然是一种带有人为主观因素的算法。“我们希望让你了解这项变化,它可能对发布商获得的推荐流量产生影响。”Facebook产品经理麦克斯·尤仑斯坦在自己的博客中写道,“在某些情况下,帖子的落地率和推荐流量都有可能下滑(Chowdhry,2015)。”
之后,Facebook对其动态新闻算法进行了调整。首先,用户可连续看到同一个来源发布的不止一篇信息。“收紧”了对自动排除相同信息来源情况的算法程序,以增强用户对特定信息流的关注。其次,用户可以优先看到好友发布的动态信息内容。用户好友的照片、视频、状态更新或链接等社区内容可以在动态消息界面中获得更高的权重,以降低用户错过这些信息的概率。最后,是隐藏用户的好友点赞或评论。某种意义上说这样会大幅降低内容发布商的二次传播落地率。
Facebook算法升级的背后实质上是一种更加突出用户对象之间的关系以及互动程度的机制深化。第一项算法调整其实对发布商有利,因为尽管用户可以重复性地“浏览”到某一并未关注的信息发布商生产的多条信息,但从根本上讲,算法更新使得用户环境场域愈发集中于以用户为核心发散的好友关系网络。相应地,用户对陌生的内容发布商的帖子关注度就会降低。更新后的新闻算法甚至降低了发布商生产信息的落地率,限制了大部分的“二次传播”信息,但事实上这种算法机制可以提高特定内容的权重,提高内容信息的用户关注度。用户在动态信息流中看到的内容取决于很多因素,包括用户所关注的主页、与之互动的内容以及相关好友。所以,即使一个用户不在Facebook上关注新闻媒体,但那些媒体生产的新闻内容会通过关注好友的信息分享出现在该用户的动态信息流中,从而得到更大的权重。 (三)阶段三:“3F原则”与动态消息新闻价值观
根据2016年英国媒体《卫报》曝光的一份文档显示,Facebook的热门新闻推送基本依靠公司内部的编辑团队进行内容的筛选与整理,并非采用既定的算法。此次“新闻偏见门”事件成为美国舆论界热议话题,也引发了业界关于新闻价值观内涵的讨论。受“新闻偏见门”冲击,Facebook再度更新了动态新闻的算法机制,提出了动态新闻价值观——“3F 原则”(Friends and Family First),即社交经验和朋友关系优先(Mosseri,2016)。
相比以往由传统媒体把关的媒介环境,此次Facebook算法更新实际上是二次建构了用户(受众)的信息接触环境。因此,这种机制的核心建立在受众参与的基础上,而算法只是工具性地将这一机制赋予执行。纽约大学新闻学院教授杰伊·罗森认为Facebook算法更新是新闻价值观的一个“新开端”,用户的社交属性价值超过公共世界利益价值,成为网络平台技术发展考虑的首要因素(Rosen, 2016)。但这也意味着用户将会更深地沉浸在自我构建的“信息世界”里。网络天然地把兴趣趋向相同或类似的人聚拢在一起,共享着相似的感知态度和意识价值。从而每个用户接触的都是自己喜欢的事物、赞同的观点。“用的越多,越是你想要的,”,越封闭的圈子越容易接受算法智能推送带来的偏激。从此,Facebook不再讳言自身的新闻价值取向——平台上信息的“真实性”可以由特定情境下平台媒体与用户关系互建决定。也就是说新闻信息的客观性如今可以由外部化标准决定,传统新闻价值观已悄然发生了改变。
二、算法背后的新聞价值观
Facebook最近一次的算法更新,使其在以往协同过滤机制基础上,进一步强调了用户体验及其社交关系对于新闻推送内容以及排序的主导性选择权。社交媒体的信息生产方式实现了“选择即生产”模式的设想。那么问题是,作为一个对于用户新闻接触具有实质意义的社交平台,Facebook 应当扮演何种社会角色,其异于传统的信息生产方式隐含着怎样的社会新闻价值观呢?
美国学者劳伦斯莱斯格在互联网发展早期就提出“代码即法律”(Code is Law)的著名论断。他认为,尽管代码可以摆脱信息编辑的主观管制,但代码本身是不固定的,而且极易被商业、政治等非技术形态操纵和改变。人们在网络空间的行为仍然是受控制的,只不过这种控制是媒体通过更改代码实现。按照莱斯格的理论,尽管 Facebook 宣称“不干涉信息分发的排序”,但事实上在内容标签、下发机制等诸多环境中,算法的设计与迭代都不可避免地掺杂了设计者的主观性。首先,推荐算法本身就需要预设某种价值观。比如,“看过什么最多,就说明最喜欢什么”和“大家都在看,所以他可能也会感兴趣”,就是两种主观预设。
更深层次的,是所谓“个性化推荐”背后对人性的预设和影响。在传统媒体时代,信息虽然是由专业的媒体机构或编辑进行把关过滤,但受众个体依然可以在多元化的“被构建的媒介环境”里各取所需。但是在动态新闻算法下,无论信息如何多元自由,都需要经过同一套算法的过滤。表面上,这种算法消除了把关人对信息的主观筛选,尊重个体对信息的自主选择,事实上却在“代替”用户个体完成信息选择与处理的过程。算法一方面提高了信息的分发效率,另一方面却是在剥夺个体获取信息的主动性。
康奈尔大学传播学系教授塔尔顿·吉莱斯认为平台媒体(社交平台)比他们自愿承认的更像传统媒体(Gillerpie,2010)。社交媒体始终在寻找可持续的商业化经营模式,有胆量点燃争议话题的讨论。当他们发展到足够强大时,不仅可以增加用户粘性,对于内容呈现的选择、组织化结构、议程设置框架、技术架构等甚至可以影响公共话题的轮廓。这种依靠算法进行新闻推送排序的方式,实质上仍是极少数人对多数人阅读习惯的猜测和强化训练,而这极少数人就是算法背后的开发者。算法频繁迭代,呈现的则是这一小部分人价值观的自主输入,且往往包含着其他的隐藏的政治或商业诉求。
或许对于Facebook来说,强化技术标准与能力以及以用户社交关系为基础的信息体系都是无法割舍的。前者能够突出强调自身的中立原则,保证价值不涉及任何利益关系;后者则能弱化信息推送平台自身的偏向引导关系。而事实上,这一横一纵的两大理念同样重要,Facebook公司可以将信息来源的可信度移交给上一层过滤单位(即传统媒体),而只需在信息过剩的环境里提供给用户真正需要的信息触点。
参考文献:
[1]方师师.算法机制背后的新闻价值观——围绕“Facebook偏见门”事件的研究[J].新闻记者,2016(09).
[2]Amit, C. Facebook Changes News Feed Algorithm To Prioritize Content From Friends Over Pages. https://www.forbes.com/sites/amitchowdhry/2015/04/23/facebook-changes-news-feed-algorithm-to-prioritize-content-from-friends-over-pages/#75969753127a. April 23, 2015.
[3]Adam, M. Building a Better News Feed for You. http://newsroom.fb.com/news/2016/06/building-a-better-news-feed-for-you/. June 29, 2016.
[4]David, K. The Facebook Effect [M]. Simon & Schuster. 2010.
[5]Devito, M.A. From Edition to Algorithms: a values-based approach to understanding story selection in the Facebook news feed. Digital journalism, 2016: 1-21.
[6]Gillerpie, T. (2010). The Politics of“Platforms” [J]. Social Science Electronic Publishing, 2009, 12(3):347- 364.
[7]Jay,R. Facebook backs off on the View from Nowhere. http://pressthink.org/2016/06/facebook-backs-off-a-bit-from-the-view-from-nowhere/.June 29, 2016.
[8]Victor,L. Here’s How Facebook’s News Feed Actually Works. http://time.com/3950525/facebook-news-feed- algorithm/. July 9, 2015.
转载注明来源:https://www.xzbu.com/1/view-14842126.htm