逃离“信息茧房”与“技术黑箱”
——风险社会视域下的算法技术与媒介伦理
摘要
近年来,算法新闻快速占领新闻市场,以算法技术为核心的平台成为了公众获取资讯的重要渠道,对传统媒体的权力和功能构成了消解与重构,其本身蕴含的“信息茧房”与“技术黑箱”风险也逐渐凸显。本文以乌尔里希·贝克的风险社会理论为视角,分析算法新闻对传统媒体行业的重构,探讨风险社会中算法技术的“自反性”以及技术本身蕴含的媒介伦理风险和可能带来的后果,以此进一步探讨算法新闻管控和规避风险的可能途径。
关键词:风险;风险社会;算法新闻;新闻伦理
第一章:失落的扎克伯格与失败的“技术中立”
——脸书深陷“数据泄露门”中的问题争议
(一)从脸书陷入“数据泄露门”说起
“连接世界上的每一个人”一直被社交网站巨头“脸书”(Facebook)视为自身的核心使命与目标,企业创始人马克·扎克伯格更是在2017年的开发者大会中勾勒了在未来十年“建立社区”的宏伟蓝图。在他的愿景之下,社区中的每个人都拥有自由分享一切的能力与权力,观点更加自由,思想更加多元。
然而,2018年3月,《纽约时报》一篇名为《特朗普的竞选顾问团如何窃取利用脸书用户的数据》的文章让扎克伯格陷入了公众信任的泥淖。文章指出,一家名为剑桥分析(Cambridge Analytica)的数据公司利用脸书的开放平台,通过一款性格分析测试应用获取了大量脸书用户的个人信息,导致超过5000万用户的数据遭到泄露。更可怕的是,剑桥分析通过追踪用户数据进行画像,利用算法精准地投放立场偏向极强的政治广告,从而影响选民投票意向,操纵了美国2016年总统竞选和英国“脱欧”等重大政治事件。
此后,脸书陷入了巨大的信息泄露风暴。不管失落的扎克伯格是否愿意接受,他也必须承认他所创造的“脸书世界”带来了信息泄露、强化社会分歧等问题,一定程度上沦为了操纵数据与观点的工具。
(二)“技术中立”的错误
脸书对于自身的定义一直是一个中立、开放的平台,各类资讯都可以在此平台上自由流通。近几年,尽管脸书不断被外界指控缺乏数据保护、纵容虚假新闻、传播不实言论,扎克伯格依然坚持认为脸书是“技术公司”而非“媒体公司”。在他看来,脸书是将“开发工具”而非“制作内容”作为核心任务的科技公司,运用一套精确的算法程序,本着客观中立、不带偏见的原则分发内容,对平台的内容本身不负责任。
然而,“数据泄露门”证实了“技术中立”的原则具有逻辑上的本质错误。美国的历史学家梅尔文·克兰兹伯格(Melvin Kranzberg,1986)曾提出著名的“克兰兹伯格六定律”(Kranzberg’s Laws),也称为“科技六定律”,其中的第一条便是“科技既无好坏,亦非中立”。对于脸书来说,它在设计新闻和广告推送的一整套精密算法的过程中便已经糅合进了人为的因素,算法本质上依然是人的主观意志。算法技术无分好坏,它可以成为贩卖个人隐私、侵蚀公权的“技术黑箱”;算法技术也不中立,它的复杂公式与代码可以将人类送入充满偏见的“信息茧房”。
(三)风险社会中下的公共责任
德国著名社会学家乌尔里希·贝克(1986)在著作《风险社会——新的现代性之路》中首次提出了“风险社会”(Risk Society)的概念,认为当代社会已经超越了工业社会,进入了风险社会阶段。他将风险定义为“以系统的方式应对现代化自身引发的危险和不安”,认为现代风险主要源于人为的决策,可以分为“技术化”风险和“制度化”风险。中国学者杨雪冬(2006)在论述风险社会理论时总结道:后现代性的核心制度——政府、工业和科学是风险的主要制造者。
在贝克的论述中,风险与责任是紧密相连的概念。他在1988年出版的《风险时代的生态政治》中提出了“有组织的不负责任”的概念,指出当代社会被严重而普遍的风险难题困扰,却没有任何机构或组织能够为任何风险问题负有特定的责任(刘路,2017)。 扎克伯格坚持称脸书并非媒体机构,至少“并非传统意义上的媒体公司”,实际上便是在寻求美国1996年《通信规范法》的庇护(法律规定网络平台不需要对用户发布的内容负责),是对自身责任的规避。
算法技术作为人工智能的重要部分,正遭到越来越多人的警惕。虽然算法中立的支持者企图将脸书、谷歌新闻、今日头条等平台与传统媒体划清界限,拒绝如传统新闻编辑室一样做新闻价值观的判断者和真理的仲裁者,但现实却是,这些技术公司确实已经逐步成为了具有媒体属性的企业,在平台中集聚了能量巨大的信息。面对逐渐失效的技术中立,失落的“扎克伯格们”恐怕必须思考他们所必须面对的公共责任。
第二章:算法技术对媒体的“再定义”
——算法对新闻编辑权力的消解与媒体传统功能的重构
(一)算法新闻的起源与发展
算法新闻开启的标志是2002年“谷歌新闻”(Google News)的启动。谷歌的计算机工程师将来自各个新闻机构的新闻重新组合为一个具有权重分级的故事列表,在没有人类编辑的情况下通过各种话题来排列新闻和制作头版新闻,使得头条成为了算法的输出结果,而非编辑的判断。通过一套精确的算法,人们对新闻的搜索、点击和浏览将直接决定网站对每个用户的新闻分发与推荐,从而能为每个用户推荐私人订制的、符合个人口味的内容。
谷歌的算法技术很快吸引了其他技术公司的关注,脸书、推特等网站纷纷开始效仿。2012年,脸书与推特更是在新闻业务方面展开了激烈的博弈,脸书加入了新闻的内容,向媒体记者介绍如何利用脸书吸引读者。与此同时,传统媒体也开始“试水”。《纽约时报》数字部门开发了一款名为Blossomblot的数据分析机器人,通过对社交平台上推送文章的分析,预测适宜在社交平台上传播的信息,帮助社交媒体网站打造“爆款”。由这一机器人预测具有社交效应的文章的点击量是未经预测文章的38倍。在中国,以算法技术为核心的“今日头条”、“一点资讯”在2012年创立,并迅速占领了新闻市场,成为了重要的资讯平台。
(二)算法新闻的比较优势
在这一时期,算法技术的阴暗面与新闻伦理困境尚未显现,人们对于算法新闻所带来的风险处于一种“无知”的状态。算法技术为科技公司带来的流量和经济利润,风投公司对以算法技术为核心的创业公司的乐观估值,使得这一技术迅速在媒体行业开疆拓土,攻城略地。
不可否认,与人工推荐相比,算法新闻确实在某些方面存在比较优势。首先,在信息膨胀、注意力成为稀缺资源的信息社会中,算法技术通过一系列精准的公式计算,为用户提供符合个人兴趣的内容,“用户关心的才是头条”,满足了用户的个性化阅读需求;其次,算法推荐更富有效率,不再需要编辑耗费时间进行阅读、筛选和排序,节约了人工资源,避免了人工筛选的“众口难调”困境,同时也提升了用户的信息阅读效率;最后也是最为算法新闻支持者标榜的是,算法对新闻生产的介入用“技术中立”的姿态昭示着新闻客观性的“回归”与“在场”(张超,2018),正如今日头条创始人张一鸣所说:“今日头条没有价值观”,在新闻分发与推荐中完全避免了编辑个人主观意志的作用。
(三)重新定义媒体:权力消解与功能重构
因此,从以上的发展历程和比较优势上看,算法新闻对于传统媒体行业的“再定义”主要集中在两个彼此相关的方面:对新闻编辑权力的消解与对媒体传统功能的重构。
1.新闻编辑权力的消解
传统的媒体生产过程包括了发现选题、联系采访、记者采写、编辑审核、对外发行等过程与步骤。其中,编辑在整个新闻生产过程中享有“终审权”,其对新闻的价值判断直接决定了读者的阅读内容。“编辑终审权”曾经被媒体行业视为不可触碰的底线,也是不同媒体单位价值观的核心体现。然而在算法新闻时代,算法将新闻分发的权力从编辑手中转移到了机器手中,新闻的生产方和渠道方彻底割裂,整个过程不再有编辑的统一价值观指导(陈昌凤,霍婕,2018)。而本质上,算法是根据用户的需求和品位推送新闻,因而对编辑权力的消解事实上也是将权力下移到每一位具体读者的过程。
最为典型的案例便是脸书在2016年8月解散了其“趋势话题”(trending topics)的编辑团队。此前,脸书的一名离职员工发表文章,称脸书的“趋势新闻”板块的编辑团队在获取算法浮现的结果后,会“擅自”决定该部分话题的优先级和分级列表,在这个过程中压制美国右翼保守派的媒体及报道,体现了脸书平台强烈的自由派立场和对保守派的偏见,与脸书标榜的中立平台定位产生巨大矛盾。在“偏见门”的争议下,扎克伯格决定解散编辑团队,由以往的人工编辑转变为完全由机器算法执行人们话题的编辑、推荐和排名。在这一过程中,算法技术本身就构成一种权力的行使和对于传统权力模式的代替——对编辑终审权的消解。
2. 媒体传统功能的重构
马克斯韦尔·麦库姆斯在《议程设置——大众媒介与舆论》一书中系统地提出并介绍了议程设置理论。议程设置理论认为媒体的报道活动与公众对社会公共事务的认识与判断具有高度相关性。媒体所给予的报道资源越多,公众对该议题的重视程度也就越深。传播媒介通过设置报道议程影响人们对周围事务重要性的判断,影响着人们“思考什么”。
媒体通过议程设置引导公众对公共事务进行思考与讨论,在过去很长的一段时间中一直充当着塑造社会共识与认同感、维持社会稳定的角色。议程设置、共识塑造是媒体的传统功能。然而,通过个性化的内容定制,算法新闻强化了每个个体的差异与分歧。从塑造共识到强化观点差异,是以算法技术为核心的媒体平台对媒体传统功能的一次重构。
与谷歌的搜索排序算法不同,脸书采用的算法逻辑是对象之间的关系亲疏与互动程度。2016年,脸书改进了“News Feed”的算法,并第一次发布 了对于自身算法的理念说明(News Feed Values),即“3F原则”(Friends and Family First),明确了社交优先的理念。事实上,3F原则使得“我们”的公共概念无限缩小,而“我”的个体概念无限放大,个性成为了算法中权重最高的变量。每个人专注于自身圈子的不同,使得媒体不再作为“社会认同”的塑造者,极大弱化了媒体传统意义上的引导公共讨论、构建集体认同的功能,而这也为美国社会指控脸书“制造社会分裂”埋下了伏笔。
第三章:技术的风险:算法技术面临的新闻伦理困境
——偏见、新闻专业主义、隐私与技术赋权
美国学者H.W.刘易斯认为“技术的风险是真实的,风险的确存在,有时潜伏等待着,眼前的威胁很小,但有可能在将来造成真正的问题。”(H.W.刘易斯,1997,p253)风光无限的算法新闻本身在彰显个性、提升效率的、革新新闻分发传统模式的同时,也存在着技术的“阴暗面”,并在近两年体现得更为明显。算法新闻所带来的风险可以被归纳为两个方面:一方面是使得公共意见市场逐渐成为一个极化的、充满偏见与歧视的“信息茧房”;另一方面是由于算法本身的无意识性和复杂性,使得信息的选择呈现与使用都被置于一个不透明的技术黑箱当中,带来对新闻专业主义的践踏、对个体隐私的滥用和对公共权力的侵蚀。这些也是算法新闻在风险社会面临的主要伦理问题。
(一)偏见与歧视的强化
美国知名教授桑斯坦曾经描述了“个人日报”的现象,并提出人们根据自己的喜好定制阅读内容会导致“网络茧房”的形成,将自己的生活限制在像桑茧一般的“茧房”中,也即著名的“信息茧房”效应。在这个作用下,人们沉浸在自我的话语场中,失去了了解和接触不同事物的机会与能力(喻国明,2017)。信息茧房的危害是明显的,它一方面使得个人对于公共事务漠不关心,另一方面也使得个人的偏见与歧视不断得到强化和巩固。
算法新闻推送用户感兴趣的内容,屏蔽用户不熟悉和不喜欢的信息,极大地削弱了个人的思考和理解能力。用户的信息接触面变得狭窄,价值观面临单一化和片面化的危险。歧视、偏见、仇恨的消解与破除往往依赖于获取全面的信息,而算法新闻只会让一个人不断重复听到“自我的回应”,这些相同的声音无助于民主的巩固,甚至会成为破坏民主社会的力量。扎克伯格在出席听证会时承诺会“修理”脸书,清除平台上宣扬“分裂”、“愤怒”、“仇恨”的内容,然而,以算法技术为核心的媒体平台到底多大程度造成了社会的分裂和分歧,却是我们无法测量和预测的,也进一步加剧了人们对算法技术风险性的恐惧。
(二)新闻专业主义的式微
在传统媒体中,新闻专业主义要求新闻工作者恪守公正客观的报道原则,捍卫新闻真实性,客观性与真实性是新闻专业主义最为重要的要求。传统媒体本质上作为一种公共服务机构,需要对自身的内容全权负责,并承担起提供真实的、有价值的新闻内容,引导公共讨论的责任。然而在算法新闻时代,工具代替人去决定新闻的真实性与价值。当下的许多社交媒体以“点击量”作为新闻价值的终极考量,造成了假新闻与谣言泛滥、低俗内容大量传播。真正有价值的新闻却被隐藏在算法的黑箱中,这是对新闻专业主义精神的挑战与践踏。
一方面,低俗化、假新闻泛滥是算法新闻带来的风险,因为大多数时候,捏造的或者低俗的内容往往以“刺激的”标题、“哗众取宠的”内容、“夸张露骨的”描写骗取了公众的关注与点击量,并因为巨大的流量而获得进一步的传播。
另一方面,算法新闻无法逼近事实背后的复杂真相,也无法提供针对现实的深度解释(张志安,刘杰,2017),使得媒体失去了价值与态度。例如,在全面取消编辑团队以后,脸书审查了一位美联社战地记者在越南战争期间拍摄的普利策新闻奖照片《战火中的女孩》(Napalm Girl),照片中的全身赤裸的女孩正在躲避汽油弹的袭击。脸书的算法将这张照片视为色情照片,直接删除。算法看似客观精确,实际上却无法对内容进行价值判断,实则是粗糙而愚蠢的。更重要的是,如维保记者萨姆·莱文(Sam Levin)所说:“脸书对于新闻的控制如此之大,以至于它可以通过审查的方式严重地威胁到新闻自由”(马特·卡尔森,张建中译,2018)。
(三)个人隐私落入技术黑箱
算法新闻需要根据用户的阅读爱好与历史来分发推荐内容,这便意味着资讯类平台将获取并储存大量的个人隐私信息。用户的每一次点击、每一条评论、每个页面停留的时间、手机机型等数据都会被系统收集起来,根据数据构建多维的数据矩阵,以此描画出精准的用户形象(李翠翠,任蒙蒙,2017)。用户想要使用资讯类平台的服务,便意味着必须让渡个人隐私,承担个人信息被泄露、窃取和非法使用的风险。
算法是个复杂而不透明的技术黑箱,我们无从得知个人数据在这个黑箱里如何被获取和使用。脸书主要依靠贩卖广告(run ads)盈利,而贩卖广告的实质是向第三方贩卖用户的信息与隐私。在算法黑箱中,个人信息是仅仅用于兜售广告,还是被用于其他的用途?这却是每个黑箱以外的人们所无法得知的。
(四)技术赋权产生的信任危机
在风险社会视域下,社会公众对专家系统产生了信任危机,同时认为专家知识与制度、权力具有共生的结构关系。学者李怀涛与陈治国(2011)认为,因为风险的界定权掌握在少数专家手中,社会风险运行的逻辑和机制变成:科技制造—制度庇护和专家蒙蔽—风险扩大。
算法新闻当前也面临着严重的信任危机,人们对算法技术本身、对算法设计者、平台运营者、数据采集和使用者都持怀疑的态度。因为算法自身是无意识的,所以它无法进行价值判断,也便无法保证技术本身是否会被不正当使用,更不能避免技术黑箱背后的利益操纵。庞大的数据本身便蕴含着巨大的权力,如英国学者斯科·拉什(Scott Lash)所说,在一个媒体和代码无处不在的社会,权力越来越存在于算法之中(王茜,2017)。
脸书2018年的“数据泄露门”也是算法技术的主要风险从个人层面向公共层面扩散的标志。过去,人们常常认为信息泄露更大程度上是对个人的隐私安全构成威胁,但是剑桥分析的存在使人们震惊地发现,信息的能量远远比人们想象中的要大,甚至能够操纵一个国家的政治选举。这也体现了风险社会时代,技术风险的不可控与不可预测性。人们开始思考:当社会对技术进行“赋权赋能”以后,如何保证技术不被滥用,避免公共权力受到侵蚀?
第四章:逃离“信息茧房”与“技术黑箱”
——算法新闻风险管控与规避的可能途径
在风险社会的视域下,随着世界逐渐连成一体,风险呈现出“全球化”的特点,原本孤立的某地的风险极有可能大范围地向全球扩散。它不仅跨越民族和国家的边界,也模糊了生产和再生产的界线。全球化的趋势引发了全球性的危害,并加剧了风险的痛苦。在脸书的数据泄露门中,英国的一家数据分析公司却被指控操纵和影响了包括美国2016年总统大选、英国脱欧、肯尼亚等国家的政治选举,展现了技术风险跨越国界和政治边界的巨大力量。
如何逃离和规避进入算法技术设置的“信息茧房”与“技术黑箱”,是值得算法开发者、平台运营者以及每一个阅读者思考的问题。笔者认为,不妨从价值理性回归、算法技术优化和技术法规完善这几个方面寻求可能的突破途径。
价值理性的回归意味着填补算法伦理的空白和培养公众的媒介素养。算法设计者多为工程师出身,缺乏哲学、人文、伦理等方面的教育,对于技术工具鲜有反思能力,这导致了算法设计往往忽视了技术层面以外的“参量”。因此,加强对算法设计者的算法伦理教育,提升其对技术风险的反思性(干承武,2010),是中和工具理性崇拜的有效途径。而对于用户来说,则需要增强自身的媒介素养,提升对新闻的辨别能力(任莎莎,田娇,2018),在发现虚假和低俗内容时能够及时举报,不偏听不偏信,维护新闻生态的良性秩序。
算法技术的优化则强调的是增加公共化信息的权重和增强算法透明以实现技术监督这两个方面。当前的算法新闻过分强调“我的日报”,漠视“我们”的公共概念,极少引导公众关注公共事务。因此,算法技术在未来还需要以公共化信息来平衡个性化的信息,更好地实现公共化信息的推荐,打破偏见的“茧房”。另外,在风险社会中存在着技术、专家、权力的共谋关系,为了消除公众的顾虑,资讯平台还应致力于算法透明(algorithmic transparency),通过开源算法或者专有算法等方式使人们了解算法的设计意图、目标、运行逻辑、适用条件及可能存在的问题(张超,2018)。
最后,算法新闻作为一项新兴事物,其早期的“野蛮发展”缺乏相关法律法规的有效指导和规范。因此,要及时进行技术伦理的制度和法律转向(杨伟宏,2009),制定并根据算法新闻的发展情况随时完善算法伦理的法律或者行业规则,将技术可能造成的风险用制度化的力量加以约束,促进技术的良性发展。
去年,人民日报曾经撰文提醒新闻不可被算法、流量和点击量“绑架”,后又再次发文称不能让算法决定内容。然而也正如文章所说,我们“不可成为算法和技术的奴隶”,也无法“对算法和技术视而不见”(吕洪,2017)。克兰兹伯格30年前的定律便告诉我们,技术无分好坏,也从不中立,决定技术将人类带向何方的方向盘,归根结底还是握在人类的手上。因此,对于风险社会中的算法技术,我们不妨抱着谨慎乐观的态度,化解算法所陷的新闻伦理困境,打破禁锢人类的信息茧房与技术黑箱。
分享让更多人看到
推荐阅读
相关新闻
- 评论
- 关注