人民网
人民网>>传媒

社交媒体信任缺失之痛 全面解剖网络时代的假新闻

2017年09月13日07:14 | 来源:光明日报
小字号
原标题:社交媒体信任缺失之痛

近日,美国密苏里大学新闻学院唐纳德·雷诺兹新闻研究所发布了《2017新闻信任度调查报告》,在对8728名用户进行的问卷调查中显示,尽管大众对于互联网的使用时间增加了,通过社交媒体获取信息的频率提高了,但对其可信度一直存疑。

今年6月底,由牛津大学路透新闻研究所发布的《数字新闻报告2017》中,通过对欧洲、美洲和亚太地区36个国家地区的7万名受众的分析显示,仅有24%和40%的受访者认为,社交媒体(24%)和新闻媒体(40%)可以很好地将事实和虚构进行有效区分、剥离。在美国、加拿大和英国,人们信任新闻媒体的比例是信任社交媒体的两倍。

从“文化技术”的角度来看,社交媒体不仅是人的延伸,更是“设定”了人,决定了人的存在情境。今天,社交媒体正越来越实质性地成为人们接触新闻的渠道,想象世界的方式和建构价值观的来源,这不禁使我们思考,我们将要面对怎样一个由社交媒体参与构建的未来。“后真相”时代,社交媒体上假新闻规模化、病毒式传播成为全球关注的话题。从字面上看,假新闻似乎仅仅指的是内容方面的“不真”,但多方机构的研究发现,什么是假新闻,假新闻是如何被生产出来的,又是如何传播的,并非如此简单。

1、假新闻:欺骗与经济动机

一般而言,假新闻是指“在互联网上传播的虚假不实、具有误导性或严重政治偏向的信息”。最近,美国亚利桑那大学詹姆斯·罗杰斯法学院发布了《识别和打击假新闻》的研究报告,报告通过“是否意图欺骗读者”和“是否具有经济动机”两个标准确认了四种典型的假新闻形态,分别是恶作剧、宣传性内容、挑衅和嘲讽。其中“嘲讽”带有经济动机但并非为了欺骗,“宣传性内容”和“挑衅”具有一定的政治动机并意图欺骗,但没什么经济动机,而“恶作剧”既有经济动机同时又为了欺骗读者。

2、扩散链:人与机器人合作

与流行的直觉相反,信息无论真假,如果是通过类似瀑布式的长信息阶梯传播,并不能带来“病毒式”效应。而借助社交媒体平台和计算机程序,大量带有经济利益、政治动机以及欺骗性质的虚假内容则能以“扩散链”的形式传播,并构成一个扩散系统和宣传网络。美国伊隆大学教授乔纳森·奥尔布赖特从去年就开始深入分析美国大选中假新闻的传播机制。他一直在追溯信息的传播轨迹与节点,统计、分析信息的交互聚合中枢,并对数据进行图形可视化处理。研究发现,高度扩散的美国右翼新闻宣传网络非常依赖社交媒体,约有60%的假新闻流量都来自脸书和推特的超链接。通过大数据驱动、算法模型并结合人工智能的训练,这些假新闻的传播与扩散可以精准锁定个体目标,以更高的效率与精准度分发内容。这样的“微宣传机器网络”具有强大的传播影响力、舆论组织力和社会动员力,能够把控人群对事物的认知、意见和观点,引导、煽动和组织社会情绪,并就一些重要且复杂的议题通过分享和体验制造出社会共识。而另外一项关于推特上1400万条有关美国总统竞选和选举的信息的研究显示,机器人账户在假新闻的传播过程中扮演着关键的角色,它们日夜不停、效率极高、目标精准,并且在假信息传播的早期,效果最为明显。

3、组织化:被操纵的内容生产

那么这些假新闻是如何被生产出来的呢?牛津大学网络研究院通过对各国网络宣传活动的研究发现,经由社交媒体发布虚假或误导性的信息、煽动和塑造舆论已经逐渐成为不少国家的通用做法。从2010年最早对“有组织的社交媒体操纵”进行报告开始,到2017年,已经有包括英国、美国、法国等在内的28个国家的情况有迹可循。样本中多数国家都曾组织过针对外国公众的社交媒体宣传战,而针对本国选民的宣传基本上都是由政党支持的。许多国家调用大量的人力、物力和财力来管理和操纵在线舆论,这些宣传活动利用脸书、推特以及多种图片、视频分享App、平台等,依靠人工用户和机器人账户创作、发布并进行交互,自动化程序显著强化了宣传活动的力量。

一般来说,宣传团队有一个总体性的沟通策略,包含创建官方应用、网站或内容传播平台,通过或真或假或自动的账户与社交媒体上的用户进行交互,创作出具有实质性内容的图像、视频或博客的帖子等。不同的运营团队也有不同的策略,但为了实现同样的目的。比如,一些团队在网上与公众互动时,会使用明显带有倾向性的语言。而有些团队则会骚扰或威胁表达反对意见的用户。此外,还有团队负责发表中立性的意见,旨在分散或转移对正在讨论问题的关注。而随着时间的推移,这种有组织的社交媒体操纵已经从军事单位逐渐发展至涵盖与利益集团签订合同进行社交媒体宣传的战略传播公司,经费来源则从政府开支到军费支出都有涉及。

从个别国家到全球普及,从零散的个体到组织机构化,从秘密进行到公开推广,从作为军事项目到进行商业合作,有组织的网络宣传在招数和技巧上不断“创新”。对于信息内容来说,不仅文字、图像可以增删修改,数项最新公布的视频和音频处理工具显示,基于人工智能和计算机图形学等方法,还可以创作出逼真的公众人物画面。如果再加入合成声音,“数字木偶”可以精准地模仿政治和公众人物,其效果还颇具说服力。难怪《卫报》在谈及假消息的未来时,虽消极但又不无道理地说:长期以来,我们都被告知不要轻易相信我们看到的和读到的一切,但很快,我们在未来就必须质疑一切了。

4、特效药:技术与政策的干预

从一定程度上说,社交媒体虽然并不完全是假新闻之源,但却处于假新闻的争议核心。其基于用户画像和算法推荐的新闻分发系统,将新闻等同于内容营销,单纯只考虑覆盖率、匹配度、分发速度、用户停留时间和性价比等要素,这使得新闻更为重要的公共利益属性被忽略。虽然社交媒体并不能完全解决假新闻的问题,但对于假消息的识别和干预,社交媒体和平台具有很大优势,一个小小的变化都有可能影响到整个假新闻的传播生态。

目前这些举措大致可以分为技术干预和政策干预两大方面,其中技术干预主要包括:改进新闻业务推送算法,以减少误导性、强迫用户点击的新闻出现;启用第三方事实核查机构对内容做标记,提醒用户内容具有争议性;增加用户反馈流程,优化举报机制,并采用多个指标来判断内容的真实性与传播特征之间的关系;加强对于集中化程度高的假新闻来源的识别和标记,从根源上屏蔽假新闻;以及借助人工智能打击假新闻。

另一方面,对于传播内容的政策变化也会影响到假新闻的传播。比如从2016年年底开始,脸书和谷歌就双双宣布禁止假新闻网站使用自家的广告平台,这对于假新闻的传播来说是一个很大的打击,因为很多假新闻网站就是靠从脸书和谷歌自身的广告系统来赚取广告费的。前段时间,脸书又宣布,非出版商的脸书页面将无法涵盖链接预览中的默认信息,包括标题、概述和图像。有评论指出:这种变化让脸书得以拆除一部分允许大量分发假消息的基础平台设施,而不必单独对每条内容作判断。

5、病根儿:信任的缺失与操纵

未来,围绕互联网上用户的内容消费与接入可能,各方势力依旧会在这一领域努力圈地,但是技术、政治与商业依旧是三大核心影响力量。新型技术手段,如人工智能、机器人、大数据、虚拟现实、媒体形式操纵等将会深入参与到信息的创建中来,而包括可穿戴设备、沉浸式体验、语音激活的数字助理等新型信息传递形态也将成为日常;宣传内容借由信息不透明的掩护机制,可以制造出虚假的、有误导性及带有偏向性的信息,与此同时,通过审查或拦截平台与渠道的来源,可以实现阻止与监控在线访问的方式,精准控制信息的接收;商业与内容营销则会通过赞助研究、广告分成、付费推广以及点击量奖励等方式制造互联网上的内容“过滤泡”,促使设备和平台的进一步私有化。

三驾马车,势不可当。对于假新闻,虽然各国、多个机构组织、学术界、出版界、社交媒体等都在进行研究和行动,但目前仍然难以形成根本性的解决方案。不过,依然有一些新的治理思路值得关注。今年5月,由哈佛大学肯尼迪政治学院新闻政治中心发布的《打击假新闻:研究与行动的议程方针》报告中,就提出了三种将来可以针对假新闻采取的行动方针:第一,尝试将不同派别的意见共同纳入到对于假新闻的审议框架之中;第二,倡导学者与记者合作,研发打击假新闻的方法和工具;第三,建立社交媒体研究共享基础设施,将平台的数据与技术能力整合进来。

而另外一项关于识别和打击假新闻的报告则提出了“以平台和作者”为中心的四项监管方案,包括:第一,通过法律监管,扩大对互联网平台的法律保护,使它们可以在策划内容方面,不会有面临诉讼的风险;第二,通过市场监管,为不依赖广告的在线平台创造新的融资模式,不鼓励推广和分发流行但是虚假的内容;第三,通过代码监管,设计技术修复程序,帮助用户标记假新闻,并允许平台将真实的新闻来源列入白名单,将假冒新闻来源列入黑名单;第四,通过社会规范监管,对于不准确的信息,平台需要免责声明并予以警告。

有评论指出,当前我们的问题不是假新闻,而是世界范围内的信任缺失与组织化操纵。在打击假新闻和净化传播生态的同时,我们需要反思,一方面是如何能使传播环境更加公平、透明和具有包容性,另一方面是我们自己如何重建对自己和对他人的信任。

(作者:方师师 单位:上海社会科学院新闻研究所)

(责编:宋心蕊、赵光霞)

分享让更多人看到

传媒推荐
  • @媒体人,新闻报道别任性
  • 网站运营者 这些"红线"不能踩!
  • 一图纵览中国网络视听行业
返回顶部