拒绝“刻板印象”,算法的透明化何以成为可能?
信息智能推荐算法是人工智能技术在信息传播领域的应用,它极大地提高了信息的生产和传播效率,带来了传播方式和传播活动的深刻变革,同时也引发了监管部门和用户对这一新技术运用中出现的算法黑箱和信息茧房风险等多方面的关切和疑虑。
算法黑箱,难道是潘多拉的盒子?我们如何实现算法的透明化?
学界进行了持续研究分析,互联网信息平台不断探索问题的解决和风险的防控,推动智能推荐技术的优化创新,以期把握算法的特点、价值和规律,促进人工智能时代信息传播的健康发展、安全发展。
防范算法黑箱的潜在风险,促进透明化
算法黑箱有哪些潜在风险?
基于神经网络的深度学习,将抓取的数据分为数以千万计的变量来自动加权计算,并输出结果,对于其中极其复杂的计算过程,人们依据现有的科学知识和原理难以理解。因此,一些信息智能推荐算法也可能产生算法黑箱问题,这是信息传播领域的新现象。由深度学习自动生成的算法,不但对广大普通用户来说其中的很多细节难以理解,就是对专业的技术人员也难以分析和解释。
由于智能算法的不透明性,加之其实时动态的变化,可能使其在产生问题时难以及时被发现和监督,而算法来自于社会上大数据的训练,机器很容易习得既有的偏见,甚至滋生对输出结果的恶意利用,将负面的效应放大。特别是类型化、标签化是算法设计中的一个重要思想,在“人以群分”中就很容易固化社会偏见,如基于性别、种族、年龄对职业发展能力、犯罪概率做出预测,经由算法对社会“刻板印象”的清晰化和固化,就很容易对群体中的个体作出误判和伤害。
例如,一些社交网络为了减少对用户体验的干扰,在一定阶段内对信息流广告的数量有所控制,在一定时期内只选取比较高端的广告品牌,并基于智能算法的分析只对高端用户定推,这一做法还一度在网上成为网民的讨论热点,能看到推送广告的以自己“高端”而自得,没看到广告的自嘲自己是“低端用户”,还有自认为是高端用户的人抱怨为什么没有看到广告推送。
这虽然只是网民的自我调侃,但也反映了推荐算法的分类思想可能带来的一些偏差。相比之下,基于算法的差别化定价就是一种价格歧视,这不限于实物商品,在信息付费、知识付费的时代,推荐算法对内容产品的歧视性定价也可能发生。
算法透明化何以可能?
人们拥有着对“可解释性”的追求,欧盟《一般数据保护条例》就规定消费者有对自动化决策的“解释权”,在某些条件下有权利不接受完全由人工智能自动化系统做出的重大决定。难点是如何在现实场景中科学有效地实现。
算法透明化作为一种可选方式被寄予希望,从当前国内外的实践看,算法原理的透明化比程序代码的透明化更切实可行。智能生成的算法代码复杂难懂并动态变化,一般认为,公布后无助于消除社会的担忧,副作用却很明显,如涉及企业的核心商业机密、损害企业知识产权,代码可能被别有用心的人利用,开展危害社会和企业安全的活动。
而算法原理透明化不纠缠于代码这一过程性的中间环节,体现了目标管理和结果导向的思想。虽然黑箱问题在信息传播领域是新现象,但在其他领域古已有之。我国传统的中医诊治和中医药就是典型的黑箱现象,古时候的大夫并不了解人体器官的内部细节,也不了解中草药的化学成分和分子结构,但仍可通过自身的“望闻问切”和不同药材的搭配,达到治病救人的目的。
防范算法黑箱的潜在风险,促进算法的透明化,需要目标设定的公平正义和公开透明,算法原理科学以实现正确的目标,在有人工训练的情况下,在社会价值指引下正确选取指标和行为特征,避免产生系统性偏见和歧视。对算法的输出结果要形成信息平台、用户、新闻媒体、专业机构、政府等内外部的监测体系,及时发现偏差并对算法进行优化改进,防止算法输出落入“自证正确”的错误循环。同时,对算法黑箱问题也可用人工智能辅助分析等方式来探索,在这方面国外已有一些研究和尝试,我们可以借鉴。
原文:《算法促进人工智能时代的信息传播》
作者 字节跳动公共政策研究院 袁祥 王一
分享让更多人看到
推荐阅读
相关新闻
- 评论
- 关注