人民網
人民網>>傳媒>>人民日報新聞研究網>>媒界縱橫>>新媒觀察

【話媒觀瀾】算法“塑造世界”客觀嗎?

李康樂
2018年05月07日10:27 | 來源:人民日報中央廚房
小字號
原標題:【話媒觀瀾】算法“塑造世界”客觀嗎?

4月初,快手和清華大學宣布成立未來媒體數據聯合研究院,快手CEO表示,如果沒有很好的對社會的認知、對人文的思考,僅靠技術本身會很容易走偏,要用哲學的智慧將算法、技術力量放大,從而避免表達幸福感的種種障礙。確實,算法在我們的生活中扮演著越來越重要的角色,關於算法倫理的討論也日益引起關注:算法作為信息和用戶之間的“黑色通道”不可見,它是客觀的嗎?會限制思維嗎?

凱文•斯拉文在TED演講中說,算法“提煉自這個世界,來源於這個世界”,而現在則“開始塑造這個世界”。在算法“塑造世界”的時代,值得我們思考的是:該如何突破功利主義瓶頸,賦予科技以正向的價值?

算法沒有價值觀嗎?

算法最大的優勢是能夠根據用戶的“數字自我”而實現智能化、精准化推薦。從某種意義上說,算法是人們在信息的汪洋大海中快速找到自己所需的“捷徑”。人們信任算法,是基於其“客觀性”。谷歌公司堅信“我們的用戶信任我們的客觀性”。谷歌的人—機算法模式,試圖強調“技術理性”,即“沒有人為因素干預的客觀性”。但是純粹的客觀性真的存在嗎?

算法的背后是人,算法作為人類智慧的產物,無疑是需要承載一定價值的。算法的來源涉及諸多因素,人類的需求、利益和社會環境、現有技術等都會對算法產生影響,算法設計者的認知能力、知識水平、設計意圖、價值觀念同樣也會影響算法。“代碼即法律”(code is law),美國學者勞倫斯•萊斯格認為,“盡管代碼可以實現去管制化,但代碼本身不是固定的,而是可以被商業、政治等非技術力量操控和改變的,人們在網絡上的行為認知是受到管制的,隻不過這種管制是通過更改代碼而實現的”。

每個公司的算法不盡相同,而這背后體現的都是他們的目的和價值觀。我們認為自己擁有很大的權利去選擇信息,但實際上所有的選項都是算法給出的既定選項,算法在某種程度上決定了我們可以看見什麼、我們以為什麼是真實。在佔領華爾街運動高漲的時期,Facebook並沒有在顯著位置予以推薦,那些將Facebook作為主要信息來源的人很可能因此認為這件事情並沒有那麼重要。社會學家威廉•托馬斯與多蘿西•托馬斯說過:“如果人們把某種情境定義為真實的,這種情境就會造成真實的影響。”

雖然聚合類新聞資訊客戶端本身並不從事內容生產,依靠的是渠道優勢換取媒體和自媒體內容供應,但是,所有的推送內容其實都會承載一定的價值觀。社會科學研究中所謂的“價值無涉”,並不是沒有價值,而是指對不同價值內容予以同樣的尊重,以及給予不符合你的價值觀的信息以修正你價值觀的權利。因此,認為算法沒有價值觀的觀點本身就值得商榷。

算法限制我們的思維嗎?

算法在某種意義上是極簡文化的產物。人們渴望確定性的標准答案,來簡化信息時代因信息洪流而帶來的焦慮和迷茫。亞歷山大•加洛韋在《界面效應》一書中表示,算法文化有向簡單主義發展的趨勢,這是“無法根據眼前的情況考慮全局的問題,以及無法像解讀歷史那樣解讀現在所導致的必然后果”。

算法是一種選擇,選擇就意味著舍棄。信息的個性化推薦本質上並不是用戶在主動選擇信息,而是信息的主動呈現。用戶所接觸到的信息要麼是奪人眼球的10萬+,要麼局限在他們感興趣的狹小領域,要麼就是與他們觀點和意見相一致的“溺愛式”信息。人們沉浸在算法制造的信息繭房裡,失去了對不同領域、不同觀點的接觸機會,精神世界也會因此變得狹窄。在算法的世界裡,人只是一個個數據點的集合,而不會被當作一個個體來被理解和對待。人性的幽微、需求的多樣、情感的復雜,遠非代碼可以呈現。

算法預測、影響並進而控制用戶行為。算法對人思維的限制也可以從自動補全算法窺見。自動補全算法最初設計的目的是為了幫助殘疾人提升打字的速度,但是后來谷歌將它納入服務功能,在用戶完成搜索內容輸入之前猜測他們想要搜索的內容,以節省時間。然而自動補全算法卻給谷歌帶來了官司。

2012年,德國前總統克裡斯蒂安•武爾夫的妻子貝蒂娜•武爾夫指控谷歌的自動補全算法對她進行誹謗和中傷。輸入她的名字,自動補全會出現指向妓女及陪侍行業的搜索項。法院判決,谷歌必須保証自動補全算法生成的搜索項不含有任何攻擊性或中傷性的內容。武爾夫打贏了官司。谷歌宣稱對這個判決結果極為“失望”,認為判決結果是對谷歌客觀性的公開質疑。公司發言人說:“谷歌不應當對自動補全算法生成的搜索項負責,因為這些預測不是谷歌自我完成的,而是計算機算法基於之前的搜索記錄自動完成的。”實際上,對於那些本來並不了解武爾夫的用戶,在看到搜索信息提示以后,確實很可能會被引導到某個方向。算法不僅可以預測用戶的行為,還會對用戶的行為產生影響並實現控制。

算法技術使用戶很多信息行為並非以需求為導向。算法將特定的選項放在用戶面前,導致用戶隻能在所提供的選項中做出選擇。人們在信息獲取過程中的主動性被極大削弱。在很大程度上,用戶被算法所提供的信息“喂養”,這些信息並不都是用戶真正的需求。有時候,信息“偶遇”也成了預謀已久的信息“碰瓷”。

算法時代的 “自救”

對算法的質疑從算法誕生起就一直存在,這種質疑其實也反映了人類的科學理性。在對算法的設計提出繼續完善的同時,我們當然要學會“自救”,也就是面對算法要做到自我保護。

對算法可能存在限制有所覺察。對於用戶而言,算法最大的問題在於不透明。算法的復雜性即便是技術人員也未必能搞清,更不用說普通的“技術小白”。雖然我們看到的只是算法給出的結果,而對其中的設計理念、運行邏輯都一無所知,但是,我們應該知道算法其實並不是完全客觀的存在,它有可能被歪曲並存有偏見。我們要始終對算法可能存在限制有所覺察,知曉那些不符合我們價值觀的內容很可能已經被屏蔽在視野之外。

保持提問的良好習慣,而不要指望答案唾手可得。在所有問題都可以輕鬆解決的世界裡,人們需要一種更加激進的思維模式。提問時,試著去了解算法正在發揮哪些作用,它們最初設計的目的是什麼,以及所謂的“相關性”和“新聞價值”究竟是對誰而言。現在已經有人開始從事算法數據干擾的研究,以便在算法試圖了解他們、並將他們分類時採取干擾或規避措施。有人平時買報紙,用傳統網頁方式瀏覽新聞,盡量不依靠智能搜索,為的就是用自己的邏輯對抗算法可能帶來的信息窄化,不被算法限制。

揭開算法“黑箱”,更要能夠駕馭它。縱觀歷史的發展,每每有新技術降臨,人們最終都很難不參與其中。我們當然不能放棄算法,盡管目前來看算法應用還會帶來很多問題。我們需要做的,不僅是要去了解算法以及它可能帶給我們的影響和改變,更是能夠駕馭它,用智慧趨利避害,讓算法更加科學理性。(人民日報中央廚房•煮酒話媒工作室 李康樂)

(責編:薛貴峰、榮翌)

分享讓更多人看到

傳媒推薦
  • @媒體人,新聞報道別任性
  • 網站運營者 這些"紅線"不能踩!
  • 一圖縱覽中國網絡視聽行業
返回頂部