光明日報:如何在"算法過濾"的世界裡生活
從數字化到智能化,生活世界正在悄無聲息地發生著根本性的變化。一個層層過濾、慢慢引導、逐漸上癮、擺脫不掉的“阿得拉社會”(阿得拉是一種會讓人上癮的“聰明藥”)正在全方位滲透我們的日常生活。
在這個由信息組成的技術形態中,一方面,我們享受著社交媒體、搜索引擎、內容推薦等智能應用帶來的無限連接、快速查詢、精准定制,而另一方面,在技術打造的“算法流水線”上,你看什麼、聽什麼、怎麼工作、和誰交往、去哪兒消費、聊什麼話題等,都逐漸交由算法決策。我們成為平台的數字勞工,困在自己的算法裡,被隔離在信息的過濾泡中。
毋庸置疑,智能化的過濾模式有著強大的吸引力。它是一種非常成功的經濟模式,用戶體驗相當愉悅,在一定程度上解決了環境、信息、人三者之間的匹配問題,避免個體因面對海量信息陷入“注意力崩潰”,它催生了一系列預測引擎,讓歷史回到當下,讓未來扑面而來。
在這樣的智能過濾機制中,也潛藏著一系列的問題:封閉性——用戶被孤立和隔絕,個性化的過濾泡裡隻有你一個人﹔隱蔽性——你置身於過濾泡內部,卻幾乎看不到它是如何運作的﹔強制性——算法的決策權在過濾程序手裡,你無法選擇,也無處可躲。
其實,在過去的20多年裡,有關“信息繭房”、“回音室效應”、群體極化、確認偏誤等的論述,或多或少都指向“信息過濾”的問題。然而,在智能時代,當這個問題以過濾泡的形式非常直觀地呈現出來的時候,一個更為深層次的憂慮在於,當這樣的信息過濾機制成為常態,我們該如何生活其中?
無論是支持還是反對,不管是不是真的存在過濾泡,更多的關懷需要投射於此。我們無法從這個過濾的世界裡脫嵌,但可以在這個“將文化生活作為信息處理任務之一”的時代努力不要過早地讓“所有的生命都成為機器”。
首先,要分清“技術趨勢”與“技術事實”。技術發展是一個多種矛盾相互激發的過程,存在著一個大的趨勢,同時還蘊藏著多樣的可能。技術趨勢是貫穿各種環境與文化差異的力量,不可避免,可被預見﹔而技術事實則需要同實踐相結合,可被修改,可以優化,潛藏著不同的可能路徑。在未來,過濾器將滲透進我們生活的各個層面,這是一個技術趨勢,但是我們依然可以要求掌握過濾技術的實踐主體考慮公共利益、關注人類生存狀態、給出更加優化的過濾方案。
其次,在自動化時代要保有“健康的懷疑精神”。在智能時代,基於算法和大數據的“自動化”可能會導致我們喪失“生命知識”。這裡的知識,既是一種技能,也是一種體驗。我們沉浸在被“編排”好的知識體系和感官體驗中,也在失去批判思考的能力。而這一點非常重要,因為一種“健康的懷疑的精神”是時代和社會進步的動力。
再次,要敢於反視結構,能夠反思自身。信息理論家維納有句名言:自然世界由“無數可能與信息有關的人”組成。這句話闡明了兩層關系:在一個信息和控制主導的世界裡,人是由與信息相關與否的關系來定義的﹔而這樣的關系形態,最終被建構成了“自然世界”,取得了合法且堅固的優勢地位。
如果我們沒有勇氣去直視這樣的“阿得拉社會”,我們即便意識到這個建構出來的世界存在著各種歧視、偏見和結構性的問題,但我們依舊不敢面對﹔而這樣的狀態又會反作用於我們自身,讓我們躲在這樣一個“庸常的合理”中得過且過。而想要戳破過濾泡的第一步,就在於敢於凝視這樣的社會機制,能夠反思自身的存在方式。
最后,要及時更新知識結構,關注個人應有權利。算法是一組數學程序,也是一套技術系統。作為一種文化形式,它存在著技術門檻和社會邊界,但同時又是一種集體生產:它使用技術語言為現實世界打造了一個“數字孿生”,是一個多行動者共同組成的“網絡”。
在過濾泡的運行過程中,不僅是科技公司、程序員,每一個參與其中的個體都對算法進行了集體建設。雖然目前閱讀和開箱算法都存在一定的技術難度,但算法時代的每個個體,都可以從現在開始,及時更新我們的知識結構,關注法律對於個人信息的保護措施,保持對這種“在20世紀發揮了核心作用”的技術形式的了解、監督和評估,這也是成為數字公民的應有之義。
(作者:方師師,系上海社會科學院新聞研究所助理研究員)
分享讓更多人看到
- 評論
- 關注