在算法“黑箱”中保障用戶知情權
摘 要:在信息超載時代,算法主導下的自動化決策對用戶的信息接收發揮著“過濾氣泡”效應,這會損害用戶的知情權。本文將結合算法分發的邏輯探尋互聯網時代的信息糾偏方法。在增加算法透明度,加強人工審查的基礎上,創新性地提出算法解釋權,通過事先防范和事后追責全方位應對算法“黑箱”,保障用戶的知情權,努力維護公平正義。
關鍵詞:算法﹔過濾氣泡﹔知情權
中圖分類號: G20 文獻標識碼:A 文章編號:1672-8122(2019)07-0000-02
隨著互聯網的廣泛普及,互聯網由於擁有幾乎無限的存儲空間和快速生產內容的能力把人類帶入了信息超載時代。每個人每天都會面對大量的信息,如果僅靠自己根本無法處理分析進而篩選出有效的內容。為應對信息超載,以大數據驅動的智能算法推薦系統逐漸應用到社會生活的各個領域[1]。面對海量信息,智能算法會根據用戶的在線行為計算分析出個人的興趣愛好和行為趨向,從而幫助用戶做出自動化決策。
李普曼曾說,在大眾傳播時代,受眾接觸到的環境並非真實環境,而是大眾傳播媒介通過對信息的選擇、加工和報道,重新加以結構化以后向人們所提示的環境,即“擬態環境”[2]。在互聯網時代,這一現象非但沒有消失反而有了新的表現並進一步深化。內容提供商會根據用戶的在線行為,愛好偏向等向用戶推薦個性化的內容,每個人接收到的信息都是個性化的網絡過濾器為用戶提供的,久而久之,用戶就被包裹在自己和算法共同構建的“信息繭房”中,看不到自己不感興趣或算法以為你不感興趣的信息。這將會導致信息的失衡和偏見,如何應對這一狀況成為重要議題。
為此,筆者提出以下兩個問題:1.僅依靠智能算法分發信息,用戶會面臨什麼問題? 2.在這種情況下如何保障用戶的權利?
一、算法推送對用戶的信息接收發揮“過濾氣泡”效應
“過濾氣泡”一詞最早由公民行動網站MoveOn.org的前執行董事Eli Pariser提出,他認為“過濾氣泡”就是人們在互聯網所處的個人化的信息世界,這是由一系列個性化的過濾器為網絡用戶構造出來的獨特環境[3]。他認為個性化搜索、新聞推送以及其他以用戶為導向的內容限制了我們接觸新知識和新觀點的范圍和途徑,我們無法接觸到完整的信息。以Facebook為例,在2018年“泄露門”事件后,Facebook用戶反映,美國總統大選期間,支持共和黨的民眾在Facebook上無法接收到關於民主黨的內容。英國脫歐公投期間,支持脫歐的民眾無法看到英國留在歐盟有利的言論。民眾在Facebook上看到的信息都由自己的在線歷史行為決定,Facebook的算法將會據此對民眾進行精准的信息投放,在這個過程中,算法會自動過濾用戶不感興趣的內容,呈現的都是用戶喜歡的信息,發揮了自動過濾作用。
但令人憂慮的是,算法的自動化推薦往往不能發揮信息的核實審查作用反而會助長虛假和極端觀點和低俗內容的傳播[3]。由於信息的爆炸式增長,用戶身邊每天都充斥著各種各樣的信息,那些帶有激烈情緒的極端觀點、低俗信息、色情暴力內容由於容易牽動情緒、博人眼球而更易引起轉發。在算法邏輯的自動分發下,這樣的信息自然更容易被推薦給用戶。以今日頭條為例,今日頭條及其旗下APP中充斥著大量低俗內容,如未成年人早戀、未婚先孕等,而這些即使是成人世界都感到難以啟齒的話題,在網絡世界卻借助算法大肆傳播,今日頭條也因此多次被國家網信部約談整改。
智能算法對信息的自動篩選自動推薦帶來了用戶接收信息的“窄化效應”,而這一自動決策完全處於“黑箱”中,服務商並不會公布背后的算法原理,即使公布了普通用戶也很難理解算法的運作和邏輯,因此損害了用戶的知情權。
二、通過增加算法透明度和人工糾偏保障用戶權利
為了應對公眾的質疑和政府的批評整改,2018年1月11日,今日頭條首次對外公布自己的核心算法,讓算法更透明,並希望能推動行業算法推薦的有序發展。今日頭條對外公布部分核心算法屬於行業首例,一定程度能促進互聯網行業提高算法的透明度,保障用戶權利。
算法透明度是指機構公開算法可以做什麼及其這樣做的原因,幫助用戶理解技術操作背后的價值觀、偏見和意識形態,從而使得“過濾氣泡”的產生過程透明化,進而讓用戶自己決定“氣泡”生成的程度和對自己的影響[3]。提高算法的透明性對各方都有益處,對用戶,算法透明性可以增進信任,讓其知道算法系統可以做什麼及其這樣做的原因,也可以增加用戶對算法推送的信心﹔對相關監管機構,算法透明性則確保算法系統可以接受審查,如果發生事故便於究因和追責。此外,算法透明性也有利於規范行業秩序,通過行業內部的互相監督和有序競爭促進行業健康發展[4]。
除此之外,加強對算法的人工糾正也很重要。2018 年 4 月 11 日,今日頭條CEO 張一鳴發表公開信,宣布將強化總編輯責任制,全面糾正算法和機器審核的缺陷,不斷強化人工運營和審核。今日頭條一直強調算法推薦“並非把一切都交給機器”,會通過人工審核過濾劣質低俗信息,這一定程度上能減少這些信息的廣泛傳播。同樣,Facebook除了依靠其強大的智能推薦系統分發信息之外,還建立起了人肉反饋機制,與算法一起構成完善的反饋及平衡機制的系統,提高推薦的精准性。
三、通過算法解釋權保障用戶知情權
增加算法透明度是國內外應對算法“黑箱”侵害公民權利時的共識,但也可以看出這種方法隻能作為事先監管的手段,而無法對已經受到自動化決策損害的人提供救濟。對此,歐洲最先做出了重要舉措,2018 年實施的《歐洲通用數據保護條例》(GDPR)第 22 條規定:“應該採取適當的保障措施,……保証數據主體獲得對此類評估之后達成的決定的解釋,並對決定提出質疑。”表明歐洲在保障公民算法解釋權上的探索。
算法解釋權是指當自動化決策的具體決定對相對人有法律上或者經濟上的顯著影響時,相對人向算法使用人提出異議,要求提供對具體決策解釋,並要求更新數據或更正錯誤的權利[5]。其目的是讓相對人有權知道對其不利的決定是如何做出的,以便在確有算法歧視和數據錯誤時提供救濟。
算法解釋權是矯正信息不對稱性的重要手段。在智能化時代,數據鴻溝成為造成人和人之間不平等的根源之一,數據鴻溝導致了人和人之間知識、信息獲取和掌握的不平等。自動化決策雖廣泛應用於信息分發,但知曉算法知識者寥寥,這種信息不對稱堪稱“黑箱”。與網絡服務商相比,用戶處於一直不平等的地位,因此需要為用戶提供算法解釋權,對自動化決策中的信息不對稱進行有效糾偏,使得信息從信息優勢方向信息劣勢方流動,從而達到雙方平衡。
四、結語
算法的治理是人工智能時代的重大法律問題,需要同時設置事前的風險防范機制和事后的問責制進行監管。現在的研究多為事先風險防范機制,即通過提高算法透明度,健全法律監管,提高用戶媒介素養等對算法進行有效監管,而對於算法的事后監管問責方面的研究則較少。以算法解釋權為代表的算法問責制更能為受到侵害的主體提供幫助和救濟,也能有效分配權利和義務。 對一個個具體受到自動化不利決策的個體來說,算法解釋權可以彰顯個案中的公平和正義[5]。
參考文獻:
[1] 劉存地,徐煒.能否讓算法定義社會——傳媒社會學視角下的新聞算法推薦系統[J].學術論壇,2018(4).
[2] 李普曼.公眾輿論[M].上海:上海人民出版社,2006.
[3] 許幼飛.如何戳破“過濾氣泡”算法推送新聞中的認知窄化及其規避[J].新聞與寫作,2018(9).
[4] 王春暉.人工智能的倫理、法律與監管聞[J].互聯網天地,2018.
[5] 張凌寒.商業自動化決策的算法解釋權研究[J].法律科學(西北政法大學學報),2018(3).
分享讓更多人看到
推薦閱讀
相關新聞
- 評論
- 關注