人民網
人民網>>傳媒>>傳媒期刊秀:《新聞戰線》>>2018年·第3期

推薦算法規制的他山之石

馬思源 姜文琪
2018年07月04日16:23 | 來源:人民網-新聞戰線
小字號
原標題:推薦算法規制的他山之石

  摘要:用推薦算法進行新聞分發不是保持新聞真實、客觀並有效傳播的“萬能藥”,習慣藏身於“黑箱子”裡的算法,同樣需要法律和行政命令的規制。西方國家嘗試在法律上設定“規制”:一是從隱私權出發設定法律規范推薦算法﹔二是對某些重點行業進行立法或政策管制。其方法可以為我國提供鏡鑒。

  關鍵詞:推薦算法 “黑箱子” 法律規制 隱私權

  基於用戶興趣的“算法推薦”是網絡新聞的主要分發方式,其代表有今日頭條、一點資訊等。今日頭條宣稱自己的“運轉核心是一套由代碼搭建而成的算法”,此算法在商業上獲得成功,為它帶來了1.4億活躍用戶。與此同時,推薦算法也引來不少質疑,如:算法歧視、算法短視會導致媒體公共性內容的缺失,加深用戶偏見、形成信息繭房﹔“編輯缺位”致使低俗消息更加泛濫,甚至挑戰道德底線,既不利於用戶獲得知識,又難以做到價值引領①﹔推薦算法獲取信息的方式可能侵犯個人隱私②。

  這些問題都與推薦算法的設計和使用息息相關。事實說明,使用推薦算法進行新聞分發不是保持新聞真實、客觀並有效傳播的“萬能藥”,習慣藏身於“黑箱子”裡的算法,同樣需要法律和行政命令的規制。從國際視角看,人工智能支持下的推薦算法在全球范圍內都有廣泛的應用,這些算法及使用它們的公司也都遇到了一些相似的道德和法律困境。比如,推薦算法會不會過分搜集和使用用戶的數據,侵犯個人的隱私?又如,過於依賴推薦算法是否會造成不良社會影響,如何消除?此外,國外還特別關注人工智能算法是否會導致行業規則被破壞——自動駕駛帶來車禍,誰承擔責任﹔機器人寫出了假新聞,誰來負責?

  對此,西方國家與亞洲的日本、新加坡等國嘗試在法律上設定“規制”:一是從隱私權出發設定法律規范推薦算法,二是對某些重點行業(如傳媒、汽車、金融等)進行立法或政策管制,以消除不良社會影響。這些相關的法律、立法議案、行政命令堪稱“他山之石”,可以為我國的推薦算法規制提供鏡鑒。

  用什麼樣的方式收集數據可能會侵犯個人隱私?

  在保護隱私權方面做得比較好的歐盟“數據隱私法案”,規定歐盟國家公民將有權要求“審查某項特定服務中如何做出特定算法決策”。法案要求算法公司詳細、明確說明他們如何使用算法收集和保護用戶數據,並且在收集數據前必須征得個人同意。歐盟極端重視數據隱私,在此之前就已經出台了“通用數據保護條例”(GDPR),而“數據隱私法案”在條例的基礎上繼續展開,它賦予個人以權利,去確認一個組織是否正在處理自己的數據,或是哪種類型的數據。此外,個人還有調整相關數據的保留期限、向數據保護機構投訴的權利。歐盟設置了嚴苛的懲罰機制,如果一家公司不合規,那麼罰款可以高達2000萬歐元(約合2400萬美元),或者是該組織在全球收入的4%。③

  對於用戶面部數據的採集,愛爾蘭、德國以及美國伊利諾伊州《生物信息隱私法案》(BIPA)要求:採集前需要明確提醒用戶並征得同意。著名互聯網公司Facebook因此遭到美、德、愛等國的調查,並被迫在歐洲地區關閉了人臉識別功能,刪除了針對歐洲用戶建立的人臉數據庫④。

  歐盟之外,香港地區也出台了“數字隱私法案”(DPO),但審查力度不如歐盟。此外新加坡有“個人資料保護法”(PDPA),日本有“個人信息保護法”⑤。

  如何監管“保密”的推薦算法?

  現在大多數的推薦算法原理都是秘密,這樣的“算法黑箱子”潛藏一系列問題:究竟有多少工程師懂算法,能夠保証其穩定運行?不公開的算法會不會秘密設置了某些違反道德、法律的規則,如推薦招聘信息的算法涉及性別歧視?不公開的算法一旦出了問題,相關責任人在政府調查之前修改、銷毀了問題算法怎麼辦?

  作為一種建議,中國計算機協會在2017年出版了七項算法透明度和問責制的原則⑥:

  意識:所有者、設計師、構建者、用戶和其他分析系統的涉眾應該意識到他們對算法的設計、實現和使用可能存在的偏見,意識到偏見可能對個人和社會造成的潛在危害。

  獲得和糾正:監管機構應鼓勵一種機制,當個人和團體因算法決定的決策而受到不利影響時,允許他們(對算法)進行質疑和糾正。

  問責:機構應該對他們使用的算法做出的決策負責,即使不可能詳細解釋算法是如何產生結果的。

  解釋:鼓勵使用算法決策的系統和機構,對算法的過程和其作出的具體決定給予解釋。這在公共政策環境中尤為重要。

  數據來源:對訓練數據收集方式的描述應該由算法的建造者維護,同時還要探索人為或算法本身在數據收集過程中可能產生的偏差。公眾對數據的審查為修正偏差提供了最大的機會,但是,考慮到隱私、保護商業秘密以及對公眾過於開放分析過程可能導致對系統的惡意攻擊,需要限制個人訪問,隻允許合格的、得到授權的人接觸數據和算法。

  可審核性:模型、算法、數據和決策應該被記錄,以便在有危害的情況下對它們進行審計。

  驗証和測試:機構應該使用嚴格的方法來驗証他們的模型,並記錄這些方法和結果。特別是,他們應該定期進行測試,以評估和確定該模型是否會產生歧視性的危害,鼓勵機構將此類測試的結果公之於眾。

  西方國家主要通過行業立法來監管算法本身。歐盟証券和市場管理局(ESMA)就制定了金融管理標准:在金融交易領域,高頻算法交易員有義務存儲記錄和交易算法至少5年⑦。“算法交易”是指一些公司通過推薦算法自動確定訂單的各個參數,例如是否啟動訂單的順序、時間、價格或數量等,並在有限的人為干預或無人干預的情況下,對訂單、報價和執行過程進行調整和優化。ESMA的金融管理標准規定,使用這類算法輔助操作的公司需要:1.報告公司資質,証明其有足夠的員工和工程師來理解、操作和控制算法﹔2.算法備案,以防不正當競爭和出現系統錯誤時進行回溯檢查﹔3.使用算法的公司要向監管部門報備,並接受交易全流程的持續監控。

  此外,英國上議院也對數字經濟法案的修正案進行了辯論,該法案將給予有關部門執行和發布算法評估的權力。與數字保護法案不同,數字經濟法案並不是要明確地反對某一種算法設計⑧,而原有的數字保護法案授權英國資訊委員會辦公室可採取強制措施保護數據安全。

  如何追究責任和消除影響?

  推薦算法在社交媒體上有傳播假新聞的不良傾向。由於社交媒體軟件通過個性化推薦,有選擇性地給用戶顯示其感興趣的信息,虛假信息就可以通過推薦算法實現有效傳播。Facebook是典型例証,當用戶有一定的政治傾向時,平台隻會顯示與類似的政治趨勢相匹配的新聞和朋友的帖子,導致某種傾向被夸大。2016年美國一名男子持沖鋒槍闖入華盛頓一家名為“彗星乒乓”(Comet Ping Pong)的餐廳並開槍射擊,就是因為他在網上看到了一條流傳甚廣的假新聞,稱總統候選人希拉裡?克林頓以該餐廳后面的房間為基地,綁架、侵害和販賣兒童。

  針對社交媒體推薦算法支持下擴散的假新聞,一些國家採取了應對措施:

  日本使用“刑法”規定的刑事誹謗罪和偽造妨害罪(《日本刑法典》第233條)管理假新聞,“流傳或散播虛假消息導致人的信用毀損,或者妨礙業務者,處以3年以下有期徒刑或50萬日元以下的罰款”。但目前的法規很難應用到社交媒體上。

  2017年10月1日,德國開始執行一項法律,要求社交媒體網站迅速採取行動,消除仇恨言論、假新聞和非法材料。這些要求刪除的信息包括:“非法內容”(即《德國刑法典》規定的具體犯罪內容)﹔“侮辱”(《德國刑法典》第185條)、“誹謗”(同上,第186條)、“犯罪煽動”(同上,第111條)等。此外,不刪除“明顯非法”信息的網站可能面臨高達5000萬歐元(4430萬英鎊)的罰款。Facebook、Twitter和YouTube將成為法律的主要焦點,但它也適用於Reddit,Tumblr和俄羅斯社交網絡VK。Vimeo和Flickr等其他網站也可能被納入其條款。⑨

  推薦算法還被美國多個政府部門採納,用以幫助處理政務,但這種“自動決策系統”存在誤判的可能。針對這種可能,美國紐約市議會提出一項法案,要求創建一個特別工作組,提供關於自動決策系統的信息如何與公眾共享的建議以及如何處理被自動決策系統傷害的實例⑩。

  他國規制的啟示

  從建立行業規則或行業法令開始,不追求“整齊劃一”。人工智能的推薦算法在不同領域的應用程度各不相同,從經驗上看,社交媒體上新聞推薦算法、用戶識別算法、金融交易算法是發展比較快的領域,可以先對這些領域進行立法,成熟一項推行一項,后發展起來的行業則以先前行業的規制為范例,建設更完備的法令體系。比如,無論國內還是國外,傳媒領域、金融領域的推薦算法已經廣泛使用,這些行業應當從速建立規則、制定法令。同時,現在的自動駕駛技術尚未投入大規模應用,但參考傳媒、金融領域的算法規制經驗,關於自動駕駛的算法立法已經可以提上討論日程。當自動駕駛技術真正大規模應用時,我們的相關法令才能夠有條不紊、有的放矢。

  不能放任算法本身成為“黑箱子”。借鑒歐洲國家的經驗,至少要對算法本身進行備案,在出現問題時有權進行算法評估。避免利益相關方使用商業機密等借口,在黑箱中任意操縱算法,也避免人工智能支持下的算法在學習人類行為的過程中,培養起性別歧視、民族歧視、人種歧視和地域歧視,等等。美國的《科學》雜志刊登研究發現,機器學習可以習得人類的種族歧視﹔而芝加哥法院的犯罪風險評估算法則人為制造了針對黑人的歧視。在中國,也有推薦算法歧視肥胖(為購買大尺碼衣服的用戶推薦減肥藥)、歧視女性(為職場女性推薦育兒經)的報道。2018年1月,今日頭條公開了基本的風險內容識別技術以及泛低質內容識別技術,並對內容安全機制及相關舉措進行了介紹。未來,還應有更多的行業算法主動加入到破除“黑箱子”的行列中來,這個過程不僅僅要靠行業自律,而且要靠立法推動。

  對推薦算法的立法應付諸實施,而非擺動、停滯於“立法過程中”。客觀而論,西方國家對推薦算法的立法嘗試有很多,但實質上付諸實施的法案並不多,美國紐約議會法案、英國數據經濟法案,都在反復討論,而沒有真正實施。早早提出立法嘗試,是我們應當學習西方國家的地方,而反復修改、博弈而不施行,則未必值得效仿。

  立法要同時考慮實施的方便性、保護公民的正當性和鼓勵行業發展的前瞻性。在用戶隱私保護做得最好的歐盟國家,卻因立法較為嚴苛限制了人工智能、互聯網行業的發展,因而歐盟數據隱私的系列法案到底是值得贊賞還是應當批評,在它們內部也有針鋒相對的看法。相反,我國的互聯網行業發展走在當今世界的前列,“規矩少”是一個重要的助力。同樣作為新興事物,又有較好的發展前景,對推薦算法的使用也應當有適當的寬容和鼓勵。中國古代哲學倡導“過猶不及”,對新興事物的立法應當要兼顧社會公平、個人權利,同時又不至於扼殺創新。

  (作者單位:北京師范大學新聞傳播學院)

  注釋:

  ①劉運來:《個性化推薦閱讀時代的編輯缺位及其影響》,《編輯之友》2017年第9期。

  ②王茜:《打開算法分發的“黑箱”——基於今日頭條新聞推送的量化研究》,《新聞記者》2017年第9期。

  ③Sponsored. What You Need to Know About the EU’s New Data Protection Law,

  https://labiotech.eu/gdpr-eu-data-protection/。

  ④王新銳:《人工智能發展面臨的法律挑戰》,

  http://www.ftchinese.com/story/001072216?full=y。

  ⑤《人工智能算法的規范是前進的方向嗎?》,

  http://en.finance.sia-partners.com/20170706/regulation-ai-algorithms-way-forward。

  ⑥Algorithms and the law, https://www.legalfutures.co.uk/blog/algorithms-and-the-law。

  ⑦Algorithms and the law, https://www.legalfutures.co.uk/blog/algorithms-and-the-law。

  ⑧Alexander J Martin. Regulate This! Time to subject algorithms to our laws: A Minority Report future awaits, https://www.theregister.co.uk/2017/04/17/what_does_regulating_algorithms_mean_and_how_do_we_even_do_it/。

  ⑨Germany starts enforcing hate speech law, http://www.bbc.com/news/technology-42510868。

  ⑩美國紐約市議會,

  http://legistar.council.nyc.gov/LegislationDetail.aspx?ID=3137815&GUID=437A6A6D-62E1-47E2-9C42-461253F9C6D0。

  蘇令銀:《透視人工智能背后的“算法歧視”》,中國社會科學報2017年10月10日。

(責編:趙光霞、宋心蕊)

分享讓更多人看到

傳媒推薦
  • @媒體人,新聞報道別任性
  • 網站運營者 這些"紅線"不能踩!
  • 一圖縱覽中國網絡視聽行業
返回頂部