專家學者齊聚清華大學 跨界交流共探算法治理
人民網北京12月3日電 “算法共治:以人為本,科技向善”論壇12月1日下午在清華大學召開。十余位來自全國高校新聞傳播學、計算機科學、法學、倫理學領域的著名學者,以及來自互聯網科技公司的專家到場,圍繞算法治理展開了跨學科探討。
清華大學新聞與傳播學院常務副院長、智媒研究中心主任陳昌鳳作了報告《算法的治理與發展》。陳昌鳳表示,算法已經滲透在傳播內容的生產、分發、核查和反饋各個環節,給人類生活帶來深刻影響。人們普遍討論的主要有信息繭房是否真實存在,算法是否真的侵蝕人類隱私,算法是否會帶來偏見、內容同質化,以及算法黑箱等問題。針對這些疑慮,陳昌鳳在報告中指出,讓算法運行符合人類文明發展過程中形成的倫理准則已經成為社會共識。可以從樹立尊重人類尊嚴的價值理念、維護人類自主性、實行動態的用戶興趣評估和多元化的信息分發策略三個維度將人本精神融入算法以實現算法共治。
北京師范大學新聞與傳播學院教授、教育部長江特聘教授喻國明表示,對於算法這樣的復雜問題需要設定討論的邊界,而報告做好了概念闡釋的基礎性工作。他指出,科技向善具體包括三條標准:社會信息的流動是否更流暢、人在社會實踐中的自由度是否擴大、人把握世界的能力是否提升。
中國社會科學院新聞與傳播研究所副所長季為民指出,可以從理論上搭建算法下的新聞媒介倫理研究模型,比如從工業時代的倫理哲學中汲取新靈感,從技術哲學中學習對技術和工業化的倫理批判。
清華大學法學院院長申衛星圍繞著從法學領域對隱私保護展開發言。他指出,需要辨明信息和隱私是兩個不同的概念。隱私側重於保護人的生活,信息側重於社會交往的需要,我們既要保護私人生活狀態不被破壞,又要促進信息的合理利用。
復旦大學新聞學院黨委書記、執行院長、教育部長江特聘教授張濤甫在發言中說道,技術的發展使得信息產品不是以前那種機械化的產品,而是產生了泛社會化的產品。技術向善放在社會中,其實還包括資本與權力的向善。技術的向善取決於平台機構、資本和管理者的復合型演化,技術向善應該與資本向善、權力向善結合起來。
中國人民大學新聞學院教授彭蘭先從信息繭房談起,她認為是一種選擇性心理的結果,具體涉及到的因素很多。她談到,算法的風險還包括監視的風險和美麗新世界那樣的沉迷於技術帶來的幸福感的風險。她認為,我們需要從更多方面反思和警惕算法對人的囚禁。
清華大學新聞與傳播學院教授、新媒體研究中心主任金兼斌認為可以把算法看成生產力,學者探討生產發展后生產關系如何調適的問題。從這個角度看,今天探討算法治理問題與曾經的社會如何立法使得社會更加和諧是一脈相承的。
清華大學計算機科學與技術系黨委副書記劉知遠發表觀點:無論是算法偏見還是信息繭房,最大的挑戰在於如何設定一個標准。計算機或者AI的技術可以幫助我們按照這個標准做大范圍的定量監測,幫助人類社會變得更公平。
清華大學地球系統科學系教授、國家超級計算無錫中心副主任付昊桓認為幫助人反省反思也許是算法向善的一個努力方向。同時他提到與新聞傳播領域的跨學科合作,研究與氣候變化相關的傳播問題,比如分析社交媒體上和氣侯變化相關的推文是怎麼傳播的。
通過遠程連線方式參與論壇討論的幾位專家也發表了觀點。中山大學傳播與設計學院教授、青年長江學者張志安強調,算法推薦正從過去注重個體需求的“算法主導”1.0 階 段,朝著"算法推薦+編輯推薦”並存的 2.0 階段轉變。在持續更新的算法推薦機制背后,如何針對算法、對互聯網平台建立更加多元、開放的治理機制仍然迫在眉睫。
深圳大學傳播學院院長、中國新聞史學會計算傳播學研究委員會召集人巢乃鵬表示,在數據開放和隱私保護之間需要尋找合適的平衡點,既要警惕對數據自由的崇拜,提倡有規范的數據共享﹔也要更好的區分隱私與數據之間的差異。在這個數據化的時代中,我們更應該重建人在大數據時代的主體地位,建構人與技術、人與數據的自由關系。
中國人民大學倫理學與道德建設研究中心副主任張霄從倫理學角度提出規范科技活動的五項倫理原則,包括后果應風控、信息應公開、知識可解釋、行為可問責、減少不平等。
本次論壇由清華大學新聞與傳播學院智媒研究中心主辦。
分享讓更多人看到
- 評論
- 關注