人民網
人民網>>傳媒

AI換臉越來越溜兒 誰能阻止它走向墮落

2020年12月09日07:25 | 來源:科技日報
小字號
原標題:AI換臉越來越溜兒 誰能阻止它走向墮落

Deepfake是一種換臉技術,可以將圖片或視頻中A的臉換到B的頭上。其名字由深度機器學習(deep machine learning)和假照片(fake photo)組合而成。這項技術不需要操作者具備深厚的專業知識,隻要收集到足夠素材,AI就可以完成。Deepfake換臉效果逼真,讓人難以分辨真假,這也引發了眾多倫理和隱私問題。

史泰龍和施瓦辛格兩位好萊塢頂級流量功夫巨星最近一次合體出現在大銀幕上,還是在2013年上映的《金蟬脫殼》中,這讓不少影迷意猶未盡。11月22日,一篇報道稱,國外視頻網站上一部名為《Step Brother》的電影短片,借助Deepfake技術,把兩位巨星的面部替換到了兩名小眾演員臉上,而且人臉表情自然,毫無痕跡,這讓不少網友驚嘆:太恐怖。此外,在最近的國內熱播劇《了不起的兒科醫生》中也使用了這種AI換臉技術。

根據安全分析公司Sensity最新調查結果,自2018年12月以來,Deepfake在線造假視頻的數量大約每6個月翻一番,而截至2020年6月,造假視頻已經多達49081個,比2019年7月增長了330%。

Deepfake技術讓視頻換臉變得越來越簡單,如何打假“李鬼”,讓其避免成為假視頻的“幫凶”已成為當務之急。

用視頻“大變活人”分幾步

Deepfake這種技術堪稱現代網絡“易容術”,是比PS強大很多的動態換臉技術。“目前Deepfake技術已經很成熟了,主要技術分為兩個部分,自動編碼器和生成對抗網絡。”天津大學智能與計算學部教授翁仲銘介紹。

自動編碼器是一種神經網絡技術,就是把一個人的照片特征抓取出來,然后用數字代表。但是抓取一個人的面部特征時,不可能抓取所有狀態下的特征,比如說話、哭和笑等,那麼就必須將沒有的表情用數字模擬的方式展現出來。通過訓練,就可以找出一個最好的用數學方式來呈現照片特征的編碼器。

有編碼器就需要解碼器,解碼器會把一串串數字再還原成照片。不同解碼器可以在演員身上還原不同照片,比如史泰龍解碼器可以還原史泰龍照片,而還原施瓦辛格照片則需要施瓦辛格的解碼器。具體操作是先使用編碼器分別抽取小眾演員和史泰龍的特征,而后再使用史泰龍的解碼器還原,從而得到史泰龍的臉和小眾演員的表情。

“Deepfake就是在設計、訓練精准的編碼器和解碼器。”翁仲銘介紹,因為編碼器是抓取照片的特征,所以基本上隻需要一套就可以了。可是解碼器就需要訓練很久,因為把一連串的數字特征,拼接到小眾演員身上,而且要變得很像,就需要長時間訓練。以換成史泰龍的臉為例,這個過程需要輸入史泰龍600—3000張照片並經過48—72小時來訓練深度模型。

“自動編碼器做出的照片是否自然真實還需要去判別把關,這就需要生成對抗網絡技術。”翁仲銘解釋,這包括兩個機器學習模型,分別為生成網絡和辨別網絡。生成網絡扮演“造假者”,在模型訓練后產生偽造影片﹔而辨別網絡則扮演“檢測者”,不斷地檢視假影片,直至它再辨別不了結果是假的。數據越多,效果越理想,假影片越真實。

換臉門檻越來越低

其實這種動態換臉技術最早是被用於影視后期制作,但是以前影視作品中的人臉交換操作起來非常復雜,隻有專業視頻剪輯師和公共網關接口專家才能完成,並且需要花費大量時間和精力。

但隨著Deepfake這樣公開且輕量化技術的出現,這個技術的使用門檻也越來越低了。特別是設計架構Deepfake技術的“大神”將代碼上傳到了一個自由共享代碼的網站Github,讓這項技術更容易獲得。

利用Deepfake技術,即使是一個對視頻剪輯一竅不通的外行,也隻需一個強大的GPU(圖形處理器)和上百張人物樣圖,輸入至少一個算法,就能完成人臉交換,並且可以制作出非常逼真的視頻效果。“普通人在經過一段時間的學習以后,完全能夠掌握這項技術。”翁仲銘感嘆。

“雖然現在這項技術操作起來簡便,但是原來要用軟件實現這個過程是非常艱難的。”翁仲銘解釋,視頻中人是動態的,比如一個60幀(fps)的視頻中,每秒鐘畫面更新60次,如果是PS的話需要處理60張靜態圖片,然后將其前后連接起來形成一個動態圖。一個短視頻動輒數分鐘,甚至十多分鐘,如果按照一分鐘處理3600張計算,一個幾分鐘的短片也要處理多達上萬張照片,所以需要強大算力的GPU來支撐。

翁仲銘認為,近些年隨著GPU的發展,其算力越來越強大,也使得Deepfake技術處理照片越來越輕鬆,使用越來越方便。這可能也是2018年12月以來,造假視頻成倍增長的原因之一。

以技制技打假“李鬼”還不夠

如此強大的“黑科技”採用了最先進的人工智能技術,通過比較簡單的運算,就有可能生成以假亂真的視頻。但是Deepfake技術在運行幾天之后,就遭到了唾棄,被全球封禁,還被世人稱為“最邪惡”的技術。

因為太過以假亂真,其破壞力不可估量。事實証明,人們的擔心並非杞人憂天。Deepfake第一次亮相就是將《神奇女俠》蓋爾·加朵的臉,嫁接到了一部成人電影女主角身上。此外由Deepfake制作的假視頻已引發多起刑事案件,甚至卷入政治紛爭。

不過再完美的技術也不是無懈可擊的,專家們提出了幾種辨識Deepfake換臉視頻的方法:比如眨眼率,通過Deepfake制作的對象的眨眼率少於正常人﹔語音和嘴唇運動的同步狀況﹔情緒不符合﹔模糊的痕跡、畫面停頓或變色。不過翁仲銘表示,這些方法,Deepfake通過加強對樣本的學習,都可以解決,遲早會有人可以通過Deepfake技術制造出人類用肉眼無法識別的“假臉”。

“也有不少人想到以AI對抗AI。”翁仲銘介紹,美國國防部研發了全球首款“反AI變臉刑偵檢測工具”,專門用於檢測AI變臉或換臉造假技術。不過,人工智能基金會的研究副主席戴利普承認,現時Deepfake檢測算法的准確率,即使可高達97%,但鑒於互聯網規模非常大,余下的3%仍然極具破壞力。

目前還有一個識別Deepfake換臉的新思路,叫作“活體取証”,該技術主要是根據分辨率、三維信息、眼動等來區分真假,因為翻拍的照片分辨率和直接從真人上採集的照片在質量、分辨率上比都有差別。

“整個算法遵循的觀察規律是:生物信號還沒有保存在假視頻中,這些信號在生成噪聲時也產生了不同的標識。”翁仲銘解釋,換句話說,假視頻中顯示的“人”不會表現出與真實視頻中的人相似的心跳模式,通過這種方法可以找到每個生成模型的唯一簽名(標識)。值得一提的是,無論遮擋、照明條件如何變化,這些標識在真實視頻中是不存在的。利用這些標識可以找到假視頻背后的生成模型,然后反過來提高整體的假視頻檢測精度。

“道高一尺魔高一丈,利用Deepfake技術的人也在不斷改進換臉的水平,因此從長遠來看,我們必須尋求更有力的方法來維護和証明社交媒體信息的真實性。目前幾乎沒有任何工具可以幫助讀者確信其在網上看到的信息來源可靠,且沒有被篡改。”翁仲銘強調,改善這種情況需要從視頻發布源頭進行管理,比如實名制,同時加強立法,增加網絡警察巡邏等,嚴厲打擊這種造假行為。(記者 陳 曦)

(責編:宋心蕊、燕帥)

分享讓更多人看到

傳媒推薦
  • @媒體人,新聞報道別任性
  • 網站運營者 這些"紅線"不能踩!
  • 一圖縱覽中國網絡視聽行業
返回頂部