有關AI的探討通常帶有一點爭論。作為AI深度學習領域的一個分支,深度偽造技術在近幾年迅速興起。這一技術生動詮釋了“眼見不一定為實”。起初,這一技術更多地用于娛樂,整蠱朋友或調侃明星,后來深度偽造逐漸“走向政壇”,為國家間的政治抹黑、軍事欺騙、經濟犯罪甚至恐怖主義行動等提供了新工具。
簡介
今年3月初,一條烏克蘭總統(tǒng)沃洛蒂米爾·澤倫斯基的“視頻”被廣泛傳播。在該視頻中,澤連斯基呼吁烏克蘭士兵放下武器,放棄對俄戰(zhàn)斗。這段視頻在網上迅速流傳開來,但很快就被揭穿為一段用深度偽造做的換頭“視頻”。這個視頻作為戰(zhàn)爭狀態(tài)下第一個針對一國元首的深度偽造視頻,預示著一種新的輿論戰(zhàn)形式。
事物的兩面性
深度偽造技術有用嗎?當然。比如,帕金森病患者可以使用語音克隆進行交流。再譬如,為了保護患者隱私,把醫(yī)療視頻數據里的人臉深度偽造成別人,這樣患者就不會被不相干的人發(fā)現自己患病的事實,觸及隱私的醫(yī)療數據集也可以公開化,給醫(yī)療AI的研究者們提供方便。
殊不知,世界上每個硬幣都有其兩面性。深度偽造也有其“邪惡”的一面。
深度偽造技術的進步使語音釣魚嘗試看起來比以往任何時候都更加可信。在深度偽造音頻技術的幫助下,威脅行為者可以冒充其目標,并繞過語音身份驗證機制等安全措施,來授權欺詐交易或欺騙受害者的聯(lián)系人以收集有價值的情報。
更嚴重的,在國家安全層面,假如故意使用深度偽造來重塑公眾輿論、煽動社會沖突和操縱選舉,這樣的技術就有可能破壞整個社會的民主。
上圖中展示了華盛頓大學的研究人員制作的一份有關貝拉克·侯賽因·奧巴馬的深度研究報告。報告中,研究人員借助AI技術,通過第三者并模仿美國前總統(tǒng)奧巴馬的一段演講視頻中的面部動作,成功偽造出一段冒牌奧巴馬演講的視頻。
制造混亂
深度偽造基于生成對抗網絡實現。生成對抗網絡是非監(jiān)督式學習的一種方法,通過讓兩個神經網絡相互博弈的方式進行學習。
生成對抗網絡由一個生成網絡與一個判別網絡組成。生成網絡從潛在空間(latent space)中隨機取樣作為輸入,其輸出結果需要盡量模仿訓練集中的真實樣本。判別網絡的輸入則為真實樣本或生成網絡的輸出,其目的是將生成網絡的輸出從真實樣本中盡可能分辨出來。而生成網絡則要盡可能地欺騙判別網絡。兩個網絡相互對抗、不斷調整參數,最終目的是使判別網絡無法判斷生成網絡的輸出結果是否真實。
雖然深度偽造背后的技術聽起來可能很復雜,但利用這種“換頭術”生成假貨卻很簡單。目前市場上已經存在不少這樣的在線應用程序,譬如Faceswap和ZAO Deepswap,可以在幾分鐘內生成深度偽造效果。
Google Colaboratory是一個在線存儲多種編程語言源碼的代碼倉庫,其中開放的代碼中就包括可用于生成虛假圖像和虛假視頻的源碼示例。
借助于這種全世界可訪問的軟件,人們很容易看到這樣的事實:大量的普通用戶在沒有意識到潛在安全風險的情況下,借助深度偽造給社會帶來不同程度甚至是嚴重的破壞。
換臉應用程序和 Deep Nostalgia 等公司的在線服務的廣泛流行表明,深度偽造能以多么快的速度被公眾廣泛接受。僅僅2019年一年時間,他們就檢測到約有15000個使用深度偽造技術偽造的視頻。顯然,這個數字預計還會迅猛增加。
深度偽造是造假活動的完美工具,因為它們能夠產生可信的假新聞,而這種假新聞需要一定的時間才能揭穿。與此同時,假貨——尤其是那些影響人們聲譽的假貨——造成的損害通常是持久性的和不可逆轉的。
眼見為實嗎?
深度偽造最危險的后果可能是利用它們在政治競選中提供虛假信息。
這方面的一個有力的例證是,唐納德·特朗普曾經將任何不討人喜歡的媒體報道稱為“假新聞”。通過指責批評者傳播假新聞,特朗普得以利用錯誤信息為自己的錯誤行為辯護,并將其作為宣傳工具。
特朗普的戰(zhàn)略允許他在充滿不信任和虛假信息的環(huán)境中保持支持,聲稱“真實事件和故事都是假新聞或假貨”。
于是,政府和媒體的信譽正在受到損害,并造成了不被信任的惡劣影響。隨著假冒偽劣產品的日益增多,政客們很容易否認對任何新出現的丑聞負有責任。假如一個人否認視頻中的身份,怎么能確認他的身份呢?
另一方面,在民主國家努力維護言論自由的過程中,打擊虛假信息一直是一項挑戰(zhàn)。通過把人類與機器人結合起來等技術就可以通過讓人們驗證信息來幫助應對不斷增加的假貨風險。另外,還可以考慮引入新的立法或使用現有法律等手段來懲罰偽造信息和冒充他人的假貨生產商。
另外,國際性組織和國家政府、私營公司以及其他組織的多學科交叉方法對于保護民主社會免受虛假信息的侵害都至關重要。AI對國家安全的影響已成為世界各國重點關注和研究的議程。