AI偽造影像帶來的危機

文/許志仲、莊易修 國立屏東科技大學資訊管理系助理教授、碩士生

2012年以來,電腦視覺與其他許多研究領域紛紛投入深度學習的懷抱。2014年,一種名為對抗生成網路(Generative Adversarial Nets,GANs)的概念被提出,用於生成各種擬真的影像。自此之後許多研究者投入GANs的改良研究,企圖發展出更擬真的影像或視訊。究竟GANs帶來什麼問題,有哪些最新研究趨勢可以解決?

2018年,最新技術已經很容易生成非常逼真且具有足夠解析度的偽造影像,以PGGAN(Progressive Growing of GANs)所產生的偽造人臉影像,大多數使用者難在短時間內辨識出真偽,卻是GANs首度可以自動生成一個不存在的人的視訊資料,也可自動將既有影片換上特定的臉部特徵。雖然早期有生成人臉或生成任何影像的實用價值,可擴充原本影像不足以訓練的情況,解決AI無法良好學習的問題,但不當使用卻會帶來嚴重的後果;例如,它可以使用合成的臉部圖像來創建Facebook 或其他社群網站的假帳戶,混淆某事或欺騙某人。GANs 更可能會被用於創造和任何著名政治家十分相似的合成臉部,來發表演講影片以影響社會、政治和商業。

「Deepfake」以及相關應用就被廣泛用在許多不恰當的地方,例如合成色情影視訊等,已嚴重危害到現今社群網路上的媒體可靠性。

根據2019年11月5日的洛杉磯時報指出,Deepfake軟體合成出的偽造影片甚至有機會影響選情。GANs這把雙面刃,既可應用於擴增資料、增強影像還原技術等正面研究,亦可刻意生成不當的影視訊來混淆視聽、造成社會動亂。此一嚴重性,不可不正視。

2018年尚未有任何學術論文開始探討偽造影像帶來的危害,全球也尚未開始重視此問題。2019年初國際開始重視這類議題,其中最早的是慕尼黑工業大學和義大利拿坡里費德里克二世大學在2019年1月提出的偽造人臉資料庫:Face Forensic++。2019年10月,微軟以及Facebook宣布攜手建立Join the Deepfake Detection Challenge(DFDC),DFDC的主要目的跟FaceForensic一樣,都希望透過競賽,收集全球有志人士針對偵測偽造影像視訊內容的演算法,並提高大家對偽造影像的認知。大多數利用AI來反制AI偽造影像的研究,會採取監督式學習,將偽造影像辨識出來,與其他做影像辨識的任務方法無差別。由於GANs改良的研究日新月異,要蒐集所有的GANs來訓練將曠日廢時。若未來又有新的GANs產生,則偽造人臉檢測器便需重新訓練。與以往純監督式學習截然不同的策略之一,是採用成對學習的概念,試圖找出不同GANs網路之間存在的共同瑕疵。便可不需要蒐集所有的GANs,當新的GANs被提出來之後,亦不需要重新訓練偽造人臉檢測器。

2018年中最新的研發,是透過函數來學習五個具有代表性的GANs偽造影像的共同特徵,用以訓練偽造人臉偵測器,可達八成五以上的準確率。

2018年底改進方法後,引入另一種函數來強化共同偽造特徵的學習。並針對深度學習網路,提出了雙重神經網路來加強效能,此項成果更可達到約九成到九成五的準確率。未來此類偽造人臉影像偵測器可結合社群網路或媒體,審核上架照片、影片視訊的內容。若內容可能為偽造影像,可透過人工檢視或自動屏蔽,降低不實的影視訊在網路上流竄的機率,進而防治偽造影像。

或許接下來會出現一個效果遠超越過去的新GANs,使所有的偽造影像偵測器都失效;也可能有共同目標的研究團隊能發現GANs偽造影像的致命缺點,瞬間止住偽造影像的流竄。我們可以確定的一點是,AI的攻防戰會繼續持續下去。

>>訂閱名家評論周報,關心全球財經大小事

延伸閱讀