fbpx

美顏相機App的普及、影像編輯技術的純熟、CG特效效果的逼真,一切就像告訴我們不能相信自己的眼睛。小至網紅影片、大至荷李活電影,今天我們就替你逐層逐層拆下濾鏡。

現今影片編輯技術成熟得除了即時自身外貌的轉變,亦有App可以將自己拍片成虛擬人物,IOS早期推出的動態EMOJI就是例子之一。動態美顏Apps、Deepfake、CG特效,只要你懂,隨時可以在影片中修容,但神奇歸神奇,其背後的原理不過是影像應用濾鏡和演算法而已。今天,我們先為大家介紹Deepfake。

眼見未為真,Deepfake就是最好的證明。要是你不相信,我們先來看看以下兩段影片:

片段中,Donald Trump以一貫的神情、動作發表演講,一開始先帶侮辱性地批評比利時對於全球暖化的問題「我有膽量撤出Paris climate agreement,你們也應該像我一樣。」(As you know, I had the balls to withdraw from the Paris climate agreement and so should you.),接著是無理的攻擊「你們只有blablabla bingbangboom」(You only blablabla bingbangboom.)、「羞恥、完全是羞恥」(Shame. Total shame.),後來甚至是有關Trump自己的自吹自擂「人們喜歡我是因為我是一個完美的人,我是全世界最完美的人。」(People love me because I am a fair person. I am the fairest person on Earth.) 。

假若你有留意美國的時事,這段影片或許騙不了你。的確,這段影片Trump的聲音明顯是配音,配音者還特意惡搞Trump講話時的態度,更不用說Trump的眼睛和嘴角不自然的狀態。這段片段是由比利時的一個政黨Socialistische Partij Anders在他們的官方社交媒體Facebook和Twitter帳號sp.a上發佈的,他們的發言人解釋說,片段內低質的效果是為了提醒網民影片是假造的,目的是為有關氣候問題的請願作宣傳。

另一段短片是由BuzzFeedVideo於Youtube上傳的,片段內Barack Obama的表情和語調似乎比起剛剛的Donald Trump要真實,演講內容卻是越來越可疑,起初Obama像是在提醒市民要小心網絡上資訊的真偽,他舉例說明敵人們可以偽造任何人在說任何話的假象,就像他本人在影片中說出「Trump總統完完全全是個蠢材。」(President Trump is a total and complete dips**t.)的這句話,即使Obama根本不可能公開地這樣說。

說出這句話的是演員Jordan Peele,影片00:36起,左邊的Obama和右邊的Peele的口型同步,警惕市民要小心網絡上的資訊、時刻提高警覺,在這之前,你有發現影片有任何不對勁的地方嗎?小編就覺得唯一奇怪的地方是Obama的聲音,好像比起平日更低沈。

仔細看這些Deepfake技術製作出來的影片的話,其實可以發現破綻,但整體上幾可亂真。

那麼,到底Deepfake是什麼?Deepfake其實是一個合併詞,由深度學習(Deep Learning)和冒充(Fake)組合而成,是以人工智能技術造成的人像合成技術,能夠將圖像或影片重疊,從而製造假像。Deepfake包含的技術種類繁多,包括換臉、表情動作同步、聲帶轉換等等。

這個系統由一位Ph.D.學生、現職Apple員工Ian Goodfellow研發,大多Deepfake技術都以「生成對抗網絡」(Generative Adversarial Network),一種非監督式的Machine Learning作基礎,當中涉及一個產生者(generator)和一個鑑定者(discriminator),一方面不斷製造影像,一方面不斷分辨真假,以作深度學習。

儘管Deepfake製作的影片很真實,它卻不是什麼高深的學問。Deepfake的整個流程只有三步,一是從圖像提取數據;二是訓練電腦,用一段以小時作單位的時間讓電腦從中學習辨別對錯;三是轉換,以圖片融合技術達成人物轉換的目的。

Deepfake製作門檻奇低,甚至有自家軟件Fakeapp,紐約州立大學(the State University of New York)的AI研究教授David Doermann甚至形容Deepfake技術的簡單得一個高中學生使用一台電腦都可駕馭。

部分立心不良的網民濫用FaceApp製作惡搞影片或偽造色情影像,2017年起,社交網站Reddit上有用戶把多位藝人的樣子移接在色情影片中,知名歌手Taylor Swift、黑寡婦Scarlett Johansson和神奇女俠Gal Godot都是受害者之一。

根據Reddit規例,所有非自願性質的色情活動都不被歡迎(involuntary pornography)。事實上,社交媒體Twitter和Reddit以及成人網站Pornhub已經禁止Deepfake的使用。美國的州份Virginia甚至把傳播Deepfake影片列為犯法行為,足以罰款2,500美金及入獄12個月,同時,美國的其他州份亦有立法打算,可見Deepfake對社會的威脅。 

有危險,自然有機會,所以後來又衍生出認證影片真偽的商機。在Princeton University擔任4年講師的Shiva Kintali毅然辭去講師一職在矽谷創業,只要上傳檔案,就可以帶有初始資訊的block chain檢查影像、音訊的修改痕跡。驗證平台Truepic亦有異曲同工之妙,檔案上傳後會獲得編碼,加密後可以印出block chain,日後不明來歷的檔案都可以和原始資料比較,從而分別真假。而SRI International的方法則以類似製造Deepfake的演算法分析檔案的編碼,聰明的讀者應該記得,正正就是上面我們提及過的Deep Learning技術。換句話說,當Deepfake進步時,可能令辨別Deepfake更加困難。

要說現今的科技如何蒙蔽我們,技術實在多不勝數。下一次再讓我們一起了解其他影片修容技術——手機美顏App電影CG技術