人工智能換臉 Deepfake

郭卓靈   |   明光社項目主任(傳媒教育及行動)
20/05/2019

2018年,網絡開始盛行Deepfake,這個合併詞由深度學習(Deep Learning)和冒充(Fake)組成,它是指透過人工智能技術造成的人體圖像合成技術,以圖像及影片重疊至目標圖片或影片上。起初不少人認為這種電腦深度學習技術應該只存在於人工智能研究的範疇上,但於2017年,一位名為「Deepfakes」的網民將以色列女星姬嘉鐸(Gal Gadot)的樣貌換到色情片的女主角身上,[1] 並發佈在紅迪(Reddit)論壇上,引起了一陣哄動,更令部份人效法這種行為。

其實Deepfake並不是甚麼高深的技術,現在網上也有教學及資源協助製作想要的Deepfake。當中的流程包括三個步驟:一是從圖像提取數據;二是訓練電腦,用一段時間(以小時計)去告訴它何時做對,何時做錯,讓它從中學習;三是轉換,以圖片融合技術達成人物轉換的目的。[2]

而Deepfake能夠做到以下幾種效果:

  1. 分析A影片人物所說的話,提取數據並套入B影片人物的口中說出。如曾經有人製作了一條影片,將美國影星佐敦(Jordan Peele)所說的話,套入美國前總統奧巴馬(Obama)的口中說出來(圖一);[3]
  2. 提取人物A的動作(如舞蹈動作)數據,套入人物B(不懂跳舞的人)身上,製作出來的影像就是人物B在跳舞(圖二);[4]
  3. 分析一大堆人物A不同的照片,將分析出來的數據套入影片中的人物B,使人相信片段是人物A拍攝的。如網上就曾有人製作了一條影片,將1994年上演的電視劇《射鵰英雄傳》中飾演黃蓉的朱茵換成今時今日的內地女演員楊冪(圖三)。[5]
明光社
明光社
明光社
 

上述影片的效果都相當逼真,就以圖一的影片為例,比爾的話,在套入奧巴馬的影像後,其聲線、語氣、動態都和奧巴馬本人幾乎一樣,只是奧巴馬在公眾場合絕不會說一些粗鄙或鼓吹殺戮的言語,但在這段偽造的影片中,「他」就公開說出了這些話。

這種技術的應用正在慢慢普及,但卻大多被用來製作惡搞影片或色情影像,結果Deepfake成為了一些立心不良的人,偽造影片的工具。雖然社交平台Reddit、推特(Twitter),色情網站Pornhub(直譯就是色情影片中心)已經禁止所有移花接木的Deepfake色情片段,但在網海內還有無數渠道可以將這類影片發放及傳送。

明光社

有研究員指出Deepfake技術的影響將會十分深遠,預計這門技術在五年內足以欺騙沒有受過訓練的大眾。研究員說的話並非危言聳聽,這門技術的確有本領令人難辨真假,特別是在大家沒耐性對真假查根究柢的年代。電腦科學家蘇帕索恩.蘇瓦耶納柯恩(Supasorn Suwajanakorn)就曾於一個公開講座展示四個奧巴馬的演說片段(圖四),與會者都無法分辨哪一個才是真正的奧巴馬,但原來四個奧巴馬都是偽造出來的。[6] 這代表在未來政治角力上,有人可能為了爭取選票或權力,而以這種技術來製造抹黑對手的片段。更諷刺的是當進入虛假影片充斥的年代,就算有真實的影片流出時,我們也會對它的真實性產生懷疑。

科技正在發展,我們沒可能走回頭路,只能對未來的影像、片段保持警惕,不要輕信,尤其是要留意資料來源。愈奇怪、愈沒法追尋的消息或片段,就愈要抱懷疑的態度。如不想被人用Deepfake技術轉換成為虛假影片的主角,就要好好保護自己的影像,不要讓陌生人輕易取得,因為愈多不同的影像(如不同的表情或從不同的角度拍攝的影像)成為影像生成的數據,製作出來的影像就會愈神似。以此來看,公眾人物很容易便會成為Deepfake的主角,他們亦要承擔更高的風險。

這門技術的確有其危險的一面,不過,如將它用於正途,如製作電影、回顧歷史事件,或緬懷名人、已逝世親人的影片等,不單可以減低拍攝危險場面的風險,也可以提高逼真程度。如能活化人物,更可以拉近我們與被緬懷者的距離。


[1] 孔祥威:〈【科技.未來】Deepfake假得迫真 深度造假模糊真相甚麼才可信?〉,《香港01》,2018年12月07日,網站:https://www.hk01.com/周報/268011/科技-未來-deepfake假得迫真-深度造假模糊真相什麼才可信(最後參閱日期:2019年5月4日)。

[2] Lonely.wm:〈深度解密換臉應用Deepfake〉,知乎,2018年2月27日,網站:https://zhuanlan.zhihu.com/p/34042498(最後參閱日期:2019年5月4日)。

[3] Good Morning America - abc, “Jordan Peele uses AI, President Obama in fake news PSA,” Youtube, last modified 18 April, 2018, https://www.youtube.com/watch?v=bE1KWpoX9Hk.

[4] Caroline Chan, “Everybody Dance Now,” YouTube, last modified August 22, 2018, https://www.youtube.com/watch?v=PCBTZh41Ris.

[5] 〈AI換臉朱茵變楊冪 網絡爆發爭議〉,《頭條日報》,2019年3月1日,網站:http://hd.stheadline.com/news/realtime/chi/1445328/(最後參閱日期:2019年5月4日)。

[6] TED, “Fake videos of real people -- and how to spot them | Supasorn Suwajanakorn,” YouTube, last modifiied July 25, 2018, https://www.youtube.com/watch?v=o2DDU4g0PRo.