用AI造假新聞:Deepfakes
用AI造假新聞:Deepfakes

本文作者為資深傳媒人黃永

當各大傳媒機構正研究如何用人工智能協助(以至取代)記者之際,AI在製作假新聞方面已經進入了相當精密的境地;目前行內統稱這種高科技假新聞為:Deepfakes。

深層假新聞的製作多數是利用「奸」智能技術(GAN=Generative Adversarial Networks)。這種繁衍性對抗型網絡懂得透過不斷比較來學習,例如比較兩個人大量的表情和肢體動作之後,識別出各種細緻而相近之處,然後能夠在影片內把一個人的表情套入另一個人的臉上(face swap),說一些那個人從來也沒說過的話(lip sync),做一些從來亦未有做過的事(motion transfer)。

一如許多科技發明,初心沒有惡意,結果卻造成極大破壞。傳媒學者和科技專才暫時最擔心的是3種相信很快便會推出的高科技,當中有Adobe的 「斗篷計劃」(Project Cloak):一種讓影片內任何人或物件消失得不留痕跡,而普通用家亦能夠容易上手的工具。它原意是協助電影後期製作,但專家擔心此技術一旦普及,經微調後的影片將極難察覺,從而讓人可輕易掩飾真相。

至於第二種「奸」AI是由Lyrebird開發的人工聲音技術:只需大概一分鐘的說話內容,便可不限長度而接近完美地複製任何人的聲音:原意是為了讓演員可以不用補錄對白,但卻足以欺騙現時的聲音識別保安功能。

最後一種教人憂心的科技是,由晶片製造商Nvidia研究的改變天氣程式,能夠把影片內的場景套進各類型天氣,既自動調整光暗度,亦懂得加入風效、雨效、雪效等,讓人有機會製造不在場證據,利用影片指同一時間自己在另一個地方,藉以擾亂調查。

三招揭穿不實報道

有見Deepfakes之勢日趨瘋狂,國際傳媒正陸續成立「傳媒偵查小隊」(Media Forensic Team),並與不同大學合作,嘗試找出影片內各個細微的弄假之處。一般人當然沒有這些資源和網絡,不過專家也向普羅受眾提供了3個識別深層假新聞的貼士:

一、找舊片作比較:簡單做一次谷歌影像搜索(image search),或許便足以知道影片內的當事人其時身在哪裏,有沒有可能進行相關拍攝。此外,雖然AI能作出數以億計的比較和調整,讓一般人未必能看出細緻的分別,但我們仍可透過比較不同片段的剪接位是否不同,至少估計一下有沒有可疑的地方。

二、拉近鏡看牙齒間距:這招主要用在名人發表講話那類影片,如果zoom in看到牙齒的距離跟之前的相片或影片不同,那麼該片段應是造假的了(不過,如果發言者曾經矯牙,那自然另作別論;牙齒天生便完美者,亦可能用不上此招)。

三、質疑影片的來源:若網絡內的影片找不出上載者,大家便有需要問清楚該片由誰人拍攝和廣傳,以及傳播的途徑及目標受眾為何。事實上,目前市面有不少工具讓我們可以查出圖片和影片的metadata。

緊記Deepfakes給世人的教訓:即使有片,亦未必有真相。

文章轉載自《信報財經新聞》 2018年11月21日

圖片來源:RTHK

(本文純屬作者個人意見,不代表『港人講地』立場。)
0
點算呀
4
無計啦
2
超無奈
2
嬲爆
相關博評

評論

你可能感興趣