在2018年的美國中期選舉正火熱的那段時間,網(wǎng)上傳播著一種新型的謠言(misinformation)
這種東西被稱為“深度偽造”(deepfakes)
簡單來說就是,通過人工高智能技術(shù)給視頻里的人物換臉;這次中期選舉中流傳了一些政客的講話視頻,但這些政客其實根本沒有拍過這些視頻。
Called "deepfakes" after the pseudonymous online account that popularized the technique – which may have chosen its name because the process uses a technical method called "deep learning" – these fake videos look very
realistic .
這種技術(shù)得名“深度偽造”是因為那個讓這種技術(shù)廣為人知的網(wǎng)絡(luò)賬戶的筆名就叫“深度偽造”,之所以取這個名字可能是因為這種東西的制作過程需要用到一種叫“深度學(xué)習(xí)”的技術(shù)——這讓這種假視頻看起來非常真實。
到目前為止,已經(jīng)有人用深度偽造來制作嘲諷視頻(satire video),你在里面會看到一些名人做他們通常并不會做的滑稽事情。
我們基本可以確定,這種視頻在選舉的重要節(jié)點一定會出現(xiàn),好讓人們以為一些政客講了他們沒講的話、去了他們沒去的地方。
這真的是個大麻煩,由于現(xiàn)在這項技術(shù)還非常新,所以絕大部分人根本沒辦法把它們和真實視頻區(qū)分開來。
What's a 'deepfake,' anyway?
深度偽造到底是什么?
Making a deepfake video is a lot like translating between languages. Services like Google Translate use machine learning – computer analysis of tens of thousands of texts in multiple languages – to detect word-use patterns that they use to create the translation.
制作深度偽造視頻很像是在翻譯語言。像谷歌翻譯一類的翻譯軟件在翻譯語言時,其實是在用機器學(xué)習(xí)的技術(shù)來分析人們使用語言的一些模式——也就是用電腦分析多種語言的成千上萬條文本——并以此創(chuàng)作出翻譯。
Deepfake algorithms work the same way: They use a type of machine learning system called a deep neural network to examine the facial movements of one person.
深度偽造算法也是一樣的:它們使用一種叫做深度神經(jīng)網(wǎng)絡(luò)的機器學(xué)習(xí)系統(tǒng)來研究一個人的面部動作。
Then they synthesize images of another person's face making analogous movements. Doing so effectively creates a video of the target person appearing to do or say the things the source person did.
然后它們就會合成另一個人的面孔來做出類似的動作。這樣可以很有效地讓目標(biāo)人物在視頻中做源人物在做的事情。
聽起來很高深是不是?
不過它這個技術(shù)基礎(chǔ)也恰好給我們留下了識別它的方法。
這種深度神經(jīng)網(wǎng)絡(luò)若想順利運作,需要先學(xué)習(xí)非常多的源信息,比如目標(biāo)人物的照片。使用的照片越多,其最終的偽造效果就越好。
但是,有一種表情的照片它們幾乎是得不到的,那就是閉著眼睛時的表情。
即使是那些每天拍海量照片的人,他們發(fā)布出來的也基本都是自己睜著眼睛的照片;閉眼的照片不光很少被照下來,即使照下來了通常也不會發(fā)布到網(wǎng)上。
這就讓深度偽造的視頻出現(xiàn)了一個問題:基本不會眨眼(blink)
Without training images of people blinking, deepfake algorithms are less likely to create faces that blink normally. When we calculate the overall rate of blinking, and compares that with the natural range, we found that characters in deepfake videos blink a lot less frequent in comparison with real people.
由于訓(xùn)練時得不到人們眨眼的照片,深度偽造不太可能做出人們正常眨眼的視頻。當(dāng)你把深度偽造視頻里的人和真人做比較,你會發(fā)現(xiàn)他們眨眼的頻率要小很多。
一個健康的成年人通常每2-10秒就眨一次眼,每次眨眼的時間為1/10到4/10秒;如果你在視頻中觀察到的是這樣,那應(yīng)該就是真視頻,而如果不是這樣,那估計就是深度偽造。
?
OK,來講講今天的詞?Fake
它作形容詞講的時候表示“虛假的”、“偽造的”。
同時它也可以作名詞,表示“贗品”。
?
那么,我們來造個句子吧~
All the paintings proved to be fakes.
所有這些畫都被證實是假的。
?