在2018年的美國中期選舉正火熱的那段時(shí)間,網(wǎng)上傳播著一種新型的謠言(misinformation)

這種東西被稱為“深度偽造”(deepfakes)

簡單來說就是,通過人工高智能技術(shù)給視頻里的人物換臉;這次中期選舉中流傳了一些政客的講話視頻,但這些政客其實(shí)根本沒有拍過這些視頻。

Called "deepfakes" after the pseudonymous online account that popularized the technique – which may have chosen its name because the process uses a technical method called "deep learning" – these fake videos look very realistic .
這種技術(shù)得名“深度偽造”是因?yàn)槟莻€(gè)讓這種技術(shù)廣為人知的網(wǎng)絡(luò)賬戶的筆名就叫“深度偽造”,之所以取這個(gè)名字可能是因?yàn)檫@種東西的制作過程需要用到一種叫“深度學(xué)習(xí)”的技術(shù)——這讓這種假視頻看起來非常真實(shí)。

到目前為止,已經(jīng)有人用深度偽造來制作嘲諷視頻(satire video),你在里面會(huì)看到一些名人做他們通常并不會(huì)做的滑稽事情。

我們基本可以確定,這種視頻在選舉的重要節(jié)點(diǎn)一定會(huì)出現(xiàn),好讓人們以為一些政客講了他們沒講的話、去了他們沒去的地方。

這真的是個(gè)大麻煩,由于現(xiàn)在這項(xiàng)技術(shù)還非常新,所以絕大部分人根本沒辦法把它們和真實(shí)視頻區(qū)分開來。

What's a 'deepfake,' anyway?
深度偽造到底是什么?

Making a deepfake video is a lot like translating between languages. Services like Google Translate use machine learning – computer analysis of tens of thousands of texts in multiple languages – to detect word-use patterns that they use to create the translation.
制作深度偽造視頻很像是在翻譯語言。像谷歌翻譯一類的翻譯軟件在翻譯語言時(shí),其實(shí)是在用機(jī)器學(xué)習(xí)的技術(shù)來分析人們使用語言的一些模式——也就是用電腦分析多種語言的成千上萬條文本——并以此創(chuàng)作出翻譯。

Deepfake algorithms work the same way: They use a type of machine learning system called a deep neural network to examine the facial movements of one person.
深度偽造算法也是一樣的:它們使用一種叫做深度神經(jīng)網(wǎng)絡(luò)的機(jī)器學(xué)習(xí)系統(tǒng)來研究一個(gè)人的面部動(dòng)作。

Then they synthesize images of another person's face making analogous movements. Doing so effectively creates a video of the target person appearing to do or say the things the source person did.
然后它們就會(huì)合成另一個(gè)人的面孔來做出類似的動(dòng)作。這樣可以很有效地讓目標(biāo)人物在視頻中做源人物在做的事情。

聽起來很高深是不是?

不過它這個(gè)技術(shù)基礎(chǔ)也恰好給我們留下了識(shí)別它的方法。

這種深度神經(jīng)網(wǎng)絡(luò)若想順利運(yùn)作,需要先學(xué)習(xí)非常多的源信息,比如目標(biāo)人物的照片。使用的照片越多,其最終的偽造效果就越好。

但是,有一種表情的照片它們幾乎是得不到的,那就是閉著眼睛時(shí)的表情。

即使是那些每天拍海量照片的人,他們發(fā)布出來的也基本都是自己睜著眼睛的照片;閉眼的照片不光很少被照下來,即使照下來了通常也不會(huì)發(fā)布到網(wǎng)上。

這就讓深度偽造的視頻出現(xiàn)了一個(gè)問題:基本不會(huì)眨眼(blink)

Without training images of people blinking, deepfake algorithms are less likely to create faces that blink normally. When we calculate the overall rate of blinking, and compares that with the natural range, we found that characters in deepfake videos blink a lot less frequent in comparison with real people.
由于訓(xùn)練時(shí)得不到人們眨眼的照片,深度偽造不太可能做出人們正常眨眼的視頻。當(dāng)你把深度偽造視頻里的人和真人做比較,你會(huì)發(fā)現(xiàn)他們眨眼的頻率要小很多。

一個(gè)健康的成年人通常每2-10秒就眨一次眼,每次眨眼的時(shí)間為1/10到4/10秒;如果你在視頻中觀察到的是這樣,那應(yīng)該就是真視頻,而如果不是這樣,那估計(jì)就是深度偽造。

?

OK,來講講今天的詞?Fake

它作形容詞講的時(shí)候表示“虛假的”、“偽造的”。

同時(shí)它也可以作名詞,表示“贗品”。

?

那么,我們來造個(gè)句子吧~

All the paintings proved to be fakes.
所有這些畫都被證實(shí)是假的。

?