“照騙”時(shí)代,用戶可以拉長(zhǎng)腿,去除粉刺,甚至可以添加動(dòng)物耳朵。在視頻領(lǐng)域,人們也在尋找趣味感,而后有了被稱作“潘多拉盒子”的Deepfake(一種人工智能基礎(chǔ)的人物圖像合成技術(shù))的問世,以及后續(xù)應(yīng)用該技術(shù)生成的諸如“ZAO”的出現(xiàn)。這種造假技術(shù)甚至被延用到更加復(fù)雜的音頻領(lǐng)域。
根據(jù)《華爾街日?qǐng)?bào)》在2019年8月30日的報(bào)道,在此前3月,犯罪分子使用基于人工智能的軟件冒充母公司首席執(zhí)行官的聲音,子公司首席執(zhí)行官以為自己是在與他的老板(該公司德國(guó)母公司的首席執(zhí)行官)通話,當(dāng)時(shí)他遵從命令立即向匈牙利供應(yīng)商的銀行帳戶中存入歐元22萬歐元(約合$24.3萬美元)。
左圖:Deepfake制作 右圖:原圖
Deepfake技術(shù)創(chuàng)作之初,作為技術(shù)的進(jìn)步本身沒有惡意,但還是被惡意使用了,比如虛假的名人性愛影片和報(bào)復(fù)性色情視頻,甚至造假新聞及惡作劇,影響著我們對(duì)視頻真實(shí)性的判斷,甚至影響到一個(gè)人或一個(gè)國(guó)家的命運(yùn)。2020年美國(guó)總統(tǒng)大選臨近,利用Deepfake進(jìn)行非常令人信服的虛假信息運(yùn)動(dòng)的可能性也非常高。
為了解決這個(gè)問題,高校、企業(yè)等研究人員正在開發(fā)檢測(cè)算法來識(shí)別別刪除這些視頻。
2019年1月,由慕尼黑科技大學(xué)(Technical University Of Munich)的一名研究人員領(lǐng)導(dǎo)的學(xué)術(shù)團(tuán)隊(duì),通過對(duì)近1000個(gè)YouTube視頻執(zhí)行這四種常見的面部操縱方法,創(chuàng)建了一個(gè)深假數(shù)據(jù)集FaceForensics++。
谷歌在這些努力中加入了另一種方法,即,使用一系列被稱為生成性對(duì)抗網(wǎng)絡(luò)(GANS)的計(jì)算機(jī)程序進(jìn)行面部操縱:機(jī)器學(xué)習(xí)系統(tǒng)將神經(jīng)網(wǎng)絡(luò)相互對(duì)峙,以便生成不存在的人的令人信服的照片。此外,谷歌還增加了神經(jīng)紋理圖像處理算法的組合。
2019年9月25日,谷歌正式發(fā)布了與Jigsaw技術(shù)孵化器合作推出的相當(dāng)龐大的Deepfake視頻數(shù)據(jù)集(含3000多個(gè)視頻),支持開發(fā)相關(guān)軟件,以檢測(cè)音頻真假,并已被納入慕尼黑科技大學(xué)(Technical University Of Munich)和那不勒斯大學(xué)費(fèi)德里科二世(University Federico II)的新FaceForensics基準(zhǔn)。谷歌表示,150多家研究機(jī)構(gòu)和行業(yè)組織下載了該數(shù)據(jù)集。同樣的數(shù)據(jù)集現(xiàn)在也可以供公眾使用。用戶可以在FaceForensics Github頁面上下載這個(gè)數(shù)據(jù)集。
谷歌雇傭并拍攝了各種場(chǎng)景中的28名演員,錄制了他們說話、做普通表情和做普通任務(wù)的視頻,然后使用公開可用的Deepfake生成算法-「Deepfakes」、「Face2Face」、「FaceSwap」、「NeuralTextures」創(chuàng)建了一個(gè)大約3000個(gè)Deepfake數(shù)據(jù)庫(kù)。谷歌承諾向數(shù)據(jù)庫(kù)中不斷增加視頻數(shù)據(jù),希望能夠跟上快速發(fā)展的Deepfake生成技術(shù),同時(shí)會(huì)繼續(xù)和該領(lǐng)域的合作伙伴攜手合作,他們堅(jiān)信這是一個(gè)蓬勃發(fā)展的研究領(lǐng)域,將幫助人們辨別音頻的真假,為檢測(cè)音頻、視頻和圖像真?zhèn)巫龀鲐暙I(xiàn),減輕對(duì)技術(shù)的濫用將帶來的潛在危害。
谷歌并不是唯一一家為打擊深度假貨做出貢獻(xiàn)的科技公司。Facebook和微軟參與了一項(xiàng)全行業(yè)倡議,旨在創(chuàng)建一套開源工具,公司、政府和媒體組織可以使用這些工具來檢測(cè)被篡改的視頻。Facebook計(jì)劃在今年(2019)年底之前發(fā)布一個(gè)類似的數(shù)據(jù)庫(kù)。在2019年9月5日,F(xiàn)acebook宣布了成立1千萬美元基金,用于“Deepfake檢測(cè)挑戰(zhàn)”。
數(shù)據(jù)集是為了創(chuàng)建一個(gè)大型的示例語料庫(kù),可以幫助培訓(xùn)和測(cè)試自動(dòng)檢測(cè)工具。但這也是一場(chǎng)貓鼠游戲:但是一旦開發(fā)了一種檢測(cè)方法來利用特定生成算法中的缺陷,就可以很容易地更新算法來糾正它。
ESET(維護(hù)數(shù)字世界安全的公司)的網(wǎng)絡(luò)安全專家杰克·摩爾(Jake Moore)將重點(diǎn)放在培訓(xùn)員工上。他說:“在不久的將來,我們將看到機(jī)器學(xué)習(xí)的網(wǎng)絡(luò)犯罪大幅上升。我們已經(jīng)看到了模仿名人和公眾人物的Deepfake視頻,但是為了創(chuàng)造令人信服的材料,網(wǎng)絡(luò)罪犯使用了已經(jīng)可以在公共領(lǐng)域獲得的視頻資料。隨著計(jì)算能力的提高,Deepfake更容易創(chuàng)建,這描繪了一幅可怕的圖景。為了幫助減少這些類型的風(fēng)險(xiǎn),公司應(yīng)該從提高意識(shí)和教育員工開始,然后引入第二層保護(hù)和驗(yàn)證,這一層很難被欺騙,比如一次性密碼生成器(OTP設(shè)備)。不知不覺,Deepfake將比以往任何時(shí)候都更有說服力,因此公司需要考慮投資Deepfake檢測(cè)軟件,越早越好。然而,柜臺(tái)軟件的開發(fā)從來沒有那么快,所以公司應(yīng)該把重點(diǎn)放在培訓(xùn)員工上,而不是僅僅依靠軟件?!?/p>
區(qū)塊鏈專家Kevin Gannon是區(qū)塊鏈技術(shù)主管和解決方案架構(gòu)師,他表示:“當(dāng)涉及Deepfake領(lǐng)域時(shí),區(qū)塊鏈等新興技術(shù)可以脫穎而出,提供一定程度的安全性、審批和驗(yàn)證。當(dāng)擁有數(shù)字身份的用戶想要做某事時(shí),他們可能會(huì)被提示提供身份證明,然后才能授予對(duì)某些東西(如資金)的訪問權(quán)限。從另一個(gè)角度來看,視頻、音頻文件的實(shí)際真實(shí)性可以通過區(qū)塊鏈應(yīng)用程序來證明,其中可以將某些文件(假設(shè)的校樣)的散列與原始文件進(jìn)行比較?!?/p>
“道高一尺魔高一丈”,Deepfake技術(shù)和Deepfake檢測(cè)技術(shù)的各自發(fā)展如道與魔的一場(chǎng)較量,谷歌,微軟,F(xiàn)acebook和高校以及其他行業(yè)專家的努力讓我們看到至少這個(gè)威脅被看到,沒有被忽視,尤其谷歌本次發(fā)布深度假冒視頻圖像克星--一個(gè)全新可視化深度虛假數(shù)據(jù),在攻克Deepfake檢測(cè)上實(shí)現(xiàn)了大邁進(jìn),讓我們充滿信心,同時(shí)該技術(shù)的風(fēng)險(xiǎn)影響也不能完全依賴技術(shù)的改善,也需要國(guó)家監(jiān)管,政策等相關(guān)的出臺(tái)。
聯(lián)系客服