近期,基于生成對抗網絡(GAN)的技術,對視頻或者音頻合成人類的假人臉、假聲音的詐騙案件時有發(fā)生。雖然這些應用目前而言并未有完善的法律進行限制,但它們已經在網絡犯罪中開始發(fā)芽。
這種行為在國外被稱為“Deepfake”(深度偽造),名稱來源于深度學習與偽造的組合。GAN的應用范圍較廣,擴展性也強,可應用于圖像生成、數(shù)據(jù)增強和圖像處理等領域。簡單地說它可以分析一個人數(shù)千個語音記錄(圖像),在分析結果上創(chuàng)建一個聽起來“一樣”的文件(音頻或圖像)。
圍繞這項技術的討論越來越激烈,人們開始擔憂不法分子通過其模仿政客或者公眾人物傳播虛假的信息,例如通過發(fā)表極端的主義言論影響選舉結果或者煽動暴力等。
今年8月,在西班牙就有通過Deepfake技術詐騙公司22萬歐元的案件發(fā)生,其主要的方式是詐騙者通過模仿該公司ceo的聲音,對公司員工進行詐騙。
語音詐騙非常常見,但是通過人工智能與深度學習進行犯罪的,目前還是比較“新鮮”,據(jù)網上資料統(tǒng)計,2013年-2017年網上詐騙案件增長了350%,一旦犯罪分子利用AI技術,那么這個比例只會有增不減。
AI作為一項新技術,本身并無善惡之分,人們可以用其進行制止犯罪,也可以用于實施犯罪。從悲觀的角度上看,未來企業(yè)用戶的IT系統(tǒng)與網絡威脅將迎來更高層次的挑戰(zhàn),因此對于網絡安全而言任重道遠。