8月26日,360 AI安全研究院公布了關(guān)于人臉識別技術(shù)的研究成果和風(fēng)險(xiǎn)提示。據(jù)了解,360 AI安全研究院曾聯(lián)合清華、西安交大的研究人員發(fā)現(xiàn)AI應(yīng)用中圖像縮放模塊存在的漏洞,提出了一種新型的數(shù)據(jù)流降維攻擊方法,影響了國內(nèi)外主流的AI云服務(wù)。
在此次ISC 2020 大會的人工智能與安全論壇上,360 AI安全研究院研究員劉昭以某款人臉識別設(shè)備能讓任意人通過為例,說明不僅AI算法存在漏洞,其所依賴的關(guān)鍵基礎(chǔ)設(shè)施也同樣會被攻擊,并進(jìn)一步揭露了AI關(guān)鍵基礎(chǔ)設(shè)施存在的安全風(fēng)險(xiǎn)。通過攻擊漏洞,最終可以在某人臉識別設(shè)備中實(shí)現(xiàn)任意人員都能通過驗(yàn)證的效果。
值得關(guān)注的是,這種攻擊不是針對AI算法的攻擊,而是對AI算法所依賴的基礎(chǔ)設(shè)施進(jìn)行的攻擊。“針對基礎(chǔ)設(shè)施攻擊,最終可能會更快達(dá)到攻擊效果。”劉昭在演講中表示,大多數(shù)研究人員偏向于對算法安全的研究,比如對抗樣本攻擊、后門攻擊等。雖然AI基礎(chǔ)設(shè)施安全風(fēng)險(xiǎn)巨大,其嚴(yán)重性卻容易被忽視。這意味著,AI關(guān)鍵基礎(chǔ)設(shè)施的三個層面都面臨一定安全風(fēng)險(xiǎn)。
針對深度學(xué)習(xí)框架安全風(fēng)險(xiǎn)。云端框架安全風(fēng)險(xiǎn)主要來自于自身代碼的實(shí)現(xiàn)以及第三方的依賴庫問題;終端框架安全風(fēng)險(xiǎn)主要存在于模型網(wǎng)絡(luò)參數(shù)、模型網(wǎng)絡(luò)結(jié)構(gòu),以及模型轉(zhuǎn)換過程。據(jù)了解,360 AI安全研究院已經(jīng)在多個深度學(xué)習(xí)框架及其依賴組件中發(fā)現(xiàn)了100多個漏洞,如OpenCV,hdf5,numpy等。
針對硬件相關(guān)的安全風(fēng)險(xiǎn)。據(jù)英偉達(dá)官網(wǎng)統(tǒng)計(jì),截至今年7月,關(guān)于GPU驅(qū)動漏洞的數(shù)目達(dá)到數(shù)百個;芯片漏洞以幽靈、熔斷為例,幽靈漏洞可以造成泄露敏感數(shù)據(jù)、執(zhí)行特定代碼,熔斷漏洞導(dǎo)致用戶態(tài)獲取特權(quán)內(nèi)存的數(shù)據(jù),這些漏洞影響了Intel、部分ARM的處理器。
針對云平臺的安全風(fēng)險(xiǎn)。360 AI安全研究院表示,用于深度學(xué)習(xí)任務(wù)的節(jié)點(diǎn)性能強(qiáng)大,因此總會有一些攻擊者想要非法使用這些資源進(jìn)行挖礦。
“只有在確保AI系統(tǒng)的安全,才有可能放心享受AI的便利,那么保證系統(tǒng)中AI關(guān)鍵基礎(chǔ)設(shè)施的安全至關(guān)重要。”360 AI安全研究院表示,AI關(guān)鍵基礎(chǔ)設(shè)施的安全問題可以通過權(quán)限控制、訪問隔離、參數(shù)過濾等措施進(jìn)行緩解,針對AI關(guān)鍵基礎(chǔ)設(shè)施的安全問題,需要建立多維度、一體化風(fēng)險(xiǎn)評估方法以及對應(yīng)防御措施。
下一步,360 AI安全研究院將聚集國內(nèi)外頂尖人工智能安全創(chuàng)新要素,研究人工智能系統(tǒng)各個環(huán)節(jié)安全問題,突破人工智能安全攻防重大關(guān)鍵共性技術(shù),構(gòu)建自動化安全風(fēng)險(xiǎn)評測平臺。