英特爾和Facebook正在攜手,把英特爾MKL函數(shù)集成與Caffe2結(jié)合。這使Caffe2在英特爾CPU上的性能大大提升。大多數(shù)深度學(xué)習(xí)工作負(fù)載同時包含訓(xùn)練和推理,其中推理所需的計算資源總量遠(yuǎn)高于訓(xùn)練。目前絕大多數(shù)推理工作負(fù)載都運行在英特爾至強處理器上,這一合作大大方便了廣大人工智能技術(shù)開發(fā)者。
事實證明,英特爾MKL函數(shù)集成與Caffe2的結(jié)合效果喜人。根據(jù)Caffe2上采用了AlexNet拓?fù)湟约坝⑻貭?MKL和Eigen BLAS的性能結(jié)果顯示,Caffe2在CPU上進行了高度優(yōu)化,并提供明顯更有競爭力的性能。對于小型批處理推理工作負(fù)載,專家建議在每個CPU核心上運行一個工作負(fù)載,并且并行運行多個工作負(fù)載,每個核心一個工作負(fù)載。
其實,為了針對各種訓(xùn)練和推理應(yīng)用進行優(yōu)化,去年,英特爾在幾個深度學(xué)習(xí)框架上都迅速增加了CPU的支持。這些優(yōu)化中最核心的一項便是英特爾數(shù)學(xué)核心函數(shù)庫(英特爾 MKL),它使用英特爾高級矢量擴展CPU指令集(例如英特爾 AVX-512),更好地支持深度學(xué)習(xí)應(yīng)用。該函數(shù)庫的算法能夠平均分配數(shù)據(jù)和任務(wù),充分利用多個核心和處理器。
通過這次與Facebook攜手增進Caffe2在英特爾架構(gòu)上性能的舉措不難看出,英特爾一直是積極賦能人工智能開發(fā)的領(lǐng)軍角色。長期以來,英特爾致力于開源協(xié)作,確保客戶和合作伙伴在英特爾硬件上擁有出色、簡便、完整的 AI 體驗。英特爾使數(shù)據(jù)、培訓(xùn)、工具和智能技術(shù)更容易獲取,目的是助力人工智能技術(shù)的大眾化,擴大人工智能的影響力,這些實際上這是英特爾作為AI應(yīng)用普及推動者,正在積極打造AI時代的新生態(tài)的一部分。
在深度學(xué)習(xí)框架層面,英特爾正在基于X86架構(gòu)優(yōu)化各種深度學(xué)習(xí)框架,讓企業(yè)迅速能夠部署人工智能,比如 Caffe,TensorFlow,Theano 和 Torch 等。在Google對最受歡迎的深度學(xué)習(xí)框架之一TensorFlow 進行開源后,英特爾發(fā)布了 TensorFlow 的性能優(yōu)化開發(fā)者工具包,促進使用 CPU 進行深度學(xué)習(xí),強化其在英特爾處理器上的執(zhí)行效能。雙發(fā)協(xié)作讓TensorFlow可以用于所有英特爾CPU核心以改善平行運算、整合高效能函式庫如MKL到TensorFlow,并且優(yōu)化不同網(wǎng)路拓?fù)涞挠洃涹w配置與資料層的運作。
此外,英特爾在 2016年12月開源了基于 Apache Spark 的分布式深度學(xué)習(xí)框架 BigDL,大大降低普通大數(shù)據(jù)用戶和數(shù)據(jù)科學(xué)家在使用深度學(xué)習(xí)進行數(shù)據(jù)分析和構(gòu)建人工智能應(yīng)用的門檻。BigDL 一大優(yōu)點是它原生地建立在Spark上,天然地繼承了Spark 的可擴展性,并且與現(xiàn)有大數(shù)據(jù)處理工作流(例如Spark ML pipeline,SparkSQL, Spark Streaming, Dataframes, Structured Streaming 等)無縫集成。用戶可以通過 BigDL將深度學(xué)習(xí)應(yīng)用編寫為標(biāo)準(zhǔn)的 Spark程序,這些程序可以直接在 Spark或Hadoop集群上運行。將BigDL進行開源大大方便了有大量數(shù)據(jù)需要管理,以及擁有大數(shù)據(jù)平臺(Hadoop/Spark)的分析客戶。在短短一個月內(nèi),GitHub上已獲得 229 個用戶克隆 BigDL代碼(FORK)和1421個用戶收藏(STAR)。
其實,無論是與科研、互聯(lián)網(wǎng)、電商、生命科學(xué)等不同領(lǐng)域生態(tài)合作伙伴一起,以英特爾架構(gòu)(IA)技術(shù)、產(chǎn)品和創(chuàng)新,充分滿足生物、計算機視覺等多元化的應(yīng)用創(chuàng)新,還是與Facebook攜手優(yōu)化Caffe 2在英特爾處理器上的運用,開源BigDL等深度學(xué)習(xí)框架等,抑或是傳播AI知識,建立英特爾Nervana人工智能研究院——英特爾構(gòu)建AI生態(tài)的初衷,都是要讓人工智能應(yīng)用的門檻降低,大幅拓寬人工智能技術(shù)的應(yīng)用面,讓AI早日揭開神秘面紗,順利落地于實際應(yīng)用領(lǐng)域。
在私有、公共或混合云中采用人工智能的機會不斷增多,這就需要使數(shù)據(jù)、人才、將信息轉(zhuǎn)化為洞察的工具更容易廣泛獲取。人工智能技術(shù)大眾化的道路上,需要迅速改變數(shù)據(jù)存儲孤島、專家數(shù)量少、工具復(fù)雜等關(guān)鍵問題。英特爾相信,更開放的行業(yè)環(huán)境將助推人工智能發(fā)展的各環(huán)節(jié)形成一個良性循環(huán),它能打破發(fā)展瓶頸,最終釋放AI原力。