在2019 英特爾人工智能峰會期間(Intel AI Summit 2019),英特爾展示了一系列新產品進展,旨在加速從云端到邊緣的人工智能系統開發和部署,迎接下一波人工智能浪潮的到來。英特爾展示了面向訓練 (NNP-T1000) 和面向推理 (NNP-I1000) 的英特爾? Nervana? 神經網絡處理器 (NNP)。作為英特爾為云端和數據中心客戶提供的首個針對復雜深度學習的專用 ASIC 芯片,英特爾 Nervana NNP 具備超高擴展性和超高效率。英特爾還發布了下一代英特爾? Movidius? Myriad? 視覺處理單元 (VPU),用于邊緣媒體、計算機視覺和推理應用。
英特爾公司副總裁兼人工智能產品事業部總經理 Naveen Rao 表示:“隨著人工智能的進一步發展,計算硬件和內存都將到達臨界點。如果要在該領域繼續取得巨大進展,專用型硬件必不可少,如英特爾 Nervana NNP 和 Movidius Myriad VPU。采用更先進的系統級人工智能,我們將從‘數據到信息的轉換’階段發展到‘信息到知識的轉換’階段。”
隨著這些產品的發布,英特爾人工智能解決方案產品組合進一步得到強化,并有望在 2019 年創造超過 35 億美元的營收。英特爾人工智能產品組合的廣度和深度都堪稱行業之最,能夠幫助客戶在從云端到邊緣的所有設備和各個范圍內,進行人工智能模型的開發和部署。
新推出的英特爾 Nervana 神經網絡處理器現已投入生產并完成客戶交付,它是系統級人工智能解決方案的一部分。該解決方案提供由開放組件和深度學習框架集成開發而成的完整軟件堆棧,能夠充分利用硬件性能。英特爾 Nervana 神經網絡訓練處理器(Intel Nervana NNP-T)在計算、通信和內存之間取得了平衡,不管是對于小規模群集,還是最大規模的 pod 超級計算機,都可進行近乎線性且極具能效的擴展。英特爾 Nervana 神經網絡推理處理器(Intel Nervana NNP-I)具備高能效和低成本,且其外形規格靈活,非常適合在實際規模下運行高強度的多模式推理。這兩款產品面向百度、 Facebook 等前沿人工智能客戶,并針對他們的人工智能處理需求進行了定制開發。
Facebook 人工智能系統協同設計總監 Misha Smelyanskiy 表示:“我們非常高興能夠與英特爾合作,利用英特爾神經網絡推理處理器(NNP-I)部署更快、更高效的推理計算。同時,我們最新的深度學習編譯器 Glow 也將支持 NNP-I。”
此外,下一代英特爾 Movidius VPU 計劃于 2020 年上半年上市,憑借獨一無二的高效架構優勢,能夠提供業界領先的性能:與上一代 VPU 相比,推理性能提升 10 倍以上,能效則可達到競品的 6 倍。英特爾還發布了全新的英特爾? DevCloud for the Edge,與英特爾? Distribution of OpenVINO? 工具包共同解決開發人員的主要痛點,即在購買硬件前,能夠在各類英特爾處理器上嘗試、部署原型和測試 AI 解決方案。
推進深度學習推理和應用需要極其復雜的數據、模型和技術,因此在架構選擇上需要有不同的考量。事實上,業界大部分組織都基于英特爾?至強?可擴展處理器部署了人工智能。英特爾將繼續通過英特爾?矢量神經網絡指令 (VNNI) 和英特爾?深度學習加速技術(DL Boost)等功能來改進該平臺,從而在數據中心和邊緣部署中提升人工智能推理的性能。在未來很多年中,英特爾至強可擴展處理器都將繼續成為強有力的人工智能計算基石。
對于有著最先進深度學習訓練需求的英特爾客戶來說,他們要求性能每 3.5 個月提升一倍,而這一類突破只有借助一系列人工智能解決方案才能實現,比如英特爾人工智能解決方案。英特爾有能力全面考慮計算、內存、存儲、互連、封裝和軟件,以最大限度提升效率和可編程性,并能確保將深度學習擴展到數以千計節點的關鍵能力,進而擴大知識革命的規模。