近日,人工智能行業組織MLCommons發布了一組新的人工智能績效榜單MLPerf Version 1.1。其中可以看到,其遵循了五個月前的第一套官方基準,包括來自20多個組織的1800多項結果,以及350項能源效率測量。根據MLCommons的數據,大多數系統的性能比今年早些時候提高了5-30%,其中一些系統的性能數據比以前提高了一倍多。在近日宣布一個新的機器學習基準測試(稱為TCP AIx)之后,出現了新的結果。
在MLPerf的推斷基準測試中,由CPU和GPU或其他加速器芯片組合而成的系統在多達六個神經網絡上進行測試,這些神經網絡執行各種常見功能:圖像分類、目標檢測、語音識別、3D醫學成像、自然語言處理和推薦。對于基于商業數據中心的系統,他們在兩種條件下進行了測試:模擬實時數據中心活動,其中查詢以突發方式完成;以及“離線”活動,其中所有數據一次可用。本應在現場工作而不是在數據中心工作的計算機(MLPerf稱之為邊緣)是在離線狀態下測量的,就像它們接收到單一數據流一樣,例如來自安全攝像頭的數據流。
盡管有來自戴爾、HPE、浪潮、英特爾、LTech Korea、聯想、Nvidia、Neuchips、高通和其他公司的數據中心級提交,但除高通和Neuchips公司外,其他公司都使用了Nvidia AI加速器芯片。英特爾根本沒有使用加速器芯片,而是單獨展示其CPU的性能。Neuchips只參與了推薦基準測試,因為他們的加速器RecAccel專門設計用于加速推薦電子商務項目和搜索結果排名的推薦系統。
MLPerf tests six common AIs under several conditions.NVIDIA
對于Nvidia提交的結果,該公司僅使用軟件改進就彌補了過去一年50%的性能改進。測試的系統通常由一個或兩個CPU以及多達八個加速器組成。在每臺加速器的基礎上,使用Nvidia A100加速器的系統顯示的性能是使用低功率Nvidia A30的系統的兩倍或更多。基于A30的計算機在服務器場景的六次測試中,有四次超過了基于高通公司Cloud AI 100的系統。
然而,高通公司產品管理高級總監John Kehrli指出,高通公司的加速器被故意限制為每個芯片的數據中心友好型75瓦功率外殼,但在離線圖像識別任務中,他們仍然設法通過了一些基于Nvidia A100的計算機,這些計算機配備了加速器,每個加速器的峰值熱設計為400W。
Nvidia has made gains in AI using only software improvements.NVIDIA
Nvidia AI推論高級產品經理Dave Salvator指出了該公司加速器的兩個其他結果:第一,Nvidia A100加速器首次與服務器級Arm CPU而不是x86 CPU配對。在所有六個基準測試中,Arm和x86系統之間的結果幾乎相同。“這對Arm來說是一個重要的里程碑,”Salvator表示,“這也是關于我們的軟件堆棧準備就緒,能夠在數據中心環境中運行Arm體系結構的聲明。”
與正式的MLPerf基準測試不同,Nvidia展示了一種稱為多實例GPU(MiG)的新軟件技術,該技術允許單個GPU從軟件角度看就像它是七個獨立的芯片。當該公司同時運行所有六個基準測試,再加上一個額外的對象檢測實例(假設是flex)時,結果是單個實例值的95%。
基于Nvidia A100的系統還清理了邊緣服務器類別,該類別的系統設計用于商店和辦公室等場所。這些計算機按照相同的六個基準測試中的大部分進行測試,但推薦系統被替換為低分辨率的目標檢測。但在這個類別中,有更廣泛的加速器可供選擇,包括Centaur的人工智能集成協處理器;高通公司的AI 100;Edgecortix的DNA-F200 v2,Nvidia的Jetson Xavier和FuriosaAI的Warboy。
Qualcomm topped the efficiency ranking for a machine vision test.QUALCOMM
使用CPU和加速器數量不同的系統,在兩種商業類別的兩種條件下進行六次測試,MLPerf性能結果實際上不適用于類似Top500.org通過超級計算實現的簡單有序列表。最接近的部分是效率測試,可以歸結為離線組件每瓦特每秒的推斷。高通公司系統在數據中心和邊緣類別的對象識別、對象檢測和自然語言處理方面進行了效率測試。在每瓦特每秒的推斷方面,他們在機器視覺測試中擊敗了Nvidia支持的系統,但在語言處理方面沒有。Nvidia加速系統占據了所有其他位置。
近日推出了新的基準,目標是一個單一的數字,這似乎與MLPerf的多維性背道而馳。e Transaction Processing Performance委員會稱TCPx AI基準:
生成和處理大量數據
訓練預處理數據以生成真實的機器學習模型
根據生成的模型對真實客戶場景進行準確洞察
可以擴展到大型分布式配置
允許靈活更改配置,以滿足動態AI環境的需求
TPCx人工智能委員會主席兼英特爾首席工程師Hamesh Patel解釋說,該基準旨在捕獲機器學習和人工智能的完整端到端過程。這包括MLPerf中未包含的流程部分,如準備數據和優化。“沒有一個基準可以模擬整個數據科學管道,”他說。客戶表示,準備(數據)可能需要一周時間,訓練“神經網絡”可能需要兩天時間。
MLPerf和TPCx AI之間的巨大差異包括后者依賴于與真實數據相似但動態生成的合成數據。MLPerf使用真實數據集進行訓練和推理,MLCommons執行董事David Kanter對合成數據結果的價值表示懷疑。
MLCommons和TPC之間的成員資格有很多重疊,因此,如果兩個基準中的任何一個在可信度上優于另一個,則仍有待觀察。至少兩名MLPerf參與者報告說,MLPerf目前無疑具有優勢,計算機系統制造商已經被要求提供MLPerf數據,作為提案請求的一部分。