很多朋友應該都知道了,昨天(1月28日)英偉達下調了第四財季的業績預期,隨后股價暴跌高達18%。
請注意這里的細節,是英偉達自己下調了預期,發生的時機是在發布本季財報(2月4日)之前。說白了,就是自己提前承認這個季度搞砸了,并跪求各位投資人放過。
另外一個需要注意的細節是,這已經不是英偉達第一次下調本季度的業績預期了。在去年發布第三季度財報時,英偉達就已經將第四財季的營收期望下調了7%左右,低于市場預期近兩成。最近六個月以來,英偉達股價已經由最高的290美元左右,下跌到目前的130美元,除了股價腰斬,更成為同期標普500指數中表現最差的公司。
英偉達在這封致股東信中提到,導致收入指引下調的主要原因是全球及部分地區的經濟減速,導致游戲GPU銷量和數據中心業務的大量下滑。
相比之下,老石在之前的文章中介紹過,FPGA公司Xilinx在前幾天發布季度財報后,股價飆升接近20%。這很大程度上歸功于Xilinx通信與數據中心部門的高速增長。此外,英特爾在其最新財報中披露,旗下FPGA部門在數據中心領域的增長幅度約有驚人的50%。
分析師們并不會告訴你,為什么這些公司目前有如此迥異的表現。在本文中,老石就從技術角度深入分析,當年的小甜甜怎么變成了今天的牛夫人。
數據中心AI加速芯片的選擇
推動人工智能爆發的最主要原因之一,就是硬件算力的提升。而英偉達的股價當年之所以能夠三年漲10倍,就是因為GPU非常適用于深度神經網絡的訓練。與傳統的CPU相比, GPU擁有數千個計算內核,能夠在性能上取得上百倍的提升。因此AI就成為了GPU最主要的應用領域之一,也成就了英偉達的高速增長。
隨著AI的不斷發展,諸如微軟和谷歌這樣的巨頭公司開始考慮在數據中心里采用GPU作為AI加速芯片,這時問題就出現了。在大量部署時,芯片的性能并不是唯一需要考慮的因素。事實上,很多情況下它也并不是最重要的因素。
對于某種AI加速芯片,老石將常見的評價因素總結為五點:性能、靈活性、同構性、成本和功耗。其中:
靈活性:指這種芯片對不同應用場景的適應程度。
同構性:指的是AI加速芯片能否重復利用數據中心現有的架構和資源。
成本:既包括對該硬件加速器的研發投入,也包含了它的采購、部署和運維開支。
功耗:就是指引入該方案后,對數據中心帶來的額外功耗負擔。
接下來,老石就對幾種常見的AI加速芯片,比如GPU、FPGA以及ASIC,采用上述評價因素做一個簡單的定性對比。
GPU
GPU最大的問題是,它基本上是個“功耗黑洞”:中等性能的GPU功耗都普遍超過200W,而高性能GPU的功耗會超過300W。相比于FPGA或ASIC的幾十瓦甚至幾瓦的功耗而言,這個數字顯得過于驚人。
高功耗對于GPU在數據中心里的大規模部署是致命的,因為這不僅代表著高昂的電費開支,還表示數據中心現有的供電、散熱等硬件架構需要進行重新修改,這對于同構性和低成本這兩項要求而言基本上是不可能的任務。
在靈活性方面,GPU通常只適用于計算密集型運算,對于通信密集型的應用,GPU需要與CPU和網卡組成一個完整的通信系統,因此對于這類應用,GPU的靈活性會受到較大限制。
ASIC
專用的AI加速芯片以谷歌的張量處理器TPU(Tensor Processing Unit)最為典型。TPU專為谷歌的深度學習框架TensorFlow設計,現在已有第二代,被用來加速神經網絡的和決策。ASIC最主要的優勢是它的超高性能和超低功耗。與GPU相比,TPU在某些AI應用的性能可以提高一個量級,而功耗會下降一到兩個量級。
不過,得到這樣高性能和低功耗需要付出的代價就是巨大的研發成本。放眼全球,有資金實力和技術儲備進行這類研發的公司,大概用一個手就能數的出來。ASIC的另外一個缺點是它的低靈活性,它通常針對某種特定的應用和算法框架而設計,因此很難直接用于其他的應用。
FPGA
相比GPU和ASIC,FPGA在各項評價指標中能夠達到比較理想的平衡。在絕對性能方面,雖然不如GPU或ASIC,但由于FPGA可以定制化硬件流水線,并且可以進行大規模并行運算,因此相比傳統的基于CPU的計算性能還是有著至少一到兩個量級的提升。由于FPGA具有硬件可編程的特點,使得它可以應對包括計算密集型和通信密集型在內的各類應用。此外,FPGA獨有的動態可編程、部分可編程的特點,使其可以跨空間和時間兩個維度,同時處理多個應用,或在不同時刻處理不同應用,因此有很強的靈活性。
功耗和成本方面,FPGA的功耗通常為幾十瓦,采購與運維成本遠低于GPU。FPGA的開發成本主要涉及購買特定的FPGA設計和調試工具、采購FPGA芯片或加速卡,以及組建團隊進行或外包FPGA開發項目等投入。雖不及CPU或GPU等基于軟件的開發方式,但由于省去了FPGA芯片制造的相關環節,因此相比研發一款專用芯片而言還是低很多。
此外,FPGA目前通常以加速卡的形式配合現有的通用處理器進行大規模部署,對額外的供電和冷卻等環節沒有特殊要求,因此可以兼容數據中心的現有硬件體系結構。
AI芯片的最大風險
對于AI芯片的設計者而言,當前最大的風險就是AI本身。在這個群雄爭霸的時代,各種新算法、新模型層出不窮,因此在某種方法一統天下之前,很難將其中的任何一種方法固化在芯片上,否則就很可能再次重演以前的小甜甜變成今天的牛夫人這樣的悲劇。
比如,為了進一步提升性能功耗比,目前比較流行的方法是使用近似(approximation)算法,例如將雙精度浮點數換成低精度的定點數,或者對不同權重的網絡分支做剪枝、結構優化和壓縮的操作。這方面的具體內容在本文中不再展開,有興趣的讀者可以參考老石在英國的博士師弟小王同學最新發表的綜述,題目見下圖,點擊閱讀原文即可查看。
老石想說的是,這些不斷涌現的全新AI方法只有通過FPGA才能快速實現,這對于GPU或者ASIC都是不可能完成的任務。
結語
正如老石在之前的文章里提到的,數據中心與AI已經成為各家芯片公司的必爭之地。只不過,近期資本市場的表現在某種程度上展示了人們對不同方案的認可度。這也是老石在本文中嘗試分析的。
然而,老石并不想立flag斷言這些公司的未來,老石只是相信,技術會不斷給出自己的答案。