大量的數據、有效的算法以及足夠的算力結合,推動了人工智能的高速發展。但我們也不得不看清一個嚴峻的現實:數據量越來越大,數據類型越來越多;各種算法日新月異,高速發展;與此同時,算力的提升卻顯得趕不上趟,甚至落后于數據和算法的需求,特別是在計算場景對高帶寬、低功耗需求持續走高的趨勢下。此外,加之芯片工藝趨近極限,可大規模商用的新型材料暫時還沒實現,在芯片架構上的探索成為提高芯片性能最重要的手段之一。
AI芯片的破“墻”運動
在傳統的馮·諾依曼架構中,由于計算與存儲分離,計算過程中需要不斷通過總線交換數據,將數據從內存讀進CPU,計算完成后再寫回存儲。而隨著深度學習的發展和應用,計算單元和存儲單元之間的數據移動尤為頻繁,數據搬運慢、搬運能耗大等問題成為了算力效能進一步提升的關鍵瓶頸。從處理單元外的存儲器提取數據,搬運時間往往是運算時間的成百上千倍,公開數據顯示,整個過程的無用能耗約在60%-90%之間。
特別是大算力場景下,存算分離帶來的計算帶寬問題成為主要瓶頸。以智能駕駛等邊緣端高并發計算場景來看,它們除了對算力需求高之外,對芯片的功耗和散熱也有很高的要求。而常規架構的芯片設計中,內存系統的性能提升速度已經大幅落后于處理器的性能提升速度,有限的內存帶寬無法保證數據高速傳輸,無法滿足高級別的計算需求。
行業面臨的挑戰很突出,一邊是需要逾越的“算力高墻”,一邊則是固守多年的“存儲墻”。而只有創新架構,打破存儲墻、降低成本、提升計算效率,才能讓芯片算力更進一步,推進數據計算應用的發展。
在這一趨勢下,將內存和計算更緊密地結合在一起的存算一體方案,正獲得越來越多的關注,并逐步由研究走入商用場景中。
以數據為核心的AI芯片路線
對于大算力的AI芯片來說,架構設計已經越來越明顯地轉向了“數據為核心”的思路,不過對于不同技術路線的企業來說,有不同的實現方式。
圖源 | VideoCardz
HBM是目前超大算力芯片常用的方案之一,它能夠暫時緩解“存儲墻”的困擾,但實現成本較高。以英偉達在AI云端市場大規模落地的GPU來看,其最先進的Hopper架構一方面通過HBM來解決內存墻,另一方面新增了張量存儲加速器 (TMA) 。整個Hopper架構GPU由8個圖形處理集群(GPC)“拼接”組成,核心兩側是HBM3顯存,擁有5120 Bit的位寬。此外,TMA提高了張量核心與全局存儲和共享存儲的數據交換效率。
這一方式也需要先進的工藝和封裝技術,基于Hopper的最新一代GPU H100,就采用了臺積電4nm工藝、CoWoS 2.5D封裝技術,在設計能力、成本投入方面都有很高門檻。
再看三星發布的HBM2-PIM技術和近內存計算方案AxDIMM。HBM2-PIM實際上是一塊帶有計算功能且在AI應用中能提升系統性能的內存芯片,AxDIMM則實現了在每個DRAM芯片旁邊都集成了一塊單獨的加速器邏輯并可以同時訪問,增加了訪存帶寬。這樣的設計思路也非常符合三星的業務規劃,用以確保其存儲器在AI時代繼續保持先進性。
英特爾的神經擬態計算芯片Loihi也采用了存算一體的架構,使之更加容易擴展。Loihi芯片的裸片包含128個小核,每個核里面模擬1024個神經元的計算結構,每個神經元又有1000個突觸連接,這意味著768個芯片連接起來可以構建接近1億神經元的系統。
存算一體,方興未艾
近年來,國內企業對于存算一體芯片的投入進入高峰期。
據<與非網>分析,國產存算一體芯片主要呈現以下趨勢:進入2017年以來,國產存算一體芯片企業開始“扎堆”入場,12家企業中有10家成立于2017年之后;第二,從技術路線來看,以近存計算和存內計算兩種路線為主,其中,又可以細分為模擬存內計算、全數字存內計算、類腦存內計算、類腦近存計算等;第三,存儲器類型相對多樣化,包括閃存、SRAM、RRAM、ReRAM等;第四,國產存算一體芯片正在向大算力的方向邁進,以2020年成立的億鑄科技和后摩智能為代表。
圖:國產存算一體芯片概況
<與非網>不完全整理
技術路線的選擇直接決定了產品的應用方向。近存計算的基本做法是將數據存儲盡量靠近計算單元,降低數據搬運的延遲和功耗,其架構主要包括多級緩存架構和高密度片上存儲;而存內計算是對內部存儲中添加計算邏輯,直接在內部存儲執行數據計算,這種架構數據傳輸路徑最短,同時能滿足大模型的計算精度要求。
在存儲器的選擇方面,發展較為成熟的有NOR Flash、SRAM、DRAM等。FLASH屬于非易失性存儲介質,具有低成本、高可靠性優勢,但工藝制程有瓶頸;SRAM在速度方面有優勢,但容量密度小,價格高,在大陣列運算的同時保證運算精度具有挑戰;DRAM成本低、容量大,但是速度慢,且需要電力不斷刷新。存算一體新型存儲器有PCRAM、MRAM、ReRAM等,其中ReRAM在神經網絡計算中具有優勢,是目前發展較快的新型存儲器。
此外,還有模擬存算和全數字存算的區分。究竟是數字好還是模擬好?前幾年,業界認為模擬計算在速度、能耗、工藝節點方面有優勢;近些年,又提出模擬路線需要進行模數轉換,精度容易受信噪比影響達到上限,而數字計算具有高精度、高環境容忍度的優點。不過,不論是模擬還是數字,都需要企業基于已有技術能力,面向應用場景、可選擇工藝等方面進行權衡選擇。
誰將勝出?
面向國際巨頭在AI算力市場、存儲技術占據領先地位的當下,以電路/架構設計出身的存算一體初創公司,將競爭核心著眼于存算一體SoC芯片設計以及相應的IP核能力,是一種較為務實的做法。并且,差異化的技術路線演進,長遠看也有利于產業的良性發展。
目前看來,整個行業對存算一體芯片的研究依舊處于探索階段,在工藝成熟度、典型應用、生態系統等方面亟待進一步成熟,談論哪種架構勝出為時尚早。并且,存算一體芯片發展本身就涉及龐雜的產業鏈環節,需要從存儲器到AI芯片再到編譯器和算法的一系列技術能力,也離不開強大的開發能力和生態建設能力。
寫在最后
多年從事芯片開發的工程師,到后來可能發現,很多時候算力的提升并不在于計算單元本身,而是傳輸帶寬的制約。對于這一多年來就存在的瓶頸,存算一體無疑是合理的路徑,也因深度學習的興盛而達到了合適的發展節點。
目前看來,第一批實現量產落地的存算一體芯片,以小算力、端側應用居多,面向大算力數據中心、智能駕駛的芯片,根據主要玩家的市場規劃,有望在未來一兩年內實現量產。
在人工智能本身仍在探尋應用場景的前提下,存算一體化的落地問題,仍需要緊密結合具體應用場景具體分析。存算一體芯片產業真正走向成熟還需要持續地積累,實現小算力場景持續滲透,針對高價值場景做極致優化;大算力場景規模量產,最終走向普遍應用。
更多信息可以來這里獲取==>>電子技術應用-AET<<