英國,布里斯托,2021年1月26日——今日,Graphcore宣布其在幫助客戶加速創新和大規模利用人工智能技術上,又邁出了新的一步。
Graphcore與Cirrascale Cloud Services (以下簡稱Cirrascale)攜手,為云上人工智能帶來全新內容:借助首個公開發行的、基于第二代IPU的IPU-POD(MK2 IPU-POD)橫向擴展集群,不需要擁有和運營數據中心,我們提供了一種簡單方法來實現來按需增加計算容量。
Graphcore認識到,人工智能技術為市場帶來了巨大的機遇,同時也帶來了一系列獨特的計算挑戰:模型的尺寸正在迅速增加,精度的標準也在不斷提高。如果客戶想要充分利用最新的創新,他們就需要一個緊密集成的、專門為人工智能構建的硬件和軟件系統。
Graphcloud是一項安全可靠的IPU-POD系列云服務,讓客戶在從實驗、概念驗證和試點項目擴展到更大的生產系統時,能夠獲取Graphcore IPU的強大功能。
首發時,Graphcore提供兩款可用產品。在未來數月,Graphcore將提供更大的橫向擴展系統:
·IPU-POD16:提供4 PetaFLOPS的人工智能計算(4個IPU-M2000,即16個Colossus MK2 GC200 IPU)
·IPU-POD64:提供16 PetaFLOPS的人工智能計算(16個IPU-M2000,即64個Colossus MK2 GC200 IPU)
與最新的GPU系統相比,IPU-POD系統可降低訓練總成本,并縮短解決時間。
Graphcloud系統實例已預裝了Poplar和系統軟件。示例代碼和應用示例可在本地獲得,并可用于那些在Graphcore基準測試中使用的先進模型,包括BERT和EfficientNet。用戶還可以訪問全面的文檔,這些文檔可幫助他們快速啟用包括PyTorch和TensorFlow在內的多個框架。
總部位于英國的Healx是最早使用Graphcloud的Graphcore客戶之一,該公司的人工智能藥物研發平臺正在尋找罕見疾病的新療法。該公司在2019年人工智能大獎中獲得“健康和醫學領域的最佳AI應用獎”(Best Use of AI in Health and Medicine)。
Healx機器學習工程技術負責人Dan O’Donovan表示:“我們從2020年12月下旬開始在Graphcloud上使用IPU-POD16,將我們現有的MK1 IPU代碼遷移到MK2系統上運行。這一過程毫無障礙,并且帶來巨大的性能優勢。為模型提供更多的存儲意味著我們不再需要切分模型,而只需專注切分數據即可。這使得代碼更為簡單,模型訓練更加高效。”
他還指出:“在與Graphcore的合作中,Graphcore始終為我們開放最新硬件、SDK和工具的訪問權限。此外,我們還可以通過直接會議和支持服務部門與Graphcore的硬件和軟件專業工程師持續進行對話溝通。”
對于Graphcloud的發布,Graphcore聯合創始人兼CEO Nigel Toon表示:“無論用戶是初次評估我們的硬件和Poplar軟件棧,還是擴展人工智能計算資源,借助Graphcloud,啟用IPU變得前所未有的簡單。我們很高興與Cirrascale合作,將Graphcloud推向世界。Graphcloud與我們的全球合作伙伴計劃、內部銷售和工程支持等重要組成部分,共同構成/構建了Graphcore全方位的產品與服務。”
Cirrascale CEO PJ Go表示:“ Cirrascale對于與Graphcore的戰略合作感到非常自豪,此次合作進一步推動了基于云的機器學習解決方案時代的發展,進而與財富500強公司一起進行全新的、大規模商業部署。”
定價與規格
可用系統類型
IPU-POD16 4個IPU-M2000系統
IPU-POD64 16個IPU-M2000系統
定價
規格
· 兩個系統都利用了Graphcore獨特的IPU-Fabric?互連架構。IPU-Fabric?專為消除通信瓶頸設計,并允許成千上萬個IPU作為單個高性能、超快速凝聚單元在機器智能工作負載上運行。
· 每個IPU-POD64實例均由4臺Dell R6525主機服務器支持,并且配有最強大的本地人工智能數據中心系統所使用的雙插槽AMD EPYC2 CPU,而每個IPU-POD16均有一臺相同規格的專用服務器。
· 為IPU-POD64和IPU-POD16分別提供了16TB和4TB的安全本地NVMe存儲。
· 每個IPU-POD64都提供57.6GB的處理器內存儲和2048GB的流存儲(32 x 64GB DIMM)。
· 每個IPU-POD16提供14.4GB處理器內存儲和512GB流存儲(8 x 64GB DIMM)。