3 月 28 日消息,據日本經濟新聞今日報道,英偉達的尖端圖像處理半導體(GPU)H200 現已開始供貨。H200 為面向 AI 領域的半導體,性能超過當前主打的 H100。
根據英偉達方面公布的性能評測結果,以 Meta 公司旗下大語言模型 Llama 2 處理速度為例,H200 相比于 H100,生成式 AI 導出答案的處理速度最高提高了 45%。
市場調研機構 Omdia 曾表示,2022 年英偉達在 AI 半導體市場約占 8 成的份額,與此同時 AMD 等競爭對手也在開發對抗英偉達的產品,競爭愈演愈烈。
英偉達當地時間 3 月 18 日在開發者大會上宣布,年內將推出新一代 AI 半導體“B200”,B200 和 CPU(中央運算處理裝置)組合的新產品用于最新的 LLM 上。“最強 AI 加速卡”GB200 包含了兩個 B200 Blackwell GPU 和一個基于 Arm 的 Grace CPU ,推理大語言模型性能比 H100 提升 30 倍,成本和能耗降至 25 分之一。
GB200 采用新一代 AI 圖形處理器架構 Blackwell,黃仁勛在 GTC 大會上表示:“Hopper 固然已經非常出色了,但我們需要更強大的 GPU”。
據IT之家此前報道,英偉達 H200 于去年 11 月發布,其為基于英偉達的“Hopper”架構的 HGX H200 GPU,是 H100 GPU 的繼任者,也是該公司第一款使用 HBM3e 內存的芯片,這種內存速度更快,容量更大,因此更適合大型語言模型。較前任霸主 H100,H200 的性能直接提升了 60% 到 90%。英偉達稱:“借助 HBM3e,英偉達 H200 以每秒 4.8 TB 的速度提供 141GB 的內存,與 A100 相比,容量幾乎是其兩倍,帶寬增加了 2.4 倍。”