適用於大型 CSP 及 NSP 的強大節能解決方案結合全方位新一代 NVIDIA GPU 與 CPU 及 NVIDIA Quantum X800 平台與 NVIDIA AI Enterprise 5.0
加州聖荷西2024年3月21日 /美通社/ -- 在 2024 年 NVIDIA GTC 大會上,人工智能、雲端、儲存及 5G/邊緣的全面 IT 解決方案供應商 Supermicro, Inc.(納斯達克股票代碼:SMCI)宣布推出用於大型生成式人工智能的全新人工智能系統,當中採用 NVIDIA 新一代數據中心產品,包括最新的 NVIDIA GB200 Grace™ Blackwell Superchip、NVIDIA B200 Tensor Core 及 B100 Tensor Core GPU。Supermicro 正加強現有的 NVIDIA HGX™ H100/H200 8-GPU 系統,以便支援 NVIDIA HGX™ B100 8-GPU 及 B200,縮短交付時間。此外,Supermicro 將推出採用 NVIDIA GB200 的新產品,以進一步拓展其全方位 NVIDIA MGX™ 系統產品系列,其中包括 NVIDIA GB200 NVL72。NVIDIA GB200 NVL72 是一款配備 72 個 NVIDIA Blackwell GPU 的完整機架級解決方案。Supermicro 亦為產品線加入全新系統,包括 4U NVIDIA HGX B200 8-GPU 液冷系統。
Supermicro 總裁兼行政總裁梁見後表示:「我們專注於人工智能建構區塊架構及機架級全面 IT,有助我們設計新一代系統,以滿足 NVIDIA Blackwell 架構 GPU 的更高要求,其中包括採用 NVIDIA HGX B200 8-GPU 的全新 4U 液冷系統及 NVIDIA GB200 NVL72 的全整合直達晶片液冷機架。這些新產品採用 Supermicro 和 NVIDIA 成熟的 HGX 和 MGX 系統架構,針對 NVIDIA Blackwell GPU 的新功能進行優化。Supermicro 憑藉其專業技術,可整合 1kW GPU 至各種風冷和液冷系統,並可實現每月 5,000 個機架的機架規模生產能力,有望率先部署採用 NVIDIA Blackwell GPU 的全機架集群。」
Supermicro 的直達晶片液冷技術可提高最新 GPU 的散熱設計功率 (TDP),充分發揮 NVIDIA Blackwell GPU 的潛力。Supermicro 搭載 NVIDIA Blackwell 的 HGX 和 MGX 系統為未來人工智能基礎設施奠定基礎,並將為數萬億參數的人工智能訓練及實時人工智能推理提供前所未有的高性能。
Supermicro 多款經 GPU 優化的系統將準備支援 NVIDIA Blackwell B200 及 B100 Tensor Core GPU,並針對最新 NVIDIA AI Enterprise 軟件進行驗證,而該軟件加入支援 NVIDIA NIM 推理微服務的服務。Supermicro 系統包括:
為訓練大型基礎人工智能模型,Supermicro 準備率先向市場推出 NVIDIA HGX B200 8-GPU 及 HGX B100 8-GPU 系統。系統配備 8 個 NVIDIA Blackwell GPU,透過第五代 NVIDIA® NVLink® 高速互連連接,速度高達 1.8TB/s,較上一代性能提高一倍,總高頻寬記憶體為 1.5TB。與 NVIDIA Hopper 架構一代相比,系統將為 GPT-MoE-1.8T 模型等 LLM 提供快 3 倍的訓練結果。這些系統具備先進的網絡功能,可擴展至集群,同時支援 NVIDIA Quantum-2 InfiniBand 及 NVIDIA Spectrum-X 乙太網絡選項,GPU 與 NIC 的比例為 1:1。
NVIDIA GPU 產品管理副總裁 Kaustubh Sanghani 表示:「Supermicro 持續向市場推出一系列卓越的加速運算平台伺服器,專為人工智能訓練和推理而設計,可滿足當今市場的任何需求。我們與 Supermicro 合作,為客戶帶來最理想的解決方案。」
針對條件最嚴苛的 LLM 推理工作負載,Supermicro 推出了數款採用 NVIDIA GB200 Grace Blackwell Superchip 構建的新 MGX 系統,當中結合 NVIDIA Grace CPU,並配備兩個 NVIDIA Blackwell GPU。與 NVIDIA HGX H100 相比,Supermicro 搭載 GB200 系統的 NVIDIA MGX 將大幅提升人工智能推理性能,速度提升高達 30 倍。Supermicro 與 NVIDIA 透過 NVIDIA GB200 NVL72 開發機架級解決方案,可在單一機架中連接 36 個 Grace CPU 及 72 個Blackwell GPU。所有 72 個 GPU 均以第五代 NVIDIA NVLink 互連,GPU 之間的通訊速度達 1.8TB/s。此外,Supermicro 亦推出針對推理工作負載的 ARS-221GL-NHIR。這是一款基於 GH200 系列產品的 2U 伺服器,以 900Gb/s 高速互連連接至兩台 GH200 伺服器。歡迎參觀 GTC 大會 Supermicro 展位以了解更多資訊。
Supermicro 系統亦將支援即將推出的 NVIDIA Quantum-X800 InfiniBand 平台(由 NVIDIA Quantum-X800 QM3400 交換器及 SuperNIC800 組成)及 NVIDIA Spectrum-X800 乙太網絡平台(由 NVIDIA Spectrum-X800 SN5600 交換器及 Spectrum-X800 組成)。NVIDIA Quantum-X800 及 Spectrum-X800 針對 NVIDIA Blackwell 架構進行優化,將為 AI 基礎架構提供最高級別的網絡性能。
有關 Supermicro NVIDIA 解決方案的詳情,請瀏覽 https://www.supermicro.com/en/accelerators/nvidia
Supermicro 即將推出搭載 NVIDIA B200 及 GB200 的系統產品包括:
Supermicro 參加 2024 年 GTC 大會
Supermicro 將在 3 月 18 日至 21 日於聖荷西會議中心舉行的 2024 年 NVIDIA GTC 大會上展示全系列人工智能適用的 GPU 系統產品組合。歡迎參觀 Supermicro 1016 號展位,了解為各種人工智能應用解決方案,包括訓練生成式人工智能模型、人工智能推理及邊緣人工智能。Supermicro 亦將展示兩種機架級解決方案,其中包括一款概念機架,其系統採用即將推出的 NVIDIA GB200,配備 72 個液冷 GPU,與第五代 NVLink 互連。
Supermicro 將於 2024 年 GTC 大會上展示的解決方案包括:
Super Micro Computer, Inc. 簡介
Supermicro(納斯達克股票代碼:SMCI)是全球領先的應用程式最佳化全面 IT 解決方案提供商。Supermicro 在加州聖荷西創立和運作,致力為企業、雲端、人工智能和 5G 電信/邊緣 IT 基礎設施,提供市場創新。我們是全面 IT 解決方案製造商,提供伺服器、人工智能、儲存、物聯網、交換器系統、軟件和支援服務。Supermicro 的主機板、電源和機箱設計專業知識,進一步支援開發和生產,並為全球客戶實現從雲端到邊緣的新一代創新。我們(在美國、亞洲和荷蘭)內部設計和製造產品,利用全球營運來實現規模和效率,從而務求提高整體擁有成本 (TCO) 和減少對環境的影響(綠色運算)。Server Building Block Solutions® 產品組合,屢獲殊榮。客戶可在多個系統系列中作選擇,從而準確提升工作量和應用程式。這些系統在我們靈活兼可重複使用構建塊上建立,並廣泛支援各外形規格、處理器、記憶體、GPU、儲存、網絡、電源和冷卻解決方案(冷氣機、自然風冷或液冷)。
Supermicro、Server Building Block Solutions 和 We Keep IT Green,均為 Super Micro Computer, Inc. 的商標ji/或註冊商標。
所有其他品牌、名稱和商標均為其各自所有者的財產。
SMCI-F