omniture
from common-pcom:html:key:hk_segment_includes_overall_segment_header_shtml
美通社: 全球領先的新聞稿發佈, 傳播和監測服務提供者
首页 > 新聞稿中心 > 行业新聞稿
en_US zh_TW ko_KR

WEKA 發佈業界首個基於 NVIDIA Grace CPU 超級晶片的 AI 儲存叢集

2024-11-20 06:06
https://mma.prnasia.com/media2/2561552/WEKA_NVIDIA_SMC_PR.jpg?p=medium600

公司在 Supercomputing 2024 上與 NVIDIA、Arm 和 Supermicro 攜手展示全新解決方案,為企業 AI 部署提供卓越的效能密度和節能效益

亞特蘭大和加州坎貝爾2024年11月19日 /美通社/ -- 來自 Supercomputing 2024:AI 原生數據平台公司WEKA預先發佈了業界首個適用於 NVIDIA Grace™ CPU 超級晶片的高效能儲存解決方案。此方案將在 Supermicro 的全新高效能儲存伺服器上運行,該伺服器配備 WEKA® 數據平台軟件和 Arm® Neoverse™ V2 核心,並採用 NVIDIA Grace CPU 超級晶片NVIDIA ConnectX-7NVIDIA BlueField-3 網絡技術,以無可比擬的性能密度和電源效率加速企業 AI 工作負載。

WEKA introduces First AI Storage Cluster Built on NVIDIA Grace CPU Superchip (PRNewsFoto/WekaIO)
WEKA introduces First AI Storage Cluster Built on NVIDIA Grace CPU Superchip (PRNewsFoto/WekaIO)

推動新一代 AI 創新
現今的 AI 和高效能運算 (HPC) 工作負載需要極速的數據存取,但大部分數據中心都面臨空間和電源限制日益增加的挑戰。

NVIDIA Grace 將旗艦級 x86-64 雙插槽工作站或伺服器平台的性能水平整合至單一模組中。Grace CPU 超級晶片由 144 個高性能 Arm Neoverse V2 核心提供支援,其能源效率比是傳統 x86 伺服器的兩倍。NVIDIA ConnectX-7 網絡接口卡和 BlueField-3 超級網絡接口卡採用專用 RDMA/RoCE 加速技術,提供高吞吐量、低延遲的網絡連接,速度高達 400Gb/s。WEKA 數據平台革命性的零拷貝軟件架構與 Supermicro Petascale 儲存伺服器相輔相成,最大程度地減少 I/O 瓶頸,降低 AI 管道的延遲,從而顯著提高 GPU 使用率,加速 AI 模型訓練和推理,大幅縮短產生首個 token 的時間、加快探索和洞察的速度,同時降低功耗和相關成本。

此方案的主要優勢包括:

  • 極速和可擴展性,滿足企業 AI 需求:NVIDIA Grace CPU 超級晶片配備 144 個高效能 Arm® Neoverse™ V2 核心,這些核心透過高效能、客製化設計的 NVIDIA 可擴展一致性架構互相連接,能以一半的功耗提供媲美雙插槽 x86 CPU 伺服器的性能。NVIDIA ConnectX-7 網絡接口卡和 NVIDIA BlueField-3 超級網絡接口卡提供高性能網絡連接,對企業 AI 工作負載至關重要。配合 WEKA 數據平台的 AI 原生架構(可將產生首個 token 的時間縮短高達 10 倍),此方案能確保幾乎任何規模的 AI 數據管道都能實現最佳性能。
  • 資源使用效率最佳化:高效能 WEKA 數據平台與 Grace CPU 的 LPDDR5X 內存架構相結合,可確保高達 1 TB/s 的內存頻寬和無縫數據流,消除效能瓶頸。透過整合 WEKA 的分佈式架構和核心旁路技術,機構可以加快 AI 模型訓練速度、縮短 epoch 時間和提升推理速度,使其成為高效擴展 AI 工作負載的理想方案。
  • 卓越的能源和空間效益: WEKA 數據平台可將 GPU 堆棧效率提升 10 至 50 倍,無縫處理大規模 AI 和高效能運算 (HPC) 工作負載。此外,透過減少數據拷貝和提升雲端彈性,WEKA 平台可將數據基礎設施佔用空間縮小 4 至 7 倍,並減少碳排放——每年每 PB 儲存量最多可減少 260 噸二氧化碳當量排放,並將能源成本降低 10 倍。由於 Grace CPU 超級晶片的能源效率比領先的 x86 伺服器高兩倍,客戶可以運用更少資源完成更多任務,在提升 AI 性能的同時實現可持續發展目標。

「AI 正在改變全球企業的創新、創造和營運方式,但國際原子能機構的數據顯示,AI 應用急劇增長,導致數據中心的能源消耗大幅增加,預計到 2026 年將增加一倍,」WEKA 產品總監 Nilesh Patel 表示。「WEKA 很高興與 NVIDIA、Arm 和 Supermicro 合作,為下一代數據中心開發高性能、節能的解決方案,推動企業人工智能和高性能工作負載發展,同時加速處理大量數據,縮短獲取可操作見解的時間。」

「WEKA 與 Supermicro 攜手開發了一款功能強大的儲存解決方案,此方案與 NVIDIA Grace CPU 超級晶片無縫整合,有效提升大規模、數據密集型 AI 工作負載的效率。此方案可在降低能耗的同時提供快速數據存取,讓以數據驅動的機構為其人工智能基礎設施增能。」NVIDIA 數據中心 CPU 總監 Ivan Goldwasser 說道。

「Supermicro 即將推出的 ARS-121L-NE316R Petascale 儲存伺服器是首款採用 NVIDIA Grace 超級晶片 CPU 的儲存優化伺服器,」Supermicro 儲存產品管理高級總監 Patrick Chiu 表示,「此系統配備 16 個高效能 Gen5 E3.S NVMe 固態硬碟插槽和三個 PCIe Gen 5 網絡插槽,支援最多兩個 NVIDIA ConnectX-7 或 BlueField-3 超級網絡接口卡,以及一個 OCP 3.0 網絡適配器。此系統非常適合 AI、數據分析和超大規模雲端應用等高效能儲存工作負載。我們與 NVIDIA 和 WEKA 合作開發的數據平台,讓客戶能夠在提升數據中心能源效率的同時,增強 AI 處理能力。」

「人工智能創新需要採用全新的晶片和系統設計方法,在性能和能效之間取得平衡。Arm 很榮幸能與 NVIDIA、WEKA 和 Supermicro 合作,提供一個高性能企業級 AI 解決方案,此方案兼具卓越價值和出色的能源效率。」Arm 高效能運算總監 David Lecomber 說道。

WEKA 和 Supermicro 採用 NVIDIA Grace CPU 超級晶片的儲存解決方案將於 2025 年初上市。Supercomputing 2024 的與會者可前往 WEKA 的 #1931 號展位,了解更多詳情和觀看新解決方案的示範。

關於 WEKA 
WEKA 正在為 AI 時代的企業數據堆疊構建一種新方法。WEKA® 數據平台採用雲端原生及 AI 原生架構,樹立 AI 基礎設施的標竿。該平台可靈活部署於任何地方,支援本地、雲端和邊緣運算環境之間的無縫數據轉移。該平台將傳統數據孤島轉化為動態數據管道,可加速 GPU 運算、AI 模型訓練和推理以及其他高性能工作負載,使之能更高效地運作、減少能耗,並降低相關的碳排放。WEKA 幫助全球最具創新精神的企業和研究機構解決複雜的數據挑戰,更快速、更可持續地探索新發現、見解和成果,其客戶更是包括財富 50 強中的 12 間企業。請瀏覽 www.weka.io 了解更多資訊,或在 LinkedInXFacebook 上關注 WEKA。

WEKA 在「2024年Gartner®魔力象限™文件與對象儲存平台」(2024 Gartner® Magic Quadrant™ for File and Object Storage Platforms)中被認可為「願景領袖」(Visionary)——詳情請閱覽報告

「WEKA」及WEKA標誌乃WekaIO, Inc.的註冊商標。此處使用的其他商業名稱可能為其他商標擁有者分別擁有。

 

 

 

消息來源: WekaIO
from common-pcom:html:key:hk_segment_includes_releases_right_column_video_module_shtml
精選視頻
數據顯示視頻、圖片等元素讓新聞稿點擊量提升77%
 

電腦硬件 最近新聞稿

電腦軟件 最近新聞稿

電腦/電子 最近新聞稿

新產品/新服務 最近新聞稿

人工智能 最近新聞稿

雲計算/物聯網 最近新聞稿

from common-pcom:html:key:hk_segment_includes_overall_segment_footer_shtml
進階搜尋
搜尋
  
  1. 產品與服務
  2. 新聞稿中心
  3. 知識庫
  4. 博客
  5. 多媒體新聞稿
  6. 聯繫我們
  7. 繁體中文知識庫正在建設中,請您選擇簡體中文或英文版查看。