WEKA introduces First AI Storage Cluster Built on NVIDIA Grace CPU Superchip (PRNewsFoto/WekaIO)
推動新一代 AI 創新 現今的 AI 和高效能運算 (HPC) 工作負載需要極速的數據存取,但大部分數據中心都面臨空間和電源限制日益增加的挑戰。
NVIDIA Grace 將旗艦級 x86-64 雙插槽工作站或伺服器平台的性能水平整合至單一模組中。Grace CPU 超級晶片由 144 個高性能 Arm Neoverse V2 核心提供支援,其能源效率比是傳統 x86 伺服器的兩倍。NVIDIA ConnectX-7 網絡接口卡和 BlueField-3 超級網絡接口卡採用專用 RDMA/RoCE 加速技術,提供高吞吐量、低延遲的網絡連接,速度高達 400Gb/s。WEKA 數據平台革命性的零拷貝軟件架構與 Supermicro Petascale 儲存伺服器相輔相成,最大程度地減少 I/O 瓶頸,降低 AI 管道的延遲,從而顯著提高 GPU 使用率,加速 AI 模型訓練和推理,大幅縮短產生首個 token 的時間、加快探索和洞察的速度,同時降低功耗和相關成本。
此方案的主要優勢包括:
極速和可擴展性,滿足企業 AI 需求:NVIDIA Grace CPU 超級晶片配備 144 個高效能 Arm® Neoverse™ V2 核心,這些核心透過高效能、客製化設計的 NVIDIA 可擴展一致性架構互相連接,能以一半的功耗提供媲美雙插槽 x86 CPU 伺服器的性能。NVIDIA ConnectX-7 網絡接口卡和 NVIDIA BlueField-3 超級網絡接口卡提供高性能網絡連接,對企業 AI 工作負載至關重要。配合 WEKA 數據平台的 AI 原生架構(可將產生首個 token 的時間縮短高達 10 倍),此方案能確保幾乎任何規模的 AI 數據管道都能實現最佳性能。
資源使用效率最佳化:高效能 WEKA 數據平台與 Grace CPU 的 LPDDR5X 內存架構相結合,可確保高達 1 TB/s 的內存頻寬和無縫數據流,消除效能瓶頸。透過整合 WEKA 的分佈式架構和核心旁路技術,機構可以加快 AI 模型訓練速度、縮短 epoch 時間和提升推理速度,使其成為高效擴展 AI 工作負載的理想方案。
卓越的能源和空間效益: WEKA 數據平台可將 GPU 堆棧效率提升 10 至 50 倍,無縫處理大規模 AI 和高效能運算 (HPC) 工作負載。此外,透過減少數據拷貝和提升雲端彈性,WEKA 平台可將數據基礎設施佔用空間縮小 4 至 7 倍,並減少碳排放——每年每 PB 儲存量最多可減少 260 噸二氧化碳當量排放,並將能源成本降低 10 倍。由於 Grace CPU 超級晶片的能源效率比領先的 x86 伺服器高兩倍,客戶可以運用更少資源完成更多任務,在提升 AI 性能的同時實現可持續發展目標。
「WEKA 與 Supermicro 攜手開發了一款功能強大的儲存解決方案,此方案與 NVIDIA Grace CPU 超級晶片無縫整合,有效提升大規模、數據密集型 AI 工作負載的效率。此方案可在降低能耗的同時提供快速數據存取,讓以數據驅動的機構為其人工智能基礎設施增能。」NVIDIA 數據中心 CPU 總監 Ivan Goldwasser 說道。
「Supermicro 即將推出的 ARS-121L-NE316R Petascale 儲存伺服器是首款採用 NVIDIA Grace 超級晶片 CPU 的儲存優化伺服器,」Supermicro 儲存產品管理高級總監 Patrick Chiu 表示,「此系統配備 16 個高效能 Gen5 E3.S NVMe 固態硬碟插槽和三個 PCIe Gen 5 網絡插槽,支援最多兩個 NVIDIA ConnectX-7 或 BlueField-3 超級網絡接口卡,以及一個 OCP 3.0 網絡適配器。此系統非常適合 AI、數據分析和超大規模雲端應用等高效能儲存工作負載。我們與 NVIDIA 和 WEKA 合作開發的數據平台,讓客戶能夠在提升數據中心能源效率的同時,增強 AI 處理能力。」
「人工智能創新需要採用全新的晶片和系統設計方法,在性能和能效之間取得平衡。Arm 很榮幸能與 NVIDIA、WEKA 和 Supermicro 合作,提供一個高性能企業級 AI 解決方案,此方案兼具卓越價值和出色的能源效率。」Arm 高效能運算總監 David Lecomber 說道。