NVIDIA執行長黃仁勳於COMPUTEX2025揭示最新一代AI超級運算平台GB300,其推理性能提升1.5倍、HBM記憶體容量亦提升1.5倍,網路連線能力則實現翻倍躍進。黃仁勳表示:「這是一台讓普通電腦變成超級電腦的系統。」
該系統是延續Blackwell架構的升級之作,已於今年2月開始交付,現已全面進入量產。新版本GB300預計將於第三季正式上市,獲得雲端服務業者與產業界廣泛採納。
黃仁勳同時展示了由144顆GPU構成的超級系統,利用NVLinkSpine與兩英里長的銅線達成高達130TB/s的總帶寬,展現了NVIDIA在AI基礎建設的無限可能。
此外,為進一步促進異構運算生態,NVIDIA推出NVLinkFusion,允許企業整合不同品牌CPU與AI加速器,打造可擴展、開放的AI運算平台。
NVIDIA執行長黃仁勳於COMPUTEX 2025揭示最新一代AI超級運算平台GB300,其推理性能提升1.5倍、HBM記憶體容量亦提升1.5倍,網路連線能力則實現翻倍躍進。黃仁勳表示:「這是一台讓普通電腦變成超級電腦的系統。」
該系統是延續Blackwell架構的升級之作,已於今年2月開始交付,現已全面進入量產。新版本GB300預計將於第三季正式上市,獲得雲端服務業者與產業界廣泛採納。
黃仁勳同時展示了由144顆GPU構成的超級系統,利用NVLink Spine與兩英里長的銅線達成高達130TB/s的總帶寬,展現了NVIDIA在AI基礎建設的無限可能。
此外,為進一步促進異構運算生態,NVIDIA推出NVLink Fusion,允許企業整合不同品牌CPU與AI加速器,打造可擴展、開放的AI運算平台。

NVIDIA的GB300是基於Blackwell架構的最新一代AI超級運算平台,這個架構是NVIDIA公司的高性能計算架構系列之一。Blackwell架構是在2024年3月GTC大會上首次公布的,被定位為NVIDIA的下一代GPU架構,接替了前一代的Hopper架構。該架構以物理學家和數學家David Harold Blackwell命名。
HBM(High Bandwidth Memory)是一種高性能記憶體技術,專為高效能運算和AI工作負載設計。相較於傳統GDDR記憶體,HBM堆疊多層記憶體晶片,提供更高的頻寬和更低的功耗,非常適合資料密集型AI訓練和推理任務。GB300中HBM容量的提升意味著它能處理更大規模的AI模型。
NVLink是NVIDIA開發的高速互連技術,用於GPU之間的通信。NVLinkSpine是其擴展版本,允許更多GPU高效互連。NVLinkFusion則是NVIDIA新推出的技術,旨在促進異構運算,讓不同品牌的CPU和AI加速器能夠整合在同一平台上,這反映了NVIDIA開放生態系統的策略。
在AI運算中,推理性能(Inference performance)是指AI模型在實際應用中處理新數據的能力,與訓練階段不同。GB300宣稱的1.5倍推理性能提升,意味著它在執行已訓練好的AI模型時效率大幅提高,這對於需要即時反應的AI應用如自動駕駛、即時語音翻譯等尤為重要。
COMPUTEX是在台灣台北舉行的全球重要科技展覽會,每年吸引眾多科技公司發布新產品。NVIDIA執行長黃仁勳經常在此類重要科技展會上親自發布公司重要產品和技術策略。
現正直播