搭載NVIDIA最新一代SuperNIC網卡,實現高速AI網路連線台北2025年5月19日--作為專業伺服器設計與製造商,神達控股股份有限公司(股票代號:3706)旗下子公司神雲科技股份有限公司(MiTACComputingTechnologyCorporation)將於2025台北國際電腦展(COMPUTEX2025)展出其在AI基礎架構領域的最新研發成果。神雲科技將於M1110展位發表全新AI伺服器平台MiTACG4527G6,此平台全面支援NVIDIAMGX™模組化架構,支援NVIDIARTXPRO™6000Blackwell(伺服器版本)或NVIDIAH200NVLGPU,以滿足企業在AI工作負載快速變化下的高度彈性與效能需求。採用NvidiaMGX架構打造高效靈活的AI推論平台下一代AI與高效能運算平台隨著生成式AI與加速運算(AcceleratedComputing)應用不斷擴展,神雲科技推出全新支援NVIDIAMGX™架構的G4527G6橫向擴充伺服器,專為處理複雜AI與HPC(高效能運算)工作負載而設計。G4527G6搭載Intel®Xeon®6處理器,支援最多8張NVIDIAGPU、最高8TB的DDR5-6400記憶體、16個熱插拔E1.S硬碟插槽,以及NVIDIABlueField®-3DPU,以強化南北向資料傳輸能力。更重要的是,G4527G6整合了4張NVIDIA®ConnectX®-8SuperNIC™次世代超級網卡,可實現高達每秒800Gb/s的InfiniBand與乙太網路連線速度,大幅提升AI工廠與雲端資料中心的整體效能與吞吐量。作為NVIDIAAI網路產品組合的重要核心,ConnectX®-8SuperNIC™支援NVIDIA®SHARP™技術,具備先進的擁塞控制與In-NetworkComputing(網內計算)能力,專為在可持續運作的GPU密集型環境中,加速LLM訓練、推論及萬億參數AI模型的運行效率所打造。為NVIDIA企業AI工廠提供可擴充基礎架構動能隨著資料中心成為現代世界運算的核心,MiTAC神雲科技與NVIDIA攜手打造企業AI工廠——一個為下一代企業級AI應用而設計的全端內部部署平台。MiTACG4527G6伺服器採用模組化NVIDIAMGX™架構,支援超過100種彈性組態,為AI工廠部署提供絕佳擴充彈性與整合能力。G4527G6支援NVIDIARTXPRO™6000Blackwell(伺服器版)或H200NVLGPU,相較前一代平台,大型語言模型(LLM)推論效能提升1.8倍,高效能運算(HPC)效能提升1.3倍。此平台可廣泛應用於企業級AI、AIAgent、物理AI工作流程、自主決策與即時資料分析等領域,為未來智能企業奠定堅實基礎。歡迎蒞臨COMPUTEX2025-MiTAC神雲科技展位M1110搶先體驗全新AI基礎架構與NVIDIAMGX™平台的強大潛能https://www.mitaccomputing.com/en/campaign/computex2025關於神雲科技神雲科技股份有限公司(MiTACComputingTechnologyCorp.)為神達控股集團(MiTACHoldings)旗下子公司,憑藉自1990年代以來的深厚產業經驗,提供多元、節能高效的伺服器解決方案。專注於人工智慧(AI)、高效能運算(HPC)、雲端運算及邊緣計算,神雲科技採用嚴謹的方法,確保不僅在單機(Barebone)層級,更重要的是在系統與機櫃層級,皆能達到無與倫比的品質,充分發揮卓越效能與系統整合。這項對品質的承諾,使神雲科技在業界獨樹一幟。神雲科技為超大規模數據中心、HPC及AI應用,提供量身打造的解決方案,確保最佳效能與高擴展性。神雲科技擁有全球布局與端到端的服務能力,涵蓋研發、製造到全球技術支援,提供靈活且高品質的解決方案,以滿足企業的多元化需求。憑藉AI及液冷技術的最新發展,以及IntelDSG與TYAN伺服器產品的整合,神雲科技致力於打造兼具創新、效率與可靠性的伺服器技術與產品,助力企業迎接未來挑戰。神雲科技官網:http://www.mitaccomputing.com/
搭載 NVIDIA 最新一代 SuperNIC 網卡,實現高速 AI 網路連線
台北2025年5月19日 -- 作為專業伺服器設計與製造商,神達控股股份有限公司(股票代號:3706)旗下子公司神雲科技股份有限公司(MiTAC Computing Technology Corporation)將於 2025 台北國際電腦展(COMPUTEX 2025)展出其在 AI 基礎架構領域的最新研發成果。神雲科技將於 M1110 展位發表全新 AI 伺服器平台 MiTAC G4527G6,此平台全面支援 NVIDIA MGX™ 模組化架構,支援 NVIDIA RTX PRO™ 6000 Blackwell(伺服器版本)或 NVIDIA H200 NVL GPU,以滿足企業在 AI 工作負載快速變化下的高度彈性與效能需求。

採用Nvidia MGX架構 打造高效靈活的AI推論平台
下一代 AI 與高效能運算平台
隨著生成式 AI 與加速運算(Accelerated Computing)應用不斷擴展,神雲科技推出全新支援 NVIDIA MGX™ 架構的 G4527G6 橫向擴充伺服器,專為處理複雜 AI 與 HPC(高效能運算)工作負載而設計。G4527G6 搭載 Intel® Xeon® 6 處理器,支援最多 8 張 NVIDIA GPU、最高 8TB 的 DDR5-6400 記憶體、16 個熱插拔 E1.S 硬碟插槽,以及 NVIDIA BlueField®-3 DPU,以強化南北向資料傳輸能力。
更重要的是,G4527G6 整合了 4 張 NVIDIA® ConnectX®-8 SuperNIC™ 次世代超級網卡,可實現高達 每秒 800Gb/s 的 InfiniBand 與乙太網路連線速度,大幅提升 AI 工廠與雲端資料中心的整體效能與吞吐量。
作為 NVIDIA AI 網路產品組合的重要核心,ConnectX®-8 SuperNIC™ 支援 NVIDIA® SHARP™ 技術,具備先進的擁塞控制與 In-Network Computing(網內計算)能力,專為在可持續運作的 GPU 密集型環境中,加速 LLM 訓練、推論及萬億參數 AI 模型的運行效率所打造。
為 NVIDIA 企業 AI 工廠提供可擴充基礎架構動能
隨著資料中心成為現代世界運算的核心,MiTAC 神雲科技與 NVIDIA 攜手打造企業 AI 工廠——一個為下一代企業級 AI 應用而設計的全端內部部署平台。MiTAC G4527G6 伺服器採用模組化 NVIDIA MGX™ 架構,支援超過 100 種彈性組態,為 AI 工廠部署提供絕佳擴充彈性與整合能力。
G4527G6 支援 NVIDIA RTX PRO™ 6000 Blackwell(伺服器版)或 H200 NVL GPU,相較前一代平台,大型語言模型(LLM)推論效能提升 1.8 倍,高效能運算(HPC)效能提升 1.3 倍。此平台可廣泛應用於企業級 AI、AI Agent、物理 AI 工作流程、自主決策與即時資料分析等領域,為未來智能企業奠定堅實基礎。
歡迎蒞臨 COMPUTEX 2025 - MiTAC 神雲科技展位 M1110
搶先體驗全新 AI 基礎架構與 NVIDIA MGX™ 平台的強大潛能
https://www.mitaccomputing.com/en/campaign/computex2025
關於神雲科技
神雲科技股份有限公司(MiTAC Computing Technology Corp.)為神達控股集團(MiTAC Holdings)旗下子公司,憑藉自 1990 年代以來的深厚產業經驗,提供多元、節能高效的伺服器解決方案。專注於人工智慧(AI)、高效能運算(HPC)、雲端運算及邊緣計算,神雲科技採用嚴謹的方法,確保不僅在單機(Barebone)層級,更重要的是在系統與機櫃層級,皆能達到無與倫比的品質,充分發揮卓越效能與系統整合。這項對品質的承諾,使神雲科技在業界獨樹一幟。神雲科技為超大規模數據中心、HPC 及 AI 應用,提供量身打造的解決方案,確保最佳效能與高擴展性。
神雲科技擁有全球布局與端到端的服務能力,涵蓋研發、製造到全球技術支援,提供靈活且高品質的解決方案,以滿足企業的多元化需求。憑藉 AI 及液冷技術的最新發展,以及 Intel DSG 與 TYAN 伺服器產品的整合,神雲科技致力於打造兼具創新、效率與可靠性的伺服器技術與產品,助力企業迎接未來挑戰。
神雲科技官網:http://www.mitaccomputing.com/

基於您分享的文章,以下是相關的延伸知識:
NVIDIA MGX 模組化架構是NVIDIA推出的一種伺服器設計架構,允許硬體製造商靈活組配不同元件,以適應多樣化的AI工作負載需求。這種架構支援超過100種彈性組態,讓企業可以依據特定應用需求調整運算資源。
NVIDIA SuperNIC (ConnectX-8) 網卡是目前網路連接技術的最新發展,提供每秒高達800Gb/s的連線速度,相比前幾代產品有顯著提升。這類高速網卡對於大規模AI訓練尤為重要,因為AI模型訓練過程中需要在多個GPU/節點間高效傳輸大量數據。
NVIDIA SHARP (Scalable Hierarchical Aggregation and Reduction Protocol) 技術是一種網路優化技術,能夠在網路層面直接處理數據聚合,減少CPU參與,從而降低網絡擁塞並提高數據中心效能。此技術特別適用於大規模分散式AI訓練環境。
企業AI工廠 (Enterprise AI Factory) 是一個概念,指代企業內部部署的完整AI基礎設施環境,包含從數據處理、模型訓練到推論部署的全流程能力。現代企業AI工廠通常包含高效能GPU伺服器、高速網絡互連、大容量存儲和專用軟體堆疊。
Blackwell架構是NVIDIA最新的GPU架構,用於RTX PRO 6000 Blackwell和H200 NVL等產品。相較前代Hopper架構,Blackwell架構在AI推論和高效能運算方面有明顯的效能提升,特別是針對大型語言模型(LLM)的處理能力。
In-Network Computing (網內計算) 是一種將部分計算工作從CPU/GPU轉移到網路設備中進行的技術。這種方法可減少數據移動,降低延遲並提高整體系統效率,特別適合數據密集型AI工作負載。
液冷技術在高密度AI伺服器中變得越來越重要,因為傳統氣冷方案難以有效散熱。液冷解決方案能更有效地移除熱量,同時降低能耗,提高系統密度和可靠性,是現代大規模AI部署的關鍵技術之一。
現正直播