雲達於SC24展出NVIDIA AI 加速伺服器平台

圖說:雲達科技在SC24 展出NVIDIA AI 加速的伺服器平台,QCT 生成式AI 伺服器基於NVIDIA AI 全堆疊平台,適用於所有資料中心。

雲達科技(QCT)參加2024 年超級運算大會(SC24)。本次大會於11 月17 日至22 日,在美國喬治亞州亞特蘭大盛大舉行。雲達科技以「用HPC 與AI 改變未來」為主題,展示多項基於NVIDIA Blackwell 平台的加速運算解決方案,搭載包括NVIDIA Hopper GPU、NVIDIA NVLink-C2C 互聯技術,以及NVIDIA Spectrum-X以太網平台、NVIDIA BlueField-3 網路,以及提供NVIDIA NIM 微服務的NVIDIA AI Enterprise 軟體平台等多項尖端技術。這些QCT 伺服器為資料中心提供前所未有的性能、能源效率和可擴展性,支援生成式AI 應用。本次展出的產品涵蓋了基於不同NVIDIA 技術的解決方案,以滿足各種AI 和高效能運算(HPC)的需求。

「生成式AI 已成為幾乎所有行業數位轉型的關鍵推動力,這也創造了對AI 基礎設施的強大需求」,雲達科技總裁楊麒令表示。「雲達科技作為經驗豐富的超大規模基礎設施供應商,已經準備好提供採用NVIDIA 技術、兼具高性能和高能效的加速運算平台,協助資料中心和企業加速生成式AI 的部署」。

「雲達科技運用NVIDIA 全堆疊加速運算平台,滿足全球資料中心對先進AI 基礎設施日益增加的需求,幫助企業實現AI 驅動的創新,同時達到性能極大化、成本優化,並縮短從部署到實現價值的時間」,NVIDIA GPU 產品管理副總Kaustubh Sanghani 表示。

雲達科技在SC24 展示的加速運算系統包括:

  • 基於NVIDIA MGX 架構的QuantaGrid 伺服器
    QuantaGrid D75B-1U 和QuantaGrid D75E-4U 基於NVIDIA MGX 模組化參考設計,具備靈活、快速開發上市,以及相容多個世代等特性。這些系統分別採用最新NVIDIA Blackwell GPU 和NVIDIA H200 NVL 等NVIDIA PCIe GPU,易於部署和擴展,支援主流AI 推理和大語言模型(LLM)工作負載。
  • 8-GPU NVIDIA HGX Blackwell 或NVIDIA HGX Hopper 伺服器
    QuantaGrid D75F-9U、QuantaGrid D75H-7U 和QuantaGrid D75L-5U 是經過精心設計的8 GPU 加速伺服器,專為應對最複雜的AI 和HPC 任務而打造,如LLM、推薦系統和聊天機器人等。它們配備8 顆NVIDIA Blackwell 或NVIDIAHopper GPU,GPU 與GPU 之間透過NVIDIA NVLink 進行互聯,並擁有靈活的I/O 插槽,可支援NVIDIA BlueField-3 SuperNIC 和DPU。
  • NVIDIA GB200 NVL72 機櫃級解決方案
    由18 台QCT QuantaGrid D75B-1U 伺服器和9 台第五代NVIDIA NVLink交換機所組成的水冷式AI 工廠,專為實現兆級參數即時推理與訓練而打造。藉由將72 顆Blackwell GPU 互聯為一體,提供強大性能、卓越能源效率和超低總擁有成本。

此外,雲達科技還提供許多採用NVIDIA 加速技術的硬體產品,包括NVIDIAGB200 NVL72、配備HBM3e 記憶體的NVIDIA H200 NVL,以及配備4 張和8 張GPU 的NVIDIA HGX H200。最新的NVIDIA H200 NVL 可加速主流企業用伺服器的AI 工作表現。相較於H100 NVL,H200 NVL 的LLM 推理速度提升高達1.8 倍,HPC 應用性能也提高1.3 倍。雲達科技還在SC24 展示自家整合解決方案和AI/HPC 應用案例,包括QCT Platform on Demand(QCT POD)。這是一個同時支援雲原生與裸機環境的HPC 和AI 融合式系統,它同時整合了NVIDIA NGC 目錄,簡化AI 與HPC 工作流程。

回到頂端