Hewlett Packard Enterprise(NYSE: HPE)今日宣布,其首批採用 NVIDIA Blackwell 架構的解決方案—NVIDIA GB200 NVL72 已正式出貨。這款機架級系統採用先進的直接液冷技術,專為服務供應商與大型企業打造,能夠快速部署超大規模且複雜的 AI 叢集,並優化效率與效能。

「為確保系統具備卓越的擴展性、極致效能及快速部署能力,AI 服務供應商與大型企業的 AI 模型開發者正面臨龐大壓力,」HPE 高效能運算與 AI 基礎架構解決方案部門資深副總裁暨總經理 Trish Damkroger 表示。「HPE 建置了全球最快的三部直接液冷系統,並透過業界領先的專業服務,為客戶提供更低的標記訓練成本(cost per token)及頂級效能。」
NVIDIA GB200 NVL72 採用共享記憶體、低延遲架構,並搭載最新 GPU 技術,可在單一記憶體空間內支援超過兆級參數的超大型 AI 模型。GB200 NVL72 可無縫整合 NVIDIA CPUs、GPUs、運算與交換器模組、網路與軟體,並支援 NVIDIA 軟體應用程式,為生成式 AI(GenAI)模型訓練與推論等高度平行運算工作負載提供極致效能。
「隨著功耗與運算需求持續攀升,工程師、科學家與研究人員需要頂尖的液冷技術來應對挑戰,」NVIDIA 企業平台部門副總裁 Bob Pette 表示。「在 HPE 與 NVIDIA 的長期合作基礎上,HPE 首批搭載 NVIDIA GB200 NVL72 的系統將助力服務供應商與大型企業有效建置、部署與擴展大型 AI 叢集。」
面對不斷攀升的功耗需求與資料中心密度變化,HPE 憑藉 50 年的液冷技術專業,協助客戶快速部署複雜液冷環境,並建構完整的基礎架構支援系統。這些豐富經驗使 HPE 成功打造了 8 部名列 Green500 排行榜前 15 名的最節能超級電腦。HPE 亦是直接液冷技術領域的領先企業,並建置了全球十大最快超級電腦中的 7 部系統。
HPE的NVIDIA GB200 NVL72功能特色
● 配備 72 顆 NVIDIA Blackwell GPU 與 36 顆 NVIDIA Grace CPU,並透過高速 NVIDIA NVLink 相互連結
● 高達 13.5TB 的 HBM3e 記憶體,並可實現每秒 576TB 的記憶體頻寬
● 採用 HPE 直接液冷技術
業界領先的服務與支援
HPE 具備全球化的 AI 解決方案交付能力,並擁有支援大規模客製化 AI 叢集的實證經驗,同時提供現場專業支援、客製化、永續發展等多項卓越服務。HPE 的 HPC 與 AI 客製化支援服務可依客戶需求量身規劃,並提供多層級的 SLA(服務等級協議)保障。透過專屬的遠端工程師,HPE 提供更有效率的事件管理與主動支援, 確保快速部署與更快的價值實現。服務內容包括:
● 現場工程資源:由專業駐場工程師提供全方位現場支援,並與客戶 IT 團隊緊密合作,確保系統發揮最佳效能與可用性。
● 效能與基準測試調校:由業界頂尖專家組成的團隊,在系統生命週期中持續調校與優化解決方案。
● 永續發展服務:提供能源與碳排放報告、永續發展研討會與資源監測,以協助降低環境衝擊。
HPE 最新出貨的 NVIDIA GB200 NVL72 屬於其高效能運算與超級運算系統系列之一,能夠滿足生成式 AI(GenAI)、科學研究及其他高強度運算工作負載的各種需求。如欲深入了解我們的運算與超級運算系統,以及 HPE NVIDIA AI Computing 產品組合中的其他解決方案,歡迎瀏覽我們的網站。