華碩今日於 NVIDIA® GTC 2026 發表全液冷 AI 基礎架構,為新世代 NVIDIA Vera Rubin 平台帶來全方位端對端解決方案,包括:機架級 AI 工廠、桌上型 AI 超級運算、邊緣 AI 與企業 AI,助攻企業、雲端供應商打造高效節能的大規模 AI 叢集,降低 PUE 與 TCO,成就無與倫比的數位生產力。
其中,採用 NVIDIA Vera Rubin 的全新 ASUS AI POD,是一款專為海量 AI 工作負載設計的液冷裝置,可提供多元冷卻模式、客製化散熱方案和備援功能,滿足各式所需;同時,亦結合專家諮詢、儲存配置、基礎架構部署等一站式服務,加速企業升級,共創無限商機。
ASUS AI工廠:從基礎架構到實作
而同為本次展出一大亮點的 XA VR721-E3,為 100% 液冷機櫃級系統,其熱設計功耗 (TDP) 最高可達 227kW (MaxP) 或 187kW (MaxQ),每瓦效能提升 10 倍,相當適合兆級參數模型運算,成為大規模AI工廠強悍動能來源;此外,華碩亦攜手 Schneider Electric、Vertiv 等國際大廠,構築全棧式電力與冷卻基礎設施,無論是標準部署、先進液冷環境,皆能實現零降速 (zero-throttle) 性能與高度冗餘。
針對數據中心的嚴苛需求,華碩另同步推出支援 NVIDIA HGX Rubin NVL8 系統的伺服器系列,配備八顆 NVIDIA Rubin GPU,並透過第六代 NVIDIA NVLink 連接,且每顆 GPU 整合高達 800G 頻寬,能協助企業以較低成本轉型至液冷架構,包括:配備創新混合冷卻系統的 XA NR1I-E12L 與全液冷的 XA NR1I-E12LR;其中,XA NR1I-E12L 不僅將液冷 (D2C) 技術精準應用於 NVIDIA GPU 基板,更搭配氣冷系統為雙Intel® Xeon® 6 處理器提供絕佳散熱。
堅強的產品陣容還有搭載 NVIDIA HGX B300 系統的 XA NB3I-E12、配備 NVIDIA MGX 架構與 NVIDIA ConnectX-8 SuperNIC 的 ESC8000A-E13X,以及內建 NVIDIA RTX PRO 4500 / 6000 Blackwell 伺服器版 GPU 的 ESC8000A-E13P,可輕鬆應對巨量資料處理分析、AI / 影像及視覺運算。
實際應用方面,ASUS AI 工廠已累積多個成功案例,像是 ASUS ESC8000 系列,支援 NVIDIA Omniverse 所建構的生產線數位分身 (Digital Twin),搭配 NVIDIA 可客製化多鏡頭追蹤工作流,以進行遠端模擬,降低部署風險;且為推動 AI 開發與普及,華碩亦與 NVIDIA 認證儲存供應商,如:IBM、DDN、Weka、VAST Data 密切合作,建立具備擴展性的區塊儲存 (VS320D-RS12)、物件儲存 (OJ340A-RS60) 及軟體定義系統,確保從邊緣到雲端都擁有高度靈活性。


實現實體AI:垂直整合開發與部署
作為 AI 領域專家,華碩創建完整的實體 AI 生態系統,提供從初期開發到最終部署所需的關鍵算力,而這場科技革命始於開發人員的桌面,也就是搭載 NVIDIA Grace Blackwell Ultra 平台的桌上型超級電腦—ASUS ExpertCenter Pro ET900N G3,其內建 NVIDIA NVLink-C2C 互連技術與 748GB 一致性記憶體 (Coherent Unified Memory),足以承擔訓練海量模型的重任。
而極致小巧的 ASUS Ascent GX10,則配備 NVIDIA Grace Blackwell Superchip,以提供 Petaflop 等級震撼效能 (每秒千萬億次浮點運算),是快速模型迭代,以及具擴充性邊緣配置的理想首選!同時,此強大的開發能力亦可無縫轉換至內建 NVIDIA Jetson Tho 的推論引擎—ASUS PE3000N,其內蘊高達 2,070 TFLOPS 的驚人運算,再加上 NVIDIA Cosmos 等開放模型與 Metropolis 的視覺 AI 庫,即使執行感測器融合或自動導航都能從從容容、游刃有餘!
安全可靠的代理AI
此外,Ascent GX10 及 ExpertCenter Pro ET900N G3 亦相容最新 NVIDIA NemoClaw 平台,此開源架構可簡化 OpenClaw AI 助理部署流程,並安裝 NVIDIA OpenShell,以支援 NVIDIA Nemotron 等開源模型,開發人員可在本地建置全天候運作的自主代理程式,透過隔離的沙箱環境、權限控管與私有裝置端推論,確保AI應用更安全且值得信賴。
