- ● 全新的 NVIDIA STX 參考架構可提供高達 5 倍的詞元輸送量與4 倍的能效,且資料擷取速度提升 2 倍。
- ● STX 用於情境記憶(context memory)儲存的早期採用者包括 CoreWeave、Crusoe、IREN、Lambda、Mistral AI、Nebius、Oracle Cloud Infrastructure(OCI)與 Vultr。
- ● 儲存供應商與製造合作夥伴正運用 NVIDIA 模組化參考設計建置基礎架構,以推動代理型 AI 的發展,包括營邦企業、Cloudian、DDN、戴爾科技集團、Everpure、Hitachi Vantara、慧與科技、IBM、MinIO、NetApp、Nutanix、美超微、雲達科技、VAST Data 與 WEKA。
NVIDIA 今日宣布推出 NVIDIA BlueField-4® STX。這是一種模組化參考架構,可讓企業、雲端與 AI 服務供應商輕鬆部署加速儲存基礎設施,以滿足代理型人工智慧(AI)所需的長情境推理能力。
傳統資料中心提供高容量、通用型儲存,但缺乏足夠的即時回應能力,難以支援 AI 代理在跨越多個步驟、工具與會話場景之間實現流暢互動。代理型 AI 需要即時存取資料與情境工作記憶,以維持對話與任務的速度與連貫性。隨著情境規模的增加,傳統儲存與資料傳輸路徑可能會拖慢 AI 推論速度,並降低 GPU 的使用率。
NVIDIA STX 讓儲存供應商能建構一種基礎架構,使資料在大規模環境下仍能保持就近存取,從而讓代理型 AI 工廠能在推論、訓練及分析工作中提供更高的資料輸送量與回應速度。
首個機架級建置方案整合了全新的 NVIDIA CMX™ 情境記憶體儲存平台,該平台透過高效能情境層擴展了 GPU 記憶體,用於可擴展的推論與代理型系統,相較於傳統儲存技術,可提供高達 5 倍的每秒詞元處理量。

NVIDIA 創辦人暨執行長黃仁勳表示:「代理型 AI 正在重新定義軟體的能力,而其背後的運算基礎也必須重新設計,才能跟上發展速度。能在龐大情境中推理並持續學習的 AI 系統,需要一種全新等級的儲存類型。NVIDIA STX 重新打造儲存技術堆疊,為 AI 原生基礎架構提供模組化基礎,使 AI 工廠能維持在最佳效能運作。」
STX 由 NVIDIA Vera Rubin 平台加速,並採用全新且為儲存最佳化設計的 NVIDIA BlueField-4 處理器。該處理器結合 NVIDIA Vera CPU 與 NVIDIA ConnectX®-9 SuperNIC,並搭配 NVIDIA Spectrum-X™ 乙太網路、NVIDIA DOCA™ 與 NVIDIA AI Enterprise 軟體。
STX 架構在高效能儲存方面,相較於傳統 CPU 架構也可提供最高 4 倍的能效,並且在企業 AI 資料處理上,每秒可擷取 2 倍以上的資料頁面。
與 NVIDIA 共同設計、基於 NVIDIA STX 的新世代 AI 基礎架構的儲存合作夥伴包括 Cloudian、DDN、戴爾科技集團、Everpure、Hitachi Vantara、慧與科技、IBM、MinIO、NetApp、Nutanix、VAST Data 與 WEKA。
負責建構 STX 系統的製造合作夥伴包括營邦企業、美超微與雲達科技。
計畫採用 STX 作為情境記憶體儲存的領先 AI 實驗室與雲端服務提供者包括 CoreWeave、Crusoe、IREN、Lambda、Mistral AI、Nebius、Oracle Cloud Infrastructure 與 Vultr。
以 STX 為基礎的平台,預計將於今年下半年由合作夥伴推出。
