NVIDIA Vera CPU在大規模資料處理、AI訓練與代理型AI推論方面,提供最高效能與能效
- ● NVIDIA Vera CPU 的效率是傳統 CPU 的兩倍,而運算速度則可提升 50%。
- ● 與 NVIDIA 合作部署 Vera CPU 的客戶包括阿里巴巴、字節跳動、Meta 與 Oracle Cloud Infrastructure,以及 CoreWeave、Lambda、Nebius 與 Nscale。
- ● 已開始採用 Vera CPU 的製造合作夥伴包括戴爾科技集團、慧與科技、聯想集團與美超微,以及華碩、仁寶、鴻海科技集團、技嘉科技、和碩聯合科技、雲達科技、緯創和緯穎。
NVIDIA 今日推出 NVIDIA Vera CPU。這是全球首款專為代理型人工智慧(AI)與強化學習時代打造的處理器,其效率是傳統機架級 CPU 的兩倍,運算速度提升 50%。
隨著推理與代理型 AI 持續發展,規模、效能與成本日益取決於支撐相關模型的基礎設施。這些模型需要規劃任務、執行工具、與資料互動、執行程式碼並驗證結果。
NVIDIA Vera CPU 延續了 NVIDIA Grace™ CPU 的成功,使各種規模與各產業的組織都能建構 AI 工廠,並在大規模環境中釋放代理型 AI 的能力。具備最高的單執行緒效能與每核心頻寬,Vera 代表了一種全新的 CPU 類別,可為大規模 AI 服務提供更高的 AI 資料輸送量、回應速度與效率,支援如程式碼助理等大規模 AI 服務,以及消費型與企業型 AI 代理。

與 NVIDIA 合作部署 Vera 的領先超大規模雲端服務商包括阿里巴巴、CoreWeave、Meta 與 Oracle Cloud Infrastructure。此外,戴爾科技集團、慧與科技、聯想集團與美超微等全球系統製造商也正在以此技術打造伺服器設計。這種廣泛採用確立了Vera 成為開發者、新創公司、公私部門機構及企業最重要 AI 工作負載的新 CPU標準,並有助於推動 AI 的普及化與加速創新。
NVIDIA 創辦人暨執行長黃仁勳表示:「Vera 在 AI 發展的轉捩點問世。隨著智慧變得更具代理能力,能夠進行推理與行動,負責協調與運行這些工作的系統重要性也隨之提升。CPU 不再只是支援模型,而是驅動模型運作。透過突破性的效能與能效,Vera 讓 AI 系統能以更快速度思考並擴展到更大的規模。」
適用於各類資料中心的彈性配置
NVIDIA 宣布推出全新的 Vera CPU 機架,整合 256 顆液冷式 Vera CPU,可同時支援超過 22,500 個並行的 CPU 執行環境,且每個環境都能以完整效能獨立運行。透過此架構,AI 工廠能夠在單一機櫃中快速部署並擴展至數萬個同時運行的實例與代理型 AI 工具。
全新 Vera 機架採用 NVIDIA MGX™ 模組化參考架構打造,並獲全球 80 家生態系合作夥伴支持。
作為 NVIDIA Vera Rubin NVL72 平台的一部分,Vera CPU 可透過 NVIDIA NVLink™-C2C 互連技術與 NVIDIA GPU 配對使用,提供 1.8 TB/s 的一致性頻寬(相當於 PCIe Gen 6 頻寬的 7 倍),以實現 CPU 與 GPU 之間的高速資料共享。此外,NVIDIA 也推出全新的參考設計,使用 Vera 作為 NVIDIA HGX™ Rubin NVL8 系統的主機 CPU,負責協調 GPU 加速工作負載所需的資料傳輸與系統控制。
Vera 系統夥伴同時提供雙插槽與單插槽 CPU 伺服器配置,適合用於強化學習、代理型推論、資料處理、工作流程協調、儲存管理、雲端應用與高效能運算等工作負載。
在所有配置中,Vera系統都可與 NVIDIA ConnectX® SuperNIC 網路卡及 NVIDIA BlueField® DPU 整合,以提供加速的網路、儲存與安全功能,這些能力對代理型 AI 至關重要。這能讓客戶根據特定工作負載加以最佳化,同時在整個 NVIDIA 平台上維持單一的軟體堆疊。
專為代理型擴展打造
透過結合高效能且高能效的 CPU 核心、高頻寬記憶體子系統及第二代 NVIDIA Scalable Coherency Fabric,Vera 能在代理型 AI 與強化學習常見的高利用率環境下,提供更快速的代理回應能力。
Vera 搭載 88 個 NVIDIA 自行設計的 Olympus 核心,為編譯器、執行時引擎、分析流程、代理型工具與協調服務提供高效能。每個核心均可透過 NVIDIA 空間多執行緒技術同時執行兩項任務,提供穩定且可預測的效能,非常適合需要同時執行大量工作的多租戶 AI 工廠。
為了進一步提升能效,Vera 引進第二代 NVIDIA 低功耗記憶體子系統,採用 LPDDR5X 記憶體並提供最高 1.2 TB/s 頻寬,相較於一般通用型 CPU,頻寬提升至兩倍,同時功耗僅為一半。
廣泛的生態系支援
AI 原生軟體開發領域的創新者 Cursor,正採用 NVIDIA Vera 來提升其 AI 程式碼撰寫代理的效能。
Cursor 共同創辦人暨執行長 Michael Truell 表示:「我們很高興能運用 NVIDIA Vera CPU 來提升整體資料輸送量與效率,藉此為客戶提供更快、反應更靈敏的程式碼撰寫代理體驗。」
領先的串流資料與 AI 平台 Redpanda 正在使用 Vera,大幅提升系統效能。
Redpanda 創辦人暨執行長 Alex Gallego 表示:「Redpanda 最近測試了在 NVIDIA Vera 上執行 Apache Kafka 相容工作負載,發現其效能遠高於我們曾測試過的其他系統,且延遲最多可降低 5.5 倍。Vera 代表 CPU 架構的一個新方向,具備更大的記憶體容量與更低的每核心運算負擔,使我們的客戶能將即時串流工作負載擴展至前所未有的規模,並釋放新的 AI 與代理型 AI 應用。」
計劃部署 Vera CPU 的國家級實驗室包括萊布尼茲超級運算中心、洛斯阿拉莫斯國家實驗室、勞倫斯柏克萊國家實驗室旗下的國家能源研究科學運算中心,以及德州先進運算中心(TACC)。
德州先進運算中心高效能運算總監 John Cazes 表示:「在德州先進運算中心,我們最近測試了 NVIDIA 的 Vera CPU 平台,為部署該技術至我們即將推出的 Horizon 系統做準備。當我們執行六個科學應用時,看到了令人印象深刻的初步成果。Vera 的每核心效能與記憶體頻寬代表著科學運算的一大躍進,我們期待今年稍晚在 Horizon 系統上為 CPU 使用者提供基於 Vera 的運算節點。」
計劃部署 Vera CPU 的主要雲端服務供應商包括阿里巴巴、字節跳動、Cloudflare、CoreWeave、Crusoe、Lambda、Nebius、Nscale、Oracle Cloud Infrastructure、Together.AI 與 Vultr。
採用 Vera CPU 的主要基礎架構供應商包含 Aivres、華擎科技、華碩、仁寶、思科、戴爾科技集團、鴻海科技集團、技嘉科技、慧與科技、Hyve、英業達、聯想集團、神達、微星、和碩聯合科技、雲達科技、美超微、緯創與緯穎。
上市時程
NVIDIA Vera 已進入全面量產階段,並將於今年下半年由合作夥伴提供。
