Intel® Xeon® 6作為主處理器(Host CPU),展現其在現代AI基礎架構中負責協調、擴展與安全防護的核心角色
英特爾今(17)日於 NVIDIA GTC 2026 大會上,宣布 Intel® Xeon® 6 將使用於 NVIDIADGX Rubin NVL8 系統。隨著工作負載轉向大規模、即時推論,此項合作進一步突顯了 Xeon 系列為 GPU 加速 AI 系統提供架構延續性與可擴充性的關鍵作用。

英特爾企業副總裁暨資料中心策略規劃部總經理 Jeff McVeigh 表示:「在代理式 AI 與推論系統的驅動下,AI 正從大規模訓練轉向無所不在的即時推論。在這個新時代,Host CPU 扮演至關重要的角色,負責管理 GPU 加速系統間的任務協調、記憶體存取、模型安全與吞吐量。Intel® Xeon® 6 提供領先的效能、效率,並兼容於客戶賴以擴充推論工作的 x86 軟體生態系。」
隨著企業持續部署 AI 系統,推論能力的標準已不僅止於 GPU 吞吐量,也與 CPU 主導的系統效能息息相關。Host CPU 不僅影響整體叢集效率與總體持有成本(TCO),還負責記憶體管理、任務調度及工作負載分配等關鍵功能,並確保現代 AI 基礎架構所需的安全性、可靠性與營運連續性。
基於這些系統級需求,Intel® Xeon®處理器以其支援高速記憶體、在多元工作負載下維持平衡效能、較低的長期總持有成本,以及成熟且經企業驗證的軟體生態系,因此成為 DGX Rubin NVL8 系統的主機處理器。此外,英特爾穩健強大的 PCIe 與 I/O 能力,進一步強化 Xeon 作為多元工作負載下高頻寬、低延遲平台的角色。
● 卓越的每瓦效能表現
● 針對 AI 軟體堆疊生態系的優化支援,包括新增對 NVIDIA Dynamo 的支援,以能夠實現 CPU 與即將推出的 GPU 之間的異質推論
● 在各任務關鍵環境中皆具備經過驗證的可靠性
● 對 GPU 加速異質系統間的卓越調度能力
Intel® Xeon® 6 強化其作為現代 AI 基礎架構的基礎地位,實現橫跨資料中心、雲端及邊緣應用場景的可擴充部署。隨著AI推理規模擴大,從 CPU 到 GPU 資料路徑的端到端機密運算變得極為重要。Intel® Trust Domain Extensions (Intel® TDX)透過硬體級隔離與遠端驗證,進一步強化了 Xeon 作為現代 AI 叢集安全基礎的優勢。
NVIDIA DGX Rubin NVL8 系統整合了 Intel® Xeon® 6 處理器,延續目前 Blackwell 平台(如 DGX B300 系統)中英特爾 Xeon 6776P 所建立的架構基礎。在此經過驗證的基礎上,英特爾持續將卓越效能、豐富經驗與系統級專業技術導入全新的 DGX Rubin NVL8 系統。
英特爾專為 Xeon 設計多項相關技術,以協助系統充分發揮 GPU 的最大潛力。透過 Priority Core Turbo 等功能,確保資料能持續高速傳輸至 GPU;憑藉強大的單執行緒效能負責調度、排程與資料遷移,即使推理工作負載日益複雜,Xeon 仍能確保系統運行順暢且高效。
Intel® Xeon® 6的關鍵特性:
● 支援高達 8 TB 系統記憶體,滿足大型模型與日益增長的 KV 快取需求
● 採用 MRDIMM 技術,記憶體頻寬較前一代提升 2.3 倍,提升對 GPU 的資料傳輸速率
● 業界領先的 PCIe 5.0 通道,支援 AI 加速器及其他裝置
● 透過加密緩衝區(Encrypted Bounce Buffer),確保 CPU 至 GPU 資料路徑的機密運算
● 硬體隔離技術,在使用中保護 AI 資料與模型安全
1 See [9A6] at intel.com/processorclaims: Intel Xeon 6. Results may vary
