AMD (NASDAQ: AMD) 宣布 Zyphra 在大規模 AI 模型訓練方面達成重大里程碑,成功開發出 ZAYA1,此為首個採用 AMD GPU 與網路平台訓練而成的大規模混合專家(MoE)基礎模型。這項成就得益於 AMD Instinct™ MI300X GPU、AMD Pensando™網路技術,並由 AMD ROCm™開放軟體堆疊所實現。

Zyphra 測試結果顯示,該模型在推理、數學及編碼等基準測試中,與頂尖開放模型相比,展現出具有競爭力甚至更卓越的效能,充分彰顯 AMD Instinct GPU 在生產級 AI 工作負載方面的可擴展性與效率。
AMD 人工智慧事業群人工智慧與工程全球副總裁 Emad Barsoum 表示:「AMD 在加速運算領域的領導地位,正為 Zyphra 等創新者挹注動能,持續突破 AI 領域的極限。這項里程碑展示了 AMD Instinct GPU 與Pensando 網路技術在訓練複雜大規模模型方面的強大能力與靈活性。」
Zyphra 執行長 Krithik Puthalath 指出:「效率一直是 Zyphra 的核心指導原則,影響著我們如何設計模型架構、開發訓練與推論演算法,並選擇具備最佳性價比的硬體,以向客戶提供前瞻性的智慧。ZAYA1 體現了這項理念,我們很高興成為首家在 AMD 平台上展示大規模訓練的公司。這個成果彰顯將模型架構與晶片及系統共同設計的強大力量,我們期待在建構下一代先進多模態基礎模型的進程中,深化與 AMD 及 IBM 的合作。」
AMD Instinct GPU為大規模高效訓練挹注強大動能
AMD Instinct MI300X GPU 具備 192 GB 高頻寬記憶體,實現高效的大規模訓練,無須仰賴成本高昂的專家或張量分片(tensor sharding),從而降低複雜度並提升整個模型堆疊的吞吐量。Zyphra 亦指出,透過 AMD 最佳化的分散式 I/O,模型儲存時間加快 10 倍以上,進一步提升訓練的可靠性與效率。ZAYA1-Base 僅以極小部分的活躍參數,總參數量 8.3B、活躍參數 760M 的效能已可媲美甚至超越 Qwen3-4B(阿里巴巴)、Gemma3-12B (Google)、Llama-3-8B (Meta) 和 OLMoE 等模型註1。

基於先前的合作基礎,Zyphra 與 AMD 及 IBM 緊密合作,設計並部署搭載 AMD Instinct™ GPU 及 AMD Pensando™網路互連技術的大規模訓練叢集。這套由 AMD 與 IBM 共同開發的系統已於本季稍早發表,結合 AMD Instinct™ MI300X GPU 與 IBM Cloud 的高效能網路與儲存架構,為 ZAYA1 大規模預訓練奠定基礎。

欲進一步了解測試結果,ZAYA1 模型架構、訓練方法以及本次開發所使用的 AMD 技術,請參閱 Zyphra技術報告、Zyphra部落格及 AMD部落格。
註1:Zyphra於2025年11月14日進行的測試,旨在衡量Zyphra完整叢集在訓練迭代方面的總體吞吐量,以每秒千兆浮點運算次數(PFLOPs)為單位。此次測試的工作負載為在BFLOAT16精度下,訓練一個由一系列串聯的多層感知器(MLP)所組成的模型。該測試橫跨由128個運算節點組成的完整叢集,每個運算節點均配備8個AMD Instinct™ MI300X GPU和8個Pensando™ Pollara 400互連裝置,並運行Zyphra自行開發的專有訓練堆疊。伺服器製造商的配置可能會有差異,進而產生不同的結果。此外,效能也可能因使用最新的驅動軟體與最佳化而有所差異。此基準測試透過AMD ROCm 6.4進行。
