NVIDIA CUDA-Q平台使Google Quantum AI研究人員能夠創建其量子電腦的大規模數位模型,以解決設計挑戰

NVIDIA 今日宣布,正與 Google Quantum AI 合作,利用 NVIDIA CUDA-Q™平台驅動的模擬技術,加速下一代量子運算設備的設計。
Google Quantum AI 使用混合式量子經典運算平台和 NVIDIA Eos 超級電腦,模擬其量子處理器的物理行為。此舉將有助於克服目前量子運算硬體的限制,因其僅能執行有限數量的量子運算,之後因研究人員所稱的「雜訊」影響,運算必須停止。
Google Quantum AI 的研究科學家 Guifre Vidal 表示:「只有在量子硬體能夠擴展且保持雜訊受控的情況下,才有可能開發出具有商業用途的量子電腦。透過 NVIDIA 的加速運算,我們正在探索更大型量子晶片設計中雜訊的影響。」
理解量子硬體設計中的雜訊需要複雜的動態模擬,能夠完全捕捉量子處理器中的量子位元如何與其環境互動。
這些模擬傳統上因運算成本過於昂貴而難以實現。然而,透過使用 CUDA-Q 平台,Google 能利用 NVIDIA Eos 超級電腦上的 1,024 個 NVIDIA H100 Tensor 核心 GPU,以極低的成本完成全球規模最大、速度最快的量子裝置動態模擬之一。
NVIDIA 量子與高效能運算(HPC)部門總監 Tim Costa 表示:「人工智慧(AI)超級運算能力將有助於量子運算的成功。Google 對 CUDA-Q 平台的應用展示了 GPU 加速模擬在推動量子運算進步並解決現實世界問題方面的核心作用。」
透過 CUDA-Q 和 H100 GPU,Google 可以對包含 40 個量子位元的裝置進行全面、真實的模擬,這是此類模擬中執行規模最大的一次。CUDA-Q 提供的模擬技術可將需要一週才能完成的雜訊模擬縮短至僅需數分鐘。
驅動這些加速動態模擬的軟體將在 CUDA-Q 平台上公開提供,讓量子硬體工程師能快速擴展其系統設計。