NVIDIA DGX Cloud與Hugging Face平台將行整合將加快訓練及調整大型語言模型的速度,讓幾乎所有行業都能輕鬆自訂人工智慧模型
NVIDIA 與 Hugging Face 今日宣布攜手合作為數百萬名開發人員提供生成式人工智慧超級運算服務,協助他們建立大型語言模型(LLM)和其他先進的人工智慧應用項目。
NVIDIA 與 Hugging Face 合作讓開發人員可以在 Hugging Face 平台上使用 NVIDIA DGX Cloud AI 超級運算服務,以訓練和調整先進的人工智慧模型。此舉有助推動產業採用生成式人工智慧,使用依業務資料專門量身打造大型語言模型,開發智慧聊天機器人、搜索和摘要等產業專用應用項目。
NVIDIA 創辦人暨執行長黃仁勳表示:「研究人員與開發人員是改變各產業發展樣貌之生成式人工智慧的核心。Hugging Face 與 NVIDIA 將連結全球最大的人工智慧社群以及在全球主要雲端環境中的 NVIDIA 人工智慧運算平台。透過雙方的合作,Hugging Face 的社群只需點一下滑鼠,就能使用 NVIDIA 的人工智慧運算服務。」

Hugging Face 在這項合作案中,將提供一項名為「訓練叢集即服務」(Training Cluster as a Service)的新服務,以簡化企業建立全新自訂生成式人工智慧模型的過程。該服務由 NVIDIA DGX Cloud 提供運算能力,將在未來幾個月內推出。
Hugging Face 共同創辦人暨執行長 Clément Delangue 表示:「世界各地的人們利用生成式人工智慧工具建立新的連結和發現,而我們還只是處在這項科技轉變的早期階段。我們雙方這次合作,將為 Hugging Face 帶來 NVIDIA 最先進的人工智慧超級運算技術,讓企業能夠透過開源的方式,將其發展人工智慧的命運掌握在自己手中,幫助開源社群輕鬆獲得所需的軟體和速度,為日後發展做出貢獻。」
強化在Hugging Face中自訂及訓練大型語言模型的工作
Hugging Face 平台讓開發人員能夠利用開源資源,建立、訓練和部署最先進的人工智慧模型。超過 1.5 萬間機構使用 Hugging Face,其開發人員社群已分享超過 25 萬個模型和 5 萬個資料集。
DGX Cloud 與Hugging Face的平台整合後,使用者只要點擊一下滑鼠,就能使用 NVIDIA 多節點人工智慧超級運算平台。Hugging Face 使用者有了 DGX Cloud,便能夠連接到 NVIDIA 人工智慧超級運算服務,提供了利用獨特資料快速訓練和調整基礎模型所需的軟體和基礎架構,以推動企業發展大型語言模型的新浪潮。再加上由 DGX Cloud 運算能力支援的訓練叢集即服務(Training Cluster as a Service),企業就可以利用其在 Hugging Face 平台上的獨特資料,在破紀錄的時間內打造出絕無僅有的高效率模型。
DGX Cloud加快了開發和自訂大型模型的速度
DGX Cloud 的每個執行個體都搭載了八個 NVIDIA H100 或 A100 80GB Tensor 核心 GPU,每個節點的 GPU 記憶體合計為 640GB。NVIDIA 網路技術提供高效能、低延遲的網路結構,確保可以將工作負載擴大到交由互聯系統叢集處理,以滿足先進人工智慧工作負載對執行效能的要求。
DGX Cloud 另有提供 NVIDIA 專家的支援服務,可幫助客戶將模型調整至最佳狀態,快速解決開發上的難題。
DGX Cloud 基礎設施交由主要的 NVIDIA 雲端服務提供商進行託管。
上市期程
NVIDIA DGX Cloud 和 Hugging Face 整合將在未來幾個月內推出。