支援NVIDIA® RTX™ GPU與全快閃NVMe儲存,讓中小企業與開發者即時運行AI工作負載,掌控效能與資料主權
在資料主權與運算效能成為 AI 應用關鍵競爭力的今天,企業對私有部署的 AI 基礎架構需求持續升溫。運算、網通及儲存解決方案的領導者威聯通®科技 (QNAP® Systems, Inc.) 發表新一代 Edge AI 儲存伺服器 QAI-h1290FX,整合伺服器等級 AMD EPYC™ 處理器、支援 NVIDIA RTX GPU (選購) 加速、12 個 U.2 NVMe/SATA SSD 插槽,專為私有大型語言模型 (LLM)、企業級 RAG 搜尋與生成式 AI 等地端應用場景設計,協助企業在不依賴雲端的情況下,以更高效能、更高安全性實現 AI 創新。

QAI-h1290FX 搭載 QuTS hero 作業系統,具備 ZFS 的完整資料保護與近乎無限的快照,同時支援 GPU 加速於容器化與虛擬機環境中。企業 IT 團隊、開發者與研究單位皆可透過 Container Station 或 Virtualization Station 輕鬆部署各類 AI 應用服務。
此外,QAI-h1290FX 提供專屬的 AI 應用專區,內建 AnythingLLM、OpenWeb UI、Ollama 等熱門工具,協助用戶快速建立本地化的 AI 應用環境。更多生成式 AI 工具 (如 Stable Diffusion、ComfyUI、n8n、vLLM) 也將持續整合,擴大平台應用範圍。透過全程在地部署與靈活擴充架構,實現快速導入、資源彈性分配與資料掌控兼具的 AI 解決方案。
「QAI-h1290FX 是我們回應企業與開發者對『地端 AI 運算』真實需求的具體成果,」威聯通產品經理林子軒表示。「你不需要自己組一台 GPU 主機、安裝作業系統跟不同工具、進行各種複雜設定,甚至最後要連到雲端。我們希望帶給用戶的是開箱就能運行 AI 模型的體驗,同時確保所有檔案資料均在自己掌控之中。」
QAI-h1290FX 主要特色
- ● 全快閃儲存設計:配備 12 個 U.2 NVMe/SATA SSD 插槽,為高頻存取與大型模型運算提供極速 I/O 效能。
- ● 搭載 16 核心 AMD EPYC™ 7302P 處理器:提供 32 執行緒的運算實力,適合部署高效能 AI 應用、虛擬化與大量資料處理。
- ● GPU-Ready 架構:可選配安裝 NVIDIA RTX PRO™ 6000 Blackwell Max-Q Workstation GPU 卡,其配備高達 96GB 的 GPU 記憶體,支援 CUDA®、TensorRT™ 及 Transformer Engine 加速技術,大幅強化地端部署的 LLM 推論、影像生成與深度學習等 AI 工作負載效能。
- ● 容器化 AI 環境與 GPU 資源管理:支援 Docker/LXD,內建 GPU 分配與資源管理功能,讓使用者在專屬 AI 應用專區快速啟動 AI 工具並靈活使用硬體加速資源。
- ● 私有部署、無須連網:運行私有 AI Chatbot、RAG 檢索問答、內部智慧知識庫,不依賴第三方雲端,保護敏感資料。
- ● 高速網路與彈性擴充:內建雙 25GbE 與雙 2.5GbE 連接埠,PCIe 可再擴充 100GbE,亦支援串接多台 QNAP JBOD 擴充設備,支援大規模 AI 資料儲存。
應用情境實例
- ● 組織內部智慧助理 / 私有化部署的對話機器人:建立對內知識查詢、員工訓練與政策問答的 AI 聊天機器人。
- ● 企業文件語意搜尋:透過私有 RAG 搜尋引擎,針對契約、報表、內部文件進行自然語言查詢,速度更快。
- ● 影像生成與 AI 設計輔助:執行 ComfyUI 與 Stable Diffusion,提供創意團隊生成式設計流程。
- ● 自動化 IT 與 AI 任務:結合 n8n,自動觸發模型推論、內容生成或通知動作,實現企業智慧流程。
QAI-h1290FX 為企業提供一條實踐生成式 AI 的可行路徑,無論是應用於法務、財會、人資或創意部門,都能在本地運行 AI,避免外洩風險,縮短延遲,強化內部決策與創作流程。
商品購買請造訪 QNAP 直營網路商城或官方授權的經銷商。
欲了解更多及其它威聯通科技產品,請至 www.qnap.com。
