英特爾與AI產學界領先專家團隊合作建立AI安全標準,打造負責任的AI開發指南
英特爾宣布將與來自產業界和學術界的 AI 專家一同加入 MLCommons 新成立的 AI 安全性(AIS)工作小組。作為創始成員,英特爾將貢獻其專業知識,協助創建一個靈活的標準平台,用於衡量 AI 工具和模型的安全性及風險因子。隨著測試趨於成熟,工作小組制定的 AI 安全標準將成為社會看待 AI 布署和安全性的重要準則。
「英特爾致力於負責任地推動AI發展,讓每個人都能使用AI。我們以全方位角度看待安全性問題,同時在硬體和軟體進行創新,致力於推動生態系建立值得信賴的AI。由於大型語言模型的普遍性,如何串聯整個生態系解決AI開發和布署的安全性問題至關重要。因此,我們很高興與業界共同定義新的流程、方法和標準,以提升無所不在的AI應用。」
–英特爾企業副總裁暨資料中心AI解決方案總經理Deepak Patil
重要性:為了降低強大技術帶來的社會性風險,負責任地訓練和布署大型語言模型(LLM)和工具至關重要。英特爾長期以來一直意識到在科技發展下,尤其是AI,道德和人權的影響的重要性。
工作小組將提供一個安全性評級系統,用以評估新型、快速演變的 AI 技術所帶來的風險。英特爾參與 AIS 工作小組是該公司負責任地推動 AI 技術的最新承諾。
關於AIS工作小組:MLCommons 成立創立的 AIS 工作小組由跨領域 AI 專家組成,旨在開發一個平台和測試池,以支援多種用途的 AI 安全性標準測試。
關於英特爾的參與:英特爾計劃分享 AI 安全性的研究成果以及負責任開發的最佳實踐和流程,例如攻擊演練和安全性測試。完整成員名單請參考此處。
下一步行動:工作小組的初期重點將以史丹佛大學基礎模型研究中心及語言模型全面評估(HELM)研究人員的成果為基礎,為 LLM 制定安全標準。英特爾將與 AIS 工作小組分享內部用於開發 AI 模型和工具時嚴謹且與跨領域審查的流程,協助建立一套通用的最佳實踐和標準,以評估如何安全開發和布署利用 LLM 的生成式 AI 工具。
