NVIDIA 發表為代理型 AI 應用提供安全防護的 NIM 微服務
AI 代理為全球數十億名知識工作者提供可完成各種任務的「知識機器人」,改變他們的生產力。而為了開發 AI 代理,企業需要解決信任、安全、保全及法遵等關鍵問題。
作為 NVIDIA NeMo Guardrails 軟體工具集的一部分,全新用於人工智慧(AI)防護工作的 NVIDIA NIM 微服務是一款可攜式且經過最佳化的推論微服務,可以協助企業提高其生成式 AI 應用的安全性、精確性與可擴充性。
NeMo Guardrails 是這些微服務的協調核心,也是用於彙整、客製化和為 AI 提供保護的 NVIDIA NeMo 平台一部分。NeMo Guardrails 可協助開發人員在大型語言模型(LLM)應用中整合與管理 AI 防護工作。Amdocs、Cerence AI 和 Lowe’s 等業界領導廠商均使用 NeMo Guardrails 來保護 AI 應用。
開發人員可以使用 NIM 微服務來建立更安全、更值得信賴的 AI 代理,在特定情境的指引下提供安全且適當的回應,並且加強防禦嘗試越獄的行為。這些代理可以部署在汽車、金融、醫療保健、製造和零售等產業的客戶服務中,以提升客戶滿意度和信任度。
其中一個新的微服務是為了控制內容安全而建立,使用 Aegis 內容安全資料集(Aegis Content Safety Dataset)進行訓練,該資料集是同類型中品質最高、經人工註解的資料來源之一。Aegis 內容安全資料集由 NVIDIA 編輯和擁有,並在 Hugging Face 上公開提供,其中包括超過 35,000 個經人工註解的資料樣本,標示為 AI 安全和試圖繞過系統限制的越獄行為。
NVIDIA NeMo Guardrails 讓 AI 代理保持正常運作
AI 正在快速提升各種業務流程的工作效率。在客戶服務方面,AI 協助解決客戶問題的速度加快了 40%。然而,為客戶服務及其他 AI 代理擴大 AI 規模需要輔以安全的模型,以避免輸出有害或不當內容,並且確保 AI 應用的按照訂定的參數運作。
NVIDIA 為 NeMo Guardrails 推出三款全新的 NIM 微服務,可協助 AI 代理大規模運作,同時確保行為受到控制:
- 內容安全 NIM 微服務可避免 AI 產生偏見或有害的輸出內容,確保回應內容符合道德標準。
- 主題控制 NIM 微服務使得對話專注於經核准的主題上,避免離題或出現不當內容。
- 越獄偵測 NIM 微服務可增加對越獄嘗試的防護,協助在對抗性情境中維持 AI 的完整性。
透過應用多種輕量、專用的模型作為防護措施,開發人員可以補足只有適用於一般情況的全面性政策與保護措施時可能出現的缺口,因為一體適用的做法無法妥善保護與控制複雜的 AI 代理工作流程。
小型的語言模型,如NeMo Guardrails 系列中的模型,可提供較低的延遲,即使在資源有限或分散式環境中也能高效率地執行。這使得它們成為醫療保健、汽車和製造業等產業在醫院或倉庫等地點擴大 AI 應用範圍的理想選擇。
NeMo Guardrails 提供 AI 安全測試開源工具
準備測試應用安全防護模型和其他 rails 效果的開發人員,能夠使用 NVIDIA Research 團隊開發用於掃描大型語言模型及應用程式漏洞的開源工具包 NVIDIA Garak。
透過使用 Garak,開發人員可以評估使用大型語言模型的系統是否存在資料外洩、提示注入、程式碼幻覺和越獄情境等問題,從而找出系統中的漏洞。Garak 可以藉由產生涉及不適當或不正確輸出內容的測試案例,協助開發人員偵測及解決 AI 模型中的潛在漏洞,以提升其穩健性與安全性。
上市時程
NVIDIA NeMo Guardrails 微服務,以及用於協調 rail 的 NeMo Guardrails 和 NVIDIA Garak 工具包,現已提供給開發人員和企業使用。開發人員可以利用此教學內容開始使用 NeMo Guardrails,為用於客戶服務的 AI 代理建置 AI 防護措施。
軟體產品資訊請參見公告。