面對代理式 AI(Agentic AI)趨勢來臨,NVIDIA 正積極搶攻這塊市場。NVIDIA GTC 大會在本週發表一系列新產品,顯示 NVIDIA 不只想要提供底層基礎設施,還要提供支援代理式 AI 的 AI 模型。
NVIDIA 宣布推出具有推理能力的開放式「Llama Nemotron」模型系列──這款模型以著名的開源 Llama 模型為基礎,提供進階的 AI 推理功能,協助開發人員打造代理式 AI。
NVIDIA 策略轉向幫 Llama「轉骨」,模型準確率提升 20%
NVIDIA 解釋,他們基本上採用 Llama 模型,並強化後期訓練,以改善多步驟數學、程式撰寫、推理和複雜決策。NVIDIA AI 軟體管理副總裁 Kari Briski 告訴《CIO》,Llama 是各企業最廣泛使用的開源模型,但推理能力較弱。NVIDIA 在 1 月開始轉向訓練 Llama 模型進行推理,Briski 稱這是非常艱難的「重大轉型」。
為什麼 NVIDIA 要這麼做?在今年 1 月 DeepSeek 發表開源模型 R1 之後,2025 年市場上的推理模型推出速度不斷加快──OpenAI 在 2024 年 12 月推出預覽版本後,1 月發表了 o3-mini,而微軟也正在開發 AI 推理能力,百度則在近期推出了 Ernie XI。
NVIDIA 指出顯示,新的 Llama Nemotron 模型與 Llama 基礎模型相比,模型準確度提升了 20%,與其他開放式推理模型相比,推論速度則高出 5 倍。NVIDIA 表示,這能讓企業用更低的營運成本,處理更多複雜的任務。
為了讓企業能彈性使用新模型,Llama Nemotron 分為三種不同版本──Nano 專為個人電腦、邊緣設備等硬體設計,Super 則針對單一 GPU 最佳化,而 Ultra 支援多 GPU 伺服器以及資料中心規模的應用場景。
不只做推理模型,NVIDIA 要打造代理式 AI 生態系
對於想要打造代理式 AI 的人來說,需要考慮的技術不只是底層的大語言模型,還有基礎設施、將這些組件整合在一起的工具、為 AI 代理提供知識的所有資料管道等。
科技媒體《siliconANGLE》分析,NVIDIA 滿足了上述大部分需求,甚至在 GTC 2025 宣布一系列其他的代理式 AI 建置模組,包含 「NVIDIA AI-Q Blueprint」,讓開發人員能夠資料庫連結到代理式 AI。
AI-Q Blueprint 因為採用 NVIDIA NIM 微服務打造,並整合 NVIDIA NeMo Retriever,可以讓代理式 AI 更輕鬆搜尋各種格式的多模態資料。NVIDIA 也更新了一些 NIM 微服務,可用於優化代理式 AI 學習和適應的推理能力,幫助部署。
此外,NVIDIA 表示正在加強其「NeMo 微服務」,為開發人員提供一個建立資料飛輪的框架──這是確保代理式 AI 能根據人類和 AI 產生的回饋不斷學習的關鍵。
最後還有「NVIDIA AI Data Platform」,這是一套可客製化的基礎架構設計,目的是協助儲存基礎設施供應商,例如 DELL、IBM、NetApp、PureStorage,為代理式 AI 的推理工作負載開發更有效率的資料平台。
科技巨頭陸續採用,NVIDIA 佈局逐漸發酵
目前已有許多科技巨頭採用 NVIDIA 的 Llama Nemotron 模型,以打造新一代的代理式 AI 服務,包含微軟、SAP、ServiceNow、Accenture、Deloitte、Atlassian、Box 等。
NVIDIA 表示,NVIDIA Llama Nemotron Nano 和 Super 模型及 NIM 微服務以託管應用程式介面形式,現已可在 NVIDIA 與 Hugging Face 取得。NVIDIA 開發人員計畫會員可免費取得以進行開發、測試和研究。
免費報名【NVIDIA GTC 2025】,收看超過千場精彩講座

活動辦法:成功報名 NVIDIA GTC 2025 並於 3/17-3/26 觀看任一場 GTC 線上演講,私訊 TechOrange 粉絲專頁提供報名時的註冊名稱、公司與信箱,即可抽 NVIDIA® GeForce RTX™ 4080 SUPER 顯卡
【推薦閱讀】
◆ NVIDIA 推出全球首款開放人形機器人模型 GR00T N1,黃仁勳 GTC 演講重點一次看
*本文初稿由 AI 生成,經《TechOrange》編撰,資料來源:《siliconANGLE》、《CIO》,首圖來源:NVIDIA。



