Search
Close this search box.

從 Sim-to-Real 到 Autonomous Agent:NVIDIA 專家揭 AI 機器人從模擬訓練提前試錯,再到真實部署的關鍵歷程

你曾經想像過,未來機器人不再需要透過遙控器操作,而是能聽懂指令並自主與現實世界互動嗎? NVIDIA 資深解決方案架構師吳志忠在近日由 TechOrange 科技報橘、NVIDIA、鴻海科技集團共同舉辦的「2026 AI 機器人產業論壇」中,以「An Introduction to Robot Simulation」為主題,深入介紹 NVIDIA 為加速機器人落地而打造的模擬與訓練工具。

未來的機器人將從單一功能的工具,進化為具備多模態 AI 大腦、能主動辨識環境,並自主調用底層運動模型來執行任務的智慧體平台。然而,這條進化之路並不容易。例如,現在讓機器人在完美的虛擬平面上「學會走路」並不難,但要克服「Sim-to-Real(從虛擬環境到現實)」的落差,讓機器人在稍微傾斜的地面,或受到未知推力干擾的狀況下保持穩定,仍是當前極大的技術門檻。

為強化機器人適應真實環境的能力,NVIDIA 提出一套涵蓋資料擷取、資料擴增與模型訓練的完整模擬工作流。幫助開發者將真實場景照片轉化為具備真實物理特性的 3D 虛擬訓練場,並利用強化學習與「領域隨機化(Domain Randomization)」技術,在 Omniverse 中產出龐大且充滿變數的模擬數據,藉此訓練能適應真實世界不確定性的機器人控制模型。而這一切,都必須從第一步「打造逼真的訓練環境」開始。

環境重現困難?用 Omniverse NuRec 與 OpenUSD 打造 100% 物理擬真訓練場

要讓機器人在虛擬世界訓練有效,首要條件是環境必須「夠真實」。由於傳統手動建模耗時費力,NVIDIA 提出高效的解決方案:透過 NuRec 技術,開發者只需用手機或相機拍下真實場景的照片,就能快速將影像轉換並還原成 3D 結構,直接匯入 Isaac 模擬環境中。

同時,藉由 OpenUSD 標準,開發者能將 PTC、Autodesk 等既有建模工具中的機器人結構模型直接匯入。更關鍵的是,為了避免機器人穿牆或懸空,匯入的 3D 場景必須加入像 PhysX 或 Newton 等物理引擎,賦予場景真實的物理特性、軟硬材質、摩擦力與碰撞邊界。

如何學會走路?用「獎懲機制」與「領域隨機化」打破虛實落差

當機器人模型與物理環境準備就緒,下一步便是透過「強化學習(Reinforcement Learning)」讓機器人學會運動控制。在論壇中,講師分享了有趣的「獎懲機制」設計:在觀測機器人的關節、加速度與受力狀態後,系統會給予對應的獎勵或懲罰,例如只要機器人能保持站立狀態,就能獲得最高權重的正向獎勵,反之如果身體失去平衡,就會被扣分。

然而,要跨越「Sim-to-Real」門檻,最關鍵技術是「領域隨機化(Domain Randomization)」。現實環境充滿不確定性,馬達齒輪可能有誤差、地面可能稍微傾斜,所以如果在單一完美的虛擬平面中訓練,機器人一到現實世界就會摔倒。因此,NVIDIA 的技術透過領域隨機化,開發者能在模擬中加入各種「變數」,例如隨機從不同方向推機器人一把、改變地板的摩擦力等,讓機器人在訓練時就提前適應各種極端狀況,確保推論模型一放在真實機器人身上就能平穩運作。

NVIDIA 現場展示透過模擬環境訓練的機器人。

告別遙控器:NVIDIA NIMTM 賦予機器人多模態 AI 大腦

完成精準的底層運動控制後,NVIDIA 的願景,是讓機器人不再只是被動聽命,而是具備自主行為能力。像是以往機器人的行走、轉向都需要依靠工程師拿著遙控器輸入訊號來觸發動作,現在透過 NVIDIA 推出的 NIM 微服務架構,開發者就能為機器人裝上多模態 AI 大腦。

舉例來說,結合大語言模型(LLM)與視覺語言模型(VLM),機器人即可具備語音理解與視覺辨識能力。操作者只要直接用語音下達指令,例如告訴機器人:「看看左邊有什麼?」機器人的 AI 大腦就會即時理解語意,同時透過鏡頭辨識環境,並自動調度底層的強化學習模型,來控制雙腳與關節完成動作。

從高擬真環境建構、跨越虛實落差的領域隨機化,到多模態 Agent 的整合,NVIDIA勾勒出機器人落地前必須補上的關鍵拼圖:讓機器人先在虛擬世界大量試錯,再把更穩定、更可靠的控制能力帶進真實場域。當模擬、訓練與部署流程逐漸串接成形,機器人開發也不再只是硬體調校問題,而是走向以 AI 驅動感知、決策與自主行動的新階段。