Google Cloud Next 大會揭開序幕,Google Cloud 執行長 Thomas Kurian 今(4/9)宣布一系列以生成式 AI 為核心的重大技術升級,涵蓋 AI 晶片、基礎設施與多代理平台,企圖展現 Google 在 AI 服務的全面升級,同時啟動全模態、多代理的企業 AI 時代。
AI 軟硬體陣容升級,第 7 代 TPU「Ironwood」登場
Thomas Kurian 宣布 Google Cloud 推出第 7 代 TPU「Ironwood」,每個 Pod 配備超過 9,000 顆晶片,並提供 4,250 萬兆次浮點運算(42.5 Exaflops)速度,效能比前代 TPU 提升 10 倍。除此,Google 也推出全新 Cluster Director,可以把大量的 AI 加速器(例如 TPU)當作一個「統一的運算單位」來部署與管理。
在儲存與推論方面,為了縮短訓練時間並降低推論延遲,Google 也推出 Hyperdisk Exapools、Anywhere Cache、Rapid Storage 等新方案。根據 Google,配合 GKE 推論最佳化功能,成本最多可減少 3 成。Google 更指出,Gemini 2.0 Flash 採用最新 AI Hypercomputer 系列,整合硬體與軟體升級,在每美元輸出效率上,是 GPT-4o 的 24 倍、DeepSeek-R1 的 5 倍。
Google:我們是唯一同時提供全模態 AI 模型的公司
Google 這次更新的另一焦點是,Gemini 2.5 Pro 與 Flash 模型將成為其 AI 平台 Vertex AI 的選項。Gemini 2.5 Pro 在兩週前於 Vertex AI 推出公開預覽版,宣稱專為精準度進行最佳化,適合撰寫或調整複雜的程式碼,以及醫療文件的資訊萃取;Gemini 2.5 Flash 則著重低延遲與高效率,適用於客服等高頻率互動的日常應用場景,並讓用戶根據提示的複雜性調整模型推理的深度。
Google 也強調其 AI 多模態生成能力。Thomas Kurian 表示,「我們是目前唯一同時提供全模態模型的公司,包含圖片、音訊、音樂和影片,這些功能今天開始已在 Vertex AI 開放使用。」
打通 AI 多代理開發與管理,公布 A2A 協定
值得關注的是,Google Cloud 在這次發表中,讓企業可以在不同系統與平台之間使用 AI 代理(AI agents),並與現有的 IT 環境整合。
Google 發表的多項 Vertex AI 新功能,包括 Agent Development Kit(ADK)與 Agent2Agent(A2A)協定。根據 Google,ADK 可以用少於 100 行的程式碼就建立 AI 代理,並且支援模型控制協定 (MCP);A2A 標準協定,則允許來自不同平台的 AI 代理互相協作,由 Google 與超過 50 家合作夥伴如 Salesforce、SAP、ServiceNow 等共同制定此協定,瞄準多 AI 代理的跨平台整合難題。
Google Agentspace 也獲得升級,企業用戶的員工可以透過 Agentspace 存取 Google 打造的 AI 代理,並整合企業搜尋、對話式 AI、Gemini 與第三方代理,與整合 Chrome Enterprise 整合、無程式碼介面 Agent Designer、創意生成與深度研究 AI 代理等功能。
Thomas Kurian 表示,AI 代理在勞動力中扮演越來越重要的角色──和員工協作以提高效率、強化決策能力並加速創新。
【推薦閱讀】
◆ 要和 DeepSeek 拚了!Meta 發表 Llama 4 AI 模型採多模態設計,具備 1,000 萬 token 處理能力
*本文部分初稿由 AI 生成,經《TechOrange》編撰,資料來源:Google Cloud,首圖來源:擷取自 Google Cloud。



