Search
Close this search box.

從 AGI 到 HSI:微軟為 AI 競賽開出「人類可控」新賽道

在通用人工智慧(AGI)引發潛在風險和倫理爭議持續升溫的背景下,科技巨頭微軟正在重新定位 AI 發展路線,願景轉向強調人類價值與可控性的全新戰略:人本主義超級智慧(Humanistic Superintelligence, HSI)。

這項計劃目標是創造「服務人類」,且不構成生存威脅的人工智慧,與 Meta 等競爭對手更為激進的做法形成鮮明對比——Meta 執行長祖克柏正斥資數十億美元,研發可能不受控制的通用超級智慧。

微軟的 AI 負責人 Mustafa Suleyman 強調,HSI 模式力求在創新與人類監督之間取得平衡,主張 AI 的最終角色不是取代人類,而是與人共創,更精準回應人類需求。這與追求 AI 自我演化的做法截然不同,預示超級智慧競賽將出現一條分岔路。

從 AGI 到 HSI:強調「可控、具目標」的理性發展

多年來,科技界普遍將 AGI(通用人工智慧)視為下一個競賽高峰。但隨著風險與監管疑慮升高,微軟選擇不再盲目追逐 AGI,轉而提出 HSI 概念,主張超級智慧應該受人類價值與社會目標引導。微軟的 HSI 策略,初步聚焦於對社會具有巨大正面效益的應用場景:

  • 醫療診斷:微軟的 MAI-DxO 系統,據報道在複雜的醫療挑戰中,取得了 85% 的成功率,超過了人類的表現。微軟期望此技術能擴大全球對高品質專業知識的可及性。
  • 教育個人化:期待開發能夠適應每個學生學習風格的人工智慧助手,與教師合作,建立客製化的課程和練習。

透過在醫療、教育領域的應用,微軟期望將 HSI 的技術擴大到全球,讓更多人能享受到高品質的專業知識。

事實上,HSI 模式代表 AI 發展從「無限擴張」轉向「有邊界的理性控制」。但這也引發了行業內的緊張局勢。在技術層面上,「遏制機制」看似安心,但實際可執行性仍未被驗證。科技業對於「是否能控制具意識的 AI」仍缺乏共識。

社會信任與治理:AI 道德的策略槓桿

無論如何,這項措施可能會重塑人工智慧的治理標準。微軟將安全性和人文關懷置於首位,藉此樹立其作為負責任領導者的形象,並有可能影響全球監管。

這種方法或許也能夠吸引那些對不受監管的 AI 發展,持謹慎態度的頂尖人才。

然而,這也拋出了更深層次的問題:當 AI 擁有「人本目標」時,誰來定義「人本」?誰來負責監督?

即使技術優越,AI 仍需面對隱私、偏誤與依賴性疑慮。微軟的 HSI 策略,在技術與能源雙重壓力下,能否真的比「通用 AI」更安全,以及能否成功在創新與謹慎之間取得平衡,將是其成功的關鍵。

【推薦閱讀】

◆ 不只管自己,也要看著供應鏈——微軟揭示「負責任 AI」新高度作法
◆ 【還有 700 天準備】AGI 若在 2027 年實現,人類如何因應「智慧被超越」的衝擊?
◆ 美國狂燒算力追 AGI,但中國戰略轉移揭 AI 競賽才正要開始

本文開放合作夥伴轉載,參考資料:《TechRadar》《WPN》,圖片來源:Unsplash

(責任編輯:鄒家彥)