近期美國猶他州政府在監管沙盒框架下,核准 AI 醫療決策系統 Doctronic 展開試點,該系統在特定條件下,無需人類醫師審核,即可自動為患者開立處方續方。
這項政策落地,挑戰了長久以來「續方必須由人類醫師親自處理」的傳統認知。
Doctronic 適用邊界:只處理已確診慢性病續方
根據猶他州的監管框架,Doctronic 這套 AI 系統並非被授權去診斷新疾病,而是針對那些已經由人類醫師確診、且需要長期服藥的慢性病患者提供自動化服務。
目前,該系統涵蓋了大約 190 種常用藥物,且這都是經過醫療體系深思考量過的藥物清單。為了確保公眾安全,政府明令排除了具有成癮風險的止痛藥物、治療注意力不足過動症(ADHD)的興奮劑,以及操作較為複雜的注射類藥劑。
而在具體的運作流程上,Doctronic 展現了 AI 數位化處理的高效性。當患者提出續方需求時,系統會立即讀取該患者的電子病歷,並進行一套與人類醫師門診時完全相同問詢流程;包括確認患者的身體狀況是否發生了顯著變化、有無出現新的不適症狀,或是是否存在任何可能改變用藥決策的變數。
如果患者的回答與既有數據皆未觸發任何「紅字警告」,系統便會直接將續方指令發送至藥房,整個過程在數分鐘內即可完成,且不受辦公時間限制。
一旦 AI 在問詢中察覺到任何異常信號,例如患者描述了新的副作用或病情加重的跡象,系統會立即啟動避險機制,將該案例轉交給人類醫師進行人工判斷。
99.2% 一致率是政府敢放行的數據底氣
支持這項創新制度的核心基石,是一項由 Doctronic 提供的 500 名急診/急診照護患者對照研究數據。這份數據顯示,Doctronic 的 AI 處方方案與人類醫師的一致率高達 99.2%。
更令人意外的是,在那些僅存的「分歧案例」中,經過第三方專家小組的獨立評審,AI 提供的方案,反而更常被判定為更符合臨床指南的最佳選項。這意味著在規律性極強的慢性病管理中,AI 規避了人類醫師因疲勞、情緒或資訊遺漏可能產生的疏忽。
AI 被視為「執業者」而非醫療器材
至於猶他州政府在監管邏輯上的最大創新,莫過於對 Doctronic 的身分認定。在過去的案例中,輔助診斷軟體通常被歸類為「醫療器材」(Medical Device),其監管路徑往往遵循美國食品藥物管理局(FDA)的產品責任法。在這種框架下,如果系統出錯,開發商通常面臨的是產品瑕疵的法律責任。
然而,猶他州採取了截然不同的路徑,他們將 Doctronic 在責任與監管框架上,比照「有限範圍的醫療執業者」(Practitioner),而非傳統醫療器材。
這種身分轉變帶來的法律後果是深遠的,最顯著的改變在於責任機制的建立。猶他州政府為該系統核准了一種特有的「醫療事故責任保險」,也就是當 Doctronic 開出錯誤處方導致患者受損時,其面臨的是「醫療糾紛」而非單純的「產品理賠」。Doctronic 與人類醫師一樣,被置於相同的法律責任天秤上。
另外,該政府設立了極其嚴格的早期風險控制機制:在初期運行中,每一類藥物的前 250 張 AI 處方,都必須由人類醫師進行 100% 後驗審核,以確保算法在現實環境中不會出現過於誇張的偏離。
醫界分裂:效率紅利 vs. 臨床風險
不過儘管數據亮眼,醫療專業界的聲音卻呈現出極端的兩極化。支持者包括猶他州商務廳與部分一線臨床醫師認為,基層醫療體系面臨著嚴重的醫師短缺與行政過載;例如麻薩諸塞州最大的醫療系統 Mass General Brigham,就曾因醫師短缺,導致患者需要等待一年半以上才能見到家醫科醫師。
在這種極端的醫療資源匱乏下,Doctronic 類型的系統能有效減少藥物漏服的情況,並將醫師從瑣碎、低價值的續方行政工作中解放出來,讓他們能專注於需要複雜判斷與人文關懷的高價值照護。
不過反對的聲浪也同樣存在。以美國醫學會(AMA)及其猶他州分會為首的專業組織,對此表達了深切的憂慮。醫師們的核心質疑在於,醫療行為不應僅僅是「問答」與「對齊數據」,缺乏實體檢查是這類 AI 系統的硬傷。
在一個看似單純的續方過程中,經驗豐富的醫師或許能透過患者的步態、眼神或皮膚狀態察覺到 AI 無法感知的隱匿病變。如果處方流程完全自動化,這些潛在的健康警示可能會被徹底忽視。
此外,藥物相互作用的複雜性、轉診標準的模糊,以及最令人擔心的,患者可能透過操控回答來騙取藥物的濫用風險,都讓傳統醫療界對「去醫師化」的趨勢感到不安。
下一步:地方監管實驗會否改寫全美醫療路徑?
Doctronic 的案例是否具備可複製性?從技術與邏輯的角度來看,答案傾向於肯定。續方管理本身就是一個「邊界清楚」的臨床問題,它是醫療流程中自動化程度最高的環節之一。
如果猶他州的這場實驗能在兩三年的尺度內,維持極低的事故率,那麼這種「自動化續方」極有可能成為 AI 醫療全面合法化的第一個切入點。
另外,若未來的 AI 醫療新創公司發現,爭取美國各州的「醫療執業監管路徑」比通過聯邦級別的「醫材認證」更具效率且更符合現實營運需求,那或許我們將會看到醫療治理權力,從中央向地方、從傳統標準向實驗性法規的位移。
不過小規模的臨床研究與大規模的真實世界表現之間,始終存在著一道鴻溝。AI 在處理複雜、罕見或具備高度個體差異的臨床案例時,是否依然能保持這種一致性?當保險賠付與法律責任真正發生時,社會大眾對於「AI 犯錯」的容忍度,是否真的能與「醫師犯錯」等同?這些問題都需要更長的時間來檢驗。
【推薦閱讀】
◆ 體內住著一位 24 小時醫生?從智慧手環到數位藥丸,IoB 如何顛覆醫療模式
◆ 歐洲研究團隊打造「醫療預言家」,預測人類未來 20 年健康狀況
◆ 【不能出錯的 AI】AI 醫療記錄技術崛起,新創 Freed 減輕醫生文書工作倦怠
*本文開放合作夥伴轉載,參考資料:《Forbes》、《NPR》,圖片來源:Unsplash
(責任編輯:鄒家彥)



