踏入人工智慧時代,新技術對於社會與人民的威脅隱憂成為各國關注的新焦點。歐盟在 2024 年 3月 13 日正式通過《人工智慧法案》(Artificial Intelligence Act)(以下簡稱歐盟 AI 法案),這也是全球首部人工智慧法案,預計為仍在研擬相關法案的各國訂下監管新範本。
歐盟 AI 法案是採取風險管理導向的法案,目的為在歐盟單一市場整合的前提下,促進 AI 發展與創新,並且能有效面對風險以保護人民與社會民主。此法預計於 2024 年第二季至第三季生效,其中各項目的監管過渡期短則 6 個月,長則 2 年。
先認識歐盟 AI 法案的「四大風險」層級
其中,歐盟 AI 法案將 AI 風險分成四種風險等級:不可接受高風險 AI、高風險 AI、有限風險 AI、最低風險 AI。
不可接受高風險 AI 在歐盟內部是全面禁止的,包括社交評分、工作或學校的情緒識別,或影響人類行為或利用使用者漏洞的系統。高風險 AI 系統則需要企業進行適當的資料治理與透明度揭露要求,例子包括評估可否獲得信貸、公共福利的資格。這兩類 AI 會被高度監管或是直接禁用。
而有限風險 AI 則受 AI 透明度義務約束,重點在於讓使用者知道他們正在使用 AI 產出的內容或與之互動。最低風險 AI 則無任何嚴格義務約束。若違反規範,企業罰則最高可達到 3,500 萬歐元或是全球營業額 7%。
掌握 AI 趨勢 & 活動資訊一點都不難!訂閱電子報,每週四一起《AI TOgether》

感謝訂閱!隨時注意信箱的最新資訊
企業如何應對歐盟 AI 法案?
目前所有在歐盟有業務營運的企業都需要高度關注此法令,雖然中間有過渡期但對於企業來說,要在組織內部盤點、確保使用 AI 合規、動態調整業務策略,建立企業內部的 AI 治理原則對接監管標準,2 年的時間並不算太長。
Credo AI 創辦人 Navrina Singh 認為,歐美監管機構應該將重點放在協助各種規模的企業建立安全設計、開發與部署 AI 的原則,以確保企業所提供的 AI 具備透明度與負責;尤其是在透明度的揭露上,要如何維持企業的營業秘密又要對消費者負責,將會是挑戰。
KPMG 《解密歐盟人工智慧法案》報告建議,未來要在歐盟區域進行商務的企業,必須要儘速為他們開發及使用的人工智慧系統進行盤點,並且按照法案定義對其風險等級進行分類。報告中指出,企業需要針對其合作的第三方廠商、員工、消費者面向,進行不同的負責任 AI 治理措施與應對方法,並且確保這個措施會落實到業務營運流程中。同時,也要針對數據與資料進行更完整的治理,才能確保企業與國際監管方向一致,符合規定的義務。
歐盟 AI 法案雖然只是鳴起 AI 監管的第一槍,但將會深刻影響下個世代的商業營運準則。
【延伸閱讀】
AI 已經翻轉產業,現在輪到政府了——AI 時代下的政府長什麼樣?
如何客製化台灣 AI 發展道路?先剖析美國、韓國、新加坡獨特 AI 戰略
政府 AI 轉型的頭等大事:發展主權 AI——6 大戰略鞏固 AI 國力

*本文開放合作夥伴轉載,資料來源:《The Verge》、《KPMG》。首圖來源:Pixabay。



