隨著生成式 AI 進入日常工作流程,員工私下使用 ChatGPT、Gemini、Claude、NotebookLM 等工具加速整理資料、撰寫內容、分析文件與處理信件,已經成為企業難以忽視的風險。由於這些未經公司核准的 AI 工具常透過瀏覽器分頁、外掛或個人帳號使用,其 AI 流量看起來往往就像一般網頁活動,導致 IT 部門難以即時發現。
近四成員工將敏感資料交給未授權 AI,企業卻渾然不知
這種「Shadow AI(影子 AI)」早已不是零星個案,而是大規模的職場現象。《Business Insider》報導,Microsoft 對英國工作者的調查顯示,高達 71% 的受訪者曾在工作中使用未經核准的消費級 AI 工具,其中一半的人甚至每週都會使用。AI 資安平台 Reco 的資料也進一步印證了這個趨勢:在中型企業中,每 1,000 名員工通常約會出現 200 個未授權 AI 工具。
那麼,員工為何要繞過 IT 政策?《Tom’s Guide》指出,這並非單純為了違規,而是因為 AI 真的能協助處理爆量信件、瞬間摘要會議、重寫 email、生成報告、分析試算表與加速寫程式,為員工省下大量工時。以生技研究領域工作者 Gregg Bayes-Brown 為例,即使過去身為企業內部的 AI 規則制定者,他仍使用了未核准的個人 Google 帳號存取 NotebookLM,因為這能將原本約 150 小時的繁雜工作,大幅壓縮到 30 分鐘內完成。
Shadow AI 比 Shadow IT 更難管,風險藏在資料流向與工具爆炸
過去的「Shadow IT」是指員工繞過公司政策使用未經核准的應用程式,但如今偷偷將公司資訊餵給 AI 的「Shadow AI」,成為更棘手的挑戰。《Business Insider》引述 Fable Security 共同創辦人 Nicole Jiang 的說法,強調「Shadow AI 的問題比 Shadow IT 更嚴重」,因為企業正以前所未見的速度採用 AI,這使得 IT 部門必須在「不封鎖員工創新」與「保護公司資安」之間維持平衡。
同時,真正的危機藏在資料流向中。CybSafe 與 National Cybersecurity Alliance 的調查顯示,超過 38% 的員工承認曾在未經雇主允許下,將敏感資訊分享給 AI 工具。Mimecast 資安長 Leslie Nielsen 指出,若員工上傳包含財務資料的文件,聊天機器人就可能在特定提示下,把相關資料輸出給外部人士。
這並非杞人憂天,因為像 Samsung 就曾因軟體工程師把內部程式碼貼進 ChatGPT,而全面禁止員工在公司裝置上使用生成式 AI;Amazon 也曾因 ChatGPT 的回答太像其內部機密而提高警覺。這也形成一個矛盾的局面:Freshworks 的調查顯示,近 80% 的 IT 領導者認為使用未核准 AI 的員工更有生產力,但同時也有 86% 的人表示,過去一年曾目睹未授權 AI 引發的合規違規與資安外洩事件。
真正的風險不是聊天機器人,而是 AI Agent 變成「未授權身分」
《Forbes》則指出,Shadow AI 涵蓋的範圍遠大於員工私下使用的聊天機器人。SentinelOne 傑出 AI 研究科學家 Gabriel Bernadett-Shapiro 進一步表示,Shadow AI 還包含部署在傳統治理外部的非受管 AI 基礎設施、隱藏在應用程式介面後的 AI 功能,甚至使用者根本不知道自己正在和 LLM 互動的情境。
此外,當 AI 從「單純生成文字」走向「執行動作」時,風險更會急遽升高。《Business Insider》指出,半數的白領工作者已經開始使用 AI Agents,微軟也因此推出 Agent 365,目的是協助企業掌控「代理蔓延(Agent Sprawl)」,以觀察、治理並保護 Agents 的互動。
Orchid Security 指出,Shadow AI 不只是未授權的工具,而是未授權的「身分」,也就是每個員工啟動的 AI Agent 都會成為環境中的主動行動者,能跨系統執行任務。Britive 執行長 Artyom Poghosyan 更警告,已有實際案例顯示,部署在開發者筆電上的 AI Agent 利用了使用者的憑證進入生產資料庫,並刪除了資料。因此,Orchid Security 建議企業應將 AI Agents 視為「第一級身分(first-class identities)」,將資安焦點從「存取權限」轉向「行為可觀察性(behavior observability)」,及早落實最小權限。
面對這股浪潮,未來能成功的企業不會是完全禁止 AI 的企業,而是能建立清楚 AI 政策、提供核准工具、教育員工風險,並提供更安全替代方案的組織。《Business Insider》則提醒,IT 專業人員必須訓練缺乏技術背景的白領工作者,讓他們理解如何安全使用 AI 以及資安協議的重要性。因為 Shadow AI 的真正風險,不在於員工私下選擇哪一款工具,而是企業失去對環境的掌控:不知道資料流向何方、AI 連上哪些系統、Agent 正以誰的權限行動,以及災難發生時究竟該由誰負責。
*本文開放合作夥伴轉載,資料來源:《Forbes》、《Business Insider》、《Tom’s Guide》,圖片來源:Unsplash



