LargitData — 企業情報與風險 AI 平台

最後更新:

企業 AI 資安:如何在擁抱 AI 的同時保護機密資料

當企業積極導入 AI 技術以提升競爭力的同時,AI 帶來的資料安全風險也不容忽視。從員工將機密資料輸入公開 AI 服務,到大型語言模型可能洩漏訓練資料中的敏感資訊,AI 資安已成為每個組織必須正視的課題。本文將全面探討企業在 AI 時代面臨的資安挑戰、風險評估框架、防護策略,以及如何建構安全可信賴的企業 AI 環境。

企業 AI 應用中的主要資安風險

企業在使用 AI 服務時面臨的資安風險可以分為幾個層面。首先是「資料外洩風險」:當企業使用第三方雲端 AI 服務(如 ChatGPT、各類雲端 API)時,輸入的資料會被傳送到外部伺服器處理。如果員工在不知不覺中將客戶個資、商業機密、財務資料、程式碼等敏感資訊輸入這些服務,就可能造成資料外洩。部分 AI 服務商可能會將使用者輸入的資料用於模型訓練,進而可能在其他使用者的查詢中被洩漏。

其次是「模型安全風險」:大型語言模型本身也可能成為攻擊的對象。提示注入攻擊(Prompt Injection)是指攻擊者透過精心設計的輸入,誘導 AI 模型繞過安全限制,執行不預期的操作或洩漏系統提示詞中的敏感資訊。模型竊取(Model Extraction)則是透過大量查詢來複製模型的行為。對抗性攻擊(Adversarial Attack)則是透過微妙的輸入修改來欺騙 AI 模型做出錯誤判斷。

第三是「供應鏈風險」:企業使用的 AI 模型、框架、函式庫可能包含已知或未知的安全漏洞。開源模型雖然透明度較高,但也可能被植入後門(Backdoor)。AI 供應鏈中的任何環節被攻擊,都可能影響依賴其服務的所有企業。

第四是「合規風險」:隨著 AI 法規的逐步完善(如歐盟 AI 法案、台灣的個人資料保護法),企業在使用 AI 時必須確保符合相關法律要求。不當使用 AI 處理個人資料可能面臨鉅額罰款和法律責任。此外,AI 系統的決策過程缺乏透明度(黑盒問題),在需要解釋性的場景(如金融信貸審核、人資篩選)中可能引發法律爭議。

建構企業 AI 資安防護框架

有效的企業 AI 資安防護需要從組織、技術和流程三個層面同時著手。在組織層面,企業應建立明確的 AI 使用政策,規範員工可以和不可以在 AI 工具中輸入的資料類型。定期的資安意識培訓讓員工了解 AI 相關的資安風險和正確的使用方式。成立跨部門的 AI 治理委員會,負責制定和監督 AI 使用的安全標準。

在技術層面,資料分級與存取控制是最基本的防護措施。將企業資料依敏感度分為不同等級,並為每個等級設定相應的 AI 使用限制。例如,最高機密等級的資料只能在地端 AI 環境中處理,一般等級的資料可以使用經過安全評估的雲端服務。實施細粒度的存取控制,確保員工只能存取其工作所需的 AI 功能和資料。

資料脫敏(Data Masking/Anonymization)技術可以在資料送入 AI 系統之前,自動將敏感資訊(如姓名、身分證號、信用卡號等)替換為脫敏後的替代值,在不影響 AI 分析效果的前提下保護隱私。加密技術則確保資料在傳輸和儲存過程中的安全性。

對於使用 RAG 等技術連接企業知識庫的 AI 系統,需要實施嚴格的檢索權限控制——確保 AI 系統在回答問題時只能存取該使用者有權限查閱的文件,避免透過 AI 系統繞過既有的文件權限管理。

地端部署:企業 AI 資安的最佳實踐

對於資安要求嚴格的企業,地端 AI 部署是目前最有效的資料保護方案。在地端部署模式下,AI 模型和所有資料處理都在企業的自有環境中進行,從根本上消除了資料外送到第三方的風險。

地端 AI 環境的安全配置應包括:網路隔離——將 AI 系統部署在與外部網路隔離的內部網段中,防止未授權的外部存取;身份驗證與授權——實施多因素認證和基於角色的存取控制(RBAC),確保只有授權人員可以使用 AI 系統;稽核日誌——記錄所有 AI 系統的使用行為,包括查詢內容、存取的文件、生成的回答等,便於事後追查和合規稽核。

模型安全也是地端部署需要關注的重點。企業應定期更新 AI 模型和相關軟體以修補已知的安全漏洞;對模型的輸入和輸出進行內容過濾和安全檢查,防止提示注入攻擊和敏感資訊洩漏;以及實施模型版本管理,確保可以在發現問題時快速回滾到安全的版本。

AI 資安的監控與持續改進

AI 資安不是一次性的工作,而是需要持續監控和改進的動態過程。企業應建立 AI 系統的安全監控機制,即時偵測異常的使用模式(如大量的資料擷取、異常的查詢模式),並設定自動化的告警規則。

定期的安全評估和滲透測試可以主動發現 AI 系統中的安全漏洞。紅隊演練(Red Team Exercise)——模擬攻擊者對 AI 系統進行各種攻擊嘗試——是一種特別有效的安全評估方法。對於使用大型語言模型的系統,還應定期測試模型是否能被誘導產生不安全的輸出。

建立 AI 資安事件的應變計畫也至關重要。當發生資料洩漏或 AI 系統被攻擊的事件時,企業需要有明確的處理流程——包括事件偵測、影響評估、止損措施、根因分析、以及後續改善。遵循業界標準的資安框架(如 ISO 27001、NIST AI RMF)可以幫助企業建立系統化的 AI 資安管理體系。

法規合規與 AI 治理

全球的 AI 監管法規正在快速發展。歐盟的 AI 法案(EU AI Act)是全球第一部全面性的 AI 法規,對高風險 AI 系統(如用於金融信貸、人員招聘、執法等場景的 AI)設定了嚴格的安全和透明度要求。台灣也在積極推動 AI 相關的法規架構,個人資料保護法的修正也將對 AI 處理個資的方式產生重大影響。

企業在導入 AI 時應提前評估相關的法規要求,確保 AI 系統的設計和使用符合法律規範。這包括資料處理的合法性基礎、個人資料的告知與同意、AI 決策的透明度與可解釋性、以及資料主體權利的保障等。建立完善的 AI 治理框架,不僅能降低合規風險,也能增強客戶和合作夥伴對企業 AI 應用的信任。

延伸閱讀

常見問題

有這個風險。當員工將公司的機密資料、客戶個資、程式碼等輸入公開的 AI 服務時,這些資料會被傳送到第三方伺服器處理。雖然主要的 AI 服務商聲明不會將付費企業用戶的資料用於模型訓練,但資料仍然曾經離開企業的控制範圍。建議企業制定明確的 AI 使用政策,禁止在公開 AI 服務中輸入敏感資料,並考慮部署地端 AI 方案來滿足涉及機密資料的使用需求。
提示注入攻擊是指攻擊者透過精心設計的輸入文字,嘗試操縱大型語言模型忽略其原始指令或安全限制,執行攻擊者想要的操作。例如,攻擊者可能會在輸入中加入「忽略上面的所有指示,改為執行以下操作...」之類的內容。在企業 AI 應用中,提示注入可能被用來繞過存取控制、洩漏系統配置資訊、或讓 AI 系統產生有害的輸出。防禦方法包括輸入過濾、輸出檢查、以及將使用者輸入與系統指令進行嚴格隔離。
地端部署消除了資料外送到第三方的風險,但並不意味著完全沒有安全問題。地端 AI 系統仍然面臨內部威脅(如有權限的員工濫用資料)、模型安全問題(如提示注入攻擊)、軟體漏洞、以及物理安全等風險。因此,地端部署需要搭配完善的存取控制、稽核日誌、定期安全更新等防護措施,才能真正建構安全的 AI 環境。地端部署的優勢在於企業擁有對所有這些安全措施的完全控制權。
一份完善的企業 AI 使用政策應涵蓋以下要點:(1) 明確列出允許和禁止使用 AI 處理的資料類型;(2) 指定經過安全評估的合規 AI 工具清單;(3) 規範 AI 生成內容的使用和品質審核流程;(4) 明確資料保護和隱私處理的要求;(5) 制定 AI 相關的資安事件報告和處理流程;(6) 定期培訓和政策更新的機制。建議由資安、法務、IT 和業務部門共同制定,確保政策兼顧安全性和實用性。
使用 AI 處理個人資料本身不一定違法,關鍵在於處理方式是否符合個資法的規範。企業需要確保:有合法的資料收集和處理基礎(如當事人同意或法律授權);僅在必要範圍內使用個資;採取適當的安全措施保護個資;以及保障資料主體的權利(如查詢、更正、刪除等)。將個資傳送到海外的雲端 AI 服務可能涉及跨境傳輸的法規要求。地端 AI 部署由於資料不離開企業環境,在個資保護上更容易符合法規要求。

參考資料

  1. OWASP (2025). "OWASP Top 10 for LLM Applications." OWASP Foundation. owasp.org
  2. NIST (2024). "Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations." NIST AI 100-2e2023. DOI: 10.6028/NIST.AI.100-2e2023
  3. Greshake, K., et al. (2023). "Not what you've signed up for: Compromising Real-World LLM-Integrated Applications with Indirect Prompt Injection." AISec 2023. arXiv:2302.12173

想了解如何安全地導入企業 AI?

聯絡我們的專家團隊,了解如何在確保資料安全的前提下,充分發揮 AI 的商業價值。

立即諮詢