——數(shù)據(jù)泄露風險激增!從“封堵”到“引導(dǎo)”,平衡創(chuàng)新與治理的風險管理手冊

各位CIO和技術(shù)領(lǐng)袖:
你正在面臨一個熟悉的挑戰(zhàn),只是這次的主角是“影子AI”(Shadow AI)。
隨著員工自行嘗試生成式AI工具,風險正在急劇增加:《訪問與信任差距》報告顯示,43%的員工在個人設(shè)備上使用AI應(yīng)用工作,25%使用未經(jīng)批準的應(yīng)用。雖然這通常是出于善意的創(chuàng)新,但也可能帶來數(shù)據(jù)隱私、合規(guī)和安全方面的嚴重風險。
專家們認為,影子AI并非需要完全消除的。相反,它是需要理解、引導(dǎo)和管理的創(chuàng)新。
以下是領(lǐng)先的CIO和專家們提供的6個可操作策略,幫助你鼓勵負責任的實驗,同時保護敏感數(shù)據(jù)安全。
管理影子AI的第一步,是明確界限。West Shore Home的CTO Danny Fisher建議CIO將AI工具劃分為三個簡單類別:
批準(Approved):經(jīng)過審核和支持的工具。
受限(Restricted):可在受控空間內(nèi)使用(例如,只用虛擬數(shù)據(jù)),但有明確的限制。
禁止(Forbidden):通常是公開或未加密的系統(tǒng),應(yīng)在網(wǎng)絡(luò)或API層面被封鎖。
【行動建議】將每種AI使用方式匹配到安全的測試空間(如內(nèi)部OpenAI工作空間或安全的API代理),讓團隊能夠自由實驗,而不冒公司數(shù)據(jù)的風險。
專家們強調(diào),抵御影子AI的基礎(chǔ)是:數(shù)據(jù)丟失防護(DLP)、加密和最小權(quán)限。
外發(fā)DLP:使用DLP規(guī)則阻止個人信息、合同或源代碼上傳到未經(jīng)批準的域名。外發(fā)DLP和內(nèi)容檢測是防止敏感數(shù)據(jù)外泄的關(guān)鍵。
最小權(quán)限(Least Privilege):將第三方權(quán)限保持在最小權(quán)限。公司應(yīng)將廣泛的權(quán)限(如讀寫訪問)視為高風險,需要明確批準,而狹義的只讀權(quán)限則能更快推進。
數(shù)據(jù)匿名化:Taylor補充說,安全性必須在不同環(huán)境中保持一致。加密所有靜止、使用中和移動中的敏感數(shù)據(jù)。
CIO無法管理他們看不見的東西。保持準確、最新的AI工具庫存是抵御影子AI最重要的防御措施之一。
營造文化:最重要的是營造一種讓員工愿意分享使用、而非隱瞞的文化。
分層監(jiān)控:將季度調(diào)查與自助登記冊相結(jié)合,員工自己記錄他們使用的AI工具。IT部門隨后通過網(wǎng)絡(luò)掃描、API監(jiān)控和SIEM(安全信息與事件管理系統(tǒng))等工具驗證這些條目,創(chuàng)建一張清晰的“AI工具接觸企業(yè)數(shù)據(jù)”地圖。
告別手動審計:Boome的Mani Gill認為,有效的庫存管理需要超越定期審計,實現(xiàn)對整個數(shù)據(jù)生態(tài)系統(tǒng)的持續(xù)自動化可視化。
透明度是管理影子AI的關(guān)鍵。員工需要知道監(jiān)控的內(nèi)容和原因。
信息公開:將治理方法發(fā)布在公司內(nèi)聯(lián)網(wǎng)上,并包含真實的AI善用和風險案例。
無意外溝通:Taylor建議,明確交付尚未可用能力的路線圖,并提供請求例外或新工具的流程。這種開放表明治理的存在是為了支持創(chuàng)新,而非阻礙創(chuàng)新。
治理小組:設(shè)立專門的治理小組(如人工智能治理委員會),不僅審視并處理風險,還解釋其決策及其背后的原因,幫助創(chuàng)造透明度和共同責任。
【注:組織應(yīng)展示如何在未來逐步實現(xiàn)目前尚不可用的AI能力,這個路線圖應(yīng)該包括目標、里程碑、預(yù)期的時間表和所需資源。通過這種方式,員工可以了解組織在AI領(lǐng)域的發(fā)展方向和計劃,以及他們可以期待的新工具和技術(shù)?!?/span>
定義風險承受能力不僅是控制,更是溝通。Fisher建議CIO將風險承受能力與數(shù)據(jù)分類掛鉤,而非個人意見。
顏色編碼系統(tǒng):采用簡單的顏色編碼系統(tǒng):綠色代表低風險(如營銷內(nèi)容),黃色代表必須使用批準工具的內(nèi)部文件,紅色代表禁止與AI系統(tǒng)一起使用的客戶或財務(wù)數(shù)據(jù)。
治理委員會的作用:當潛在風險出現(xiàn)時,將其提交治理委員會討論,協(xié)作制定減緩策略。這種平衡有助于管理風險,同時抑制創(chuàng)新。
培訓是防止AI工具意外濫用的最有效方法之一。關(guān)鍵是簡潔、相關(guān)且反復(fù)出現(xiàn)。
角色驅(qū)動:將訓練要簡短、視覺化且針對特定角色。
嵌入工作流:Taylor建議將培訓嵌入瀏覽器中,讓員工能直接在所用工具中學習最佳實踐。
提升效益:Gill指出,培訓應(yīng)將負責任的使用與績效成果相結(jié)合。“員工需要明白合規(guī)與生產(chǎn)力是協(xié)同工作的,”他說。
領(lǐng)先的 CIO 和專家提供可作的指導(dǎo),幫助在人工智能時代平衡創(chuàng)新與數(shù)據(jù)保護。

圖源:Shutterstock
隨著員工自行嘗試生成式人工智能(Gen AI)工具,首席信息官(CIO)們正面臨著與影子AI的熟悉挑戰(zhàn)。雖然這通常是出于善意的創(chuàng)新,但也可能帶來數(shù)據(jù)隱私、合規(guī)和安全方面的嚴重風險。
根據(jù) 1Password 2025 年年度報告《訪問與信任差距》,影子人工智能增加了組織的風險,因為?43%的員工在個人設(shè)備上使用 AI 應(yīng)用工作,而 25%的人在工作中使用未經(jīng)批準的 AI 應(yīng)用。
盡管存在這些風險,專家表示,影子人工智能并非完全可以消除的。相反,它是需要理解、引導(dǎo)和管理的東西。以下是六個策略,可以幫助 CIO 鼓勵負責任的實驗,同時保護敏感數(shù)據(jù)安全。
1. 建立明確的界限,留有實驗空間
管理影子人工智能首先要明確哪些內(nèi)容是允許的,哪些是不允許的。West Shore Home 的首席技術(shù)官 Danny Fisher 建議 CIO 將 AI 工具分為三類:批準、受限和禁止。
“批準的工具都會經(jīng)過審核和支持,”他說?!笆芟薰ぞ呖梢栽谑芸乜臻g內(nèi)使用,有明確的限制,比如只用虛擬數(shù)據(jù)?!薄敖构ぞ咄ǔJ枪_或未加密的人工智能系統(tǒng),應(yīng)在網(wǎng)絡(luò)或 API 層面被封鎖?!?/span>
他補充說,將每種 AI 使用方式匹配到安全的測試空間,比如內(nèi)部 OpenAI 工作空間或安全的 API 代理,使團隊能夠自由實驗,而不冒著公司數(shù)據(jù)的風險。
SAP 公司 LeanIX 的首席企業(yè)架構(gòu)師 Jason Taylor 表示,在當今快速變化的人工智能世界中,明確的規(guī)則至關(guān)重要。
他說:“要明確哪些工具和平臺是獲批的,哪些不是?!薄?span style="font-family: 微軟雅黑, "Microsoft YaHei"; font-size: 18px; -webkit-tap-highlight-color: transparent; margin: 0px; padding: 0px; outline: 0px; max-width: 100%; font-weight: bold;">還要明確哪些場景和用例是獲批的,哪些不被批準,以及員工在使用人工智能時如何處理公司數(shù)據(jù)和信息,比如一次性上傳,而不是剪貼或深度集成。”
Taylor 補充說,公司還應(yīng)制定一份清晰的清單,說明哪些類型的數(shù)據(jù)安全,哪些不適合使用,以及在何種情況下使用。現(xiàn)代數(shù)據(jù)丟失預(yù)防工具可以通過自動查找和標記數(shù)據(jù),以及對誰可以訪問內(nèi)容實施最低權(quán)限或零信任規(guī)則來提供幫助。
巴布森學院首席信息官 Patty Patria 指出,CIO 們?yōu)闊o代碼/低代碼 AI 工具和氛圍編碼平臺建立具體的保護措施也很重要。
她說:“這些工具使員工能夠快速原型設(shè)計想法并嘗試 AI 驅(qū)動的解決方案,但它們在連接專有或敏感數(shù)據(jù)時也帶來了獨特的風險。”
為應(yīng)對這一問題,Patria 表示,公司應(yīng)建立安全層,允許人們安全地自行實驗,但每當有人想將 AI 工具連接到敏感系統(tǒng)時,仍需額外審查和批準。
“例如,我們最近為員工制定了明確的內(nèi)部指導(dǎo),明確何時應(yīng)讓安全團隊參與應(yīng)用審查,以及何時可以自主使用這些工具,確保創(chuàng)新和數(shù)據(jù)保護都被優(yōu)先考慮,”她說?!拔覀冞€維護一份支持的 AI 工具清單,如果風險太大就不推薦使用?!?/span>
2. 保持持續(xù)的可見性和庫存跟蹤
CIO 無法管理他們看不見的東西。專家表示,保持準確、最新的 AI 工具庫存是抵御影子 AI 最重要的防御措施之一。
“最重要的是營造一種讓員工愿意分享使用而非隱瞞的文化,”Fisher 說。他的團隊將季度調(diào)查與自助登記冊相結(jié)合,員工記錄他們使用的人工智能工具。IT 部門隨后通過網(wǎng)絡(luò)掃描和 API 監(jiān)控驗證這些條目。
品牌制造商 Bamko 的 IT 副總裁 Ari Harrison 表示,他的團隊采取分層方法來保持可見性。
“我們通過從 Google Workspace 的連接應(yīng)用視圖中提取這些事件,并將這些事件傳輸?shù)轿覀兊?SIEM(安全信息與事件管理系統(tǒng))中,來維護一個連接應(yīng)用的活注冊表,”他說?!癕icrosoft 365 提供了類似的遙測功能,云訪問安全代理工具可以在需要時補充可見性?!?/span>
這種分層的方法為 Bamko 提供了清晰的地圖,清楚知道哪些 AI 工具正在接觸企業(yè)數(shù)據(jù),誰授權(quán)它們,以及它們擁有哪些權(quán)限。
云端 iPaaS Boomi 產(chǎn)品高級副總裁 Mani Gill 認為,手工審計已不再足夠。
“有效的庫存管理需要超越定期審計,實現(xiàn)對整個數(shù)據(jù)生態(tài)系統(tǒng)的持續(xù)自動化可視化,”他說,并補充說,良好的治理政策確保所有 AI 代理,無論是獲批還是內(nèi)置于其他工具中,都通過一個中心平臺發(fā)送數(shù)據(jù)。這讓組織能夠即時、實時地了解每個代理(智能體)的工作、使用了多少數(shù)據(jù)以及是否遵守規(guī)則。
Tanium 首席安全顧問 Tim Morris 同意,持續(xù)在每個設(shè)備和應(yīng)用中進行發(fā)現(xiàn)是關(guān)鍵?!叭斯ぶ悄芄ぞ呖赡芤灰怪g出現(xiàn)?!薄叭绻愕沫h(huán)境中出現(xiàn)新的 AI 應(yīng)用或瀏覽器插件,你應(yīng)該立刻知道?!?/span>
3. 加強數(shù)據(jù)保護和訪問控制
在防止數(shù)據(jù)暴露于影子 AI 暴露方面,專家們都強調(diào)同一基礎(chǔ):數(shù)據(jù)丟失防護(DLP)、加密和最小權(quán)限(least privilege)。
“使用 DLP 規(guī)則阻止個人信息、合同或源代碼上傳到未經(jīng)批準的域名,”Fisher 說。他還建議在敏感數(shù)據(jù)離開組織前對其進行隱藏,并啟用日志和審計追蹤,以追蹤經(jīng)批準的 AI 工具中的每一個提示和響應(yīng)。
Harrison 也呼應(yīng)了這一做法,指出 Bamko 關(guān)注的是實際中最重要的安全控制:外發(fā) DLP 和內(nèi)容檢測以防止敏感數(shù)據(jù)外泄;OAuth 治理,將第三方權(quán)限保持在最低權(quán)限;以及限制訪問權(quán)限,限制機密數(shù)據(jù)只能上傳其生產(chǎn)力套件中獲批準的 AI 連接器。
此外,公司將廣泛的權(quán)限(如對文檔或電子郵件的讀寫訪問)視為高風險且需要明確批準,而狹義的只讀權(quán)限則能更快推進。
“目標是讓日常創(chuàng)意安全,同時減少一次點擊讓 AI 工具獲得超出預(yù)期能力的可能性,”他說。
Taylor 補充說,安全性必須在不同環(huán)境中保持一致?!凹用芩徐o止、使用中和移動中的敏感數(shù)據(jù),采用最小權(quán)限和零信任策略來管理數(shù)據(jù)訪問權(quán)限,并確保 DLP 系統(tǒng)能夠掃描、標記和保護敏感數(shù)據(jù)。”
他指出,企業(yè)應(yīng)確保這些控制在桌面、移動和網(wǎng)頁上保持一致,并持續(xù)檢查和更新,以應(yīng)對新情況。
【注:Bamko 關(guān)注的安全控制措施涵蓋了數(shù)據(jù)保護和訪問控制的關(guān)鍵方面,以確保敏感信息的安全。以下是對這些安全控制措施的解釋:
1.外發(fā)數(shù)據(jù)丟失防護(DLP)和內(nèi)容檢測以防止敏感數(shù)據(jù)外泄:
外發(fā)DLP:這是一種數(shù)據(jù)丟失防護技術(shù),專注于監(jiān)控和保護從組織內(nèi)部流向外部的數(shù)據(jù)。它可以幫助防止敏感信息(如客戶數(shù)據(jù)、知識產(chǎn)權(quán)等)通過電子郵件、即時消息、社交媒體等途徑被不當共享或泄露。
內(nèi)容檢測:這是一種技術(shù),用于掃描和分析數(shù)據(jù)內(nèi)容,以識別和分類敏感信息。通過內(nèi)容檢測,組織可以自動發(fā)現(xiàn)和標記包含敏感數(shù)據(jù)的文件或通信,從而采取相應(yīng)的保護措施,如阻止傳輸、加密或標記警告。
OAuth治理,將第三方權(quán)限保持在最低權(quán)限:
OAuth:是一種授權(quán)框架,允許第三方應(yīng)用訪問用戶在另一個服務(wù)上的數(shù)據(jù),而無需用戶提供用戶名和密碼。例如,允許一個應(yīng)用訪問用戶的社交媒體賬戶數(shù)據(jù)。
OAuth治理:是指管理和監(jiān)控第三方應(yīng)用的OAuth權(quán)限,確保它們只能訪問必要的數(shù)據(jù),并且權(quán)限最小化。這有助于減少數(shù)據(jù)泄露的風險,因為即使第三方應(yīng)用被攻擊,攻擊者也只能訪問有限的數(shù)據(jù)。
2.限制訪問權(quán)限,限制機密數(shù)據(jù)只能上傳其生產(chǎn)力套件中獲批準的AI連接器
訪問權(quán)限限制:這意味著對誰可以訪問敏感數(shù)據(jù)進行嚴格控制。只有經(jīng)過授權(quán)的用戶才能訪問特定的數(shù)據(jù),從而減少數(shù)據(jù)泄露和濫用的風險。
AI連接器:是指連接不同系統(tǒng)和應(yīng)用程序的中間件,以便它們可以交換數(shù)據(jù)和功能。在這種情況下,AI連接器可能用于將生產(chǎn)力套件(如Microsoft Office 365或Google Workspace)與AI服務(wù)(如機器學習模型)連接起來。
獲批準的AI連接器
組織應(yīng)該只允許使用經(jīng)過審查和批準的AI連接器,以確保它們符合安全標準和合規(guī)要求。這有助于防止敏感數(shù)據(jù)被未經(jīng)授權(quán)的AI服務(wù)訪問或處理。
總的來說,這些安全控制措施旨在保護敏感數(shù)據(jù)不被泄露或濫用,同時確保第三方應(yīng)用和AI服務(wù)的安全和合規(guī)使用。通過實施這些措施,組織可以降低數(shù)據(jù)泄露和安全事件的風險,保護其業(yè)務(wù)和客戶信息的安全?!?/span>
4. 明確界定并傳達風險承受能力
定義風險承受能力不僅是控制,更是溝通。Fisher 建議 CIO 將風險承受能力與數(shù)據(jù)分類掛鉤,而非意見。他的團隊采用簡單的顏色編碼系統(tǒng):綠色代表低風險活動(如營銷內(nèi)容),黃色表示必須使用批準工具的內(nèi)部文件,紅色表示客戶或財務(wù)數(shù)據(jù),這些數(shù)據(jù)無法與 AI 系統(tǒng)一起使用。
莫里斯說:“風險承受能力應(yīng)建立在商業(yè)價值和監(jiān)管義務(wù)之上?!焙?Fisher 一樣,莫里斯建議將人工智能的使用劃分為明確的類別:哪些允許,哪些需要批準,哪些是禁止的,并通過領(lǐng)導(dǎo)層簡報、入職培訓和內(nèi)部門戶傳達這一框架。
Patria 表示,巴布森的人工智能治理委員會在這一過程中發(fā)揮著關(guān)鍵作用?!爱敐撛陲L險出現(xiàn)時,我們會將其提交委員會討論,并協(xié)作制定減緩策略,”她說?!霸谀承┣闆r下,我們決定禁止教職員工使用工具,但允許它們在課堂內(nèi)使用?!薄斑@種平衡有助于管理風險,同時抑制創(chuàng)新。”
5. 促進透明度和信任文化
透明度是管理影子人工智能的關(guān)鍵。員工需要知道監(jiān)控的內(nèi)容及其原因。
“透明度意味著員工始終知道什么是允許的、哪些內(nèi)容被監(jiān)控以及原因,”Fisher 說?!霸诠緝?nèi)聯(lián)網(wǎng)發(fā)布你的治理方法,并包含真實的 AI 善用和風險案例。這不是抓人的問題?!薄澳阏诮κ褂萌斯ぶ悄馨踩夜降男判??!?/span>
Taylor 建議發(fā)布一份官方認可的 AI 產(chǎn)品列表并保持更新?!懊鞔_交付尚未可用能力的路線圖,并提供請求例外或新工具的流程?!?他說?!斑@種開放表明治理的存在是為了支持創(chuàng)新,而非阻礙創(chuàng)新?!?/span>
Patria 說,除了技術(shù)控制和明確政策外,設(shè)立專門的治理小組,如人工智能治理委員會,可以大大提升組織管理影子人工智能風險的能力。
“當潛在風險出現(xiàn),比如對 DeepSeek 和 Fireflies.AI 等工具的擔憂時,我們會協(xié)作制定緩解策略,”她說。
Patria 補充說,該治理小組不僅審視并處理風險,還解釋其決策及其背后原因,幫助創(chuàng)造透明度和共同責任。
Morris 同意了?!巴该饕馕吨鴽]有意外。員工應(yīng)了解哪些 AI 工具獲批、決策過程,以及問題或新想法該去哪里,”他說。
6. 構(gòu)建連續(xù)的基于角色的人工智能訓練
培訓是防止人工智能工具意外濫用的最有效方法之一。關(guān)鍵是簡潔、相關(guān)且反復(fù)出現(xiàn)。
“訓練要簡短、視覺化且針對特定角色,”Fisher 說。“避免冗長的幻燈片,使用故事、快速演示和清晰的示例?!?/span>
Patria 說?Babson?將 AI 風險意識融入年度信息安全培訓,并定期發(fā)送關(guān)于新工具和新興風險的通訊。
“定期培訓旨在確保員工了解獲批的人工智能工具和新興風險,同時鼓勵部門 AI 倡導(dǎo)者促進對話并分享實踐經(jīng)驗,強調(diào)人工智能采用的益處與潛在風險,”她補充道。
Taylor 建議將培訓嵌入瀏覽器中,讓員工能直接在所用工具中學習最佳實踐。“剪切粘貼到網(wǎng)頁瀏覽器或拖放演示文稿似乎無害,直到你的敏感數(shù)據(jù)離開了你的生態(tài)系統(tǒng),”他說。
Gill 指出,培訓應(yīng)將負責任的使用與績效成果相結(jié)合。
“員工需要明白合規(guī)與生產(chǎn)力是協(xié)同工作的,”他說?!?span style="font-family: 微軟雅黑, "Microsoft YaHei"; font-size: 18px; -webkit-tap-highlight-color: transparent; margin: 0px; padding: 0px; outline: 0px; max-width: 100%; font-weight: bold;">獲批的工具相比影子人工智能,能帶來更快的結(jié)果、更高的數(shù)據(jù)準確性以及更少的安全事件?;诮巧某掷m(xù)培訓可以展示護欄和治理如何保護數(shù)據(jù)和效率,確保 AI 加速工作流程而非制造風險。”
負責任地使用人工智能是好生意
歸根結(jié)底,管理影子人工智能不僅僅是降低風險,更是支持負責任的創(chuàng)新。專注于信任、溝通和透明度的 CIO 能夠?qū)撛趩栴}轉(zhuǎn)化為競爭優(yōu)勢。
“當系統(tǒng)給出他們想要的東西時,人們通常不會試圖反抗系統(tǒng),尤其是當用戶在采用影子 AI 方法時會遇到更多阻力,”Taylor 說。
Morris 同意。“目標不是嚇唬人們,而是讓他們在行動前三思,”他說?!叭绻麄冎琅鷾实穆窂郊群唵斡职踩?,他們就會選擇?!?/span>
這正是 CIO 們應(yīng)努力的未來:一個人們可以安全創(chuàng)新、被信任去嘗試并保護數(shù)據(jù)的地方,因為負責任的 AI 使用不僅僅是合規(guī),更是良好的商業(yè)行為。
睿觀:隨著生成式人工智能(Generative AI)技術(shù)的爆炸式增長,其在企業(yè)、法律、教育及公共領(lǐng)域的應(yīng)用已從實驗階段迅速過渡到核心業(yè)務(wù)流程。然而,這一轉(zhuǎn)型伴隨著前所未有的安全挑戰(zhàn)與倫理困境。從能夠編寫多態(tài)惡意代碼的自動化代理,到在法庭上偽造判例的“幻覺”現(xiàn)象,AI的雙刃劍效應(yīng)日益凸顯。
關(guān)注AI安全的您可向福建CIO網(wǎng)索取專題報告(郵件:Admin@fjcio.org ,標題:《AI安全與治理、職業(yè)倫理與結(jié)業(yè)測試綜合評估報告》,或加微信:fjcioxl) ,本報告旨在提供一份詳盡的行業(yè)分析,涵蓋AI驅(qū)動的網(wǎng)絡(luò)威脅、數(shù)據(jù)隱私治理、職業(yè)倫理重構(gòu)及合規(guī)性框架。報告最后附帶一套完整的結(jié)業(yè)測試題(100分制),旨在評估從業(yè)者在這一高風險領(lǐng)域的認知水平與實戰(zhàn)能力。