領(lǐng)導(dǎo)者們過于迅速且過度地轉(zhuǎn)向自動化,卻從不質(zhì)疑幕布背后隱藏著什么。

圖源:Yurii Yarema via Alamy Stock
我花了20多年的時間與大型組織合作,識別它們最關(guān)鍵的信息安全和數(shù)字化風(fēng)險,并制定成本效益高、能產(chǎn)生高影響力結(jié)果的策略。我目睹了人工智能從一個利基工具崛起為幾乎每一個戰(zhàn)略對話的中心,幻燈片上贊頌人工智能有潛力提高效率、降低風(fēng)險并加速增長。
在這種興奮中,我常常看到一種危險的模式出現(xiàn):領(lǐng)導(dǎo)人在自動化方面走得過快,而沒有質(zhì)疑幕后隱藏的東西。
風(fēng)險并非來自技術(shù)本身,而是我們對它的過度自信。
許多決策者錯誤地認(rèn)為,采用人工智能是一個純粹的技術(shù)決策,事實(shí)并非如此。這是一個戰(zhàn)略、倫理和治理方面的挑戰(zhàn),當(dāng)領(lǐng)導(dǎo)層忽視這一點(diǎn)時,系統(tǒng)就會崩潰,信任就會削弱,聲譽(yù)也會受損。
一、高管過度自信的微妙陷阱
人工智能被包裹在一個極具誘惑力的敘事中。新聞頭條慶祝機(jī)器學(xué)習(xí)的突破;供應(yīng)商承諾提供現(xiàn)成的智能解決方案;內(nèi)部團(tuán)隊面臨著必須取得人工智能成果的壓力。在這種氛圍下,高層領(lǐng)導(dǎo)很容易陷入我所說的控制幻覺:相信人工智能系統(tǒng)是即插即用、毫無風(fēng)險的精準(zhǔn)引擎。
人工智能并非中立,它反映了其所消耗的數(shù)據(jù),并放大了其構(gòu)建的基礎(chǔ)假設(shè)。將高風(fēng)險決策委托給模型,而不質(zhì)疑它們的工作原理或可能失敗的地方,這并不是創(chuàng)新,而這是逃避責(zé)任。
從我的咨詢工作中,我發(fā)現(xiàn)了三個常見的盲點(diǎn):
1.過度依賴儀表盤
2.誤解人工智能的局限性
3.盲目模仿成功
這些盲點(diǎn)并非源于無能,而是源于缺乏質(zhì)疑。在這種環(huán)境中,沒有人有動力去說:“這可能行不通。”
二、當(dāng)治理未能跟上步伐時
在大多數(shù)組織中,人工智能治理仍在努力追趕。風(fēng)險登記冊常常遺漏模型失敗模式;審計計劃很少測試可解釋性或數(shù)據(jù)血統(tǒng);沒有跨職能的監(jiān)督機(jī)構(gòu)來負(fù)責(zé)人工智能風(fēng)險;只有技術(shù)團(tuán)隊、法律顧問和過度勞累的合規(guī)負(fù)責(zé)人拼湊而成的體系。
這導(dǎo)致了兩個關(guān)鍵的失?。贺?zé)任不清和運(yùn)營脆弱。
除非治理框架像對待財務(wù)控制或網(wǎng)絡(luò)安全一樣嚴(yán)肅對待人工智能,否則這些風(fēng)險將持續(xù)存在。
三、認(rèn)清真正的風(fēng)險:不是模型,而是心態(tài)
領(lǐng)導(dǎo)層的偏見是大多數(shù)組織忽視的隱藏弱點(diǎn)。在高層,績效指標(biāo)獎勵確定性和速度,但人工智能要求我們保持謙遜并暫停一下,它迫使我們質(zhì)疑數(shù)據(jù)質(zhì)量、利益相關(guān)者影響和長期可持續(xù)性這些令人不安的問題。
那些做對了的組織不僅僅是將人工智能接入業(yè)務(wù),他們圍繞人工智能的風(fēng)險和局限性調(diào)整業(yè)務(wù)。
這需要轉(zhuǎn)變思維模式:
a.從委派到協(xié)作
b.從速度到審查
c.從不透明到可解釋
四、構(gòu)建人工智能韌性始于高層
董事會和高管團(tuán)隊無需成為人工智能工程師,但他們確實(shí)需要了解人工智能風(fēng)險所在以及如何管理這些風(fēng)險——這始于教育、明確的責(zé)任歸屬以及跨職能協(xié)作。
以下是我?guī)椭蛻魧?shí)施的務(wù)實(shí)步驟:
1.將人工智能納入企業(yè)風(fēng)險管理
2.將人工智能納入內(nèi)部審計范圍
3.建立人工智能風(fēng)險委員會
4.營造心理安全感
最重要的是,以好奇心為引領(lǐng)。我共事過的最優(yōu)秀的領(lǐng)導(dǎo)者們并不追求確定性,而是提出更好的問題。他們抵制“靈丹妙藥”的誘惑,為異議、迭代和路線修正創(chuàng)造了空間。
五、韌性,而非依賴
人工智能有潛力改變我們的運(yùn)營、競爭和服務(wù)方式,但沒有自我反思的變革是一種負(fù)擔(dān)。最大的風(fēng)險并不在于模型本身,而在于我們?nèi)绾沃卫磉@些模型。
在人工智能時代生存并繁榮的組織將是那些保持清醒頭腦、構(gòu)建韌性而不僅僅具備能力的組織。
在下一次董事會會議或季度路線圖審查之前,請問自己:我們是否過度信任了一個我們并不完全理解的工具?更重要的是,當(dāng)規(guī)則一夜之間改變時,我們如何保持在游戲中的競爭力?
作者:Maman Ibrahim
譯者:木青
睿觀:
在AI(人工智能)的熱潮中,許多企業(yè)高管因過度自信而陷入了一種危險的“控制幻覺”:他們錯誤地將AI視為一個純粹的技術(shù)決策和即插即用的精準(zhǔn)引擎,而忽視了其背后復(fù)雜的戰(zhàn)略、倫理與治理挑戰(zhàn)。這種心態(tài)源于對AI局限性的誤解和對儀表盤的過度依賴,并因缺乏健全的AI治理框架(如將AI納入風(fēng)險登記與內(nèi)審)而加劇,最終導(dǎo)致責(zé)任不清和運(yùn)營脆弱,侵蝕信任、損害聲譽(yù)。因此,真正的AI風(fēng)險并非來自模型本身,而是來自領(lǐng)導(dǎo)層的心態(tài)。要構(gòu)建AI韌性,領(lǐng)導(dǎo)層必須將AI風(fēng)險正式納入企業(yè)風(fēng)險管理,并建立跨職能的風(fēng)險委員會。最重要的是,領(lǐng)導(dǎo)者需要從追求“確定性”轉(zhuǎn)變?yōu)?/span>以“好奇心”為引領(lǐng),提出更好的問題,并為質(zhì)疑、迭代和路線修正創(chuàng)造空間,從而實(shí)現(xiàn)從對AI的盲目“依賴”到主動“韌性”的轉(zhuǎn)變。
將高風(fēng)險決策委托給一個你并不完全理解的模型,這不是“創(chuàng)新”,而是“逃避責(zé)任”。