導(dǎo)語:如果你企業(yè)的自動化流程因?yàn)榫W(wǎng)頁按鈕右移了幾個(gè)像素就徹底癱瘓,那么你正在繳納高昂的“脆弱稅”。在2026年的前夜,IT戰(zhàn)略不應(yīng)止步于“上線AI”,而是要利用大模型(LLM)將企業(yè)從“鋪設(shè)軌道”的火車模式,升級為“全地形越野”的智能自動化模式。

許多企業(yè)在RPA(機(jī)器人流程自動化)上投入了數(shù)百萬,卻換來了高昂的維護(hù)成本。行業(yè)經(jīng)驗(yàn)表明,每花1美元購買許可證,就要花3美元去維護(hù)。
原因:傳統(tǒng)RPA是“盲目”的。它依賴固定的坐標(biāo)(x,y)和硬編碼的腳本。一旦UI更新、供應(yīng)商發(fā)票格式微調(diào),甚至第三方平臺出現(xiàn)異常,機(jī)器人就會崩潰。
案例:即便是OpenAI這樣的巨頭,其X(推特)賬號被劫持發(fā)布詐騙信息時(shí),如果企業(yè)的自動化機(jī)器人設(shè)定為“轉(zhuǎn)發(fā)所有官方推文”,那么這種盲目的確定性連接就會讓企業(yè)成為詐騙的幫兇。
要擺脫脆弱性,我們需要從“任務(wù)自動化”(模仿手)轉(zhuǎn)向“決策自動化”(模仿腦)。
新舊范式對比:
舊范式(火車):依賴昂貴且固定的軌道,遇到障礙物(變化)就會脫軌。
新范式(越野車):基于傳感器感知環(huán)境,遇到障礙物能識別并繞行。
技術(shù)棧的演變:智能自動化(IA)不再只是工作流引擎,而是三大組件的協(xié)同:
2.1 工作流引擎:執(zhí)行動作的“手”。
2.2 LLM(推理層):實(shí)時(shí)推演邏輯的“大腦”。
2.3?向量數(shù)據(jù)庫:存儲上下文與經(jīng)驗(yàn)的“記憶”,減少幻覺。
企業(yè)80%的數(shù)據(jù)(PDF、郵件、聊天記錄)是非結(jié)構(gòu)化的,傳統(tǒng)RPA對此束手無策。 智能自動化引入了多模態(tài)理解:
OCR讀取手寫筆記;
計(jì)算機(jī)視覺分析事故照片;
LLM解讀保險(xiǎn)條款。?
新座右銘:數(shù)據(jù)錄入已終結(jié),理解才是新標(biāo)準(zhǔn)。
引入AI并不意味著盲目放權(quán)。我們需要建立基于置信度的路由機(jī)制:
場景A(高置信度):發(fā)票信息匹配、語義一致 →?AI自動執(zhí)行。
場景B(低置信度):信息模糊、語義偏離(如加密貨幣騙局) →?轉(zhuǎn)人工審批。 這種模式解決了“黑箱”問題,讓AI處理枯燥的高頻任務(wù),讓人類處理復(fù)雜的邊緣案例。
不要急著采購新軟件,先進(jìn)行審計(jì)。找出那些技術(shù)上還活著、但需要不斷人工修補(bǔ)才能運(yùn)行的“僵尸機(jī)器人”。它們的維護(hù)成本遠(yuǎn)超其節(jié)省的勞動力。停止修補(bǔ),用具備自我修復(fù)能力的智能自動化架構(gòu)取而代之。
作者:Hari Om Garg?
想想你們組織里最脆弱的員工:他們從不喝咖啡、24小時(shí)連軸轉(zhuǎn)并且招聘成本非常高;可只要網(wǎng)頁上的按鈕向右移動幾像素,這位員工就會徹底“精神崩潰”并完全停止工作。

我說的當(dāng)然就是你的RPA(機(jī)器人流程自動化)數(shù)字員工。
在過去的幾年里,我觀察到IT領(lǐng)導(dǎo)者、首席信息官和商業(yè)領(lǐng)導(dǎo)者們將數(shù)百萬投入我們所稱的自動化項(xiàng)目。我們雇傭了大批顧問來繪制架構(gòu)圖并規(guī)劃每一個(gè)可能的情景;我們建立了嚴(yán)格的數(shù)字軌道,堅(jiān)信只要鋪設(shè)足夠的鐵軌,效率就會隨之而來。
然而我們建的不是韌性,而是脆弱性。
作為一名AI解決方案架構(gòu)師,我每天都能看到這個(gè)基礎(chǔ)上的裂縫。2026年的戰(zhàn)略不該只是“上線AI”,而是要直指傳統(tǒng)自動化的脆弱命門。基于確定性規(guī)則的時(shí)代正在終結(jié),我們正見證“決定論”的死亡與“概率論”系統(tǒng)的崛起——我稱之為“從靜態(tài)工作流到智能自動化”的躍遷。
我們必須直面一個(gè)殘酷事實(shí):您目前的機(jī)器人組合可能是一個(gè)負(fù)擔(dān)。
在我的經(jīng)驗(yàn)以及建筑實(shí)踐中,我經(jīng)常遇到我所謂的脆弱性稅。這是在動態(tài)世界中維護(hù)確定性機(jī)器人所隱藏的成本,行業(yè)經(jīng)驗(yàn)法則(不斷在預(yù)算表上被驗(yàn)證)是:每花1美元買BPA許可證,就要再掏3美元去維護(hù)。
為什么?因?yàn)閭鹘y(tǒng)的BPA是盲目的。它看不懂屏幕,只認(rèn)得坐標(biāo)(x,y);它讀不懂郵件,只會抓關(guān)鍵詞;當(dāng)用戶界面更新或供應(yīng)商更改發(fā)票格式時(shí),機(jī)器人就會崩潰。
我曾親歷一場“災(zāi)難”:某企業(yè)客戶的自動化客戶互動流程是旗艦項(xiàng)目,運(yùn)行得非常完美,直到第三方系統(tǒng)廠商更新方案,提交按鈕從綠色變成了藍(lán)色。機(jī)器人被硬編碼成在特定坐標(biāo)尋找綠色像素,因此項(xiàng)目失敗了。
但脆弱性遠(yuǎn)不止像素顏色,更在于對外部平臺信任的脆弱性。
我們常常以為脆弱性只存在于糟糕的代碼中,其實(shí)它同樣潛伏在我們的外部依賴中。即便是行業(yè)先鋒也難逃一劫:2024年9月,OpenAI在X(原Twitter)上的官方新聞賬號被騙子劫持,用來推廣一個(gè)加密貨幣。
想想其中的諷刺——這家正在打造人類史上最強(qiáng)智能的公司,瞬間失守不是因?yàn)樯窠?jīng)網(wǎng)絡(luò)失靈,而是因?yàn)榈谌狡脚_的脆弱性,這就是“脆弱稅”的活案例。當(dāng)你把企業(yè)流程建立在對不可控外部平臺的確定性連接上時(shí),你也一并繼承了它們的脆弱性。倘若你有一個(gè)標(biāo)準(zhǔn)機(jī)器人被設(shè)定為“轉(zhuǎn)發(fā)@OpenAINewsroom的每條推文”,它就會自動把騙局?jǐn)U散到你的全部客戶群。
舊的腳本式自動化根本無法應(yīng)對這種波動。我們曾花多年時(shí)間試圖預(yù)測未來,并將這些預(yù)測硬編碼進(jìn)腳本。但世界對于腳本來說太混亂了,我們需要能夠自我修復(fù)的架構(gòu)。
要真正釋放IA(智能自動化)的價(jià)值,必須把它視為一次架構(gòu)范式的躍遷,而非簡單的軟件升級。我們正在從“任務(wù)自動化”(模仿手)走向“決策自動化”(模仿腦)。
當(dāng)我設(shè)計(jì)這類系統(tǒng)時(shí),關(guān)注的不再是密密麻麻的規(guī)則,而是清晰定義的目標(biāo)。
舊范式里,我們給計(jì)算機(jī)的是腳本:先點(diǎn)按鈕A,再輸入文本B,然后等待5秒;新范式里,我們使用認(rèn)知編排器,只給AI一個(gè)目標(biāo):完成這個(gè)目標(biāo)。
差異是深刻的。如果提交按鈕變成了藍(lán)色,一個(gè)使用LLM(大語言模型)和視覺能力的目標(biāo)系統(tǒng)仍會看到這個(gè)按鈕。它明白顏色雖變,功能仍是提交,于是自行調(diào)整路徑以達(dá)成目標(biāo)。
可以把這比作火車與越野車的區(qū)別:火車快且高效,卻依賴昂貴軌道,遇到線路上的石頭只能脫軌;智能自動化就是越野車,靠傳感器感知環(huán)境,看見石頭就繞過去,不會翻車。
這不是魔法,而是一種可落地的架構(gòu)模式。支撐它的技術(shù)棧與大多數(shù)首席信息官的現(xiàn)有系統(tǒng)截然不同——它不再只是工作流引擎,而是三大組件協(xié)同工作:
工作流引擎:執(zhí)行動作的“手”。
LLM(推理層):實(shí)時(shí)推演步驟、處理邏輯的“大腦”。
向量數(shù)據(jù)庫:存儲上下文、歷史經(jīng)驗(yàn)和嵌入數(shù)據(jù)的“記憶”,減少幻覺。
三者結(jié)合,讓脆弱的腳本轉(zhuǎn)向有彈性的代理。
舊方式最大的局限性是無法處理非結(jié)構(gòu)化數(shù)據(jù)。企業(yè)約80%的數(shù)據(jù)都是非結(jié)構(gòu)化形態(tài),鎖在PDF、郵件、Slack、Teams聊天記錄和通話日志里。傳統(tǒng)的業(yè)務(wù)流程自動化只能處理行列分明的結(jié)構(gòu)化輸入。
多模態(tài)理解的智能自動化改變了架構(gòu),我敦促你們采用一個(gè)新的座右銘:數(shù)據(jù)錄入已終結(jié),理解才是新標(biāo)準(zhǔn)。
我目前正在設(shè)計(jì)系統(tǒng)架構(gòu),該系統(tǒng)不僅僅是將PDF從文件夾A移動到文件夾B,它會讀取PDF。它會理解附件電子郵件的情感,還會從頁腳引用的通話記錄中提取意圖。
以復(fù)雜理賠的情景為例:過去,人工需逐字閱讀手寫事故報(bào)告,將其與保險(xiǎn)政策PDF進(jìn)行交叉驗(yàn)證,并檢查損壞的照片。確定性機(jī)器人在這里毫無用武之地,因?yàn)槊看屋斎攵疾幌嗤?/span>
智能自動化改寫了規(guī)則:它可以讀取手寫筆記(使用OCR)、分析照片(使用計(jì)算機(jī)視覺)和閱讀保險(xiǎn)政策(使用LLM)。它將這些不同的、混亂的輸入合成到一個(gè)結(jié)構(gòu)化的索賠對象中——化混沌為秩序。
這就是“數(shù)字化”與“數(shù)字智能化”的區(qū)別。
每當(dāng)我們向客戶展示“自動駕駛”企業(yè)概念,對方第一反應(yīng)往往是“你希望一個(gè)大語言模型與我們的客戶對話?”這是一個(gè)合理的擔(dān)憂,但答案不是禁止使用AI,而是架構(gòu)“基于置信度的路由”。
我們不盲目交鑰匙,而是把治理寫進(jìn)代碼:AI先自評置信度,再決定是否行動。
這也回到驗(yàn)證的重要性。為什么我們需要人類參與其中?因?yàn)槭苄湃蔚亩它c(diǎn)并不總是保持受信任的狀態(tài)。
重新審視我之前提到的安全事件:若你部署的是全自主閉環(huán),一旦經(jīng)過驗(yàn)證的合作伙伴賬號被黑,企業(yè)就會跟著面臨風(fēng)險(xiǎn)。
確定性機(jī)器人:信號來自可信源 → 執(zhí)行。
概率化治理代理:信號雖來自可信源,但內(nèi)容與其語義基線偏離99%(加密騙局vs科技新聞),置信分低 → 拉人介入。
這就是我們需要的架構(gòu)轉(zhuǎn)變:
場景A:AI對發(fā)票99%確信,供應(yīng)商與主數(shù)據(jù)匹配,語義與歷史行為一致 → 自動執(zhí)行。
場景B:AI僅70%確信,地址略有差異、圖片模糊或請求異常(如被黑推文) → 轉(zhuǎn)人工審批。
這將自動化變成了一種合作伙伴關(guān)系:AI處理高頻、枯燥的任務(wù),人工處理邊緣案例,這解決了讓合規(guī)官失眠的“黑箱”問題。
如果想為這場轉(zhuǎn)變做準(zhǔn)備,別急著明天就采購新軟件,你需要從審計(jì)開始。
盤點(diǎn)您當(dāng)前的自動化項(xiàng)目組合,找出僵尸機(jī)器人——那些技術(shù)上還活著,卻需要不斷干預(yù)才能繼續(xù)移動的腳本。每當(dāng)供應(yīng)商更新其軟件時(shí),這些機(jī)器人就會失敗,它們所造成的脆弱性成本比節(jié)省的勞動力成本還要高。
停止嘗試修補(bǔ)它們,它們正是智能自動化的頭號替換對象。
未來屬于概率論,屬于能夠通過不確定性進(jìn)行推理、處理無序混亂并在世界變化時(shí)自我糾正的架構(gòu)。作為領(lǐng)導(dǎo)者,我們要停止造火車,開始造越野車。
技術(shù)已準(zhǔn)備就緒,問題是:你準(zhǔn)備好松開方向盤了嗎?