幾十個(gè) AI 代理(Agent)在沒有人類干預(yù)的情況下自動協(xié)同、解決復(fù)雜任務(wù)——這聽起來像是企業(yè)數(shù)字化的完美烏托邦。許多供應(yīng)商也正在大力兜售這一愿景。但現(xiàn)實(shí)可能要骨感得多。

近期的研究和多位行業(yè)專家的實(shí)踐揭示了一個(gè)反直覺的真相:單個(gè) AI 智能體可能極其可靠,但當(dāng)它們被組隊(duì)在一起協(xié)作時(shí),往往會遭遇慘敗。
為什么?因?yàn)樗鼈內(nèi)旧狭撕腿祟愐粯拥摹敖M織病”。
組織系統(tǒng)研究員 Jeremy McEntire 的實(shí)驗(yàn)表明,當(dāng)使用單個(gè)智能體執(zhí)行任務(wù)時(shí),成功率是 100%;但當(dāng)引入層級結(jié)構(gòu)或自發(fā)群體協(xié)作時(shí),失敗率大幅飆升,甚至在規(guī)劃階段就耗盡了所有預(yù)算,沒寫出一行可用代碼。
你以為去除了人類的疲勞、自負(fù)和辦公室政治,AI 就能完美協(xié)作?錯(cuò)。系統(tǒng)間的每一次交接,都會導(dǎo)致意義丟失、語境壓縮和錯(cuò)誤傳播。正如思科平臺架構(gòu)師 Nik Kale 一針見血指出的:“人類在組織中處理溝通偏差,會走到別人的辦公桌前問一句‘你那話到底是什么意思?’,但 AI 智能體可不會在走廊里閑聊?!?/span>
那么,IT 領(lǐng)導(dǎo)者該如何正確部署 AI 智能體?
專注單體任務(wù):讓單個(gè)智能體專注于范圍明確、高度具象化的獨(dú)立任務(wù),這能產(chǎn)生令人震驚的可靠結(jié)果。
拒絕虛幻的“群智涌現(xiàn)”:不要幻想著 AI 能自發(fā)無縫協(xié)同。AI 智能體的真正價(jià)值不在于自主的群體行為,而在于受控的專業(yè)化。
擁抱“鏈?zhǔn)骄幣拧?/span>:不要讓智能體去自由協(xié)作,而是讓它們按規(guī)格交付。建立一層強(qiáng)有力的“編排層(Orchestration Layer)”,明確規(guī)定數(shù)據(jù)在智能體間如何傳遞、觸發(fā)人工審查的條件是什么。
底線很簡單:真正的多智能體協(xié)作行不通。企業(yè)需要的心智模型,是一支由“角色清晰的數(shù)字員工 + 負(fù)責(zé)監(jiān)督和判斷的人類 + 串聯(lián)兩者的編排層”共同組成的混合勞動力隊(duì)伍。別讓你的 AI 團(tuán)隊(duì),重蹈人類官僚主義的覆轍!
標(biāo)題:真正的多智能體協(xié)作行不通
單個(gè) AI 智能體可能非常可靠,但當(dāng)它們被組合在一起時(shí),似乎只是表面上協(xié)同工作,實(shí)際會產(chǎn)生很高的失敗率。鏈?zhǔn)骄幣趴赡苁墙鉀Q方案。

圖片來源:Rob Schultz / Shutterstock
一些人工智能倡導(dǎo)者正在兜售這樣一種愿景:數(shù)十個(gè)智能體(Agent)協(xié)同工作,在幾乎不需要人工干預(yù)的情況下解決復(fù)雜問題。到目前為止,這種場景只是一個(gè)神話。
一項(xiàng)新研究表明,AI 智能體在單獨(dú)處理獨(dú)立任務(wù)時(shí)可能很有效,但當(dāng)它們被組合在一起完成復(fù)雜的分配任務(wù)時(shí),大多數(shù)情況下都會失敗。
倡導(dǎo)者設(shè)想了一個(gè)多智能體的未來,這將帶來巨大的效率提升和成本節(jié)約,這要?dú)w功于自主型智能體 AI 接管了目前由人類員工執(zhí)行的許多復(fù)雜任務(wù)。
但大多數(shù)在單一工作流中部署多個(gè)智能體的組織,實(shí)際上是將它們分成負(fù)責(zé)特定任務(wù)的獨(dú)立智能體孤島,在另一個(gè)智能體接手之前,將它們的工作交接給一個(gè)編排層(orchestration layer)。
組織系統(tǒng)研究員兼作家杰里米·麥肯泰爾(Jeremy McEntire)表示,真正的多智能體協(xié)作之所以行不通,是因?yàn)橹悄荏w遭遇了與人類相同的組織問題。他說,智能體會無視其他智能體的指令、重復(fù)別人已經(jīng)做過的工作、未能進(jìn)行工作委派,并陷入“計(jì)劃癱瘓”。
“人工智能系統(tǒng)失敗的結(jié)構(gòu)性原因與人類組織相同,盡管消除了所有人類特有的致因因素,”他在最近的研究論文中寫道?!皼]有職業(yè)激勵。沒有自負(fù)。沒有辦公室政治。沒有疲勞。沒有文化規(guī)范。沒有地位競爭。這些智能體只是執(zhí)行提示的語言模型。但功能失調(diào)還是出現(xiàn)了?!?/span>
一、復(fù)雜性導(dǎo)致失敗
奢華度假租賃服務(wù)公司 Wander 的工程主管麥肯泰爾表示,也許毫不奇怪的是,加入的智能體越多,智能體的組織結(jié)構(gòu)越復(fù)雜,它們無法完成既定任務(wù)的頻率就越高。
麥肯泰爾基于四種組織結(jié)構(gòu)對智能體的產(chǎn)出進(jìn)行了測試。當(dāng)使用單個(gè)智能體來生成結(jié)果時(shí),智能體在 28 次嘗試中成功了 28 次。在層級組織中使用多個(gè)智能體(一個(gè)智能體向其他智能體分配任務(wù))時(shí),有 36% 的情況下未能交付正確結(jié)果。
一種“共識主動性涌現(xiàn)(stigmergic emergence)”方法,即智能體在一個(gè)自組織集群中工作,其失敗率高達(dá) 68%;而一個(gè) 11 個(gè)階段的門控流水線(或稱組織集群),從未產(chǎn)生過好結(jié)果。事實(shí)上,這個(gè)門控流水線在五個(gè)規(guī)劃階段就耗盡了該項(xiàng)目的全部預(yù)算,卻沒有寫出一行實(shí)現(xiàn)代碼。
“我進(jìn)行的每一項(xiàng)實(shí)驗(yàn)都以違反直覺的方式失敗了,而這種失敗方式正是它表面上被設(shè)計(jì)來極力避免的,”麥肯泰爾說。“流水線一直在繞圈子。層級結(jié)構(gòu)未能進(jìn)行委派。共識主動性系統(tǒng)未能進(jìn)行協(xié)調(diào),而協(xié)調(diào)正是共識主動性的核心意義。唯一可靠且持續(xù)成功的是單智能體模式。”
麥肯泰爾指出,當(dāng)人類將工作轉(zhuǎn)移給 AI 智能體時(shí),長期存在的組織問題并沒有消失。“那些表征人類組織的失敗模式——審查拉扯、基于偏好的把關(guān)、治理沖突、因協(xié)調(diào)失敗導(dǎo)致預(yù)算耗盡——在多智能體人工智能系統(tǒng)中以完全相同的數(shù)學(xué)特征出現(xiàn)了,”他在論文中寫道?!盎鬃兞耍坏笠?guī)模協(xié)調(diào)的物理學(xué)定律保持不變。”
二、結(jié)果被復(fù)現(xiàn)
雖然人們可能傾向于將麥肯泰爾視為在荒野中吶喊的孤勇者,但幾位人工智能專家表示他們觀察到了類似的結(jié)果。
網(wǎng)絡(luò)安全供應(yīng)商 CrowdStrike 現(xiàn)任首席工程師迪普塔邁·桑亞爾(Diptamay Sanyal)表示,在之前的工作中構(gòu)建 AI 智能體平臺時(shí),他觀察到了智能體協(xié)同工作的類似問題。他說,處理離散、范圍明確任務(wù)的單個(gè)智能體是可靠的,但多智能體協(xié)作往往會失敗。
“正如研究所發(fā)現(xiàn)的那樣,失敗率隨著復(fù)雜性的增加而快速攀升,”他補(bǔ)充道?!爸悄荏w之間的協(xié)調(diào)開銷、上下文傳遞和錯(cuò)誤傳播,完全是人類組織在大規(guī)模下功能失調(diào)的翻版?!?/span>
然而他指出,智能體鏈(agent chaining)——這并非真正的協(xié)作——是行得通的。這與其他一些人工智能專家的觀察不謀而合。
“威脅檢測、警報(bào)豐富和自動化遏制作為離散的、范圍明確的模塊通過編排層鏈接起來時(shí),效果最好,”他說。“從外部看,這像是多智能體合作,但從架構(gòu)上講,它是帶有確定性交接和內(nèi)置人工檢查點(diǎn)的順序?qū)I(yè)化(sequential specialization)?!?/span>
他補(bǔ)充說,數(shù)十個(gè)智能體在沒有人類干預(yù)的情況下自主協(xié)作的愿景尚未實(shí)現(xiàn)。“如今 AI 智能體的真正價(jià)值在于大規(guī)模自動化那些重復(fù)性的、定義明確的任務(wù)——通過快速的數(shù)據(jù)處理和一致的輸出來增強(qiáng)人類分析師的能力,”桑亞爾說?!岸皇怯楷F(xiàn)的集體智能?!?/span>
三、老問題重現(xiàn)
思科(Cisco)致力于多智能體協(xié)調(diào)和智能體系統(tǒng)設(shè)計(jì)的首席工程師兼平臺架構(gòu)師尼克·卡勒(Nik Kale)表示,麥肯泰爾的論文展示了常見的人類溝通問題是如何轉(zhuǎn)移到多智能體環(huán)境中的。
“系統(tǒng)之間的每一次交接,都是意義丟失、上下文壓縮和假設(shè)產(chǎn)生的地方,”他說?!叭祟愒诮M織中處理這個(gè)問題的方式是走到某人的辦公桌前說:‘等等,你那話到底是什么意思?’但智能體們不會在走廊里閑聊?!?/span>
卡勒補(bǔ)充道,部署智能體的 IT 領(lǐng)導(dǎo)者應(yīng)該將重點(diǎn)放在專注于范圍明確任務(wù)的單個(gè)智能體上,這會產(chǎn)生“令人震驚的可靠”結(jié)果。
“‘?dāng)?shù)十個(gè)智能體自主協(xié)同工作’的營銷話術(shù),是在兜售一種違反信息論的幻想,”他說?!?span style="font-family: 微軟雅黑, "Microsoft YaHei"; -webkit-tap-highlight-color: rgba(0, 0, 0, 0); margin: 0px; padding: 0px; outline: 0px; max-width: 100%; font-size: 16px; font-weight: bold;">你不能讓智能體去協(xié)作。你要讓智能體按照規(guī)格交付,然后讓一個(gè)薄薄的編排層來組裝結(jié)果。”
基于 AI 的應(yīng)用構(gòu)建供應(yīng)商 Empromptu.ai 的首席執(zhí)行官沙內(nèi)婭·萊文(Shanea Leven)補(bǔ)充說,多智能體系統(tǒng)應(yīng)該從執(zhí)行專門任務(wù)的單個(gè)高度結(jié)構(gòu)化智能體開始,或者是多個(gè)智能體在嚴(yán)格的邊界、共享的上下文模型和評估控制下運(yùn)行。
“認(rèn)為幾十個(gè)智能體可以在沒有監(jiān)督或邊界的情況下自發(fā)協(xié)作的想法,和人類這樣做一樣瘋狂,”她說。“AI 智能體的價(jià)值是真實(shí)存在的,但它不在于自主的群體行為。而在于受控的專業(yè)化。”
四、編排結(jié)果
一些人工智能用戶報(bào)告說,通過在智能體之間使用編排工具將它們鏈接起來,取得了成功。
勞動力編排供應(yīng)商 Asymbl 已經(jīng)部署了 150 多個(gè)智能體,但它們彼此之間的交互受到高度控制,該公司的首席數(shù)字勞動力與技術(shù)官希瓦納特·德維納拉亞南(Shivanath Devinarayanan)表示。
“我們的 150 多名數(shù)字員工進(jìn)行交互、交接工作,并共同交付我們圍繞它們設(shè)計(jì)的成果,它們彼此協(xié)調(diào),并與人類團(tuán)隊(duì)成員協(xié)調(diào),這是因?yàn)槲覀冊谒鼈冎車鷺?gòu)建了一個(gè)編排層,”他說。“在兩個(gè) AI 智能體互動之前,我們已經(jīng)規(guī)劃好了交接流程——什么數(shù)據(jù)在它們之間傳遞、以什么格式、在什么條件下、什么會觸發(fā)人工審查以及為什么。”
他補(bǔ)充說,控制智能體并在部署之前定義每個(gè)智能體角色的編排模型,是拼圖的關(guān)鍵部分。
“我們有專門負(fù)責(zé)離散任務(wù)的 AI 智能體,也有具有共享內(nèi)存和共享任務(wù)列表的智能體,以跟蹤其他智能體正在做什么,”德維納拉亞南說。“這兩種情況的關(guān)鍵都在于:部署前角色的清晰度。這個(gè)數(shù)字工作者負(fù)責(zé)什么,工作從哪里來,到哪里去,人類什么時(shí)候需要做決定?”
他補(bǔ)充說,麥肯泰爾的研究證實(shí)了 Asymbl 的觀察,即多智能體系統(tǒng)的失敗是一個(gè)組織和編排問題,而不是技術(shù)問題。
“該研究發(fā)現(xiàn),智能體在協(xié)同工作時(shí)會遇到與人類相同的協(xié)調(diào)失敗,”德維納拉亞南說?!爸悄荏w是基于人類推理建模的。當(dāng)組織設(shè)計(jì)薄弱時(shí),它們就會繼承人類組織的失敗模式。”
他補(bǔ)充說,那些倡導(dǎo)數(shù)十個(gè)智能體在沒有人類干預(yù)的情況下協(xié)同工作的供應(yīng)商或 AI 倡導(dǎo)者,正在推行一個(gè)錯(cuò)誤的愿景。
“正確的心智模型是一支混合勞動力隊(duì)伍:角色明確的數(shù)字員工、負(fù)責(zé)監(jiān)督和判斷的人類員工,以及連接兩者的編排層,”德維納拉亞南說。