av婷婷久久网,91视频这里只有精品,91午夜福利一区二区,啊啊啊一区二区久久久,啪啪亚洲视频,www.插插,亚洲婷婷精品二区,开心五月激情射,久青草在在线

你好,歡迎您來到福建信息主管(CIO)網(wǎng)! 設(shè)為首頁|加入收藏|會員中心
您現(xiàn)在的位置:>> 新聞資訊 >>
馴服代理式AI(Agentic AI)智能體:2026年的自主勞動力
作者:CI0.com&睿觀 來源:CIOCDO 發(fā)布時間:2025年10月09日 點擊數(shù):

到2026年,AI智能體將運行各種工作流——但前提是,我們必須停止追逐“超級智能體”的幻想,并精心設(shè)計它們,讓其各司其職,永不越界。

來源:Gremlin / Getty Images

2023年,聊天機器人還只是在回答問題。到2025年,AI智能體已能從零開始編寫代碼、設(shè)計完整的應(yīng)用程序和服務(wù),并對任何主題進行深入的、近乎科學(xué)級別的研究。如今,隨著企業(yè)開始部署自主智能體大軍,一個關(guān)鍵問題浮出水面:在未來幾年,我們?nèi)绾畏乐惯@些強大的工具陷入混亂?在Trevolution,我們選擇的不是束縛我們的雄心,而是重新設(shè)計它。

我們自己在2023年開發(fā)AI的旅程,起步并不順利:我們當(dāng)時正在為客戶支持構(gòu)建和測試一個名為Olivia的聊天機器人。它能回答簡單的問題——功能大致相當(dāng)于早期的ChatGPT;僅此而已。理論上聽起來不錯,但我們的市場分析表明,其真實世界的應(yīng)用效用有限。分析揭示,旅行領(lǐng)域的客戶聯(lián)系客服,不是為了聊天——他們需要的是執(zhí)行具體的操作。行業(yè)經(jīng)驗表明,客戶通常期望支持系統(tǒng)能處理可操作的請求:改簽航班、修正預(yù)訂、處理退票查詢。然而,Olivia僅僅是一個對話式聊天機器人,缺乏執(zhí)行這些運營任務(wù)的能力,而這些任務(wù)只能由訓(xùn)練有素、擁有適當(dāng)系統(tǒng)訪問權(quán)限的客服人員來完成。

經(jīng)過這次評估,我們決定重新調(diào)整方向,專注于內(nèi)部AI應(yīng)用:測試Olivia如何能輔助員工,而非直接面向客戶。這種方法還降低了復(fù)雜性,提供了更結(jié)構(gòu)化的反饋機制和可控的操作范圍。到2023年底,Olivia已被開發(fā)為一個職責(zé)明確的AI助手,并在受控的測試環(huán)境中,根據(jù)既定指標(biāo)展現(xiàn)出穩(wěn)定的性能,盡管我們知道它的潛力遠(yuǎn)不止于此……

再無回頭路

隨后,行業(yè)迎來了轉(zhuǎn)折點,這源于兩個關(guān)鍵事件:今年3月,OpenAI宣布將代理式AI作為其核心方向(此前已于2024年10月發(fā)布了Swarm)。以及Anthropic早在2024年11月就已發(fā)布的模型上下文協(xié)議(MCP,該協(xié)議在發(fā)布之初反響平平,如今已轉(zhuǎn)變?yōu)槭聦嵣系男袠I(yè)標(biāo)準(zhǔn)。

AI智能體不再是科幻小說。一夜之間,它們變成了現(xiàn)實。因此,我們立即開始開發(fā)一個代理式平臺。這不僅是人與智能體的交互,更是利用Google的A2A協(xié)議實現(xiàn)的智能體之間的通信。目標(biāo)是什么?一個專業(yè)化的團隊,其中每個AI智能體都完美地只做一件事,并共同協(xié)作處理復(fù)雜的工作流。想象一下這樣一支勞動力隊伍:一個智能體負(fù)責(zé)總結(jié)會議,另一個負(fù)責(zé)預(yù)訂航班,第三個負(fù)責(zé)分析客戶通話。所有成員協(xié)同一致地工作。

大多數(shù)公司都搞錯了這一點。他們被第三方供應(yīng)商的營銷話術(shù)和“AI能解決所有問題”的宏大承諾所誘惑,試圖構(gòu)建單體式的、“萬事通”般的智能體。但他們最終往往被幻覺所困擾——智能體能力越強,摔得也越慘。

要么專業(yè),要么失敗

為什么專業(yè)化的、專注于利基市場的AI智能體更優(yōu)越?因為它們在失敗時不會制造混亂。想象一下:一個YouTube摘要智能體,其明確任務(wù)僅僅是總結(jié)YouTube視頻。如果你給它一部BBC紀(jì)錄片,它應(yīng)該簡單地回答:“這不是YouTube。”它不會產(chǎn)生幻覺,更不會(但愿不會)嘗試任何創(chuàng)造性的解決方案。當(dāng)它失敗時,它會干脆利落地失敗。這就是控制。

而讓一個智能體包攬一切,只會招致災(zāi)難。無限的故障點,無限的幻覺。

因此,與其構(gòu)建龐大的AI智能體,不如采納微軟和OpenAI的建議,構(gòu)建“智能體金字塔”:

  • 基礎(chǔ)層:具備原子功能的微智能體(如轉(zhuǎn)錄員、Jira工單提取器、航班改簽器)。

  • 中間層:工具集成商(擁有手術(shù)刀般精準(zhǔn)權(quán)限的MCP服務(wù)器)。

  • 頂層:?編排者智能體(負(fù)責(zé)拆分任務(wù)、管理回退機制、并向人類上報)。

    從本質(zhì)上講,“編排者”像項目經(jīng)理一樣處理任務(wù)。它可以回答“AI智能體團隊的最高優(yōu)先級是什么?”這樣的問題。它會委派任務(wù),例如,讓一個Jira智能體去提取工單或統(tǒng)計數(shù)據(jù),讓一個通話分析智能體去檢查客戶痛點,或者讓一個翻譯智能體去處理外語反饋?!熬幣耪摺必?fù)責(zé)組裝答案,而沒有任何一個單一的智能體能超越其預(yù)設(shè)的邊界。而且,即便其中一個系統(tǒng)出現(xiàn)故障,也不會導(dǎo)致整個鏈路陷入絕對的幻覺混亂。

    這種AI智能體的結(jié)構(gòu),與傳統(tǒng)軟件設(shè)計中的微服務(wù)架構(gòu)非常相似——微服務(wù)的大多數(shù)原則都可以應(yīng)用于代理式架構(gòu)。


工具,才是你的“終止開關(guān)”

保證成功創(chuàng)建AI智能體隊列的另一種方法是:忘掉控制智能體本身;去控制它們的工具。從本質(zhì)上講,MCP服務(wù)器決定了你的智能體能做什么。所以,假設(shè)一個工具有刪除所有JIRA工單的能力。如果是這樣,那么這件事最終一定會發(fā)生——總有一天,某個智能體會產(chǎn)生幻覺并刪除所有東西??梢詫⑵湟暈椤?/span>AI幻覺必然性的墨菲定律”——這不是“是否”會發(fā)生的問題,而是“何時”會發(fā)生的問題。

因此,真正的代理式AI安全,與LLM(大語言模型)無關(guān),而與工具有關(guān)。以GitLab的MCP為例,恰當(dāng)?shù)陌踩胧┎皇峭ㄟ^系統(tǒng)提示來配置LLM,而是在MCP本身內(nèi)部正確地設(shè)置訪問權(quán)限。墨菲定律說:任何可能出錯的事,終將出錯。所以,如果MCP允許了不希望發(fā)生的操作——如刪除代碼、修改代碼庫等——你可以確定它們最終會發(fā)生。真正的安全,來自于僅向智能體(通過MCP)授予它真正需要的最小必需權(quán)限

  • 這個工具可能導(dǎo)致的最壞行為是什么?

  • 我們可以“砍掉”哪些權(quán)限?

  • 我們?nèi)绾斡涗浢恳淮谓换ィ?/span>

    At Trevolution,我們遵循最小必需權(quán)限的理念。貪婪的工具會創(chuàng)造魯莽的智能體。例如,想一想,如果我們給一個AI智能體不必要的寫權(quán)限去重寫航班定價算法,會發(fā)生什么。想象一下2024年的CrowdStrike IT中斷事件,但威力被放大了數(shù)倍。潛在的損害可能需要數(shù)天——如果不是數(shù)周——才能修復(fù)。

回退機制,并非可選項

智能體會失敗。所以IT領(lǐng)導(dǎo)層應(yīng)該為此做好計劃,因為“理想路徑測試”會扼殺系統(tǒng)。要去測試那些“丑陋”的路徑

智能體必須能即時地傳達失敗。利用A2A協(xié)議,它們向“編排者”發(fā)出信號:“無法處理此任務(wù)。”“編排者”則將任務(wù)重新路由或上報給人類同事。沒有無聲的錯誤,沒有猜測。

以會議摘要為例。一個合格的智能體需要三個工具:會議音頻提取、語音轉(zhuǎn)文本服務(wù)和摘要引擎。現(xiàn)在,如果語音轉(zhuǎn)文本失敗,智能體就報告:“音頻處理不可用?!薄熬幣耪摺彪S即將任務(wù)路由給一位人類。干凈,可預(yù)測。

困難之處

這是沒人會告訴你的:設(shè)置AI智能體本身相對容易。任何開發(fā)者用幾個好的提示詞就能創(chuàng)建一個。打造它們的工具——構(gòu)建MCP服務(wù)器?也不是什么高科技。但最困難的部分,是讓智能體與MCP服務(wù)器可靠地協(xié)同工作。

我們使用一個簡單但殘酷的矩陣來確定工具的優(yōu)先級:

  • 縱軸:實施的簡易度(例如,我們能直接用GitLab的MCP嗎?)

  • 橫軸: 業(yè)務(wù)影響力(例如,這能將30%的手動工作自動化嗎?)

    高影響、易于實現(xiàn)的工具應(yīng)該最先構(gòu)建。想一想一個Confluence搜索智能體,它能閱讀文檔并回答員工問題。影響力:巨大。實施:使用Atlassian現(xiàn)成的MCP。

    一個定制的航班預(yù)訂工具?那就另當(dāng)別論了。需要一些時間來構(gòu)建MCP服務(wù)器,再花一周進行安全審查。結(jié)果:一個能檢查航班可用性但不能預(yù)訂機票的智能體。為什么?因為現(xiàn)在就給它預(yù)訂權(quán)限是貪婪的,是不必要的魯莽。

不祥之兆已現(xiàn)

到2026年初,AI智能體將能編寫自己的工具??膳聠幔恐挥性谀愫翢o準(zhǔn)備的情況下才可怕。

模式很清晰:

  1. 智能體識別出一個缺失的能力(例如,“需要Instagram視頻摘要功能”)。

  2. 智能體為Instagram API工具編寫Python代碼。

  3. 智能體將新代碼添加到其可用工具集中。

    一個名為“自我完善的AI”的美好時間線中,也預(yù)言了類似的事情。目前,這還是一個受監(jiān)督的體驗。到2026年,這將有可能在完全沒有任何人類參與的情況下完成。

  4. CIO的2025年行動計劃

  5. 將單體式的AI智能體,打碎為微觀專家。一個智能體,一個任務(wù)。

  6. 為你的工具戴上手銬。最小必需權(quán)限優(yōu)先。只有在經(jīng)過十次審查后,才能授予額外訪問權(quán)限。允許刪除權(quán)限——幾乎永不。

  7. 將“編排者”部署為中樞神經(jīng)系統(tǒng)。它們負(fù)責(zé)任務(wù)拆分、故障路由和向人類上報。

  8. 記錄一切: 每一個智能體的行動,每一次工具的使用,每一次失敗。與破產(chǎn)相比,存儲是廉價的。

    長話短說:停止追逐超級智能體,你的智能體勞動力,其可靠性,將完全取決于你的工具被約束的程度?;靵y并非不可避免;它是一個設(shè)計缺陷。通過專業(yè)化、工具治理和徹底的可觀測性來馴服它。否則,就等著看你的AI勞動力隊伍內(nèi)爆吧。

    我們選擇控制。不要貪婪。


睿觀:

1.【核心挑戰(zhàn):從“超級智能體”的幻想到“設(shè)計缺陷”的現(xiàn)實】

隨著代理式AI(Agentic AI)從科幻變?yōu)楝F(xiàn)實,許多企業(yè)被其“無所不能”的宏大承諾所吸引,試圖構(gòu)建一個能解決所有問題的、強大的“單體式超級智能體”。然而,這種做法往往會陷入“無限故障點和無限幻覺”的災(zāi)難性循環(huán)。其根本原因在于,領(lǐng)導(dǎo)者們將AI的安全與可靠性,錯誤地寄托于提升模型本身的能力,而忽視了一個更根本的問題:混亂并非AI的固有屬性,而是一個設(shè)計缺陷。

2.【應(yīng)對策略:以“微服務(wù)”思想,馴服AI智能體】

要成功駕馭這支新興的“自主勞動力”,關(guān)鍵在于摒棄“超級智能體”的幻想,轉(zhuǎn)向深刻的專業(yè)化。成功的策略借鑒了微服務(wù)架構(gòu)思想,即構(gòu)建一個“智能體金字塔”:基礎(chǔ)層由大量只負(fù)責(zé)單一原子功能的“微智能體”構(gòu)成;頂層則由一個“編排者”智能體,像項目經(jīng)理一樣,將復(fù)雜任務(wù)拆解并分配給下層的專家。在這種架構(gòu)下,安全的核心不再是試圖控制深不可測的LLM(大語言模型),而是轉(zhuǎn)為嚴(yán)格控制智能體可用的“工具”。通過模型上下文協(xié)議(MCP),為每個工具都“戴上手銬”,僅授予其完成任務(wù)所需的最小必需權(quán)限,并為每一次失敗都設(shè)計好清晰的“回退機制”。

3.【結(jié)論與啟示:混亂是設(shè)計缺陷,而非必然】

因此,對CIO(首席信息官)而言,2025年的行動計劃清晰而明確:停止追逐超級智能體。成功的關(guān)鍵,在于將安全與控制的重心,從虛無縹緲的模型本身,轉(zhuǎn)移到具體、可控的工具治理和架構(gòu)設(shè)計上。通過推行專業(yè)化、為工具設(shè)定嚴(yán)格的權(quán)限邊界、規(guī)劃好失敗路徑,并建立徹底的可觀測性來記錄一切,企業(yè)才能將AI的巨大潛力,轉(zhuǎn)化為一支可靠、可控、可預(yù)測的數(shù)字勞動力。智能體勞動力隊伍的可靠性,將完全取決于其工具被約束的程度?;靵y不是必然的,而是可以選擇避免的。

小結(jié)

如何馴服AI(人工智能)智能體?關(guān)鍵是摒棄“超級智能體”幻想,轉(zhuǎn)向?qū)I(yè)化。借鑒微服務(wù)思想,構(gòu)建由“原子功能”微智能體組成的金字塔。安全的核心不是控制智能體,而是為其工具“戴上手銬”,授予最小權(quán)限,并設(shè)計好回退機制?;靵y是設(shè)計缺陷,而非必然。

金句

在代理式AI的世界里,不要試圖去訓(xùn)練一個更聰明的“大腦”,而要學(xué)會如何打造一個更安全的“工具箱”。



專業(yè)書籍推薦


書籍名稱:Building Microservices: Designing Fine-Grained Systems(中譯:《微服務(wù)設(shè)計》)

    • 作者:Sam Newman

    • 推薦理由:本文明確指出,“智能體金字塔”的架構(gòu)思想與微服務(wù)非常相似。這本書是微服務(wù)領(lǐng)域的權(quán)威著作,深刻闡述了單一職責(zé)、松耦合、獨立部署等核心原則,對于任何希望將這些經(jīng)過實戰(zhàn)檢驗的軟件工程思想,應(yīng)用于構(gòu)建可靠、可擴展的AI智能體系統(tǒng)的架構(gòu)師和技術(shù)領(lǐng)導(dǎo)者來說,都是必讀之作。

方山县| 文登市| 驻马店市| 澄江县| 德江县| 吉水县| 镇宁| 平乐县| 镇赉县| 神农架林区| 瑞金市| 桃江县| 九寨沟县| 赣榆县| 正安县| 拉孜县| 大荔县| 余庆县| 新宁县| 昌邑市| 临汾市| 稻城县| 即墨市| 龙海市| 府谷县| 团风县| 杭州市| 洱源县| 卓资县| 揭阳市| 沂南县| 广宁县| 新龙县| 南宫市| 化德县| 乌审旗| 扬州市| 宜兰市| 渝北区| 平泉县| 郸城县|