你好,欢迎您来到福建信息主管(CIO)网! 设为首页|加入收藏|会员中心
您现在的位置:>> 新闻资讯 >>
驯服代理式AI(Agentic AI)智能体:2026年的自主劳动力
作者:CI0.com&睿观 来源:CIOCDO 发布时间:2025年10月09日 点击数:

到2026年,AI智能体将运行各种工作流——但前提是,我们必须停止追逐“超级智能体”的幻想,并精心设计它们,让其各司其职,永不越界。

来源:Gremlin / Getty Images

2023年,聊天机器人还只是在回答问题。到2025年,AI智能体已能从零开始编写代码、设计完整的应用程序和服务,并对任何主题进行深入的、近乎科学级别的研究。如今,随着企业开始部署自主智能体大军,一个关键问题浮出水面:在未来几年,我们如何防止这些强大的工具陷入混乱?在Trevolution,我们选择的不是束缚我们的雄心,而是重新设计它。

我们自己在2023年开发AI的旅程,起步并不顺利:我们当时正在为客户支持构建和测试一个名为Olivia的聊天机器人。它能回答简单的问题——功能大致相当于早期的ChatGPT;仅此而已。理论上听起来不错,但我们的市场分析表明,其真实世界的应用效用有限。分析揭示,旅行领域的客户联系客服,不是为了聊天——他们需要的是执行具体的操作。行业经验表明,客户通常期望支持系统能处理可操作的请求:改签航班、修正预订、处理退票查询。然而,Olivia仅仅是一个对话式聊天机器人,缺乏执行这些运营任务的能力,而这些任务只能由训练有素、拥有适当系统访问权限的客服人员来完成。

经过这次评估,我们决定重新调整方向,专注于内部AI应用:测试Olivia如何能辅助员工,而非直接面向客户。这种方法还降低了复杂性,提供了更结构化的反馈机制和可控的操作范围。到2023年底,Olivia已被开发为一个职责明确的AI助手,并在受控的测试环境中,根据既定指标展现出稳定的性能,尽管我们知道它的潜力远不止于此……

再无回头路

随后,行业迎来了转折点,这源于两个关键事件:今年3月,OpenAI宣布将代理式AI作为其核心方向(此前已于2024年10月发布了Swarm)。以及Anthropic早在2024年11月就已发布的模型上下文协议(MCP,该协议在发布之初反响平平,如今已转变为事实上的行业标准。

AI智能体不再是科幻小说。一夜之间,它们变成了现实。因此,我们立即开始开发一个代理式平台。这不仅是人与智能体的交互,更是利用Google的A2A协议实现的智能体之间的通信。目标是什么?一个专业化的团队,其中每个AI智能体都完美地只做一件事,并共同协作处理复杂的工作流。想象一下这样一支劳动力队伍:一个智能体负责总结会议,另一个负责预订航班,第三个负责分析客户通话。所有成员协同一致地工作。

大多数公司都搞错了这一点。他们被第三方供应商的营销话术和“AI能解决所有问题”的宏大承诺所诱惑,试图构建单体式的、“万事通”般的智能体。但他们最终往往被幻觉所困扰——智能体能力越强,摔得也越惨。

要么专业,要么失败

为什么专业化的、专注于利基市场的AI智能体更优越?因为它们在失败时不会制造混乱。想象一下:一个YouTube摘要智能体,其明确任务仅仅是总结YouTube视频。如果你给它一部BBC纪录片,它应该简单地回答:“这不是YouTube。”它不会产生幻觉,更不会(但愿不会)尝试任何创造性的解决方案。当它失败时,它会干脆利落地失败。这就是控制。

而让一个智能体包揽一切,只会招致灾难。无限的故障点,无限的幻觉。

因此,与其构建庞大的AI智能体,不如采纳微软和OpenAI的建议,构建“智能体金字塔”:

  • 基础层:具备原子功能的微智能体(如转录员、Jira工单提取器、航班改签器)。

  • 中间层:工具集成商(拥有手术刀般精准权限的MCP服务器)。

  • 顶层: 编排者智能体(负责拆分任务、管理回退机制、并向人类上报)。

    从本质上讲,“编排者”像项目经理一样处理任务。它可以回答“AI智能体团队的最高优先级是什么?”这样的问题。它会委派任务,例如,让一个Jira智能体去提取工单或统计数据,让一个通话分析智能体去检查客户痛点,或者让一个翻译智能体去处理外语反馈。“编排者”负责组装答案,而没有任何一个单一的智能体能超越其预设的边界。而且,即便其中一个系统出现故障,也不会导致整个链路陷入绝对的幻觉混乱。

    这种AI智能体的结构,与传统软件设计中的微服务架构非常相似——微服务的大多数原则都可以应用于代理式架构。


工具,才是你的“终止开关”

保证成功创建AI智能体队列的另一种方法是:忘掉控制智能体本身;去控制它们的工具。从本质上讲,MCP服务器决定了你的智能体能做什么。所以,假设一个工具有删除所有JIRA工单的能力。如果是这样,那么这件事最终一定会发生——总有一天,某个智能体会产生幻觉并删除所有东西。可以将其视为“AI幻觉必然性的墨菲定律”——这不是“是否”会发生的问题,而是“何时”会发生的问题。

因此,真正的代理式AI安全,与LLM(大语言模型)无关,而与工具有关。以GitLab的MCP为例,恰当的安全措施不是通过系统提示来配置LLM,而是在MCP本身内部正确地设置访问权限。墨菲定律说:任何可能出错的事,终将出错。所以,如果MCP允许了不希望发生的操作——如删除代码、修改代码库等——你可以确定它们最终会发生。真正的安全,来自于仅向智能体(通过MCP)授予它真正需要的最小必需权限

  • 这个工具可能导致的最坏行为是什么?

  • 我们可以“砍掉”哪些权限?

  • 我们如何记录每一次交互?

    At Trevolution,我们遵循最小必需权限的理念。贪婪的工具会创造鲁莽的智能体。例如,想一想,如果我们给一个AI智能体不必要的写权限去重写航班定价算法,会发生什么。想象一下2024年的CrowdStrike IT中断事件,但威力被放大了数倍。潜在的损害可能需要数天——如果不是数周——才能修复。

回退机制,并非可选项

智能体会失败。所以IT领导层应该为此做好计划,因为“理想路径测试”会扼杀系统。要去测试那些“丑陋”的路径

智能体必须能即时地传达失败。利用A2A协议,它们向“编排者”发出信号:“无法处理此任务。”“编排者”则将任务重新路由或上报给人类同事。没有无声的错误,没有猜测。

以会议摘要为例。一个合格的智能体需要三个工具:会议音频提取、语音转文本服务和摘要引擎。现在,如果语音转文本失败,智能体就报告:“音频处理不可用。”“编排者”随即将任务路由给一位人类。干净,可预测。

困难之处

这是没人会告诉你的:设置AI智能体本身相对容易。任何开发者用几个好的提示词就能创建一个。打造它们的工具——构建MCP服务器?也不是什么高科技。但最困难的部分,是让智能体与MCP服务器可靠地协同工作。

我们使用一个简单但残酷的矩阵来确定工具的优先级:

  • 纵轴:实施的简易度(例如,我们能直接用GitLab的MCP吗?)

  • 横轴: 业务影响力(例如,这能将30%的手动工作自动化吗?)

    高影响、易于实现的工具应该最先构建。想一想一个Confluence搜索智能体,它能阅读文档并回答员工问题。影响力:巨大。实施:使用Atlassian现成的MCP。

    一个定制的航班预订工具?那就另当别论了。需要一些时间来构建MCP服务器,再花一周进行安全审查。结果:一个能检查航班可用性但不能预订机票的智能体。为什么?因为现在就给它预订权限是贪婪的,是不必要的鲁莽。

不祥之兆已现

到2026年初,AI智能体将能编写自己的工具。可怕吗?只有在你毫无准备的情况下才可怕。

模式很清晰:

  1. 智能体识别出一个缺失的能力(例如,“需要Instagram视频摘要功能”)。

  2. 智能体为Instagram API工具编写Python代码。

  3. 智能体将新代码添加到其可用工具集中。

    一个名为“自我完善的AI”的美好时间线中,也预言了类似的事情。目前,这还是一个受监督的体验。到2026年,这将有可能在完全没有任何人类参与的情况下完成。

  4. CIO的2025年行动计划

  5. 将单体式的AI智能体,打碎为微观专家。一个智能体,一个任务。

  6. 为你的工具戴上手铐。最小必需权限优先。只有在经过十次审查后,才能授予额外访问权限。允许删除权限——几乎永不。

  7. 将“编排者”部署为中枢神经系统。它们负责任务拆分、故障路由和向人类上报。

  8. 记录一切: 每一个智能体的行动,每一次工具的使用,每一次失败。与破产相比,存储是廉价的。

    长话短说:停止追逐超级智能体,你的智能体劳动力,其可靠性,将完全取决于你的工具被约束的程度。混乱并非不可避免;它是一个设计缺陷。通过专业化、工具治理和彻底的可观测性来驯服它。否则,就等着看你的AI劳动力队伍内爆吧。

    我们选择控制。不要贪婪。


睿观:

1.【核心挑战:从“超级智能体”的幻想到“设计缺陷”的现实】

随着代理式AI(Agentic AI)从科幻变为现实,许多企业被其“无所不能”的宏大承诺所吸引,试图构建一个能解决所有问题的、强大的“单体式超级智能体”。然而,这种做法往往会陷入“无限故障点和无限幻觉”的灾难性循环。其根本原因在于,领导者们将AI的安全与可靠性,错误地寄托于提升模型本身的能力,而忽视了一个更根本的问题:混乱并非AI的固有属性,而是一个设计缺陷。

2.【应对策略:以“微服务”思想,驯服AI智能体】

要成功驾驭这支新兴的“自主劳动力”,关键在于摒弃“超级智能体”的幻想,转向深刻的专业化。成功的策略借鉴了微服务架构思想,即构建一个“智能体金字塔”:基础层由大量只负责单一原子功能的“微智能体”构成;顶层则由一个“编排者”智能体,像项目经理一样,将复杂任务拆解并分配给下层的专家。在这种架构下,安全的核心不再是试图控制深不可测的LLM(大语言模型),而是转为严格控制智能体可用的“工具”。通过模型上下文协议(MCP),为每个工具都“戴上手铐”,仅授予其完成任务所需的最小必需权限,并为每一次失败都设计好清晰的“回退机制”。

3.【结论与启示:混乱是设计缺陷,而非必然】

因此,对CIO(首席信息官)而言,2025年的行动计划清晰而明确:停止追逐超级智能体。成功的关键,在于将安全与控制的重心,从虚无缥缈的模型本身,转移到具体、可控的工具治理和架构设计上。通过推行专业化、为工具设定严格的权限边界、规划好失败路径,并建立彻底的可观测性来记录一切,企业才能将AI的巨大潜力,转化为一支可靠、可控、可预测的数字劳动力。智能体劳动力队伍的可靠性,将完全取决于其工具被约束的程度。混乱不是必然的,而是可以选择避免的。

小结

如何驯服AI(人工智能)智能体?关键是摒弃“超级智能体”幻想,转向专业化。借鉴微服务思想,构建由“原子功能”微智能体组成的金字塔。安全的核心不是控制智能体,而是为其工具“戴上手铐”,授予最小权限,并设计好回退机制。混乱是设计缺陷,而非必然。

金句

在代理式AI的世界里,不要试图去训练一个更聪明的“大脑”,而要学会如何打造一个更安全的“工具箱”。



专业书籍推荐


书籍名称:Building Microservices: Designing Fine-Grained Systems(中译:《微服务设计》)

    • 作者:Sam Newman

    • 推荐理由:本文明确指出,“智能体金字塔”的架构思想与微服务非常相似。这本书是微服务领域的权威著作,深刻阐述了单一职责、松耦合、独立部署等核心原则,对于任何希望将这些经过实战检验的软件工程思想,应用于构建可靠、可扩展的AI智能体系统的架构师和技术领导者来说,都是必读之作。