AI热点 5小时前 141 阅读 0 评论

Agent应用爆发,谁成为向上托举的力量?

作者头像
AI中国

AI技术专栏作家 | 发布了 246 篇文章

经过两年多的发展后,AI开始加速进入Agent时代。

当AI从“被动响应”迈向“主动决策”,AI Agent正成为连接数字世界与物理世界的核心枢纽。

从自动处理客户服务工单的企业Agent,到协调多步骤科研实验的学术Agent,再到管理智能家居生态的个人Agent,这种具备推理、规划、记忆与工具使用能力的智能体,正在重塑产业形态。

但支撑其智能的,是一套复杂且精密的基础设施——它不仅包含算法与模型,更涵盖从研发到部署、从协作到运维的全生命周期支撑体系。

2025年,AI Agentic基础设施(Agent Infra)迎来爆发拐点。DeepSeek、Qwen等开源大模型的突破为 Agent提供了强大的认知“大脑”,而模型上下文协议(MCP)的生态繁荣则赋予其灵活“四肢”。

据IDC预测,全球80%企业将在年内部署Agent。“大脑”与“四肢”的协同进化,正在倒逼承载二者的“躯干”全面升级,Agent Infra成为技术攻坚的核心战场。

Agent企业应用

面临五大痛点

利用AI的能力将工作流程自动化,这类产品早已有之。在生成式AI出现之前,就有RPA类产品大行其道。

但限于当时的AI能力还较弱,RPA只能将简单的单一工作流程自动化,不具备真正的智能,不能解决复合化的复杂问题。

直到生成式AI出现,各种真正具备智能的Agent应用出现,人们才从AI自动化中获得了很好的效率提升。

Agent本质是一个能调用各种工具的AI。比如Manus,它用提示词控制AI模型,并编排了一个精巧的工作流(Work Flow),让AI模型使用各种不同的工具,然后完成一个复杂的任务。

但是,无论是以DeepResearch为代表的研究类Agent应用,还是Manus这样的通用Agent应用,都是通过网页或App的形式对终端的用户提供。

这种提供方式,并不适合专业的AI开发者,AI创业者和企业用户。因为他们的需求是让Agent使用专有的数据,无缝地嵌入到业务中,为业务持续提供价值。

商业化使用Agent,首先遇到的就是终端性能,但当一个功能强大的Agent在用户本地的终端运行时,会遇到各种各样的问题。

首当其冲的是AI推理的算力限制。Agent由一个能力强大的AI模型及一堆供它调用的工具链组成。

运行能力强大的AI模型,通常需要AI专用的算力,由GPU或AI专用芯片提供,几乎没有消费级的PC或手机能部署高精度的大模型本体。因此,目前大量的Agent公司都采用了云端算力的方式,将模型的训练和推理都放在云端完成。

其次是执行任务的算力。Agent任务具有高并发、高算力需求的特点,企业在本地部署了Agent后,当Agent支持的业务量开始快速增长时,马上就需要更多算力,本地部署的速度跟不上;反过来,当这个业务闲置时,又没有那么多算力需求,会对企业造成巨大资源浪费。

比如Manus在初期是用本地服务器的虚拟机去做任务,这也导致它在用户大量涌入的时候,出现了性能不足、服务不稳定的情况,一定程度上影响了初期口碑。

再次是AI工具配置麻烦。Agent若不能调用工具,就很难具备解决复杂问题的能力。

例如,要搭建一个销售类Agent,它需要调用CRM获取客户信息,调用内部的知识库以备自动向客户介绍产品,还需要调用各种通讯工具以便直接触及到客户。

国内各地已经有不少的智算中心,可以初步缓解算力限制问题,但是这些智算中心却只提供算力,不提供搭建Agent需要的各种工具链。

企业要定制与业务紧密耦合的Agent,就需要自己搭建工具链。这是一个很复杂的工程,一方面需要很高的开发成本,另一方面,在Agent正式部署前,需要不短的开发时间,这反而会延缓企业的业务发展速度。

当解决了算力限制和AI工具配置的问题后,专业AI开发者和企业用户马上会遇到第三个问题是权限冲突。

开发和部署Agent的目的,是将其嵌入到自己的业务中。而这个过程,除了要调用各种各样的工具以外,还需要与业务中的各类软件紧密配合。

以销售类Agent为例,当它调用CRM,内部知识库和对外通讯工具时,不仅会占用本地计算资源,更麻烦的是,它会抢占人类员工的访问和操作权限。

当Agent不是与人类协同,而是互相内耗时,反而可能拉低整个团队的整体工作效率。

对于企业用户,还有一个大问题,就是安全性差。企业使用Agent的目的就是要增强自己的业务,或者提高员工的效率,这势必需要使用公司的内部数据。

但是Agent任务执行是一个黑盒子,执行过程对于用户来说是不透明的,有可能对本地电脑文件系统进行修改、删减等操作,轻则留下垃圾文件造成系统臃肿,重则造成文件丢失或数据泄露。

更进一步,其实Agent在调用工具时,本身就会有安全隐患。

据统计,超过43%的MCP服务节点存在未经验证的Shell调用路径,超过83%的部署存在MCP配置漏洞;88%的AI组件部署根本没启用任何形式的防护机制。

当未来Agent的使用越来越普及,安全和信任的重要性,在AI时代比在互联网时代更加重要。

当真正把本地部署Agent用起来后,企业还会面临一个问题,就是Agent缺乏长期记忆。

当缺乏语义记忆和场景记忆,Agent能完成一次性的任务,这会严重影响Agent在企业业务中的使用范围。

当企业用户将Agent用到业务中时,如果能为其赋予长期记忆,那么Agent除了能够完成多次任务,企业还可以根据这些记忆迭代Agent,使其对业务或用户的理解越来越深,在特定任务上的能力越来越强。

Agent Infra乘风而来

如今,云厂商竞相推出新一代Agent Infra技术架构。

比如AWS 推出AgentCore(预览版),其基于Lambda FaaS基础设施深度定制和优化的全托管运行时,为Bedrock Agents解决了标准Lambda的关键限制,如长时执行、状态记录、会话隔离等。

Azure则推出AI Foundry Agent Service,集成Functions FaaS事件驱动使得Agent Service能够利用Serverless计算的事件驱动、可扩展性和灵活性,更轻松地构建和部署Agent。

Google Cloud推出Vertex AI Agent Builder,官方虽未明确但普遍推断其高度依赖并优化了Cloud Run(Cloud Functions 2nd Gen已经基于Cloud Run来构建)来支撑长时运行、并发和有状态的需求。

阿里云推出函数计算Function AI,官方明确基于FC FaaS的Serverless x AI运行时深度优化,推出模型服务、工具服务、Agent 服务,开发者可自主选择模型、运行时、工具的一个或多个以组装式设计构建和部署Agent。

PPIO推出国内首个Agentic AI基础设施服务平台——AI智能体,该AI智能体平台产品分为通用版和企业版。

通用版以分布式GPU云底座为支撑,发布中国首款兼容E2B接口的Agent沙箱,以及更适用于Agent构建的模型服务。

Agent沙箱专为Agent执行任务设计的云端安全运行环境,支持动态调用Browser use、Computer use、MCP、RAG、Search等各种工具,为Agent赋予安全可靠、高效敏捷的“手和脚”。目前,该沙箱已接入Camel AI、OpenManus、Dify等著名开源项目。

这些技术共同指向同一目标——为Agent提供更高弹性、更低延迟、更强安全、更长会话的“躯干”,支撑其从实验室迈向千万级企业场景。

当认知与行动完成闭环,Agent Infra的技术代差将决定企业AI创新和转型的落地速度与质量。

Agent开发范式的演进对底层基础设施提出了全新要求。

各大云厂商的新一代 Agent Infra聚焦长时运行、会话亲和、会话隔离、企业级IAM和VPC及模型/框架开放等技术突破,本质上是为满足三类核心Agent形态的共性需求。

首先是LLM Agent连续调用工具的强诉求。LLM Agent需连续调用工具链完成复杂推理,可能跨越数分钟甚至数小时。

传统Serverless的执行时长限制(如 AWS Lambda 的15分钟上限)会强制中断任务,因此新一代Agent Infra必须突破该限制,支持长时运行。

同时,为维持多轮对话的上下文一致性,需会话亲和确保同一请求路由到同一计算实例,避免状态丢失。

其次,Workflow Agent对状态管理的依赖。自动化工作流(如数据处理 Pipeline)需持久化记录执行状态。

传统Serverless的无状态特性无法保存中间结果,而新一代Agent Infra通过提供有状态会话保障工作流的原子性和可恢复性。会话隔离则确保多租户或高并发场景下任务互不干扰,满足企业级安全合规要求。

第三,Custom Agent的灵活性与生态整合。Custom Agent需集成异构工具(API、领域模型、数据库、Code Interpreter、Browser Use等),要求新一代Agent Infra支持模型/框架开放(如 AutoGen、LangChain、AgentScope)。

封闭式架构会限制Agent能力扩展,而云厂商通过解耦计算层与框架层,可提供插件化集成接口。

新一代Agent Infra在保留Serverless核心优势(全托管免运维、轻量弹性更经济)的同时,通过关键功能(长时运行、会话亲和/会话隔离)和技术突破(状态持久化、冷启动优化、开放集成),解决了LLM Agent的持续推理、Workflow Agent的复杂状态流转、Custom Agent的灵活定制等核心需求。

这标志着Agent开发正从“手动拼凑传统组件”转向“利用原生Infra实现高效、安全、可扩展的开发部署”这一全新的技术路径。

随着Agent应用进一步加速,Agent Infra成为模型公司、云厂商、初创公司都在积极拓展的领域。除了云巨头外,创业公司在这个领域也有不小的机会。

首先,是在已有Infra中寻找有AI-native需求的环节。这种需求可以是Agent开发对该环节的某些性能提出了更高的要求,例如Sandbox需要更快冷启动速度、更强的隔离性;这种需求也可以是需要和AI workflow结合的更好,有更多AI-native的功能点,例如增加RAG功能,或者和某些AI开发者常用的语言或SDK有更好的结合。

其次,抓住Agent开发中的新痛点。Agent开发要追求R&D和时间投入的ROI,对降低开发门槛和工程量的Infra产品有较大需求,因此一套易用性高且价格合理的Infra就有机会被广泛采用。而且Agent生态是一个强调共建的生态系统,而Infra的持续创新,正在大力推动这种生态的构建。

当开发一个Agent变得像组装乐高积木一样便捷,当Agent协作网络渗透到社会的每个角落,我们将不再争论“这是风口还是泡沫”,因为这是一个正在到来的新未来。

本文来自微信公众号“科技云报道”(ID:ITCloud-BD),作者:科技云报到,36氪经授权发布。

作者头像

AI前线

专注人工智能前沿技术报道,深入解析AI发展趋势与应用场景

246篇文章 1.2M阅读 56.3k粉丝

评论 (128)

用户头像

AI爱好者

2小时前

这个更新太令人期待了!视频分析功能将极大扩展AI的应用场景,特别是在教育和内容创作领域。

用户头像

开发者小明

昨天

有没有人测试过新的API响应速度?我们正在开发一个实时视频分析应用,非常关注性能表现。

作者头像

AI前线 作者

12小时前

我们测试的平均响应时间在300ms左右,比上一代快了很多,适合实时应用场景。

用户头像

科技观察家

3天前

GPT-4的视频处理能力已经接近专业级水平,这可能会对内容审核、视频编辑等行业产生颠覆性影响。期待看到更多创新应用!