红杉美国合伙人 Konstantine Buhler 预测 2025 年将成为 AI agent 的“群体协作”时代,标志着 Agent 元年的到来。但实际上,直到昨天,7 月 16 日,面向生产环境的 AI Agent 搭建仍然只停留在工具、平台、产品的层面,远远称不上端到端服务。
形成这种局面的本质原因是,Agentic AI 落地生产环境,不仅需要完善的功能,更需要一个完善的运行时环境,包括最基本的身份验证、数据隔离,以及对不同模型、框架的兼容性要好。从业务的角度看,该套系统要了解业务上下文,要有基本的业务压力承载能力,不能只做成“玩具”。从用户体验上来看,这些需求,需要在一个统一的平台上被完整实现,避免大量的第三方工具被以不同的逻辑集成,导致企业的研发标准沦为空谈。
因此,当年初 Manus 引起“套壳”争议时,围绕该产品技术含量的社区讨论,并未呈现一边倒的状态——实在是因为 Agentic AI 在平台、工程层面的工作量也很大,要做好并不容易。
当然,以上一切围绕 Agentic AI 的讨论,从现在起,都成了过去式。
AWS 一口气完成了从 Amazon S3 Vector Buckets 到 Amazon Marketplace 等一系列产品的发布,尤其是 Amazon Bedrock AgentCore ,作为交付企业级 AI Agents 的核心,引起了广泛关注。又划掉一项重要待办的 AWS Agentic AI 副总裁 Swami ,在 AWS 纽约峰会的 Keynote 分享中,笑得非常开心。
AaaS (Agent as a Service)或者 MAaaS(Muti-Agent as a Service) 2024 年开始被研究机构广泛提出;2025 年初,刚刚由信通院牵头,发起评估计划;到了年中,就几乎被 AWS 给完整实现了。
一场考试刚刚开始就有人交卷,不得不让人感叹,云计算行业的迭代速度,丝毫不输基础模型领域。
1看懂 Amazon Bedrock AgentCore,也就看懂了亚马逊的“野心”
在这次围绕 Agentic AI 规模宏大的升级中,Amazon Bedrock AgentCore 是绝对“C 位”。
官方的介绍是,Amazon Bedrock AgentCore 是一套完整的企业级服务解决方案,能够帮助开发者快速、安全地规模化部署和运行 AI Agent,支持任意开发框架,可对接 Amazon Bedrock 托管或第三方平台部署的各类 AI 模型,加速 Agent 从 POC(概念验证)走向生产部署。
有接近 AWS 的人士称,Amazon Bedrock AgentCore 的野心很大,更像是要重塑软件开发架构——传统软件开发依赖传统云原生开发环境,比如 Docker、K8s、CI/CD 等。如果企业继续使用这种方案,那 Agentic AI 的采用将会继续处于初期,无法从 POC 落到真正的生产中间。
因此,在 Agent 时代的开发架构,会依赖像 Amazon Bedrock AgentCore 这样的解决方案,该方案共包括 7 个模块:AgentCore Runtime(运行时环境)、AgentCore Memory(记忆系统)、AgentCore Observability(可观测性)、AgentCore Identity(身份管理)、AgentCore Gateway(网关服务)、AgentCore Browser(浏览器功能)和 AgentCore Code Interpreter(代码解释器)。
如果将这些服务的定义进一步简化,在笔者看来,Amazon Bedrock AgentCore 可以简单理解为 AWS 版的“AI Agent 超级工厂”。
Amazon Bedrock 最早以“大模型货架”的形态出现在 AWS 的客户面前,其核心理念是“Choice Matters”(选择大于一切),为不同业务提供最契合的基础模型。所以,主流模型会以最快的速度上架 Amazon Bedrock 供客户选用,且整体“供货”数量是市面竞品的两倍以上。
将 AgentCore 归入 Amazon Bedrock 服务簇,等同于紧邻原材料商超,搭建了一座加工工厂,就地取材,加工成 Agent 服务,输送给客户。
这种构想的基础,在于实现一套合规的企业级 Agent 构建环境。于 Amazon Bedrock AgentCore 而言,主要由以下几项服务构成:
- AgentCore Runtime(运行时环境):提供具备会话隔离机制的沙盒化低延迟无服务器环境,支持包括主流开源框架、工具和模型在内的任意 Agent 架构,并能处理多模态工作负载及长时运行 Agent。
- AgentCore Identity(身份管理):支持 AI Agents 安全访问 AWS 服务及 GitHub、Salesforce、Slack 等第三方工具,既可代表用户操作,也可在获得预先授权后自主执行。
- AgentCore Gateway(网关服务):将现有 API 和 Amazon Lambda 函数转化为 Agent 工具,提供跨协议统一访问能力(含 MCP 协议),并支持运行时自动发现功能。
- AgentCore Code Interpreter(代码解释器):提供隔离式代码执行环境,保障生成代码的安全运行。
- AgentCore Observability(可观测性):提供 Agent 执行过程可视化追溯,支持元数据标记、自定义评分、轨迹检查及故障诊断 / 调试过滤器。
当 Agentic AI 有了自己的运行时,可以进行身份管理,兼容老代码、API 和其他工具,可以在沙箱中加载 Python 代码,具备可观测能力方便故障排查与恢复,它已经迈过了落地生产环境的基本门槛。
Amazon Bedrock AgentCore 是为了构建 Agentic AI 专门打造的,支持 MCP 和 A2A,Amazon Bedrock AgentCore Runtime 是唯一支持长达 8 小时长时间运行工作负载的无服务器按使用量计费产品。
8 小时长时间运行工作负载的无服务器产品,某种程度上是云原生对 AI 工作负载的妥协和进化。K8s 的 Pod 设计哲学是“短生命周期、不可变基础设施”;AI 训练 / 推理偏偏是“长驻、有状态”。
此前,行业内普遍默认“无服务器(Serverless)架构仅适用于短任务场景”。具体来看,主流无服务器计算服务的执行时长限制如下:
- Amazon Lambda:默认情况下,单次任务最长执行时间为 15 分钟;
- Amazon Fargate:容器化无服务器任务支持最长 2 小时的持续运行;
- Amazon Step Functions:虽支持最长 1 年的流程编排,但需开发者自行管理状态机逻辑与存储。
在此背景下,Amazon Bedrock AgentCore Runtime 突破了传统限制,将单任务最长执行时间直接扩展至 8 小时,同时保持毫秒级计费模式。这一设计等于在“冷启动快”与“长驻省钱”之间新切出一条新路。
以前需要拆分和预留的 Serverless 服务,今天可以一次性跑完,成本模型从“长租大巴”,变成了“滴滴打表”。但未来云审计报告会把“长时 Serverless”列为头号影子预算来源吗?这也需要引起注意。
AgentCore Memory(记忆系统)、AgentCore Browser(浏览器功能),在笔者看来,属于“彩蛋服务”,前者统一管理会话记忆与长期记忆,为模型提供关联上下文,同时支持 Agent 基于历史交互的持续学习,后者提供托管式浏览器实例,支持自动化网页操作流程扩展。
AgentCore Browser 乍一看,与 2025 年上半年热门的 Agent 操作浏览器填表、操作 APP 点外卖并无太大不同,但本次在 To B 场景一并推出,就有些耐人寻味了。
当前行业数据价值难以充分显露,其部分根因在于:移动互联网在数据共享维度是相对封闭的,不同 APP 的数据几乎不太可能共享,平台方只能一家一家聊数据合作。而 Web 端数据相对开放,现已成为 AI 时代门槛最低的“数据集散中心”。
StatCounter 最新(2025-07)数据显示,Chrome 仍以 68.35% 的市场份额稳居第一。但带有 AI 能力的新浏览器(OpenAI 浏览器、Perplexity Comet、Brave Leo 等)正在不断增长,开始抢占市场份额。
这是为什么作为 Agent 时代的“AI 超级工厂”,Amazon Bedrock AgentCore 一定要提供 AgentCore Browser 服务。
AWS 甚至为此在 4 月单独发布了一个模型 : Amazon Nova Act。由 Amazon AGI Lab 推出,是 Amazon 自研 Nova 系列 LLM 的微调版,专门训练如何在网页上“动手”,让 AI 像人一样直接打开浏览器、点网页、填表单、跑流程,目前已经公布了开源 SDK。
Amazon Nova Act 在 Amazon 内部基准 ScreenSpot Web Text 的测试中,端到端任务完成率达到 94%,高于 OpenAI CUA 在 WebVoyager 测试平台上的成绩: 87%。
对比 2023-2024 年,今天的 Amazon Bedrock 从形态到价值,已经发生了很大变化。AWS 正努力将自己变成“构建和部署 Agents 的最佳平台”(The Best Place To Build And Deploy Agents),而 Amazon Bedrock 在其中起到了承上启下的作用——上方承接的是生态市场以及开发者工具,下方承接的是兼容向量类型数据的存储产品。
2从存储到市场,AWS 的一次“狂奔”
随着企业加大对知识型 Agent 投入,向量数据规模将从数百万升至数十亿甚至更高。这些海量 AI 数据集成为需长期保存的战略资产,用于持续学习、保留历史上下文、支持模型重训练与微调。而在更新嵌入模型时,企业既要用新模型创建向量集,又要归档旧版本以满足合规、审计和性能测试需求。但现有向量存储方案多针对刚性数据和高频查询优化,与 Agent 长期低频访问向量集的需求不匹配,且向量索引膨胀,规模可能远超原始数据,加剧了这一矛盾。
为了解决这一问题,在 Keynote 上,Swami 宣布推出 Amazon S3 Vectors,首次在云对象存储中实现了向量的原生存储、访问、搜索和查询功能,成为首个内置向量支持能力的云对象存储服务。 他将向量称为“AI 的语言”,表示 Agent 依靠向量实现两大关键功能:从历史交互中构建上下文;在海量数据集中发现相似性。
实际上,Amazon Aurora 早在 2023 年就支持向量存储,内置 PGVector 插件,可以实现极致的性能。但能负担 Amazon Aurora 成本的初创企业毕竟还是少数。
此外,Amazon S3 Vectors 的地位实在太特殊,这款发布时间比 EC2 还早,至今已有 19 岁的存储产品,俨然已经是大数据行业的“通用标准”——“先放到 S3 再说”,这句话并非玩笑。
Amazon S3 Vectors 支持向量存储,意味着对于众多对成本敏感的企业来说,可以以非常低廉的价格,存储向量数据,价格远低于 Amazon Aurora。
此外,向量存储的成本,在整个 AI 管线里往往占到大头,“一份原始数据 + N 份向量数据” 是存储的常态。而 Amazon S3 Vectors 可以做到在数据倍增的情况下,成本相对可控。尤其是本次专为向量设计的存储桶类型,官方公布上传 / 存储 / 查询总成本最多降 90%。
降低价格后,AWS 围绕企业级开发者的发布动作也很密集,近几日先后发布了 Amazon Strands Agents SDK 和 Amazon Kiro。
Strands Agents 是一款由 AWS 主导的开源 SDK,采用模型驱动的方法,仅需几行代码即可构建和运行 AI Agent,是所谓“极简主义 AI 代理框架”,不写 DAG、不画节点,只靠 LLM 的规划 + 工具调用就能完成复杂任务。
而 Kiro 是 AWS 发布的「Agentic IDE」预览版,目标是把“氛围编程”升级为“规格驱动开发”的 AI 集成开发环境。它不仅要帮你写代码,更要先把需求、设计、测试、文档全部对齐,再自动生成可上线的工程产物。
Amazon Q Developer 、Amazon CLI 虽然也主要应用于“氛围编程”,但主要以插件形式在现有 IDE 上提供服务,偏 Copilot 模式。而 Kiro 有独立的 UI,与 Cursor 的定位接近,主打 Spec-Driven Development(规范驱动开发),更适合希望在全新窗口下编程的开发者。
Kiro 具有智能代理钩子(intelligent agent hooks),可以自动处理重要但耗时的任务,如生成文档、编写测试和优化性能。这些钩子在后台工作,由保存文件或提交代码等事件触发。对于“拖延症”比较严重的开发者很友好,另外也为未来进一步融入 Muti-agent 工作体系打下了基础。
二者分别服务不同场景,倒也形成了互补。
至于 AWS Marketplace ,则在 2025 纽约峰会上一口气完成了“工具化、生态化、入口化”的三连跳,把原本只卖 SaaS 和 AMI 的“应用商店”升级为 “生成式 AI 时代的企业级能力超市”。核心变化可用一句话概括:用户能像装 App 一样,把 AI Agent 装进自己的账户。
AWS 纽约峰会当天推出了全新的 “AI Agents and Tools” 商品类别,该类别下的商品形态丰富多样,具体包括:
- 即插即用的 Agent 镜像(容器 / AMI / Lambda Layer)
- 符合 MCP 协议的 工具插件(如 CrowdStrike Falcon-MCP、Scale AI GenAI 平台)
- 一键式 CloudFormation / CDK 模板,面向无服务器部署
在搜索体验上,用户用自然语言或行业标签(金融、医疗、制造)即可过滤,搜索结果直接给出预估成本与合规认证标识。
AWS Marketplace 也和 Amazon Bedrock AgentCore 形成了闭环。Amazon Bedrock AgentCore 刚发布 7 大核心服务(Runtime、Memory、Identity 等),Marketplace 立即把“经过认证的第三方 Agent 模板”上架:用户先在 AgentCore 里选好模型,再到 Marketplace 里挑“合规客服 Agent”“日志审计 Agent”,一键部署到 Bedrock Runtime,省去 80% 集成工作量。
峰会期间,AWS 还宣布向生成式 AI 创新中心再注资 1 亿美元,受资助的 30 家初创企业,需将其研发的 Agent 产品率先上架至 Marketplace 平台。
可以预见,未来企业构建 Agentic AI 的进展会非常快。但是,要真正实现 Agentic AI 的价值创造,企业需双管齐下、协同发力。
一方面,企业需要有明确的策略并快速高效地执行,另一方面企业还要选择合适的合作伙伴和技术栈,在选择时,企业不应只关注技术指标,而应选择主流、开放、安全、可持续且深刻理解企业业务,能长期陪伴的合作伙伴。
从 AWS 今年以来的多次重大升级举措来看,其在技术实力、服务能力以及生态建设等方面展现出显著优势,或许不失为企业构建 Agentic AI 的选择之一。
文章来自公众号“InfoQ ”,作者“王一鹏、Luna”