AI热点 4小时前 91 阅读 0 评论

从概念到生产级部署:AWS如何破解Agentic AI落地难题?

作者头像
AI中国

AI技术专栏作家 | 发布了 246 篇文章

红杉美国合伙人 Konstantine Buhler 预测 2025 年将成为 AI agent 的“群体协作”时代,标志着 Agent 元年的到来。但实际上,直到昨天,7 月 16 日,面向生产环境的 AI Agent 搭建仍然只停留在工具、平台、产品的层面,远远称不上端到端服务。


形成这种局面的本质原因是,Agentic AI 落地生产环境,不仅需要完善的功能,更需要一个完善的运行时环境,包括最基本的身份验证、数据隔离,以及对不同模型、框架的兼容性要好。从业务的角度看,该套系统要了解业务上下文,要有基本的业务压力承载能力,不能只做成“玩具”。从用户体验上来看,这些需求,需要在一个统一的平台上被完整实现,避免大量的第三方工具被以不同的逻辑集成,导致企业的研发标准沦为空谈。


因此,当年初 Manus 引起“套壳”争议时,围绕该产品技术含量的社区讨论,并未呈现一边倒的状态——实在是因为 Agentic AI 在平台、工程层面的工作量也很大,要做好并不容易。


当然,以上一切围绕 Agentic AI 的讨论,从现在起,都成了过去式。


AWS 一口气完成了从 Amazon S3 Vector Buckets 到 Amazon Marketplace 等一系列产品的发布,尤其是 Amazon Bedrock AgentCore ,作为交付企业级 AI Agents 的核心,引起了广泛关注。又划掉一项重要待办的 AWS Agentic AI 副总裁 Swami ,在 AWS 纽约峰会的 Keynote 分享中,笑得非常开心。




AaaS (Agent as a Service)或者 MAaaS(Muti-Agent as a Service) 2024 年开始被研究机构广泛提出;2025 年初,刚刚由信通院牵头,发起评估计划;到了年中,就几乎被 AWS 给完整实现了。


一场考试刚刚开始就有人交卷,不得不让人感叹,云计算行业的迭代速度,丝毫不输基础模型领域。


1看懂 Amazon Bedrock AgentCore,也就看懂了亚马逊的“野心”


在这次围绕 Agentic AI 规模宏大的升级中,Amazon Bedrock AgentCore 是绝对“C 位”。


官方的介绍是,Amazon Bedrock AgentCore 是一套完整的企业级服务解决方案,能够帮助开发者快速、安全地规模化部署和运行 AI Agent,支持任意开发框架,可对接 Amazon Bedrock 托管或第三方平台部署的各类 AI 模型,加速 Agent 从 POC(概念验证)走向生产部署。



有接近 AWS 的人士称,Amazon Bedrock AgentCore 的野心很大,更像是要重塑软件开发架构——传统软件开发依赖传统云原生开发环境,比如 Docker、K8s、CI/CD 等。如果企业继续使用这种方案,那 Agentic AI 的采用将会继续处于初期,无法从 POC 落到真正的生产中间。


因此,在 Agent 时代的开发架构,会依赖像 Amazon Bedrock AgentCore 这样的解决方案,该方案共包括 7 个模块:AgentCore Runtime(运行时环境)、AgentCore Memory(记忆系统)、AgentCore Observability(可观测性)、AgentCore Identity(身份管理)、AgentCore Gateway(网关服务)、AgentCore Browser(浏览器功能)和 AgentCore Code Interpreter(代码解释器)。


如果将这些服务的定义进一步简化,在笔者看来,Amazon Bedrock AgentCore 可以简单理解为 AWS 版的“AI Agent 超级工厂”。



Amazon Bedrock 最早以“大模型货架”的形态出现在 AWS 的客户面前,其核心理念是“Choice Matters”(选择大于一切),为不同业务提供最契合的基础模型。所以,主流模型会以最快的速度上架 Amazon Bedrock 供客户选用,且整体“供货”数量是市面竞品的两倍以上。


将 AgentCore 归入 Amazon Bedrock 服务簇,等同于紧邻原材料商超,搭建了一座加工工厂,就地取材,加工成 Agent 服务,输送给客户。


这种构想的基础,在于实现一套合规的企业级 Agent 构建环境。于 Amazon Bedrock AgentCore 而言,主要由以下几项服务构成:


  • AgentCore Runtime(运行时环境):提供具备会话隔离机制的沙盒化低延迟无服务器环境,支持包括主流开源框架、工具和模型在内的任意 Agent 架构,并能处理多模态工作负载及长时运行 Agent。
  • AgentCore Identity(身份管理):支持 AI Agents 安全访问 AWS 服务及 GitHub、Salesforce、Slack 等第三方工具,既可代表用户操作,也可在获得预先授权后自主执行。
  • AgentCore Gateway(网关服务):将现有 API 和 Amazon Lambda 函数转化为 Agent 工具,提供跨协议统一访问能力(含 MCP 协议),并支持运行时自动发现功能。
  • AgentCore Code Interpreter(代码解释器):提供隔离式代码执行环境,保障生成代码的安全运行。
  • AgentCore Observability(可观测性):提供 Agent 执行过程可视化追溯,支持元数据标记、自定义评分、轨迹检查及故障诊断 / 调试过滤器。


当 Agentic AI 有了自己的运行时,可以进行身份管理,兼容老代码、API 和其他工具,可以在沙箱中加载 Python 代码,具备可观测能力方便故障排查与恢复,它已经迈过了落地生产环境的基本门槛。


Amazon Bedrock AgentCore 是为了构建 Agentic AI 专门打造的,支持 MCP 和 A2A,Amazon Bedrock AgentCore Runtime 是唯一支持长达 8 小时长时间运行工作负载的无服务器按使用量计费产品。


8 小时长时间运行工作负载的无服务器产品,某种程度上是云原生对 AI 工作负载的妥协和进化。K8s 的 Pod 设计哲学是“短生命周期、不可变基础设施”;AI 训练 / 推理偏偏是“长驻、有状态”。


此前,行业内普遍默认“无服务器(Serverless)架构仅适用于短任务场景”。具体来看,主流无服务器计算服务的执行时长限制如下:


  • Amazon Lambda:默认情况下,单次任务最长执行时间为 15 分钟;


  • Amazon Fargate:容器化无服务器任务支持最长 2 小时的持续运行;


  • Amazon Step Functions:虽支持最长 1 年的流程编排,但需开发者自行管理状态机逻辑与存储。


在此背景下,Amazon Bedrock AgentCore Runtime 突破了传统限制,将单任务最长执行时间直接扩展至 8 小时,同时保持毫秒级计费模式。这一设计等于在“冷启动快”与“长驻省钱”之间新切出一条新路。


以前需要拆分和预留的 Serverless 服务,今天可以一次性跑完,成本模型从“长租大巴”,变成了“滴滴打表”。但未来云审计报告会把“长时 Serverless”列为头号影子预算来源吗?这也需要引起注意。




AgentCore Memory(记忆系统)、AgentCore Browser(浏览器功能),在笔者看来,属于“彩蛋服务”,前者统一管理会话记忆与长期记忆,为模型提供关联上下文,同时支持 Agent 基于历史交互的持续学习,后者提供托管式浏览器实例,支持自动化网页操作流程扩展。


AgentCore Browser 乍一看,与 2025 年上半年热门的 Agent 操作浏览器填表、操作 APP 点外卖并无太大不同,但本次在 To B 场景一并推出,就有些耐人寻味了。


当前行业数据价值难以充分显露,其部分根因在于:移动互联网在数据共享维度是相对封闭的,不同 APP 的数据几乎不太可能共享,平台方只能一家一家聊数据合作。而 Web 端数据相对开放,现已成为 AI 时代门槛最低的“数据集散中心”。


StatCounter 最新(2025-07)数据显示,Chrome 仍以 68.35% 的市场份额稳居第一。但带有 AI 能力的新浏览器(OpenAI 浏览器、Perplexity Comet、Brave Leo 等)正在不断增长,开始抢占市场份额。




这是为什么作为 Agent 时代的“AI 超级工厂”,Amazon Bedrock AgentCore 一定要提供 AgentCore Browser 服务。


AWS 甚至为此在 4 月单独发布了一个模型 : Amazon Nova Act。由 Amazon AGI Lab 推出,是 Amazon 自研 Nova 系列 LLM 的微调版,专门训练如何在网页上“动手”,让 AI 像人一样直接打开浏览器、点网页、填表单、跑流程,目前已经公布了开源 SDK。


Amazon Nova Act 在 Amazon 内部基准 ScreenSpot Web Text 的测试中,端到端任务完成率达到 94%,高于 OpenAI CUA 在 WebVoyager 测试平台上的成绩: 87%。


对比 2023-2024 年,今天的 Amazon Bedrock 从形态到价值,已经发生了很大变化。AWS 正努力将自己变成“构建和部署 Agents 的最佳平台”(The Best Place To Build And Deploy Agents),而 Amazon Bedrock 在其中起到了承上启下的作用——上方承接的是生态市场以及开发者工具,下方承接的是兼容向量类型数据的存储产品。


2从存储到市场,AWS 的一次“狂奔”


随着企业加大对知识型 Agent 投入,向量数据规模将从数百万升至数十亿甚至更高。这些海量 AI 数据集成为需长期保存的战略资产,用于持续学习、保留历史上下文、支持模型重训练与微调。而在更新嵌入模型时,企业既要用新模型创建向量集,又要归档旧版本以满足合规、审计和性能测试需求。但现有向量存储方案多针对刚性数据和高频查询优化,与 Agent 长期低频访问向量集的需求不匹配,且向量索引膨胀,规模可能远超原始数据,加剧了这一矛盾。


为了解决这一问题,在 Keynote 上,Swami 宣布推出 Amazon S3 Vectors,首次在云对象存储中实现了向量的原生存储、访问、搜索和查询功能,成为首个内置向量支持能力的云对象存储服务。 他将向量称为“AI 的语言”,表示 Agent 依靠向量实现两大关键功能:从历史交互中构建上下文;在海量数据集中发现相似性。


实际上,Amazon Aurora 早在 2023 年就支持向量存储,内置 PGVector 插件,可以实现极致的性能。但能负担 Amazon Aurora 成本的初创企业毕竟还是少数。


此外,Amazon S3 Vectors 的地位实在太特殊,这款发布时间比 EC2 还早,至今已有 19 岁的存储产品,俨然已经是大数据行业的“通用标准”——“先放到 S3 再说”,这句话并非玩笑。


Amazon S3 Vectors 支持向量存储,意味着对于众多对成本敏感的企业来说,可以以非常低廉的价格,存储向量数据,价格远低于 Amazon Aurora。



此外,向量存储的成本,在整个 AI 管线里往往占到大头,“一份原始数据 + N 份向量数据” 是存储的常态。而 Amazon S3 Vectors 可以做到在数据倍增的情况下,成本相对可控。尤其是本次专为向量设计的存储桶类型,官方公布上传 / 存储 / 查询总成本最多降 90%。


降低价格后,AWS 围绕企业级开发者的发布动作也很密集,近几日先后发布了 Amazon Strands Agents SDK 和 Amazon Kiro。


Strands Agents 是一款由 AWS 主导的开源 SDK,采用模型驱动的方法,仅需几行代码即可构建和运行 AI Agent,是所谓“极简主义 AI 代理框架”,不写 DAG、不画节点,只靠 LLM 的规划 + 工具调用就能完成复杂任务。


而 Kiro 是 AWS 发布的「Agentic IDE」预览版,目标是把“氛围编程”升级为“规格驱动开发”的 AI 集成开发环境。它不仅要帮你写代码,更要先把需求、设计、测试、文档全部对齐,再自动生成可上线的工程产物。


Amazon Q Developer 、Amazon CLI 虽然也主要应用于“氛围编程”,但主要以插件形式在现有 IDE 上提供服务,偏 Copilot 模式。而 Kiro 有独立的 UI,与 Cursor 的定位接近,主打 Spec-Driven Development(规范驱动开发),更适合希望在全新窗口下编程的开发者。


Kiro 具有智能代理钩子(intelligent agent hooks),可以自动处理重要但耗时的任务,如生成文档、编写测试和优化性能。这些钩子在后台工作,由保存文件或提交代码等事件触发。对于“拖延症”比较严重的开发者很友好,另外也为未来进一步融入 Muti-agent 工作体系打下了基础。


二者分别服务不同场景,倒也形成了互补。


至于 AWS Marketplace ,则在 2025 纽约峰会上一口气完成了“工具化、生态化、入口化”的三连跳,把原本只卖 SaaS 和 AMI 的“应用商店”升级为 “生成式 AI 时代的企业级能力超市”。核心变化可用一句话概括:用户能像装 App 一样,把 AI Agent 装进自己的账户。


AWS 纽约峰会当天推出了全新的 “AI Agents and Tools” 商品类别,该类别下的商品形态丰富多样,具体包括:


  • 即插即用的 Agent 镜像(容器 / AMI / Lambda Layer)


  • 符合 MCP 协议的 工具插件(如 CrowdStrike Falcon-MCP、Scale AI GenAI 平台)


  • 一键式 CloudFormation / CDK 模板,面向无服务器部署




在搜索体验上,用户用自然语言或行业标签(金融、医疗、制造)即可过滤,搜索结果直接给出预估成本与合规认证标识。


AWS Marketplace 也和 Amazon Bedrock AgentCore 形成了闭环。Amazon Bedrock AgentCore 刚发布 7 大核心服务(Runtime、Memory、Identity 等),Marketplace 立即把“经过认证的第三方 Agent 模板”上架:用户先在 AgentCore 里选好模型,再到 Marketplace 里挑“合规客服 Agent”“日志审计 Agent”,一键部署到 Bedrock Runtime,省去 80% 集成工作量。


峰会期间,AWS 还宣布向生成式 AI 创新中心再注资 1 亿美元,受资助的 30 家初创企业,需将其研发的 Agent 产品率先上架至 Marketplace 平台。


可以预见,未来企业构建 Agentic AI 的进展会非常快。但是,要真正实现 Agentic AI 的价值创造,企业需双管齐下、协同发力。


一方面,企业需要有明确的策略并快速高效地执行,另一方面企业还要选择合适的合作伙伴和技术栈,在选择时,企业不应只关注技术指标,而应选择主流、开放、安全、可持续且深刻理解企业业务,能长期陪伴的合作伙伴。


从 AWS 今年以来的多次重大升级举措来看,其在技术实力、服务能力以及生态建设等方面展现出显著优势,或许不失为企业构建 Agentic AI 的选择之一。


文章来自公众号“InfoQ ”,作者“王一鹏、Luna

作者头像

AI前线

专注人工智能前沿技术报道,深入解析AI发展趋势与应用场景

246篇文章 1.2M阅读 56.3k粉丝

评论 (128)

用户头像

AI爱好者

2小时前

这个更新太令人期待了!视频分析功能将极大扩展AI的应用场景,特别是在教育和内容创作领域。

用户头像

开发者小明

昨天

有没有人测试过新的API响应速度?我们正在开发一个实时视频分析应用,非常关注性能表现。

作者头像

AI前线 作者

12小时前

我们测试的平均响应时间在300ms左右,比上一代快了很多,适合实时应用场景。

用户头像

科技观察家

3天前

GPT-4的视频处理能力已经接近专业级水平,这可能会对内容审核、视频编辑等行业产生颠覆性影响。期待看到更多创新应用!