AI热点 3小时前 165 阅读 0 评论

从无人问津到巨头混战,AI为什么最先点燃了编程?

作者头像
AI中国

AI技术专栏作家 | 发布了 246 篇文章

AI编程,可能是当下最大的原生AI应用赛道。

这听起来有点反直觉,因为在过去几十年里,“开发工具”从来不是软件行业里最赚钱的赛道。可如今,这一切都变了。

这个市场可比你想象得要大得多。

全球大约有 3000 万名软件开发者。如果每个人每年创造 10 万美元的经济价值,那这一群体的总产值就是 3 万亿美元,几乎相当于一个法国的 GDP。

根据 a16z 团队与数十家科技公司交流的结果,现在哪怕只是最基础的 AI 编码助手,也能让开发效率提升 20%。而在理想部署下,效率翻倍完全可能。

开发效率提升背后,是整个软件行业的重估。背后的逻辑其实很简单:开发效率越高,总需求就越大;开发越快,软件就越多。

换句话说,AI 编程有望为全球经济带来额外3万亿美元的产值,而这仅仅是开始。

如今,AI编程不仅撑起了一批估值数十亿美元的初创公司,更有望孕育出下一个万亿美元级别的科技巨头。这也是为什么越来越多玩家开始涌入到AI编程赛道:

Cursor在短短15个月内做到了年收入5亿美元,估值接近100亿;Google砸下24亿美元抢下Windsurf;Anthropic 推出了Claude Code;OpenAI的GPT-5也强化了编程能力。

可以看到,AI 编程的战国时代,已经全面打响。接下来,AI 编码会长成什么样?还没有定论,但雏形已经显现。

最近,A16Z就发布一篇AI编程的文章,系统拆解了这个新兴领域的结构:从工具链的创新到协作方式变化,展示了一个正在重塑的软件开发未来。

软件开发的范式变了

过去,用 AI 写代码,是这样的流程:你先问它一句“帮我写个登录接口”,它回你一段代码,你再复制粘贴进项目里。这种“点菜式”编码方式,已经逐渐落伍了。

现在,一种全新的开发范式正在流行,被称为「计划→ 代码→审查」。不再是人提问、AI 回答,而是从头到尾,AI 全程参与:

先规划:AI 负责帮你起草一个详细的功能描述,并主动提出它需要哪些信息,比如 API 密钥、访问权限、系统依赖。

再编码:AI 根据规划自动生成代码,甚至能完成单元测试,过程中形成一个小型的“代理循环”。

最后审查:人类开发者只是检查 AI 的工作,必要时微调。

图表展示了人工智能如何分解高级规范并提出问题

这张图展示的是一个新项目启动时,AI 介入的典型流程。它的第一步任务,是写一份高级功能说明书。它会主动提出一连串问题,要求补全所有它认为关键的背景信息。

这些问题和请求往往涉及需求细节、架构决策、外部依赖、权限配置等,甚至会明确要你提供 API 密钥、工具访问权限等实际操作条件。最终形成的,是一份长达数页、结构完整的附加信息清单。

这一套规范文档有两个价值。一方面,它能准确指导后续的代码生成,确保模型写出来的内容和开发意图对齐;另一方面,它还能作为整个项目的“长期记忆”,帮助开发者或其他模型理解某个模块或文件的功能。特别是在大型项目中,代码库往往非常复杂,一份清晰的规范就是维持秩序的锚点。

而这个过程不是一次性的。人类开发者在修改代码之后,通常还会让语言模型回过头去更新规范文档,保证这份说明始终跟随代码的最新状态。最终形成的,是一套“文档齐全”的工程产出,既方便人类查阅,也方便 AI 接续任务,真正实现了人机协作下的良性循环。

Cursor Directory 的图片,LLM 编码指南库

除了每个项目自身的需求,现在大多数 AI 编码系统还会配备一整套通用的架构和编码规范。这些规范有的覆盖整个公司,有的专门针对某个项目或模块,主要用来约束代码风格、架构选择、接口设计等技术细节,让开发工作有章可循。

更有意思的是,现在网上也出现了不少为 AI 模型量身打造 的“最佳实践合集”,比如 Cursor 的规则集、GitHub 社区里分享的 prompt 模板,甚至 Claude Code 相关的开发说明。

这类内容不是写给人看的,而是专门写给 AI 模型读的

我们正在见证一种新型知识库的出现——它不再是为了培训新员工,而是为了让 AI 成为真正的协作伙伴。

在这个新范式下,AI 已经不只是你说一句、它写一段的工具,而是可以参与整个产品开发的“队友”。它能理解公司的技术政策、掌握项目背景,甚至熟悉行业标准,具备越来越强的上下文理解力。它不再只是执行命令,而是可以参与架构设计、功能规划,甚至提前发现潜在风险。

而在项目规划环节,虽然 AI 的角色还处于早期探索阶段,但已经有不少公司在尝试把它引入更上游的流程。

比如,Nexoro这一类工具,主打信息整理,可以自动从Slack、论坛、邮件、CRM 系统(比如 Salesforce、Hubspot)中提取客户反馈,汇总成一份“用户想要什么”的清单。

另一类工具,比如 Delty 和 Traycer,则更聚焦在“任务拆解”这一步。它们能把一段功能说明,自动转换成可执行的用户故事,接着同步到 Linear 这样的工单系统中,辅助团队推进开发。

这些趋势释放了一个非常明确的信号:过去那种靠维基文档、手动维护任务追踪器的方式,已经逐渐跟不上今天快节奏、复杂度高的项目需求

传统工具不是慢慢被淘汰,就是得被 AI 重构一遍,变得更智能、更高效、更自动化。软件开发的协作方式,正在被重新定义。

从写代码,到编程“搭子”

一旦前期的计划完善,接下来就是进入 AI 编码的“循环流程”:AI 先写代码,开发者再审核和微调。这一过程会不断迭代,而具体用什么样的交互方式,取决于任务的复杂程度和是否需要异步执行。

最常见的一种方式是“Tab 补全”和“智能编辑”功能,这类功能已经被无缝集成进了很多现代代码编辑器,比如 Cursor、Windsurf、Sourcegraph Amp,甚至是各种 VSCode 插件里。

用户只要在编辑器中正常写代码,AI 就会根据上下文自动补全当前行,或者对局部内容进行修改,几乎不需要手动触发提示。这类能力背后依赖的是专门调优过的小模型,既轻量又反应快,能够在本地快速响应,提高开发效率。

另一种更灵活的方式,是“基于聊天”的文件编辑体验。用户可以直接对 AI 下指令,比如“帮我把这个函数改成异步的”,同时提供相关上下文。AI会调用具备大上下文窗口的大模型,对整个项目文件夹进行全局理解,甚至可以跨文件操作,比如创建新文件、添加依赖包等。

这类工具既可以嵌入IDE,也可以通过网页使用,每一步都有可视化反馈,方便用户快速确认修改结果。

简单来说,AI 编码正在从“写几行代码”走向“协同完成整个开发任务”,交互方式也越来越多元,既有即时响应的轻量模型,也有具备全局理解的大模型配合,让不同需求的开发者都能找到适合自己的工作方式。

后台运行的 AI 代理和普通AI助手有点不一样。它们不需要人一直在旁边交互,而是可以长时间独立工作,自动推进任务。这类代理通常会自己运行测试,确保结果没问题——毕竟用户不在现场,系统必须有办法自己判断对错。

这些AI最终的产出,往往是已经修改好的代码树,或者一份准备提交到Git 仓库的Pull Request(代码合并请求)。像 Devin、Anthropic Code、Cursor 的后台 Agent,就是这类“静默工作型”AI的代表。

与此同时,还有一类工具也在快速兴起,那就是AI 应用构建器和原型工具。比如 Lovable、Bolt(Stackblitz 旗下)、Vercel v0 和 Replit 等平台,正在尝试用自然语言、线框图,甚至简单的 UI 示例,直接生成一整个能运行的应用,而不仅仅是前端页面。

这些工具正在吸引两类人:一类是希望快速做出MVP的创业者或设计师,另一类则是想用 AI 快速试错、搭建原型的专业开发者。虽然现在还很少有人直接把这些 AI 生成的界面代码用到正式上线的项目里,但这更多是因为工具还在成长阶段,而不是方向不对。

未来,等它们稳定性提升,AI 写 UI 写后端、连数据库、接 API,可能就真成了全栈“搭子”。我们距离“说一句话生成一款 App”的那一天,或许没那么远了。

随着 AI 代理在项目中的角色越来越重,开发者关注的重点也发生了转变。过去,我们更在意“代码是怎么改的”;而现在,重点变成了“为什么要这么改”和“改完有没有效果”。尤其是当 AI 一次性生成整个文件时,传统的“diff(差异)比较”方式就显得没那么有用了。

于是,一些新工具开始重新定义“版本控制”这件事。比如Gitbutler,它的思路不再是盯着文件内容一行行怎么变,而是围绕“意图”来记录开发过程:

AI 是怎么理解需求的?用了什么提示词?测出来效果怎么样?这些信息比单纯的代码差异更有价值。Git变成了后台的“账本系统”,而真正有意义的操作,发生在“语义层”——也就是目标、决策和结果的轨迹。

与此同时,AI 也越来越多地参与到源代码管理系统(如 GitHub)本身。现在,不少团队已经在让 AI 参与 Issue 和 Pull Request 的讨论。这些讨论内容本身就是一种“上下文输入”,能让 AI 更好地理解开发意图,从而给出更贴切的实现方案。

而在代码审查环节,AI 也开始担任“审查官”的角色。它会聚焦于代码的正确性、安全性、合规性,辅助开发者提升代码质量。像 Graphite、CodeRabbit 就是做这一方向的代表,正在探索“AI审查AI”的全新开发协作模式。

现在,大多数 AI 编码助手的工作流程已经高度自动化了。也就是说,它们会自主决定下一步该做什么,还会调用各种工具完成任务(在 Hugging Face 等框架中被称为“3 星”能力)。比如,像文本小改、更新一个库、加一个简单功能这类任务,现在很多时候都可以完全由 AI 独立完成,无需人类介入。

这个趋势也带来了一些“高光时刻”。比如,GitHub 上一个讨论功能的 issue,最后只留下一句“@aihelper 请实现”,几分钟后,AI 就自动生成了一个几乎完美的 Pull Request,直接合并上线。虽然目前这种“神来之笔”还不常见,但在简单场景中已经开始成为可能。

相比之下,更复杂的开发任务仍然需要人类参与决策,但有一个领域已经被证明特别适合 AI,那就是遗留代码迁移。这是目前 AI 编码最成熟、效果最好的落地场景之一。

常见的例子包括:把 Fortran 或 COBOL 这样的老语言迁移到 Java,把 Perl 转成 Python,或者替换掉已经过时的 Java 类库。一种典型做法是,先让 AI 从旧代码中提取出功能规范,再根据这个规范用新语言重新实现。旧代码不再直接复制粘贴,而是变成了解决歧义的“对照组”。

这一方向的市场潜力非常大,已经有不少初创公司专注于这个赛道。尤其是在金融、制造等大量依赖老系统的行业,AI 正在成为“翻新工程”的超级工具,效率远高于传统人力方案。

如今,AI 写代码已经不是“写几行新功能”这么简单了,它正在成为大型系统现代化升级的关键角色。

别只盯着 AI 写代码了,它连测试和文档都包了

很多人以为,AI 写完代码就结束了。但其实,真正的“神助攻”还在后面。

当代码写完,紧接着就是两个关键环节:测试和文档生成。而现在,这两个部分也都在被AI重新改写。

我们先说文档。现在的大模型,比如 GPT-4、Claude Opus 等,已经可以写出非常专业、结构清晰的技术文档,而且不仅能写,还能“用文档”。

什么意思?比如你问 AI:“这个函数是干嘛的?”它不光能回答,还能调出注释、示例、上下文代码,给你讲得明明白白,比老员工还靠谱。

像 Context7 就专门做这个,它会在你需要的时候,自动把相关内容调出来,确保AI写出来的文档是“贴着代码长出来的”,而不是那种看起来高大上,实际上跟实现毫无关系的套话。

更强的是Mintlify,不仅能帮你生成静态文档页面,还能搭建一个“文档小助手”。你可以在里面问问题、搜用法,甚至一句话让 AI 重新生成某一部分文档。特别适合给客户用的产品文档,比PDF不知道高到哪里去了。

而在企业里,还有一种更“严肃”的文档,叫安全合规文档。以前这种东西都是专人写、慢且容易错。现在有了像 Delve 这样的 AI 工具,直接帮你生成和更新,合规不再是烦人的流程,而是自动化的一部分。

再来看测试。

以前写测试用例是真麻烦,尤其那种跨 UI、API、数据库的流程测试,动不动几百行。现在,AI QA 工具可以全自动搞定。它不仅能写测试脚本,还能自己跑流程、检查结果、输出错误报告,甚至给出“建议修复方式”。

这意味着什么?过去开发流程是:“写完代码 → 人工审查 → 人工写测试 → 提交上线”;现在有些任务,AI 一口气全包了,从写到测再到提交,只需要你最后点个头。

特别是在现在很多 AI 生成的代码越来越“黑盒”的情况下,我们更关心的是它“有没有错”而不是“看不看得懂”。这时候,AI 在测试、文档、合规方面的全面介入,就变得尤为关键。

代理系统背后的全自动工具栈

除了为人类开发者服务的工具之外,现在还出现了一类专门为 AI 自己用的“工具链”。

这些工具不是用来给人操作的,而是专门提供给 LLM(大语言模型)调用,让它们能独立完成搜索、分析、测试等任务。可以理解为,是 AI 自己用的“开发者工具箱”。

首先是代码搜索与索引工具。当 AI 要操作的是百万行、甚至上亿行级别的代码库时,显然不可能把所有代码一次性塞进模型里。这样不仅慢,而且成本高、效果差。

更高效的方式,是给 AI 装一个“代码搜索引擎”,在需要时再去查关键片段。对于小项目,普通的 RAG 技术或者 grep 搜索就够用了;但在大型项目中,就得用更专业的方案,比如自动构建调用图、识别函数引用的分析工具。

像 Sourcegraph 就提供了企业级代码分析平台,Relace 推出的专用模型也在这个方向发力,帮助 AI 快速定位最相关的部分,大幅提升理解效率。

第二类是文档与网络搜索工具。比如 Context7、Mintlify 这样的平台,可以自动从代码中提取注释、示例和上下文,确保 AI 生成的文档和真实实现对得上。

而 Exa、Brave、Tavily 则更偏向网络搜索,能帮助 AI 快速获取外部知识、临时参考资料,尤其适合客服、运营、支持场景的长尾检索。

还有一个核心组件是代码沙盒。AI 写出来的代码需要测试和运行,但直接跑在本地有风险——模型可能“幻觉”出错误命令,甚至触发安全问题;而现实的开发环境本身又很复杂,依赖多、配置重。

为此,一批专门的“AI 执行环境”应运而生,比如 E2B、Daytona、Morph、Runloop 和 Together 的 Code Sandbox。它们提供可重复、可隔离、可追踪的沙盒平台,让AI可以安全地执行命令行操作、运行脚本、调试程序,成为整个 AI 开发体系的关键基础设施。

这些专为代理设计的工具,就像给 AI 装上了一把多功能瑞士军刀,真正让它具备了参与复杂项目的能力。

未来,我们将看到越来越多的 AI,不只是“在 IDE 里打辅助”,而是像一名独立工程师一样,接任务、调资源、跑测试、提 PR,全流程参与软件开发。真正的“AI 工程协作系统”,正在浮出水面。

应用会自己进化,程序员的价值也变了

AI 编码时代真的来了,现在很多公司已经不再是“试试看”,而是开始把它用在实际工作中了。但问题也随之而来,这玩意儿,贵得惊人。

最近 Reddit 上就有个热帖问:“Claude Code 太贵了,有什么省钱技巧吗?”

我们来算一笔账:如果你用的是 Claude Opus 4.1,调用一次模型要塞进去10万个 token,再加上1万个输出 token。按每百万 token 输入15美元、输出75美元来算,一次调用大约要花2.5美元。

如果你每天跑 7 小时,每小时跑3次,一年下来就是一万多美元,甚至比一些地区的初级程序员还贵。

那还值吗?

其实,很多平台已经开始用“聪明的方式”来优化成本了。比如Cursor,就可以在同一个界面里调多个模型,根据任务复杂度自动选便宜又够用的那一个。哪怕是低价模型,也能带来明显提效。

所以,现在大家不再纠结“谁家模型最强”,而是更关注“谁能用合理的价格创造出实际价值”。过去几十年,软件开发的成本几乎全靠人力支撑;而现在,大模型的推理成本,正在成为新的人力之外的“运营开销”。这会不会干掉传统的 IT 外包?可能不会,但确实会让商业决策的方式发生变化。

那对全球三千万开发者来说,AI 是机会还是威胁?

有人说,AI 会取代程序员。这种说法其实是媒体的夸张,还有一些厂商为了卖产品在搞的营销——他们把 LLM 的定价宣传成“人力替代成本”,听起来吓人,其实并不真实。

现实反而是:越早用上 AI 的公司,反而越想多招开发者。他们发现,用得好,不仅短期 ROI 正向,而且还发现了很多原来做不到的新机会

只不过,程序员的工作内容变了。你不仅要会写代码,还要懂怎么“跟模型合作”,怎么查错、补全、优化提示词……传统的开发流程正在被重新洗牌。

这也意味着,大学里教的东西,也得大改。

算法、架构、人机交互这些还是重要的,但那种“从头敲代码写完一个项目”的教学方式,正在变成历史。我们还是需要懂编程的人,但更多时候,是为了“从 AI 写的烂代码里把坑填上”,而不是自己从零写起。

从长远来看,AI 还可能推动一种全新的软件形态:会自我进化的应用。比如,Gumloop 这类工具,用户只需要描述一个新功能,AI 就能自己生成代码实现。未来的 App,可能不是静态发布,而是可以随时升级、定制、自动扩展的“活软件”

或许,未来每个 App 上都会有个“AI 增强”按钮,点一下就能用一句话让它帮你加功能。

当然,这不代表代码就会消失。

在简单场景下,确实可以用语言控制 LLM 来完成任务。ChatGPT 已经可以直接跑一些基础算法。但一旦任务复杂、性能要求高,代码依然不可替代。

别忘了:GPU 上执行一个加法只需要 10^-14 秒,而 LLM 输出一个 token 至少要 10^-3 秒,中间差了 1000 亿倍的速度鸿沟。这种差距,构成了代码世界天然的护城河。

所以可以这么说,AI 不会替代程序员,但会重塑他们的角色。

未来的程序员,不再只是“写代码的人”,而更像是和AI一起工作的“系统编排师”、“提示工程师”、“模型质检员”。

本文来自微信公众号“乌鸦智能说”,作者:智能乌鸦,36氪经授权发布。

作者头像

AI前线

专注人工智能前沿技术报道,深入解析AI发展趋势与应用场景

246篇文章 1.2M阅读 56.3k粉丝

评论 (128)

用户头像

AI爱好者

2小时前

这个更新太令人期待了!视频分析功能将极大扩展AI的应用场景,特别是在教育和内容创作领域。

用户头像

开发者小明

昨天

有没有人测试过新的API响应速度?我们正在开发一个实时视频分析应用,非常关注性能表现。

作者头像

AI前线 作者

12小时前

我们测试的平均响应时间在300ms左右,比上一代快了很多,适合实时应用场景。

用户头像

科技观察家

3天前

GPT-4的视频处理能力已经接近专业级水平,这可能会对内容审核、视频编辑等行业产生颠覆性影响。期待看到更多创新应用!