AI热点 4小时前 171 阅读 0 评论

Andrej Karpathy:2025 不是 AI 爆发年,未来十年怎么走?

作者头像
AI中国

AI技术专栏作家 | 发布了 246 篇文章

2025 年,AI行业被“智能体元年”的讨论刷屏。

DeepSeek 超越 GPT-4o,OpenAI 发布 Agent SDK,Anthropic 四个月连推三个模型……每一次发布都像一次惊人的飞跃,让人觉得 AGI 离我们只有一步之遥。

但 Andrej Karpathy 泼了一盆冷水。

这位前 OpenAI 核心研究员、特斯拉自动驾驶负责人,在 2025 年 10月 18 日的一场对话中明确表示:

我并不觉得今年是爆发年,也不相信会有哪一年是。AGI 需要数十年时间,它是一条由无数突破和改进构成的长曲线。

这句话,刺破了当前所有关于“突破”“爆发”“奇点”的狂热叙事。

Karpathy 的判断不是悲观,而是冷静。他更关心的,不是模型参数有多大,而是它是否真的有记忆?是否能持续和你共处?是否能成为社会的一部分?

他说:我们现在的智能体,其实更像是个幽灵。它们记不住自己是谁,也记不住你是谁。

真正重要的不是模型有多强,而是 AI 能否真正融入我们的生活:有记忆、能成长、可信赖。

而 2025 不是终点,它只是这条漫长演进中一个被误读为爆炸的起点。

第一节|你以为它懂你,其实它不记得你

“你以为它在帮你规划旅行,其实它根本不记得你是谁。”

Andrej Karpathy 说这句话时,并不是开玩笑。

他指出,现在我们常用的所谓“智能体”(AI 助手),连最基本的“记忆”都没有。 不管你跟它说了多少次,它下一次打开时,还是从头开始。没有状态,没有身份感,没有连贯性。就像一位每天失忆、穿着西装接待你的“幽灵”。

“今天我们所有的聊天机器人,其实都是幽灵(ghosts)。”

这是 Karpathy 在访谈中多次强调的一点。尽管人们总在说 AI 在“爆炸式进步”,但在他看来,那些看起来很聪明的系统,缺的不是知识,而是连续性。

他说:AI的进化其实更像一条缓慢上升的曲线,悄悄学习、持续进步,直到你突然回头,才发现它已经不一样了。

✅ “持续存在”才叫智能体

Karpathy 给“智能体”这个词重新下了定义:

“A real agent needs to persist over time. It needs memory. It needs continuity(一个真正的智能体,必须具备持久性、记忆力和连续性).”

通俗的来说,一个真正的AI助手,不能只是能对话、能回答问题,更重要的是它要能长期陪伴你。它应该知道你昨天让它查过机票、前天生成过 PPT、上周总结过财务数据。它要能记住过去,理解现在,延续到未来。

这才叫智能体,不是我们现在用的“高级搜索框”。

✅ 现有产品,为什么还做不到?

你可能会问:ChatGPT 不也挺好用的吗?Claude 不也能追问上下文吗?

Karpathy的回答是:它们没有记住你,只是在当下和你聊天。

我们确实看到了一些尝试,比如:

  1. ChatGPT 的长期记忆功能(但仍需用户自己设定“记住什么”)
  2. Rewind 这类记忆记录工具(但还未真正融合进 AI 本体)
  3. Claude 的 Agent SDK(强调多轮任务,但状态切换仍靠开发者维护)

这些只是在外部给它加了记忆功能,但 AI 本身依然不记得你是谁。

✅ 问题的本质不是回答能力,而是记住你

Karpathy 说,现在很多人还在讨论prompt 要怎么写更有效,但他想问的却是:

如果它连我们是谁都记不住,为什么还要一次次输入提示呢?

他打了一个比喻:你每次和它说话,都像是在向一个路人喊话。

你以为它是你的助手,但它其实不认识你。它不知道你是谁,也不记得上一次对话发生了什么。

所以,Karpathy不相信“爆发年”的说法。因为在他看来,现在的 AI 还停留在假装认识你的阶段。

真正的转折点,不是能力的突增,而是 AI 成为一个长期陪伴你的“伙伴”。

那一刻,它才从工具变成伙伴,从模型变成智能体。

第二节|AI 不止要会说话,更要动手、记事、活得久

AGI 不是一堆功能的组合,而是一套统一的操作结构。——Andrej Karpathy

Karpathy 不止一次提到,现在大家在谈 AGI(通用人工智能)的时候,总喜欢数功能:“能写代码”“能画画”“能接工具”。 但他想说的是:

真正的 AI,不只是能做很多事,而是这些事要连在一起、有前后逻辑、有稳定表现。

简单讲,不是会说话、会查资料、会写文案就叫 AGI。 Karpathy 描述了三条长期发展的路线,只有这三条线都走通,才可能出现“有真正智能感的 AI”。

第一条线:让 AI 真正“理解”你在说什么

这条路,其实就是我们熟悉的 GPT、Claude、Gemini正在做的事。 Karpathy称它是语言模型的认知路线。

  • 会读懂上下文
  • 能做逻辑推理
  • 会给出合理的推测

这些能力在过去三年进步飞快,但Karpathy说:这只是基础,光有这个还不够。

就像一个很会考试的人,但不一定知道怎么在现实中处理事情。

第二条线:让 AI 能“操作世界”

Karpathy 说,接下来最关键的,是让 AI 不光能说,还能动。

他举例现在很多人开始用 AI 写邮件、查文件、读网页,甚至安排日程。这些能力不再只是语言理解,而是 AI 在现实中“动手”去帮你做事。

这类能力,Karpathy 称为:工具调用(tool use)。

“我们需要让智能体不只是对话,还能调动浏览器、笔记、应用,帮你真正完成任务。”

但现在这部分还非常初级。Claude 调用工具要等你手动触发,ChatGPT 的插件功能也不总能成功。

而真正的智能体,是你说一句话,它就能自己判断:

该查什么资料、该整理哪些邮件、该安排什么时间、该输出怎样的计划。

第三条线:让 AI “持续存在”下去

第三条线更关键:能不能把AI从一个单次工具变成一个长期在你身边的角色。

他说:

“我们现在做的AI,就像一盘散落的拼图:语言模型是一块,工具是一块,记忆是另一块……但它们没被真正组合在一起。”

这导致的结果是:

AI 回答得好,但下次就忘了

工具能用,但每次都要重新教

上一轮对话的逻辑,下一轮完全接不上

Karpathy 说,要改变这一切,需要的是:一个统一的运行方式(operating architecture)。

换句话说,不是把拼图随意拼凑,而是要让 AI 像一个人一样持续存在在线上社会中,能成长、有记忆、有任务意识、有状态、有行为模式。

总的来说:

我们要从token(词)往action(行动)走。

这意味着,AI不再只是你说一句,然后它回一句。你只需要提出目标,它自己会理解、执行、反馈,并且能把今天的事情和过去、未来的计划连在一起。 这要求 AI 不再是功能拼接,而是像一个人一样,有自己的运行逻辑,能和你长期共事。

现在的Claude、ChatGPT、Gemini都在尝试这样做,但这条路才刚刚开始。我们看到的,不是爆发,而是开头。

第三节|喂它一切,不等于教它成长

这三条路要怎么走通?Karpathy 给出了一个出人意料的答案:不是堆更多数据,而是改变训练方式。

今天我们对 AI 的训练,就像把所有书都塞进孩子嘴里,然后希望他成为科学家

他指出,目前主流的模型训练方式,基本是把全世界知识喂给它:从网页、百科、论文到社交平台,把海量数据一股脑塞进去。这就像填鸭式教学:喂得多,不等于学得好。

就像你不会指望一个孩子光靠背书就变成诺奖得主,AI 也不会因为读完互联网就自动成为智能体。

✅ 从“灌数据”到“教目标”

Karpathy 认为,AI 的训练方式该换了。

“大多数模型读了世界上 99% 的信息,但没有被教会哪 1% 是它应该用来解决问题的。”

我们不需要模型什么都知道,而是要它对关键问题有深刻理解。

举个例子,如果你要训练一个医学助手:

  • 与其让它读 10 亿篇医学论文,
  • 不如设计一门诊断课程:先学习问诊流程,再练习病历分析,最后参与真实病例决策。

这种按课程表设计的训练方式,比海量输入更能让AI建立任务意识和知识结构。

✅ 三个新训练原则:像培养人一样培养AI

Karpathy 认为,未来 AI的训练应该像培养新同事,而不是粗暴地往硬盘里灌数据。 他提出了三条核心原则:

① 有目标感:AI 必须“知道自己在学什么”

今天的模型大多在无目标地学习,读很多数据却不知道要解决什么问题。要给模型明确的学习方向,比如成为写作助手、学会连续规划、掌握科学研究流程。

这就像带孩子学游泳,不能只是把他丢进水里,而要告诉他“今天练的是换气”“明天练的是速度”。

② 有任务性:从“知识”转向“行动”

AI 不应该只是“知道”,而要“会用”。Karpathy 强调训练要围绕任务来设计,让模型在解决真实问题的过程中学习,而不是光靠死记硬背。

比如:不是背下 API 文档,而是通过不断调用工具去完成一项复杂任务;不是阅读金融数据,而是尝试写出投资分析报告。

“智能体不是学生,它更像一个实习生。我们要让它在干活中成长。”

③ 有反馈循环:不断试错、纠正、改进

AI需要反馈。

现在的训练过程太静态,模型学完就结束,缺乏和环境的互动。而未来的训练应该是动态的:模型完成任务后得到评价,根据结果改进下一步策略。

这种“试错—反馈—改进”的循环,才是智能成长的真正方式,就像人类在工作中不断修正自己的方法一样。

这些观点已经在影响最新模型的方向:

  1. OpenAI在GPT Agents的训练中,开始围绕“任务链”设计数据;
  2. DeepMind的Alpha系列通过“自我博弈—自我修正”实现进化;
  3. Anthropic的Claude也在用“宪法式反馈”指导模型的行为习惯。

这些都说明:行业正从输入越多越好,走向“结构化、有目标、有反馈”的路线。

用 Karpathy 的话说,这意味着 AI 正在从“prompt时代”走向“课程时代”。

未来的 AI,不再靠“prompt”来驱动,而是靠“课程表”来成长。

  • prompt 是一场“对话”——你问它答,结束就忘;
  • 课程表是一种“成长计划”——它知道自己要变成什么样,会主动去学习和改进。

当 AI 从被动接收知识变成主动学习成长,它才可能不只是一个工具,而是真正能和人一起工作的伙伴。

第四节|AI 不只是助手,而是“社会的一员”

“智能体不是API,而是一个可信任的代理人。” ——Andrej Karpathy

Karpathy说这句话时,不是在做比喻,而是在描述他眼中即将到来的现实。

他认为,未来的 AI 不会再以功能定义自己,不是“翻译工具”“问答助手”或者“自动化脚本”。在十年之后,我们面对的,是带有身份、角色和责任的AI个体。

✅ 从工具到角色:AI开始带着身份上岗

过去,AI 的使用方式很简单:你让它写邮件,它写完就结束;你让它总结报告,它总结完就停止响应。它从来没有身份,更没有职责。

但 Karpathy 的设想是:AI 的未来不应该是谁来用它,而是“它在社会中扮演什么”。

“未来的 AI 不是一次性的调用,而是一个有身份的存在。它可以是你的律师、你的财务顾问、你的私人助理,甚至是公司的运营官。”

这样的AI,不只是能完成任务,而是要承担起和角色相关的责任:

  • 一个医生智能体要遵守医学伦理,持续追踪患者病历
  • 一个律师智能体要熟悉当地法规,在法庭上替你辩护
  • 一个家庭管家智能体要管理长期计划、预算和日程

这时,它就不再是工具,而是社会角色的延伸。

✅ 角色市场:谁来认证?谁能委托?

Karpathy 提出一个更深的问题:“当 AI 拥有角色后,谁来定义它的职责?谁来确认它的资格?”

如果你雇一个人类医生,他需要通过考试、拿到执照、承担责任。那如果是一个AI医生呢?

这意味着,一个全新的“角色市场”正在出现:谁来认证这些AI是否合格?它们能代表个人做决定、签合同吗?如果AI做错了决定,责任由谁承担?

这些问题看似遥远,但实际上已经开始出现。

例如,美国已有初创公司在开发“AI 律师”,可以自动生成合同、准备庭审文件;一些金融机构也在测试“AI 投资顾问”,为客户提供全自动资产配置方案。

Karpathy 的观点是:智能体的未来不只是技术升级,而是制度升级。

✅ 共存的张力:人类与 AI,会不会“撞角色”?

随着AI开始带着身份上岗,一个新的问题不可避免:它会不会和人类抢位置?

Karpathy 的回答是:会,但这不是坏事。

AI 不会取代人类的存在,它会改变角色的定义。你不再是唯一的执行者,而是一个协作者。

就像公司里从“手动记账”变成“财务系统+会计师合作”一样,未来的医生、律师、产品经理,可能都要学会和“AI 同行”协作:

  • 医生与 AI 协作,AI 负责数据分析,人类做最终判断;
  • 律师与 AI 搭档,AI 起草合同,人类负责谈判和策略;
  • 企业团队中,AI 负责执行复杂流程,人类负责愿景和方向。

这种角色融合不是削弱人类的价值,而是让人从重复劳动中解放出来,去承担更高层次的思考和创造。

Karpathy 的“十年路线图”最后落在一个清晰的画面上:

“未来,你不会只用一个AI。你会和一支AI团队一起工作。一个懂财务的助手、一个懂法律的顾问、一个帮你规划生活的助理。他们都有名字,有背景,有记忆,有责任。”

这不是冷冰冰的工具调用,而是充满人格的生态。当 AI 开始有身份,社会的结构、规则、信任方式都会随之改变。

我们不是在部署工具,而是在建设一批全新的社会成员。

结语|不是爆发,而是一条长曲线

2025 年,看似什么都在“爆发”。模型越来越大,功能越来越多,发布越来越快。人们以为 AI 正在冲进一个“奇点时刻”。

但 Karpathy 给出的判断,恰恰相反。

不是突然突破,而是一条慢的长曲线。等你回头看时,才发现自己已经走在其中。

这不是悲观,而是更清醒的认知。

十年怎么走? Karpathy展示了一条不靠堆参数、而靠系统重构的路线:

  • 让 AI 从“说一句”到“能做事”
  • 从喂数据到设计课程
  • 从工具到社会角色

真正的转折不是模型“能干什么”,而是 AI 开始记得你是谁、明白它该做什么、成为社会的一部分。

这是一场渐进的演进,一场结构性的重构。你不会在某一天看到 AGI 突然诞生。你只会在某个清晨,打开熟悉的对话框,突然意识到:它已经不是原来的它了。

而你,也早已在这条智能体曲线里,走了很远。

📮参考资料

https://www.youtube.com/watch?v=lXUZvyajciY

https://podcasts.apple.com/us/podcast/andrej-karpathy-agi-is-still-a-decade-away/id1516093381?i=1000732326311&utm_source=chatgpt.com

本文来自微信公众号“AI 深度研究员”,作者:AI深度研究员,36氪经授权发布。

作者头像

AI前线

专注人工智能前沿技术报道,深入解析AI发展趋势与应用场景

246篇文章 1.2M阅读 56.3k粉丝

评论 (128)

用户头像

AI爱好者

2小时前

这个更新太令人期待了!视频分析功能将极大扩展AI的应用场景,特别是在教育和内容创作领域。

用户头像

开发者小明

昨天

有没有人测试过新的API响应速度?我们正在开发一个实时视频分析应用,非常关注性能表现。

作者头像

AI前线 作者

12小时前

我们测试的平均响应时间在300ms左右,比上一代快了很多,适合实时应用场景。

用户头像

科技观察家

3天前

GPT-4的视频处理能力已经接近专业级水平,这可能会对内容审核、视频编辑等行业产生颠覆性影响。期待看到更多创新应用!