AI热点 5小时前 59 阅读 0 评论

OpenAI大腿又被挖,小扎刚刚回应一切:顶级人才除了钱,更想要这两样东西

作者头像
AI中国

AI技术专栏作家 | 发布了 246 篇文章

「我希望向我汇报的人数最少,而 GPU 数量最多。」 

Meta CEO 扎克伯格在最新采访中说,这是那些顶级 AI 研究员开出的「理想工作条件」。这也侧面点出了 Meta 目前正在全力打造的 AI 人才战打法。 

Meta 「挖人大战」仍未停止,两位被 Meta 新挖走的 OpenAI 研究员 X 主页截图 Meta 「挖人大战」仍未停止,两位被 Meta 新挖走的 OpenAI 研究员 X 主页截图 

很明显,这样的打法确实奏效了,OpenAI 的 CEO 都忍不住怒骂「就是强盗」。 

而最新的情况是,据连线杂志报导,曾参与 OpenAI o3 和深度研究模型工作的研究员 Jason Wei 将加入 Meta 的超级智能实验室,他的同事 Hyung Won Chung 也将加入 Meta。 

Jason Wei 在  2023年加入OpenAI,2020 年从达特茅斯学院本科毕业,进入谷歌工作, 专注于思维链研究、指令微调和涌现现象。 

这种不计成本的「狂挖人」和「大撒币」模式,让整个科技圈都感到好奇: Meta 如此豪赌,究竟图什么?

Meta 没有像一些公司那样,一头扎进「做出第一个 AGI」的竞赛,也不把全部押注放在模型参数堆叠、Sora 式爆款视频、AI 办公全家桶这些方向上。 

扎克伯格在这次 The Information 的采访中,重点提到了这三件事来解释 Meta 到底「图什么」: 

  • 将计算能力与人才密集型团队结合,Meta 将成为拥有最多计算能力的公司
  • 吸引人才的花费,其实比我们在计算能力上的总体投入要小得多
  • 搭建个人超级智能,不做「中央 AI 大脑」,而是做「你的 AI 搭子」

这些看似激进的操作背后,其实是扎克伯格少有地、清晰表述了自己对 AI 的长线押注与产品哲学: AI 的未来不只是成为一个解决关键问题的「超级大脑」,更是要在日常的每一件事上都能帮到你。

等你有了 1 万块 H100 GPU 再来找我 

这是 Perplexity 的 CEO Aravind Srinivas 去年回忆起,自己试图从 Meta 挖一个研究员时,被对方用来回怼的原话。 

Perplexity公司首席执行官阿拉文德·斯里尼瓦斯(Aravind Srinivas)表示,他无法聘请一位Meta研究员,因为他的公司计算能力不足。 

虽然夸张,但它真实反映出一个新趋势,在顶尖 AI 人才心中,高薪不再是唯一指标,算力密度和研究自由度才是决定性诱因。 

扎克伯格这次在采访时总结说,AI 研究员最关心的,其实是这三点: 

  • 尽量少的管理工作:少带团队、不想协调,只想专心研究
  • 尽可能多的 GPU:最好一个人就能控制上万块 H100
  • 合理的回报:钱当然还是要的,只不过已经不是唯一决定因素

所以,能够为每个研究员提供最多的计算能力,显然是一个战略优势。这不仅仅有利于我们完成科研工作,也有助于吸引最顶尖的人才。 

Meta 超级智能团队部分成员,图片来自:aim.media.house 

在 Meta 组建的 Superintelligence Lab 中,这正是标准配置。每位顶尖研究员都拥有业界领先的算力资源,甚至是其他 AI 实验室的数倍,而组织结构尽可能扁平,强调极小团队、极快迭代、极高自由度。 

扎克伯格形容这是一个 「clean slate」 从零开始的机会,也是为什么很多原 OpenAI、Google、Anthropic 的人愿意跳槽, 不是为了钱,而是因为「终于可以自己做主」 。 

总之,我们大概可以理解成,Meta 用的是「 研究员人均显卡面积 」来打人才战的。 

钱不是问题,Meta 靠现金流堆出一座「AI 城」 

当然,能给得起这么多 GPU 的,也没几家公司。 

其他公司要搞 AI,要么靠财团输血(OpenAI + 微软,Anthropic + 亚马逊/谷歌),要么靠内部周转。Meta 则不一样:它靠 Facebook 和 Instagram 的广告现金流,养活了全球最贵的一群 AI 人才和最多的算力储备。 

扎克伯格说,他们正在建造的 Hyperion 和 Prometheus 两个 Titan 集群,最终功率将超过 5GW,数据中心覆盖面积接近曼哈顿,是「人类历史上最大规模的 AI 计算集群之一」。 

同时,Meta 还在建设「帐篷式」数据中心。不再是传统的有屋顶的建筑,而是使用防风防水的帐篷,在里面构建网络和 GPU 集群,以便能更快速地完成建设。 

最关键的是,这一切不用融资。 不靠风险投资,不靠 IPO,再次证明了社交广告这个生意模型的「印钞能力」。

在被问到关于 CapEx(资本支出)是否有上限,他说得很直接: 

我们有资本支持这一切……我自己也很兴奋,以创新的方式建设它们……我认为这是我们的一个优势……为什么人们非常兴奋来加入 Meta 的超智能实验室。 

从整体上看,如果你要花费数百亿美元来进行计算和建设多个千兆瓦的数据中心,那么要争取到 50 到 70 个顶尖研究人员来组成团队,投入这些资金确实是有意义的。 

这让人觉得,似乎是针对那些可能还需要融资,来完成这些建设的竞争对手,一种隐晦的回应。 

在他看来,AI 是未来几十年人类社会的底层结构,就像互联网一样。而 Meta 的战略,就是趁现在还来得及,提前把能抢到的资源全都抢到手里。

和 OpenAI 不一样,Meta  不解决世界难题,只解决你的日常 

AI 的未来会长成什么样?对这个问题,大多数主流实验室的回答都是,「让 AI 替你做尽可能多的工作」。 

OpenAI 的 Sora 正在拍片,GPT-4o 能当助教、当医生,甚至有人预测 AGI(通用人工智能)将在几年内登场。Anthropic 和 Google DeepMind 则更强调安全、伦理、对齐等维度,大家争的是「谁能率先搞定那个全能的超级大脑」。 

但扎克伯格的回答不一样。他说的关键词不是 AGI,而是: 

Personal Superintelligence ,个人超级智能。 

这听上去像是营销术语,但在他的论述中,背后确实有一套产品哲学: 

  • 别人以为 Meta 要开发中心化的超智能,解决重大问题,但 Meta 想要的是个人超级智能,解决生活中相对简单,但全面丰富的事情。
  • 别人想自动化全社会的经济工作,Meta 想帮你搞定生活里的小事、快乐、关系和创造力。
  • 未来最理想的 AI 形态,不是网页,不是手机 app,而是一副来自 Meta 的会听、会看、能说话的智能眼镜。

我觉得以后不戴 AI 眼镜的人,会像今天没戴视力矫正镜一样,处在认知劣势中。 

Meta 智能眼镜 

在采访中,扎克伯格还给出了关于他自己的例子: 

他说几乎在每次和别人的聊天中,他都会想到几件事需要继续跟进,但往往一件都没跟,或者最多就是探讨一件事。而如果未来戴上 Meta 的 AI 眼镜, 它就可以记住所有信息,并进行整理,然后自动提醒你的下一步操作,甚至代为处理。 

从某种意义上说,Meta 想做的不是不是那种单纯提高生产力的工具,他要做的是更「接地气」,服务更多人的,与个人更相关的超级智能。 

人工智能就像互联网刚开始普及时一样,人们会问,互联网会用于生产力吗?它会用于娱乐,还是改变我们工作的方式?   

最终,答案是:它都会。因此,人工智能也会这样,有不同的公司专注于不同的方面。

到目前为止,其他实验室的很多话题都围绕着自动化社会中的经济生产性工作,当然,经济自动化和经济进步的潜力很大,可以为许多人带来帮助。 

但另一方面是,人们在自己生活中关心的事情是什么?

 部分人关心生产力,但更多的却是人际关系、文化、创造力,以及享受乐趣和生活。 

和过去几年相比,这次扎克伯格在采访中的状态,显得前所未有地「主动」。 

尽管 Meta 的 Llama 模型可能没有像 Meta 所希望的那样抓到这一波人工智能的潮流,Llama 4 Behemoth 也因为「内部测试性能不佳」而推迟了发布。 

SemiAnalysis 报导了推迟发布的原因,提到 Meta 在强化学习和内部评估方面「非常落后」。 

但也提到了 Meta 新的超级智能团队将努力缩小差距,它将有望成为第一个将 1GW+ 超级集群投入运行的实验室。 

而在这次的采访中被问到 Llama 落后的情况时,扎克伯格表示「这个领域正在加速发展,我只想确保我们能够占据有利地位」。 

今天行业内有一个很大的争论。超级智能是否会在三年、五年或七年内成为可能?

但我不认为有人知道答案。我只是认为我们应该下注并采取行动,假设它将在未来两到三年内准备就绪。

我相信这是有可能的。如果你也这么相信,那无论需要什么,都要投入数千亿美元去打造最强的团队。 

这场采访没有「惊天猛料」,也没有产品发布。 

但它罕见的呈现了一个真实的判断,AI 已不再是纯粹的科技竞赛,而是一次组织能力、基础设施、产品哲学的全面较量。 

本文来自微信公众号“APPSO”,作者:发现明日产品的,36氪经授权发布。

作者头像

AI前线

专注人工智能前沿技术报道,深入解析AI发展趋势与应用场景

246篇文章 1.2M阅读 56.3k粉丝

评论 (128)

用户头像

AI爱好者

2小时前

这个更新太令人期待了!视频分析功能将极大扩展AI的应用场景,特别是在教育和内容创作领域。

用户头像

开发者小明

昨天

有没有人测试过新的API响应速度?我们正在开发一个实时视频分析应用,非常关注性能表现。

作者头像

AI前线 作者

12小时前

我们测试的平均响应时间在300ms左右,比上一代快了很多,适合实时应用场景。

用户头像

科技观察家

3天前

GPT-4的视频处理能力已经接近专业级水平,这可能会对内容审核、视频编辑等行业产生颠覆性影响。期待看到更多创新应用!