AI热点 2月前 146 阅读 0 评论

AI 数学推理新王:英伟达发布两款 OpenMath-Nemotron 模型,刷新 AIME 准确率纪录

作者头像

AI技术专栏作家 | 发布了 246 篇文章

IT之家 4 月 25 日消息,科技媒体 marktechpost 今天(4 月 25 日)发布博文,报道称英伟达专为数学推理设计,发布  OpenMath-Nemotron-32B 和 OpenMath-Nemotron-14B-Kaggle 两款先进 AI 模型。

数学推理一直是 AI 领域的巨大挑战。传统的语言模型擅长生成流畅文本,却在解决复杂数学问题时显得力不从心,这些问题不仅需要理解抽象概念,还要求多步骤的逻辑推导。

IT之家援引博文介绍,英伟达针对这一难题,推出了 OpenMath-Nemotron-32B 和 OpenMath-Nemotron-14B-Kaggle 两款模型,基于 Qwen 系列 transformer 模型,通过在 OpenMathReasoning 数据集上的深度微调,显著提升了数学推理能力。

OpenMath-Nemotron-32B 是系列中的旗舰产品,拥有 328 亿参数,采用 BF16 张量运算优化硬件效率。该模型在 AIME 2024、AIME 2025、HMMT 2024-25 等多项基准测试中取得领先成绩。

以工具集成推理(TIR)模式为例,其在 AIME24 上的 pass@1 准确率达到 78.4%,通过多数投票机制更是提升至 93.3%。

此外,模型支持链式思维(CoT)、工具集成推理(TIR)和生成式选择(GenSelect)三种模式,用户可根据需求平衡推理透明度和答案精确度,满足科研和生产环境的不同场景。

OpenMath-Nemotron-14B-Kaggle 是一款 148 亿参数的轻量模型,针对 AIMO-2 Kaggle 竞赛优化设计,通过精选 OpenMathReasoning 数据集子集进行微调,成功夺得竞赛第一名。

在 AIME24 测试中,其 CoT 模式下 pass@1 准确率为 73.7%,GenSelect 模式下提升至 86.7%。这款模型参数更少,保持高质量的数学解题能力的同时,适合资源受限或低延迟需求的场景。

英伟达为两款模型提供了开源管道,集成于 NeMo-Skills 框架中,支持数据生成、训练和评估的全流程复现。开发者可通过示例代码快速构建应用,获取逐步解答或简洁答案。

模型针对 NVIDIA GPU(如 Ampere 和 Hopper 架构)深度优化,利用 CUDA 库和 TensorRT 技术,确保高效运行。同时,采用 Triton Inference Server 支持低延迟、高吞吐量的部署,BF16 格式则在内存占用与性能间取得平衡,助力大规模应用落地。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

作者头像

AI前线

专注人工智能前沿技术报道,深入解析AI发展趋势与应用场景

246篇文章 1.2M阅读 56.3k粉丝

评论 (128)

用户头像

AI爱好者

2小时前

这个更新太令人期待了!视频分析功能将极大扩展AI的应用场景,特别是在教育和内容创作领域。

用户头像

开发者小明

昨天

有没有人测试过新的API响应速度?我们正在开发一个实时视频分析应用,非常关注性能表现。

作者头像

AI前线 作者

12小时前

我们测试的平均响应时间在300ms左右,比上一代快了很多,适合实时应用场景。

用户头像

科技观察家

3天前

GPT-4的视频处理能力已经接近专业级水平,这可能会对内容审核、视频编辑等行业产生颠覆性影响。期待看到更多创新应用!