AI热点 1月前 206 阅读 0 评论

全流程昇腾平台训练,华为推出准万亿参数盘古 Ultra MoE 模型

作者头像

AI技术专栏作家 | 发布了 246 篇文章

感谢IT之家网友 咩咩洋、HH_KK 的线索投递!

IT之家 5 月 30 日消息,华为今日推出参数规模高达 7180 亿的全新模型盘古 Ultra MoE,这是一个全流程在昇腾 AI 计算平台上训练的准万亿 MoE 模型。

据IT之家了解,盘古团队提出 Depth-Scaled Sandwich-Norm(DSSN)稳定架构和 TinyInit 小初始化的方法,在昇腾平台上实现了超过 18TB 数据的长期稳定训练

在训练方法上,华为团队首次披露在昇腾 CloudMatrix 384 超节点上打通大稀疏比 MoE 强化学习(RL)后训练框架的关键技术,使 RL 后训练进入超节点集群时代。

在 5 月初发布的预训练系统加速技术基础上,在不到一个月的时间内,华为团队又完成了一轮迭代升级,包括:适配昇腾硬件的自适应流水掩盖策略,进一步优化算子执行序,进一步降低 Host-Bound 以及提升 EP 通信的掩盖;自适应管理内存优化策略的开发;数据重排实现 DP 间 Attention 负载均衡;以及昇腾亲和的算子优化,这些技术实现万卡集群预训练 MFU 由 30% 大幅提升至 41%

IT之家附技术报告:点此前往 及项目文件预览:点此前往

相关阅读:

  • 《英伟达含量为零:华为密集模型盘古 Ultra 性能比肩 DeepSeek-R1,纯昇腾集群训练》

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

作者头像

AI前线

专注人工智能前沿技术报道,深入解析AI发展趋势与应用场景

246篇文章 1.2M阅读 56.3k粉丝

评论 (128)

用户头像

AI爱好者

2小时前

这个更新太令人期待了!视频分析功能将极大扩展AI的应用场景,特别是在教育和内容创作领域。

用户头像

开发者小明

昨天

有没有人测试过新的API响应速度?我们正在开发一个实时视频分析应用,非常关注性能表现。

作者头像

AI前线 作者

12小时前

我们测试的平均响应时间在300ms左右,比上一代快了很多,适合实时应用场景。

用户头像

科技观察家

3天前

GPT-4的视频处理能力已经接近专业级水平,这可能会对内容审核、视频编辑等行业产生颠覆性影响。期待看到更多创新应用!