AI热点 1月前 176 阅读 0 评论

腾讯开源混元语音数字人模型:一张图一段音频就能让图中人物说话唱歌

作者头像

AI技术专栏作家 | 发布了 246 篇文章

感谢IT之家网友 西窗旧事 的线索投递!

IT 之家 5 月 28 日消息,腾讯混元公众号今日发文宣布开源混元语音数字人模型,仅需一张图和一段音频,就能让图中的主角自然地说话、唱歌。

此次发布的并开源的语音数字人模型 HunyuanVideo-Avatar,由腾讯混元视频大模型(HunyuanVideo)及腾讯音乐天琴实验室 MuseV 技术联合研发,支持头肩、半身与全身景别,以及多风格、多物种与双人场景,面向视频创作者提供高一致性、高动态性的视频生成能力。

用户可上传人物图像与音频,HunyuanVideo-Avatar 模型会自动理解图片与音频,比如人物所在环境、音频所蕴含的情感等,让图中人物自然地说话或唱歌,生成包含自然表情、唇形同步及全身动作的视频。

HunyuanVideo-Avatar 适用于短视频创作、电商与广告等多种应用场景,可以生成人物在不同场景下的说话、对话、表演等片段,快速制作产品介绍视频或多人互动广告,降低制作成本。

HunyuanVideo-Avatar 的单主体能力已经开源,并在腾讯混元官网上线,用户可以在“模型广场-混元生视频-数字人-语音驱动-HunyuanVideo-Avatar”中体验,目前支持上传不超过 14 秒的音频进行视频生成,后续将逐步上线和开源其他能力。

IT 之家附有关链接如下:

  • 体验入口:https://hunyuan.tencent.com/ modelSquare / home / play?modelId=126

  • 项目主页:https://hunyuanvideo-avatar.github.io

  • Github:https://github.com/Tencent-Hunyuan/HunyuanVideo-Avatar

  • CNB:https://cnb.cool/tencent/hunyuan/HunyuanVideo-Avatar

  • 技术报告:https://arxiv.org/ pdf/2505.20156

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

作者头像

AI前线

专注人工智能前沿技术报道,深入解析AI发展趋势与应用场景

246篇文章 1.2M阅读 56.3k粉丝

评论 (128)

用户头像

AI爱好者

2小时前

这个更新太令人期待了!视频分析功能将极大扩展AI的应用场景,特别是在教育和内容创作领域。

用户头像

开发者小明

昨天

有没有人测试过新的API响应速度?我们正在开发一个实时视频分析应用,非常关注性能表现。

作者头像

AI前线 作者

12小时前

我们测试的平均响应时间在300ms左右,比上一代快了很多,适合实时应用场景。

用户头像

科技观察家

3天前

GPT-4的视频处理能力已经接近专业级水平,这可能会对内容审核、视频编辑等行业产生颠覆性影响。期待看到更多创新应用!