DiaMoE-TTS – 清华联合巨人网络开源的多方言TTS框架
# AI工具,# AI项目和框架 AI视频

DiaMoE-TTS – 清华联合巨人网络开源的多方言TTS框架

作者头像 AI中国 21小时前 198 阅读
4.8 (1280评分)
15,328人已学习

DiaMoE-TTS是什么

DiaMoE-TTS 是清华大学和巨人网络联合推出的多方言语音合成(TTS)框架。框架基于国际音标(IPA)统一输入体系,结合方言感知的 Mixture-of-Experts(MoE)架构和低资源适配策略(PEFT),实现低成本、低门槛的多方言语音合成。框架支持多种方言和小语种,能在少量数据下快速建模,兼具高效性和灵活性。DiaMoE-TTS数据、代码和方法全面开源,推动方言保护与文化传承,让小众语言在数字世界中被听见。

DiaMoE-TTS

DiaMoE-TTS的主要功能

  • 多方言语音合成:支持多种方言和小语种语音合成,涵盖粤语、闽南话、吴语等,能扩展到京剧韵白等特殊类型,让小众语言能开口说话。
  • 低资源适配:通过 PEFT 策略和数据增强,在仅有数小时语料的低资源条件下,能快速适配新方言,合成自然流畅的语音。
  • 高可扩展性:全链路开源,提供完整的数据预处理、训练和推理代码,支持多种语言,方便研究者和开发者复现与扩展。
  • 高自然度语音合成:用方言感知 MoE 架构,通过动态门控机制选择专家网络,保留每种方言的独特音色和韵律,提升语音自然度。

DiaMoE-TTS的技术原理

  • 统一的 IPA 前端:使用国际音标(IPA)作为统一输入体系,将所有方言的语音映射到同一音素空间,消除跨方言间的差异性,保证模型训练的一致性和泛化能力。
  • 方言感知 MoE 架构:引入多个专家网络,每个专家专注于学习一种或几种方言的特征,避免单一网络的“风格平均化”问题。:根据输入的 IPA 自动选择最适合的专家网络进行语音合成,同时加入方言分类辅助损失,增强专家网络的区分能力。
  • 低资源适配策略(PEFT):在 text embedding 层和注意力层中融入 Conditioning Adapter 和 LoRA,仅需微调少量参数完成方言扩展,主干网络和 MoE 模块保持冻结。用音高扰动和语速扰动等技术,提升模型在低资源条件下的合成效果。
  • 多阶段训练方法:在 F5-TTS 原始 checkpoint 的基础上,引入 IPA 音素转换的数据进行预热训练,实现输入形式的平滑迁移。用多个开源方言数据进行联合建模,激活 MoE 结构,学习共享特征、区分不同方言的发音模式。通过动态门控机制和方言分类辅助损失,进一步优化 MoE 的分流效果,捕捉每种方言的独特特征。针对仅有数小时语料的新方言,用 PEFT 策略结合数据增强,实现高效迁移、保持已有知识不被遗忘。

DiaMoE-TTS的项目地址

  • GitHub仓库:https://github.com/GiantAILab/DiaMoE-TTS
  • HuggingFace模型库:https://huggingface.co/RICHARD12369/DiaMoE_TTS
  • arXiv技术论文:https://www.arxiv.org/pdf/2509.22727

DiaMoE-TTS的应用场景

  • 教育领域:为方言和小语种教学提供生动的语音合成工具,帮助学生更好地学习和掌握不同语言的发音。
  • 文化保护:助力方言和小语种的保护与传承,通过语音合成技术记录和重现濒临消失的方言,保留文化多样性。
  • 虚拟人与数字内容:为虚拟人、数字助手等生成多样的方言语音,丰富虚拟角色的表现力,提升用户体验。
  • 数字文旅:在旅游景点提供多种方言的语音导览,增强游客对当地文化的认同感和亲切感。
  • 跨境交流:支持多种语言和方言的语音合成,促进不同语言背景的人群之间的交流与理解。

教程评分

4.8 (1280 人评分)

学习讨论 (42)

用户头像

初学者

2天前

非常棒的教程!

作者头像

AI导师李明 作者

1天前

多谢