AI热点 2月前 204 阅读 0 评论

谷歌 DeepMind 最强 AI 手语翻译模型:SignGemma 登场,打破手语沟通壁垒

作者头像

AI技术专栏作家 | 发布了 246 篇文章

IT之家 5 月 31 日消息,谷歌 DeepMind 团队于 5 月 27 日宣布推出 SignGemma,是其迄今为止最强大的手语翻译模型,可将手语转化为口语文本,该开源模型将于今年晚些时候加入 Gemma 模型家族。

IT之家注:SignGemma 模型支持多语言功能,但目前主要针对美国手语(ASL)和英语进行了深度优化,开源属性意味着开发者可以自由使用并改进它。

DeepMind 希望通过这一技术,打破手语使用者在沟通上的障碍,让他们在工作、学习和社交中更顺畅地参与。

DeepMind 今年还推出 Gemma 3n 模型,支持从音频、图像、视频及文本输入生成智能文本,助力开发者打造实时互动应用。

此外,谷歌还与佐治亚理工学院及 Wild Dolphin Project 合作,推出 DolphinGemma 模型,分析并生成海豚声音,基于巴哈马大西洋斑点海豚的长期研究数据构建。

同时,MedGemma 模型作为 Gemma 3 家族新成员,聚焦医疗 AI,支持临床推理和医学影像分析,加速医疗与人工智能的融合创新。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

作者头像

AI前线

专注人工智能前沿技术报道,深入解析AI发展趋势与应用场景

246篇文章 1.2M阅读 56.3k粉丝

评论 (128)

用户头像

AI爱好者

2小时前

这个更新太令人期待了!视频分析功能将极大扩展AI的应用场景,特别是在教育和内容创作领域。

用户头像

开发者小明

昨天

有没有人测试过新的API响应速度?我们正在开发一个实时视频分析应用,非常关注性能表现。

作者头像

AI前线 作者

12小时前

我们测试的平均响应时间在300ms左右,比上一代快了很多,适合实时应用场景。

用户头像

科技观察家

3天前

GPT-4的视频处理能力已经接近专业级水平,这可能会对内容审核、视频编辑等行业产生颠覆性影响。期待看到更多创新应用!