AI热点 7月前 166 阅读 0 评论

谷歌 DeepMind 机器人 AI 模型实现本地化运行:可完成系鞋带等高难度任务

作者头像

AI技术专栏作家 | 发布了 246 篇文章

IT之家 6 月 24 日消息,谷歌 DeepMind 今日发布博客文章,宣布推出一种全新的 Gemini Robotics On-Device 本地化机器人 AI 模型。

该模型基于视觉-语言-动作(VLA)架构,无需云端支持即可实现实体机器人控制。核心特性包括:

技术能力:

    • 独立运行于机器人设备,支持低延迟响应(IT之家注:适用于网络不稳定场景,如医疗环境)

    • 完成高精度操作任务(如打开包袋拉链、叠衣服、系鞋带)

    • 双机械臂设计,适配 ALOHA、Franka FR3 及 Apollo 人形机器人

开发适配:

    • 提供 Gemini Robotics SDK 工具包

    • 开发者通过 50-100 次任务演示即可定制新功能

    • 支持 MuJoCo 物理模拟器测试

安全保障:

    • 通过 Live API 实施语义安全检测

    • 底层安全控制器管理动作力度与速度

    • 开放语义安全基准测试框架

项目负责人 Carolina Parada 表示:“该系统借鉴 Gemini 多模态世界理解能力,如同 Gemini 生成文本 / 代码 / 图像那样生成机器人动作”。

谷歌表示,该模型现在只面向可信测试计划开发者开放,基于 Gemini 2.0 架构开发(落后于 Gemini 2.5 最新版本)。

参考资料:

  • 《Gemini Robotics On-Device brings AI to local robotic devices》

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

作者头像

AI前线

专注人工智能前沿技术报道,深入解析AI发展趋势与应用场景

246篇文章 1.2M阅读 56.3k粉丝

评论 (128)

用户头像

AI爱好者

2小时前

这个更新太令人期待了!视频分析功能将极大扩展AI的应用场景,特别是在教育和内容创作领域。

用户头像

开发者小明

昨天

有没有人测试过新的API响应速度?我们正在开发一个实时视频分析应用,非常关注性能表现。

作者头像

AI前线 作者

12小时前

我们测试的平均响应时间在300ms左右,比上一代快了很多,适合实时应用场景。

用户头像

科技观察家

3天前

GPT-4的视频处理能力已经接近专业级水平,这可能会对内容审核、视频编辑等行业产生颠覆性影响。期待看到更多创新应用!