AI热点 4月前 60 阅读 0 评论

AMD 推出开源项目“GAIA”实现本地大模型高效运行:针对锐龙 AI 300 系列处理器优化,目前仅适用于 Windows

作者头像

AI技术专栏作家 | 发布了 246 篇文章

IT之家 3 月 22 日消息,当地时间周四,AMD 宣布推出专为本地运行大语言模型(LLM)设计的应用 GAIA(发音为/ˈɡaɪ.ə/)并在 Github 开源,目前仅限于 Windows 平台。

GAIA 是一款生成式 AI 应用,能够在 Windows PC 上实现本地化私密运行 LLM,并针对锐龙 AI 300 系列处理器进行了优化,标志着 AMD 在边缘计算领域的又一重要布局。

在 NPU 上运行 GAIA 可提高 AI 特定任务的性能。从 Ryzen AI 软件版本 1.3 开始,混合支持部署同时使用 NPU 和核显的量化 LLM。

其核心组件基于 ONNX TurnkeyML 的 Lemonade SDK 开发,采用检索增强生成(RAG)技术框架,通过本地向量索引实现 YouTube、GitHub 等外部数据的实时检索与分析。

系统工作流包含 LLM 连接器、LlamaIndex RAG 管道和代理 Web 服务器三大模块,支持 Llama、Phi 等主流模型。功能模块包含四大 AI 智能体:

    • Chaty:支持历史对话的聊天机器人

    • Clip:YouTube 视频搜索与问答专家

    • Joker:具备幽默风格的笑话生成器

    • Simple Prompt:模型直接交互测试工具

硬件方面,AMD 提供普通版与混合版两种安装方案。普通安装包兼容任意 Windows PC(含非 AMD 硬件设备),通过 Ollama 后端实现跨平台支持。

混合安装包专为配备锐龙 AI 300 系列处理器的设备进行优化,可智能分配 NPU 与集成显卡的计算负载。AMD 表示,Ryzen AI 软件自 1.3 版本起支持量化模型在 NPU 和集成显卡间的混合部署。

隐私与性能优势方面:

    • 本地化处理确保医疗、金融等敏感行业数据不出境

    • 响应延迟降低至毫秒级(相较云端方案缩短 40-60%)

    • NPU 专用架构实现每瓦性能提升,支持离线环境运行

该项目采用 MIT 开源协议,代码库已在 GitHub 开放。AMD 特别鼓励开发者贡献自定义代理模块,目前已有多个行业定制化代理处于开发阶段。

此外,尽管 GAIA 目前暂不支持 Linux / macOS 系统,但 AMD 官方文档透露未来可能扩展多平台支持。

IT之家附 Github 地址:
https://github.com/amd/gaia

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

作者头像

AI前线

专注人工智能前沿技术报道,深入解析AI发展趋势与应用场景

246篇文章 1.2M阅读 56.3k粉丝

评论 (128)

用户头像

AI爱好者

2小时前

这个更新太令人期待了!视频分析功能将极大扩展AI的应用场景,特别是在教育和内容创作领域。

用户头像

开发者小明

昨天

有没有人测试过新的API响应速度?我们正在开发一个实时视频分析应用,非常关注性能表现。

作者头像

AI前线 作者

12小时前

我们测试的平均响应时间在300ms左右,比上一代快了很多,适合实时应用场景。

用户头像

科技观察家

3天前

GPT-4的视频处理能力已经接近专业级水平,这可能会对内容审核、视频编辑等行业产生颠覆性影响。期待看到更多创新应用!