AI热点 3月前 192 阅读 0 评论

“老当益壮”:AI 模型成功在 43 年前的 Commodore 64 电脑上运行

作者头像

AI技术专栏作家 | 发布了 246 篇文章

IT之家 5 月 4 日消息,在人工智能领域,各大阵营都在竞相让自己的大语言模型(LLM)能够在尽可能弱、尽可能便宜的硬件上运行。硬件性能越弱,运行大语言模型所需的功耗就越低。然而,有没有想过让一个 AI 模型在 1982 年推出的硬件上运行呢?

这正是 Maciej Witkowiak 在其新项目“Llama2.c64”中所尝试的,据IT之家了解,该项目的目标是让一个简单的 AI 在 Commodore 64 上运行。

Witkowiak 对该项目的描述如下:

Llama2.c64 是由 Maciej“YTM / Elysium”Witkowiak 使用 oscar64 移植到 Commodore 64 的,需要至少配备 2MB 扩展内存单元(REU)的 Commodore 64 才能运行。

该项目运行的是一个 260KB 的 tinystories 模型,将 Llama2 的功能带到了独特的 C64 硬件环境中。

需要注意的是,这并不是一个聊天模型。想象一下给一个 3 岁的孩子讲一个故事的开头,他们会尽其词汇量和能力把故事讲下去。

从上图中可以看到 Llama2.c64 生成的故事示例,确实像是一个孩子在讲故事时胡言乱语,但考虑到 AI 所依赖的硬件条件如此有限,以及它在故事中所展现的延续性,对于一台已经 43 岁的电脑来说,已经是非常令人惊叹的成就了。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

作者头像

AI前线

专注人工智能前沿技术报道,深入解析AI发展趋势与应用场景

246篇文章 1.2M阅读 56.3k粉丝

评论 (128)

用户头像

AI爱好者

2小时前

这个更新太令人期待了!视频分析功能将极大扩展AI的应用场景,特别是在教育和内容创作领域。

用户头像

开发者小明

昨天

有没有人测试过新的API响应速度?我们正在开发一个实时视频分析应用,非常关注性能表现。

作者头像

AI前线 作者

12小时前

我们测试的平均响应时间在300ms左右,比上一代快了很多,适合实时应用场景。

用户头像

科技观察家

3天前

GPT-4的视频处理能力已经接近专业级水平,这可能会对内容审核、视频编辑等行业产生颠覆性影响。期待看到更多创新应用!