AI热点 3月前 171 阅读 0 评论

低端显卡登上AI的大船!6GB显存就能生成高质量视频

作者头像
快科技

AI技术专栏作家 | 发布了 246 篇文章

快科技4月20日消息,GitHub的Lvmin Zhang联合斯坦福大学的Maneesh Agrawala,发布了一项突破性的新技术FramePack,通过在视频扩散模型中使用固定长度的时域上下文,可以更高效地生成时间更长、质量更高的视频。

根据实测,基于FramePack构建的130亿参数模型,只需一块6GB显存的显卡,就能生成60秒钟的视频。

FramePack是一种神经网络架构,使用多级优化策略,完成本地AI视频生成。

目前,它底层基于定制版的腾讯混元模型,不过现有的预训练模型,都可以通过FramePack进行微调、适配。

典型的视频扩散模型在生成视频时,需要首先处理此前生成的带有噪音的帧,然后预测下一个噪音更少的帧,而每生成一帧所需要输入的帧数量,就是时域上下文长度,会随着视频的体积而增加。

这就对显存有着很高的要求,一般至少得有12GB,而如果显存不够多,生成的视频就会很短,质量很差,生成的时间也会很长。

FramePack会根据输入帧的重要性,对所有输入帧进行压缩,改变为固定的上下文长度,显著降低对显存的需求,而且计算消耗与图片扩散模型类似。

同时,每一帧画面生成之后,都会实时显示,方便即时预览。

FramePack还可以缓解漂移”(drifting)现象,也就是视频长度增加、质量下降的问题,从而在不显著牺牲质量的同时,生成更长的视频。

FramePack数据格式支持FP16、BF16,显卡硬件支持RTX 50、RTX 40、RTX 30系列显卡,除了RTX 3050 4GB几乎所有的近代显卡都没问题。

在RTX 20系列和更老显卡上尚未经过验证,也没有提及AMD、Intel处理器的需求。

操作系统支持Windows、Linux。

性能方面,RTX 4090经过teacache优化之后,每秒可以生成大约0.6帧。

(举报)

作者头像

AI前线

专注人工智能前沿技术报道,深入解析AI发展趋势与应用场景

246篇文章 1.2M阅读 56.3k粉丝

评论 (128)

用户头像

AI爱好者

2小时前

这个更新太令人期待了!视频分析功能将极大扩展AI的应用场景,特别是在教育和内容创作领域。

用户头像

开发者小明

昨天

有没有人测试过新的API响应速度?我们正在开发一个实时视频分析应用,非常关注性能表现。

作者头像

AI前线 作者

12小时前

我们测试的平均响应时间在300ms左右,比上一代快了很多,适合实时应用场景。

用户头像

科技观察家

3天前

GPT-4的视频处理能力已经接近专业级水平,这可能会对内容审核、视频编辑等行业产生颠覆性影响。期待看到更多创新应用!