多模态大语言模型

OpenAI没说的秘密,Meta全揭了?华人一作GPT-4o同款技术,爆打扩散王者

声明:本文来自微信公众号“新智元”,作者:新智元,编辑:KingHZ,授权站长之家转载发布。自回归模型的新突破:首次生成2048×2048分辨率图像!来自Meta、西北大学、新加坡国立大学等机构的研究人员,提出了TokenShuffle,为多模态大语言模型(MLLMs)设计的即插即用操作,显著减少了计算中的视觉token数量,提高效率并促进高分辨率图像合成。图1:采用新技术的27亿参数自回归模

英伟达推多模态LLM Describe Anything:指定特定区域生成详细的描述

NVIDIA AI团队发布了一款革命性的多模态大语言模型——Describe Anything3B(DAM-3B),专为图像和视频的精细化、区域化描述而设计。这款模型凭借创新技术和卓越性能,在多模态学习领域掀起热议,成为AI技术发展的又一里程碑。以下,AIbase为您梳理这款模型的核心亮点与行业影响。区域化描述的突破DAM-3B以其独特的能力脱颖而出:能够根据用户指定的图像或视频区域(如点、框、涂

昆仑万维开源SkyReels-V2:无限时长电影生成模型

昆仑万维 SkyReels 团队正式发布并开源了 SkyReels-V2,这是全球首个使用扩散强迫(Diffusion-forcing)框架的无限时长电影生成模型。该模型通过结合多模态大语言模型(MLLM)、多阶段预训练、强化学习和扩散强迫框架来实现协同优化,标志着视频生成技术迈入了一个新的阶段。SkyReels-V2的发布旨在解决现有视频生成技术在提示词遵循、视觉质量、运动动态和视频时长协调上的