Meta

Llama 4重磅登陆Vertex AI:一键部署Meta新模型,AI开发迎来新纪元

近日,谷歌云平台宣布,其Vertex AI Model Garden正式引入Meta最新一代开源大模型Llama4,这一消息迅速在全球科技圈掀起热潮。据悉,Llama4系列中的Scout和Maverick两款模型现已集成至Vertex AI,并通过完全托管的“模型即服务”(Model-as-a-Service,MaaS)API端点向开发者开放预览。这一功能的推出,不仅标志着谷歌与Meta在AI生态

Meta AI 研究主管皮诺计划辞职,650亿美元投资计划仍在推进

Meta 人工智能研究副总裁乔尔·皮诺(Joelle Pineau)周二通过 Facebook 帖子宣布,她将于5月离职,结束她在 Meta 的职务。皮诺自两年前起担任 Meta 人工智能研究实验室(FAIR)主管,领导该实验室在人工智能领域的前沿研究。FAIR 是由著名科学家 Yann LeCun 领导的 Meta 内部核心研究团队。皮诺的离职正值 Meta 加大对人工智能领域的投入之际。该公司

​Meta 重新调整 AI 团队结构 努力加速产品开发

根据 Axios 的最新报道,Meta 决定将其人工智能部门重新划分为两个新的团队。这一调整旨在提升公司在快速发展的 AI 领域的竞争力,确保 Meta 能够与 OpenAI、谷歌和 Anthropic 等其他公司保持同步。 新的 AI 团队将分为两个部分:AI 产品团队和 AGI 基础单位。AI 产品团队将专注于开发面向消费者的功能,包括 Facebook、Instagram 和 WhatsAp

作者集会抗议Meta盗用作品训练 AI,版权问题引发热议

上周,约100名作家在 Meta 位于伦敦的总部外发起抗议,指责这家美国科技巨头未经许可 “盗用” 他们的作品用于训练人工智能模型。抗议者高喊着 “Meta,Meta,书籍小偷”,一些人还举着标语,内容包括 “我本想写个标语,但你们会偷走它” 和 “让扎克回我们的书里”,这显然是针对 Meta 首席执行官马克・扎克伯格的调侃。早前,关于扎克伯格批准公司使用一个名为 “LibGen” 的在线图书馆的

Meta AI眼镜“实时翻译”功能全面开放,不联网也能用!

据 The Verge 等外媒当地时间 23 日报道,Meta 正在将包括实时翻译在内的各种 AI 功能扩展应用到雷朋智能眼镜当中。据悉,此前此前仅向“抢先体验计划”用户提供的实时翻译、通过 Instagram 发送消息和进行通话、基于周边视觉信息与 “Meta AI” 进行对话等功能,现在都将面向普通用户开放。实时翻译、通过 Instagram 发送消息和拨打电话、以及根据周围环境视觉信息与

售价将超万元!Meta计划推出高端AI眼镜:首次配售腕带控制器

快科技4月3日消息,近日,据媒体报道,Meta计划最快在今年年底推出智能眼镜系列中一款更高端的版本,内部代号为Hypernova”。该产品将内置更清晰的单眼显示屏并升级摄像头等配套设备,预计其售价将超过1000美元(约合人民币7270元),甚至有可能达到1400美元(约合人民币1.02万元)。有内部人士表示,屏幕升级是这款眼镜价格出现显著上涨的主要原因。该款眼镜将显示一个位于右镜片右下角区域的

Meta 团队研究发现:简化推理链条能显著提升 AI 准确率

近期,Meta 的 FAIR 团队与耶路撒冷希伯来大学的研究人员联合发布了一项新研究,表明减少大型语言模型的推理时间可以显著提高其在复杂推理任务中的表现。研究结果显示,使用较短推理链的 AI 模型准确率提高了34.5%,这一发现对当前 AI 行业的假设提出了挑战。图源备注:图片由AI生成,图片授权服务商Midjourney在这项研究中,作者指出,长时间的思考链条并不一定能够带来更好的推理能力,反而

Meta Ray-Ban智能眼镜全面推送实时翻译功能,支持离线使用

Meta公司近日宣布,其Ray-Ban Meta智能眼镜的实时翻译功能已正式向全球用户开放。此前,这一功能仅限于部分市场的早期测试用户。此次全面推出意味着用户可以在多种场景下,享受到更加便捷的语言转换体验,尤其是能够在无网络的环境下,突破语言障碍。根据Meta的官方消息,Ray-Ban Meta智能眼镜的实时翻译功能现已覆盖全球销售市场,支持英语、法语、意大利语和西班牙语四种语言的实时双向翻译。用

Meta推AI系统MoCha:文字秒变生动动画角色,口型动作自然流畅

Meta联合滑铁卢大学的研究人员近日共同发布了一款名为 MoCha 的全新 AI 系统,能够通过简单的文本描述生成带有同步语音和自然动作的完整动画角色。这一创新技术有望极大地提升内容创作的效率和表现力,并在多个领域展现出巨大的应用潜力。打破传统,全身动画与精准口型同步与以往侧重于面部表情的 AI 模型不同,MoCha 的独特之处在于能够渲染全身的自然运动。无论是从近距离还是半近距离拍摄,系统都能根

​Meta 发布 Multi-SpatialMLLM:引领多模态 AI 的空间理解革命

科技巨头 Meta 与香港中文大学的研究团队联合推出了 Multi-SpatialMLLM 模型,这一新框架在多模态大语言模型(MLLMs)的发展中取得了显著进展,尤其是在空间理解方面。该模型通过整合深度感知、视觉对应和动态感知三大组件,突破了以往单帧图像分析的限制,为更复杂的视觉任务提供了强有力的支持。近年来,随着机器人和自动驾驶等领域对空间理解能力的需求不断增长,现有的 MLLMs 面临着诸多