产品评测 22小时前 97 阅读 0 评论

DeepSeek用户慎入!体验完这款百万Tokens新"源神",我怕你回不去了【附5个神仙用法】

作者头像
AI中国

AI技术专栏作家 | 发布了 246 篇文章

最近,我的AI交流群和别的一些AI群都炸锅了,话题的焦点是MiniMax-M1





就在昨天,MiniMax把他们自家最新的旗舰推理模型MiniMax-M1开源了!


这个操作就好比某一天OpenAI突然把他家的推理模型O3开源一样(讲个笑话)


格局真滴大,不像对岸的"Close AI"


我愿称之为新一代源神!先来看看跑分


作为开源模型,MiniMax-M1的各项性能直逼国外的闭源模型:Claude 4 Opus、Gemini-2.5 Pro、OpenAI O3



这个跑分的解读可以看看卡子哥的文章,非常详细,而且通俗易懂


MiniMax-M1解读


数字生命卡兹克,公众号:数字生命卡兹克MiniMax深夜开源首个推理模型M1,这次是真的卷到DeepSeek了。


我们本次重点看这个跑分图里,最后一组数据:MRCR(4-needle),远超其他大模型,仅次于Gemini-2.5 Pro


MRCR(4-needle)代表的是多轮共指消解(Multi-Round Co-referenceResolution)任务里,在超长文本上下文环境中"埋设"4个关键信息片段(即 “针”)的测评场景,用于评估大语言模型在复杂长文本、多轮交互情境下的上下文理解与信息检索能力


MiniMax-M1也成为了世界最长上下文的推理大模型


支持100万tokens(1M)输入和8万tokens的输出。


要知道DeepSeek R1才仅仅支持128K上下文。


而且MiniMax-M1官方API的价格也是非常香,就白菜价,随便用。



下面是国内的API价格



说实话,大模型支持的上下文长度,和上下文理解能力非常重要!


群友今早也在研究,但是不清楚MiniMax-M1的优势可以有效的应用到哪些场景。



于是我整理了5种非常实用的场景(涵盖API),逐一测试,效果都不错,分享给大家。


在测试之前,我们先做好准备工作


目前MiniMax-M1在MiniMax官网就能使用


海外地址:

https://chat.minimax.io/

国内地址:

https://chat.minimaxi.com/


记得开启Think,否则使用的是MiniMax-Text-01



同时,为了方便后续API的测试,我们还需要获取MiniMax的apikey、API地址


本次测试我使用的是MiniMax海外版


原因无他,还剩很多余额



先访问如下地址创建apikey


https://www.minimax.io/platform/user-center/basic-information/i



MiniMax的海外版聊天API地址:

https://api.minimax.io/v1/text/chatcompletion_v2

MiniMax的国内版聊天API地址:

https://api.minimaxi.com/v1/text/chatcompletion_v2


模型名称就是:MiniMax-M1


好了,话不多说,直接开始


1.超长内容连贯输出


这个Case来自群友@星枫涵


他要求MiniMax-M1输出3万字的S500防空导弹的详细介绍











但是大模型还是没有办法一次性输出太多内容


所以第一次只是给了内容大纲


通过后续让MiniMax-M1生成了8次,最终得到了自己想要的内容,关键是内容非常连贯,得益于MiniMax-M1的超长上下文记忆能力。


MiniMax-M1非常适合用来生成论文,或者长篇小说等。


毕竟这些领域都是需要模型记住的上下文越多越好,这样生成的内容越来越多时才不至于跟开头脱节。


还可以用于小说续写


我在3月份这篇文章里面就用MiniMax当时开源的MiniMax-Text-01模型(同样是具有超长上下文理解能力)进行了小说续写


MiniMax-Text-01


袋鼠帝、kiki,公众号:袋鼠帝AI客栈AI视频新王诞生!中国开源模型如何颠覆RAG/Agent?【含喂饭级使用教程】

续写的小说内容真有那味,感觉就是作者本人写的,完全没有违和感,故事情节也很合理。


续写辰东在24年9月份新上线的小说--《夜无疆》,目前还在持续更新中



插播一下:群友对MiniMax-M1的评价是真滴高呀



2.做AI知识库的数据预处理


大伙应该都知道,打造AI知识库的第一步就是要做数据预处理,在之前的知识库相关文章中我也讲过很多次了。


然后我通常都是用我自己公众号的文章来作为我的知识库数据源


但是有一个小问题:公众号文章里面每篇的开头和结尾都会有一些重复的信息。


这块信息如果一起上传到知识库,那么问答的时候就会被频繁提取出来传给大模型,这样不仅浪费tokens还会一定程度上会干扰大模型的回答。


所以我进行了下面这样一个测试:


我把我去年写的kimi接入微信一、二、三丢过去,让MiniMax-M1合并文章的同时也"掐头去尾"。



最终得到的效果很不错,它保留了关键信息,去除了冗余的其他内容。


除了这种处理场景外,还可以批量把数据源文件转英文,或者把英文文献转中文,MiniMax-M1能够最大程度的还原信息。


在实际的预处理场景中,肯定不止几个文件。


这时我们就可以使用MiniMax-M1的API接口来批量处理~


3.长文本内容提取


我把我去年和今年的部分文章(30篇)合并成了一个95M的PDF(一共267页)


丢给MiniMax-M1,让它帮我提取其中提到kimi和n8n的文章的标题



提取的完全正确,除了11和12那两个是多余的以外...


说实话,已经很强了,毕竟是一整个合并的PDF,能从267页PDF里面找出正确的内容,并识别标题已经不错了。


4.拯救知识库问答效果


最近被知乎推送了不少关于长文本 VS RAG的问答



我的观点是RAG作为大模型的外脑肯定不会在短时间淘汰。


小孩才做选择,成年人全都要


长上下文的大模型+RAG才是强强联手,我称之为"大力出奇迹"。


因为MiniMax-M1能理解的上下文非常大(100万tokens)


所以在RAG的索引流程-分块(chunk)可以直接把语义连贯的内容分到一个chunk(比如一整篇文章一个chunk),不用担心chunk太大。


而且在设置最低相关度的时候也可以把score值调低,这样即便在回答流程中检索出大量无关内容,也可以依靠模型的超长上下文理解能力提取出准确答案。


这个方案可以减少在RAG上的调优工作,更依靠模型本身的长上下文理解能力,也能显著提高知识库问答效果。


而且MiniMax-M1的API是白菜价,不用担心会烧钱,随便用~


3月份分享了一篇用MiniMax-01拯救Dify知识库的文章,里面有详细的落地步骤(换成MiniMax-M1也是一样),接入AI知识库的朋友可以看看。


长上下文结合RAG拯救知识库问答效果


袋鼠帝,公众号:袋鼠帝AI客栈dify v1.1.0接入这个开源LLM,知识库效果直接起飞,真可以封神了!【喂饭级教程】

如果是使用fastgpt搭建的知识库,也可以参考下面的配置接入MiniMax-M1模型。


注意:API地址要填写完整



5.开源项目解读


这么长的上下文理解能力,不用来解读开源项目简直太浪费了


在Trae里面配置上MiniMax-M1模型


Trae居然还没支持minimax渠道,硅基流动倒是很快,就已经支持了昨天才开源的minimax-m1模型


以开源项目fastgpt为例


fastgpt有一些商业版才能用的功能,比如把bot一键发布到公众号,飞书机器人。



如果现在想基于fastgpt开源代码来自己二次开发实现,首先肯定得找对位置。


让MiniMax-M1查找微信公众号接入的代码位置,简直就是信手拈来。


找到实现位置之后,我们就可以进一步让AI辅助二次开发了




再上点强度(如下图)


让MiniMax-M1总结:


在FastGPT整个项目代码及文件中,关键词"minimax"出现在哪些具体文件里,以及出现的总次数。



左边是用Trae全局搜索minimax关键词的标准答案(4个文件,出现12次


右边是MiniMax-M1给出的结果:4个文件,出现11次...




稍微有点可惜,本来第三条它列出的那一行代码中就出现了两个minimax关键词,但是可能是在一行,它就只统计了一次,所以最后的答案就少统计了1次。


好了,以上就是我整理的MiniMax-M1的五个经典使用场景,希望对大家有帮助~


MiniMax-M1 Github地址:


https://github.com/MiniMax-AI/MiniMax-M1


HuggingFace地址:


https://huggingface.co/MiniMaxAI/MiniMax-M1-80k


「最后」


体验下来,我感觉MiniMax的基座模型真的是被严重低估了,属于被埋没的黑马型选手。


这种超长上下文理解能力在很多场景下都非常实用。


真的就像他们官网那句话



Ask anything! No question too long, no query too complex


有问题,尽管问,内容再长也不在话下


希望MiniMax在长上下文这块继续发扬光大,以支持更长的上下文和更强的"大海捞针"能力。


如果你的使用场景正好受限于模型的上下文长度,不妨试试MiniMax-M1


文章来自于“袋鼠帝AI客栈”,作者“袋鼠帝”。

作者头像

AI前线

专注人工智能前沿技术报道,深入解析AI发展趋势与应用场景

246篇文章 1.2M阅读 56.3k粉丝

评论 (128)

用户头像

AI爱好者

2小时前

这个更新太令人期待了!视频分析功能将极大扩展AI的应用场景,特别是在教育和内容创作领域。

用户头像

开发者小明

昨天

有没有人测试过新的API响应速度?我们正在开发一个实时视频分析应用,非常关注性能表现。

作者头像

AI前线 作者

12小时前

我们测试的平均响应时间在300ms左右,比上一代快了很多,适合实时应用场景。

用户头像

科技观察家

3天前

GPT-4的视频处理能力已经接近专业级水平,这可能会对内容审核、视频编辑等行业产生颠覆性影响。期待看到更多创新应用!