PPIO上线MiniMax-M1-80k:全球首个开源大规模混合架构推理模型

今天,PPIO 首发上线 MiniMax-M1,这是全球首个开源大规模混合架构的推理模型。

MiniMax-M1 采用混合专家 (MoE) 架构,并结合闪电注意力机制。该模型总共包含 4560 亿个参数,每个令牌激活了 459 亿个参数。M1 模型原生支持 100 万个令牌的上下文长度,是 DeepSeek R1 上下文大小的 8 倍。同时MiniMax-M1 结合 CISPO 算法与混合注意力设计的高效强化学习训练,在长输入推理与真实软件工程场景中实现了业界领先的性能。

PPIO上线MiniMax-M1-80k:全球首个开源大规模混合架构推理模型

因为相对高效的训练和推理算力使用,该模型可以以业内最低的价格提供 API 服务。PPIO 平台的 MiniMax M1-80k 价格为:输入¥4/百万 tokens,输出 ¥16/百万 tokens,上下文窗口为 128k。

PPIO上线MiniMax-M1-80k:全球首个开源大规模混合架构推理模型

快速体验入口:

https://ppio.cn/llm/minimaxai-minimax-m1-80k

第三方平台集成 API:

https://ppio.cn/docs/third-party/overview

API 开发者文档:

https://ppio.cn/docs/model/llm

版权声明:本文内容转自互联网,本文观点仅代表作者本人。本站仅提供信息存储空间服务,所有权归原作者所有。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至1393616908@qq.com 举报,一经查实,本站将立刻删除。

(0)

相关推荐

发表回复

登录后才能评论