[{"data":1,"prerenderedAt":27},["ShallowReactive",2],{"news:lanyun-MetaGen-MiniMax-M1-long-context-RL-training":3},{"code":4,"message":5,"data":6},200,"操作成功",{"createBy":7,"createTime":8,"updateBy":7,"updateTime":9,"id":10,"title":11,"titleEn":12,"keyword":13,"newsDescribe":14,"urlPath":15,"tourl":16,"articleContent":17,"publishType":18,"briefIntroduction":19,"sort":20,"type":18,"publishStartTime":21,"showTime":16,"publishEndTime":22,"publishStatus":23,"isValid":23,"isOld":20,"remark":16,"nickName":16,"numberOfViews":24,"time":25,"year":26},45,"2025-08-20 10:55:20","2025-08-20 10:56:59",633,"蓝耘元生代上线 MiniMax-M1，超长上下文输入，RL 训练福音","lanyun-MetaGen-MiniMax-M1-long-context-RL-training","MiniMax、推理模型、蓝耘元生代、token、MaaS、API","蓝耘元生代模型广场上线了MiniMax-M1-80K版本，注册后赠送100万token（含API调用）。","public/cloud-official/2025-08-20/17091859e76f4200b75ea9cc083c91e5.png",null,"\u003Cp style=\"line-height: 1.8;\">\u003Cspan style=\"letter-spacing: 1px; font-size: 12px; color: rgb(63, 63, 63);\">近期，MiniMax发布了全球首个开放权重的大规模混合注意力推理模型—MiniMax-M1。凭借混合门控专家架构（Mixture-of-Experts，MoE）与Lightning Attention 的结合，使其在性能表现和推理效率方面实现了显著突破。\u003C/span>\u003C/p>\u003Cp style=\"line-height: 1.8;\">\u003Cbr>\u003C/p>\u003Cp class=\"ql-align-center\" style=\"line-height: 1.8;\">\u003Cspan style=\"font-size: 12px;\">\u003Cimg src=\"https://oss.lanyun.net/public/cloud-official/2025-08-20/ede3c69ca60045e3a2c383a6520a252b.png\">\u003C/span>\u003C/p>\u003Cp style=\"line-height: 1.8;\">\u003Cbr>\u003C/p>\u003Cp style=\"line-height: 1.8;\">\u003Cspan style=\"letter-spacing: 1px; font-size: 12px; color: rgb(63, 63, 63);\">蓝耘元生代模型广场上线了MiniMax-M1-80K版本（&nbsp;4560 亿参数），注册后赠送100万token（含API调用）。价格为输入 ¥ 1.2 / M Token，输出 ¥ 16 / M Token。\u003C/span>\u003C/p>\u003Cp style=\"line-height: 1.8;\">\u003Cbr>\u003C/p>\u003Cp class=\"ql-align-center\" style=\"line-height: 1.8;\">\u003Cspan style=\"font-size: 12px;\">\u003Cimg src=\"https://oss.lanyun.net/public/cloud-official/2025-08-20/56a5f6ac51d5434099dd2933c626048a.png\">\u003C/span>\u003C/p>\u003Cp class=\"ql-align-center\" style=\"line-height: 1.8;\">\u003Cbr>\u003C/p>\u003Cp style=\"line-height: 1.8;\">\u003Cstrong style=\"font-size: 14px; color: rgb(0, 128, 255);\">模型特点\u003C/strong>\u003C/p>\u003Cp style=\"line-height: 1.8;\">\u003Cbr>\u003C/p>\u003Cp class=\"ql-align-justify\" style=\"line-height: 1.8;\">\u003Cspan style=\"font-size: 12px; letter-spacing: 1px;\">通过MiniMax 的各项基准测试数据，与目前已有的大模型相比，展现了三个核心能力——长上下文窗口、RL 训练成本上的优势、Agent 工具调用。具体表现为：\u003C/span>\u003C/p>\u003Cul>\u003Cli class=\"ql-align-justify\" style=\"line-height: 1.8;\">\u003Cspan style=\"font-size: 12px;\">支持100万上下文输入，长上下文理解能力是目前包括所有闭源和开源模型在内，能力全球前二的模型\u003C/span>\u003C/li>\u003C/ul>\u003Cp class=\"ql-align-justify\" style=\"line-height: 1.8;\">\u003Cbr>\u003C/p>\u003Cul>\u003Cli class=\"ql-align-justify\" style=\"line-height: 1.8;\">\u003Cspan style=\"font-size: 12px;\">支持8万输出token，超过Gemini 2.5 Pro的6.4万，成为目前所有模型最长输出\u003C/span>\u003C/li>\u003C/ul>\u003Cp class=\"ql-align-justify\" style=\"line-height: 1.8;\">\u003Cbr>\u003C/p>\u003Cul>\u003Cli class=\"ql-align-justify\" style=\"line-height: 1.8;\">\u003Cspan style=\"font-size: 12px;\">生成10万token时，推理算力只需要DeepSeek R1的25%\u003C/span>\u003C/li>\u003C/ul>\u003Cp class=\"ql-align-justify\" style=\"line-height: 1.8;\">\u003Cbr>\u003C/p>\u003Cul>\u003Cli class=\"ql-align-justify\" style=\"line-height: 1.8;\">\u003Cspan style=\"font-size: 12px;\">在智能体工具使用（Agentic Tool Use）维度上的能力比肩DeepSeek-R1、Qwen3-235B\u003C/span>\u003C/li>\u003C/ul>\u003Cp class=\"ql-align-justify\" style=\"line-height: 1.8;\">\u003Cbr>\u003C/p>\u003Cp class=\"ql-align-justify\" style=\"line-height: 1.8;\">\u003Cspan style=\"font-size: 12px;\">蓝耘元生代MaaS平台，\u003C/span>\u003Cspan style=\"font-size: 12px; letter-spacing: 1px;\">已上线千问系列、DeepSeek系列的量化及蒸馏版本，同时MiniMax的T2V-01系列支持文本、图像、视频等多种模态且全部支持直接调用 API、云端一键部署、私有化部署等多种使用方式，满足不同用户对于数据安全、应用场景的个性化需求。\u003C/span>\u003C/p>\u003Cp class=\"ql-align-justify\" style=\"line-height: 1.8;\">\u003Cbr>\u003C/p>\u003Cp class=\"ql-align-center\" style=\"line-height: 1.8;\">\u003Cspan style=\"font-size: 12px;\">\u003Cimg src=\"https://oss.lanyun.net/public/cloud-official/2025-08-20/b885c33831c849e1a87f45300af6589f.jpg\">\u003C/span>\u003C/p>\u003Cp class=\"ql-align-center\" style=\"line-height: 1.8;\">\u003Cbr>\u003C/p>\u003Cp style=\"line-height: 1.8;\">\u003Cspan style=\"background-color: rgb(253, 253, 254); letter-spacing: 2px; font-size: 12px;\">模型\u003C/span>\u003Cspan style=\"font-size: 12px;\">体验：https://maas.lanyun.net/api/#/model/modelSquare\u003C/span>\u003C/p>\u003Cp class=\"ql-align-justify\" style=\"line-height: 1.8;\">\u003Cspan style=\"font-size: 12px;\">API调用文档：https://archive.lanyun.net/maas/doc/\u003C/span>\u003C/p>",2,"近期，MiniMax发布了全球首个开放权重的大规模混合注意力推理模型—MiniMax-M1。凭借混合门控专家架构（Mixture-of-Experts，MoE）与Lightning Attention 的结合……",0,"2025-06-20 00:00:00","2025-08-20 10:56:46",1,199,"00:00:00","2025年06月20日",1775720836275]