AI獨角獸企業MiniMax發布其自主研發的MiniMax-M1系列模型。據悉,M1模型在處理百萬級Token的長文本上實現了重大突破,成為上下文最長的推理模型;其RL(強化訓練)成本下降一個量級,成本僅53萬美金(約380萬元),推理效率則數倍於競爭對手。
目前,MiniMax-M1已宣布開源。在工具使用場景(TAU-bench)中MiniMax-M1-40k同樣領跑所有開源權重模型,超過Gemini-2.5 Pro。
MiniMax不僅開源了模型權重,還提供了極具競爭力的API價格服務。針對0-32k Token處理檔位:輸入0.8元/百萬Token,輸出8元/百萬Token;32k-128k Token檔位:輸入1.2元/百萬Token,輸出16元/百萬Token;128k-1M Token:輸入2.4元/百萬Token,輸出24元/百萬Token。
據悉,前兩個檔位的定價均低於DeepSeek-R1,而第三個超長文本檔位則是DeepSeek模型目前尚未覆蓋的領域。此外,MiniMax宣布,在其自有的App和Web端,M1模型將保持不限量免費使用,這無疑將極大地推動其技術的普及和應用。
在性能上,MiniMax在業內公認的17個主流評測集上對M1進行了全面測試,結果顯示,M1在軟件工程、長文本理解和工具使用等面向生產力的復雜場景中優勢尤為突出。
代碼能力(SWE-bench):M1-40k和M1-80k版本分別取得了55.6%和56.0%的優異成績,顯著超越其他所有開源模型,穩居第一梯隊。
長文本(MRCR):依托百萬級上下文窗口,M1系列在此項任務中不僅全面超越了所有開源對手,甚至擊敗了OpenAI的GPT-4o和Anthropic的Claude 3 Opus,在全球范圍內僅以微弱差距落後於谷歌的Gemini 2.5 Pro,位列全球第二。
工具調用(TAU-bench):在模擬真實世界工具調用的復雜場景中,M1-40k模型再次領跑所有開源模型,其實力甚至超越了閉源的Gemini-2.5 Pro,展現了其作為AI智能體基座模型的巨大潛力。(文猛)










