MiniMax M2.5が変えるAIエージェントコスト革命──1時間1ドルのオープンソースフロンティアモデル
MEDIA一覧に戻る
AI / AI技術関連2026.02.1810分

MiniMax M2.5が変えるAIエージェントコスト革命──1時間1ドルのオープンソースフロンティアモデル

フロンティアAIが「安すぎて計れない」時代へ

2026年2月11日、中国のAIスタートアップMiniMaxが静かに投下した一石が、AIエージェント業界全体を揺るがしています。新モデル「MiniMax M2.5」は、Anthropicのフラッグシップモデル「Claude Opus 4.6」と同等の性能を、その20分の1のコストで実現しました。

「AIの賢さはもはや希少資源ではない」──そんな言葉が現実味を帯びてきた2026年2月。MiniMax自身がモデルの説明に「the first frontier model where users do not need to worry about cost(ユーザーがコストを気にする必要のない初のフロンティアモデル)」という表現を使っています。毎秒100トークンで1時間稼働させ続けても、費用はわずか1ドル。これは単なる価格競争ではなく、AIエージェントの普及を左右する根本的なパラダイムシフトです。

本記事では、MiniMax M2.5の技術的な革新性、AIエージェント機能のベンチマーク結果、そしてこのリリースが開発者・企業・AIエコシステム全体に与える影響を深掘りします。過去48時間以内(2026年2月11〜14日)に公開された一次情報をもとに、単なるニュース要約を超えた分析をお届けします。

---

MiniMax M2.5の技術アーキテクチャ──効率性の秘密

Mixture-of-Experts(MoE)と1Mトークンコンテキスト

MiniMax M2.5は230億パラメータのMoE(Mixture-of-Experts)アーキテクチャを採用しています。しかし、実際の推論時に活性化されるパラメータはわずか100億(10B)です。

MoEとは、複数の「専門家(エキスパート)」サブネットワークを持ち、各入力トークンに対して適切なエキスパートだけを選択的に活性化する仕組みです。全パラメータを常に使う密なモデルと異なり、計算コストを大幅に削減できます。

以下の図は、MoEアーキテクチャの基本的な動作を示しています。

ゲーティング機構がトークンごとに最適なエキスパートを選択し、結果を合成します。MiniMax M2.5では「Lightning Attention」という独自の注意機構を組み合わせることで、100万トークン(1Mトークン)以上のコンテキストウィンドウを線形効率で処理できます。長大なコードベースや複雑なマルチステップタスクを扱うエージェントにとって、これは決定的な優位性です。

Forgeフレームワーク──エージェントネイティブなRL学習

M2.5の真の革新は、モデルアーキテクチャよりも学習手法にあります。MiniMaxは「Forge」と呼ぶ独自の強化学習(Reinforcement Learning)フレームワークを2ヶ月かけて開発し、M2.5のトレーニングに投入しました。

従来の多くのモデルがHuman Feedback(人間の評価)を使うRLHFを採用しているのに対し、Forgeは200,000以上の実世界環境にモデルを投入し、タスク完了の成否を報酬信号として学習させます。コードリポジトリ、ウェブブラウザ、Officeアプリケーション、APIエンドポイント──こうした本物の環境でのエージェント行動を最適化することで、M2.5は「試験勉強」ではなく「実務経験」を積んだモデルになっています。

以下の図は、Forgeフレームワークの学習ループを示しています。

Forgeの重要な設計決定は、エージェントスキャフォールドとトレーニングエンジンを切り離すデカップリング層です。これにより、Claude Code、OpenCode、カスタムハーネスなど任意のエージェントフレームワークをRLトレーニングループに接続でき、モデルは特定のツールインターフェースに過学習することなく、あらゆる環境に汎化します。

CISPOアルゴリズム──MoEトレーニングの安定化

Forgeを支えるアルゴリズムがCISPO(Clipped Importance Sampling Policy Optimization)です。MiniMaxが独自開発したこのRLアルゴリズムは、MoEモデルの大規模トレーニングにおける不安定性という難題を解決します。

GRPO等の標準的なRLアルゴリズムでは、複雑な推論における「クリティカルトークン」(低確率だが推論の核心となるトークン)の勾配が抑制される問題があります。CISPOは重要サンプリング重みをクリッピングすることで、低確率トークンでも勾配計算に貢献できるよう設計されています。

Qwen2.5-32Bを使った比較実験では、ByteDanceの最新RLアルゴリズムDAPOに対して2倍のトレーニング高速化を達成しました。さらに非同期スケジューリングの最適化により、全体のトレーニングスループットは約40倍向上しています。

---

ベンチマーク結果──AIエージェント評価の最前線

コーディングエージェントとしての実力

M2.5はソフトウェアエンジニアリングの代表的ベンチマークで卓越した成績を収めています。

ベンチマークMiniMax M2.5Claude Opus 4.6特記事項
SWE-Bench Verified80.2%-コード修正タスク
Multi-SWE-Bench51.3%50.3%マルチリポジトリ対応(首位)
BFCL(ツール呼び出し)76.8%63%台Claude比+13pt以上
BrowseComp76.3%-ウェブ検索・情報収集

Berkeley Function Calling Leaderboard(BFCL)はマルチターンのツール呼び出し能力を評価するベンチマークです。M2.5がClaude Opus 4.6を13ポイント以上上回るという結果は、AIエージェントとしての実用性において特筆すべき優位性を示しています。

タスク完了速度でも優れており、SWE-Bench Verified評価の所要時間は平均22.8分(M2.1の31.3分から37%短縮)。Claude Opus 4.6の22.9分とほぼ同等です。

MiniMax内部での実導入実績

MiniMax自身がM2.5を社内に全面展開しており、以下の数値が報告されています。

  • 社内タスクの30%をM2.5が自律的に完了
  • 新規コミットコードの80%をM2.5が生成

これらは「ベンチマーク上の数値」ではなく、実際の企業運用における実績です。研究開発に留まらず本番業務に投入されているという点が、M2.5の信頼性の高さを裏付けています。

---

コスト革命と「エージェント宇宙」の到来

価格体系の詳細

M2.5の価格は以下のとおりです。

バリアント処理速度入力コスト(100万トークン)出力コスト(100万トークン)
M2.5-Lightning100 TPS$0.30$2.40
M2.5 Standard50 TPS$0.15$1.20

100トークン/秒で連続1時間稼働させた場合のコスト:わずか1ドル

競合のClaude Opus 4.6(入力$15/Mトークン、出力$75/Mトークン)と比較すると、入力で約50分の1、出力で約31分の1のコストです。これが「20分の1のコストで同等性能」という表現の根拠です。

なぜコスト削減がエージェント普及を変えるのか

AIエージェントのユースケースを考えると、コスト削減の意味が明確になります。コーディングエージェントはSWE-Bench評価で平均3.52Mトークンを消費します。Claude Opus 4.6で同タスクを実行した場合の出力コストは263ドル(3.52M×$75)に上りますが、M2.5では約8.4ドル(3.52M×$2.40)で済みます。

以下の図は、コスト削減がエージェント活用範囲を広げる構造を示しています。

コストが10分の1になればユースケースは10倍ではなく、指数関数的に増加します。これまで「コストに見合わない」として却下されていたルーティン業務の自動化、長時間稼働する調査エージェント、並列実行するマルチエージェントシステムが、現実的な選択肢となります。

MiniMaxは2026年を「エージェント宇宙(Agent Universe)」の幕開けと位置付けています。インテリジェンスが「安すぎて計れない(too cheap to meter)」時代になることで、開発者はシンプルなQ&Aツールを超えた、何時間もかけてコーディング・調査・複雑プロジェクト整理を行う自律エージェントを構築できるようになると同社は説いています。

---

オープンソース戦略とエコシステムへの影響

修正MITライセンスとHugging Faceへの公開

M2.5は2026年2月11〜12日、Hugging FaceおよびGitHubにオープンソースとして公開されました。ライセンスは修正MITライセンスで、商用利用の場合はユーザーインターフェースに「MiniMax M2.5」と表示することが求められます。

この公開により、企業はM2.5を自社インフラにデプロイし、プライベートデータでファインチューニングできます。医療・法務・金融などデータ主権の要件が厳しい産業にとって、これはクローズドAPIでは得られない自由度です。

また、Forgeフレームワークの手法もHugging Faceのブログで公開されており、研究者や開発者が同様のエージェントネイティブRL学習を自前で実施するための知識基盤が整いました。

オープンソースAIのエコシステム競争への示唆

IDCの調査(2025年2月)によると、2026年までにアジア太平洋地域の企業の60%がオープンソースAI基盤モデルを使ったアプリケーション開発に移行すると予測されています。M2.5のリリースはこの流れを加速する存在です。

2026年は「フロンティアAIはごく少数の超大手企業だけが開発できる」という常識が崩れるターニングポイントとなりつつあります。DeepSeek(約560万ドルのトレーニングコスト)に続き、MiniMaxもリソース制約下での高効率トレーニングの可能性を実証しました。

---

まとめ:「賢さ」が希少資源でなくなった世界

MiniMax M2.5は単なるモデルリリースを超えた意味を持っています。コーディングとエージェントタスクのベンチマークでClaude Opus 4.6と並ぶ(一部で上回る)性能を、20分の1以下のコストで提供し、完全オープンソースで公開する──この三点セットは、AIエージェント開発の参入障壁を根本から変えます。

主要なポイントを整理すると、以下のとおりです。

  • 技術的革新: 230B MoE×1Mコンテキスト×ForgeフレームワークによるエージェントネイティブRL学習
  • コスト革命: 1時間1ドルで稼働可能な「メーター不要」な知能
  • ベンチマーク: Multi-SWE-Bench首位(51.3%)、BFCL 76.8%(ツール呼び出しでClaudeを13pt超)
  • 実績: 社内業務の30%自動化、新規コードの80%をM2.5が生成
  • オープンソース: Hugging Face・GitHubで公開、プライベートデプロイ・ファインチューニング可能

2026年2月、AIエージェントの世界は「最高性能 vs 最低コスト」という二択から解放されました。今後問われるのは「何を作るか」という創造性と「どう設計するか」というアーキテクチャの質です。エンジニアにとっては機会の拡大、企業にとっては戦略の再設計を迫るリリースといえます。

---

参考文献

  • MiniMax公式ブログ: MiniMax M2.5: Built for Real-World Productivity — https://www.minimax.io/news/minimax-m25
  • MiniMax GitHub: MiniMax-AI/MiniMax-M2.5 — https://github.com/MiniMax-AI/MiniMax-M2.5
  • Hugging Face: Forge: Scalable Agent RL Framework and Algorithm — https://huggingface.co/blog/MiniMax-AI/forge-scalable-agent-rl-framework-and-algorithm
  • VentureBeat: MiniMax's new open M2.5 and M2.5 Lightning near state-of-the-art — https://venturebeat.com/technology/minimaxs-new-open-m2-5-and-m2-5-lightning-near-state-of-the-art-while
  • WinBuzzer: MiniMax M2.5: Open-Source AI Matches Claude Opus at 1/20th Cost — https://winbuzzer.com/2026/02/14/minimax-m25-open-source-ai-model-claude-opus-cost-xcxwbn/
  • Artificial Analysis: MiniMax-M2.5 Intelligence Performance & Price — https://artificialanalysis.ai/models/minimax-m2-5