AI Today
ホーム > 考察記事 > 🇫🇷 Mistral Medium 3.5|128B denseがオープンで来た、4GPUで自社運用できる時代

🇫🇷 Mistral Medium 3.5|128B denseがオープンで来た、4GPUで自社運用できる時代

アイ

アイ

目次


Mistralがついに「自社運用できる本気のオープンモデル」を出した

Mistral AIが4/29にMistral Medium 3.5をパブリックプレビュー公開。これ、わたしの中で結構なニュース。

なんでかっていうと、128Bパラメータの密モデル(dense)で、しかも修正MITライセンスでオープンウェイト配布。さらに**SWE-Bench Verified 77.6%**でDevstral 2やQwen3.5 397B A17Bを上回ってるんだよね。

これまでのオープンモデルって、性能取るならMoEで巨大化(Llama 5 600Bとか)するか、サイズ抑えて性能諦めるか、だった。でもMistral Medium 3.5は128B denseっていう「ちょうどいいサイズ」で、ベンチマークも実用ライン。

しかもMistral公式が言うには「自己ホスト時にわずか4 GPUで動く」って。これ、地方の中堅企業でも社内で動かせる現実的なスペックなんだよね。

世間的には「フランスのAIなんてGPT-5・Claude・Geminiに比べたらマイナーでしょ」って空気もあるけど、わたしはこの動きはむしろ「主権AI×実運用性」っていう新しい競争軸を切り開いた、と見てる。


そう考える3つの理由

128B dense×SWE-Bench 77.6%が実務で十分すぎる

まず数字の話から。**SWE-Bench Verified 77.6%**っていうのは、実際のGitHubイシューを自動で修正できる割合のベンチマーク。

去年(2025年)この時期は40%台がトップだったの覚えてる?それが1年で77%まで来てる。Devstral 2(Mistral自社のコーディング特化)やQwen3.5 397B A17Bを抜いてるってことは、コーディング業務で実務レベルに達してるってこと。

しかも128Bって「密モデル(dense)」なのがポイント。MoE(Mixture of Experts)モデルって学習時の効率は良いんだけど、推論時に全エキスパートをメモリに載せる必要があって、結局VRAM要件が膨らむ。

dense 128Bだと量子化して動かせばVRAM 80-160GBくらいで済むから、H100 4基(VRAM 320GB)とかA100 80GB×4とかで動く。これ、わたしから見ると革命的。

実際、Mistral自身がLe Chatのデフォルトモデルに据えて、Vibe CLI(コーディングエージェント)でもDevstral 2を置き換えた。自社プロダクトで本番採用するってことは、性能と安定性に自信あるってこと。

256kトークンのコンテキストウィンドウも地味に効く。Claude Sonnet 4.5の200kより長いし、Llama 5の5Mほど極端じゃない代わりにメモリ効率が良い。日常業務の長文ドキュメント・コードベース読み込みには十分。

4GPUで動くからオンプレ・自社サーバー運用が現実的

「4GPUで動く」って聞いてピンと来ない人もいると思うんだけど、これマジで実務インパクトでかい。

たとえばH100 4基のサーバーって、新品で2,000-3,000万円くらい。リースなら月60-100万円。中堅企業の情シス予算で十分手が届くレンジ。

これに対してGPT-5やClaude Opus 4.7をAPI経由で使うと、月100万円なんて1社のチームが本気で使ったらすぐ消える。実際わたしの知り合いの会社(社員200人くらい)がClaudeのAPI使ったら月150万くらい行ってビビってた。

オンプレ運用だと、初期コストはかかるけどランニングが固定。しかも社内データを外に出さなくていい。これ、金融・医療・製造業の研究開発部門にとっては死活問題なんだよね。

「ChatGPTに社内文書アップしていいですか?」って情シスに聞いて怒られた経験ある人、結構多いと思う。Mistral Medium 3.5を社内で動かせば、その問題が一気に消える。

しかもMistralはWorkflows(StudioとLe Chatでの永続的・観測可能なAIオーケストレーション)とLe Chat Work mode(マルチステップエージェント)も同時公開。エージェント運用の周辺ツールまで揃ってる。

「ベース基盤+エージェントオーケストレーション+自社ホスト」が1社で完結するって、Anthropic(クラウド前提)やOpenAI(クラウド前提)には真似できない構図。

修正MITライセンスで商用フルOK・データ主権も守れる

ライセンスの話、地味だけどめちゃ大事。Mistral Medium 3.5は修正MITライセンス=商用利用フルOK、再配布も自由、ファインチューニング後の派生モデルも自由公開可能。

Llama 5は商用利用OKだけど「月間アクティブユーザー7億超のサービスは別途交渉」って制約がある。Gemma 4のApache 2.0は完全フリーだけど、現状の性能はMistral Medium 3.5に届かない。

つまり商用利用フリー×実用性能ある中型denseっていうポジションで、Mistral Medium 3.5が今のところ独自路線。

EU圏の企業にとってもデカい。EU AI Actの本格運用で「AIモデルの透明性」が要求される中、Mistralはフランス政府が主権AIとして後押ししてる存在。データもモデルもEU圏内で完結できる。

日本企業も同じ。経産省が主権AIを推してるけど、現実的に動くモデルが少なかった。Sakana AIの自社モデルもまだ汎用LLMとしてはこのレベルに達してない。Mistral Medium 3.5を日本データセンターで動かして社内利用、ってシナリオは普通にあり得る。

ただ気をつけたいのは、自己ホストはセキュリティ・運用負荷も自社で持つってこと。脆弱性パッチ、アクセス制御、ログ管理、全部やる必要がある。クラウドAPIなら投げっぱなしで済むことが、自社運用だとフル責任になる。


まとめ:日本企業のAI内製化が一気に進むかも

Mistral Medium 3.5は単なる新モデル発表じゃなくて、**「中堅企業がAIを自社運用できる時代の幕開け」**だと思う。

これまでAI活用は「クラウド大手のAPI使うか、超高額な専用モデル開発を委託するか」の二択だった。そこに「オープンソース×自社GPU運用」っていう第3の選択肢が、性能とコストの両面で成立するようになった。

わたしたち個人レベルでも、たとえばMacのM4 Maxで量子化版を動かすとか、RunPodでH100借りて1日$50で試すとか、できることが増える。学習目的なら手元で本物動かせるってめっちゃ楽しい。

企業の情シス・DX担当者の人は、月100万のAPI料金見て頭抱える前に、「Mistral Medium 3.5の自社運用」を一回試算してみる価値あると思う。3年で見ると半額以下になるケースも多いはず。

オープンソースAIの選択肢が、ついに「現実の業務で使える」ところまで来た。フランス勢、ようやく本気出してきた感ある。

関連記事: AI Agent ガイド

ソース:

よくある質問

この記事はどんな内容ですか?
Mistral Medium 3.5が128B dense・SWE-Bench 77.6%でオープンウェイト公開。4GPUで自社運用できる実用性と、日本企業のAI内製化への影響を解説。
情報はいつ時点のものですか?
2026-05-02 時点でまとめた情報です(2026-05 の動向)。AI関連の動きは速く、最新状況は変動する可能性があるため、公式発表や一次ソースもあわせて確認してください。
読者としてどう受け止めればよいですか?
本記事は「世間の見方」「筆者の見解」「データ・事実」「これから考えておきたいアクション」の流れで整理しています。AIツールの使い方や仕事のあり方に関わる動きとして、自分の状況に置き換えて読んでみてください。