AI Today
ホーム > 考察記事 > 🐉 Alibaba Qwen3.6-35B-A3B|Apache 2.0でGPT-5-mini超え、日本企業のコスト戦略を変える

🐉 Alibaba Qwen3.6-35B-A3B|Apache 2.0でGPT-5-mini超え、日本企業のコスト戦略を変える

アイ

アイ

目次


中国オープンソースAIが「閉鎖最先端モデル超え」を量産する時代

中国AlibabaのQwen3.6-35B-A3Bが4月内にApache 2.0ライセンスで公開。GPT-5-mini・Claude Sonnet 4.5を第三者ベンチマークで上回ったって報告。

「中国AIなんて二流でしょ」って思ってる人、まだいる?それはもう完全に古い認識。

Qwen Wikipediaによると、Qwen3.5-35B-A3BモデルがOpenAI GPT-5-miniAnthropic Claude Sonnet 4.5をサードパーティベンチマークで上回ったって。これがApache 2.0で商用利用フリー。

世間では「DeepSeek R1ショック」(2025年初頭)以降、中国オープンソースAIが急速に注目されてきたけど、Qwenはそれ以前からコツコツ積み上げてきてた。今回のQwen3.6で、ついに閉鎖最先端モデル超え×完全オープンっていう組み合わせを成立させた。

わたしから見ると、これは日本企業のAIコスト戦略を根本から変えるニュース。なぜそう思うかを3つの観点で見ていく。


そう考える3つの理由

35B総パラメータ・3B活性のMoEは推論コストが安すぎる

技術的な話、ちょっとだけ。Qwen3.6-35B-A3Bの「A3B」は「Active 3B」の意味。35Bパラメータあるけど、推論時には3Bしか活性化しない**MoE(Mixture of Experts)**構成。

これが何を意味するかっていうと、推論コストが3Bモデル相当ってこと。35Bフルロードする必要なくて、必要な時に必要なエキスパートだけ動かす。

実用的なインパクト:

  • 推論速度: 3Bモデル並みに速い(数倍~10倍速)
  • GPUメモリ: 量子化すれば24GB GPU 1枚(RTX 4090級)で動く
  • 電力消費: 35B denseに比べて1/10程度

これが普通の中堅企業の社内サーバーで動かせるレベル。Mistral Medium 3.5の128B denseは「H100 4基必要」だけど、Qwen3.6-35B-A3Bは「ゲーミングPCでも動く」レベル。

しかも性能はGPT-5-mini・Claude Sonnet 4.5超え。「軽くて速くて性能高い」三拍子揃ってる。

API価格で見ても、Alibaba Cloud経由だと1Mトークン$0.1-0.5レンジ。OpenAI GPT-5-miniが$0.15-0.6、Claude Haikuが$0.25-1.25と比較すると同等~半額。

Digital Applied のQ2 2026レポートでは、中国オープンモデルが「価格性能比でグローバル最強」のポジション獲得した、って分析されてる。

Apache 2.0は「使い倒せる」最強ライセンス

ライセンスの違いが地味に超重要。

  • Llama 5: 商用利用OK、ただし月間アクティブユーザー7億超は別途交渉
  • Gemma 4: Apache 2.0、完全フリー(ただし性能が一段下)
  • Mistral Medium 3.5: 修正MITライセンス、商用利用OK
  • Qwen3.6-35B-A3B: Apache 2.0、完全フリー

Apache 2.0って何が強いかっていうと、特許権の付与・派生モデルの自由配布・商用フルOK・帰属表示だけでOKっていうほぼ最強の自由度。

これで何ができるか:

  1. 日本企業が社内データでファインチューニングして、独自モデルとして使える
  2. ファインチューニング結果を自社プロダクトに組み込んで販売してもOK
  3. 派生モデルをさらにオープンソース公開しても文句言われない
  4. 特許訴訟の心配なし(Apache 2.0は明示的に特許利用を許諾)

特に4番が大事。Llama系は商用利用OKでも特許の扱いがグレーで、大企業の法務部門が嫌がる。Apache 2.0は「使え」って明確に書いてあるから安心。

これで何ができるか、具体例:

  • 金融機関が顧客対応AIを社内ファインチューニングで構築、API料金ゼロで運用
  • 製造業が技術文書検索AIを自社サーバーで運用、データ外部送信ゼロ
  • 医療機関が診療補助AIをローカル運用、患者データの外部流出リスクゼロ

これらがすべて月額API料金ゼロで実現できる。

中国AI市場の45%超を占める6社が同時加速してる

Qwen単独じゃなくて、中国AI業界全体が同時に動いてるのがポイント。

Inside China's AI Machine(Digital in Asia)によると、2026年4月時点の中国AI市場でXiaomi・Alibaba・MiniMax・Zhipu・DeepSeek・StepFunの6社合計が週次トラフィックの45%超を占めてる。

各社の最新動向:

  • Alibaba Qwen3.6-35B-A3B: Apache 2.0公開、GPT-5-mini超え(今回のニュース)
  • DeepSeek V4: 推論深度強化、R1の後継
  • Moonshot Kimi K2.6: 4月リリース、エージェント計画力強化
  • Baidu ERNIE 5.0: 2.4Tパラメータ omnimodal、Kunlun自社シリコンで学習
  • Tencent Hunyuan Hy3 Preview: 295B MoE、5/2朝のニュースで報じた
  • MiniMax: 動画生成・音声合成で独自路線
  • StepFun: マルチモーダル特化

これだけのプレイヤーがそれぞれ独自モデルで競ってる。米国はOpenAI・Anthropic・Google・Meta・Mistralの5社くらいだけど、中国は10社超が並走。

しかもほとんどがオープンソース化志向。米国勢がGPT-5・Claude Opus 4.7を閉鎖する中、中国勢は最先端モデルを次々オープンにしてる。

なぜか?地政学的理由が大きい。米中対立でNvidia GPU輸出制限を受けてる中国は、ハードで負けてる分ソフト(モデル)で世界標準を取りに来てる。「中国モデルが世界中で使われる」状況を作れば、AI技術主導権で米国を逆転できる、って戦略。

これは日本企業にとってチャンスでもある。「最先端だけど商用利用フリーなモデル」を選び放題。経産省も主権AIを推してるけど、現実問題ベースモデルから自前で作るのは無理。Apache 2.0の中国モデル使って、日本データでファインチューニング、っていうのが現実解。

ただし地政学リスクは意識する必要がある。Qwen使ったプロダクトで「中国製AI」と批判される可能性、米国市場での販売制限、データ主権の議論…。日本国内利用なら問題ないけど、グローバル展開時は要注意。


まとめ:日本企業の月100万API料金が1/10になる可能性

Alibaba Qwen3.6-35B-A3BのApache 2.0公開は、日本企業のAIコスト戦略を根本から変えるニュース。

わたしたちが今日からできることは2つ。

ひとつはHugging Faceで実際にQwen3.6を試すこと。エンジニアならローカルで動かして性能確認できる。「中国製って本当に使えるの?」って疑問は、自分で動かせば1日で解消する。

もうひとつは社内のAI予算担当に「Qwen自社運用」を提案すること。OpenAI APIに月100万払ってる会社なら、Qwen3.6を社内サーバーで動かせば月10万以下に圧縮できる可能性が普通にある。3年で見ると数千万円のコスト差。

中国オープンソースAIは、もう「サブの選択肢」じゃなくて「主力の選択肢」になりつつある。米国閉鎖モデル一辺倒の時代が終わって、ハイブリッド運用(クラウドAPI+オープン自社運用)が新常識になっていきそう。

関連記事: AI Agent ガイド

あわせて読みたい

ソース:

よくある質問

この記事はどんな内容ですか?
Alibaba Qwen3.6-35B-A3BがApache 2.0で公開、GPT-5-mini・Claude Sonnet 4.5超え。日本企業のAIコスト戦略を変える「中国オープンソース」の現在地を解説。
情報はいつ時点のものですか?
2026-05-02 時点でまとめた情報です(2026-05 の動向)。AI関連の動きは速く、最新状況は変動する可能性があるため、公式発表や一次ソースもあわせて確認してください。
読者としてどう受け止めればよいですか?
本記事は「世間の見方」「筆者の見解」「データ・事実」「これから考えておきたいアクション」の流れで整理しています。AIツールの使い方や仕事のあり方に関わる動きとして、自分の状況に置き換えて読んでみてください。