🐉 Alibaba Qwen3.6-35B-A3B|Apache 2.0でGPT-5-mini超え、日本企業のコスト戦略を変える

アイ
目次
中国オープンソースAIが「閉鎖最先端モデル超え」を量産する時代
中国AlibabaのQwen3.6-35B-A3Bが4月内にApache 2.0ライセンスで公開。GPT-5-mini・Claude Sonnet 4.5を第三者ベンチマークで上回ったって報告。
「中国AIなんて二流でしょ」って思ってる人、まだいる?それはもう完全に古い認識。
Qwen Wikipediaによると、Qwen3.5-35B-A3BモデルがOpenAI GPT-5-miniとAnthropic Claude Sonnet 4.5をサードパーティベンチマークで上回ったって。これがApache 2.0で商用利用フリー。
世間では「DeepSeek R1ショック」(2025年初頭)以降、中国オープンソースAIが急速に注目されてきたけど、Qwenはそれ以前からコツコツ積み上げてきてた。今回のQwen3.6で、ついに閉鎖最先端モデル超え×完全オープンっていう組み合わせを成立させた。
わたしから見ると、これは日本企業のAIコスト戦略を根本から変えるニュース。なぜそう思うかを3つの観点で見ていく。
そう考える3つの理由
35B総パラメータ・3B活性のMoEは推論コストが安すぎる
技術的な話、ちょっとだけ。Qwen3.6-35B-A3Bの「A3B」は「Active 3B」の意味。35Bパラメータあるけど、推論時には3Bしか活性化しない**MoE(Mixture of Experts)**構成。
これが何を意味するかっていうと、推論コストが3Bモデル相当ってこと。35Bフルロードする必要なくて、必要な時に必要なエキスパートだけ動かす。
実用的なインパクト:
- 推論速度: 3Bモデル並みに速い(数倍~10倍速)
- GPUメモリ: 量子化すれば24GB GPU 1枚(RTX 4090級)で動く
- 電力消費: 35B denseに比べて1/10程度
これが普通の中堅企業の社内サーバーで動かせるレベル。Mistral Medium 3.5の128B denseは「H100 4基必要」だけど、Qwen3.6-35B-A3Bは「ゲーミングPCでも動く」レベル。
しかも性能はGPT-5-mini・Claude Sonnet 4.5超え。「軽くて速くて性能高い」三拍子揃ってる。
API価格で見ても、Alibaba Cloud経由だと1Mトークン$0.1-0.5レンジ。OpenAI GPT-5-miniが$0.15-0.6、Claude Haikuが$0.25-1.25と比較すると同等~半額。
Digital Applied のQ2 2026レポートでは、中国オープンモデルが「価格性能比でグローバル最強」のポジション獲得した、って分析されてる。
Apache 2.0は「使い倒せる」最強ライセンス
ライセンスの違いが地味に超重要。
- Llama 5: 商用利用OK、ただし月間アクティブユーザー7億超は別途交渉
- Gemma 4: Apache 2.0、完全フリー(ただし性能が一段下)
- Mistral Medium 3.5: 修正MITライセンス、商用利用OK
- Qwen3.6-35B-A3B: Apache 2.0、完全フリー
Apache 2.0って何が強いかっていうと、特許権の付与・派生モデルの自由配布・商用フルOK・帰属表示だけでOKっていうほぼ最強の自由度。
これで何ができるか:
- 日本企業が社内データでファインチューニングして、独自モデルとして使える
- ファインチューニング結果を自社プロダクトに組み込んで販売してもOK
- 派生モデルをさらにオープンソース公開しても文句言われない
- 特許訴訟の心配なし(Apache 2.0は明示的に特許利用を許諾)
特に4番が大事。Llama系は商用利用OKでも特許の扱いがグレーで、大企業の法務部門が嫌がる。Apache 2.0は「使え」って明確に書いてあるから安心。
これで何ができるか、具体例:
- 金融機関が顧客対応AIを社内ファインチューニングで構築、API料金ゼロで運用
- 製造業が技術文書検索AIを自社サーバーで運用、データ外部送信ゼロ
- 医療機関が診療補助AIをローカル運用、患者データの外部流出リスクゼロ
これらがすべて月額API料金ゼロで実現できる。
中国AI市場の45%超を占める6社が同時加速してる
Qwen単独じゃなくて、中国AI業界全体が同時に動いてるのがポイント。
Inside China's AI Machine(Digital in Asia)によると、2026年4月時点の中国AI市場でXiaomi・Alibaba・MiniMax・Zhipu・DeepSeek・StepFunの6社合計が週次トラフィックの45%超を占めてる。
各社の最新動向:
- Alibaba Qwen3.6-35B-A3B: Apache 2.0公開、GPT-5-mini超え(今回のニュース)
- DeepSeek V4: 推論深度強化、R1の後継
- Moonshot Kimi K2.6: 4月リリース、エージェント計画力強化
- Baidu ERNIE 5.0: 2.4Tパラメータ omnimodal、Kunlun自社シリコンで学習
- Tencent Hunyuan Hy3 Preview: 295B MoE、5/2朝のニュースで報じた
- MiniMax: 動画生成・音声合成で独自路線
- StepFun: マルチモーダル特化
これだけのプレイヤーがそれぞれ独自モデルで競ってる。米国はOpenAI・Anthropic・Google・Meta・Mistralの5社くらいだけど、中国は10社超が並走。
しかもほとんどがオープンソース化志向。米国勢がGPT-5・Claude Opus 4.7を閉鎖する中、中国勢は最先端モデルを次々オープンにしてる。
なぜか?地政学的理由が大きい。米中対立でNvidia GPU輸出制限を受けてる中国は、ハードで負けてる分ソフト(モデル)で世界標準を取りに来てる。「中国モデルが世界中で使われる」状況を作れば、AI技術主導権で米国を逆転できる、って戦略。
これは日本企業にとってチャンスでもある。「最先端だけど商用利用フリーなモデル」を選び放題。経産省も主権AIを推してるけど、現実問題ベースモデルから自前で作るのは無理。Apache 2.0の中国モデル使って、日本データでファインチューニング、っていうのが現実解。
ただし地政学リスクは意識する必要がある。Qwen使ったプロダクトで「中国製AI」と批判される可能性、米国市場での販売制限、データ主権の議論…。日本国内利用なら問題ないけど、グローバル展開時は要注意。
まとめ:日本企業の月100万API料金が1/10になる可能性
Alibaba Qwen3.6-35B-A3BのApache 2.0公開は、日本企業のAIコスト戦略を根本から変えるニュース。
わたしたちが今日からできることは2つ。
ひとつはHugging Faceで実際にQwen3.6を試すこと。エンジニアならローカルで動かして性能確認できる。「中国製って本当に使えるの?」って疑問は、自分で動かせば1日で解消する。
もうひとつは社内のAI予算担当に「Qwen自社運用」を提案すること。OpenAI APIに月100万払ってる会社なら、Qwen3.6を社内サーバーで動かせば月10万以下に圧縮できる可能性が普通にある。3年で見ると数千万円のコスト差。
中国オープンソースAIは、もう「サブの選択肢」じゃなくて「主力の選択肢」になりつつある。米国閉鎖モデル一辺倒の時代が終わって、ハイブリッド運用(クラウドAPI+オープン自社運用)が新常識になっていきそう。
関連記事: AI Agent ガイド
あわせて読みたい
- Alibaba Qwen3.6-Plus エージェントコーディング - 商用版の機能解説
- Alibaba Qwen3.6-Plus 西側ライバルとの比較 - 西側競合との比較
- DeepSeek V4 と Huawei|米中AI分断 - 中国オープンソースAIの代表格
- Gemma 4 Apache 2.0|オープンソース革命 - 同じApache 2.0ライセンスのGoogle版
- AIコーディングツール料金比較2026 - 各社の料金体系比較
ソース:
- Qwen Wikipedia
- Chinese AI Models Q2 2026 — Digital Applied
- Inside China's AI Machine — Digital in Asia
- Top 10 Chinese AI Companies — Second Talent
よくある質問
- この記事はどんな内容ですか?
- Alibaba Qwen3.6-35B-A3BがApache 2.0で公開、GPT-5-mini・Claude Sonnet 4.5超え。日本企業のAIコスト戦略を変える「中国オープンソース」の現在地を解説。
- 情報はいつ時点のものですか?
- 2026-05-02 時点でまとめた情報です(2026-05 の動向)。AI関連の動きは速く、最新状況は変動する可能性があるため、公式発表や一次ソースもあわせて確認してください。
- 読者としてどう受け止めればよいですか?
- 本記事は「世間の見方」「筆者の見解」「データ・事実」「これから考えておきたいアクション」の流れで整理しています。AIツールの使い方や仕事のあり方に関わる動きとして、自分の状況に置き換えて読んでみてください。