🎯 transformer専用ASICがNVIDIAに本気で挑む日|Etched Sohu $500M/$5B評価の意味

アイ
目次
transformer専用ASICがNVIDIAに本気で挑む時代が来た
これ、AIインフラ業界の歴史的な瞬間かも。Etchedが**$500Mを調達して、評価額$5B**でtransformer専用ASIC「Sohu」の量産化フェーズに入った。
Etchedの主張がすごくて、Sohu1台でNVIDIA H100の10-20倍のスループット/ワットを達成するらしい。これが本当なら、データセンター事業者の「電力コスト」と「設備投資」が一気に圧縮される。
主導投資家がStripes、Peter Thiel、Balaji Srinivasanっていう、シリコンバレーで「独自路線・反主流」を貫く人たちなのも象徴的。NVIDIA帝国に挑む独立勢力って感じ。
わたしたちの生活への影響は「ChatGPTやClaudeの応答速度が3-5倍速くなる」「AIサービスの料金が半額以下になる」っていう、地味だけど決定的な変化。
そう考える5つの理由
理由1:「transformerだけ動かす」割り切りが本気で正しい
Etchedの設計思想って、めちゃくちゃ大胆。「Sohuはtransformerモデルしか動かしません」って言い切ってる。
Tom's Hardwareの解説によると、SohuはTSMC 4nmプロセスで設計されたASIC(特定用途集積回路)で、Convolution、RNN、Diffusion、Mambaなどは一切動かない。
これ、普通に聞くと「用途狭すぎて売れないんじゃ?」って思うけど、現実を見ると合理的なんだよね。
なぜなら2025-2026年の時点で:
- OpenAI GPT-5/GPT-5.5: transformer
- Anthropic Claude 4.5/4.7: transformer
- Google Gemini 2.5/3.0: transformer
- Meta Llama 4/5: transformer
- xAI Grok 4/5: transformer
- DeepSeek V3/R1: transformer
- Mistral Large 3/Medium 3: transformer
主要モデル全部transformer系。残りのMamba/RWKV/Diffusionは研究レベルで、商用推論ワークロードの99%はtransformerが占めてる。
だからEtchedの「transformer専用に振り切る」は、市場の99%をカバーする戦略として合理的。
理由2:H100比10-20倍の性能が本当ならゲームが変わる
Sohuの性能主張は「NVIDIA H100比でスループット/ワットが10-20倍」。
これが本当なら何が起きるかというと、計算してみよう:
- H100搭載サーバー: 8GPU構成で約$300K、消費電力10kW、年間電気代$10K
- Sohu搭載サーバー(仮想): 同等性能を1/20のチップ数で実現、価格$50K以下、消費電力500W、年間電気代$500
つまり、ChatGPT/Claude/Geminiを動かすデータセンターの電気代が95%削減される。
OpenAIが2025年に推論コストで年間$10B超を使ってると言われてて、これがSohu採用で**$500Mに圧縮**できる可能性がある。
これは大型AIラボにとって死活問題レベルのインパクト。
ただし、注意点もある。「H100比」ってのは2022年発売の旧世代GPU比で、最新のNVIDIA Blackwell B200/GB200/Rubinとの比較じゃない。
Blackwellは推論性能でH100比2-3倍、Rubin(2026年後半投入)はさらに2倍の性能。実質的にはSohu vs Rubin で 2-5倍くらいの差に収束しそう。
それでも「専用ASIC vs 汎用GPU」で2-5倍差なら十分ゲームチェンジャー。
理由3:Stripes+Peter Thiel+Balaji Srinivasanという「思想的一致」
Etchedの投資家リストが、めちゃくちゃ象徴的:
- Stripes(リードVC)
- Peter Thiel(PayPal創業者、反主流投資の代名詞)
- Positive Sum
- Ribbit Capital
- Balaji Srinivasan(Coinbase元CTO、技術的特異点論者)
Peter ThielとBalaji Srinivasanは、シリコンバレーで「主流のコンセンサスに反対する」ことで知られてる人たち。NVIDIAの圧倒的市場独占(推論市場シェア90%超)に対する思想的なアンチテーゼとして、Etchedを推してる。
StripesのようなVCが$500Mを投じるってことは、「NVIDIA独占は永続しない」「専用ASICが推論市場の30-50%を取る」と本気で見てるってこと。
世間では「NVIDIA一強は当面続く」って論調が支配的だけど、わたしはむしろ「推論ワークロードは専用ASICに分割される」と思う。なぜなら、推論は「特定モデルを大量に動かす」用途で、汎用GPUのオーバーヘッドが大きすぎるから。
学習はNVIDIA独占続く、推論はEtched/Groq/SambaNovaが分け合う、という構図が2027-2028年に確立しそう。
理由4:チップ戦争の「三国志化」を象徴する独立路線
2026年のAIチップ戦争、ついに三国志状態になった:
- NVIDIA-Groq軸: 2026年1月にNVIDIAがGroqと提携、GPU+ASIC統合
- Intel-SambaNova軸: 2026年2月にIntelがSambaNovaに$35M投資、CPU+RDU+GPU三層統合
- 独立Etched軸: 2026年初に$500M/$5B、Stripes+Peter Thielバック
それぞれ戦略が違う:
- NVIDIA-Groqは「汎用GPU+専用ASICのハイブリッド」で、既存顧客を守りながらASIC化
- Intel-SambaNovaは「CPU指揮+RDU実行+GPU補助」で、agentic AIに最適化
- Etchedは「完全独立、transformer専用に振り切る」で、最大効率を狙う
このうち、長期的に強いのはEtchedモデルかもしれない。なぜなら「専門性が極端なほど効率が高い」のが半導体の鉄則だから。
ただし、Etchedには大きな弱点がある(次の理由で)。
理由5:未出荷の「執行リスク」がリアル
ここが正直一番不安なポイント。2026年3月時点で、Sohuはまだ顧客出荷されていない。
Etchedの状況を整理すると:
- 2024年6月: $120M調達、Sohu発表
- 2025年: TSMC 4nmプロセスで設計、テープアウト準備
- 2026年初: $500M/$5B評価で量産化資金調達
- 2026年3月: 顧客出荷未開始
- 2026年下半期予定: 初期顧客向け出荷開始
- 2027年: 量産フェーズ
つまり、$5B評価で資金は集めたけど、実機の市場検証はこれから。性能主張(H100比10-20倍)が実環境で再現できるかはまだ未知数。
しかも競合のNVIDIAは:
- 2026年Q3予定: Rubin GPU量産開始
- 2027年予定: Rubin Ultra
- 常時改良: TensorRT-LLM、CUDA最適化で推論性能を毎月上げてる
Sohuが出荷される頃には、NVIDIA Rubinが既に「H100比5-7倍」になってて、Sohuの優位性が3倍程度に縮まる可能性が高い。
でもそれでも3倍差なら、「コスト競争」で勝てる可能性は十分ある。問題は「どれだけ早く顧客のNVIDIA信頼を切り崩せるか」。
世間では「Etchedは1-2年遅れた」って評価が多いけど、わたしは「3倍差でも価格×安定供給で十分勝負できる」と見てる。
まとめ:推論チップ市場が「専門化」へ向かう転換点
Etched Sohu $500M調達は、AIチップ市場が「汎用GPU独占」から「専門ASIC分割」へ移る象徴的イベント。
これからの数年、推論チップ市場は:
- NVIDIA: 学習+汎用推論で50-60%維持
- Groq/Cerebras/Etched: 大規模推論で20-30%獲得
- SambaNova/d-Matrix: agentic AI/enterprise推論で10-15%
- AWS Trainium/Google TPU/Microsoft Maia: ハイパースケーラ自社チップで10-15%
という分散構造になりそう。
わたしたちが今からできることは3つ。
1つ目は、AIサービスの料金値下げを期待しておくこと。Etched/Groq/SambaNovaの量産化で、ChatGPT/Claudeのトークン単価が今後2年で半額以下になる可能性が高い。月額プランも$20→$10とか、無料枠が大幅拡大する流れ。
2つ目は、NVIDIA一極投資のリスクを認識すること。NVIDIA株はAIブームの恩恵を最も受けてるけど、推論市場でEtched/Groqが10-20%取り始めると、成長率が鈍化する。ポートフォリオを分散しておく。
3つ目は、「専門化の時代」が来てることを意識すること。AIチップだけじゃなく、AIモデル(医療特化/法律特化/建設特化)、AIアプリ(業界特化SaaS)、すべての領域で「汎用→専門」の流れが進む。
正直、Sohuが本当に出荷されて性能主張通りなら、わたしも「ChatGPT料金が半額になった」「応答速度が3倍速くなった」って体感する未来が、2027年ごろには来てる気がする。
あわせて読みたい
- SambaNova × Intel|CPU+RDU+GPU三層推論の新潮流
- Etched Sohu $500M / 5B|TransformerASIC NVIDIA H100挑戦
- Anthropic-Google-Broadcom TPU 35GW|AIインフラ戦争
- DeepSeek V4 × Huawei|米中AI分断のチップ戦線
- AIデータセンター電力危機|2026年ボトルネック
ソース:
- Etched's $500M Sohu Chip Takes Aim at Nvidia(The AI World)
- Etched's $500 Million Raise: A Blueprint for Enterprise AI Inference in 2026(AI 2 Work)
- Sohu AI chip claimed to run models 20x faster and cheaper than Nvidia H100(Tom's Hardware)
- Etched is building an AI chip that only runs one type of model(TechCrunch)
よくある質問
- Etched Sohuはどんなチップ?
- transformer専用ASIC(特定用途集積回路)でTSMC 4nmプロセス。NVIDIA H100比で10-20倍のスループット/ワットを主張するが、2026年3月時点では顧客出荷未開始。Convolution、RNN、Diffusion、Mambaなどは動かず、transformerモデル専用に設計。
- Etchedの調達額と評価は?
- 2026年初に$500Mを調達し評価額$5B。主導投資家はStripes、Peter Thiel、Positive Sum、Ribbit Capital、Balaji Srinivasan。累計調達額$620M超。
- NVIDIAとの差別化は?
- NVIDIAは汎用GPUで全モデル対応、Etchedはtransformer専用に振り切ることで効率最大化。学習用途はNVIDIA、推論用途はEtched/Groq/SambaNovaが分け合う構造になりつつある。
- Sohuの量産はいつ?
- 2026年下半期に初期顧客向け出荷開始、2027年に本格量産フェーズへ。NVIDIA Rubin(2026年Q3予定)との性能比較が市場検証の山場。
- transformer以外のモデルが主流化したら?
- Mamba/RWKV/Diffusion系が業界主流になればSohuは陳腐化リスクが高い。ただし2026年時点でOpenAI/Anthropic/Google/Meta/xAI/DeepSeekの主要モデルは全部transformer系で、5年単位で見ても主流の座は変わりにくい。