AI Today
ホーム > 考察記事 > 🔬 Fractile $220M|Anthropic が UK の推論チップに賭ける「脱NVIDIA・脱TPU」戦略

🔬 Fractile $220M|Anthropic が UK の推論チップに賭ける「脱NVIDIA・脱TPU」戦略

アイ

アイ

目次


推論チップが NVIDIA だけじゃなくなる時代、AI料金にも関わってくる話

これ、地味だけどわたしたちのClaude/ChatGPT料金に直撃する話なので、ちょっと聞いて。

UK・オックスフォード発の AI チップスタートアップ Fractile2026年5月13日$220M Series B をクローズ。リードは Factorial Funds、Accel、Founders Fund(Peter Thiel 系)。Founders Fund ってあの Palantir に初期投資してた超大物 VC ね。

Fractile が何をやってるかというと、「インメモリ・コンピュート」 という新しい方式の AI 推論専用チップメモリ上で直接演算する ことで、既存ハードウェア(NVIDIA/TPU)比で 25 倍高速、1/10 コスト を主張してる。

ここで一番ヤバいのが、The Information の報道「Anthropic が 2027 年提供予定の Fractile 推論チップを購入交渉中」 ってこと。つまり Claude を動かすチップが NVIDIA/Google TPU から UK 製チップへ 変わる可能性が出てきた。

なんでこれがわたしたちの料金に関わるかというと、Claude Pro の月額$20、Max の月額$100-200大半は推論コスト。もし Fractile が本当に 1/10 コスト を実現したら、料金が下がるか、無料枠が大幅拡大するか、もっと高機能になる 可能性がある。

前 Intel CEO の Pat Gelsinger も個人投資家として参加してて、「半導体業界のメインストリームが Fractile に張ってる」 って構造もアツい。

正直、わたし Claude Pro 課金してるんだけど、最近 「Claude Code 使うとすぐクレジット切れる」 ってのが悩みだった。これが 1/10 コスト で解決されるなら、めっちゃ嬉しい話なんだよね。


そう考える4つの理由

インメモリ・コンピュートが「25倍速・1/10コスト」を実現する仕組み

「インメモリ・コンピュート」っていう技術、ちょっと専門的だけど超大事なので説明するね。

普通の AI チップ(NVIDIA H100 / Blackwell とか)は 「フォン・ノイマン・アーキテクチャ」 っていう古典的な構造で動いてる。簡単に言うと:

  1. メモリ(DRAM/HBM)にデータを置く
  2. 演算ユニット(GPU コア)がデータを取りに行く
  3. 計算して結果をメモリに戻す

これ、メモリと演算ユニットの間を行き来する時間とエネルギーが莫大 なの。AI 推論の 70-80% の電力このデータ移動に消費されてる と言われてる(これを 「メモリの壁」 と呼ぶ)。

Fractile の インメモリ・コンピュート は、「メモリ上で直接計算する」 方式。SRAM/DRAM の中で行列演算を実行 することで、データ移動を不要にする。これで 電力効率を10倍、速度を25倍 にできる、っていうのが Fractile の主張。

同じ方式を狙ってる会社は他にもあって、Mythic、Syntiant、d-Matrix、Rain AI 等。でも Fractile が抜きん出てる理由 は:

  1. 創業者 Dr. Walter Goodwin がオックスフォード大ロボティクス研究所出身(Pat Gelsinger が「最も洗練された設計」と評価
  2. 2027 年商用化 を明確に約束(他社は2028-2029年)
  3. Anthropic という「アンカーカスタマー」 がついた

朝の記事で Anthropic が SpaceX と 300MW 級の Memphis Colossus 1 計算契約 を結んだって書いたけど、その電力の 70-80% が現在は NVIDIA/TPU の非効率なデータ移動で消費 されてる。Fractile を導入すれば 70-80% 削減できる って計算になる。これ、Anthropic の運営コストの根本解決 だよね。

Anthropic の推論チップ調達多角化、Google $40B依存からの脱却

ここがめっちゃ戦略的な話。事例1の Google → Anthropic $40B + 5GW ComputeFractile $220M(Anthropic買収交渉中)同時に動いてる 意味、考えてみて。

Anthropic は今、マルチハイパースケーラー戦略 を取ってる:

  • AWS Trainium/Inferentia: Amazon 製専用チップ(既に大規模利用中)
  • Google TPU: Google 製専用チップ($40B 出資で5GW提供)
  • NVIDIA H/B/R シリーズ: 標準 GPU(OEM 経由)
  • SpaceX Memphis Colossus: 自社運用の計算インフラ
  • Fractile(予定): UK 製専用推論チップ

これ何やってるかというと、「特定のチップに依存しない」 体制を作ってる。なんでかというと:

  1. NVIDIA 一社依存はコスト的にヤバい(粗利60-80%を NVIDIA が吸う)
  2. Google TPU だけだと Google に首根っこ握られる($40B 出資の代わりに)
  3. AWS Trainium だけだと Amazon に首根っこ握られる($25B 出資の代わりに)

つまり 「Amazon/Google/NVIDIA/Fractile/自社」5 系統並列 にすることで、どのベンダーにも依存しない自由を保つ 戦略。

これ、OpenAI が Microsoft Azure に縛られてる のと対照的。OpenAI は Azure 一本足 で、Microsoft の意向に逆らえない(朝記事の OpenAI 動向もMicrosoft色強い)。一方 Anthropic は 5 系統使い分け戦略的自由度 を確保してる。

Fractile への 買収交渉 という The Information 報道がもし本当なら、Anthropic は推論チップ会社まで丸ごと内製化 することになる。これは Tesla が自社 AI チップ(Dojo/AI5)を内製化 してるのと同じパターン。「AI モデル+推論チップ垂直統合」 の時代到来。

Pat Gelsinger(前Intel CEO)の個人投資が示す半導体メインストリームの賭け

これ、業界人なら全員注目してる話。Pat Gelsinger2025年1月から Fractile の個人投資家 として参加してる、っていう事実。

Pat Gelsinger って誰かというと:

  • 元 Intel CEO(2021-2024)
  • 元 VMware CEO
  • 半導体業界40年のレジェンド
  • Intel x86 アーキテクチャの中核設計者の一人

その人が 「個人の財布から」 Fractile に投資してる、っていうのは半端なくシグナル強い。なんでかというと:

  1. Pat は Intel CEO 時代に「メモリの壁」問題 を散々目の当たりにしてきた
  2. インメモリ・コンピュートが解決策 という結論を持ってる
  3. Intel ではできなかった改革 を Fractile に託してる

これ、Intel が Pat Gelsinger 解任後(2024年12月)も インメモリ・コンピュートに本気で投資できてない 状況で、Pat が「外野から」業界を変えようとしてる構図

これ、「Intel/AMD という既存大手では実現できない、スタートアップだからこそ可能」 っていう Pat の見立てを示してる。半導体業界の 「破壊的イノベーション」 理論で言えば、NVIDIA/Intel/AMD のような巨大企業は既存ビジネスモデルに縛られて新方式に転換できないFractile のような新興スタートアップが新方式で既存大手を破壊する、という古典的パターン。

朝の記事で Daybreak vs Mythos のサイバーセキュリティモデル対決を扱ったけど、夕の Fractile vs NVIDIA はそれよりさらにインフラ層の 「土台の地殻変動」Fractile が2027 年に商用化 したとき、NVIDIA の独占構造が崩れる 可能性がある。

日本のチップスタートアップ/オンプレAI推論市場への示唆

日本にも示唆がある話。

日本には Preferred Networks(PFN)/GMO クラウドAI/IDEIN/QuEST Global 等のAI チップ・AI 推論関連プレイヤーがいる。PFN は MN-Core という独自AIチップを開発、国内オンプレGPUクラスタ を提供してる。

でも 累計調達額 で見ると、PFN: $200M前後、IDEIN: $50M前後。Fractile $220M Series B はこれを 単体ラウンドで上回ってる

インメモリ・コンピュート の研究自体は日本も強くて、東大/東工大/産総研 で論文レベルの研究が進んでる。ルネサスエレクトロニクス/ソニーセミコンダクタ も関連特許を持ってる。ただ 商用化スピード資金調達力UK/米国に大きく遅れてる のが現実。

ここで日本企業/政府が取るべき戦略は2つ。

ひとつめ、Fractile 製チップを早期に確保ソフトバンク・ビジョンファンドJIC(産業革新投資機構) が Fractile に出資して、日本企業向けの優先供給枠 を確保するのがベター。

ふたつめ、Preferred Networks/IDEIN 等の国産チップに集中投資経産省/NEDO10年 1兆円規模 の集中投資をすれば、日本独自インメモリ・コンピュート で世界トップ3に入る可能性がある。

オンプレAI推論市場への影響としては、Fractile が 2027 年商用化 した時点で 「データを社外に出さないオンプレ推論」 がコスト的に成立する。これは 金融/医療/製造/自治体 の AI 導入を 爆発的に加速 させる可能性。機密データを外に出せない業界の DX 障壁 が一気に下がるね。


まとめ:推論コスト 1/10 時代の到来とAI料金低下シナリオ

Fractile $220M は、AI 推論コスト構造を根本から変える起点 になり得るラウンド。

ポイントは3つ。

ひとつめ、インメモリ・コンピュートが商用化目前。Fractile は 2027 年提供 を約束、25 倍速・1/10 コスト が実現すれば NVIDIA/TPU の独占構造が崩れる

ふたつめ、Anthropic のマルチハイパースケーラー戦略Amazon/Google/NVIDIA/Fractile/自社5 系統並列 で、特定ベンダー依存を回避OpenAI(Azure一本足)と対照的な戦略的自由度

みっつめ、わたしたちの AI 料金への影響推論コスト 1/10 が実現すれば、Claude Pro/ChatGPT Plus の料金低下、無料枠拡大、高機能の標準化 が起きる。2027-2028 年に「AI コモディティ化」が本格化 する見通し。

朝記事の Anthropic $30-50B/$950B 評価交渉、夕記事の Google $40B 出資 も、Fractile のような推論チップイノベーション と並走することで、AI 業界全体の収益構造が変わる 方向に動いてる。「フロンティアモデルの粗利」だけで戦う時代は終わって、「推論インフラ+モデル+アプリ」の垂直統合競争 がリアル。

関連記事: AI データセンター電力危機 / AI メモリチップ不足の消費者価格影響

ソース: