💎 Tenstorrent Galaxy Blackhole GA|$110Kで32チップ23PFLOPS、NVIDIA一強が崩れる転換点

アイ
目次
NVIDIA一強の世界に『価格性能比で殴れる選択肢』がついに出てきた
正直、AIチップってずっとNVIDIAの一人勝ちだったんだよね。
H100が2022年に出てから、Big TechもAIスタートアップも「NVIDIA一択」みたいな状態が続いてた。AMDのMI300、IntelのGaudi、GoogleのTPUと色々出てたけど、結局CUDAエコシステムの強さに勝てなくて、本格的な代替にはならなかった。
でも今回のTenstorrent Galaxy Blackhole GAを見て、わたし「やっと現実的な選択肢が来た」って思ったんだよね。
The Registerの報道によると、Galaxy Blackholeは**$110,000で32チップ・23 PFLOPS(FP8)**を提供。これがどれだけヤバいかは後で説明するけど、価格性能比でNVIDIAを完全に上回るんだよ。
しかも設計者はJim Keller。Apple A4・A5、AMD Zen、Tesla FSDチップを作った伝説的アーキテクト。この人が率いる会社が、オープンソースのAIチップで殴り込んできたって構図です。
なぜわたしが「これは転換点」と感じてるのか、説明するね。
そう考える4つの理由
$110Kで32チップ23PFLOPS、コスパが完全にNVIDIA超え
まず数字を冷静に見ていこう。
HPCwireの記事によると、Galaxyシステム単体は以下のスペック。
- 価格: $110,000
- チップ数: 32個のBlackholeアクセラレータ
- 計算性能: 23 PFLOPS(Block FP8)
- メモリ: 1TB GDDR6
- メモリ帯域: 16TB/s
- ネットワーク: 800G Ethernet × 56ポート
- アグリゲート帯域: 100Tbps
- フォームファクタ: 6Uラックサーバー
これと比較すると、NVIDIAのDGX H100(8 GPU)が**$300,000〜$400,000くらい、最新のDGX B200が$500,000超**。GalaxyはDGX H100の1/3〜1/4の価格で、FP8性能は同等以上。
wccftechの記事では、Tenstorrent自身が「NVIDIA GB300に対してTCO(総所有コスト)で5倍優位」と主張してる。
TCOっていうのは、購入価格だけじゃなくて、電力・冷却・運用コストまで含めた本当の総額のこと。Tenstorrentの主張通りなら、長期運用ではかなりの差になる。
スーパークラスタ最小構成(4 Galaxy)でも**$440,000で、最大144ノード4000+チップ**まで拡張可能。これってAIスタートアップが「本格的な学習環境」を持つコストを大幅に下げる。
世間では「NVIDIAの牙城は揺るがない」って言われてきたけど、これだけのコスパ差が出てくると、推論ワークロードを中心に置くスタートアップは真剣に検討する。
特に推論コストで利益が決まるサービス(チャットボット、コード生成、画像生成)は、1トークンあたりのコストが全て。Galaxy Blackholeでサーバー1台あたりの初期投資を1/3〜1/4に圧縮できるなら、これだけでビジネスモデルが変わる。
ただし注意点として、学習ワークロードにはまだNVIDIAが優位な領域もある。CUDAエコシステムの成熟度、PyTorch/JAXの最適化、研究者の慣れ具合は、まだNVIDIAに軍配が上がる。
DeepSeek R1で350トークン/秒、推論性能で実証
理論性能だけじゃなくて、実測値でもGalaxy Blackholeは強い。
wccftechによると、Galaxy BlackholeはDeepSeek R1で350トークン/秒を計測。これはNVIDIAのGB300と同等以上の数値で、しかも前述のTCO 5倍優位を併せて評価すると、推論経済性で完全にリードしてる。
DeepSeek R1っていうのは、中国のDeepSeekが2025年初頭に出した推論特化モデルで、OpenAI o1相当の性能を1/30のコストで再現したことで世界を驚かせた。
つまりGalaxy Blackholeは「最新の推論モデルを実用速度で動かせる」ことが実証されてる。これは机上スペックだけのチップじゃなくて、実プロダクション環境で使える状態ってこと。
EE Timesの解説では、Galaxy Blackholeのアーキテクチャ的特徴として「ディスアグリゲーション不要」が強調されてる。
ディスアグリゲーションっていうのは、NVIDIAのDGX系で必要な「プリフィル」と「デコード」をサーバー間で分離する設計のこと。LLMの推論は前半(プロンプト処理)と後半(トークン生成)で計算特性が違うから、別サーバーに分ける最適化が必要だった。
Galaxy Blackholeは、チップ単体でプリフィル・デコード両方を高速処理できる設計になってる。これってサーバー構成がシンプルになって、運用コストの大幅削減につながる。
世間では「DeepSeek R1は中国の話で、米国スタートアップには関係ない」って意見もあるけど、それは違う。オープンウェイトのR1はもう全世界で使われてるし、Llama 3 / Mistral / Qwenみたいな他のオープンモデルも同じアーキテクチャでGalaxy Blackholeで動く。
わたしの感覚として、Galaxy Blackholeが本当に変えるのは「推論のコスト構造」。月額10ドル / 20ドルで提供してるAIサービス(ChatGPT Plus、Claude Pro)は、推論コストで利益が薄い。Galaxyに移行できれば、同じ価格で利益率が大きく改善する。
これはB2C AIサービスの収益性が劇的に変わる可能性を示唆してる。
Jim Keller率いるオープンソースAIスタック
Tenstorrentの強みは、ハードウェアだけじゃなくてソフトウェアスタックの設計思想にある。
CEOのJim Kellerは、Apple A4 / A5チップ、AMD Zen(Ryzenの基礎)、Tesla FSDチップを作った伝説的なシリコンアーキテクト。半導体業界では「もう1人いるとしたらこの人」と言われるレベルの天才で、彼が率いてること自体がTenstorrentの信頼性を担保してる。
Tenstorrent公式によると、同社は全ソフトウェアスタックをオープンソースにしてる。これがCUDA独占に対する戦略的な差別化ポイント。
CUDAって、NVIDIAが2007年から築いてきたプロプライエタリな計算プラットフォーム。PyTorch、JAX、TensorFlowもCUDAに依存してて、NVIDIA以外のチップを使うのが面倒っていう構造を作ってきた。
TenstorrentはTT-Metaliumというオープンソースのカーネルプログラミングモデル、TT-NNというニューラルネット演算ライブラリ、vLLM対応のランタイムを全部公開してる。
何が嬉しいかというと、ベンダーロックインがないこと。NVIDIA以外のチップに移行するときに、コードを書き直さなくても済むエコシステムが整いつつある。
世間では「オープンソースだからって使い物になるかは別」って懐疑論もある。確かにCUDAの成熟度に追いつくには、まだ時間がかかる。
でもわたしの見立てとして、AMDのROCm、IntelのoneAPI、TenstorrentのTT-Metalium、HuggingFaceのoptimumみたいな反NVIDIA連合が形成されつつある。Pythonエコシステムがマルチベンダー対応に進化してきてて、CUDA独占は徐々に崩れてくる流れ。
ユーザー目線では、AIサービスの価格が下がる方向に効いてくる。NVIDIAが値下げ圧力を受けて、結果的にAIサービスのインフラコストが安くなる。これは中長期で大きいメリットです。
Etched Sohuと並ぶASIC勢の本格商用化フェーズ
Tenstorrentだけじゃなくて、ASIC(Application-Specific Integrated Circuit)系のAIチップが一斉に商用化フェーズに入ってる。
Jon Peddie Researchによると、Etchedが**$500Mを調達して、Sohuっていうトランスフォーマー専用ASICを準備中。8チップサーバーでLlama-70Bを500,000トークン/秒生成できるって主張してて、これはNVIDIA H100の8 GPU構成(23,000トークン/秒)の約20倍の性能**。
Etched Sohuは「汎用GPUは最早不要、トランスフォーマー専用ASICで殴る」って思想で、これはGalaxy Blackholeの「汎用AI向けチップ」とはちょっと違う方向性。
つまりAIチップ市場は今、3つの戦線で進化してる。
- 汎用GPU: NVIDIA Blackwell、AMD MI300、Intel Gaudi
- AIアクセラレータ(中間): Tenstorrent Galaxy Blackhole、Cerebras WSE
- トランスフォーマー専用ASIC: Etched Sohu、Groq LPU
わたしの感覚としては、用途別に3つとも生き残ると思う。学習にはNVIDIA、汎用AI推論にはTenstorrent、超大規模LLM推論にはEtched/Groq、みたいな棲み分けが形成されつつある。
これってPCの世界で、Intel CPU + AMD GPU + Apple Silicon、みたいなヘテロジニアス・コンピューティングが定着したのと同じパターン。AIチップ市場も多様化フェーズに入った。
世間では「NVIDIAは時価総額3兆ドルで天下無敵」って評価が定着してるけど、わたしは2027年〜2028年にかけて株価のピークが来るんじゃないかと見てる。理由は競合の本格台頭で、利益率が圧縮される可能性が高いから。
ユーザーへの示唆としては、AIチップ多様化が確定路線ってこと。これからAIサービスを選ぶときは「どのチップで動いてるか」が地味に重要になる可能性がある。NVIDIA依存度が低いサービスは価格競争力で勝つ可能性が高い、みたいな視点が出てくる。
まとめ:スタートアップが本気で検討すべき新しい選択肢
整理すると、Tenstorrent Galaxy BlackholeのGAは4つの意味を持つ。
ひとつ目は、$110Kで32チップ23PFLOPSのコスパ。NVIDIA DGX H100の1/3〜1/4の価格で同等以上の性能。
ふたつ目は、DeepSeek R1で350トークン/秒の実測。机上スペックじゃなくて、実プロダクション環境で使えることが証明されてる。
みっつ目は、Jim Keller率いるオープンソーススタック。CUDA独占に対する戦略的な反対陣営の本格化。
よっつ目は、Etched Sohuと並ぶASIC勢の本格商用化。AIチップ市場が多様化フェーズに入ったことが明確に。
スタートアップ経営者として読んでる人がいたら、推論ワークロード中心のサービスなら、Galaxy Blackholeの導入検討は十分価値がある。$440Kで4 Galaxyのスーパークラスタが買えるなら、AWSのGPUインスタンスを年間借りるよりトータルコストが安くなる可能性がある。
ユーザーとして読んでる人は、AIサービスの価格が中長期で下がることを期待していい。NVIDIAが価格圧力を受けて、結果的にChatGPT、Claude、Geminiの月額料金も値下げ方向に動く可能性が高い。
ただし注意点として、学習ワークロードにはまだNVIDIAが優位。フロンティアモデル(GPT-5、Claude Opus 5、Gemini 3)の学習は引き続きNVIDIA Blackwellが主流だと予想される。
それでも推論市場でTenstorrentが一定のシェアを取れば、それだけでNVIDIA一強構造は崩れる。Galaxy BlackholeのGAは、その第一歩として記憶に残るマイルストーンだとわたしは思う。
関連記事: ChatGPT・Gemini・Claude徹底比較
ソース:
- Tenstorrent Galaxy Blackhole AI servers GA — The Register
- Tenstorrent Galaxy Blackhole GA — HPCwire
- Tenstorrent vows to crush everyone — wccftech
- Tenstorrent Enables AI at Scale — Tenstorrent
- Welcome to the club, Etched — Jon Peddie Research
よくある質問
- この記事はどんな内容ですか?
- Tenstorrentが5月1日にGalaxy Blackholeを一般提供開始。$110,000で32チップ・23 PFLOPS(FP8)、DeepSeek R1で350トークン/秒を実現しNVIDIA GB300のTCO 5倍優位を主張。Jim Keller率いるオープンソースAIチップの本格商用化と、わたしたちユーザーへの影響を解説。
- 情報はいつ時点のものですか?
- 2026-05-03 時点でまとめた情報です(2026-05 の動向)。AI関連の動きは速く、最新状況は変動する可能性があるため、公式発表や一次ソースもあわせて確認してください。
- 読者としてどう受け止めればよいですか?
- 本記事は「世間の見方」「筆者の見解」「データ・事実」「これから考えておきたいアクション」の流れで整理しています。AIツールの使い方や仕事のあり方に関わる動きとして、自分の状況に置き換えて読んでみてください。