AI Today
ホーム > 考察記事 > ☁️ Together AIって聞いたことある?OSSモデル動かすクラウドの今|$1B調達でAWS/Azureに挑む構図

☁️ Together AIって聞いたことある?OSSモデル動かすクラウドの今|$1B調達でAWS/Azureに挑む構図

アイ

アイ

目次


AWSやAzureじゃないAIクラウドが盛り上がってる理由

Together AIって聞いたことある?」って聞くと、結構な人が「ない」って答える。AI業界詳しい人の中でも、まだメジャーじゃない名前。

でもこのTogether AIが今、$1B調達を交渉中で、目標valuationは**$7.5B**。前回のSeries B $305Mから一気に評価額が跳ね上がってる。

何の会社かっていうと、OSS(オープンソース)モデルを動かすためのAIクラウド。Llama / Mistral / Qwenみたいなオープンソースの大規模言語モデルを、APIで簡単に呼び出せるサービス。

それOpenAIとかAnthropicがあるのに、なぜわざわざOSS?」って思うかもしれない。でもこれが今、AWS / Azure / GCPの牙城に挑む新しいレイヤーとして注目されてる。

今日はTogether AIみたいなAIネイティブクラウドが何を変えるのか、わたしたち開発者・ビジネス層にどう関係するのかを整理してみる。


そう考える3つの理由

Together AIの$305M Series Bから$7.5B目標までの伸びがヤバい

まず数字の話。Together AIの資金調達履歴がエグい。

  • 2024年: Series B $305M(General Catalyst主導、Prosperity7共同主導)
  • 2026年3月時点: $1B調達交渉中、目標valuation $7.5B

Data Center Dynamicsの報道によると、参加投資家にはNVIDIA / Salesforce Ventures / Kleiner Perkins / Lux Capital / Emergence Capitalみたいな超大手が並んでる。NVIDIAが入ってるのが特に重要で、GPU供給優先権を得てるってこと。

わたしは「なんでみんなTogether AIに注目してるの?」を考えてみたんだけど、答えは「OpenAI/AnthropicのAPI使うのが嫌な企業が結構いる」ってこと。

たとえば医療データを扱う企業とか、金融機関、政府関連の業務だと、自社データをOpenAIに送信するのが規制的にダメだったりする。そういう時に「OSSモデルを自社専用環境で動かしたい」ってニーズが出てきて、その受け皿になってるのがTogether AI。

世間では「OpenAIやClaudeが圧倒的に強いから、OSSなんて使わないでしょ」って意見もある。確かに性能で言えばその通り。でも規制・コスト・カスタマイズ性を重視する層には、OSSの方が魅力的なケースが多い。

ここで読者の皆さんに考えてほしいのは、AIクラウドは1社独占じゃなく、複数レイヤーで共存するってこと。OpenAI / Anthropicが「最高性能」レイヤー、Together AI / Anyscaleが「コスト最適 + カスタマイズ」レイヤー、AWS Bedrockが「既存インフラ統合」レイヤー。それぞれ役割が違う。

Anyscale / Modal とは違う「OSSモデル特化」のポジショニング

Together AIの競合っていうと、Anyscale / Modal / Fireworks.ai / OpenRouter / Hugging Faceあたり。それぞれ役割が微妙に違うんだけど、Together AIが特に得意なのは**「OSSモデルのinference(推論)」**特化。

PCXIOのまとめによると、各社のポジショニングは:

  • Together AI: OSSモデルのinference + agents + voice AI 統合(NVIDIA GTC 2026で発表)
  • Anyscale: Ray基盤 + RayTurbo engineでPythonアプリ全体のスケール
  • Modal: Python-nativeコンテナ化でローカル→クラウドGPU移行を簡単に
  • Fireworks.ai: 高速inferenceに特化、レイテンシ重視
  • OpenRouter: 複数モデルのAPIをワンインターフェースで使える集約レイヤー
  • Hugging Face: モデル配布マーケットプレイス + Inference Endpoints

わたし個人的にはAnyscaleとTogether AIの違いが面白い。Anyscaleは「全体的な計算インフラ」、Together AIは「LLMに最適化されたinference」。前者はML研究者向け、後者はLLMアプリ開発者向け、っていう住み分け。

世間では「結局どこが勝つの?」って議論があるけど、わたしは**「全部生き残る」**派。なぜならAIクラウドの市場規模が伸びすぎてて、1社で全部のニーズをカバーできないから。Hugging Faceがマーケットプレイス、Together AIが運用、Anyscaleが研究、っていう棲み分けで全社が伸びる。

ここで考えておきたいのは、OSSモデル選ぶときに「どのクラウドで動かすか」が結構重要ってこと。同じLlamaモデルでも、Together AIとReplicateとHugging Faceで価格・速度・機能が違う。実際にプロダクト作る時は比較検討が必要。

GPU調達コストとhostingマーケットの構造変化

Together AIみたいなAIネイティブクラウドが伸びてる根本的な理由は、GPU調達の構造変化。

これまでAIインフラといえば、AWSのEC2 GPU instanceとかGoogle CloudのTPUとかを直接借りる、っていうパターンが主流だった。でもNVIDIA H100 / B100が品薄状態で、AWS / GCPでも調達が遅れてるんだよね。

Sacraの分析によると、Together AIみたいなAIネイティブクラウドは、NVIDIAから直接優先調達枠を確保してて、AWS経由より安く・早くGPUを提供できる。これが今、彼らの最大の武器。

具体的な数字でいうと、Together AIのinference価格は、AWS Bedrock経由で同じLlamaモデルを動かすより20-40%安いっていう試算もある(モデルとリクエスト量による)。これが企業にとって魅力的。

わたしから見ると、これは**「GPU供給がボトルネック」だからこそ起きてる現象**。GPU供給が潤沢になればAWS/GCPに価格優位性が戻ってくる可能性もあるけど、当面はAIネイティブクラウドの天下が続きそう。

世間では「結局NVIDIAが全部持ってってるだけじゃん」って声もある。確かにその通りで、Together AIもAnyscaleもNVIDIAから買ったGPUにマークアップして売ってる構造。でもユーザーから見れば、選択肢が増えるのは普通にいいことだよね。

ここで読者の皆さんに考えてほしいのは、自社プロダクトでLLM使う時の「ロックイン回避」。OpenAI / Anthropicに完全依存する代わりに、Together AI経由でLlama使えば、API仕様変更やプライス変更のリスクを分散できる。


まとめ:「OpenAI / Anthropic以外」を選びたい人にとっての選択肢

Together AIが$1B調達して$7.5B評価を狙ってるっていうこのニュース、表面だけ見ると「マイナーAIクラウドの調達話」に見える。

でも本質は、AIインフラ市場が「Big Tech一強」から「AIネイティブクラウド多極化」に移行してる転換点。OpenAI / Anthropic / AWS / GCPの3-4社で固定、と思われてた構造が、Together AI / Anyscale / Modal / Fireworks.aiみたいな専業企業に分散してる。

わたしたち開発者・ビジネス層から見ると、これは「選択肢が増える」っていう意味で普通にいい話。OSSモデル + AIネイティブクラウドの組み合わせで、コスト・カスタマイズ・データ主権を全部取れる時代。

OpenAIだけでいいや」って思ってる人は、半年後・1年後に「もっと良い選択肢があったのに」って後悔するかもしれない。Together AIの動向、引き続き注目していきたい。

関連記事:

ソース:

よくある質問

この記事はどんな内容ですか?
Together AIが$1B調達交渉で評価額$7.5B目標。Anyscale/Modalとの差別化、OSSモデルを動かすAIネイティブクラウドの存在意義を解説。
情報はいつ時点のものですか?
2026-05-04 時点でまとめた情報です(2026-05 の動向)。AI関連の動きは速く、最新状況は変動する可能性があるため、公式発表や一次ソースもあわせて確認してください。
読者としてどう受け止めればよいですか?
本記事は「世間の見方」「筆者の見解」「データ・事実」「これから考えておきたいアクション」の流れで整理しています。AIツールの使い方や仕事のあり方に関わる動きとして、自分の状況に置き換えて読んでみてください。