AI Today
ホーム > 考察記事 > 🛰️ Scout AI $100M/Fury基盤モデル|無人戦闘の「AI brain」がVCラウンドで建つ時代

🛰️ Scout AI $100M/Fury基盤モデル|無人戦闘の「AI brain」がVCラウンドで建つ時代

アイ

アイ

目次


防衛AIスタートアップに$100Mが流れる時代になった

これ、ちょっと重い話だけど、AI業界の現実として見ておかなきゃいけないニュース。

Scout AI っていうスタートアップが、$100M Series AAlign Ventures と Draper Associates 主導で調達した。2024年創業の2年弱の会社 で、いきなり Series A で $100M。直前のシード(2025年1月、$15M)から1年強で6.7倍 の調達。

何やってる会社かというと、「無人戦闘の AI brain」 を作ってる。Fury という基盤モデルで、米軍の autonomous decision support/無人ドローン群/無人地上車両の統合指揮 を担う。

朝のニュースで Pentagon が $200M 規模の AI 契約から Anthropic を除外 して Microsoft/Google/xAI/Palantir 他8社と契約 した話したよね。あれが Big Tech 側の話だとしたら、Scout AI は 「防衛特化AIスタートアップ」側の同じトレンド

Anduril Industries、Shield AI、Palantir Maven、Scout AI Fury という 4社が防衛AIスタックの民間プレイヤー として層を作りつつある。Scout AI はその 「基盤モデル層」 に位置する。

これ、わたしたち普通の人が普段考えない話だけど、AI 業界の「もう一つの大きな主戦場」 だから、整理していく。


そう考える4つの理由

Fury基盤モデルが「自然言語で軍を動かす」というヤバさ

まず、Fury がどういうモデルかを整理する。

公開情報によると、Fury は multi-domain autonomy foundation model(多領域 autonomy 基盤モデル)。

機能:

  • 自然言語コマンド で複数の無人システムを指揮
  • 例: 「ウェイポイントAに向かい、敵軍を監視せよ」というプロンプトを受け取ると、複数のドローン・無人車両・無人船舶 が連携して任務を実行
  • 空(air)/陸(land)/海(sea)/宇宙(space)4ドメイン横断 で動く
  • 1人の兵士数十〜数百の無人システム を指揮可能

これ、技術的には 「LLM + Vision-Language Model + Robotics action model」のマルチモーダル統合。Tesla の Optimus、Figure の humanoid、Physical Intelligence の π_0 とかとも親戚関係。

防衛特化で最も重要なのは、「自律行動の境界条件」 をどう設計するか。例えば:

  • 発砲判断は人間にreserved(man-in-the-loop)
  • 偵察・移動・通信中継は完全自律可
  • 緊急回避は AI 判断OK

こういう 「自律性レベル」のキャリブレーション が、防衛AI のキモ。Scout AI はこの設計を DARPA/米陸軍 と協力 して詰めてる。

技術的・倫理的な意味では、「人間が指示せず、AI が判断して動く軍事システム」 が現実化してる、ってことになる。これ、SF映画じゃなくて、2027年の派遣 で実戦投入候補に入ってる現実の話。

DARPA/米陸軍がもう実戦投入準備に入ってる

Scout AI の進捗が早い理由は、米軍とのプログラム連携 がガッツリ動いてるから。

既存契約・関係:

  • DARPA(国防高等研究計画局)からの開発契約
  • Army Applications Laboratory(米陸軍応用研究所)からの契約
  • 複数のDoD(国防総省)顧客 との契約
  • 合計開発契約額: $11M
  • 2026年現在: 米陸軍第1騎兵師団Fort Hood(テキサス州) での定期演習で Fury を運用テスト中
  • 2027年: 同師団の次回派遣実戦投入候補

ここで重要なのは、「米陸軍が定期演習に Scout AI を組み込んでる」 っていう事実。米軍が新技術を採用するプロセスって超慎重で、「研究→演習→実戦」 のステップを年単位かけて踏む。

Scout AI は 「演習」フェーズに入ってる ってことは、「研究」段階は通過してて、技術として一定の信頼を得てる。次の 「実戦投入」 は、2027年と言われてるけど、地政学的危機(中東、台湾、東欧など)次第で前倒しもありうる。

これ、Anduril の Lattice OS、Shield AI の Hivemind、Palantir の Maven AI が 同じく実戦投入される タイミングと重なる。2027〜2028年の米軍の派遣 は、「AI 駆動の autonomous warfare の最初の実戦」 になる可能性高い。

Anduril は 時価総額$30B、Shield AI は $8B、Palantir は 時価総額$300B で、Scout AI も Series A $100M で $1B 評価近く に到達してると見られる。防衛AI セクターの民間時価総額 は、合計で $350B超 に膨らんでる。

Anduril・Shield AI・Palantirとの「防衛AIスタック」連合

防衛AI 業界の構造を整理すると、各社が 異なる層 で勝負してる。

Foundation modelレイヤ:

  • Scout AI(Fury): 多ドメインautonomy基盤モデル

OS/オーケストレーションレイヤ:

  • Anduril(Lattice OS): 防衛システム間の統合OS
  • Shield AI(Hivemind): ドローン群協調 OS
  • Palantir(Gotham/Maven AI): 衛星画像・地上情報の統合分析

ハードウェアレイヤ:

  • Anduril(Ghost、Roadrunner、Anvil ドローン)
  • Shield AI(V-BAT、Nova ドローン)

これ、層が違うから 競合じゃなくて補完関係 になってる。Scout AI の Fury が、Anduril の Lattice の上で動いて、Anduril のドローンを指揮する、みたいな構造。

朝のニュースで Pentagon が $200M を Microsoft/Google/xAI/Palantir 含む8社 と契約した話したけど、これは 「クラウド・基盤モデル層」 の話。「防衛特化スタートアップ層」 には Scout AI/Anduril/Shield AI が同時並行で資金が流れてる。

Big Tech(汎用AI)+専業スタートアップ(防衛AI) っていう 二層スタック米軍 AI 戦略の今の姿Scout AI $100M は、その 専業スタートアップ層 の代表的な調達。

業界全体の規模を考えると、米軍の AI 予算は2026年度で$1.8B〜$2.5B規模 で、これが向こう5年で $10B規模 に拡大する見込み。その大半が 専業スタートアップ+Big Tech の連合スタック に流れる構造。

Anthropic除外(Pentagon契約)の裏で動いてるカテゴリ

朝の話を思い出してほしい。Anthropic は Pentagon の $200M 契約から除外 された。理由は 「武器自律化/致死的応用への不参加公約」「慎重な Responsible Scaling Policy」 が軍事用途と合わなかった。

Anthropic が辞退した(あるいは選ばれなかった)市場に、Scout AI のような専業会社が入り込んでる っていうのが今回の構造。

これ、AI 倫理的にすごく興味深い対比。

Anthropic の立場:

  • AI の致死的応用には参加しない
  • 武器自律化には不参加
  • 「責任あるAI」ブランドを守る
  • 政府市場の機会損失を許容

Scout AI の立場:

  • 自然言語で無人ドローン群を指揮するモデルを開発
  • 米軍の autonomous warfare に基盤モデルを提供
  • 「防衛特化スタートアップ」として全力コミット

この 二つの正反対のスタンス が、同じ AI 業界の中に 共存 してる。「AI で何を作るか」「誰のために作るか」 っていう倫理判断が、各社の経営戦略を分けてる。

これ、わたしたち個人にも問いかけが来てる気がする。

例えば AI エンジニアとしてキャリア選ぶときに、「Anthropic みたいな倫理重視会社」 に行くか、「Scout AI みたいな防衛特化会社」 に行くか、「Sierra みたいな企業向け会社」 に行くか、「OpenAI みたいな汎用会社」 に行くかで、自分の手で作るものが大きく違う

防衛AI で 「自分の作ったモデルが戦場で人の生死を分ける判断をする」 可能性を引き受けるか。逆に 「責任あるAIで政府市場を捨てる」 経営判断を支持するか。

正解はない。でも、Scout AI $100M というニュースは、防衛AI が「もはやニッチじゃなく業界の本流の一部」 だと示してて、各個人が 自分の立場を決める必要が生まれてる って気がする。


まとめ:防衛AIに対するわたしたちのスタンスをどう持つか

整理すると、Scout AI $100M/Fury基盤モデル で見えるのは、「防衛AI が AI 業界の本流の一部として確立した」 ってこと。

これまで AI 業界の主役は、OpenAI(汎用消費者)/Anthropic(業務/責任ある AI)/Google(消費者+クラウド)/Meta(オープンソース) っていう 「汎用AI」 系だった。

ここに Scout AI/Anduril/Shield AI/Palantir という 「防衛AI」 系が、$100M超ラウンドで対等な地位を取りに来てる。これらの会社の 合計時価総額は$350B超、米軍AI予算は 5年で$10B規模 に拡大予定。

この現実を踏まえて、わたしたちが取れる立ち位置 がいくつかある。

「防衛AI を支持する」立場: 米国の国家安全保障に AI が必要、抑止力として最先端 AI を米軍が持つべき、という考え方。Andreessen Horowitz、Founders Fund、In-Q-Tel はこの立場。

「防衛AI を慎重視する」立場: AI による戦争自動化の倫理リスク、誤判定のリスク、軍拡レースのリスクを警戒する。Anthropic、Future of Life Institute、Center for AI Safety はこの立場。

「中立だが事実を知る」立場: 賛否は留保しつつ、事実として防衛AI が業界の一部 であることを認識し、自分の関わり方を選ぶ。

わたし個人としては、3つ目に近いかな。「防衛AI が存在してる事実」 を知らないままだと、AI 業界全体の判断や、自分のキャリア選択 が、知らないうちに偏った前提でなされる。

例えば「AI スタートアップに就職したい」って思ったとき、Scout AI みたいな防衛特化会社からスカウト来る可能性 がある。そのとき 「これは自分が手を出す領域か?」 を判断する必要が生まれる。

逆に 「絶対防衛AIに関わりたくない」 なら、Anthropic、Hugging Face、開発者ツール系(Cursor、Replit) など、明示的に防衛市場から距離を取ってる会社を選ぶ。

どの立場を取るにせよ、Scout AI $100M っていうニュースを 「自分とは無関係」と切り捨てず「AI 業界の現実」 として受け止めるところから始めるのが、これからの AI 時代を生きる人の 最低限の情報リテラシー だと思う。

関連記事: AIと倫理|開発者が考えるべき視点

ソース: