AI Today
ホーム > 考察記事 > 🔄 自己改善AIの衝撃|Recursive Superintelligence $500M調達が意味する『AIがAIを作る』未来

🔄 自己改善AIの衝撃|Recursive Superintelligence $500M調達が意味する『AIがAIを作る』未来

アイ

アイ

目次


自己改善AIとは何か

2026年4月、創業わずか4カ月のRecursive Superintelligenceが$500M(約750億円)のPre-Series A調達を完了した。GV(旧Google Ventures)がリードし、NVIDIAが参加。$4B(約6,000億円)のプリマネー評価は、応募過多で最終的に$1Bに達する可能性も報じられている。

これほどの資金が4カ月の企業に集まる理由は、同社が追求するビジョンの大きさにある。「自己改善AI」——AIがAI研究そのものを自動化し、人間の介入なく自らを進化させるシステムだ。創業者のRichard Socher氏はこれを「ニューラルネットワークの第3段階にして最終段階」と表現する。

そう考える4つの理由

創業チームの異常な密度

Recursive Superintelligenceの創業チームは、AI研究の最前線を歩いてきた人物の集合体だ。

  • Richard Socher: 元Salesforce Chief Scientist兼EVP。自然言語処理分野のパイオニアで、Stanford出身
  • Tim Rocktäschel: 元Google DeepMindディレクター兼主席科学者。ICML 2024最優秀論文賞を受賞したGenieチーム(インタラクティブ世界モデル)を率いた
  • Josh Tobin: 元OpenAI研究者
  • Jeff Clune: 元OpenAI研究者。進化的計算とオープンエンデッド学習の専門家
  • Tim Shi: 元OpenAI研究者

約20名のチームでありながら、DeepMind・OpenAI・Salesforceという3つの主要AI組織からの幹部級人材を集中させている。この「人材密度」こそが$4B評価の最大の根拠だ。

「第3段階」の意味:AIのメタ進化

Socher氏が言う「ニューラルネットワークの3段階」を整理すると、AIの進化の全体像が見えてくる。

第1段階:タスク特化型AI(2012〜2020年) 画像認識、翻訳、音声認識など、特定のタスクに特化したモデル。AlexNet、BERT、GPT-2がこの時代を代表する。

第2段階:汎用大規模モデル(2020〜現在) GPT-4、Claude、Geminiに代表される大規模言語モデル。テキスト・画像・音声を横断するマルチモーダル能力を持ち、多様なタスクをこなす。現在のAI産業の主戦場。

第3段階:自己改善型AI(これから) AIがAI研究のパイプライン全体——データ選択、アーキテクチャ設計、学習、評価、研究方向の決定——を自動化する。人間の研究者が行っていた「AIをより良くする作業」をAI自身が行う。

第3段階が実現すれば、AIの進化速度は人間の研究能力のボトルネックから解放される。現在、フロンティアモデルの学習には数千人の研究者が数カ月を費やすが、自己改善AIはこのサイクルを大幅に短縮できる可能性がある。

GV・NVIDIAが$4Bを認めた根拠

通常、創業4カ月で$4B評価は非常識に見える。しかし2026年のAI投資環境を考慮すると、投資家のロジックは明確だ。

Q1 2026のVC投資$300Bのうち80%がAI。上位4社(OpenAI、Anthropic、xAI、Waymo)だけで$188Bを吸収した。フロンティアAI研究の人材は極めて限られており、DeepMind・OpenAIの幹部級研究者5名が集まったチームの「オプション価値」は、従来のスタートアップ評価基準では測れない。

NVIDIAにとっては、自己改善AIの研究過程で大量のGPU計算を消費する顧客を早期に確保する意味もある。GVにとっては、Googleが社内でDeepMindを持ちつつ、外部の自己改善AI研究にも張る「ヘッジ」だ。

安全性リスク:自己改善AIのパラドックス

自己改善AIには根本的なパラドックスがある。AIが自らを改善する能力を持てば、その改善の方向性を人間が制御し続けられるのか、という問題だ。

Anthropicの「Claude Mythos Preview × Project Glasswing」がゼロデイ脆弱性を自律発見する能力で波紋を呼んだように、AIの自律的能力が国家安全保障レベルに達する時代において、自己改善AIはさらに大きなリスクをはらむ。

  • アラインメント問題の再帰性: 自己改善AIが自らの目標関数を書き換える可能性
  • 検証の困難さ: AIが生み出した改善がなぜ有効なのかを人間が理解できなくなるリスク
  • 速度の問題: 改善サイクルが高速化するほど、人間による監視が追いつかなくなる

Stanford AI Index 2026が指摘するように、AI能力の急速な進歩と社会的信頼の低下のギャップは拡大している。自己改善AIの登場は、このギャップをさらに拡げる可能性がある。

まとめ:2026年は「AI研究の自動化」元年か

Recursive Superintelligenceの$500M調達は、AI産業が「より良いモデルを作る」段階から「モデルを作るプロセスそのものをAI化する」段階に移行しつつあることの証左だ。

5月中旬の正式ローンチで具体的な技術デモが公開されれば、自己改善AIの実現可能性についてより明確な評価ができるようになる。しかし現時点で確実に言えるのは、AI産業の最先端の関心が「モデルの性能向上」から「研究プロセスの自動化」へとシフトしているということだ。

この流れは、AI開発のコストと速度を劇的に変える可能性がある一方で、安全性と制御可能性について根本的な問いを突きつける。フロンティアAI研究が一握りの天才研究者から自律的AIシステムへと移行する——その転換点が、2026年に訪れようとしている。

よくある質問

この記事はどんな内容ですか?
創業4カ月で$500M調達、$4B評価のRecursive Superintelligenceが目指す『自己改善AI』とは何か。DeepMind・OpenAI出身の創業チーム、GV・NVIDIAの投資根拠、AGIへの道筋と安全性リスクを分析する。
情報はいつ時点のものですか?
2026-04-21 時点でまとめた情報です(2026-04 の動向)。AI関連の動きは速く、最新状況は変動する可能性があるため、公式発表や一次ソースもあわせて確認してください。
読者としてどう受け止めればよいですか?
本記事は「世間の見方」「筆者の見解」「データ・事実」「これから考えておきたいアクション」の流れで整理しています。AIツールの使い方や仕事のあり方に関わる動きとして、自分の状況に置き換えて読んでみてください。