🌍 LLMの限界を超える?|Yann LeCunの『ワールドモデル』に1545億円が集まった理由

アイ
目次
「LLMは間違ってる」と言い切る男に1545億円が集まった
チューリング賞受賞者のYann LeCun氏。ディープラーニングの父の一人で、Metaの元チーフAIサイエンティスト。この人がずっと言い続けてることがある。「LLM(大規模言語モデル)は人間レベルのAIには到達できない」って。
ChatGPT、Claude、Gemini。わたしたちが毎日使ってるAIは全部LLMベースなんだけど、LeCun氏に言わせると「言語だけで世界を理解しようとするのは根本的に間違ってる」らしい。赤ちゃんは言語を覚える前に物理的な世界を理解してるでしょ?っていうのが彼の主張。
で、そのLeCun氏がMetaを辞めて作ったAMI Labs(Advanced Machine Intelligence Labs)が、$1.03B(約1,545億円)のシード資金を調達した。ヨーロッパ史上最大のシードラウンドで、設立からわずか4ヶ月でこの金額。評価額$3.5B(約5,250億円)。これは「AI業界の異端児」に対する、投資家の賭けなんだよね。
正直、わたしはLLMの進化にはまだまだ期待してるから、LeCun氏の「LLMは限界がある」っていう主張には半信半疑なところもある。でも、1,545億円のお金が集まったという事実は、「LLMの次」を模索してる人がたくさんいるっていう証拠だよね。
そう考える3つの理由
ワールドモデルって何?LLMと何が違うの?
まず「ワールドモデル」って何なのか、できるだけ簡単に説明するね。LLM(大規模言語モデル)は、大量のテキストデータを学習して「次の単語を予測する」ことで文章を生成する。つまり、言語をベースにして世界を理解しようとしてるんだよね。
一方、ワールドモデルは「現実世界の物理法則や因果関係を直接学習する」アプローチ。たとえば、ボールを投げたら放物線を描いて落ちるとか、コップを倒したら水がこぼれるとか。そういう「世界のルール」を言語ではなく、映像やセンサーデータから学ぶ。
AMI Labsが開発してるのは、LeCun氏が提唱する「JEPA」(Joint Embedding Predictive Architecture)というアーキテクチャに基づくワールドモデル。これは、入力データの「本質的な特徴」を抽出して、次に何が起きるかを予測する仕組み。言語に依存しないから、画像、音声、センサーデータなど、あらゆる種類の情報を統合的に理解できるっていうのが理論上のメリット。
LLMの最大の弱点は「ハルシネーション」(事実に反する内容を自信満々に語ること)だけど、ワールドモデルが物理法則や因果関係を正しく理解できれば、この問題を根本的に解決できる可能性がある。コップを倒したら水がこぼれるっていう因果関係を理解してるAIは、「コップを倒したら水が上に飛ぶ」みたいなでたらめを言わないはず、っていう理屈。
ただし、これはまだ理論段階の話が多いのも事実。JEPAが本当にスケールするかどうかは、AMI Labsがこれから証明しなきゃいけない。$1.03Bの資金は、まさにその証明のために使われるんだよね。
Jeff Bezos、Eric Schmidtが個人で出資する意味
AMI Labsのシードラウンドには、Cathay Innovation、Greycroft、Hiro Capital、HV Capitalがリード投資家として参加。でもわたしが注目したのは、個人投資家としてJeff Bezos、Mark Cuban、そして元Google CEOのEric Schmidtが出資してること。
これ、かなり意味深だと思うんだよね。特にEric Schmidtは、Googleの元トップとしてGeminiの前身であるLLM開発の流れを熟知してる人物。その人が「LLMの代替を目指す」AMI Labsに個人マネーを入れてるっていうのは、LLM一辺倒のアプローチに対する「ヘッジ」なんじゃないかと思う。
Jeff Bezosも同様。Amazonは自社でAIモデルを開発しつつ、AnthropicやStability AIにも投資してる。AMI Labsへの出資は、「LLMだけじゃない未来」に保険をかけてる感じがする。
投資家の世界では「conviction bet」(確信に基づく大きな賭け)って言葉があるんだけど、AMI Labsの場合はLeCun氏の知名度と実績があるから、「この人が本気で取り組むなら、最低でも何かしら成果は出る」っていう信頼感がベースにあると思う。チューリング賞受賞者が自分のキャリアを賭けて作った会社だからね。
もちろん、$1.03Bが全部溶ける可能性もゼロじゃない。ワールドモデルが技術的に行き詰まるリスクは当然ある。でも仮にLLMの限界が露呈したとき、「次の選択肢」を持ってるかどうかは、投資家にとって大きな差になる。そういう意味で、彼らの出資は合理的なリスク分散だと思うんだよね。
産業用ロボットと医療がターゲットなのが戦略的すぎる
AMI Labsがワールドモデルのターゲットにしてるのは、産業用ロボットとヘルスケア。この選択が戦略的にめちゃくちゃ賢いと思うんだよね。
なぜかっていうと、この2つの分野はLLMの弱点が最も顕在化する領域だから。工場のロボットアームは物理的な世界で動くから、テキストベースの理解じゃ不十分。手術支援ロボットも同じで、臓器の位置や組織の硬さなど、物理的な情報を正確に理解する必要がある。
逆に、カスタマーサポートやコンテンツ生成みたいな「言語が中心」のタスクではLLMが強い。AMI Labsは敢えてLLMの得意分野を避けて、LLMが苦手な領域に特化してるんだよね。OpenAIやAnthropicと真っ向勝負するんじゃなくて、彼らが手を出しにくい市場を狙ってる。
産業用ロボットの市場は2026年時点で約$60B(約9兆円)、ヘルスケアAI市場は約$35B(約5.25兆円)。合わせると$95B(約14兆円)の市場があるわけで、ワールドモデルがこの市場で優位性を発揮できれば、$3.5Bの評価額は全然高くない計算になる。
実は、TeslaのOptimus(ヒューマノイドロボット)やGoogleのRobot Transformerも、言語以外のデータから物理世界を理解するアプローチを研究してる。AMI Labsが直接の競合になるかは微妙だけど、「ワールドモデル」というコンセプト自体は業界全体で注目度が上がってるのは間違いない。
パリを拠点にしてるのも面白い。フランスはMistral AIの成功もあって、ヨーロッパのAI研究ハブとしてのポジションを強化してる。EU AI Actという規制環境の中で、責任あるAI開発を進めやすいっていうメリットもあるんだよね。
まとめ:LLMの次は『現実を理解するAI』かもしれない
AMI Labsの$1.03Bシードラウンドは、AI業界に「LLMだけが答えじゃない」というメッセージを突きつけてる。
わたし個人的には、LLMとワールドモデルは「どちらかが勝つ」じゃなくて「両方が共存する」未来になると思ってる。テキストや会話が中心のタスクはLLMが得意、物理世界を扱うタスクはワールドモデルが得意。それぞれの得意分野で棲み分けが進むんじゃないかな。
ただ、LeCun氏がLLMの限界を主張する根拠には一理ある部分もあって、今後5年くらいでワールドモデルが実用的な成果を出せるかどうかは、AI技術の方向性を左右する重要なテストケースになる。1,545億円の行方を見守っていきたいよね。
関連記事: AIエージェント完全ガイド
ソース:
- Yann LeCun's AMI Labs raises $1.03B to build world models
- Yann LeCun just raised $1bn to prove the AI industry has got it wrong
- Turing Winner LeCun's New 'World Model' AI Lab Raises $1B
よくある質問
- この記事はどんな内容ですか?
- Yann LeCunのAMI Labsが$1.03Bの史上最大シードラウンドを調達。LLMに代わる『ワールドモデル』とJEPAアーキテクチャの可能性を解説。
- 情報はいつ時点のものですか?
- 2026-04-12 時点でまとめた情報です(2026-04 の動向)。AI関連の動きは速く、最新状況は変動する可能性があるため、公式発表や一次ソースもあわせて確認してください。
- 読者としてどう受け止めればよいですか?
- 本記事は「世間の見方」「筆者の見解」「データ・事実」「これから考えておきたいアクション」の流れで整理しています。AIツールの使い方や仕事のあり方に関わる動きとして、自分の状況に置き換えて読んでみてください。