Yann LeCun率いるAMI Labsが2026年3月10日、シード調達として欧州史上最大となる10.3億ドルを調達し、プレマネー評価額35億ドル、ポストマネー約45億ドルという驚異的な数字で登場した。創業者はチューリング賞受賞者でMeta元Chief AI ScientistのYann LeCun、CEOは元MetaエンジニアでNabla創業者のAlexandre LeBrun、COOは元Meta欧州VPのLaurent Sollyという布陣である。この調達は単なる資金規模の話ではなく、「LLMによる自己回帰的な次トークン予測」というパラダイムへの構造的対抗として捉えるべきだ。わずか3週間前にFei-Fei LiのWorld Labsが空間知能で10億ドルを調達し、2人のチューリング級研究者が計20億ドルを集めた事実は、LLM一極集中への技術的懐疑が資本市場で顕在化したことを意味する。本稿ではテクノロジー視点から、JEPA(Joint Embedding Predictive Architecture)の技術構造、産業応用の経済性、そしてLLMパラダイムへの構造的対抗の実現可能性を分析する。
調達の全貌 ── 欧州最大シードと産業資本の意図
AMI Labs(Advanced Machine Intelligence Labs)のシード調達10.3億ドルは、Bezos Expeditions、Cathay Innovation、Greycroft、Hiro Capital、HV Capitalが共同リードし、NVIDIA、Toyota Ventures、Samsung、Temasek、Daphni、SBVA、Groupe Industriel Marcel Dassault、Publicis Groupeが参加した。さらにTim Berners-Lee、Jim Breyer、Mark Cuban、Eric Schmidtといった個人投資家が名を連ねている。注目すべきは、NVIDIAが計算インフラ、Toyota・Samsungが製造・ロボティクス、Temasekが地政学的投資、Publicisがマーケティング産業という「LLMとは異なる応用領域」の産業資本が揃っている点である。
本社はパリに置き、ニューヨーク(LeCunがNYU教授を兼務)、モントリオール、シンガポールにオフィスを構える。経営陣はCEO Alexandre LeBrun、CSO(Chief Science Officer)Saining Xie、Chief Research & Innovation OfficerにPascale Fung、VP of World ModelsにMichael Rabbatという、Metaの研究組織から移籍した「ビジョン特化」チームである。2025年12月に非公式発表、2026年1月パリで正式ローンチ、3月10日に調達公表という速度感は、Anthropic×Google Cloud 100億ドル契約のような大型提携を前提とした事前布石と解釈できる。
比較対象として2026年2月18日に調達を発表したWorld Labs(Fei-Fei Li創業、空間知能、10億ドル調達、Autodesk・AMD・NVIDIA・Fidelity参加)があるが、技術的焦点は異なる。World Labsは3D再構成と空間理解(Marbleプロダクト公開済み)を重視し、AMI Labsは時系列予測と物理世界モデリングに特化する。LeBrunは「World Modelsが次のバズワードになる。6ヶ月後にはどの企業もWorld Modelを名乗って資金調達するだろう」と予測し、「最初の製品まで約1年、汎用的な知的システムまで3〜5年」というタイムラインを提示した。
JEPAアーキテクチャの技術的解剖 ── 抽象表現空間での予測が変えるもの
AMI Labsの技術基盤であるJEPA(Joint Embedding Predictive Architecture)は、LeCunが2022年から体系的に提唱するアーキテクチャであり、「ピクセルやトークンレベルではなく、抽象表現空間で未来を予測する」という設計原理に基づく。従来の自己回帰型LLMは「次のトークンを逐次的に予測する」ことで文脈を学習するが、JEPAは「観測可能な入力からエンコーダで潜在表現を学習し、予測モジュールがその表現空間で未来状態を予測する」点が本質的に異なる。
I-JEPA(Image JEPA、CVPR 2023採択)は、画像の一部をマスクし、欠損部分を抽象表現で予測する自己教師あり学習手法である。ピクセル単位で復元するMAE(Masked Autoencoder)と異なり、I-JEPAは「何が写っているか」という意味的表現を学習するため、少ないラベル付きデータでの転移学習効率が高い。Meta AIの公開実装では、ImageNetでの線形評価においてViT-Hベースで高精度を達成し、ラベル効率がMAE比で大幅に改善されている。この「予測の抽象度」こそがJEPAの核心であり、I-JEPAの予測器は「制限された原始的なワールドモデル」として、静止画像から空間的不確実性をモデル化する。
V-JEPA(Video JEPA)は、動画の時空間的な欠損を潜在空間で埋める形で学習し、物理法則や因果関係を暗黙的にモデル化する。従来の動画予測モデルは「次フレームのピクセル値」を生成するが、V-JEPAは表現空間で予測するため、照明変化やカメラ移動といった表層的なノイズに頑健である。筆者はかつて衛星画像の建物検知システムを開発した経験があるが、画像認識の産業応用では精度だけでなく処理速度とコストのバランスが実用化の鍵となる。V-JEPAの「表現空間での一発予測」は、まさにこの課題を構造的に解決するアーキテクチャだ。
2025年12月にはVL-JEPA(Vision-Language JEPA)が発表され、画像と言語の同時埋め込み学習を実現した。従来のVLM(Vision-Language Model)がトークンを自己回帰的に生成するのに対し、VL-JEPAは対象テキストの連続的埋め込みを予測する。抽象表現空間での学習により、タスク関連の意味論に集中し、表層的な言語変動を抽象化できる点が特徴である。
JEPAの計算効率は、自己回帰型LLMと比べて推論コストが桁違いに低い。LLMは生成トークン数に比例して計算量が線形増加するが、JEPAは表現空間での予測であるため、リアルタイム性が求められるエッジデバイスでの動作に適している。LeCunが「LLMは本を読むように学ぶが、人間は世界を見て学ぶ」と主張するのは、この計算量とサンプル効率の構造的差異を指している。人間の乳幼児は、最初の4年間で約1015バイトの視覚データを処理するが、言語データはその約10万分の1に過ぎない。JEPAはこの「視覚優先の学習」を工学的に実装する試みである。
産業応用の経済性分析 ── 製造・ロボティクス・ヘルスケアの実装パス
AMI Labsが標的とする産業応用は、製造・ロボティクス、ヘルスケア、自動運転という、テキスト処理中心のLLMとは本質的に異なる領域である。これらの分野では「言語による指示理解」よりも「視覚と物理法則の理解」が中核であり、JEPAのアーキテクチャ的優位性が発揮される。
製造業への適用を考える。BMW Leipzig工場でのヒューマノイド本格配備が示すように、2026年時点で製造現場へのAI・ロボティクス配備は実用フェーズに入っている。しかし現行のロボットは「事前プログラムされた動作」か「人間のデモンストレーションからの模倣学習」に依存しており、環境変化への適応力が弱い。V-JEPAを搭載したシステムであれば、製造ライン上の部品配置や工具位置をリアルタイムで予測し、ロボットアームの軌道を動的に最適化できる。Toyota VenturesとSamsungが投資に参加した背景には、この「視覚ベースの適応制御」への期待がある。ヒューマノイド実配備2026-2027の経済モデルで分析されているように、ロボティクスの収益化にはTCO(総保有コスト)の最適化が不可欠であり、JEPAの推論効率はクラウドAPI依存のLLM方式より有利に働く。
ヘルスケア応用では、LeBrunが創業したNablaとの技術統合が鍵となる。Nablaは医療AIプラットフォームとしてEHR(電子カルテ)からの診断支援を提供しているが、LLMベースのアプローチは医療画像との統合に限界がある。VL-JEPAを用いれば、CT・MRI画像と患者履歴を同一の表現空間に埋め込み、類似症例の高速検索が可能となる。医療分野では診断エラーが訴訟リスクに直結するため、LLMの「確率的生成」に起因するハルシネーションよりも、JEPAの「表現空間での類似度検索」の方が信頼性担保の観点で構造的に優位である。FDA承認やGDPR準拠などの規制対応には数年を要するが、Nablaの既存認証基盤をレバレッジすることで、スタートラインは他社より前にある。
自動運転では、V-JEPAが「次の1秒後の歩行者位置」をピクセルではなく抽象軌道表現で予測することで、カメラ揺れや照明変化に頑健な予測を実現する。Temasekの投資参加は、シンガポールを自動運転テストベッドとして活用する戦略的意図と整合する。JEPAの推論効率は車載エッジデバイスでのリアルタイム動作を可能にし、5Gクラウド依存型のLLMアプローチと差別化される。
LLMパラダイムへの構造的対抗とリスク ── 20億ドルの賭けが意味するもの
AMI LabsとWorld Labsの合計20億ドル調達は、LLMパラダイムへの最大級の構造的対抗である。LeCunは2023年以来、「LLMは知能への道ではない」と公言し続け、「自己回帰的生成は人間の認知プロセスと根本的に異なる」という立場を崩さない。JEPAは、その批判を具体的なアーキテクチャとして実装したものだ。
しかし、この構造的対抗には3つのリスクが存在する。第一に「LLMのマルチモーダル拡張」との競合である。GPT-4VやClaude 3.5 Sonnetは視覚理解を急速に改善しており、製造現場での指示理解や医療画像診断でも成果を出している。JEPAの優位性は「リアルタイム性」と「サンプル効率」にあるが、LLMが量子化・蒸留・推測的デコーディングで推論速度を改善すれば、差は縮小する可能性がある。
第二に「研究から製品への実装ギャップ」である。I-JEPA・V-JEPAはCVPR採択済みで、Meta AIがコードを公開しているが、産業応用の実績はまだない。LeBrunが「1年で最初の製品」と述べているが、研究プロトタイプから産業グレードシステムへの移行には、データパイプライン・モデルガバナンス・運用監視という「AI以外の8割」の構築が不可欠だ。筆者はAI教育の現場で長年講師を務めてきたが、「全部教える」より「何を捨てるか」の判断こそが教育設計の本質であるように、AMI Labsにも「全領域を攻める」のではなく「どの産業セグメントに集中するか」の取捨選択が求められる。
第三に「市場の認知形成」である。LLMはChatGPTの登場で一般認知を獲得したが、JEPAの「抽象表現空間での予測」は専門家以外に伝わりにくい。World Labsと合わせたWorld Models市場の形成を狙っているが、結局は「製品による実証」が認知を決定する。製造業・ヘルスケアという保守的な市場では、POC(概念実証)から本番導入まで3〜5年かかるのが通例であり、LeBrunのタイムラインは楽観的に映る。
一方で、LLMの構造的限界は現実のものとなりつつある。テキストデータの枯渇問題は2027年以降に深刻化すると予測されており、合成データによる学習は「モデル崩壊」リスクを内包する。LLMをメディア生産に活用する立場として実感するが、LLMで最も難しいのはハルシネーションではなく「視点の独自性」の担保である。JEPAが「世界の物理構造」から直接学習するアプローチは、テキストデータへの依存から解放される可能性を持つ。LeCunの賭けが正しければ、2028〜2030年頃にはLLMとWorld Modelsが補完的に共存する「ポストLLM」アーキテクチャが主流となるだろう。その時、2026年3月の20億ドルは「パラダイムシフトの起点」として記憶されることになる。
FAQ
AMI Labsの評価額45億ドル(ポストマネー)は妥当か?
製品未出荷のシード企業としては異例だが、LeCunのチューリング賞受賞歴・CVPR論文採択実績、Toyota・NVIDIA・Samsungという産業資本の参加、Nablaとの統合による医療分野への実装パスの明確さを考慮すれば、「技術ポテンシャルへの投資」として合理的である。ただし収益化まで3〜5年かかるため、次回ラウンドの評価は初期顧客獲得の成否に大きく依存する。
JEPAとLLMの技術的な違いを端的に言うと?
LLMは「次のトークンを逐次予測する」自己回帰型生成であり、出力長に比例して計算量が増加する。JEPAは「入力を抽象表現空間にエンコードし、その空間で未来状態を一括予測する」ため、推論が高速でリアルタイム性に優れる。LLMはテキストから学習するが、JEPAは視覚・動画から物理世界の因果関係を直接学習する点も大きく異なる。
AMI Labsの最初の製品は何になるか?
LeBrunが「約1年で最初の製品」と述べており、Nablaとの統合による医療画像診断支援、もしくはToyota・Samsungとの連携による製造ライン異常検知が最有力候補である。医療はFDA承認プロセスが必要だが、製造業は企業内POCから段階的に開始可能なため、製造向けが先行すると予想される。
World LabsとAMI Labsはどう違うのか?
World Labs(Fei-Fei Li創業)は「空間知能」を掲げ、3D再構成やシーン理解に注力し、すでにMarbleという3D世界生成プロダクトを公開している。AMI Labsは「時系列予測」と「抽象表現学習」に注力し、製造・ロボティクス・ヘルスケアへの産業応用を明示する。技術的にはWorld Labsが「空間の幾何構造」、AMI Labsが「時間的因果構造」に焦点を当てており、補完的な関係にある。
LeCunの「LLMは知能への道ではない」という主張をどう評価すべきか?
「知能の定義」に依存するため正誤は単純に断定できないが、LLMがテキストデータからの統計的パターン学習に依存し、物理世界の因果関係を直接学習しない点は構造的事実である。人間の乳幼児が言語習得前に視覚・触覚で世界モデルを構築する知見は発達心理学でも支持されている。ただしLLMがTool useやマルチモーダル拡張で物理世界との接点を増やせば、両アプローチの差は将来的に縮小する可能性もある。
参考文献
- Yann LeCun's AMI Labs raises $1.03B to build world models — TechCrunch, 2026年3月10日
- Yann LeCun's AMI Raises $1BN Seed Round - Is the World Model Era Finally Here? — Futurum Group, 2026年3月
- Turing Winner LeCun's New World Model AI Lab Raises $1B In Europe's Largest Seed Round Ever — Crunchbase News, 2026年3月
- Self-Supervised Learning from Images with a Joint-Embedding Predictive Architecture — Assran et al., CVPR 2023
- V-JEPA: The next step toward advanced machine intelligence — Meta AI Blog
- World Labs lands $1B to bring world models into 3D workflows — TechCrunch, 2026年2月18日
- Yann LeCun's new venture is a contrarian bet against large language models — MIT Technology Review, 2026年1月



