「AGI(汎用人工知能)は2030年までに実現するか」──この問いに対する回答が、2025年後半から急速に収束しつつある。Google DeepMind CEOのDemis Hassabisは「50%の確率で2030年まで」と明言し、Google共同創業者のSergey Brinは「2030年より前」と断言、予測市場Metaculusの中央値は2028年2月を指す。楽観論だけではない。Anthropic CEOのDario Amodeiは「2026年後半〜2027年初頭」にノーベル賞級の知性を持つAIが登場すると述べている。本稿では、テクノロジーの視点からこれらの予測を支える技術的根拠と、その実現を阻む4大制約を定量的に分析する。

予測の収束 ── 「5年以内50%」の根拠

注目すべきは、異なる立場の専門家が類似した時間軸に収束している点である。Hassabisは2026年のIndia AI Impact Summitで「5〜8年以内」と述べ、実現には「世界モデル」と複数のブレークスルーが必要だと条件を付けた。一方、Brinはアルゴリズムの進歩が計算資源のスケーリング「以上に重要」だと指摘し、Geminiを最初のAGIにする意向を示している。両者とも、単純な規模拡大ではなく質的飛躍を前提としている点が共通する。

予測市場Metaculusのデータはより精細な解像度を提供する。「弱い汎用AI」の実現中央値は2027年、「汎用AIシステム」は2028年2月、そして「変革的AI(ロボティクスを含む社会変革レベル)」は2059年9月である。この差は重要だ。ベンチマーク上の汎用性と、物理世界での変革的インパクトの間には30年以上の開きがあると市場は見積もっている。AGIの「定義」次第で、予測は数十年単位でずれうるのである。

2e29 FLOPsへの道 ── スケーリングはどこまで続くか

Epoch AIの研究によれば、2030年までに2×1029 FLOP規模の訓練ランが技術的に実行可能となる。これはLlama 3.1 405Bの約5,000倍に相当し、GPT-4がGPT-2を上回ったのと同じ倍率で、GPT-4を超えるモデルが出現する計算になる。訓練計算量は年間約4倍のペースで拡大しており、1〜5 GW級のデータセンターが2030年までに稼働すれば、1×1028〜3×1029 FLOPの訓練を支えられる。

しかし、計算量の増大が知能の増大に直結するかは別問題である。475名のAI研究者を対象とした調査では、76%が「現在のアプローチのスケーリングだけでAGIに到達する可能性は低い」と回答している。AI教育に携わってきた経験から痛感するのは、数学の壁を超えるのは理論の積み増しではなく「なぜそれが必要か」という動機付けだということだ。アルゴリズム進化にも同じ構造がある──計算資源を積み増すだけでは不十分で、何を解くべきかという問題設定そのものの革新が不可欠なのである。

4大制約 ── 電力・チップ・データ・レイテンシ

電力:データセンターの電力消費は2024年時点で約415 TWh(世界の電力消費の約1.5%)であり、2030年には945 TWh(約3%)に達するとIEAは予測する。GPT-4の訓練だけで約50 GWhを消費したとされ、2×1029 FLOP級の訓練にはGW級の継続的電力供給が不可欠である。問題は技術ではなく、送電インフラの許認可と建設リードタイムという政治経済的ボトルネックにある。

チップ:TSMCのCoWoS(Chip on Wafer on Substrate)パッケージングが最大の製造ボトルネックとなっている。NVIDIAは2027年までにTSMCのCoWoS生産能力の50%超を確保済みであり、HBM(広帯域メモリ)価格は2025年2月以降で倍増した。GoogleもTPU調達目標を当初の400万基から300万基に下方修正している。半導体サプライチェーンの制約は、AGI実現タイムラインを左右する最も不確実な変数の一つである。

データ:高品質テキストデータの枯渇は2026〜2032年の間に顕在化するとEpoch AIは予測する。合成データによる代替はモデル崩壊(model collapse)のリスクを伴い、自分自身の出力で訓練を繰り返すと性能が劣化する悪循環に陥る。2026年時点で合成データはポストトレーニングの主流になりつつあるが、プリトレーニング用の高品質データ不足はスケーリング法則の適用範囲に根本的な上限を課す可能性がある。

レイテンシとコスト:AGIが実用的価値を持つには、推論の速度とコストが現実的な水準に収まる必要がある。最適化済みと未最適化の推論システムには5〜10倍の性能差があり、エッジデプロイメントやオンデバイスLLMも本格化しつつある。かつて衛星画像のAI処理に関わった際に痛感したのは、精度だけでなく処理速度とコストのバランスこそが実用化の鍵だということだった。AGIにおいてもこの原則は不変であり、推論コストが十分に低下しなければ研究室の成果にとどまる。

アルゴリズム革新 ── スケーリングだけでは足りない

2026年のAI研究パラダイムは、純粋なスケーリングから効率性とアーキテクチャ革新へと明確にシフトしている。代表的な進展が3つある。第一に、テスト時計算(test-time compute)である。Meta Llama 3.2の1Bパラメータモデルに推論時探索を組み合わせると、パラメータ数8倍の8Bモデルを上回る性能を発揮する。訓練時ではなく推論時に計算を投入するこのアプローチは、スケーリングの概念そのものを書き換えつつある。

第二に、Mixture of Experts(MoE)アーキテクチャの成熟である。NVIDIAのNemotron 3はハイブリッドMoE設計で負荷分散を従来比13倍高速化し、パラメータの全量を常時稼働させずに高い推論スループットを実現する。第三に、Hassabisが最優先課題とする「世界モデル」──物理法則や因果関係を内部的にシミュレートできるモデルの構築である。現行LLMは言語パターンの統計的近似に優れるが、「AのあとにBが来やすい」という確率的予測と、「AがBを引き起こす理由」の因果理解は根本的に異なる。

LLMを活用したメディア制作の経験から確信しているのは、ベンチマークの数値を超えた先にある「知能」の本質は、独自の視点を構築する能力にあるということだ。ハルシネーションの制御よりも、視点の独自性を担保することのほうがはるかに難しい。AGIの定義が「人間と同等の汎用知能」であるならば、新しい問いを立て独自の視座から世界を解釈する能力──この質的側面をどう実装するかが最大の未解決問題である。

反論と不確実性 ── 懐疑派の論点

MetaのチーフAIサイエンティストYann LeCunは一貫して「AGIは10年以上先」と主張し、現行LLMを「Webのぼやけたコピー」と形容する。LLMは知識を圧縮・再構成しているだけであり、真の理解や推論には根本的に異なるアーキテクチャが必要だという立場である。LeCunが提唱するJEPA(Joint Embedding Predictive Architecture)は世界モデルの方向性と一致するが、実装は理論段階にとどまる。

研究コミュニティ「80,000 Hours」は、AGIが数十年先になりうる3つの理由を体系的に整理している──(1) 現在のアプローチの根本的限界、(2) エンジニアリング上の予期せぬ障壁、(3) 「知能」の定義そのものが移動するゴールポストであること。実際、Geoffrey Hintonは2016年に「2021年までにAIが放射線科医を代替する」と予測したが、現実はその正反対に進んだ。技術予測の信頼区間は本質的に広い。

最も冷静な見方は、Metaculusの予測構造に表れている。ベンチマーク上のAGIと社会変革的AGIの間には30年の開きがある。「AGI達成」と宣言される日は2028〜2030年に来るかもしれないが、その時点のAGIは、SF的な汎用知能とは相当に異なるものになる可能性が高い。期待値の管理こそが、技術者に求められる最も重要な知的誠実性である。

よくある質問

AGIの定義は統一されているのか

統一されていない。Hassabisは「人間と同等の汎用的認知能力」、OpenAIは「経済的に価値のある仕事の大半を自律遂行できるシステム」、Metaculusは独自の操作的定義を採用している。定義次第で実現予測は数十年単位で変動するため、予測を比較する際は各論者のAGI定義を確認することが不可欠である。

2e29 FLOPsの訓練にはいくらかかるのか

GPT-4の訓練コストが約1億ドルと推定される中、5,000倍の計算量は単純計算で5,000億ドルとなるが、ハードウェア効率の年次改善とアルゴリズム最適化により実際には数十億〜百億ドル規模に圧縮される見通しである。それでも単一訓練ランへの投資規模としては前例がなく、経済合理性の検証が鍵となる。

日本企業はAGI競争にどう向き合うべきか

フロンティアモデルの訓練競争への直接参加は非現実的である。日本の強みは製造業・ロボティクス・材料科学における高品質ドメインデータと垂直統合能力にあり、AGI実現後に最も価値が高まるのは汎用モデルそのものではなく、特定領域への応用技術である。

「世界モデル」とは具体的に何を指すのか

物理法則・因果関係・3次元空間を内部的にシミュレートし、テキスト生成だけでなく物理的な結果を予測できるシステムを指す。現行LLMの「次のトークン予測」とは根本的に異なり、Hassabisがこれを最優先課題とするのは、言語能力と実世界での汎用性のギャップを埋める鍵だと考えているからである。

参考文献