2026年1月、CES 2026の会場でBoston DynamicsとGoogle DeepMindが戦略的AI提携を発表した。Gemini Roboticsという大規模マルチモーダル基盤モデルを次世代ヒューマノイドAtlasに統合する計画である。この提携は単なるビジネスアライアンスではない。「あらゆる形状・サイズのロボットが知覚し、推論し、ツールを使い、人間と協働できる」汎用ロボットAI基盤の確立を意味する。本記事では、Gemini Roboticsのアーキテクチャ、クロスエンボディメント学習の技術的革新、そして産業ロボティクスへの影響を技術的観点から解析する。
提携の背景 ── GoogleとBoston Dynamicsの「再会」
Boston Dynamicsは2013年にGoogleに買収され、2017年にSoftBankへ売却、2020年に現代自動車(Hyundai)傘下となった経緯を持つ。約10年の時を経て、両者は再びタッグを組むことになった。背景にあるのは、2024年以降のAI基盤モデル進化がロボティクス領域にもたらした劇的な変化である。
Boston Dynamicsは2024年4月に油圧駆動の旧型Atlasを引退させ、完全電動の新型Atlasを発表した。同社VP(当時)のAaron Saundersは2025年11月にGoogle DeepMindへ移籍し、ロボティクスハードウェアエンジニアリング担当副社長に就任した。この人事異動は、提携の布石であったことが後に明らかとなった。
CES 2026では、Atlas GM(ゼネラルマネージャー)のZack Jackowskiが「史上初めて、公の場にAtlasを歓迎してください」と述べ、Atlasが起立、歩行、回転、屈伸といった動作をステージ上で披露した。Boston Dynamics CEO Alberto Rodriguezは「DeepMindほど、信頼性が高くスケーラブルなモデルを構築し、多様なタスクと産業に安全かつ効率的にデプロイする能力を持つ組織は世界に存在しない」と述べている。
Gemini Roboticsアーキテクチャの技術解剖
Gemini Roboticsは、Google DeepMindがGemini 2.0を基盤として構築したロボティクス特化の基盤モデルファミリーである。2025年3月の論文「Gemini Robotics: Bringing AI into the Physical World」(arXiv: 2503.20020)で初めてその全貌が公開された。
アーキテクチャは大きく2つのモデルで構成される。
Gemini Robotics(VLAモデル): Vision-Language-Action(視覚-言語-行動)モデルであり、視覚情報と言語指示を受け取り、ロボットのモーターコマンドを直接出力する。従来のロボット制御が「知覚→計画→制御」と段階的にパイプラインを構成していたのに対し、VLAはエンドツーエンドで知覚から行動までを一括処理する。包括的な汎化ベンチマークにおいて、競合VLAモデルの2倍以上の性能を達成したと報告されている。
Gemini Robotics-ER(Embodied Reasoning): 空間的・時間的推論を強化した視覚言語モデルである。ポインティング、3D検出、マルチビュー対応といった拡張能力を備え、既存の低レベルコントローラーと接続可能な設計になっている。エンドツーエンド制御タスクにおいてGemini 2.0比で2〜3倍の成功率を記録した。ネイティブにデジタルツールを呼び出し、Google検索による情報取得も可能であり、多段階の詳細な行動計画を生成できる。
さらに2025年後半にはGemini Robotics On-Deviceモデルが発表され、クラウド接続なしにロボットのハードウェア上で直接推論を実行できるようになった。レイテンシとプライバシーの両面でエッジ推論の実用性を大幅に引き上げる設計である。
クロスエンボディメント学習 ── 「あらゆる形状」の技術的意味
Gemini Roboticsの最も革新的な特徴は、クロスエンボディメント(異形態間転移)学習能力である。主にALOHA 2(双腕ロボットプラットフォーム)のデータで訓練されたモデルが、FrankaアームプラットフォームやApptronikのヒューマノイドApolloにも、モデルの再特化なしに転移できることが実証された。
この「形態非依存性」は、ロボティクスAIにおける根本的なパラダイムシフトである。従来、各ロボットプラットフォームには専用のモデル訓練とチューニングが必要であり、新たなハードウェアへの展開コストが普及の最大の障壁であった。Gemini Roboticsは一つの基盤モデルで多様な身体形態に対応することで、この障壁を構造的に解消しようとしている。
筆者はこれまで衛星画像のAI認識システムや顔分析システムなど、異なるドメインの視覚AIを開発してきた経験を持つが、あらゆる技術領域を横断して得た教訓がある。汎用性の高い基盤システムの真価は「何でもできること」ではなく、「新しいドメインへの展開コストを劇的に下げること」にある。Gemini Roboticsのクロスエンボディメント設計はまさにこの原則を体現している。
Think-Before-Act(思考先行型行動)機能も注目に値する。Gemini Robotics 1.5は、指示を即座に動作に変換するのではなく、自然言語で内部推論のシーケンスを生成し、複雑なタスクをより単純なセグメントに分解してから実行する。これにより環境変化への頑健性が大幅に向上する。
産業応用 ── Hyundai工場とRMACの戦略的意味
提携の初期応用先として明示されているのが、Hyundai自動車工場での実証実験である。Gemini搭載Atlasロボットが、今後数カ月以内にHyundai工場内でテストされる予定だ。これは「先進AIが産業自動化にどう転換できるか」を探るための初期段階と位置づけられている。
さらにBoston DynamicsとHyundaiは、2026年開設予定のRobot Metaplant Application Center(RMAC)を発表した。Hyundai工場から収集されたデータがRMACにフィードされ、Atlasが複雑なタスクを学習するための制御された環境が構築される。2026年出荷分は全てRMACとGoogle DeepMindに割り当て済みであり、追加顧客への展開は2027年以降に予定されている。
Hyundaiは2028年までに年間最大30,000台のヒューマノイドを製造する目標を掲げており、同年にAtlasが大規模な高精度シーケンシング作業を実行し、2030年には複雑な組立タスクを担う計画である。このロードマップは、基盤モデルの成熟度とハードウェア量産の両軸でマイルストーンを設定している点が特徴的である。
競争環境と「基盤モデル層」戦略の本質
ヒューマノイドロボット市場は急速に競争が激化している。TeslaのOptimus、Figure AI、Apptronik、中国勢のUnitree、Agility Roboticsなど、多数のプレイヤーが参入している。この中でGoogle DeepMindの戦略は異彩を放つ。自社でロボットハードウェアを製造するのではなく、Gemini Roboticsを「汎用AIレイヤー」として多様なロボットメーカーに提供するプラットフォーム戦略を採用しているのである。
これはスマートフォン市場におけるAndroidの戦略と構造的に類似している。ハードウェアは各社が競争しつつ、OS(AI基盤モデル)はGoogleが提供するという構図だ。Boston Dynamicsとの提携は、この「ロボットのAndroid化」戦略における最初の大型パートナーシップといえる。
一方で、この戦略にはリスクも存在する。筆者が大規模プロジェクトを複数率いてきた経験から言えば、150人月規模のプロジェクトでも「コードの品質よりコミュニケーション設計が成否を分ける」のが現実である。ロボットAI基盤モデルにおいても、異なる組織間のインターフェース設計と安全基準の統一が技術的課題以上の難所となる可能性が高い。ハードウェアメーカーとAIモデル提供者の間で、安全性基準、データフォーマット、APIの仕様が乖離すれば、統合コストは急速に膨張するだろう。
Gemini Robotics-ER 1.5は2025年9月にGoogle AI Studio経由で一般開発者にも公開されており、開発者エコシステムの構築も並行して進められている。15の学術ベンチマーク(ERQA、Point-Bench等)において最高の集約スコアを達成したと報告されている。
今後の展望 ── 基盤モデル時代のロボティクス
Boston Dynamics×Google DeepMind提携は、ロボティクスAIが「プラットフォーム型モデル」へ移行する転換点として記憶されることになるだろう。鍵となるのは以下の3つの技術トレンドである。
第一に、VLAモデルの成熟。エンドツーエンドの知覚-言語-行動統合が実用段階に達し、従来の段階的パイプラインを置き換えつつある。折り紙を折る、ジップロック袋に食品を詰めるといった極めて複雑な操作が可能になっている事実は、巧緻性の面でも基盤モデルが臨界点を超えたことを示唆している。
第二に、クロスエンボディメント転移の実用化。一つのモデルで複数のロボット形態に対応できることが実証されたことで、新規ロボットプラットフォームの立ち上げコストが劇的に低下する。これはロボティクス産業の参入障壁を下げ、多様なハードウェアメーカーの参入を促進する。
第三に、エッジ推論とクラウド推論のハイブリッド化。On-Deviceモデルによるローカル処理と、Robotics-ERによるクラウドベースの高レベル推論を組み合わせることで、レイテンシ、プライバシー、計算コストの最適なバランスが実現される。筆者がAI教育で100人以上に基盤モデルの仕組みを教えてきた経験から言えば、エッジとクラウドの適切な役割分担こそが「実用的なAI」と「研究段階のAI」を分ける最大の要因である。
2028年のHyundai工場大規模展開、2030年の複雑組立タスク実現というマイルストーンが達成されるかどうかが、ロボット基盤モデル時代の到来を占う試金石となる。
FAQ
Gemini Roboticsとは何か?
Google DeepMindがGemini 2.0を基盤に開発したロボティクス特化の基盤モデルファミリーである。VLA(Vision-Language-Action)モデルで視覚・言語・行動を統合し、あらゆる形状のロボットを直接制御できる。
Boston DynamicsとGoogle DeepMindの提携はいつ発表されたか?
2026年1月5日、CES 2026の会場で発表された。両社は共同研究を開始し、Gemini Robotics基盤モデルを次世代Atlasヒューマノイドに統合する計画である。
クロスエンボディメント学習とは何か?
一つのAIモデルが異なる形態のロボット間でスキルを転移できる能力のことである。ALOHA 2で訓練されたモデルがFrankaアームやApptronikのApolloでも動作することが実証されている。
Gemini Robotics搭載のAtlasはいつ実用化されるか?
2026年にHyundai工場とRMACでのテスト運用が開始される。2028年に大規模高精度作業、2030年に複雑組立タスクの実行が目標とされている。
開発者はGemini Roboticsを利用できるか?
Gemini Robotics-ER 1.5は2025年9月からGoogle AI Studio経由で一般開発者に公開されている。VLA制御を行うGemini Robotics 1.5は現在パートナー限定提供である。
参考文献
- Boston Dynamics & Google DeepMind Form New AI Partnership to Bring Foundational Intelligence to Humanoid Robots — Boston Dynamics, 2026年1月
- Gemini Robotics: Bringing AI into the Physical World — Google DeepMind, 2025年3月
- Gemini Robotics 1.5 brings AI agents into the physical world — Google DeepMind, 2025年9月
- Gemini Robotics: Bringing AI into the Physical World (arXiv: 2503.20020) — Google DeepMind, 2025年3月
- Boston Dynamics' next-gen humanoid robot will have Google DeepMind DNA — TechCrunch, 2026年1月
- Gemini Robotics: Google DeepMind's New AI Models for Robots — IEEE Spectrum



