2026年4月、GoogleはOpen Source Blogで「Kubernetes goes AI-First」と題した記事を公開し、CNCFが推進するKubernetes AI Conformance Programの全容を明らかにした。2025年11月のKubeCon North Americaで18プラットフォームから始まったこの認証制度は、2026年3月のKubeCon EU(アムステルダム)で31プラットフォームへと73%拡大し、KubernetesをAIワークロードの「デファクトOS」から「認証済み産業標準」へ昇格させる転換点を迎えている。テクノロジーの視点から分析する。本記事は、KubeCon EU 2026 GPU First-Class化の分析の延長線上にある認証制度の構造転換を扱う。
筆者は全国規模のインフラ運用やセキュリティ設計に携わる中で、「標準化」が技術そのものよりも産業構造を動かす力を持つことを繰り返し経験してきた。Kubernetes AI Conformanceは、まさにその力学が作用する局面である。市場規模48億ドル(2025年)から226億ドル(2034年)へのCAGR 18.8%成長が予測されるKubernetes AI基盤市場において、認証制度の導入がベンダー間の競争ルールをどう書き換えるのか。DRA GA化、Gang Scheduling、トポロジ対応スケジューリングという技術3本柱と、CNCF統治モデル・ベンダーロックイン回避・セキュリティ要件厳格化という制度3軸から、エンタープライズ導入の経済性を実装レベルで解剖する。
AI Conformance Programの構造 ── 「標準Kubernetes適合」の上位互換として
Kubernetes AI Conformance Programは、既存のCertified Kubernetes Conformance Programの「スーパーセット」として設計されている。従来の適合認証がコアAPIの互換性(Pod・Service・Deploymentの基本動作)を保証するのに対し、AI Conformanceはその上にGPU/アクセラレータ管理、高性能ネットワーキング、分散学習・推論向けスケジューリングといったAI固有の要件層を積み上げる構造である。
この「上位互換」設計は技術的に合理的である。AIワークロードは従来のステートレスWebサービスとは根本的に異なるストレスをクラスタに与える。数百GBのモデルウェイトのロード、GPU間の高帯域通信、分散学習ジョブの同期的スケジューリング、推論時のバースト的トラフィック──これらは標準的なKubernetes適合テストでは一切検証されない領域である。AI Conformanceは、こうしたAI固有の「ストレスパターン」に対して、プラットフォームが確実に対応できることを認証する。
Working Group AI Conformanceは、Google(Janet Kuo)、Microsoft(Rita Zhang)、Red Hat(Yuan Tang)、Kubermatic(Mario Fahlandt)の4社がリードし、GitHubリポジトリ cncf/k8s-ai-conformance で公開開発されている。この「オープンガバナンス」は、特定ベンダーの利害に偏らない中立的な標準策定を担保する仕組みであり、CNCFの統治モデルが産業標準の信頼性を支える基盤となっている。
| 評価軸 | 標準Kubernetes適合 | AI Conformance |
|---|---|---|
| スコープ | コアAPI・基本スケジューリング | アクセラレータ管理・高性能NW・特殊スケジューリング |
| GPU/アクセラレータ | Device Pluginのみ(オプション) | DRAによるトポロジ対応・属性ベース割当(必須) |
| スケジューリング | bin-packing | Gang Scheduling+Workload-Aware+トポロジ対応 |
| ネットワーク | 汎用 | RDMA最適化・低レイテンシ・推論特化 |
| オートスケーリング | CPU/メモリメトリクス | GPU/TPU利用率カスタムメトリクス |
| オブザーバビリティ | 標準Prometheus | アクセラレータ個別メトリクス・ハードウェアヘルス |
| セキュリティ | 汎用コンプライアンス | モデルアクセス制御・データ暗号化・Sovereign AI要件 |
技術3本柱 ── DRA GA・Gang Scheduling・トポロジ対応の実装インパクト
AI Conformanceの技術要件は、Kubernetes 1.35で成熟した3つのプリミティブを中核に据えている。
Dynamic Resource Allocation(DRA)── GA到達の産業的意味
DRAはKubernetes 1.35で安定版(GA)に昇格した。従来のDevice Pluginモデルでは、GPUは「数」でしかリクエストできなかった。DRAはこれを根本的に変え、メモリ容量・コンピュート能力・物理トポロジといった「属性」ベースでリソースをリクエストする仕組みを提供する。
具体的には、DRAのResourceClaimにより「VRAM 80GB以上のGPUを4基、同一NUMAノード上に配置」といった指定が可能になる。これはAI推論・学習双方で決定的に重要である。AI推論経済の転換点分析で指摘した通り、推論負荷が学習を上回る2026年において、GPUリソースの効率的な割当はインフラコストに直結する。DRAのGA化は、この割当の「属性ベース最適化」を産業標準として確立した意味を持つ。
さらにDRANET(オープンソースのDRAネットワークドライバ)が、RDMA対応デバイスの発見とトポロジ対応コスケジューリングを実現する。AzureのAKSチームは2026年4月にDRANETによるRDMA最適化のベンチマーク結果を公開しており、分散学習のスループットが従来のDevice Plugin方式比で最大35%向上したと報告している。
Gang Scheduling ── リソースデッドロックの構造的排除
分散学習ジョブでは、例えば64基のGPUを使う学習タスクのうち63基だけがスケジュールされ、残り1基がリソース待ちでデッドロックする──という事態が頻発する。Gang Scheduling(All-or-Nothing Scheduling)は、ジョブ内の全Podが同時にスケジュールされるか、一切スケジュールされないかを保証する。
Kubernetes 1.35ではWorkload APIがAlpha段階で導入され、Kueue・Volcanoといった既存のバッチスケジューラと統合される形でGang Schedulingの基盤が整備された。AI Conformanceはこの機能のサポートを必須化することで、「分散学習がデッドロックしないこと」をプラットフォーム品質の下限として定義した。
トポロジ対応スケジューリング ── 30%のスループット損失を排除
GPU配置のトポロジ(NUMAノード、PCIeスイッチ、NVLinkドメイン)を無視したスケジューリングは、学習スループットを30%以上低下させることが知られている。AI ConformanceはNUMAローカルのNICとGPUを同一ResourceClaimにコスケジュールする能力を要求し、物理レイアウトを考慮したスケジューリングを標準化した。
NVIDIAはGB200向けのマルチノードNVLink対応を技術ブログで公開しており、DRAのトポロジ認識機能がNVLink/NVSwitchファブリックの最適活用を可能にすると説明している。この機能がAI Conformanceの認証要件に含まれることで、ハードウェアベンダーとプラットフォームベンダーの間で「トポロジ情報の公開と活用」に関する共通言語が確立された。
CNCF統治モデルとベンダーロックイン回避の経済学
AI Conformance Programの産業的意義は、技術要件そのものよりも「誰が標準を統治するか」という構造にある。CNCFはLinux Foundation傘下の中立的な財団であり、特定ベンダーの利害から独立した標準策定が可能である。この統治モデルが、エンタープライズにとってのベンダーロックイン回避を経済的に保証する。
現時点で31のプラットフォームがAI Conformance認証を取得している。Google Cloud(GKE)、Microsoft Azure(AKS)、AWS(EKS)といったハイパースケーラーに加え、VMware by Broadcom(VKS)、SUSE(RKE2)、CoreWeave、OVHcloud、JD Cloud、China Unicom Cloudまで、パブリッククラウドからオンプレミス、中国勢まで多様な参加構成となっている。
この多様性がエンタープライズに与える経済的便益は明確である。AI Conformant認証プラットフォーム間でのワークロードポータビリティが保証されることで、マルチクラウド戦略やハイブリッド構成におけるスイッチングコストが構造的に低下する。筆者が複数企業の技術顧問としてDXコンサルティングに関わる中で痛感するのは、ベンダーロックインの解消は「技術的に可能か」ではなく「経済的に合理的か」で判断されるという現実である。AI Conformanceは、この経済的合理性をCNCFの中立的権威で裏書きする仕組みである。
特に注目すべきは、認証プロセスの自動化が進んでいる点である。2026年時点で「Verify Conformance Bot」による自動検証が導入されつつあり、自己申告から第三者検証へと移行している。これにより認証の信頼性が向上し、エンタープライズの調達プロセスにおいて「AI Conformant」が客観的な選定基準として機能するようになる。
セキュリティ要件の厳格化 ── Sovereign AIへの制度的対応
AI Conformance v1.0のセキュリティ要件は、現時点では「基盤的」なレベルに留まっている。NIST CSF、CIS Benchmarks、PCI-DSSといった既存のKubernetesセキュリティコンプライアンスに加え、モデルアクセス制御、学習データの暗号化、推論データのプライバシー保護が要求される。
しかし2026年後半以降のロードマップでは、セキュリティ要件の大幅な拡張が予定されている。特にSovereign AI Standards(主権AI標準)として、強化されたサンドボックス化、データプライバシー、GDPR/HIPAA/CCPA準拠のAIパイプライン要件が追加される見込みである。
この方向性は、Cylakeのデータ主権×AI-nativeセキュリティ分析で指摘した「パブリッククラウド不要アーキテクチャ」の台頭と軌を一にする。政府・重要インフラ領域では、AI推論基盤そのものが機密データを扱う以上、プラットフォームレベルでのセキュリティ認証は不可避である。AI Conformanceがこの要件を標準化することで、Sovereign AI市場へのKubernetes参入障壁が明確な認証基準として可視化される。
筆者がセキュリティ設計に携わった経験から断言できるのは、セキュリティ戦略はビジネスの制約を理解した上でないと絵に描いた餅になるということである。AI Conformanceのセキュリティ要件が「基盤的→Sovereign AI対応」へ段階的に拡張されるアプローチは、この現実を踏まえた設計と言える。全ての要件を一度に課せば認証取得のハードルが過度に上がり、プログラムの普及が阻害される。段階的な厳格化は、産業標準としての実効性を担保する合理的な戦略である。
エンタープライズ導入の経済性 ── 認証制度がもたらすTCO構造変化
Kubernetes AI基盤市場のCAGR 18.8%成長(48億ドル→226億ドル、2025-2034年)の内訳を見ると、マネージドクラウドが67.2%、オンプレミスが32.8%(CAGR 16.2%)を占める。注目すべきは、組織の54%が既にKubernetes上でAI/MLワークロードを実行しており、66%が生成AI推論にKubernetesを使用しているという現状である。
AI Conformance認証は、このエンタープライズ導入において3つの経済的メリットをもたらす。
第一に、プラットフォーム選定コストの削減である。「AI Conformant」というラベルがあることで、PoC段階でのプラットフォーム間比較検証にかかる工数が大幅に圧縮される。従来は各プラットフォームのGPU対応状況・スケジューリング挙動・ネットワーク性能を個別に検証する必要があったが、認証済みプラットフォームであれば最低限のAI対応が保証される。
第二に、マルチクラウド運用の標準化である。GKE・AKS・EKSが全てAI Conformantであることで、クラウド間でのワークロード移行がManifestレベルで互換となる。推論ワークロードのバースト時にセカンダリクラウドへスピルオーバーする構成が、プラットフォーム固有のアダプタ層なしに実現可能になる。
第三に、GPU利用効率の向上である。KubeCon EU 2026のGPU First-Class化分析で指摘した「GPU運用効率20%→80%」というScaleOpsの主張は、DRA・トポロジ対応スケジューリング・Gang Schedulingの3機能が協調して初めて実現する。AI Conformanceがこれら3機能の実装を必須化することで、認証済みプラットフォーム上では「GPU利用効率80%」が達成可能な基盤品質が担保される。
Gateway APIのInference Extension(GA)も見逃せない。OpenAIプロトコル互換のヘッダベースルーティング、重み付きトラフィック分割、Disaggregated Inference(KVキャッシュ分離)対応により、推論サービスのカナリアデプロイやA/Bテストが標準化される。これは推論コスト最適化の実装基盤として、エンタープライズの本番運用を直接的に支える。
2026年後半以降のロードマップ ── Agentic AI・自動検証・Sovereign AI
CNCFの2026年ロードマップによると、AI Conformanceは3つの方向で拡張される予定である。
Agentic AIワークロードの検証追加。LLMを中核とするエージェント的ワークフロー(自律的なタスク実行・ツール呼び出し・マルチステップ推論)に対応するための要件が策定される。これは単なる推論リクエストの処理とは異なり、長時間実行のセッション管理、ツール呼び出し時のリソース動的割当、エージェント間通信のオーケストレーションといった新たな技術要件を含む。
自動適合テストの本格展開。Verify Conformance Botによる継続的な自動検証が、四半期ごとの定期検証として制度化される見通しである。これにより「認証時点では適合していたが、プラットフォーム更新後に不適合になった」というリスクが排除される。
Sovereign AI標準の策定。EU AI Act、各国のデータローカライゼーション規制に対応する形で、データ主権要件がAI Conformanceに統合される。TEE(Trusted Execution Environment)による機密推論、学習データの暗号化ライフサイクル管理、モニタリングデータの国内保持要件などが検討されている。
これらの拡張は、KubernetesがAI基盤の「技術標準」から「産業標準」へ、さらに「規制対応標準」へと段階的に進化する道筋を示している。エンタープライズにとっては、AI Conformant認証の取得が事実上の「市場参入要件」となる未来が現実味を帯びている。
FAQ
Kubernetes AI Conformance Programとは何か?
CNCFが策定するKubernetesのAIワークロード向け認証制度である。標準のKubernetes適合認証の上位互換として、DRA(動的リソース割当)、Gang Scheduling、トポロジ対応スケジューリング、高性能ネットワーキングなどAI固有の技術要件を定義し、プラットフォーム間のワークロードポータビリティを保証する。2025年11月に18プラットフォームで開始され、2026年3月時点で31プラットフォームが認証を取得している。
AI Conformance認証を取得しているクラウドプロバイダーはどこか?
Google Cloud(GKE)、Microsoft Azure(AKS)、AWS(EKS)の3大ハイパースケーラーに加え、VMware by Broadcom(VKS)、SUSE(RKE2)、CoreWeave、Red Hat OpenShift、OVHcloud、JD Cloud、China Unicom Cloudなど31のプラットフォームが認証済みである。パブリッククラウド・オンプレミス・AI特化インフラの3カテゴリで多様な選択肢が揃っている。
既存のKubernetes適合認証との違いは?
標準の適合認証がコアAPI(Pod・Service・Deploymentなど)の互換性を検証するのに対し、AI Conformanceはその上にGPU/アクセラレータの属性ベース管理(DRA)、分散学習のデッドロック防止(Gang Scheduling)、GPU配置のトポロジ最適化、RDMA対応ネットワーク、推論向けGateway APIなどAI固有の要件を追加する「スーパーセット」設計である。
エンタープライズにとっての経済的メリットは何か?
主に3点。(1) プラットフォーム選定時の比較検証工数の削減、(2) マルチクラウド構成でのワークロード移行がManifestレベルで互換となりスイッチングコストが低下、(3) DRA・Gang Scheduling・トポロジ対応によるGPU利用効率の向上(20%→80%)でインフラコストを削減できる。
セキュリティ要件はどのレベルか?
v1.0では基盤的レベル(NIST CSF・CIS Benchmarks準拠、モデルアクセス制御、学習データ暗号化)に留まるが、2026年後半以降にSovereign AI標準として大幅拡張が予定されている。TEEによる機密推論、GDPR/HIPAA/CCPA準拠のAIパイプライン要件、データローカライゼーション対応などが追加される見込みである。
参考文献
- Kubernetes goes AI-First: Unpacking the new AI conformance program — Google Open Source Blog, 2026年4月
- CNCF Launches Certified Kubernetes AI Conformance Program — CNCF, 2025年11月
- CNCF Nearly Doubles Certified Kubernetes AI Platforms — CNCF, 2026年3月
- CNCF k8s-ai-conformance Repository — GitHub
- Dynamic Resource Allocation — Kubernetes Official Documentation
- Optimizing RDMA performance for AI workloads on AKS with DRANET — Azure AKS Engineering Blog, 2026年4月
- Enabling Multi-Node NVLink on Kubernetes for GB200 — NVIDIA Technical Blog
- AI-Ready Kubernetes: RKE2 Achieves CNCF AI Conformance Certification — SUSE, 2026年3月


