2026年8月2日──高リスクAI規制の「完全適用日」が意味するもの

EU AI Act(欧州AI規則、Regulation (EU) 2024/1689)は2024年8月1日に発効し、段階的に適用範囲を拡大してきた。2025年2月2日には禁止AI慣行(Article 5)とAIリテラシー義務が、同年8月2日にはGPAI(汎用AI)モデルへのガバナンス規定がそれぞれ適用開始となった。そして2026年8月2日、いよいよ高リスクAIシステム(Annex III分類)に対する全義務条項が完全施行される。本記事では、法律の視点からこの施行日が日本企業に突きつける技術的コンプライアンス要件を分析する。

高リスク規定の完全施行は、単なる規制強化ではない。品質管理システム(Article 17)の構築、技術文書(Article 11・Annex IV)の整備、適合性評価(Article 43)の完了、CEマーキング(Article 48)の貼付、そしてEUデータベースへの登録(Article 49・Annex VIII)──これら全てが「市場投入前」の法的要件となる。EU域内で高リスクAIシステムを提供する全ての事業者にとって、2026年8月2日は法的義務の起算日である。

筆者は10年以上にわたりAI開発とセキュリティの両領域で事業を展開してきたが、受託開発の現場で痛感したのは「契約段階でリスクを潰す方が100倍コスパがいい」という教訓である。EU AI Actへの対応も同様であり、施行日直前の駆け込み対応ではなく、今この段階での法的・技術的準備が企業の命運を分ける。

Annex III高リスクAIシステムの分類と適用範囲

EU AI ActのArticle 6(2)は、Annex IIIに列挙された領域で使用されるAIシステムを「高リスク」と分類する。Annex IIIは以下の8カテゴリを定めている。

(1)生体認証・分類システム──リモート生体認証識別、感情認識、生体情報に基づく分類。(2)重要インフラの管理・運用──道路交通の安全コンポーネント、水・ガス・暖房・電力の供給管理。(3)教育・職業訓練──入学選考の判定、学習成果の評価、監督目的での学習者モニタリング。(4)雇用・労働者管理──採用選考、昇進・解雇判断、業務割当て・モニタリング。(5)必須の民間サービスへのアクセス──信用スコアリング、保険のリスク評価、緊急通報のトリアージ。(6)法執行──個人のリスク評価、ポリグラフ・類似ツール、証拠の信頼性評価。(7)移民・庇護・国境管理──ビザ申請のリスク評価、入国審査の補助。(8)司法・民主的プロセス──裁判所における事実・法律の調査支援、選挙結果への影響評価。

重要なのは、Article 6(3)の「重大なリスク」判定基準である。Annex IIIに該当するシステムであっても、(a)狭い手続タスクを遂行するもの、(b)先行する人間の判断を改善するもの、(c)意思決定を準備するのみで人間の評価を代替しないもの、のいずれかに該当し、かつ自然人の健康・安全・基本的権利に重大なリスクをもたらさない場合は、高リスク分類から除外される可能性がある。ただし、この除外判定自体をプロファイリングに基づいて行うシステムは常に高リスクとみなされる(Article 6(3)第2段落)。

日本企業にとって特に注意すべきは、この規制がEU域内に拠点を持たない企業にも適用される点である。Article 2(1)(c)は、AIシステムの出力がEU域内で使用される場合、当該システムの提供者がEU域外に所在していても本規則の適用対象となることを明記している。つまり、日本からEU市場向けにAIサービスを提供する企業は、例外なくこの規制の射程内にある。

Chapter 3義務条項──技術実装レベルでの要件分析

高リスクAIシステムの提供者に課せられる義務は、Articles 8-17に体系的に規定されている。以下、技術実装の観点から各条項の要件を分析する。

Article 9: リスク管理システム──高リスクAIシステムのライフサイクル全体を通じて継続的に運用されるリスク管理システムの確立・実施・文書化・維持が義務付けられる。既知および合理的に予見可能なリスクの特定・分析、市場投入後のモニタリングから得られるデータの分析、そして適切なリスク管理措置の採用が含まれる。技術的に重要なのは、残留リスクが「受容可能」と判断される根拠を文書化する必要がある点である。

Article 10: データガバナンス──訓練・検証・テスト用データセットに対する品質基準が定められている。データセットは「関連性があり、十分に代表的で、可能な限り誤りがなく、完全」でなければならない。特にバイアスの検出・防止措置が明示的に要求されており、データの統計的特性(人種・性別・年齢等の属性を含む)の検討が義務付けられる。

Article 11・Annex IV: 技術文書──市場投入前に、Annex IVに定める要素を全て含む技術文書を作成しなければならない。これにはシステムの一般的説明、設計仕様の詳細、開発プロセスの記述、リスク管理措置の詳細、使用した訓練データの説明、テスト手順と結果、性能指標が含まれる。中小企業向けには簡易版の技術文書形式が認められているが(Article 11(2))、実質的な内容の省略は許容されない。

Article 12: 記録保持(ロギング)──高リスクAIシステムは、ライフサイクル全体にわたるイベントの自動記録機能を備えなければならない。ログは、(a)リスクをもたらす可能性のある状況の特定、(b)市場投入後のモニタリングの促進、(c)システム運用の監視を可能にするものでなければならない。リモート生体認証システムについては、使用期間の記録、照合データベースの参照情報、入力データの照合結果等、より詳細なロギング要件が定められている。

Article 13: 透明性とユーザーへの情報提供──高リスクAIシステムの設計・開発は、利用者(deployer)がシステムの出力を解釈し適切に使用できるよう、十分な透明性を確保しなければならない。具体的には、利用者向けの使用説明書に、提供者の連絡先、システムの特性・能力・限界、想定される性能水準、既知のリスク、人間による監督措置の仕様を含める必要がある。

Article 14: 人間による監督──高リスクAIシステムは、使用期間中に自然人による効果的な監督を可能にする設計でなければならない。技術的には、(a)システムの能力と限界を理解するためのインターフェース、(b)自動化バイアスへの注意喚起、(c)システムの出力を正しく解釈する能力、(d)特定の状況でシステムの使用を中止する能力、(e)「ストップボタン」等のオーバーライド機能が要求される。

Article 15: 正確性・堅牢性・サイバーセキュリティ──高リスクAIシステムは、ライフサイクル全体を通じて適切な水準の正確性、堅牢性、サイバーセキュリティを達成しなければならない。入力データの誤り・欠陥に対する耐性、敵対的攻撃への対策、予期せぬ状況での適切なフェイルセーフ動作が求められる。筆者がセキュリティ設計の実務で繰り返し目にしてきた教訓として、「セキュリティ戦略は、ビジネスの制約を理解した上でないと絵に描いた餅になる」という原則がある。AI Actのサイバーセキュリティ要件も同様であり、規制文書上の要件を形式的に満たすだけでなく、実際の脅威モデルに基づいた技術的対策が不可欠である。

適合性評価・CEマーキング・EUデータベース登録

高リスクAIシステムを EU市場に投入するためには、Article 43に基づく適合性評価(Conformity Assessment)を完了しなければならない。適合性評価には2つの経路がある。

自己適合性評価(Self-Assessment)──Annex IIIに基づく高リスクAIシステムの大部分は、Annex VIに従った内部管理に基づく適合性評価で足りる。提供者は、品質管理システムがArticle 17の要件を満たしていることを確認し、技術文書を作成し、EU適合宣言書を発行する。

第三者評価(Notified Body)──Annex III第1項に掲げる生体認証システム(リモート生体認証識別を除くその他のケース)は、原則としてNotified Body(認定機関)による第三者適合性評価が必要となる。ただし、提供者が整合規格(harmonised standards)または共通仕様(common specifications)を適用し、かつ品質管理システムの評価でNotified Bodyの関与を受けた場合は、自己評価で代替できる場合もある(Article 43(3))。

CEマーキング(Article 48-49)は、適合性評価の完了を視覚的に示す法的要件である。CEマークは、高リスクAIシステムまたはその包装、付属文書に、見やすく、読みやすく、消えにくい方法で貼付しなければならない。物理的な貼付が不可能な場合は、デジタルCEマーキングも認められる。

EUデータベースへの登録(Article 49・Annex VIII)は、市場投入またはサービス開始前に完了しなければならない。提供者はAnnex VIII Section Aに定める情報──提供者の名称・所在地・連絡先、AIシステムの商品名、意図された目的の説明、適合性評価の状況、EU適合宣言書へのリンク等──を登録する義務を負う。高リスクAIシステムの利用者もSection Bに従い、システムの使用状況と影響評価の概要を登録しなければならない。

Article 50透明性義務──高リスク以外にも及ぶ横断的要件

Article 50は、高リスク分類とは別の横断的な透明性義務を定めている。法的に重要なのは、この条項が高リスクAIシステムに限定されず、特定のAIシステム全般に適用される点である。

具体的には、(1)自然人と直接やり取りするAIシステムの提供者は、ユーザーがAIと対話していることを認識できるよう設計する義務(Article 50(1))、(2)合成音声・画像・映像・テキスト(いわゆるディープフェイク)を生成するシステムの提供者は、出力がAIによって生成されたものであることを機械可読形式でマーキングする義務(Article 50(2))、(3)感情認識システムまたは生体分類システムの利用者は、当該システムの運用について自然人に通知する義務(Article 50(3))、(4)ディープフェイクコンテンツの利用者は、そのコンテンツがAI生成であることを開示する義務(Article 50(4))を規定する。

これらの透明性義務は、2025年8月2日のGPAI規定適用開始に伴い、一部は既に適用が開始されているとされている。ただし、高リスクAIシステムに組み込まれる形での透明性要件は、2026年8月2日の完全施行日に合わせて全面適用となる。

日本企業への影響と実務的対応戦略

EU AI Actの域外適用(Article 2(1)(c))により、日本企業がEU市場向けにAIシステムを提供する場合、以下の法的義務が生じる。

EU域内代理人の選任(Article 22)──EU域外の提供者は、市場投入前にEU域内に「認定代理人(Authorised Representative)」を書面で指定しなければならない。認定代理人は、適合性評価の文書保管、当局への情報提供、リコール等の是正措置の遂行について、提供者と共同で法的責任を負う。

制裁措置の厳格性──Article 99は、違反の種類に応じた行政制裁金を定めている。禁止AI慣行の違反には最大3,500万ユーロまたは全世界年間売上高の7%(いずれか高い方)、高リスクAIシステムの義務違反には最大1,500万ユーロまたは全世界年間売上高の3%、当局への虚偽情報提供には最大750万ユーロまたは全世界年間売上高の1%が課される。日本企業にとって「EU市場に出していないから関係ない」という判断は極めて危険であり、AIシステムの「出力がEU域内で使用される」だけで規制の射程に入る。

整合規格(Harmonised Standards)の活用──欧州標準化機関CEN/CENELECは、EU AI Actを支える整合規格の策定を進めている。2026年の完全施行に向け、これらの規格への準拠が「適合性の推定」(presumption of conformity)を得る最も効率的な方法となる。ISO/IEC 42001(AI管理システム)等の国際規格との整合も進んでおり、日本企業は既存のISO認証を足がかりに対応を進めることが可能である。

実務的なステップ──日本企業が取るべき対応は、(1)自社AIシステムのAnnex III該当性スクリーニング、(2)品質管理システム(Article 17)のギャップ分析、(3)技術文書(Annex IV)のテンプレート策定、(4)リスク管理プロセスの文書化、(5)EU域内認定代理人の選定・契約、(6)適合性評価プロセスの選択と実施スケジュールの策定、の6段階で進めるべきである。筆者が技術顧問として複数企業のDXを支援してきた経験から言えば、「コンサルの価値は答えを出すことではなく、クライアントが自走できる判断基準を渡すこと」である。EU AI Act対応においても、外部専門家への丸投げではなく、社内で持続的に運用できるコンプライアンス体制の構築が最優先課題である。

Digital Omnibus提案と今後の動向

欧州委員会は2025年11月、「Digital Omnibus on AI」と呼ばれるAI Act修正提案を公表した。この提案は、Annex I(既存のEU調和法令の下で規制される製品に組み込まれたAI)に該当する高リスクAIシステムについて、適用期限を2027年8月2日から最大2028年8月2日に延長する内容を含む。また、整合規格等の「支援ツール」が整備されるまで最大16か月の猶予期間を設ける提案もなされている。

ただし、Annex IIIに基づくスタンドアロン型の高リスクAIシステムについては、2026年8月2日の施行日に変更はない。日本企業が提供するSaaS型AIサービスの多くはこのカテゴリに該当する可能性が高く、施行日の延期を前提とした対応計画は極めてリスクが高い。

今後の注視すべきポイントとしては、(1)CEN/CENELEC整合規格の最終化時期、(2)各EU加盟国の市場監視機関(Market Surveillance Authority)の設置状況、(3)欧州AI局(AI Office)によるガイダンスの公表、(4)先行する法執行事例の動向がある。EU規制は「施行日に突然始まる」のではなく、施行前の準備期間における対応の質が、施行後のコンプライアンスコストを決定的に左右する。

FAQ

EU AI Actの高リスク規定はいつ完全施行されるのか?

2026年8月2日にAnnex IIIに基づく高リスクAIシステムへの全義務条項が完全施行される。なお、Annex I(既存EU調和法令の規制製品に組み込まれたAI)については2027年8月2日が期限であり、Digital Omnibus提案により最大2028年8月2日への延長が検討されている。

日本企業はEU域内に拠点がなくてもEU AI Actの適用を受けるのか?

受ける。Article 2(1)(c)により、AIシステムの出力がEU域内で使用される場合、提供者の所在地に関係なく本規則が適用される。EU域内での認定代理人の選任(Article 22)も義務付けられる。

適合性評価は全て第三者機関(Notified Body)が必要か?

いいえ。Annex IIIに基づく高リスクAIシステムの大部分は、自己適合性評価(内部管理手続)で対応可能である。Notified Bodyによる第三者評価が原則として必要なのは、生体認証システム等の限定的なケースに限られる。

違反した場合の制裁金の上限はいくらか?

高リスクAIシステムの義務違反には最大1,500万ユーロまたは全世界年間売上高の3%(いずれか高い方)、禁止AI慣行の違反には最大3,500万ユーロまたは7%が課される。GDPRに匹敵する制裁水準である。

既にISO認証を取得している企業はどの程度の追加対応が必要か?

ISO/IEC 42001(AI管理システム)等の認証は、EU AI Actの品質管理システム(Article 17)要件との重複が多く、対応の足がかりとなる。ただし、AI Act固有の要件(EUデータベース登録、CEマーキング、使用説明書の形式等)は別途対応が必要である。

参考文献