OpenAIが2026年2月5日にリリースしたGPT-5.3-Codexは、同社初の「サイバーセキュリティ高リスク(High)」分類を受けたAIコーディングモデルである。Sam Altman CEOは「サイバーセキュリティに関する我々の準備態勢フレームワークで『High』に達した最初のモデル」と述べ、AIが攻撃自動化の閾値に達した事実を公式に認めた。同社は、このモデルが「現実世界のサイバー被害を有意に可能にする」レベルのコーディング・推論能力を持つと評価している。
この分類は、OpenAIのPreparedness Frameworkに基づく。同フレームワークはサイバーセキュリティ、生物兵器、説得力、自律性の4軸でモデルのリスクを評価し、「High」は「専門家レベルの能力を持ち、現実の脅威を生み出しうる」段階を指す。GPT-5.3-Codexは特にエージェント型コーディング能力(自律的にコード生成・実行・デバッグを反復する能力)においてこの閾値を突破した。OpenAIはモデル自体が攻撃をエンドツーエンドで自動化できる確証はないとしながらも、予防原則に基づき最も包括的なセキュリティ対策を講じると表明している。
デュアルユースの非対称性 ── 攻撃コスト低下と防御の複雑化
GPT-5.3-Codexが示すデュアルユース(軍民両用)性は、攻撃コストの劇的な低下と防御の複雑化という非対称性を生み出す。2026年のサイバーセキュリティ環境において、AIコーディングモデルは攻撃者に3つの決定的な優位性をもたらしている。
第一に、自律型マルウェア生成の産業化である。Malwarebytesのレポートによれば、2025年後半から「完全自律型ランサムウェアパイプライン」が出現し、少数のオペレーターが同時に複数の標的を攻撃できるスケールを実現している。GPT-5.3-Codexクラスのモデルは、偵察・ペイロード生成・横展開・データ窃取の全工程を強化学習ベースで自律実行できるため、従来の人力攻撃と比べて時間あたりの攻撃数が10倍以上に増加する。
第二に、リアルタイム適応による検知回避が可能になった。AIエージェントは環境シグナルに基づいて振る舞いを動的に変更し、従来のシグネチャベース検知やヒューリスティック分析を無効化する。FutureCISOの分析では、「AI駆動型マルウェアは人間のオペレーターがキーボードに触れることなく、学習・潜伏・行動を自律的に実行できる」と指摘されている。
第三に、「Vibe Coding」による脆弱性の量産が進行する。AI補助開発ツールの普及により、セキュリティレビューを経ない「雰囲気で書いたコード」が急増し、攻撃対象面が拡大している。SecurityWeekは、2026年を「AIが攻撃を支援する段階から完全自律攻撃を可能にする段階への転換点」と位置づけ、World Economic Forumの調査ではサイバーリーダーの94%が「AIが今年最も重要なサイバーリスク変動要因になる」と回答している。
Trusted Access for Cyber ── 防御側特権アクセスの設計思想
攻撃の非対称性に対抗するため、OpenAIはTrusted Access for Cyberという防御側特権アクセスプログラムを2月5日に開始した。これは「強力なサイバー防御能力を検証済みユーザーに提供しつつ、悪意ある行為者への露出を防ぐ」アイデンティティ・信頼ベースのフレームワークである。
プログラムの核心は3層のアクセス制御にある。第一層は個人認証で、セキュリティ専門家はchatgpt.com/cyberで防御的業務の実績を証明する認証情報を提出する。第二層は企業単位の信頼検証で、組織がチーム全体のアクセスを申請できる。第三層は招待制プログラムで、より制約の少ないモデルアクセスが必要なセキュリティ研究者向けに用意されている。
技術的には、分類器ベースのリアルタイム監視と自動降格機構が実装されている。サイバーリスクが高いと判定されたリクエストは、GPT-5.3-CodexからGPT-5.2に自動的にルーティングされる。禁止行為には「データ窃取」「マルウェア作成・展開」「破壊的または無許可のテスト」が含まれ、安全性訓練に加えて自動監視により疑わしいサイバー活動のシグナルを検出する。
OpenAIは1,000万ドルのAPIクレジットをサイバーセキュリティ助成プログラムに拠出し、防御側の能力強化を財政支援している。SC Mediaの報道によれば、このプログラムは「防御者の摩擦を減らしつつ禁止行為を防ぐ」設計であり、セキュリティ専門家コミュニティからは「脆弱性発見・修復の加速」への期待が寄せられている。
カリフォルニア州AI安全法との法的衝突
GPT-5.3-Codexのリリースは、カリフォルニア州の新AI安全法(SB 1047相当の規制)との法的衝突を引き起こした。監視団体はOpenAIが「高リスク分類モデルに法的に要求される保護措置を実装しなかった」として州法違反を主張している。Fortuneの2月10日報道によれば、OpenAIはこの主張に反論し、自社の安全措置が法的要件を満たしていると述べている。
争点は「予防的措置の十分性」にある。カリフォルニア州法は、サイバーセキュリティで「High」と分類されたモデルについて、リリース前に独立評価・リスク軽減措置の実装・監視体制の確立を義務づけている。OpenAIはSystem Cardで評価プロセスを公開しているが、監視団体は「エンドツーエンド攻撃自動化の確証がない」という表現が法的要件の回避にあたると指摘する。
この衝突は、AI規制における「能力ベース規制」と「実証ベース規制」の緊張関係を浮き彫りにする。能力ベース規制はモデルが理論上持つ能力に基づいて制約を課すが、実証ベース規制は実際の悪用事例が確認されるまで制約を留保する。OpenAIは後者の立場を取り、カリフォルニア州法は前者に基づく。Benzingaによれば、この論争は他州のAI規制法案にも影響を及ぼす可能性がある。
攻防の未来 ── MCPベース攻撃とAIセキュリティオペレーション
GPT-5.3-Codexが示すAI能力の進化は、2026年以降のサイバー攻防をエージェント対エージェントの自律戦へと変質させる。Dark Readingの予測によれば、攻撃側はMCPベース(Model Context Protocol)攻撃フレームワークを用いて、複数のAIエージェントが協調してターゲットのネットワーク環境を自律探索・侵害する戦術を確立しつつある。
防御側も対応を迫られている。従来のSOC(Security Operations Center)は人間アナリストが中心だったが、AIエージェントを統合したAIセキュリティオペレーションへの移行が加速している。Palo Alto Networksの予測では、2026年は「AIエコノミーにおけるサイバーセキュリティ変革の年」と位置づけられ、防御側AIエージェントがリアルタイムで脅威ハンティング・インシデント対応・脆弱性修復を実行する体制が必須になるとされる。
しかし、防御側の構造的劣位は残る。攻撃側は単一の成功経路を見つければよいが、防御側はすべての経路を塞がなければならない。GPT-5.3-Codexクラスのモデルが攻撃側に渡れば、この非対称性はさらに拡大する。Eye Securityは「デュアルユースAIがサイバー攻撃の脅威環境を再構築している」と分析し、LLMの普及が「個人レベルの攻撃者に国家級の能力を付与する」リスクを警告している。
FAQ
GPT-5.3-Codexの「High」分類は何を意味するのか?
OpenAIのPreparedness Frameworkにおいて、モデルがサイバーセキュリティ領域で「専門家レベルの能力を持ち、現実の脅威を生み出しうる」段階に達したことを意味する。これは理論的リスクではなく、実務的能力の閾値突破を示す。
Trusted Access for Cyberは誰が利用できるのか?
セキュリティ専門家が防御的業務の実績証明を提出することで個人アクセスを取得でき、組織はチーム単位でアクセス申請が可能。さらに招待制で高度な研究者向けプログラムも用意されている。悪意ある行為は自動監視で検出され、アクセスが制限される。
なぜOpenAIはカリフォルニア州法違反を主張されているのか?
監視団体は、高リスク分類モデルに要求される法的保護措置(独立評価、リスク軽減、監視体制)が不十分だと主張している。OpenAIは自社措置が要件を満たすと反論しており、「能力ベース規制」と「実証ベース規制」の解釈の違いが争点となっている。
MCPベース攻撃フレームワークとは何か?
Model Context Protocolを用いて、複数のAIエージェントが協調してサイバー攻撃を自律実行する仕組み。偵察・侵入・横展開・窃取の全工程を人間の介入なしに実行できるため、攻撃のスケールと速度が劇的に向上する。
防御側はどう対応すべきか?
AIセキュリティオペレーションへの移行が必須となる。GPT-5.3-Codexクラスのモデルを防御側も活用し、リアルタイム脅威ハンティング・自動インシデント対応・予測的脆弱性修復を実装する必要がある。Trusted Access for Cyberのような検証済みアクセスプログラムの活用も有効である。
参考文献
- Introducing GPT-5.3-Codex — OpenAI, 2026年2月5日
- GPT-5.3-Codex System Card — OpenAI, 2026年2月5日
- Introducing Trusted Access for Cyber — OpenAI, 2026年2月5日
- OpenAI's new model leaps ahead in coding capabilities—but raises unprecedented cybersecurity risks — Fortune, 2026年2月5日
- OpenAI disputes watchdog allegation it violated California's new AI law with GPT-5.3-Codex release — Fortune, 2026年2月10日
- Autonomous attacks ushered cybercrime into AI era in 2025 — Cybersecurity Dive, 2025年
- 2026: When autonomous AI transforms cyber attacks and security models — FutureCISO, 2026年
- Cyber Insights 2026: Malware and Cyberattacks in the Age of AI — SecurityWeek, 2026年
- Cyber Predictions 2026: AI Arms Race; Malware Autonomy — Dark Reading, 2026年
- Dual-use AI in Cyberattacks: How LLMs Are Reshaping the Threat Landscape — Eye Security, 2026年



