要点 — 30秒で読める結論

タオリス人機和総研は、GPT-5.2、Claude Opus 4.5、Gemini 3 Proなど6つの最先端AIモデルを対象に、企業実務を模した5種類のタスクを各モデル5回ずつ、計200回実行する独自ベンチマークを実施した。

  1. GPT-5.2が総合1位(114/125点)だが、APIパラメータを1つ誤設定するだけで性能がゼロに見える致命的な統合リスクがある
  2. 安いモデルが高いモデルを超えた — Tier2のClaude Sonnet 4.5(108点)がTier1のGemini 3 Pro(72点)を大幅に上回った
  3. 真のリスクはモデルの能力ではなく、API統合の複雑性にある。「設定を間違えたら最強モデルも最弱になる」時代

ベンチマーク全結果データを見る →

AIエージェント市場の現状

AIのハイプサイクルを表す概念図
AIエージェントは「期待のピーク」から「幻滅の谷」へ向かいつつある

Gartnerのハイプサイクル2025年版ではAIエージェントが「過度な期待のピーク」に位置し、生成AIはすでに「幻滅の谷」に入った。世界のAI投資は2026年に2.5兆ドル(前年比+44%)に達する見通しだが、MITの調査では95%の組織がGenAIプロジェクトからROIゼロと報告している。

チャットボット(「話すツール」)からワークフローを自律的に実行する(「やるツール」)へのパラダイムシフトが期待されている一方、企業の57%が「自社データがAI-readyではない」と認め、エージェントのアクセス制御やハルシネーション問題は未解決のままだ。

では実際に、最先端のAIモデルを企業の実務タスクにぶつけたら何が起きるのか? タオリスはこれを200回のテストで検証した。

テスト概要

6つの最先端AIモデル(Anthropic、OpenAI、Googleの各社ハイエンド+コスパモデル)に、企業で頻出する5種類のタスク(情報収集、データ分析、マルチステップ業務、コードデバッグ、経営意思決定)を各5回ずつ実行させた。初回実験150回に加え、問題が発覚したGPT-5系モデルのパラメータを修正して50回の再実験を実施。合計200回。

項目条件
対象モデルClaude Opus 4.5 / GPT-5.2 / Gemini 3 Pro(Tier1)
Claude Sonnet 4.5 / GPT-5 mini / Gemini 3 Flash(Tier2)
試行数200回(初回150 + 再実験50)
タスクT1 情報収集 / T2 データ分析 / T3 マルチステップ / T4 コード / T5 意思決定
Temperature0.0(決定的生成)
実行日2026年1月30日(初回)、2月1日(再実験)

実験設計・タスク設計・全データの詳細はベンチマーク特設ページへ →

3つの主要発見

発見1:パラメータ1つでモデル性能がゼロになる

初回実験で、GPT-5 miniの25試行中19試行(76%)、GPT-5.2の7試行(28%)が空のテキストを返した。API呼び出し自体は成功しており、トークンは4096個消費されているのに、画面に表示される文字はゼロ。

原因はベンチマーク側のAPIパラメータ設定ミスだった。GPT-5系は推論モデルであり、内部で「思考チェーン」を生成してから可視テキストを出力する。max_completion_tokensはその両方の合計バジェットだが、初回実験ではこの仕様を考慮していなかった。修正後の再実験では50試行全てが成功し、GPT-5.2は全モデル1位に躍り出た。

この発見が意味するのは、企業のPoC段階で「このモデルは使えない」という誤った結論に至るリスクが非常に高いということだ。モデルの能力を正しく引き出すには、各プロバイダ固有のAPIパラメータ仕様を深く理解する必要がある。

発見2:安いモデルが高いモデルを超えた

Tier2(コスパモデル)の平均スコア(101.7点)がTier1(ハイエンド)の平均(99.3点)を上回った。特にClaude Sonnet 4.5(108点、Tier2)はTier1のGemini 3 Pro(72点)を50%上回り、GPT-5 mini(100点)もGemini 3 Proを大幅に超えた。高価なモデル=高品質とは限らない

発見3:プロバイダ別の特性マップ

企業への5つの提言

  1. API統合テストを最優先にせよ — モデル評価の前に、各プロバイダのパラメータ仕様を網羅的にテストすべき。特に推論モデルのreasoning_effortmax_completion_tokensのバジェット配分は要注意
  2. フォールバック戦略を必須にせよ — 単一プロバイダ依存は危険。Gemini 3 ProのT4完全障害のように、特定タスクで予測不能な障害が起きる。最低2社のモデルを用意せよ
  3. 「安いモデルが使えない」は幻想 — Claude Sonnet 4.5やGemini 3 Flashは、ハイエンドモデルに匹敵する品質をより低コストで実現。まずTier2で始めて、不足があればTier1に上げるアプローチが合理的
  4. ベンチマーク結果を鵜呑みにするな — 実装品質がモデル評価を根本的に左右する。実験条件が開示されていないベンチマークは判断材料にならない
  5. token予算は3〜4倍で設計せよ — 推論モデルではreasoning tokens消費分のバッファが必須

結論

AIエージェントは「幻滅の谷」に入りつつある — しかし、幻滅の対象を正確に見定める必要がある。

本テストで最も印象的だったのは、パラメータを1つ変えただけでGPT-5.2が「最下位級」から「1位」に変わったという事実だ。モデルの能力自体は既に実用水準に達している。企業がAIに「幻滅」しているとすれば、その原因はモデルの性能不足ではなく、API統合の複雑性とパラメータ設定の非直感性にある。問題は「賢いモデルがあるか」ではなく、「賢いモデルを正しく動かせるか」だ。

企業が今なすべきは、モデル選定よりも先に、AI統合基盤の品質に投資することだ。API統合テストの自動化、パラメータ最適化のナレッジベース構築、マルチプロバイダのフォールバック設計 — これらの「地味なインフラ」こそが、AIを幻滅の谷から生産性の台地へ引き上げる鍵となる。

調査・分析:タオリス人機和総研
実験実行日:2026年1月30日(初回)、2月1日(再実験)
試行総数:200回(初回150回 + 再実験50回)
詳細データベンチマーク Vol.1 特設ページ
データ公開:実験スクリプト・タスク定義はGitHubで公開中