2026年2月時点で、生成AIを高信頼領域に適用する実装は「自由生成を後で検査する」方式から、「生成前に推論経路を制約する」方式へ移行しつつある。本稿ではこの設計思想を Structured Language Models(SLM)と定義し、法律・金融・医療で使える実装パターンとして整理する。なおSLMは単一ベンダー製品名ではなく、2026年に普及した実装アーキテクチャ上の呼称として扱う。
SLMの作業定義: 事前定義推論を中核に置く
SLMの要点は、モデル出力を「自然言語全文」ではなく「制約付きの状態遷移」として扱う点にある。2024年8月6日に公開されたOpenAIのStructured Outputsは、スキーマに一致する出力を生成時点で担保する constrained decoding を説明している。これは事後パーサではなく、探索空間そのものを狭める設計である。
実装上は、(1) 許可された推論ステップ集合、(2) スキーマ付き中間表現、(3) 証拠参照必須ルール、(4) 不確実時の保留・エスカレーション、の4要素を固定する。ここで重要なのは「正解を当てる確率」を直接上げることではなく、「不正な推論をシステム的に通さない」ことである。
参照実装: Policy Engine + Typed Reasoning Graph
実運用では、LLM本体の前後に制御層を置く三層構成が安定する。第1層は入力正規化とリスク分類、第2層は型付き推論グラフ(Typed Reasoning Graph)、第3層はドメイン規則に基づくPolicy Engineである。生成は常に「ノード評価→制約検証→次ノード確定」の反復で進む。
この設計により、ハルシネーションは主に3経路で抑制される。第一に、語彙・形式制約で無効トークン列を探索対象から除外する。第二に、各推論ノードに evidence_id を必須化し、根拠欠落を構文レベルで失敗させる。第三に、最終回答の前に policy_check ノードを必須通過にし、規制違反や根拠不足を reject できるようにする。
法律・金融・医療での信頼性要件マッピング
法律領域では、EU AI Actが2024年8月1日に発効し、用途に応じたリスク管理・透明性・記録保持を要求する枠組みが明確化された。SLMでは「どの規則に基づいてどの結論に到達したか」を推論グラフで追跡可能にすることで、監査要件への適合性を高められる。
金融領域では、米連邦準備制度理事会のSR 11-7(2011年4月4日)が示すモデルリスク管理原則が依然として基盤である。特に conceptual soundness、継続的監視、独立検証は、SLMのノード単位評価・ドリフト検知・再現可能ログと整合する。自由生成モデル単体よりも、責任分界点を設計で明示しやすい。
医療領域では、FDAが2024年9月28日に公開したドラフトガイダンス(AI-enabled device software functions)で、ライフサイクル全体の透明性と変更管理が重視されている。SLMでは、推論手順を事前定義し、更新時に「どのノード規則が変わったか」を差分管理できるため、変更審査に必要な説明可能性を担保しやすい。
運用設計: ハルシネーションを「検出」から「予防」へ
本番運用のKPIは、正答率だけでなく「未根拠回答率」「policy reject率」「人手エスカレーション率」を同時に置くべきである。高信頼領域では、誤答してでも即答するモデルより、保留して人に渡すモデルの方が業務価値が高い場面が多い。
推奨する導入順序は、2026年第1四半期のPoCで単一ユースケースをSLM化し、第2四半期で監査ログと再評価パイプラインを追加し、第3四半期で複数ドメインへ水平展開する3段階である。SLMの本質は「賢い1モデル」を作ることではなく、「誤ると危険な推論を設計で無効化するシステム」を作ることにある。
FAQ
SLMは小型モデル(Small Language Model)の略か?
本稿のSLMはSmall Language ModelではなくStructured Language Modelsの略である。モデルサイズではなく、事前定義推論と制約付き生成を中心に据えた実装思想を指す。
RAGを導入していればSLMは不要か?
不要ではない。RAGは根拠候補の取得に強いが、推論手順そのものを制約しない。SLMはRAGを取り込んだ上で、推論ノード・出力スキーマ・ポリシー判定を固定し、誤推論の通過確率を下げる設計である。
ハルシネーションはゼロにできるか?
ゼロ化は現実的ではない。実務上は、未根拠回答を自動拒否し、閾値未満の確信度を保留に回すことで、重大誤答の発生率を許容水準まで下げる設計が現実解となる。
どの業界から導入すべきか?
まずは規則と監査指標が明確な業務から始めるべきである。金融の審査補助、医療の文書要約、法務の条項チェックなど、評価基準を定義しやすい領域が初期導入に適している。
参考文献
- Introducing Structured Outputs in the API — OpenAI, 2024-08-06
- Supervisory Guidance on Model Risk Management (SR 11-7) — Board of Governors of the Federal Reserve System, 2011-04-04
- AI Act enters into force — European Commission, 2024-08-01
- Artificial Intelligence-Enabled Device Software Functions: Lifecycle Management and Marketing Submission Recommendations (Draft Guidance) — U.S. FDA, 2024-09-28
- Artificial Intelligence Risk Management Framework (AI RMF 1.0) — NIST, 2023-01-26



