AI を業務に組み込む動きが加速する一方、規制の網は急速に整備されています。欧州では EU AI Act1 の高リスク AI2 義務が2026 年 8 月に本格適用を迎え、米国では NIST AI RMF3 が業界標準として事実上の参照軸となり、日本では内閣府・経済産業省が AI 事業者ガイドラインを公開しています。三者は「AI の安全・安心」を共通目標としつつ、拘束力・対象範囲・執行手段が大きく異なります。「結局どれに対応すればよいか」という経営層の問いに答えるため、本稿では三本を横断的に整理します。
比較対象 3 本の概要
EU AI Actは欧州連合が 2024 年 6 月に採択し、EU 官報に掲載された世界初の包括的 AI 規制法です。リスク分類(禁止・高リスク・限定リスク・最小リスク)を軸に、高リスク AI システムに対して適合性評価・透明性確保・ログ保存・人間による監視などを義務付けます。EU 域内でシステムの出力が利用される場合は域外の企業にも適用されます。法的拘束力を持ち、違反には売上高比で最大 7% の制裁金が科されます。
NIST AI RMF(AI Risk Management Framework)は米国国立標準技術研究所(NIST)が 2023 年 1 月に公開したリスク管理フレームワークです。GOVERN・MAP・MEASURE・MANAGE の 4 機能から構成され、組織が AI リスクを体系的に特定・評価・制御するための共通言語を提供します。適用は任意であり罰則はありませんが、連邦政府調達や業界標準の基準点として広く参照されています。2024 年 7 月には生成 AI に特化した補足文書(NIST AI 600-1)も公開されています。
AI 事業者ガイドラインは内閣府および経済産業省が 2024 年 4 月に公開した日本の指針です(第 1.0 版)。AI 開発者・提供者・利用者の三者を対象に、安全性・透明性・公平性・セキュリティ確保など 10 原則を示します。法的拘束力はなく推奨事項にとどまりますが、日本の AI 政策の方向性を示す公式文書として国内企業の内部規程策定の参照点となっています。
横断比較表

| 比較観点 | EU AI Act | NIST AI RMF | 日本 AI 事業者ガイドライン |
|---|---|---|---|
| 適用対象 | EU 域内で AI システムを提供・利用する事業者(域外適用あり) | 任意採用。米国政府調達では事実上の参照基準 | AI 開発者・提供者・利用者(日本国内の事業者を主な対象とする推奨) |
| 法的拘束力 | あり(EU 法) | なし(任意フレームワーク) | なし(ガイドライン) |
| 段階的適用開始 | 禁止 AI:2025 年 2 月 / GPAI5 義務:2025 年 8 月 / 高リスク義務:2026 年 8 月 | 発行済み(2023 年 1 月)、随時参照可 | 2024 年 4 月公開、随時参照可 |
| 中核要求事項 | リスク分類・適合性評価・ログ保存・人間による監視・透明性開示 | GOVERN(体制)/ MAP(リスク把握)/ MEASURE(評価)/ MANAGE(対処)の 4 機能実装 | 安全性・セキュリティ・透明性・公平性・説明責任の 10 原則の遵守 |
| 罰則・執行 | 最大€3,500 万または全世界売上高の 7%(禁止 AI);€1,500 万または 3%(高リスク AI) | 罰則なし | 罰則なし |
| 域外適用 | あり(EU で出力が利用される場合) | 実質的に域外企業も参照を求められるケースあり(政府調達を通じて) | 基本的に域外適用なし |
| 日本企業の初動 | EU 向け製品・サービスのリスク分類確認、高リスク該当有無の判定 | リスク管理プロセスの自社実装への組み込み、GOVERN 機能から着手 | 自社の AI 利用ポリシー策定・更新の根拠文書として活用 |
共通点と相違点の解説
共通する基本思想
三者に通底するのは、「AI のリスクは事後の是正ではなく設計段階から管理する」という原則です。EU AI Act の適合性評価、NIST AI RMF の MAP 機能(リスクの特定)、AI 事業者ガイドラインの安全性原則はいずれも、AI システムのライフサイクル全体にわたるリスク評価を組織に求めています。また、透明性(AI であることの開示・ログ保存・説明可能性)と人間による監視(Human Oversight)はすべての文書が共通して重視する要素です。この方向性は、生成 AI・自律エージェントの普及に伴い、今後さらに強化される傾向にあります。
本質的な相違点
最大の相違は「拘束力と執行」にあります。EU AI Act は法律であるため、対応しなければ制裁金という経営上の実害が生じます。一方、NIST AI RMF と日本のガイドラインはあくまで推奨であり、採用しなくても直接的なペナルティはありません。ただし、これは「対応不要」を意味しません。NIST AI RMF は米国政府との取引要件や金融・医療分野の監督ガイダンスに組み込まれつつあり、日本でも将来的な義務化の地ならしとして機能する可能性があります。
もう一つの相違はリスク分類の粒度です。EU AI Act はシステム用途ごとに禁止・高リスク等を明確に区分し、「自社の AI がどの分類に入るか」という判断を企業に求めます。NIST AI RMF と日本ガイドラインはリスクの枠組みを提供しつつ、具体的な分類は組織の判断に委ねます。日本企業が EU AI Act に取り組む際に最初につまずくのがこの分類判断であり、EU 向け製品ラインの棚卸しから着手する必要があります。
日本企業が取るべき優先対応
- 設計: EU 向け製品・サービスの AI 利用箇所をリストアップし、EU AI Act のリスク分類(禁止・高リスク・限定リスク)に照らして判定します。高リスク該当が疑われる用途(採用選考支援・与信判断・医療補助など)は適合性評価の手順を設計プロセスに組み込みます。
- 設計: NIST AI RMF を参照し、GOVERN 機能(AI リスクポリシーと責任体制の明文化)から着手します。役割ごとの責任分界(AI 開発委託先・社内利用部門・情シス)を契約書・社内規程に反映します。
- 運用: AI 事業者ガイドラインの 10 原則を社内 AI 利用ポリシーの根拠として明示し、利用承認フロー・インシデント報告手順を月次で見直すサイクルを設けます。
- 運用: AI システムの入出力ログを一定期間保存するアーキテクチャを確保します。EU AI Act は高リスク AI に対してログ保存を義務付けており、今後同等の要件が他地域にも波及する可能性があります。
- ガバナンス: CISO または法務・コンプラ担当者が EU AI Act の段階的適用スケジュール(2026 年 8 月の高リスク義務)を経営会議で定期報告する仕組みを設けます。EU での事業規模が小さくても、取引先経由で要件が連鎖する「間接適用」リスクをサプライチェーン全体で確認します。
- ガバナンス: 日本 AI 事業者ガイドラインおよび NIST AI RMF を参照した自社 AI リスク管理方針を文書化し、取締役会または監査委員会への年次報告事項として位置付けます。
一枚要約
EU AI Act は 2026 年 8 月に高リスク AI への法的義務が本格化し、EU での事業展開がある日本企業は対岸の火事では済みません。NIST AI RMF・日本 AI 事業者ガイドラインとの共通軸は「設計段階からのリスク管理・透明性・人間監視」ですが、執行力・リスク分類の粒度・域外適用の有無で対応優先度が異なります。まず EU 向け製品のリスク分類判定を行い、NIST AI RMF で社内ガバナンス体制を固め、日本ガイドラインを内部規程の根拠として活用する三段階が現実的です。
今日着手できる3アクション
- EU AI Act の公式テキストまたは欧州委員会のデジタル戦略ページ(digital-strategy.ec.europa.eu)にある AI Act の概要資料を参照し、自社製品・サービスの AI 用途が「高リスク AI システム」の 8 カテゴリ(別表 III)に該当するか照合します。
- NIST のウェブサイト(nist.gov/artificial-intelligence)から AI RMF 1.0 および生成 AI 補足文書(NIST AI 600-1、2024 年 7 月公開)を入手し、GOVERN 機能のチェックシートを情シス・法務と共有して責任体制の現状ギャップを書き出します。
- 内閣府の AI 戦略ページまたは経済産業省のウェブサイト(meti.go.jp)で「AI 事業者ガイドライン第 1.0 版」(2024 年 4 月公開)をダウンロードし、自社の AI 利用ポリシー文書と突き合わせて未対応の原則を特定します。
AI×セキュリティの観点
EU AI Act が高リスク AI に求める「人間による監視」と「ログ保存」の要件は、AI エージェントが自律的に意思決定を行う環境では技術的な難問になります。エージェントが複数のツールを連鎖呼び出しする場合、どの判断をどの人間が監視するかの設計が曖昧になりがちです。攻撃者がこの監視の空白を突いてエージェントの推論を操作する「プロンプトインジェクション」や「目標ハイジャック」は、規制要件の不充足と脆弱性を同時に突く攻撃ベクターとして注目されています。防御側は AI ガバナンス対応を「コンプライアンス作業」ではなく「攻撃対象領域の管理」として位置付ける必要があります。
用語ミニ解説
- EU AI Act — 欧州連合が 2024 年 6 月に採択した世界初の包括的 AI 規制法。AI システムをリスクの高さで 4 段階に分類し、高リスク以上に適合性評価・透明性確保・ログ保存等を義務付ける。 ↩
- 高リスク AI — EU AI Act が定める分類の一つ。採用選考・与信判断・重要インフラ制御・法執行支援など社会的影響が大きい用途が該当し、市場投入前の適合性評価と継続的なリスク監視が義務付けられる。 ↩
- NIST AI RMF — 米国国立標準技術研究所(NIST)が 2023 年 1 月に公開した AI リスク管理フレームワーク。GOVERN・MAP・MEASURE・MANAGE の 4 機能で構成され、任意採用ながら業界標準として広く参照されている。 ↩
- 域外適用 — 規制の適用範囲が制定地域外の企業にも及ぶこと。EU AI Act では、EU 域内でシステムの出力が利用される場合に日本企業を含む域外事業者にも適用される。GDPR と同様の域外効力を持つ点に注意が必要。 ↩
- GPAI(汎用 AI モデル) — General Purpose AI の略。EU AI Act では、多様なタスクに利用できる大規模言語モデル等を GPAI として区分し、透明性確保・著作権ポリシー公開・能力評価などの義務を課す。義務は 2025 年 8 月から適用済み。 ↩




コメント