2026.05.11 · 19分で読める

企業のためのAI業務利用ガバナンス完全ガイド|経営者・情シス担当者の必須チェックリスト【2026年5月】

2026年3月31日、Anthropicのnpmパッケージ @anthropic-ai/claude-code v2.1.88に約513,000行のソースマップが誤って同梱され、約3時間内部ソースが取得可能な状態に(PYMNTS)。AIベンダー本人ですらヒューマンエラーで内部資産が露出するのが現実。

本記事は経営者と情シス担当者がAIガバナンスを決めるための実務を一次ソース直読で整理。経営判断(規程・組織・契約)と情シス実装(プラン・SSO・DLP・監査ログ)の両軸をまとめ、AI事業者ガイドライン第1.2版・EU AI Act 2026年8月段階施行・各社プラン最新仕様まで網羅、社員配布用の入力前7点チェックリストも収録しました。

なぜ今、AI業務利用ガバナンスが「待ったなし」なのか

「事故が起きてから整備する」では間に合わないフェーズに入りました。理由は3つ。

理由①ベンダー本人が漏らす時代。冒頭のAnthropic Claude Codeソース漏洩に加え、2025年11月8日にMixpanel侵害でAPI顧客情報が流出(OpenAI公表11月26日)(Decrypt)、2026年3月26日にAnthropicのCMS設定不備で内部ドキュメント数千件が公開状態に(Fortune)。たとえるなら、金庫メーカー自身が金庫の鍵を落とす事件。サプライチェーン上流が漏れる前提で自社の入力データ管理を組む必要があります。

理由②規制が一気に動き始めた。日本は経産省・総務省が2026年3月31日にAI事業者ガイドライン第1.2版を公表。EU AI Actは2026年8月2日に大半の規定が適用開始Timeline)。米国カリフォルニアADMT規則は2026年1月1日施行済み(CPPA)、上場企業はPCAOB AS 1105改訂版が2025年12月15日以降の事業年度適用でAI出力統制が必要に。

理由③シャドーAIの侵害コストが見える化。IBM「Cost of a Data Breach Report 2025」ではAIモデル/アプリ侵害組織のうち97%でAIアクセス制御が未整備、シャドーAI絡みの侵害は20%で発生、通常より+$670Kのコスト上乗せ(グローバル平均侵害コスト$4.44M、IBM)。Cisco「2026 Data and Privacy Benchmark Study」では機微情報を正式チャネル外でAI入力する組織が50%(Cisco)。

ポジティブ面もあります。IPA調査ではAI利用ルール策定済みが2024年3月20%未満→2024年調査52.0%(IPA)。日本企業は整備の急成長期

【経営者向け】会社として認める/禁止する5つの判断軸

経営者がまず判断すべきは「会社でAIをどこまで使わせるか」の方針。情シスに丸投げしても答えは出ません。判断軸は5つ。

製品比較は法人AIセキュリティ比較、料金はChatGPT Pro vs Claude Max料金比較を併読ください。

【経営者向け】AI利用規程に必ず入れる7条項

判断軸が決まったら社内規程の文書化です。経済産業省・総務省「AI事業者ガイドライン第1.2版」を骨格に、実務で機能する規程に落とすには次の7条項が最低限必要です。

この7条項を自社の業種・規模・取引先要件でカスタマイズすればA4で5〜8ページの規程に。初版完成は実働2〜3週間+法務レビュー1週間の約1ヶ月。完璧を目指さず「60点版」を運用しながら改定するのが鉄則です。

規程の前提となる法的境界線を3地域で整理。「日本企業だから日本法だけ見ればいい」は通用しないのが2026年の現実です。

日本:個情法と各種ガイドライン。個情法は令和2年改正版(2022年4月1日施行)が現行ベース。個人情報保護委員会が2023年6月2日に「生成AIサービスの利用に関する注意喚起等」を公表(個情委)、事業者には①個人情報を含むプロンプトの利用目的範囲確認、②要配慮個人情報の本人同意なき取得禁止例外チェック、③機械学習設定でのプロンプト入力は提供・利用に当たり得る点への留意を要請。詳しくは日本の個情法とAI開発の論点記事も併読ください。

EU:GDPRとEU AI Act。GDPR第22条は採用スクリーニング・与信・保険引受・価格決定で完全自動の最終決定を行う場合に人的介入・説明・異議申立の仕組みを要求(GDPR Art.22)。EU AI Act(Regulation (EU) 2024/1689)の段階施行スケジュールは下表のとおり。

禁止AI実務は社会的スコアリング・職場や教育での感情認識・無差別生体認証スクレイピング等。高リスクAI(Annex III)は雇用・教育・与信・法執行・移民・重要インフラ等。罰則は最大全世界年間売上7%または€35M。EU市場で事業展開する日本企業はAnnex III該当性の自己評価を2026年8月までに完了させる必要があります。

米国:CCPA/CPRA、HIPAA、SOX、FTC。カリフォルニアADMT規則は2026年1月1日施行済み・特定義務は2027年1月1日適用(CPPA)。重大決定(雇用・報酬等)にADMTを使う事業者はPre-use Notice・オプトアウト権・アクセス権の運用が必須化。上場企業はPCAOB AS 1105改訂版が2025年12月15日以降の事業年度適用、AI出力をIPEとして入力・モデル・出力の3層統制が必要(PCAOB)。FTCは「Operation AI Comply」でAI不実表示への執行を強化、NIST AI RMF(GenAI Profile 2024年7月26日)は米連邦調達のデファクトスタンダード(NIST)。

日本・EU・米国のAI規制施行タイムライン(2025〜2027) 3地域の主要規制の施行時期 AI規制施行タイムライン(2025〜2027) 2025 2026 2027 2028 日本 EU 米国 AI事業者GL第1.2版 2026/3/31 禁止AI実務 2025/2/2 GPAI義務 2025/8/2 大半適用 2026/8/2 高リスクAI完了 2027/8/2 CCPA ADMT施行 2026/1/1 PCAOB AS 1105 2025/12/15〜 ADMT特定義務 2027/1/1

【情シス向け】各社プラン別データ取扱比較

学習利用のデフォルトが最初のポイント。ChatGPT Free・Plus・Proは学習ON(オプトアウト要)、Claude Free・Pro・Maxはオプトアウト状態(明示オプトインで学習)、Gemini app個人版は「Gemini Apps Activity」がデフォルトON・既定18ヶ月保持(最大36ヶ月選択可)。Business・Team・Enterprise・APIプランは4社ともデフォルトで学習不使用です。

サービス・プラン 学習デフォルト 保持期間 SSO/SCIM 監査ログ HIPAA BAA
ChatGPT Free / Plus / Pro ON(オプトアウト可) 削除後30日 なし なし なし
ChatGPT Business(旧Team) OFF(契約上) 削除後30日 SAML SSO 限定的 未確認
ChatGPT Enterprise OFF(契約上) 最小90日(管理者設定) SAML+SCIM+RBAC あり 営業契約で対応
OpenAI API(標準/ZDR) OFF abuse log 30日 / ZDR保存なし 限定的 あり BAA別途
Claude Free / Pro / Max OFF(明示オプトイン) 削除即時 / 30日 なし なし なし
Claude Team OFF(契約上) 最小30日(管理者設定) SSO+SCIM あり 未確認
Claude Enterprise OFF(契約上) 管理者設定可(Activity Feed 6年) SSO+SCIM+RBAC Activity Feed HIPAA-ready
Gemini for Workspace OFF(契約上) 3か月〜無期限(管理者設定) OIDC/SAML+SCIM Admin/Vault BAA対応
Vertex AI OFF cache 24h(無効化可) Cloud IAM Cloud Audit Logs BAA対応
Microsoft 365 Copilot OFF Purview policiesで設定可 Entra ID(SAML+SCIM) Purview Audit/eDiscovery HIPAA対応

表の読み方。①個人プラン業務利用ならChatGPT系はオプトアウト徹底、Gemini個人版はActivity OFF必須。②機微度高業務はBusiness/Team以上が原則(4社とも契約上学習不使用)。③HIPAA BAA医療系はAnthropic・Google・Microsoftから選定(OpenAIはTrust Center公式記載なし)。SOC 2 Type II・ISO 27001・GDPRは4社対応。冒頭のClaude Code漏洩はAnthropic内部ソースコード露出に限定された事案で業務データへの影響はありません(関連記事)。

学習設定デフォルトの方向差マップ 4社×個人/法人プランの学習デフォルト設定 学習デフォルトの方向差 個人プラン 法人プラン ChatGPT:学習ON ChatGPT:学習OFF Claude:OFF(明示OPT-IN要) Claude:学習OFF Gemini app:Activity ON Gemini Workspace:OFF M365 Copilot:個人版なし M365 Copilot:学習OFF 業務利用は法人プラン推奨。個人プラン残存時はオプトアウト必須

【情シス向け】SSO・DLP・監査ログ実装手順

プラン選定の次は認証・統制・監査の実装。「契約しただけ」では統制ゼロ。4レイヤーを順番に構築します。たとえるなら、社屋を借りても入退室管理・警備ログがないと事務所として機能しないのと同じです。

SSO → 監査ログ → DLP → SIEM転送の順で段階的整備が現実的。中小企業はSSOと監査ログの2レイヤーだけでも統制が飛躍的に上がります。

情シス4レイヤー実装の積み上げ順 SSO→DLP→監査ログ→定期レビューの段階整備 情シス4レイヤー実装の積み上げ順 ①SSO/SCIM自動プロビジョニング(最優先) ②DLP連携(CASBで機微情報入力検知) ③監査ログ収集とSIEM転送 ④月1回30分の定期レビュー 必須 推奨 推奨 理想

シャドーIT対策|個人アカウント業務利用への現実解

「個人スマホ・個人PCでChatGPTを使う社員」を技術的に完全には止められないのが現実。Cisco「2026 Data and Privacy Benchmark Study」では全面禁止導入企業は前年比21ポイント減少、Microsoft「Work Trend Index 2024」ではAI利用者の78%がBYOAI状態(中小企業80%、Microsoft)。たとえるなら、社用車禁止にしても自家用車で営業に行く社員は止められないのと同じ。現実解は3層の防御モデル。

3層を整えた上で規程上「正式チャネル外でのAI利用禁止」を明記。禁止が機能するのは「正式チャネルが整備されてから」。順序を逆にすると社員はシャドーITに流れます。

シャドーIT対策の3層防御モデル ID層・ネットワーク層・エンドポイント層の3層 シャドーIT対策の3層防御モデル 層① ID層:正式チャネルを作る 承認済みAI環境を全員配布(パナソニック ConnectAI型) 層② ネットワーク層:正式外を可視化 CASB(Netskope/Zscaler/Cloudflare)で通信傍受 層③ エンドポイント層:社用デバイス制御 MDMでアプリ制限・拡張機能制御・コピペDLP連携

入力前7点チェックリスト(社員配布用)

A4 1枚に印刷してデスクに貼れる入力前7点チェックリスト。社内規程の別紙としてそのまま転載できます。

  1. このAIサービスは会社の承認リストに載っているか? 承認済み(ChatGPT Business・Claude Team・Gemini for Workspace・M365 Copilot等)以外は原則使わない。新サービスは情シスに事前申請。
  2. そのプランの「学習設定」はオフか? ChatGPT個人プランはオプトアウト設定必要、Claude個人プランはデフォルトオフ、Geminiは設定確認、Business以上はデフォルト学習不使用。
  3. 入力情報の機密度は何段階目か? 公開情報・社内一般・機密・極秘の4段階のうち、機密以上はBusiness以上のプラン、極秘は原則禁止または専用環境のみ。迷ったら慎重側に倒す。
  4. 個人情報・要配慮個人情報を含まないか? 氏名・マイナンバー・健康情報・宗教・思想・信条・社会的身分・病歴・犯罪歴は要配慮個人情報。本人同意の確認または匿名化処理が必須。
  5. 顧客機密・取引先預かり情報を含まないか? 契約書・見積書・未公開財務情報・顧客のソースコード・設計図など。NDAの対象範囲に該当しないか確認、該当時は事前に法務相談。
  6. 出力のファクトチェック・著作権確認は誰がやるか? AI出力をそのまま社外送信しない。事実誤認・著作権侵害・引用捏造リスクのため社外送信前に人間レビュー必須。最終チェック者が責任を負う
  7. 事故時の連絡先と報告期限を知っているか? 誤入力・誤出力・外部指摘時の連絡先(情シス・法務・経営層)と報告期限(検知から1時間以内)を把握。個人情報含むインシデントは法上の報告義務あり。

インシデント発生時の対応フロー

事故は起きる前提で対応フローを整えます。事前文書化と年1回のシミュレーション訓練が理想。

インシデント対応5フェーズと法定期限 検知1時間→評価24時間→法的判定72時間→通知→再発防止 インシデント対応5フェーズと法定期限 ①検知 0〜1時間 アカウント停止 ②影響範囲評価 1〜24時間 ログから時系列確定 ③法的判定 24〜72時間 GDPR 72時間ルール ④通知・公表 72時間〜 テンプレート活用 ⑤再発防止 1週間〜1ヶ月 構造的改善 個情法:速報「速やかに」/ 確報30日以内 | GDPR:72時間以内通知 「初動の1時間遅れ」が法定期限超過の典型パターン

2026年中の規制動向と次の一手

規制動向を時系列で整理します。

「6月までに」揃えたいのは、(1)規程初版、(2)承認済みAIリストとプラン契約(Business以上)、(3)入力前7点チェックリスト配布、(4)インシデント対応フロー文書化、(5)SSO設定。「12月までに」は、(1)DLP・CASB導入、(2)監査ログSIEM転送、(3)年1回のシミュレーション訓練、(4)EU AI Act該当性評価、(5)ISO/IEC 42001認証取得検討。ISO/IEC 42001はAIガバナンスの国際的デファクトスタンダードになりつつあるため、グローバル展開企業は2026〜2027年中の取得を検討する価値あり。2026年は「整備期」から「運用期」への移行年。月次・四半期・年次レビューのサイクルを経営者と情シスが二人三脚で回すフェーズです。GitHub Copilot従量課金移行解説記事で扱ったように契約見直しも年次ルーチンに組み込むと安心です。

FAQ|よくある質問

Q1. AI利用規程の法的義務はあるか?

直接命じる法律は2026年5月時点で存在しませんが、個情法の安全管理措置義務、個情委2023年6月2日の生成AI注意喚起、AI事業者ガイドライン第1.2版が事実上のスタンダード。上場企業はPCAOB AS 1105改訂版(2025年12月15日以降の事業年度適用)、EU市場展開なら2026年8月2日からEU AI Actが適用開始。

Q2. ChatGPTとClaude個人プランで業務利用リスクは違うか?

デフォルト設定が逆方向。ChatGPT Free・Plus・Proは学習デフォルトON、Claude Free・Pro・Maxはデフォルトでオプトアウト状態。社員が個人プランを使うならChatGPTは学習設定オフ確認が必須。Business以上は4社ともデフォルトで学習不使用。

Q3. EU AI Actは日本企業にも関係あるか?

EU拠点なしでもEU市場でAIシステムを上市・サービス提供する場合は域外適用。2026年8月2日から大半の条項が適用開始、罰則は最大全世界年間売上7%または€35M。EU向けAIの一覧化、Annex III高リスク該当性チェック、適合性評価・技術文書・ログ保持・人的監督の準備が必要です。

Q4. シャドーIT対策で全面禁止は効果がない?

Cisco 2026調査では全面禁止導入企業は前年比21ポイント減少、機微情報を正式チャネル外でAI入力する組織が50%、AI利用者の78%がBYOAI状態。承認済みAI環境を全員に提供して使わせる方向が効きます。3層で正式チャネルを整備した上で外部利用を禁止する設計が現実解です。

Q5. 機密情報入力時、何時間以内に何をすべき?

個情法では速報「速やかに」、確報原則30日以内。GDPR適用なら72時間以内の監督機関通知。実務的には検知から1時間以内にアカウント停止・履歴保存、24時間以内に影響範囲評価、72時間以内に通知要否判定。誰が判断者かを規程に書かないと法定期限を超過します。

Q6. 中小企業でもここまで整える必要があるか?

規模に関わらず個情法・NDA・業界規制対象である以上ベースラインは必要。最初30日の最小セットは、(1)許可リスト、(2)入力禁止データ分類1ページ規程、(3)入力前7点チェックリスト配布、(4)月1回の利用ログレビュー。IPA調査ではルール策定済が52.0%で整備が進む過渡期

Q7. 情シスがいない会社でもSSO設定はやるべき?

Entra IDまたはGoogle WorkspaceのIDサービスを軸にAIツールのSSO連携を有効化するところから。M365 CopilotならEntra ID、Gemini for WorkspaceならGoogle Workspace IDがそのまま使え、Claude TeamとChatGPT BusinessはSAML SSO標準対応。監査ログは月1回CSVエクスポートして眺める軽量運用でも十分です。

参照元・出典

← Blog一覧へ