INFORMATION お役立ち情報

2025.10.29 ISMS

“隠れAI”リスクが情報セキュリティの盲点に──ISO/IEC 42001:2023×ISO/IEC 27001:2022/ISMS視点での実態と対策

1. はじめに:なぜ「隠れAIリスク」が注目されるのか

近年、組織内で AI(人工知能)・機械学習モデルが導入・活用されるケースが急増しています。その一方で、「目には見えない」「監視が及びにくい」形で AI が組織のプロセスやシステムに深く入り込んでいる――いわゆる“隠れAI”リスクが、情報セキュリティおよびガバナンスの観点で新たな課題となっています。たとえば、従業員が許可されていない AIツールを勝手に使ったり、AIモデルが不適切に学習・運用されていたり、あるいは AIが意図しない動きをしてしまうケースなどです。
このようなリスクは、従来の情報セキュリティ管理(ISO/IEC 27001:2022/ISMS:Information Security Management System)だけでは捉えきれない場合があります。そこで登場した新たな標準として、AI管理の枠組みである ISO/IEC 42001:2023(以下「ISO 42001」)の理解と併用が重要になってきています。
このブログでは、「隠れAI」リスクの実態を整理しつつ、ISMS/ISO 42001の観点から実務的な対策を解説します。


2. 「隠れAI」リスクとは何か:実態と典型例

まず、隠れAIリスクの具体像を整理します。

・無許可・非管理型のAI活用(Shadow AI)

従業員が、企業が公式に承認していない AIツール(チャットボット、生成系AI、翻訳支援AIなど)を利用することで、データ流出やコンプライアンス違反につながるリスクがあります。たとえば、社外のAIサービスに社内情報を入力してしまい、第三者にデータが漏えいした事例があります。
このような“見えない”AI活用は、セキュリティ部門やガバナンス部門が把握できていないためリスクが顕在化しづらく、まさに「隠れ」ています。

・AIそのものがセキュリティの脆弱性に

AIモデルやAI活用システム自体が、従来のセキュリティ設計が想定していなかった脆弱性を持っていることもあります。例えば、アドバーサリアル攻撃(敵対的入力)やプロンプトインジェクションといった手法によって、AIが誤動作・情報露出を起こす可能性があります。 
また、AIシステムがどこで・どのように・誰により運用されているかが可視化されていないと、「AIが何をやっているか分からない」という状態を引き起こし、監査・管理の盲点になります。

・過度なAI依存による人員・プロセスの疎化

AIの導入により「人がやっていた監視・判断工程」が省略された結果、プロセス設計上の安全弁がなくなってしまうリスクも報告されています。自動化されたAI判断に対して人が追いつかず、異常が見過ごされるといったケースです。

これらを総合して捉えると、「隠れAI」リスクとは、①AIの存在・運用が管理体制上可視化されておらず、②従来のセキュリティ・ガバナンス設計が想定していない脆弱性・逸脱が発生し得る、という構造的なリスクと言えます。


3. ISMS(ISO 27001)および ISO 42001 によるリスク管理枠組み

それでは、このようなリスクに対してどのような枠組みで管理すればよいでしょうか。ここで、既存の情報セキュリティマネジメントシステム(ISMS)および新たなAI管理システム(AIMS:AI Management System)としての ISO 42001 の観点から整理します。

3‑1. ISMS(ISO 27001)の役割

ISO/IEC 27001:2022(以下ISO 27001)は、情報の機密性・完全性・可用性(CIAトライアド)を守るための管理システムの国際標準です。
ISO 27001では、リスクの特定・評価・対応および継続的改善が求められます。
「隠れAI」リスクについても、ISMSの枠組みを使って次のように整理できます:

  • 資産の特定:AIツール、AIモデル、AI対応システム、AIを利用するデータ処理フローなど

  • 脅威・脆弱性の特定:無許可AIツールの利用、AIモデルの意図しない挙動、過度な自動化による人力監視の喪失など

  • リスク評価・優先順位付け:どのAIシステムがクリティカルなデータを扱っているか、どのような影響が出るかを評価

  • リスク対応:アクセス制御、監視ログ、AI利用ポリシー整備、無許可ツール禁止など

  • 継続的改善:AI活用状況・運用状況を定期的にレビューし、新しいAIリスクが出ていないかモニタリング

このように、隠れAIのリスク管理においても、ISMSは重要基盤となります。ただし、AI特有のリスク(例えばモデルの偏り・説明性・ライフサイクル管理)には、従来型の情報セキュリティだけでは十分に対応しきれない部分があります。

3‑2. ISO 42001(AI管理システム)の役割

ISO/IEC 42001:2023(以下ISO 42001)は、AIシステムの責任ある開発・提供・利用を統制するための国際標準で、2023年に発行されました。 
主な構成要素には、リーダーシップ、計画、支援、運用、パフォーマンス評価、改善といったPDCAライクな管理サイクルが含まれます。
特に、AIリスク管理、影響評価、サプライヤー管理、監視・説明性・透明性といった項目が注目されており、AI特有のリスクを体系的に管理するための枠組みです。
「隠れAI」リスクをこの枠組みで捉えるなら、以下のようなポイントになります:

  • AIの利用状況可視化:どこで・誰が・どのような目的でAIを使っているかを把握

  • AIリスク評価:AIモデルの誤用、偏り、監視欠如などをリスクとして評価

  • 運用ルール・監査体制:AIツール導入・運用・変更の管理、サプライヤーAIサービスの監督

  • 説明性・透明性の確保:AIが判断に使われている場合、そのプロセス・アウトカムを説明可能にする

  • 継続的モニタリング:AIの運用結果・挙動に対して定期チェック・異常検知

このように、ISO 42001は、従来のISMSだけでは手薄になりがちな「AIに特有の運用リスク」を補完するものと言えます。

3‑3. ISMS と ISO 42001 の統合的運用

組織としては、情報セキュリティ管理(ISMS)を土台としつつ、AI活用が進む中でISO 42001の考え方を導入・統合していくことが理想的です。
具体には:

  • ISMSの資産・脅威リストに「AI関連資産」「AI運用フロー」「AIツール」を加える

  • リスクアセスメントにおいて「AIモデル誤動作」「無許可AI」「AI依存による監視欠如」といったリスクを評価

  • AI活用ポリシー・ガバナンスを策定:誰が許可するか、どのツールを使ってよいか、ログ取得・監査の体制はどうか

  • AI活用のライフサイクル管理を実装:企画/開発/運用/廃棄まで、変更管理・検証・モニタリングを実施

  • 定期レビューと内部監査で、AIツール利用状況・規定遵守状況を確認

このような統合運用により、見えにくい隠れAIリスクを「見える化」し、かつ体系的に管理可能な体制を構築できます。


4. 実務上の対応ステップ:隠れAIリスクを制御するために

では、実務担当者が今日から取り組めるステップを整理します。

ステップ1:AI利用状況の可視化と棚卸

まず、組織内でどの部門がどのようなAIツール・サービスを使っているかをリストアップします(たとえば、社内チャットボット、文書自動生成ツール、翻訳AI、分析AIなど)。この中で「承認外」「把握していない」利用がないかをチェック。
この段階で、無許可AI利用(Shadow AI)が隠れAIリスクの入口となっていることが多いです。

ステップ2:AI関連リスクの特定・評価

可視化した利用状況に基づき、以下のような観点でリスクアセスメントを行います:

  • 機密データ・個人情報がAIに入力されていないか

  • AIモデルのアウトプットが誤っていたり、説明不能な判断を生んでいないか

  • AIツールの変更管理・バージョン管理・アクセス管理が適切か

  • 人が介在すべき監視・判断工程が省略されてしまっていないか

  • サプライヤーAIサービス(外部ベンダー)はガバナンスされているか

このように、AI特有の運用・管理リスクを、ISMSのリスク評価プロセスに落とし込みます。

ステップ3:ガバナンス・ポリシー整備

AI利用のルールを明文化しましょう。具体的には:

  • 承認済みAIツール一覧/禁止ツールリスト

  • AI導入・変更時のワークフロー(評価・承認・監査)

  • 入力データ・アウトプット結果の保存・ログ取得ポリシー

  • AIモデルの説明責任/アウトカム評価ルール

  • 無許可利用(Shadow AI)発見時の対応フロー

これらを設定し、従業員への周知・教育を実施することが重要です。

ステップ4:技術的コントロール・運用モニタリング

ガバナンス・ポリシーだけでなく、以下のような技術・運用対策も検討してください:

  • AIツール使用時のアクセス制御・ログ記録

  • AIモデルの変更履歴・バージョン管理

  • AI判断プロセスへの監査・説明可能性(Explainable AI)確保

  • 無許可ツール検知(シャドウIT対策)

  • 定期的なAI挙動レビュー/異常値検知

ステップ5:継続的改善・レビュー

AI活用の状況や新たなリスクは刻一刻と変化します。ISO 42001/ISO 27001双方において「チェック・改善(PDCA)」が求められます。
定期的にレビュー会議を設け、AI利用状況、監査結果、インシデント発生状況をチェックし、ポリシー・運用・技術をアップデートしましょう。


5. 終わりに:見えないAIを「見える」状態へ

「隠れAI」リスクは、AIそのものの進化速度と、それに追いつかない管理体制・ガバナンス設計のズレによって生まれます。既存の情報セキュリティ管理だけでは見落とされやすく、思わぬデータ漏えいや非準拠運用の温床となる可能性があります。
しかし、今回紹介したように、ISMS(ISO 27001)を土台にしつつ、AI管理の枠組み(ISO 42001)を導入・活用することで、隠れAIリスクを体系的・実務的に制御する道が開けています。

組織として、まずは「AIがどこで・誰が・何をしているか」を“見える化”し、次にその活動をリスク評価・ガバナンス・運用モニタリングの枠内に置くこと。これは、今後ますますAI活用が進む中で、情報セキュリティと信頼性を両立させるための必須工程です。
ぜひ、自社のAI活用状況を棚卸し、隠れリスクの可視化・管理体制の強化に着手されることをおすすめします。

CONTACT お問い合わせ

お電話、お問い合せフォームから随時ご相談を受け付けております。
事前のご予約で、夜間・土日祝日でも対応可能です。

\ 事前のご予約で、夜間・休日も対応可能 /

06-6355-4788

営業時間:9:30~19:00定休日:日曜日