シャドー AI とは?
公開日|2025 年 12 月 12 日
リスクとガバナンス戦略
シャドー AI は、従業員が日常業務の一環として無許可で人工知能ツールを使用することで現れます。AI リソースの活用は生産性の向上に貢献しますが、潜在的なデータ漏洩やコンプライアンスリスクに組織をさらすことにもなるため、単に禁止するのではなく、ガバナンスを適用する必要があります。
シャドー AI の要点
- ユーザーが機密性の高い知的財産(IP)や個人を特定できる情報(PII)を公開 AI モデルに貼り付けると、組織は即座にデータ漏えいのリスクに直面します。
- AI ツールの使用禁止が機能することはほとんどない。 セキュリティリーダーは、AI の安全な利用を可能にするブローカーとして行動することで成功する。
- 組織はガバナンスへの第一歩として可視性を確立し、Tenable AI Exposure のようなツールを使用して AI 用の標準セキュリティを導入する必要があります。
AI の可視性のギャップ: 誰が AI を使っているのかが常に見えない理由
シャドー AI は、従業員が許可されていない人工知能ツールを使用して仕事をする場合に生じます。例えば、スタッフが大規模言語モデル(LLM)のような生成型 AI アプリケーションを使用して、IT チームの承認を得ずにコンテンツの下書き、画像の生成、コードの記述、データの分析を行う場合などです。
シャドー AI のコンセプトは従来のシャドー IT(未承認のソフトウェアやハードウェアの使用)を反映したものですが、シャドー AI はサイバーリスクを加速させます。 シャドー AI は、極端に強化されたシャドー IT だと捉えればよいでしょう。
従来のシャドー IT は、インストールや調達が必要な場合が多く、それが問題として浮上することがあります。AI ツールは、対照的に、ユーザーがブラウザベースで無料で即座にアクセスすることができます。アクセスが迅速かつ容易なため、セキュリティチームが検知する前に、AI 導入が口コミで従業員全体に広まることがあります。
データフローはシャドー AI とシャドー IT の大きな違いです。従来のリスクは通常、未承認のソフトウェアが脆弱性の中心であったのに対し、シャドー AI はユーザーが入力するデータが要因となってリスクとなります。
従業員が独自のコード、機密性の高い顧客情報、社内戦略文書を公開 AI モデルに貼り付けると、データ制御が不能になります。張り付けられたデータは、AI のモデルの学習に使われ、より良い結果を生み出すことになりますが、同時に組織をデータ漏洩の危険にさらすことにもなります。AI は入力したデータを学習し、その後、組織外部からのクエリに応じて、組織の知的財産そのものを開示するかもしれません。
AI ツールを機能とリスクで分類することがベストプラクティスになります。
- 認可された AI は一般的にリスクが低い。 ChatGPT Enterprise のエンタープライズマネージドインスタンスは、データ保持とプライバシー設定をコントローラーでコントロールできます。
- シャドー AI のリスクはさまざまな程度から高リスクまで。 管理されていない AI ツールは、データを組織の環境外に出していまいます。ChatGPT の無料版のように評判の良いものもありますが、 DeepSeek のように、より不明瞭で、透明性や強固なセキュリティのコントロールに欠けるものもあります。
- AI エージェントと自律型AIツールは重大なリスク。 通常は質問に答えるだけの基本的なチャットボットとは異なり、エージェントや自律型ツールは人間の監視なしにタスクをこなすことができるからです。
シャドー AI セキュリティをサイバーエクスポージャー管理戦略に組み込む方法をご覧ください。AI のためのセキュリティと セキュリティのための AI
データ漏洩
シャドー AI は、知的財産とコンプライアンスに直接的なリスクをもたらします。 従来のソフトウェアの脆弱性は通常、攻撃者がエクスプロイトするのに時間がかかりますが、生成 AI のセキュリティ障害は、従業員がキーボードの「Enter」を押すとすぐに発生する可能性があります。
最大の懸念はデータ漏洩。
社内で生成された独自のコードや財務予測、機密性の高い顧客情報を公開 AI チャットボットに貼り付けることは、本質的にその情報をモデル提供者に引き渡すことになります。
残念なことに、ほとんどの公開利用規約は、これらの AI ベンダーがモデルのトレーニングに入力を使用することを認めているのです。つまり、企業秘密が、この先、競合他社の問合せの回答になってしまう可能性があるということです。
組織が管理されていないモデルに依存している場合、シャドー AI には有害または非倫理的なAIの結果をもたらすリスクもあり、風評被害や業務上の失敗に繋がる可能性があります。
監視されていない消費者ツールへの依存は、データ損失だけでなく、AI 機能の成果の品質と信頼性を損ない、中核的な事業運営に影響を与える可能性があります。
自律型 AI エージェント
自律型 AI エージェントは、新たな種類の隠れたリスクでもあります。
CIO.com が指摘しているように、「隠れたエージェント」は単なるチャットボットではありません。 監督なしで複雑なタスクを行うことができるのです。 こうした AI ツールは、従来のサイバーセキュリティガバナンスを完全に迂回することが多いのです。
認可された AI を迂回した作業には、組織の監視が届きません。 1Password の「Access-Trust Gap」レポートによると、従業員の 33% が AI のポリシーに必ずしも従っていないことを認めています。
こうした監視されていないデータの流れは、インシデント対応を麻痺させて不能にします。データ流出を軽減することも、目に見えないデータ漏洩に対する規制コンプライアンスを満たすこともできません。
シャドー AI の一般的な例
シャドー AI を効果的にガバナンスするためには、シャドー AI がどこに隠れているかを把握する必要があります。把握していなければ、事業のあらゆる機能に現れる可能性があります。 より速く仕事をしたいという従業員の願望が、AI 利用を促進する一般的な理由です。
- ソフトウェア開発エンジニアは、エラーをデバッグしたりドキュメントを生成したりするために、独自のコード ブロックを LLM に貼り付けることがよくあります。 サムスンの従業員が誤って機密性の高い独自コードを漏洩した事件が広く報道されましたが、 公開 AI アシスタントにアップロードしたことが発端でした。また、開発者は独自のオープンソース AI モデルをホストするために、許可されていないクラウドインスタンスを立ち上げることも多く、これにより管理されていないインフラスの脆弱性が生じます。
- マーケティングチームや営業チームは、電子メールの下書きや見込顧客の分析にAIを使うことがよくあります。顧客リストや売上高を含むスプレッドシートを公開ツールにアップロードしてサマリーを作成し、うっかり AI モデル提供者に個人情報や財務データを公開してしまう可能性があります。
法務部や人事部のようなリスク意識の高い部署でさえ、こうした間違いを犯す可能性があるのです。リーガルアソシエイトが複雑な条項を要約するために機密契約をアップロードしたり、人事マネージャーがフィードバックを作成するために業績評価を貼り付けたりする場合が考えられます。どちらの場合も、機密性の高い内部データがパブリックドメインに開示されます。
AI ガバナンス vs. AI の禁止: ブローカーアプローチ
組織の経営幹部は、生成 AI を完全に禁止したくなるかもしれません。 簡単な選択肢のように見えますが、それは実行してはいけないことです。
厳しい AI 禁止令が機能することはめったにありません。禁止しても、AI を目に見えないところに追いやるだけです。 AI によって生産性が上がると信じている従業員は、回避策を見つけるでしょう。 彼らは個人所有のデバイスやネットワーク外の VPN を使用するため、組織側には隠されて利用が継続できます。
何もかも禁止する代わりに、「AI のブローカー」となることを検討してください。つまり、データの安全を守るために必要なガードレールを確立し、同時に事業に必要なAIツールへのアクセスを許可するのです。どのツールがセキュリティ標準に適合しているかを検証し、使用できる経路を認可するのです。
明確なAI利用ポリシーから始めましょう。 AI の利用ルールは、どの種類のデータが安全に AI 利用できて、どれが利用禁止かを明確にする必要があります。
機能的に使用できなくするのではなく、ルールを明確にすることで、信頼を築き、ユーザーが、目に見える監視された環境内で利用することを促します。
AI ガバナンスをどのように開始すればよいかお困りですか? AI 利用ポリシーとは?
シャドー AI の脅威から組織を守る 5 つのステップ
データを保護しながら AI イノベーションを可能にするには、継続的な 5 段階の AI ガバナンスフレームワークが必要です。 Tenable は、このガバナンスの基盤となるのが可視性であると考えます。IT、クラウド、アイデンティティ、OT、AI、その他のアタックサーフェスを一元的に可視化することによってのみ、リスクを効果的に低減することができます。
1. AI エクスポージャーを検出
可視化は、シャドー AI リスクに対する基礎的な防御です。 許可されたエンタープライズインスタンスから、従業員のブラウザで実行されている許可されていないパブリックアプリまで、環境全体で使用されているすべての AI ツールを特定する必要があります。
多くの組織がデータ損失防止(DLP)、クラウドアクセスセキュリティブローカー(CASB)、エンドポイント検知・対応(EDR)、クラウドネイティブセキュリティコントロールなどの従来のツールに依存していますが、これらは往々にして不十分です。それらには、AI モデルや独自のAIデータの流れを理解するための具体的な文脈がありません。
今まで見逃していたシャドー AI の使用は、AI 用に構築された自動ディスカバリ機能でなければ検出できません。
AI Aware は、エンドポイントやネットワーク上のアプリを明らかにすることで、AI の使用状況を把握するのに役立ちます。
AI-SPM 機能により、ビルド環境内の AI をインベントリ化し、シャドー AI 開発を本番前に発見することができます。 このワークフローを保護するために Tenable AI Exposure を使用して、デプロイメント前にリスクを検証し、ランタイムでエクスポージャを継続的に監視します。
2. AI リスクの評価
AI ツールが検出されたら、すぐに評価して、 各アプリケーションの利用規約を確認します。
- AI ベンダーは、入力されたデータの所有権を保持しているか
- 公共の AI モデルのトレーニングに、入力したデータは使用されているか
- データはどの地域で保管されているか(例えば EU や中国)
- AI ベンダーはどのような業界のコンプライアンスに準拠しているか
そして、確認できた内容に基づいて、各ツールを「安全」、「制限」、「禁止」に分類します。
Tenable AI Exposure は、これらのシャドー AI エージェントを継続的に監視し、それらがどのように動作し、どのような AI リスクをもたらすかを正確に示します。
3. ポリシー施行によるバナンス
利用ルールを決定したら、明確な AI ガバナンスポリシーを制定します。誰が AI を使用できるのか、どの AI ツールを使用できるのか、どのようなデータを入力できるのかを正確に定義する必要があります。
また、AI が安全で、期待されるビジネス価値を提供するものであることを取締役会と最高経営責任者(CEO)に対してを検証するために、明確な説明責任指標を設定する必要があります。 手始めに、AI ガバナンス戦略を NIST AI リスク管理フレームワークと整合させましょう。
さらに、ROI を証明するために、リスク削減以外のビジネスへの影響も含めた評価指標を設定します。例えば、認可された AI ツールと認可されていない AI ツールの導入率を記録したり、ユーザーを安全なエンタープライズグレードの AI モデルに移行することで得られる業務効率を見積もったりします。
4. 従業員の教育
ポリシーはトレーニングなしでは何の意味もありません。 なぜこのような AI 利用のガードレールが存在するのかを従業員に教えましょう。 AI ツールがもたらすデータ漏洩の具体的なリスクを説明し、単に恣意的なルールを強制しているのではなく、企業秘密を守る目的であることを理解してもらいます。
5. AIの使用を継続的に監視・監査する
AI と取り囲む環境は日々変化しています。 新しいツールが登場し、安全なツールは利用規約を変更するので、不正ツールを検出するために、継続的な監査プロセスを維持する必要があります。ISACA が強調しているように、こうした未承認の AIツールを監査することは、AIが急速な導入されている状況で企業がコンプライアンスを維持するのに欠かせません。
最終的に、生成 AI は計り知れない価値を提供できますが、その導入には安全を確保して思慮深く実行する必要があります。シャドー AI の利用が隠れたエクスポージャーを生み出さないようにしてください。明確な可視性とガバナンスを確立すれば、従業員は、データを AI のパブリックドメインに明け渡さずに活発なイノベーションに取り組むことができます。
AI エコシステムを確認し、保護し、管理するTenable AI Exposure
その他のリソースと次のステップ
シャドー AI に関するよくある質問
AI が登場し、導入が進むにつれて、同じペースで多くの質問が寄せられるようになりました。よくあるご質問を以下にまとめました。
シャドー AI とシャドー IT の違いとは?
シャドー IT とは、無許可の AI ソフトウェアやハードウェアのことです。シャドー AI は、シャドー IT の特定のサブセットで、人工知能ツールを含むものです。 それぞれのリスクプロファイルに重要な違いがあります。シャドー IT はインフラを危険にさらしますが、シャドー AI は主にそこにユーザーが入力するデータを危険にさらします。
ChatGPT はシャドー AI と見なされますか?
ChatGPT が承認 AI リストにあれば、それは承認された AI であり、そうでなければシャドー AI です。
シャドー AI の利用を検知するには?
シャドー AI の利用は、手作業による検出に頼って行うことはできません。Tenable One Exposure Managementは、AI Aware、AI-SPM、Tenable AI Exposure のデータを統合し、エンドポイント、ネットワーク、クラウド、アイデンティティからの AI エクスポージャを表面化します。
Tenable One サイバーエクスポージャー管理プラットフォームは、AI アプリケーションの完全な可視性を実現し、AI への露出ギャップを埋めます。
シャドー AI のリソース
シャドー AI 製品
役立つサイバーセキュリティ関連のニュース
- Tenable AI Exposure
- Tenable One