AI のためのセキュリティ: AI 利用規定の施行に関する実践ガイド
AI 利用規定の設定により、従業員が公開された AI ツールに誤って機密データを露出させるリスクを軽減しやすくなります。組織の規定を Tenable のベストプラクティスに照らしてベンチマーキングを行い、Tenable AI Exposure によるプロンプトレベルの可視化を行うことで、規定の適用がどれだけ容易になるのかを解説します。
キーポイント
- AI 利用規定は、従業員を対象に、生成 AI ツールの適切な使用を規定するものです。 従業員が使用できるツールと使用できないツールを具体的に定義し、安全で責任ある倫理的な AI 利用のためのガイドラインを提供します。
- AI 利用規定には、データの分類、承認されたツール、利用ガイドライン、説明責任に関するルールを含める必要があります。
- Tenable One サイバーエクスポージャー管理プラットフォームの一部である Tenable AI Exposure は、組織全体におけるすべての生成 AI の使用状況の検出、外部に露呈しているデータの詳細な可視化、規定の施行のための機能を含む、AI 利用規定を適用するためのツールをセキュリティリーダーに提供します。
Open AI が 2022 年 11 月に ChatGPT をリリースしたことは、衝撃的なニュースとなりました。 GPT 3.5 の大規模言語モデル (LLM) を基盤として構築された ChatGPT は、UBS によると、60 日間で 1 億人の月額利用ユーザーを獲得し、瞬く間に、かつてない速さで成長する消費者向け製品となりました。 一方で、同時期にこの画期的なテクノロジーのリスクも明らかになりました。
2023 年初めに、エレクトロニクス企業の 2 人の従業員が ChatGPT を使用して機密のソースコードを共有したところ、そのソースコードは気づかないうちに事実上、LLM のトレーニングデータの一部となってしまいました。 メディアで大きく報道されたこのインシデントによって、多くの組織が公開 AI ツールの使用を禁止しました。 これは稀なインシデントではありません。 メルボルン大学が 2025 年初めに実施した世界的な調査では、従業員の 48% が機密情報を公共の生成 AI ツールにアップロードしたことがあり、44% が企業の AI ポリシーに故意に違反したことがあると示されています。
これらすべてから浮き彫りになったのは、組織が明確かつ強固な AI 利用規定を策定し、導入することが急務であるということです。
AI 利用規定 (AUP) とは何か
AI 利用規定は、組織内で AI テクノロジーを正しく、倫理的かつ合法的に使用するためのガイドラインを示すものです。 IT チームのシニアメンバーが主導し、組織全体からステークホルダーを参画させた AI ガバナンス評議会が、この規定を管理する必要があります。
AI 利用規定には、以下を含める必要があります。
- 承認されたツールのリスト (全社的な使用が承認されたツール、および特定の事業部門に対して承認されたツールを含む)
- 共有できるデータとできないデータの種類
- データの取り扱いを規定するルール
- AI を使用したコンテンツ生成のガイドライン
- 規定違反に対する結果
AI 利用規定の作成に関するガイダンスについては、以下の動画をご覧ください。

AI 利用規定は、従業員ができることとできないことを明確に定義することで、データエクスポージャーや知的財産損失のリスクを管理できるようにするものです。 また、一般データ保護規則 (GDPR) やカリフォルニア州消費者プライバシー法 (CCPA) などの規制要件によるデータ取り扱い規定の遵守を維持するのにも役立ちます。
よく練られた AI 利用規定は、従業員が業務用デバイスを使用する場合でも個人用デバイスを使用する場合でも、煩わしいルールブックとして機能するのではなく、リスクを抑えながら AI の利点を活用できるようにするものでなければなりません。
オンデマンドウェビナー「Securing the Future of AI in Your Enterprise (企業の AI の未来を保護する)」を視聴し、AI 利用規定ガイドの概要資料をダウンロードしてください
AI 利用規定の中核的要素
AI の利用を規定するためのガイドが必要であることはご存知かと思いますが、 それには何を含めるべきでしょうか。 当社は、まさにこの問題と格闘してきたお客様との多くの会話に基づき、AI 利用規定に以下の中核的な要素を含めることを、AI ガバナンス評議会に対して推奨します。
- データの分類: これは、AI ツールでどのデータの使用を許可し、どのデータの使用を禁止するかに関するものです。 顧客の個人を特定できる情報 (PII)、ソースコード、財務記録、M&A 戦略文書など、従業員が AI で使用できないものを規定に明記する必要があります。 御社のニーズはおそらく固有のものであるため、これについては詳細に説明する必要があります。しかし、従業員がしてはいけないタスクだけはなく、実行可能なタスクの種類も伝える必要があります。
- 承認されたツール: 従業員に、承認された AI アプリケーションの完全なリストを提供します (たとえば、多くの場合 Grammarly、ChatGPT Enterprise、Zoom AI などのツールは承認されていますが、米国のいくつかの州や政府機関によって禁止されている DeepSeek は大抵承認されていません)。 承認されたツールについては、それぞれの使用例を従業員に伝え、社内またはベンダーが提供するトレーニング動画を添付します。 あるツールはコーディングに、別のツールは画像作成に適しているかもしれません。 その際、承認されていないツールの使用は許可されないことを規定に明記します。 さらに、従業員が AI ツールの承認を申請するための仕組みを提供します。
- 使用ガイドライン: 適切なビジネスユースケース (マーケティングコピーの下書きは良い例かもしれません) と不適切なユースケース (機密性の高い会議メモの要約はおそらくやめた方がよい) を、明確に定義する必要があります。
- 説明責任: ポリシー違反があった場合はどうなるのか、 その結果を具体的に説明します。 違反があった場合の対処法はいくつかありますが、 当社は段階的なアプローチを提案します。
- たとえば、最初の違反の場合は、ユーザーに穏やかな警告を与え、組織の AI 利用規程を参照させます。 また、そのツールの正当性の説明を求め、AI ガバナンス評議会に確認の依頼を提出するプロセスを伝えます。 ツールの正当性が明確であれば、そのツールが (予算とセキュリティの評価も含めて) 承認プロセスを通過する見込みだということをユーザーに知らせます。 その後、評議会は規定を更新し、ユーザーに通知します。
- 2 回目の違反の場合は、そのユーザー (および他の従業員) によるそのツールへのアクセスをブロックする必要があります。
- 3 回目の違反があった場合は、再度試みるかどうかを監視し、従業員の上司に知らせる必要があります。 その従業員には、許可された範囲で AI ツールを利用するためのトレーニングや意識向上のためのリソースを提供します。
ベストプラクティスに照らした AI 利用規定のベンチマーキング
自組織の AI 利用規定が以下の要素を網羅していることをご確認ください。
| AI ツールの使用 | 承認されたツールと禁止されているツールの一覧をすぐに利用できるようにしておきます。 組織に承認を検討してほしいツールの申請を提出するための仕組みを従業員に提供します。 |
| 倫理原則 | 説明責任、透明性、公平性、安全性、プライバシー、セキュリティに関する組織の見解を概説します。 |
| AI 使用の要件 | AI の使用について、許可 (使用制限なし) 、禁止 (使用禁止) 、制限付き (使用には承認が必要) の 3 つの分類を明確に示します。 |
| 従業員の責任 | 正確性や偏りのチェック、コードの適切なラベル付けなどを含めた、AI を使用する際の従業員の責任を明確にします。 とりわけ、組織が AI の違法または非倫理的な使用 (偽情報、操作、差別、中傷、プライバシーの侵害など) を容認しないことを従業員に明示します。 |
| データプライバシーとセキュリティ | 組織内でのいかなる AI のユースケースにおいても、プライバシーの権利を尊重し、データのセキュリティを保護するガイドラインを作成します。 |
| トレーニングと意識向上 | リスクに関するトレーニングへのコミットメントを強調する情報と、承認されていない AI ツールの使用を許可しない理由を記載します。その理由には、データエクスポージャー、プライバシー、第三者による追跡、セキュリティに関する懸念 (侵害されやすい脆弱な AI ツールや安全でない AI ツール、AI ツールを使って組織内での足掛かりを得る可能性のある、悪意のある攻撃者など) が含まれます。 すべての従業員が、利用可能なトレーニングリソースを確認して把握するようにします。 |
出典: Tenable、2025 年 10 月
AI 利用規定の適用方法
リスクを理解し、利用規定を定め、従業員に周知したら、次にすべきことは、 規程の適用です。 これは難しいことかもしれません。 しかし、このステップを正しく踏むことは重要なので、当社がご案内します。
規定を確実に機能させるための 2 つの鍵を以下に示します。
- 継続的なトレーニング: 現実のリスクに焦点を当てながら、規定の背景にある理由について従業員を教育します。 従業員がソースコードや会議の記録、その他の機密情報を、自分の行動の結果を自覚せず公開 AI ツールと共有している例は多数ありますが、この記事は誰かを責めることを目的としていないので、ここでは列挙しません。
- 先行的なモニタリングと可視化: これは、技術面の中核要素です。 目に見えない規定を適用することはできません。 単にアプリをブロックするだけでなく、従業員が何をしているのかや、彼らが使用している AI プラットフォームおよび AI エージェントについてきめ細かく可視化できるよう、迅速な対応を行う必要があります。 また、インプット (プロンプト)、オペレーション (プロンプトの結果として AI ツールが行うこと)、およびアウトプット (AI ツールが生み出す結果) におけるリスクを判断するために、従業員がアクセスするサードパーティツールや AI ワークフロー (審査済みと未審査の両方) を把握する必要があります。 誰かがポリシーに違反しているかどうかを把握するには、これらすべてを知れる状態でなければなりません。従業員は Python についての助けを求めている可能性も、自社独自のアルゴリズムをコピー & ペーストしている可能性もあります。 このレベルの可視性がなければ、これらの違いを見分けることはできません。
強制力のない AI 利用規定は、単なる文書にすぎません。 組織のセキュリティを真に確保するためには、明確に表現された規定を、事前対策型のエクスポージャー管理システムと組み合わせて、これらの強力な新ツールがどのように使用されているかを完全に可視化する必要があります。
Tenable AI Exposure は、組織の AI 利用規定のコンプライアンス監視にどのように役立つか
組織のリスクを管理するためには、AI を保護しなければなりません。 さらに、従業員が AI をどのように使用しているかを把握する必要があります。では、そのすべてを管理するために必要な可視性、文脈、制御は、どのようにして得られるのでしょうか。また、AI の利用を管理し、規定を適用し、エクスポージャーを防ぐためにはどうすればよいのでしょうか。
Tenable AI Exposure は、こうした課題に直接対応します。 そして、機密情報を保護し、利用規定を適用するために不可欠な、以下の機能を提供します。
- 検出: 検出を行わなければ見つからずにいた可能性のあるシャドー AI インスタンスを含む、すべての生成 AI の使用状況を、組織全体にわたって包括的に特定します。 これにより、意図的か否かにかかわらず、 AI がどこで利用されているかを完全に把握することができます。
- 徹底的な可視化: 従業員が生成 AI ツールと対話する際に、どのデータが外部にさらされているのかを正確に明らかにするために、極めて重要なプロンプトレベルの分析を行います。 この詳細なインサイトによって、組織は共有されている情報の性質を理解し、潜在的なリスクを特定することができます。
- 適用: 組織の利用規定を効果的に適用し、機密情報を保護するために必要なデータを提供します。 Tenable AI Exposure は、実用的なインテリジェンスを提供することで、セキュリティチームがガバナンスのルールを導入して遵守し、データの漏えいや悪用を防止できるよう支援します。
これらの機能を使用すれば、事前対策型のアプローチで企業内の生成 AI の複雑性を管理できます。 その結果として、組織は強固な AI セキュリティとコンプライアンス基準を維持しながら、イノベーションを採用することができます。
Tenable One のお客様で、Tenable AI Exposure の限定プライベートプレビューにご興味のある方は、Tenable AI Exposure ページのショートフォームにご記入いただければ、 すぐに当社よりお返事いたします。 こちらは、Tenable One をご利用のお客様のみを対象としております。
IT/OT環境の産業セキュリティについてもっと詳しく
- オンデマンドウェビナー: Securing the Future of AI in Your Enterprise (企業における AI の未来を保護する)
- ガイド「AI 利用規定」を読む
- Exposure Management