AI 利用規定 (AUP) とは?
| 2025 年 10 月 29 日更新 |
承認されていない AI から組織を保護
AI 利用規定とは、従業員による生成 AI ツールやエージェントの利用を管理し、その指針を示す極めて重要なルールです。組織のイノベーションの促進と機微データの保護のバランスを保つ役割りを果たします。
キーポイント
- AI 利用規約は、管理されていない「シャドー」AI ツールによって生じるサイバー空間に露呈されたリスクを管理するための鍵となります。
- 規定の主要な要素として、対象範囲、データの取り扱いに関する明確なルール、承認済みツールの厳選されたリストが含まれている必要があります。
- 強固な規定を作成するには、OWASP Top 10 for Large Language Model (LLM) Applications や OWASP Agentic AI Governance のようなフレームワークの AI のセキュリティ原則を統合することがきわめて重要です。
- 明確なガバナンスプロセスによって新しい AI ツールを審査して承認することにより、将来のセキュリティギャップを防ぐことができます。
すべての組織に今すぐ AI 利用規定が必要な理由
AI 利用規定 (AI AUP) は、生成 AI (人工知能) ツールや生成 AI サービスの従業員による利用方法を定義する、公式のルールです。
創造性や効率を高めるために ChatGPT などの AI プラットフォームの利用を検討する段階で、意図せずに新たなリスクが生じることもあります。明確なガイドラインがなければ、従業員は機微性の高い知的財産や顧客データ、社内の認証情報などを公開された AI モデルに入力し、その結果、組織にとって重大なサイバーエクスポージャーが生じる可能性もあります。
AI 利用に関する効果的な規定は、組織が安全にイノベーションを推進するためのガードレールとなり、 業務上の注意事項を明確に定めて企業の資産を保護し、新しいテクノロジーを審査するための正式なプロセスを策定します。 AI 利用規定には、許可される利用方法と禁止される利用方法が定義され、データ処理に関するセーフガード要件、誰がどのツールにアクセスできるのか、新しい AI テクノロジーの承認とオンボーディングのプロセスの概要が明記されます。
強力な AI 利用規定は、サイバーセキュリティ戦略全体の基盤となり、 企業全体の AI を保護するための第一歩とも言えます。
Tenable One サイバーエクスポージャー管理プラットフォームがどのように AI のすべてのエクスポージャーとリスクの管理に役立つのかをご覧ください。
生成 AI の規定に不可欠な 5 つの要素
強力な AI 利用規定は、明確かつ包括的で誰もが理解しやすく、 曖昧だったものを従業員と組織を守る明確なルールに置き換えます。 特定の業界や許容できるリスクの範囲に合わせて調整することは可能ですが、以下に示す 5 つの要素は、生成 AI の利用規約の作成に必要不可欠な土台です。
1.範囲と役割
まず、規定が誰と何を対象とするのかを定義します。 規定には、ルールを守らなければならない従業員、部門、ビジネス環境を明確に記載する必要があります。 また、責任の所在を明確にし、従業員、管理者、AI ガバナンスチーム (CIO、法務、情報セキュリティなど) の義務の概要をまとめて説明責任を確保します。 範囲と役割の明確化は、従業員向け AI 規定に必ず必要となる重要な部分です。
2. 承認済みのツールと禁止されているユースケース
セキュリティチームと法務チームによって審査された、承認済みの AI ツールとエージェントの厳選されたリストを管理する必要があります。 このセクションには、承認されていない AI プラットフォームの利用、あるいは違法行為、非倫理的行為、または社内基準に反する行為のための AI の利用など、禁止されている行為の具体例も含める必要があります。
3. データの取り扱いとプライバシーに関するルール
データの取り扱いとプライバシーに関するルールは、AI AUP の最も重要な構成要素の 1 つです。 PII (個人情報)、PHI (保護対象の医療情報)、知的財産、ソースコード、企業の財務データなど、従業員が公開された AI ツールに入力してはならないデータの種類を明確に定義する必要があります。 データのマスキング技術や匿名化技術をいつ、どのように使用するかについての明確なガイダンスを示します。
4. ガバナンスと変更のプロセス
従業員の AI 利用に関する規定は、AI テクノロジーと同じ速度で進化する必要があります。 このセクションでは、従業員が新しい AI ツールの審査と承認を申請する手順を詳述します。 また、データセキュリティプロトコル、プライバシー規定、ベンダーの安定性、データレジデンシーなど、ガバナンス担当者がツールを承認または却下する際の判断基準についても概説する必要があります。
新しい AI ツールの主な審査基準
- セキュリティプロトコル
- ベンダーのセキュリティ態勢を審査します。
- SOC 2 のような認証を取得しているか。
- 転送中や保管中のデータをどのように暗号化するのか。
- 脆弱性管理とインシデント対応のプロセスはどうなっているのか。
- データプライバシー規定
- ベンダーがデータをどのように扱うのかを理解します。
- HIPAA や PCI DSS などの、ビジネスに関連する規制の準拠への対応方法が規定に明記されているか。
- 重要なポイントとして、そのベンダーは顧客からのプロンプトや入力を、モデルのトレーニングに使用しているか。
- オプトアウトは可能か。
- ベンダーのデータ保持規定はどのようなものか。
- ベンダーの安定性
- AI 市場は不安定であるため、 審査されていない新しい AI ツールの利用におけるビジネスリスクを担当チームに尋ねます。
- 重要なワークフローに組み込む前に、ベンダーの資金、市場での評判、長期的な存続可能性について検討します。
- データレジデンシー
- ベンダーがデータの保存と処理を行う地理的な場所を把握します。これは、GDPR や CCPA のような規制を遵守するうえで不可欠です。
- ベンダーのデータセンターがコンプライアンス要件を満たす地域にあることを確認します。
5. 安全な利用
最後に、AI 利用規定は安全な AI 利用の基本方針に重点を置き、リスクのあるプロンプトではなく、日常の実践的な用例への橋渡しを行うものである必要があります。 従業員は AI が生成したコンテンツが正確であることを常に確認する必要があり、各チームメンバーは最終的に自分の仕事に責任を持つという、中核的なメッセージが強化されます。
安全な利用の実践: 事例とシナリオ
どのような規定でも、従業員が日常業務に適用できなければ効果を発揮することはできません。ルールを明確にするために、安全な AI プロンプト作成と安全でない AI プロンプト作成を説明した具体例を示します。 そうすることにより、「企業のデータを保護する」といった抽象的な原則が、組織全体でさまざまな役割を担う人たちを対象とした実用的なガイダンスになります。
AI の利用に関する注意事項の簡単なチェックリスト
従業員教育や社内コミュニケーションの出発点として、次のチェックリストをご活用ください。
- AI が生成したコンテンツを使用する前に、その正確性を確認する
- 業務に関連する作業には必ず、企業が審査した承認済みの AI ツールを利用する
- 可能な限りプロンプトで使用するビジネスデータを匿名化する
- 公開された AI ツールに顧客の PII、従業員データ、機密性の高い企業の知的財産を入力しない
- AI を利用して、嫌がらせや差別にあたる、または企業の規定に違反するコンテンツを作成しない
- AI が生成したコンテンツを、適切な審査や修正を行わずに原著作物として提示しない
役割ベースの例: 安全なプロンプトと安全でないプロンプト
AI ツールの選択とプロンプトの安全性
以下の例は、公開された AI ツールや汎用 AI ツール向けの安全なプロンプトの記述方法を示しています。 ただし、機微性の高いデータ (ソースコード、非公開の財務情報、PII など) に関しては、プロンプトの安全性だけでなく、データエクスポージャーのリスクを解消することが最も重要になります。
従業員は、絶対に公開された AI ツールに独占所有権のあるデータを入力してはなりません。
この種のデータに関しては、企業が承認した安全なソリューションを使用する必要があります。 内部 LLM (セルフホストモデルなど) やセキュアなエンタープライズプラットフォーム (ChatGPT Enterprise など) のような、トレーニングに入力データを使用しないことが明示的に保証されているもの、組織のインスタンス以外からアクセスできないものが例として挙げられます。
- マーケティングのシナリオ
- 安全でないプロンプト: 「ここに添付した当社の第 3 四半期の顧客上位 100 社のメールアドレスと売上データのリストを分析して、新しいマーケティングキャンペーンのアイデアを見つけてください」
- 安全なプロンプト: 「当社は、金融サービス業界の IT 管理者にサイバーセキュリティソフトウェアを販売しています。 公開されている情報に基づいて、このようなオーディエンスに訴えるマーケティングキャンペーンのアイデアを 3 つ提案してください」
- 人事のシナリオ
- 安全でないプロンプト: 「ここに添付した Jane Doe の履歴書と職務評価データを見て、同じような職務の職務記述書を作成してください」
- 安全なプロンプト: 「シニアソフトウェアエンジニアの職務記述書を作成してください。 この職務では、5 年間の Java の経験、クラウドセキュリティの知識、高いコミュニケーションスキルが求められます。 リモート勤務の求人です」
AI 向けセキュリティを規定に組み込む
AI の包括的な利用規定は利用者の行動にかかわるものですが、それは考慮すべき事柄の半分にすぎません。
AI 利用規定は、より広範な AI セキュリティ戦略、すなわち AI モデルや AI インフラ自体を保護するために使用する技術的な手段と関連付ける必要もあります。
このアプローチには、人的リスクと技術的リスクを総合的に管理できる利点があります。 規定の要素に技術的なセキュリティ基準を盛り込むことによって、AI を安全に導入するための共通目標を明確にして、組織全体の足並みを揃えることができます。
AI セキュリティの最大リスクの対処
AI 利用規定では、AI システムに内在する根本的な技術的脆弱性を認識する必要があります。
OWASP Top 10 for LLMs は、現存する脅威を理解するための優れたフレームワークです。 しかし、AI が単純なモデルから自律的な「エージェント型」システム (AI エージェント) へと進化するのに伴って、新しい OWASP Agentic AI Security プロジェクトが将来のリスクの重要な基準になりつつあります。
プロンプトインジェクション、データ漏洩、安全でない出力処理などのリスクは、従業員がルールに従っていたとしても組織を攻撃にさらす可能性があります。 規定には、組織がすべての新しいツールを、このような既知および新規の AI のセキュリティリスクに照らして審査しなければならないということを記載する必要があります。
こうしたリスクは、組織が AI をどのように利用し、AI によってどこに潜在的なエクスポージャーが生じるのかを可視化しなければ効果的に管理できません。 Tenable AI Exposure のようなソリューションは、環境全体における AI システムの利用を検出して評価するのに役立つため、AI 利用規定を適用してインフラを保護するためのインサイトを得ることができます。
AI AUP の作成方法: 4 ステップガイド
実用に耐えうる AI 利用規定には、ルールが実際に役に立つものとなって十分に理解され、一貫して適用されるようにするための、部門横断的な取り組みが必要です。
次の 4 ステップのプロセスに従って、組織のための効果的な AI 利用規定を作成して導入してください。
ステップ 1: AI ガバナンスチームを編成する
まず、AI 利用規定に関する責務を担う主要なステークホルダーを明確にします。 通常、IT/セキュリティ、法務、人事、および主要な事業部門の代表者で構成されます。
ステークホルダーグループは、規定の起草、新しいツールの審査、例外の処理に対する責任を負います。
従業員の質問や、新しいツールの審査申請のために明確な連絡窓口を指定することは、きわめて重要です。
ステップ2: このガイドを使用して AI 規定を起草する
上記で概説した必須要素を使用して、AI 利用規定の初稿を起草します。 明確で直接的な表現を使用すること、技術部門以外の従業員を混乱させる可能性がある過度に技術的な専門用語を避けることを目標とします。
過度に技術的な記述を避けることは、AI 規定を利用者に実際に読んでもらえるようにするための良いアドバイスと言えます。 実用的なガイダンスの提供に重点を置くことで、AI を活用しながら賢明な判断を下せるようになります。
ステップ 3: 新しい AI ツールの申請プロセスを確立する
従業員が新しい AI ツールを申請するための正式なプロセスを定義して文書化します。 このプロセスには、提出時に審査担当者が必要とする情報 (ツールの目的、ベンダー、セキュリティ規定やプライバシー規定へのリンクなど) と、ガバナンス統括者の決裁を通すための SLA (サービスレベルアグリーメント) の内容を明記する必要があります。
例として、プロセスには次のようなものが含まれます。
- 標準的な IT サービスポータルから、特別な「AI ツール審査」カテゴリを使用してチケットを提出する
- ガバナンス統括者が必要とするすべての情報を、イントラネット上の標準フォームに記入する
- [email protected] などの専用のエイリアスに電子メールを送信する
ステップ 4: 従業員に告知し、教育を行う
規定がまとまったら、全社的に公表します。 トレーニングを実施し、(インターネットフォルダーのどこかに埋もれることなく) 実際に目に付く場所に掲示し、AI 利用規定に署名するなどで従業員に正式に承諾してもらいます。 円滑に進める秘訣は、この規定を従業員の現実の問題に即した、関心を引くものにしておくことです。
AI のセキュリティについてもっと詳しくお知りになりたい場合は、 Tenable のブログをご覧ください。
リーダーシップに AI AUP の必要性を訴える
経営幹部のスポンサーシップを確保することはきわめて重要です。なぜなら、それによって AI 利用規定に組織の権威の後ろ盾が担保され、全社的に適用することを優先事項にすることができるからです。 AI 規定は、制約事項ではなく、戦略的なイネーブラーとして定める必要があります。
AI の利用に関する明確な規定によって、不確実性をアクションのための明確なフレームワークに置き換えることで、安全な AI の導入が加速されます。 なぜなら、従業員にとって憶測が不要になり、承認された手順で自信を持って生産的にイノベーションを推進できるようになるからです。
明確に定義された AI AUP には、以下のような効果ああり、直接的にリスクを軽減します。
- 公開モデルへの知的財産の流出を防止する
- 明確な説明責任を確立する
- 従業員が AI ツールを広く利用するようになる前に、そのツールのセキュリティとプライバシーの脅威について徹底的に審査する
完全な可視化の実現が、その第一歩となります。
Tenable One サイバーエクスポージャー管理プラットフォームによって、組織は AI のような新しいテクノロジーのリスクを含めたアタックサーフェス全体を一元的に可視化できるようになります。
規定の適用は、環境内に何があるのかを把握することから始まります。 Tenable は、このようなシャドー AI ツールやエージェントの検出を支援します。 Tenable AI Aware のような製品には、一般的な AI ツールや LLM ツールの存在を検出するプラグインが含まれているため、規定を適用するための可視性を得ることができます。
また、Tenable Research チームもサードパーティの AI ソフトウェアのエクスポージャーを積極的に見つけ出して開示し、エコシステム全体の保護を支援します。
AI AUP のよくあるご質問
AI については、特に AUP に関して、答えの見つからない疑問点が数多くあります。 Tenable は、そうした疑問に明確にお答えし、お客様が独自の AUP を確立できるようにすることを目的として、最もよくあるご質問のいくつかを以下にまとめました。
1. AI 利用規定の目的は何ですか?
AI 利用規約の主な目的は、セキュリティとデータプライバシーのリスクを軽減することにあります。 従業員が企業の機密データ、知的財産、顧客の PII を公開された AI モデルに入力するのを防ぐことにより、組織のデータ損失のリスクを低減します。
2. AI 利用規定作成の責任を負うのは誰ですか?
AI 利用規定の作成は通常、IT/セキュリティ、法務、人事の代表者を含むガバナンス統括担当者がリードし、主要なビジネス部門からのインプットを得ながら共同で行います。
3. AI 利用規定は一般的な IT 利用規約とどう違うのですか?
一般的な IT 規定が幅広いテクノロジー利用 (電子メール、インターネット、ソフトウェア) をカバーするのに対し、AI に特化した規定は、プロンプト入力に伴うデータプライバシーの懸念、知的財産の漏洩、不正確または偏った情報の生成などの、生成 AI 特有のリスクに対処します。
AI AUP の適用開始について
包括的な AI 利用規約は、組織が損害を出すことなく AI の導入をすばやく進めるのに役立ちます。 AI を実験的に利用したりする場合に必要なガードレールとなり、重要資産を保護し、実際に拡張可能な AI ガバナンスフレームワークを設定します。
このガイドで紹介しているフレームワークとチェックリストは、独自の AI 利用規約テンプレートを作成するための中核的な要素として使用し、次のような内容を追加します。
- 規定の範囲と責任 - AI 利用規定が誰と何を対象とし、説明責任を割り当てるのかを明確に定義します。
- 承認された AI ツールと利用制限 - 企業が審査したすべての AI テクノロジーをリストアップし、許される使い方と許されない使い方を概説します。
- データ保護とプライバシーの基準 - 機密情報や極秘情報の取り扱い方法について説明する明確なルールを作成します。
- 安全で責任ある利用のためのガイドライン - AI との日常的なやりとりに関する実践的なアドバイスと例を示します。
- ガバナンスと新しいツールの審査プロセス - 新しい AI アプリケーションを審査して承認するための正式な手順を概説します。
以上のガイドラインに基づいて規定を作成して一貫して実践することにより、AI のリスクが変革され、セキュリティ文化の中核となるビジネスイネーブラーになるでしょう。
AI AUP のリソース
AI AUP 製品
役立つサイバーセキュリティ関連のニュース
- Tenable AI Exposure
- Tenable One