「AI のためのセキュリティ」と「セキュリティのための AI」の比較
公開日|2025 年 8 月 1 日
AI リスク管理とガバナンスの完全ガイド
「セキュリティのための AI」 と 「AI のためのセキュリティ」は、現代のサイバー防御において、それぞれ固有の意味を持ち、明確に区別される言葉です。 「セキュリティのための AI」 は、機械学習やディープラーニングモデルを使用して、ネットワーク、エンドポイント、メールセキュリティなどのセキュリティテクノロジーを強化します。これにより、サイバー対策の成果達成を加速させ、サイバースキルを補完しながら、組織全体のセキュリティ態勢を着実に向上させます。 「AI のためのセキュリティ」とは、AI の適切な利用や、AI モデルの開発から運用までのライフサイクルに伴うリスクの軽減について、AI を保護し管理するソリューションのことです。
主な概念
- 「AI のためのセキュリティ」と、「セキュリティのための AI」 の主な違い
- 「AI のためのセキュリティ」について
- 「AI のためのセキュリティ」のユースケース
- 「セキュリティのための AI」とは?
- サイバーセキュリティにおける AI モデルについて
- AI リスク管理とガバナンスのフレームワーク
- AI Aware を活用した責任ある AI
- CISO がセキュリティプラットフォームの AI 機能を評価するための 4 つのヒント
- Tenable におけるサイバーセキュリティでの AI の活用法
- AI を活用し、VPR により実際に悪用されているリスクに優先順位付けする
- AI セキュリティのリソース
- AI セキュリティ製品
「AI のためのセキュリティ」と「セキュリティのための AI」の主な違い
「セキュリティのための AI」 は、人工知能を活用してサイバー防御を強化します。 機械学習、ディープラーニング、生成 AI をセキュリティ技術に組み込むことで、効率性と有効性を高めます。
たとえば、脆弱性管理ソリューションの機械学習を活用したリスク評価は、ビジネスに影響を与える脆弱性の優先順位付けに役立ちます。実務担当者は深刻度が「緊急」と「重大」のすべてのエクスポージャーを軽減する代わりに、限られた数のエクスポージャーを管理するだけで済むようになるため、多くの組織にとって長年の課題だった非効率性が解決されます。
生成 AI はセキュリティアシスタントの普及も後押ししており、IT セキュリティ部門全体の生産性を向上させ、若手メンバーのスキルアップにも役立つと実証されています。
セキュリティ運用が迅速化され、適応力が高まり、人間の能力を超える規模でのデータ処理に対応できるようになります。
「AI のためのセキュリティ」は、企業の AI とシャドー AI の利用に伴うエクスポージャーから組織を保護します。各組織が独自の AI モデルを構築したり、ChatGPT や Gemini などのサードパーティ製ツールを採用したりすることによってアタックサーフェスは拡大されていきます。「AI のためのセキュリティ」は、敵対的な攻撃、データポイズニング、モデルの盗難といった、新たな種類の脅威から AI モデル、トレーニングデータ、基盤となるインフラを保護します。
「AI のためのセキュリティ」について
組織の各部門がさまざまなツールを導入するにつれて、AI ツールのセキュリティ確保は優先度の高い課題となっています。
次のような生産性ツール:
- ChatGPT
- Gemini
- Microsoft Copilot
次のようなオープンソース AI モデル:
- Llama
- Mistral
- Bloom
次のような AI ライブラリ:
- PyTorch
- TensorFlow
- Scikit-learn
次のようなデータストレージ:
- S3 バケット (AWS)
- Azure Blob Storage
- Google Cloud Storage
次のような大規模言語モデル (LLM) :
- GPT-4
- Claude 3
- PaLM 2
しかし、こういったツールが組織のセキュリティ、ソフトウェア開発、財務、マーケティング、その他のワークフローに組み込まれれば組み込まれるほど、新たなリスクが露呈しやすくなります。
ここでいう 「AI のためのセキュリティ」とは、AI のインフラ、使用パターン、出力を保護するために必要な人材、プロセス、ポリシー、ツールのことを指します。
多くの環境で、「AI のためのセキュリティ」は AI の安全かつ倫理的で適切な使用に関するポリシーの策定と、シャドー AI (組織が公式に承認または保護していない AI ツール) の特定から始まります。
以下のような問いに答えてみてください。
- 開発者は、ソースコードを公開された AI ツールに貼り付けていますか?
- ビジネスユーザーは、機密データを ChatGPT にアップロードしていますか?
「AI のためのセキュリティ」には、まずインベントリの作成が必要です。
以下のような問いに答えてみてください。
- どのモデルを使っていますか?
- どこにデプロイしていますか?
- 誰がアクセスできますか?
それらには以下が含まれていますか?
- 承認された AI
- 未承認の AI 使用
- データの所在
- データ保持
- モデルのトレーニングポリシー
- LLM 間の API 使用
- クラウドシステムにおける AI
- 微調整されたモデルガバナンス
オープンソースのモデルで構築する場合、サードパーティの AI ツールを使用する場合、社内アプリケーションに AI を組み込む場合、いずれのケースでも 「AI のためのセキュリティ」は重要です。
モデルがどこに存在するかがわかれば、次のような制御を適用できます。
- 役割ベースのアクセス
- データの分類と保護
- 推論行動のモニタリング
- 不正アクセスやデータ流出を阻止するためのポリシー適用
クラウドホスト型の AI インフラでは、制御によって次の対象を保護する必要があります。
- モデルの重みとトレーニングデータ
- インフラのコード化 (IaC) デプロイメント
- モデル推論を公開する API
- ベクターデータベースなどの関連サービス
「AI のためのセキュリティ」のユースケース
AI を安全に利用し、データ流出を防ぐ。
AI の最大のリスクのひとつは、ユーザーが AI をどのように利用するかという点です。
ガードレールがない状態で従業員が AI ツールに機密情報を貼り付けると、知らぬ間に自社占有のデータを外部にさらす可能性があります。
AI モデルが侵害の原因となるケース
- 開発者がソースコードを公開された AI ツールに貼りつける
- マーケティング部門が顧客リストをアップロードする
- ビジネスユーザーが機密文書をチャットボットで共有する
もし誰かが上記のようなデータを他の人のモデルトレーニングに入力すれば、悪意なく実施したことでもプライバシー侵害や知的財産の漏洩につながりかねません。
リスクを減らす方法
- 明確なルールを設ける
- 従業員が、公開された AI ツールでいつ、どこで、どのデータを使用できるかを定める適切な使用ポリシーを作成し、適用します。
- 組織全体における AI 使用を検出する
- AI モニタリングツールを使って、誰が何を使っているかを特定することから始めます。 その対象には、承認または未承認のブラウザプラグイン、アプリ、クラウドベースの AI サービスが含まれます。
- 機密データの流出を阻止する
- AI とのやりとり用に調整された DLP ポリシーを使用して、外部共有を有効にする前に、ソースコード、個人情報 (PII)、または内部文書にフラグを立てます。 また、ファイヤーウォールを使って、許可されていない AI IP アドレスへのアクセスをブロックすることもできます。ただ、従業員は制御を避ける回避策を見つけることが多いので、管理側は新しいサービスの対応では常に後手に回りがちなことにご注意ください。
- AI とのやりとり用に調整された DLP ポリシーを使用して、外部共有を有効にする前に、ソースコード、個人情報 (PII)、または内部文書にフラグを立てます。 また、ファイヤーウォールを使って、許可されていない AI IP アドレスへのアクセスをブロックすることもできます。ただ、従業員は制御を避ける回避策を見つけることが多いので、管理側は新しいサービスの対応では常に後手に回りがちなことにご注意ください。
AI 開発環境を厳重に保護する。
AI 開発では、クラウドサービス、API、トレーニングデータ、ベクターデータベース、機械学習オペレーション (MLOps) プラットフォームなどの複雑なスタックを使用します。 それぞれの層が新たな潜在的エクスポージャーを生み出します。
ここで、AI-SPM が鍵となります。
AI モデルが侵害の原因となるケース
- 設定が適切でないと、モデルのエンドポイント、トレーニングデータ、権限がリスクにさらされる可能性がある。
- オープンな API や脆弱な IAM 役割を見つけた攻撃者は、モデルの重みを盗んだり、機密データにアクセスしたりするだけでなく、実稼働中の AI の動作を勝手に操作する恐れがあります。
- オープンな API や脆弱な IAM 役割を見つけた攻撃者は、モデルの重みを盗んだり、機密データにアクセスしたりするだけでなく、実稼働中の AI の動作を勝手に操作する恐れがあります。
AI モデルとライブラリを脆弱性から保護する方法
- AI エコシステムの各要素を記録してインベントリを作る
- モデルだけでなく、SageMaker、Bedrock、Azure AI、Vertex AI などのサービスやそれを支えるインフラなどもすべて追跡します。
- 設定ミスをスキャンする
- 公開バケット、過剰な権限が付与された役割、API のエクスポージャーを、リスク発生前に検出します。
- アクセスを制御する
- 厳格な RBAC を適用し、最小権限を強制的に実施することで、承認済みのアイデンティティのみが AI リソースにアクセスできるようにします。
- サプライチェーンのセキュリティを確保する
- AI 部品表 (AIBOM) のようなツールを使用して、サードパーティの依存関係や事前にトレーニングされているモデルのリスクを監視します。
実行時に AI モデルを保護する。
AI モデルはユーザーの入力に応答して機能するので、攻撃者はそれを悪用する方法を心得ています。 実行時の防御は、実際の被害がもたらされる前に敵対的な攻撃を発見し、阻止できるようにします。
AI モデルが侵害の原因となるケース
- データポイズニング。攻撃者がトレーニングデータを改ざんし、隠れた脆弱性をもたらす。
- 回避攻撃。攻撃者は、モデルによる誤分類または異常な動作を引き起こすように偽装した入力を作成する。
- モデル抽出。クエリパターンによってロジックがリバースエンジニアリングされたり、機密性の高いトレーニングデータが漏洩したりする可能性がある。
- プロンプトインジェクション。悪意のあるプロンプトを使用して LLM を操作し、有害な出力を生成させたり、隠された指示を漏洩させたりすることがある。
AI モデルを防御する方法
- 敵対的な対象へのレジリエンスを強化するトレーニング。 モデルのトレーニング中に敵対的なサンプルを使用し、より強固な防御を構築します。
- 入力をフィルタリングし、検証する。 モデルに到達する前にクエリをクリーニングし、インジェクション攻撃をブロックします。
- モデルの挙動を監視する。 出力の異常、拒否の急増、不正使用を示すパターンがないか注意します。
完全な「AI のためのセキュリティ」の戦略は、3 つの層すべてをカバーします。 ユーザーがどのように AI とやりとりしているかについての可視化、インフラと権限のガードレール、本番環境のモデルの防御が必要です。 これらの保護対策を実施する組織は、回避可能なリスクを生じさせないようにしつつ、イノベーションを推進できます。
「セキュリティのための AI」とは?
AI はサイバーセキュリティ技術にどのようなメリットをもたらしますか?
「セキュリティのための AI」 は、スタック内のセキュリティツールを補強することで、エクスポージャーや脅威について、より迅速かつ正確に特定、優先順位付け、対応できるようにします。
AI は膨大な量のテレメトリをリアルタイムで分析してパターンを見つけ、リスクをマッピングし、エクスポージャーを解決して脅威を修正するために最適な対策を提案します。
脅威の予測分析
AI モデルは過去の攻撃や脅威インテリジェンスを参照して、次に何が起こるかを予測するため、攻撃者に悪用される前にシステムを強化できます。
たとえば、AI は、攻撃者の行動、エクスプロイトの可用性、資産エクスポージャーに基づいて、攻撃者が狙う可能性が最も高い脆弱性を突き止めることができます。
脆弱性の優先順位付けツールを備えたソリューションは、機械学習を使用して膨大な数の検出結果から真のリスクを浮き彫りにし、CVSS スコアのノイズを排除して、重大な欠陥を特定します。
AI が事前対策型のセキュリティ運用を支える方法
AI プラットフォームは、異常な行動、脅威、脆弱性、およびその他のエクスポージャー (クラウド設定やアイデンティティ権限など) に関する複数のデータソースから得た文脈を組み合わせて、何がリスクにさらされているのか、なぜそれが重要なのかを示します。
AI がサイバー防御をどのように向上できるかを次にご紹介します。
Tenable のリスクスコアシステムが、正確な脆弱性の優先順位付けにどのように役立つかをご覧ください 。
脅威と異常の検出
AI は、各環境における標準的な状態の動的なベースラインを設定します。 これには、ログイン、サービスの挙動、API アクティビティ、クラウドワークロード操作が含まれます。
サイバーセキュリティソリューションの AI ツールは、不審な場所からのログイン試行や、本来アクセスすべきでない場所を探っているコンテナなど、通常とは異なる挙動を自動的に検出できます。
この種の異常検出は、事前定義されたシグネチャに依存しないため、従来のシグネチャやルールをベースにしたツールでは見逃しがちな新種の脅威、ゼロデイ、内部関係者による脅威の発見に特に効果的です。
インテリジェントな攻撃経路マッピング
AI は全体像を把握するのに役立ちます。 アタックサーフェス全体のエクスポージャーデータをリアルタイムで分析することで、クラウドやオンプレミスの環境全体で、脆弱性、設定ミス、過剰な権限がどのように組み合わさり、重要資産につながるリスクの高い攻撃経路を生み出しているのかを確認できるようになります。
そのインサイトを利用して、権限の取り消し、設定ミスの修正、リスクのある資産の隔離など、攻撃経路を能動的に遮断することができます。
生成 AI によるアナリスト支援
生成 AI は複雑なデータを理解しやすいものにします。 エクスポージャー経路の要約、脆弱性の影響、修正方法の概要などをすべて平易な言葉で示します。
SOC やエクスポージャーアナリストは、ダッシュボードやナレッジベースを掘り下げて調べる代わりに、自然言語で質問するだけで即座に文脈に富んだ回答を得ることができます。 AI は効率性を高め、アナリストがより付加価値の高い仕事に集中できる時間的な余裕を確保します。
注意点としては、 使用中の生成 AI ツールに同じレベルの厳格な監視とアクセス制御を適用する必要があることです。さもなければ、新たなエクスポージャーを招き、機密データ、独自のモデル、ユーザーの信頼を危険にさらすリスクが生じます。
「セキュリティのための AI」 は人間による監視を不要にするものではありません。 AI は繰り返しの多い手作業を自動化し、担当部門の時間浪費や燃え尽き症候群を防ぎます。
アラートのトリアージ、相関分析、データの要約を自動化できるため、SOC アナリストは攻撃者の意図をより深く理解することや、インシデントの調査や、より成熟したサイバー防御の構築に集中できるようになります。
AI の迅速さやスケールを、人間の専門知識と組み合わせることで、強力なアドバンテージが得られます。
Tenable の AI 機能が、新たな AI 駆動型の攻撃によってもたらされるリスクを管理し、環境全体の未承認の AI 利用を特定するうえでどのように役立つかをご覧ください。
サイバーセキュリティにおける AI モデルについて
「AI を活用したセキュリティ」という言葉は安易に使われがちですが、実際に優れた成果を上げている AI セキュリティプラットフォームを掘り下げてみると、すべてに共通しているのは「専門性」です。
- 一部のモデルは予測機能が優れています。
- 別のモデルは高度なパターン認識や自然言語処理に強みがあります。
ソリューションが各モデルをセキュリティのユースケースにマッピングする方法が効果的であればあるほど、その成果はより強力で効率的なものになります。
以下に、セキュリティ強化のために各部門が使用できる主な AI モデルの種類と、それぞれが得意とする分野を示します。
内容が監視されている機械学習によるパターンに基づく予測
- 用途: ラベル付けされた履歴データから学習し、結果を予測したり、新しい入力を分類したりします。
- セキュリティにおける位置付け: どの脆弱性が実際のリスクをもたらすかを確認する必要があります。 内容が監視されている機械学習モデルは、何兆ものデータポイント、過去のエクスプロイトの傾向、攻撃者の行動、資産の重要性から学習し、攻撃者が最も悪用しそうな新しい脆弱性を予測できます。
- 実際の使用例: このモデルを使用するプラットフォームは、各脆弱性に対して、実際の脅威活動に基づいて予測リスクスコアを割り当てることができます。これは静的な CVSS スコアに代わる十分なデータに基づくもので、アラート疲れを軽減するのに役立ちます。
複雑な脅威を検出するディープラーニング
- 用途: 長短期記憶ネットワーク (LSTM) や畳み込みニューラルネットワーク (CNN) のようなニューラルネットワークは、ネットワークトラフィックのパターン、ユーザーの行動、ファイルアクセスログを分析し、人間のアナリストでは解明に何時間もかかるようなつながりを明らかにします。
- セキュリティ上の位置付け: ディープラーニングは、典型的な攻撃プレイブックに従わない高度な脅威に対処するために不可欠です。 こういったモデルは、従来のルールベースのシステムでは完全に見逃されてしまう脅威、特に攻撃者が巧妙に侵入したり、新しい手法や未知の手法を使ったりする脅威を検出します。
- 実際の使用例: 従来の検出手法をすり抜けるために、自らの外観を変化させるマルウェアのような場合、攻撃者がコードを意図的に改変して新しいものに見せかけても、ディープラーニングならその根本的な行動パターンを検出します。あるいは、正当なアクセス権を持つ人が、技術的にはポリシーに反していないものの、不自然と感じられる行動をとった場合、たとえば、通常とは異なる順序で、普通でない時間にファイルにアクセスしたような場面では、システムは微妙な行動の違いを捉えます。
脅威の広がり方をマッピングするナレッジグラフ
- 用途: エンティティ、ユーザー、資産、権限、脆弱性を可視化と検索が可能な関係性のネットワークにつなげます。
- セキュリティにおける位置付け: このようなモデルは攻撃経路の分析に威力を発揮します。 リスクを単独の検出結果として扱うのではなく、攻撃者がどのようにして複数のエクスポージャーをつなぎ合わせ、高価値の資産に到達できるようになるかを示します。
- 実際の使用例: ナレッジグラフは、既知の欠陥を持つ公開サーバーが (過剰権限が付与されたサービスアカウントを経由して) 本番データベースに接続しているような、リスクの高い組み合わせを明らかにします。 そして攻撃経路を遮断するためにどこに介入すべきかを指示します。
生成 AI と NLP によるアナリスト支援
- 用途: 自然言語を解析したり生成したりすることで、複雑なセキュリティデータをわかりやすく、検索可能で実用的なものにします。
- セキュリティにおける位置付け: 担当部門は、ダッシュボードを深く掘り下げる代わりに、平易な言葉で質問し、エクスポージャー、脅威、対応手順の要約を人間が読みやすい形で確認できます。
- 実際の使用例: アナリストが「このエクスポージャーの修正方法は?」または「管理者アクセス権があり外部に公開されている資産に影響を与える脆弱性はどれか?」といった質問を投げかけると、文脈に即した正確な回答を即座に得ることができます。 調査時間を短縮し、専門家でなくてもセキュリティワークフローが利用しやすいものになります。
モデル選択が重要な理由
ベンダーが「AI」を使用していると主張する場合、以下の質問を投げかけてみてください。
- どういった種類の AI ですか?
- どのような問題に対応できますか?
- ベンダーとして AI モデルを訓練するために使用したデータの量はどれくらいですか?
- ベンダーとしてどれくらいの頻度でモデルを更新していますか?
- ソリューションのリスクスコアリングモデルは CVSS、CISA KEV、または EPSS と比較してどうですか?
ひとつの汎用的なアルゴリズムを適用するプラットフォームと、それぞれが特定のタスク向けに調整されている複数のモデルを戦略的に組み合わせたプラットフォームとでは、大きな違いがあります。
最先端のセキュリティプラットフォーム向けの AI は、脆弱性予測のための機械学習、攻撃経路マッピングのためのナレッジグラフ、対応ガイダンスのための生成 AI を使用して、上で述べたような複数のモデルをすべて統合します。
こうした違いは、セキュリティ部門がどれだけ迅速に動けるか、どれだけ正確に対応できるか、どれだけ効果的に実際のリスクを減らせるかを大きく影響します。
AI リスク管理とガバナンスのフレームワーク
米国で AI ガバナンスの指針となる主な基準はNIST AI リスク管理フレームワーク (AI RMF) です。 これは、AI のリスクを管理し、信頼でき、責任ある AI システムの開発を支援するために策定された自主的なフレームワークです。
このフレームワークには、Govern (統括)、Map (マップ)、Measure (測定)、Manage (管理)という 4 つの中核機能があります。
NIST AI RMF は、責任ある AI ガバナンスとリスク管理のための青写真を提供するので、担当部門は信頼できる AI システムを構築できるようになります。
このフレームワークを実行に移すには、やる気だけでは不十分です。 実行には、詳細な可視性と役に立つインサイトを提供する実用的なツールが必要となります。
AI の使用やモデル、インフラを承認済みかどうか判別できるなど、強力な AI 検出とセキュリティ機能を備えたプラットフォームなら、完全なインベントリを作成し、関連リスクを明らかにしてフレームワークにおける「マップ」と「測定」のステップを支える重要な役割を果たします。
こうしたツールは、AI のエクスポージャーを継続的に監視して脆弱性を検出することで、焦点を絞った修正によるリスク管理にも役立ちます。
つまり、最新のセキュリティソリューションがあれば、責任ある AI ガバナンスを実現し、より安全に AI を導入することができるのです。
ただし、覚えておいてほしいのは、フレームワークは順番どおりに進めるだけのチェックリストではないということです。 フレームワークは、AI ライフサイクル全体を通じてリスクを管理する継続的なプロセスを導く指針となります。
Govern (統括)
「統括」の機能は AI RMF の要であり、 リスク管理の文化を確立し、育むものです。 ポリシーの策定、説明責任の明確化、そして他の 3 つの機能を支える適切なプロセスの整備を行います。
ガバナンスを推進するのは人とポリシーですが、それを支えて実施するのはテクノロジーです。 セキュリティツールが提供する包括的な可視性とデータがなければ、効果的なガバナンスの実現は不可能です。
主な統括活動
- AI 導入のガイドラインを作成し、リスク許容度をあらかじめ設定する
- AI ガバナンスの役割と責任について定義し、割り当てを行う
- AI リスクに関するオープンなコミュニケーションを重視する企業文化を醸成する
- サードパーティの AI コンポーネントによるリスクを管理するためのプロセスを構築する
マップ (把握)、測定、管理
強力な AI ガバナンスの基盤ができたら、AI リスクのマップ、測定、管理の継続的なサイクルを実施する必要があります。
Map (マップ)
「マップ」の段階では文脈と検出に焦点を当てます。 AI システムを保護するには、その目的、構成要素、潜在的な影響を事前に把握しておくことが必要です。
「マップ」には以下が含まれます。
- モデルとデータソース、AWS、Azure、GCP の AI サービス、未承認のシャドー AI ソフトウェア、ブラウザプラグインの検出を含む、包括的な AI システムインベントリを構築する
- 意図された目標や機能など、システムの文脈を文書化する
- サードパーティの要素など、すべてのコンポーネントの潜在的なリスクを特定する
Measure (測定)
「測定」段階では、「マップ」の結果からリスクを評価し、AI システムが実行されるインフラをどの程度信頼できるかを確認します。
「測定」には以下が含まれます。
- データパイプラインやクラウドインフラを分析し、潜在的なセキュリティ上のリスクを洗い出す。これには、一般アクセスが可能なデータバケット、Amazon SageMaker などの AI サービスにおける安全でない設定、必要以上にアクセス権限を付与するアイデンティティアクセス管理 (IAM) ロールなどが含まれる
- AI 資産の脆弱性や設定ミスを継続的にテストし、評価する
- AI のセキュリティとコンプライアンスに関するメトリクスを確立し、長期的に追跡する
Manage (管理)
「管理」の段階では、マップして測定したリスクを処理します。 定義済みのリスク許容度に従い、最も重大なリスクに対処するためにリソースを割り当てる必要があります。
「管理」には以下が含まれます。
- リスク軽減のための技術的対策 (例: クラウドの設定ミスの修正、過剰な権限の取り消し、データの暗号化) など、セキュリティ管理を適用してリスクを軽減する
- ヒント > セキュリティプラットフォームを使用し、ステップバイステップの修正指示を使用して対処を進めると効果的です。
- サイバー保険などを利用して、リスクを別の当事者に移転する
- リスクが許容できないほど高い場合は、AI システムの導入を断念する
- 組織で定めた許容レベル内にあるリスクを正式に容認する
AI Aware を活用した責任ある AI
NIST AI リスク管理フレームワーク (AI RMF) などのフレームワークは、責任ある AI の重要な青写真を提供しますが、それを実行に移すための適切なアプローチがなければ単なる机上の空論で終わります。
そのために利用できるのが AI Aware です。 AI Aware は、AI ガバナンスのためのデータを提供し、ポリシーの構築と適用に役立つツールです。
AI Aware は、組織内で AI リスクを効果的に管理するために必要な可視性、理解、制御を提供するソリューションです。 単なる概念的なガイドラインにとどまらず、実際の実装へと進めることを目的としています。
Tenable Cloud Security のようなプラットフォームは、 AI Aware 態勢を築くために必要な技術的基盤を提供します。 具体的には、AI 環境をマップするための包括的なインベントリ、セキュリティ態勢を測定するための継続的な分析、リスクを軽減するための実用的なガイダンス、効果的な AI ガバナンスに必要な組織全体の可視性を提供します。
理論的なフレームワークを土台に、AI リスクを真に理解して管理することを始めませんか? Tenable Cloud Security がどのように役立つかをご覧ください。
CISO がセキュリティプラットフォームの AI 機能を評価するための 4 つのヒント
CISO に対してエクスポージャー管理ベンダーは、自社の AI 搭載ソリューションを派手な宣伝文句で売り込んでくるでしょう。 しかし、その多くはタスクを自動化するだけのものです。
AI セキュリティへの投資は、それ以上の効果をもたらすものでなければなりません。 また、ビジネスリスクの軽減やセキュリティ対策の強化も必要です。
すべての CISO が、AI セキュリティソリューションの評価の手法を真に理解するために確認すべき重要な質問を以下にご紹介します。
そのソリューションは、AI を実際のセキュリティ成果に明確に結びつけていますか? それとも技術的な特徴を列挙しているだけですか?
以下の点について考慮してください。
- そのベンダーは、モデルや業界の流行語を列挙するだけでなく、特定の AI 技術を使用する理由を説明していますか?
- ベンダーは、自社の AI アーキテクチャを、迅速な修正、MTTD/MTTR の改善、エクスポージャーの削減といった成果に結びつけることができていますか?
- AI はユースケース (脆弱性の優先順位付け、権限リスクなど) 向けに最適化されていますか? それとも後付けで対応しますか?
- ベンダーは、その AI が実際のセキュリティに与える影響を実証する証拠や指標を提供していますか?
アルゴリズムではなく成果を軸にするベンダーの方が、戦略的な価値を提供できる可能性が高くなります。
AI は単にデータを生成するだけでなく、人間と明確にコミュニケーションをとり、人間にわかりやすく説明することができますか?
以下の点について考慮してください。
- プラットフォームは、アナリストが解読する手間が不要な、すぐに行動に移せるような普通の言葉で検出結果を説明していますか?
- 技術的な警告を、ビジネスリーダー、リスク管理部門、監査人のための文脈に変換できますか?
- 何が問題で、なぜそれが重大なのかを示すことで迅速なトリアージをサポートしていますか?
- 出力は IT 部門やセキュリティ部門だけでなくすべての部門で使用できますか?
コミュニケーションを改善する AI は信頼を築き、行動を加速させます。 担当部門が使う表現をプラットフォームが理解できなければ、コラボレーションや対応をサポートすることはできません。
AI は貴社のビジネスニーズに適応していますか? それとも AI が貴社に適応を強いていますか?
以下の点について考慮してください。
- AI は、ユーザーの行動やどの資産が最も重要かといったことを、組織の環境から学習できていますか?
- AI は、一般的なベンチマークではなく、特定の業界や環境に基づいてリスクスコアリングを調整していますか?
- 出力は実際のアタックサーフェスに合わせて調整されていますか? それとも、どの組織も同じように扱っていますか?
- 環境の変化に応じて進化できていますか? それとも固定的な前提に縛られたままですか?
ビジネスに適応できない AI は、真のリスク管理には役立ちません。 重要なことを見逃したり、大したことのない問題で担当者を振り回したりします。
AI はエクスポージャーと影響を根拠にした、リスクベースの意思決定をサポートしていますか?
以下の点について考慮してください。
- AI は、深刻度スコアだけでなく、実際のリスクに基づいて検出結果に優先順位を付けていますか?
- 理論上の脆弱性と、実際にエクスポージャー経路を持つ脆弱性を区別できていますか?
- 静的な CVSS スコアだけでなく、悪用可能性、資産の重要性、攻撃者の行動を考慮していますか?
- AI は、リスクを最速で減らせる課題に担当部門を集中させていますか? それとも優先度が低いノイズにも人員を振り分けていますか?
リスクベースのセキュリティを実現する AI を活用すると、意図を持って行動することが可能になり、限られたリソースを最も重要なリスクに集中させることができます。
Tenable におけるサイバーセキュリティでの AI の活用法
Tenable の AI ツールは AI とセキュリティの両面をサポートします。つまり、AI を利用してサイバーセキュリティを強化し、一方で企業が構築または採用する AI システムも保護するのです。
この両面からの取り組みは、インフラの保護と AI のフットプリントの安全確保という 2 つの重要な側面にわたってリスクを軽減します。
この特徴は、次の 3 つの主要なソリューションで確認できます。
- ExposureAI は、脅威の検出、エクスポージャー分析、優先順位付けされた修正を可能にします。
- AI Aware 脆弱性管理は、実際のリスクの文脈に基づいて、よりスマートなパッチ適用決定を可能にします。
- AI-SPM は、AI モデル、インフラ、権限を保護します。
ExposureAI で AI を活用しサイバー防御を強化
ExposureAIは、Tenable One サイバーエクスポージャー管理プラットフォームを支える生成エンジンです。 1 兆を超えるデータポイントを処理し、リスクを正確に検出、理解、低減できるよう支援します。
ExposureAI は、資産、ユーザー、クラウドサービス、アイデンティティ、脆弱性の関係をマッピングします。 Tenable のExposure Data Fabric を基盤として構築され、アタックサーフェス全体で、ばらばらに存在するセキュリティデータを取り込み、標準化し、関連付けます。 データファブリックは、ばらばらの検出結果を、文脈を踏まえ深く結びついたインサイトのネットワークへと変換します。
そういった、つながった視点こそが重要なのです。
ExposureAI は、孤立した問題にフラグを立てるのではなく、複雑で複数のステップを含む攻撃チェーンを検出し、すべてのアラートの精度を向上させることができます。 ナレッジグラフのようなものだと考えてください。 データを関係性に基づいて構造化すれば、侵入口から重要資産に至るまでの攻撃経路を明らかにできます。
このようにして全体像を把握することで、リスクの場所だけでなく、すべてがどのように結びついて実際のエクスポージャーを生み出しているのかが確認できます。そして問題の優先順位付けと解決を迅速化できるのです。
この基盤によって、ExposureAI のモデルは適切なインサイトと明確な次のステップを提示するための十分な文脈を獲得し、環境全体でのリスクの検出、理解、阻止の方法を変革します。
ExposureAI を利用すると、どのように脆弱性のノイズを阻止し、ビジネスの実際のリスクに着目できるようになるかをご覧ください。
AI Aware を使用した脆弱性の優先順位付け
AI Aware は、機械学習を使用して従来の脆弱性管理ワークフローを改善し、担当部門が今まさに最大の脅威となっている弱点に専念できるようにします。
静的な CVSS 評価に依存するのではなく、悪用可能性、エクスポージャー経路、脅威インテリジェンス、ビジネス面の文脈を考慮し、現実のリスクに基づいて脆弱性の優先順位を決定します。
AI Aware は、ノイズを減らし、パッチ適用を迅速化するために、環境内で攻撃者が悪用しがちな弱点を明らかにします。 それにより、事後対応型の脆弱性管理からリスクベースの戦略への移行を促進します。
AI Aware がどのようにリスクベースの優先順位付けを強化するかをご覧ください。
AI-SPM を使用した AI スタックの保護
AI の導入の拡大につれ、アタックサーフェスも拡大しています。 AI-SPM は、AI の取り組みを支えるクラウドサービス、モデル、権限を検出し、強化して、管理するのに役立ちます。
AI-SPM は、AWS、Azure、Google Cloud での AI 関連インフラを検出します。このツールは、ユーザーがプラットフォームとどのようにやりとりしているかを特定し、ビジネスユーザーがアクセスしている未承認のブラウザ拡張機能、パッケージ、シャドー AI サービスにフラグを立てます。
AI-SPM は、クラウドインフラ権限管理 (CIEM) ツールとの統合により、最小権限を適用します。 また、モデル、API、機密データへ誰がアクセスしたかを追跡して、不正使用をいち早く検出し、コンプライアンスを維持できます。
AI を活用し、VPR で実際に悪用されているリスクに優先順位付けする
Tenable の VPR (脆弱性優先度格付け) は機械学習を使用して、静的な CVSS スコアだけでなく、複数の実際の要因に基づいた動的なリスクスコアを割り当てます。そのため、担当部門はアラートの海に溺れることなく、実際のリスクに優先順位を付けられます。
VPR には以下が組み込まれています。
- 悪用可能性と武器化
- 公開ウェブソースやダークウェブソースからのアクティブな脅威インテリジェンス
- 資産エクスポージャーとネットワークの文脈
- 時系列の傾向と攻撃者の行動
具体的な例を挙げます。
- CVSS では 2 つの脆弱性が同じ 9.8 と評価されていても、攻撃者が実際に積極的に悪用しているのはそのうち 1 つだけの場合を想定します。
- VPR は、CVSS のスコアに基づいて両方の修正を急がせるのではなく、他のリスクスコアの指標を適用して、実際に脅威活動がある方に高いリスクを割り当てます。 VPR が提供するインサイトにより、最初に適用すべきパッチを確定できます。
ExposureAI と AI-SPM が連携して、組織の環境と AI に関する取り組みをどのように保護するかについては、 Tenable の AI を活用したサイバーセキュリティソリューションの詳細をご覧ください。
AI セキュリティリソース
AI セキュリティ製品
役立つサイバーセキュリティ関連のニュース
- Tenable Cloud Security
- Tenable One
- Tenable Vulnerability Management