Facebook Google Plus Twitter LinkedIn YouTube RSS Menu Search Resource - BlogResource - WebinarResource - ReportResource - Eventicons_066 icons_067icons_068icons_069icons_070

クラウド環境の AI セキュリティリスクなんて怖くない!?



急降下の様子を表すオレンジ色のイラストと「Tenable Cloud AI Risk Report 2025」と書かれた紺色の六角形のグラフィック AI はその知能とは裏腹に、リスクがないという保証はなく、注意を要するものなのです

Tenable クラウド AI リスクレポート 2025 は、AI クラウドワークロードの 70% に未修正の重大な脆弱性が 1 つ以上存在すること、また AI 開発者サービスがリスクの高い権限のデフォルト設定に悩まされていることを明らかにしています。 AI の活用を強化する組織に必要な知識ををご紹介します。

AI の活用が至るところで爆発的に広がる、ワクワクする時代。 エンジニアリング担当部署が AI の最前線に我先にと突入する中、セルフマネージド AI ツールやクラウドプロバイダーの AI サービスを利用する開発者が増えています。 AI 活用の急増と、AI モデルはデータを大量に必要とし、精度やパフォーマンスを向上させるには膨大な量のデータが必要であるという事実から、ますます多くの AI リソースやデータがクラウド環境に置かれるようになっています。サイバーセキュリティ分野において、最も難しい質問は、 AI の成長がクラウドのアタックサーフェスに何をもたらすのかということです。

Tenable Cloud Research による「Tenable クラウド AI リスクレポート 2025」では、AI ツールやサービスが実際は新たなリスクとなっていることが明らかになりました。 そうしたリスクを防ぐにはどうすればよいのでしょうか。

この記事では、いくつかの調査結果と関連する課題、そして簡単にできる事前対策型の AI リスク軽減策について見ていきます。

Tenable が調査を実施した理由

Tenable Cloud Research チームは、2 年間にわたって収集したデータを使用して、Amazon Web Services (AWS)、Microsoft Azure、Google Cloud Platform (GCP) などのクラウド環境や企業環境全体にわたって本番ワークロードと資産を分析しました。 AI 開発ツールやフレームワーク、AI サービスの導入レベルを把握し、新たなあらゆるセキュリティリスクの全体像を明らかにすることを追求したのですが、その目的は、 AI セキュリティの落とし穴の認識度を上げることです。 同時に、このような調査は、お客様がこの新たなリスクに対処するための最善の支援を提供できるよう、常に進化を続ける Tenable のクラウドネイティブアプリケーション保護プラットフォーム (CNAPP) の向上に寄与します。

主な懸念事項

では 2 つの調査結果を見ていきましょう。1 つはセルフマネージド AI ツール、もう 1 つは AI サービスについてです。

  • AI ソフトウェアがインストールされたクラウドワークロードの 70% に、未修正の重大な CVE が少なくとも 1 つ含まれていました。 観測された CVE の 1 つは curl の重大な脆弱性で、CVE が公表されてから 1 年以上経っても修正されていない状態でした。重大な CVE があると、そのワークロードは攻撃者の主な標的となる危険にさらされます。AI ワークロードの CVE は、そのデータの潜在的な機密性と、悪用された場合の影響により、深刻な懸念材料となります。
AI ソフトウェアがインストールされている 70% 近くのクラウドワークロードに 1 つ以上の重大な脆弱性があることを示すドーナツグラフ
AI ソフトウェアがインストールされたクラウドワークロードの大半に、未修正の重大な脆弱性が少なくとも 1 つ存在します。 出典: Tenable クラウド AI リスクレポート 2025
  • すべてのクラウドサービスと同様に、AI サービスでもクラウドプロバイダーの構成要素にリスクのあるデフォルト設定が含まれており、多くの場合ユーザーはそれに気づいていません。 当社は以前、Jenga® の概念 について報告しました。これは、クラウドプロバイダーが 1 つのサービスを他のサービスの上に構築しているため、リスクのあるデフォルト設定がある階層から他の階層に引き継がれてしまうパターンのことです。 AI サービスにおいても同じことがいえます。 具体的には、Google Cloud で Vertex AI Workbench を設定していた組織の 77% で、少なくとも 1 つのノートブックで、紐づけられたサービスアカウントが過剰な権限を持つ Compute Engine サービスアカウントとして設定されており、深刻な権限リスクが生じていました。
77% 以上の組織で、1 つ以上の Vertex AI Workbench ノートブックに、過剰な権限を持つデフォルトの Compute Engine サービスアカウントが存在することを示すドーナツグラフ
クラウドプロバイダーは、ジェンガのゲームのように AI サービスを階層化して積み重ねていますが、これらの構成要素には、発見と修正が困難な危険なデフォルト設定が含まれています。 出典: Tenable クラウド AI リスクレポート 2025

主な課題

AI ツールにおける重大な CVE が懸念され、課題となる理由

どのクラウドワークロードでも未修正の重大な CVE はもちろんセキュリティリスクであり、組織のパッチ管理とリスク管理の方針に従って影響や資産の機密性を考慮した優先順位付けを行い、対処する必要があります。 AI クラウドワークロード内の重大な脆弱性によるインシデントが多発していることは、警鐘です。 AI ワークロードには機密データが含まれている可能性があります。 AI プロジェクトの性質の関係で、たとえトレーニングデータやテストデータであっても個人情報 (PI)、個人識別情報 (PII)、顧客データなどの実際の情報が含まれていることがあります。 AI の計算データやトレーニングデータが悪用され、外部に公開されると、データポイズニング、モデル操作、データ漏洩を引き起こす可能性があります。 これに対応するチームは、アラートノイズとリスクの優先順位付けの課題を克服して、特に AI ワークロードにおいて重大な CVE を軽減することを戦略的ミッションとしなければなりません。

AI サービスにおけるリスクの高いアクセスデフォルトが懸念され、課題となる理由

アイデンティティと権限の保護は、あらゆるクラウド環境における課題です。 AI サービスでは機密データを扱うことが多いため、過剰な権限が AI サービスの構成要素に組み込まれている場合、そのリスクはさらに高くなります。 その修正には、まずリスクを確認できるようにする必要があります。 クラウド環境やマルチクラウド環境での可視性が不十分であること、ツールのサイロ化によって文脈を踏まえたリスクの確認が妨げられていること、クラウドプロバイダーのセキュリティ対策に依存していること、これらすべてによって、組織がリスクの高いデフォルト設定や攻撃者が探しているその他のアクセスリスクを発見し、軽減することが困難になっています。

課題となる AI リスクを防ぐための主な対策

スタンフォード大学が発表した「Artificial Intelligence Index Report 2024 (2024 年人工知能インデックスレポート)」によると、組織の AI 関連の懸念事項の上位には、プライバシー、データセキュリティ、信頼性が含まれています。しかし、現在までほとんどの組織では、こういったリスクをほんのわずかしか軽減できていません。 しかし、優れたセキュリティのベストプラクティスに従えば、大いに AI リスクに先手を打てることになります。

ここで取り上げたクラウドの AI リスクを軽減するための 3 つの基本的な取り組みを、以下にご紹介します。

  1. 最も影響の大きい脆弱性の修正を優先する。 CVE の修正が遅々として進まない根本的な原因のひとつは、人間の本質的な行動の特性にあります。 CVE は頭痛の種です。煩わしく、しつこく、ソリューションによっては膨大なアラートを発生させて担当者を圧倒します。クラウドセキュリティ部門はそのリスクの責任を負いますが、エクスポージャーを軽減するには、他のチームの協力が必要です。 最も広範囲な影響を及ぼす可能性がある CVE を把握すれば、リスクの高い脆弱性に最初に取り組むよう各部署を導くことができます。 高度なツールは、リスクスコアリングに悪用の可能性を加味してサポートします。
  2. 過剰な権限を減らし、危険なアクセスを抑制する。 危険なアクセスから組織を守るのは、各部署に共通して課せられた責任です。AI サービスの権限設定にはリスクがないと過信しないでください。 継続的な監視によって、クラウドベースの AI モデルやデータストアを含めたアイデンティティ、リソース、データ全体の過剰な権限を特定して排除し、不正アクセスや過剰な権限によるアクセスを防止します。 最小権限とジャストインタイムアクセスを実装してクラウドインフラの権限を厳密に管理します。 文脈を踏まえてリスクを確認して、アイデンティティ関連の有害な組み合わせを含むクラウドの設定ミスを発見します。
  3. ビジネスへの影響が大きい資産に紐づいたすべての AI コンポーネントを「機密」に分類する (例: 機密データ、特権を付与されたアイデンティティ)AI ツールと AI データをセキュリティインベントリに含め、そのリスクを定期的に評価します。 データセキュリティポスチャー管理機能を使用して、きめ細かく適切な機密レベルを割り当てます。
クラウドセキュリティが CVE の優先順位付けを容易にするクラウド脆弱性インテリジェンスをどのように組み込むべきかを説明するデモ動画
クラウドセキュリティには、CVE の優先順位付けを容易にするクラウド脆弱性インテリジェンスを組み込む必要があります。 出典: Tenable Cloud Security Vulnerability Intelligence demo (Tenable Cloud Security 脆弱性インテリジェンスデモ)、2025 年 3 月

クラウド環境で強力な AI セキュリティを確保するには、アイデンティティの知識を活用した、AI 対応のクラウドネイティブアプリケーション保護機能によって、新出し続けるリスクを効率的かつ正確に管理する必要があります。

まとめ

クラウドベースの AI にはセキュリティの「落とし穴」があり、隠れた設定ミスや機密データが AI ワークロードを誤用やエクスプロイトに対して脆弱にしています。適切なセキュリティソリューションとベストプラクティスを早期に適用すれば、リスクを最小限に抑えながら、組織における AI の導入と発展を実現できます。

JENGA® は Pokonobe Associates が所有する登録商標です。

もっと詳しく


役立つサイバーセキュリティ関連のニュース

Tenable エキスパートからのタイムリーな警告とセキュリティガイダンスを見逃さないように、メールアドレスをご入力ください。