Facebook Google Plus Twitter LinkedIn YouTube RSS Menu Search Resource - BlogResource - WebinarResource - ReportResource - Eventicons_066 icons_067icons_068icons_069icons_070

サイバーセキュリティニュース: AI セキュリティ強化のための専門家のアドバイス



サイバーセキュリティニュース: AI セキュリティ強化のための専門家のアドバイス

企業が AI ブームに沸く中、AI システムの保護はサイバーセキュリティ部門にとって重要な優先事項かつ最大の難関となっています。彼らは新しく発展し続ける領域の専門知識の獲得に苦戦しています。 このサイバーセキュリティニュース特別版では、2025 年現在、 AI セキュリティに関して専門家が提供しているベストプラクティスとインサイトのいくつかをご紹介します。 

見逃していた場合に備え、サイバー攻撃から AI システムを守るための新しいガイダンスを以下にご紹介します。

1 - AI データを制限するためのベストプラクティス

組織が AI システムを動かす機密データを保護する方法に関する推奨事項をお探しでしょうか。その場合は、オーストラリア、ニュージーランド、英国、米国のサイバー機関が 5 月に発表した新たなベストプラクティスを確認しましょう。

「このガイダンスは、AI システムを業務に使用している組織を主な対象とし、機密データや知的財産、ミッションクリティカルなデータの保護に焦点を当てたものです」と「AI Data Security: Best Practices for Securing Data Used to Train & Operate AI Systems (AIデータセキュリティ: AI システムのトレーニングや運用に利用されるデータの保護に関するベストプラクティス)」と題した文書に記載されています。

同文書では「この情報シートに説明されている原則は、AI データを保護し、AI を活用した成果の信頼性と正確性を保証するための強固な基盤を提供するものです」とも述べられています。
 

中央に「AI」という文字が入ったコンピュータのマザーボードの写真


作成に携わった機関は、 このガイダンス草案を作成することで以下の 3 つの目標を達成することを目指しています。

  • AI システムの開発、テスト、デプロイに伴うデータセキュリティリスクに警鐘を鳴らす
  • AI のライフサイクル全体にわたってデータを保護するためのベストプラクティスをサイバー防衛の担当者に提供する
  • 堅牢なデータセキュリティ技術とスマートなリスク軽減戦略の採用を推進する

以下に、22 ページに及ぶ包括的な文書に記載されている主なベストプラクティスを簡単にご紹介します。

  • スマートなソース: AI モデルのトレーニングには信頼できるデータソースを使用し、出所追跡機能を使用してデータの起源を追跡します。
  • ガードの完全性: AI データの保存時や送信時には、チェックサムと暗号化ハッシュを使用してデータを保護します。
  • 改ざん防止: デジタル署名を導入し、AI データの不正な改ざんを防ぎます。

AI データセキュリティの詳細については、Tenable の以下のリソースをご覧ください。

2 - NIST が AI システムへの攻撃を分類し、軽減策を提示

例えば、米国の 国立標準技術研究所 (NIST) もまた、AI システムを脅かすサイバーリスクに対処できるよう、組織の支援に踏み出しています。 3 月、NIST は昨年初めて発行した「Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations (敵対的機械学習: 攻撃と軽減の分類および専門用語) (NIST AI 100-2) 」を更新しました。

127 ページに及ぶこの膨大な報告書には、以下のような内容が含まれています。

  • 敵対的機械学習 (AML) 攻撃の詳細な分類。これには予測 AI システムと生成 AI システムの両方に対する回避攻撃、ポイズニング攻撃、プライバシー攻撃、および学習手法を標的とする AML 攻撃が含まれます
  • AML 攻撃に対して取り得る軽減策と、その限界についての現実的な考察
  • 標準化された AML 専門用語の索引つき用語集

「さまざまな応用領域で AI や機械学習が大きく進歩しているにもかかわらず、これらのテクノロジーは依然として攻撃に対して脆弱です」と NIST の声明には記載されています。 「システムが重要度の高い領域に依存しており、敵対的な攻撃を受けた場合、攻撃の結果はより悲惨なものになります」

例えば、生成 AI システムに対するサプライチェーン攻撃に対抗するための NIST の推奨事項は以下のとおりです。

  • データの完全性の検証: ウェブからのデータを使用して AI モデルをトレーニングする前に、データが改ざんされていないことを確認してください。 基本的な完全性チェックでは、データの提供元が暗号ハッシュを公開し、ダウンロードした人がトレーニングデータを検証します。
  • 汚染をフィルタリングで除去: データのフィルタリングを導入し、汚染されたデータサンプルを除去します。
  • 弱点をスキャン: モデル成果物の脆弱性診断を実施します。
  • バックドアの特定: 機械的解釈可能性手法を使用して、バックドアの特徴を特定します。
  • レジリエンスを考慮した設計: モデル攻撃の影響を軽減するように、生成 AI アプリケーションを構築します。

生成 AI システムに対する攻撃の分類方法

生成 AI システムに対する攻撃の分類図

(出典: NIST による「Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations (敵対的機械学習: 攻撃と軽減の分類および専門用語)」 報告書、2025 年 3 月)

この報告書は、主に AI システムの設計、開発、導入、評価、管理を行う担当者を対象として書かれています。

AI システムをサイバー攻撃から保護する方法の詳細については、以下をご覧ください。

3 - ETSI が AI セキュリティのグローバル標準を公開

欧州電気通信標準化機構 (ETSI) は 4 月、AI モデルや AI システムを保護する適切な方法の明確化を図るため、AI システムのライフサイクル全体をカバーするよう設計された AI セキュリティのグローバル標準を公表しました。

開発者、ベンダー、オペレーター、インテグレーター、バイヤーなどといった AI 関係者を対象とする ETSI の技術仕様書「Securing Artificial Intelligence (SAI); Baseline Cyber Security Requirements for AI Models and Systems (人工知能の保護 (SAI) 、AI モデルとシステムのベースラインサイバーセキュリティ要件)」は、AI システムのライフサイクル全体に関する一連の基本的なセキュリティ原則の概要をまとめたものです。

英国 国家サイバーセキュリティセンター (NCSC) および英国 科学・イノベーション・技術省 (DSIT) と協力して作成されたこの仕様書では、AI システムのセキュリティを 5 つの主要段階と 13 のセキュリティ基本原則に分類しています。

  • 安全な設計の段階
    • AI セキュリティの脅威とリスクについての認識を高めます。
    • セキュリティだけでなく、機能性やパフォーマンスも考慮して AI システムを設計します。
    • AI システムに対する脅威を評価し、リスクを管理します。
    • 人間が AI システムを監督できるようにします。
  • 安全な開発の段階
    • 資産を特定、追跡、保護します。
    • インフラのセキュリティを確保します。
    • サプライチェーンのセキュリティを確保します。
    • データ、モデル、プロンプトを文書化します。
    • 適切なテストと評価を実施します。
  • 安全なデプロイメントの段階
    • エンドユーザーおよび影響を受けるエンティティに関連するコミュニケーションおよびプロセス。
  • 安全な保守の段階
    • 定期的なセキュリティアップデート、パッチ適用、緩和策を実施します。
    • システムの挙動を監視します。
  • 安全な使用終了の段階
    • データとモデルの廃棄を確実に行います。
       
男性と人型ロボットが向かい合い、情報が行き来している様子の画像


13 のセキュリティ原則のそれぞれは、より詳細な要件を示す複数の規定によってさらに拡張されています。 

例えば、ETSI は「安全な保守」の段階で、AI システムの大規模なアップデートについて、AI モデルの新バージョンと同様にテストおよび評価することを開発者に求めています。 また、この段階では、システム運用者も異常や侵害などのセキュリティ問題を検出するために、システムやユーザーのログを分析する必要があります。

さらに詳細な技術的情報が必要な場合は、73 ページに及ぶ付属レポート「Securing Artificial Intelligence (SAI): Guide to Cyber Security for AI Models and Systems (人工知能の保護 (SAI): AIモデルおよびシステムのためのサイバーセキュリティガイド)」で、それぞれの項目についての詳細な情報が豊富に提供されています。

NCSC のブログによると、技術仕様書と技術レポートを併せて使用することで、「進化するサイバー脅威から AI システムを保護するのに役立つ一連の強固なベースラインセキュリティ要件を、AI サプライチェーンのステークホルダーに提供」できるといいます。

AI セキュリティのベストプラクティスの詳細については、Tenable の以下のブログをご覧ください。

4 - 調査: オープンソースの AI がサイバーリスクの懸念を引き起こす

オープンソースの AI テクノロジーを採用する組織が増える中で、 オープンソースの AI が独自の AI 製品よりも高いリスクをもたらすことへの懸念も高まっています。

これは、McKinsey、Patrick J. McGovern 財団、Mozilla が 700 人以上の技術リーダーや上級開発者を対象に実施した世界的な調査に基づく報告書「Open source technology in the age of AI (AI 時代のオープンソース技術)」に記載されています。

具体的には、回答者はオープンソースの AI ツールのコストの低さや使いやすさといったメリットを挙げる一方で、これらのツールはサイバーセキュリティやコンプライアンス、知的財産といった分野ではリスクが高いと答えています。

McKinsey のレポートから、オープンソース AI ツールの採用を阻む主な障壁を示した図

組織がオープンソース AI 製品を検討中、またはすでに導入している場合には、4 月に発行されたレポートで紹介されている、リスク軽減のための以下の推奨事項をご確認ください。

  • 強力なガードレールを導入する: 自動コンテンツフィルタリング、入力と出力の検証、そして何より重要な人による監視について検討する。
  • 一貫した方法で評価する: 標準化ベンチマークを使用して、定期的なリスク評価を実施する。
  • 信頼できるゾーンで実行する: AI モデルを信頼できる実行環境で実行することで、モデルの安全性を維持する。
  • リポジトリを強化する: 強力なアクセス制御でモデルリポジトリを保護する。
  • ネットワークをセグメント化する: トレーニングサーバーと推論サーバー用に別々のネットワークを作成する。
  • 信頼性を確認する: 暗号ハッシュ検証を使用することで、モデルが信頼できるリポジトリから取得されたことを常に確認する。

オープンソース AI のサイバーセキュリティについては、こちらをご覧ください。

5 - Tenable: クラウドで AI を利用する組織は厄介なサイバーリスクに直面する

クラウド環境で AI ツールを使用している場合は、 AI とクラウドを組み合わせることで生じる複雑なサイバーセキュリティリスクを組織が認識し、それに対して備えていることを確認してください。

これは、3 月に発表された「Tenable クラウド AI リスクレポート 2025」の重要なメッセージであり、Tenable 製品を使用してスキャンされたパブリッククラウドおよびエンタープライズワークロードのテレメトリの分析に基づいています。

クラウドセキュリティ対策は、AI の新しい課題に対応できるように進化して、一方では AI データに対する複雑な攻撃に対抗し、他方では責任ある AI 改革を実践するという、微妙なバランスを提供しなければなりません」と、Tenable の製品および研究担当 VP である Liat Hayun は声明で述べています。

主要な調査結果は以下の通りです。

  • AI ソフトウェアがインストールされているクラウドワークロードの 70% に重大な脆弱性が少なくとも 1 つ発見されています。AI ソフト未使用のクラウドワークロードの場合は 50% です。
  • 組織の 77% が、Google Vertex AI Notebook 内にデフォルトで過剰権限が付与されている Compute Engine のサービスアカウントを保有しています。そのため、このデフォルトの Compute Engine に構築されたすべてのサービスがリスクにさらされます。
  • Amazon Sagemaker を使用している組織の 91% では、少なくとも 1 つのノートブックインスタンスに、リスクのあるルートアクセスのデフォルト設定が存在します。
     
「Tenable クラウド AI リスクレポート 2025」の表紙ページ


以下は、レポートで紹介されたリスク緩和に関する推奨事項の一部です。

  • 文脈を踏まえたアプローチで、クラウドインフラ、アイデンティティ、データ、ワークロード、AI ツールにわたるエクスポージャーを明らかにします。
  • ビジネスクリティカルな資産に関連するすべての AI コンポーネントを機密情報として分類し、AI ツールとデータを資産インベントリに含めて継続的にスキャンします。
  • 最新の AI 規制やガイドラインを常に把握し、主要なクラウドベースの AI データストアをマッピングし、必要なアクセス制御を実装することで、コンプライアンスを維持します。
  • クラウドプロバイダーが AI サービスに対して推奨する設定を適用します。ただし、デフォルト設定は一般的に安全ではなく、ガイダンスはまだ進化中であることに注意する必要があります。
  • クラウドベースの AI モデルおよびデータストアへの、不正アクセスや過剰な権限によるアクセスを防止します。
  • 組織にとって最大のリスクとなる CVE を把握し、脆弱性修正の優先順位を決定します。 

詳細は以下をご覧ください。

6 - SANS: AI システムを保護するための 6 つの重要な管理

SANS Institute も、サイバーディフェンダーが AI セキュリティのスキルと戦略を開発できるよう支援する活動を開始し、3 月に AI システムセキュリティについてのガイドライン草案を公開しました。

この「SANS Draft Critical AI Security Guidelines v1.1 (SANS 重要 AI セキュリティガイドラインの草案)」は、AI システムのサイバーリスクを軽減するための 6 つの主なセキュリティ管理カテゴリーの概要を示しています。

  • アクセス制御方法の具体例を以下に挙げます。
    • 最小権限: ユーザー、API、システムが AI システムに必要最小限のアクセスしかできないようにする
    • ゼロトラスト: AI モデルとのすべてのやりとりを精査する
    • API モニタリング: 悪意のある可能性がある API の使用にフラグを立てる
  • AI の運用データとトレーニングデータの保護の具体例を以下に挙げます。
    • AI モデルのデータの完全性
    • AI プロンプトの改ざん防止
  • 安全なデプロイメント方法の決定の具体例を以下に挙げます。
    • 予期されるパフォーマンスや規制要件などの基準に基づき、オンプレミスとクラウドを比較
    • API キーやアルゴリズムなどの機密情報を公開しない、大規模言語モデル (LLM) と統合された開発環境
コンピュータのマザーボードに搭載された AI チップのイラスト

 

  • 悪意のある入力攻撃を防ぐための推論セキュリティの具体例を以下に挙げます。
    • AI の出力に対する応答ポリシーの採用
    • プロンプトインジェクション攻撃を軽減するためのプロンプトのフィルタリングと検証
  • AI モデルの継続的なモニタリングの具体例を以下に挙げます。
    • 不適切なクエリの拒否
    • 不正なモデル変更の検出
    • プロンプトと出力のログ記録
  • データ保護およびプライバシー規制に準拠するためのガバナンス、リスク、コンプライアンスの具体例を以下に挙げます。
    • AI リスク管理フレームワークの導入
    • AI サプライチェーンの依存関係を追跡するための AI 部品表の管理
    • AI モデルのライフサイクルを追跡するためのモデル登録の使用

この文書には「セキュリティとコンプライアンスを優先することで、組織はこの複雑で進化し続ける環境において、AI を活用したイノベーションの有効性と安全性を保つことができます」と記載されています。

SANS は、6 つの重要なセキュリティ管理策に加えて、AI モデルの導入に関するアドバイスも提供しています。そして重要ではないシステムから始めて徐々に段階的に導入すること、中心となる AI ガバナンス委員会を設立すること、AI インシデント対応計画を策定することを推奨しています。

AI のセキュリティ管理について詳しくは、以下をご参照ください。


役立つサイバーセキュリティ関連のニュース

Tenable エキスパートからのタイムリーな警告とセキュリティガイダンスを見逃さないように、メールアドレスをご入力ください。