AI のためのセキュリティ: シャドー AI、プラットフォームリスク、データ漏洩が組織を危険にさらす
あなたの従業員は、あなたが許可したかどうかに関係なく AI を使っています。そして、たとえ慎重に審査し、企業向けの AI プラットフォームを正式に導入したとしても、攻撃やデータ漏えいのリスクは依然として存在します。
Microsoft Copilot Studio のセキュリティリスク: シンプルなプロンプトインジェクションでクレジットカード情報流出し、0 ドルで旅行が予約される
The no-code power of Microsoft Copilot Studio introduces a new attack surface. Tenable AI Research demonstrates how a simple prompt injection attack of an AI agent bypasses security controls, leading to data leakage and financial fraud. We provide five best practices to secure your AI agents.
AI がもたらすセキュリティリスクの検出には DLP や CASB を超えた特殊なツールが必要
Learn why your existing security tech won’t detect data exposure, prompt injection and manipulation, and other AI security risks from ChatGPT Enterprise, Microsoft 365 Copilot, and other LLMs.
エージェント型 AI セキュリティ:サイバーハイジーンの不備がグローバルな侵害に発展するのを防ぐ
Claude Code の武器化が明らかにした真の脅威は、「既存の攻撃手法の民主化と自動連携」です。 つまり、基本的なサイバー衛生を怠ることが、悪意ある AI にかつてない速度とわずかなスキルで大規模攻撃を実行させる原因となるのです。
AI 主導のサイバー攻撃に対する実践的な防御
The era of AI-driven cyberattacks is here, demonstrated by the recent abuse of an agentic AI tool in a broad espionage campaign. Defense requires a new approach centered on preemptive exposure management, combining reinforced security fundamentals with defining the new AI attack surface and…
急速な AI 導入が生み出すエクスポージャーギャップ
As organizations rush to deploy AI, enterprise defenses are struggling to keep up. This blog explores the emerging AI exposure gap — the widening divide between innovation and protection — and what security leaders can do to close it.
HackedGPT: AI の新たな脆弱性により個人情報漏洩が発生する可能性がある
Tenable Research has discovered seven vulnerabilities and attack techniques in ChatGPT, including unique indirect prompt injections, exfiltration of personal user information, persistence, evasion, and bypass of safety mechanisms.
サイバーセキュリティニュース: AI リスク管理、ガバナンス、準備の改善に関するトップガイダンス
Many organizations are playing catch-up in key AI security policy areas, such as usage governance, risk oversight, data protection, and staff training. In this Cybersecurity Snapshot special edition, we round up recent guidance on preparing for, managing and governing AI cyber risks.
AI のためのセキュリティ: AI 利用規定の施行に関する実践ガイド
AI 利用規定の設定により、従業員が公開された AI ツールに誤って機密データを露出させるリスクを軽減しやすくなります。組織の規定を Tenable のベストプラクティスに照らしてベンチマーキングを行い、Tenable AI Exposure によるプロンプトレベルの可視化を行うことで、規定の適用がどれだけ容易になるのかを解説します。
サイバーセキュリティ啓発月間はセキュリティリーダーにとっても重要
Think you know all there is to know about cybersecurity? Guess again. Shadow AI is challenging security leaders with many of the same issues raised by other “shadow” technologies. Only this time, it’s evolving at breakneck speed.
Synack + Tenable: AI を活用したパートナーシップで脆弱性のインサイトを行動につなげる
The combined Synack/Tenable solution reduces alert noise for overloaded security teams, isolating the most exploitable threats so they can proactively close security gaps faster.
Google の警告が AI 機能を悪用したコンテキストインジェクション攻撃の重大なリスクを浮き彫りに
Google, with its unparalleled visibility into Gemini, recently alerted its legion of Gmail users about indirect prompt attacks, which exploit AI context sources like emails, calendar invites and files. Coming from a major AI vendor, the frank and direct public alert leaves no doubt that…
