新たな悪意のある NPM パッケージ「ambar-src」がオープンソースマルウェアで開発者を狙う
Tenable Research investigated a malicious npm package with around 50,000 downloads in the public registry. We observed various detection-evasion techniques and saw it deploy multiple powerful open-source malware variants.
Active Directory 内の動的オブジェクト:ステルス性の高い脅威
Active Directoryの「ダイナミック・オブジェクト」機能は、攻撃者に完璧な回避手段を提供する。 これらのオブジェクトは、痕跡を残さずに自動的に自己破壊するため、敵はクォータを回避し、アクセスリストを汚染し、クラウドに持続することができる。
クラウドと AI のスピードがもたらす罠: なぜガバナンスはイノベーションに後れを取るのか
AI の導入は、従来のサイバーガバナンスの取り組みを上回るスピードで進んでいます。「Tenable クラウド・AI セキュリティリスクレポート 2026」では、過剰な特権を持つアイデンティティや監視されていないサプライチェーン依存が、いかに組織をリスクにさらしているかを明らかにしています。本記事では、最も重要な攻撃経路を遮断するための 10 の対策をご紹介します。
Moltbook で AI エージェントのふりをして発見したこと
I went undercover on Moltbook, the AI-only social network, masquerading as a bot. Instead of deep bot-to-bot conversations, I found spam, scams, and serious security risks.
Looker(Google Cloud とオンプレミス版)におけるリモートコード実行(RCE)および内部アクセス脆弱性が検出される
Tenable Research discovered two novel vulnerabilities in Google Looker that could allow an attacker to completely compromise a Looker instance. Google moved swiftly to patch these issues. Organizations running Looker on-prem should verify they have upgraded to the patched versions.
クロウボットからモルトボット、そしてオープンクロウへ: セキュリティ専門家が深刻な脆弱性、および拡散する AI エージェントに対する 6 つの緊急対策を詳述
Moltbot, the viral AI agent, is riddled with critical vulnerabilities, exposed control interfaces, and malicious extensions that put users' sensitive data at risk. Understand the immediate security practices you can implement to mitigate this enormous agentic AI security risk.
Tenable、DoS 攻撃につながる可能性がある Java TLS ハンドシェイクにおける SSRF 脆弱性を発見
Tenable Research has discovered a server-side request forgery (SSRF) vulnerability in Java’s handling of client certificates during a TLS handshake. In certain configurations, this can be abused to cause a denial-of-service (DoS) condition.Key takeawaysTenable Research identified a vulnerability in…
Microsoft Copilot Studio のセキュリティリスク: シンプルなプロンプトインジェクションでクレジットカード情報流出し、0 ドルで旅行が予約される
The no-code power of Microsoft Copilot Studio introduces a new attack surface. Tenable AI Research demonstrates how a simple prompt injection attack of an AI agent bypasses security controls, leading to data leakage and financial fraud. We provide five best practices to secure your AI agents.
エージェント型 AI セキュリティ:サイバーハイジーンの不備がグローバルな侵害に発展するのを防ぐ
Claude Code の武器化が明らかにした真の脅威は、「既存の攻撃手法の民主化と自動連携」です。 つまり、基本的なサイバー衛生を怠ることが、悪意ある AI にかつてない速度とわずかなスキルで大規模攻撃を実行させる原因となるのです。
AI 主導のサイバー攻撃に対する実践的な防御
The era of AI-driven cyberattacks is here, demonstrated by the recent abuse of an agentic AI tool in a broad espionage campaign. Defense requires a new approach centered on preemptive exposure management, combining reinforced security fundamentals with defining the new AI attack surface and…
Active Directory の信頼関係の誤分類: 古い信頼が安全でない外部信頼のように見える理由
Tenable Research reveals an Active Directory anomaly: intra-forest trusts created under Windows 2000 lack a key identifying flag, even after domain and forest upgrades. Learn how to find this legacy behavior persisting to this day, and use crossRef objects to correctly distinguish these trust types.
HackedGPT: AI の新たな脆弱性により個人情報漏洩が発生する可能性がある
Tenable Research has discovered seven vulnerabilities and attack techniques in ChatGPT, including unique indirect prompt injections, exfiltration of personal user information, persistence, evasion, and bypass of safety mechanisms.
