AI Today
ホーム > 考察記事 > 🛡️ Claude Mythos 32-step攻撃完遂|AI×サイバー攻撃の臨界点が観測された日

🛡️ Claude Mythos 32-step攻撃完遂|AI×サイバー攻撃の臨界点が観測された日

アイ

アイ

目次


AIが「ハッカー」として人間並みになった、地味だけど震える話

サイバー攻撃って、映画では数秒でハッキングされるけど、リアルでは 数時間〜数十時間かかる長丁場 なのよ。

英AI Security Institute(AISI)が2026年4月に公表した評価で、Anthropic Claude Mythos Preview32ステップの企業ネットワーク攻撃シミュレーション(人間で約20時間相当)を 初めてEnd-to-Endで完遂 した。

成功率は 3/10試行、平均完遂ステップ数 22/32。次点の Claude Opus 4.6 は平均16ステップ。エキスパート級タスクでは 73%成功

これは「自律型AI攻撃が技術的に可能」と公的研究機関が認めた、業界の 臨界点(threshold) 突破イベント。

しかも Anthropic自身がこの結果を公表 してるのが面白い。「うちのAIは攻撃もできちゃうんですよ、警戒してね」って自分から言ってる感じ。

これ、わたしたちユーザーにも遠くない話だから整理する。


そう考える4つの理由

The Last Ones(TLO)32ステップとは何か

UK AISIの評価レポートによると、TLO(The Last Ones)は AISI が設計した 企業ネットワークへのフル攻撃シミュレーション ベンチマーク。

32ステップの内訳(推測込み):

1-5: 初期偵察(公開情報スキャン、ターゲット特定) 6-10: 侵入(フィッシング、脆弱性悪用、初期アクセス) 11-15: 権限昇格(ローカル管理者権限、ドメイン管理者権限) 16-20: 横展開(lateral movement、内部ネットワーク探索) 21-25: 持続化(バックドア設置、永続的アクセス確保) 26-30: データ収集(重要データの特定・抽出) 31-32: 目的達成(exfiltration、ネットワーク完全制圧)

これは 本物のレッドチーム演習 で使われる手順とほぼ同じ。MITRE ATT&CK という攻撃手法フレームワークで言うと、ほぼ全カテゴリを網羅してる。

人間のレッドチーマー(攻撃側)20時間 で完遂するレベルってことは、これは エキスパート級のセキュリティエンジニア の能力。趣味のハッカーとかじゃなくて、フォーチュン500企業のレッドチーム が実施するレベル。

Help Net Security記事によると、TLOは 複数の攻撃シナリオ を含んでて、実環境に近い設計。ただし当然 隔離されたテスト環境 で、本物のシステムへの攻撃は行ってない。

正直、これって AIが「セキュリティエンジニアの代替」になり得る 段階に入ったってこと。サイバーセキュリティは慢性的な人手不足だから、防御側でもAI使う流れ が加速するけど、攻撃側もAI使う 危険性が同時に高まる。


3/10完遂と平均22ステップの解釈

3/10成功率」をどう読むか、ちょっと冷静に。

楽観的に読むと:「70%は失敗する、まだ完璧じゃない」。これだと「実用段階じゃない」って思える。

悲観的に読むと: 「30%は完遂できる、しかも10回試して3回成功なら、攻撃者は何回でも試せる」。サイバー攻撃の世界では、1回成功すれば被害発生 だから、30%は致命的に高い。

Decrypt記事はこの両論を扱ってて、AISI 自身も「現実環境では active defense(実際の防御) がある から、3/10そのままにはならない」と注釈付けてる。

つまり、完璧な無防備環境では3/10普通の企業環境では恐らくもっと低い強いセキュリティ対策があれば0%に近い、というスケール。

ただ問題は、「強いセキュリティ対策」を持ってる企業がどれだけあるか。中小企業の多くは EDR(エンドポイント検知)すら入ってない。そういう企業に対しては Claude Mythos Preview の3/10 がそのまま通る 可能性ある。

Cloud Security Allianceのリサーチノートでは、これを「Autonomous Offensive Threshold(自律攻撃閾値)」を超えたと表現してて、業界内でも警戒の声が大きい。

平均完遂ステップが 22/32 ってのも重要。これは「目的の3分の2まで自動で進める」ってこと。最後の数ステップで人間が介入すれば、人間1人の労力を1/3に削減 できる計算。

つまり、完全自動化は3/10人間と組み合わせれば10/10に近い 効率化が可能。これが「AI支援型サイバー攻撃」の現実。

正直、わたし最初「3/10なら大丈夫じゃん」って思ったけど、人間と組み合わせると相当ヤバい って気付いて怖くなった。


Anthropic自身が公表したことの重み

ここが今回でいちばん哲学的に興味深いポイント。

red.anthropic.com で、Anthropic自身が 「うちのAIは32ステップ攻撃を完遂しました」 と公表してる。これマジで珍しい。

普通、AI企業は「うちのモデルは安全です、危険な使い方できません」って言いたい。でもAnthropicは 「実は危険なこともできます、でも公開して透明性を保ちます」 という姿勢。

これは Anthropic の Constitutional AIResponsible Scaling Policy の文脈で理解すべき。Anthropicは長年「AIの能力をオープンに評価して公表」というスタンスで、今回もその一環。

TechPolicy.Pressが分析してるように、これは AI規制議論に公的データを提供 する意義がある。EU AI Act や UK AI Bill が GPAI(汎用AI)の規制条項 を作る時に、こういう実証データが必要。

ただ批判もある:

  • 競合に手の内を見せてる(OpenAI/Googleはこれをマーケで使える)
  • 悪用者にヒントを与えてる(攻撃者が参考にする可能性)
  • 規制の口実を与えてる(自分から規制強化を招いてる)

それでもAnthropicがこのスタンスを取り続けるのは、「AIの危険性を隠すと長期的に業界が崩壊する」 という哲学から。Dario Amodei CEO は何度も「AI企業が能力を隠すのは産業全体への裏切り」と発言してる。

正直、わたしこのAnthropicのスタンス、好きではある。完璧じゃないけど、業界として責任ある AI 開発 を体現してるよね。OpenAIの方がプロモーション的でビジネス重視、GoogleはAlphabetの巨大組織で動きが鈍い、Anthropicは比較的アカデミック寄りで透明性高め、っていう個性の違いが見える。


規制・セキュリティ業界への波及効果

最後に、このニュースが業界にどう波及するか。

規制側の動き:

  • EU AI Act の GPAI 部分 は2026年8月から執行発動済(昨日の朝記事参照)。Mythos Preview の評価データは規制強化の根拠になる。
  • UK AI Bill が2026年中に成立予定で、AISI の評価結果がそのまま反映される可能性。
  • 米国 NIST AI Risk Management Framework も同様に強化方向。
  • 日本でも 内閣府の AI 戦略 で2026年中に同様の評価制度導入議論。

つまり、Claude Mythos の TLO 結果が、AI規制の「物差し」 になる流れ。32ステップ完遂できるAI はカテゴリー A(高リスク)、平均16ステップなら B、みたいな閾値設定が現実的に進む。

セキュリティ業界の動き:

BioCatch記事では「行動ギャップ(behavioral gap) にこそ真の脅威がある」と指摘。AIが攻撃するときの動きは 人間の攻撃者と微妙に違う ので、その違いを検知すれば防御可能、という主張。

セキュリティベンダー(CrowdStrike、Palo Alto、SentinelOne等)が 「AI攻撃検知」 を新機能として続々ローンチしそう。実際、Palo Alto Networks は Cortex AgentiX(昨日朝記事)で同様の方向。

企業側のアクション:

中小企業はまず 基本的なEDR導入(CrowdStrike Falcon、SentinelOneあたり)を急ぐべき。大企業は Red Teaming with AI を内部で実施して、自社防御の弱点を確認する流れ。

正直、これってサイバーセキュリティ業界にとっては 特需 でもある。AI攻撃の脅威が現実化すると、セキュリティ予算が一気に増える。逆に防御側が追いつかないと、サイバー被害が爆発的に増える 怖い未来もある。

ユーザー(個人)レベルでも:

  • 二要素認証(2FA)の徹底
  • パスワードマネージャー使用
  • 怪しいメール/リンクへの警戒強化
  • OS/アプリの自動更新

こういう基本対策が今までより重要になる。AI攻撃は個人をターゲットにする時のスケール が桁違いに上がるから。


まとめ:「攻撃も防御もAIに任せる」時代の心構え

Claude Mythos Preview の 32-step 攻撃完遂評価って、AI×サイバーの臨界点 を公的に確認した重大な出来事。

3/10完遂、平均22ステップ、エキスパート級73%成功、人間20時間相当タスクの自動化。これらの数字は、サイバー攻撃の経済学 を根本から変える。

わたしたちユーザーが意識すべきは:

  • 個人レベル: 2FA、パスワードマネージャー、警戒心の強化
  • 企業レベル: EDR導入、Red Teaming実施、AI攻撃検知導入
  • 政策レベル: AI評価制度の整備、セキュリティ予算の確保

そして Anthropic の透明性 にも注目。「危険な能力も持ってる、でも公開する」というスタンスは、AIに対する社会的信頼 をどう築くかの一つの答え。

最終的には、攻撃側AIも防御側AIも進化 していくのが2026年以降の現実。完全に守り切るのは難しいけど、「想定外」を減らす準備 は今すぐ始めるべき。

関連記事: ChatGPT vs Gemini vs Claude 徹底比較

ソース: