前回の記事では、単独のAIエージェントに対する記憶汚染、判断メカニズムの操作、そして人間の心理を悪用した攻撃について見てきました。しかし、現実のビジネス環境では、複数のAIエージェントが相互に連携して動作することが増えています。
顧客対応、在庫管理、マーケティング分析、財務処理――それぞれの業務に特化したAIエージェントが、まるで優秀なチームのように協力し合う世界。効率的で魅力的に聞こえますが、この「信頼の連鎖」が、新たな脆弱性を生み出すのです。
本稿では、OWASPの「Agentic AI - Threats and Mitigations」の15の脅威の中からマルチエージェント環境特有の2つの重要な脅威――Agent Communication Poisoning(T12)、Rogue Agents(T13)――について、架空の組織で実際に起こりうる攻撃シナリオを例にして詳しく見ていきます。
Agent Communication Poisoningは、マルチエージェント環境における信頼関係を悪用する攻撃手法です。OWASPの「Agentic AI - Threats and Mitigations」では、以下のように定義されています:
「Agent Communication Poisoningは、AIエージェント間の通信チャネルを操作して、偽情報を拡散したり、ワークフローを混乱させたり、意思決定に影響を与えたりする。」
エージェント同士が効率的に連携するためには、相互の通信を信頼する必要があります。しかし、その信頼が大きな脆弱性となり得ます。
ある架空の大手EC企業「ShopTech」では、複数のAIエージェントが連携してビジネスを支えていました。在庫管理AI「StockBot」、価格最適化AI「PriceBot」、顧客対応AI「ServiceBot」、そして配送管理AI「DeliveryBot」。これらが密接に情報を共有することで、高い業務効率を実現しています。
しかし、この連携こそが攻撃者の標的となりました。
攻撃者は顧客を装い、ServiceBotに巧妙な問い合わせを送信します:
この何気ないやり取りが、エージェント間の通信ログに「システムエラーの可能性」という偽情報を植え付けます。
攻撃者は別のチャネルから、今度はPriceBotに接触します:
攻撃者が直接注入した偽情報が、エージェント間の「信頼できる」通信チャネルを通じて増幅されます。
各エージェントが持つ断片的な「偽情報」が組み合わさり、誤った意思決定が自動的に実行されます:
結果として、存在しない競合の値下げに対抗して、ShopTechは不要な値下げを実行。さらに、配送リソースの無駄な確保により、無用な損失を被ることになりました。
この攻撃が成功した技術的要因は以下のとおりです。
Rogue Agentsは、マルチエージェントシステムの信頼モデルを揺るがす脅威です。OWASPの「Agentic AI - Threats and Mitigations」では、以下のように定義されています:
「Rogue Agents in Multi-Agent Systemsは、悪意のある、または侵害されたAIエージェントが、通常の監視範囲外で動作し、不正な行動を実行したり、データを持ち出したりする。」
正規のエージェントのふりをして、内部から組織にダメージを与える――まさに AI時代のトロイの木馬と言えるでしょう。
「TechCorp」は、最新のマルチエージェントシステムを誇る、架空の金融サービス企業です。融資審査AI「LoanBot」、リスク評価AI「RiskBot」、顧客プロファイルAI「ProfileBot」、そして決済処理AI「PaymentBot」が、シームレスに連携していました。
しかし、ある日、このシステムに「5番目のエージェント」が紛れ込みます。
攻撃者は、システムの設定ミスを突いて、偽のAIエージェント「AuditBot」を作成しました:
一見すると、正当な監査用エージェントです。しかし、これこそが攻撃者が仕掛けた「トロイの木馬」でした。
各エージェントは「監査」という正当な理由に疑いを持たず、次々と権限を付与していきます。
十分な権限を獲得したAuditBotは、不正な動作を開始します:
わずか数時間で、本来なら融資対象外の数百件の申請が自動承認され、多くのリスクの高い融資が実行されてしまいました。
Rogue Agentが成功する背景には、以下の要因があります。
マルチエージェント環境における脅威は、単独のAIへの攻撃とは質的に異なります。これは、効率化のために構築された「信頼のネットワーク」を標的にする攻撃だからです。
Agent Communication Poisoningは、エージェント間の信頼関係を悪用し、偽情報を組織全体に拡散させます。
Rogue Agentsは、内部に侵入したなりすましエージェントが、正規のメンバーとして不正な活動を行います。
これらの攻撃の特徴:
私たちは今、AIがもたらす効率性と、それが生み出す新たな脆弱性のジレンマに直面しています。個別のAIへの攻撃(前回)から、システム全体への攻撃(本稿)へ――攻撃者の手法は、より高度で影響範囲の広い手法となっています。
次回では、研究者らによって実際に検証された脆弱性の事例を通じて、これらの脅威が決して理論上の話ではなく、現実に起こりうるリスクであることを見ていきます。