EN

こんな課題ありませんか?

icon_01

AI エージェントシステムの設計で考慮すべきセキュリティ観点が分からない

icon_02

リリース直前でのセキュリティ問題発覚による手戻りを防ぎたい

icon_03

経営層に AI エージェントのリスクをどう説明すればよいか分からない

task

AI Yellow Team は、AI エージェントや LLM を活用したシステムに対する脅威モデリングサービスです。

近年、AI エージェントの活用が急速に進む一方で、システム内部での自律的な判断やエージェント間の協調動作など、従来のセキュリティ対策だけではカバーできないようなリスクが顕在化しています。本サービスでは、設計段階でこれらのリスクを洗い出し、予防的なセキュリティ対策をご提案いたします。

 

なぜ従来手法では不十分なのか?

01-1

 

AI Yellow Team が対応する代表的なリスク例02-1

 

なぜ設計段階での対応が重要なのか?

AI エージェントの内部プロセスや複雑な相互作用に起因するリスクを適切に評価するには、 設計書レベルでの検討が不可欠です。また、これらの「見えないリスク」は運用開始後では発見・対処が困難なため、 事前の体系的な脅威モデリングが必要になります。

 

reason

AI Yellow Team でできること

1

潜在脅威を可視化し、戦略的なセキュリティ投資を実現

各脅威を「影響度 × 発生可能性」で評価し、リスクマトリクスとして可視化。 ビジネス影響度の高い脅威から優先的に対策することで、限られた予算・工数を 効果的に配分できます。経営層への報告や投資判断に必要な定量的データをご提供いたします。

2

網羅的な脅威分析による「抜け漏れ」の防止

「OWASP Top 10 for LLM」や「OWASP Agentic AI Threats and Mitigations」など、信頼性の高い国際的ガイドラインに準拠した脅威カタログを活用。経験や勘に頼らず、体系的・客観的にリスクを洗い出し、 アーキテクチャ図にマッピングされた視覚的な脅威マップとしてご提供いたします。

3

設計段階での予防的対策により、大幅なコスト削減を実現

後工程でのセキュリティ対策は、NIST の調査によると最大30倍のコストがかかるとされています。AI Yellow Team は設計初期に予防的なセキュリティ対策の立案を行うことで、AI エージェントシステム特有の複雑性に起因する修正コストを劇的に削減することが可能になります。

脅威モデリングの実施フロー

AI Yellow Team では、AI エージェントシステムに対して、セキュリティ脅威を洗い出し、具体的な対策へと落とし込むために、以下の4ステップでサービスを提供します。03-1

 

料金

個別見積もり

対応の期間・内容、システム規模などにより、お見積りが変動いたします。

詳細については、以下よりお気軽にお問い合わせください。

よくある質問

Q. 成果物はどのようなものですか
A.

以下の成果物をご提供いたします。
※ プロジェクトの規模や内容、お客様のニーズに合わせて成果物をカスタマイズいたします。04-1


Q. AI Red Team / AI Blue Team との違いは何ですか
A.

AI Yellow Team は AI エージェントシステムの設計フェーズでご利用いただくサービスです。

AI Red Team はリリース前のセキュリティ診断、AI Blue Team はリリース後の継続的なセキュリティ監視を行い、開発ライフサイクル全体をカバーします。

開発ライフサイクル図

Q. AI エージェントを利用していない AI システムも対象となりますか
A. はい、AI エージェントを利用していない AI システムにおける脅威分析についてもぜひご相談ください。