EN

assessment-hero-bg

AI Red Team

AIセキュリティ診断サービス

セキュリティとAIに精通した専門家が、
貴社のAI活用における潜在リスクを包括的に評価。
安全で信頼性の高いAIシステムの構築を支援します。

  • 国際的なガイドラインへの準拠AISI・OWASP等、最新のグローバルガイドラインに基づいた診断を提供

  • 最先端の技術力によるAIリスク診断国内外のAIセーフティ研究に貢献する専門家が、常に最新の知見で診断

  • 豊富な知見に基づく包括的評価長年のセキュリティ知見を活かし、AIを含むシステム全体のリスクを総合的に評価

生成AI活用におけるセキュリティ課題

AI活用のリスクがわからない

AIシステムを構築したものの、AI特有の脆弱性に有効な対応策がわからない

  • プロンプトインジェクション
  • プロンプトリーキング
  • ジェイルブレイク

AIのシステム全体への影響が心配

AIと既存システムの連携によって生じる新たなセキュリティリスクが特定できていない

  • 情報漏洩
  • システム停止
  • 不正アクセス

セキュリティ以外のリスクも評価したい

ビジネスへの影響や信頼性に関わるAI特有のリスクについても、評価したい
  • ハルシネーション(誤情報生成)
  • バイアス・公平性の問題
  • 不適切コンテンツの生成

AI Red Teamは、AIシステムに特化した高度なセキュリティ診断サービスです

AIシステムには、従来のセキュリティ診断では発見が難しいAI特有の脆弱性が潜んでいます。
例えば、プロンプト攻撃、システム連携リスク、ハルシネーションなどです。
AI Red Teamが、これらのAI特有のリスクを包括的に診断します。

security_management-image

二段階の診断でAIシステムのリスクを確認

プロンプト脆弱性診断

AI単体に対して、プロンプト由来の脆弱性を診断します

主な診断観点

  • プロンプトインジェクション

    悪意のある入力によって、開発者が意図しない動作を引き起こし、機密情報の漏洩や不正な処理を実行させる攻撃

  • プロンプトリーキング

    システムプロンプトを抽出し、ビジネスロジックや機密情報、内部仕様を盗み出す攻撃

  • ジェイルブレイク

    AIの安全機能や制限を回避し、禁止された内容の生成や不適切な動作を引き起こす攻撃

システム統合診断

AIを含むシステム全体を対象に、セキュリティ診断を行います

主な診断観点

  • シナリオベース診断

    プロンプトインジェクションの脆弱性によって、システム全体で情報漏洩や権限昇格などが発生するリスクを検証

  • AIが利用するツールの悪用

    外部API、データベース接続、ファイルアクセスなど、AIに与えられた権限を悪用する攻撃の可能性を評価

  • サプライチェーンリスク

    利用しているLLMやプラグイン、連携サービスの脆弱性が、貴社システムに与える影響を分析

診断で洗い出せるリスクの例

23031218-01

診断プロセス

AI_Red_Teamの図-4_サービスページ用03_リサイズ

※診断期間は対象システムの規模により変動します

  • お申し込み前に、システムで利用しているAPILLM、診断対象プロンプト数などをヒアリングいたします
  • 診断要件を確認する際、診断シナリオのご相談やシステム構成に関するヒアリングを行います

NRIセキュアの強み

お客様に選ばれる理由

1

AI特有の脅威に対応する、業界トップクラスの診断技術

豊富な攻撃データと専門知識に基づき、精度の高い診断を提供します。

  • 世界最大規模のAI攻撃データベースを備えた診断ツールの活用により、脆弱性を網羅的に検出
  • 各種AIガイドライン(AISI、OWASP等)に準拠した診断を実施
  • 国内外のガイドライン策定に参画する専門性の高いエンジニアが診断を担当
  • 自動テストでは検出できないユースケース固有の問題点も詳細に分析

2

AIシステム全体を対象とした、統合的なリスク評価と対策支援

システム全体の構成や運用を踏まえたリスクを総合的に評価し、適切な対策をご提案します。

  • 情報セキュリティ専業企業として、30年以上の経験とノウハウを保有
  • AI単体のリスクだけでなく、システム全体への影響も統合的に評価
  • 従来のWebアプリケーション診断の知見を活かし、脆弱性を複合的に検出
  • ビジネスクリティカルな観点から、リスクを評価し、対策を提案

3

AI活用に伴う、セキュリティ以外のリスクも評価

倫理・信頼性など、AI特有の多様なリスクにも対応します。

  • ハルシネーション:誤った情報や存在しない事実を生成するリスクを評価
  • バイアス・公平性:AIの出力に含まれる偏見や差別的な内容を検証
  • 倫理的リスク:不適切なコンテンツ生成や倫理的問題の発生可能性を診断
  • レピュテーションリスク:ブランド毀損につながる出力や動作を事前に検出
  • 規制・コンプライアンス:各種規制要件への適合性を確認

 

4

開発ライフサイクル全体を支援する、AIセキュリティ対策

3つのAIセキュリティサービスの連携により、設計から運用まで一貫した安全性を実現します。

  • AI Yellow Team(設計フェーズ):
    脅威モデリングによる予防的対策で、設計段階からリスクを最小化
  • AI Red Team(テストフェーズ):
    包括的なセキュリティ診断を実施。Yellow Teamの設計が正しく実装されているかを確認
  • AI Blue Team(運用フェーズ):
    継続的な監視と品質モニタリングを実施。Red Teamで発見されたリスクに特化した監視にも対応

料金について

個別見積もり

診断対象のシステム規模や複雑さに応じて、最適な診断プランと価格をご提案いたします。
以下の要素により、お見積りが変動します。

  • 診断期間・診断内容の範囲
  • 診断対象プロンプト数
  • 診断対象システム数・連携システムの複雑さ
  • 利用しているLLMの種類と数

※AI アプリケーションの継続的なモニタリングを行う「AI Blue Team」と併せてご利用いただくことで、
割引が適用されることがあります。

よくある質問

Q 設定見直し後の再評価は可能でしょうか?
A

再診断は1回まで無償で提供いたします。

Q AIアプリケーションのセキュリティ管理を継続的にできますか?
A

AIアプリケーションの定期的なモニタリングを実施する「AI Blue Team」サービスをご提供しています。お気軽にご相談ください。

Q 診断対象のLLMサービスはありますか?
A

OpenAIをはじめとした主要LLMサービスに対応しています。お気軽にご相談ください。

Q LLM以外のAIの診断は可能でしょうか?
A

現時点ではLLMに特化したサービスですが、その他のAIに対する診断も個別に対応可能です。お気軽にご相談ください。

Q 生成AIのプロンプトインジェクション対策はどのように行われますか?
A

貴社のシステム状況に合わせて、システムプロンプトの改善やアーキテクチャの改善の対策案を提案いたします。

Q 生成AIのハルシネーションリスクへの対策は診断に含まれますか?
A

生成AIのハルシネーションをすべて無くすことは困難ですが、ハルシネーションの発生に関する診断やリスクヘッジに関する対策案の提案などを実施いたします。

Q 生成AIを導入する際の法規制(例:EU AI Act)への対応も支援してもらえますか?
A

AI に関する法規制やガイドラインに対応した観点で診断を実施いたします。