
今や毎日のように生成AIという言葉を目にするようになったが、同時に、AIならではのセキュリティ事故も報じられ始めている。AIのポテンシャルを生かしつつ、リスクに備えるにはどういったポイントに留意し、会社としてどのような体制で取り組む必要があるのだろうか。
10年ほど前からAIとセキュリティというテーマに関心を抱き、常に最新動向を追いかけつつ、日本企業からのさまざまな相談に答えてきた三井物産セキュアディレクションの高江洲勲とNRIセキュアテクノロジーズの柿本健司という二人の凄腕エンジニアが、未来に向けた指針を語った。
-
高江洲 勲
- 三井物産セキュアディレクション プロダクト&ソリューション事業部
システムインテグレーターで開発業務を経験した後、セキュリティの社会的重要性の高まりを考えセキュリティ専業の企業に転職。MBSDに入社し、Webアプリケーションの脆弱性診断業務を担当していた最中に精度の高い画像識別AIが登場したことがきっかけで機械学習とセキュリティというテーマに取り組み始める。その後、機械学習やLLM、AIに対する攻撃とその防御方法やAIを用いたセキュリティ業務の効率化・高度化といった切り口での研究開発に携わっている。 -
柿本 健司
- NRIセキュアテクノロジーズ 研究開発センター サービス開発推進部 セキュリティコンサルタント
情報工学を専攻した後、セキュリティ関連業務に興味を抱いてNRIセキュアテクノロジーズに入社。Web・メールアクセスの監視・運用業務に携わる中、社内で開催されていた「生成AI勉強会」をきっかけに、LLMや生成AIの仕組みとそれらへの攻撃手法に強い関心を抱くようになった。問題意識をさらに深めるため現在の部署に異動し、「AI Red Team」をはじめとするAI関連の新規セキュリティサービスの開発に携わっている。
安易な生成AI利用が招く情報漏洩のリスク、対策のポイントは多層防御
Q:AI、生成AIにはセキュリティ面でどのようなリスクが存在するのでしょうか。
たとえばChatGPTの公開後早々に韓国サムスンでソースコードや会議メモが外部AIに入力される事案が報道されました。さらに、会話の“共有リンク”の設計・設定、あるいはバグなどが原因で、意図せず第三者から閲覧可能(検索に露出する場合もある)になった問題も指摘されています。
これらは依然として注意し続けなければいけない事柄でしょう。
クラウドサービス登場時から、安易に翻訳サービスなどに機微情報を入力すると情報漏洩のリスクがあることは指摘されていました。生成AI時代になってもその点は基本的に変わらないと思います。
生成AIサービスの場合はさらに、ユーザーが入力したデータを学習されてしまうという別の問題もあります。一度学習されてしまうと裏側のエンジンに取り込まれ、ピンポイントで消すことはほぼできません。結果として、第三者のプロンプトを介して、学習されてしまった機微情報が漏洩するリスクがあります。
こうした事象を防ぐためのユーザー教育やルール作りはまだ十分に整備されていない状況だと感じています。
Q:従来のセキュリティ対策はこうしたリスクに効果がないのでしょうか?
LLMの場合ですが、従来のセキュリティ対策がまったく効かないかというとそうではありません。最小権限の原則はその一例です。仮にLLMがジェイルブレイクされ、連携するシステムに不正なコマンドを発行してしまった場合、管理者権限で動作していると被害は甚大になりますが、従来の原則に従って最小権限で実行していれば被害を軽減できるでしょう。
こうした従来のセキュリティ対策をしっかり実施した上で、LLMならではのセキュリティ対策をプラスアルファで実施することが基本だと考えています。
では、LLMならではのセキュリティ対策とはどのようなものかというと、これも基本的な観点は従来のセキュリティ対策と同じだと思っています。まず、LLMに入ってくる悪意あるものをいかに検知・ブロックするか、次に、やられてしまった場合でも何か危ない情報が出る前にいかに検知するか、そして、LLM自体をいかに強くするかーーつまり、入口と出口とLLM本体という3つの観点があり、入口と出口での対策観点は、基本的にこれまでの考え方と同じだと思います。
ただ、従来のシステムでは悪意あるものをルールベースで検知できましたが、LLMでは入力データが自然言語となります。具体的にどういった言い回しの文言が安全で、どんなものは危ないのかの定義が難しく、従来のルールベースの仕組みでは守りが難しい部分があるでしょう。
また、LLM自体を強固にする仕組みもありますが、一方でそうした安全機構を破壊するジェイルブレイクのような手法もいたちごっこで出てきています。ですので、「何かこれ1つをやっておけば守れます」というソリューションは現時点では存在せず、セキュリティ対策を多層で設計し、多層防御を通して攻撃の成功率を下げていくかがポイントになります。
Webアプリケーションに存在するSQLインジェクションなどとは異なり、自然言語を介した攻撃となるため、ルールベースで特定の文言だけを引っかけようとしても限界はありますね。
また、多層防御の一環として、LLMの前に別のLLMを用意し、そのLLMでプロンプトの内容に悪意があるかどうかを判定させる手法が提案されています。攻撃を成功させるには、二つのLLMの両方に刺さる攻撃をしなければならなくなり、難易度が上がることから、攻撃の幅を狭めることができます。このようにいろいろな手法を組み合わせ、多層防御で攻撃の成功確率を下げていくのが基本的なスタンスになると思います。
NRIセキュアテクノロジーズ 研究開発センター サービス開発推進部 セキュリティコンサルタント 柿本健司
セキュリティの現場でも当たり前になったAI活用
そうですね。我々も、調査タスクや簡単な検証プログラムの作成などでAIを当たり前のように使うようになってきました。AIを使っている人と使っていない人の生産性の差が大きくなってきたことを、身をもって感じています。
もちろん、先に触れたようなリスクも承知していますから、お客様の情報や自社の資産を入力しないことは大前提です。インターネット上の情報を検索して資料の叩き台を作成したり、プログラムの方針を示して設計させたり、コードを書いてもらうといった使い方をしています。こうした使い方ならば、機微情報の漏洩といった問題なく活用できると考えています。
もはや、AIを使わないという選択肢はないと思っています。
私も仕事柄コードを書くことがありますが、その際の初手はもう、LLMです。やりたいことをまとめてプロンプトに入力し、たたき台を作ってもらい、出てきたコードをレビューしておかしなところがあれば「ここを直してね」と再度依頼し、ある程度の形ができるところまで持ってきていますが、やはり生産性が段違いですね。
社内を見ても、技術者だけでなく営業担当も当たり前のように活用しています。職種に関係なくAIを使う時代が到来しており、この波は今後も変わらないでしょう。
一方、セキュリティと直接の関係はありませんが、気になる点もあります。生成AIサービスに依存してしまった場合、長期的に見ると人間の思考力は低下すると指摘する論文が出てきています。特に、生成AIを使うのが当たり前という若い世代に対し、中長期的にどう影響が出てくるのか、気になるところではありますね。
生成AIにコード作成を依頼した結果、かえってレビュー業務の負荷が増大するという指摘もあります。また、成果物が依頼した本人にもよく分からない内容になってしまうこともあるため、社内の関係者に説明し、理解を得て進めていくのは大変でしょう。現時点では、品質が求められるようなケースでの適用はまだ難しく、技術検証やPoCで使うコードを作成するのがメインの使いどころですね。もっとも、生成AIモデルの精度向上は目をみはるものがあるので、すぐに状況が変わる可能性もありますが。
もう1つ、LLMには応答が安定せず、不確実性がつきまとう課題もあります。これもセキュリティの側面からすると難しい話です。
そこで今、LLMの応答の不確実性を可能な限り低減させる設計に関する議論が生まれてきています。
信頼できるデータのみを取り扱うLLMと、外部からの信頼できないデータも取り込むLLMを、設計上完全にわけてしまい、お客様の入力は前者で処理し、Webサイトなどの外部データソースは後者で処理をすることにより対策をするというアイデアです。この場合、利便性が下がるというデメリットも生じますが、LLM単体につきまとう不確実性をできるだけ低減するような形にシステム全体をデザインしていく、という新たな方向性は面白いなと感じています。
セキュリティのデザインに関する考え方も変わっていきそうですね。
Q:他に、生成AIならではの留意点はあるでしょうか?
AIをどんどん活用していく上では、社内教育が不可欠だと思います。機微な情報は入力しない、AIの結果を鵜呑みにしないといった基本を教育・啓発し、さらに先進的なお客様では、AIで処理する通信内容をモニタリングする仕組みを必要に応じて導入しています。
DXを前提にしたAIトランスフォーメーションが重要なポイントに
三井物産セキュアディレクション プロダクト&ソリューション事業部 高江洲 勲氏
Q:そんな中で、安全にAIを活用するにはどうすればいいのでしょうか。
やはり「AIトランスフォーメーション」が必要だと考えています。
まず大前提として、何でもかんでもAIーーLLMを使えばいいというものではありません。まず普段行っている業務プロセスを理解し、分解して、どの部分にどういった形のAIを活用するのがいいのか、それはLLMなのか、別の種類のAIなのかーーといった事柄を整理するところから入っていくのが自然ではないかと思います。それができてはじめて、「この特定の業務にLLMを活用していきましょう」と決めることができるはずです。
次に、LLMを活用してシステムを組む上でどのようなリスクがあるかを分析していく必要があります。もし社内で利用するだけでなく社外にも提供するシステムを構築するのであれば、当然、リスクも増えていくでしょう。そうしたことも加味して、設計段階、あるいはある程度システムを作った後に、攻撃者の観点でAIのセキュリティ態勢や対策の有効性を確認するAIレッドチーミング、いわゆる診断によって確認していくことが大事だと思います。我々もそうしたサービスを通して、「ここが脆弱性の作り込みポイントになりそうだ」というところを指摘し、どのように防壁を設け、攻撃の成功率を下げていくかをアドバイスしています。
Q:なるべく早い段階で脆弱性の有無をチェックし、修正する方がいいという部分は、Webアプリケーションの脆弱性対策と変わりませんね。
そうですね。実際の攻撃経路は多少変わってくるところはありますが、設計段階からセキュリティを考慮してリスクを洗い出し、それを踏まえてセキュリティをデザインしていくという根本は大きく変わらないように思います。
Q:会社全体でAI活用を進めていく際のポイントもお願いします。
LLMを導入したからといって、その会社で急激に効率が高まるかというと、そうではないと思います。効果を最大化するために、その会社で蓄積されてきたノウハウやデータがAIと連携しやすい形で整理整頓されているかが最も重要です。一言で言ってしまうと「DX」ですが、きちんとDXができてはじめて、AIトランスフォーメーションが実現できるのではないかと思います。
個人でChatGPTを使うだけの状態とは異なり、会社としてパフォーマンスを高めていける回答を得るには、やはり、これまで会社が蓄積してきたデータ化されたノウハウをコンテキストとして活用していくことが最も重要です。AIは大事ですが、まだDXが十分進んでいないのであればまずそこから始めるべきではないかと思います。
これはセキュリティを守る際にも重要なことです。組織のデータがきちんと整理整頓されていれば、守るべき資産が何かを特定でき、さらに、守る側のAIで「こういった情報を盗もうとする手法を防御してください」という具合に活用していくことができます。社内のデータがきちんと整理整頓されている企業であれば、攻撃側よりも有利になれる可能性もあるでしょう。
ですからAIに突っ走る前に、まずはデータをしっかりと整理整頓することが大事だと思います。そこを抑えることができる人や組織の方が、AIの恩恵をより享受できるでしょう。
いろいろな方がおっしゃっていますが、今後、AIの活用は避けようのないトレンドです。セキュリティベンダーの中にも、生成AIを活用して脅威分析などの事業を高度化し、SOCに配置していた人員を削減したところがあります。もうAIを活用しないと取り残されるような時代になってきているため、積極的に取り入れていく必要があるでしょう。
ただ、何も考えずに使ってしまうと大きなダメージを負ってしまう恐れもあります。守るべきものを抑え、自分たちの事業で活用するとしたらどこに留意する必要があるかを明確にした上で利用を進めていくことが大事になっていくでしょう。設計レビューやシステム診断といったサービスを通してそうしたお客様を支援し、適切な生成AI活用を推進していければと思っています。
AIエージェントを見据えてさらに高まるSecurity for AIの重要性
Q:この先、AI技術はどのように変化していくでしょうか。
今、急速にエージェントが普及しています。
ChatGPTが登場した当初は、人間がプロンプトを入力し、回答をもらって何かをするという比較的単純なモデルでした。しかし、エージェントとLLMが合体し、LLMを思考基盤にしたエージェントが実際の行動を取るようになり、2024年末ごろからエージェントを使ったサービスが増えてきました。2025年に入ってからは、複数のエージェントを協調させ、より複雑なタスクを自律的に実行するマルチエージェントが登場しています。
これまでは、1つのLLMが侵害されても影響するのは1人のユーザー、1つのアプリケーション程度でした。しかしエージェントはさまざまなコンポーネントにつながってくるため、侵害された場合の被害範囲が拡大してくることが懸念されます。その意味で、Security for AIの重要性は今後いっそう増してくるのではないかと思います。
また、この先のWebは、人間が操作してきた従来のWebとは異なり、エージェントが自律的にいろいろなWebやシステムと連携して情報を収集し、処理を実行し、結果だけを人間に返すようなエージェントベースの「エージェンティックWeb」になっていくでしょう。SFのような世界ですが、すでに「AIブラウザ」が登場し始めていることから、Web全体がエージェントを前提した世界になる可能性があるのではないでしょうか。
これが実現されれば業務がさらに高度化・効率化する一方で、システムが複雑化しすぎて、どこにどのような脅威があるのかがわかりにくくなります。そして、エージェント自体にも、意図しない動きをしてしまうリスクがあります。
そんな中でエージェント一個一個の動きをどう見える化し、監査し、セキュリティを担保していくのかが、セキュリティベンダーに求められていくと考えています。ベースのLLM、その上に乗って動作するエージェント、エージェント同士がつながって形成されるマルチエージェントシステムーーそれらに対し、脅威モデリングやAIレッドチーミングによってセキュリティを担保するといった役割を果たしていきたいと考えています。
Q:そうなると、アナリストや診断員にも高度なスキルが求められますね。
まずは作るシステム、使うシステムの脅威モデリングをしてリスクを洗い出し、AIレッドチーミングを行うという基本的なアプローチは変わりません。ただ、対象が複雑になってくると、人間が主の対応ではリソース的に厳しくなってくるでしょう。セキュリティサービスを提供する側もエージェントを活用することで、AI for AI Securityとでも表現できるような世界に足を踏み入れていくことになるのかなと思います。

<関連サービス>
AIセキュリティ対策 特設サイト
- AIシステムの包括的セキュリティ診断サービス 『 AI Red Team 』
- AIシステムの継続的セキュリティ監視サービス 『 AI Blue Team 』
- 設計段階での脅威モデリングサービス 『 AI Yellow Team 』













