EN

セキュリティ用語解説

ハルシネーション

ハルシネーションとは、AI(人工知能)が誤認や論理の矛盾を含む事象や事実とは異なる情報を作り出してしまう現象のことです。精密かつ信ぴょう性のある情報の中に誤った情報が混ざるため、ハルシネーションによる誤った情報をうのみにしてしまうケースもあります。

 

誤った情報が入力される場合にのみ、不正確な出力が生じると誤解されることもありますが、実際はさまざまな要因からハルシネーションは発生します。AIでは、次に出現する可能性が高い単語を予測することで文章を生成しており、正確性より文脈が重視されるため、自然な回答を目指して情報が生成されることによって、ハルシネーションが引き起こされます。他にも、学習に使用されるデータが古い場合にも、同様の出力が生じることがあります。また、AIでは理解できない質問に対しては、推測から情報を強引に生成され、ハルシネーションが引き起こされることがあります。

 

 ハルシネーションへの対策には、まずは「ハルシネーション」という現象を十分に理解することに加え、利用者がAIからの回答を注意深く調査し、情報の正確さと信ぴょう性を確かめることが必要となります。また、組織的にAIの利用を促進する場合にも注意が必要です。正しくAIを利用してもらうためには、正しい利用方法の積極的な周知だけではなく、注意点や責任範囲などを詳細に定義し、ガイドラインを策定することが効果的です。

 

さらに、ハルシネーションの発生を抑えるために有効的なアプローチを紹介します。

一つ目は、「精密な学習データの入力」です。より詳細な情報を追加することや、様々なとらえ方を生む曖昧な情報の削除によって、ハルシネーションの発生を抑えることが可能です。
二つ目は、「複数のAIの利用」です。ChatGPTやGoogle Geminiなど複数のAIを利用し、同じ学習データから出力される情報を比較することで、ハルシネーションの発生が確認できます。
三つ目は、「AIの検索機能の利用」です。Bing AIなどの検索機能を持つAIでは、関連した情報をリアルタイムで検索して回答を生成します。検索から引用された情報に誤りを含むケースもあり、利用には注意が必要となりますが、複数の最新の情報から回答が生成されるため、比較的ハルシネーションを抑制できます。

 

アルファベット順で探す