ディープフェイクとは、狭義には「巧妙に一部を改竄された写真/動画」を指しますが、現在では「AIを用いた偽写真/動画/音声全般」を指して使われることが多いです。ディープフェイク技術を用いて作られた音声や映像を利用することで、一般消費者向けサービスや、企業のシステムなどで採用されている音声認証、顔認証などが突破されるリスクが高まっています。
システムへの直接の攻撃だけでなく、人々の不安を煽るために使用される場合もあります。2023年5月23日、米国防総省近くで大規模な爆発が起こったような偽の画像がSNSで拡散されたケースでは、地元消防当局が爆発を否定する声明を発表したものの、ニューヨーク株式市場ではダウ工業株30種平均が一時80ドル近く急落したという事例もあります。
一方で、ディープフェイクを用いた攻撃には標的の生体データをある程度必要とするため、攻撃のハードルが一定以上あるという考えから、喫緊の脅威では無いとの見立てもあります。ただし、既にディープウェブ・ダークウェブ等の地下市場で個人情報が流通している中で、将来的には生体データも含めて「名寄せ」される段階を経て、攻撃が一般化する可能性も考慮しなくてはなりません。