AI駆使し本物そっくり 「ディープフェイク」の脅威

ディープフェイクは動画内の顔を入れ替えることで他人になりすますことが可能に
ディープフェイクは動画内の顔を入れ替えることで他人になりすますことが可能に

人工知能(AI)の最新技術を使って、本人とそっくりのニセ映像を作る「ディープフェイク」の被害が広がる兆しを見せています。映像だけでなく音声や文章でも本物そっくりのフェイクコンテンツを生成する技術が進み、海外ではニセ音声を詐欺に悪用する事例も出ています。こうしたフェイクメディアを検知し被害を未然に防ぐための国の研究プロジェクトも12月に始まりました。

警視庁や京都府警などは10月、芸能人らの顔を合成したポルノ動画をインターネットに投稿した男3人を名誉毀損と著作権法違反の容疑で摘発しました。ディープフェイク動画の摘発は国内では初めてです。500本を超える動画が投稿され、被害にあった芸能人は延べ約150人に上るとされます。

こうしたフェイク動画生成にはディープラーニング(深層学習)と呼ばれるAI技術が使われており、人物の顔の部分を有名人のものに入れ替えたり、動画中で発言している有名人の口の動きを操作して別のことをしゃべっているように見せたりするなど、いくつかのパターンがあります。

最新の技術では人物の顔写真1枚あるだけで、その人物が話している様子を生成できます。まだ画質が粗いものの、有名な経営者がビデオ会議の画面に登場して発言するフェイク映像も実験的に作られています。

問題になっているのは映像だけではありません。ニセの音声はフェイク映像を作るのと似た技術で生成できます。また人間が書いた文章と見分けがつかないほどの自然な文章を、米研究機関が開発した「GPT」と呼ばれる言語モデルを使うことで生成できるようになりました。こうした映像以外の偽コンテンツも最近はディープフェイクと呼ばれるようになりました。

企業幹部に成りすました音声で送金を指示する電話がかかってきて、金をだまし取られるという事件が昨年欧州で起きました。人間そっくりの文章を大量に作れるAIは、デマやフェイクニュースを故意に拡散する手段に使われる恐れがあります。

「本物そっくり」のデジタルコンテンツを作る技術は、往年の歌手の姿を現在のステージによみがえらせるといった演出など、文化や芸術、ビジネスにも応用できる半面、悪用された場合のリスクが大きくなっています。政府は偽映像やフェイクニュースなどを検知し被害を防止するための研究プロジェクトを5年半にわたって進めます。同プロジェクトを統括する越前功・国立情報学研究所教授は「フェイクメディアによる被害が本格化する前に手を打つ必要がある」と話しています。

注目記事
次のページ
越前功・国立情報学研究所教授「偽情報の氾濫は大きな