AIによる世論操作は国家安全保障の危機、米国国防省はニューラルネットワークでフェイクビデオの検知に成功

AIが現実と見分けのつかない偽のビデオを生成し、社会を混乱させている。これはフェイクビデオと呼ばれ、世論操作のために使われ、米国中間選挙への影響が懸念されている。米国国防省はAIを悪用した情報操作を安全保障への挑戦と捉え、フェイクビデオを検知する技術の開発を急いでいる。

出典: BuzzFeed

フェイクビデオとは

フェイクビデオとは悪意を持って改造されたビデオで、AIが現実に存在しない映像をリアルに描き出す。オバマ前大統領が演説しているフェイクビデオが登場した(上の写真)。これはAIが生成した映像で、どこから見ても本物そっくりで、もう仮想と現実の区別がつかない。これらフェイクビデオがFacebookやYouTubeなどに掲載され、偽の情報を拡散し、有権者の心を揺さぶる。

Adobe Photoshopを悪用しても

フェイクビデオ製作は今に始まった事ではなく、早くから登場している。編集ツールAdobe Photoshopなどを使うと、写真を改造したり、巧妙な偽ビデオを制作できる。しかし、編集は手作業で、精巧なフェイクビデオを作るには技量を必要とする。更に、10秒の短いビデオを制作するにも250枚のイメージを処理する必要があり、膨大な作業が発生する。このため、偽ビデオが大量に制作されることはなかった。

DeepFakeを使うと

しかし、AIを駆使したフェイクビデオ作製ツールが登場し、偽ビデオを作る作業が格段に簡素化された。このツールは「DeepFake」と呼ばれ、ビデオの中に登場する人物の顔を、別の顔と置き換える。このツールを使うと誰でも簡単に、顔をスワップした偽のビデオを制作できる。例えば、女優Jennifer Aniston (下の写真左側、オリジナル写真)の顔を、男優Nicolas Cage(中央)や歌手Taylor Swift(右側)で置き換えることができる。このツールの登場でフェイクビデオが大量に生成され、深刻な社会問題を引き起こした。

出典: Iryna Korshunova et al.

検知技術が追い付かない

フェイクイメージを検知するには、写真をピクセルレベルで解析し、ノイズやイメージセンサー特性などを手掛かりに、偽物を見つける。また、光の当たり具合や影のでき方など、物理的な条件を手掛かりに偽造を検知してきた。しかし、AIが生成するフェイクイメージは精巧で、これら従来の検知手法では偽造を見抜くことができない。

AIを使った検知技術

このため、米国国防省が主導してフェイクビデオを検知する研究が進められてきた。先月、最初の研究成果が登場し、その概要が論文「Exposing AI Generated Fake Face Videos by Detecting Eye Blinking」として公開された。この技術は「In Ictu Oculi (瞬きの間に)」と呼ばれ、瞬きからフェイクビデオを検知する。この技法はニューヨーク州立大学のSiwei Lyu教授らにより開発された。DeepFakeで生成された人物は殆ど瞬きをしないという特性を掴み、これをAIで解析して偽物を検知する。AIを悪用して生成されたフェイクビデオをAIで見抜く手法である。

検知方法

開発されたAI(ニューラルネットワーク)は、ビデオを解析し、ある時間内に人物が瞬きしたかどうかを判定する。ニューラルネットワークを試験するために、実際にフェイクビデオを生成し、その機能を検証した(下の写真)。上段はオリジナルビデオで、ニュース解説者Tucker Karlsonが喋っているシーンで、下段はこれを男優Nicolas Cageの顔で置き換えたフェイクビデオ。これら二つのビデオをニューラルネットワークに入力すると、上段ビデオは6秒のうち1回瞬きをしたと判定。一方、下段ビデオはまったく瞬きをしなかったと判定。人は平均で3.5秒おきに瞬きする。瞬きの回数からアルゴリズムは下段をフェイクビデオと判定した。

出典: Siwei Lyu et al.

その他のシグナル

検知技術は瞬きだけでなく、人間の生理学特性に着目し、不自然な動きを検知する。瞬きの他に、呼吸、心拍、眼の動きなどを解析し、フェイクビデオを検知する。人間は無意識のうちに呼吸し、これが体の動きとして現れる。AIはこのような身体特性を把握してフェイクビデオを特定する。この研究はその一端を公開したもので、フェイクビデオ開発者に手掛かりを掴まれることを避けるため、その他の手法は秘密裏に開発されている。DeepFakeはこれら人間固有の動作を取り入れることができず、ここがリアルとフェイクを見分けるポイントとなる。

国家プロジェクト

この研究はアメリカ国防高等研究計画局 (DARPA)配下で実施された。DARPAはイメージやビデオの信ぴょう性を解析する研究を進めている。これはMedia Forensics (MediFor)と呼ばれ、2016年にスタートした。市場でスマホが普及し、写真やビデオの量が増え、それに伴いイメージ改造技術が向上した。精巧な偽造イメージが登場し、何が本物なのかを判定できなくなった。更に、DeepFakeの登場でフェイクビデオ技術が格段に向上し、国家安全保障を揺るがす事態となった。

AI同士の知恵比べ

DARPAの最初の成果がIn Ictu Oculiで、瞬きの回数を手掛かりに、フェイクビデオを見抜くことができた。防衛技術がDeepFakeに勝利したこととなる。一方、DeepFakeなど攻撃側は、瞬きの回数を取り込み、より精巧なフェイクビデオを生成することは間違いない。これからは、検知技術のAIとフェイクビデオを生成するAIの知恵比べとなる。今回の研究成果はその第一歩で、これからフェイクビデオ対策の長い戦いが始まる。

Leave a Reply

You must be logged in to post a comment.