FacebookはAIでフェイクニュースを取り締まる、(トランプ大統領誕生の悲劇を繰り返さないために)

米国大統領選挙でFacebookを介してフェイクニュースが拡散し世論が操作された。発信元はロシアで、この結果トランプ氏が当選したとも言われている。Facebookは対策が不備であったことを認め、AIを駆使したフェイクニュース対策を発表した。米国だけでなく欧州やアジアでも、フェイクニュースによる世論操作が顕著になっている。

出典: Facebook

Facebook開発者会議

Facebook CEOのMark Zuckerbergは2018年5月1日、開発者会議F8で選挙対策、フェイクニュース対策、データプライバシー対策など、プラットフォームの安全性を強化するための基本指針を発表した (上の写真)。2016年の米国大統領選挙では対応が不十分で、ロシアによるフェイクニュースが拡散し、これが選挙結果に大きく影響したことを認めた。この教訓を踏まえ、AIやMachine Learning (機械学習) やComputer Vision (画像解析) を活用し、不適切な記事を検知し、拡散する前に取り除く対策を発表した。

既に対策が進んでいる

既に対策が実施されており、フランス大統領選挙、ドイツ連邦議会選挙、米アラバマ州上院補選では、AIツールが使われ数十万の不正アカウント (Fake Account) が削除された。また、米大統領選挙の追跡調査で、不正アカウントを辿るとロシアが関与していることが分かり、これらを閉鎖したと公表した。今年は米国で中間選挙が、この他に、メキシコ、ブラジル、インド、パキスタンなどで重要な選挙が予定されており、Facebookが悪用されないために万全の対策を講じることを宣言した。

ヌードと暴力シーン

FacebookはZuckerbergの講演に続き、不適切な投稿を削除するための具体的な対策を発表した。不適切コンテンツは幅が広く、それを検知する技法も異なる。不適切コンテンツの代表はヌード写真や暴力シーンであるが、これらはComputer Visionを使って検知する。AIの進化でComputer Visionの性能が向上し、これらを高精度で判定する。システムがほぼ全自動で削除するが、判定が難しいものについては専任スタッフが対応する。

ヘイトスピーチ

反対に、AIにとって一番難易度が高いのがヘイトスピーチの検知である。ヘイトスピーチとは、人種や宗教や性的指向などに対して誹謗中傷する行為を指す。攻撃は投稿されるメッセージで行われ、AIはテキストの内容を理解する必要がある。記事は相手を中傷しているのか、それとも、別のことを意図しているのか、コンテクストの理解が必須となる。

検知が難しい理由

例えば、「I’m going to beat you!」というメッセージを受け取ると、これは自分を中傷してるかどうかの判断は文脈による。「あなたを叩く」という意味だと攻撃で、「あなたに勝つよ」という意味だと、お互いに切磋琢磨しようというポジティブな意味にもなる (下の写真、「Look at that pig!」も解釈が難しい)。

出典: Facebook

AI技法を開発中

人間でも判断に迷うことがあるが、AIにとっては最難関の分野で、今の技術では正しい判定はできない。この理由の一つが教育データの不足で、アルゴリズムを教育するためヘイトスピーチの事例を集めることが喫緊の課題となっている。このため、Facebookは別のAIでヘイトスピーチを自動生成する技術を開発しており、二つのAIでヘイトスピーチを検知する技法を目指している。

フェイクニュース

大統領選挙で問題となったフェイクニュースについて、Facebookは重点課題として対策を進めている (下の写真)。AIがこれを直接検知する技術は確立されていないため、フェイクニュースを発信している不正アカウントを突き止め、これらを閉鎖することで情報拡散を防止する。

出典: Facebook

不正アカウントはフェイクニュースだけでなく、スパムや悪質な広告を発信する目的でも使われている。このため、詐欺被害が相次ぎ、Facebookは対策を進めている。不正アカウントは特異な挙動を示し、AIがこのパターンを検知する。例えば、スパムを発信する不正アカウントは、記事を高頻度で投稿するなど特異な挙動を示し、このシグナルをMachine Learningの手法で検知する。

テロリズム

ソーシャルメディアが過激派組織の広告塔として使われ、深刻な社会問題を引き起こしている。FacebookはAIを導入し、イスラム国やアルカイダなどのプロパガンダを特定し、これらを削除している。2018年第一四半期にはイスラム国とアルカイダに関連するコンテンツ190万件を削除し大きな効果をあげている。

過激派組織が投稿するコンテンツはAIが検知する。写真については、AIが既に削除した写真やビデオと比較し、これらを特定する。テキストについては、AIがテロリズムを奨励するテキストを理解する。アルゴリズムが、既に削除されたテキストを学習し、文字ベースのシグナルを把握する。AIがテロリズムに関連するコンテンツを検知するとともに、専任スタッフや専門家がマニュアルでこれらの作業を並行して行う。

AIの限界

Facebookはこれらの対策でAI、Machine Learning、Computer Visionを使っているが、上述の通り、全ての問題を解決できる訳ではない。このため、Facebook利用者のフィードバックが重要な情報源となる。Facebookは不適切なコンテンツがある場合はレポート (下の写真) してほしいと利用者に呼び掛けている。同時に、Facebookは専任スタッフを2万人に増員し、手作業による不適切コンテンツの摘発を進める。

出典: Facebook

プラットフォームの責任

先の大統領選挙では、Zuckerbergはオバマ政権からFacebookを使った情報操作が行われているとの警告を受けたが、その対策は講じなかった。この理由は、Facebookはニュース配信社ではなく“掲示板”であり、恣意的に特定記事を削除することは妥当でないとの解釈による。しかし、Cambridge Analyticaの個人データ流出問題を受け、Facebookが社会に与えた影響は甚大であることが明らかになり、Zuckerbergは会社の方針を大きく転換した。掲示板であるが不適切な記事は掲載させないことがプラットフォームの責務であるとの指針のもと、AIツールを駆使して再び世論が操作されることを阻止している。

Leave a Reply

You must be logged in to post a comment.