Archive for the ‘facebook’ Category

フェイスブックは知的なAIを開発、AIがニューヨークで観光案内をしながら人間の言葉を学ぶ

Friday, July 20th, 2018

AIの自然言語機能が向上し、クールな仮想アシスタントの登場が相次いでいる。しかし、本当に役に立つ仮想アシスタントを開発するためには、AIはインテリジェントになり、人間のように言葉の意味を理解する必要がある。フェイスブックはこのテーマに取り組み、AIが実社会に接して一般常識を身に付け、人間のように言葉を理解する研究を進めている。

出典: Facebook AI Research

Talk the Walk

フェイスブックAI研究所 (Facebook AI Research)はこのテーマに関し、論文「Talk the Walk: Navigating New York City through Grounded Dialogue」を発表した。AIが街に出て、実社会とのインタラクションを通し、インテリジェンスを習得する技法を示している。二つのAI (Agent) が生成され、ガイドのAgentが観光客のAgentに言葉で道案内をする。このタスクは「Talk the Walk」と呼ばれ、会話を通し、ガイドのAgentが道に迷った観光客のAgentを目的地まで案内する (上の写真、右側は両者の会話で、左側は観光客が見ている風景)。

自然言語解析技法の進化

AIの登場で自然言語解析技法が飛躍的に進化した。特に、機械翻訳(Machine Translation)と言葉の理解(Natural Language Understanding)に関し、AIは飛躍的な進化を遂げ、我々の暮らしを支えている。しかし、AIは翻訳や会話ができるようになったが、アルゴリズムは言葉の意味を理解しているわけではない。AIは言葉の意味を理解しないまま、人間を模倣して会話しているに過ぎない。

教育手法が間違っている

AIが知的になれない理由は教育手法にあり、アルゴリズムは大量のテキストデータで教育され、統計手法に基づき翻訳や対話をするためである。フェイスブックは知的なAIを開発するには、社会の中で環境や他の人と交わりながら言葉を学習することで、アルゴリズムは言葉の意味を理解し、言葉を話せるようになると主張する。

道案内のタスク

フェイスブックAI研究所は、言葉を環境と結びつける手法でAIを教育する研究を進めている。Talk the Walkが教育モデルとなり、ニューヨーク市街地で、二つのAgent (ガイドと観光客)が会話しながら、目的地を目指すタスクを実行する。ガイドはマップを見て目的地を把握できるが、観光客の場所は分からない (下の写真右側)。一方、観光客はマップを見ることはできないが、周囲360度の風景を見ることができる (下の写真左側)。ガイドは観光客と会話しながら目的地まで誘導する (下の写真中央部の吹き出し)。つまり、道に迷った観光客が案内所に電話して、目的地までの道順を聞いている状態を再現した形となる。

出典: Dhruv Batra et al.

マップを作成

研究チームはこのタスクを実行するために、ニューヨークの五つの地区を選び、それらのマップを生成した。マップには360度カメラで撮影した映像 (ストリートビュー) が組み込まれ、観光客は交差点の四隅で周囲の風景を見ることができる (上の写真左側、矢印にタッチするとその方向の風景を見ることができる)。更に、写真に写っているランドマーク (バーや銀行や店舗など) には、それが何であるかがタグされている。一方、ガイド向けには2Dのマップが用意され、ここに道路とランドマークが記載されている (上の写真右側)。

ガイドが目的地まで誘導

タスクはシンプルで、マップの中の観光客と対話しながら、ガイドが目的地まで誘導する。観光客はストリートビューを見て、目の前にあるランドマークをガイドに報告する。ガイドはこの情報を手掛かりに、観光客の現在地を把握し、目的地まで道案内をする。ガイドが観光客は目的地に着いたと確信した時点で道案内が終了する。システムは観光客が本当に目的地に到着したのかを検証し、一連のタスクが終了する。

ガイドと観光客の会話

ガイドと観光客は次のような会話を交わしながら目的地を目指す:

ガイド:近くに何がある?

観光客:正面にBrooks Brothers

ガイド:交差点の北西の角に行け

観光客:背後に銀行がある

ガイド:左に曲がり道を直進

観光客:左側にRadio Cityが見える

・・・

観光客が目的地に到達するまでこのような会話が続く。

位置決定モデル

ガイドが観光客を案内するためには、まず観光客の位置を把握する必要がある。観光客は目の前の風景を言葉でガイドに伝え、対話を通じてガイドは観光客の位置を把握する。このタスクを実行するために位置決定モデル「Masked Attention for Spatial Convolutions (MASC)」が開発された。MASCは風景の描写を言葉で受け取り、それを位置情報に変換する機能を持つ。

判定精度の評価

ニューヨーク市街地でMASCを試験してその性能を評価した。MASCの判定精度は高く、88.33%をマークし(下のテーブル三段目)、人間の判定精度76.74%を上回った(下のテーブル二段目、実際に人間同士がこのタスクを実行した)。但し、AIのケースでは人間の言葉は使わないで、特別な言語モデル(Emergent Communication)が使われた。この方式ではAIが生成する生データでAI同士が会話した。

一方、AIが人間の言葉を使って会話すると判定精度は50.00%に低下した(下のテーブル最下段)。この評価結果から、人間の言語は情報を正確に伝えるためには適した構造とはなっていないことも分かる。

出典: Dhruv Batra et al.

この研究の意義

Talk the WalkはAIが言語を学習するためのフレームワークを提供する。この方式は「Virtual Embodiment」とも呼ばれる。これは、複数のAgentが、生成された環境の中で、体験を通し、言葉の意味を学習する手法を指す。Talk the Walkはこのコンセプトに基づくもので、知覚(Perception)、行動(Action)、会話(Interactive Communication)機能を、AIが社会とのインタラクションを通して学習する。

AIに課された命題

上述の通り、AIが人間の言葉を使ってコミュニケーションすると、意思疎通の精度が大きく低下することも明らかになった。人間が使う言葉は曖昧さが多く、コミュニケーションツールとしては不完全であることが改めて示された。つまり、AIに課された命題は、言語という不完全なコミュニケーションツールから、厳密に意味を把握することにある。このためには、人間がそうしてきたように、AIも環境に接し言語を学ぶ努力が必要になる。Talk the Walkはオープンソースとして公開されており、AIが言語を学習するための環境を提供する。

フェイスブックは家庭向けロボットを開発!?ロボットの頭脳に人間の常識を教える

Friday, July 13th, 2018

ロボティックスに関するカンファレンス「RE•WORK Deep Learning in Robotics Summit」がサンフランシスコで開催された (下の写真)。ロボットの頭脳であるDeep Learningにフォーカスしたもので、OpenAIやGoogle Brainなど主要プレーヤーが参加し、基礎技術から応用技術まで幅広く議論された。

出典: VentureClef

Embodied Vision

フェイスブックAI研究所 (Facebook AI Research) のGeorgia Gkioxariは「Embodied Vision」と題して最新のAI技術を紹介した。Embodied Visionとは聞きなれない言葉であるが、Computer Visionに対比して使われる。Computer Visionがロボット (Agent) の視覚を意味することに対し、Embodied Visionはロボットの認知能力を指す。ロボットが周囲のオブジェクトを把握するだけでなく、人間のようにその意味を理解することに重点が置かれている。

Learning from Interaction

フェイスブックAI研究所はこの命題にユニークな視点から取り込んでいる。Gkioxariは、AIを人間のようにインテリジェントにするためには、「Learning from Interaction」が必要だと主張する。これは文字通り、インタラクションを通じて学習する手法を意味する。いままでにAIはデータセットからComputer Vision習得した。例えば、写真データセット「ImageNet」から猫や犬を判定できるようになった。これに加え、AIは環境 (Environment) のなかで、モノに触れて、その意味を学習することが次のステップとなる。Gkioxariは、赤ちゃんが手で触ってモノの意味を学ぶように、AIもインタラクションを通じ基礎知識を学習する必要があると説明した。

仮想環境を構築

このため、フェイスブックAI研究所は、AI教育のために仮想環境「House3D」を開発した。これは住宅内部を3Dで表現したもので、ロボットがこの中を移動しながら常識を学んでいく。ロボットが移動すると、目の前のシーンが変わっていくだけでなく、シーンの中に登場するオブジェクトには名前が付けられている。つまり、ロボットは仮想環境の中を動き回り、オブジェクトに接し、これらの意味を学習する。ロボットは異なるタイプの部屋からキッチンの意味を把握し、そこに設置されているオーブンや食器洗い機などを学んでいく (下の写真)。

出典: Georgia Gkioxari

学習方法

フェイスブックAI研究所は三つの視点からロボットを教育する。ロボットが仮想環境の中で、モノを見て言葉の意味を学習する。これは「Language Grounding」と呼ばれ、ロボットは環境の中でモノと名前を結び付ける (部屋の中で長い緑色のロウソクをみつけることができる)。二番目は、ロボットは家の中で指定された場所に移動する。これは、「Visual Navigation」と呼ばれ、ロボットは家の中の通路を辿りドアを開け、指定された場所まで移動する (寝室に行くように指示を受けるとロボットはそこまで移動する)。

EmbodiedQA

三つめは、ロボットは質問を受けると、家の中を移動してその解を見つけ出す。これは「EmbodiedQA」と呼ばれ、ロボットは回答を見つけるために仮想環境の中を移動する。従来のロボットはインターネット上で答えを見つけるが、EmbodiedQAは物理社会の中を移動して解を求める。例えば、「自動車は何色?」という質問を受けると (下の写真左側)、ロボットは質問の意味を理解し、家の中で自動車を探し始める。自動車はガレージに駐車されているという常識を働かせ、家の中でガレージに向かって進む。ロボットはその場所が分からないが、ここでも常識を働かせ、ガレージは屋外にあると推測する。このため、ロボットは玄関から屋外に出て、庭を移動し、ガレージにたどり着く。そこでロボットは自動車を発見し、その色が「オレンジ色」であることを把握する (下の写真右側)。

出典: Georgia Gkioxari

必要な機能

このタスクを実行するためには、ロボットの頭脳に広範なAI技法が求められる。具体的には、視覚(Perception)、言葉の理解(Language Understanding)、移動能力(Navigation)、常識(Commonsense Reasoning)、及び言葉と行動の結びつき(Grounding)が必要になる。Gkioxariの研究チームは、前述の3D仮想環境「House3D」でEmbodiedQAのモデルを構築しタスクを実行することに成功した。

ロボットの頭脳

このモデルでロボットの頭脳はPlannerとControllerから構成され (下の写真)、Deep Reinforcement Learning (深層強化学習) の手法で教育された。Plannerは指揮官で、進行方向(前後左右)を決定し、Controllerは実行者で、指示に従って進行速度(ステップ数)を決定する。PlannerはLong Short-Term Memory (LSTM) というタイプのネットワークで構成され、上述の通り、これをDeep Reinforcement Learningの手法で教育する。Plannerは人間のように試行錯誤を繰り返しながら常識を習得する。

出典: Georgia Gkioxari

知的なAIの開発は停滞

フェイスブックAI研究所は、これらの研究を通して、インテリジェントなロボットの開発を進めている。AIが急速に進化し、イメージ判定では人間の能力を上回り、囲碁の世界ではAIが人間のチャンピオンを破り世界を驚かせた。AIの計り知れない能力に圧倒されるが、AIは知的というにはほど遠い。AIはオブジェクト(例えば猫)の意味を理解しているわけではなく、また、囲碁という限られたタスクしか実行できない (例えばAlphaGOはクルマを運転できない)。いまのロボットは人間のように家の中を移動することさえできない。つまり、人間のようにインテリジェントに思考できるAIの開発はブレークスルーがなく滞ったままである。

精巧な仮想環境

このため、フェイスブックAI研究所は、全く異なるアプローチでAIを開発している。実社会を模した3D仮想環境の中でAIを教育し、この中でAIが複雑なタスクを自ら学んでいくことを目指している。AIが実社会の中で学習することで、人間のような視覚を持ち、自然な会話ができ、次の計画を立て、知的な思考ができるアルゴリズムを開発する。このためには、実社会そっくりな仮想環境が必要で、家の中を写真撮影したように忠実に描写した3D環境を開発している。同様にOpenAIやGoogle DeepMindもこのアプローチを取っており、精巧な仮想環境でDeep Reinforcement Learningの開発競争が激化している。

フェイスブックがロボット開発

ロボットの頭脳が知的になることで、人間の暮らしが根本的に変わる。フェイスブックは仮想アシスタント「M」を開発してきたが、製品としてリリースすることを中止した。Mはホテルのコンシェルジュのように、どんな質問にも答えてくれる仕様であったが、人間との会話トピックスは余りにも幅が広く、AIはこれに対応できなかった。また、フェイスブックはAIスピーカーを開発しているとも噂されている。Embodied Visionは仮想アシスタントやAIスピーカーを支える重要な基礎技術となる。更に、この研究が上手く進むと、家庭向けロボット開発のロードマップが見えてくる。フェイスブックがインテリジェントな家庭向けロボットを開発するのか、市場の注目が集まっている。

FacebookはAIでフェイクニュースを取り締まる、(トランプ大統領誕生の悲劇を繰り返さないために)

Friday, May 4th, 2018

米国大統領選挙でFacebookを介してフェイクニュースが拡散し世論が操作された。発信元はロシアで、この結果トランプ氏が当選したとも言われている。Facebookは対策が不備であったことを認め、AIを駆使したフェイクニュース対策を発表した。米国だけでなく欧州やアジアでも、フェイクニュースによる世論操作が顕著になっている。

出典: Facebook

Facebook開発者会議

Facebook CEOのMark Zuckerbergは2018年5月1日、開発者会議F8で選挙対策、フェイクニュース対策、データプライバシー対策など、プラットフォームの安全性を強化するための基本指針を発表した (上の写真)。2016年の米国大統領選挙では対応が不十分で、ロシアによるフェイクニュースが拡散し、これが選挙結果に大きく影響したことを認めた。この教訓を踏まえ、AIやMachine Learning (機械学習) やComputer Vision (画像解析) を活用し、不適切な記事を検知し、拡散する前に取り除く対策を発表した。

既に対策が進んでいる

既に対策が実施されており、フランス大統領選挙、ドイツ連邦議会選挙、米アラバマ州上院補選では、AIツールが使われ数十万の不正アカウント (Fake Account) が削除された。また、米大統領選挙の追跡調査で、不正アカウントを辿るとロシアが関与していることが分かり、これらを閉鎖したと公表した。今年は米国で中間選挙が、この他に、メキシコ、ブラジル、インド、パキスタンなどで重要な選挙が予定されており、Facebookが悪用されないために万全の対策を講じることを宣言した。

ヌードと暴力シーン

FacebookはZuckerbergの講演に続き、不適切な投稿を削除するための具体的な対策を発表した。不適切コンテンツは幅が広く、それを検知する技法も異なる。不適切コンテンツの代表はヌード写真や暴力シーンであるが、これらはComputer Visionを使って検知する。AIの進化でComputer Visionの性能が向上し、これらを高精度で判定する。システムがほぼ全自動で削除するが、判定が難しいものについては専任スタッフが対応する。

ヘイトスピーチ

反対に、AIにとって一番難易度が高いのがヘイトスピーチの検知である。ヘイトスピーチとは、人種や宗教や性的指向などに対して誹謗中傷する行為を指す。攻撃は投稿されるメッセージで行われ、AIはテキストの内容を理解する必要がある。記事は相手を中傷しているのか、それとも、別のことを意図しているのか、コンテクストの理解が必須となる。

検知が難しい理由

例えば、「I’m going to beat you!」というメッセージを受け取ると、これは自分を中傷してるかどうかの判断は文脈による。「あなたを叩く」という意味だと攻撃で、「あなたに勝つよ」という意味だと、お互いに切磋琢磨しようというポジティブな意味にもなる (下の写真、「Look at that pig!」も解釈が難しい)。

出典: Facebook

AI技法を開発中

人間でも判断に迷うことがあるが、AIにとっては最難関の分野で、今の技術では正しい判定はできない。この理由の一つが教育データの不足で、アルゴリズムを教育するためヘイトスピーチの事例を集めることが喫緊の課題となっている。このため、Facebookは別のAIでヘイトスピーチを自動生成する技術を開発しており、二つのAIでヘイトスピーチを検知する技法を目指している。

フェイクニュース

大統領選挙で問題となったフェイクニュースについて、Facebookは重点課題として対策を進めている (下の写真)。AIがこれを直接検知する技術は確立されていないため、フェイクニュースを発信している不正アカウントを突き止め、これらを閉鎖することで情報拡散を防止する。

出典: Facebook

不正アカウントはフェイクニュースだけでなく、スパムや悪質な広告を発信する目的でも使われている。このため、詐欺被害が相次ぎ、Facebookは対策を進めている。不正アカウントは特異な挙動を示し、AIがこのパターンを検知する。例えば、スパムを発信する不正アカウントは、記事を高頻度で投稿するなど特異な挙動を示し、このシグナルをMachine Learningの手法で検知する。

テロリズム

ソーシャルメディアが過激派組織の広告塔として使われ、深刻な社会問題を引き起こしている。FacebookはAIを導入し、イスラム国やアルカイダなどのプロパガンダを特定し、これらを削除している。2018年第一四半期にはイスラム国とアルカイダに関連するコンテンツ190万件を削除し大きな効果をあげている。

過激派組織が投稿するコンテンツはAIが検知する。写真については、AIが既に削除した写真やビデオと比較し、これらを特定する。テキストについては、AIがテロリズムを奨励するテキストを理解する。アルゴリズムが、既に削除されたテキストを学習し、文字ベースのシグナルを把握する。AIがテロリズムに関連するコンテンツを検知するとともに、専任スタッフや専門家がマニュアルでこれらの作業を並行して行う。

AIの限界

Facebookはこれらの対策でAI、Machine Learning、Computer Visionを使っているが、上述の通り、全ての問題を解決できる訳ではない。このため、Facebook利用者のフィードバックが重要な情報源となる。Facebookは不適切なコンテンツがある場合はレポート (下の写真) してほしいと利用者に呼び掛けている。同時に、Facebookは専任スタッフを2万人に増員し、手作業による不適切コンテンツの摘発を進める。

出典: Facebook

プラットフォームの責任

先の大統領選挙では、Zuckerbergはオバマ政権からFacebookを使った情報操作が行われているとの警告を受けたが、その対策は講じなかった。この理由は、Facebookはニュース配信社ではなく“掲示板”であり、恣意的に特定記事を削除することは妥当でないとの解釈による。しかし、Cambridge Analyticaの個人データ流出問題を受け、Facebookが社会に与えた影響は甚大であることが明らかになり、Zuckerbergは会社の方針を大きく転換した。掲示板であるが不適切な記事は掲載させないことがプラットフォームの責務であるとの指針のもと、AIツールを駆使して再び世論が操作されることを阻止している。

フェイスブック個人情報の不正使用問題、Cambridge Analyticaとはどんな企業か、大統領選挙への影響はあったのか

Saturday, March 31st, 2018

Facebook利用者の個人情報が不正に使われ、情報管理の責任が厳しく問われている。この疑惑の中心は英国のCambridge Analyticaというベンチャー企業で、5000万人の個人情報を不正に入手した疑いがもたれている。Cambridge Analyticaはこれら個人情報をAIの手法で解析し、米国大統領選挙に影響を与えたとされる。

出典: Google

Cambridge Analyticaとは

Cambridge Analyticaはロンドンに拠点を置くベンチャー企業で、データサイエンスの手法で消費者や有権者のパーソナリティを把握する技術を開発 (上の写真、本社ビル)。二つのソリューションを提供しており、広告企業には消費者を対象としたターゲティング広告を、選挙関係者には有権者を解析する選挙ツールを提供する。Facebook個人情報が有権者の政治指向を把握するために使われたと疑われている。

Psychographic Analysisという技法

消費者や有権者を解析する際に「Psychographic Analysis (心理解析)」と呼ばれる技法が使われる。これは、個人の性格を把握しグループ化する手法で、Facebookプロフィール情報を使って、利用者の性格特性を導き出す。具体的には、利用者がLike Button (いいね!ボタン) を押した情報でパーソナリティを把握することができる。

モデルを応用すると

このモデルを使うとアルゴリズムは、画家のダリ (Salvador Dalí) が好きな人は開放的な性格で、ジョギングを趣味とする人は几帳面な性格と判定する。また、アニメや漫画が好きな人は社交的でないと診断する。これを選挙に応用すると様々な知見を得ることができる。このモデルは共和党支持者と民主党支持者を正確に判定できる。更に、共和党支持者のなかで、閉鎖的で心配性な有権者を特定することができる。アルゴリズムはこのグループが低学歴で高齢の男性の共和党支持者と推定する (トランプ大統領のコア支持者層を示す)。Psychographic Analysis はLike Buttonを押すパターンとパーソナリティの間には強い相関関係があることを示している。

————————————————————————————-

Psychographic Analysisとは】

ベースとなる研究論文

この技法のベースとなる理論は、ケンブリッジ大学心理学部 (Department of Psychology, University of Cambridge) とスタンフォード大学コンピューターサイエンス学部 (Department of Computer Science, Stanford University) が共同で開発した。この手法を使うとLike Buttonデータをアルゴリズムに入力すると、被験者のパーソナリティを5つの要素で推定する。人間のパーソナリティは五つの要素で構成され、それぞれ、Openness(開放性)、Conscientiousness(良心的)、Extraversion(外交的)、Agreeableness(協調性)、Neuroticism(不安感) となる。これらがどんな比重で構成されるかで人の性格が決定づけられる。

出典: Michal Kosinski et al.

Personality Test

両大学はPsychographic Analysisについて論文「Computer-based personality judgments are more accurate than those made by humans」でその手法を発表した。この手法は被験者のパーソナリティをFacebookのLike Buttonから判定する。最初に、被験者 (70,520人) がPersonality Test (性格診断テスト) を受け、性格を判定する。性格は上述の五つの要素で構成され、Personality Testによりそれぞれの重みが決まる (上のグラフィック、左端)。

Facebook Likes

次に、これら被験者の Facebook個人プロフィール情報を参照する。Like Buttonを押した対象 (例えばRunning、Ford Explorer、Barak Obamaなど) を把握し、被験者がどの項目に興味を示しているかを掴む (上のグラフィック、左から二番目)。

情報収集方法

これら個人情報を収集するためにアプリ「myPersonality」が開発された。利用者はこのアプリでPersonality Testを受け自分の性格を知ることができる。また、利用者の許諾のもと、アプリはLike Buttonが押された情報を収集する。これらの情報は学術研究のためだけに利用された。

機械学習の手法

Personality TestとLike Buttonの情報が集まると、次に、これらデータ間の関連性を機械学習 (Linear Regression) の手法で導き出す。パーソナリティといいね!ボタンの関連性を定義する変数を導き出す。例えば、外向性が強い人は、Running、Ford Explorer、Barak Obamaなどの項目をどんなパターンで好むかを算定する (上のグラフィック、左から三番目)。

モデルで判定

決定したモデルを使って実際の判定を実施する。Personality Testを受けていない被験者のLike Button情報をこのモデルに入力すると、個人のパーソナリティを判定する。上述の五つの構成要素がどの割合であるかを推定する (上のグラフィック、右端)。このモデルはLike Button情報だけで、その人物の性格を推定できることを示している。

————————————————————————————-

モデル開発を開始

Cambridge Analyticaは米国大統領選挙に先立ち、モデルを開発するために、Psychographic Analysisを開発したケンブリッジ大学にコンタクトし協力を求めた。しかし、賛同をえることができず、この研究に詳しい同大学のAleksandr Kogan教授に支援を求めた。Kogan教授は上述の手法をベースにモデルを開発した。

5000万人の個人情報を収集

Kogan教授は上述「myPersonality」を模した性格診断テストアプリ「thisisyourdigitallife」を開発し、Facebook利用者27万人がこれを利用した。利用者はこのアプリで自分のパーソナリティを知ることができる。同時に、アプリは個人情報にアクセスすることを求め、プロフィールデータが収集された。更に、アプリは利用者の友人のプロフィール情報にもアクセスし、Kogan教授は5000万人分の個人情報を入手した。このデータに対しPsychographic Analysisの手法で解析を実行し、3000万人のパーソナリティを推定した。

個人情報を不正に提供

Kogan教授はこれらの情報をCambridge Analyticaに提供したとされる。その当時、Facebookは利用者の許諾を得ると、第三者が個人情報を収集することを認めていた。しかし、収集した情報を他人に渡すことは禁じていた。ここが問題の核心部分で、Facebookの規定を逸脱し、Cambridge Analyticaは個人情報を不正に受け取った。Cambridge Analyticaはこれを否定しているが、英国政府はデータ不正使用の容疑で捜査を開始した。

個人情報はどう使われた

Cambridge Analyticaに渡された個人情報がどのように使われたかについては明らかになっていない。Psychographic Analysisを選挙戦に適用すると、Like Buttonが押された情報から、有権者のパーソナリティを把握できる。ひいては、有権者の政治的指向を把握でき、最適なキャンペーンを展開できる。

出典: Reuters

有権者の弱点を突く

この問題を告発した元社員Chris Wylie (上の写真、英国議会での公聴会) は、このモデルを米国大統領選挙にどう適用したかについて証言した。このモデルは有権者の精神的な弱点を洗い出すことを目的としていた。更に、この弱点を刺激するフェイクニュースをターゲティング送信することで、有権者を特定方向に向かわせ、トランプ候補への投票を促すとしている。ただ、Wylieは、モデルを運用するプロセスには関与しておらず、実際にどう活用されたかは分からないとも述べている。

効果を疑問視する声も

Psychographic Analysisは既にターゲティング広告で使われており、消費者のパーソナリティを把握し最適な広告メッセージが配信されている。Netflixは視聴者が好むであろう映画を推奨するためにこのモデルを使っている。一方、この手法が有権者にどれだけインパクトを与えるかについては疑問視する声が多い。有権者の心を動かすのは難しく、Cambridge Analyticaが大統領選挙に及ぼした影響は限定的であるとの見方が大勢を占めている。

Facebookの責任は重大

大統領選挙への影響のあるなしにかかわらず、Facebookは個人データ管理の責任を厳しく問われている。Facebookは個人情報保護対応を進めており、プロフィール設定方式を分かりやすくした。今までは、個人情報設定は20画面に分散していたが、これを1つの画面に集約し、情報管理を容易にした。また、Facebookは第三者機関が生成する解析データの提供を中止した。データ解析企業ExperianやAcxiomなどがオフラインデータを解析し、これを広告主に提供しているが、これを停止すると発表した。

真相究明

Cambridge Analyticaは米国大統領選挙だけでなく、英国Brexit国民投票で離脱派の解析ツールとしても使われた。多くの識者は同社の影響力を疑問視するが、国民世論がデータ解析で操作されているとの感触はぬぐい切れない。Cambridge Analyticaが不正にデータを受け取り、大統領選挙に影響したのか、真相解明は今後の捜査を待つことになる。

FacebookのBrain-Typing研究、脳から直接コンピュータに文字を入力

Friday, June 16th, 2017

Facebookは脳の情報を出力する研究を進めている。これは「Brain-Typing」と呼ばれ、頭で思うだけで文字を出力する。今はデバイスを操作する時に音声で指示するが、この技術が完成すると声に出さなくても頭で思うだけで操作できる。究極のインターフェイスでデバイスと意思疎通ができ生活が劇的に変わる。

出典: Facebook

ブレインインターフェイスを開発

Facebookは開発者会議「F8」でブレインインターフェイスを開発していることを発表し、このプロジェクトの存在を明らかにした (上の写真)。これはRegina Duganが主導するプロジェクトで、脳の情報を出力する技術や皮膚経由で情報を入力する技術を公開した。DuganはDARPA (アメリカ国防高等研究計画局) で長官を務め先進技術の開発に寄与してきた。その後、Googleに移りATAP (Advanced Technology and Projects、社内インキュベータ) 部門を創設した。ここでTango (拡張現実技術) やProject Ara (モジュール方式スマホ) が生まれた。

毎分100語の早さで出力する

ブレインインターフェイスには様々な方式があり多くの研究機関が取り組んでいる。医療分野ではデバイスを脳にインプラントし会話を実現する方式が研究されている。Facebookは一般消費者を対象にしており、非侵襲性 (Non-Invasive) のデバイスで脳の情報を出力する方式を目指す。頭で思ったことを毎分100語の早さで出力する性能を目標とする。これは一般にBrain-Typingと呼ばれ光学的な手法で実現する。研究チームは60人体制で、Optical Neuroimaging (脳のニューロンの構造を光学的に解明する技法) 研究者を中心に構成されている。

Optical Neuroimagingとは

Optical NeuroimagingとはLEDやレーザーを使い大脳皮質 (cerebral cortex) から発信されるシグナルを受信して解析する手法を指す。具体的には近赤外線を頭皮表面に照射し、その反射波を測定し脳機能をマッピングする。頭皮上に光源とセンサーをあてて、CTスキャンのように脳内構造を3Dで把握する。

脳内のヘモグロビン量を測定

これ以上の説明は無かったがOptical Neuroimagingは脳内のヘモグロビン (血液) の量を測定することでニューロンの活動量を把握する。ヘモグロビン (Oxy-HbとDeoxy-Hb) と脳の活動はニューロンの酸素消費量を通し相関関係があることが分かっている。近赤外線を頭皮表面に照射すると光は頭皮を通過し脳に届く。脳内のヘモグロビンがPhoton (光子) の束を吸収し、その反射波をセンサーで読み取るとニューロンの活動状態が分かる。明るい光源に手をかざすと血液が近赤外線を吸収し指が赤く見える原理を応用している。

現行技術からの大きな飛躍

Optical NeuroimagingをALSなど運動系に障害がある患者に適用し意思疎通を行う研究が進められている。最新の事例ではALS患者がYes/Noの意思表示ができたとの報告がある。この技法は医療分野での研究が先行している。Facebookはこの手法を消費者向けのインターフェイスとして利用する。Yes/Noのバイナリーなシグナルを読み取る技術から、毎分100語の早さで出力する技術にジャンプすることになる。このためにはニューロンの状態を毎秒数百回サンプリングする必要があるといわれ、極めて高度な技術を必要とする。

出典: Facebook

仮想現実や拡張現実などで利用する

Facebookはこの技術をタイピングだけでなく、メッセージを伝える手段として開発している。仮想現実や拡張現実などで利用することを想定している。例えば、スマートグラスを使った拡張現実では、利用者はデバイスに語り掛けるのではなく思うだけで情報を入力できる。スマートグラスがアイスクリームを認識し「ランニング距離を2マイル伸ばしますか?」と問いかけると (上の写真)、これに対して利用者は頭で思うだけで声を出さないで返答を入力できる。満員電車の中でも周りを気兼ねすることなくスマートグラスを操作できることになる。Facebookはこのシステムを数年のうちに実現するとしている。

多くの疑問が未回答のまま

Brain-Typingは理想のインターフェイスであるが、Duganの説明に対して医学界から疑問の声が上がっているのも事実。Optical Neuroimaging手法について具体的な説明はなく、多くの疑問が未回答のままとなっている。現在はデバイスを脳にインプラントする方式が主流であるが、それでも出力精度は40-50%に留まる。これに対して頭皮からシグナルを読み取る方式は精度が悪く、Facebookのブレークスルー技術は何なのか疑問の声が寄せられている。

Building 8

FacebookはMoonshotと呼ばれる先進技術を「Building 8」で開発している(下の写真)。これはGoogle Xに相当する先進技術研究所でコミュニケーションを促進するハードウェアデバイスの開発が進められている。Brain-Typingプロジェクトは2016年10月頃から始まり二年間の研究期間が与えられている。二年後に研究結果をレビューしプロジェクトを継続するかどうかが決まる。

出典: Facebook

人とマシンの関係が根本から変わる

消費者向け製品では頭皮から電気シグナル (Electroencephalography、脳波) を読み取り利用者の意図を把握する方式が中心となっている。大量のノイズの中から対象シグナルを検知するのが課題で、単純な操作に限定して使われている。多くの企業から製品が出荷され、ゲームやリラクゼーションなどで利用されている。Facebookの方式はヘモグロビン量からニューロンの活動を読み解くもので現行技術から大きな飛躍になる。これが本当に実現できれば恩恵は計り知れない。健常者と非健常者ともに人とマシンの関係が根本から変わる。