Archive for December, 2016

Uberはシリコンバレーに人工知能研究所を設立、次世代AIで自動運転技術のブレークスルーを狙う

Friday, December 30th, 2016

UberはAIベンチャーを買収し、人工知能研究所を設立することを発表した。研究所はSan Franciscoに設立し、次世代AI技術を開発する。研究成果を自動運転車に適用し、人間のようにスマートに運転できるクルマを開発する。更に、この成果を航空機やロボットに応用することも計画され、UberはAI研究を本格的に推進する。

出典: Uber

Uber AI Labsを設立

Uberは2016年12月5日、San FranciscoにAI研究所「Uber AI Labs」を設立することを発表した。あわせて、AIベンチャー「Geometric Intelligence」の買収を明らかにした。AI研究所はDeep Learning (深層学習) とMachine Learning (機械学習) を中心テーマとして研究開発を進める。買収したGeometric Intelligenceの研究員15名が研究所の構成メンバーとなる。所長には同社CEOのGary Marcusが就任する。

Geometric Intelligenceとは

Uberが買収したGeometric Intelligenceだが、その実態は殆ど知られていない。同社はMarcusらにより設立され、論文などは発表されておらずステルスモードで研究が進んでいる。一方、Marcusは業界の著名人で、講演などでGeometric Intelligenceの一端を紹介している。それによると、同社は少ないデータでアルゴリズムを教育できるDeep Learning技法を開発している。

少ないデータでイメージを認識

Deep Learningでオブジェクトを判定できるようになるには、大量の写真を読み込みアルゴリズムを教育する必要がある。これに対しGeometric Intelligenceは、人間が物を認識するように、少ないデータでイメージを判定できるアルゴリズムを開発している。少量データは「Sparse Data」と呼ばれ、Deep Learning研究の主要テーマになっている。

自動運転車開発の課題

MarcusはDeep Learningで自動運転車アルゴリズムを開発する際の問題点を挙げている。自動運転車開発ではクルマは遭遇するすべてのケースを学習する必要がある。このため、雨や雪の日の走行環境が必要で、天気のいいカリフォルニア州を離れ、別の地域での走行試験が必要となる。クルマやドローンやロボットを含む自律システムの開発ではアルゴリズム教育のためのデータが最大のネックとなる。Geometric Intelligenceは少量データでアルゴリズムを教育し、開発期間を大幅に短縮することを目標にしている。

ハイブリッドAIを開発する

更に、この研究所の最大の特徴はハイブリッドAIを開発することにある。Geometric IntelligenceはDeep Learningだけではなく従来型AIを開発している。具体的にはBayesian Model (階層構造での統計技法) やProbabilistic Model (確率分布の統計技法) などの研究を進めている。これらはMachine Learningの根幹技法で幅広く使われている。しかし、Deep Learningの登場で影が薄れ人気がなくなっているのも事実。

出典: Gary Marcus

ルールベースと統計手法を組み合わせる

Geometric Intelligenceはこれら従来モデルを改良し、Deep Learningと組み合わせて使う技法を開発する。これをハイブリッドAIと呼び、ルールベースの学習モデル (Machine Learning) と統計手法の学習モデル (Deep Learning) を組み合わせたアプローチを取る。多くの自動運転車ベンチャーがアルゴリズムをDeep Learningだけで実装するのに対し、Uber AI Labsは幅広い技法をミックスして使う。

Deep Learningは行き詰る

この背後にはMarcusのAIに対する際立った考え方がある。MarcusはNew York Universityの教授で心理学が専門。MarcusはDeep Learningは行き詰ると主張する。その理由はDeep Learningの教育には大量のデータが必要で、適用できる分野が限られるためである。実社会では常に大量データが揃っているわけではない。特に、言語解析と自動運転車でこの問題が顕著になるとMarcusは指摘する。(上の写真はMarcusのホームページ。Marcusは心理学、言語学、生物学の観点からヒトのインテリジェンスに迫る。)

ハイブリッドAIで構成する自動運転技術

このハイブリッドAIで自動運転アルゴリズムを構成する。ハイブリッド型の学習モデルでは、画像認識にはDeep Learningを使い、少ないデータでアルゴリズムを教育する。運転テクニックについてはルールベースの学習モデルを使う。運転テクニックは汎用的な運転ルールだけでなく、地域に特有な運転ルールなどを学習する。例えば、San FranciscoとPittsburghでは運転マナーが異なるが、ルールベースの学習モデルがこれを吸収する。Geometric IntelligenceはDeep Learningに特化するのではなく、複数の学習手法を組み合わせて使う点に特徴がある。

出典: Uber

Self-Driving Uberの試験営業を開始

Uberはこれに先立ち2015年2月、自動運転車開発センター「Uber Advanced Technologies Center」をPittsburgh設立した。Carnegie Mellon Universityと共同で、自動運転技術とマップ作製技術を開発している。Uberは同5月からPittsburgh で自動運転車の試験営業を始めた。自動走行するUberは「Self-Driving Uber」と呼ばれ、客を乗せて試験営業を展開している (上の写真)。同12月にはSan FranciscoでSelf-Driving Uberの営業試験を始めた。しかし、カリフォルニア州から運行停止命令を受け、Uberの試験営業は中止に追い込まれた。このため、Uberは試験場所をアリゾナ州に移し、2017年早々から試験営業を始めるとしている。

Self-Driving Uberを無人走行させることが最終ゴール

Self-Driving Uberは自動で走行するがドライバーが搭乗し、システムが対応できない時は運転を代わる。クルマがドライバーの支援なしで走れる距離は限られており、頻繁にドライバーの割り込みが必要となる。San FranciscoではSelf-Driving Uberは横断歩道を赤信号で横切ったことがニュースで大きく報道された。このため、Self-Driving Uberの試験営業は時期尚早ではという疑問の声も聞かれる。Self-Driving Uberの自動運転技術は完成度が低いと専門家は指摘する。Uber AI Labsの使命は自動運転技術を飛躍的に進化させることにあり、Self-Driving Uberを無人走行させることが最終ゴールとなる。

出典: Uber

ロジスティックからAI・ロボティックス企業に

UberはAI研究所の成果を自動運転技術だけでなく飛行機やロボットなどにも応用する。Uberは2016年10月、オンデマンドで利用する航空輸送サービス「Uber Elevate」を発表している。Uber Elevateはパイロットが登場しない航空機で、空飛ぶSelf-Driving Uberとして位置づけられる。(上の写真、Uber Elevate はSan FranciscoとSan Joseの間70キロを15分で結ぶ計画。価格は129ドルとUberXと同じレベル。) また、Uberはロボットについては具体的な製品を発表していないが、登場は間近とみられている。UberはロジスティックスからAI・ロボティックスに大きく舵を切り、2017年は企業形態が大きく変わろうとしている。

Uberはサンフランシスコでの自動運転試験を中止、認可を巡りカリフォルニア州政府と激突

Friday, December 23rd, 2016

Uberは必要な手続きをしないでSan Franciscoで自動運転車の試験営業を始めた。カリフォルニア州政府はこれを認めず、試験車両の登録を取り消す強硬策を取った。これに対し、Uberは隣のアリゾナ州に移り、ここで路上試験を始める計画だ。Uberが法令に従わないで自動運転車を運行するのは危険だという意見がある。同時に、カリフォルニア州は規制が厳しすぎるという意見も聞かれる。

出典: Uber

San Franciscoで試験運転を始める

Uberは2016年12月14日、San Franciscoで自動運転車の試験操業を始めるた。この車両は「Self-Driving Uber」と呼ばれ、Volvo XC90に自動運転技術を搭載した構成となっている (上の写真) 。Uberはこの車両で無人タクシーの試験営業を開始した。ただし、車両にはUber専任ドライバーが搭乗しており、問題が発生すると運転を代わる手順となっている。

タブレットがインターフェイスとなる

誰でもSelf-Driving Uberを利用できる。いつもの手順でUberアプリで配車をリクエストする。もし配車車両が自動運転車であれば、その旨がアプリに通知される。利用者は確認ボタンを押すとSelf-Driving Uberが配車される。利用者が搭乗すると、車内にはタブレットが備えてあり、これでクルマと交信する (下の写真)。タブレットがインターフェイスとなり、無人走行時に乗客が安心できる機能を搭載している。

タブレットで走行状態を把握

乗客はシートベルトを装着し出発準備が整い、タブレットでスタートボタンを押すとクルマは発進する。走行中はタブレットに運行状況に関する情報が示される。Self-Driving Uberに搭載されているセンサーで捉えたクルマ周囲のイメージが表示される (下の写真)。またタブレットで自撮りすることもできる。カメラアイコンを押すと写真撮影でき、それを友人とシェアできる。

出典: Uber

San Franciscoを選んだ理由

Uberは既にPittsburgh(ペンシルベニア州)でSelf-Driving Uberの営業試験を展開している。UberはSan FranciscoでSelf-Driving Uberを試験する理由について、試験走行の環境を拡大することで、技術開発を加速するとしている。San Franciscoは自転車が多く道路は狭く交通量が多く、難しい環境で技術を磨くとしている。当地はUber発祥の地であり、ここで試験を展開するのは自然な流れとなる。

認可を受けないで試験営業を開始

しかし、Uberは認可を受けないで試験営業を始めた。カリフォルニア州で自動運転車を試験走行するときは、自動車運行を管轄するDepartment of Motor Vehicles (DMV) から認可を受けることが義務付けられている。Uberはこの法令に従わづ、自動運転車運行許可証を取得しないでSelf-Driving Uberの営業試験を始めた。このためカリフォルニア州政府はUberに対してSelf-Driving Uberの運行停止の命令を発行した。

なぜ認可を受けないで運行するのか

UberはSelf-Driving Uber営業試験を始めるにあたり、自動運転試験の認可を取得する必要はないとの見解を表明した。この理由はSelf-Driving Uberは自動運転車の定義に該当しないというもの。DMVは自動運転車「Autonomous Vehicles」を「ドライバーが制御しないで運行する車両」と定義している。Self-Driving Uberはドライバーが制御しながら運行する車両で、この定義に当たらないとUberは主張している。

自動運転車の定義を明確にすることを求める

Uberは、Self-Driving Uberは高度な運転アシスト技術であり、Tesla Autopilotと同じ方式で運行を制御するとしている。Tesla Autopilotの走行は認可が必要でないように、Self-Driving Uberも認可が必要でないと解釈すると述べている。更に、Uberは法の穴をかいくぐるのが目的ではなく、自動運転車関連法を明確にすることが目的とも述べている。Uberは「Autonomous Vehicles」の法的な定義を明確にすることを求めている。

DMVはUberの試験車両16台の登録を取り消す

UberとDMVは12月21日、自動運転車試験の認可について協議した。しかし、認可必要性についての解釈の相違は埋まらず、Uberは認可申請を行わないとの立場を崩さなかった。このため、DMVはUberの試験車両16台の登録を取り消すという措置に出た。これにより試験車両は路上を走行できなくなり、Uberは走行試験中止に追い込まれた。

アリゾナ州に試験場を移す

DMVとの協議が決裂した翌日、アリゾナ州知事Doug DuceyはUberが同州で自動運転車の試験をすることを明らかにした。アリゾナ州はハイテク企業誘致に積極的で、Duceyは2015年、自動運転車の試験や運行を認める法令に署名している。GoogleやGMは既にアリゾナ州で自動運転車試験を展開している。DuceyはUberを大歓迎すると述べ、同時に、カリフォルニア州は規制が厳しすぎるとも指摘した。(下の写真は自動運転トラックOttoがSelf-Driving Uberを積んでSan Franciscoを出発する光景。)

出典: Doug Ducey

Uberとカリフォルニア州の駆け引き

Uberは規制に従わないことで関係当局との交渉を優位に進めたいとの意図がある。Uberが投入する新技術は既成法令の枠を超え、既存ビジネスとの軋轢を生んできた。法令をUberに都合よく改定するため、Uberは規制当局と全面対決する手法で交渉を進める。一方、カリフォルニア州は住民の安全を最優先に規制を強化するが、ハイテク企業はこれを嫌い州を離れていく。安全を優先するのか、それともイノベーション育成を支援するのか、難しいかじ取りを迫られている。

試験車両の技術的問題も明らかになる

Self-Driving Uberは規制当局との軋轢がクローズアップされるが、技術的な問題も明らかになってきた。Self-Driving Uberは横断歩道を赤信号で横切ったことがニュースで大きく報道された。隣の車線で停止していたクルマから撮影されたもので、Self-Driving Uberは赤信号を無視して進行した。これに対してUberは、Self-Driving Uberは自動運転モードではなく、ドライバーが運転していたとコメントした。技術的な問題ではなく、ヒューマンエラーであるとしている。しかし、これを裏付けるデータは示されていない。

自転車レーンを無視して違法に右折する問題

Self-Driving Uberは自転車レーンを無視して違法に右折する問題を指摘されている。自転車レーンがある道路で右折するには、自転車レーンにマージしてから右折することが義務付けられている。Uberはこの問題を認め、すでにソフトウェアでバグを修正したとしている。(下の写真は自転車レーンの事例。左の走行車線から破線部で自転車レーンとマージし、右側レーンから右折する。走行レーンから直接右折することはできない。Waymo自動運転車はこのテクニックを既に習得している。)

出典: VentureClef

試験走行は時期尚早という基本的な疑問

Self-Driving UberはPittsburghで試験営業しているが、クルマがドライバーの支援なしで走れる距離は限られているとの報告もある。頻繁にドライバーの割り込みが必要となる。Self-Driving Uberが他車に接近しすぎて走行したなど、不安定な挙動もレポートされている。これに上述のSan Franciscoでの問題が重なり、消費者はUberの安全性に不安を抱く結果になった。Self-Driving Uberの試験営業は時期尚早ではという疑問の声も聞かれる。Uberはこれを認識しており、自動運転技術を抜本的に改良する方策を打ち出してきた。(詳細は次回のレポートで報告。)

Googleは自動運転技術会社「Waymo」を設立、開発から事業化に向け大きく舵を切る

Wednesday, December 14th, 2016

Googleは自動運転車部門をAlphabet配下の独立会社とすることを発表した。新会社の名前は「Waymo」で「a new way forward in mobility (モビリティへの新ルート) 」を意味する。発表と同時に新会社のロゴ「W」に衣替えをした試験車両が登場し、シリコンバレーで試験走行を始めた (下の写真) 。

出典: VentureClef

研究開発から事業推進へ

自動運転車部門の最高責任者John Krafcikが2016年12月に発表した。自動運転車開発はGoogle研究所「X」で行われてきたが、これからはAlphabet配下の独立企業として継続される。今までは研究開発という色彩が濃かったが、これからは事業として評価されることになる。Waymoが開発する技術は、個人向けの車両だけでなく幅広い分野で使われる。ライドシェア、貨物運輸、公共交通のラストマイルなどが候補に挙がっている。

Fiat Chryslerとの提携

Googleは2016年5月、Fiat Chryslerと共同で自動運転車を開発すると発表した。同社のプラグインハイブリッド・ミニバンChrysler Pacifica (下の写真) に自動運転技術を搭載し試験走行を展開する。Krafcikは、次世代センサーをこれら車両に搭載しており、開発が順調に進んでいることを明らかにした。一方、Bloombergは、2017年末までにChrysler Pacificaをベースとする自動運転車でライドシェアサービスを始めるとしている。Waymoはこれに関しコメントしていないが、来年には自動運転タクシーが登場する可能性もある。

出典: Waymo

自動運転車開発を振り返る

Googleは2009年から自動運転車を開発してきた。当初はToyota Priusをベースとする車両で (下の写真)、完全自動運転車の開発を目指した。目標はドライバーが操作することなく100マイルを自動走行することであった。カリフォルニア州でこのコースを10本設定したが、数か月後には目標を達成した。

出典: Waymo

技術開発を本格的に展開

2012年にはLexus RX450hを投入し、フリーウェイで自動運転技術を開発した。開発は順調に進み、このクルマをGoogle社員に貸し出し試験を続けた。この頃、Googleは自動運転車を商用化するめどが立ち、研究開発を本格化させた。自動運転車を市街地で走らせ、歩行者や自転車や道路工事作業員などに交じって走行試験を始めた (下の写真) 。

出典: Waymo

Googleが自動運転車をデザイン

2014年にはGoogleが自動運転車の車両を設計した。これは「Prototype」 (下の写真) と呼ばれ、自動運転車のあるべき姿を具現した。PrototypeはGoogleが開発したセンサーやプロセッサーを搭載し、社内にはステアリングやブレーキ・アクセルペダルはない。完全自動運転を意識したデザインとなっている。

出典: Waymo

Paint the Town

2015年には市街地でPrototypeの走行試験を始めた。Lexusベースの自動運転車と共に、Mountain View (カリフォルニア州) とAustin (テキサス州) で試験走行を展開。Prototypeの側面には市民がデザインした街の風景がペイントされた (上の写真)。これは「Paint the Town」というプロジェクトでPrototypeが街や市民になじむことを目指した。

公道での初めてのソロ走行

2015年にはAustin市街で完全自動運転技術の実証実験が行われた。視覚障害者がPrototypeに一人で搭乗し、目的地まで走行した。Prototypeが市街地で走行試験を行う際には、Googleスタッフが搭乗し自動運転をモニターし、緊急の際は運転を取って代わる。この実証実験ではGoogleスタッフは搭乗しないで、公道での初めてのソロ走行となった。このデモは完全自動運転車が非健常者や高齢者の足代わりになることを示した。

200万マイルを完走

2016年には自動運転車の走行距離が200万マイル (320万キロ) を超えた (下の写真)。試験走行場所はKirkland(ワシントン州)とPhoenix(アリゾナ州)が加わり四か所となった。Kirklandは年間を通じ雨が多く、Phoenixは砂漠の気候である。自動運転車を様々な環境で試験する試みが進んでいる。そして2016年12月、開発部門はGoogleからAlphabetに移り、Waymoとして独立した。

出典: Waymo

自動運転車の残された課題

Waymo自動運転車は200万マイルを走行し多くの課題を解決してきた。これからは複雑な市街地を安全に走行できる技術の習得が目標となる。これは「Final 10%」と呼ばれ、残された10%の分部の開発が一番難しく、時間を要する部分となる。自動運転車は既に高度な運転技術を習得している。状況の認識能力が上がり、緊急自動車や道路工事現場などを把握できる。これにより、レーンが閉鎖されていても、道路が通行止めになっても、自動運転車は対応できる技術を習得した。

自然な運転スタイル

これからの自動運転車の課題は自然な運転スタイルの学習にある。自動運転車が加速するとき、また、ブレーキを踏むとき、どれだけスムーズに操作できるかが重要なテクニックとなる。また、他車や歩行者との距離感や、カーブを曲がる速度や角度を学んでいる。これらは微妙な運転テクニックで、乗客が安心して乗れる技術を学習している。

出典: VentureClef

ソーシャルインタラクション

自動運転車は他のドライバーや歩行者とのInteraction (意思疎通) を学習している。例えば渋滞しているレーンに入るとき、隣のクルマが前に入れてくれるかどうかの判断を迫られる。もし、入れないと判断するとスピードを落とすなどの処置が必要となる。自動運転車は他車の進路や速度や意図を高精度で予測し、追い越しや割り込みのテクニックを学んでいる。同時に、自動運転車は自分がどうしたいのか、その意図を他車に伝える技術も学んでいる。(上の写真は隣のレーンを走るWaymo自動運転車。)

自動運転車の事業化が一気に進むか

Alphabet最高経営責任者Larry Pageは自動運転車を早く事業化することを求めている。一方、開発サイドは完全自動運転車の開発には一定の時間がかかるとしている。Pageは完全自動車の完成を待てばビジネスチャンスを逃してしまうとの危機感を持っている。半自動運転車として製品化することを強く求めているとも伝えられる。Waymoとして収益が求められる中、自動運転技術が最終製品として早期に登場する可能性が高まった。

人工知能は信用できるのか、AIのブラックボックスを開きそのロジックを解明する

Friday, December 2nd, 2016

AIの実力が高く評価されDeep Learningを応用したシステムが社会に広がっている。同時に、AIの問題点が顕著になってきた。AIは統計学の手法で入力されたデータから特徴量を高精度で検出する。メディカルイメージからガンの兆候を医師より正確に検知する。しかし、AIはなぜ癌細胞と判断したのか、その理由を語らない。

自動運転車は人間より遥かに安全に走行するが、その運転テクニックは開発者ではなくAIだけが知っている。我々はAIを信用できるのかという大きな課題に直面している。AIに生命を託すことができるのかの議論が起こっている。疑問に対する答えはAIの内部にある。AIのブラックボックスを開けて、そのロジックを解明しようとする研究が始まった。

出典: Xiaolin Wu, Xi Zhang

顔の特徴で犯罪者を特定

AIが抱える本質的な課題が様々な形で露呈している。中国のAI研究者は顔の特徴で犯罪者を特定する技法を発表した。これはShanghai Jiao Tong University (上海交通大学) で研究されたもので、「Automated Inference on Criminality using Face Images」として公開された。この論文によるとアルゴリズムは89%の精度で犯罪者を特定できる。つまり、顔写真をこのアルゴリズムに入力すると、この人物は犯罪者かどうかが分かる。

犯罪者には三つの特徴がある

この研究ではDeep Learningなど顔を認識するAI技術が使われた。アルゴリズムを教育するために、男性の顔写真1856人分が使われ、そのうち730人は犯罪者である。また、この論文は犯罪者の顔の特性についても言及している (上の写真)。犯罪者には三つの特徴があり、一つは上唇のカーブが普通の人に比べ急なこと (上の写真右側、ρの分部)。また、両目の間隔が狭く、鼻と口元でつくられる角度が狭いことをあげている (上の写真右側、dとθの分部)。但し、この論文は公開されたばかりでピアレビュー (専門家による評価) は終わっていない。

背後にロジックがない

いまこの論文が議論を呼んでいる。人物の挙動から犯罪者を特定する手法は監視カメラなどで使われている。しかし、顔の特性から犯罪者を特定するAIは信頼できるのかという疑問が寄せられている。AIは学習データをもとに統計処理するが、顔の形状と犯罪者を結び付けるロジックはない。仮にこのAIが犯罪捜査で使われると、一般市民は理由が分からないまま容疑者とされる恐れもある。Deep Learningが社会問題となる火種が随所で生まれている。

GoogleのAIが女性を差別

世界の最先端のAI技術を持つGoogleだが、AIに起因する問題点を指摘されている。YouTubeは聴覚障害者のためにキャプションを表示する機能がある (下の写真)。キャプションは発言を文字に置き換えるたもので、Googleの音声認識技術が使われる。その際に、男性が話す言葉と女性が話す言葉でキャプションの精度は異なるのか、調査が実施された。(National Science Foundation (アメリカ国立科学財団) のRachael Tatmanによる研究。)

出典: YouTube

YouTubeは女性の声を正しく認識しない

その結果、YouTubeは男性の声を女性の声より正しく認識することが判明した。具体的には、音声認識精度は男性の声だと60%で、女性だと47%に下がる。つまり、女性は音声認識精度において差別を受けていることが分かった。この差がなぜ生まれるかについては、システムを詳しく検証する必要がある。しかし、Tatmanは教育データセットが男性にバイアスしているのではと推測する。音声サンプルは均等ではなく男性に偏っていることを意味する。AIの性能は教育データの品質に敏感に左右される。AIによる女性差別や人種差別が顕在化しているが、学習データが公正であることが問われている。

AIが乳がんを判定する

AIの中心技法であるDeep Learningは乳がん検査の判定で成果を上げている。検体のイメージをDeep Learningのネットワークに入力すると、AIはがんを発症する組織を高精度に検出する。今ではAIの検知精度が人間を上回り、多くの病院でこのシステムの採用が始まった。同時に、健康に見える組織がAIによりがん発症の可能性が高いと判定されたとき、医師と被験者はどう対応すべきかが議論になっている。AIの判定を信頼し、手術を行うかどうかの判断を迫られる。

AIはその理由を説明できない

遺伝子検査でも同様な問題が議論されている。乳がん発症を促進する遺伝子変異「BRCA」が検出されたとき、手術に踏み切るかどうかが問題となる。女優Angelina Jolieは「BRCA1」キャリアで手術を受けたことを公表した。しかし、AI検診のケースはこれとは異なる。AIは統計的手法で乳がんと判断するが、その組織が何故がんを発症するのかは説明できない。AIは時に人工無能と揶揄されるが、科学的根拠のない判定をどう解釈すべきか医学的な検証が始まっている。

銀行は与信審査でAIを使う

銀行やフィンテックベンチャーはローン審査でDeep Learningを使い始めた。ローン応募者のデータをアルゴリズムに入力すると瞬時にリスクを査定できる。高精度に短時間でローン審査ができることから、この手法が注目を集めている。一方、米国では州政府の多くは銀行にローン申し込みで不合格になった人にその理由を説明をすることを義務付けている。

応募者に十分な説明ができない

しかし、Deep Learningはブラックボックスで、銀行は応募者に十分な説明ができない。更に、ローン審査の基準を変えるときは、学習データを使ってアルゴリズムを再教育することとなる。ソフトウェアのロジックを変更するようにはいかず、大量のデータを読み込んでDeep Learningのパラメータを再設定する。金融業界でAIを導入することの是非が議論されている。

出典: Mahmood Sharif et al.

AIは眼鏡で騙される

Carnegie Mellon UniversityのMahmood Sharifらは、眼鏡で顔認証システムが誤作動することを突き止めた。これは「Accessorize to a Crime: Real and Stealthy Attacks on State-of-the-Art Face Recognition」として公開された。フレームの幅が少し広い眼鏡 (上の写真(a)の列) をかけると、システムはこれらの写真を顔として認識できない。つまり、街中に設置されている防犯カメラの監視システムをかいくぐることができる。

眼鏡で別人に成りすます

また、フレームのプリントパターンを変えると、顔認識システムは別の人物と間違って認識する。上の写真(b)から(d)の列がその事例で、上段の人物が眼鏡をかけることで、顔認識システムは下段の人物と誤認識する。(b)のケースでは、上段の男性が眼鏡をかけるとシステムは米国の女優Milla Jovovichと誤認した。顔認識システムはDeep Learningの手法で顔の特徴を把握するが、この事例から、目元のイメージが判定で使われていると推定できる。しかし、AIが実際にどういうロジックで顔認証をしているかは謎のままである。これが解明されない限り、顔認証システムを不正にすり抜ける犯罪を防ぐことはできない。

ニューラルネットワークと脳の類似性

AIの基礎をなすNeural Network (下の写真) でイメージを判定する時は、写真とそのタグ (名前などの種別) をネットワークに入力し、出力が正しく種別を判定できるよう教育する。教育過程ではネットワーク各層 (下の写真、縦方向の円の並び) 間の接続強度 (Weight) を調整する。この教育過程は脳が学習するとき、ニューロンの接続強度を調整する動きに似ているといわれる。

出典: Neural Networks and Deep Learning

ネットワークの中に分散して情報を格納

学習で得た接続強度は各ニューロン (上の写真の白丸の分部) に格納される。つまり、Neural Networkが学習するメカニズムの特徴はネットワークの中に分散して学習データを格納することにある。プログラムのようにデータを一か所に纏めて格納する訳ではない。人間の脳も同じメカニズムである。脳が電話番号を覚えるときには、最初の番号は多数のシナプスの中に散在して格納される。二番目の番号も同様に散在して格納されるが、一番目の番号と近い位置に格納されるといわれる。人間の脳を模したNeural Networkはデータ格納でも同じ方式となる。

知識がネットワークに焼き付いている

問題はこの格納メカニズムが解明されていないことにある。脳の構造を模したNeural Networkも同様に、情報が格納されるメカニズムの解明が進んでいない。Deep Learningの問題点を凝縮すると、知識がネットワークに焼き付いていることに起因する。ニューロンの数は数千万個に及び、ここに知識が散在して格納されている。知識はシステムを開発した人間ではなく、ネットワークが習得することが問題の本質となる。

自動運転車のアルゴリズム

Carnegie Mellon Universityは1990年代から自動運転技術の基礎研究を進めていた (下の写真はその当時の自動運転車)。当時、研究員であったDean Pomerleauは、カメラで捉えた映像で自動運転アルゴリズムを教育した。走行試験では、数分間アルゴリズムを教育し、その後でクルマを自動走行させる試験を繰り返した。試験はうまく進んだが、橋に近づいたときクルマは道路からそれる動きをした。しかし、アルゴリズムはブラックボックスでPomerleauはその原因が分からなかった。

出典: Dean Pomerleau et al.

試験を繰り返し問題点を特定

ソフトウェアをデバッグする要領でロジックを修正することができない。このためPomerleauは路上試験を繰り返すことで問題点を解明した。様々な状況で自動運転を繰り返し、経験的に問題点を突き止めた。それによると、クルマは路肩の外側に生えている草の部分を基準にして走行路を判定していることが分かった。橋に近づくと草の部分がなくなり、クルマは判断基準を失い、正常に走行できなくなる。自動運転技術をAIで実装するとクルマが正しく動くのか確信が持てなくなる。

大規模な走行試験で安全性確認

現在でも同じ問題を抱えている。自動運転車は無人で公道を走ることになるが、我々はAI技術を信用していいのかが問われている。AIの運転ロジックが分からない中、どう安全基準を作ればいいのか試行錯誤が続いている。その一つに、定められた距離を無事故で走行できれば安全とみなすという考え方がある。シンクタンクRand Corpによると、人間がクルマを1億マイル運転すると死亡事故は1.09回発生する。自動運転車が人間と同じくらい安全であることを証明するためには2.75億マイルを無事故で走る必要がある。人間レベルの安全性を証明するためには大規模な走行試験が必要となる。自動運転車の安全基準を設定する作業は難航している。

Deep Learningを使った運転技術

この問題を技術的に解明しようとする動きも始まった。NvidiaはDeep Learningを使った運転技術を開発している。自動運転システムは「DAVE-2」と呼ばれ、Neural Networkで構成される。人間がアルゴリズムに走行ルールを教えるのではなく、システムはNeural Networkで画像を処理し安全な経路を把握する。システムはカーブしている道路のイメージを読むと、そこから運転に必要な道路の特徴を把握する。

AIがルールを学習する

NvidiaはAIがどういう基準で意思決定しているのかの研究を進めている。今までブラックボックスであったAIの中身を解明する試みだ。下の写真が研究成果の一端で、AIが道路をどう理解しているかを示している。上段はカメラが捉えた画像で、下段はCNN (画像認識するNeural Network) がこれを読み込み、そこから道路の特徴を示している。特徴量は曲線が殆どで、CNNは道路の境界部分を目安に運転していることが分かる。この画面からAIが習得したドライブテクニックを人間がビジュアルに理解できる。

出典: Nvidia

2017年はAIロジックの解明が進む年

自動運転車を含む自立系システムはDeep Reinforcement Learning (深層強化学習) という手法を使い、アルゴリズムが試行錯誤を繰り返してポリシーを学習する。この技法は囲碁チャンピオンを破ったGoogle AlphaGoでも使われている。Deep Reinforcement Learningの中身もブラックボックスで、これからこの解明も進むことになる。AIは目覚ましい成果を上げ世界を変え続けるが、2017年はAIのブラックボックスを開けそのロジックの解明が進む年となる。