Archive for the ‘自動車’ Category

Uberはサンフランシスコでの自動運転試験を中止、認可を巡りカリフォルニア州政府と激突

Friday, December 23rd, 2016

Uberは必要な手続きをしないでSan Franciscoで自動運転車の試験営業を始めた。カリフォルニア州政府はこれを認めず、試験車両の登録を取り消す強硬策を取った。これに対し、Uberは隣のアリゾナ州に移り、ここで路上試験を始める計画だ。Uberが法令に従わないで自動運転車を運行するのは危険だという意見がある。同時に、カリフォルニア州は規制が厳しすぎるという意見も聞かれる。

出典: Uber

San Franciscoで試験運転を始める

Uberは2016年12月14日、San Franciscoで自動運転車の試験操業を始めるた。この車両は「Self-Driving Uber」と呼ばれ、Volvo XC90に自動運転技術を搭載した構成となっている (上の写真) 。Uberはこの車両で無人タクシーの試験営業を開始した。ただし、車両にはUber専任ドライバーが搭乗しており、問題が発生すると運転を代わる手順となっている。

タブレットがインターフェイスとなる

誰でもSelf-Driving Uberを利用できる。いつもの手順でUberアプリで配車をリクエストする。もし配車車両が自動運転車であれば、その旨がアプリに通知される。利用者は確認ボタンを押すとSelf-Driving Uberが配車される。利用者が搭乗すると、車内にはタブレットが備えてあり、これでクルマと交信する (下の写真)。タブレットがインターフェイスとなり、無人走行時に乗客が安心できる機能を搭載している。

タブレットで走行状態を把握

乗客はシートベルトを装着し出発準備が整い、タブレットでスタートボタンを押すとクルマは発進する。走行中はタブレットに運行状況に関する情報が示される。Self-Driving Uberに搭載されているセンサーで捉えたクルマ周囲のイメージが表示される (下の写真)。またタブレットで自撮りすることもできる。カメラアイコンを押すと写真撮影でき、それを友人とシェアできる。

出典: Uber

San Franciscoを選んだ理由

Uberは既にPittsburgh(ペンシルベニア州)でSelf-Driving Uberの営業試験を展開している。UberはSan FranciscoでSelf-Driving Uberを試験する理由について、試験走行の環境を拡大することで、技術開発を加速するとしている。San Franciscoは自転車が多く道路は狭く交通量が多く、難しい環境で技術を磨くとしている。当地はUber発祥の地であり、ここで試験を展開するのは自然な流れとなる。

認可を受けないで試験営業を開始

しかし、Uberは認可を受けないで試験営業を始めた。カリフォルニア州で自動運転車を試験走行するときは、自動車運行を管轄するDepartment of Motor Vehicles (DMV) から認可を受けることが義務付けられている。Uberはこの法令に従わづ、自動運転車運行許可証を取得しないでSelf-Driving Uberの営業試験を始めた。このためカリフォルニア州政府はUberに対してSelf-Driving Uberの運行停止の命令を発行した。

なぜ認可を受けないで運行するのか

UberはSelf-Driving Uber営業試験を始めるにあたり、自動運転試験の認可を取得する必要はないとの見解を表明した。この理由はSelf-Driving Uberは自動運転車の定義に該当しないというもの。DMVは自動運転車「Autonomous Vehicles」を「ドライバーが制御しないで運行する車両」と定義している。Self-Driving Uberはドライバーが制御しながら運行する車両で、この定義に当たらないとUberは主張している。

自動運転車の定義を明確にすることを求める

Uberは、Self-Driving Uberは高度な運転アシスト技術であり、Tesla Autopilotと同じ方式で運行を制御するとしている。Tesla Autopilotの走行は認可が必要でないように、Self-Driving Uberも認可が必要でないと解釈すると述べている。更に、Uberは法の穴をかいくぐるのが目的ではなく、自動運転車関連法を明確にすることが目的とも述べている。Uberは「Autonomous Vehicles」の法的な定義を明確にすることを求めている。

DMVはUberの試験車両16台の登録を取り消す

UberとDMVは12月21日、自動運転車試験の認可について協議した。しかし、認可必要性についての解釈の相違は埋まらず、Uberは認可申請を行わないとの立場を崩さなかった。このため、DMVはUberの試験車両16台の登録を取り消すという措置に出た。これにより試験車両は路上を走行できなくなり、Uberは走行試験中止に追い込まれた。

アリゾナ州に試験場を移す

DMVとの協議が決裂した翌日、アリゾナ州知事Doug DuceyはUberが同州で自動運転車の試験をすることを明らかにした。アリゾナ州はハイテク企業誘致に積極的で、Duceyは2015年、自動運転車の試験や運行を認める法令に署名している。GoogleやGMは既にアリゾナ州で自動運転車試験を展開している。DuceyはUberを大歓迎すると述べ、同時に、カリフォルニア州は規制が厳しすぎるとも指摘した。(下の写真は自動運転トラックOttoがSelf-Driving Uberを積んでSan Franciscoを出発する光景。)

出典: Doug Ducey

Uberとカリフォルニア州の駆け引き

Uberは規制に従わないことで関係当局との交渉を優位に進めたいとの意図がある。Uberが投入する新技術は既成法令の枠を超え、既存ビジネスとの軋轢を生んできた。法令をUberに都合よく改定するため、Uberは規制当局と全面対決する手法で交渉を進める。一方、カリフォルニア州は住民の安全を最優先に規制を強化するが、ハイテク企業はこれを嫌い州を離れていく。安全を優先するのか、それともイノベーション育成を支援するのか、難しいかじ取りを迫られている。

試験車両の技術的問題も明らかになる

Self-Driving Uberは規制当局との軋轢がクローズアップされるが、技術的な問題も明らかになってきた。Self-Driving Uberは横断歩道を赤信号で横切ったことがニュースで大きく報道された。隣の車線で停止していたクルマから撮影されたもので、Self-Driving Uberは赤信号を無視して進行した。これに対してUberは、Self-Driving Uberは自動運転モードではなく、ドライバーが運転していたとコメントした。技術的な問題ではなく、ヒューマンエラーであるとしている。しかし、これを裏付けるデータは示されていない。

自転車レーンを無視して違法に右折する問題

Self-Driving Uberは自転車レーンを無視して違法に右折する問題を指摘されている。自転車レーンがある道路で右折するには、自転車レーンにマージしてから右折することが義務付けられている。Uberはこの問題を認め、すでにソフトウェアでバグを修正したとしている。(下の写真は自転車レーンの事例。左の走行車線から破線部で自転車レーンとマージし、右側レーンから右折する。走行レーンから直接右折することはできない。Waymo自動運転車はこのテクニックを既に習得している。)

出典: VentureClef

試験走行は時期尚早という基本的な疑問

Self-Driving UberはPittsburghで試験営業しているが、クルマがドライバーの支援なしで走れる距離は限られているとの報告もある。頻繁にドライバーの割り込みが必要となる。Self-Driving Uberが他車に接近しすぎて走行したなど、不安定な挙動もレポートされている。これに上述のSan Franciscoでの問題が重なり、消費者はUberの安全性に不安を抱く結果になった。Self-Driving Uberの試験営業は時期尚早ではという疑問の声も聞かれる。Uberはこれを認識しており、自動運転技術を抜本的に改良する方策を打ち出してきた。(詳細は次回のレポートで報告。)

Googleは自動運転技術会社「Waymo」を設立、開発から事業化に向け大きく舵を切る

Wednesday, December 14th, 2016

Googleは自動運転車部門をAlphabet配下の独立会社とすることを発表した。新会社の名前は「Waymo」で「a new way forward in mobility (モビリティへの新ルート) 」を意味する。発表と同時に新会社のロゴ「W」に衣替えをした試験車両が登場し、シリコンバレーで試験走行を始めた (下の写真) 。

出典: VentureClef

研究開発から事業推進へ

自動運転車部門の最高責任者John Krafcikが2016年12月に発表した。自動運転車開発はGoogle研究所「X」で行われてきたが、これからはAlphabet配下の独立企業として継続される。今までは研究開発という色彩が濃かったが、これからは事業として評価されることになる。Waymoが開発する技術は、個人向けの車両だけでなく幅広い分野で使われる。ライドシェア、貨物運輸、公共交通のラストマイルなどが候補に挙がっている。

Fiat Chryslerとの提携

Googleは2016年5月、Fiat Chryslerと共同で自動運転車を開発すると発表した。同社のプラグインハイブリッド・ミニバンChrysler Pacifica (下の写真) に自動運転技術を搭載し試験走行を展開する。Krafcikは、次世代センサーをこれら車両に搭載しており、開発が順調に進んでいることを明らかにした。一方、Bloombergは、2017年末までにChrysler Pacificaをベースとする自動運転車でライドシェアサービスを始めるとしている。Waymoはこれに関しコメントしていないが、来年には自動運転タクシーが登場する可能性もある。

出典: Waymo

自動運転車開発を振り返る

Googleは2009年から自動運転車を開発してきた。当初はToyota Priusをベースとする車両で (下の写真)、完全自動運転車の開発を目指した。目標はドライバーが操作することなく100マイルを自動走行することであった。カリフォルニア州でこのコースを10本設定したが、数か月後には目標を達成した。

出典: Waymo

技術開発を本格的に展開

2012年にはLexus RX450hを投入し、フリーウェイで自動運転技術を開発した。開発は順調に進み、このクルマをGoogle社員に貸し出し試験を続けた。この頃、Googleは自動運転車を商用化するめどが立ち、研究開発を本格化させた。自動運転車を市街地で走らせ、歩行者や自転車や道路工事作業員などに交じって走行試験を始めた (下の写真) 。

出典: Waymo

Googleが自動運転車をデザイン

2014年にはGoogleが自動運転車の車両を設計した。これは「Prototype」 (下の写真) と呼ばれ、自動運転車のあるべき姿を具現した。PrototypeはGoogleが開発したセンサーやプロセッサーを搭載し、社内にはステアリングやブレーキ・アクセルペダルはない。完全自動運転を意識したデザインとなっている。

出典: Waymo

Paint the Town

2015年には市街地でPrototypeの走行試験を始めた。Lexusベースの自動運転車と共に、Mountain View (カリフォルニア州) とAustin (テキサス州) で試験走行を展開。Prototypeの側面には市民がデザインした街の風景がペイントされた (上の写真)。これは「Paint the Town」というプロジェクトでPrototypeが街や市民になじむことを目指した。

公道での初めてのソロ走行

2015年にはAustin市街で完全自動運転技術の実証実験が行われた。視覚障害者がPrototypeに一人で搭乗し、目的地まで走行した。Prototypeが市街地で走行試験を行う際には、Googleスタッフが搭乗し自動運転をモニターし、緊急の際は運転を取って代わる。この実証実験ではGoogleスタッフは搭乗しないで、公道での初めてのソロ走行となった。このデモは完全自動運転車が非健常者や高齢者の足代わりになることを示した。

200万マイルを完走

2016年には自動運転車の走行距離が200万マイル (320万キロ) を超えた (下の写真)。試験走行場所はKirkland(ワシントン州)とPhoenix(アリゾナ州)が加わり四か所となった。Kirklandは年間を通じ雨が多く、Phoenixは砂漠の気候である。自動運転車を様々な環境で試験する試みが進んでいる。そして2016年12月、開発部門はGoogleからAlphabetに移り、Waymoとして独立した。

出典: Waymo

自動運転車の残された課題

Waymo自動運転車は200万マイルを走行し多くの課題を解決してきた。これからは複雑な市街地を安全に走行できる技術の習得が目標となる。これは「Final 10%」と呼ばれ、残された10%の分部の開発が一番難しく、時間を要する部分となる。自動運転車は既に高度な運転技術を習得している。状況の認識能力が上がり、緊急自動車や道路工事現場などを把握できる。これにより、レーンが閉鎖されていても、道路が通行止めになっても、自動運転車は対応できる技術を習得した。

自然な運転スタイル

これからの自動運転車の課題は自然な運転スタイルの学習にある。自動運転車が加速するとき、また、ブレーキを踏むとき、どれだけスムーズに操作できるかが重要なテクニックとなる。また、他車や歩行者との距離感や、カーブを曲がる速度や角度を学んでいる。これらは微妙な運転テクニックで、乗客が安心して乗れる技術を学習している。

出典: VentureClef

ソーシャルインタラクション

自動運転車は他のドライバーや歩行者とのInteraction (意思疎通) を学習している。例えば渋滞しているレーンに入るとき、隣のクルマが前に入れてくれるかどうかの判断を迫られる。もし、入れないと判断するとスピードを落とすなどの処置が必要となる。自動運転車は他車の進路や速度や意図を高精度で予測し、追い越しや割り込みのテクニックを学んでいる。同時に、自動運転車は自分がどうしたいのか、その意図を他車に伝える技術も学んでいる。(上の写真は隣のレーンを走るWaymo自動運転車。)

自動運転車の事業化が一気に進むか

Alphabet最高経営責任者Larry Pageは自動運転車を早く事業化することを求めている。一方、開発サイドは完全自動運転車の開発には一定の時間がかかるとしている。Pageは完全自動車の完成を待てばビジネスチャンスを逃してしまうとの危機感を持っている。半自動運転車として製品化することを強く求めているとも伝えられる。Waymoとして収益が求められる中、自動運転技術が最終製品として早期に登場する可能性が高まった。

人工知能は信用できるのか、AIのブラックボックスを開きそのロジックを解明する

Friday, December 2nd, 2016

AIの実力が高く評価されDeep Learningを応用したシステムが社会に広がっている。同時に、AIの問題点が顕著になってきた。AIは統計学の手法で入力されたデータから特徴量を高精度で検出する。メディカルイメージからガンの兆候を医師より正確に検知する。しかし、AIはなぜ癌細胞と判断したのか、その理由を語らない。

自動運転車は人間より遥かに安全に走行するが、その運転テクニックは開発者ではなくAIだけが知っている。我々はAIを信用できるのかという大きな課題に直面している。AIに生命を託すことができるのかの議論が起こっている。疑問に対する答えはAIの内部にある。AIのブラックボックスを開けて、そのロジックを解明しようとする研究が始まった。

出典: Xiaolin Wu, Xi Zhang

顔の特徴で犯罪者を特定

AIが抱える本質的な課題が様々な形で露呈している。中国のAI研究者は顔の特徴で犯罪者を特定する技法を発表した。これはShanghai Jiao Tong University (上海交通大学) で研究されたもので、「Automated Inference on Criminality using Face Images」として公開された。この論文によるとアルゴリズムは89%の精度で犯罪者を特定できる。つまり、顔写真をこのアルゴリズムに入力すると、この人物は犯罪者かどうかが分かる。

犯罪者には三つの特徴がある

この研究ではDeep Learningなど顔を認識するAI技術が使われた。アルゴリズムを教育するために、男性の顔写真1856人分が使われ、そのうち730人は犯罪者である。また、この論文は犯罪者の顔の特性についても言及している (上の写真)。犯罪者には三つの特徴があり、一つは上唇のカーブが普通の人に比べ急なこと (上の写真右側、ρの分部)。また、両目の間隔が狭く、鼻と口元でつくられる角度が狭いことをあげている (上の写真右側、dとθの分部)。但し、この論文は公開されたばかりでピアレビュー (専門家による評価) は終わっていない。

背後にロジックがない

いまこの論文が議論を呼んでいる。人物の挙動から犯罪者を特定する手法は監視カメラなどで使われている。しかし、顔の特性から犯罪者を特定するAIは信頼できるのかという疑問が寄せられている。AIは学習データをもとに統計処理するが、顔の形状と犯罪者を結び付けるロジックはない。仮にこのAIが犯罪捜査で使われると、一般市民は理由が分からないまま容疑者とされる恐れもある。Deep Learningが社会問題となる火種が随所で生まれている。

GoogleのAIが女性を差別

世界の最先端のAI技術を持つGoogleだが、AIに起因する問題点を指摘されている。YouTubeは聴覚障害者のためにキャプションを表示する機能がある (下の写真)。キャプションは発言を文字に置き換えるたもので、Googleの音声認識技術が使われる。その際に、男性が話す言葉と女性が話す言葉でキャプションの精度は異なるのか、調査が実施された。(National Science Foundation (アメリカ国立科学財団) のRachael Tatmanによる研究。)

出典: YouTube

YouTubeは女性の声を正しく認識しない

その結果、YouTubeは男性の声を女性の声より正しく認識することが判明した。具体的には、音声認識精度は男性の声だと60%で、女性だと47%に下がる。つまり、女性は音声認識精度において差別を受けていることが分かった。この差がなぜ生まれるかについては、システムを詳しく検証する必要がある。しかし、Tatmanは教育データセットが男性にバイアスしているのではと推測する。音声サンプルは均等ではなく男性に偏っていることを意味する。AIの性能は教育データの品質に敏感に左右される。AIによる女性差別や人種差別が顕在化しているが、学習データが公正であることが問われている。

AIが乳がんを判定する

AIの中心技法であるDeep Learningは乳がん検査の判定で成果を上げている。検体のイメージをDeep Learningのネットワークに入力すると、AIはがんを発症する組織を高精度に検出する。今ではAIの検知精度が人間を上回り、多くの病院でこのシステムの採用が始まった。同時に、健康に見える組織がAIによりがん発症の可能性が高いと判定されたとき、医師と被験者はどう対応すべきかが議論になっている。AIの判定を信頼し、手術を行うかどうかの判断を迫られる。

AIはその理由を説明できない

遺伝子検査でも同様な問題が議論されている。乳がん発症を促進する遺伝子変異「BRCA」が検出されたとき、手術に踏み切るかどうかが問題となる。女優Angelina Jolieは「BRCA1」キャリアで手術を受けたことを公表した。しかし、AI検診のケースはこれとは異なる。AIは統計的手法で乳がんと判断するが、その組織が何故がんを発症するのかは説明できない。AIは時に人工無能と揶揄されるが、科学的根拠のない判定をどう解釈すべきか医学的な検証が始まっている。

銀行は与信審査でAIを使う

銀行やフィンテックベンチャーはローン審査でDeep Learningを使い始めた。ローン応募者のデータをアルゴリズムに入力すると瞬時にリスクを査定できる。高精度に短時間でローン審査ができることから、この手法が注目を集めている。一方、米国では州政府の多くは銀行にローン申し込みで不合格になった人にその理由を説明をすることを義務付けている。

応募者に十分な説明ができない

しかし、Deep Learningはブラックボックスで、銀行は応募者に十分な説明ができない。更に、ローン審査の基準を変えるときは、学習データを使ってアルゴリズムを再教育することとなる。ソフトウェアのロジックを変更するようにはいかず、大量のデータを読み込んでDeep Learningのパラメータを再設定する。金融業界でAIを導入することの是非が議論されている。

出典: Mahmood Sharif et al.

AIは眼鏡で騙される

Carnegie Mellon UniversityのMahmood Sharifらは、眼鏡で顔認証システムが誤作動することを突き止めた。これは「Accessorize to a Crime: Real and Stealthy Attacks on State-of-the-Art Face Recognition」として公開された。フレームの幅が少し広い眼鏡 (上の写真(a)の列) をかけると、システムはこれらの写真を顔として認識できない。つまり、街中に設置されている防犯カメラの監視システムをかいくぐることができる。

眼鏡で別人に成りすます

また、フレームのプリントパターンを変えると、顔認識システムは別の人物と間違って認識する。上の写真(b)から(d)の列がその事例で、上段の人物が眼鏡をかけることで、顔認識システムは下段の人物と誤認識する。(b)のケースでは、上段の男性が眼鏡をかけるとシステムは米国の女優Milla Jovovichと誤認した。顔認識システムはDeep Learningの手法で顔の特徴を把握するが、この事例から、目元のイメージが判定で使われていると推定できる。しかし、AIが実際にどういうロジックで顔認証をしているかは謎のままである。これが解明されない限り、顔認証システムを不正にすり抜ける犯罪を防ぐことはできない。

ニューラルネットワークと脳の類似性

AIの基礎をなすNeural Network (下の写真) でイメージを判定する時は、写真とそのタグ (名前などの種別) をネットワークに入力し、出力が正しく種別を判定できるよう教育する。教育過程ではネットワーク各層 (下の写真、縦方向の円の並び) 間の接続強度 (Weight) を調整する。この教育過程は脳が学習するとき、ニューロンの接続強度を調整する動きに似ているといわれる。

出典: Neural Networks and Deep Learning

ネットワークの中に分散して情報を格納

学習で得た接続強度は各ニューロン (上の写真の白丸の分部) に格納される。つまり、Neural Networkが学習するメカニズムの特徴はネットワークの中に分散して学習データを格納することにある。プログラムのようにデータを一か所に纏めて格納する訳ではない。人間の脳も同じメカニズムである。脳が電話番号を覚えるときには、最初の番号は多数のシナプスの中に散在して格納される。二番目の番号も同様に散在して格納されるが、一番目の番号と近い位置に格納されるといわれる。人間の脳を模したNeural Networkはデータ格納でも同じ方式となる。

知識がネットワークに焼き付いている

問題はこの格納メカニズムが解明されていないことにある。脳の構造を模したNeural Networkも同様に、情報が格納されるメカニズムの解明が進んでいない。Deep Learningの問題点を凝縮すると、知識がネットワークに焼き付いていることに起因する。ニューロンの数は数千万個に及び、ここに知識が散在して格納されている。知識はシステムを開発した人間ではなく、ネットワークが習得することが問題の本質となる。

自動運転車のアルゴリズム

Carnegie Mellon Universityは1990年代から自動運転技術の基礎研究を進めていた (下の写真はその当時の自動運転車)。当時、研究員であったDean Pomerleauは、カメラで捉えた映像で自動運転アルゴリズムを教育した。走行試験では、数分間アルゴリズムを教育し、その後でクルマを自動走行させる試験を繰り返した。試験はうまく進んだが、橋に近づいたときクルマは道路からそれる動きをした。しかし、アルゴリズムはブラックボックスでPomerleauはその原因が分からなかった。

出典: Dean Pomerleau et al.

試験を繰り返し問題点を特定

ソフトウェアをデバッグする要領でロジックを修正することができない。このためPomerleauは路上試験を繰り返すことで問題点を解明した。様々な状況で自動運転を繰り返し、経験的に問題点を突き止めた。それによると、クルマは路肩の外側に生えている草の部分を基準にして走行路を判定していることが分かった。橋に近づくと草の部分がなくなり、クルマは判断基準を失い、正常に走行できなくなる。自動運転技術をAIで実装するとクルマが正しく動くのか確信が持てなくなる。

大規模な走行試験で安全性確認

現在でも同じ問題を抱えている。自動運転車は無人で公道を走ることになるが、我々はAI技術を信用していいのかが問われている。AIの運転ロジックが分からない中、どう安全基準を作ればいいのか試行錯誤が続いている。その一つに、定められた距離を無事故で走行できれば安全とみなすという考え方がある。シンクタンクRand Corpによると、人間がクルマを1億マイル運転すると死亡事故は1.09回発生する。自動運転車が人間と同じくらい安全であることを証明するためには2.75億マイルを無事故で走る必要がある。人間レベルの安全性を証明するためには大規模な走行試験が必要となる。自動運転車の安全基準を設定する作業は難航している。

Deep Learningを使った運転技術

この問題を技術的に解明しようとする動きも始まった。NvidiaはDeep Learningを使った運転技術を開発している。自動運転システムは「DAVE-2」と呼ばれ、Neural Networkで構成される。人間がアルゴリズムに走行ルールを教えるのではなく、システムはNeural Networkで画像を処理し安全な経路を把握する。システムはカーブしている道路のイメージを読むと、そこから運転に必要な道路の特徴を把握する。

AIがルールを学習する

NvidiaはAIがどういう基準で意思決定しているのかの研究を進めている。今までブラックボックスであったAIの中身を解明する試みだ。下の写真が研究成果の一端で、AIが道路をどう理解しているかを示している。上段はカメラが捉えた画像で、下段はCNN (画像認識するNeural Network) がこれを読み込み、そこから道路の特徴を示している。特徴量は曲線が殆どで、CNNは道路の境界部分を目安に運転していることが分かる。この画面からAIが習得したドライブテクニックを人間がビジュアルに理解できる。

出典: Nvidia

2017年はAIロジックの解明が進む年

自動運転車を含む自立系システムはDeep Reinforcement Learning (深層強化学習) という手法を使い、アルゴリズムが試行錯誤を繰り返してポリシーを学習する。この技法は囲碁チャンピオンを破ったGoogle AlphaGoでも使われている。Deep Reinforcement Learningの中身もブラックボックスで、これからこの解明も進むことになる。AIは目覚ましい成果を上げ世界を変え続けるが、2017年はAIのブラックボックスを開けそのロジックの解明が進む年となる。

無人カーでのレースが開幕、人工知能がF1ドライバーを超える?

Friday, October 21st, 2016

ドライバーが搭乗しないレーシングカーによるレースが始まった。これは「Roborace」と呼ばれ、AIレーシングカーがFormula Oneのようなバトルを展開する。レーシングカーにはコックピットはなく、Deep Learningが操縦する完全自動運転車だ。アルゴリズムがLewis Hamiltonを超えるのかファンの注目を集めている。

Roboraceとは

RoboraceはEVのF1といわれる「Formula E」シリーズの一部として位置づけられる。Roboraceは10チームで構成され、各チームは二台の無人レーシングカー (上の写真) で勝負する。レーシングカーの車体は同じものが使われるが、各チームは独自にソフトウェアを開発し、レーシングカー制御と自動運転技術の戦いとなる。

EVと自動運転技術の交差点

高速で走行するレーシングカーからリアルタイムで大量のデータが収集される。これを如何に高速で処理できるかがポイントになる。これらのデータを解析し自動運転するAI技術が競われる。クルマの将来はEVと自動運転技術で、Roboraceの意義はこの構想をレースの形で世界に示すことにある。Roboraceは再生可能エネルギー技術と自動運転技術を結び付け、未来のモビリティを示している。

未来的なデザイン

Roboraceで使うレーシングカーはKinetikが開発し供給する。Kinetikとは英国のベンチャーキャピタルで、配下のRoborace社が車体の設計と製造を担う。レーシングカーのデザインはDaniel Simonが手掛けた。同氏はディズニー映画「Tron Legacy」で登場する二輪車「Light Cycle」をデザインした。RobocarはLight Cycleをほうふつさせる未来的な形状と色彩となっている。

レーシングカーの形状はシンプル

レーシングカーは無人で走行することを前提にゼロから設計された。ドライバーが搭乗しないのでコックピットはなくシンプルな形状となっている。機能面からは床面の形状でダウンフォースを得る。レーシングカー底部を高速で流れる空気を利用して車体を路面に押し付ける。このダウンフォースを利用して高速でコーナーを回ることができる。ちなみにF1ではダウンフォースを得るためにFront WingとRear Wingを車体に付けている。

多数のセンサーを搭載

レーシングカーは自動運転のための様々なセンサーを搭載している。Lidar (レーザーレーダー) を5台搭載している。前面に二台、側面に二台、後部に一台搭載し、周囲のオブジェクトを把握する。AIカメラは前面に二台とPole (車体上部に設置されたポール) に一台設置される。名前が示すように、AIと連動しインテリジェントなセンサーとなる。この他に、レーダー、超音波センサー、GPSアンテナを搭載する。

Deep Learningを使った運転技術

レーシングカーは処理装置としてNvidiaの車載スーパーコンピューター「Drive PX 2」を搭載している。Drive PX 2はセンサーからのデータを処理し周囲のオブジェクトを把握する。更に、Deep Learningの技法でクルマが運転技術を学ぶ。試合を重ねるにつれレーステクニックを習得し人間のドライバーに近づいていく。将来はF1ドライバーを凌駕するのではとの声も聞かれる。

香港グランプリでデビュー

Roboraceは2015年11月に計画が発表され、今シリーズからレースを始めるとしていた。実際には、10月に開催された香港グランプリでRoboraceの試験車両「DevBot」が公開された (上の写真)。試験車両はドライバーが搭乗できるコックピットが備え付けられているが自動で走行する。グランプリではそれをデモする予定であったが、バッテリーの問題で残念ながら中止となった。Roboraceは2016年をシーズンゼロと位置づけDevBotの開発を続け、来年度からRoboraceでレースが始まる。

Formula Eとは

Roboraceが属するFormula Eとは2014年に創設されたモータースポーツイベントで、バッテリーで駆動するレーシングカーが速さを競い合う。Formula EはFIA (国際自動車連盟) が管轄する。FIAはFormula OneやWorld Rallyなど世界のトップレースを運営している。3シーズン目となる2016年はスポーツファンの数が増え人気が急上昇している。

中国を舞台にシーズンがスタート

今シーズンのFormula Eは香港グランプリから始まり、2017年7月まで世界10都市で12レースを開催する。香港グランプリは市街地にレースコースが設定され10チーム20台が競った (下の写真)。レースは事故が続発する波乱の展開となり、昨年度のチャンピオンe.Dams (RenaultのFormula Eチーム) のSébastien Buemiが優勝した。昨年までは北京で開催され、毎年中国を舞台にシーズンがスタートする。

F1に性能では劣るが

Formula Eは外観はF1に似ているが電気モーターで駆動するレーシングカー。レース時間は50分で一人が二台のマシンを使って競技する。F1は燃料が少なくなるとピットインして給油するが、Formula Eは電気残量が少なくなるともう一台のマシンに乗り換えてレースを続ける。Formula Eの最高速度は時速220キロであるがF1は時速340キロと大きく上回る。最高速度や加速性能でF1が上回るが、Formula EはEV技術が高速に進化し、その将来性に期待が集まっている。

レースはバッテリーの勝負

EV技術の中心がバッテリー開発となる。Formula Eのバッテリー重量は200kgで、バスの電圧は1000Vに制限されている。更に、モーター出力は200 kW (270馬力) だが、レース中は170 kWに制限されている。バッテリーからの電力使用量は28kWhに制限される。レースはエネルギー管理の戦いでもあり、多くの制限のもとで最新技術が磨かれる。

ファン投票でエネルギーを得る

レースは速さを競うだけでなく、楽しく観戦できる仕組みが随所にみられる。ファンは応援しているドライバーに投票しマシンの出力を上げることができる。これは「FanBoost」と呼ばれ、投票数の多いドライバーは100キロジュール (100kW x 秒) を受ける。5秒間で20kWの追加エネルギーを得ることができ12%の出力アップとなる。これでライバルを追い抜くシーンが見られ、ファンはレースに参戦した気分になる。

中国企業がFormula Eに参戦

Formula Eの特徴は多くの中国企業がレースに参戦している点だ。「NextEV」は中国企業が運営するレーシングチームでFormula E創設以来参戦している。昨年度は9位の成績で不調に終わったが、今年は巻き返しを狙っている。3シーズン目にあたる今年は「Techeetah」というチームが参戦した。このチームは日本のFormula Eチーム「Team Aguri」を買収してレースに加わった。

Faraday Futureも参戦

今シーズンは「Faraday Future」がスポンサーとしてFormula Eに参戦した (下の写真)。Faraday FutureとはLos Angelesに拠点を置くEVメーカーでTeslaに対抗するEVや自動運転技術を開発している。Faraday Futureは米国籍の企業であるが、中国大手IT企業「LeEco」が出資している。Faraday Futureは米国の名門レーシングチーム「Dragon Racing」のスポンサーとなる。資金を出すだけではなくパワートレイン制御のソフトウェアを提供する。Faraday FutureがFormula Eに参戦したことで中国系企業は3社となり、EVや自動運転技術にかける中国企業の意気込みが感じられる。

Mercedes-BenzがFormula Eに参戦

Mercedes-Benzは2018年シーズンからFormula Eに参戦することを発表した。5シーズン目にあたるこの年から2チーム増え12チームでレースが展開される。このシーズンから1台のレーシングカーで最初から最後まで走り切るだけのバッテリーを搭載する。Renault、Audi、Jaguar (下の写真)、BMWなどがすでに参戦しており、Mercedesの発表でFormula Eへの流れが鮮明になった。

EVへの流れが鮮明になる

MercedesはF1でエースドライバーLewis Hamiltonを抱え、昨シーズンは総合優勝を飾り、今年もチームが連勝する勢いである。F1で破竹の勢いのMercedesが敢てFormula Eに参戦することで、EVレースが一挙に注目を集めることとなった。自動車産業の流れがEVに向かっていることを象徴する出来事となり、NissanやPorscheがこれに続くと噂されている。

F1人気が低迷している

いまF1の人気が低迷している。F1は機能が成熟し大きな技術進化が期待できないという事情がある。そのため多くの自動車メーカーはここへの投資をためらっている。技術進化が停滞しているF1からスポンサーが離れている。かつてはクルマの新技術がF1レースで開発されたが、F1はその役割を終えようとしている。

Formula EでEV技術や自動運転技術が磨かれる

これに対しFormula Eは次世代技術開発のプラットフォームとして位置づけられ、大手自動車メーカーの参戦が相次いでいる。ここが次世代モータースポーツの場であり、高度な自動運転技術を磨く場でもある。モータースポーツファンは進化が止まったF1から、次世代レーシングFormula Eに乗り換えている。Formula Eで磨かれたEV技術や自動運転技術が次世代のクルマ産業を支えることになる。

NvidiaはAI自動運転車を公開、 Deep Learningが人間の運転テクニックを模倣する

Friday, October 14th, 2016

Nvidiaは半導体製造から自動運転車開発に軸足を移している。NvidiaはAIで構成される自動運転車の試験走行を公開した。Googleなどは自動運転技術の一部をAIで実装するが、NvidiaはこれをすべてDeep Learningで処理する。AI自動運転車は人間の運転を見るだけでドライブテクニックを学ぶ。

自律走行のデモ

Nvidiaは2016年9月、自動運転車が自律走行する模様をビデオで公開した (上の写真、右側手前の車両)。このクルマは「BB8」と命名され、テストコースや市街地で走行試験が実施された。クルマはハイウェーを自動運転で走行できる。ハイウェーは自動運転車にとって走りやすい場所である。しかし、クルマは路面にペイントされている車線が消えているところも自動走行できる。

道路というコンセプトを理解

自動運転車の多くはペイントを頼りにレーンをキープするが、BB8は道路というコンセプトを理解でき、車線が無くても人間のように運転できる。このためBB8は道路が舗装されていない砂利道でも走行できる。路肩は明確ではなく道路の両側には草が生えている。この状況でもクルマは道路の部分を認識して自律的に走行する。

ニュージャージー州で路上試験を展開

クルマは工事現場に差し掛かると、そこに設置されているロードコーンに従って走行する。ドライバーが搭乗しないでクルマが無人で走行するデモも示された。BB8はカリフォルニア州で運転技術を習得した。一方、路上試験は全てニュージャージー州で実施された。クルマは学習した運転技術を異なる州で使うことができることを示した。ちなみにNvidiaはカリフォルニア州では路上試験の認可を受けていない。

Deep Learningを使った運転技術

これに先立ちNvidiaは自動運転技術に関する論文「End to End Learning for Self-Driving Cars」を発表した。この論文でDeep Learningを使った運転技術を示した。自動運転システムは「DAVE-2」と呼ばれ、ニューラルネットワークで構成される。システムはクルマに搭載されているカメラの画像を読み込み、それを解析しステアリングを操作する。

データ入力から出力までをニューラルネットワークで処理

システムの最大の特徴はデータ入力から出力までをニューラルネットワークで処理することだ。カメラのイメージをネットワークが読み込み、それを解析しステアリング操作を出力する。システムが自律的に運転技術を学ぶので、教育プロセスがシンプルになる。カメラで捉えた走行シーンとドライバーのステアリング操作が手本となり、ネットワークがこれを学ぶ。このため、道路に車線がペイントされていなくても人間のように走行できる。また、駐車場で走行路が明示されていなくても、クルマは走ることができる (上の写真)。

ドライバーの運転データを収集して教育

このためドライバーの運転データを収集しネットワークを教育する。具体的には、カメラで撮影したイメージとそれに同期したステアリング操作を収集する。収集した運転データでニューラルネットワークを教育する。ネットワークを構成するConvolutional Neural Network (CNN) にカメラの映像を入力し、ステアリング操作を出力する。この出力を人間のドライバーが運転したときのステアリング操作と比較する。差分を補正することでCNNは人間のドライバーに近づく。

クルマが遭遇するすべての条件を再現

教育データは様々な明るさの状況のもと、また、異なる天候で収集された。データの多くがニュージャージー州で収集された。道路の種別としては二車線道路、路肩にクルマが駐車している生活道路、トンネル内、舗装していない道路が対象となった。気象状況としては、晴れの日だけでなく、雨、霧、雪の条件で走行データが集められた。また、昼間だけでなく夜間の走行データが使われた。つまり、クルマが遭遇するすべての条件が再現された。テスト車両はLincoln MKZとFord Focusが使われた。

車載スーパーコンピューター

教育したネットワークを車載スーパーコンピューター「Drive PX 2」(下の写真)にインストールすると自動運転車が完成する。Drive PX 2は自動運転車向けのAI基盤で自動車メーカーや部品メーカーに提供される。Drive PXはカメラ、Lidar、レーダー、ソナーなどのセンサーで捉えた情報を処理し、クルマ周囲の状況を理解する。これはSensor Fusionと呼ばれ、上述のConvolutional Neural Networkで処理する。ただし、Nvidiaの自動運転車はセンサーとしてカメラだけを使っている。定番技術であるLidarを使わないため、アルゴリズム側で高度な手法が求められる。

アルゴリズムの安全性を確認

システムを教育した後は、路上で試験する前にシミュレータでアルゴリズムを検証する。教育データを入力し、シミュレータでクルマが自動運転できる割合を計算する。このケースでは600秒の運転で10回運転を補正する必要があった。自動運転車がレーンの中心をそれると、仮想ドライバーが元に戻す操作をする。実際の路上試験ではHolmdelからAtlantic Highlands (ニュージャージー州) まで自動運転で走行し、その98%を自動運転モードで運行できた。

AIがルールを学習する

この手法は人間がアルゴリズムに走行のためのルールを教えるのではなく、CNNが画像からそれを読み取る。例えば、CNNはカーブしている道路のイメージを読むと、そこから運転に必要な道路の特徴を把握する (下の写真)。上段がカメラが捉えた画像で、下段がCNNが把握した道路の特徴 (Feature Maps) を示している。CNNは運転に必要な道路の境界部分を捉えていることが分かる。これは人間が教えたものではなくCNNが自律的に学習した成果だ。100時間程度の運転データでCNNを教育すると様々な環境で運転できるようになる。

ルールベースの自動運転車

これに対して、自動運転車の多くは画像を解析しルールに従って特徴を抽出する。アルゴリズムは車線ペイントなど道路の特徴や周囲のオブジェクトを把握し、進行経路を計算し、実際にクルマを操作する。これらは事前にプログラムのロジックで定義される。クルマは常に想定外の事象に遭遇するので、それらをIF-THENでプログラミングする。この条件の複雑さ (Curse of Dimensionalityと呼ばれる) が自動運転やロボット開発のネックとなっている。

自動運転技術のロードマップ

Nvidiaの自動運転技術開発は始まったばかりで、次のステップはアルゴリズムの精度を改良する。現在98%を自動運転できるが、この精度を向上させる。また、アルゴリズムの精度をどう検証するかが大きな課題となる。実際に試験運転して精度を測定するだけでなく、これを検証するシステムが必要になる。更にAI自動運転車で問題が発生するとその原因探求が難しい。AIというブラックボックスが周囲の状況を把握し運転する。このため、CNNが把握しているイメージの可視化精度を上げる必要がある。実際にCNNが認識しているイメージを人間が見ることでAIのロジックを理解する。これを手掛かりに問題を解決しアルゴリズムを改良する。

自動運転車はAIアルゴリズムの勝負

NvidiaはDeep Learning向けハードウェアや開発環境を提供する。自動運転車を重点市場としてDrive PXなどをメーカーに提供する。更に、上述のDeep Learningを駆使したソフトウェアも自動運転車開発キットとして提供する。既に80社以上がNvidia技術を使っており、自動運転車のエコシステムが拡大している。多くのメーカーがNvidiaプラットフォームを採用する中、AIアルゴリズムが自動運転市場での勝ち組を決める。