Archive for October, 2016

Google PixelはApple iPhoneを超えた!スマホがAIで構成される

Friday, October 28th, 2016

Googleは独自に開発したスマホ「Pixel」を投入した。ハードウェア機能が格段に向上しただけでなく、AIが利用者とのインターフェイスとなる。PixelはGoogleが運営するMVNO (仮想モバイルネットワーク) で利用できる。Googleモバイル事業はAndroidとハードウェアとネットワークを垂直に統合したモデルに進化した。Pixelを使ってみると先進的な機能に感銘を受け、これが近未来のスマホの姿を示していると実感した。

出典: Google

独自ブランドのスマートフォン

Googleは2016年10月、Googleブランドのスマートフォン「Pixel」 (上の写真) の販売を開始した。手に取ってみるとPixelはiPhoneと見間違うほど似ている。よく見るとPixelの表面にはホームボタンはなく、背後に円形の指紋センサー (Pixel Imprint) が搭載されている。ここに指をあててデバイスをアンロックする。PixelはGoogleがゼロから開発したスマホで、台湾HTCが製造する。AppleのようにGoogleがスマホ全体を開発して製品を販売する。

PixelはAIスマートフォン

Pixelは最新基本ソフト「Android 7.1」を搭載し、そこには会話型AI「Assistant」が組み込まれている。AssistantはApple Siriに相当する機能で、言葉で指示するとコンシェルジュのように応えてくれる。AIがスマホ機能の中心となり、Pixelはソフトウェアと人工知能の交点として位置づけられる。

ハードウェアの完成度が格段に向上

Pixelはハードウェアとしての完成度が格段に向上した。iPhoneのような形状となり、薄くて軽くて快適に使える。Nexusシリーズと比較すると数世代分を一気に成長した感がある。ディスプレはAMOLEDでカメラは12.3MPの解像度とf/2.0の口径を持つ。Pixelカメラは「Software-Defined Camera」と呼ばれ、ソフトウェアが驚くほどきれいな画像を創りだす。Pixelカメラの性能はiPhone 7を超えたと評価されている。

Assistantが会話を通して生活をサポート

PixelはAIスマホとして位置づけられ、Assistantはコンシェルジュのように会話を通して生活をサポートする。Pixelに対し「Ok Google」と語り掛けるとAssistantが立ち上がり、これに続く言葉を認識する。「When does the San Francisco Moma close」と質問すると、「Moma is open now, it closes at 5 pm」と答える。美術館は5時に閉館するのでまだ開いていることが分かる (下の写真左側)。Assistantは声を聞き分ける生体認証機能があり、筆者のPixelに対して他人が「Ok Google」と呼びかけれも反応しない。

出典: VentureClef

Assistantで撮影した写真を探す

Assistantは写真検索で威力を発揮する。「Show me my photos in the rain」と指示すれば、雨の日に撮影した写真を表示する (上の写真右側上段)。「Show me my pictures taken at Google campus」と指示すると、Googoleキャンパスで撮影した写真を表示する (上の写真右側下段)。音声で操作できるのでスマホでサクサク検索できる。Pixelで撮影した写真はオリジナルサイズで写真アルバム「Google Photos」に格納される。ストレージ容量の制限は無く何枚でも格納できる。

Assistantでレストランを予約する

Assistantは情報検索だけでなく指示されたタスクを実行する。レストランを予約する時はAssistantと対話しながら場所や時間などを決めていく。最後に確認画面が表示され、Yesと答えるとレストランアプリ「OpenTable」で予約が完了する。電話で話すように驚くほど簡単にレストランの予約ができる。また、Assistantは一日のスケジュールを管理する。「What’s next on my calendar」と質問するとAssistantは次の予定を回答する。ここでは予約したレストランの概要が示された (下の写真左側)。

出典: VentureClef

Assistantでアプリを操作する

AssistantはPixelアプリを操作できる。つまり、搭載しているアプリを音声で利用できる。Assistantに「Katy Perry on Instagram」と指示すると、インスタグラムのPerryのページを開く (上の写真右側)。また、「Open Snapchat」と指示すると、スナップチャットが起動してメッセージを読むことができる (下の写真左側)。Assistantに「Play music by Beyoncé」と指示すると、音楽アプリ「Google Music」が起動しビヨンセの音楽を再生する (下の写真右側)。Assistantの音声認識精度は高く、言葉でスマホを操作できるのはとても便利だ。

出典: VentureClef

カメラの性能が業界トップ

Pixelの最大の特長はカメラの性能が業界トップであることだ。カメラの性能は「DxOMark」のベンチマーク指標が使われる。これによるとPixelカメラは89ポイントをマークし、Apple iPhone 7の86ポイントを上回った。今までのトップはSamsung Galaxy S7 Edgeなどで88ポイントをマークしているがPixelがこれを追い越した。DxOMarkはカメラ、レンズ、スマホカメラの性能を評価するサイトでDxO Labs.が運営している。同社は光学関連のソフトウェアやデバイスを開発するフランス企業。

イメージング処理ソフトウェアの威力

Pixelカメラの性能がトップとなった理由はイメージング処理ソフトウェアのアルゴリズムにある。カメラはGoogle独自のハイダイナミックレンジイメージング機能「HDR+」を搭載する。この機能によりダイナミックレンジが広がり、明るい箇所から暗い箇所までバランスよく撮影できる。下の写真はその事例で、厳しい逆光のもとGoogle本社ビルを撮影したもの。肉眼では真っ黒に見えたガラス張りのビルが内部まで写っている。同時に、背後の青空とまぶしい雲がちゃんと写っている。HDR+の威力を感じる一枚となった。

出典: VentureClef

HDRとは

HDR (High Dynamic Range) イメージングとは、異なる露出の複数枚の写真を組み合わせて一枚の写真を生成する技術を指す。一般にHDRは被写体に対して三枚の写真を使う。Underexposure (露出アンダー)、Overexposure (露出オーバー)、及びBalanced (適正露出) の三枚の写真を撮影し、ここから最適な部分を抽出し、これをつなぎ合わせて一枚の写真を生成する。

HDR+とは

これに対してPixelのHDR+は同じ露出の写真を多数枚組み合わせて一枚の写真を生成する。Pixelはカメラアプリを開いた時から撮影を始め、シャッターが押されたポイントを撮りたいシーンと理解する。露出を上げないので暗い部分はノイズが乗ることになる。しかし、暗い部分の写真を数多く重ね合わせることで数学的にノイズを減らす。この手法により、重ね合わせがシンプルになり、ゴーストが発生しないという特徴がある。下の写真はまぶしい雲を背景に星条旗が風にたなびいているが、ゴーストは発生していなく細部まで写っている。

出典: VentureClef

Software-Defined Camera

Pixelカメラは特殊なハードウェア機構は備えていない。Googleはコモディティカメラを使いソフトウェアでイメージング技術を向上させるアプローチを取る。これは「Software-Defined Camera」と呼ばれソフトウェアがカメラの性能や特性を決定する。一眼レフカメラは高価なハードウェアで1枚だけ撮影する。これに対しGoogleは安価なカメラで大量の写真を撮影してソフトウェアで最適化する。イメージング技術はAIを含むアルゴリズムが勝敗を決める。

音声で写真撮影

Pixelカメラは音声で写真を撮影できる。これはAssistantの一部で、フロントカメラで自撮りする時は、「Ok Google, take a selfie」と語るとシャッターが下りる。腕を伸ばして難しい姿勢でシャッターを押す必要はない。メインカメラで写真撮影をするときも、「Ok Google, take a picture」と言えばシャッターが下りる。タイマーを使う代わりに音声で集合写真を撮影できる。メインカメラからフロントカメラに切り替えるときは、Pixelを縦に持ち二回ひねる。

指紋センサー

Pixelをアンロックする時には指紋認証を使う。上述の通りPixelにはホームボタンはなく、背後の指紋センサーに指をかざす。片手で操作でき、かつ、スリープ状態から直接アンロックできるのでとても便利。Pixelは指紋認証の認識率が非常に高く、殆どのケースで1~2回程度でアンロックできる。指紋で認証できないときはPINなど従来方式の認証を行う。

Googleが独自のネットワークを運営

Pixelは米国最大のキャリアVerizonが販売している。また、Google独自のネットワーク「Fi Network」を使うこともできる。Fi NetworkはMVNO (仮想モバイルネットワーク) 方式のネットワークで、背後でSprintとT-Mobile USの4G LTEが使われている。Fi Networkを利用する時は専用のSIM Cardを挿入する。PixelはGoogleオリジナルのスマホをGoogleネットワークで運用する構造となっている。

Fi Networkの特徴

Fi Networkは単に通信網を提供するだけでなく、両者のうち電波強度の強いネットワークに自動で接続する。また、LTEやWiFiなど異なるネットワーク間で最適な通信網を選択し、サービスを途切れなく利用できる。屋内では通話やテキストメッセージはWiFi経由で交信する。屋外に出るとGoogleの移動体ネットワークFi Networkに接続される。

出典: VentureClef

ネットワーク間での自動切換え

このためネットワーク間で途切れなくサービスを利用できる。自宅でWiFi経由で電話している時、屋外に出るとネットワークがLTEに切り替わる (上の写真左側)。通話は途切れることなくシームレスにハンドオーバーされる。通話だけでなくデータ通信でも自動でネットワークが切り替わる。自宅のWiFiでGoogleの音楽ストリーミングを聞きながらクルマで屋外に出るとFi Networkに切り替わる (上の写真右側)。

出典: VentureClef

クルマの中でAssistantが大活躍

クルマの中では言葉でAssistantに指示して好みの音楽を聴ける。電話やメッセージもAssistantに言葉で指示して発信する。ナビゲーションもAssistantに言葉で語り掛けて使う。少し大きめの声で語り掛ける必要はあるが、Assistantは運転中に絶大な威力を発揮する。今ではPixelはドライブに必須のインフォテイメントデバイスとなった。

シンプルで良心的な料金体系

Fi Networkの料金体系はシンプルで基本料金とデータ料金の組み合わせで構成される。基本料金は月額20ドルで、ここに通話、テキストなどが含まれる。データ通信は月額10ドル/GBで、例えば2GBで契約すると月額20ドルとなる。制限量まで使っていない場合は、翌月分の料金から差し引かれる、良心的な料金体系となっている (上の写真左側)。またデータ通信料はグラフで示され (上の写真右側) 使用量を明確に把握できる。(ロックスクリーン左上にFi Networkと表示される、下の写真左側。アイコンは小さめの円形になりホームスクリーンのデザインがすっきりした、下の写真右側。)

出典: VentureClef

Samsungとの関係は微妙

Googleのモバイル事業はAndroidを開発しこれをパートナー企業に提供することで成り立っている。SamsungなどがAndroidを利用してスマホを販売している。このためスマホ事業はSamsungなどに依存しているだけでなく、Googleの収益構造が問われてきた。事業が拡大するのはSamsungでGoogleは大きな収益を上げることが難しい状態が続いている。GoogleがPixelでスマホ事業に乗り出すことで、Appleのような垂直統合型となり、収益構造も改善すると期待される。一方、Android陣営内でGalaxy顧客がPixelに乗り換えることも予想され、Samsungなどパートナー企業との関係が難しくなる。

ソフトウェア+デバイス+ネットワーク

Googleは基本ソフト (Android) とデバイス (Pixel) だけでなく、ネットワーク (Fi Network) を含めた垂直統合システムでモバイル事業を始めた。Appleのようにスマホを販売するだけでなく、それを運用するネットワークも提供する。キャリアが提供するネットワーク単体では技術進化が停滞している。Googleはデバイスとそれをつなぐネットワークを統合することでイノベーションを起こせるとしている。AIスマホを独自のネットワークで結び、Googleはスマホ事業の近未来の姿を示している。

無人カーでのレースが開幕、人工知能がF1ドライバーを超える?

Friday, October 21st, 2016

ドライバーが搭乗しないレーシングカーによるレースが始まった。これは「Roborace」と呼ばれ、AIレーシングカーがFormula Oneのようなバトルを展開する。レーシングカーにはコックピットはなく、Deep Learningが操縦する完全自動運転車だ。アルゴリズムがLewis Hamiltonを超えるのかファンの注目を集めている。

Roboraceとは

RoboraceはEVのF1といわれる「Formula E」シリーズの一部として位置づけられる。Roboraceは10チームで構成され、各チームは二台の無人レーシングカー (上の写真) で勝負する。レーシングカーの車体は同じものが使われるが、各チームは独自にソフトウェアを開発し、レーシングカー制御と自動運転技術の戦いとなる。

EVと自動運転技術の交差点

高速で走行するレーシングカーからリアルタイムで大量のデータが収集される。これを如何に高速で処理できるかがポイントになる。これらのデータを解析し自動運転するAI技術が競われる。クルマの将来はEVと自動運転技術で、Roboraceの意義はこの構想をレースの形で世界に示すことにある。Roboraceは再生可能エネルギー技術と自動運転技術を結び付け、未来のモビリティを示している。

未来的なデザイン

Roboraceで使うレーシングカーはKinetikが開発し供給する。Kinetikとは英国のベンチャーキャピタルで、配下のRoborace社が車体の設計と製造を担う。レーシングカーのデザインはDaniel Simonが手掛けた。同氏はディズニー映画「Tron Legacy」で登場する二輪車「Light Cycle」をデザインした。RobocarはLight Cycleをほうふつさせる未来的な形状と色彩となっている。

レーシングカーの形状はシンプル

レーシングカーは無人で走行することを前提にゼロから設計された。ドライバーが搭乗しないのでコックピットはなくシンプルな形状となっている。機能面からは床面の形状でダウンフォースを得る。レーシングカー底部を高速で流れる空気を利用して車体を路面に押し付ける。このダウンフォースを利用して高速でコーナーを回ることができる。ちなみにF1ではダウンフォースを得るためにFront WingとRear Wingを車体に付けている。

多数のセンサーを搭載

レーシングカーは自動運転のための様々なセンサーを搭載している。Lidar (レーザーレーダー) を5台搭載している。前面に二台、側面に二台、後部に一台搭載し、周囲のオブジェクトを把握する。AIカメラは前面に二台とPole (車体上部に設置されたポール) に一台設置される。名前が示すように、AIと連動しインテリジェントなセンサーとなる。この他に、レーダー、超音波センサー、GPSアンテナを搭載する。

Deep Learningを使った運転技術

レーシングカーは処理装置としてNvidiaの車載スーパーコンピューター「Drive PX 2」を搭載している。Drive PX 2はセンサーからのデータを処理し周囲のオブジェクトを把握する。更に、Deep Learningの技法でクルマが運転技術を学ぶ。試合を重ねるにつれレーステクニックを習得し人間のドライバーに近づいていく。将来はF1ドライバーを凌駕するのではとの声も聞かれる。

香港グランプリでデビュー

Roboraceは2015年11月に計画が発表され、今シリーズからレースを始めるとしていた。実際には、10月に開催された香港グランプリでRoboraceの試験車両「DevBot」が公開された (上の写真)。試験車両はドライバーが搭乗できるコックピットが備え付けられているが自動で走行する。グランプリではそれをデモする予定であったが、バッテリーの問題で残念ながら中止となった。Roboraceは2016年をシーズンゼロと位置づけDevBotの開発を続け、来年度からRoboraceでレースが始まる。

Formula Eとは

Roboraceが属するFormula Eとは2014年に創設されたモータースポーツイベントで、バッテリーで駆動するレーシングカーが速さを競い合う。Formula EはFIA (国際自動車連盟) が管轄する。FIAはFormula OneやWorld Rallyなど世界のトップレースを運営している。3シーズン目となる2016年はスポーツファンの数が増え人気が急上昇している。

中国を舞台にシーズンがスタート

今シーズンのFormula Eは香港グランプリから始まり、2017年7月まで世界10都市で12レースを開催する。香港グランプリは市街地にレースコースが設定され10チーム20台が競った (下の写真)。レースは事故が続発する波乱の展開となり、昨年度のチャンピオンe.Dams (RenaultのFormula Eチーム) のSébastien Buemiが優勝した。昨年までは北京で開催され、毎年中国を舞台にシーズンがスタートする。

F1に性能では劣るが

Formula Eは外観はF1に似ているが電気モーターで駆動するレーシングカー。レース時間は50分で一人が二台のマシンを使って競技する。F1は燃料が少なくなるとピットインして給油するが、Formula Eは電気残量が少なくなるともう一台のマシンに乗り換えてレースを続ける。Formula Eの最高速度は時速220キロであるがF1は時速340キロと大きく上回る。最高速度や加速性能でF1が上回るが、Formula EはEV技術が高速に進化し、その将来性に期待が集まっている。

レースはバッテリーの勝負

EV技術の中心がバッテリー開発となる。Formula Eのバッテリー重量は200kgで、バスの電圧は1000Vに制限されている。更に、モーター出力は200 kW (270馬力) だが、レース中は170 kWに制限されている。バッテリーからの電力使用量は28kWhに制限される。レースはエネルギー管理の戦いでもあり、多くの制限のもとで最新技術が磨かれる。

ファン投票でエネルギーを得る

レースは速さを競うだけでなく、楽しく観戦できる仕組みが随所にみられる。ファンは応援しているドライバーに投票しマシンの出力を上げることができる。これは「FanBoost」と呼ばれ、投票数の多いドライバーは100キロジュール (100kW x 秒) を受ける。5秒間で20kWの追加エネルギーを得ることができ12%の出力アップとなる。これでライバルを追い抜くシーンが見られ、ファンはレースに参戦した気分になる。

中国企業がFormula Eに参戦

Formula Eの特徴は多くの中国企業がレースに参戦している点だ。「NextEV」は中国企業が運営するレーシングチームでFormula E創設以来参戦している。昨年度は9位の成績で不調に終わったが、今年は巻き返しを狙っている。3シーズン目にあたる今年は「Techeetah」というチームが参戦した。このチームは日本のFormula Eチーム「Team Aguri」を買収してレースに加わった。

Faraday Futureも参戦

今シーズンは「Faraday Future」がスポンサーとしてFormula Eに参戦した (下の写真)。Faraday FutureとはLos Angelesに拠点を置くEVメーカーでTeslaに対抗するEVや自動運転技術を開発している。Faraday Futureは米国籍の企業であるが、中国大手IT企業「LeEco」が出資している。Faraday Futureは米国の名門レーシングチーム「Dragon Racing」のスポンサーとなる。資金を出すだけではなくパワートレイン制御のソフトウェアを提供する。Faraday FutureがFormula Eに参戦したことで中国系企業は3社となり、EVや自動運転技術にかける中国企業の意気込みが感じられる。

Mercedes-BenzがFormula Eに参戦

Mercedes-Benzは2018年シーズンからFormula Eに参戦することを発表した。5シーズン目にあたるこの年から2チーム増え12チームでレースが展開される。このシーズンから1台のレーシングカーで最初から最後まで走り切るだけのバッテリーを搭載する。Renault、Audi、Jaguar (下の写真)、BMWなどがすでに参戦しており、Mercedesの発表でFormula Eへの流れが鮮明になった。

EVへの流れが鮮明になる

MercedesはF1でエースドライバーLewis Hamiltonを抱え、昨シーズンは総合優勝を飾り、今年もチームが連勝する勢いである。F1で破竹の勢いのMercedesが敢てFormula Eに参戦することで、EVレースが一挙に注目を集めることとなった。自動車産業の流れがEVに向かっていることを象徴する出来事となり、NissanやPorscheがこれに続くと噂されている。

F1人気が低迷している

いまF1の人気が低迷している。F1は機能が成熟し大きな技術進化が期待できないという事情がある。そのため多くの自動車メーカーはここへの投資をためらっている。技術進化が停滞しているF1からスポンサーが離れている。かつてはクルマの新技術がF1レースで開発されたが、F1はその役割を終えようとしている。

Formula EでEV技術や自動運転技術が磨かれる

これに対しFormula Eは次世代技術開発のプラットフォームとして位置づけられ、大手自動車メーカーの参戦が相次いでいる。ここが次世代モータースポーツの場であり、高度な自動運転技術を磨く場でもある。モータースポーツファンは進化が止まったF1から、次世代レーシングFormula Eに乗り換えている。Formula Eで磨かれたEV技術や自動運転技術が次世代のクルマ産業を支えることになる。

NvidiaはAI自動運転車を公開、 Deep Learningが人間の運転テクニックを模倣する

Friday, October 14th, 2016

Nvidiaは半導体製造から自動運転車開発に軸足を移している。NvidiaはAIで構成される自動運転車の試験走行を公開した。Googleなどは自動運転技術の一部をAIで実装するが、NvidiaはこれをすべてDeep Learningで処理する。AI自動運転車は人間の運転を見るだけでドライブテクニックを学ぶ。

自律走行のデモ

Nvidiaは2016年9月、自動運転車が自律走行する模様をビデオで公開した (上の写真、右側手前の車両)。このクルマは「BB8」と命名され、テストコースや市街地で走行試験が実施された。クルマはハイウェーを自動運転で走行できる。ハイウェーは自動運転車にとって走りやすい場所である。しかし、クルマは路面にペイントされている車線が消えているところも自動走行できる。

道路というコンセプトを理解

自動運転車の多くはペイントを頼りにレーンをキープするが、BB8は道路というコンセプトを理解でき、車線が無くても人間のように運転できる。このためBB8は道路が舗装されていない砂利道でも走行できる。路肩は明確ではなく道路の両側には草が生えている。この状況でもクルマは道路の部分を認識して自律的に走行する。

ニュージャージー州で路上試験を展開

クルマは工事現場に差し掛かると、そこに設置されているロードコーンに従って走行する。ドライバーが搭乗しないでクルマが無人で走行するデモも示された。BB8はカリフォルニア州で運転技術を習得した。一方、路上試験は全てニュージャージー州で実施された。クルマは学習した運転技術を異なる州で使うことができることを示した。ちなみにNvidiaはカリフォルニア州では路上試験の認可を受けていない。

Deep Learningを使った運転技術

これに先立ちNvidiaは自動運転技術に関する論文「End to End Learning for Self-Driving Cars」を発表した。この論文でDeep Learningを使った運転技術を示した。自動運転システムは「DAVE-2」と呼ばれ、ニューラルネットワークで構成される。システムはクルマに搭載されているカメラの画像を読み込み、それを解析しステアリングを操作する。

データ入力から出力までをニューラルネットワークで処理

システムの最大の特徴はデータ入力から出力までをニューラルネットワークで処理することだ。カメラのイメージをネットワークが読み込み、それを解析しステアリング操作を出力する。システムが自律的に運転技術を学ぶので、教育プロセスがシンプルになる。カメラで捉えた走行シーンとドライバーのステアリング操作が手本となり、ネットワークがこれを学ぶ。このため、道路に車線がペイントされていなくても人間のように走行できる。また、駐車場で走行路が明示されていなくても、クルマは走ることができる (上の写真)。

ドライバーの運転データを収集して教育

このためドライバーの運転データを収集しネットワークを教育する。具体的には、カメラで撮影したイメージとそれに同期したステアリング操作を収集する。収集した運転データでニューラルネットワークを教育する。ネットワークを構成するConvolutional Neural Network (CNN) にカメラの映像を入力し、ステアリング操作を出力する。この出力を人間のドライバーが運転したときのステアリング操作と比較する。差分を補正することでCNNは人間のドライバーに近づく。

クルマが遭遇するすべての条件を再現

教育データは様々な明るさの状況のもと、また、異なる天候で収集された。データの多くがニュージャージー州で収集された。道路の種別としては二車線道路、路肩にクルマが駐車している生活道路、トンネル内、舗装していない道路が対象となった。気象状況としては、晴れの日だけでなく、雨、霧、雪の条件で走行データが集められた。また、昼間だけでなく夜間の走行データが使われた。つまり、クルマが遭遇するすべての条件が再現された。テスト車両はLincoln MKZとFord Focusが使われた。

車載スーパーコンピューター

教育したネットワークを車載スーパーコンピューター「Drive PX 2」(下の写真)にインストールすると自動運転車が完成する。Drive PX 2は自動運転車向けのAI基盤で自動車メーカーや部品メーカーに提供される。Drive PXはカメラ、Lidar、レーダー、ソナーなどのセンサーで捉えた情報を処理し、クルマ周囲の状況を理解する。これはSensor Fusionと呼ばれ、上述のConvolutional Neural Networkで処理する。ただし、Nvidiaの自動運転車はセンサーとしてカメラだけを使っている。定番技術であるLidarを使わないため、アルゴリズム側で高度な手法が求められる。

アルゴリズムの安全性を確認

システムを教育した後は、路上で試験する前にシミュレータでアルゴリズムを検証する。教育データを入力し、シミュレータでクルマが自動運転できる割合を計算する。このケースでは600秒の運転で10回運転を補正する必要があった。自動運転車がレーンの中心をそれると、仮想ドライバーが元に戻す操作をする。実際の路上試験ではHolmdelからAtlantic Highlands (ニュージャージー州) まで自動運転で走行し、その98%を自動運転モードで運行できた。

AIがルールを学習する

この手法は人間がアルゴリズムに走行のためのルールを教えるのではなく、CNNが画像からそれを読み取る。例えば、CNNはカーブしている道路のイメージを読むと、そこから運転に必要な道路の特徴を把握する (下の写真)。上段がカメラが捉えた画像で、下段がCNNが把握した道路の特徴 (Feature Maps) を示している。CNNは運転に必要な道路の境界部分を捉えていることが分かる。これは人間が教えたものではなくCNNが自律的に学習した成果だ。100時間程度の運転データでCNNを教育すると様々な環境で運転できるようになる。

ルールベースの自動運転車

これに対して、自動運転車の多くは画像を解析しルールに従って特徴を抽出する。アルゴリズムは車線ペイントなど道路の特徴や周囲のオブジェクトを把握し、進行経路を計算し、実際にクルマを操作する。これらは事前にプログラムのロジックで定義される。クルマは常に想定外の事象に遭遇するので、それらをIF-THENでプログラミングする。この条件の複雑さ (Curse of Dimensionalityと呼ばれる) が自動運転やロボット開発のネックとなっている。

自動運転技術のロードマップ

Nvidiaの自動運転技術開発は始まったばかりで、次のステップはアルゴリズムの精度を改良する。現在98%を自動運転できるが、この精度を向上させる。また、アルゴリズムの精度をどう検証するかが大きな課題となる。実際に試験運転して精度を測定するだけでなく、これを検証するシステムが必要になる。更にAI自動運転車で問題が発生するとその原因探求が難しい。AIというブラックボックスが周囲の状況を把握し運転する。このため、CNNが把握しているイメージの可視化精度を上げる必要がある。実際にCNNが認識しているイメージを人間が見ることでAIのロジックを理解する。これを手掛かりに問題を解決しアルゴリズムを改良する。

自動運転車はAIアルゴリズムの勝負

NvidiaはDeep Learning向けハードウェアや開発環境を提供する。自動運転車を重点市場としてDrive PXなどをメーカーに提供する。更に、上述のDeep Learningを駆使したソフトウェアも自動運転車開発キットとして提供する。既に80社以上がNvidia技術を使っており、自動運転車のエコシステムが拡大している。多くのメーカーがNvidiaプラットフォームを採用する中、AIアルゴリズムが自動運転市場での勝ち組を決める。