Archive for the ‘自動車’ Category

無人タクシーに乗るためのマニュアル、Waymoは乗客を乗せて自動運転車の実証実験を開始 (1/2)

Wednesday, November 22nd, 2017

Waymoは開発している自動運転車を無人タクシーとして運行することを発表した。ドライバーが搭乗しない完全自動運転車が市街地を走行する。無人タクシーを利用できる時代が到来した。無人タクシーが移動手段となるが、どう利用すればいいのか分からない。少し気が早いが、自分の街にWaymoがやってきた時に備え、無人タクシー利用手順をマニュアルとして纏める。また、Waymo無人タクシーに乗って大丈夫なのか安全性を評価する。

出典: Waymo

無人タクシーの運行が始まる

Waymoは2017年11月、自動運転車に乗客を乗せ公道で運行すると発表した。運転席にドライバーが乗らない無人タクシーが市街地を運行する。この実証試験は「Early Ride Program」と呼ばれ、Phoenix (アリゾナ州) とそれに隣接する地域で展開される。このプログラムは2017年4月に開始されたが、今月からセーフティドライバーが搭乗しない無人タクシーとして運行される。

Waymo無人タクシー利用法】

スマホアプリで無人タクシーに乗る

車両は「Chrysler Pacific Hybrid」 ミニバンを改造したものが使われる (上の写真)。利用者はスマホアプリを使って無人タクシーを利用する。Uberを使うときと同じ要領で、現在地と目的地を入力して配車をリクエストする。

クルマに搭乗する

クルマが到着すると利用者は後部座席に座ることとなる。セイフティドライバーやエンジニアは搭乗しないため、運転席と助手席は空席となる。ただし当面の間、セイフティドライバーは最後部座席に搭乗し、運行を監視するとしている。

車内に設置されている機器

車内にはクルマを利用するための機器が設置されている。座席の前にはディスプレイ (In-Car Display) が備え付けられている (下の写真)。ディスプレイにはクルマの走行状態が表示される。

天井部分には操作ボタンが設置されている (下の写真、最上部)。ボタンは四つあり、右から「Start Ride (発進)」ボタン、「Pull Over (非常停止)」ボタン、「Lock/Unlock (ドアの施錠・開錠) 」ボタン、「Help (オペレータとの通話)」ボタンとなる。シートベルトを締め、ドアをロックして、Start Rideボタンを押すとクルマが発進する。

出典: Waymo

ディスプレイに運行状態を表示

走行中は座席前のディスプレイに運行状態が表示される。画面にマップが表示され、現在地がアイコンで示され、走行ルートが実線で表示される。周囲のオブジェクト (他の車両や自転車など) も表示される。クルマは何を見て、どのような判断を下したかが分かり、安心して運転を任せることができる。この他に、到着予定時間と経過時間なども表示される。

クルマの運行状態を監視室でモニター

Waymoはドライバー無しで走行するが、クルマの運行状態は監視室 (Waymo Operations Center) で遠隔モニターされている。非常事態が発生すると、乗客は「Pull Over」ボタンを押してクルマを停める。「Help」ボタンを押すとWaymo監視室に繋がり、専任スタッフと通話できる。またスマホアプリからも通話できる。クルマの運行状態は監視室で人間がモニターしており、安心感が格段に向上する。

料金はアプリに課金される

クルマは全行程を自動で走行し、目的地に着いたらそこで停止し、乗客は降車する。料金は利用者のアプリに課金される。ただし、Early Ride Programでは料金は無料となっている。利用者はコメントなどをアプリに投稿できる。この手順もUberと同じで戸惑うことはない。

Waymo無人タクシーはどこを走れるか】

Phoenixで運行する

当初Waymo無人タクシーは運行できる範囲が限られている。現在はPhoenixを中心に運行している。ここは砂漠地帯に作られた街で、天気は良く、雨や雪はほとんど降らない。比較的新しい街で、道路は整備され、自転車や歩行者は少ない。自動運転車にとって走りやすい環境である。

アリゾナ州はハイテク企業を誘致

アリゾナ州知事のDoug Duceyは州知事令 (Executive Order) に署名し、自動運転車の運行を認可した。アリゾナ州は規制を緩和して、ハイテク企業の誘致を進めている。アリゾナ州は地理的な条件だでなく、法令面でも自動運転車にとって走りやすい場所である。(カリフォルニア州は2018年から自動運転車の走行を認める予定。)

Waymoが走れる地域

Waymoはクルマが走れる地域を「Operational Design Domain (ODD)」と定義する。クルマは、地形、道路の種別、気候、昼間・夜間、法令などの条件により、走れる場所が決まる。これら条件を満たす場所がODDとなる。(ODDは携帯電話の圏内に相当する。) 下の写真はそのイメージで、青色で示された部分がODDで、Waymoはこの地域だけを走ることができる。シェイドの部分は整備中の地域で、準備が整い次第走れるようになる。

出典: Waymo

走行できる気象条件

WaymoはODD域内を運行していても、走行できない事象が発生すると、安全に停止するよう設計されている。この状態をMinimum Risk Conditionと呼ぶ。

走行できない事象とは、吹雪や激しい雨などである。例えば、激しい夕立に出会うと、クルマは安全な場所で停止する。この事象が終わると (夕立が止むと) 、クルマは再び運行を始める。

夕立で止まるクルマは商品とは言えず、Waymoは雨や雪が降っても走行できるよう、アルゴリズムの教育を続けている。雨の中の走行試験はワシントン州で、雪の中の走行試験はミシガン州で進めている (下の写真)。

出典: Waymo

道路交通法に準拠

Waymoは道路交通法に従って運行する。道路法規が変わると、それにあわせてソフトウェアを更新する。米国では州により道路交通法が異なるため、Waymoは運行する州の法令に従う。例えば、自転車レーンのある交差点で右折するルールは、カリフォルニア州とテキサス州で異なる。Waymoはこれらの違いをアルゴリズムに盛り込んでいる。更に、Waymoは法令だけでなく、その地域独特の慣習や運転スタイルも取り入れている。

【もし事故を起こしたら】

車両の信頼性

Waymoはドライバーなしで走行するため、車両の信頼性を強化している。クルマの主要システムは二重化され、故障しても、もう一方のシステムで走行を続ける。コンピュータ、ブレーキ、ステアリング、バッテリーなどが二重化されている。

ソフトウェアはドライバーに代わりシステムを常時監視する。ソフトウェアが問題を検出すると、クルマを一旦停車したり、運用を中止する措置を取る。

走行中にデータを収集

クルマは走行中に運行に関するデータを収集する。運行中に遭遇した様々な状況を記録し、それらを解析する。これにより定常的にアルゴリズムを改良し、ソフトウェアが更新される。事故などの問題が発生した際は、記録したデータが原因究明に役立つ。

個人のプライバシーが侵害される事態が起こるとは考えにくいが、搭乗者はクルマの運行が記録されていることを認識しておく必要がある。

事故に遭遇すると

クルマが事故に遭遇すると、ソフトウェアが衝突を検知し、安全に停止する設計となっている。更に、クルマは監視室に問題を連絡する手順となる。

連絡を受けた専任スタッフは、警察や消防と連絡を取り、事故対応 (Post-Crash Procedures) に当たる。更に、その地域のWaymoスタッフが現場に急行する。搭乗者はWaymo車内に設置してあるHelpボタンを押し、専任スタッフと通話することができる。

事故原因の解析

Waymoは収集したデータを解析し、事故の原因を究明する。カメラで撮影されたビデオや、センサーが収集したデータが使われ、事故を引き起こした原因を究明する。Waymoに問題があるときはソフトウェアがアップデートされる。車両ハードウェアは修理され、試験走行を実施し、安全を確認してから運行に戻される。

事故を防ぐためのアルゴリズム

Waymoは事故を防ぐため、また、事故になっても被害を最小にするためのアルゴリズムを搭載している。米国運輸省 (NHTSA) は、国内で発生した交通事故を分析し、事故原因やその頻度を一般に公開している。事故の殆どが、追突事故、交差点内での事故、道路から逸脱した事故、車線変更での事故で発生している。Waymoはこれら四つのシナリオを対象に、事故を防ぐアルゴリズムを開発した。

アルゴリズムの公開と検証

自動運転車ではTrolley Problem (トロッコ問題) が常に話題になるが、Waymoは被害を最小限にするアルゴリズムの詳細は公表していない。(Trolley Problemとは、事故の被害を最小限にするために、特定の人物を犠牲にすることは道義的か、という思考実験。) Waymoを含め自動運転車ベンダーは、事故回避アルゴリズムを公開し、公の機関で検証することが求められる。

Waymo無人タクシーの運転技能】

自動運転車に必要な運転技能

人間が自動車学校で、運転に必要な技能を学ぶように、Waymoも必要な運転技能を学ぶ必要がある。NHTSAは自動運転車に必要な運転機能を「Behavioral Competencies」として28の項目を定義している。自動運転車として運行するためには、これらの機能を搭載していることが求められる。更に、Waymoは独自に必要な機能を定義し、それらを実装している。Waymoは両者を合わせたドライブテクニックを搭載した車両となっている。

NHTSAが定めている自動運転機能

NHTSAが定義する機能は、自動運転の基本操作である。制限速度標識を認識し、これに従う機能を持つことが求められる。フリーウェーで高速で走行車線に行流できることや、緊急車両を検知し、適切な措置を取ることも規定している。

緊急車両の認識とアクション

Waymoは車両の点滅するライトやサイレンを認識し、その意味 (消防車であること) を理解する (下の写真)。これに従いWaymoは、道を譲ったり、路肩に停止する機能を持っている。更にWaymoは、路上の警察官や消防士を認識し、手信号による指示に従うことができる。(一般人が手信号で指示しても、Waymoはこれに従うことはない。)

出典: Waymo

スピード違反で警察に捕まったら

自動運転車が道路交通法違反などで、警察官に停止を命じられる事態への対応も必要になる。Waymoは運行する地域の警察との連携を密にし、無人タクシーへの応対方法などを警察官に教育している。Waymoはドライバー無しで走行できることや、非常事態における連絡方法について説明した。無人タクシーが営業運転を始めると、その地域の警察や消防などとの連携が、極めて重要となる。

Waymoが独自に定めた自動運転機能

Waymoは独自に自動運転に必要な機能を定め、これを実装している。Waymoはスクールバスを認識し、その地域の法令に従い、停止などの措置を取る。Waymoは路上の自転車や動物を検知し、必要な措置を取る。自転車であれば、通常より広めに間隔をとり、また、動物を認識すると、それを避ける動作をする。クルマが運転テクニックをどこまでマスターしているかで、自動運転車の安全性が決まる。これが自動運転車の差別化の要因となる。

(2/2へ続く)

AIのブラックボックスを開き自動運転のメカニズムを解明、信頼できる完全自動運転車の研究が進む

Friday, September 22nd, 2017

我々はAIを信用していいのかという大きな命題に直面している。AI Carは車載カメラの画像から特徴量を高精度で検出し、人間のドライバーよりはるかに安全に走行する。しかし、AIの中身はブラックボックスで、運転テクニックは開発者ではなくAI Carだけが知っている。我々はなぜAI Carが安全に走行できるのかが分からない。この問題を解決するため、AIのブラックボックスを開きそのロジックを解明する研究が進んでいる。

出典: Nvidia

NvidiaのAI Car

AI Carとは入力 (カメラ画像の読み込み) から出力 (ステアリング操作) まですべてAIで実行する完全自動運転車を指す。NvidiaがAI Carの開発に力を注いでおり、そのプロトタイプ「BB8」 (上の写真) を開発し市街地で走行試験を実施した。クルマはハイウェーや一般道路を完全自動で運転する。クルマは道路というコンセプトを理解でき、車線が無くても人間のように運転できる。

AIが人間の運転を見て学ぶ

BB8は人間の運転を見てドライブテクニックを学ぶ。BB8はニューラルネットワーク「PilotNet」を搭載し、車載カメラの画像とそれに対応する運転手のハンドル操作を読み込み、ネットワークが運転技術を学習する。学習したPilotNetはカメラの画像を見るだけでステアリング操作ができるようになる。エンジニアが自動運転のためのルールをプログラムする必要はなく、PilotNetが人間のように運転テクニックを短時間で学ぶ。

AIが学習した内容を出力する研究

しかし、問題はPilotNetが学習したドライブテクニックを人間が理解できないことだ。なぜBB8は車線が描かれていない道路を安全に走れるのかそのロジックが分からない。このためNvidiaはPilotNetが学習した内容を出力するシステムの研究を始めた。AIが学習したことを可視化する研究である。具体的には、PilotNetはどこに着目して運転しているのかを出力する技術を開発した。この研究成果は「Explaining How a Deep Neural Network Trained with End-to-End Learning Steers a Car」として公開された。

BB8が着目している部分

研究ではBB8が運転する際に着目している部分を実際のカメラ画像にオーバーレイして表示した (下の写真、緑色で表示されている部分)。これを見るとPilotNetは他のクルマの下半分に着目していることが分かる (下の写真、上段)。更に、路面に描かれている実線(路肩)や破線(車線)にも着目している。一方、横方向に引かれている線(横断歩道)には注意を払っていない。

出典: Urs Muller et al.

AIが人間のように学習する

車線が描かれていない道路ではPilotNetは駐車しているクルマの側面に着目している (上の写真、中段)。AIはこれを道路の端と理解していることが伺える。砂利道の場合ではPilotNetは道路と草地の境界部分に着目している (上の写真、下段)。人間と同じ考え方で道路の部分を把握していることが読み取れる。これらはエンジニアが運転ルールとしてコーディングしたのではなく、PilotNetが運転の練習を通じで独自で学んだものである。

アルゴリズムを人間が視覚的に理解

PilotNetが着目している部分を見ることでブラックボックスであったアルゴリズムを人間が視覚的に理解できるようになった。PilotNetは何を規準に運転しているかが分かり、システム開発が大きく進むことになる。また、問題が発生すればその原因を表示できトラブルシューティングの効率も上がる。

研究は緒に就いたばかり

しかし、研究はこれで完成というわけではない。この研究はPilotNetの各レイヤの情報を出力したもので、ネットワークが判断基準を説明したわけではない。人間のドライバーであれば、例えば急ハンドルをきるとその理由を言葉で説明するが、PilotNetはまだその段階までには到達していない。更に、これから自動運転車の運転倫理など様々な規約が制定されることになる。AI Carは定められた運行規約にどういう方式で準拠するのかも問われる。AI Carのブラックボックスを解明する研究は緒に就いたばかりである。

TeslaはModel 3を完全自動運転車として発売、AIはカメラだけでオブジェクトを判定

Friday, July 28th, 2017

Teslaは普及モデル「Model 3」の出荷を開始した。既に50万台を受注しておりTeslaは需要に応えるため生産ラインの拡充を急いでいる。Model 3の登場でEVが一気に普及することとなる。同時にModel 3の登場で自動運転車開発が加速する。出荷されるModel 3は自動運転に必要なハードウェア機器を搭載しており、ソフトウェアの更新で自動運転車となる。

出典: Tesla

Tesla Model 3の出荷を開始

Teslaは2017年7月Model 3 (上の写真) の出荷を開始した。Model 3はTeslaブランドの普及車として位置づけられる。価格は35,000ドルに設定され、富裕層だけでなく一般市民の手に届くレンジに降りてきた。Model 3は強化された運転支援機能「Enhanced Autopilot」を搭載している。更に、Model 3は自動運転に必要なハードウェア機器を搭載しており、ソフトウェアを更新するだけで完全自動運転車 (Level 5) になる。ただし、Teslaはこの機能を提供する時期については明らかにしていない。

Full Self-Driving Capability

Teslaが提供する完全自動運転機能は「Full Self-Driving Capability」と呼ばれる。最新モデルのModel SやModel 3には必要な機器が搭載されている。センサーとしてはカメラをクルマの周囲に8台搭載している。また、レーダーはフロントに1台、超音波センサーは12台搭載している。このようにTeslaはLidar (レーザーセンサー) は使わないでカメラがクルマの眼となる。センサーのデータは車載スパコン「Nvidia Drive PX2」 で処理される。

自動運転車とのインターフェイス

Teslaは自動運転できる場所は全米のほぼすべての地域と説明している。搭乗して目的地を告げるとクルマは最適なルートを算定しその場所まで自動で走行する (下の写真)。目的地を告げないで乗ると、クルマは搭乗者のカレンダーを参照し行き先を把握する。目的地に到着し降車するとクルマは駐車モードとなり自動で空きスペースを探し駐車する。乗車する時はスマホアプリでクルマを呼ぶと自動走行でその場所まで迎えに来る。

出典: Tesla

自動運転車時代のカーシェアリング

Teslaは自動運転車を繋ぐネットワーク「Tesla Network」を開発している。クルマが完全自動運転車となるとこのネットワークを介して車両を共有することができる。オーナーがクルマを使わない時はアプリでその旨を選択すると、クルマを他の利用者に貸し出すことができる。例えば、オーナーが休暇を取っている間、また、会社で働いている時間帯に、この機能を使うとクルマが他の利用者に貸し出されレンタル収入を得ることができる。クルマは自動運転で利用者のもとに走行するため貸し出しの手間はかからない。Tesla Networkは自動運転車時代のカーシェアリングのありかたを示している。

自動運転車にアップグレード

自動運転機能はEnhanced Autopilotの上に構築される。まずModel 3ベースモデルにEnhanced Autopilot機能を追加する必要があり価格は5,000ドルとなる。更に、ここから自動運転車にアップグレードする手順となり価格は3,000ドルとなる。つまり、8,000ドルの追加料金で自動運転機能を手に入れることができる。Teslaはこの機能の提供時期については明示していないが、現在、完全自動運転機能の試験を重ねていると述べている。また、政府からの認可が必要で自動運転車を運用できる地域はそれにより決まるとしている。

独自のAI技法「Tesla Vision」

Teslaは独自のAI技術を開発している。これは「Tesla Vision」と呼ばれDeep Neural Networkで構築される。Tesla Visionはクルマに搭載されたカメラの映像を入力し、これを解析することでクルマ周囲のオブジェクトを把握する。従来のComputer Visionから高度に進化した技術でTesla Visionはオブジェクトを漏れなく確実に特定する。安全性が求められるクルマでAIが視覚となり自動運転技術を支える。

自動運転車のデモ

Tesla Visionを搭載した車両で自動運転のデモ走行が実施された (下の写真)。クルマはTesla本社をスタートしダウンタウンを通過し本社に戻ってくるルートで実施された。この間クルマが全工程を自動で走行した。Tesla Visionはカメラ画像を解析し、クルマ周囲のオブジェクト、経路上のオブジェクト、車線、信号機、道路標識などを識別する (下の写真、右側のウインドウ)。

出典: Tesla

センサーの本命はLidar

多種類のセンサーの中で一番幅広く採用されているのがLidarである。Lidarはレーザー光でクルマ周囲のオブジェクト(歩行者や車両など)を把握する。様々な条件で安定して計測できることからLidarがセンサーの本命となっている。一方、Lidarは形状が大きく価格が高く解像度が十分でない点が問題としてあげられる。屋根の上に搭載すると緊急自動車の赤色灯をほうふつさせデザイン面で問題がある。Lidarを半導体チップに実装し小型化した製品が登場しているが解像度が十分でなく自動運転車では使われていない。

Waymoは手堅い手法を取る

Waymoはこの問題を解決するために独自の技術でLidarを開発している。Lidarを小型化し価格を従来モデルの1/10にし、更に、解像度を上げた。これに加え、Waymoは高機能カメラ (Vision Systemと呼ばれる) も開発しておりLidarと併用する。この方式はSensor Fusionと呼ばれ自動運転での標準技法になっている。不完全なセンサーであるがこれを複数個組み合わせて使いシステム全体でクリアな視覚を得る。Sensor Fusionが一番手堅い手法でWaymo以外に多くの企業が採用している。

Teslaのアプローチは革新的

これに対してTeslaはLidarを使わないでカメラだけで自動運転技術を達成する革新的な手法と言える。カメラなどコモディティ機器を使いDeep Learningの技量で安全な自動運転技術を達成する。ハードウェアではなくソフトウェアに軸足を置くシステムでイメージ認識技術Tesla Visionの開発が製品の成否を握る。

TeslaはAI開発体制を強化

このためTeslaはAI開発体制を強化している。2017年6月、TeslaはDeep Learning研究の第一人者Andrej Karpathyを採用しAI・Autopilot部門のトップとした。また、Teslaは市販車が走行中に撮影するビデオ画像を収集することを始めた。Autopilot稼働中にカメラが撮影したビデオ画像がTeslaクラウドに送信される。Teslaは収集した画像を使い自動運転技術を検証する。Waymoは専用車両でビデオ画像を収集するが、Teslaは販売したクルマがテスト車両となり大規模にデータを収集することができる。AIの教育や試験で活用されここがTeslaの最大の強みとなる。

出典: Tesla

Model 3のクールな機能

Tesla Model 3は自動運転以外にもクールな機能が話題になっている。Model 3はカーキーは無く、スマホがBluetoothでドアと交信し鍵をアンロックする。スマホで搭乗できる仕組みとなる。ただし、緊急事態に備え専用カード (NFC Key Card) も提供される。コックピットには15インチディスプレイだけが備えてありここで全ての操作をする (上の写真)。必要最小限の機器を備えたデザインでクルマはどんどんシンプルになる。クルマはコンピュータに近づいている。

自動運転車時代が到来

カメラだけで自動運転車を開発することが世界共通の目標になっているがTeslaがゴールに一番近い位置にいる。まだ達成できたわけではないが、市販車両から収集したデータでAI開発を加速させている。Lidarを使わないため価格は大幅に安くなりModel 3では43,000ドルで自動運転車を購入できる。EVの本格的な普及とともに自動運転車が一気に広がりそうな勢いを感じる。

Google自動運転技術が格段に進化、高機能Lidarを開発し自動車部品メーカーを脅かす

Tuesday, March 7th, 2017

Alphabetの自動運転車開発会社Waymoは独自でLidar (レーザーセンサー) 技術の開発を進め、機能が大幅に向上したと発表した。また、WaymoはUberの子会社OttoがLidar技術を盗用したとして提訴した。自動運転車開発競争の中心はLidarで、Waymoの特許を参考に最新技術をレビューする。

出典: Waymo

Automobili-Dカンファレンス

Waymo最高経営責任者John Krafcikは2017年1月、デトロイトで開催されたNAIAS Automobili-D カンファレンスで最新の自動運転技術を発表した。この模様はビデオで公開された。WaymoはChrysler Pacifica Hybridベースの自動運転車 (上の写真) を開発しているが、KrafcikはLidarなどのセンサーを中心に最新技術を説明した。

クライスラーと共同開発

WaymoとFiat Chrysler Automobilesは2016年5月、自動運転車を共同開発することで合意し、100台の自動運転ミニバン「Waymo Self-Driving Pacifica」を製造している。ミニバンはWaymoが開発したハードウェア (Hardware Suit) を搭載し、最高レベルの自動運転車として位置づけられる。

Lidarを自社開発する

初期のGoogle自動運転車は他社製センサーやプロセッサを利用していた。LidarはVelodyne社製のハイエンドモデル「HDL-64E」を採用した (下の写真、屋根の上の円筒状装置)。しかし、この製品は機能的な制約があり、価格は75,000ドルと高価で車両価格を上回った。このため、WymoはLidarを含むセンサー群を自社で開発することとした。

GoogleのAIとWaymoのセンサーを統合

センサーは自動運転車の頭脳であるAIと密接に統合された。センサーを構成する各コンポーネントがAIにより制御され、単一のモジュールのように機能する。Googleがスマートフォン「Pixel」でAndroid OSだけでなくデバイスも自社開発しているように、Waymoもソフトウェアだけでなくハードウェアも開発する方針とした。Googleが得意とするAIとWaymoの高精度センサーが結びつき自動運転技術が一気に進化した。

出典: VentureClef

センサーの種類と搭載位置

WaymoのセンサーはLidar、Vision System、Radarから構成される (下の写真)。ミニバンの屋根には小型ドームが搭載され、ここにLidar、Vision System、Radarが格納される。クルマの四隅にはRadarが設置される。別のタイプのLidarは前後と前方左右四か所に搭載される。

出典: Waymo

Lidarがクルマの眼となる

センサー群の中で中心となるのがLidarだ。Lidarはレーザースキャナーでクルマ周囲のオブジェクトを3Dで把握する。つまり、Lidarは歩行者と人の写真を区別できる。更に、Lidarは静止しているオブジェクトを把握し、距離を精密に測定する。クルマは複雑な市街地を走行し、様々なオブジェクトを検知する必要がある。WaymoのLidarはブラインドスポットが無く、クルマ周囲の歩行者全員を検知できる。また、解像度が高く、歩行者がどちらを向いているかも判定できる。これにより歩行者の行動予測精度が大幅に向上した。

出典: Waymo

Short Range Lidar

Waymoは三種類のLidarを搭載している。一つは「Short Range Lidar」でクルマの前後左右四か所に設置され、周囲のオブジェクトを認識する (上の写真、後部バンパーと右側前方の円筒状の装置)。クルマのすぐ近くにいる小さな子供などを把握する。解像度は高く、自転車に乗っている人のハンドシグナルを読み取ることができる。

Long Range Lidar

もう一つは「Long Range Lidar」 (上の写真、屋根の上のドームの内部に搭載) で遠方にあるオブジェクトにズームインすることができる。フットボール二面先のヘルメットを識別できる精度となる。これ以上の説明はないがWaymoが申請した特許 (下の写真、資料の一部) を読むとLong Range Lidarはユニークな構造となっている。

特許資料によるLong Range Lidarの構造

Long Range Lidarは通常のLidarと可変式のLidarの二つのモジュールから構成される。通常のLidarは固定式で設定された範囲をスキャンする。可変式のLidarはFOV (視野、レーザービームがスキャンする角度) を変えることができる。ズームレンズで特定部分をクローズアップするように、可変式Lidarは発光するレーザービームを狭い範囲に絞り込み、遠方の小さなオブジェクトも判定できるようにする。ただ、この特許が実際の製品にどのように実装されているかは、Waymoの説明を待つ必要がある。

出典: Waymo

Vision Systemはカメラの集合体

Waymoは独自のVision Systemを開発した (一つ前の写真、屋根の上のドームに搭載される)。Vision Systemとはダイナミックレンジの広いカメラの集合体で、8つのVision Moduleから構成され、クルマの周囲360度をカバーする。信号機や道路標識を読むために使われる。Vision Moduleは複数の高精度センサーから成り、ロードコーンのような小さなオブジェクトを遠方から検知できる。

暗いところから明るいところまで見える

Vision Systemはダイナミックレンジが広く、暗いところから明るいところまでイメージを認識できる。暗がりの駐車場から直射日光を受けるまぶしい場面まで幅広く使える。通常のカメラは人間と同じように光の状態により見えにくい状態が発生する。Vision Systemはこの問題を解決するために開発され、太陽光が直接カメラに入る状態でもオブジェクトを把握できる。

Radarを大幅に改良

Waymoは20年にわたり技術進化がないRadarを大幅に改良した。通常のRadarは前方の狭い範囲をカバーするが、WaymoのRadarはクルマの周囲360度を連続してカバーする (一つ前の写真、前方側面と屋根後部のウイング状のデバイス)。雨や霧や雪の時に、Radarは他のセンサーを補完する。また、通常のRadarは車両の動きを把握するために使われるが、WaymoのRadarは車両以外に歩行者や自転車も検知する。移動速度が遅いオブジェクトについても高精度で検知できる。

走行距離とVirtual Miles

Waymoの自動運転車は累積で250万マイル走行した。市街地を中心に走行試験を重ねており、今年5月には300万マイルに達する。路上試験に加えWaymoはシミュレータで走行試験を重ね、2016年だけで10億マイルを走行した。シミュレータでは様々な走行状態を再現できる。ここでクルマにとって難しい状態や稀にしか発生しない事態をシミュレータで生成する。シミュレータでの走行がソフトウェアの改良に寄与している。

安全性が格段に向上

自動運転車の性能はどれだけの距離をドライバーの関与なしに自動走行できたかで決まる。試験走行中にドライバーが自動モードを解除することをDisengageと呼ぶ。Disengageの回数が少ないほど安全性が高いという関係になり、1000マイル走行して何回Disengageが発生したかという指標で評価される。2015年は0.80回で2016年は0.20回と大幅に改善しており、安全性が順調に改善されているのが分かる。ただ、2016年の数字は5000マイルごとに問題が発生しているとも解釈でき、製品として出荷するには更なる改良が求められる。

Lidarの価格が劇的に下がる

WaymoはLidarのコストを大幅に下げることに成功したと発表した。前述Velodyne社製のLidarより90%安い価格で提供する。Velodyne製Lidarの価格が75,000ドルであるが、Waymo製Lidarの価格は7,500ドルと大幅に安くなる。これにより自動運転車開発でセンサーの選択肢が大きく変わる。Lidar価格が高いためカメラを代用している企業も少なくない。Lidarの価格破壊で自動運転技術方式が大きく変わる可能性もある。

WaymoがUberを提訴

Waymoは2017年2月、Ottoとその親会社であるUberに対して訴訟を起こした。Waymoは同社が開発したLidar技術をOttoが不正に入手したとしている。Uberは昨年、誕生して間もないOttoを6億8千万ドルで買収し、創設者であるAnthony Levandowskiを自動運転開発部門責任者に任命した。UberがOttoを買収した理由はLidar技術にあるといわれていた。LevandowskiはGoogle自動運転車開発のコアメンバーであった。Uberはこれに対しWaymoの訴訟は開発を遅らせるための手段であると述べ、全面的に対決する姿勢を見せている。自動運転車でカギを握る技術はLidarであり、訴訟の進展が市場形勢に大きな影響を及ぼす。

音声操作できない製品はもう売れない!家電、ロボット、クルマが相次いでAmazon AIボイスクラウドを採用

Friday, January 20th, 2017

AmazonのAIスピーカーEchoが爆発的に売れている。その理由はAIの適用で会話機能が格段に進化したためだ。自然な会話でEchoを快適に使うことができる。Amazonはこの会話機能をAIボイスクラウドとして一般に公開した。メーカーは相次いでAIボイスクラウドの採用を決めた。Amazonはサーバクラウドの次はAIボイスクラウドで市場を席捲しようとしている。

出典: Amazon

Amazon Echoとは

Amazonは2014年にAIスピーカー「Echo」を発売し、累計で510万台が出荷され、大ヒット商品となった。今では「Echo Tap」(携帯版Echo) と「Echo Dot」(小型版Echo、上の写真) が製品ラインに加わった。製品の背後ではAIボイス機能「Alexa」が稼働し会話を司る。デバイスに話しかけて音楽を再生しニュースを聞く。また、スマートホームのハブとして機能し、家電を言葉で操作できる。

コンセプトは宇宙大作戦

Amazon Alexaの開発は2012年に始まり、クラウド機能をすべて音声で操作するシステムを目指した。このアイディアはテレビ番組「Star Trek」(宇宙大作戦) にあり、宇宙船内の複雑な機器を言葉で操作できるシーンからヒントを得た。Alexaはデバイスに触ることなく言葉だけで情報にアクセスし、家電を操作できる構造となっている。言葉は人間の本質的なコミュニケーション手段で、Amazon開発チームはこれをAlexaに応用した。

Amazon Alexaはプラットフォーム

Amazon AlexaはEchoだけでなく一般に公開され、多くの企業にボイスサービスを提供している (下の写真)。つまり、Alexaはプラットフォームとして位置づけられ、ここにエコシステムが形成されている。パートナー企業はこの機能を使い音声で操作するボイスアプリを開発する (下の写真、Alexa Skills Kitの分部)。また、家電や自動車メーカーはそれぞれの製品にボイス機能を組み込むことができる (下の写真、Alexa Voice Serviceの分部)。更に、スマートホーム企業は音声で操作できる機器を開発する (下の写真、Amazon Smart Homeの分部)。

出典: Amazon

ボイスアプリの数が急増

ボイスアプリはAmazonだけでなくパートナー企業により開発されている。ボイスアプリはAmazon Echoで稼働し、出荷当初は10本程度であったが、今では5000本を超えた。人気のボイスアプリは「Amazing Word Master Game」で、Echoとゲームで対戦する。これはしりとりをするゲームで、単語の長さが得点となる。Echoを相手にゲームをする形式で、英語の勉強にもなる。一人で時間を持て余している時にEchoが遊び相手になってくれる。

Alexaでレンタカーを予約

ビジネスと連携したボイスアプリが増えてきた。旅行サイト「Expedia」はAlexaを使って言葉で予約できるサービスを開始した。航空機を予約している人は言葉でフライト内容を確認できる。「Alexa, ask Expedia to get my trip details」と指示すると、Echoは予約状況を読み上げる。「Alexa, ask Expedia to book a car」と指示すればレンタカーを予約できる。ただし、フライトとホテルの予約にはまだ対応していない。

LenovoはAmazon Echo対抗製品を発表

LenovoはAIスピーカー「Smart Assistant」 (下の写真) を発表した。Echoとよく似た形状で、ボイス機能としてAmazon Voice Serviceを使っている。形状だけでなく機能的にもEchoと類似の製品仕立てになっている。Smart AssistantがEchoと異なる点はプレミアムスピーカー「Harman Kardon」を搭載している点。価格は179.99ドルで2017年5月から出荷が始まる。この事例が示すように、Amazonは競合デバイスの開発を歓迎しており、事業の目的はAIボイスクラウドの拡大にある。

出典: Lenovo

Fordはクルマに会話機能を組み込む

Fordは自動車メーカーとして初めてAlexa Voice Serviceの採用を決めた。利用者は家庭のAmazon Echoからクルマを操作できる。「Alexa, ask MyFord Mobile to start my car」と指示するとエンジンがかかる。運転中はナビゲーションパネルから音声でAlexaを利用できる (下の写真)。目的地の検索やガレージドアの開閉などを言葉で指示できる。これはFord「SYNC 3」技術を使ったもので、ドライバーのスマホアプリからクルマにアクセスする構成となる。前者の機能は2017年1月から、後者の機能は夏から利用できる。クルマが自動運転車に向かう中、ドライバーとクルマのインターフェイスはボイスとなる。

出典: Ford

HuaweiはスマホにAlexaを組み込む

Huaweiは最新のスマートフォン「Mate 9」 (下の写真) にAlexaをプレインストールして出荷することを明らかにした。Mate 9はボイスアプリを搭載し、この背後でAlexa Voice Serviceが使われている。利用者は音声で備忘録を作成し、天気予報や渋滞情報を尋ねることができる。また、スマートホームのハブとして家電を操作することもできる。ボイスアプリは2017年初頭から提供される。GoogleはAndroid向けにAI会話機能「Assistant」を提供しており、Alexaと正面から競合することになる。

出典: Huawei

UBTechはロボットのインターフェイスにAlexaを採用

UBTechはShenzhen (中国・深セン) に拠点を置くロボット開発会社で「Lynx」 (下の写真) を発表した。LynxはAlexa Voice Serviceを組み込み、言葉でロボットを操作することができる。音楽再生やメールの読み上げなどを言葉で指示できる。Alexaが提供する機能の他に、Lynxは搭載しているカメラで利用者を識別し、個人に沿った対応ができる。また、カメラをセキュリティモニターとして使えば、Lynxが留守宅を監視する。価格は800ドルから1000ドルで2017年後半に発売される。ロボット開発では会話機能がネックとなるが、Alexa Voice Serviceを使うことで、開発工程が短くなる。手軽にロボットを開発でき、市場への参入障壁が大きく下がる。LynxはAlexaがロボットの標準インターフェイスとして普及する可能性を示唆している。

出典: UBTech

テレビを音声で操作する

DISHは衛星テレビ会社でテレビ放送やインターネットサービスを提供する。DISHはセットトップボックス「Hopper DVR」をAmazon Echo又はDotとリンクし、テレビを言葉で操作できる機能を提供する (下の写真)。Echoに対し「Alexa, Go to ESPN」と指示すると、テレビはスポーツ番組「ESPN」にチャンネルを変える。番組を検索するときは「Alexa, what channel is the Red Sox game on?」と尋ねる。EchoはRed Soxの試合中継があるチャンネルを回答する。このサービス2017年前半から提供される。これからのテレビはリモコンだけでなく、音声操作が必須のインターフェイスとなる。GoogleはAI会話機能「Assistant」でテレビを音声で操作する機能を提供している。テレビ操作のインターフェイスでもAmazon AlexaとGoogle Assistantが覇権を争うことになる。

出典: DISH

LGは冷蔵庫にAlexaを搭載

LGはスマート冷蔵庫「Smart InstaView Door-in-Door」 (下の写真) でAlexa Voice Serviceを利用することを発表した。冷蔵庫は29インチのタッチパネルを搭載し (下の写真、右上のパネル) Microsoft Cortanaを音声インターフェイスとして利用してきた。今般、LGはこれをAlexa Voice Serviceに変更する。Alexaが組み込まれることで、音声でレシピを検索し、ショッピングリストを作成できる。また、Amazonでの買い物が音声でできる。冷蔵庫はスマートホームのハブとしても機能する。LGスマート冷蔵庫は音声で操作できない家電は売れなくなることを示唆している。

出典: LG Electronics

AIを駆使した高度な会話機能

メーカーが相次いでAlexaを採用する理由はAIを駆使した高度な会話機能にある。Alexaを搭載したデバイスは「Alexa」という枕言葉を検出すると、それに続く音声ストリームをクラウドに送信する。一連の会話処理はクラウドで実行される。具体的には音声認識 (Speech Recognition)、自然言語解析 (Natural Language Processing)、音声生成 (Text-to-Speech Synthesis) の処理が実行され、これらのプロセスでAIが使われている。単一のAIではなく、各モジュールに高度なAIが実装されボイスサービスを支えている。

Alexa人気の秘密は教育データ

Amazon Alexaが高度な会話機能を提供できる理由はAIアルゴリズムを最適化する教育データにある。教育データとは喋った言葉 (サウンド) とそれを書き下した文字 (テキスト) の組み合わせを指す。ボイス教育データとしてはコールセンターのオペレータの会話が使われる。しかし、家庭環境での会話 (「ガレージのドアを閉めて」など) をベースにした教育データは存在しない。Amazonは2014年に製品を出荷し、利用者からのフィードバック (下の写真) などを使い、教育データを整備してきた。この蓄積が高度な会話機能を支え、他社の追随を許さない理由になっている。

出典: VentureClef

日本企業のオプションは

家電メーカー、自動車メーカー、ロボット開発企業はAlexa Voice Serviceを利用することで製品に会話機能を組み込むことができる。自社でAIボイス機能を独自に開発する手間が省ける。Amazon AWSを利用するように、これからはAlexa Voice Serviceが標準ボイスクラウドとなる勢いをみせている。AIの基礎技術であるボイスサービスをAmazonに頼るのか、それとも独自で開発する道を進むのか、日本産業は岐路に差し掛かっている。