Archive for the ‘ロボット’ Category

クルマのキラーアプリは無人タクシー!自動車産業の”インターネットバブル”が始まる

Friday, July 8th, 2016

配車サービス企業は一斉に自動運転車開発に乗り出した。無人タクシーを事業の中心に据え、公道で試験走行を始めた。消費者はクルマを買う代わりに、無人タクシーを呼んで移動する。クルマを販売する時代からRide (移動) を販売する時代に入る。無人タクシーは自動車産業にどんな影響を及ぼすのか、実態が見え始めた次世代の配車サービスをレポートする。

vwb_640_car_uber_self_driving (p01)

Uberの自動運転試験車両

配車サービスは日本でも事業を拡大しているが、米国では日常生活でなくてはならない存在となった。配車サービス最大手Uberは2016年5月、Pittsburgh (ペンシルベニア州) で自動運転車の走行試験を始めた。試験車両はFord Fusionのハイブリッドモデルで、ここに多数のセンサーを搭載している (上の写真)。屋根の上に積んだラック最上部に複数のLidar (レーザー光センサー) を搭載している。正面に向いている円形部分はカメラと思われる。その左右と後部にカメラやレーダーなどを搭載している。更に、フロントバンパーにもLidarを搭載しているのが分かる。

この試験車両は自動運転機能に加え詳細マップを作成する機能を持つ。自動運転モードで走行する時は、専任ドライバーが運転席に座り走行状態を監視し、緊急事態には運転を取って代わる。Uberの自動運転技術は初期段階で、開発レースで先頭集団を追う展開となる。路上試験の目的は安全性の確認で、歩行者、自転車、クルマに交じり安全に走行できることに注力している。

Carnegie Mellon Universityと共同開発

Uberはこれに先立ち、2015年2月、Carnegie Mellon Universityと自動運転技術とマップ作製技術を共同で開発することを表明した。Uberは開発センター「Uber Advanced Technologies Center (Uber ATC)」を設立し、ここで大学の学部や生徒と共同で研究を進めている。対象となる分野はソフトウェア、メカニカル、ロボティックス、機械学習などである。Carnegie Mellon UniversityはStanford Universityと並び、米国の自動運転技術の礎を築いた大学である。UberがCarnegie Mellon Universityと組むことで技術開発が一気に進むとみられている。一方、Uberはその直後、大学から一挙に40名の研究員を引き抜き、アグレッシブな開発手法に批判が集まっている。

LyftはGeneral Motorsと提携

Uberを追うLyftは自動運転技術を独自に開発するのではなく、General Motorsと共同開発する道を選んだ。General Motorsは2016年1月、Lyftに5億ドル出資したことを明らかにした (下の写真)。General MotorsはLyftと共同で自動運転車による配車サービスを開発する。自動車メーカーが本格的に配車サービスに乗り出したことで注目を集めた。更に、General Motorsが開発している自動運転技術で無人タクシー事業を展開する。

vwb_640_car_uber_self_driving (p02)

無人タクシーを公道で試験

主要メディアによると、 General MotorsとLyftはChevrolet Bolt EV (下の写真) ベースの自動運転車を開発している。この自動運転車はLyftの無人タクシーとして市場に投入される。Lyft無人タクシーは二年以内にカリフォルニア州で試験走行を始める。当初は専任ドライバーがクルマに搭乗し無人タクシー運行を支援する。無人タクシーは自動で走行し、問題が発生するとドライバーが運転を交代する。五台の車両を使い無人タクシー業務を公道で試験する。無人タクシーに乗るのをためらう消費者も多いと思われる。このため、利用者はアプリで配車されるクルマが無人タクシーかどうかを把握できる仕組みになっている。もし、無人タクシーに乗りたくなければ、オプトアウトできるオプションがある。

vwb_640_car_uber_self_driving (p03)

無人タクシーは乗客とのコミュニケーションがカギ

無人タクシーはクルマと乗客のコミュニケーションがカギとなる。自動運転技術に加え、乗客の把握や会話技術を開発する必要がある。例えば、無人タクシーは利用者がクルマに搭乗したことを認識する仕組みが求められる。また、クルマに乗り込んできた人はアプリで配車を求めた本人なのかの確認も必要。更に、乗客が目的地をどう指定するのか、また、クルマは目的地に到着したのをどう把握するのかなど、課題は少なくない。この機能を実現するにはアプリだけでは不十分で、車両側にセンサーなどの機器や会話技術が必要となる。General Motorsが車両と自動運転技術を、Lyftが配車ネットワークを担い、手分けして無人タクシーを開発する。

General Motorsの自動運転技術

General Motorsは自動運転技術を自社で開発しているだけでなく、自動運転ベンチャー「Cruise Automation」を買収しその技術を取り入れた。買収金額は発表されていないが10億ドルと言われている。Cruise Automationはクルマに外付けする自動運転キットを販売していたが、近年はフルスタックの自動運転技術を開発している。General MotorsがCruise Automationを買収した背景には、この技術で自動運転車の開発を加速する狙いがある。Cruise Automationの40人のエンジニアは、General Motorsの自動運転開発チームに加わり、技術開発が本格的に始動した。

Uberは中国を最重要市場と位置付ける

注目される配車サービスであるが、その実態は競争が激烈で、資金力の戦いになっている。配車サービスの多くは料金を低く抑えて顧客を呼び込む。そのため事業は赤字で、それをベンチャーキャピタルからの出資金で補う構造となっている。マーケットシェアを勝ち取るために赤字覚悟で事業が進められる。Uberは北米や欧州など先進国で事業が黒字になったことを明らかにしたが、新興国では巨額の赤字を抱えている。

いまUberの事業開拓の中心は中国やインドなど新興国に移っている。この市場でシェアを獲得するため大規模な資金を投入し事業を展開している。特に中国では業界一位の配車サービス「Didi Chuxing (滴滴出行)」を激しく追う構造になっている。Didi Chuxingが圧倒的なシェアを占める中国市場でUberが戦いを挑んでいる。中国はUberにとって最も重要な市場で、乗客数の三分の一をこの市場に依存している。Uberは中国市場で年間10億ドルの赤字を出しているが、数年のうちに黒字化できるとの見方を示している。

General MotorsがLyftを買収か

Lyftも事業展開で大規模な赤字を出している。ベンチャーキャピタルは赤字補てんのための追加出資を嫌っているともいわれる。このためLyftは投資銀行経由でLyftを買収する企業を探している。すでに自動車メーカーなどにLyft買収の打診が行われた。Lyftは買い手を探しているのか、投資先を探しているのかは不明だが、配車サービスを続けるには大規模な資金が必要となる。General Motorsは、前述の通り、Lyftに5億ドル出資し株を10%を保有している。このため、General MotorsがLyftを買収するのではとのうわさも流れている。

vwb_640_car_uber_self_driving (p04)

AppleはDidi Chuxingと無人タクシー開発か

Uberが注目される配車サービスであるが、上述の通り、Didi Chuxingが世界のトップを走る。Didi Chuxingは2012年に現CEOのCheng Weiらにより設立され (当初の名称はDidi Dache)、2015年に同業のKuaidi Dacheと合併し現在の形となった。400都市をカバーし、登録ドライバー数は1400万人で、一日当たりの利用回数は1100万件と言われ、中国市場を独占している。中国でDidi Chuxingが急成長している背景には、自家用車の所有台数が急速に増えていることがある。自家用車を使ったサイドビジネスが人気を集めている。

Appleは2016年5月、Didi Chuxingに10億ドル出資することを明らかにした。Appleが突然中国の配車サービス企業に出資したことで業界に衝撃が走った。様々な憶測が飛び交い、Appleはついに自動車産業に進出することを決断したともいわれている。中国でiPhone売り上げが大きく減少し、Appleは新しい事業を模索している。Appleは自動運転EVの開発を始めたといわれており、Didi Chuxingと共同で無人タクシー事業を展開する公算が深まった。

自家用車を持たなくても生活できる

UberやLyftやDidi Chuxingが配車サービス事業を大規模に展開することで、クルマを利用する形態が根本的に変わろうとしている。消費者はクルマを購入するモデルから、クルマを呼ぶモデルに変わる。実際にシリコンバレーではこの流れが始まり、若者の間ではUberを呼ぶのがクールなライフスタイルと言われている。一方、成人はUberで通勤し自家用車を所有しないライフスタイルが始まっている。Uberはこの需要に応えて通勤用のuberPOOL (乗り合いタクシー、下の写真) を始めている。低料金で通勤できることから、自家用車を持たない生活が現実になっている。

vwb_640_car_uber_self_driving (p05)

自動車メーカーは黒子になる

自家用車を持たない生活が社会の主流になると自動車産業が激変する。消費者がクルマに乗るときは、UberやLyftなど配車サービス企業がインターフェイスになる。配車サービス企業のブランドイメージが選択の基準となり、クルマメーカーや車種は二次的な要因となる。これは航空機産業に似ている。飛行機に乗るときは、航空会社のサービスや価格を基準に利用する会社を選ぶ。飛行機の機種を基準にフライトを選択するケースは稀である。つまり、メーカーは配車サービス会社にクルマを卸す黒子に転じる。消費者に直販するケースが減り、ビジネスはB2Bが中心となる。

このためメーカーはクルマの製造だけに留まるのではなく、配車サービス事業に打ってでた。General Motorsがこの流れを象徴しており、Lyftと共同で配車サービスを始める。Toyotaは業界第一位のUberと、VWはイスラエルの配車サービス企業Gettと共同で事業を始める。今年に入りメーカーと配車サービス企業の提携が相次いでいる。

無人タクシーが走れないところをドライバーが運転する

配車サービス企業は、将来は無人タクシーが事業の中心になるとみている。ドライバーの数を減らすことで運用経費を大幅に縮小できるためである。一方、Googleによると自動運転車は運行できる範囲が限定される。どこでも走れるわけではない。最初のモデルは2019年に出荷され、自動運転車は段階的にリリースされる。クルマにとって優しい環境から製品を投入し、順次、難しい環境に拡大していくことになる。道路の観点からは、自動運転車にとってハイウェーや幹線道路の運転は比較的容易だが、市街地中心部分が一番難しい。シリコンバレーは走れるがSan Franciscoは走れないという事態も生じる。自動運転車が走行できないところを人間のドライバーが補う形で事業が始まる。ただし、ドライバーが運転するクルマは料金が高くなる。配車サービス会社は自動運転車と従来型の車両をミックスして最適のバランスで事業を展開することとなる。(下の写真はシリコンバレーで試験走行しているGoogle自動運転車。)

vwb_640_car_uber_self_driving (p06)

トップグループにいないと生き延びれない

配車サービス会社にとって最大の差別化要因は短時間でクルマを配車することである。最小の待ち時間でクルマを配車することが、サービス品質の原点となる。現在、Uberの配車時間は数分で、将来的には30秒にすると述べている。これを実現するには利用者数に見合ったクルマの配置が必要になる。つまり特定地域で十分な台数を確保することがサービス品質を決める。特定の都市で独占的に、又はそれに近い形でサービスを提供する必要がある。このため、配車サービス市場では多くの企業が共棲できないという特性を持つ。携帯電話ネットワーク事業に似ており、市場でトップシェアを取ることがなにより重要となる。このため、配車サービス各社は赤字覚悟でシェア獲得に全力を挙げている。

配車サービスはキラーアプリ

配車サービスはITで例えるとクラウドサービスに似ている。利用者はサーバーを買う代わりにインターネットを利用する。つまり、クルマを買う代わりにインターネットでクルマを呼ぶ。IT市場がクラウドに向かているように、自動車産業は配車サービスをキラーアプリと捉え、メーカーがクルマの製造と配車サービスを手掛けようとしている。General Motorsがこの例で、クルマの販売に加えLyftで配車サービスを展開する。一方、Uberのように配車サービスに専念する企業もあり、今後、同様なモデルが登場すると思われる。先行しているGoogleに続き、Appleも中国で巻き返しを狙っている。自動車産業はインターネットブーム前夜の勢いで、無人タクシーがクルマ社会を変えようとしている。

Tesla Autopilotが重大事故を起こす、なぜクルマは止まらなかったのか

Friday, July 1st, 2016

Tesla 自動運転機能「Autopilot」で死亡事故が発生した。Teslaはハイウェーで大型トレーラーの側面に衝突した。米国メディアは自動運転車による初めての事故として大きく報道した。米国運輸当局は事故に関し予備調査を開始する。Autopilotはなぜ目の前のトレーラーを認識できなかったのか、自動運転技術の問題点を検証する。

vwb_639_car_tesla_autopilot_accident (p01)

ハイウェー走行中の事故

Teslaは2016年6月30日、ブログで事故の詳細を公表した。ブログやメディアによると、事故は5月7日、Williston (フロリダ州) のハイウェーで起こった。Tesla Model Sは自動運転機能「Autopilot」をオンにしてハイウェー (Florida State Road 500) を走っていた (上の写真、イメージ) 。

ハイウェーは中央分離帯で車線が区切られているが、ところどころに交差点がある (下の写真、事故現場と思われる交差点をGoogle Mapsで見た様子)。日本の高速道路のように外部と完全に遮断されているわけではなく、交差点で一般道と交わる。トレーラーは交差点で左折し (地図で左から右に横切る)、Teslaは直進しその側面に衝突した。トレーラーは車高が高く、Teslaはその下を潜り抜け400メートル走って止まった。Teslaのフロントグラスがトレーラー底部にあたり、クルマの上部が大破した。

vwb_639_car_tesla_autopilot_accident (p02)

なぜトレーラーを認識できなかったのか

Autopilotはなぜトレーラーを認識できなかったのか、Teslaはブログで説明している。これによると、Autopilotは白く塗られたトレーラーの側面を太陽がまぶしい状態で認識できなかったとしている。また、ドライバーも同じ状態で、ブレーキを踏まなかったと説明。更に、Teslaがトレーラーの前、又は後ろに面していたら、Autopilotはブレーキをかけ、大事故を防ぐことができたとしている。

これ以上の説明はないが、Autopilotを支える自動運転技術「Mobileye」はカメラでオブジェクトを認識する。Mobileyeは明るい空を背景に横長の白いトレーラーを認識できなかったことを意味する。Mobileyeは、車両の前後は認識できるが、その側面を認識する機能はまだ備わっていないともいわれている。(下の写真はTesla Model S、カメラはフロントグラス内側に設置されている。)

vwb_639_car_tesla_autopilot_accident (p03)

なぜレーダーが機能しなかったのか

Teslaは光学カメラだけでなくレーダーも搭載している (上の写真、エンブレム下の長方形の部分)。レーダーはクルマ前方のオブジェクトを認識し、もう一つの眼として使われる。Tesla創業者のElon MuskはTwitterでレーダーについて説明している。Teslaはレーダーを搭載しており前方の車両を認識する。しかし、事故のシーンではレーダーはトレーラーを道路標識と間違って認識したと説明。

説明はこれだけで分かりにくいが、トレーラーの車高が高いため、レーダーはこれを道路を跨って設置されている道路標識と間違って認識し、ブレーキをかけなかったことになる。ハイウェーには道路標識が高い位置に設置されているケースが少なくない (下の写真)。Autopilotはレーダーに映った横長のトレーラーを高い位置に設置されている標識だと誤認識した。

レーダーは遠くにあるオブジェクトまで検知でき、更に、ドップラーの原理を応用しオブジェクトが近づいているのか、離れているのかを認識できる。これを「doppler speed signature」と呼ぶ。しかし、トレーラーが横向きになっていると、レーダーはこれを静止したオブジェクトと判断する。路上には橋や支柱や道路標識など様々な静止オブジェクトがあり、これらとトレーラーを見分けるのが難しい。Muskの説明の通り、トレーラーは高い位置に掲示された道路標識と誤認識され、Teslaは減速しなかった。カメラもレーダーも機能しなくて事故が起こった。

vwb_639_car_tesla_autopilot_accident (p04)

ドライバーはTeslaのファン

Teslaを運転していたのはJoshua Brownという40歳の男性で、Navy Seals (海軍特殊部隊) に属していた。これは軍隊のエリート集団で社会的な評価も高い。BrownはTeslaの大ファンで、Autopilotで運転している様子をビデオで公開している。その数は40本を超え、Autopilotへの関心の高さがうかがえる。BrownはAutopilotに関して、人並み以上に深い知識を持っていたが、事故を防ぐことはできなかった。一方で、BrownはAutopilotで走行中、パソコンで映画を見ていたのではとの報道もある。最終的には警察の事故調査結果を待たなくてはならないが、Autopilotがうまく機能してきたため、その性能を過信していたのではとの見方もある。

Autopilotは運転補助機能

TeslaはAutopilotの機能は「public beta」で、製品出荷前の試験段階にあると繰り返し説明している。ドライバーがこの機能を起動するとメッセージが表示され、運転責任はドライバーにあると示される。Teslaはドライバーに運転中はステアリングを握ることを求めている。クルマはドライバーがステアリングを握っていることをチェックする機能があり、手放しで運転すると警告メッセージが表示される。

一方、TeslaはAutopilot導入当初は手放しで運転できることを売りにしていた。運転の全責任はドライバーにあるものの、ステアリングを握ることは求めていなかった。(下の写真は筆者がTesla Autopilotを運転している様子。その当時、ハンズフリーがAutopilotのキャッチフレーズであった。) また、Autopilotは運転を補助する機能であるが、この名称は自動運転機能を連想させ、市場にメッセージが正しく伝わっていないのも事実。更に、安全が第一のクルマで、Autopilotは製品ではなくベータと言われて戸惑う人も少なくない。

vwb_639_car_tesla_autopilot_accident (p05)

米国運輸当局が予備調査を始める

Teslaは規定に従ってこの事故を米国運輸当局NHTSA (National Highway Traffic Safety Administration) に報告した。NHTSAはこの事故に関連し、Autopilot性能やTeslaの開発プロセスなどについて予備調査を始める。事故の原因は車両の設計に問題があるのか、又は、Autopilotが設計通り機能しなかったのかなどを調査する。自動運転補助機能による初めての死亡事故で、 NHTSAの調査結果は他の自動運転車開発に影響を及ぼす可能性を含んでいる。

今までにも事故は起きていた

実は、Tesla Autopilotの事故は今回が初めてではない。ハイウェー走行中にTeslaが路肩に停止していたバンに追突する事故があった。Autopilotで前のクルマに追随して走っていたとき、路肩に止まっているバンを避けるため、前のクルマが右にハンドルを切りすり抜けた。しかし、Autopilotは停止しているバンを認識できず追突した。ただ、渋滞のため低速で走行していたのでけが人などはいなかった。

TeslaはこれをAutopilotの制限事項としてマニュアルに記載し注意を促している。具体的には、前のクルマが車線を変え、そこに車両が止まっていると、Autopilotはこれを認識できないこともあると警告している。まさに上述のケースがこれにあたる。また高速 (時速50マイル以上) で走行しているとき、前方に車両が停止していても、Teslaはブレーキをかけないこともあるとしている。重大な制限事項であるが、これを認識しているドライバーは多くはない。また、これ以外に事故は報告されてなく、ほとんどのケースでAutopilotは正常に動作していることもうかがえる。

Teslaは車両運行データを収集

Teslaの特徴はコネクティッドカーで、車両がインターネットに接続され、運行データが収集される仕組みになっている。今回の事故に関する運行データはTeslaが収集しており、問題の特定などに活用されていると思われる。

これに先立ち、Teslaは車両のデータを収集していることを明らかにした。Tesla車両が事故を起こした際、ドライバーはクルマが急加速したためとし、過失はクルマにあると主張した。これに対してTeslaは、運行データを解析した結果、クルマは低速 (時速6マイル) で走行しているとき、アクセルが踏まれ、出力が100%になったと報告した。収集したデータを解析することで、事故の原因を科学的に解明できることが示された。これからは事故の原因を不当にクルマのせいにすることができなくなった。同時に、クルマの誤作動も克明に分かることになる。

運行データを自動運転車開発に生かす

Teslaが運行データをモニターするのは新しいビジネスにつなげるためとされる。保険会社と提携してドライバーの運転スタイルにあった自動車保険を提案することなどが計画されている。また、収集したデータを自動運転車の開発に利用する。Tesla車両が数多く走っており、走行データを大量に収集できる。豊富な運行データを解析することで走行挙動が分かり、自動運転技術開発で大きなアドバンテージとなる。

市場ではデータが収集されることに懸念の声も聞かれる。ドライバーの了解なく運行データを収集することはプライバシー損害であるとの意見もある。ただ、ドライバーが走行データをモニターされていることを認識すると、事故率が大幅に下がるという統計データもある。プライバシー保護を考慮しながら、車両の安全性を向上する運用が求められる。

米国社会は寛容な態度

Teslaをテストドライブしたとき一番戸惑ったのが、どこでAutopilotを使えるかという点だ。TeslaはAutopilotを使えるのはハイウェーだけで、一般道では使用を禁止している。しかし、実際に道路を走るとこの区分けは分かりにくい。ハイウェーでも郊外では一般道との交差点が現れる。これが今回の事故原因の一つで、ハイウェーと言っても一般道との境はあいまいだ。Autopilotがハイウェーを横切るトラフィックに対応できていない点が事故原因の主要な部分を占める。

自動運転車が重大事故を起こすと、住民から開発に対し反対運動がおこると懸念されていた。一度の事故で数年間は開発が停滞するともいわれていた。しかし、今回の事故に対し米国社会は寛容な目で見ていることが分かってきた。Autopilotへの信頼感は低下したものの、自動運転車開発に対してNoという声は上がっていない。チャレンジに対してそれを応援するアメリカの国民性が背後にあるように感じる。

Googleが会話型AIを投入!スマホから人工知能へ大転換

Saturday, May 21st, 2016

今年のGoogleは大きく変わった。Googleはシリコンバレーで開催した開発者会議「Google I/O」で仮想アシスタント機能を搭載した新製品を相次いで発表した。仮想アシスタントとは会話型のAIで、コンシェルジュのように対話しながら生活を手助けする。開発の主軸がAndroidから対話型AIに移った。Alphabet中核企業としてのGoogleの新戦略が見えてきた。

vwb_633_ai_google_assistant (p01)

仮想アシスタント製品群

Google最高経営責任者Sundar Pichaiは基調講演で新製品を相次いで発表した (上の写真)。この模様はYouTubeでストリーミングされた。「Google Assistant」はAIベースの仮想アシスタント機能で、対話を通して情報を検索し、タスクを完遂する。「Google Home」はAIスピーカーで、話しかけて音楽を再生し、情報を検索する。Amazonのヒット商品「Amazon Echo」からヒントを得て開発した。「Google Allo」はメッセージングアプリで、ここでGoogle Assistantと対話してタスクを実行する。これはFacebookの仮想アシスタント「M」の対抗製品となる。今年のGoogle新製品は他社のアイディアを踏襲して開発されたことが分かる。

Google Assistantはコンシェルジュ

Assistantは共通技術という位置づけで、HomeとAlloの背後でサービスを支える。Assistantは利用者のコンテクストを把握し、会話を通して実社会でタスクをこなす。この背後には10年以上にわたる、Googleの自然言語解析技術の蓄積がある。Assistantは、Googleコア技術である音声検索を活用した次世代サービスで、人間のアシスタントのように振る舞い日々の生活を助ける。下の写真がAssistantのコンセプトで、ホテルのコンシェルジュのように、お勧めの映画を示し、そのチケットを手配する。

「今夜上映中の映画は?」と質問すると、Assistantは近所の映画館で上映している映画を示す。これに対して「子供を連れていくのだが」と状況を説明すると、Assistantは「家族向けの映画があります」として、家族で楽しめる映画を表示する (下の写真左側)。更に、映画内容や人数について会話を続け、Assistantは「ジャングルブックを四人分手配しました」と述べ、チケットを送信する (下の写真右側)。チケットのQRコードを示して映画館に入館する。このようにAssistantは対話しながら日々のタスクをこなしていく。人間のようにスムーズに対話が進むのは、Assistantが利用者の嗜好や場所など、コンテクストを把握しているため。大量の個人情報を保有しているGoogleにとって、この点が最大のアドバンテージとなる。

vwb_633_ai_google_assistant (p02)

Google HomeはAIスピーカー

Assistantをスピーカーに適用したものがGoogle Homeとなる。Homeはキーボードなどの入力装置はなく、言葉で操作する。Homeは円柱形のデバイスでテーブルに置いて使う (下の写真)。デバイス上部には四色のLEDライトが設置され、利用者の音声に反応して点滅する。点灯の仕方でHomeが意思を表示する。Homeの機能は三つあり、音楽やビデオ再生、家事などのタスクの実行、及び、検索機能となる。

HomeはWiFi搭載スピーカーでクラウドに格納しているコンテンツを再生する。これはヒット商品「Chromecast」のコンセプトを踏襲したもので、Homeを音声で操作し、クラウド上の音楽やアルバムを再生する。Homeをキッチン置き、朝起きた時に「Ok Google、play the morning play list」と指示すると、朝向けの音楽を再生する。Homeは常にオンの状態で周囲の声を聞いている。「Ok Google」という言葉を聞くと、その次に続く言葉に従って機能する。

vwb_633_ai_google_assistant (p03)

今日の予定を確認するためには「Ok Google, I’m listening」と語ると、Homeは「ポートランド行きのフライトは30分遅れです」などと報告する。Homeは家族のスケジュールを把握しているだけでなく、家族の声も識別できる。そこで、Homeに夕食の予約を8時に変更するように指示し、「Text to Louise, dinner is moved to 8」と語るだけで友人にメッセージを送信できる。Homeが優秀な秘書のように振る舞う。

vwb_633_ai_google_assistant (p04)

Google Homeがスマートホームのハブ

Homeは家庭の中のコントロールセンターとなり、音声で電灯やサーモスタット「Nest」を操作できる。朝起きてこない子供を起こすため「Ok Google, turn on the lights in Kevin’s room」と指示すると、Kevinの部屋の電灯を点けることができる。Homeは検索エンジンとして機能する。Kevinが「Ok Google, which star system is the closest?」と質問すると、Homeはそれに対し地球に一番近い星雲は「… Alpha Centauri」と答え、その結果をリビングルームのテレビに表示する (上の写真)。Googleは17年に及ぶ検索技術開発の蓄積があり、ここが他社に比べ大きな優位点となる。将来はパートナー企業と提携し、Homeでレストランを予約し商品を購入することを計画している。

Google AlloはAIメッセージング

Googleはモバイルと機械学習を組み合わせて新世代のコミュニケーションアプリを提供する。これがAlloでAIメッセージングとして自ら学習する能力を持っている。Alloは表現力が豊かで、人間のように振る舞い、プライバシー保護にも配慮している。下の写真がAlloの画面でテキストや写真を送受信し友人と会話する。

vwb_633_ai_google_assistant (p05)

ここまでは通常のメッセージングアプリだが、Alloは返信テキストを自動生成する機能「Smart Reply」を備えている。Smart Replyは既にメール「Inbox」で導入され実績を積んでいる。Smart Replyは受信したテキストを読み、その意味を理解して、返信文を作成する。しかし、AlloのSmart Replyは写真に対しても使える。犬の写真を受信すると、Alloは「Cute dog!」、「Aww!」、「Nice bernese mountain dog」と返信文を生成する (上の写真左側、最下部のボタン)。Alloは犬だけでなく、その種別を判別して返信文を生成する。犬の種別を判定するには高度な技術を要し、この背後にはGoogleのニューラルネットワークが使われている。Alloはコンテント (犬であること) とコンテクスト (可愛いなど) を把握する。また、Alloは学習を重ねることで利用者の表現方法を汲んだ返信文を作成する。つまり、返信文はあたかも利用者個人が表す表現となる。倫理的な問題はあるが、Alloが本人になり代わり代筆する。

会話ボットと話してレストラン予約

Alloの背後ではAssistantが人間のコンシェルジュのように振る舞い、対話形式でアドバイスする。Joyが「Let’s go for Italian food」とメッセージを送ると、Assistantはコンテキスト(場所やレストラン) を把握して近所のイタリア料理店を紹介する。これはKnowledge Graphの機能を使っており、利用者のニーズにズバリ答える。

Alloが推奨するレストランをみて、JoyとAmitがCucina Ventiという店で7時に食事することにすると、Alloはその店の情報を掲示する (上の写真右側)。Amitは「Make a reservation」ボタンをタップし、Assistantと会話しながらレストランを予約する。Assistantは時間や人数を確認しOpenTableで予約する。Assistantがコンシェルジュとして振る舞い、会話を通してタスクを完遂する。

vwb_633_ai_google_assistant (p06)

Assistantに直接問いかけることもできる。AmitがAssistantに対して「Funny cat pics」と入力すると、Assistantは猫のおかしな写真を表示する (上の写真左側)。これらの写真はGoogle Image Searchの結果が使われている。Assistantとの会話でいきなり「Did my team win」と質問すると、AssistantはAmitが贔屓にしているチームがReal Madridであることを理解しており、その試合結果を表示する。また「Next game」と尋ねると、Real Madridの次の試合予定を表示する (上の写真右側)。

また、Alloはプライバシー保護やセキュリティにも配慮している。匿名モード「Incognito Mode」を選択すると、Alloの全てのメッセージは暗号化される。これはChromeブラウザーに実装されている技術をAlloに適用したもの。AlloはAssistantを具現化した最初のサービスで、Googleの戦略製品として位置づけられる。これから全力でFacebook Mを追うことになる。

他社製品のコピーなのか

基調講演で登場した新製品はGoogle独自のアイディアではなく、ヒットしている他社製品にヒントを得ている。Homeは人気商品Amazon Echoに倣ったもので、Pichaiはこれを認めている。Alloは人気急上昇中のFacebook Messengerを追随する。Assistantは野心的なFacebook Mや進化したMicrosoft CortanaをGoogle流に焼き直したものである。今年の基調講演はGoogleが他社を追随するモードで進んだ。Googleからは世界を驚かせる斬新な製品は登場しなかった。

vwb_633_ai_google_assistant (p07)

しかし、Googleが発表した”コピー製品”はとても魅力的であった。筆者の印象だけでなく、会場の聴衆の反応から、新製品は好意的に受け止められたことが分かる。その理由は、これら新商品がオリジナル商品を上回るためだ。Homeでは音声認識技術のレベルの高さが、また、Alloでは画像認識や対話機能が際立った。Assistantは人間の手助けを必要とせず、AIが全てのタスクをこなす。Facebook MはAIと人間が共同してタスクをこなし、まだAIが独り立ちできない。更に、他社を凌駕する高度な検索技術がGoogle新商品を支えている (上の写真、Knowledge Graphの説明)。Googleが得意とするAI技術が随所に生かされており、”コピー商品”であってもオリジナル商品より魅力を感じる。

コーポレートアイデンティティ

特筆すべきはGoogleのコーポレートアイデンティティが大きく変わったことだ。GoogleがAlphabetのもとで再編され、”Pichaiカンパニー”としてその独自色がでてきた。Alphabet子会社との役割分担もはっきりしてきた。Googleはハイテクを駆使して市場を驚かす製品を開発するのではなく、家族で楽しめる優しい製品に比重を移している。オタクな会社からヒューマンタッチの会社にイメージチェンジしている。Googleの使命は情報検索で、対話型AIをユーザーインターフェイスとし、だれでも使える製品を開発する。一方、Alphabet子会社は自動運転車やヒトの寿命を延ばす高度な研究に力を注ぐ。Alphabet子会社がギークなDNAを引き継いでいる。

PichaiはAIに会社の将来をかける

Googleが会話型AIを相次いで投入したことが示しているように、PichaiはGoogleの将来をAIに託している。PichaiはDeepMindのAI技術に感銘を受けたと述べ、これがAIに傾倒する切っ掛けとなった。Pichaiは囲碁ソフト「AlphaGo」が囲碁チャンピオンを破った事例を紹介し、AIが気候変動やがん研究で重要な役割を果たすとの見解を示した。世界を変えるAI技術の開発はDeepMindの役割となる。

Googleは別のアングルからAIを開発する。そのキーワードが「Ambient (背景)」でGoogleはAIを背景技術と位置づける。AIがサービスを支える基盤となるが、あくまで黒子に徹し利用者の眼にはとまらない。具体的な実装方式は会話型AIで、利用者は自然なコミュニケーションで情報にアクセスしタスクをこなす。また、利用者との接点はスマホだけでなく、家電やクルマやウエアラブルやデスクトップなど多岐にわたるが、そのインターフェイスをAIが司る。異なるデバイスの標準インターフェイスが会話型AIで、開発の重点がAIに移った。GoogleがモバイルからAIにピボットした形となった。

ビジネスモデルが変わる

Facebook、Amazon、Microsoftに次いでGoogleが会話型AIの開発に乗り出したことで、米国IT市場は大きな転機を迎えた。今問われているのがビジネスモデルだ。仮想アシスタントを通して情報検索をするが、新しい広告モデルが必要となる。メッセージングでチケットや商品を購入する方式が始まり、会話型コマース「Conversational Commerce」が登場する。ウェブサイトで買い物をするE-CommerceからこのC-Commerceにパラダイムシフトが始まる。会話型AIで先行している日本であるが、Googleを中心とするAI開発の流れは急で、日本市場への影響は必至である。

GoogleがDeep Reinforcement Learningに賭ける理由、人間のように振る舞うロボットを開発するため

Monday, May 16th, 2016

GoogleはDeepMindを買収してDeep Reinforcement Learning (深層強化学習) という手法を獲得した。この技法はビデオゲームで人間を遥かに上回る実力を示し、また、囲碁の世界では世界チャンピオンを破った。なぜGoogleはこの技法に会社の将来を託すのか、Atariビデオゲームをプレーするアルゴリズムとその技法を振り返り、Deep Reinforcement Learningの革新性を考察する。

vwb_632_ai_google_reinforcement_learning_atari (p01)

ビデオゲームを超人的技量でプレー

DeepMind創設者のDemis Hassabisらが2013年12月に発表した論文「Playing Atari with Deep Reinforcement Learning」でこの技法が世界にデビューした。論文でコンピュータがビデオゲームを見るだけでプレーの仕方を学習する手法が示された。人間がゲームのルールや操作方法を教える必要はなく、コンピュータが試行錯誤でプレー方法を習得する。そして人間のエキスパートを上回る得点をたたき出す。

ブロック崩し (Breakout、上の写真) は、バーを操作し、ボールを打ち返し、ブロックを崩していくゲームで、1970年代に登場し日本だけでなく世界的な人気ゲームとなった。アルゴリズムは最初はゆっくりとプレーを学ぶ。一時間で200回程度のゲームをこなすと、34%の割合でボールを打ち返し、人間の初心者程度の実力となる。二時間後には、300回のゲームをこなし、既に人間の技量を上回る。四時間後には、ブロックに通路を開け、裏側からブロックを崩すという大技を自ら学習する。アルゴリズムは四時間でゲームをマスターする。アルゴリズムはDeep Reinforcement Learningという手法を使い、恐ろしいほど高速で学習する能力を示した。

Reinforcement Learningのモデル

Reinforcement LearningとはMachine Learningの一つで、意思決定のプロセスで使われる (下の写真がその概念図)。AgentがEnvironmentの中で、あるActionを起こす。AgentはActionに伴い更新されたStateを把握し、Rewardを受け取る。Reinforcement Learningのアルゴリズムは、試行錯誤を通じRewardが最大になるPolicyを求める。Policyは一つとは限らず、アルゴリズムは貪欲に異なるPolicyを探求する。

vwb_632_ai_google_reinforcement_learning_atari (p02)

この概念をブロック崩しゲームで例えると次のようになる。Agentはプレーヤーで、Environmentはブロック崩しゲームで、Stateはゲームの状態 (バーとボールの位置、ブロックの有無) となる。 Actionはバーを左右に動かす動作で、Rewardは得点で、どういう規則でActionを取るかはPolicyと呼ばれる。プレーヤー (Agent) はゲーム画面 (State) でバーを右に動かし (Action)、これによりブロックを崩し (次のState)、得点 (Reward) を得る。プレーヤーはこのサイクルを繰り返しゲームを進行する。

アルゴリズムが解くべき課題

アルゴリズムはゲームを繰り返しプレーして、得点を多く取れるような操作を学習する。基本指針はシンプルであるが、実際には難しい問題を抱えている。バーを操作してボールを打ち返し得点するが、バーの動きと得点の関係が時間的にずれている。今の操作が得点につながるまで1000ステップかかることもある。これを「credit assignment problem」と呼び、直前の操作と時間的に離れた得点の関係を算出する必要がある。

もう一つの課題はどういう戦略で進めるのが高得点に繋がるかを求めること。これは「explore-exploit dilemma」と呼ばれ、今の戦略を続けるのか、それとも、新しい戦略に挑戦するのか、作戦を決める必要がある。今のやり方である程度の得点を稼げるが、更に高得点を目指して新しい戦略を試すのかの判断を求められる。

問題の解決方法

この問題を解くために、ビデオゲーム (Environment) を「Markov Decision Process」として定義するとうまくいく。Markov Decision Processとは、次の状態は現在の状態だけに依存するという環境を処理するプロセスを指す。プロセスの目的は、ある時点において将来得られる得点を最大にするよう設定することで、これを表現する関数をQ-Functionとして定義する。Q-FunctionはQ(s, a) と記述され、時間「t」の時から、State「s」でAction「a」を取り続けるとRewardが最大になる関数を示す。この関数を探すことが命題となる。

Hassabisのアイディア

ブロック崩しでStateとは、上述の通りゲームの状態で、バーの位置、ボールの位置と進行方向、ブロックの有無となる。Q-Function (得点を推定する関数) の中にStateの情報を取り込んで得点を計算し、その得点が最大になるAction (バー操作) を取る。しかし、この方式はブロック崩しゲームには使えるが、スペースインベーダーには使えないという問題が発生する。スペースインベーダーにはブロックやバーはなく、宇宙人が攻めてきて、それを大砲で打ち落とす。

これに対してHassabisのアイディアは、解法を一般化するために、ゲーム画面のピクセルをStateとして定義。実際には、ボールの速度が分からないため、連続する画面を使う。ゲーム画面のピクセルを入力するのであれば、プレーの仕方が異なるスペースインベーダーにも使える。このアイディアがゲーム解法のブレークスルーとなり、アルゴリズムは異なるビデオゲームで使うことができる。このポイントが最大の成果として評価されている。

vwb_632_ai_google_reinforcement_learning_atari (p03)

Reinforcement Learningとニューラルネットワークの合体

このアイディアでQ-Functionを解くためにはもう一つ山を越えなくてはならない。Hassabisは、ビデオゲーム画面を84×84のサイズに縮小し、256段階のグレイで表示した。連続する四画面をStateとしてQ-Functionに入力した。しかし、Stateの数は256の84×84x4乗(10の67970乗)となり、Q-Functionで場合の数が膨大となり計算できない。ここでHassabisは次のアイディアとして、入力画面をConvolutional Neural Networkで処理し、それをQ-Functionの値 (Q-Value) とした。Convolutional Neural Networkを使うことで、ゲーム画面を圧縮して情報量を大幅に小さくできる。

上の写真が概念図を示しており、三階層のConvolutional Neural Networkなどで構成される。このネットワークはDeep Q-Network (DQN) と呼ばれ、アルゴリズムを指す言葉として使われる。ゲームスクリーン (左端の四角) から、DQNに四画面を入力すると、次に取るべきActionを出力する (右端の矢印で示された箱)。DQNの出力は数値で、バーを動かす方向とボタンを押す・押さないの操作法を算出する。

ネットワークの教育方法

生成されたDQNは最初はボールを打ち返すことができず、教育する必要がある。具体的には、前述のcredit assignment problemを解くことを意味する。DQNはゲームの時間をさかのぼり、どのActionがRewardに関係するのか意思決定のポイントを特定する。このプロセスではDQNが自らゲームをプレーして操作方法を学んでいく。人間のように試行錯誤しながら、DQNがプレーのコツを掴んでいく。

Neural Networkを組み込んだQ-Functionで将来のRewardを予測すると、関数が収束しなかったり振動して解を得られない。このため、「experience replay」という技法を用いる。ゲームプレーをメモリーに読み込んでおき、DQNを教育するとき、ここに記憶されたサンプルをランダムに取り出して実行する。人間のようにゲームの流れを振り返り、何処で間違えたのかなどを把握する。

DQNはプレー方法を学習し高得点を得る方向に収束していく。つまり、DQNはコツがわかるとその道を究める。しかし、DQNはこのレベルの得点で満足するのか、それとも、リスクを冒し新しい方式を試すのかの選択を迫られる。これが、exploration-exploitation dilemmaで、冒険する度合いを「ε」という変数 (greedy explorationと呼ばれる) で定義する。εは貪欲に新しい手を探る係数で、数字が大きくなるほど危険を冒して新しい手を探る。

DQNは人間の技能を大きく上回る

Hassabisは49の異なるビデオゲームでDQNをベンチマークしたが、そのうち29のゲームで人間以上の成績をマークした。ブロック崩しゲームでは人間のエキスパートの13倍超の成績を収めた。アーキテクチャの観点からは、DQNは同じアルゴリズム、同じネットワーク、及び同じパラメーターで異なるゲーム49をプレーできることが評価される。DQNは高次元のセンサーデータと操作方法を結び付けて、インテリジェントなAgentが高度なタスクを実行することを示したことになる。

GoogleがDeepMindを買収した理由

強化学習の技法「Q-Learning」はロボットや機器制御で幅広く使われている。Sonyの子犬型ペットロボット「AIBO」をQ-Learningで歩行制御する事例などが有名である。AIBOは、最初は速く歩けないが、Q-Learningで教育するにつれ歩き方を学習し、速く進めるようになる。

HassabisはこのQ-LearningをConvolutional Neural Networkと組み合わせ、複雑な環境に適用したことが評価される。具体的にはゲーム画面をConvolutional Neural Networkに入力することで、特定のゲームだけでなく、DQNが汎用的にゲームをプレーできることが示された。この点が大きなブレークスルーとなり、Deep Reinforcement Learningが世界の注目を集めることとなった。GoogleはDQNが自ら学び超人的な技量を獲得できる点に着眼し、DeepMindを6億ドルで買収した。

Googleの狙いはロボット開発

HassabisはDeep Reinforcement Learningをビデオゲームだけでなく幅広く適用することを目指している。その後公開された論文によると、DeepMindはReinforcement Learningを開発するために、三次元の迷路「Labyrinth」を使っている。これはオープンソースのゲーム「Quake」を利用したもので、DeepMindの研究者はこの環境で最新技術の研究を進めている。

vwb_632_ai_google_reinforcement_learning_atari (p04)

研究テーマの一つが試行錯誤しながら迷路を歩くゲーム (上の写真)。仮想の人物 (Agent) が迷路の中に置かれたリンゴを拾い、魔法のドア (Portal) を抜けるとポイントを得る。60秒間でどれだけポイントを得るかを競う。魔法のドアを抜けると、また、ゲームオーバーになると新しい迷路が登場する。Agentは人間のように、目で見た情報から最適なアクションを取る。ブロック崩しゲームと同じ仕組みであるが、ここでは遥かに高度な技術が求められる。Agentは視覚からのインプットを元に、数多くの異なる迷路でプレーする。このためにAgentは特定の迷路向けに作戦を立てるのではなく、全ての迷路で通用する包括的な戦略の策定が求められる。将来は、迷路にパネルが掲示され、Agentはそこに書かれている言葉が何を意味しているのかを三次元空間でオブジェクトと接しながら学ぶ。Hassabisはこの技術を会話ボット (Chatbot) に応用することを明らかにしている。最終的には、Agentが仮想空間でインテリジェンスを身に付けることを目的としている。

DeepMindはLabyrinthで開発したAgentを実社会で試験する。Hassabisは開発したアルゴリズムでロボットを制御することが次の重要なマイルストーンであると述べている。Agentがどんどん変わる迷路で視覚を頼りに最適な判断を下すメカニズムは、ロボットが街の中を歩き、どんどん変わる周囲の環境に対応するアルゴリズムに応用できる。Hassabisは世界で優秀なロボットが開発されているが、ソフトウェアが周りの世界を理解できないため、十分に活用されていないとし、次の目標はインテリジェントなロボット開発であると述べている。更に、HassabisはDeepMindで開発したソフトウェアを自動運転車で使うことも表明しており、ロボティックスとモビリティー技術が一気に進む可能性を秘めている。

Google自動運転車が初めて交通事故を起こす、AIが人間の危険な運転テクニックを学習したため

Thursday, April 21st, 2016

Google自動運転車が路線バスと接触事故を起こしたことは全米のメディアで大きく取り上げられた。AIが間違いを犯し、自動運転車への信頼感が揺らいだ。Googleは事故原因の詳細を公表し、過失の一部は自動運転車の判断ミスに起因すると結論付けた。しかし、自動運転車と並走する機会が増えるにつれ、問題の本質が見えてきた。Google自動運転車は法規通りに走るのではなく、人間の危険な運転テクニックを学び始めた。

vwb_628_car_google_accident (p01)

自動運転技術についての説明

Googleの自動運転車責任者Chris Urmsonは、2016年3月、Austin (テキサス州) で開催されたカンファレンスSouth by Southwest (SXSW) で自動運転技術開発状況を説明した。講演の模様はYouTubeで公開された。Urmsonは自動運転車開発の経緯とメカニズムを中心に説明した。更に、自動運転車が事故を起こした原因と、製品出荷予定時期についても言及した。これらは初めて開示される情報で、自動運転技術開発の難しさを改めて認識することとなった。

事故原因はアルゴリズムの判断ミス

事故は2016年2月、Mountain View (カリフォルニア州) の幹線道路で起こった。Google自動運転車「Lexusモデル」が路線バスと低速度で接触した。事故の原因はGoogle自動運転車の仮定と路線バスの運転手の仮定が異なったために発生した。自動運転車は 交差点で右折するため、信号待ちで停車しているクルマの右側をすり抜けて進んだ。(下の写真、緑色の帯で示されいる部分、桃色の箱は自動車を示す。) しかし、路上右側に砂袋二つがあり、クルマはその上を走れないと判断し、その前で停止した (下の写真、黄色ストップサイン)。

vwb_628_car_google_accident (p02)

信号が青になり、Google自動運転車は後ろから路線バスが近づいているのを認識した。自動運転車はバスが減速し道を譲ってくれるとの仮定の下、二つの砂袋を避けるため左にハンドルを切った。バスはそのまま直進し自動運転車と接触した。クルマの速度は時速2マイル (時速3キロ) で、運転手や乗客に被害が及ぶことはなかった。

Urmsonは自動運転車の試験を開始してから初めての事故で大変残念な結果だと述べた。Googleは既に3500件の試験プログラムを実行し、同じ事故が二度と起きないようアルゴリズムを修正したとも述べた。

事故の本質はAIの教育方法

これがGoogleの公式見解であるが、事故が起こった原因はAIをどう教育するかという本質的な問題を含んでいる。Google自動運転車がMountain View市街地で走行試験を進めるにつれ並走する機会が増えた。自動運転車は安全に走行し、一緒に走って不安は感じない。ただ、安全サイドにプログラムされていると感じる場面が多々ある。例えば、自動運転車は交差点の一時停止標識で止まり、左右の安全を確認して発進するが、かなり余裕を持って動き出す。人間だと発進するタイミングだが自動運転車は発進しなので、すこしイライラすることもある。筆者だけでなく、多くのドライバーが同じ思いで、自動運転車に対し不満が募っていた。

このため2015年後半から、Googleはアルゴリズムを改良し、自動運転車が他のドライバーの流れに沿って走れるようにした。今までは厳格に道路交通法を守ってきたが、これからは人間のドライバーのように、状況に応じて柔軟に判断する。今までは、右折の際はレーンにとどまり信号が青に変わるのを待っていたが、新しいアルゴリズムではクルマの右端をすり抜けて前に出る。また、追い越し禁止の場所でも、安全を確認して車線を跨いで停車しているクルマを交わして走る。人間のように柔軟な運転ができるようになった。

Google自動運運転車の”キャラクター”設定

これが裏目に出て今回の事故に結び付いた。Google自動運転車は道路交通法を厳格に守るスタイルから、人間のドライバーのように柔軟に運転するテクニックを覚えた。厳格すぎると交通渋滞を引き起こし住民から苦情を受けるが、柔軟すぎると今回のような事故につながる。どのスタイルでGoogle自動運転車を教育するのか、さじ加減が難しい。

別の言葉で表現すると、Google自動運運転車の”キャラクター”設定が課題になる。ハイヤーの運転手さんのように安全でスムーズなスタイルにするのか、また、宅配便のドライバーのように小気味良い走りにするのか、マンマシンインターフェイスが問われている。軽快な走りになるほど安全性の確保が難しく、高度な自動運転技術が要求される。

下の写真は事故現場で、信号待ちでクルマが込み合う。多くのドライバーは停車しているクルマと路肩の間のスペースを走って右折する。道路交通法によるとこの行為はグレーゾーンであるが、この交差点での取り締まりは実施されていない。Google自動運転車はこの運転テクニックを覚え事故を起こした。

vwb_628_car_google_accident (p03)

出荷時期には幅がある

Urmasonは自動運転車の出荷時期につて、初めてGoogleの公式見解を示した。Urmsonは出荷時期を「3年後から30年後」と述べ、幅を持たせた発表となった。この意味は、最初のモデルは三年後の2019年に出荷され、最終モデルは30年後になるということを示す。つまり、Googleは自動運転車を「段階的にリリースする」計画であることが分かった。クルマにとって優しい環境から製品を投入し、順次、難しい環境に拡大していくことになる。

ここでいう環境とは道路と天候を指す。道路の観点からは、自動運転車にとってハイウェーや幹線道路の運転は比較的容易だが、市街地中心部分が一番難しい。道路両端にクルマが駐車し、歩行者や自転車など異なるモードのトラフィックがある。天候の観点からは、自動運転車は晴れが続く環境では走りやすいが、雪や小雨が降る地域は走りにくい。雪が積もって路面が見えない場所や、雨上がりで路面が濡れ鏡のように光を反射する場所も走りにくい。

地域別にリリースされる

Urmsonは具体的な場所については言及しなかったが、自動運転車の最初のモデルは都市郊外で天候のいい地域に投入されることになる。いまテスト走行を繰り返している、Mountain View (カリフォルニア州) やAustin (テキサス州) を中心とする地域となる可能性が高い。この地域で実績を積むと、次は難度の高いところに製品を投入する。例えば年間を通じて雨が多いKirkland (ワシントン州) などが候補になる。事実、GoogleはKirklandで自動運転車の走行試験を始めた。Google自動運転車は、初期の携帯電話と同じように、使える地域が限定されることになる。

これ以上の説明はなかったが、中国・北京やインドネシア・ジャカルタの交通渋滞に対応するためには、Google自動運転車の開発には時間を要す。また、パキスタン・カラチのように、クルマとバイクと歩行者が入り乱れ、交通ルールが守られない地域 (下の写真) では、そもそも自動運転車は走れるのかとの疑問の声も聞かれる。

vwb_628_car_google_accident (p04)

自動運転技術開発の難しさ

Googleは無人で走行する自動運転車を目指しており、自動車メーカーより格段に難しいルートを走っている。Urmsonの説明を聞くと、当初は走行できる地域がかなり限定されることが分かってきた。三年後にはGoogle自動運転車が全米を駆け巡る勢いであったが、ここにきてトーンダウンした感は否めない。自動運転車の製品化が近づくにつれ、より現実的な姿が示された。同時に、AIで世界のトップを走るGoogleが保守的な見解を述べることは、自動運転技術開発の難しさを改めて示す結果となった。