Archive for October, 2015

Tesla自動運転車をテストドライブ、クルマが自律走行するのは感動的!

Friday, October 30th, 2015

Teslaの自動運転機能「Autopilot」を試してみた。高速道路でAutopilotをオンにすると、クルマが車線に沿って自律的に走行した。手放しでドライブでき、運転の苦痛から解放されることを実感した。高速道路できついカーブを曲がる時は緊張したが、クルマは問題なくクリアーした。自動運転車は信頼できるとの手ごたえも感じた。初めての自動運転は感動的だった。

g433_tesla_autopilot_testdrive_01

Teslaの自動運転技術を試す

リリースされたばかりのAutopilotを搭載したTeslaを運転した。テストドライブしたクルマは赤色 (Red Multi-Coat) の「Model S」 (上の写真) で、最新ソフトウェア「Version 7.0」を搭載している。TeslaスタッフのMarkが、実際に走行しながらAutopilot使用方法を説明した。デモ走行が終わったとろで運転を交代し、テストドライブを開始した。

g433_tesla_autopilot_testdrive_02

一般道はマニュアルモードで運転し、高速道路 (Interstate 280) に入ると、Autopilotをオンにした。既に、Autopilotはスタンバイの状態だったので、「Cruise Control Lever」 (上の写真、下側のレバー) を手前に二回引くと、Autopilotが起動した。

g433_tesla_autopilot_testdrive_03

自動運転の瞬間

インスツルメントパネルには、Teslaと道路の状況がグラフィックスで表示された (上の写真)。道路両端は水色の実線で表示され、クルマが道路を認識し、自律的に走行していることが示された。クルマはカメラで道路にペイントされている車線を読みレーンを把握する。レーンを認識すると道路アイコンが表示され、自動運転モードになると、上の写真のように水色で表示される。

自動運転モードとなったことを確認し、両手をステアリングから、右足をアクセルから離した。初めての自動運転の瞬間で、クルマは車線をキープして自律走行した。いつでも運転を取って代われるよう、両手はステアリング近くに構えておいた。いとも簡単に自動運転で走行でき、あっけない感じがした。

g433_tesla_autopilot_testdrive_04

手放し運転への罪悪感

クルマは車線の中を設定した速度で安定走行し、何も不安は感じなかった。ただ、手放し運転をしていることに対し、どこかで罪悪感を感じていた。今まで守ってきた運転ルールを破ることになり、なにか心が落ち着かない。

そうしていると、ピックアップトラックが左側を追い超していった (上の写真)。隣に並んだ時は、両車の距離が異常に近いように感じた。こちらが左に寄りすぎているようにも感じたが、検証するすべはない。(写真で見ると、ピックアップトラックは、レーンの中で左寄りに走っているように見える。)

Autopilotで急カーブを曲がる

Autopilotの設定速度が時速60マイルであったので、高速道路の制限速度 (時速65マイル) に合わせスピードを上げた。Cruise Control Leverを上に引き上げると、クルマの速度が上がり、時速68マイルに設定した。しばらく走り、次の出口で高速道路を降りることとした。

g433_tesla_autopilot_testdrive_05

ここまでは真っ直ぐな道が続いたが、高速道路の出口近辺は大きく左にカーブしている (上の写真)。写真では分かりにくいが、高速道路としてはきついカーブで、時速68マイル (時速110キロ) で進入した。カーブに合わせステアリングが自動で動き始めたが、本当にクルマに任せていいのか、心中穏やかでなかった。右手はガードレールがあるものの、谷になっている。両手はステアリングの近くに構えていて、運転を交代すべきか自問していた。我慢しながら全てをクルマに託し、カーブを抜けていった。気がつくと心拍数は上がり、興奮しているのが分かった。

自動運転車をビデオで見るのと、自分で操作するのでは、格段の差がある。クルマは自動でステアリングを切るとは分かっているが、もし何かの障害でスペック通り稼働しなかったらと、最悪の事態を考えてしまう。初めての自動運転は文字通り手に汗握る体験となった。同時に、自動運転技術への信頼感が大きくに向上した。一つ山を越し、Autopilotは頼れる技術だと実感した。

g433_tesla_autopilot_testdrive_06

一般道でAutopilotを使う

高速道路を降りて、一般道でもAutopilotを試した。Teslaは一般道でのAutopilotの使用は推奨していないが、Mikeの許可を得て、交差点がない区間で試すこととした。クルマは片側一車線の道路を把握し、自動運転モードで走行した (上の写真)。クルマは搭載しているカメラで、中央ラインと路肩ラインを読み取り、車線を認識した。しばらく自動運転モードで走行し、交差点に差し掛かったところで、ステアリングを握りブレーキを踏んで運転を代わった。Autopilotは交差点では使えないため、マニュアルモードに切り替えて運転した。

g433_tesla_autopilot_testdrive_07

道路に車線のラインがペイントされていない所では、Autopilotは道路を認識できない。インスツルメントパネルでは、道路のアイコンが消え灰色になり、クルマは道路を認識していないことを示す (上の写真)。この先で、Tesla本社を左に見ながら、走行を続ける。本社キャンパスは樫木に囲まれた森の一角にある。この近くにはVMWareやXerox Parc (ゼロックス研究所) などがあり、Teslaはハイテク企業に囲まれている。このような環境で事業を展開しているTeslaは、従来型の自動車メーカーではなく、ハイテク企業と言っても過言ではない。

生活でAutopilotを使うシーン

ドライバーは生活の中でAutopilotをどう使っているのか、Teslaスタッフから興味深い話を聞いた。Mikeは自宅からTeslaショールームに通っているが、高速道路ではAutopilotをオンにしてドライブしている。帰宅時間は夜になるが、もちろん夜間でもAutopilotは使える。別の女性スタッフは、高速道路でAutopilotを利用するが、車間距離はレベル7に設定している。レベル7とは、前のクルマとの車間距離を一番長く取る設定で、リラックスして乗れるとしている。両氏ともハンズフリーで運転するが、両手はステアリングの近くに構えている。また、一般道ではAutopilotは使わないとしている。

市場では、Autopilotを手放しで運転できるのか、また、一般道でも使えるのか、議論が続いている。これに対する回答が上述のTeslaスタッフのコメントになる。つまり、Autopilot使用時は、ハンズフリーで運転できるが、いつでも操作を代われるよう、両手はステアリング近くに構えておく。Autopilotは高速道路だけで利用するのが原則。一般道で利用できる個所もあるが、交差点などでは利用できないなど、制限事項が多い。それ以上に、自転車や歩行者がいるので、市街地では利用は控えるべき、ということになる。

g433_tesla_autopilot_testdrive_08

自動運転機能がないとクルマは売れない

Teslaをテストドライブして、自動運転はクルマの中心機能となると感じた。自動運転機能なしではクルマは売れないとも感じた。Googleのような完全な自動運転車でなくても、高速道路で自動運転できるだけでも、通勤や移動が飛躍的に楽になる。特に朝夕のラッシュ時には、Autopilotで運転できれば、疲れが大幅に減りそうだ。ちゃんと前を見ている必要はあるが、車間距離を保ちながら頻繁にブレーキを踏む苦痛から解放してくれる。Teslaスタッフによると、シリコンバレーからサンフランシスコへの通勤で、Autopilotを使う人が増えたとのこと。サンフランシスコ地区は、交通渋滞がひどい都市のワースト3にランクされており (上の写真、夕方の通勤ラッシュは午後三時ころから始まる)、多くのドライバーがAutopilotに期待している。

手放し運転のクルマが全米を走る!Teslaが自動運転車を投入

Friday, October 23rd, 2015

Teslaの自動運転機能「Autopilot」がリリースされた。多くのドライバーはこの機能をいち早くクルマにダウンロードし、自動運転を試している。ドライバーは、ステアリングから手を離し、ハイウェーを運転する。幅が狭くカーブが多い一般道でも手放しで運転している。手放しのまま交差点に突入するドライバーも出てきた。ハラハラするシーンもあるが、米国は自動運転社会の扉を開けた。

g432_tesla_autopilot_01

Teslaの自動運転技術

Teslaは2015年10月、自動運転機能「Autopilot」のリリースを始めた。Autopilotとは、道路に沿って、前の車と等距離を保ち、自動で走行する機能を指す。道路がカーブしていても、クルマが自動でハンドルを切る。方向指示器を操作すると、その方向にレーンを移動する。Teslaは昨年から、自動運転向けセンサーを搭載したモデルを出荷している (上の写真、Model S)。クルマは、レーダー、カメラ、12基の超音波センサーを装着し、高精度ブレーキシステムを搭載している。最新ソフトウェア「Version 7.0」が、これらセンサーを使い自動運転機能を実現する。このソフトウェアのリリースが10月15日から始まった。

g432_tesla_autopilot_02

Autopilot操作方法

Autopilotはステアリング左側のレバー「Cruise Control Lever」を操作して設定する (上の写真)。従来のクルーズコントロールに自動運転機能が付加された構成で、このレバーで自動運転モードのオン・オフや、走行速度を設定する。レバーの先端を押すとAutopilotがスタンバイモードになる。アクセルを踏み希望の速度になったところで、レバーを手前に二回引くと、この速度でAutopilotがオンとなる。前のクルマとの距離を設定するには、レバー先端を回転させる。設定はレベル1から7まであり、数字が大きくなるにつれ車間距離が長くなる。

g432_tesla_autopilot_03

Autopilotがオンになると、インスツルメントパネルに、自動運転モードであることが表示される (上の写真)。中央上部には走行速度 (毎時65マイル) が表示され、その右側のステアリングアイコンが自動運転モードを示す。このアイコンが写真のように水色であれば、クルマはAutopilotで走行している。そうでない時は灰色で表示される。左側の速度計アイコンは、設定速度 (毎時65マイル) を表示する。中央部には道路とクルマが表示され、今の走行状態を示す。写真のように路肩が水色であれば、クルマは道路を認識し、Autopilotで走行していることを示す。前方に他車が走っていれば、クルマのアイコンが表示される。

Autopilotで走行すると

多くのドライバーは最新ソフトウェアをクルマにダウンロードし、早速、Autopilotを使って自動運転を試している。その様子がYouTubeなどに数多く投稿されている。ビデオを見ると、自動運転の要領が体感できる。一方、多くのドライバーはAutopilotがどこまでインテリジェントなのか、その限界に挑戦していることも読み取れる。見ていて手に汗握るシーンも少なくない。

g432_tesla_autopilot_04

あるドライバーは高速道路を手放しで走行している様子をビデオで撮影している。Teslaは両手でステアリングを握るよう通達しているが、ドライバーの多くは手放しで運転している。このケースでは、クルーズ速度を時速70マイルに設定し、Autopilotをオンにして走行した。前にクルマがいない時は、設定速度時速70マイルで走行する。しかし、前にクルマがいる時は、設定された車間距離を取り走行する。両手をステアリングから離しているが、Autopilotで安全に走行できることが分かる。(上の写真はAutopilotをオンにして高速道路を走行している時のイメージを示す。)

g432_tesla_autopilot_05

一般道でAutopilotを使う

このドライバーは一般道で手放し運転をしている様子も記録している。TeslaはAutopilotは高速道路で使うよう通知しているが、ドライバーは一般道でも使っている。このケースでは走行速度は毎時35マイルに設定し、前のクルマと一定の距離を取って走行している。道路は右にカーブしているが、クルマはそれに沿って滑らかに進行する。インスツルメントパネルは、道路が右にカーブしていることを示している。Teslaは一般道でのAutopilotの使用は控えるよう指示しているが、条件が整えば順調に走行できることも分かる。(上の写真はAutopilotをオンにして一般道を走行している時のイメージを示す。)

しかし、クルマがラウンドアバウトに差し掛かったところで、きわどいシーンがあった。インスツルメントパネルには、ステアリングを操作するよう、警報メッセージが表示された。クルマは自動走行できない個所に差し掛かると、赤文字で「Take Over Immediately!」と表示する。このメッセージは、ラウンドアバウトの直前で出され、間一髪のタイミングでドライバーが回避措置をした。Teslaのマニュアルには、交差点や信号機などではAutopilotは使えないことが明記されているが、ドライバーはクルマの限界を試している。Teslaの意図とは異なり、ドライバーは一般道を手放し運転していることも見えてきた。

一般道路での利用

TeslaはAutopilotをハイウェーだけで使うよう指定しているが、一般道でも、交差点などを除くと、ある程度使えることも見えてきた。このため、ドライバーは、一般道でAutopilotを試行錯誤しながら使って運転している。ただ、メーカーが行う試験走行とは異なり、消費者が一般道でAutopilotで手放い運転するのは、危険と隣り合わせであることも事実。これに対して、Teslaは一般道でのAutopilotの利用を積極的に制限する姿勢でもない。一般道でAutopilotの機能を制限するシステムをクルマに搭載している訳でもない。この緩やかな規制の下、ドライバーの判断でAutopilotが使われている。

そもそも手放し運転はできるのか

Teslaは、Autopilotを使う時はステアリングを握ることを求めているが、ドライバーの多くはハンズフリーで運転している。当初、Elon MuskはAutopilotを使う時は、ステアリングから手を離すことができると発言していたため、ドライバーの意識の中にこれが残っている。また、Autopilotという名称から、自動運転技術を連想することも要因となっている。Teslaは、安全対策を強化するとも伝えられている。Autopilotで運転中に、ドライバーがステアリングから長時間手を離すと、警告メッセージを出す仕組みを導入するとの噂もある。この機能はまだクルマに実装されてなく、Teslaはドライバーの様子を見ながら対応を模索しているものと思われる。

道路交通法との関係は

Autopilotを搭載したTeslaには、自動運転車向けの道路法規が必要なのか、議論されてきた。結論としては、現行の道路交通法でカバーできることとなった。このため、Autopilotモードで運転する際は、現行の道路交通法に従うことになる。ドライバーとしては、Autopilotを運転するために、特別な試験を受けるは必要ない。

では、ドライバーがAutopilotで手放し運転した際は、道路交通法に違反するのかが気になる。カリフォルニア州の場合は、道路交通法によると、クルマを運転中に両手をステアリングから離すことは違法ではない。このため法規上は、カリフォルニア州でTeslaをハンズフリーで運転しても、警察に捕まることは無い。ただ、司法当局の公式な見解は無く、今後の判例を待つことになる。(ニューヨーク州はハンズフリーの運転を禁止している。Autopilotを使っても、両手でステアリングを握ることが求められる。)

米国運輸省も注視している

そもそもAutopilotを搭載した車両は安全なのか、連邦政府が目を光らせている。米国運輸省で車両の安全性を監督する「NHTSA」 (National Highway Traffic Safety Administration) は、Teslaの動向を注視している。もし、Autopilotで車両に起因する問題が発生すれば、Teslaに対して改善を求めることになる。重大な問題であれば、Teslaに対してリコールを命じることになる。また、Autopilotに起因する重大事故が起これば、Teslaのイメージダウンは避けられない。Teslaは大きなリスクを承知でAutopilotのリリースに踏み切った。

なぜリスクを承知でベータ版をリリースするのか

Teslaは公開したAutopilotはベータ版と表明している。最終製品ではなく、その手前の状態であるという認識だ。ソフトウェアのベータ版は理解できるが、人間を運ぶクルマにこれを適用するのは、違和感を覚える。自動車メーカーは安全性を最重視するが、TeslaのカルチャーはIT企業であることの表れかもしれない。Teslaは敢えて、ベータ版ソフトウェアVersion 7.0をリリースしたが、そのわけは車両のBig Data解析にある。

Teslaは、ドライバーが運転するクルマの走行状態を、リアルタイムで収集すると公表している。現行のクルマに加え、Autopilotモードで走行しているクルマも含まれる。収集したデータから、システムは学習を繰り返し機能を向上する。これ以上の説明は無いが、AutopilotはBig Dataの手法でAutopilot運転データを解析し、Machine Learningの手法で学習を繰り返すと思われる。Autopilotを利用しているユーザ数は公開されていないが、Google自動運転車の台数よりけた違いに多い。つまり、Teslaは自動運転技術に関する大量のデータを収集し、それを開発に反映できる。データ量が多いほど、有益な知見を得る。このため、ベータ版で未完の製品であっても、早く市場に投入し大量のデータを収集することが、自動運転技術開発で他社に先行できる武器となる。Teslaが、大きなリスクを覚悟で、Autopilotを市場に投入した意味はここにある。

g432_tesla_autopilot_06

Teslaと並走する際はちょっと気になる

Autopilotを使ってハンズフリーで一般道を走行しているビデオを見て以来、路上でTeslaに出会った際は、ドライバーはステアリングを握っているのか確認している。上の写真のケースでは、右斜め前のTeslaのドライバーは年配の女性で、両手でステアリング握って安全に走行していた。しかし、シリコンバレーには、技術マニアのTeslaドライバーが少なくない。Autopilotの限界に挑戦しているドライバーも出てくる。車線のペイントがはがれるなど、何らかの理由でAutopilotが車線を認識できない時は、自動走行機能がオフになる。これに応じて、ドライバーが的確にクルマを操作すれば問題は無いが、対応が遅れると事故につながる。危険なシーンに遭遇したことは無いが、米国のクルマ社会が、自動運転モードに入っていくのを肌で感じる。

米国ロボット開発はソフトウェアで勝負、高度な人工知能で人間のように学習する

Friday, October 16th, 2015

ロボット開発で日本が世界をリードしているが、米国がその差を縮めようとしている。米国ロボット開発の中心はソフトウェアで、搭載している人工知能がシステムの性能を決定する。米国の得意とする人工知能を強化し、インテリジェントなロボットが登場している。

g430_robotics_baxter_intelligence_01

米国を代表するロボット

米国を代表するロボットといえば、Rethink Robotics社製の「Baxter」 (上の写真) だ。Baxterは産業用ロボットであるが、見かけはヒューマノイドでサービスロボットにも見える。しかし、Baxterは台車に固定され、二本の腕とディスプレイを搭載した構成である。特定の場所で二本の腕を使って作業を繰り返す。腕の先にはグリッパー (Electric Parallel Gripper) を備え、モノを挟んで掴む。グリッパーにはカメラが搭載され、掴む対象物を見ることができる。上の写真はBaxterがテーブルの上に置かれた部品を掴み、係員に手渡している様子。Baxterは製造現場を中心に利用が広がっている。

ディスプレイにはロボットの顔が表示され、色々な表情を見せる。かわいい産業用ロボットとしてデザインされているが、視線の向きは腕を動かす方向を示している。更に、Baxterを調整する際は、このディスプレイに様々なアイコンが表示され、パソコンを使う要領でパラメーターなどを設定する。Baxterは基本ソフト「Intera」を搭載し、ディスプレイが利用者とのインターフェイスとなる。

アメリカ人が考えるロボット

米国のロボットに対するアプローチは日本のそれと大きく異なる。ロボットの価値を決めるのはソフトウェアで、如何にインテリジェントに、かつ、柔軟にロボットを制御できるかを重視する。パソコンと同じように、ハードウェアに対する関心より、基本ソフトウェアやアプリケーション開発に比重を置いている。更に、近年は人工知能の技術進化が目覚ましく、これをロボットに適応する研究が重点的に進められている。Baxterの事例で示すと、ロボットを如何に教育するかが関心事となっている。具体的には、Rethink Robotics社は、Baxterを直観的に教育する方式を提供している。人間がロボットの腕を動かせて作業を教えることができる。文字通り”手取り足取り”指導する。Baxterはこれを直ぐに理解し、教えられた通り作業する。

Baxterに仕事を教える

カンファレンス会場でBaxterの教育法を教えてもらったが、それは驚くほど簡単だった (先頭の写真)。Baxterの手首をつかむと、そこにはセンサーが埋め込まれており、人間が触っていることを認識し教育モードとなる。腕は無重力状態 (”Zero Gravity”と呼ぶ) になり、人間が腕を自由に動かせる。実際にBaxterの手首をつかみ腕を動かせてみたが、力を入れないでも滑らかに動作した。こちらの意図を理解して、Baxterの腕が自律的に動く。手首はプラスチック製で触り心地は優しく、産業用ロボットであるが家庭向けのロボットのように安心して接することができた。

g430_robotics_baxter_intelligence_02

右手で手首を、左手で肘を掴み動作を教える。上の写真は、テーブルに並べられている部品を掴み、かごに移す操作を教えている様子である。人間が、Baxterの手 (End Effector) を部品上部に当て、ボタンを押してそれを掴む。ここでは吸盤 (Vacuum Cup Gripper) が使われている。次に、人間が腕を動かせかごの中に移動し、手首のボタンを押して部品を切り離す (上の写真、かごの中に降ろす前)。Baxterはこの一連の操作手順を学習し、自分で作業ができるようになる。つまり、複雑なプログラミングは不要で、手取り足取り動作を教えることで、誰でもロボットを使うことができる。このためBaxterは、大企業だけでなく、ロボット専任のエンジニアがいない中小企業でも使われている。

g430_robotics_baxter_intelligence_03

次世代ロボットSawyerの登場

Rethink Roboticsは2015年9月、ロボットカンファレンス「RoboBusiness」で次世代ロボット「Sawyer」を公開した (上の写真)。Sawyerは一本の腕で構成されるロボットで、精密な操作ができる。具体的には工作機械の操作 (Machine Tending) やプリント版の試験などに使われる。Sawyer向けにアクチュエーターなどが改良され、高精度な操作ができるようになった。上の写真はSawyerがケースから部品を取り出し、指定された場所に正確に移動するデモの様子である。作業を終えると、Sawyerは取っ手を掴みケースを閉じた。Sawyerは腕が一本しかないが、ハイエンドロボットとして投入された。

g430_robotics_baxter_intelligence_04

Sawyerをどのように利用するか

Sawyerは既にGEの照明機器部門GE Lightingで使われている。SawyerがLED照明機器の組み立て作業を担っている。Sawyerは箱の中からプリント版など部品を掴み、それをLED照明機器の指定された場所にインストールする作業をこなす (上の写真)。様々な形状の部品を製品内のタイトなスペースに正確に移動する。

GEは生産性を上げるツールとしてSawyerを導入した点を強調している。社員をロボットで置き代えるのではなく、社員がSawyerをツールとして利用する。米国企業はロボットを導入し生産性向上を目指しているが、同時に、雇用問題にも細心の注意を払っている。更に、GEは「Industrial Internet」の提唱者でロボットをInternet of Thingsの主要コンポーネントとして位置づけている。Sawyerに代表されるロボットが、スマート工場を構成する重要な役割を担う。

Rethink RoboticsはBaxterやSawyerを「Collaborative Robot」として開発した。Collaborative Robotとは共同作業ロボットで、人間に混じって安全に作業できるよう設計された。製造作業工程の90%は自動化できないと言われており、これをロボットが人間と隣り合わせで作業することを目指している。

g430_robotics_baxter_intelligence_05

大学のロボティックス研究

メーカーだけでなく、大学の研究機関がロボットのソフトウェア開発に力を入れている。特に、人工知能をロボットに適用する研究を重点的に進めている。Carnegie Mellon Universityは、ロボットがモノを掴むアルゴリズムの研究で大きな成果を上げた。そもそも、ロボットが身の回りのモノを掴むことは非常に難しい。コップやスマートフォンを掴むためには、十分な教育と、綺麗に整理された環境が必要となる。一方、人間の赤ちゃんは、身の回りのものを試行錯誤しながら、手で掴むことを自分で学ぶ。ロボットも、人間が掴み方を教えるのではなく、自律的に学習する方式の研究が進んでいる。この研究の成果は「Supersizing Self-supervision: Learning to Grasp from 50K Tries and 700 Robot Hours」という論文でで発表された。

この研究ではBaxterが使われ、人工知能の重要な技法であるDeep Learning (深層学習) を応用した。米国のロボティックス研究ではBaxterが標準プラットフォームになっている。前述の通り、Baxterは腕の先にグリッパーとカメラを備えている。更に、この研究ではBaxterの頭部にMicrosoft Kinectセンサーを搭載し、目の前のオブジェクトを把握するために利用した。Baxterは150種類のモノを5万回掴み、伸べ700時間の学習を積んだ。対象物はテレビのリモコンやプラスティックのおもちゃなどで、人間に教えられることなく、Baxterが自律的に学習した。上の写真はBaxterがモノの掴み方を学習している様子である。テーブルの上にはモノが煩雑に置かれている。この中からBaxterはモノを識別する (写真左下a)。Baxterは玩具のピストルを掴むが、その方法は一つではなく、異なる方向でモノを掴むことを学習した (写真右下b)。この結果、Baxterはモノを見て掴めるかどうかを80%の確率で予測できるようになった。つまり、Baxterはロボットの基本操作であるモノの掴み方を自分で学習することができた。

ロボットと人工知能

米国の研究機関はBaxterを使って、ロボット制御の基礎研究を幅広く展開している。上述の事例の他に、University of Marylandは、Baxterが人間の仕草を見て料理の作り方を学ぶ研究を展開。この研究が上手くいくと、料理を含め家事を担うロボットの開発に目途がつく。製造ラインでは、人間の作業を見て、ロボットが作業方法を自分で学習する。このように、米国のロボット開発は、人工知能を最大限に活用し、人間のように自律的に学習できる仕組みを目指している。今はまだ、ロボットが玩具のピストルを掴める程度だが、技術は幾何級数的に進化している。ロボットが、日本流に表現すると、箸で大豆を掴むのは時間の問題といわれている。数年以内には、ロボットが人間より器用にモノを掴める、との予測もある。米国のロボット開発は人工知能に重点を置き、世界の覇権を窺っている。

Googleは汎用ロボットを開発、人工知能がロボット制御から自動運転まで幅広く学習

Friday, October 9th, 2015

Googleのロボット開発の一端が見えてきた。Googleは汎用ロボットを開発している。ロボットは高度な人工知能を搭載し、数多くの複雑な操作を学習する。一台のロボットが炊事、洗濯、掃除というように、異なるタスクをこなす。Googleが開発している人工知能をロボットに応用して、これを実現した。

g429_robotics_google_01

DeepMindをロボットに適用

Googleが開発している高度な人工知能「DeepMind」は、ビデオゲームを見るだけで、驚異的な速度でプレーの仕方を学習し、世界を驚かせた。今度は、DeepMindをロボットに適用し、汎用的なロボットを開発していることを論文で公開した。ロボットは対象物を見ながら、数多くの複雑な操作を自ら学習する。論文ではその事例として、Boston Dynamicsが開発している犬型のロボット「BigDog」 (上の写真) を挙げている。同社は2013年12月にGoogleに買収されている。BigDogは四本足のロボットで、雪道や山道など、歩きにくい場所で荷物を担ぎ、安定して歩行する。戦場で兵士とともに歩き、物資を運ぶ目的で開発された。BigDogが安定して歩けるのは、センサーからの情報をオンボードコンピューターが解析し、必要なアクションを取るため。つまり、歩行のための複雑なプログラムが必要となる。

g429_robotics_google_02

ロボットが自分でバランスを取る

これに対してGoogleは、高度な人工知能を使い、ロボットが四本足でバランスを取ることを学習するアプローチを取る。カメラなどセンサー情報をDeepMindが読み込み、バランスを取るタスクを学習する。上の写真がそのモデルで、DeepMindを使い、油圧制御の四本足ロボット (Hydraulic Quadruped Robot) がバランスを取るタスクを実行している。写真は動画のワンシーンで、ロボットは足を微妙に動かしながら、上手くバランスを取る。このデモはBigDogに特化した制御方式ではなく、ロボットの形状に依存しない、汎用的モデルである。また、ロボットは人間に教えられるのではなく、試行錯誤を繰り返し、自分でルールを見つけ出す。従来のような複雑なプログラムは不要で、ロボットが自ら学習する。

g429_robotics_google_03

ロボットアームを目的の場所に移動

この他に論文では、ロボットアームを動かせ、目的の場所に移動するデモも示された。上の写真がロボットアームで、中央白丸の部分で固定され、アームの先端部分(青丸)を左上の赤丸に重ねるタスクを実行する。アームは固定部分が回転し、二つのヒンジを持つ。回転角度とヒンジの角度を調整し、目的を達成する。このモデルはロボットアームが物を掴むときの基本操作となる。この事例では動作自由度は3 (3-Degrees of Freedom) で、シンプルなケースとなる。ロボットの多くはこのタスクを実行できるが、論文ではDeepMindを応用すると、ロボットが汎用的に学習できることを示している。BigDog制御やロボットアーム操作を含む26種類のタスクが、同じアルゴリズムで実行できることを証明した点に意義がある。

Googleのロボット開発の強みは人工知能

GoogleはBoston Dynamicsなどロボット企業を立て続けに8社買収しているが、その開発状況については、厳重な情報管理の元、一切公開していない。ロボット開発は高度研究所Google Xで進められている。一方、Googleは持ち株会社Alphabetを発表しており、ロボット開発はGoogle Xを離れ、独立子会社で行われるという噂もある。

Googleのロボット開発では、同社コア技術である人工知能が決定的に重要となる。GoogleはDeepMindを始め、高度な人工知能を開発しているが、これらの技術がロボット開発で鍵を握る。買収されたロボット企業は、Googleが持っている高度な人工知能技術を取り入れ、開発を続行する。その一つの結実が、DeepMindとロボットの融合で、汎用的に自律学習するロボットが誕生した。ロボット開発で鍵を握る技術は人工知能で、ここでもGoogleがリードする勢いだ。

Googleのロボットは何を目指す

Googleのロボット開発に関する情報は殆どないが、最近は、米国のメディアがその一端を報道し始めた。これによると、Googleはインテリジェントなロボットを目指し、家庭におけるサービスロボットやセキュリティーロボットを開発するとしている。これ以上の情報は無いが、家庭で炊事、洗濯、掃除などのタスクを汎用的にこなす構成なのかもしれない。高齢者の介護ができるのか気になる。論文によると、ロボットは専用機ではなく汎用機で、上述の情報と矛盾するものではない。

g429_robotics_google_04

ロボティックス・カンファレンス会場の声

ロボティックス・カンファレンス「RoboBusiness」会場で、ロボットのトレンドなど、幅広い意見を聞くことができた。Googleのロボット開発についてはコメントが少なかったが、それでも肯定的な意見が目立った。Googleの強みは高度な人工知能であり、Googleのロボット開発は自然の流れである。その一方で、Googleのロボット開発は始まったばかりで、いつ製品が出てくるのか疑問の声も聞かれた。

事実、DeepMindの開発は長期プロジェクトで、完成までには数年単位の時間を要すとも言われる。これをロボットに応用し、汎用的なロボットを開発するには、それなりの時間を要する。Googleから直ぐにロボットが出荷される状況では無さそうだ。(上の写真はカンファレンス会場で出会ったスマートプレゼンス・ロボット「Beam」。ロボットが会場を巡回し、離れた場所から展示製品を見て、説明員から話を聞くことができる。今回は会場の人だけでなく、ロボット経由で参加した人からも話を聞けた。)

g429_robotics_google_05

論文の概要

Googleは2015年9月、「Continuous control with deep reinforcement learning」という論文を発表し、人工知能でロボットを制御する新しい方式を開発した。この論文の概要は、次の通りとなる。人工知能をロボットに適用する究極の目的は、入力シグナル (カメラの画像やセンサーからのデータ) を読み込み、複雑なタスク (炊事・洗濯・掃除など) を制御すること。DeepMindは、センサーからのデータ (ビデオゲームのスクリーンイメージ) を「Deep Q Network (DQN)」というアルゴリズムで処理し、人間の技量を大きく上回ることを証明した。DQNとはDeep Learning (深層学習) とReinforcement Learning (強化学習) を組み合わせた構成。DQNは高次元のイメージ (上述のビデオゲーム) は処理できるが、ロボットの制御はできない。(ロボットは3次元空間で連続してアクションを取るので処理量が膨大になる。)

このため、モデルに依存しないで、システムが自ら学習する新しいアルゴリズムを開発。これは「Deterministic Policy Gradient (DPG)」と呼ばれるアルゴリズムに基づく。(DPGとは連続するアクション空間でポリシーを学習するアルゴリズム。動作を繰り返し最適な方法を学ぶ。) DPGにDQNの解析結果を結び付けることで、システムの安定性が増すことを証明。その結果、難易度の高い物理制御モデル (上の写真) にこのアルゴリズムを適用すると、ロボットは安定して学習できることを実証した。

Googleロボット開発の意義と課題

この研究は同じアルゴリズムで異なる操作を学習できた点が評価される。事実、ロボットアームの操作 (上の写真、上段右側三つ) やロボットの歩行 (上の写真、下段中央の二つ) など26種類の動きを同じアルゴリズムで学習した。また、教育には250万ステップを要したが、DQNでビデオゲームを学習するのに比べ、短いステップとしている。ただ、ロボットが特定の操作を学習するために、動作を250万回繰り返すのは現実的でない。論文の成果はシミュレーター (仮想ロボット) を使い計測されたため、これが可能となった。このため、論文は学習ステップ数を減らすことが課題としている。

論文はロボット操作に加え、クルマの走行を制御できることも示している (上の写真、下段右端、レースカーの操作)。単一のソフトウェアで、ロボット操作からクルマの運転までを学習でき、自動運転技術が一挙に進展する可能性を示唆している。研究は始まったばかりであるが、論文からGoogleのロボット開発の方向が読み取れる。

自動車メーカーが高精度マップを開発!自動運転車市場で囲い込みが始まる

Friday, October 2nd, 2015

自動運転技術開発で、高精度マップ企業の買収が相次いでいる。独Audi、BMW、Daimler連合は、Nokiaのマップ部門HEREを買収。米Uberは、Microsoftのマップ部門を買収し、アリゾナ大学と高精度マップの共同研究を開始した。Googleは他社に先行し、独自マップを開発している。クルマは高精度マップ無しでは自動走行できない。欧米の自動車メーカーが、高精度マップ開発に乗り出すことは、自動運転車市場を囲い込むことを意味する。

g428_velodyne_self_driving_01

ドイツ自動車メーカー三社がHEREを買収

自動運転車向け高精度マップでは、Nokiaのマップ部門「HERE」が、Googleを上回る技術を持っている。HEREは200台の専用車両 (上の写真、「TRUE Car」と呼ばれる) の屋根にセンサーを搭載し、三次元の高精度マップを作成する。2015年8月、Audi、BMW、Daimler三社のコンソーシアムはHEREを28臆ユーロで買収した。自動車メーカー三社は、HEREをベースとした自動運転技術を開発している。HEREはコンソーシアム配下で、単独のビジネスユニットとして事業を継続する。新しいHEREは、自動運転車に重点を置いた技術を開発するが、消費者向けのマップサービスも継続する。ドイツ自動車メーカー三社は、自動運転車の核心技術を入手しただけでなく、高精度マップ開発はメーカーの仕事である、というメッセージも発信している。

g428_velodyne_self_driving_02

高精度マップ技術を奪い合う理由

三次元高精度マップとは何か、上の写真がその事例である。これはHEREが制作したもので、マップは三次元のドットで表される。写真のように見えるが、道路やビルや街路樹は全てドットで描かれている。 この表示方式を一般に「Point Cloud」と呼ぶ。このマップは道路形状を表し、詳細情報が埋め込まれている。具体的には、車線、路肩、道路標識などが含まれる。誤差は5センチメートルで、クルマはこれらの情報を頼りに走行する。一方、カーナビとして利用しているGoogle Mapsは、道路は一本の線で示され、車線や路肩や道路標識などは表示されない。現在地はGPSで決定するため、数メートルの誤差がある。シグナルの届かないトンネルやビルの谷間では使えない。

高精度マップは自動運転車を走行させるために必須のデータとなる。クルマが現在地をピンポイントで把握するために、高精度マップを参照する。クルマは走り出す前に、どの車線にいるのかも含め、自分の位置を正確に把握する必要がある。走行時は、搭載している各種センサーを使い、リアルタイムで周囲の状況をモニターする。事前に高精度マップから、信号機や標識の位置を把握しておけば、クルマは走行中に見るべき個所を見落とさない。また、不測の事態 (障害物で車線や路側帯が見えない場合など) に遭遇した際は、マップ情報を活用する。自動運転車は高精度マップ無しでは走行できない。高精度マップは自動運転システムの中核技術で、メーカー各社が開発にしのぎを削る理由がここにある。

g428_velodyne_self_driving_03

高精度マップ制作方法

HEREが世界で最高水準の技術を持っている。2010年から高精度マップの開発を始め、2015年までに、30か国で500万キロをカバーした。HEREは専用車両 (先頭の写真) の屋根に測定機器 (上の写真) を搭載して、車両周囲の高精度マップを制作する。円筒状の装置がその心臓部で「Lidar」と呼ばれる (上の写真、モデルHDL-32E)。Lidarは回転しながらレーザー光を照射して、その反射波を読み、オブジェクトまでの距離を測定する。測定レンジは100メートルで、毎秒70万ポイントのデータを収集する。

Lidar上部 (円盤状の装置) にはGPSとIMU (Inertial Measurement Unit、慣性計測装置) が搭載されている。このユニットで車両の位置、海抜、進行方向などの情報を把握する。また、車両の揺れを補正するためにも使われる。Lidarの下にはビデオカメラが4台搭載され、車両周囲のイメージを撮影する。撮影されたイメージは繋ぎ合わされ、パノラマ画像となる。

データ処理と危険回避サービス

ドライバーはソフトウェアの指示に従って道路を走行し、新しいマップを作成していく。主要幹線道路を中心にカバーする。200台の車両は、一週間で5万キロを走り、100TBのデータを収集し、950万枚の写真を撮影する。収集したデータは世界三か所のデータセンター(米国、メキシコ、インド) に送られ、保存される。これらデータの整合性を検証し、道路情報などをタグ付けし、高精度マップが完了する。

HEREは収集した道路情報をリアルタイムで発信する技術も開発している。車両が路上で危険個所 (道路工事や交通事故など) に出会うと、その情報はデータセンターに送られる。これら危険情報はリアルタイムで、データセンターから後続車両に送信される。 後続車のドライバーは、受信情報を見て、危険個所に備える。HEREは高精度マップのカバー範囲とともに、危険回避サービスなどで、他社をリードしている。

g428_velodyne_self_driving_04

マップ製作のカギを握るレーザーセンサー

高精度マップ作製ではLidarが決定的に重要なセンサーとなる。Lidarは、シリコンバレーに拠点を置くVelodyneが開発している。GoogleやHEREやUberなど、殆どの企業は、Lidarを使って高精度マップを作製している。Lidarが業界の標準センサーといっても過言ではない。ロボティックスのカンファレンス「RoboBusiness」で、同社エンジニアのDavid Oroshnikに、デモを見せてもらいながら、Lidarについて説明を受けた。上の写真はLidar最新モデル「VLP-16」(中央部の円筒状デバイス)と、測定結果をディスプレイに表示している様子 (画面下部) である。Lidarがなぜこれほど人気があるのか、その一端が見えてきた。

Lidarはレーザー光をパルス状に発射し、その反射波から周囲のオブジェクトをPoint Cloudで表示する。上の写真のディスプレイで、明るい色は反射波の強度が強いことを示す。白色塗料などは反射強度が強いため、明るく映り、センターラインなどを確認できる。

Lidarはレーザー光という発光素子を持っているため、背景の光に左右されないで計測できることが最大の特長だ。昼間だけでなく夜間でも使え、また、晴れていても曇っていても安定して測定できる。一方、弱点は解像度となる。Lidarの測定結果は、荒いドットの集合体で、オブジェクトの形状が分かりにくい。また、Lidarは激しい雨、雪、霧の中では測定できないという制限もある。更に、Lidarは色を認識できないので、信号機や道路標識への対応が難しい。

g428_velodyne_self_driving_05

カメラと併用する

では解像度が向上し、価格が安くなっているカメラで代用できるかといえば、答えはノーである。カメラは太陽光など外部の光源を使うので、夜間に使えないという大きな制約がある。ヘッドライトを点灯しただけでは、不十分である。一方、カメラは色彩を把握でき、信号機やテールライトの色を認識し、道路標識を読める。カメラの解像度はLidarより大幅に高いという利点もある。Oroshnikの説明によると、自動運転車向けに高精度マップを開発するには、Lidarとカメラを併用するのがベストな構成となる。事実、HEREは上述の通り、Lidarとカメラを併用している。Google自動運転車も、屋根にLidar (HDL-64E、ハイエンドモデル) を搭載し、フロントグラスにカメラを装着している (上の写真)。レーザーかカメラを単独で使用することは技術的に無理で、両者を併用し弱点を補完するというのが現実的な解となる。

UberもHERE買収を狙った

破竹の勢いでライドシェア事業を拡大しているUberも、HEREの買収を目論んでいた。UberはライドシェアサービスでHEREマップを利用してきた。更に、自動運転技術の高精度マップとして、HEREを利用する狙いがあったとされる。Uberの狙い通りには進まず、HEREはドイツ自動車コンソーシアムの手に渡った。Uberは、これに先立ち、2015年6月、MicrosoftからBingのマップ部門を買収することで合意した。Microsoftから100名のエンジニアがUberに移籍する。

g428_velodyne_self_driving_06

Uberは大学と共同でマップ技術開発

Uberは、自動運転技術の開発を積極的に進め、無人タクシーを運用することを目指している。2015年8月には、University of Arizonaと自動運転車を共同研究することに合意した。自動運転車向けに、高精度マップ技術と安全性がテーマとなる。高精度マップ製作では、光学機器のレンズ設計に関する研究をする。Uberは既に大学キャンパス内(上の写真)で、専用車両を使ってマップ作製を開始した。車両の写真は公開されていないが、Lidarとカメラを搭載し、キャンパス内の公道を走っているとされる。自動運転技術が完成すると、Uberはキャンパス内で無人タクシーの商用運行ができる。

Uberはこれに先立ち、2015年2月、Carnegie Mellon University (CMU) と戦略的提携に合意し、研究センター「Uber Advanced Technologies Center」をピッツバーグに開設した。この提携で両者は自動運転技術を共同開発する。具体的には、マップ製作、安全性、自動技術の分野で、共同研究を進める。Uberは独自の自動運転車の開発に着手し、大学との共同研究を通じ、開発を急いでいる。実際には、UberはCMUより30名の研究者を引き抜き、社会問題になっていることも事実である。Uberは豊富な資金を元手に自動運転技術を開発しており、Googleより一足先に、無人タクシーの商用運転を始めるのではと噂されている。

日本メーカーにとってチャンス到来か

欧州ではAudi、BMW、Daimler連合が高精度マップ開発を始めた。米国では、Googleに次いで、Uberが高精度マップの開発を急いでいる。Appleも水面下で動いていると噂される。自動運転車が高度に進化すると、高精度マップ無しで自律的に走行できるとされる。しかし今の技術ではまだ無理で、自動運転車を運用するためには、高精度マップが不可欠である。更に、高精度マップ開発では一様に、Lidarが使われる。

欧米で高精度マップ開発の陣容が整いつつある。この事実は、自動運転車に必要なコンポーネントが一部の企業に握られる、ということを意味している。自動運転車市場の囲い込みが始まったとも解釈できる。高精度マップを持たないメーカーは、自動運転車の開発では、これら企業から技術供与を受けなくてはならない。日本メーカーが海外で自動運転車事業を展開する際も例外ではない。一方で、日本の優秀なセンサー技術を使うと、世界でトップレベルの高精度マップが開発できるとの期待も膨らむ。センサー技術をシステムに統合する技能が必要となるが、日本メーカーにとっては、活躍できる大きなチャンスかもしれない。