Archive for the ‘人工知能’ Category

Googleは駐車場の込み具合をAIで予測する技術を開発、センサーは不要でアルゴリズムが正確に推定

Friday, February 3rd, 2017

駐車場管理はInternet of Thingsの得意分野で、設置したセンサーがクルマの有無を捉え混雑状況を把握する。Googleのアプローチはソフトウェアで、クルマの流れをMachine Learningで解析し混雑状況を正確に推定する。駐車場にセンサーを設置することなく、アルゴリズムのパワーで施設を管理する。

出典: VentureClef

駐車場の混雑情報を表示

駐車場の混雑状態を表示するサービスが今月から始まった。Google Mapsで目的地までの道順を検索すると、駐車場の込み具合も表示される (上の写真、最下段の分部)。例えば、Mountain View市街に向かうとき、駐車場の込み具合は「Medium」となっている (上の写真左側)。これは「駐車場を探すのは難しくない」という意味で、時間通りに出発できる。込み具合に応じて出発時間を調整することができる。

駐車場が無ければ電車で移動

一方、サンフランシスコのカンファレンス会場への道順を検索すると、駐車場は「Limited」と表示される (上の写真右側)。これは「駐車場は限られている」という意味で、駐車場を探すために時間がかかると注意を促している。駐車が難しいのであれば電車で行くという選択肢も浮上する。事実、Googleによるとこのサービスを始めると、電車で移動するルートの検索件数が急増したとしている。

混雑状況を把握する仕組み

Googleは新サービスの仕組みを「Using Machine Learning to predict parking difficulty」として公表した。これによると、駐車場空きスペースを把握するために、クラウドソーシングとMachine Learningという技法を使っている。クラウドソーシングとはユーザデータを集約して利用することを示す。このケースではGoogle Mapsユーザの位置情報を集約して利用する。Google Mapsユーザに「駐車場を探すまでどのくらいかかりましたか?」という質問を送り、その回答を集約し、駐車場を探す難易度を算定した。Googleはこの手法で信頼度の高いGround Truth (基準データ) を収集した。

店舗やレストランの混雑状況

Googleは早くから利用を許諾したユーザの位置データを使ったサービスを展開している。その代表がGoogle Mapsで表示されるLive Traffic (渋滞情報) でクルマの流れをリアルタイムで表示する。また店舗やレストランのPopular Time (混雑情報) やVisit Duration (滞在時間) を提供している。便利なツールで生活の一部として利用されている。

クラウドソーシングの限界

しかしこの手法だけでは駐車場の込み具合を正確に推定することはできない。クルマを駐車する場合はパターンの数が多く、これらの要因も考慮する必要がある。例えば、クルマが私有地に駐車すると、アルゴリズムは空きスペースがあると誤認する。また、利用者がタクシーやバスで移動したケースも、アルゴリズムは駐車スペースがあると誤認する。駐車スペースを判定するためにはクラウドソーシングの手法では限界がある。

出典: VentureClef

クルマの移動パターンと駐車場の有無

このためクルマがどんなパターンで移動すると駐車場が無いことを示すのか、その特徴量を見つけることがカギとなる。昼食時間にクルマが街中を周回する動きをすると (下の写真)、これは駐車場が無いためと判断する。一方、利用者が目的地に到着し、そのまま施設に入った場合は駐車場があったと判断する。このような特徴量を把握してアルゴリズムに反映した。

出典: Google

20のモデルを生成

この他に目的地に特有な条件や駐車場の位置に依存した要因も考慮する必要がある。また、駐車する時間や、駐車する日に依存する条件なども取り入れる。更に、過去の統計情報も利用された。最終的には20のモデルが作られ、これを使ってアルゴリズムが教育された。

Logistic Regressionという手法

前述の通り、このモデルの解析ではMachine Learningが使われた。Machine Learningには様々な手法があるが、その中でもLogistic Regressionという技法が使われた。Logistic Regressionとは統計学の代表的な技法で、変数の間の関係を推定する。アルゴリズムを教育することで、ある変数を入力すると、その結果を推定することができる。つまり、Logistic Regressionはある事象に関する結果を予想する。ここではドライバーの運転データを入力すると、駐車場を探すのが容易であったか、困難であったかを推定する。アルゴリズムは容易か困難かの二つの値を出力し、これはBinary Logistic Modelと呼ばれる。

Deep LearningではなくMachine Learningを採用

Deep Learningで世界をリードするGoogleであるが、敢てMachine Learningの技法を使ったことは興味深い。具体的には、Neural Network (人間の脳を模したネットワーク) ではなくLogistic Regression (統計手法) が使われた。Googleはこの理由として、「Logistic Regressionは技術が確立しており、挙動を理解しやすいためと」述べている。このことは、Neural Networkは中身がブラックボックスでその挙動が分かりにくいということを示す。

今年のAI技法のトレンド

Googleや他の企業でMachine Learningを見直す動きが広がっている。Neural Network全盛時代であるが、長年にわたり培われた技法を改良しうまく利用しようとする試みである。同時に、Neural Networkのブラックボックスを開き、仕組みを解明しようという研究も始まった。AIの観点からは、Machine Learningの改良とNeural Networkの解明が今年の大きなテーマになっている。

サンフランシスコ市街の駐車場

この技法でサンフランシスコ市街の駐車場の混雑を予測すると下の写真の通りとなる。市街地を区画ごとに分け駐車場の込み具合を表示している。色の濃い部分が混雑が激しいことを示す。上段は月曜日で下段は土曜日。左側は午前8時で右側は午後9時の標準的な込み具合を表示している。月曜日の朝はFinancial Districtを中心としたビジネス街の駐車場が混むが、土曜日の夜はUnion Squareを中心とした観光スポットの駐車場が込むことが分かる。

出典: Google

サンフランシスコ市の取り組み

駐車場管理や混雑情報の発信は行政の責任でもある。事実、サンフランシスコ市は駐車場にIoTを導入し、混雑度を把握する実証実験「SF Park」を進めている。サンフランシスコ市街地では路上駐車スポットにParking Meterが設置され、コインやカードやアプリで駐車料金を支払う (下の写真)。同時に、Parking Meterがセンサーとなり、クルマの有無を検知する。Parking MeterはIoT専用ネットワークSigfoxで結ばれ、駐車スポットの込み具合を集約する。このIoTシステムが完成すると、駐車場混雑情報がリアルタイムで分かることになる。

出典: San Francisco Municipal Transportation Agency

センサー対アルゴリズム

果たしてサンフランシスコ市によるIoT駐車場管理システムは正しく混雑状態を把握できるのか関心が高まっている。Parking Meterで駐車を正しくセンシングできるかという問題である。Parking Meterのある駐車スポットに違法で駐車したり、また、特別許可証を持ったクルマが駐車した場合は空きと判断される恐れがある。また、駐車時間が残っているのにクルマを出す人もあり、このケースでは駐車中と判断される可能性が高い。

スマートシティー開発のモデルケース

リアルタイムで正確な駐車場空き情報を把握するのは難しい作業となる。これに対し、Googleはセンサーは使わないでアルゴリズムが混雑状況を把握する。センサーとアルゴリズムの戦いが始まり、どちらに軍配が上がるのか地元住民だけでなく全米で関心が高まっている。GoogleやSF Parkの取り組みが米国で展開されているスマートシティー開発のモデルケースとして注目されている。

トランプ大統領は米国に製造業を呼び戻すが自動化で雇用は増えない、強い国づくりにはロボット産業再生が必須

Friday, January 27th, 2017

トランプ大統領は米国に製造業を呼び戻すことを最重点課題として掲げている。自動車メーカーに工場を米国に移転するよう強く求めている。しかし、最新工場はロボットなどで自動化が進み、従業員の数は多くない。新工場が稼働しても生み出される雇用者数は限られる。

出典: UNCTAD

本国回帰Reshoringの流れが始まる

これと並行して、工場が高度に自動化されることで、労働賃金の安い国で製造するメリットが薄らいでいる。発展途上国での生産施設を本国に戻す動きが起こっている。この流れはOff-Shoringに対し「Reshoring」と呼ばれている。トランプ大統領に要請されなくても、米国で製造するメリットが大きい時代になってきた。この潮流はトランプ政権の産業政策に大きな影響を与えることになる。

発展途上国で職が失われる

国際連合 (United Nations) の主要組織であるUNCTAD (United Nations Conference on Trade and Development) は2016年11月、Reshoringの流れを分析したレポートを発表。UNCTADは発展途上国への投資や経済支援などを目的に設立された組織で、先進国でロボットが普及すると発展途上国労働者の職が奪われると予想する。労働賃金が低いことで成立していた発展途上国の製造工場が、ロボットの普及で脅かされていると警告している。

自動車とエレクトロニクス

ロボットなどの自動化技術の進化で最も影響を受けるのは発展途上国で、今後2/3の職が失われると指摘する。まだ経済へのインパクトは小さいが、これから多くの企業が製造施設を本国に戻す流れが本格化すると予測している。産業用ロボットは主に自動車とエレクトロニクス産業で使われており、これらの製造工場が集中するメキシコとアジア諸国への影響が大きいと分析している。

中国に産業用ロボットが集中

レポートは世界の産業用ロボットの稼働状況についても分析している (先頭のグラフ)。中国は2013年から産業用ロボットを大規模に導入している。年間の購入金額は30億ドルを超え、2016年末には設置台数で日本を抜くと予想している。今までは日本が産業用ロボットの設置台数で世界をリードしてきたが、これからはロボットは中国に集中することになる。

出典: Tesla

製造業はアメリカ回帰の傾向

Reshoring先は製品最終仕向け地や製造施設を運用する環境などが判断材料になる。自動車では巨大市場を擁すアメリカに製造施設を移転する可能性が高くなる。ロボットで自動化が進むと、米国内での製造コストがメキシコ工場でのコストと大きな違いがなくなる。Teslaはシリコンバレー郊外でクルマを製造するが (上の写真)、工場は高度に自動化されコスト競争力があることを示している。トランプ大統領の強い要請でFordはメキシコ工場建設計画を撤回し、ミシガン州で製造規模を拡大する。この決断の背景には輸入税 (Border Tax) だけでなく工場の自動化技術があるのかもしれない。

工場は戻るが雇用は限定的

しかし、工場が米国に戻って来てもロボットによる自動化で従業員数は大きくは増えない。産業がアメリカに回帰するものの、雇用を生み出すという面ではその効果は限定的である。更に、AIやロボットにより米国産業全体で職が失われることになる。トランプ政権ではAIによる大失業時代を迎えることとなり、その対策で重い荷を背負うこととなる。

ロボット産業育成が重要

製造業を支える重要な基盤技術はロボットであるが、これら産業用ロボットは欧州と日本で開発されている。強いアメリカを取り戻すためには、ロボット技術を持つことが要件となる。トランプ大統領はロボット政策について見解を発表していないが、New York Timesとのインタビューでこれに触れている (下の写真)。New York Timesが「工場で職を奪うのはロボットでは?」との問いかけに対し、「その通りで、(米国で)ロボット開発を進める必要がある」と答えている。また、米国に産業用ロボット企業が無いことも認識しており、ロボット産業育成が重要であるとの見解を示した。

出典: New York Times

市場でもロボット産業育成の声

米国産業界でロボット開発を進める必要性について議論が高まっている。ロボットニュースサイトRobot Reportによると、ロボットの2/3が米国外で生産されている。更に、産業用ロボットについては全て海外製である。産業用ロボットは米国で生まれたが、今では米国は全てを輸入に頼っている。シリコンバレーに拠点を置くAdept Technologies社が米国における最後の産業用ロボット企業といわれてきた。しかし同社はオムロンに買収され、米国から産業用ロボット企業がなくなった。

トランプ大統領への提言

米国の産業用ロボットが衰退した理由は政府からの補助金が少ないためという意見が多い。米国の実業家で投資家であるMark Cubanは、トランプ大統領に対してロボット開発を推進するよう提言した。トランプ大統領は1兆ドル (100兆円) をインフラ整備に投資するとしているが、Cubanはその中で1000億ドル (10兆円) をロボット開発に投資すべきとしている。米国で生まれたロボットを復活させる必要があると主張する。政府はEVや再生可能エネルギー産業の育成で成功したように、今度はロボット産業に注力すべきとの見解を示している。

高度なAI技法をロボットに適用

ロボット開発ではGoogleが最新のAIを活用し研究開発を加速している。Googleのアプローチはコモディティ・ハードウェアに最新のAI技法を取り込み高度なロボットを開発するというもの。この背後では「Reinforcement Learning」といわれるAI技法が使われている。この技術は囲碁ソフトAlphaGoで使われ、人間のチャンピオンを破り世界の注目を集めた。今度はこれをロボットに応用する。

ロボットがお互いに教え合う

ロボットは学習したノウハウを他のロボットと共有する。数多くのロボットがReinforcement Learningの手法で学習するが、習得した知識はクラウド「Cloud Robotics」に集約される。ここで知識をポリシーに昇華し他のロボットと共有する。つまり、数多くのロボットが並列で学習することで、技能の習得が格段に早くなる。この手法は「Transfer Learning」と呼ばれ注目されている。(下の写真は4台のロボットがドアの開け方を学習している様子。それぞれのロボットが学んだことを4台で共有する。)

出典: Google

ロボットが人間のように学ぶ

人間や動物は試行錯誤で新しいスキルを学習するが、このモデルをロボットに応用したのが上述のReinforcement Learningである。ロボットは失敗を繰り返しながら、目的を完遂できるよう自ら学習していく。人間や動物はこれに加え、物に触るとそれがどう動くかを理解している。人間は内部にメンタルモデルを構築し、アクションを起こすとそれに応じて環境がどう変わるかを予想できるとされる。

ロボットがタッチ感覚を習得

Googleはこれと同じモデルを構築し、ロボットに物の扱い方を教える。テーブルに様々な文房具を置き、ロボットが特定のオブジェクトに触るとそれがどう動くかをこのモデルは予測する。このモデルで教育すると、ロボットは人間のように意図を持った操作ができるようになる。つまり、ロボットにオブジェクトと場所を指示すると、ロボットはそれを指定された場所に移動する。このモデルは「Deep Predictive Model」と呼ばれ、ロボットは人間のようにタッチ感覚を習得する。

Googleロボット開発の行方

先進技術を生み出すGoogleロボット開発であるが、この事業は中止されるとのうわさが絶えない。GoogleはBoston Dynamicsを5億ドルで買収したが、2016年にはこれをToyotaまたはAmazonに売却すると報道された。これに先立ち、プロジェクト責任者Andy RubinはGoogleを離れた。Alphabet配下の開発プロジェクトが相次いで中止される中、Googleのロボット開発がどこまで進むのか注視されている。

Boston Dynamicsの四つ足ロボット

先行きが見えない中でもBoston Dynamicsはロボット開発を積極的に進め、新技術を相次いで公開している。同社が開発するロボットは動物のように四本足で走行するのが特徴で、足場が悪くても歩けるため軍事への展開を目指していた。最近ではロボットを小型化し、家の中で移動し家事をこなす機能を実装している。下の写真は「SpotMini」というモデルで手 (頭に見える部分) で物を掴み操作できる。主人にビールを運び、シンクから食器を持ち上げウォッシャーに入れることができる。高度なインテリジェンスを持つが、外見は小型恐竜のようにも見え、家で使うにはデザイン面で工夫が必要かもしれない。

出典: Boston Dynamics

米国ロボット産業が再び花開く

Googleロボット事業の先行きが不透明なものの、ロボット開発はAIと密接に関係し、Googleの強みを生かせる分野である。GoogleはDeepMindと連携してロボット開発を進めており、世界最先端のAI技法を取り込むことができる。自動運転車と並んでロボット開発は将来の事業を支える柱に成長する可能性を秘めている。また、トランプ政権がロボット開発を国策として後押しする可能性もあり、開発が一気に加速するかもしれない。米国ロボット産業が再び花開く兆しを感じる。

音声操作できない製品はもう売れない!家電、ロボット、クルマが相次いでAmazon AIボイスクラウドを採用

Friday, January 20th, 2017

AmazonのAIスピーカーEchoが爆発的に売れている。その理由はAIの適用で会話機能が格段に進化したためだ。自然な会話でEchoを快適に使うことができる。Amazonはこの会話機能をAIボイスクラウドとして一般に公開した。メーカーは相次いでAIボイスクラウドの採用を決めた。Amazonはサーバクラウドの次はAIボイスクラウドで市場を席捲しようとしている。

出典: Amazon

Amazon Echoとは

Amazonは2014年にAIスピーカー「Echo」を発売し、累計で510万台が出荷され、大ヒット商品となった。今では「Echo Tap」(携帯版Echo) と「Echo Dot」(小型版Echo、上の写真) が製品ラインに加わった。製品の背後ではAIボイス機能「Alexa」が稼働し会話を司る。デバイスに話しかけて音楽を再生しニュースを聞く。また、スマートホームのハブとして機能し、家電を言葉で操作できる。

コンセプトは宇宙大作戦

Amazon Alexaの開発は2012年に始まり、クラウド機能をすべて音声で操作するシステムを目指した。このアイディアはテレビ番組「Star Trek」(宇宙大作戦) にあり、宇宙船内の複雑な機器を言葉で操作できるシーンからヒントを得た。Alexaはデバイスに触ることなく言葉だけで情報にアクセスし、家電を操作できる構造となっている。言葉は人間の本質的なコミュニケーション手段で、Amazon開発チームはこれをAlexaに応用した。

Amazon Alexaはプラットフォーム

Amazon AlexaはEchoだけでなく一般に公開され、多くの企業にボイスサービスを提供している (下の写真)。つまり、Alexaはプラットフォームとして位置づけられ、ここにエコシステムが形成されている。パートナー企業はこの機能を使い音声で操作するボイスアプリを開発する (下の写真、Alexa Skills Kitの分部)。また、家電や自動車メーカーはそれぞれの製品にボイス機能を組み込むことができる (下の写真、Alexa Voice Serviceの分部)。更に、スマートホーム企業は音声で操作できる機器を開発する (下の写真、Amazon Smart Homeの分部)。

出典: Amazon

ボイスアプリの数が急増

ボイスアプリはAmazonだけでなくパートナー企業により開発されている。ボイスアプリはAmazon Echoで稼働し、出荷当初は10本程度であったが、今では5000本を超えた。人気のボイスアプリは「Amazing Word Master Game」で、Echoとゲームで対戦する。これはしりとりをするゲームで、単語の長さが得点となる。Echoを相手にゲームをする形式で、英語の勉強にもなる。一人で時間を持て余している時にEchoが遊び相手になってくれる。

Alexaでレンタカーを予約

ビジネスと連携したボイスアプリが増えてきた。旅行サイト「Expedia」はAlexaを使って言葉で予約できるサービスを開始した。航空機を予約している人は言葉でフライト内容を確認できる。「Alexa, ask Expedia to get my trip details」と指示すると、Echoは予約状況を読み上げる。「Alexa, ask Expedia to book a car」と指示すればレンタカーを予約できる。ただし、フライトとホテルの予約にはまだ対応していない。

LenovoはAmazon Echo対抗製品を発表

LenovoはAIスピーカー「Smart Assistant」 (下の写真) を発表した。Echoとよく似た形状で、ボイス機能としてAmazon Voice Serviceを使っている。形状だけでなく機能的にもEchoと類似の製品仕立てになっている。Smart AssistantがEchoと異なる点はプレミアムスピーカー「Harman Kardon」を搭載している点。価格は179.99ドルで2017年5月から出荷が始まる。この事例が示すように、Amazonは競合デバイスの開発を歓迎しており、事業の目的はAIボイスクラウドの拡大にある。

出典: Lenovo

Fordはクルマに会話機能を組み込む

Fordは自動車メーカーとして初めてAlexa Voice Serviceの採用を決めた。利用者は家庭のAmazon Echoからクルマを操作できる。「Alexa, ask MyFord Mobile to start my car」と指示するとエンジンがかかる。運転中はナビゲーションパネルから音声でAlexaを利用できる (下の写真)。目的地の検索やガレージドアの開閉などを言葉で指示できる。これはFord「SYNC 3」技術を使ったもので、ドライバーのスマホアプリからクルマにアクセスする構成となる。前者の機能は2017年1月から、後者の機能は夏から利用できる。クルマが自動運転車に向かう中、ドライバーとクルマのインターフェイスはボイスとなる。

出典: Ford

HuaweiはスマホにAlexaを組み込む

Huaweiは最新のスマートフォン「Mate 9」 (下の写真) にAlexaをプレインストールして出荷することを明らかにした。Mate 9はボイスアプリを搭載し、この背後でAlexa Voice Serviceが使われている。利用者は音声で備忘録を作成し、天気予報や渋滞情報を尋ねることができる。また、スマートホームのハブとして家電を操作することもできる。ボイスアプリは2017年初頭から提供される。GoogleはAndroid向けにAI会話機能「Assistant」を提供しており、Alexaと正面から競合することになる。

出典: Huawei

UBTechはロボットのインターフェイスにAlexaを採用

UBTechはShenzhen (中国・深セン) に拠点を置くロボット開発会社で「Lynx」 (下の写真) を発表した。LynxはAlexa Voice Serviceを組み込み、言葉でロボットを操作することができる。音楽再生やメールの読み上げなどを言葉で指示できる。Alexaが提供する機能の他に、Lynxは搭載しているカメラで利用者を識別し、個人に沿った対応ができる。また、カメラをセキュリティモニターとして使えば、Lynxが留守宅を監視する。価格は800ドルから1000ドルで2017年後半に発売される。ロボット開発では会話機能がネックとなるが、Alexa Voice Serviceを使うことで、開発工程が短くなる。手軽にロボットを開発でき、市場への参入障壁が大きく下がる。LynxはAlexaがロボットの標準インターフェイスとして普及する可能性を示唆している。

出典: UBTech

テレビを音声で操作する

DISHは衛星テレビ会社でテレビ放送やインターネットサービスを提供する。DISHはセットトップボックス「Hopper DVR」をAmazon Echo又はDotとリンクし、テレビを言葉で操作できる機能を提供する (下の写真)。Echoに対し「Alexa, Go to ESPN」と指示すると、テレビはスポーツ番組「ESPN」にチャンネルを変える。番組を検索するときは「Alexa, what channel is the Red Sox game on?」と尋ねる。EchoはRed Soxの試合中継があるチャンネルを回答する。このサービス2017年前半から提供される。これからのテレビはリモコンだけでなく、音声操作が必須のインターフェイスとなる。GoogleはAI会話機能「Assistant」でテレビを音声で操作する機能を提供している。テレビ操作のインターフェイスでもAmazon AlexaとGoogle Assistantが覇権を争うことになる。

出典: DISH

LGは冷蔵庫にAlexaを搭載

LGはスマート冷蔵庫「Smart InstaView Door-in-Door」 (下の写真) でAlexa Voice Serviceを利用することを発表した。冷蔵庫は29インチのタッチパネルを搭載し (下の写真、右上のパネル) Microsoft Cortanaを音声インターフェイスとして利用してきた。今般、LGはこれをAlexa Voice Serviceに変更する。Alexaが組み込まれることで、音声でレシピを検索し、ショッピングリストを作成できる。また、Amazonでの買い物が音声でできる。冷蔵庫はスマートホームのハブとしても機能する。LGスマート冷蔵庫は音声で操作できない家電は売れなくなることを示唆している。

出典: LG Electronics

AIを駆使した高度な会話機能

メーカーが相次いでAlexaを採用する理由はAIを駆使した高度な会話機能にある。Alexaを搭載したデバイスは「Alexa」という枕言葉を検出すると、それに続く音声ストリームをクラウドに送信する。一連の会話処理はクラウドで実行される。具体的には音声認識 (Speech Recognition)、自然言語解析 (Natural Language Processing)、音声生成 (Text-to-Speech Synthesis) の処理が実行され、これらのプロセスでAIが使われている。単一のAIではなく、各モジュールに高度なAIが実装されボイスサービスを支えている。

Alexa人気の秘密は教育データ

Amazon Alexaが高度な会話機能を提供できる理由はAIアルゴリズムを最適化する教育データにある。教育データとは喋った言葉 (サウンド) とそれを書き下した文字 (テキスト) の組み合わせを指す。ボイス教育データとしてはコールセンターのオペレータの会話が使われる。しかし、家庭環境での会話 (「ガレージのドアを閉めて」など) をベースにした教育データは存在しない。Amazonは2014年に製品を出荷し、利用者からのフィードバック (下の写真) などを使い、教育データを整備してきた。この蓄積が高度な会話機能を支え、他社の追随を許さない理由になっている。

出典: VentureClef

日本企業のオプションは

家電メーカー、自動車メーカー、ロボット開発企業はAlexa Voice Serviceを利用することで製品に会話機能を組み込むことができる。自社でAIボイス機能を独自に開発する手間が省ける。Amazon AWSを利用するように、これからはAlexa Voice Serviceが標準ボイスクラウドとなる勢いをみせている。AIの基礎技術であるボイスサービスをAmazonに頼るのか、それとも独自で開発する道を進むのか、日本産業は岐路に差し掛かっている。

ピカソが東京駅を描いたら、AIが画家のスタイルを手本に油絵を制作する

Friday, January 13th, 2017

AIが著名画家のスタイルを学び、写真を油絵に変換するアプリが登場した。撮影した写真を入力するとAIがそれを芸術作品に仕上げる。誰でも手軽に絵を描くことができ、アプリの人気が急上昇している。同時に、AIが芸術の価値を下げアーティストの仕事を奪うと懸念の声も聞かれる。

出典: Hugh Welchman

全て油絵で描かれた映画

全て油絵で描かれた映画が公開されようとしている。これは「Loving Vincent」という映画で、ゴッホ (Vincent van Gogh) の生と死を描いている。映画の全シーンは油絵で描かれ、しかも、ゴッホの画風となっている。ゴッホの一生が自身の油絵で表現されている。この映画で使われた油絵の数は65,000枚で、115人の画家が制作に携わってきた。映画は六年に及ぶ制作を終え、今年初頭に封切られる。

動画のフレームをゴッホ流に描写

映画製作では俳優の演技をカメラで撮影し、それぞれのシーンを画家が油絵で描く。画家はゴッホのスタイルを学習し、動画のフレームをゴッホ流に描写していく。ポーランドの男優Robert Gulaczyk (上の写真右側)がゴッホを演じ、油絵として表現される (同中央)。男優はゴッホが描いた自画像「Self Portrait」 (同左側) のタッチで描写される。世界初の油絵映画として封切り前から話題となっている。

AIが画家のスタイルを習得

映画公開を前にGoogleから興味深い論文の発表が相次いだ。GoogleはAIが画家のスタイルを習得し、そのタッチで絵を描く技術を開発した。上述の映画のように、AIが写真を見てそれをゴッホのスタイルに変換する。一般に、芸術家の技法を手本に作成された作品はPasticheと呼ばれる。Loving VincentはPasticheで構成された映画として注目されている。

写真を著名画家の作風で再構成

Googleは絵画に関するPasticheをDeep Neural Networkで実装し、その成果を「A Neural Algorithm of Artistic Style」という論文で発表した。この技法は入力された写真を著名画家の作風で再構成する。

出典: Leon A. Gatys, Alexander S. Ecker, Matthias Bethge

ネットワークに写真 (上の写真左上) を入力すると、写真は三つのスタイルで作画される。左下はゴッホのスタイルに変換したもので、ここでは「The Starry Night (星月夜)」 (左下の小枠) を手本としている。右上はイギリスの画家ターナーによる「The Shipwreck of the Minotaur (マイノーターの難破)」を手本とし、右下はムンクの代表作「The Scream (叫び)」を手本としている。

ネットワークの構造

ネットワークはConvolutional Neural Network (CNN、イメージを認識する機能) を使っている。単一ネットワークが二つの機能を持ち、入力された写真を変換し、同時に、画家のスタイルを習得する。前者のプロセス (下の写真下段、Content Reconstructions) で、入力された写真の細部は切り落とされ、大まかな全体像が生成される。後者のプロセス (下の写真上段、Style Representations) で、画家の作品をネットワークに入力してスタイルを教育する。ネットワークの格段で特徴量を抽出し、絵画のタッチなど画家のスタイルを把握する。最後に写真と絵画を重ね合わせて最終イメージを生成する。

出典: Leon A. Gatys, Alexander S. Ecker, Matthias Bethge

32の異なるスタイルのPasticheを生成

更に、Googleは上述の技法を強化した論文「A Learned Representation for Artistic Style」を発表した。単一ネットワークが32の異なるスタイルのPasticheを生成できる技術を開発した。下の写真がその事例で、写真 (左端) を入力すると、写真は五つの異なるスタイル (最上段) で変換される。前述の技法は一つのスタイルに限定されていたが、この技法では32のスタイルで絵を描くことができる。

出典: Vincent Dumoulin & Jonathon Shlens & Manjunath Kudlur

静止画だけでなくビデオを生成

更にこのネットワークは入力イメージの再構築をリアルタイムで実行する。つまりビデオを入力することができ、再構築されたビデオが出力される。Googleはこの技術を開発した理由を新しい芸術の門を開くためとしている。また、画家のスタイルを学習したネットワークはスマホアプリとしても利用できるとしている。

写真をアートにするアプリ

事実、ベンチャー企業からPasticheアプリが出荷されている。その中で注目のアプリは「Prisma」で、2016年夏にリリースされ5000万回ダウンロードされている。Prismaに写真を入力するとそれを著名な画家のスタイルで再構築する。Prismaは写真をフィルタリングしたり編集するアプリとは仕組みが根本的に異なる。前述の技法を使っており、AIが写真を分解し、学習した著名画家のスタイルで再構築する。写真が作画されたようにアートに生まれ変わる。

出典: VentureClef

モンドリアンが東京駅を描くと

Prismaに撮影した写真を入力する (上の写真左側) と、アプリは写真の下に、著名画家の作画スタイル (上の写真右側下段) を示す。希望のスタイルを選択すると写真がそのイメージに変換される。例えばモンドリアン (Piet Mondrian) のスタイルを選択すると、写真が縦横に分割され、赤青黄の三原色で再構築される (上の写真右側上段)。モンドリアンが蘇り東京駅を描くと、このような作品になるのかもしれないと、このアプリは想像を掻き立てる。この他にピカソ (Pablo Picasso) や葛飾北斎の「冨嶽三十六景」などのタッチも用意されている。

芸術の新分野を形作

アプリの普及とともにPasticheファンが増えている。写真サイトInstagramにはPrismaで生成したPasticheがたくさん掲載されている (下の写真)。どの写真を変換してもアートになるわけではなく、ここには見栄えのするPasticheが数多く掲載され、芸術の新分野を形作っている。Instagramには元々魅力的な写真が多いが、Prismaの登場でこれらが絵画になり写真の楽しみ方が豊かになった。

出典: Instagram

AIが芸術家の仕事を奪う

同時に、AIが芸術家の仕事を奪うのではとの懸念の声も広がってきた。AIが動画のPasticheを生成できるので、Loving Vincentのような映画制作では芸術家が不要となる可能性も指摘される。一方、芸術家はPastiche制作という機械的な仕事から解放され、独自の創作活動に打ち込めるという考え方もある。AIは必ず手本を必要とし、独自の手法を生み出すわけではない。AIはコピーの域を抜け出すことはできず、芸術は人間の独創性から生まれる。

AIのビジネスチャンス

Pasticheを生成するAIは新しいビジネスを生むきっかけとなる。人間の芸術家が手作業でPasticheを作るより、これをAIに任せることで製作時間が大幅に短縮できる。特に、AIはアニメ制作で大きな可能性を秘めている。著名アニメアーティストのスタイルをAIが学習し、人間に代わりアニメ映画の製作などが期待される。事実、Prismaはアニメスタイルに変換するオプションを備えている。人間は創作活動に打ち込み、AIが作業を代行するという区分けができつつある。

NvidiaとAudiは2020年までに完全自動運転車を投入、Deep Learning AIがクルマを運転する

Friday, January 6th, 2017

NvidiaとAudiは2020年までに完全自動運転車を投入すると発表した。Nvidiaの自動運転技術がベースとなり、Deep Learning (深層学習) がドライブテクニックを学びクルマを運転する。Nvidiaはこれを「AI Car」と呼び人工知能がクルマのドライバーとなる。

出典: Nvidia

NvidiaとAudiは完全自動運転車を開発

Nvidia CEOのJen-Hsun Huangは、2017年1月5日、ラスベガスで開催された家電ショーCESで最新の自動運転技術を発表した。この模様はビデオで公開された。この中でNvidiaはAudiと共同で完全自動運転車を開発し、2020年までに市場に投入することを明らかにした。クルマはAI Carと呼ばれ、Deep Learningが自動運転技術を司る。AIをフルに実装した自動運転車が市販モデルとして登場する。

自動運転車開発モジュール

Nvidiaはグラフィック半導体メーカーであるが、今ではAI企業として事業を展開している。Nvidiaは自動運転車向けのプロセッサや開発環境を提供している。自動運転を司るモジュールは「AI Auto-Pilot」と呼ばれDeep Learningが実装されている。他に、Nvidiaはドライバーの運転を支援するモジュールを明らかにした。これは「AI Co-Pilot」と呼ばれ、文字通りAIが副操縦士になりドライバーの運転をチェックする。これらのモジュールは車載AIスパコン「Drive PX 」で高速に処理される。

Auto-Pilotが操縦士となる

自分で運転したことのないクルマに運転技術を教えるのは非常に難しい。しかし、Deep Learningがドライブテクニックを学ぶことで自動運転技術が大きく前進した。Auto-PilotはDeep Learningの手法でクルマの周りのオブジェクト (クルマや歩行者など) を認識する。更に、それらの意味を把握して、Auto-Pilotは周囲の車両などがどう動くかを予想する。これによりクルマは安全なルートを選択して走行することができる。Auto-Pilotが操縦士となりクルマを運転する。

自動運転のメカニズム

Auto-Pilotはクルマに搭載されているカメラやLidarの画像を読み込み、それを解析してステアリングを操作する。具体的には、クルマは走行中に目の前のイメージと高精度マップ「HD Map」を比較して、位置を確認し、その意味を把握し、次に取るべきアクションを決定する。HD MapがGround Truth (規準) となり、クルマはこれを頼りに走行する。(下の写真はHD MapでLocalization (位置決定) をしている様子。クルマはセンチメートル単位で現在地を決定し、安全に走行できる車線を把握する。)

出典: Nvidia

HD Mapが必要となる

このために高精度マップHD Mapを事前に整備しておく必要がある。HD Mapとは道路や道路標識などが高精度で表示されたマップを指す。更に、マップ上のオブジェクトにはそれが何かを示す意味情報が付加されている。作成されたHD Mapはクラウドに格納される。

Deep Learningで自動運転アルゴリズムを教育

自動運転アルゴリズムはDeep Learningで教育される。カメラで捉えた画像とドライバーのステアリング操作が手本となり、Deep Learningを構成するニューラルネットワークはこれを学習する。Auto-Pilotは運転アルゴリズムをプログラミングされているわけではなく、人間のようにドライバーの運転を見てテクニックを学んでいく。データ入力から出力までをDeep Learningで処理する構成でAI Carと呼ばれる所以である。

コンセプトカーのデモ走行

Nvidiaはこれに先立ちAuto-Pilotを搭載した自動運転車「BB8」を発表している。CESではBB8デモ走行がビデオで紹介された (下の写真)。BB8はAI Carで最新の自動運転技術を搭載している。ドライバーとクルマのインターフェイスはタブレットで音声などで操作する。緊急事態に備えてストップボタンが装備されている。

出典: Nvidia

目的地までのルートを表示

クルマに乗ると音声で行き先を告げる。例えば「take me to starbucks in san mateo」などと指示する。クルマは指示に従って目的地までのルートを算出しタブレットに表示する (下の写真)。詳しい説明はなかったが、自動運転できる箇所は緑色で示される。自動運転できない箇所もマップ上に示され、ここはドライバーがマニュアルで運転することになる。HD Mapが整備されていない道路や運転が難しい地域が対象となる。いわゆる”圏外”の道路で、自動運転車の性能は自動走行できる範囲の広さが決定的に重要な要素になる。

出典: Nvidia

道路標識に従って走行

BB8は道路標識や車両を認識し自動走行する (下の写真)。一時停止の交差点や信号機のある交差点では、交通ルールに従って運転する。BB8はカーブの大きさ応じて速度を調整する。きついカーブでは速度を落として進行する。高速道路へのアプローチでは加速し、走行車線にスムーズに合流する。高速道路では自動で車線を変更し、高速道路を自動で降りることができる。BB8は道路という概念を把握しているので、車線がペイントされていない道路や砂利道でも自律走行できる。

出典: Nvidia

無事目的地に到着

自動運転からマニュアルモードに切り替えるときは「disengage autopilot」と指示する。市街地ではBB8はマニュアル運転で走行し、無事に目的地のスターバックスに到着した。走行した場所はシリコンバレーの住宅地と高速道路で、自動運転車にとっては比較的走りやすい環境。Auto-Pilotはこのレベルの運転テクニックを習得していることが伺える。今後は市街地や悪天候など運転が難しい環境での学習に進むことになる。

CES会場でのデモ

NvidiaはCES会場でAuto-Pilotのデモ走行を実施した。会場の一角に円周コースが設けられBB8が無人で走行した。また、Audi Q7ベースの自動運転車のデモ走行も行われた (下の写真)。クルマにはAuto-Pilotが搭載され、コースを周回した。シンプルなデモであるが、Nvidiaはクルマの教育は数日で終了したと述べ、Deep Learningを使うと学習速度が早いことをアピールした。

出典: Nvidia

ドライバーの運転支援技法

この他にNvidiaはドライバーの運転を支援する技法「AI Co-Pilot」を明らかにした。クルマに搭載されているAIは自動運転だけでなく、ドライバーの安全運転を支援する。クルマに搭載したカメラの画像を解析し危険な状況をキャッチする。例えば、前方を自転車が走っているとAI Co-Pilotは「右前方45フィートに自転車あり」と音声で注意メッセージを流す (下の写真)。ここではオブジェクトの判定や、それを言葉に置き換える技術が使われているが、これらはAIの得意分野である。

ドライバーの運転状態監視

車内にもカメラが備え付けてあり、AI Co-Pilotはその画像を解析して運転を支援する。AI Co-Pilotは顔認識機能がありドライバーを認証する。クルマは搭乗したドライバーの好みの設定になり、始動のためのキーは不要となる。この他に「Head Tracking」と「Gaze Tracking」機能がありドライバーの身体状態を把握する。例えば、疲れていると判定した時はクルマを止めるようアドバイスする。Auto-PilotがあればCo-Pilotは不要とも思えるが、Nvidiaは自動運転車が市販されてもマニュアルモードでの運転が残り、ドライバー支援技術は必須との見かたを示している。

出典: Nvidia

Lip Reading技術を採用

この他にCo-Pilotは音声認識機能を備えている。ドライバーが喋った言葉ではなく、唇の動きから何が語られたかを把握する。これは「Lip Reading」と呼ばれ、唇の動きから何を話しているかを判定する。騒音が大きい車内では音声認識機能ではなくLip Readingが有効な技法となる。これはOxford Universityが開発した「Lip Net」という技術を使っている。Lip Netの認識精度は95%で人間の精度53%を大きく上回る。Lip NetはAlphabet DeepMindと共同で研究を進めており将来が期待される技術である。

自動運転を構成するモジュール

Nvidiaは自動運転車開発のための包括的なシステムを提供する。オンボードプロセッサが「Drive PX」 (下の写真) で、ここにはAIスパコンチップ「Xavier」が搭載されている (銀色のモジュール)。Xavierは8コアのARM64 CPUで、512コアのVolta GPUを搭載し、毎秒30兆回の計算ができる。ここで基本ソフト「DriveWorks」が稼働し、Auto-PilotとCo-Pilotが実行される。ドライバーの言葉を理解する技術は「NLU」というモジュールで提供される。更に、クラウド経由でAI仮想アシスタントを使うことができる。Googleの仮想アシスタント「Assistant」をクルマから使う計画を進めている。

出典: Nvidia

自動車メーカーやサプライヤーとの提携

前述の通りNvidiaはAudiと自動運転車を共同開発する。更に、Mercedes-Benzとの事業提携も発表した。また、大手サプライヤーZFと自動運転システム「ZF ProAI」の共同開発を進めることを明らかにした。そして、大手サプライヤーBoschと自動運転技術を共同開発することを発表。NvidiaのオンボードプロセッサDrive PXとBoschのレーダーやセンサーを組み合わせて自動運転技術を開発する。

HD Map開発でトップ企業と提携

NvidiaはHD Map開発でも事業提携を拡大している。マップ技術で世界のトップを走るHEREはNvidiaとHD Mapの共同開発を進める。HEREはNvidiaが提供するマップ開発モジュール「MapWorks」を使って高機能マップ「HERE HD Live Map」を開発する。また、Nvidiaはゼンリンとの提携を発表した。ゼンリンはDrive PXとDriveWorksを使い日本でHD Mapを作成する。中国においてはNvidiaはBaiduと提携しHD Mapの開発を進めている。中国が自動運転車の巨大市場になり、そのためにHD Mapの開発が欠かせない。今年のCESではNvidiaの事業提携発表が相次いだ。

AI Carの課題と期待

NvidiaのAI Auto-Pilotはコンセプト段階であったが、Audiとの提携で一気に製品化に向かうことになる。Deep Learningをフルに実装した自動運転車としてその先進性に注目が集まっている。一方、AIが人間に代わりクルマを安全に操縦するためには解決すべき課題も少なくない。Deep Learningはアルゴリズムがブラックボックスで、クルマが下した判断を人間が理解するのが難しいという課題を抱えている。アルゴリズムを可視化する技術やそれを修正する技法が必要となる。果たしてAIをフル実装した市販車の開発は可能なのか、その取り組みに注目が集まっている。