Archive for February, 2016

AIアシスタントが医療現場に入る、仮想ナースが患者の手を握って看護する

Friday, February 26th, 2016

人工知能と医療は親和性が高い。AIアシスタントが病院のナースに代わり、在宅で治療を続ける患者を遠隔で看護する。AIアシスタントは高度な音声認識機能を備え、患者と対話しながら、病気を治療する。患者は相手がソフトウェアと分かっているが、仮想ナースに親近感を覚える。世界が高齢化社会に向かう中、AIアシスタントは医師不足を補う切り札として注目されている。

vwb_620_ai_assistant_sense.ly (p01)

Mollyという仮想ナース

この技術を開発したのはSan Franciscoに拠点を置く「Sense.ly」というベンチャー企業で、AIアシスタントの形で遠隔医療プラットフォームを提供する。病院を退院した患者は在宅で治療を続けるが、Sense.lyが開発した仮想ナース「Molly」が健康状態をモニターする (上の写真)。Mollyはナースのアバターとして音声でコミュニケーションをとる。患者はMollyの指示に沿って血圧を測定し、薬を飲み、テレビ会議で医師の診察を受ける。Mollyがヒューマンタッチで患者をケアする点に特徴がある。

血圧測定やビデオ診察

在宅の患者はスマートフォンやタブレットでMollyにアクセスする。Mollyは「血圧測定の時間ですよ」と語りかけ、患者は血圧測定器「iHealth」を腕に巻き計測を始める。測定したデータはBluetoothでスマートフォンに送信され、結果が表示される。Mollyは「血圧は120/80で大変よくなりました」と説明する。更に、「測定したデータは病院に送ります」と説明し、病院に送信される。もし測定結果に問題があれば、医師がすぐに対応する手順となる。Mollyは病院にいるナースのようなタッチで患者に接する。

Mollyは遠隔医療「Telemedicine」のスケジュールを管理する。Telemedicineとは病院の医師がビデオ会議で患者を診察する方式を指す。米国ではTelemedicineが急速に普及し、診察方式の主流になりつつある。Mollyは患者に「明日午後二時にビデオ診察があります」とスケジュールを確認する。(下の写真はMollyのデモアプリを示している。患者はこのようなインターフェイスで治療を受ける。)

vwb_620_ai_assistant_sense.ly (p02)

医療現場におけるMollyの使われ方

San Franciscoで開催されたAIアシスタントのカンファレンス「RE.WORK Virtual Assistant Summit」で、Sense.lyのUX責任者Cathy Pearlが、医療現場におけるMollyの使われ方について、忌憚のない意見を開示した。Sense.lyは患者へのAttentive Care (付き添い介護) を目的としてMollyを開発した。Mollyが患者に付き添い、病院の看護師の手が回らないところを補う。在宅で治療を続ける患者の多くが高齢者で、Mollyが頼りにされ生活の支えとなっている。Mollyが実在のナースのような存在となり、個人の悩みをMollyに打ち明ける患者もいるとのこと。遠隔診断の時間に遅れた場合はMollyに謝罪するなど、”人間関係”が芽生えている。

市場には数多くの医療アプリがあふれており、スケジュール管理アプリを使うと、手短に血圧を測定でき、薬を飲む時間がわかる。しかしこのアプリは機械的だとして患者からは好まれていない。患者はMollyはAIと分かっているが、身近で介護してくれる存在として印象を持っている。ある患者は「手を握ってくれている」と表現しているのが印象的だった。実際に医療現場の実情を聞いてAIアシスタントの必要性を再認識した。

一方、高齢者を遠隔治療する際の問題点も明らかにされた。シニア層の患者がスマートフォンのアプリを使い、Mollyにアクセスするのは容易ではない。初めて使ったIT機器がスマートフォンという人も少なくなく、操作に慣れるまでに時間がかかる。AIアシスタントに限らず、遠隔で高齢者をケアーする際の共通の課題となる。

Expect Labsの人工知能技術

Mollyの背後では「Expect Labs」が開発した高度な人工知能技術が使われている。Expect LabsはSan Franciscoに拠点を置くベンチャー企業で、AIベースの音声アプリ「MindMeld」を開発した。Sense.lyの遠隔治療プラットフォームとMindMeldの人工知能技術を組み合わせ、インテリジェントな「Virtual Nurse」を開発した。これがMollyで、患者はアバターに音声で問いかけインタラクティブに操作する。

MindMeldは2014年に出荷を開始し、1500社で使われている。MindMeldは音声でのナビゲーションや情報検索で利用され、音声システムのトップ製品とされる。MindMeldはクルマに組み込まれ、ドライバーは音声でダッシュボードを操作する。また、セットトップボックスにも組み込まれ、音声で映画検索などができる。Siriを搭載したApple TVより高度な音声検索ができることがExpect Labsの技術力の高さを示している。最新の事例はMindMeldを医療アプリのインターフェイスとして使うことで、これがMolly登場に至った。(下の写真はMindMeldで映画を検索しているところ。William Shatner主演のStar Trekを表示。MindMeldは複雑な条件で検索できるのが最大の特徴。)

vwb_620_ai_assistant_sense.ly (p03)

MindMeldは自然言語解析と機械学習を組み合わせ高度な音声解析を実行する。入力された言葉をSpeech Recognitionでテキストに変換し、Knowledge Graphを使いコンセプトを把握する。更に、言語解析の手法を使い言葉に含まれる意味を理解する。そして、機械学習モデルで、問われている質問に対する答えを示す手順となる。機械学習モデルは業種ごとにトレーニングする必要がある。Mollyのケースでは医療関係者と患者の対話データなどを使いトレーニングされている。

高齢化社会とAIアシスタント

Sense.lyがAIアシスタントを医療分野で展開するのは理由がある。米国は人口増加と高齢化で慢性的に医療従事者が不足している。更に、米国は医療にかかるコストが極めて高く、解決の糸口が見つからないまま問題を引きずっている。その中でも慢性疾患患者の医療コストが最大の問題とされる。慢性疾患の患者の3%が医療費全体の65%を占めているという統計もある。この患者は”Frequent Fliers”と呼ばれ、同じ症状で入退院を繰り返す。心臓疾患を中心とするこれらの患者の在宅治療助ける目的でMollyが開発された。既に大学病院での導入が始まり、カリフォルニア大学サンフランシスコ校医学部で臨床試験が始まっている。

世界は高齢化社会に向かって進んでいるが、その最先端を走るのが日本である。日本の医療現場でAIアシスタントを活用した治療法は大きくブレークする可能性を秘めている。一方、世界が注目するのは中国で、10年後には大規模な高齢化社会が出現する。医師や看護師など医療従事者の不足が深刻な問題になると懸念されている。いまの日本や将来の中国など、高齢化社会に対応するためには、高度に進化したAIアシスタントの役割に期待が寄せられている。

自動車の次は宇宙産業が構造変革、Deep Learningを使った衛星画像解析が巨大ビジネスに

Friday, February 19th, 2016

自動車の次は宇宙産業が激変している。Elon Muskが創業した宇宙輸送会社SpaceXはロケットブースターを再利用することで、衛星打ち上げコストを劇的に下げた。Googleは超小型衛星をクラスターで運用するベンチャーSkybox Imagingを買収し衛星ビジネスに乗り出した。NASAは主力衛星で撮影した画像を全て公開するオープンデータ方針を打ち出した。衛星画像の数が幾何級数的に増え続け、Deep Learningを使った解析ビジネスに注目が集まっている。

vwb_619_ai_descartes_labs (p01)

国立研究所からスピンアウト

San Franciscoで開催されたカンファレンス「RE.WORK Deep Learning Summit」で (上の写真)、最新の人工知能の技法や応用事例が紹介された。この場でも宇宙産業とDeep Learningの繋がりが話題となった。ニューメキシコ州に拠点を置くベンチャー企業Descartes Labsは、大規模なニューラルネットワークで衛星画像の解析を行う技術を開発している。共同創業者であるSteven Brumbyは「Seeing the Earth from the Cloud」と題して、衛星画像をDeep Learningで解析する技法やビジネスのトレンドを解説した。

Descartes LabsはLos Alamos国立研究所からスピンアウトした企業で、7年間にわたり大規模なニューラルネットワークの研究を重ねてきた。Los Alamos国立研究所は第二次世界大戦当時、原子爆弾を開発したことでよく知られている。その後はスーパーコンピューター研究で世界をリードしてきた。近年は、スパコンクラスのニューラルネットワークで大規模データを解析する技法を研究している。

作物の収穫量を予測

Descartes Labsは衛星画像から有意な情報を取り出す技術を開発している。対象は全ての衛星画像で、そこからFeature Extraction (対象オブジェクトの摘出) を実行する。衛星画像から特定の作物を取り出すことをシステムに教育し、過去10年間の衛星画像に適応する。抽出した作物に対し統計モデルを適用することで、実際の収穫量を予測する。具体的には、衛星画像から農場で栽培されているコーンを取り出し、その年の収穫量を予測する。この情報は政府機関や投資銀行などに提供され、政策決定や投資判断などで活用される。

衛星画像を解析する

Brumbyは作物の収穫量を予測するシステムの概要について言及した。衛星画像処理のアプリケーションを開発するには、データを集約したり、データを浄化する前準備が必要となる。データ量がペタバイトになると、これらの処理も技能を要す。具体的には、衛星画像から雲を取り除くアルゴリズムを開発しクリーンなデータを使う。ちなみに、1972年当時はイメージを処理できる計算能力が十分でなかったため、衛星から受信した画像データはフィルムの形で収められ、冷蔵庫にいれて保存したとのこと。1972年はNASAが衛星を使ったリモートセンシングを本格的に始めた年にあたる。

vwb_619_ai_descartes_labs (p02)

Deep Learningが人間の予想精度を上回る

次に、洗浄されたデータを使い、リモートセンシング技術とDeep Learningの手法で作物生育状況のマップを作製する。入力データは衛星で撮影した可視光画像と赤外線画像で、スペクトラム、位置情報、時間情報をベースとしたDeep Learningで特定の作物を抽出する。この際、USDA (米国農務省) が発行している作物収穫量データを使う。これが収穫量のGround Truth (基準量) となり、このデータを使ってシステムを教育する。

上の写真が解析結果で、2015年のコーンの収穫量を予想したもの。2014年との比較をマップに示している。色付けされている部分でコーンが作付されている。水色の部分は前年と比較して収穫量が増えたことを示す。反対に、赤色の部分は減ったことを示す。2014年はコーン豊作の年で、2015年は赤色が目立つ。この解析で、郡や州ごとのコーン作付面積、単位面積当たりの収穫量、全収穫量がわかる。作物収穫量の予測ではBloombergが発行する情報が幅広く使われている。2015年はDescartes Labsがこれに先立ちコーンの収穫予想量を公表した。前述のUSDAも収穫前に作物の収穫量の予測を公表するが、Descartes Labsの予測精度がこれを大幅に上回った。農場を巡回し実際に作物を見て収穫量を予測する人間より、アルゴリズムの技量が上回ることを示している。

vwb_619_ai_descartes_labs (p03)

米国政府のオープンデータ政策

このような衛星事業をベンチャー企業が手掛けることができる背景には、米国政府のオープンデータ政策がある。NASAは所有している全ての衛星画像データを無償で公開したのだ。オバマ政権は2009年からオープンデータ政策を推進し、民間企業が政府のデータを活用することで、イノベーションを起こすことを目指した。NASAのオープンデータはこの流れに沿ったプログラムで、人工衛星で撮影した画像の公開に踏み切った。

その一つが人工衛星の草分け的存在であるLandsatを使ったプログラムである。Landsatに搭載されたセンサーが収集した地表のデータを公開した。このプログラムは1972年に始まり、八世代の衛星で地表をセンシングした。現在はLandsat 7とLandsat 8からセンシングデータが送られている。開始当時から現在までの衛星画像データはNASAのサイトの他に、USGS (米国地質調査所) やAmazon AWSで公開されている。上の写真はUSGSが公開している衛星画像のごく一部で、1985年12月にLandsatが東京を撮影したもので、羽田空港などが写っている。企業や個人はこれら画像データを使って新規事業を立ち上げることができる。

衛星ビジネスが転機を迎える

人工衛星ビジネスが大きな転換期を迎えている。今までは人工衛星を使うためには、その打ち上げコストは5億ドルと言われている。この市場のトップを走るDigitalGlobeは人工衛星製造と打ち上げコストを含め7億5千万ドルかかると公表している。これに対してSpaceXは、ロケットブースターを再利用するため、衛星打ち上げコストは6100万ドルと公表している。更に、ペイロードへの搭載重量も増えるため、衛星打ち上げコストは1/100になる。(SpaceX Falcon 9のケースでは、ペイロード1キロ当たりの打ち上げコストは4,700ドルとなる。)

vwb_619_ai_descartes_labs (p04)

更に、衛星は大規模で高価な構成から「Constellation」と呼ばれる構成に移ってる。Constellationとは数多くの超小型衛星 (CubeSatと呼ばれる) を連動して運用する方式を指す。この市場のトップはSan Franciscoに拠点を置くベンチャー企業Planet Labsで最大規模のConstellationを形成する。超小型衛星「Dove」 (上の写真) を28台を連動して運用し、「Flock 1」というConstellationを構成する。GoogleはSkybox Imagingを買収しこれを追っている。

人工衛星ビジネスは打ち上げコストと衛星製造コストが劇的に低下し衛星の数が急増している。このためリモートセンシングで収集されるデータ量は増え続け、2020年には現在の50倍となるといわれている。リモートセンシングで収集したデータからDeep Learningの技法を使い情報を引き出す事業に大きな期待が集まっている。応用分野は国防だけでなく、株式や先物取引、都市計画、カーナビや自動運転、環境保全、保険査定、市場調査、サプライチェインなど、幅広い分野が対象になる。Deep Learningは宇宙産業を次の狙いとしている。

AIコンシェルジュ無しでは生活できない!仮想秘書がスケジュール管理

Friday, February 12th, 2016

AIコンシェルジュが生活必需品となってきた。San Franciscoで開催されたカンファレンス「RE.WORK Virtual Assistant Summit」で、高度に進化したAIコンシェルジュが紹介された。

人間の秘書のような存在

カンファレンスの中で目を引いたのが「x.ai」というベンチャー企業だ。x.aiはNew Yorkに拠点を置き、スケジュールを管理するAIコンシェルジュ「Amy」を開発した。CEOのDennis Mortensenが「Humanizing an AI Meeting Scheduling Agent – and Why it Matters」と題してアシスタント機能を紹介した。Amy (フルネームはAmy Ingram) はアプリではなく、メール内で機能する。Amyが人間の秘書のように、仕事やプライベートで、スケジュール管理を一手に引き受ける。カンファレンスの後で実際に使ってみると、その便利さに驚いた。手放せない存在になった。

vwb_618_ai_assistant_x.ai (p01)

メールの中で使う

使い方は極めてシンプルで、メールで打ち合わせの打診をする際に、cc欄にAmy (amy@x.ai) を挿入する (上の写真)。先方に「今日スターバックスで打ち合わせする時間がある?」と打診しているところ。その際Amyに、「30分時間を取ってほしい」と書き添えるだけで指示が完了する。この後は、Amyが先方とメールをやり取りし、打ち合わせ日時と場所をセットする。

アシスタントを雇った気分

Amyは筆者の空き時間を調べ (後述)、先方に打ち合わせ時間を打診する。先方からは都合が悪いので、別の日にしてほしいなどと回答がある。下の写真が打ち合わせ設定のプロセスを示している。左側は筆者のメールに続くAmyと先方のメールのやり取りで、合計五通のメールが交わされた。中央は、これらメールの内容を示している。

この一連の調整を経て、2月7日(日)の午後2時から30分間、近所のスターバックスで打ち合わせすることに決定した。Amyは、打ち合わせ日時、場所、出席者を招集状の形にまとめ、先方と筆者に発信した (下の写真右側)。筆者は冒頭に打ち合わせ打診のメールを発信するだけで、その後の調整はAmyが全て行った。実際に使ってみるとアシスタントを雇った気分で、これからのビジネスシーンで必須機能になると強く思った。

vwb_618_ai_assistant_x.ai (p02)

少し前準備が必要

Amyを利用する前に初期設定が必要となる。Amyがこちらの空き時間を把握するために、筆者のカレンダーを登録する。Google Calendarがサポートされており、x.aiにアクセスを許諾する。次に、筆者の打ち合わせに関する好みを設定する。打ち合わせに適した時間帯 (例えば午後) を指定し、また、打ち合わせの長さ (例えば45分) などを指定する。Amyは利用者の好みを把握し、カレンダーから空き時間を管理する。最後に、メールアドレス、連絡先、打ち合わせ場所 (例えばオフィスや近所のスターバックス) などを指定して、前準備が完了する。

個人のプライバシーへの配慮

このように、Amyを利用するには、x.aiがGoogle Calendarにアクセスすることとなる。第三者が筆者のビジネスとプライベートの予定表を閲覧する。また、cc欄にAmyを指定したメールの内容もx.aiが把握する。Amyを利用するときは、メールやカレンダーに、会社や個人の機密情報が含まれないことを確認する必要がある。

Amyを支える機能

Amyのスケジュール管理機能は自然言語解析や人工知能の技法に支えられている。一番の難関は、受信したメールに書かれている内容から、その目的を区分すること (「Classification」と呼ばれる)。メールに記載されたテキストを解析し、送信者の意図は「打ち合わせ依頼」などと判定する。Amyは打ち合わせと関連のないメールも数多く受けるという。受信メールの意図を把握すると、次は、そこに記載されている具体的内容を把握する。Amyは「日曜日にSylvanとStarbucksで会う」などと、内容を把握する。内容を把握すると、カレンダーの中の空き時間とマッチングを行い、日時を決定する。

上述の通り、スケジュール管理機能で一番チャレンジングなのが、メールに何が書かれているかを把握すること。ここでは「Classification」のプロセスで、機械学習や自然言語処理の手法が使われている。具体的には、「Support Vector Machine」や「N-grams」などの手法が使われる。Amyの姓であるIngramは、このN-gramからきている。

(「Support Vector Machine」とは教師あり機械学習アルゴリズムで、入力データのパターンを認識する。ここでは入力されたテキストが、依頼なのか、確認なのか、拒絶なのか、などを判定する。「N-grams」は言語処理モデルで、文字列の中でN個の文字列または単語の組み合わせが、どの程度出現するかを判定する。これを利用して入力テキストの属性を判定する。)

vwb_618_ai_assistant_x.ai (p03)

ビジネスモデル

Amyは全てのタスクをこなせるわけではない。マシンと人間のトレーナーが共同でタスクを実行している。マシンがテキストを読み、内容を把握し、回答を作成する。これを人間のトレーナーが添削する構造となる。最終的にはAmyが100%対応するシステムを目指す。

x.aiは利用者を限定して、Amyのベータ試験を展開している。最終製品は2016年後半にリリースされる。料金体系は公開されていないが、x.aiによると、エントリー版は月額9ドルからとなる。このほかに、「Pro」版と「Enterprise」版があり、ビジネス向けの機能が追加される。例えば、企業ユーザはAIコンシェルジュの名前を自由に設定できる。言語については英語に対応しているが、日本語もサポートしていきたいとのコメントがあった。

スケジュール管理は需要が高い

スケジュールを管理するAIコンシェルジュは人気があり、多くの企業が開発を進めている。x.aiと人気を二分する企業は、San Franciscoに拠点を置くClara Labsというベンチャー企業だ。AIコンシェルジュは「Clara」という名前で、メールをインターフェイスとして機能する。Amyと同じ方式で、メールで打ち合わせを設定するときに、CC欄にClaraを指定する。そうすると、Claraが内容を把握し、打ち合わせ時間などを設定する。ClaraはGoogle Calendarに対応しているが、今後は、Microsoft ExchangeやApple iOSカレンダーに対応する。製品リリースは今年からとしている。

AIコンシェルジュ利用形態と倫理的課題

Claraは既に多くの企業で利用されている。Claraを実際の社員として利用している企業もあるという。企業はClaraの名前を変えたり、Claraのメールアドレスを自社のドメイン名に変更して利用する。また、ClaraにLinkedInのアカウントを持たせる企業もある。Claraもマシンとトレイナーの共同作業であるが、人間の秘書のようにふるまう。

このことは社会的な課題も映し出している。Claraを導入することで、人間の事務職の仕事の一部がAIコンシェルジュに置き換わる。人工知能の社会進出で、雇用問題は避けて通れないが、秘書の職種が影響を受ける。また、Claraがメールのやり取りで人間らしく振舞うと、メール受信者はソフトウェアではなく、人間と会話していると誤解する。ClaraがLinkedInやTwitterアカウント持っているとなおさらである。AIコンシェルジュを使う際には、その旨を表明するなど、倫理面での配慮が必要となる。

大きなビジネスチャンス

今ではスマートフォンを持たない生活は想像できないが、これからはAIコンシェルジュを持たない生活は成り立たない。そういう時代に向かっている。AmyやClaraはスケジュール管理という機能に限定されているが、使ってみて、これだけでも十分便利だ。今後は、飛行機やホテルの予約など、幅広い機能が登場するのは時間の問題と思われる。この領域は需要が高く、大きなビジネスチャンスが開けているとも感じた。

デトロイトの逆襲、FordとGMはハイテク企業になる

Thursday, February 4th, 2016

Googleが自動運転車を開発し、業界の枠を超えて勝負を挑む。デトロイトの自動車メーカーは、産業構造が変わるのを傍観しているわけではない。Fordはハードウェアメーカーからモビリティサービス企業に転身している。General MotorsはLyftへ急接近し、配車サービス事業を立ち上げる。自動車メーカーはクルマを売るのではなく、モビリティを提供する時代に入ってきた。

vwb_617_car_ford_mobility (p01)

Fordはモビリティーサービス企業

Fordは2016年1月、Detroitで開催された自動車ショー「North American International Auto Show」で新製品だけでなく、会社の基本指針を発表した。CEOのMike Fieldsは、Fordは自動車メーカーからサービス企業へ転身することを明らかにした (上の写真)。「今日がFordが生まれ変わる日で、Mobility Company (移動ソリューションを提供する企業) になる」と述べた。Fordはクルマというハードウェア製造から、ハイテク企業に体質を変えている。(記者会見のビデオなどが公開されている。)

モビリティ構想はハイレベルなコンセプトで、具体的には次の四つの柱からなる (上の写真、背景)。「Marketplace」は移動のためのソリューションを指し、ライドシェアなどのアプリ群がそろっている。「FordGuides」とはサポートセンターで、事故対応だけでなく、オペレーターがドライブのコンシエルジュとなる。「Appreciation」とは会員向けの特典サービスを指す。「FordHubs」はショールームでイノベーションを展示する。

クルマはスマホで操作する

これらのサービスにアクセスするインターフェイスとして「FordPass」が登場した。FordPassは移動のためのプラットフォームで、スマホのアプリとして提供される。FordPassはFordがモビリティーサービス企業に転身する象徴となる。AppleがiTunesで音楽シーンを変えたように、FordはFordPassで移動のコンセプトを変える。提供時期は2016年4月で、Fordオーナーだけでなく、他社メーカーのクルマにも適用できる。

FordPassから前述のMarketplaceを利用する。ホーム画面の「Park」アイコンにタッチすると、スマートパーキングアプリが起動する。ドライバーは駐車場を見つけ、事前に駐車料金の支払いができる。支払いの際は仮想ワレット「FordPay」を使う。Apple Payのように、スマホで支払いができる。クルマを借りるときは「FlightCar」という機能を使う。将来は、ライドシェアリングやカーシェアリング機能が加わる。

vwb_617_car_ford_mobility (p02)

お洒落なショールーム

FordHubsはお洒落なショールームで、ここではクルマを売るのではなく、イノベーションを展示する (上の写真)。Apple Storeをほうふつさせるデザインで、利用者のモビリティーに関する問題を解決する場となる。FordHubsは2016年から、New York、San Francisco、Shanghaiなどに順次オープンする。

GMは配車サービス事業を立ち上げる

General Motorsもハイテク企業としての存在感を増し、Uberのような配車サービス事業を立ち上げる。業界第二位のLyftは、2016年1月、General Motorsより5億ドルの出資を受けたことを明らかにした。自動車メーカーが本格的に配車サービスに乗りだすこととなる。General Motorsは出資するだけではなく、Lyftと自動運転車によるオンデマンド・ネットワークを開発する。Lyftとしては、General Motorsと自動運転技術を共同開発し、Uberにキャッチアップする狙いがある。(下の写真はGM社長Daniel Ammann (中央)とLyft CEO Logan Green (左側)とLyft社長John Zimmer(右側)が揃って写り、両社の結束を象徴している。)

General Motorsは2016年1月、自動運転開発チームを結成し、製品開発を加速している。今までは研究プロジェクトとして自動運転技術開発を進めてきたが、これからは製品開発の一環として位置づける。同社は限定的な自動運転機能「Super Cruise」をCadillac CT6に搭載することを公表している。出荷時期は2017年で、Tesla Autopilotに対抗する製品となる。

vwb_617_car_ford_mobility (p03)

配車サービスに市場を奪われる

Lyftは自動運転車の登場で、自動車ビジネスは車両の販売ではなく、車両ネットワークが中心となると予想する。一方、General Motorsは、UberやLyftの登場で、配車サービスに市場を奪われると危機感を抱いている。消費者はクルマを購入するのではなく、オンデマンドで利用することとなり、クルマの販売台数が落ちるとみている。

しかし、General Motorsは配車サービス事業と競合するのではなく、積極的に事業に取り入れる作戦にでた。この背景には消費者のメンタリティーの変化がある。若者層を中心に、クルマを所有するモデルからオンデマンドで利用するモデルに変わりつつある。この波にのるため、General MotorsはLyftと共同で配車ネットワークを構築する。

Sidecarの資産を吸収

Lyftへの投資と同じ時期に、General Motorsは配車サービス企業Sidecarの資産を買収した。Sidecarは2012年にSan Franciscoで創業したが、UberやLyftに対抗できず、事業停止に追い込まれた。General MotorsはSidecarの資産を買収し、20人の従業員が移転した。従業員は、上述の配車サービス開発に従事することとなる。Sidecarの買収は同社が保有している特許を入手する意味もある。

配車サービスはSidecarが考案し、2012年から事業を始めた。その当時、Uberはハイヤー事業を展開していた。2013年に、Lyftがこのモデルを使った事業を開始し、UberもUber Xで同じモデルで事業を始めた。Sidecarが考案したモデルでUberとLyftが成功し、Sidecarは廃業に追い込まれるという皮肉な結果となった。Sidecarの事業が成功しなかった理由として、Uberが潤沢な資金を背景に、激しい競争を繰り広げたことが挙げられる。Uberはインセンティブを払い、競合他社からドライバーを引き抜いた。この事業は実社会でのスケーラビリティの争いで、大型投資を受けているUberやLyftだけが生き延びれる。(筆者が最初に体験した配車サービスはSidecarで、新しいモビリティサービスにカルチャーショックを受けた。クルマはBMW X5で、信号待ちの時にチョコレートのサービスがあった。この会社が消えていくのは寂しくもある。)

カーシェアリングサービス

Lyftとの共同開発とは別に、General Motorsは独自のカーシェアリングサービス「Maven」を開発している (下の写真)。MavenはNew Yorkで試験運用され、次に、Ann Arbor (ミシガン州) での展開が計画されている。米国ではカーシェアリングサービス「Zipcar」が有名である。Mavenは同じコンセプトであるが、自動車メーカーが展開している点に特徴がある。

vwb_617_car_ford_mobility (p04)

利用者はスマホのアプリから近所に駐車してあるクルマを予約する。クルマに近づくと「Unlock」ボタンを押してドアを開錠する。運転中はコネクティッドカー機能を利用できる。具体的には、OnStar (GMのナビゲーションシステム)、Apple CarPlay、SiriusXM (衛星ラジオ) などが利用できる。ドライブを終えると同じ場所に返し、アプリで「End」ボタンを押す。General Motorsはハイテクを活用した独自サービスの開発に力を入れている。

デトロイトの構想

Gartnerは、2020年までに、都市近郊に住んでいる自動車所有者の10%は、オンデマンド方式でクルマを利用する形態に移ると予測している。都市部では公共の交通機関を使い、都市近郊では配車サービスを利用し、クルマを所有しない形態に移っていく。General Motorsは自動車販売と配車サービス事業を組み合わせたビジネスモデルを描いている。都市部においては配車サービス事業を中心に展開する。それ以外の市場では、従来型の自動車販売事業を継続する。IT業界でコンピューターの販売がサーバーからクラウドに移るように、クルマも所有しない形態に移り始めた。デトロイトのメーカーはハイテク企業に転身し、この流れを捉えている。