Archive for November, 2015

FacebookはAIアシスタント「M」を開発、次世代ソーシャルネットの姿が見えてきた

Friday, November 27th, 2015

Facebookは次の10年を睨んだ戦略を展開している。人工知能、上空からのネットワーク、没入型インタフェースを三本の矢と位置づけ、投資を進めている。その中でも人工知能を最重要テーマとして開発を加速している。Facebookは、ソーシャルネットワーク企業から、大きく路線を転換しようとしている。

g436_ai_facebook_m_01

AIアシスタントでアクションを完遂

Facebookは2015年8月、インテリジェントなサービス「Facebook M」の試験を開始することを発表した。Mはメッセージングサービス「Messenger」の中心機能として位置づけられ、タスクを実行するエージェントとして動作する。Mは利用者の言葉を理解し、指示に従って、買い物などを実行する。

MはApple Siriなどのアシスタント機能と異なり、実際にタスクを実行する点に特徴がある。Mに質問すると回答を返し、Mとのやり取りを通し、実際にアクションを取る。具体的には、「友人が出産するので贈り物を探している。服やおもちゃはたくさん持っている。」と語りかけると、Mは「靴はどうか」と回答し、その写真と価格を提示する (上の写真左側)。この提案が気に入れば、そのまま指定のサイト(Luxegeneva)で購入できる。また、「来週シカゴに出張するが、ハンバーガー・レストランのお勧めは?」と質問すると、Mは「Command Burger」を推奨し写真とそのURLを表示する。更に、Mは「予約しておきましょうか?」と問いかけ、「Yes」と答えると、そのまま予約できる (上の写真右側)。多くのアシスタント機能は情報検索機能に留まるが、Mは実際に商品の購買やレストランの予約など、アクションを完遂することができる。

実証試験が始まる

Mはベータユーザを対象にシリコンバレーで実証試験を進めている。その結果は公開されていないが、多くのメディアが試験状況をレポートしている。それらによると、利用者の関心はレストランや買い物に集まっている。Mに対する指示で一番リクエストが多いのがレストランの予約。好みの料理や価格などを指定すると、Mがその条件でレストランを探し予約する。また、買い物を手助けする機能も人気が高い。店舗に出向いて買い物する代わりに、Mが利用者が好みそうな商品を提示する。また、商品を購買する際は、Mが支払処理をして、商品の発送先などを指定する。利用者は必要最小限の操作で、商品を見つけ、それを購入し、指定の場所で受け取ることができる。

人工知能とヒトとの共同作業

Mの機能は人工知能に支えられているが、解析処理をすべてこなせる訳ではない。人工知能は人間のトレーナーと共同作業する形態を取っている。利用者がMに指示を出すと、人工知能がこれを解釈し、回答を生成する。次に、トレーナーはこの回答を読み、そのままリリースするかどうかを判断する。手直しが必要なものは、トレーナーが修正してリリースする。更に、トレーナーが全て書き換えるケースもある。

g436_ai_facebook_m_02

トレーナーの修正はMにフィードバックされ、人工知能は回答生成について学習を重ねる。回答は業種ごとに異なり、人工知能は分野ごとに固有なプロセスを学ぶ。現在、トレーナーの数は数十人と言われ、Facebookキャンパスでこの作業に従事している。人工知能は進化を重ねるが、Mが一般に公開された時点でも、人工知能が全ての処理に対応できる訳ではない。当面はトレーナーとの共同作業が続く。ただし、Mの最終目標はヒトの手を借りないで処理することで、それに向かってトレーナーとの共同作業が続く。(上の写真はFacebook本社キャンパスの様子。オフィスの雰囲気は会社と言うよりはテーマパークに近い。)

買収される前のSiri

Facebook MのアイディアはSiriにあるのかもしれない。Appleに買収される前のSiri (Siri, Inc.) はタスク完遂システムを目指した。口頭で航空券の予約を指示すると、SiriはウェブサイトのAPIを利用して、実際にフライトを予約し、チケットの購入を目指した。Siriは米国国防省の人工知能研究プロジェクト「CALO」の研究結果を元に開発された。Siriは自然言語解析など最先端のAI技術を搭載し、2009年5月にベータ版が公開された。その翌月に、Siriのデモを見たが、そのインテリジェンスの高さに驚いたことを、いまでも鮮明に覚えている。Appleは2010年にSiriを買収し、その後は情報検索機能に限定してサービスを展開している。AIアシスタントに一番近い位置にいたSiriであるが、その開発は中断した形となった。

Facebook Mの課題

オリジナルSiriに代わり、Facebook MがAIアシスタント開発を進めているが、技術的には難易度が極めて高い。タスク処理は対象分野が幅広く、どの分野・業種を対象とするかがカギになる。航空券の購買と株式売買では、求められるスキルが異なり、トランザクションも大きく変わる。後者では、株式ポートフォリオ管理や株式売買の意思決定など、業種に特化したスキルが求められる。既に消費者は、Mに対して多様な要求を投げかけている。ある人はMに対して、結婚式のアレンジをリクエストした。結婚式会場の予約から、料理の選択、衣装レンタルから招待状の送付まで、Mに求めるというものである。数多くのタスクから構成される指示にどう対応するのか、解決すべき課題は少なくない。

g436_ai_facebook_m_03

Facebookの人工知能研究

ZuckerbergはFacebookの長期研究プロジェクトとして人工知能研究を重点的に進めている。2013年9月には、人工知能研究所「Facebook AI Research (FAIR)」を開設し、同12月にはYann LeCunが所長に就任した。研究員の数は現在50人であるが、今後、150人態勢に拡充するとしている。

Facebookは研究成果を論文やデモビデオで公開している。2015年6月には、論文「End-To-End Memory Networks」で、Neural Networkに短期記憶を付加した構造で、ヒトのように言葉を理解するモデルを発表した。システムは出来事の記述を読み、そこから常識を学習することができる。上の写真がその事例で、システムは映画「Lord of the Rings」のストーリーを理解することができる。システムを事前に教育し、そこに映画のあらすじを入力する (上の写真上段)。次に、映画の内容を質問すると、システムは正しく回答する (同下段)。例えば、「いまリングはどこにある?」との問いに、「Mount-Doomにある」と回答している。つまり、システムは国語テストに回答できることになる。今ではシステムを拡張し、大規模なデータに対して、同様な機能を発揮できる。

g436_ai_facebook_m_04

ビジュアル質疑応答

Facebookは2015年11月、画像解析と自然言語解析を組み合わせた「Visual Q&A (VQA)」を開発した。利用者が写真について質問すると、VQAが回答する。例えば、「写真の中に赤ちゃんが写っている?」との質問すると、VQAは「イエス」と回答 (上の写真左側)。これは視覚障害者のためのシステムで、写真の内容を質問して確認できる。これで視覚障害者もFacebook記事を楽しめることになる。この他に、「赤ちゃんは何をしている?」と聞くと、VQAは「歯磨きしている」と答える。また、「犬はどんな遊びをしている?」との質問に、VQAは「フリスビー」と回答する (上の写真右側)。

VQAはプロトタイプであるが、今後、応用分野が広がる。Facebook人工知能研究所所長のYann LeCunは、VQAをパーソナルアシスタントとして拡充していくアイディアを示している。Mとの関係については言及しなかったが、AIアシスタントがFacebookの新しいインターフェイスになることを示唆している。

IBMは気象会社を買収、Watsonが気象インテリジェンスを提供

Friday, November 20th, 2015

人工知能ビジネスでは、質の高いデータを大量に所有していることが、決定的なアドバンテージとなる。GoogleやFacebookなどが有利なポジションにいるが、IBMなど多くの企業はデータを保有していない。このため、IBMは気象会社を買収し、世界最大規模の気象データを手に入れた。これをWatsonが解析することで利益を生み出す。IBMの人工知能ビジネスは、新しい局面を迎えた。

g435_ibm_watson_weather_01

気象情報会社を買収

IBMは2015年10月、民間の気象会社「The Weather Company」を買収することを発表した (上の写真)。Weather Companyは全米で最大規模の気象情報会社で、ウェブサイトとケーブルテレビを運営し、気象情報を発信する。ウェブとテレビ部門は「Weather Channel」と呼ばれ、天気予報、天気図、気象関連ニュース、異常気象警報など、包括的な気象情報を発信する。気象情報は地球上の30億ヵ所のデータをカバーしている。Weather Channelは世界最大規模のAPIプラットフォームで、毎日260億件のデータが参照される。GoogleやYahooなどがこのデータにアクセスしている。Weather Channelは専用アプリを提供し、4000万台のスマートフォンで利用され、人気度は第四位にランクされる。全米で事実上の”気象庁”としての役割を担っている。

g435_ibm_watson_weather_02

Weather Companyは消費者だけでなく、企業にも気象データを供給している。この部門は、「Weather Services International (WSI) 」と呼ばれ、気象データに関連するビジネス・ソリューションを提供する (上の写真)。企業は供給される気象予報データに基づき、日々の業務を最適化する。例えば、小売店舗は気温の変化に応じて商品在庫の数を調整するなど、気象情報は事業判断で活用されている。IBMは、買収に先立ち、既にWSIと緊密に事業を展開してきた。

Watson Analyticsでの解析サービス

IBMは人工知能プラットフォーム「Watson」を使った解析サービス事業を展開している。これは「Watson Analytics」と呼ばれ、保険、小売、政府、エネルギー、消費者製品、メディア企業を対象に顧客を増やしている。各企業の利用者は平易な文章で質問すると、Watsonはグラフやテキストでインタラクティブに回答する。IBMはこの方式を「Citizen Analytics」と呼び、統計学の専門家でなくても、だれでもデータ解析ができる仕組みを提供する。

g435_ibm_watson_weather_03

Watson Analyticsに気象データを統合

IBMは、Weather Company買収に先立ち、既に気象データを活用したソリューションを提供している。上の写真がその事例で、天候が保険会社に与える影響をWatson Analyticsで解析したもの。具体的には、自動車保険に関して、保険料申請金額とその理由を尋ねると、Watson Analyticsはそれをグラフィカルに回答する。四角の大きさが金額を示し、それぞれ、「盗難」、「ひょう」(赤色の部分)、「衝突」などと表示される。降雹による被害で保険料申請が多いことが分かる。

g435_ibm_watson_weather_04

また、保険料申請金額を州ごとに尋ねると、Watson Analyticsは、地図に色付けして回答する(上の写真)。アイオワ州で申請金額が多いとの回答で (濃い青色の部分)、その理由を調べるため、Claim Reasonタグをクリックすると、Hail (ひょう) であることが分かる。アイオワ州はひょうが降ることが多く、自動車の車体が傷つき、保険申請金額が多くなる。

この解析結果から、アイオワ州においては、保険会社は顧客向けのひょう対策が必要であることが分かる。例えば、ひょうが降る前に警戒情報を顧客のスマートフォンに配信すると、クルマをガレージに入れるなどの対策が可能となる。これにより保険申請金額が少なると同時に、顧客はクルマの被害を防ぐことができ、保険会社への印象も良くなる。Weather Companyの買収で、これからは大規模な気象データをWatson Analyticsに統合でき、保険会社向けの高度なソリューションが登場すると期待されている。

気象会社はメディアからデータ企業に

Weather Channelは、全米の気象庁として、高い知名度を誇っている。しかし、Weather Channelの視聴者数は伸び悩み、買い手を探していたとも報道されている。Weather Channelはメディア企業としては限界に達したとも言われる。一方、IBMが買収することで、これからはデータ企業として新しい価値を見出すことになる。この背後にはIBM Watsonの「Cognitive Computing」技法がある。Cognitiveとは認知できるという意味で、人工知能の中でも、データから意味を把握する側面に焦点を当てている。大量の気象データを解析することで、ここから多くの知見を引き出す。更に、自然言語解析で、利用者は人に語りかけるように、平易な文章で解析できる。IBMとしては、社内にデータを保有しないが、買収を重ねこれを入手していく姿勢を示している。

Twitterとの提携

IBMは、Weather Companyの買収を発表した翌日、Twitterとの提携を明らかにした。TwitterのデータストリームをWatson Analyticsに読み込み、消費者の商品に対するセンティメントを把握する。一日当たり5億件のツイートを読み込み、新製品開発ためのデータを収集し、製品の売れ行きを解析する。アイディア自体は目新しいものではないが、IBM CEOのGinni Romettyは、「Twitterのデータは石炭や石油と同じで天然資源だ」と述べ、この市場に本格的に参入することを表明した。

g435_ibm_watson_weather_05

IBM顧客は商品の人気度などを質問すると、Watson AnalyticsはTwitterのトレンドを回答する (上の写真、イメージ)。企業はTwitterのフィードを、会話するようにデータマインイングできる。更に、利用者は、Watson Developer CloudやBlueMixを使って、Twitter解析結果を企業のクラウドやアプリに組み込むことができる。ツイートを解析し事業展開に活用するサービスは数多く登場しているが、今度はこのアイディアをWatsonというプラットフォームで具現することとなる。今までとはけた違いにインテリジェントなシステムで解析することとなり、市場が激変すると予想される。多くのベンチャー企業にとっては、生き残りをかけた戦いが始まることを意味する。

IBMのギフトガイドが話題になっている

IBMの消費者向けギフトガイド「Watson Trend」が話題となっている。消費者はこのアプリでいま流行りのアイテムを知ることができる。下の写真がその事例で、健康商品のトレンドを表示したところで、「Nike Running Shoes」が一番話題になっていることが分かる (左側)。アプリはこの理由を「Nike Shoesはテクノロジーとエクササイズの交点にある」と説明している。アプリは、この商品の過去のトレンドと、これからの予測も示している (右側)。9月に大きな反響があり、12月のクリスマスシーズンには再び話題となると予測している。

g435_ibm_watson_weather_06

Watson Trendは、商品に関する大量のデータを、ソーシャルネット、ブログ、フォーラム、製品レビューなどから読み込みむ。これらデータを自然言語解析し、人間が理解するように、内容、文脈、感情などのニュアンスを把握する。これをベースに現在のトレンドと将来のトレンドを予測する。

因みに、総合ランキングではApple Watchが他を大きく引き離して首位となっている。その理由は、OSのバグが「Watch OS 2.0で解決した」ことと、「Appleの洗練されたデザイン」としている。しかし、「バッテリー持続時間」の問題が残っていることも指摘している。消費者はこれらのガイドを参考に、クリスマスプレゼントを選ぶ。Watson TrendはApple Watchを選ぶと間違いないと推奨しているが、年末商戦でどれだけ売れるのか気になるところである。予測精度の他に、IBMの事業はB2Bに特化しているが、このアプリでB2Cに乗り出したことになり、その意味でもWatson Trendの投入は意義深い。

データを持たない企業のビジネスモデル

人工知能を教育したり知見を引き出すデータを保有しておらず、IBMは人工知能事業で不利な立場と言われてきた。しかし、Weather Company買収やTwitterとの提携は、データを持たない企業のビジネスモデルを示している。IBMの人工知能ビジネス戦略が転機に差し掛かっていることを示している。また、他のIT企業が、IBMのモデルを参考に、データ企業買収に乗り出すことも予想される。

Googleが人工知能開発ソフトを無償公開、AI事業成功のカギはデータにある!

Friday, November 6th, 2015

GoogleはDeep Learningソフトウェア「TensorFlow」をオープンソースとして公開した。これを利用すると、人工知能システムの開発が劇的に楽になる。Googleは、これに先立ち、社内でDeep Learningソフトウェア「DistBelief」を使い、多くの製品に人工知能機能を組み込んできた。Googleは人工知能でいかに事業を構築するのか、AIビジネスのポイントを探る。

g434_google_ai_tensorflow_01

GoogleのAI開発を振り返る

GoogleのDeep Learning (深層学習) 研究は2011年に始まった。Googleの人工知能研究グループ「Google Brain」が、Deep Learningソフトウェア「DistBelief」を開発。これは大規模なNeural Network (人間の脳を模したネットワーク) で、人工知能研究のプラットフォームとして使われた。DistBeliefが第一世代のDeep Learningソフトウェアで、TensorFlowはそれを改良した第二世代となる。(上の写真はGoogle Brainグループのロゴ。)

DistBeliefは5階層のネットワークで、4つのマシンに分割して割り当てられる構造となっている。CPUコアの数は1万個超まで拡張でき、その当時、世界最大規模のネットワークを構成した。DistBeliefにYouTubeビデオを入力し、マシンが猫というコンセプトを把握したことで、Googleの人工知能研究が世界から注目される切っ掛けとなった。イメージコンテスト「Large Scale Visual Recognition Challenge」では、2014年、DistBeliefを使ったシステムでGoogleが圧勝した。このコンテストは、120万の写真に何が写っているかを、1000のクラスに区分けする競技で、Googleの技術力の高さが証明された。

g434_google_ai_tensorflow_02

キャプションを生成

2014年には、このネットワークを使って、写真の意味を理解できるようになった。このシステムは「Automated Image Captioning」と呼ばれ、写真に写っているオブジェクトを認識し、それを説明するキャプションを生成する。上の写真がその事例で、システムは「Two pizzas sitting on top of a stove top oven (オーブンの上に二種類のピザがある)」と説明文を生成する。ネットワークの一形式であるConvolutional Neural Network (CNN) が写真に写っているオブジェクトを把握し、その結果をRecurrent Neural Network (RNN) というネットワークに入力し、RNNがキャプションを生成する。RNNは音声認識など、自然言語解析に利用される。

g434_google_ai_tensorflow_03

イメージをどう理解しているか

2015年6月、GoogleはDistBeliefを使って、CNNの各階層が、イメージをどう理解しているかを解析した。これは「Inceptionism」と呼ばれ、ネットワークに対する理解を深めることを目標とした。CNNはイメージを読み込み、そこから特徴量を抽出する。最初は低次元の特徴量を抽出し、ネットワークで処理を重ねるにつれ、高次元の特徴量を把握する。このプロジェクトではこの流れを逆にし、低次元の特徴量を入力すると、CNNはどう反応するかが検証された。

CNNはこの入力に対し、ネットワークが把握するイメージを出力する。上の写真がその事例で、ランダムノイズをCNNに入力する (左側)。ネットワークのパラメータを調整していくと、CNNはバナナのイメージを出力する (右側)。これがCNNが理解するバナナのかたちとなる。しかし、バナナと分かるものの、両端が消えて中央部だけ表示されているものもあり、我々が理解しているバナナとは異なる。つまり、このケースはシステムの教育が不完全であることを示している。これらを検証することで、システムがイメージをどの精度で把握しているかを理解できる。

g434_google_ai_tensorflow_04

写真から連想するイメージを描く

更に、これをもう一段階進めると、CNNは写真から“連想”するイメージを描くことができる。CNNに写真を入力し、ネットワークのパラメータを特別なオブジェクトに強く反応するように調整する。その結果、CNNが連想するイメージを出力する。上の写真がその事例で、樹木の写真入力すると、CNNは建物のイメージを出力する (中央)。山脈など平行線が多い写真からは、CNNは塔などをイメージする。CNNが入力された写真に”触発”され、絵を描くことができるとして話題になった。

メール返信文を自動生成

2015年11月、TensorFlowを使った新サービスが登場した。Google Searchの音声検索に適用され、認識率が向上した。また、写真アルバム「Google Photos」への適用では、イメージ検索の精度が向上した。更に、メールクライアント「Inbox」で、アプリが自動で返信文を生成する。この機能は「Smart Reply」と呼ばれ、受信メールに対して、アプリがその場で返信メールを作成する。アプリは、受信メールを読み、テキストの内容を理解する。テキストの内容から、返信が必要かどうかを判断する。返信が必要な場合は、三つの文例を文末に生成する。

g434_google_ai_tensorflow_05

上の写真がその事例で、メールを受信すると、一番下に返信テキストが自動で生成される。三つの中から最適な文言を選び、送信ボタンを押すと返信が完了する。左側は「明日の打ち合わせに誰か出席するようアレンジして」との依頼に対し、アプリは三つの返信文例、「そうします」、「アレンジします」、「できません」を生成。右側は人気映画「Frozen」のあらすじをメールで受信したところで、アプリは「Thank you for sharing!」、「Very cool」、「Love it!」と返信例を生成。一方、製品紹介や転送メールなど、返信を必要としないメールについては、文例は生成されない。返信するときは、最適な文例にタッチするだけで、操作が完了する。キーインする必要は無く、屋外で移動中に返信する際などに大変便利。

返信文作成の仕組み

Smart ReplyはTensorFlowのRNN機能を使って開発された。RNNはメール内容を把握する「Encoder」と返信メールを作成する「Decoder」から成る。Encoderはテキストを一文字ごと処理し、「Thought Vector」を生成する。Thought Vectorとは文章の意味を把握する手法で、類似の意味を持った文章群を生成する。DecoderはThought Vectorを読み込み、返信テキストを一文字づつ生成する。Smart Replyは11月9日から、AndroidとiOS向けのInboxの機能としてリリースされた。

g434_google_ai_tensorflow_06

TensorFlowとは

Googleが社内で使っているTensorFlowが、2015年11月、一般にリリースされた。TensorFlowはインテリジェントなシステムを開発するためソフトウェアで、機械学習アルゴリズムを表現し実行するインターフェイスとして機能する。TensorFlowの最大の特徴は、アルゴリズムをグラフ (Data Flow Graph) で表示すること。TensorFlowはグラフ形式の演算のためのライブラリーであるともいえる。

具体的に、グラフとはNodeとEdgeで構成されるフローチャートで、データアレイ (これをTensorと呼ぶ) を処理する (上の写真)。Nodeは計算を実行する演算子などで、EdgeはNodeを結ぶリンクを示し、ここをTensorが流れる。TensorFlowの名前の由来はここにある。上の写真で、MatMul (マトリックス演算)、Add (加算演算)、ReLU (活性化関数) などがNodeで、それを結ぶ矢印がEdgeとなる。

g434_google_ai_tensorflow_07

TensorFlowでコーディング

上述のモデルをTensorFlowでプログラミングすると上の写真の通りとなる。TensorFlowを読み込んだ後、モデルのBiasとWeightを定義し (上の写真1)、入力変数コンテナー (Placeholder) を設定する (上の写真2)。活性化関数としてReLU (rectified linear unit、平地から直線の上り坂になる形状の関数) を定義 (上の写真3) するとグラフ (一つ上の写真) が完成する。最後に、このモデルを初期化・実行するコードを追加すると、生成したモデルが実行される。(この事例はスタンフォード大学のチュートリアルから引用したもので、既に大学の講義に取り入れられている。)

g434_google_ai_tensorflow_08

汎用的なプラットフォーム

TensorFlowは柔軟なシステム構造となっている。Deep Learningなど主要機能はライブラリーとして提供され、TensorFlowコアで実行される。Neural Networkを使う際は、固有なオペレーションはライブラリーで提供される。例えば、TensorFlowで画像認識システムを生成する際は、「Convolution」というライブラリーを使い、イメージデータを処理する。この他に、ハイレベルなライブラリとしては「Pooling」や「Softmax」などが用意されている。

TensorFlowは汎用的なプラットフォームとしてデザインされている。TensorFlowは、それを実行するデバイスやハードウェアとの依存性は無く、切り離された構成となっている。具体的には、TensorFlowはデスクトップのCPUやGPU、サーバー、モバイルデバイス (AndroidとiOS) で稼働する (上の写真)。ラップトップでTensorFlowを使ってモデルを作り、それをパソコンのGPUを使って高速に処理することができる。更に、モデルを大規模に展開する際は、Dockerを使いクラウド上に展開する。TensorFlowが提供するAPIを使うだけで、容易にシステム構成を変更できる。開発言語はC++とPyhthonをサポートしており、今後、対象言語を広げていく。

TensorFlowを公開する理由

TensorFlowはリリースされたばかりであるが、開発コミュニティーから「機械学習の開発時間がドラスティックに短くなった」など、高い評価を受けている。GoogleはTensorFlowをオープンソースとして公開する理由について、「機械学習で革新的製品を生み出すことを手助けするため」としている。今まで、Deep Learningは標準プラットフォームがなく、企業や研究機関はソフトウェアを組み合わせて利用してきた。TensorFlowが標準プラットフォームとなれば、開発者はアイディアやコードを交換でき、研究開発が加速されると期待される。

同時に、この背後にはビッグデータ開発の反省が込められてるようにも思える。GoogleはMapReduceやBigTableなど、先進的なツールを開発し、検索エンジンやGoogle Mapsなどで利用してきた。これらのツールは公開されることなく、社内に留まった。市場はこのアイディアに刺激され、Hadoopなどを生み出し、これが業界の標準プラットフォームになった。人工知能開発では、この経験を教訓に、TensorFlowを公開し、Deep Learningエコシステム拡大を目指しているとも解釈できる。

g434_google_ai_tensorflow_09

データがカギを握る

先進的なプラットフォームを公開することは、競合企業を利することになり、リスクを伴う判断でもある。しかし、TensorFlowを公開したという事実は、Deep Learningの戦いはアルゴリズムではなくデータがカギを握る、ということを示唆している。Deep Learningのアルゴリズムはコモディティーになりつつあるともいえる。Deep Learningで勝敗を分けるのはデータで、アルゴリズムに入力するデータを持っていることが、圧倒的なアドバンテージとなる。

この点でGoogleは世界で一番優位なポジションにいる。Googleは検索エンジンで世界の情報を整理し、大量のテキストデータを保有している。今では、スマートフォンでの音声検索で、膨大な音声データを持つ。Google Photosに大量のイメージデータが集まりつつあり、YouTubeは世界最大のビデオライブラリーとなっている。事実上のGoogle子会社「23andMe」は、個人向け遺伝子解析事業を進めている。(上の写真は23andMeの新社屋。) 全世界の遺伝子情報を整理するというミッションの元、大量のデータが蓄積されている。Googleとしては最新の人工知能開発プラットフォームを公開しても、事業展開で先行できるという自信が窺える。同時に、Googleは収益の上がらない23andMeに、何故ここまで肩入れするのか、その理由も見えてくる。人工知能ビジネスでは、企業の価値は収益だけでなく、そこから生成されるデータが重要であることを示している。