Archive for the ‘google’ Category

Googleは家庭向けロボットを開発!? 先行するAmazonを追随する

Friday, October 5th, 2018

Amazonは家庭向けロボットを開発していると噂されている。Googleはこれに対抗して、同じく、家庭向けロボットの開発に乗り出した。Googleは五年前、ベンチャー企業を買収してロボット開発を始めたが、このプロジェクトは頓挫した。GoogleはAmazonに刺激され、ロボット開発を再開し、高度なAIを武器にインテリジェントなシステムを開発している。

出典: Dmitry Kalashnikov et al.

ロボット開発の経緯

Googleは2013年、プロジェクト「Replicant」を発足し、ロボット開発に乗り出した。ロボット開発は「X」(当時のGoogle X)が担い、Andy Rubinが指揮を取っていた。Rubinは「Android Inc.」創業者で、2005年にGoogleが買収し、スマホ事業の基礎を築いた。Rubinはインテリジェント・マシンに興味を持っており、ドイツの製造会社でロボットエンジニアとして働いていた。

ベンチャー企業買収

Googleはロボット企業8社を相次いで買収した。最大規模の買収はBoston Dynamicsで、同社は、軍事支援ロボットとヒューマノイドを開発していた。日本企業でヒューマノイドを開発しているSchaftも買収された。また、コンピュータビジョンをロボットに応用したIndustrial Perceptionや次世代ロボットアームを開発していたRedwood Roboticsも含まれ、Googleはロボット市場に本格的に参入すると見られていた。

開発を中止

しかし、Googleは突然ロボット開発を中止した。Andy Rubinは2014年にGoogleを離れ、その直後、Replicantは活動を停止した。Googleは買収したBoston Dynamicsの買い手を探していたが、2017年、SoftBankが同社を買収することで合意した。これに先立ち、SoftBankは2012年にAldebaran Roboticsを買収し、ロボット事業を開始した。

中止の理由

Googleがロボット開発を中止した理由はロボットを事業化するのが難しいと判断したため。ロボットは配送センターや組み立て工場使われる工業ロボットが中心で、一般社会で使われるサービスロボットの開発には時間がかかる。Rubinは2020年頃に製品を投入する予定でいたが、Google幹部は短期間で成果を求めており、この意識の相違が中止に繋がった。

ロボット基礎研究

Replicant中止の後も、Googleは高度なAIをロボットに適用する研究を進めてきた。Googleはコモディティハードウェアに最新のAI技法を取り込み、インテリジェントなロボットを開発している。具体的には、Deep LearningとReinforcement Learningをロボットの頭脳として使う。Googleのロボット研究施設は「Arm Farm」と呼ばれ(先頭の写真)、10台超のロボットアームが並列に稼働しスキルを学ぶ。

AI研究内容

研究ではロボットアームでドアのノブを回し、それを手間に引いてドアを開けるタスクが実行された (下の写真)。それぞれのロボットはニューラルネットワークのコピーを搭載し、Reinforcement Learningの手法で教育された。行動(Action)を実行するとき、与えられた環境(Sate)で値(Value)を算定し、ロボットはValueを最大にする方向でActionを決定する。ロボットがタスクを実行するときにノイズを加え、それぞれのロボットは異なる環境でタスクを実行する環境を構築する。

出典: Google

ロボットクラウド

これらのデータはクラウドに収集されネットワークを最適化する。アルゴリズムは収集されたデータからうまく処理できたケースとそうでないケースを検証し、Actionとタスク完遂の関係を把握し、ネットワークを改良していく。このサイクルを繰り返し、ロボットの性能を向上する。ロボットは数時間の教育でドアを開けることができるようになった。

最新のAI研究

Googleは最新のAI技法「QT-Opt(Q-function Targets via Optimization)」を開発した。Arm FarmにQT-Optを搭載するとオブジェクトをつかむ(Grasp)精度が飛躍的に向上する。QT-Optとは分散型Q-Learning(Reinforcement Learningの一つのモデル)で、連続したアクション(Continuous Action)を安定的に処理できる点に特徴がある。

ロボットでモノをつかむ

ロボットはカメラのRGB画像からオブジェクトを把握し、アーム先端のグリップを開きそれをつかむ。ロボットが複雑な形状のオブジェクトを正確につかむためには高度な技法が要求される。これは「Picking Challenge」と呼ばれ、多くの企業や研究機関がこのテーマに挑戦している。いかに正確にかつ高速にモノをつかめるかがロボットの商品価値を決める。

アルゴリズム教育

アルゴリズムはカメラの画像を読み込み、ロボットアームの動きと、グリッパーの開閉を出力する(下の写真、左側)。最初にオフラインでアルゴリズムを教育し、次に、ロボットを稼働させオンラインで教育する。オフライン教育では1000種類のオブジェクトが使われ(下の写真、右側)、ロボットはこれらを580,000回つかむ試験が実施された。完成したアルゴリズムを使い、ロボットの性能を検証したところ、オブジェクトをつかむ成功率は96%と好成績をマークした。

出典: Dmitry Kalashnikov et al.

研究の意義

アルゴリズムはオブジェクトを正確に掴むことができるほか、操作をインテリジェントに理解する。アルゴリズムは上手く掴めなかったときには、異なる掴み方を自動で学習する。また、オブジェクトを掴む手法を長期レンジで把握する。(下の写真上段:オブジェクトが纏まっているときはそれを崩す(Singulation)ことを自律的に学習する。中段:立っているローソクはつかみにくいのでそれを倒して実行する。下段:軽くてつかみにくいボールはトレイの端に寄せてつかむ。上の写真右側:煩雑な環境でもオブジェクトをつかむことができる。)

出典: Dmitry Kalashnikov et al.

実社会への応用

Googleのロボット開発はGoogle BrainとXで進められている。GoogleのArm Farmで開発された技術は、ロボットアームだけでなく、ロボットの基礎技術として応用される。実社会には様々な形状のオブジェクトがあり、それに触れた時、オブジェクトの物理挙動も異なる。ロボットを実社会で使うためには多くの課題を解決する必要があるが、これらの研究がその手掛かりとなる。

家庭向けのロボット

Googleは家庭向けロボットの開発を進めていると噂されている。AIスピーカー「Google Home」は人気商品で、多くの家庭で使われている。GoogleはAIスピーカーを駆動型にしたロボットを開発しているとみられている。ロボットは家の中を自律的に走行し、タスクを実行することとなる。

Amazonに対抗

Amazonは「Vesta」という名前でロボットを開発している。これはAmazonの人気商品Amazon Echoを駆動型にしたモデルである。GoogleはVestaに刺激を受け、ロボット開発を再開したとみられる。AIスピーカー市場ではAmazon EchoとGoogle Homeが競い合っているが、今度はロボットで両社が鎬を削る。両社ともロボット技術はまだまだ未成熟であるが、商品化に向けての開発が進み、大きなブレークスルーが期待される。

Google Assistantがバイリンガルに進化、AI家電は多言語対応が必須機能となる

Friday, August 31st, 2018

Googleの仮想アシスタント「Google Assistant」がバイリンガルとなった。今までは単一言語しか使えなかったが、これからは二か国の言語で話しかけることができる。Google Homeに、日本語で問いかければ日本語で答え、イタリア語で質問するとイタリア語で答える(下の写真)。世界でバイリンガル家族が増える中、Google Homeはバイリンガルに進化した。

出典: Google

スマホで利用する

バイリンガルのGoogle AssistantはスマートフォンPixel 2で利用できる。この機能を使うには、専用アプリ「Home」で使う言語のペアを設定する(下の写真左側、英語と日本語を選定)。この設定で、東京時間を英語で尋ねると、Google Assistantは英語で答える(下の写真、右側上段)。また、日本語で尋ねるとGoogle Assistantは日本語で答える(右側下段)。英語と日本語の他に、フランス語、イタリア語、スペイン語、オランダ語の六か国語をサポートしており、この中から二つの言語を選びバイリンガル機能として利用する。

出典: VentureClef

Google Homeで利用する

Google Assistantを搭載しているGoogle Homeでバイリンガル機能が威力を発揮する。筆者宅ではGoogle Homeを家電を制御するハブとして使っており、家の中のLEDライトをオン・オフするときに、英語と日本語で指示できる(下の写真左側)。また、テレビを操作するときも、英語と日本語で指示できる(下の写真右側)。

出典: VentureClef

バイリンガル世帯

Googleが二か国語機能を投入した理由は、米国や世界でバイリンガル家族が増えているためである。米国では全世帯の二割がバイリンガルと言われている。カリフォルニア州では五割を超えると思われる。バイリンガル世帯では家の中で二つの母国語が使われる。例えば、メキシコからの移住が多い米国では、家庭内で英語の他にスペイン語が使われる。今までは、使う言語によりGoogle Homeの設定を変更していたが、これからは一回の設定で二か国語を使うことができる。

バイリンガル技法

Google Assistantは既に多言語に対応しているが、バイリンガル処理に進むには大きな課題をクリアーする必要がある。課題は二つあり、指示された音声の言語を特定することと、リアルタイムで指示内容を把握しアクションを取ること。

音声の言語を特定

Googleは話しことばの言語を特定する技術を2013年から開発している。これは「Language Identification (LangID)」 と呼ばれ、ニューラルネットワークで話しことばの言語を推定する。話しことばを前処理し、それをRecurrent Neural Networkに入力すると、言語の種類を判定する。 (下の写真、「hey thank you for calling me」という話し言葉をLandIDに入力すると、ネットワークは8か国語のうち、どの言語が話されたかを推定する。ネットワークはフレームごとに推定処理を続け、ここでは英語(濃い青色の部分)が話されたと推定。)

出典: Javier Gonzalez-Dominguez et al.

リアルタイム処理

Google AssistantはLangIDで言語を特定すると、次に、その言葉の意味を把握し、指示されたタスクを実行する。このプロセスは大規模な演算が必要となり、それをリアルタイムで実行することはできない。このため、Googleは二つの言語処理を並列で実行しておき、言語の判定結果がでると、その言語の処理だけを実行する。具体的には、言葉が語られると、二組のLangID処理と言語解析を並列で走らせ、その結果をアルゴリズム(Ranking Algorithm)で評価し(下の写真、下段)、どちらの言語が語られたかを判定する。言語が確定すると、その言語だけを処理し、もう一方の処理は中止する。対象言語の処理は既に途中まで進んでおり、この技法でリアルタイムに応答できるようになった。

出典: Google

GoogleがAmazonを抜く

GoogleはAmazon Echoのアイディアを借用してGoogle Homeを開発した。Amazonが先行しているAIスピーカー市場で、Googleは高度なAIを武器にGoogle Homeの売り上げを伸ばしてきた。ついに形成が逆転し、GoogleがAmazonを抜き首位の座を奪った。2018年第二四半期、Google Homeの出荷台数は540万台で、Amazonは410万台にとどまった。三位と四位にはAlibabaとXiaomiが入り、中国企業が急速にシェアを伸ばしている。AIスピーカー市場ではGoogleが首位を奪うものの、これからは中国企業との戦いとなる。

多言語対応に向かう

Googleはバイリンガルの次にはトライリンガル機能を投入するとしている。更に、対応する言葉の種類を順次増やし、最終的には主要言語の殆どをカバーすることになる。つまり、Google Assistantは言語の制約がなくなり、どの言語で話されてもそれに対応できるよう進化する。これからのAIスピーカーやAI家電はマルチリンガル対応が必須の機能となることを示している。

出典: E&T Magazine

マルチリンガルな案内ロボット

マルチリンガル機能の応用分野は幅広く、ロボットの対話能力を大きく押し上げる。観光案内ロボットが数多く登場し、ツーリストは対話しながら情報を得ることができる。このプロセスでは、まず、会話する言語を入力する必要がある(上の写真、ピョンチャン冬季五輪の案内ロボットで英語か韓国語を選択する)。LangID技法を応用すると、案内ロボットにいきなり話しかけても、AIが言語の種類を把握し、質問された言語で案内する。東京オリンピックではマルチリンガルな案内ロボットが登場し、世界各国からの旅行者のコンシェルジュとなりそうだ。

Google DeepMindはAIのIQを測定、ニューラルネットワークは知能を持ち人間になれる

Friday, August 17th, 2018

Google DeepMindが開発したAlphaGoは囲碁のチャンピオンを破り世界を驚かせたが、本当に賢いのか疑問の声が上がっている。AlphaGoはニューラルネットワークで構成され、この技法を究めれば人間のような知能を手にできるのかも問われている。

出典: DeepMind

AIは知能を持つ

ニューラルネットワークは単に統計処理のアルゴリズムで、この道を進んでも知能を持つことはできない、との意見が少なくない。今の人工知能は人工無能と揶揄されるゆえんである。これに対し、DeepMindはAIのIQテストを実施し、ニューラルネットワークは一定の知能があることを突き止めた。ニューラルネットワークを改良すると、人間のように推論できる汎用的な知能を得ることができるとDeepMindは主張する。

ニューラルネットワークのIQテスト

DeepMindはニューラルネットワークのIQテストを実施した。この試験で、ニューラルネットワークは人間のように推論(Abstract Reasoning)できるかが試される。ニューラルネットワークで人間レベルの知能を目指すには、まず、今のAIの知能指数を把握する必要がある。(上の写真、IQテストのサンプルでAIが質問に答えていく。上段パネルの空白部分の答えをAからHの中から選ぶ。答えはA。円の数は左から右に向かい一つずつ増加。これはProgressionという概念を試験するもの。)

知能とは

知能(Intelligence)とは人間が持つ高度な能力で、論理的思考、自己認識、学習能力、推論能力、創造性など、幅広い要素から構成される。AIが知能を備えるためには、この中で推論機能が最初のステップとなり、ニューラルネットワークは推論機能を備えているかがカギとなる。知的なAIを開発するためには、いまのニューラルネットワークが抽象的概念をどの程度理解できるかを把握する必要がある。

IQテストの意味

DeepMindはこの目的で、ニューラルネットワークの知能指数を計測するIQテストを開発した。IQテストは経験から学習したことを図形などを使って視覚的に試験する。例えば、人はモノが進化する様子を経験的に学習する。庭で花が咲く様子を観察し、教室では数学の時間に数が増える概念を教わる。これらはProgressionという概念で、IQテストはこれをゲーム形式に展開し、被験者がこの概念をどれだけ応用できるかが試される。

IQテストの実例

実際の試験ではRaven-style Progressive Matricesという方式のIQテストが使われた(下の写真)。これは1960年代に開発されたもので、言葉ではなく図形を使い、生徒の知能(Fluid Intelligence)を試験する。これをニューラルネットワークに適用し、AIの知能を測定する。この試験ではProgressionの他に、XOR(排他的論理和)、OR、AND、Consistent Unionなど異なる概念が試験された。(下の写真左側:Progressionの試験。答えはA。星の数は上から下に向かい増える。下の写真右側:XORの試験。答えはA。左二つのパネルをXORで演算した結果を右端のパネルに表示。)

出典: David G.T. Barrett et al.

試験方式

人間のIQテストは、我々が日々の生活で学習したことが試験される。しかし、AIは社会に接することはなく、人間のように学習する機会はない。このため、AIのIQテストでは、ニューラルネットワークをあるテストセットで教育し、別のテストセットで試験した。ニューラルネットワークが一つのテストセットで学習した知識を別のテストセットで生かすことができるかが試験された。

試験結果

試験では代表的なニューラルネットワーク(ResNetやLSTMなど)が使われ、それらの知能指数が計測された。更に、DeepMindはこの試験のために知的なニューラルネットワーク「Wild Relation Network (WReN)」を開発し、このモデルの知能指数を計測した。ニューラルネットワークは異なる条件で試験され、IQテストの正解率が示された。ニューラルネットワークの中でWReNが最もいい成績を収めた。WReNの正解率は76.9%で一定のインテリジェンスを持つことが示された(下のテーブル、最上段)。このケースでは教育と試験において同じテストセットが使われた。

出典: David G.T. Barrett et al.

データセットが異なると

しかし、教育データと試験データが異なると、ニューラルネットワークの正解率は大幅に低下した。データが異なるとは、黒色のオブジェクトで教育し、白色のオブジェクトで試験する場合などを指す(先頭のIQテストにおいて、黒丸を白丸に変えて試験するケース)。この場合は正解率が13.0%と大きく下がり(上のテーブル、下から二段目)、ここがニューラルネットワークの弱点であることが分かった。人間だとオブジェクトの色や形状が変わっても数をカウントできるが、ニューラルネットワークは属性の変化で推論の過程が混乱する。

試験結果の解釈

DeepMindはこの研究を通して、ニューラルネットワークは抽象的な推論を学び、それを問題に適用する一定の機能があることを示した。ネットワークはピクセルから抽象的な概念が存在することを推論することができた。一方、ニューラルネットワークは実社会との接触はなく、限られたデータで教育されれるため、推論機能は限定的であることも分かった。つまり、知的なAIを開発するためには、人間社会との交わりが必須であることを示唆している。

次のステップ

DeepMindの目的は汎用的な知能を持つAIを開発することで、ニューラルネットワークが学んだことを幅広く適用することがゴールとなる。このために、WReNがIQテストで解を求める仕組みを解明することが次の研究ステップとなる。DeepMindは知能指数の高いAIを開発するコンテストを計画している。これは抽象類推コンテスト「Abstract Reasoning Challenge」と呼ばれ、高度な推論機能を持つAIをコミュニティと供に研究を進める。

二つの考え方

AI研究の次の目標は人間に匹敵する抽象推論(Abstract Reasoning)機能を持つマシンの開発にある。Facebook AI研究所所長のYann LeCunは、ニューラルネットワークを改良することで、推論や抽象事象を学習できるとの前提で研究を進めている。一方、New York UniversityのGary Marcus教授は、ニューラルネットワークを突き進めても壁に当たり、一般的な抽象推論機能を持つことはできないと主張する。DeepMindは前者の陣営に属し、ニューラルネットワークをベースとする知的なAIの開発を進めている。

WaymoがUberを置き換える、自動運転車の四つの事業形態

Friday, August 3rd, 2018

Waymoは自動運転車の営業運行を目前に控え、事業形態を明らかにした。事業は、無人タクシー、無人トラック、無人乗用車、無人公共交通の四つの柱から構成される。無人タクシーについては、既に実証実験が始まっている。無人トラックの試験走行も始まり、また、自動運転車を直接消費者に販売する計画も明らかにした。更に、Waymoは無人公共交通について、住民のラストマイルを支える交通網とする事業モデルを発表した。

出典: Waymo

無人公共交通

Waymoは2018年7月、アリゾナ州フェニックスの公共交通機関「Valley Metro」と提携し、自動運転車で交通網を構成すると発表した(上の写真)。Valley Metroはバスや路面電車を運行しており、Waymo自動運転車が自宅とバス停や電車の駅を結ぶ移動手段となる。Waymoが住民のラストマイルを支える交通手段を提供する。

ラストマイル

この背景には、都市開発で交通網の整備が進むものの、それを有効に利用できていないことがある。フェニックスでは自宅とバス停や電車駅までの距離が長く、これが公共交通機関を利用するときの障害となっている。このギャップを効率的に埋める輸送機関が求められ、Waymo自動運転車がこの任務を担う。

効果の検証

当面は試験運用として、Valley Metro従業員を対象に、自宅から近くの交通機関まで送迎する。従業員はWaymoアプリを使い、Uberを使う要領で、クルマをリクエストすると無人タクシーが配車され、近くの駅まで送り届けられる。更に、このサービスを高齢者や体の不自由な人に拡充する。試験運用で有効性が確認されると、一般住民を対象としたサービスに進む。

無人タクシー

Waymoはフェニックスで自動運転車の走行試験を続けているが、2017年11月からは無人タクシーとして運行を開始した。当初は、安全のためにセーフティドライバーが搭乗していたが、2018年3月からは、文字通り無人のタクシーとして運行している。今では、生徒が通学の足として、また、住民が買い物に行くために、Waymoを利用している(下の写真)。

出典: Waymo

無人タクシー利用形態

毎日400人の住民が無人タクシーを利用している。利用者は、高齢者、高校生、子供がいる家族、身体障害者など幅広く、Waymoが日々の移動手段となっている。利用形態で一番多いのが通勤と通学で、また、レストランやバーに行くときも頻繁に利用される。スーパーマーケットに買い物に行くときの住人の足として機能している。

無人タクシーの中で

無人タクシー利用者は、移動中に何をしているかも明らかになった。クルマのなかで学校の宿題をしたり、メールや本を読むケースが多い。乗客は車内でWaymoの運行を監視しているオペレーターと話をすることができる。どの道を通って目的地に行くのかなど、質問があるときは車内に設置されているボタンを押してオペレーターに質問できる。

料金体系

Waymoは無人タクシー料金について公表していないが、Uberの料金が基準となることは間違いない。実証実験では料金は無料であるが、試験的にアプリに料金が表示される仕組みになっている。例えば、11.3マイルの距離を走ると19.15ドルと表示される。マイルあたりに換算すると1.69ドルとなり、これはUberXLの料金(マイルあたり1.55ドル)に匹敵する。WaymoはUberより安い料金体系を計画しているとも噂され、無人タクシーはライドシェア市場を直撃することになる。

無人タクシー事業展開

実際に、Waymoは無人タクシー事業を大規模に展開する計画を公表している。WaymoはFiat Chrysler Automobilesから62,000台のHybrid Pacifica Minivansを購入し、自動運転パッケージを搭載し、無人タクシーとして運行する(上の写真)。更に、WaymoはJaguar Land Roverから20,000台のI-PACEを購入し、プレミアム版の無人タクシーとして運行する(下の写真)。I-PACEはJaguarが開発した初の電気自動車(EV)で、お洒落なデザインとなっている。Pacifica Minivanを日常生活の足として使い、特別な日にリッチに移動するときにI-PACEに乗る、という使い分けになりそうだ。

出典: Waymo

無人トラック

Waymoは2018年3月、無人運転トラックを開発していることを明らかにした。車体はPeterbilt社のModel 389 (Class 8)で、ここにWaymoのセンサーとソフトを搭載している(下の写真)。センサーは自動運転車と同じもので、ソフトウェアも95%が同じであるとしている。自動運転車で培ってきた技術をそのまま使うことができるが、トラックはブレーキ操作、右折や左折、ブラインドスポットなどが異なるため、若干の手直しが必要となる。無人トラックはAtlanta(ジョージア州)で試験走行が展開されている。Atlantaは全米のロジスティクスのハブで、Waymoはここを拠点に無人トラックの開発を進める。

無人トラック応用分野

自動運転トラックは輸送会社のネットワークに組み込まれ、製造工場、配送センター、港湾などを結び、貨物を輸送する。ハイウェーで自動運転トラックの走行試験が進んでおり、セーフティドライバーが搭乗し、問題が発生すると運転を取って代わる。Waymoはホンダとの技術提携を発表したが、両社で配送向けの自動運転技術を開発していると言われている。

出典: Waymo

無人乗用車

Waymoは自動運転車を個人に販売するビジネスモデルも進めている。Waymoは、前述の、Fiat Chryslerと個人向け自動運転車の開発に関する協議を始めた。また、Waymoは、自動車メーカーの半分以上と、個人向け自動運転車に関する交渉をしているとも言われている。自動運転車は無人タクシーなどビジネスユースが中心となるが、消費者が自動運転車を所有したいという需要も大きいとみている。

ロードマップ

Waymoから四つのビジネスモデルが出そろい事業の骨格が明らかになった。無人タクシーが最初の事業で、アリゾナ州に続きカリフォルニア州で試験運行が実施される。無人タクシー商用運行時期は公表されていないが2020年と噂されている。商用運行が始まると、無人タクシーはライドシェアを直撃し、輸送形態が激変する。タクシーがUberに置き換わったように、今度はWaymoがUberを置き換えることになる。

GoogleはAIコールセンターを発表、人間に近づきすぎたAIが顧客のクレームを処理

Friday, July 27th, 2018

GoogleはコールセンターにAIを統合したサービス「Contact Center AI」を発表した。Google Cloud Nextで科学研究責任者のFei-Fei Liが基調講演の中で明らかにした(下の写真)。Contact Center AIはコールセンターのオペレーター業務をAIで代行するもので、顧客からの問い合わせに、人間のようにインテリジェントに対応する。

出典: Google

AIが消費者の苦情を処理

講演の中でContact Center AIのデモビデオが紹介された。消費者が、購買した商品を返品するため、eBayのコールセンターに電話したという設定で、Contact Center AIの機能が紹介された。消費者がコールセンターに電話するとAIに繋がり、AIは人間のように自然な会話で対話する。AIが消費者の苦情を聞き、その内容を理解して、事務処理を完結した。

AIと人間の共同作業

具体的には、消費者はテニスシューズを買いたかったが、間違えてランニングシューズを購買したので、これを返品したいと申し出た。AIは会話を通して、消費者の意図を理解し、商品返品のプロセスを実行した。更にAIは、消費者はテニスシューズを買いたいという意図を掴み、電話をファッション担当オペレーターに転送した。消費者はオペレーターと会話して、目的のシューズを購買することができた。インテリジェントなAIが示されたことに加え、人間と協調してコールセンターのタスクを実践する仕組みも明らかになった。

消費者とAIとの会話

消費者とAIの会話は次の通り進行した:

AIは冒頭でマシンであることを明らかにし、人間そっくりの口調で消費者と対話を始めた。ここにGoogle Duplex(人間過ぎる仮想アシスタント)の技法が使われている。オープンエンド形式の会話モデルで、AIはHelloと挨拶してから要件を確認した。オープンエンド形式とは、テンプレートが無い会話モデルで、消費者の発言にAIが臨機応変に対応する。多くのコールセンターはツリー形式の会話モデルで、質問に答えながらガイダンスが進む。

AI:Hello Mala, I am an automated agent.  Welcome back to eBay.  It looks like we delivered six running shoes on June 26the.  Are you calling about this order?

出典: Google

消費者は購買したシューズが合わないので返品したいと告げる(上の写真)。AIはこれを理解して、返品のプロセスを起動し、その確認書をメールで送信したと告げる。

消費者:Unfortunately, they don’t fit.  So I need to return them.

AI: I can help you that.  I am starting a return for you.  You will be receiving an email with the details of your return.

AIは消費者の意図を把握し、更に、会話した情報を記録する。AIは、消費者は返品だけでなく、目的のシューズを探していることを推測する。AIは消費者にファッション担当オペレーターに電話を転送しましょうかと提案。消費者はイエスと答え、AIはオペレーターに電話を転送した。

AI:One more thing.  Would you like me to connect to an eBay fashion expert to find the right shoes?

オペレーター向けの情報

電話が転送されると、オペレーターのデスクトップには消費者とAIの会話が表示され、今までの経緯を理解することができる。更に、オペレーターが消費者と会話を進めると、AIは対話をリアルタイムで解析し、消費者の意図を把握し、最適な商品を推奨する。このケースでは、AIはハードコート用のテニスシューズを推奨し(下の写真)、消費者はこれを購入して一連のトランザクションが終了した。

出典: Google

システム構成

このケースではGoogle Cloudで稼働するGenesysのコールセンターシステムが使われた (下の写真、中央部)。消費者(左側)はAI(AI Virtual Agent、中央上部)と対話し、AIが自然言語でクレーム処理のタスクを実行する。次に、AIはオペレーター(右側)に電話を転送する。オペレーターが消費者と会話する際に、別のAI(Agent Assist、中央下部)が会話をリアルタイムで解析し、推奨製品などをディスプレイに表示する。

出典: Google

インテグレーション

Contact Center AIは既存のコールセンターシステムに統合して利用される。Contact Center AIがインテリジェントな音声対応機能(Interactive Voice Response)を司り、コールセンターの頭脳として機能する。このデモではGenesysが使われたが、この他に、Mitel、Cisco、TwilioなどのシステムでContact Center AIを使うことができる。企業はコールセンター業務をContact Center AIで実行し、人間のオペレーターを知的な業務に振り向けることができる。

Google Duplex

Googleはこれに先立ち、会話型AI「Google Duplex」を公開している。Duplexは人間のように会話するAIで、レストランの店員と話してテーブルを予約する(下の写真)。話し方が人間そっくりで、市場からは驚嘆の声が上がっている。同時に、なぜAIをここまで人間に近づける必要があるのか、議論となっている。Google Duplexは消費者向けのサービスとして登場したが、Contact Center AIに組み込まれ、適用範囲が企業向けに拡大した。

出典: Google

人間の能力を開花させる

Googleは先進的なAIを投入し社会で波紋が広がっているが、企業向けのソリューションであるContact Center AIでは、人間との協調を重視している。Fei-Fei Liは事務的な作業はAIに任せることで、人間は知的な仕事に専念できると説明した。これを「Elevating Human Talent」と呼び、Contact Center AIはオペレーターの職を奪うのではなく、人間の能力を開花させる存在であることを強調した。

AIコールセンター市場

AIコールセンターではIBM Watsonなどが先行しているが、Googleは強みであるAIを全面に押し出して、インテリジェントな機能で先行他社に挑戦する。今回の発表では、各社が独自のAIを開発するためのツールも公開された。業務形態に合わせてAIコールセンターを開発することができる。多様なキャラクターのエージェントが開発され、人間より対応が上手なAIが登場するのか、期待が膨らむ技術である。