Archive for the ‘人工知能’ Category

次期大統領選挙の争点はベーシックインカム、AIに仕事を奪われる大失業時代の政策が問われる

Thursday, February 15th, 2018

AIの急速な進化で自動化が進み、労働者の職が奪われるケースが急増している。アメリカ経済は成長を続けるが、富が富裕者層に局在し、社会格差が広がっている。2015年には米国製造業で400万人が職を失い、2030年には全労働者の1/3が失業するといわれている。資本主義の矛盾をどう解決すべきか、ベーシックインカムの議論が広がっている。2020年の大統領選挙ではベーシックインカムが重要な争点となりそうだ。更に、失業を生み出すAI企業の責任も問われることになる。

出典: yang2020

ベーシックインカムとは

ベーシックインカム (Universal Basic Incomeと呼ばれる) とは、社会保障の一種であるが、従来の失業保険などとは異なり、全ての国民に一律にお金を支給する制度を指す。受取のための条件はなく、毎月一定額の金額が支給される。受け取ったお金の使途の制限も無く、受給者が自由に使うことができる。ベーシックインカムの構想は50年ほど前から議論されてきたが、AIによる失業問題が拡大する中、再び注目されている。

大統領選挙に向けた動き

トランプ大統領が就任して一年余りたつが、既に次期選挙に向けた動きが活発化している。民主党 (Democratic Party) からは起業家のAndrew Yangが立候補を表明した。Yangは自動化による失業者を救済することを公約のトップに掲げキャンペーンを展開している (上の写真)。大失業時代の対策としてベーシックインカムの導入が必要であると主張する。

毎月1000ドル受け取る

Yangは選挙サイトにベーシックインカム導入の意味やその具体的な政策を示している。それによると、毎月1000ドルを18歳から64歳までの米国国民に一律に支給する。支給条件はなく、収入に関わらず誰でも毎月1000ドルを受け取る。生活保護を受けている人は、これを延長するか、又は、ベーシックインカムを選択できる。65歳以上は国民年金 (Social Security) を受け取ることになる。国民医療保険 (MedicareとMedicaid) はそのまま存続する。これ以外の保護政策はなく、月額1000ドルがセーフティーネットとなり生活を下支えする。

ベーシックインカムが必要な理由

AIやロボットの導入で米国製造業で既に400万人の職が失われた (下の地図、赤い部分Rust Beltに集中している)。自動運転車の導入でトラック運転手350万人の職が失われると予測される。Yangは単純労働作業や危険な職種は自動化すべきだとし、AIやロボットが社会に入ることを歓迎している。一方、これによる失業者が最低限の生活をするために、ベーシックインカムを導入する。更に、失業を生み出すAIやロボット企業は応分の負担をすべきだと考えている。

出典: Wikipedia

財源をどこに求めるか

ベーシックインカムを導入すると年間2兆ドルの歳出となり、米国国家予算 (4.1兆ドル、2018年度予算教書) の半分を占める。Yangはベーシックインカムの財源をValue-Added Tax (VAT、付加価値税) に求めるとしている。米国で新たにVATを導入し税率を10%とする。VATとは企業が生み出す製品やサービスに課税する税で、企業は税を回避することが難しくなり、公平に課税できる点が評価される。欧州では幅広く導入されているが、米国では使われておらず、地方政府がSales Tax (売上税) として徴収している。

効果はあるのか

最低の生活が保障されると人は働かなくなるとの議論があるが、Yangはベーシックインカムを導入することで勤労意欲が増すとしている。現在の社会保障制度は受給者が収入を得ると支給が停止され、これが勤労意欲を減らす原因と指摘する。ベーシックインカムは収入に関係なく一律に支給され、最低限の生活ができ、仕事が見つかると収入が増える。また、大学で学びなおし新しいキャリを目指す人も増える。更に、起業家のように独立して事業を始める人が増えるとも述べている。

オバマ大統領などが支持

多くの政治家がベーシックインカム導入を積極的に検討している。オバマ前大統領は在任中、AIやロボット開発を推進したが、同時に、これにより富が富裕層に局在することを懸念していた。今後、10年から20年後には、お金を配布する仕組みの導入が必要と述べ、ベーシックインカムの導入が必須であるとの見方を示した。ヒラリー・クリントン候補は大統領選でベーシックインカム導入を公約とはしなかったが、この仕組みに共感していたと伝えられる。

シリコンバレーで賛同が広がる

シリコンバレーでもベーシックインカムの議論が活発になっている。この背景には、ハイテク企業が生み出すAIが労働者の雇用を奪う大きな要因となり、企業経営者はその責任の一部を負うべきとの考え方があるためだ。ハイテク企業経営者を中心にベーシックインカム導入を支持する声が高まり、シリコンバレーでその実証試験が始まった。ベーシックインカムが問題を解決する切り札になるのか、データサイエンスの手法でその検証が始まった。

オークランドでの実証実験

著名ベンチャーキャピタルY Combinatorはベーシックインカムの予備試験を実施した。サンフランシスコ対岸のオークランド (下の写真) で100家族を選び、毎月1000ドルの現金を支給した。受給者は受け取ったお金を自由に使うことができる。予備試験は2016年9月から2017年末まで実施された。

出典: Google

全米で本試験を実施

この予備試験に続き、Y Combinatorは規模を拡大した本試験を展開する。二つの州で1000人を選定し、今年から5年にわたり毎月1000ドルを支給する。このグループと受給を受けない一般のグループを比較し、受給者の行動特性や健康状態を解析する。具体的には、受給者の時間の使い方、健康管理、財政状況、意思決定のパターン、政治に関する偏向などを調査する。これらの情報がベーシックインカムを制度化するための基礎データとなる。

実証試験の意味

Y Combinatorがこのプログラムを実施する理由は社会システムの歪みを補正するため。米国において貧困者層が急増し、中間層が減少し、社会格差が拡大している (下のグラフ、富裕層10%がその他90%の収入を上回る)。これにより米国で政治対立が先鋭になり (極右団体と極左団体の拡大)、地域社会が分裂する (ジェントリフィケーション) など、社会全体が不安定になっている。

出典: Y Combinator / Piketty, Saez, Zucman (2016)

ベーシックインカムを科学的に分析

AIを中心にテクノロジーがこの流れを加速している。このため社会格差を緩和するためにベーシックインカムの議論が高まっている。しかし、その有効性を議論するための科学的なデータはなく、施策は進んでいないのが実情である。このプログラムの目的はベーシックインカムを科学的に解析し基礎データを収集することにある。

ストックトンでも実証実験が始まる

シリコンバレー郊外のストックトンはベーシックインカムの導入を決定し、試験運用が間もなく始まる。同市は長年にわたる財政規律の緩みで、2012年に財政破産を宣告した。今は新市長のもとで、革新的手法を取り入れ、経済の立て直しを図っている。この一環で、市は2018年8月から、ベーシックインカム研究プログラムを開始する。100人の市民を選び毎月500ドルを3年間支給する。研究プログラムの目的は、受給者の生活や健康を追跡調査することで、これら基礎データがベーシックインカムを制度として導入する際の参考情報となる。

ベーシックインカム研究所

この研究プログラムは非営利団体「Economic Security Project」と共同で実施されている (下の写真)。この団体はFacebook創設者のひとりChris Hughesが設立し、ベーシックインカムの基礎研究を担っている。Economic Security ProjectはAIによる自動化やグローバリゼーションが社会格差を生んでいると認識する。米国経済は好調で巨大な富が蓄積されるが、低所得者層はその恩恵にあずかることができない。中間層は上に昇ることができず、将来への不安が高まる。この問題を解決するためにベーシックインカムの手法が有効であるかどうかを研究する。

出典: Stockton Economic Empowerment Demonstration

アメリカ国民の意見

社会格差が拡大する中、AIやベーシックインカムを米国人はどう受け止めているのか、興味深い調査結果が発表された。これはGallupとNortheastern Universityの共同研究で、アメリカ人成人3,297人へのアンケート調査を解析した結果である。これによると、米国人はAIに対して好意的な印象を持っている(76%)。しかし、同時にAIの導入により職が奪われるとも感じている(73%)。米国人はAIをポジティブに評価しているものの、同時に、AIが仕事を奪うと懸念している姿が浮かび上がる。

AI企業の責任

ベーシックインカムについては、アメリカ人の半数 (48%) が必要と考えている。AIに仕事を奪われるため、ベーシックインカムがセーフティーネットとして必要であると考える。しかし、ベーシックインカムの財源をどこに求めるかについては際立った特徴を示している。増税などによる国民への負担が増えることには反対で、多くの人 (80%) はAIで利益を得たハイテク企業が負担すべきと考えている。AI企業は失業対策で大きな社会的責任を持つべきとの考え方が主流となってきた。

Facebookは導入を支持

この流れを肌で感じているシリコンバレー経営者はベーシックインカムの必要性を相次いで表明している。Facebook最高経営責任者Mark Zuckerbergは講演の中で、ベーシックインカムの導入が必要との考えを示した。Zuckerbergは社会の新ルールを作る必要があるとし、人は収入ではなく仕事の意味で評価されるべきとの持論を展開。新社会では仕事に失敗しても生活できる社会構造が必要と述べ、ベーシックインカムの導入を支持している。

Microsoftはユートピア論を展開

Microsoft創設者Bill GatesはAIの社会に及ぼすインパクトに関し特異な見解を持っている。世界経済フォーラムの会場でこれを表明した (下の写真)。AIは既に社会に入りこみ、多くの人の職を奪っている。しかし、AIは人間より効率的に仕事をこなし、多くの富を生みだしている。これにより人間は労働時間を減らすことができ、空いた時間を好きなことに費やすことができる。つまり、GatesはAIは人間にユートピアを提供すると予測している。

出典: CNBC

理想郷にソフトランディングするために

同時に、AIは社会に浸透する速度が速く、世の中がこの流れに追随できないことが問題だと指摘する。このため、政府は社会保障制度を見直しベーシックインカムを導入し、失業者を再雇用するための教育プログラムの拡充も求められる。政府の施策が上手く機能し、近未来のAI社会にソフトランディングできれば、我々の未来は明るいとしている。

トランプ政権は無関心

トランプ政権はベーシックインカムを支持すると期待されていたが、それとは逆の方向に進んでいる (下の写真)。そもそもトランプ政権はAIやロボットの導入で失業者が増えるとの認識は薄い。米国製造業の雇用はメキシコや中国などが奪うとの信念に基づいて政策が立案されている。このためNAFTAやTPPから脱退し、各国と契約条件の見直しを進めている。AIやベーシックインカムに関する議論はなく、政策で真空状態が続いている。米国では連邦政府に代わり、上述の通り、地方政府やハイテク企業がこの政策をリードしている。

AIでどれだけの職が失われるか

では、AIやロボットなど自動化技術の導入でどれだけの職が奪われるのか、多くの統計データが公表されている。世界経済フォーラムは2020年までに710万人の職が失われ、200万人の職が生み出されるとみている。McKinseyは2030年までに失われる職の数を最大8億人と推定。独立系メディアMother Jonesは、2040年までに全職業の半数がAIに置き換わり、2060年までにすべての仕事はAIに置き換わると予測している。ブルーカラー労働者だけでなく、医師、新聞記者、会社経営者、科学者、芸術家など全職業がAIに取って代わられる。

出典: White House

AI企業の新たな使命

多くのシンクタンクが予測するように、AIによるインパクトは甚大で、大失業時代が到来する。これに備えてベーシックインカムの議論が進み、実証実験による科学的な検証が始まった。同時に、失業を生み出すAI企業の責任をどう査定するかの議論も始まった。温暖化ガスを排出する企業に税金を課すように、失業を生み出すAI企業へ応分の負担を求めることが国民世論となってきた。既に多くのAI企業は良き市民として社会責任を果たすべく活動を展開している。今後は、社会格差や失業問題への対応求められ、これらがAI企業の新たな使命となる。

Baiduはオープンソースの手法で自動運転技術を開発しAIとデータを公開、中国で自動運転車開発ラッシュ

Thursday, February 8th, 2018

Baiduは2018年1月、CESで自動運転技術「Apollo」最新版を公開した。Apolloとはオープンソースの自動運転車開発基盤で、ソフトウェアやデータが公開され、メーカーはこれを使って自由に自動運転車を開発することができる。BaiduはApolloを自動運転車のAndroid位置づけ、中国企業を中心にエコシステムが広がり、Apolloを搭載した自動運転車が続々登場している。

出典: Baidu

ライブデモを実施

BaiduはCES会場で、ラスベガスと中国・北京を結び、Apolloを搭載した自動運転車のデモ走行を披露した。この模様はビデオで公開された。デモ会場は北京にあるBaidu本社で、夜明け前の暗闇の中を自動運転車が隊列走行した (上の写真)。Apolloは異なる車種のクルマに搭載され、構内を自動運転で走行した。先頭のクルマはFord製の高級車種Lincoln MKZで、Apollo自動運転技術を搭載し、運転席にはドライバーの姿はなく、クルマが自動で走行した。

AI Cityを開発

Baiduは同時に、「AI City」を走行する自動運転車のデモビデオを公開した。Baiduは地方政府と共同でXiongan (河北省・雄安) に人工知能都市AI Cityを開発している。市の一部を特区 (New Area) として、次世代スマートシティーのプロトタイプを構築する。具体的には、この街をAIを活用した商業地域とし、自動運転技術 (Intelligent Transportation)、対話型AI (Conversational AI)、クラウド (Cloud Computing) を導入し、インテリジェントな近未来都市を構築する。

AI Cityで自動運転走行デモ

BaiduはAI CityでApolloを搭載した自動運転車のデモ走行を実施した。Apolloを搭載した異なるモデルの車両が市内の公道を走行した。クルマは対面通行の道路などを安全に自動走行した (下の写真)。ここは中央分離帯が無く、道幅は狭く、高度な技術が必要となる。Baiduは中国におけるGoogleとして認識されているだけでなく、今では自動運転のリーダーとして技術開発を主導する。BaiduがAI Cityで自動運転のデモを実施した最初の企業で、その実力の高さを内外に示した形となった。

出典: Baidu

交差点の左折や問題への対応

クルマは信号機のある複雑な交差点を左折できることも示された。クルマのセンサーは信号機や歩行者を正しく認識し、安全な走行経路を決定する。また、交差点でUターンをすることもできる。更に、対向車がセンターラインを越えて車線に入ってきても、これを認識して安全に停止した (下の写真)。

出典: Baidu

ディスプレイ

自動運転車のダッシュボードにはディスプレイが搭載され運行状態を表示する (下の写真)。自動運転機能を可視化してディスプレイに表示することで、アルゴリズムが何を見て、どのように判断したかが分かる。具体的には、 Apollo API (自動運転ライブラリ) の「Perception」という機能は、クルマ周囲のオブジェクトを把握し、その種別を特定する (下の写真、緑色の箱)。また、「Planning」という機能は、把握したオブジェクトを考慮して、安全な走行ルートを算定する (下の写真、クルマの前に示された水色の線)。アルゴリズムの演算結果をディスプレイに表示することでクルマの挙動を理解できる。更に、クルマの走行データを記録する機能もあり、アルゴリズムのデバッグなどに役立てる。

出典: Baidu

ハードウェア

Apolloはソフトウェアとハードウェアから構成され、通常のクルマにこれらを搭載して自動運転車とする。センサーはLidar (レーザーセンサー)、カメラ、レーダーが使われ、これら機器を車両に搭載する (下の写真)。これが標準装備で、三種類のセンサーをAIが解析し (Sensor Fusionと呼ばれる)、自動運転を実現する。運転席には自動運転を解除するための非常ボタンが設置されている。Apollo自動運転車は北京の公道で試験走行を進めている。また、Baidu研究所があるカリフォルニア州でも走行試験が実施されている。

出典: Baidu

オープンソースの手法

Baiduは自社単独で自動運転技術を開発するのではなく、オープンソースの手法で技術を公開し、パートナー企業と供に製品を開発している。既に多くの企業がApolloプロジェクトに参加している。その数は90社にのぼり、中国企業が65社と大半を占めている。海外メーカーではFordやDaimlerやHyundaiが加わっている。海外サプライヤーではBosch、Continental、Delphiなどが、半導体メーカーではNvidia、Intel、NXPなどが参加している。日本からはルネサスエレクトロニクスとパイオニアが参加している。中国企業が中心であるものの、海外から大手企業が参加しており、その関心の高さが窺える。

Microsoftが参加

IT企業からはMicrosoftがパートナーに加わっている。MicrosoftはクラウドサービスAzureを提供し、自動運転車のシミュレータ「Dreamview」(下の写真) の運用を支える。自動運転車が商品として販売され、市街地で運行を始めると、Microsoftはクルマとクラウドを結ぶコネクティッドカー機能を提供することを計画。現在、Apolloは中国で展開されているが、Microsoftがプロジェクトを米国や欧州で展開することを手助けする計画もある。

出典: Baidu

オープンソースの手法は上手くいくのか

Apolloソフトウェアはオープンソースの手法で開発されている。開発されたソフトウェアはGitHubに公開され、誰でも自由に利用して自動運転車を開発できる。同時に、参加企業は自社で開発したソフトウェアをApolloにフィードバックすることもできる。このプロセスを繰り返すことでApolloの完成度が向上するというシナリオを描いている。

Apolloの機能は未成熟

Apolloの機能はまだ限定的で、複雑な市街地を走行できる訳ではない。Apolloが提供している機能は、幹線道路での直進、左折・右折、Uターンなど基本操作に限られる。Apolloの機能はまだまだ未完成で、今すぐに無人タクシーとして使える訳ではない。つまり、Waymoなど先行企業はApolloに加わるインセンティブはない。

出典: Baidu

自動運転技術はコモディティに向かう

しかし、新興企業にとってみると、Apolloに参加することで、短期間で自動運転車を商品化でき、新事業創設のチャンスが広がる。Fordなど大手メーカーは自社開発だけでなく、Apolloで逆転を狙うという目論みがあるのかもしれない。更に、自動運転技術は基本ソフトのように基礎技術となり、共通に利用できる方向に進むということを示唆している。誰でも手軽に自動運転車を開発できれば、差別化の要因をどこに求めるのか、新しい課題も見えてくる。

Androidモデルを踏襲

参加企業の多くは中国の自動車メーカーであり、Apolloを搭載した自動運転車が続々と開発されている (上の写真)。自動車だけでなく、Apolloを搭載したバスや道路掃除車両や配送ロボットなどが登場している。この状態はGoogleがスマホ基本ソフトAndroidを買収した2005年頃に似ている。当時、Apple iOSに比べAndroidは未成熟な基本ソフトであったが、Googleがオープンソースの手法で開発し、Androidは急速に完成度を増した。Androidが世界を席巻したように、Apolloもこの流れに乗ることができるのか、世界から注目を集めている。

レジ無し店舗「Amazon Go」の運用が始まる、AIが売り上げを把握する仕組みとは

Friday, February 2nd, 2018

Amazonは2018年1月、レジ無し店舗「Amazon Go」の運用を開始した (下の写真)。一般顧客がAmazon Goで買い物をできるようになった。店舗内で顧客が取り上げた商品はAIが自動で認識し、専用アプリに課金される。店舗にはレジはなく、顧客は取り上げた商品を持ってそのまま店を出ることができる。謎が多いAmazon Goであるが、ニュース記事やツイッター記事を読むとその概要が見えてきた。

出典: Amazon

AIが購入を判断

Amazon Goは専用アプリで利用する。店舗に入る際にアプリを起動し、表示されたQRコードをリーダーにかざすと、ゲートのバーが開く。店舗内では、商品を手に取り、買いたいものを自分のバッグに入れる。商品点数が少なければ手で持つこともできる。AIは顧客が商品を取り上げた時点で購買したと判定する。

AIは返品も認識

しかし、気が変わり顧客が商品を棚に戻すと、AIは返品されたと認識する。この時点で、購買したアイテムからこの商品が取り除かれる。店舗にはレジはなく、買い物が終わると顧客はそのまま店を出る。AIは顧客が購買したアイテムを把握しており、専用アプリに課金される。レシートはアプリに示され、顧客は購入した商品を確認できる。

システム概要

どういう手法でこれを判定するのか気になるが、Amazonはその技法については公開していない。Computer Vision (画像解析)とDeep Learning Algorithm (深層学習アルゴリズム) とSensor Fusion (異なる種類のセンサーを統合) を利用していると述べるに留まっている。

必要な機能

無人レジでは、顧客を特定する技術と、取り上げられた商品を特定する技術が必要となる。前者はComputer Visionで消費者を把握し追跡する。後者もComputer Visionで商品を特定する。更に、商品棚にはセンサー (重量計) が設置され、特定の商品が取り上げられたことを把握する。

顧客を特定する技術

前述の通り、店舗にはゲートが設置されており (下の写真)、ここでアプリのQRコードをかざすと、システムは利用者を把握する。天井に設置されているカメラが利用者を認識し、位置を特定する。これで顧客情報とその姿を紐づけることができる。店舗内で利用者が移動すると、天井に設置されたカメラがそれを追跡する。AIは利用者の顔認証は実施しない。顧客の姿の特徴量を把握し、これをキーに顧客をトラックする。

出典: Seattle Times

天井に設置されたカメラ

天井には数多くのカメラが設置されている (下の写真)。カメラはボックスに装着されている。このボックスはプロセッサーで、カメラが捉えたイメージの基礎的なAI解析を実行する。具体的には、人の存在の認識、利用者の特定と追跡、利用者の動作の意味を把握する。利用者が移動すると、別のカメラがこれをフォローする。更に、カメラは棚の商品を認識し、取り上げられた商品の名前を特定する。

出典: Seattle Times

商品棚とセンサー

商品棚 (下の写真) にはカメラと重量計が搭載されている。ただし、この写真からそれらを確認することはできない。消費者が取り上げた商品を商品棚のカメラが認識する。重量計が棚の重さを計測し、重量が減ると商品が取り上げられたと認識する。(システムは各商品の重さを認識しており、重量計は取り上げられた商品名を特定する機能があるとの意見もある。)

出典: Seattle Times

売り上げの特定

これら一連のデータはサーバに送信され、Deep Learning Algorithmが売り上げを推定する。そのロジックは次の通り。天井のカメラは利用者の位置を追跡し、特定の商品棚の前にいることを認識し、その挙動 (手を伸ばすなど) を捉える。その棚の商品が取り上げられたことをカメラと重量計で認識する。これら一連の情報をDeep Learning Algorithmで解析し、特定の消費者が特定の商品を取り上げたことを判定する。

AIが幅広いケースを学習

店舗での買い物は様々な状況が発生する。システムはDeep Learningの手法でこれらを学習していく必要がある。顧客は商品をバッグに入れるが、途中で気が変わり、それを別の棚に返品すことが多々ある。顧客は商品をバッグに入れるのではなく同伴している子供に手渡すケースもある (下の写真、右側)。一方、顧客が商品を取り上げて、それを別の顧客に手渡すケースもある (下の写真、左側、現在このケースは禁止されている)。アルゴリズムはこれらの事態を把握し、正しく会計処理ができるよう教育される。

出典: VentureClef

アルゴリズム教育プロセス

このため、Deep Learning Algorithmを教育し、顧客を認識する精度を高め、消費者の行動の意味を学習するプロセスが成否のカギを握る。教育を通じ、アルゴリズムは顧客が商品を手に取る、商品をバッグに入れる、商品を棚に戻すなどの行動の意味を高精度で推定できるようになる。この教育プロセスを実施するために、公開に先立ち、Amazon GoはAmazon社員を使ったトライアルが実施された。

開店が遅れた理由

Amazon Goは2016年12月に発表され、2017年初頭の開店を目指していた。しかし、公開は2018年1月と大きくずれ込んだ。開発が遅れた理由は公表されていないが、店舗が込み合っている時は、AIは売り上げを正しく判定できないためとされる。このためにカメラの台数を増やし判定精度を向上させた。Amazon Goの床面積は1,800平方フィート (167平方メートル) でここに100台ほどのカメラが設置されている。三畳間に一台のカメラが設置されている計算で、Amazon Goは多数のカメラでもれなく顧客をモニターする構造となる。

認識精度は

気になるAmazon Goの認識精度であるが、開店して一週間が経過するが、特に大きな問題は報告されていない。ただ、CNBCのレポーターが買い物をしたとき、ある商品 (Siggi’s Yogurt) が課金されなかったと報じている (下の写真)。一方、あるレポーターは店員さんの許可を得て、商品を”万引き”したが、店舗を出るとアプリに課金されていたと報告している。判定精度は実用に耐えるレベルに達していると思われる。また、このシステムは万引き防止にも役立つことも分かってきた。

出典: Deirdre Bosa

レジ無し店舗展開計画

AmazonはAmazon Goの展開計画については沈黙を守っている。ただ、開店したAmazon Goの品ぞろえを見ると、コンビニ形式の店舗となっている。食料品や日用品を中心に品ぞろえされ、顧客は少数点数を購買するパターンが目立つ。Amazon Goはオフィス街のコンビニとして運営されるとの噂もある。時間に追われている社員が、昼休みにサンドイッチと飲み物を手に取り、急いで店を出るケースなどが想定されている。Amazon Goではレジ待ちはなく、ランチ時間がちょっとリッチになり、社員の味方になるかもしれない。

GoogleはAIがAIを生成するクラウドを公開、業務に最適なニューラルネットワークを数分で開発できる!

Friday, January 26th, 2018

GoogleはAIがAIを生成する技術の開発を急いでいる。この技法は「AutoML」と呼ばれ、AIがニューラルネットワークを自動で生成する。アルゴリズムが別のアルゴリズムを生成する技法で、AI基礎研究で重要なテーマと位置づけている。GoogleはAutoMLを使って高度な機械学習アルゴリズムを生成し、社内サービスで利用してきた。今般、Googleはこの技法をクラウドサービス「Cloud AutoML」として一般に公開した (下の写真)。

出典: Google

Cloud AutoMLとは

Cloud AutoMLは機械学習クラウドサービスで、利用者の研究や業務に最適化したニューラルネットワークを生成する。現在は、既存のニューラルネットワークを使ってAIシステムを構築している。これらは”汎用AI”で幅広い機能を持つが、高度な判定能力が要求される特定業務では使えない。このため”専用AI”を開発する必要があるが、これに応えることができるAI研究者の数は限られている。Cloud AutoMLはAI研究者に代わり”専用AI”を瞬時に開発する。

Googleの汎用AIクラウド

AmazonやMicrosoftやGoogleは汎用AIをクラウドで提供している。Googleはこれを「Cloud ML Engine」として提供している。多くの機能が揃っているが、画像認識処理を実行するには「Cloud Vision API」を利用する。これは教育済みの機械学習エンジンで、イメージを入力するとアルゴリズムがオブジェクトの名前を判定する。又は、エンジニアが公開されているニューラルネットワーク (Google Inceptionなど) を使って、機械学習アルゴリズムを開発することもできる。

Cloud Vision APIを使うと

Cloud Vision APIを使うと簡単に写真の分類ができる。イメージを入力するとシステムはその属性を出力する。例えば、空に浮かんだ雲の写真を入力すると、システムは解析結果として「Sky」や「Cloud」と回答する (下の写真)。その他に、写真に写っている顔を把握し、その表情を分類する機能もある。

出典: VentureClef

気象専門家は使えない

しかし、気象専門家がイメージを科学的に解析するには、Cloud Vision APIの判定機能は十分ではない。上述のケースでは、Cloud Vision APIはイメージを「Sky」や「Cloud」と判定するが、雲の種類を特定することができない。雲の種類である「Cumulus humilis (巻積雲)」と判別する機能はない。

雲の種類を判定できる機械学習アルゴリズム

このため雲の種類を判別できる機械学習アルゴリズムを開発することが求められる。この需要に応えてCloud AutoMLが登場した。Cloud AutoMLが雲の種類を判定できる機械学習アルゴリズムを自動で生成する。Cloud AutoMLは、雲の種類の他に、ファッション区分や動物種別の判定など、特殊な判定が求められる機械学習アルゴリズムを自動で生成する機能を持つ。

Cloud AutoML利用プロセス

Cloud AutoMLでアルゴリズムを生成するためには写真データセットを準備する必要がある。これはタグ付き (又はタグ無し) の写真アルバムで、上述のケースでは雲の写真とその種別を紐づけたセットを準備する。この写真データセットをクラウドにアップロードすると、Cloud AutoMLが雲の種類を判別できる機械学習アルゴリズムを自動で生成する。

データ入力と教育

具体的にはCloud AutoMLのインターフェイスに沿ってこれらの操作を実行する。まず、「Label」のページでタグ付きの写真データセットをアップロードする。ここでは種別ごとの雲の写真をアップロードする。(下の写真、「Cumulonimbus (積乱雲)」というタグがついている雲の写真をアップロード)。 AutoMLは自動で機械学習アルゴリズムを生成し、「Train」というページで、アップロードされた写真を使ってアルゴリズムを教育し最適化する。

出典: Google

アルゴリズム評価と運用

次に、「Evaluate」というページで、教育された機械学習アルゴリズムの認識精度を評価する。アルゴリズムの認識率や誤認率を確認する。最後に、「Predict」というページで、完成したアルゴリズムに写真を入力し、雲の種類を判定する処理を実施する。下のケースはその事例で、完成したアルゴリズムは入力された写真を解析し、「Cirrus (巻雲)」と正しく判定している。汎用AIは「Cloud」としか判定できないが、完成した専用AIは雲の種類まで判定できる。

出典: Google

イメージ認識機能

機械学習アルゴリズムは幅広いが、Cloud AutoMLはその中でイメージ認識 (Image Recognition) 機能を提供している。Googleによると、生成したアルゴリズムの認識率は汎用的なニューラルネットワークより精度が高く、誤認識率が低いとしている。また、ニューラルネットワーク開発期間を大幅に短縮できるのも強みである。パイロットモデルであれば数分で、プロダクションモデルであれば1日で開発できる。

応用事例:ファッションを分類する

Cloud AutoMLを業務に応用した事例が公開されている。ファッションブランドUrban Outfittersは商品にタグ付けするプロセスをCloud AutoMLで自動化した。Urban Outfitters は、商品に付加されたタグをキーに、消費者に関連商品を推奨する。また、商品検索や商品フィルタリングでもタグが使われる。Cloud AutoMLは商品イメージを解析し商品の特徴量を抽出する。例えば、洋服を分類する際に胸元に着目すると、Cloud AutoMLは商品を「V-Neck」、「Scoop」、「Crew」などと判定する。アルゴリズムはデザインパターンやネックラインなどをキーにタグを生成する。(下の写真、ウェブサイトを「V-Neck」で検索した結果。)

出典: Urban Outfitters

応用事例:動物の種別を特定

Zoological Society of Londonは国際的な環境保護団体で動物の生態を守る活動を展開している。Zoological Society of Londonは動物の生態を理解するために、生息地にカメラを設置し動物の行動を観察している。写真に写っているイメージから動物の種類をマニュアルで判定してきたが、このプロセスをAutoMLで自動化した。汎用アルゴリズムでは動物の種別を正確に判定できないが、Cloud AutoMLでこの判定ができるアルゴリズムを開発。これにより、運用コストが大きく低下し、この保護活動を大規模に展開する計画である。

ニューラルネットワーク生成は難しい

ニューラルネットワークで画像認識や音声認識の精度が大きく改善されているがネットワーク生成には特別の技量を要する。ニューラルネットワークの生成と教育では、これを支える数学の知識と、ネットワークを生成するためのプログラミング技法が必要になる。これができるAI研究者の数は全世界で数千人程度と言われている。このため、企業や組織が高度なニューラルネットワークを開発することは事実上できなかった。

ロードマップ

Cloud AutoMLの登場でこれが可能となり画期的なAIが開発される切っ掛けとなる。現在は機能が画像認識 (Convolutional Network) に限られているが、今後は音声認識 (Recurrent Neural Network) も登場すると期待される。 業務に特化したAIアルゴリズム開発が今年の重要な研究テーマとなっている。AI開発が容易になるだけでなく、この研究がAIのブラックボックスを解明する手掛かりになると期待されている。

———————————————————–

AutoMLの仕組み

GoogleはAutoMLの技法について論文で公開してきた。AutoMLはReinforcement Learning (強化学習) の手法とTransfer Learning (知識移植) の手法を使ってニューラルネットワークを生成する。前者については「Neural Architecture Search with Reinforcement Learning」で、後者については「Learning Transferable Architectures for Scalable Image Recognition」でその手法を明らかにしている。

Reinforcement Learningの手法

Recurrent Neural Network (時間依存の処理をするネット) が「Controller」となり「Child Network」を生成する。Child Networkが生成するニューラルネットワークで、ここではConvolutional Network (画像認識ネット) を対象とする。ControllerはあるPolicyに従ってChild Networkを生成し、これを教育してイメージ判定精度を得る。イメージ判定精度をRewardとしてPolicyのGradient (勾配) を計算。このプロセスを繰り返し、ControllerはRewardを最大にする方向に進み、精度の高いChild Networkの生成方法を学習する。

Transfer Learningの手法

しかし、Reinforcement Learningの手法は小さな写真 (CIFAR-10) では上手くいくが、大きな写真 (ImageNet) に適用すると、計算時間が極めて長くなる。このためTransfer Learningという手法が用いられた。これは学習したニューラルネットワークを流用する技法である。具体的には、上述のReinforcement Learningの手法で生成したConvolutional Networkの一部を流用し、それを重ね合わせて新しいConvolutional Networkを生成する。これにより、大きな写真も処理することができる。Cloud AutoMLにはこれらの技法が使われている。

AIがAIを開発する研究が急進!ニューラルネットワークを生成するアルゴリズムをスパコンで稼働させる

Sunday, January 21st, 2018

今年のAI研究の重要テーマは高度なニューラルネットワークの開発で、多くの研究者が理想のアーキテクチャーを模索している。米国国立研究所はこのプロセスをAIで実施し、大きな成果を上げた。AIが高精度なニューラルネットワークを生成し、これを物理学の研究に応用する。ニューラルネットワーク生成には大規模な演算が必要となり、スーパーコンピューターがなくては研究が進まない。GoogleもAIがAIを生成する研究を急いでいる。これはAutoMLと呼ばれ、AIが特定処理に最適化されたニューラルネットワークを生成する。今年は官民ともAIアーキテクチャー研究がホットなテーマになる。

出典: Oak Ridge National Laboratory

AIスパコンを運用

オークリッジ国立研究所 (Oak Ridge National Laboratory) は米国エネルギー省配下の機関で、世界最大クラスのスパコン「Titan」を運用している (上の写真)。TitanはCray社が開発したスパコンで、18,688のノードをから構成される並列マシンである。各ノードはCPU (AMD Opteron) とGPU (NVIDIA Kepler) を搭載し、世界最大規模のAIスパコンである。Titanで高度なニューラルネットワーク (Neural Network) が開発され、これを使って物質科学や素粒子物理学の研究が進められている。

商用のニューラルネットワークは使えない

ニューラルネットワークは画像認識や音声認識に最適なアルゴリズムで社会に幅広く浸透している。オークリッジ国立研究所の研究者もこのネットワークを使い科学の謎の解明を目指してきた。しかし、商用のニューラルネットワークを基礎研究に流用しても大きな成果は得られない。この理由は科学研究で扱うデータの特殊性による。また、教育に使えるデータの数が限られていることも大きな要因である。このため、科学研究向けの専用ニューラルネットワークを開発する必要に迫られた。

ハイパーパラメータを最適化する

このため研究者は科学分野向けに最適なニューラルネットワークの開発を進めてきた。特定のデータセットに対して、最適なニューラルネットワークが存在するという前提で、そのアーキテクチャを探求してきた。この研究は「Hyper-Parameter」を最適化するという問題に帰着する。Hyper-Parameterとはニューラルネットワークの基本モデルを指し、各層の種類、それらの順番、ネットワークの段数などで、これらを組み合わせネットワークを最適化する。

研究者が手作業ですすめる

Hyper-Parameterの最適化は、研究者が既存のDeep Learningソフトウェア (Caffe、Torch、Theanoなど) を使い、手作業で実施される。具体的には、標準ソフトウェアを改造し、各層の種類や順番、ネットワーク段数など、ネットワークのトポロジーを決める。次に、生成したニューラルネットワークを教育し、その性能を検証する。このプロセスを何回も繰り返し最適なニューラルネットワークの形を得る。ネットワークの形態を決める常套手段は無く、研究者が経験と勘を頼りに作業を進める。このため、新しいニューラルネットワークを生成するには数か月かかるとされる。

AIがAIを開発する

オークリッジ国立研究所はこのプロセスをAIで構築し、これをスパコンで実行することで大きな成果を上げた。研究者が手作業でネットワークを生成するのではなく、特定の研究に最適化されたニューラルネットワークをAIが生成する。AIが研究の目的に合ったAIを開発する。これにより、ニューラルネットワークを数時間で生成することに成功し、ニュートリノ (Neutrino) 研究に大きく貢献している。

出典: Oak Ridge National Laboratory

生物が進化する方式を模したアルゴリズム

ニューラルネットワークを生成するAIはMENNDL (Multinode Evolutionary Neural Networks for Deep Learning) と呼ばれている。MENNDLは、最初に、特定データセット (例えばニュートリノ実験データ) の処理に特化したニューラルネットワークを生成する。次に、MENNDLは生成したニューラルネットワークを教育し、その性能を評価する。これに基づき、MENNDLはネットワーク構造を進化させ (上の写真) 性能を向上させる。このプロセスを繰り返し実行し、高度なニューラルネットワークを生成する。この手法は生物のDNAが配合や変異を繰り返し進化する方式を模しており「Evolutionary Algorithm」と呼ばれる。

システム構成

MENDDLはTitanのノードを使って実行される。Master Nodeで進化のプロセスを実行し、生成されたネットワークはWorker Nodeで実行される (下の写真)。Worker Nodeは生成されたネットワークを教育し、その性能を査定する。ネットワークとしてはCaffeを使用し、Worker Nodeで大規模並列に実行する。Master NodeとWorker Node間の通信はMessage Passing Interfaceというプロトコールが使われる。

出典: Oak Ridge National Laboratory

ミトコンドリアを探す

MENDDLで生成されたニューラルネットワークは医療分野で使われている。St. Jude Children’s Research Hospitalは3D電子顕微鏡 (3D Electron Microscope) で撮影したイメージからミトコンドリア (Mitochondria) を特定するニューラルネットワークを生成した。ミトコンドリアは目立つものの、存在場所が様々で、形や大きさが異なり人間が特定するのは難しい。このためMENDDLを使いミトコンドリアを特定するための専用ニューラルネットワークを生成した。

ニュートリノの相互作用を特定

米国フェルミ研究所 (Fermi National Accelerator Laboratory) はMENDDLを使いニュートリノ検知のための専用ニューラルネットワークを生成した。ニュートリノは素粒子の中でフェルミ粒子 (Fermion) に属し、質量は極めて小さく、他の粒子との相互作用が殆どなく、透過性が高く、その検知は非常に難しい。ニュートリノ研究は初期宇宙の解明や物質の仕組みの解明につながるとされ、各国で研究が進んでいる。(日本のスーパーカミオカンデは宇宙から飛来するニュートリノを観測する施設として世界的に有名。)

出典: Fermi National Accelerator Laboratory

ニュートリノ観測専用ニューラルネットワーク

米国でフェルミ研究所が観測装置 (上の写真) を開発し、ニュートリノを大量に生成し、その相互作用を探求している。ニューラルネットワークはニュートリノ検知に特化した構造となっている。ネットワークは観測した写真を解析し、ニュートリノが装置の中のどこで相互作用を起こしたかを正確に特定する。写真には他の粒子によりる相互作用が数多く記録されるため、汎用的なニューラルネットワークではニュートリノを選び出すことが難しい。これにより稀にしか起こらないニュートリノの相互作用を高精度で特定できることとなった。

AIスパコンが研究を支える

MENDDLは50万種類のニューラルネットワークを生成し、それらを教育し性能を評価した。教育データとしてニュートリノ相互作用を記録したイメージ80万枚が使われた。この中から最も判定精度の高いニューラルネットワークが選ばれ実験で使われている。これら一連のプロセスがTitanの18,688個のノードで高並列に実行された。AIスパコンの導入によりこの研究が可能となった。

Googleでも研究が進む

GoogleもAIがAIを生成する技術の開発を急いでいる。これは「AutoML」と呼ばれ、ニューラルネットワークを自動生成する技法である。アルゴリズムが別のアルゴリズムを生成する技法で、AI基礎研究で重要なテーマと位置づけている。GoogleはAutoMLを使って高度なMachine Learningアルゴリズムを生成し社内のサービスで利用してきた。今般、Googleはこのアルゴリズムを公開し「Cloud AutoML」として一般に提供を始めた。Cloud AutoMLは利用者の研究や業務に最適化されたアルゴリズムを生成する。アプリケーションに最適なAIアルゴリズム開発が今年の重要な研究テーマとなる。ひいては、この研究がAIのブラックボックスを解明することにもつながると期待されている。