AIがAIを開発し、AIが病気を検知する、Googleは全製品をAIで強化する

May 19th, 2017

Googleは2017年5月、開発者会議「Google I/O 2017」を開催し (下の写真) AIの最新技術を公表した。GoogleはAI First企業として全社でAI化戦略「Google.ai」を進めていることを明らかにした。CEOであるSundar Pichaiが基調講演で明らかにし、その後研究詳細がリリースされた。

出典: Google

Google.aiは三つの軸から成る

Google.aiはGoogleの社内プロジェクトで、高度なAIを開発しこれを全ての製品の基盤技術とする開発戦略を指す。Google.aiは「基礎研究」、「ツール」、「応用技術」の三つの分野で構成されプロジェクトが進んでいる。基礎研究とは高度なAI技法の開発で、ツールとはAIを実行するプロセッサなどを指し、AIデータセンタとして提供される。応用技術ではAIでGoogleサービスを機能強化した事例が紹介された。

AIがAIを生成する技術

「基礎研究」でGoogleが注目しているテーマは「AutoML」である。これはMachine Learningを自動生成する研究で、アルゴリズムが別のアルゴリズムを生成する技法の開発を進めている。AIがAIを生成する技術を意味する。下の写真がその事例でAIが生成したDeep Learningアルゴリズム (右側) を示している。これはRecurrent構造 (処理結果を次のステップにループさせる構造) のネットワークで時間に依存する言語処理などで使われる。このケースではネットワークに言葉を入力すると次の言葉を予測する。

出典: Google

アルゴリズム生成方式

アルゴリズム開発は研究者の経験と勘が大きく寄与する。確立されている手法をベースに改良が加えられ新しいモデルを生成する。一方、AIは数多くのアルゴリズムを生成し、これらを実際に教育し実行し精度を把握する。これらのフィードバックをもとに、精度の高いアルゴリズムの作り方を学習する。人間は定石を積み重ねるが、AIは時として常識を覆す方式を生成する。因みにこのケースではAIが生成したアルゴリズム (上の写真右側) が人間が開発したアルゴリズム(同左側)の精度を上回った。

AIがAI研究者となる

AutoMLはGoogle Brainが研究しているテーマで、AIが最適なネットワーク構成を自動で設計することを目指す。つまりDeep Learningアルゴリズム設計に携わる研究者をAIが置き換えることを意味する。AI研究者自身もAIの進化で職を失うことになる。しかし、現実はAI研究者の数は決定的に不足しており、これをAutoMLで補う構造となる。GoogleとしてはAIに置き換えられた研究者をクラウド開発に振り向け事業を強化するとしている。

AI専用プロセッサ

二番目の区分「ツール」に関しては「Cloud TPU」が発表された (下の写真)。Cloud TPUは二代目のTPU (Tensor Processing Unit、Machine Learning計算専用プロセッサ) で大規模計算用にスケーラビリティを重視した設計になっている。Cloud TPUの性能は180Tflopsで64GBの高速メモリを搭載する。

出典: Google

AI First Datacenter

Cloud TPUは64個がボードに搭載され「TPU Pods」を構成する。ボードの最大性能は11.5 Petaflopsとスパコン並みの性能となる。TPU Podはラックに搭載され (下の写真)「Google Compute Engine」として提供される。Cloud TPUでAI処理専用のデータセンタを構築し、Googleはこれを「AI First Datacenter」と呼んでいる。同時に、Googleは「TensorFlow Research Cloud」を発表した。これは研究者向けのクラウドでCloud TPUを1000個連結し、先進AI技術開発のために無償で提供される。

出典: Google

AIをカメラに応用した「Google Lens」

三番目の区分「応用技術」については、GoogleはAIをカメラに応用した「Google Lens」を発表した。これはカメラのレンズをAIで構成するもので、カメラの機能と性能はソフトウェアが決定する。写真撮影するとカメラがAIを使ってイメージを再構築する。夜間撮影では画像にノイズが乗るがAIがこれを補正する (下の写真上段)。シャッターを押すとカメラが自動で複数回 (例えば32回) 露光し、これを重ねてノイズを取り除く。ネット裏からの写真はAIがメッシュを取り除く (下の写真下段)。

出典: Google

カメラの映像を判定

Google Lensはカメラに映ったオブジェクトを判定する機能がある。花の写真を撮影しGoogle Lens機能をオンにすると花の種類 (Milk and Wine Lily) を特定する (下の写真)。また店舗の写真を撮影するとその名称を認識し関連情報を表示する。カメラがイメージ検索の入力装置となる。Google Goggles(グーグルゴーグル)などで提供された機能であるが、AIを使って機能と精度が強化された。

出典: Google

AIが返信メールを作成

AIはGoogle製品を幅広く支えている。話題の機能が「Smart Reply」でGmailに搭載された。AIが受信したメールの題目と内容を読み最適な返信文を生成する (下の写真)。利用者は提示された三つの返信文から最適なものをクリックするだけで返信できる。Smart Replyが登場して1年以上たつが、今では複雑な内容のメールにも返信文を生成できるようになった。

出典: Google

Street ViewとGoogle Mapsを強化

Street ViewやGoogle MapsでもAIが使われている。Street Viewで撮影したイメージから建物に掲示されている数字をAIが読み番地を特定する。今では数字だけでなく通りの名称をAIが読み場所を把握する。表札が鮮明に写っていなくてもサンプルが四つあれば (下の写真) AIが正確に判定する。この技術をStreet Viewで撮影した800億枚のイメージに適用し位置を把握する。これによりGoogle Mapsの精度が大幅に向上した。利用者から見えないところでAIがサービスを支えている。

出典: Google

AIを医療に適用する

GoogleはAIを医療に適用することを明示した。Googleは既にAIを使ってDiabetic Retinopathy (糖尿病網膜症、下の写真右側、左側は健康な眼底イメージ) を判定するシステムを発表している 。Diabetic Retinopathyとは糖尿病に起因する眼の疾患で失明する可能性が高いとされる。AIが医師より高精度でこの病気を検知することに成功した。AIをメディカルイメージングに活用できることが分かり、GoogleはDeepMindと共に医療分野での研究開発を重点的に進めている。

出典: Google

AIをどう製品に結び付けるのか

Googleはこの他にAIを音声認識に応用している。高度な自然言語処理機能を使いAIスピーカー「Google Home」やAIアシスタント「Google Assistant」を商品化している。Googleは全領域にAIを適用しAI First企業としてその成果をアピールした。ただ、今回の開発者会議では驚くような製品は登場しなかった。世界最高水準のAI技術を持つGoogleであるが、消費者としてはその恩恵を感じにくいのも事実であった。高度なAIをどう製品に結び付けるのかが問われており、これはGoogleだけでなくIT業界が共通に抱えている課題でもある。

AIが医師より正確に皮膚ガンを判定、ガン検診はスマホアプリで

May 12th, 2017

Googleが開発したイメージ認識アルゴリズム「Google Inception」は世界でトップレベルの性能を持つ。このソフトウェアは公開されており誰でも自由に利用できる。これを皮膚ガンの判定に応用すると専門医より正確に病気を判定できることが分かった。特殊なアルゴリズムは不要でガン検知システム開発の敷居が下がった。市場では皮膚ガンを判定するスマホアプリが登場しており医療分野でイノベーションが相次いでいる。

出典: Stanford Health Care

皮膚ガン検出の研究

この研究はスタンフォード大学AI研究所「Stanford Artificial Intelligence Laboratory」で実施され、その結果が科学雑誌Natureに掲載された。これによると、Deep Learningアルゴリズムが皮膚ガンの判定において専門医より優れた結果を達成した。具体的には、Convolutional Neural Networks (CNN、イメージを判定するアルゴリズム) が使われ、AIの判定精度は21人の医師を上回った。

皮膚ガンの検出方法

一般に皮膚ガンを診察する時は、皮膚科専門医 (dermatologist) は肉眼や拡大鏡(dermatoscope) でその部位 (lesion) を観察する。悪性腫瘍であると診断した場合は生体から組織片を採取して調べるバイオプシー (Biopsy、生体組織診断) に進む。また、判定がつかない場合にもバイオプシーを実施し臨床検査で判定する。このバイオプシーがガン診断の最終根拠 (Ground Truth) になる。

アルゴリズムが上回る

診断結果はアルゴリズムが皮膚科専門医の判定精度を上回った。条件を変えて三つのケースで試験が行われたが、いずれの場合もアルゴリズムが好成績を上げた。下のグラフはその一つのケースで、赤丸が医師の判定結果を青色グラフがアルゴリズムの判定結果を示す。右上隅に近づくほど判定精度が高いことを表している。アルゴリズムが殆どの医師の技量を上回っている。

出典: Sebastian Thrun et al.

横軸は陽性判定 (正しくガンと判定) の精度で縦軸は陰性判定 (正しくガンでないと判定) の精度を示す。緑色の+が医師の判定精度の平均で、アルゴリズムがこれを上回る。対象はMelanoma (悪性黒色腫) とCarcinoma (癌腫) で判定件数は111、130、135件。上のケースはMelanomaで130枚のイメージを使用。

Googleが開発したソフトウェア

この研究ではガンを判定するアルゴリズムにConvolutional Neural Networksが使われた。具体的には、Googleが開発した「Inception  v3 CNN」を利用。Inceptionはイメージデータベース「ImageNet」を使ってすでに教育されている。写真に写っているオブジェクトを高精度で認識でき、犬や猫の種類まで判定できる。この研究で同一のアルゴリズムがガンを正確に判定できることが証明された。

皮膚ガンのデータベース

研究チームはこのInceptionを変更することなくそのまま利用した。Inceptionが皮膚ガンを判定できるようにするため、ガンの写真イメージとその属性データを入力し教育した。スタンフォード大学病院 (先頭の写真) は皮膚ガンに関する大規模なデータベースを整備した。129,450件の皮膚ガンイメージ (Skin Lesion) とそれに対応する2,032種類の病気を対応付けたデータベースを保有している。このデータベースは病気の区分け (Taxonomy) とそれに対応するサンプルイメージから構成される。このデータを使ってInceptionを教育した。

システム構成

教育されたInceptionは1,942枚の写真で試験された。一方、専門医は375枚の写真に対して診断を下した。下の写真がアルゴリズムの概要で、写真 (左端) をInception (中央部、薄茶色の分部、CNNネットワークを示す) に入力すると757種類の皮膚疾病に分類し、これが良性であるか悪性であるかを判定する。

出典: Sebastian Thrun et al.

Google Inceptionとは

この研究で使われたアルゴリズム「Inception  v3 CNN」は公開されており、誰でも自由にTensorFlowで使うことができる。TensorFlowとはGoogleが開発したMachine Learning開発プラットフォームで、この基盤上でライブラリやツールを使ってAIアプリを開発できる。因みにInception  v3 CNNは2015年のイメージコンテスト「ImageNet Challenge」で二位の成績を収め世界トップの性能を持つ (一位はマイクロソフト)。GoogleとしてはTensorFlowやInceptionを公開することで開発者を囲い込む狙いがある。

教育データの整備

Googleが開発したInceptionは身の回りのオブジェクトの判定ができるだけでなく、皮膚ガンの判定でも使えることが分かった。システム構成を変更することなくガン細胞の判定で威力を発揮した。ただ、開発には大規模な教育データが必要となり、データベース整備が大きな課題となる。同時に、このことは臨床データを所有している医療機関は高精度なガン診断システムを構築できることを意味している。

メディカルイメージング技術が急伸

実際の有効性を確認するためには臨床試験を通しFDA (米国食品医薬品局) の認可が必要となる。製品化までの道のりは長いが、アルゴリズムをそのまま利用できるため多くのベンチャーがメディカルイメージング技術開発に乗り出している。スタンフォード大学研究チームはこのアルゴリズムをスマホアプリに実装することを計画している。研究成果をスマホで提供すると消費者は病院に行かなくても手軽に皮膚ガンを検知できる。

スマホでガン検診

実際、市場には皮膚ガンを判定するスマホアプリが数多く登場している。スマホカメラで皮膚の黒点を撮影するとアプリはそれが皮膚ガンの疑いがあるかどうかを判定する。米国ではまだFDAの認可を受けたアプリはないが、多くの企業が参入を目論んでいる。(下の写真はオランダに拠点を置くSkinVision社が開発した皮膚ガンを判定するアプリ。ドイツとイギリスで臨床試験が実施され効用が確認された。FDAに認可を申請しており米国市場参入を目指している。)

出典: SkinVision

未公認アプリは数多い

一方、FDAの認可を受けていない未公認簡易アプリは既に市場で流通している。注意書きを読むと「ガン検知精度を保証しない」と書かれているが、殆どの利用者は気にしないで使っている。あたかもスマホで皮膚ガンを判定できる印象を受けるがその効用は保障されていない。これらを使って拙速に判定するよりFDAなど政府機関から認定されたアプリの登場を待ったほうが賢明なのかもしれない。

植物でできたハンバーガー、牛肉の味と変わらない、BiologyとAIの進化で信じられない食品が生まれている

May 5th, 2017

牛肉を使わずすべて植物からできたハンバーガーが登場した。食べると牛肉の味がして本物と見分けがつかない。シリコンバレーで先端技術を駆使した次世代食品が生まれている。Biology (生物学) とAIが結びつきSynthetic Biology (合成生物学) でイノベーションが起こっている。

出典: VentureClef

次世代食品を開発

このハンバーガーはシリコンバレーに拠点を置くImpossible Foodsというベンチャー企業が開発した。スタンフォード大学教授が起業した会社で、合成生物学により植物から食肉を生成する研究をしている。次世代の食料を開発することがミッションで、GV (Google Ventures) やBill Gatesなどが出資している。

実際に食べてみた

このハンバーガーは「Impossible Burger」と命名されサンフランシスコ地区のレストランで提供され始めた。実際にこのハンバーガーを食べてみた。注文すると小ぶりのハンバーガーが二つプレートに乗って出てきた (上の写真)。見た目は普通のハンバーガーで、食べると牛肉の味がしてとても美味しかった。パテの中から赤い肉汁が出てきて、見た目だけでなく味も牛肉と見分けがつかない。若干味が薄いと感じたが、これが植物からつくられているとは信じられない。

本物をリバースエンジニアリング

Impossible Foodsは本物のハンバーガーの構成要素を解析し、リバースエンジニアリングしてこの製品を開発した。パテには小麦から抽出したたんぱく質が使われ、外観と食感が作られる。パテの表面はジャガイモのたんぱく質で覆われ、グリルで焼くと香ばしくなる。パテにはココナツオイルの粒が入っており、これが霜降りとなりグリルで焼くと油がぱちぱちと跳ねる。

ハンバーガーの味を決める「Heme」

ハンバーガーの味を決めるのがHemeという素材だ。Hemeとは血液中のヘモグロビンの色素を構成する物質で濃い赤色の液体である。これをパテに加えると牛肉の色になり、焼くと薄赤色の肉汁となる。Hemeは酸素と化合し肉独特の鉄分を含んだ香りや味となる。Hemeがハンバーガーの味を決める一番重要な材料となる。(下の写真はパテを作っているところで、赤身分部は小麦のたんぱく質にHemeを加えたもの。白い粒がココナツオイル片。)

出典: Impossible Foods

生物学手法でHemeを生成

カギを握るHemeは合成生物学の手法で生成される。大豆のLeghemoglobin (Hemeに含まれるたんぱく質) の遺伝子を酵母分子に注入する。この酵母を発酵させるとLeghemoglobinが生成され、これをろ過してHemeを抽出する。マメ科植物の根粒にはLeghemoglobinが含まれており、酸素と化合しこれを運ぶ役目を担っている。食物からHemeを採取するのでは大量生産ができないし、蓄積された二酸化炭素が放出される。合成生物学の手法で生成しないと事業として成立しない。

人口が増えると食肉を供給できない

Impossible Foodsが植物ベースの食肉を生成するのは牛を飼育するには限界があるため。牛を飼育するには飼料として大量の干し草と水を必要とする。地球上で人口が増え続けると飼料の供給が限界となり、家畜から食肉を供給することができなくなる。このためImpossible Foodsは合成生物学の手法で食肉を生成する技術を開発している。牛肉だけでなく、豚肉、鶏肉、魚肉の開発を進めている。

消費者の反応

工場で人工的に製造された食肉は余りイメージが良くない。消費者はこれを食べることに抵抗感を持っていたが、ここ最近は受け止め方が変わってきた。調査会社のレポートによると、この傾向は若い世代で顕著で、ミレニアル層の2/3は工場で製造された肉を毎日食べると答えている。工場で製造された食肉は健康食品で、同時に、環境に優しい製品であることが評価されている。

合成生物学とは

上述の合成生物学とは生物で構成されるパーツやシステムを設計・製造する技術体系を指している。合成生物学はGenetic Engineering 2.0とも呼ばれ、遺伝子工学の最新技術を使っている。合成生物学はGenetic Code (特定のたんぱく質を生成するプログラム) を形成する塩基対 (A、T、C、G) を編集し、微生物 (Microbe) のDNAに組み込みたんぱく質を生成する。この技術を使って医療、農業、生活に役立つ物質を生成する。

出典: Apeel Sciences

合成生物学により誕生している製品

合成生物学により自然界には無い機能を持った製品が登場している。これらはImpossible Materialsと呼ばれ、信じられない機能を実現する。Impossible Burgerの他に植物から牛乳を生成する研究が進んでいる。腐らない果物が登場している (上の写真、特殊な素材でブルーベリーをコーティングすると日持ちが良くなる)。食物だけでなく生物 (クラゲやイカなど) が持っている発光のメカニズムを遺伝子操作で作り出し、これを建造物の照明に応用する。メタルより軽くて丈夫な”プラスチックエンジン”も研究されている。医療分野ではCRISPR/Cas9という高度な遺伝子編集技術を使いがん治療薬の開発が進んでいる。

AIやロボットがこれを支える

合成生物学をベースに物質を開発する手法はMicrobe Engineeringと呼ばれる。文字通り微生物を対象としたエンジニアリングで、DNA構造を設計し、これを試験で検証する作業の繰り返しとなる。合成生物学は未開の分野で試行錯誤で研究が進んでいる。DNA構造と分子反応のパターンの数は膨大でAIや機械学習の技術が無くては進まない。実際の検証はすべてのプロセスを自動化する必要がある。ロボットが実験を実行しその結果をAIが検証する。

21世紀最大のイノベーション

合成生物学はAIとRoboticsの進化で研究が大きく進んでいる。「21世紀最大のイノベーションはBiologyとTechnologyの交点で生まれる」という言葉がある。これは生物学者の発言ではなくSteve Jobsが亡くなる直前に述べた言葉である。この言葉の通り両者が結びつき信じられない機能を持った製品が登場している。

ベンチャー企業が量子コンピュータを開発、半導体チップが物理的限界に近づくなか次世代スパコンを目指す

April 21st, 2017

IBMやGoogleと並んでベンチャー企業が量子コンピュータの開発を加速している。量子コンピュータ開発は大学の基礎研究と関係が深く、大学発のベンチャー企業が目立つ。このタイミングで量子コンピュータが製品化されるのは、スパコン性能が限界に近付いていることと関係する。シリコンチップ単体の性能が伸び悩み、スパコンは大量のプロセッサを実装せざるを得ない。スパコンは巨大化の道を辿り大量の電力を消費する。スパコン一台を動かすために原子力発電所が一基必要となる。

出典: Rigetti

Rigetti Computingというベンチャー企業

この問題を解決するためにRigetti Computingというベンチャー企業が量子コンピュータを開発している。同社はバークレーに拠点を置き独自の量子技術を開発している。Rigettiは量子コンピュータをクラウドで提供し、量子化学や人工知能を中心とするアプリケーションで利用する。Rigettiは量子アルゴリズム開発基盤「Forest」を公開した。Forestはユニークなアーキテクチャで量子コンピュータと既存コンピュータを結び付けたハイブリッドなアルゴリズムを開発できる。

ベンチャーキャピタルが注目

会社創設者はChad Rigettiでエール大学で長年にわたり量子コンピュータの研究に従事した。その後IBMで量子コンピュータ開発に携わり、2013年にRigettiを立ち上げた。インキュベータ大手Y Combinatorなどからシードファンディングを受け事業を始め、2017年3月には大手ベンチャーキャピタルAndreesen Horowitzなどから合計6400万ドルの投資を受け事業化に向けた研究開発を加速している。

Quantum Integrated Circuit

Rigettiはエール大学で単一の原子やイオンに情報をエンコードする研究に従事した。極低温で電気回路の上に人工的に原子を生成する方式を探求している。この方式だと既存の半導体チップ製造施設を利用でき量産化への道のりを短縮できる。Rigettiでは量子技術をIC化する技法「Quantum Integrated Circuit」を開発している。(先頭の写真は同社が開発したQuantum Integrated Circuitでチップに3つのQubit (量子ビット) を搭載している。)

既に量子コンピュータが稼働している

Rigettiの研究所で既に二基の量子コンピュータが稼働している (下の写真)。写真中央部のRigetti BF01とRigetti BF02と示された部分で、白色の円筒が量子コンピュータの筐体となる。この中に上述の量子ICチップが格納され、絶対零度近くまで冷却して稼働する。Rigettiによるとチップに60個から70個の Qubitを搭載すればスパコン性能を上回る。

出典: Rigetti

量子アルゴリズム開発基盤を公開

Rigettiは同時に量子アルゴリズム開発基盤の開発を進めている。これは「Forest」 (下の写真) と呼ばれ、アルゴリズム開発のプラットフォームとして機能する。開発言語は「Quil」と呼ばれ、これを使って量子アルゴリズムを記述する。また、開発されたアルゴリズムを集約したライブラリ「Grove」や開発ツール「pyQuil」も提供している。Quilで書かれたプログラムは「Compiler」でコンパイルされ量子プロセッサ向けのオブジェクトを生成する。対象マシンはRigettiだけでなく他社が開発している汎用量子コンピュータ全般に適用できる。

出典: Rigetti

ハイブリッドモデル

Quilは量子アルゴリズムを記述するプログラム言語であるが「Quantum Abstract Machine (QAM)」と呼ばれ量子操作を数学的に記載する構造となる。QAMは量子プロセッサと現行プロセッサが連携して稼働するアーキテクチャを取る。これはハイブリッドモデルと呼ばれ、現行コンピュータのメモリを共有して量子アルゴリズムを実行する (下のダイアグラム)。

出典: Rigetti

左側が量子コンピュータで演算子 (ゲートなど) を指定してプログラミングする。Qubitの状態を測定すると、この情報は現行コンピュータのメモリ (最下部の数字の列) に格納される。右側は現行コンピュータでプログラムロジックを指定し実行する。量子コンピュータのアルゴリズム開発は分かりにくいが、ここに現行のプログラム技法を融合することで親しみやすくなる。

量子コンピュータのキラーアプリ

Rigettiは量子コンピュータのキラーアプリは量子化学 (Quantum Chemistry) とAIであるとしている。量子化学はスパコンでも研究が進んでいるが、量子コンピュータだと大規模な問題を解くことができる。高精度な触媒を生成し地球上の二酸化炭素を吸収することで温暖化問題の解決に寄与できると期待されている。素材研究では室温超電導素材を見つけ、医療分野では分子構造をベースとした新薬の開発が注目されている。AIや機械学習では学習モデルをマシンに組み込むことで、現行コンピュータでは実現できない大規模なモデルを実行できるとされる。

スパコンの性能が限界

Rigettiは量子コンピュータを開発する必要性をスパコンが性能の限界に近付いているためと説明する。中国のスパコン「Tianhe-2 (天河-2)」 (下の写真) は世界最速のマシンと言われている。プロセッサとしてIntel Xeonを32,000台搭載し、システム全体では312万コアが使われる。消費電力は24MWで都市に供給するレベルの電力を要する。

出典: National Supercomputer Center in Guangzhou

ムーアの法則が終わりに近づく

これはムーアの法則 (Moor’s Law) が終わりに近づいていることを意味する。プロセッサの性能は18か月ごとに倍増できなくなった。その理由は半導体チップ回路の線幅をこれ以上細くできなくなったため。シリコンを使ったプロセッサは物理的な限界に近付いており、次の世代のテクノロジーを必要としている。

コンピュータ開発の歴史

このためRigettiは量子という新しい素材でコンピュータを開発する。Chad Rigettiは量子コンピュータを開発する意義を物理学の観点から説明している。コンピュータの歴史を振り返ると、動作原理はニュートン力学 (Newtonian Mechanics) から量子力学 (Quantum Mechanics) に移っている。多くの企業がニュートン力学を応用したシステムで創業したがその代表はIBM。当時の社名はComputer Tabulating and Recording Companyでパンチカードを使った管理システムを提供していた。パンチカードは社員の出退勤記録などに使われた。カードに穴をあけ、穴の並び方に情報をエンコードするという機械的な方式が使われていた。

半導体技術は古典力学の域を出ない

その後、William Shockleyが半導体を発明し、IntelなどがそれをIntegrated Circuit (IC) として集積し半導体チップとして出荷されている。コンピュータに革命をもたらした技術であるが、物理学の観点からは古典力学の域を出ず、動作原理はマクスウェルの方程式 (Maxwell’s Equations、電磁場の挙動を定義する方程式で古典電磁気学の集大成) で表される。

ニュートン力学から量子力学への大きなジャンプ

アインシュタインなどにより量子力学の基礎理論が提唱され、100年後のいま量子コンピュータが登場している。量子の動きはシュレーディンガー方程式 (Schrödinger Equation、量子の状態を定義する方程式で量子力学の幕開けとして位置づけられる) で定義される。量子力学は原子や電子などミクロなレベルで挙動を解明する学問で、量子コンピュータはこれを情報操作に応用する。量子コンピュータは演算素子が進化しただけでなく、物理学の観点からはニュートン力学から量子力学への大きなジャンプとなる。

Microsoftも量子コンピュータを開発、量子アルゴリズムの研究で他社を引き離す

April 14th, 2017

Microsoftは早くから量子コンピュータの開発を進めておりその成果を公開した。Microsoftは量子物理学最先端技術を使い、安定して稼働できる量子コンピュータを目指す。Microsoftの強みはソフトウェアで、既に量子コンピュータ向け開発環境やシミュレータを提供している。ハードウェアの登場に先行し、量子アルゴリズムの研究が大きく進展している。

出典: Microsoft

Station Q:量子コンピュータ研究所

Microsoftの量子コンピュータ開発は10年以上前に始まった。Microsoftは2005年、量子コンピュータ開発のための研究機関「Station Q」 (上の写真、ホームページ) をSanta Barbara (カリフォルニア州) に開設した。Microsoft Research (マイクロソフト研究所) の量子コンピュータ研究部門としてハードウェア機構の開発を担っている。汎用量子コンピュータ (Universal Quantum Computer) を開発し製品化することを最終目標としている。

Topological Quantum Computer

Station Qは著名な数学者Michael Freedmanにより設立された。Freedmanは量子コンピュータ・アーキテクチャーの一つである「Topological Quantum Computer」という方式の研究を進めている。Topological Quantum Computerとは二次元平面で動く特殊な粒子の特性を利用し、その位相変化を情報単位とする方式である。(詳細は後述。) Freedmanはこの方式をMicrosoftのCraig Mundieに提案し、これが切っ掛けで量子コンピュータ開発が始まった。当時Mundieは研究開発部門の責任者で、Freedmanが提唱する量子コンピュータを次世代事業の基軸に位置づけた。

QuArC:量子コンピュータ・ソフトウェア研究所

Microsoftは2011年、量子コンピュータ・ソフトウェアを開発する部門「Quantum Architectures and Computation Group (QuArC)」 をRedmond (ワシントン州) に開設した。QuArCはStation Qのソフトウェア部門として位置づけられ、量子コンピュータのアルゴリズムを研究する。既にプログラミング環境と量子コンピュータ・シミュレータを開発し一般に公開した (下の写真)。ハードウェアの登場に先立ち、実社会に役立つ量子アプリケーションの開発を進めている。

出典: Microsoft

量子コンピュータの活用方法

Microsoftは量子コンピュータ開発成果を大学を中心とする研究機関に向けて発信している。アカデミアの研究開発に寄与することに加え、優秀な人材を育成・採用することを狙いとしている。QuArCのSenior ResearcherであるKrysta SvoreはCalifornia Institute of Technology (カリフォルニア工科大学) で講演し、量子コンピュータの応用分野について構想を明らかにした。量子コンピュータのアイディアはここカリフォルニア工科大学で生まれた。

量子コンピュータのキラーアプリ

Microsoftを始め多くの企業は量子コンピュータのキラーアプリは自然界のシミュレーションだと考えている。Svoreも同様に物理現象を量子レベル (原子や電子などの状態をミクロに定義する手法) でシミュレーションするには量子コンピュータが最適のプロセッサであると述べている。

スパコンの限界

現在、物理現象をシミュレーションするためにスパコンが使われている。物質素材の研究や素粒子研究でスパコンが使われ、これらが使用時間の半分近くを占める。つまり、スパコンの大半は自然現象のシミュレーションで使われている。しかし、分子を量子レベルでシミュレーションするにはスパコンの性能は十分でなく、小さな分子しか取り扱えないのが現状である。

量子コンピュータで地球温暖化対策

量子コンピュータは複雑な分子構造を電子レベルまで解析することができる。Microsoftが着目しているのはエネルギー分野で量子コンピュータを活用し地球温暖化を防ぐ構想を抱いている。上述のQuArC でFerredoxinという分子のシミュレーションが進んでいる。Ferredoxinとは鉄(Fe)と硫黄(S)で構成されるたんぱく質で、植物の光合成で電子を運搬する役目を担っている (下の写真、Fe2S2 Ferredoxinの分子構造)。

出典: Wikipedia

分子構造のシミュレーション

Ferredoxinを使って空気中の二酸化炭素を吸収する触媒を生成するアイディアが提唱されている。植物が光合成で二酸化炭素を吸収するようにこの触媒で同じ効果が期待される。この触媒ができれば排出される二酸化炭素量を80%から90%減少させることができる。触媒を生成するには量子レベルでFerredoxinのエネルギー状態を把握する必要がある。ここに量子コンピュータが使われ、Qubit (量子コンピュータの情報単位でBitに対応する) を電子の状態に対応付け分子をシミュレーションする。Ferredoxinのシミュレーションでは100個から200個のQubitが必要となる。

量子アルゴリズムの開発が進む

MicrosoftはFerredoxinを含む分子シミュレーションのための量子アルゴリズムの開発を進めている。2012年にFerredoxinのエネルギーレベルを求める量子アルゴリズムを開発したが、量子コンピュータで実行しても240億年かかる。Microsoftはこのアルゴリズムの改良を続け、2015年時点ではこれを68分で解けるまで改良した。

量子アルゴリズムの進化

下のグラフは分子シミュレーションの量子アルゴリズムの性能を示している。縦軸が計算に必要な時間(推定)で横軸が計算に必要なQubitの数を表す。折れ線グラフは異なる量子アルゴリズムを示し、上から下に向け性能が向上していることを表している。FerredoxinはFe2S2 (グラフ右端) として示されている。数学モデルの改良やソフトウェアの最適化で性能が向上した。LIQ𝑈𝑖と示されている赤色のグラフ (最下部) は量子アルゴリズムを実際にシミュレータで実行した結果を示している

出典: Microsoft

量子コンピュータで超電導物質を見つける

量子コンピュータで新素材を見つけることに期待が寄せられている。目標の一つが室温で超電導を起こす物質を見つけること。これはRoom-Temperature Superconductor (室温超電導) と呼ばれ、文字通り室温で超電導となる物質で、これを見つけることが世界のグランドチャレンジとなっている。超電導状態になると電気抵抗がなくなり、電気を送るときのエネルギーロスがゼロとなる。

電力送電に応用

量子コンピュータで室温超電導物質がみつかるとその恩恵は計り知れない。その一つが送電線で発電所から家庭にエネルギーロス無しに電力を送ることができる。通常の電線を使った送電では電力の6%が失われている。超電導状態で送電すれば損失がなくなるが、そのためには送電線を摂氏マイナス200度近くまで冷やす必要があり、これが実用化の障害となっている。室温超電導物質が見つかれば、アリゾナの砂漠に太陽光発電所を建設しそこで発電した電力をニューヨークに送電することが可能となる。

超電導リニアが注目されている

日本で超電導リニアの開発が進み、2027年に品川と名古屋を結ぶ中央新幹線として開通する。このニュースは米国でも話題となり、特にアカデミアが大きな関心を寄せている。超電導リニアは超電導コイルを搭載し、これが磁石となり浮力と推進力を得る。コイルを超電導状態にするために液体ヘリウムで摂氏マイナス269度まで冷却する。室温超電導物質が見つかれば冷却装置は不要となり、車両の構造が大幅にシンプルになる。米国の研究者は量子コンピュータでこの素材を見つけることを狙っている。ここでブレークスルーがあれば超電導リニアが幅広く普及することになる。

素因数分解のアルゴリズムは開発済み

量子コンピュータ向けアルゴリズム開発は研究者の主要テーマで早くから進められている。Bell Laboratoriesの研究員Peter Shorは、量子コンピュータで整数因数分解 (integer factorization) の問題を解くアルゴリズムを開発した。このアルゴリズムは「Shor’s Algorithm」と呼ばれ高速で因数分解ができる。整数を素数の積で表すPrime Factorization (素因数分解) は情報セキュリティと深く関係している。

素因数分解コンテスト

セキュリティ企業RSAは素因数分解コンテスト「Factoring Challenge」を実施している。これは指定された整数を二つの素数「n x m」に因数分解するコンテストで多くの研究者が挑戦している。コンテストの課題として「RSA-2048」が出題されている (下の写真)。青色の文字が一つの数字を表し617桁から構成される。これを二つの素数に因数分解することが求められている。これを現行のコンピュータで計算すると10億年かかるとされる。しかし量子コンピュータだと100秒で計算できると推定される。

出典: RSA

暗号化アルゴリズムが破られる

RSAが素因数分解コンテストを実施する理由は同社が提供している暗号化アルゴリズム「RSA」の耐性を検証するためである。RSAアルゴリズムはPublic Key Cryptography (公開鍵暗号) の暗号化技術の核心部分を構成する。Secret Key  (秘密鍵) は素因数分解で求めることができるが、RSA-2048でカギの長さを指定しておけば現行のコンピュータで解読することはできない。しかし、量子コンピュータが登場すると100秒で秘密鍵を求めることができ、暗号化技術が破られることになる。RSAは全世界のインターネットで使われており、量子コンピュータに耐性のあるアルゴリズム (Quantum Resistant Algorithm) の開発が求められている。

量子コンピュータがシミュレーションに適している理由

量子コンピュータが自然界のシミュレーションに適している理由を物理学者Richard Feynman (下の写真) が説明している。Feynmanは1965年にQuantum Electrodynamics (量子電磁力学、アインシュタインの相対論と量子力学を融合する理論) でノーベル物理学賞を受賞した。Feynmanはカリフォルニア工科大学で教鞭をとり、物理学の講義ノートは「The Feynman Lectures on Physics」としてウェブに公開されている。(この講義ノートは物理学のバイブル的存在で書籍として出版されている。赤色の表紙が印象的で日本の大学でも物理学の教材として使われている。)

出典: California Institute of Technology

Feynmanが量子コンピュータを提唱

Feynmanはカリフォルニア工科大学での講座「Potentialities and Limitations of Computing Machines (コンピュータの可能性と限界)」で量子コンピュータについて言及している。自然界は量子力学に従って動いているので、それをシミュレーションするには量子コンピュータしかないとしている。「自然界の事象は古典物理学で定義できない。自然をシミュレーションするなら、量子コンピュータを使うべきだ。」と述べている。同時に、量子を制御するのは極めて難しいとも述べている。Feynmanが量子コンピュータというコンセプトの生みの親といわれている。

Microsoftはアルゴリズム開発で先行する

Microsoftは2005年から量子コンピュータの開発を始めた。Topological Quantum Computerという極めて難しい方式を追求しており、ハイリスク・ハイリターンのアプローチと言える。Microsoftは潤沢な資金を背景に長期レンジの研究を支える余裕があるとも解釈できる。Microsoftはコア技術であるソフトウェアの開発に力を入れている。シミュレータを使って量子アルゴリズムの開発を進め、量子コンピュータが登場すればすぐに実行できる準備をしている。つまり、量子コンピュータ開発はハードウェアだけでなく、アルゴリズム開発も簡単ではなく時間と費用がかかる。Microsoftはアルゴリズム開発で先行し、世界に役立つアプリケーションの開発を目標に掲げている。


量子アルゴリズム開発のためのソフトウェア

量子コンピュータ・シミュレータ

QuArC で量子コンピュータ向けソフトウェアの開発が進められている。ここでは量子アルゴリズム開発環境や実行環境の開発が進んでいる。これはLanguage-Integrated Quantum Operations (LIQ𝑈𝑖|⟩、”Liquid”と発音) と呼ばれ、量子コンピュータソフトウェアの開発基盤となる。ここで開発した量子アルゴリズムをシミュレータで実行する。LIQ𝑈𝑖|⟩は上位レベルのプログラム言語で記述された量子アルゴリズムを量子デバイス向け命令に翻訳し、この命令セットをシミュレータで実行する構造となる。

LIQ𝑈𝑖|⟩のアーキテクチャ

下のダイアグラムはLIQ𝑈𝑖|⟩のアーキテクチャを示している。開発言語はF#が中心であるが、C#もサポートされている。スクリプト言語から実行ファイルを起動することもできる。これらの言語で生成されたプログラムはゲート機能 (Qubitの動作を定義する関数) に翻訳される。ゲート機能が量子アルゴリズム実行の最小単位となる。

出典: Microsoft

Circuit Data Structure

生成したプログラムをCircuit Data (物理回路) に翻訳することもできる。これはプログラムを物理的な回路構成にコンパイルするもので、最適化、エラー修正、ノイズ発生などの操作ができる。更に、Circuit Dataを利用者の環境にエクスポートして実行することもできる。

シミュレーション

LIQ𝑈𝑖|⟩はシミュレータ機能を提供する。三つのモデルがあり、Universalは汎用シミュレータでQubitのゲート演算機能を実行する。ただしQubitの数は30までとなる。Stabilizerは大規模な演算を多数のQubitで実行できる。ただし、使えるゲートの種類に制限がある。Hamiltonianは量子システムの物理現象をシミュレーションするモデルで、エネルギー状態の変異で解を求める。


Topological Quantum Computerとは

エラーに対する耐性が高いアーキテクチャ

Topological Quantum Computerとは新しいパラダイムの量子コンピュータでエラーに対する耐性が高いアーキテクチャとなっている。Topologyとはモノをスムーズに変形した時に変わらない性質を研究する学問で位相幾何学といわれる。スムーズに変形するとは、モノを引き延ばしたり、縮めたり、曲げたりすることを指し、引き裂いたりつなぎ合わせることは含まれない。Topologyは外部からの刺激に対して影響を受けにくい特性を持ち、これを量子コンピュータに応用したのがTopological Quantum Computer。

Quasiparticleの集合体と位相の変化

Topological Quantum ComputerはQuasiparticle (疑似粒子) の集合体を基本単位とし、基本単位間の絡み合いを測定し、これを演算単位Qubitとする。Quasiparticleの集合体は縫物の針のように、他の糸と絡まりながら進行する (下の写真、それぞれの線がQuasiparticle集合体で、線は進行経路を示す)。線の絡まり (線が重なり合っている部分) の回数がデータの基本単位Qubitとなる。粒子同士が相互作用を起こすのではなく、Quasiparticleの集合体が絡み合う点に特徴がある。

出典: Nature

Anyonという素粒子

QuasiparticleとしてElementary Particle (素粒子) の一形態であるAnyonが使われる。素粒子は三次元空間ではBosonとFermionのグループで構成される。二次元空間の素粒子はAnyonと呼ばれる。AnyonはAbelianとNon-Abelianに区分されここでは後者が使われる。

最近存在が確認された物質

Anyonは極めて低い温度における電子の並びで、二次元平面のエッジの分部で発生する。Anyonは電子とそのAntimatter (反物質) を同時に持つ。Anyonのような粒子は1937年にイタリアの物理学者Ettore Majoranaが予言し、「Majorana Fermion」とも呼ばれる。しかしMajorana Fermionは見つからずその存在が疑われてきた。2012年になってオランダDelft University of TechnologyのLeo Kouwenhovenによりその存在が初めて観測された。Microsoftは同大学と密接に量子コンピュータの開発を続けている。(下の写真は同大学のTopological Quantum Computing研究で使われている量子コンピュータ。)

出典: Delft University of Technology

ポジションを入れ替える順序に情報をエンコード

MicrosoftがMajorana Fermionという謎の解明が進んでいない素粒子を使って量子コンピュータを開発する理由はその信頼性にある。Topological Quantum Computerはエラーに対する耐性が高い。その理由は個々のQuasiparticleに情報をエンコードするのではなく、粒子の集合体がポジションを入れ替える順序に情報をエンコードするため。Quasiparticleは外部のノイズで強度や位置が変わるが、情報は位相特性に埋め込まれているためノイズの影響を受けない。

長期レンジの研究開発

粒子に情報を埋め込む方式の量子コンピュータのエラー率は高く10^(-4) といわれている。一方、Topological Quantum Computerのエラー率は低く10^(-30)まで到達できる。商用量子コンピュータはエラー率が10^(-10)であることが必要とされ、Topological Quantum Computerはこの条件を満たすことになる。ただ、Topological Quantum Computerはまだ基礎研究の段階で、長期レンジの研究開発が必要となる。