Archive for the ‘セキュリティ’ Category

中国政府は国策として顔認識技術を育成、 監視カメラに搭載しAIが市民の行動に目を光らせる

Wednesday, May 2nd, 2018

中国政府はAI First Countryの政策を掲げ、2030年までにAIで世界をリードするロードマップを公表している。いま、監視カメラにAIを適用し、市民の行動を監視するプラットフォームの開発を進めている。このプロジェクトは「Sharp Eyes」と呼ばれ、国内に設置されている2000万台の監視カメラの映像を集約し、これをAIで解析する。一般市民が対象となり、プライバシー問題が懸念されている。同時に、膨大な量の教育データが集まり、中国が顔認識技術で世界をリードする。

出典: SenseTime

Sharp Eyesとは

Sharp Eyesは国全体の監視システムで、政府の監視カメラと民間の監視カメラを使い、撮影される映像を統合しAIで解析する。政府の監視カメラは、道路、ショッピングモール、駅、空港などに設置されている (上の写真、人の動きを追跡する事例)。民間の監視カメラは、アパートやオフィスビルなどに設置されているが、この映像も監視プラットフォームに統合される。

治安維持と市民監視

集約した大量のビデオ映像をAIや顔認識技術で解析し、多くの情報を抽出する。例えば、容疑者を追跡し、不審な挙動を見つけ出すなど、治安維持に活用される。犯罪者だけでなく、一般市民も対象となる。個人の行動を把握し、誰と接触したかを勘案し、個人の信用度 (Credit Score) を算出する。個人の信用度とは、中国政府や関係機関が特定個人を信用できるかどうかの指標で、スコアが低いと、旅行のためのチケットを購入できないなど、日常生活の行動が制限される。

AIベンチャー企業

Sharp Eyesのシステムを支えているのが中国のAIベンチャー企業である。SenseTimeは北京に拠点を置き、Deep Learningの手法で顔認識やオブジェクト認識技術を開発している。SenseTimeはAlibabaなどから累計で10億ドルの出資を受け、企業価値は30億ドルと言われ、世界最大規模のベンチャー企業となっている。

世界トップの顔認識技術

SenseTimeの顔認識技術は世界最高レベルと評価されている。この技術は「SenseFace」と呼ばれ、監視カメラの映像をDeep Learningの手法で解析する。SenseFaceはビデオに写っている数多くの人物の中から犯罪者を特定する機能を持っている。人通りの多い市街地や空港や駅などに設置された監視カメラの映像を読み込み、写っている顔を犯罪者データベースと照合し、容疑者を特定する。

犯罪者を特定する

例えば、SenseFaceはエスカレーターに乗っている人物の顔を把握し、それらを犯罪者データベースに登録されている顔と比較する (下の写真)。ある人物 (中央側) が、データベースに登録されている人物 (中央右側) と同一人物である可能性が91.0%などと判定する。この情報は近辺の警察官に送信され、容疑者のもとに駆け付ける手順となる。これはコンセプトデモであるが、実際にシステムを構築する際は、映像をクラウドに送信し判定結果を受け取るまでの遅延時間を如何に短縮するかがカギになる。SenseFaceは同時に1000台の監視カメラの映像を解析する能力があるとしている。

出典: SenseTime

歩行者やクルマの流れを監視

交差点では歩行者やクルマの流れを監視する。この技術は「SenseVideo」と呼ばれ、Deep Learningを使ったビデオ解析システムで、映像の中の歩行者、自動車、その他の乗り物を検知し、その属性を判定する。込み合う交差点に設置されたカメラの映像を解析し、オブジェクトを特定し、その属性を判定する (下の写真)。人物では性別、年齢、服装など、10項目にわたり判定する。クルマではナンバープレート、車種、色などを判定する。SenseVideoは検索機能もあり、犯罪が発生すると録画ビデオで不審者を探し出す。

出典: SenseTime

SenseTimeの実力

SenseTimeが開発している顔認識技術は世界のトップレベルである。顔を認識するAI技法は数多く開発されているが、SenseTimeの最新技法は「DeepID3」と呼ばれ、Chinese University of Hong Kong (香港中文大学) などと共同で開発した。基礎技術は論文「DeepID3: Face Recognition with Very Deep Neural Networks」で公開されている。

DeepID3とは

DeepID3は最新のConvolutional Neural Networksを実装したシステムで、顔から数多くの特徴量を抽出し、顔認識プロセスを実行する。DeepID3は、顔認証 (Verification、1:1比較、二つの顔が同じかどうかの判定) と顔認識 (Identification、1:N比較、データベースで同一の顔を探す処理) を一つのアルゴリズムで実現している。DeepID3の顔認証精度は99.53%で (下の写真)、人間の能力 (97.53%) を大きく上回る。

出典: Yi Sun et al.

中国政府の戦略

中国政府はSharp Eyesを治安維持のために使うが、犯罪者だけでなく一般市民の行動も監視される。国民のプライバシー侵害が懸念されるが、中国では大きな反対運動は起こっていない。このため、膨大な数の顔写真データが蓄積され、AIのアルゴリズム教育に大きく寄与している。中国政府はSharp Eyesのもう一つの目的を、AIを使ったコンピュータビジョン技術の育成に置いている。監視カメラの映像を解析するAIの技術開発を支援し、世界トップを目指している。

Googleはドアベル「Nest Hello」を投入、高度なAIを搭載しセキュリティが格段に向上、今年はAI監視カメラがブレークする

Friday, April 13th, 2018

Googleのスマートホーム部門Nest LabsはAIドアベル「Hello Nest」の出荷を始めた。Helloはドアベルであるが、カメラを搭載しており、監視カメラとしても機能する。Helloは人の姿や物音で玄関に訪問者がいることを把握し、アラートをスマホアプリに送信する。実際に使ってみるとHelloはインテリジェントな監視カメラで、安心感が格段に向上した。

出典: Nest Labs

Helloを設置する

2018年3月からHelloの出荷が始まり、家に取り付けて利用している。Helloは現行のドアベルを置き換える形で設置される。給電のために直流16-24Vの配線が必要となり、使っているドアベルと互換性があることを確認する必要がある。実際の設置作業は、Nest Labsのフィールドエンジニア「Nest Pro」に依頼して実施した。30分くらいで工事が終わり、ドアの隣にHelloが取り付けられた (下の写真)。

ハードウェア構成

Helloは押し釦(下部の円形の部分) の他に、カメラ (上部の円形の部分)、マイク、スピーカーを搭載している。カメラのセンサーは3メガピクセルで、UXGA (Ultra Extended Graphics Array 、1600 x 1200) の縦長モードで録画される。夜間撮影のためにNight Visionとして赤外線LEDライトを備えている。カメラで撮影された映像は家庭のWiFi経由でNestクラウドに送られ格納される。

出典: VentureClef

Nestアプリから利用

Helloはスマホに専用アプリ「Nest」をダウンロードして利用する。アプリを起動するとHelloが撮影している映像をライブで見ることができる (下の写真、左側)。その他に、カメラが検知したイベント (人の動きなど) の一覧が表示される (下の写真、右側)。ここでクリップにタッチすると、録画されたビデオが再生される。この事例はHelloが玄関先で人の動きを検知したもので、訪問者や不審者を過去にさかのぼりビデオで見ることができる。

出典: VentureClef

訪問者があるとアラートを受け取る

使ってみて便利と感じるのは、Helloがイベントを検知すると、そのアラートをスマホで受け取れる機能。スマホのロック画面に「Someone’s at the door (玄関先に誰かいます)」などとメッセージを受信する (下の写真、左側)。そのメッセージをタップすると短いビデオクリップが再生され、誰がいるのかを見ることができる (下の写真、右側)。

出典: VentureClef

録画ビデオをレビュー

更に、ビデオクリップをタップするとアプリが開き、そのイベントを再生して見ることができる (下の写真)。このアラートは庭の手入れを依頼しているガーデナーに関するもので、玄関前を掃除している様子を確認できる (左側)。また、外出先でアラートを受け取り、訪問者を確認できる。Amazonで買い物をした商品の配達であることが分かり (右側)、必要に応じ、配達人とスピーカーを通して話をすることもできる。例えば、商品を玄関に置いてください、と指示することもできる。

出典: VentureClef

Google Homeが誰が来たのかを知らせる

Helloのカメラは訪問者の顔を識別することができる。家族や友人の顔をHelloに登録しておくと、これらの人物がドアベルを押すとその名前を把握する。更に、HelloをGoogle Homeと連携しておくと、AIスピーカーが訪問者の名前を告げる。「○○○ is at the front door (○○○さんが来ました)」などと音声で案内をするので、スマホを手に持っていなくても、家族全員が誰が来たのかが分かる。

ドアベルのインターフェイス

また、名前が登録されていない人が来たら、Google Homeは「Someone’s at the door (玄関先に誰か来ました)」と音声で案内をする。実際に使ってみると、チャイムのピンポーンという無機質な音ではなく、言葉で来客を告げられると温かみを感じる。ドアベルのチャイムが音声になるとマンマシン・インターフェイスが格段に向上する。

顔認識と名前の登録

このために、事前に顔を登録する作業が必要になる。一番最初に友人が訪問すると、Helloは「An unfamiliar face is at the door (登録されていない人が玄関にいる)」というメッセージを発信する。メッセージをタップしてビデオクリップを見ると友人が訪問してきたことが分かる。ここでNew People Seenというページで知人であることを指定し (下の写真、左側)、更に、Familiar Facesというページでその人の名前を入力する (下の写真、右側)。そうすると、Helloは顔写真と名前を結び付け、次回から、その友人が訪問してきたら、Google Homeはその名前を告げる。

出典: VentureClef

テレビで訪問者を見る

我が家で人気の機能はHelloのカメラが撮影する映像をテレビで見ることができる機能だ。これはGoogle Homeの機能を借用したもので、AIスピーカーに「OK Google, show me Nest Hello on my TV」と言葉で指示すると、玄関の様子をテレビの大画面でみることができる。スマホアプリを操作してビデオを見るよりはるかに便利で、スマートホームの必須機能となることは間違いない。

出典: VentureClef

クラウドサービス

録画したビデオを閲覧したり顔を認識する機能はクラウドサービス「Nest Aware」として提供される。Nest Awareは、撮影した映像をクラウドに格納し、後日、それを閲覧できる機能を提供する。イベントが発生すると、Nest Awareで録画された映像をレビューして、その原因を突き止めることができる。Nest Awareは有料のサービスで、ビデオ保存期間に応じて料金が変わる。最長で30日間分のビデオを保存でき、月額料金は30ドルとなる。また、Helloのハードウェア価格は229ドルとなっている。

問題点もある

Helloは登場したばかりの商品で、機能が成熟しているというわけではない。その一つがカメラ機能で、露出を調整できないことが問題となる。自宅のエントランス構造として、玄関部分が暗く背後が明るいため、カメラが捉える訪問者の顔がどうしても暗くなる。Nestに相談したが解決策はないとのことで、今後の機能改良を待つしかない。また、夜間に通りを走るクルマのヘッドライトが反射して、玄関先に差し込むことがある。Helloはこれを侵入者と誤検知しアラートを発信する。AIのアルゴリズムを改良し、画像認識で誤検知を抑制する対策も必要となる。

Googleとの統合

Googleは2014年1月にNestを買収し、その後Alphabet配下の子会社として運営してきた。2018年2月、NestはGoogleのハードウェア部門に統合されることとなった。この部門はGoogle Homeなどのハードウェア製品を開発しており、NestはAIスピーカーとの連携が密接になり、ユニークな機能の開発が進んでいる。今後、NestはGoogleが所有しているAI技法をフルに実装でき、高度なAI監視カメラが登場することになる。

今年はAI監視カメラがブレーク

Helloは今までのセキュリティカメラとは格段に使い勝手が良く、Google Homeとの連携も快適で、満足できる製品だと感じる。Helloを使い始めたが、安心感が格段に増大した。日々の生活で不審者が自宅を訪れることも多く、これからはドアを開ける前にビデオで確認できる。また何かあればスマホにアラートが届くので、即座に玄関先の様子を確認できる。自宅にいなくても遠隔で監視でき安心感が大きく増大する。今年はAIを監視カメラに適用したAI監視カメラがヒットする勢いを感じる。

Googleは画像認識を誤作動させるステッカーを発表、AIを悪用した攻撃への備えが求められる

Friday, January 12th, 2018

社会の安全を担保するためにAIが活躍している。市街地や空港の監視カメラの映像をAIが解析しテロリストや犯罪者を特定する。一方、今年はAIを悪用した攻撃が広まると予想される。守る側だけでなく攻める側もAIを使い、社会生活が脅かされるリスクが高まると懸念される。

出典: Google

Googleの研究成果

Googleの研究グループはAIを誤作動させるステッカー(上の写真) を論文の中で公開した。このステッカーは「Adversarial Patch (攻撃ステッカー)」と呼ばれ、これを貼っておくと画像認識アルゴリズムが正しく機能しなくなる。ステッカーは円形で抽象画のようなデザインが施されている。これをバナナの隣に置くと、画像認識アプリはバナナをトースターと誤認識する。ステッカーを街中に貼っておくと、自動運転車が正しく走行できなくなる。

ステッカーを使ってみると

実際にステッカーを使ってみると画像認識アプリが誤作動を起こした。先頭のステッカーを印刷して、円形に切りぬき、バナナの隣に置いて画像認識アプリを起動した。そうすると画像認識アプリはバナナを「トースター」と誤認識した (下の写真、右側)。アプリにはこの他に「ライター」や「薬瓶」などの候補を示すが、バナナの名前はどこにも出てこない。バナナだけを撮影すると、画像認識アプリは「バナナ」と正しく認識する (下の写真、左側)。ステッカーは抽象画のようで、人間の眼では特定のオブジェクトが描かれているとは認識できない。

出典: VentureClef

画像認識アプリ

画像認識アプリとしてiPhone向けの「Demitasse – Image Recognition Cam」を利用した。これはDenso IT Laboratoryが開発したもので、画像認識アルゴリズムとして「VGG」を採用している。このケースではその中の「VGG-CNN」で試験した。VGGとはオックスフォード大学のVisual Geometry Groupが開発したソフトウェアで、写真に写っているオブジェクトを把握し、それが何かを判定する機能がある。VGG-CNNの他に、ネットワーク階層が深い「VGG-16」などがあり、画像認識標準アルゴリズムとして使われている。

ステッカーの危険性

画像認識機能を構成するニューラルネットワークは簡単に騙されることが問題となっている。多くの論文で画像認識アルゴリズムを騙す手法やネットワークの脆弱性が議論されている。Googleが公開した論文もその一つであるが、今までと大きく異なるのは、この手法を悪用すると社会生活に被害が及ぶ可能性があることだ。先頭のステッカーを印刷して貼るだけでAIが誤作動する。

自動運転車の運行に影響

その一つが自動運転車の運行を妨害する危険性である。自動運転車はカメラで捉えたイメージを画像認識アルゴリズムが解析し、車両周囲のオブジェクトを把握する。もし、道路標識にこのステッカーが貼られると、自動運転車はこれをトースターと誤認識する可能性がある。つまり、自動運転車は道路標識を認識できなくなる。Tesla Autopilotは道路標識を読み取り制限速度を把握する。このステッカーが貼られるとAutopilotの機能に支障が出る。当然であるが、道路標識にステッカーを貼ることは犯罪行為で処罰の対象となる。

Street Viewで番地が読めなくなる

自宅にこのステッカーを貼っておくとGoogle Street Viewによる道路地図作成で問題が発生する。Street Viewは位置情報をピンポイントに把握するため、建物に印字されている通りの番号をカメラで撮影し、画像解析を通し番地を把握する。番地プレートの隣にステッカーを貼っておくと、画像解析アルゴリズムはこれをトースターと誤認識する。ステッカーをお守り代わりに使い、自宅に貼っておくことでプライバシーを守ることができる。

ステッカーの作り方

Google研究チームは論文でステッカー「Adversarial Patch」の作り方を公開している。ステッカーは複数の画像認識アルゴリズムを誤作動させるようにデザインされる。ステッカーの効力は、デザインだけでなく、オブジェクトの中での位置、ステッカーの向き、ステッカーの大きさなどに依存する。(ステッカーの向きを変えると認識率が変わる。先頭の写真の方向が最大の効果を生む。ステッカーのサイズを大きくすると効果が増す。最小の大きさで最大の効果を生むポイントがカギとなる。オブジェクト全体の10%位の大きさで90%の効果を発揮する。)

ステッカーを生成するアルゴリズム

ステッカーは特別なアルゴリズム (Expectation Over Transformationと呼ばれる) で生成される。上述の条件を勘案して、ステッカーの効果が最大になるよう、ステッカー生成アルゴリズムを教育する。効果を検証するために代表的な画像認識アルゴリズム (Inceptionv3, Resnet50, Xception, VGG16, VGG19) が使われた。先頭のステッカーは「Whitebox – Ensemble」という方式で生成され、これら五つの画像認識アルゴリズムを誤作動させる構造となっている。この事例では「トースター」を対照としたが、任意のオブジェクトでステッカーを作成できる。

出典: Google

画像認識アルゴリズムの改良が求められる

社会でAIを悪用した攻撃が始まるが、これを防御するには画像認識アルゴリズムの精度を改良することに尽きる。既に、画像認識クラウドサービスは高度なアルゴリズムを取り入れ、先頭のステッカーで騙されることはない。事実、Googleの画像認識クラウド「Cloud Vision」でステッカーを貼った写真を入力しても誤認識することはない (上の写真)。犬の写真に先頭のステッカーを貼っているが、アルゴリズムは「犬」と正しく判定する。回答候補にトースターの名前は出てこない。

エッジ側での処理

自動運転車だけでなく、ドローンやロボットも生活の中に入り、ステッカーを使った攻撃の対象となる。更に、農場ではトラクターが自動走行し、工事現場ではブルドーザーが無人で作業をする。これらは、画像認識アルゴリズムはクラウドではなく、車両やデバイス側で稼働している。これらエッジ側には大規模な計算環境を搭載できないため、限られたコンピュータ資源で稼働する画像認識アルゴリズムが必要となる。リアルタイムで高精度な判定ができる画像認識アルゴリズムと、これを支える高度なAI専用プロセッサの開発が必要となる。

AIを使った攻撃と防御

GoogleがAdversarial Patchに関する論文を公開した理由はAIを使った攻撃の危険性を警告する意味もある。AIを悪用した攻撃が現実の問題となり、我々はその危険性を把握し、対策を講じることが求められる。具体的には、画像認識アルゴリズムの精度を改良していくことが喫緊の課題となる。ただ、Adversarial Patchの技術も向上するので、それに応じた改良が求められる。スパムとスパムフィルターの戦いで経験しているように、いたちごっこでレースが続くことになる。これからは守る側だけでなく攻める側もAIを使うので、セキュリティ対策に高度な技能が求められる。

自律走行型オフィス警備ロボットが登場、人間社会と共存できる優しいデザインが特徴

Friday, March 3rd, 2017

シリコンバレーでオフィス警備ロボットが登場した。ロボットは多種類のセンサーとAIを搭載し自動走行する。施設内で異常を検知するとオペレータに通知する。不審者を見つけると身分証明書の提示を求める。警備を担うロボットであるが威圧感は無く、形状は流線型で親しみやすいデザインとなっている。自動運転車で培った技術がロボットに生かされている。

出典: Cobalt Robotics

屋内警備を担うセキュリティロボット

このロボットはシリコンバレーに拠点を置くCobalt Roboticsにより開発された。ロボットは「Cobalt」という名前で、屋内警備を担うセキュリティロボットとして登場した (上の写真)。ロボットは多種類のセンサーを搭載し自律的に移動する。ここにはComputer VisionやAIなど先進技術が使われている。プロモーションビデオをみるとCobaltはロボットというより家電に近いイメージだ。

施設を自動走行し異常を検知

ロボットは事前に設定されたルートを巡回して警備する。また、ロボットがランダムに施設内を移動することもできる。ロボットは経路上で人物や物を認識し、問題と思われるイベントを検知しこれを管理室に通報する。例えば、ドアがロックされないで開けられた状態であれば、これを異常事態と認識しオペレータ(Human Pilotと呼ばれる)に対処を促す。

環境をモニタリング

ロボットはオフィス環境をモニタリングし、水漏れなどの異常を検知することもできる。また、オフィスに不審物が置かれていれば管理室にアラートを上げる。備品管理機能があり、倉庫での棚卸や資材管理にも利用できる。更に、オフィス内のWiFiシグナル強度をモニターする機能があり、不正アクセスポイントを検知できる。

社員とのインターフェイス

ロボットは人間を認識でき、オフィス環境で共存できることを設計思想とする。ロボットは正面にディスプレイを搭載しており、社員が直接オペレータとビデオを介して話すことができる。また、非常時にはオペレータがロボットを遠隔で制御し社員を安全な場所に誘導する。更に、ロボットは定時以降オフィスに残っている人に対しては身分証明書の提示を求める。社員は身分証明書をロボットのリーダーにかざし滞在許可を受ける (下の写真)。

出典: Cobalt Robotics

多種類のセンサーを搭載

ロボットは多種類のセンサーを搭載している。光学カメラは360度をカバーし全方向を見ることができる。暗闇での警備のために赤外線カメラを搭載している。Point Cloud Cameraで周囲のオブジェクトを3Dで把握する。Lidarと呼ばれるレーザースキャナーで周囲のオブジェクトを3Dで把握する。遠距離まで届くRFIDリーダーでオフィス備品などに張り付けられているタグを読み取り資材を管理する。

自動運転車で培われたAI技法を採用

ロボットはAIやMachine Learningの手法でセンサーが読み込んだデータを解析する。周囲のオブジェクトを判別し、安全に走行できる経路を計算し、ロボットが自律的に走行する。また、Computer Visionで水漏れなどの異常を検知する。更に、ロボットはマッピング技術を実装しており、走行時にLidarで周囲のオブジェクトをスキャンし高精度3Dマップを生成する。生成された3Dマップを頼りにロボットは自動走行する。多くの技術は自動運転車で開発され、Cobalt Roboticsはこの成果をロボットに応用している。

家電に近いロボット

Cobaltは警備ロボットであるが外観は人間に親しまれる形状となっている (下の写真)。これは著名デザイナーYves Béharによりデザインされ、表面は金属ではなく柔らかい素材が使われている。また、Cobaltはヒューマノイドではなく、下に広がる円筒形のデザインとなっている。ロボットというと鉄腕アトムのようなヒューマノイドを思い浮かべるが、Cobaltは家電とか家具に近いイメージだ。自動走行する家電と表現するほうが実態に合っている。

出典: Cobalt Robotics

若い世代が考えるロボット

Cobalt RoboticsはErik SchluntzとTravis Deyleにより創設された。Schluntzはハーバード大学在学中にインターンとしてSpaceXとGoogle Xで製品開発に従事した。Deyleはジョージア工科大学でロボット研究を専攻し、Google XでSmart Contact Lensの開発に携わった。二人とも大学を卒業して間もなくCobalt Roboticsを創設した。若い世代がロボットを開発するとCobaltのように優しいイメージになる。

警備ロボットは既に社会で活躍

実は警備ロボットは既にアメリカ社会で活躍している。シリコンバレーに拠点を置くベンチャー企業Knightscopeはセキュリティロボットを開発している。このロボットは「K5」と呼ばれ、多種類のセンサーを搭載し屋外の警備で使われている。Microsoftがキャンパス警備でK5を採用したことで話題を集めた。Knightscopeの敷地内をK5がデモを兼ねて警備にあたっている(下の写真)。

出典: VentureClef

屋内向け警備ロボットを投入

Knightscopeは小型ロボット「K3」を投入した。K3は建物内部を警備するためのロボットで、K5に比べて一回り小さな形状となっている。サンフランシスコで開催されたセキュリティカンファレンス「RSA Conference」でK3が紹介された (下の写真)。人間に代わりオフィスを警備するロボットで、高度なセンサーとAIを搭載し自律的に移動する。K3は形状が小型化しただけでなく、対人関係を考慮したキュートなデザインとなっている。

出典: VentureClef

ロボットは商用施設に向かう

いまロボットは、オフィス、銀行、病院、高齢者介護施設、ホテル、小売店舗など商用施設で受け入れられている。警備機能だけでなく、ここでは既に多種類のロボットが稼働し企業の効率化を支えている。これら企業環境はロボットにとって自動走行しやすい場所である。企業のオフィスを例にとると、レイアウトが固定で通路が明確で、そこで働く社員は社会的な行動を取る。ここがロボット適用のスイートスポットで事業が急速に拡大している。

最後のフロンティアに向かっての準備

反対にロボット最後の市場は家庭環境といわれている。家庭のフロアには玩具や衣類が散在し、子供やペットが走り回る。WiFi通信は不安定で通信は頻繁に途切れる。AI家電のAmazon EchoやGoogle Homeは対話するロボットして位置づけられるが、移動する機能はない。一般家庭が最後のフロンティアで、商業施設向けロボットはその準備段階として重要な意味を持つ。

脳科学でサイバーセキュリティを強化、Googleは研究成果をChromeに応用

Friday, February 24th, 2017

企業や政府機関はサイバー攻撃に対し多大なコストと時間をかけてセキュリティシステムを構築するが、社員や職員は不審な添付ファイルを開きマルウェアが侵入する。セキュリティ教育で怪しいリンクを不用意にクリックしないよう指導するがフィッシング被害は後を絶たない。なぜ人間は簡単なトリックに騙されるのか、ニューロサイエンスの観点から研究が始まった。

出典: WikiLeaks

クリントン陣営へのサイバー攻撃

トランプ大統領が就任して以来、ロシア政府との関係が連日報道される。ロシア政府が大統領選挙を操作したとの疑惑で事実解明は進んでいない。一方、US Intelligence Community (米国諜報機関連合体) は大統領選挙でロシアがクリントン候補の活動を妨害したと結論付けている。米国諜報機関によるとクレムリンと関係のある人物がDNC (民主党全国委員会) のメールシステムに侵入し、それをWikiLeaksに提供したとしている (上の写真、窃取されたメールを閲覧できる)。

サイバー攻撃で大統領選が左右された

WikiLeaksに公表されたのはクリントン陣営会長John Podestaのメールで2万ページに及ぶ。この中にはクリントン候補がウォールストリートで講演した内容も含まれ、これらが公開されるとで選挙戦で大きなダメージを受けたとされる。クリントン候補の敗戦理由の一つがWikiLeaksで公開されたメールといわれている。

侵入の手口はシンプル

DNCのメールに侵入した方法はSpear Phishingといわれている。これはPhishingの常套手段で、信頼できる発信人を装い受信者の機密情報を盗む手法である。このケースではPodestaのGmailが攻撃された。Bitlyで短縮されたURLをクリックすると、Gmailログインページが表示され、IDとパスワードの入力を求められた。Podestaは怪しいと感じIT部門に確認したが、結局、このトリックに騙された。この事件は人間の脳の構造が関与しているといわれる。

脳科学とセキュリティに関する論文

脳科学を活用したセキュリティ技術研究が進んでいる。Brigham Young UniversityのAnthony Vanceらは脳科学とセキュリティに関する論文「More Harm Than Good? How Messages That Interrupt Can Make Us Vulnerable」を発表した。この論文は人間の脳はセキュリティメッセージにどう反応するかをfMRI (下の写真) を使って解析した。

出典: Jenkins et al.

マルチタスクでの試験

この研究は人間がマルチタスクを実行 (これをDual-Task Interfaceと呼ぶ) するときに着目し、脳の機能をfMRIで観察した。マルチタスクとは二つの作業を同時にこなすことで、ここでは作業中にセキュリティメッセージを読むタスクが課された。具体的には、被験者に7ケタの数字を覚えることを求め、同時に、セキュリティメッセージに正しく対応できるかが試験された。

マルチタスクでは血流が悪くなる

この時、脳内の血流をfMRIで計測した。対象はMedial Temporal Lobe (MTL) といわれる部位で、ここは長期記憶を司る部分とされる。結果は、被験者がマルチタスクの状態でセキュリティメッセージを読むとMTLの血流が少なくなっているのが観察された。このことはマルチタスクがMTLの活動を低下させ、長期記憶にアクセスしてセキュリティメッセージに反応する機能が著しく制限を受けることを意味する。(下の写真は普通の状態でセキュリティメッセージを読んでいる状態。マルチタスクの時と比べ、オレンジ色の分部で血流が増えた。)

出典: Jenkins et al.

Neurosecurityという研究

これは「Neurosecurity」と呼ばれる研究で、脳科学をセキュリティに応用し製品のインターフェイスを改良することを目指す。論文はセキュリティメッセージを表示するインターフェイスを改良する必要があると提言している。具体的には、利用者が作業を終えたタイムングを見計らってセキュリティメッセージを表示べきだとしている。

研究成果をGoogle Chromeに適用

Brigham Young UniversityはGoogleと共同で、研究結果をブラウザー「Chrome」に応用する試みを進めている。Chromeは「Chrome Cleanup Tool」というセキュリティツールを提供している。これをブラウザーにインストールしておくと、ブラウザーが問題を検知するとメッセージを表示し (下の写真、右上の分部)、利用者にツールを起動するよう促す。このツールを起動することでブラウザーに侵入したマルウェアなどを除去できる。

利用者はメッセージを無視する

便利なツールであるが、メッセージを表示しても利用者がアクションを取らないという問題を抱えている。実際に856人の被験者 (Amazon Mechanical Turkを利用) を使って試験が行われた。この結果、利用者がビデオをみている時にこのメッセージを出すと (下の写真)、79%のケースで無視された。つまり、マルチタスクの状態では利用者はセキュリティメッセージに反応しないことが分かった。このため、セキュリティメッセージはビデオが終わった後に表示するようGoogle Chromeのインターフェイスが改良された。

出典: Jenkins et al.

Chromeインターフェイス改善

この他にも、利用者がタイプしている時や、情報を送信している時など、マルチタスク実行時には80%のケースでメッセージが無視されることも分かった。一方、ビデオを見終わったタイミングでメッセージを表示すると無視されるケースが44%に下がる。更に、ウェブページがロードされるのを待っている間にメッセージを表示すると無視されるケースが22%と大幅に低下する。これらの研究結果がGoogle Chromeのインターフェイス改善に生かされている。

脳科学に沿ったセキュリティデザイン

企業や政府でPhishing被害が後を絶たないが、これは人間の脳が持っている基本的な属性が大きく関与している。本人の不注意という側面の他に、ブラウザーやアプリのインターフェイスが悪いことが重要な要因となる。忙しい時にメッセージが表示されると、注意が散漫になり、操作を誤ることは経験的に感じている。Brigham Young Universityはそれを定量的に証明し、Googleはこの成果を製品開発に活用している。脳科学に沿ったセキュリティデザインに注目が集まっている。