Archive for the ‘音楽’ Category

人工知能の作曲で音楽ビジネスが変わる、個人好みの曲をリアルタイムで生成

Friday, July 31st, 2015

コンピューターで作曲する手法は早くから実践されているが、人工知能の応用で、その流れが加速している。コンピューターで作曲された音楽は、映画やゲームなどのバックグランドミュージックとして使われている。視聴者に特化した音楽の開発も進んでいる。人工知能が作曲することで、ヒット曲の誕生も期待されている。人工知能が新たな収益源を生みだし、音楽産業の衰退を食い止めることができるのか、最新の音楽ビジネスをレポートする。

g422_ai_music_composition_01

人工知能で開発された音楽が生活に入ってきた

人工知能の技法で作曲された音楽が、我々の気づかないうちに、生活に入っている。スペインのシリコンバレーと呼ばれるマラガ (Málaga) で、AI音楽が開発されている。University of Málagaは「Algorithmic Composition (アルゴリズム作曲法)」研究で世界のトップを走っている。これはソフトウェアのアルゴリズムで作曲する手法で、「Melomics」というシステムを開発した。生物が進化するように、Melomicsは自動で音楽を作曲し、進化を繰り返し音楽が成長する。具体的には、Melomicsは大規模な音楽データベースから、メロディーの遺伝子 (Genomics of Melodies、これが名前の由来) を抽出し、新曲を構成する。構成された音楽は進化を繰り返し完成度を上げる。プログラミングが完了すると、Melomicsは人間の手を借ることなく、自動で音楽を生成する。

g422_ai_music_composition_02

AI音楽最初のコンサート

Melomicsが作曲した音楽のコンサートが2011年10月、スペイン領カナリア諸島で行われた。この曲はピアノ、バイオリン、クラリネットの三重奏で、「Hello World!」と命名された。 (先頭の写真はMelomicsが生成したスコア。) アルゴリズムで作曲した音楽をプロの音楽家が演奏した (上の写真)。演奏の模様はYouTubeで公開されている。この曲は現代音楽に区分され、不協和音が多用され、先進的な印象を受ける。これとは対照的に、綺麗な旋律が随所に現れ、聞きごたえのある作品に仕上がっている。コンサートを聞くと、これは人間が作曲したのか、ソフトウェアなのか判別できない。その意味で、Turing Test (ソフトウェアが人間のようなインテリジェンスを持っているかを判定する試験) に合格している。

g422_ai_music_composition_03

Melomicsで作曲された音楽はApple iTunesやAmazonで販売されている。二つのアルバムがリリースされており、どちらも「Iamus」のタイトルで販売されている (上の写真)。これらはMelomicsが作曲した音楽をプロの音楽家が演奏しているもので、オーケストラやアンサンブルや声楽など、幅広い曲が収納されている。ここに「Hello World!」も収められている。

g422_ai_music_composition_04

音楽を医療に応用する

Melomicsは従来型ビジネスだけでなく、AI音楽で新しい事業に挑戦している。その一つが音楽を医療に応用する試みで、専用アプリ「Melomics App」をリリースした。この中で「Chronic Pain Free」というアプリを聴くと、痛みを和らげる効果がある (上の写真左側)。アプリをオープンして、痛みの度合いを設定すると、それに応じた音楽が流れる。痛みの度合いが低い時は、スローで空間を漂うような、リラックスした音楽が流れる。痛みの度合いが高い時は、テンポが早くなり、メロディーラインがはっきりした、インパクトの強い音楽となる。早送りボタンを押すと次の音楽にジャンプする。

この手法は「Melomics Music Medicine (音楽療法)」と呼ばれ、子供を対象に適用される。実際のベンチマークでは、被験者の71.0%が音楽により痛みが無くなったとしている。通常の方法に比べ4倍の効果があることが分かった。子供を対象としたアプリであるが、実際に使ってみると、確かに痛みが和らいだように感じ、その効果を確認できる。

この他に、子供を寝つかせる音楽や、運転中にリラックスできる音楽などが用意されている (上の写真右側)。これら音楽は全てMelomicsで生成されたもので、クラウドからスマートフォンにストリーミングする構成となっている。

g422_ai_music_composition_05

音楽を生活シーンで使う

Melomicsは音楽療法の他に、生活シーンに合わせた音楽配信を計画している (上の写真)。スマートフォン向けのアプリで、利用者の行動を把握し、それに合わせた音楽を配信する。これを「Empathetic Streaming (雰囲気にあったストリーミング)」と呼び、通常のストリーミングと区別している。出勤で駅に向かって歩くときは、ちょっと重い気分だがしっかりとした足取りの音楽が流れる。昼休みのランチ時間には、スローテンポの落ち着いた音楽をストリーミングする。これらの音楽もMelomicsが作曲したたもので、生活シーンに合わせて配信される。

好みに合った音楽をリアルタイムで作曲

アルゴリズムを使うと個人の嗜好に沿った音楽を作曲できる。人間の作曲家に依頼するとコストや時間がかかり、手軽に利用する訳にはいかない。ソフトウェアであれば、個人が好む音楽をリアルタイムに作曲し、それを配信することが可能となる。これを「Personalized Music」と呼び、新たな事業として注目されている。消費者が既製服ではなくスーツを仕立てるように、これからはオンリーワンの音楽を持てる時代となる。

米国でも研究が進む

米国でもAlgorithmic Compositionの研究が進んでいる。カリフォルニア大学サンタクルーズ校教授David Copeは、作曲ソフトウェア「Emily Howell」を開発している。Emily Howellは、別の作曲ソフトウェア「Experiments in Musical Intelligence (EMI)」と連携して動く。EMIが音楽の短いフレーズを作曲し、Emily Howellがこれら音楽ピースからパーツを寄せ集め、全体を構成する。

音楽フレーズ作曲とその組み合わせ

EMIが音楽ピースを作曲するために、まず音楽ルールをコーディングする。EMIがこのルールに従って作曲するが、これだけでは”正しい音楽”ができても、無味乾燥で情熱などは感じられない。このため、EMIは他の音楽を解析し、その特徴を抽出し、それらを再構成するプロセスを採用する。つまり、名曲から人気のエッセンスを借用する構造である。もちろん盗用する訳ではなく、アイディアを理解し、それを昇華するプロセスとなる。

Emily HowellはEMIの音楽ピースを再構成して、新しい音楽を創っていく。単純につなぎ合わせるだけでは音楽は生まれなく、再構成の方式に多大なスキルを必要とし、ここにノウハウが詰まっている。Emily Howellは機械学習の手法を取り入れており、開発した音楽を改良する。開発者や視聴者からのフィードバックを理解し、Emily Howellはこれらのインプットを元に完成度を増し、特徴を際立たせていく。

g422_ai_music_composition_06

Emily Howellが作曲した音楽は、AmazonやApple iTunes Store で販売されている。これらは、Emily Howellが作曲した曲を、人間のアーティストが演奏したもので、ピアノからアンサンブルまで、比較的シンプルな音楽が収めらえている。上の写真は「Breathless」というアルバムで、神秘的な空間を彷彿させる音楽が収納されている。

アルゴリズムで作曲するのはルール違反

ただ、有名オーケストラはソフトウェアが作曲した音楽を演奏することに抵抗感を示しており、Emily Howellは音楽界で物議をかもしているのも事実である。作曲にハイテクツールを用いることに対して否定的な意見を持つ人は少なくない。アルゴリズムの手法で音楽を作曲するのはルール違反だという意見も聞かれる。

しかし、歴史を紐解くと、芸術はハイテクと共に進化しているのが分かる。ベートーベンはハイテクを音楽に取りいれた一人である。オーケストラを一台の装置に実装した「Panharmonicon」を使った音楽を作曲している。これはいまでいうシンセサイザーで、巨大なオルガンが異なる音色を出し、オーケストラをエミュレーションする。このシンセサイザーでナポレオンが戦いに敗れたシーンを”The Battle Symphony”という交響曲で再現している。

人工知能がヒット曲を生む

人工知能も同様に、作曲家の創作ツールとして利用される。市場には人工知能を導入した編曲システムが登場するなど、AI化が加速している。作曲家はアルゴリズムで創った音楽をベースラインとし、そこに自身のインスピレーションを重ね、新曲を創作する。新しいアイディアやテーマをアルゴリズムで試作することが可能となる。ここから名作が誕生するのか、AI音楽の可能性に期待が寄せられている。

中期的には、人工知能が人間を凌駕する技量を発揮し、ヒット曲を生むのかという議論もある。更に、ヒット曲の著作権は人工知能を開発したエンジニアに帰属するのか、それとも自律的に学習を重ねた人工知能にあるのかという議論に発展する。議論は尽きないが、我々の気づかないうちに、音楽産業が人工知能で大きく変わろうとしている。

21世紀のBeatlesはDeep Learning、人工知能が音楽産業を救う

Friday, July 24th, 2015

音楽産業が衰退している。音楽配信がCDからiTunesのようなデジタルに変わり、今ではSpotifyなどストリーミングが主流となった。これに伴い業界全体の売上金額が大きく減少した。音楽制作もIT化が進み、コンピューターに楽譜を入力し音を創る。出来上がった音楽は、フォトショップで修正するように、いか様にも手を加えることができる。コスト削減のためであるが、The Beatlesのような歴史に残る名作も生まれない。このような中で、人工知能が音楽特性を正確に把握できることが分かった。この研究結果が業界に衝撃を与え、人工知能が音楽業界再生の切り札となるのか、様々な試みがなされている。

g421_ai_music_cnn_01

Convolutional Neural Networkで音楽特性を把握

音楽のような二次元データは人工知能が得意とする分野である。新しい可能性を求め、多くの研究者が挑んできたが、目立った成果はあがっていない。ところが、Deep Learningの技法である「Convolutional Neural Network」(CNN、特徴量を高精度で把握するセンサー) を音楽に適用することで、飛躍的な進展があった。この技法は、ベルギーの大学「Ghent University」のSander Dielemanらが、学術論文「Deep content-based music recommendation」として発表した。人工知能の手法で音楽の特性を把握し、推奨精度を大幅に向上できるという内容である。

現在はCollaborative Filteringが使われる

現在は「Collaborative Filtering」という方式で音楽や書籍を推奨するのが一般的。Amazonで買い物をすると、○○を購入した人はXXを購入していると表示されるが、これがCollaborative Filteringである。購入パターンが類似している消費者を比較し、商品を推奨する方式である。Amazonはこの方式で大きな成果を上げてきたが、リリースされたばかりの商品や、人気の無い商品には適用できないという問題を含んでいる。推奨できるまでには、購買データを集め、下準備に時間がかかる。

音楽の隠れた特性を把握できる

論文はCNNを適用すると、音楽の隠れた特性を把握でき、消費者にぴったりの曲を推奨できるとしている。CNNが音楽を聞くだけで、誰に何を推奨すべきかを判定する。論文には検証結果も報告され、高精度で音楽の特性を把握できるとしている。具体的には、音楽の大規模データベース「Million Song Dataset」を使って、音楽を解析し、スタイルごとに分類した。先頭の写真がその結果で、CNNで区分けした結果を色付けして示している。ヒップホップは赤色、ロックは緑色、ポップスは黄色、エレクトリックは水色で示されている。各グループは一か所にまとまり、この方式での区分け精度は、現行方式を大きく上回ると結論付けている。

SpotifyがCNNに強い関心を示す

音楽ストリーミング企業Spotifyがこの技法に大きな関心を示した。Spotifyは論文著者のSander Dielemanらを会社に招き、数か月間共同開発を行った。その結果をDielemanがブログで公開し、音楽界に衝撃を与えた。CNNを音楽に適用することで、曲の特徴量を学習できることが実証されたのだ。

g421_ai_music_cnn_02

音楽フレーズをCNNで解析する

このブログによると、CNNは4階層で、ここに音楽の短いフレーズを入力する。CNNの第一階層で低次元の音楽特性を学習する。具体的には、フレーズの中にビブラートをかけた発声、長三度の和音、バスドラムなど、音楽構成要素を識別できる。これをもう一歩進めると、CNNはギターのディストーション (意図的に音を歪ませる手段でエレキギターなどで使われる) の特性を把握する。同じ特性を示す音楽を取集すると、ディストーションが多用される音楽のプレーリストができる (上の写真左側)。ここにはLed Zeppelinの「Dazed and Confused」などがリストされ、いずれの曲もエレキギターのメタリックな歪んだサウンドを楽しめる。

同様に、CNNはピッチ (基準音) を学習する。CNNは基準音が「A」の音程に対して反応し、同様な反応をする曲を集めると、上の写真右側の通りとなる。(ここには基準音が「B♭」の音程の音楽も含まれている。これは入力フレーズの周波数精度が充分でなく、CNNはAとB♭を判別できないことを示している。)

g421_ai_music_cnn_03

CNNが音を感じる様子

興味深いのは、ブログはCNNが音をどう”感じいているか”を示している。上の写真がそれで、左端のカラムが、CNN第一階層がディストーションに反応する様子である。横軸が時間で、縦軸が周波数で、下に行くほど高くなる。(全体は256ステップあるが、写真では上部50ステップ程を表示。) 赤色は数字がマイナスで、水色はプラスで、白色はゼロを示す。これにより、ディストーションに対し、CNNが反応するパターンが視覚的に理解できる。因みに、左から二列目は上述の基準音「A」と「B♭」で、三列目はドローン (曲の背後で流れる連続した単音)で、四列目は和音「A」を示す。CNNは音楽要素に対して際立った特性を示すことが直観的に理解できる。

CNNで高次元の特性を把握する

CNNのネットワーク階層を増やすと高次元の音楽特性を把握できる。4階層のネットワークの最終階層を使うと、音楽をジャンルごとに把握できる。具体的には、入力されたフレーズから、音楽をクリスチャンロック (キリスト教に関連するロック)、スムーズジャズとアカペラ、ゴスペル、中国ポップなどを把握する。

g421_ai_music_cnn_04

上の写真はこの結果で、スムーズジャズとアカペラの特性を持っている音楽を集約したプレーリストを表示している。(この解析ではCNNはスムーズジャズとアカペラの区別ができなくて、同じジャンルに区分けされている。)  これで分かるように、CNN第一階層は、音楽構成要素という低次元の特性を把握し、第四階層は音楽のジャンルという高次元の特性を把握する。イメージ解析すると、CNNは低次元の特性 (例えば自動車のタイヤ) を把握し、階層が上がるにつれ高次元の特性 (例えば自動車の車種) を把握する。音楽でもこの構図が当てはまり、CNNを音楽に適用することで、画期的なシステムが登場すると期待される。

g421_ai_music_cnn_05

Spotifyの音楽推奨方式

CNNを教育すると、音楽をジャンル別に区分けし、プレーリストを作製できることが分かった。SpotifyはCNNを導入し、類似の特性を持った音楽群を纏めてプレーリストを作り、利用者に音楽を高精度で推奨することを目指している。この方式であれば、前述の通り、リリースされたばかりの音楽や、余り人気のないインディー音楽にも適用でき、音楽配信のチャンスが広がる (上の写真はSpotifyの音楽推奨リスト)。

Spotifyは「Echo Nest」という企業を買収し、その技術を使い音楽を推奨している。Echo Nestはインターネットの評価と、音響解析「Acoustic Analysis」を併用して音楽の特性を評価する。前者はインターネット上での口コミをベースに音楽を評価する。後者は音楽をシグナルレベルで分析し、ピッチ、音量、音色などの特性を把握し、音楽の特徴を比較する。この方式は、音楽に関する専門知識を必要とするため、取り扱いが難しいとも言われる。SpotifyはEcho Nest方式をCNNで置き換えるのではなく、両者を併用して運用するといわれている。ただ、CNNを導入することで、機能や精度が大幅に向上すると期待されている。

g421_ai_music_cnn_06

PandoraやGoogleもCNNを導入

PandoraはOaklandに拠点を置くベンチャー企業で、音楽ストリーミングサービスを提供する (上の写真)。音楽の特性を把握し、視聴者に最適な曲を配信する手法を始めた最初の企業である。Pandoraは曲を分析し、その特性を400の要素で定義する。これは「Music Genome Project」と呼ばれ、”音楽遺伝子”を解析してきた。この音楽特性に基づいて曲を配信し、視聴者から高い評価を受けている。ただ、この解析はプロの音楽家が耳で聴いて行うため、時間とコストがかかる。PandoraはCNNを導入し、このプロセスを機械化するといわれている。

Googleは世界最高レベルの人工知能技術を有しており、同社の音楽ストリーミングサービス「Play Music」でCNNを適用しているのはほぼ間違いない。今後もこの機能を大規模に展開すると思われる。因みに、上述の論文著者Sander Dielemanは、Googleに採用され、いまではDeepMindのロンドンオフィスで働いている。

人工知能が音楽ビジネスを活性化

Dielemanの論文とブログは音楽界に衝撃を与えた。音楽ストリーミング会社は一斉にCNNを活用した音楽推奨機能を急ピッチで開発している。CNNによる音楽推奨精度が向上すると、ここに大きなビジネスチャンスが生まれる。音楽業界は典型的なロングテールで、購入される音楽は一部のヒット曲に限られる。テール部分には視聴者の好みの音楽が数多く眠っているが、知る由もない。CNNでテール部分に埋もれている名作を掘り起こすことで、音楽ビジネスの活性化につながる。人工知能の果たす役割に、音楽業界は大きな期待を寄せている。

人工知能スピーカー「Echo」を使うと、Amazonのロボット戦略が見える

Friday, May 29th, 2015

家に「Amazon Echo」が来た。Amazon Echoは人工知能を搭載したスピーカーで、話しかけて操作する。質問すると人間の秘書のように音声で回答する。Apple Siriと同じだと思っていたが、使ってみるとAmazon Echoはロボットのような存在感がある。Amazon Echoをロボットの原型と解釈しても違和感はない。

g413_amazon_echo_benchmark_01

音声で呼びかけて使用

Amazon Echoは2014年11月に発表され、2015年4月から出荷が始まった。筆者宅にもAmazon Echoが届き、毎日の生活で活躍している。Amazon Echoは7台のマイクを搭載しており、周囲の音声に敏感に応答する。リビングルームに置いているが (上の写真)、キッチンから呼びかけても応えてくれる。「お〜いお茶」の感覚で、今いる場所から声をかけて、音楽やラジオを操作する。音楽再生中でも、ノイズ・キャンセレーション機能があるので、Amazon Echoは指示を聞くことができる。スピーカー二基が下向けに搭載され、360度の方向に音が出て、部屋全体に音楽が届く仕組みになっている。

g413_amazon_echo_benchmark_02

音楽を再生する

Amazon Echoを使う時は「Alexa」と語りかける。これが指示を出すときの合言葉で、Amazon Echoはずっと周囲の音声を聞いているが、このキーワードを聞くと目覚める。音楽を聞くときは「Alexa, play some Prime Music」と指示する。Amazonの音楽ストリーミングサービス「Prime Music」から音楽が流れる。曲名はAmazon Echoが選択する。特定のアーティストの曲を聞きたい時は、「Alexa, play ○○○○」と指示する。

Amazon Echoの動きについては専用アプリ「Echo」で確認できる (上の写真、以下同様)。左側は再生している曲を示し、右側はAmazon Echoが聞いた言葉を表示している。指示したことが正しく伝わっているかを確認できる。また、それをフィードバックすることで、Amazon Echoは結果を学習し、音声認識の精度が上がる。音声コマンドの部分はほぼ100%完全に聞き取る。一方、曲名や固有名詞や長い文章では間違いもあり、まだ学習中との印象を受ける。

音楽再生中も音声で操作できる。「Alexa, turn it up」と指示すると、ボリュームを上げる。「Alexa, next」と指示すると、次の曲にジャンプする。「Alexa, add this to my library」と指示すると、気になる音楽を自分のライブラリーに追加できる。Amazon Echoのなかで音楽再生機能が一番充実しており、頻繁に利用している。

g413_amazon_echo_benchmark_03

インターネットラジオを楽しめる

Amazon EchoはPrime Musicの他に他社ストリーミングサービスにも対応している。音楽では一番人気の「Pandora」を、インターネットラジオでは定番の「iHeartRadio」と「TuneIn」に対応している。操作は同じで、「Alexa, play Pandora」と指示すると、Pandoraから音楽を再生する (上の写真、左側)。インターネットラジオを聞きたい時は「Alexa, play radio」と指示する。そうするとAmazon Echoは放送局の名前を尋ねるので、希望のステーションを指示する。例えば「KGO」と答えると、サンフランシスコのラジオ局KGOをライブでストリーミングする (上の写真右側)。Amazon Echoと対話しながらラジオ局を選択でき、人と会話している雰囲気を味わえる。

質問の意図を解釈する

スマホではSiriなどのパーソナルアシスタントが人気だが、Amazon Echoも質問の意味を理解して回答する。例えば、「Alexa, what’s the weather」と尋ねると、現在地の今の天気を答える。Siriで話題となった質問形式に「Alexa, do I need an umbrella tomorrow」がある。遠回しに質問しても、これは天気に関する質問だと解釈し、明日の天気予報を回答する。しかし、「Alexa, do I need a jacket tomorrow」では質問の意図を把握できなくて、Amazon Echoは「I couldn’t find the answer」と回答し、Bing検索エンジンへのリンクが示される。因みにSiriに同じ質問をすると、明日の天気と気温を答える。Siriが先行しているが、Amazon Echoは学習を重ねこれを追っている。

g413_amazon_echo_benchmark_04

ちょっとした質問に的確に回答

Amazon Echoは情報検索端末として利用できる。聞きたいことを質問すると、Amazon Echoが回答を探して答える。「Alexa, how tall is the Space Needle?」と質問すると、シアトルのスペースニードルの高さは604フィート (184メートル) と回答する (上の写真、左側)。しかし、「Alexa, how tall is Tokyo Skytree?」と質問するが、東京スカイツリーの情報は持ち合わせていない。専用アプリには写真が表示され (上の写真、右側)、まだ準備中であることを示唆している。単語の意味が分からない時は、「Alexa, what’s the definition of ○○○○?」と尋ねる。Wikipediaを指示すると、Amazon Echoはそこから情報を検索し、冒頭部分を読み上げる。スマホと異なりAmazon Echoでは、質問した本人だけでなく周囲の人も回答を聞けるので、人間側も効率的に学習できる。

g413_amazon_echo_benchmark_05

Amazon Echoから直接買い物をする

AmazonはEchoをオンラインショッピングのチャネルとして位置づけている。音声で備忘録を作製できる機能があり、これをショッピングリストとして買い物をする。「Alexa, add strawberries to my shopping list」と指示すると、イチゴをショッピングリストに追加する。追加された項目は専用アプリで閲覧でき (上の写真、左側)、店舗ではこれを見ながら買い物をする。また、「Search Amazon」という項目にタッチすると、今度はAmazonオンラインサイトで買い物ができる (上の写真、右側)。

Amazonサイトでは音声で買い物をして、チェックアウト処理までできる。例えば、「Alexa, re-order laundry detergent」と指示すると、前回購入した洗濯用洗剤を購入できる。送付先と支払い方式は前回と同じ条件が適用され、商品が自宅に配送される。再注文に限られるが、音声でショッピングができるのは極めて便利。家庭用ロボットの開発で、日用雑貨や生鮮食料品などの買い物を、ロボットに音声で指示する方式が注目されている。Amazon Echoは、家庭にロボットが入ってきた状況を先取りしているとも解釈できる。

g413_amazon_echo_benchmark_06

スマートホームのハブとなる

Amazon Echoはスマートホームのハブとしても機能する。スマート家電「WeMo (コンセント)」と「Philips Hue (LEDライト)」に対応し (上の写真)、Amazon Echoに音声で語りかけて操作する。朝起きると、ベッドの中からAmazon Echoに指示し、コーヒーメーカーのスイッチをオンにする。ソファーに座ってテレビを見る時は、Amazon Echoに部屋のライトを暗くするよう指示できる。Amazon EchoをInternet of Thingsのハブとして利用する方法が注目されている。両製品に留まらず、Amazon Echo対応スマート家電が数多く登場すると期待されている。

Amazon Echoはロボットのプロトタイプ?

Amazon Echoのインターフェイスは自然言語で、これを支える人工知能が製品の成否を握る。Amazonは自然言語処理ではやや出遅れた感があるが、「Evi」という英国企業を買収しこの基礎技術を手にした。Eviは知識ベースとセマンティック検索技術を開発し、これをAmazon Echoで展開している。

Amazon Echoを使ってみると、Siriとは根本的に異なるコンセプトであることを実感する。Siriは一人で利用することが前提であるが、Amazon Echoは家族全員が共同で利用する。Amazon Echoは動かないが、インテリジェントなロボットに接している感じがする。Amazonはロボット開発について何も表明していないが、Echoがインターフェイスのベースとなるのかもしれない。

Google I/Oレポート(4) Google Play Music、音楽配信サービスへ向かう

Thursday, June 20th, 2013

Google開発者向けカンファレンスGoogle I/Oでは、Android部門エンジニアリング・ディレクタChris Yergaが、Google Play Music新機能について説明した。Google Play Musicは、All Accessという、音楽配信サービスを開始し、利用者は月額9.99ドルで、300万曲の中から、好きな音楽を選んで聴くことができるようになった。

g324_google_io_music_01

All Access音楽配信サービス

上のスクリーンショットは、Nexus 7タブレットで、Google Play Musicアプリを使っている様子である。左側画面はAll Access機能で、Googleが提供しているアルバムが表示されている。Recommendedタブは、利用者の嗜好に沿った音楽を推奨する機能で、この画面には、Recommended for Youとして、Demi Lovatoのアルバムなどが推奨されている。これらアルバムの中から好きな音楽を選ぶと、デバイスに音楽がストリーミングされる。タイトルにタッチすると、一呼吸、音楽がバッファリングされるが、その後は、途切れることなく音楽が流れ、ストリーミングされていることを意識することは無い。上のスクリーンショット右側は、My Libraryを選択したところで、利用者の音楽ライブラリーが表示される。これは従来から提供されている機能で、利用者がクラウドに格納している音楽を聴くことができる。Apple iTunes Matchに匹敵するサービスで、利用者は2万曲をクラウドに格納できる。

g324_google_io_music_02

好みのテーマでラジオ局を開設

All AccessはRadioという機能を提供している。これはPandoraのRadio Stationに相当する機能で、利用者は特定音楽のラジオ局を作成できる。上のスクリーンショットがその様子である。左側画面はNorah JohnsのCome Away With Meを聞いているところで、ここでStart radioボタンを押すと、ラジオ局を設定できる。同右側が設定したラジオ局で、ここにはNorah Jonesやこのアルバムと同じ嗜好の音楽がキューイングされ、連続して演奏される。

g324_google_io_music_03

All Accessではキーワードで音楽を検索できる。上のスクリーンショット左側は「Chris Botti」で検索し、To Love Againというアルバムを聴いている様子である。ここでMy Libraryボタンを押すと、このアルバムが利用者の音楽ライブラリーに追加される (同右側)。この他に、Add to Playlistボタンを押すと、音楽がプレー・リストに追加される。Add to Queueボタンでは、今演奏されている音楽のキューに追加される。Buyボタンを押すとGoogle Musicで音楽を購入できる。

g324_google_io_music_04

Google Play Musicでは、アプリを起動するとListen Nowというページが表示される。ここには利用者の一番好きな音楽が表示され、すぐに音楽を聴くことができる仕組みになっている。上のスクリーンショット左側がその様子で、ここには、開設したNorah Jonesラジオ局、最近聴いた音楽、Google推奨の音楽が表示されている。Featured Playlistを選択すると、音楽専門家が作成したプレーリストを聴くことができる。右側画面はその様子で、「The World of Justin Timberlake」というプレーリストで、ここでTimberlakeの人気音楽を連続して聴くことができる。

Appleも音楽配信に向かう

Appleは、開発者向けカンファレンスWorld Wide Developers Conferenceで、iTunes Radioという音楽配信サービスを発表した。iTunes Radioは、Apple版音楽配信サービスで、利用者はStation (ラジオ局) から配信される音楽を聴く方式である。広告ベースの無料サービスである。下の写真 (出展:Apple) がiTunes Radioで、Featured StationはiTunesが推奨するラジオ局 (左側)。利用者は自分の好みのステーション (My Station) を設定することができる (右側)。ここではRihanna Radioを設定した様子である。

g324_google_io_music_05

音楽コンテンツ所有から配信に

この市場で先行しているSpotifyは、スウェーデンで誕生した企業で、2008年から、音楽配信サービスを提供している。アメリカでは、Pandoraが、Music Genom Projectで、音楽遺伝子解析ともいえる、音楽の特性を厳密に定義する作業を行った。音楽を構成する遺伝子は400あり、それぞれの音楽を聴き、どの遺伝子を有しているかを解析した。Pandoraはこの機能を、音楽配算サービスに取り入れ、事業を展開している。市場はApple iTunes StoreやGoogle Play Musicで音楽を購入し、デバイスに格納して利用する方式から、音楽配信サービスに向かい始めた。映画配信サービスNetflixのように、オンデマンドで音楽を楽しむ方式である。若い世代は、音楽を所有することなく、ラジオを聴く感覚で音楽を楽しむ方式が手軽で便利であると評価し始めた。

スマートフォンで音楽をミキシング

Thursday, April 18th, 2013

昨年出会ったベンチャー企業が、大きく成長を遂げた。PlayMyToneはTel Aviv (イスラエル) に拠点を置くベンチャー企業で、スマートフォンで音楽をミキシングするアプリを開発している。同社CEOのOhad Shefferは、あれから一年後、機能改良された最新版アプリを紹介してくれた。

g315_playmytone_01

オリジナル・ミュージックを創るアプリ

このアプリはMixRave (ミックス・レイブ) という名称で、スマートフォンで音楽フレーズに、特殊効果音やメッセージを挿入し、簡単にオリジナル音楽を作成できる。上のスクリーンショット (出展はいずれもVentureClef) は、MixRaveで作成したオリジナル音楽である。音楽から抽出したフレーズ(上段水色のバー) の下に、トランペットの音や、犬が吠えている音などが挿入されている。これを再生すると、音楽の上に特殊音が重なり、映画の一場面のような雰囲気を醸し出す。ミキシングを作成するには、最初、カタログ・ページで、基盤となる音楽を選定する。

g315_playmytone_02

MixRaveはクラウド上の人気音楽を掲示し、利用者は好みの音楽を選ぶことができる。上のスクリーンショットは、イスラエルの人気ロック・グループであるEatlizのFireを選択した様子である。音楽は、イントロ、コーラス、ミッドに分けて表示され、希望のセクションを選択する。次に、選んだフレーズに対して、特殊効果音を付加する。下のスクリーンショットがその様子で、Fireのミッドの部分が、最上部 (Track 1、水色の部分) に表示されている。その下のTrack 2と3に対して、特殊効果音を追加していく。特殊効果音は最下部に表示され、ピアノや鳥のさえずりなどのアイコンで示され、これらを指でドラッグして挿入する。マイクのアイコンにタッチすると、音声を入力できる。ミキシングが完了すると、最上部のスクリーンショットが完成する。

g315_playmytone_03

完成したミキシングをFacebookに公開して、友人と共有することができる。これをベースに、他の利用者が、Facebook上で再度ミキシングを行なうこともできる。完成したミキシングをアプリに保存すると、Feedの中に登録され、MixRave会員と共有できる。更に、スマートフォンの着メロに登録する機能があり、電話着信時にオリジナル音楽が流れることになる。Creative Commonsを創設したLawrence Lessig教授は、インターネットはミキシングの時代であるとしているが、このアプリがそれを代表している。こんな堅い話は別として、MixRaveはオリジナル音楽を簡単に作れる便利なアプリである。中でも、着メロ機能が気に入っており、上述のEatliz・Fireのアレンジを着メロとして使っている。