Archive for July, 2011

太陽光発電データセンター

Thursday, July 28th, 2011

データセンターは、省エネ技術の導入で、消費電力を大幅に抑えるだけでなく、創エネ技術により、データセンター施設内で、積極的にエネルギーを生成する方向に向かって進んでいる。このレポートでは、データセンターにおける、太陽光発電による、創エネ技術の最新動向を検証する。

g218a_cisco_datacenter

Ciscoの最新データセンター

最初の事例は、Ciscoの新設したばかりのデータセンターである。Ciscoは、ブログの中で、2011年4月に、データセンター (上の写真、出展:Cisco Systems, Inc.) をオープンしたことを発表した。このセンターは、Allen (テキサス州) に建設された。このセンターの直ぐ近くのRichardson (南に15マイルの位置) では、すでに別のデータセンターが運営されており、両センターが連動して稼動する構成になっている。二つのデータセンターは、アクティブ・ミラー・センター (Active-Active Mirrors) として運営され、どちらかのセンターが停止した際は、別のサイトで業務を継続する構成となっている。一方のサイトのデータが更新されると、同時に、もう一方のサイトのデータも更新され、アクティブなバックアップ体制が取られている。これらのデータセンターの業務は、Cisco社内で使用するクラウド・アプリケーションをホスティングすることである。Ciscoは、アクティブ・ミラー・センターの方式で、全世界のデータセンターを、三つの仮想データセンター (Metro Virtual Data Center) に統合する計画である。

データセンターの構造

Ciscoがデータセンターを運営しているテキサス州は、竜巻が頻繁に発生する場所である。このため、Allenデータセンターは、175mph (秒速78メートル) の竜巻に耐える構造となっている。また、非常用電源 (UPS、Uninterruptible Power Supply) は通常のバッテリーではなく、フライホイール・ロータリー方式のUPSを採用している。停電となってもフライホイールが回り続け、短期間 (15秒程度) 電力を供給し、その間にディーゼル発電機が起動する仕組みである。

g218b_cisco_datacenter

上の写真 (出展:Cisco Systems, Inc.) は、Allenデータセンター内部の様子である。データセンターの空調システムは、Facebookと同様に、Air-Side Economizerという、外気の冷気を使って空調する方式である。外気の温度が低い時は、Chiller (冷却装置) を運転しないで、外気をフィルタリングして冷却に使用する。Ciscoによると、運転時間の65%は外気を使用でき、冷却費用を年間で60万ドル削減できるとしている。センターの冷却は、Overhead Coolingという方式で、天井から冷気をコールド・アイルに落下させ、サーバの中を抜けてホット・アイルに入り、暖気を天井から排出する構造である。従って、従来の二重床 (Raised Floor) は不要となる。

g218c_cisco_datacenter

ソーラーパネル

Allenデータセンターは、ソーラーパネル (上の写真、出展:Cisco Systems, Inc.) を使って、クリーン電力を自家発電している。施設の屋上にソーラーパネルを設置して、100kWの発電を行なっている。発電された電力は、データセンターのオフィス部分で使用されている。ソーラーパネルで発電された電力は、データセンター全体に電力を供給するには充分でなく、施設の電力を補完する目的で使われている。また、このセンターは、電力会社から、クリーンな電力の購入も行なっている。Allenデータセンターが、センターにおける、創エネ技術のトレンドを現している。最近では、新設されるデータセンターには、ソーラーパネルが必須オプションとして設置されている。但し、ソーラーパネルだけでは、施設全体の電力を供給できないので、オフィス施設など、ノン・クリティカルな部分に、電力を供給している。また、先のレポートで紹介した、Facebookの新データセンターも、敷地内にソーラーパネルを設置し、クリーン電力を発電している。発電量は100kWで、主にオフィスなどに電力を供給している。データセンター全体の消費電力は、数十メガワットと推定され、施設の電力の一部を補完する構成となっている。

100%太陽光発電データセンター

CiscoやFacebookのデータセンターが、最新の創エネ技術のトレンドを代表しているが、一方で、データセンターの消費電力を、全てソーラーパネルで発電するという試みも続いている。Affordable Internet Services Online (AISO) という会社は、データセンターとオフィスで使用する電力を、全て太陽光発電で生成する、クリーンなデータセンターである。AISOデータセンターは、Romoland (ロスアンジェルスの東80マイルの位置、年間を通じて晴天の日が続く) に建設され、施設全体で120枚のソーラー・パネルがセンター両脇の地上に設置されている。AISOは、太陽光発電による電力を使ったホスティング・サービスを、Solar Hosting Plansとして提供している。利用者は、100%クリーン・エネルギーで、ウェブサイトを運営することができる。

g218d_cisco_datacenter

トレンド

データセンターは、当初はAISOのように、全電力をソーラーパネルで供給することを模索したが、コストや安定性の面から、普及には至らなかった。しかし、新設されるデータセンターでは、消費電力の一部を、ソーラーパネルで補うという、現実的な方式が定着してきた。日本では、ピーク電力カットが求められており、上述の方式が、データセンターとして対応できる、節電対策の参考データとなる。

グリーン・データセンター

Thursday, July 21st, 2011

データセンターの省エネ技術と創エネ技術が急速に進歩している。省エネ技術とは、データセンターの効率化技術で、投入した電力をコンピュータで有効に使用し、空調などの電力消費量を、極限まで抑える方式である。創エネ技術とは、ソーラーパネル等によるクリーンな自家発電で、データセンターの電力を補完している。アメリカにおいて、省エネと創エネの二つの軸で、データセンター技術が進化している。このレポートから数回に分けて、データセンターの最新技術を報告する。日本国内では、東京電力管内以外でも節電が求められており、データセンターについても、省エネと創エネ技術を検討する時期に来ている。

g217a_facebook_datacenter

Facebookのデータセンター

最初は、世界で最もエネルギー効率が優れている、Facebookのデータセンターを検証する。Facebookは、急増している会員数に対応するため、独自のデータセンターを建設した。(上の写真、出展はいずれもFacebook)  今までは、データセンターをリースし、コンピュータ需要に対応してきたが、今回は、独自のセンターを新設した。このデータセンターは、Prineville (プラインビル、オレゴン州) に建設され、2011年4月に開所式を行なったばかりの、最新の施設である。センターの敷地の面積は147,000平方フィート (16,000㎡) で、Facebookが必要とするCPUとディスク容量の半分を提供するとしている。このデータセンターの特徴は、エネルギー効率が極めて高いことである。センターは、究極の省エネ構造となっており、センター全体のPUE (Power Usage Effectiveness) は1.07である。PUEが1.07とは、計算機が100の電力を使用する際に、空調などの施設が使用する電力は7 (オーバヘッドは7) であることを示している。現在運用されているデータセンターのPUEの平均値は1.5 (オーバーヘッドは50) と言われており、上記の値は突出している。

g217b_facebook_datacenter

省エネ技術

この数字を達成した背景には、省エネのための最新技術がある。Facebookは、データセンターで使用するサーバを、独自で設計した。上の写真がサーバの完成品で、必要最小限の部品が、むき出しに搭載されている。塗装されていないシャシに、マザーボード (中央)、電源 (右手前)、ディスク (右奥) が搭載されている。マザーボードには大型のヒートシンクが搭載され、冷却は直径60ミリのファン (一番奥の部分) で行なう。(通常、ファンの直径は40ミリ。60ミリのほうが効率的で消費電力が大幅に下がる。) これらの部品は、ネジを使わないで、組み込み式でシャシに搭載される。

サーバはラック (下の写真) に30段に実装され、ラック三台が一つのグループになっている。ラック最上部に二台のネットワーク・スイッチを搭載している。グループ間にはUPS (非常用電池、中央青色の箱) があり、停電時には48VDCを90秒間供給する。15秒後にはディーゼル発電が起動する仕組みである。データセンターには277VACの電力が供給されており、これを変圧することなく (通常は208VACまでステップダウンする) 直接使用することで、変圧でのエネルギー・ロスを無くしている。

g217c_facebook_datacenter

空調システム

データセンター最大の特徴は空調技術である。このセンターではChiller (冷却装置) を使わないで、Airside Economization (外気を使った熱交換) 方式を採用し、消費電力を大幅に抑えている。データセンターの二階で、外気を取り込み、これをフィルターでろ過する。ろ過した空気はパイプの間を通過する。パイプからは水を霧状に噴出しており (下の写真)、通過する空気は冷却され、かつ、加湿される。この冷たい空気を、二階から一階のサーバに送風し、サーバを冷却する。サーバを通り抜けた暖かい空気は、二階に戻り、外に排出するか、外気と混合して最適な温度に調整して再利用する。また、オフィスの暖房用にも使われている。Prinevilleは寒冷地であり、外気でサーバを冷却することができる。しかし、夏場の暑い日には、上述のAirside Economizationを利用して、空気を冷却する。データセンターの消費電力の半分はChillerによるもので、この方式での冷却が省エネに大きく寄与している。

g217d_facebook_datacenter

Open Compute Project

Facebookは、Prinevilleデータセンターの技術情報は、オープンソースの方式で、一般に公開している。公開されているデータは、Servers (Facebook独自開発のサーバ)とData Centers (Facebook設計による省エネ・センター) である。これらの仕様書がPDFとCADデータで公開されており、だれでも自由に利用することができる。これは、Open Computer Project命名されており、他社がサーバやデータセンターを設計する際に、省エネ技術として利用できる。Facebookは、コミュニティと供に省エネ技術に改良を重ねていくとしている。

考察

日本のIT企業も、これら公開情報を参考に、省エネ型のサーバやデータセンターを設計することができる。今年の夏の節電対策とはいかないが、公開情報を参考として、日本のデータセンターのあり方について、中長期的な構想を練ることができる。また、Prinevilleの緯度は、札幌や旭川の緯度に相当し、データセンター建設の立地条件についても、参考となる情報である。