GoogleがAmazonに進出。でFacebookのOCPを再確認

amazon-jungle.pngGoogleストリートビューでアマゾンのジャングルの小道や川の上を散歩できるようになりました。

ジャングルの中の小道をストリートビューできます(右)。
地図を見ても道が無いので、どこに黄色いペグマンをドロップして良いかわかりません。
適当にドロップすると写真だけがでてきてしまうので、ストリートビューギャラリーの[ アマゾン ] のタブ(http://www.google.co.jp/help/maps/streetview/gallery.html#amazon)から入ったほうが確実です。

自転車にカメラを積んで、森の中を、走ったり押したりしながら写真撮影をしたようです。、

amazon-river.pngその自転車を舟の上に縛り付けて、川の上も写真撮影しています。
水上をストリートビューすると、後方の引き波とかも写っています。

Amazonのストリートビュー用にGoogleが撮影した静止画は5万枚以上だそうです。

増える一方のデータ量をさばくサーバー台数、サーバーの仕様、データセンターについて考えてみました。
まずは、各社のサーバー台数から。
サーバー台数
Google
Googleの持つサーバー数は90万台という推計があります。100万台規模だとうもあります。
90万台の消費電力は220メガワット(22万KW)。ちなみに、福島第一原子力発電所  1号機の最大出力が46万KWです。
Googleが使う電力は、世界のデーターセンターの使う電力の約1%だと推計しているので、全世界では2200万KWの電力を使っている計算です。ちなみに、ロシアの全原発27機の総発電量が、DCの消費電力総計とほぼ同じ、2,319万Kwです。なお、日本の原子力発電所は54機が全部稼働すれば、合計出力4,885万kWです。

Amazon
本屋さんのAmazonは、45万台のサーバーを動かしているらしい、という推計がでていました。
Amazon EC2のサーバー台数が454,400台という推計もあります。日本には、2万台あるという推計されています。

Open Compute Project
Facebookも、Amazonも、Googleも、独自仕様の電力消費効率の高い特注サーバーを使っているそうです。
その独自仕様をオープン化しようと考えてFacebookは「Open Compute Project」を立ち上げています。
Open Compute Project」準拠機器の採用企業が増えるほど製品の価格は低下する。さらに、「Open Compute Project」への参加企業が増えるほどハードウェアの設計が改善されることも期待できます。
このようなオープン化のメリットの方が、秘密の独自仕様で差別化を図るより、大きいとの判断です。

Open Compute Project仕様の特徴
DELLやHPの売っている汎用サーバーから、余計なものを取り除いて、部品数を削減してしています。OCP仕様を見てみると、
  • ディスプレイ無し(シリアルコンソールあり)
  • キーボードとマウス用ミニDIN 6ピン無し(あるのはUSB2ポートのみ)
  • SCSI無し、IDE無し
  • パラレルポート無し
  • 光学ドライブ無し、FDD無し
  • vanity free:飾り無し、見た目を良くするための余分なプラスティック無し
レガシー系のインタフェースはもちろん、ディスプレイ用おビデオチップまで削除する徹底ぶりです。
障害時は、LAN経由でtelnetするか診断ポートにシリアル接続するのだそうです。
診断ポートがあるだけで、液晶画面とか、LEDとかも無しです。

一方で、熱対策は強化されています。
などなど、摂氏45度で寿命5万時間(5.7年)を求めています。
市販のサーバーは、DELL Power Edgeが、23 ± 2度、HP ProLiant DL380が10から35度、高温動作仕様がセールスポイントのNEC 「Express5800」でも40度まです。
摂氏45度動作を求めるのは、データセンターのPUE向上のため。
データセンターを冷やさず高温で運用してPUEを向上させる戦略です。
Open Compute Project」は、Facebookのサーバー仕様ですが、GoogleやAmazonの仕様も、無駄を省き、高温で動作するという点は共通ではないかと思います。
各社は、データーセンターの空調温度を上げる方向に動いています。
高温データセンター
eBayのアリゾナデータセンターは、砂漠の約46度という高温のなかで機器を運用し、31度の温水を冷却に使っているそうです。
Googleは、21度前後のデータセンターの温度を、27度に上げることを勧めているそうです(Google: Raise Your Data Center Temperature)。サーバーは27度をはるかに超える温度でも問題なく稼働するそうです。
原子力発電所数十基分の電力をダラダラ使っていて良い時代ではないので、電力効率の良いデータセンターは必須です。砂漠でも空調なしで稼働するなら、世界中どこでも、空調なしのデータセンターが運用できます。

(余談)Googleのデータセンターは照明も無いそうです。「超秘密主義グーグルのデータセンターは真っ暗闇 」という記事は、照明を消す理由を秘密主義に求めていますすが、省エネが目的かもしれません。
ネット企業の深慮遠謀?
100万台のサーバーの設備寿命が5年だとすると、増設なしでも年間20万台の調達です。
一方、日本のサーバー出荷台数は年間60万台。
100万台規模のサーバーファームを抱えるGoogle、Amazon、Facebookなどのネット企業が、サーバー仕様をリードしてゆくことになるでしょう。

ビデオチップもないような「Open Compute Project」仕様のサーバーを使いこなせない一般企業は、HP, DELL, NEC などから高いサーバーを買って使うという選択肢の他に、Amazon EC2などのクラウドを使うという選択肢もあります。
コスト抑制圧力の厳しい昨今、クラウドを選択する企業が増え、DELLやHPなどのサーバーは買う人が減り、量産効果も減少し、ますます割高という循環になるように思います。

このように、ネット企業の独自サーバー利用は、自前のサーバー構築を割高にして、クラウド利用への移行を加速させる効果もあるのではないでしょうか。
自前サーバーを放棄して、クラウドなり、サービスなどの利用を促進しようという深慮遠謀があるのかもしれません。

最近のブログ記事

SORACOM,HLR持ちeSIM対応
SORACOMが自前のHLRを持ち、自…
準天頂衛星4機体制に
h2{ font-size:12…
Windows 10 mobile終了
Windows 10 mobileの新機…
カスタム検索

月別 アーカイブ