酔っぱらっていて、記事を起こすことが出来ないので、写真だけ、取り急ぎUPしたお!
★ 石狩データセンターで冬を越して:
石狩データセンターで冬を越して / さくらインターネット株式会社 運用部 石狩センター長 宮下氏
自己紹介。
38歳で横浜出身。
2005年11月入社。苦手な物は、寒さ。寒がりなので、今でもセーターを着ています。
そんな人間が北海道に行った。
石狩センター概要
北海道石狩市に建設。土地面積は東京ドームとほぼ同じ51,448m^2
現在2棟までしかたっていないが、最大8棟。4000ラックの規模。
石狩データセンター 上空から
石狩データセンター将来像
石狩市を選択した理由
拡張性のある広大な土地、寒冷地、寒い。外部空調によって、サーバの冷却コストを削減出来る。
低災害。台風や雷、自身など少ない。郊外なので、土地が安い。
札幌に近いので、非常にアクセスが良い。東京〜千歳まで一日50本と多くアクセスが良い。
インフラに関しては、隣接する光ファイバー陸揚げ局、変電所は300mぐらいなので、負担金も安い。
地元の方の理解がある。
石狩データセンター 空調システム
外部空調で、PUE1.1 〜 1.2を目指す。
そのまま吹いたりすると、冷えてしまうので、廃熱を混ぜて吹き出す方式になっている。
積雪対策
建設時にモックアップを作って、積雪の試験をしている。
外気を取り入れ口がこのような構造をしていて、雪がたまって外気が入らないような事がないように工夫している。
この冬の結果 その1
冬期期間中の最低気温は-15℃を記録。しかし、サーバ室が冷えすぎて困ることは無かった。
赤のプロットが外気、青のプロットがサーバ室の吸気。多少ぶれているが問題の無い温度。
冷えすぎて困るときの為に、暖める設備が無いので、ドライヤーを保険で用意したが、心配無用だった。
冬を越して、いろいろと問題が起きた。
問題その1
サーバとしては全然問題なかったが、他でいろいろと起こった。
現場は大変だった。非常に雪深い。石狩はそんなに雪は降らないと聞いていたが、そんなこともなく、だまされたと思った。
問題その2 殺人つらら
そのほかの問題として、殺人つらら。つららがひどい。
高所作業車をつかって、つららを落とす。
毎年定期的にやらないといけないことが山積み。
おまけとして、建物の中にもつららができてしまった。非常に寒かった。
問題3 結露
サーバ室にそのままもちこむと、結露するので、そのままでは使えないので、サーバルームと同じ湿度のところで、8時間ぐらいおいてサーバを設置。
問題4 豪雪(ドアが開かない)
冷却棟が明いている外の扉が、出ようとしても、出れない。
鳶さんを呼んで、長はしごで入ってもらった。
問題5 不法侵入
結構動物がいる。犬かなとおもったら狐だった。センター内そこら中に歩いている。
狐にかまれてしまうと、
エキノコックスという奇病を持っているので、申請・バネをおいて、捕獲している為、不法ではない。
ご静聴ありがとうございました
★ データセンターな人の夕べ データセンターおやじのつぶやき「こんなデータセンターは萌える」
:
データセンターな人の夕べ データセンターおやじのつぶやき「こんなデータセンターは萌える」
野村総合研究所 システムマネジメント事業本部 増永氏
たくさんのDCを見ている。
写真をとっちゃいけないので、余り記録がないので、歴史を説明してみます。
ムーアの法則ってご存じですか?
これがずっと未だに続いています。
1970年頃に、Intel社の創設者の一人である Gordon Moore さんがおっしゃった言葉がずっと続いています。
半導体の集積度は18ヶ月で倍になる、3年回で4倍に、5年後には10倍、20年後には10000倍となっています。
半導体だけでもなく、ディスクも、もうだめだめといいながら、高集約になっています。
データセンター屋さんからみると、高集約、高密度となり、狭い場所に、山のように積まれて高電力、高加重で、非常に電力が増える、空調能力も増える、床下も低く、天井高くというこういう流れがここのところ2, 30年続いています。
1973年竣工 コンピュータビル
1973年竣工、野村総合研究所が作ったコンピュータビル。
写真ではなくて、絵になっている。
データセンターという何も無い頃に、どうやってDCを作ればいいの?ということで、日本で初めてに近い、ビルをつくった。70年代〜90年代半ばまでは、ホストコンピュータが主流。
データセンターの歴史
データセンターという何も無い頃に、どうやってデータセンターを作ればいいの?ということで、日本で初めてに近い、ビルをつくった。70年代〜90年代半ばまでは、ホストコンピュータが主流。そこから、サーバ、クラウド、PC。
皆さんもっと若いとおもっていたので、皆さん知らないと思っていたが、InteropでPC一人1台にどう迎えるか、と96年に講演した。会社に部に1台、課に1台という頃。まだ、インターネットははやっていなかった頃。
携帯電話があったけど、ただの電話という時代。昔は、コンピュータビル、コンピュータセンター、電算機棟、電子計算機棟、などといわれていたが、インターネットがはやり始めて、アメリカからiDCという言葉がはいってきて、90年代初め頃から、データセンターと言うようになったと思う。
この頃データセンターを作ったのは、銀行、証券、生損保とか。バブリーな頃に、製造業、一般企業がデータセンターを作った。今はネット系企業、ネットワークキャリア、さくらさんの様な専門業者が作るようになった。
下の緑は、ムーアの法則で、メモリの容量について書いた。
日立のホストコンピュータが入った頃、メインメモリが64kbあるぞといっているが、今となっては、64Kでは少ない。今では、1チップで4Gもある状況。
データセンターに要求されるレベルでは、建物を改造したりしたら何とかもちこたえれるという状況から、一般ビルでは耐えれなくなってきているのが今の現状。
空調能力、加重、送風の為の床下の高さなど、電源の冗長化など、要求が上がってきているので、専用の建物を造らないと、無理になってきた。老朽化とかに耐えれなくなってきたのが現状です。
1990年台前半につくったデータセンターは20年建っていて、改造すれば、また使えるかというと、そういう状況ではない。それが今の問題。建物は50年で償却期間、設備は15〜20年で改修していかないといけない。コンピュータは5年毎のサイクルになっており、すぐにそこがアンマッチになってしまう。
昔のホストコンピュータ時代にもあって、みんな水冷になって、水の配管工になっちゃうよとあったが、CMOSになって、90年半ばに消費電力がぐっと下がっている。
本当に電気がいっぱい喰う状況で続く状況なのか、下がる状況なのか、この辺が非常に分からず、悩んでいる。
今のところはひたすら電力が上がっていくと考えている。
皆さんがご存じの京をいれるためにデータセンターを専用に作った神戸のトートピア。
最適化するためのデータセンター。
IDCフロンティアさんとかいろいろ経緯を払わないといけないのかなと思うのは、アジアンフロンティアさん。ちょっと写真が良くないが、これぐらいしかネットになかったのですが。石狩さんも。
10分でやれといわれた早すぎる(笑)
司会: 時間大丈夫です。
多摩に今、データセンターを作っている。
高負荷でもいけるようにやっちゃえと言うことで、ダブルデッキシステム。
今まで60cmとか80cmとかだったのを、床下3mにした。
大きくは気流は全体で回っているが、高負荷なのが増えたら、タスク空調をおいて、ラック単位を冷やせるように設計した。本当にこういうのがきたらどうしよう?とみんなで行っている。こういうのを作ってしまった。
作り上は、今度のパネルディスカッションの資料だけど、出してしまった。
自慢しておく。
作り上は1階建て。真ん中に、電気みたいな金網をおいて、その上にサーバが載っているという構造。
これで、結構冷気がたまっているので余り風圧をかけなくても、空調効率がよい。1/1模型をつくって実験をした。効率良く冷やせるエコなデータセンターを作った。10月に竣工なので、エコに出来るはずです。
ただ、あんまり考えられていなくて、上でネジをしめて、ぽろっと落とすと、4m下まで落ちちゃうので、メッシュになっているので、スカートを着るSEの女の子がはいれないやんとか、社内で言われている。
データセンター協会で海外のデータセンター見学を御此方ので、簡単に紹介。
シンガポール。東京都23区ぐらいの国で、商業的な拠点、金融的な拠点、データセンターなどがたくさん有り、その中で4つほど紹介します。
EQUINIX SG2 DetaCenter
日本に負けないぐらいの立派なEquinixのデータセンター。
外観だけなので余りおもしろくない。
Singtel DetaCenter
Singtelのデータセンター。
四角いのと丸いのが並んでいて、四角いほうが新しい。
木をねらって丸いのをつくってみたが、使い勝手が良くなかった。
Tata Communications
Tataはインドの会社だが、税金が安いシンガポールに本社を移した。
聞いてみたところ、世界の7〜8割の光ファイバを所有しているらしい。
知らぬ間にインドに浸食されていた。
KDDI DetaCenter(AlcatelLucent)
アルカテルルーセントのデータセンターだが、3, 4F(忘れましたが、、)の2フロアがKDDIのビルとなっている。
センターの側面ばかりで申し訳ないが、設備的には日本と変わらない。
同じようなデータセンターをもってらっしゃる。というのがシンガポールの状況。
日本より、一人あたりのGNPが大きいぐらいだから、大先進国でかなり進んでいる。
ホーミチンのデータセンター
ベトナムはショッキングでみんなおもしろいとおもう。
ベトナムの中にある街の中にある普通の電柱。
電柱に電話線というか、通信回線がぐちゃぐちゃぐちゃと張り巡らされている。
飛び上がると捕まえれるのではないかというぐらい、垂れ下がっている。
そのまま、DCから電柱経由で電線がいっているすばらしい状況である。
いくつかデータセンターがあったが、オフィスビルを改造しました。という感じで、電柱の前から、ここのデータセンターに電線がぐっといってる。大丈夫なのか?と聞いたところ、光ケーブルは地下からきているので、大丈夫といっている。行った人間はみんな、ほんとか〜?と思っていた。
FPT DetaCenter (Cietnam)
ベトナムの軍関係が持っているキャリアの子会社がやっているデータセンターで、非常に警戒厳重で、割と日本のデータセンターに近いのを持っている。
キャリアなので、ホーチミン〜ハノイとの間も太い回線があって、2拠点でやっているよというデータセンター
国内のデータセンターを紹介すると、語弊があるので、海外のを簡単に紹介してみました。
以上で、私の発表は終わらさせていただきます。
★ 光ケーブルの営業がやってきた!運用側はこうつっこめ!:
IDCフロンティア 事業企画本部 林氏
住友電工 公共・産業営業部 ネットワークグループ 岸田氏
事務局側から無茶な要求で、光に関して、おもしろおかしく、かつまじめに光を紹介してくれということで、10分ほどお時間を頂いて説明させていただきます。
三部構成らしい・・・
今日は光で3部構成でお話させていただきます。
住友電工のご提案
1点目。
データセンターでの課題、要望。
将来の大容量伝送に備えたい。
こちらに関しては、光に関して、インフラ構築を光でやる。
40G、100Gという高速化対応。こういった伝送機器の交換のみで行いたい。
2点目。
配線の輻輳を解消したい。
配線のメタルに比べて、光は非常に軽量かつ最軽といったところで省スペース化など。空調の効率を実現出来たりするのではないか。
3点目。
消費電力削減による省エネ化。
ネットワーク機器がメタルに比べてレーザー周りの消費電力が低く、CO2の排出量も抑えられデータセンターのエコ化が出来る。
大容量伝送に備えた光配線
40G、100Gの規格が標準化された。
伝送距離の制限などの制限がある。
最初から光を是非敷設していただければ、大容量でも後々対応出来る。
サーバルーム配線状況
見事なスパゲティー状態なサーバルーム。
ちょっとやり過ぎなところがあるかもしれないが、探してこられたのがすごい。
この状態だと空気効率が悪い、空調の効率がすごく下がるのではないか。
誤配線とか誤撤去とか。解決方法としては、当たり前なことを書いている。
配線を整理するというところで焦点をあわせて話をさせていただきます。
輻輳解消のために 〜MPO配線ソリューション〜
MPO配線というソリューションを提案させていただいているのですが、こちらは1次側が24心のケースをつかって、1次側の輻輳を解消する、ケーブルも最軽、計量といったところ。とぐろ状態、スパゲッティー状態が解消される。
こういう絵のようになる。
僕もちょっとMなので、厳しいつっこみをまっていたしていたのですが(笑)ここはちょっとスルーしていただいて。
これからのサーバルーム配線
これは、先ほど紹介したMPOのカセット。一括多芯接続型の配線を使うと、より空調効率などそういったところが可能になるのではないか。
安いんですか?(林)
これはですね、安いです。というのは嘘です。
やはり、メタルより高いです。ちょっとコストの話については、後ほど議論させていただきます。
<ご参考>曲げ特性強化光ファイバ
こちらですね、ご紹介させていただきます。曲げ特性強化光ファイバ。皆さん、光はセンシティブ、繊細なイメージがあるとおもいますが、断線したりと懸念していると思いますが、こちらに掲載しているシングルモード、マルチモードといったR15mmを標準化されている。
シングルモードでR5mmというかなり狭いスペースで出来る。
直角に曲げても大丈夫。
されるかは運用次第ですが....
耐衝撃ケーブル、高強度型ケーブル。
先ほどのファイバをケーブル化したもので、非常に束縛、衝撃に強いケーブル。
フリアクを落としても大丈夫ですか?(林)
落としても大丈夫
ラックの挟み込みで断線という事故などもあるようですが、これだけ縛っても大丈夫。上司と営業にいくとき、この人が踏んでも断線しませんよと、営業して上司に怒られる。
ガラスのハートが折れてるw(岸田)
非常に高強度ということで売っている。
結んでも大丈夫?(林)
`