Reprints from my posting to SAN-Tech Mailing List and ...

2011/06/09

[san-tech][03040] ASC Sequoia (20PF HPC) は自然換気採用 (PUE: 1.17)

Date: Thu, 14 Apr 2011 21:15:22 +0900
--------------------------------------------------
2011/06/12
[san-tech][01483] ジャイアントセコイア (20PF HPC用インフラ)
2011/06/10
[san-tech][02459] 講演資料:Building the Data Center of the Future, 2010/06/23, 24
--------------------------------------------------
たまたま以下の講演資料を見ていたら、

"Off-Road to Exascale"
 Mark Seager, Lawrence Livermore National Laboratory
 Rice University Oil & Gas HPC Workshop 2011, March 3, 2011
  http://www.og-hpc.org/Rice2011/Workshop-Presentations/OG-HPC%20PDF-4-WEB/Seager-Rice-OG-HPC-Workshop-2011.pdf
  http://edtech.rice.edu/www/?option=com_iwebcast&action=details&event=2453
※↑講演ビデオ (48分)。各種ビデオフォーマットで提供されています。
ワークショップについては後で紹介します。



この講演資料は Exascale Supercomputerについての US DOE系の紹介ですが、
6枚目の現在構築中の ASC Sequoia HPC (20PFlops) を収容する建屋の紹介が

"Free air cooling upgrade for B453 will double cooling efficiency to
 PUE of 1.17"

となっていて、TCS (Terascale Simulation Facility) の改造図となってます。
左右 (東西) を二系統の自然換気系で冷却します。この資料には TCSの写真や
平面図等はありませんが、かなり大規模な循環系です。講演では 85-90%の時間
で自然換気の利用が可能と述べています。PUE 1.17は年間平均目標です。

※コンピュータフロアーは 48,000 Square Feetのフラットです。
このフロアーは Sequoiaだけでなく、トータル 30MW迄の電力が供給されます。
ビルは 4階建てですが、コンピュータフロアーは下側 2階分を設備系にあて
上側 2階分をコンピュータフロアーにしています。

Terascale Simulation Facility
  https://asc.llnl.gov/tsf/
TSF Information Brochure
  https://asc.llnl.gov/tsf/tsf_scrapbook/ucrl-br-203900.pdf
TSF Construction Scrapbook
  https://asc.llnl.gov/tsf/tsf_scrapbook/

ASC Sequoia
  https://asc.llnl.gov/computing_resources/sequoia/index.html


関連して以下の 2つの講演資料がありました
"Terascale Simulation Facility and Power Efficiency Improvements to
 Achieve Petascale and Exascale Computing"
 Anna Maria Bailey, Advanced Simulation and Computing Facilities Manager,
 Lawrence Livermore National Laboratory
 Building the Data Center of the Future 2nd Biennial Workshop:
 HPC Data Centers, June 23-24, 2010
  http://gladiator.ncsa.illinois.edu/PDFs/datacenter/10/bailey.pdf
※HPC Data Centerファシリティのワークショップでの発表です。
CFDによる検証により空調設備を調整して経費を削減 ($ 3,154,295/Y) とか
Data Centerと TSCとの比較等々
※冒頭の PDFで左半分には既設システムが導入済みで Sequoiaは右半分 (西側)

Building the Data Center of the Future 2nd Biennial Workshop:
 HPC Data Centers
 June 23-24, 2010
  http://www.ncsa.illinois.edu/Conferences/DataCenter/


"Addressing the Challenges of Petascale Systems Deployment"
 Mark Seager, Lawrence Livermore National Laboratory
 Salishan Conference High-Speed Computing 2010, April 26 -29, 2010
  http://www.lanl.gov/orgs/hpc/salishan/salishan2010/pdfs/Mark%20Seager.pdf
※Sequoiaだけでなく、Hyperionにもふれています。
空調に関しては自然換気の研究はまだ検討継続中
※冒頭の講演資料は 2011年 3月の同じ人物のもので、1年間で図面レベルまで
には進行しているようです。

Salishan 2010
 Theme: Tackling Big Data: HPC Approaches to Informatics
 April 26 -29, 2010
  http://www.lanl.gov/orgs/hpc/salishan/index10.shtml


来年 (2012年) 前半には Sequoia Early Science利用が開始されるので、
実際にどの程度の省エネルギーになるか楽しみです。


冒頭のワークショップ
Oil and Gas HPC Workshop 2011, March 3, 2011
  http://www.og-hpc.org/Rice2011/
Program
  http://www.og-hpc.org/Rice2011/program.html
※講演資料とビデオ公開。
例えば、
"Data Center Efficiency - Contained Hot Aisle Technology Drives Down
 PGS' Operating Costs"
 David Baldwin, Petroleum Geo-Services
  http://www.og-hpc.org/Rice2011/Workshop-Presentations/OG-HPC%20PDF-4-WEB/Baldwin-Rice%20HPC-conference-2011-PGS.pdf
  http://edtech.rice.edu/www/?option=com_iwebcast&action=details&event=2462
※↑ビデオ

で、Petroleum Geo-Services (PGS) 社の二箇所のデータセンターでの冷却
方法を紹介しています (abstractから)

London data center (以前からたびたび紹介してきたデータセンター)
・Combination of evaporative cooling and hot aisle containment
・PUE from the 'traditional' level of 2.4 to 1.2
・Saving PGS half the yearly electrical costs in London and leading
to the center being declared 'Europe’s most efficient data center'

Houston data center
・We did develop the hot aisle concept further to reduce the running
costs of the center by one third with a PUE of 1.6
・The return on investment in Houston is estimated to be 9 months on
the containment system
※Houston, TXは Londonで採用した自然換気に適していない土地とのこと

0 件のコメント:

コメントを投稿