Až do nedávné doby byl život s datovými centry poměrně jednoduchý a firmy se o jejich infrastrukturu nemusely příliš starat. Hlavně když bylo kam umístit serverový rack, o chlazení a napájení si nebylo potřeba dělat mnoho starostí, to se vždy vyřešilo.
Podle analytické společnosti IDC, sesterské společnosti IDG, dávali ještě před třemi až čtyřmi roky manažeři datových center podpůrnou infrastrukturu DC až na 12. místo co do důležitosti při pořizování datových center, což znamená, že se k takovým nákladům prakticky nepřihlíželo. Nyní se posunul význam zařízení potřebných pro provoz a údržbu datových center na druhé místo podle významu, hned za ceny samotných výpočetních systémů.
Tato změna v prioritách je plně v souladu s prudkým rozvojem komunikačních a počítačových technologií, s roztoucí poptávkou po výpočetním výkonu, po množství přenesených i ukládaných dat. Společnosti jsou stále více závislé na permanentním spojení mezi počítači ve firmě i mezi firmami, na vzdáleném přístupu a správě dat. Díky virtualizaci a vícejádrovým procesorům lze na menší prostor dostat mnohem větší výkon. To dohromady vede k tomu, že firmy přidávají do datových center stále další a další racky s počítači.
Společnost Gartner předpokládá, že v příštím roce nebude mít polovina světových datových center dostatečnou napájecí a chladící infrastrukturu pro instalaci nejnovějšího výkonného vybavení s vysokou hustotou výkonu. Manažeři běžných komerčních datových center se tak čím dál tím častěji setkávají s problémy, které již dlouho před nimi znali ředitelé high-tech vědeckých center vybavených superpočítači.
Pracuji v superpočítačovém centru Ministerstva obrany USA (Army Engineer Research and Development Center – ERDC) a právě se nacházíme uprostřed dvouletého plánu, jehož cílem je od základů předělat infrastrukturu datového centra. Navržení nového DC či vylepšení toho stávajícího je vždy složitým procesem, nicméně cestu něčím takovým by vám mohlo usnadnit šest nápadů, které najdete v tomto článku. Jde o poznatky z mé desetileté praxe, o zkušenosti získané z provozu ERDC a jeho modernizace.
1.SKUTEČNĚ POTŘEBUJETE VLASTNÍ DATOVÉ CENTRUM?
Minimální robustní infrastruktura DC obsahuje silnoproudé napájení a generátory. S tím se však spokojí málokdo. Obvykle následuje ochrana pro případ výpadku energie či vody, tedy záložní baterie a setrvačníky pro zdroje s nepřerušeným napájením (UPS), zásoba chladící vody, náhradní součástky a (pokud je to možné) několik na sobě nezávislých zdrojů napájení od různých dodavatelů (což by asi v Česku šlo poměrně obtížně). Samozřejmostí je ochrana a zařízení pro případ přírodních katastrof. Tento proces dokončuje najmutí obsluhy a údržba.
To vše je náročné na investice i údržbu, a takové řešení se vyplatí společnostem, u kterých jsou výhody pramenící z provozu vlastního datového centra přímo přeměňovány do zisku. U většiny ostatních lze s úspěchem zvolit outsourcing, tedy využití datového centra jiné společnosti.
2.PEČLIVĚ ZVAŽTE PRO A PROTI „ZELENÉHO“ DESIGNU
Jak bylo řečeno, do popředí úvah při zvažovaní datových center se dostávají náklady na elektrickou energii. A to nejen pro přímou potřebu výpočetní techniky – i transformátory, chlazení i UPS mají velkou fixní spotřebu.
Konsorcium firem The Green Grid vzniklo s cílem zvyšovat efektivnost datových center a jedním z jeho hlavních doporučení je nastavení správné velikosti infrastruktury DC eliminací nadbytečných součástí, čímž lze v některých případech snížit účet za elektřinu DC až na polovinu. Je například zbytečné dimenzovat napájecí a chladící systémy na nějaké potenciální budoucí rozšíření datového centra, které ani nebude potřeba.
3.UMÍSTĚTE CHLAZENÍ NA SPRÁVNÉ MÍSTO
Počítače zvládají výborně dvě věci, a to zpracovávat data a měnit elektřinu v teplo. Přibližně 30 procent elektřiny směřující do datových center je v serverech přeměněno na teplo. Běžné chlazení DC se uskutečňuje pomocí studené vody protékající klimatizací datového centra, tato voda je následně chlazena ve venkovních chladičích. Ve výsledku to znamená, že celá místnost datového centra je chlazena studeným vzduchem, aniž by se chlazení samo soustředilo na určitá konkrétní místa. Koncept blízkého, cíleného chlazení („closely coupled cooling“) se v minulých letech střídavě dostával do módy a zase z ní vycházel. V našem výpočetním centru jsme ho však přijali a považujeme ho za účinný způsob, jak zefektivnit chlazení datového centra.
Cílené chlazení kritických horkých míst může vést ke zkrácení cest studeného vzduchu/vody k místu chlazení a k odvodu toho teplého, což znamená méně nezbytné energie pro ventilátory, než když musí tlačit vzduch přes celou místnost. Naše zkušenosti ukazují, že díky cílenému bodovému chlazení lze zvětšit hustotu racků až čtyřnásobně oproti klasickému celosálovému chlazení.
Taková řešení zahrnují chlazení jednotlivých racků i konkrétních čipů. Například chladící systém, který je umístěn podél serverových racků, dále konfigurace, kdy je jedna polovina chlazení umístěna vespod racku a druhá nahoře (chlazení „shora dolů“). Zakoupit lze i systém, který přivádí studenou vodu přímo k zadním dveřím racku a samozřejmě i chladící systém ve tvaru serverového „šuplíku“, který je zasunut mezi ostatní servery. Chlazení jednotlivých čipů má dvě varianty. Jednodušší spočívá v prostém přivedení vody k jednomu či více kovovým chladičům umístěným na čipech. Složitější a novější systém používá inertní kapalinu aplikovanou přímo na serverové čipy. Ta potom putuje v uzavřeném okruhu. Tento systém se teprve nedávno dostal do stolních počítačů, superpočítače ho však využívají již několik desetiletí.
Výše uvedené systémy vyžadují, aby byl v datovém centru dostatečně široký rozvod chladící vody. Takový vodovodní rozvod je ale nutné plánovat dopředu, pořídit ho dodatečně je poměrně obtížná a nákladná záležitost.
4.DLAŽDICE – DROBNOST, NA KTERÉ ZÁLEŽÍ
Pokud nechcete, popřípadě nemůžete instalovat cílené chlazení, existují i další způsoby, jak lépe odvádět teplo od serverů. Minimalizujte prostor, který pod zvýšenou podlahou zabírají kabely a vodovodní trubky. Toto je totiž místo, kterým klimatizace datového centra tlačí studený vzduch, a každá přebytečná překážka klade vzduchu odpor, což znamená více energie nutné pro větráky. Optimálním nastavením zabráníte rovněž tomu, aby si jednotlivé ventilátory navzájem ztěžovaly práci.
Pokud to myslíte s chlazením skutečně vážně, nechte si vypracovat studii o proudění vzduchu v datovém centru, popřípadě si pořiďte sami software nutný k této analýze. Tím určíte místa největšího odporu vzduchu, hlavní zdroje tepla a také místa, kam by bylo nejlépe umístit děrované dlaždice, z nichž proudí do místnosti chladný vzduch. V ERDC máme děrované dlaždice umístěné podél serverů, výše zmíněná studie proudění vzduchu však ukázala, že na některých místech bylo nutné počet dlaždic zvýšit a – což bylo poměrně překvapivé – zvětšit velikost otvorů v dlaždicích.
5.PŘESUŇTE PODPŮRNÉ VYBAVENÍ VEN
Správné umístění podpůrných systémů datového centra zvyšuje efektivnost a usnadňuje budoucí zvyšování kapacit. Nejlepší je přesunout chladící a energetickou infrastrukturu datového centra mimo hlavní počítačovou místnost, nelépe úplně ven z budovy.
Například když jsme v ERDC najednou potřebovali 2 MW energie pro nový superpočítač, zjistil jsem, že pro nové UPS a generátory nemáme v budově dost místa. Vyřešili jsme to umístěním tohoto vybavení ven, do prostoru vyhloubeného v kopci vedle hlavní budovy.
Podle sdružení The Green Grid se takto ušetří až 25 procent spotřeby datového centra, která by jinak byla vynaložena na odvod tepla z generátorů a UPS.
6.SLEDUJTE PEČLIVĚ SPOTŘEBU
Monitorovací systém energetických i chladicích systémů DC by měl být součástí vašeho výpočetního centra již nyní, popřípadě ho zařaďte do plánu příštího upgradu. Díky němu budete přesně vědět, kde končí většina energie, kde se spotřebuje více, než je plánováno, kde se naopak šetří, které opatření je účinné a které naopak nikoli. Z toho plyne, že energetický monitoring by měl být instalován ještě před tím, než podniknete významné změny v napájecí či chladící soustavě – aby existovala srovnávací základna.
John West je výkonným ředitelem superpočítačového centra v U.S. Army Engineer Research and Development Center ve Vicksburgu.