;
Hlavní navigace

Jak na softwarové řízení datového centra?

16. 4. 2020
Doba čtení: 8 minut

Sdílet

 Autor: (c) T. L. Furrer - Fotolia.com
Tlak digitální transformace na změnu IT infrastruktury nutí firmy i provozovatele cloudových řešení modernizovat datová centra s cílem dosáhnout maximální možnou flexibilitu, aby dokázali rychle reagovat na měnící se požadavky, a to při co nejnižších nákladech.

Pojem softwarově definované datové centrum (SDDC) poprvé použil CTO VMware Steve Herrod v roce 2012. Zpočátku mnozí kritici považovali tento pojem za marketingový buzzword, případně se domnívali, že tuto koncepci mohou implementovat pouze společnosti s homogenními systémy jako například Google. Uplynulo několik let a téměř všechny špičková datová centra jsou více nebo méně softwarově definována.

SDDC profitují z výhod virtualizace na všech úrovních – výpočetní, úložné, síťové, a dokonce jsou virtualizované i některé související služby v oblasti dostupnosti a bezpečnosti. Princip SDDC je relativně jednoduchý: architektura datového centra je navržena tak, aby soustředila všechny hardwarové zdroje do společného zásobníku kapacit. Tyto kapacity jsou automaticky bezpečně a efektivně přerozdělovány podle aktuálních požadavků aplikací. Je to řešení umožňující expanzi výpočetních zdrojů, transformace virtuál­ní architektury storage a virtuální síťové infrastruktury podle potřeb aplikací.

Filozofie datových center s tradiční infrastrukturou se zaměřuje na zajištění řádného fungování výpočetních úložných a síťových technologií a skladovacích prvků pro potřeby aplikací nebo služeb. Naproti tomu u SDDC hraje klíčovou roli optimalizované poskytování kapacit pro aplikace a služby, což umožňuje podnikovým uživatelům nasadit a provozovat jejich aplikace nejefektivnějším a SLA kompatibilním způsobem. V praxi to znamená, že firmy se již nemusí spoléhat na specializovaný hardware a služby konzultantů pro instalaci a konfiguraci. IT oddělení dokáže definovat aplikace a všechny zdroje, které tyto aplikace vyžaduje, a v případě potřeby může infrastrukturu datového centra flexibilně rekonfigurovat.

Jednou z klíčových vlastností komponent SDDC je polymorfismus architektury. Princip softwarově definovaného datového centra je možné aplikovat tak na obrovská globální datová centra, jakož i na centra firem, které mohou mít vlastní virtuální datová centra s logicky oddělenými kolekcemi všech použitých virtuálních výpočetních, úložných, síťových a bezpečnostních zdrojů.

Tyto zdroje využívají a efektivně přerozdělují na základě aktuálních potřeb. Velkou výhodou SDDC je spolehlivost datového centra jako celku. Pokud dojde k selhání hardwarového komponentu, či dokonce subsystému, software automaticky přesměruje zátěž na jiné servery, storage, tedy prvky síťové infrastruktury v datovém centru.

Virtuální servery, storage, sítě...

Virtualizace je klíčovým pilířem koncepce SDDC. Princip virtuálního serveru je znám, proto se zaměříme na ostatní subsystémy datového centra. Virtualizace sítě, tedy stále více deklarován pojem softwarově definovaných sítí, je proces slučování hardwarových a softwarových prostředků a vytváření funkcionality sítí na bázi softwaru.

Právě virtuální sítě jsou totiž klíčové pro dosažení požadované flexibility, jelikož přesun virtuálních obrazů přes tradiční infrastrukturu je relativně složitý a v závislosti na konfiguraci síťové fyzické vrstvy zpravidla probíhá přes několik switchů.

Softwarově definované storage na bázi virtualizace dokáže integrovat existující fyzické storage do flexibilního virtuálního úložného prostoru. To umožňuje
administrátorům datových center správu více značek a typů fyzické infrastruktury prostřednictvím jednoho softwarového rozhraní. Virtualizační vrstva oddělená od vlastního úložného hardwaru umožňuje přidání jakýchkoliv úložných polí podle aktuální potřeby.

Připraveno na AI a další moderní výzvy

Softwarově definovaná datová centra jsou dostatečně flexibilní i pro současné či budoucí řešení využívající umělou inteligenci. Při hledání rezerv vstupují do hry nejen technické, ale i procesní, ekonomické a legislativní aspekty. Globální firmy mají svá datová centra v různých zemích, kde platí jurisdikce příslušné země, případně seskupení jako EU. Mnohá z nich mají značné výkonové rezervy často v souvislosti s obdobími během dne.

Vznikne tedy logická otázka, proč se nevyrovnává zátěž mezi USA a řekněme EU, kde se datová centra využívají v jiných časech. Například lidé nedělají bankovní transakce ani nenakupují v e-shopech v době, kdy spí. Jednoznačnou odpovědí jsou ceny za mezikontinentální přenos dat pomocí satelitů a podmořských kabelů, takže by to bylo velmi drahé. Ještě výrazněji je to u aplikací s vysokým objemem přenášených dat. Navíc vzhledem k legislativě často není možné přesouvat libovolně údaje mezi zeměmi a obsluhovat zákazníky z datových center v jiných zemích. Fundamentální jsou však technické problémy.

Prostě není k dispozici přenosová kapacita desítek terabitů mezi kontinenty za akceptovatelnou cenu. Proto jsou uživatelé, ať už byznysu, nebo běžní, ve většině případů obsluhováni datovými centry na svém kontinentu. Proto je potřeba kapacitu využívat flexibilně pro různé účely. Virtualizační nástroje SDDC zvyšují míru využití, protože například v bankách v době, kdy klesne zatížení od transakčního zpracování, se mohou aktivovat analytické úlohy, trénování modelů strojového učení a podobně.

Ne každý hardware se však principiál­ně hodí na jakýkoliv typ úloh. Na web front-end, čili ke generování webových stránek, se využívají servery, které jsou v podstatě bezstavové ve smyslu, že nepotřebují úložnou kapacitu. V týchž datových centrech však běží databázové, analytické, souborové a další servery. Úložné řešení mají instalovány tak rychlé polovodičové disky, jakož i klasické velkokapacitní disky. V případě potřeby je možné hardwarové zdroje pružně přerozdělit pro jednotlivé úlohy.

V současnosti se ve stále větší míře využívají úlohy umělé inteligence, které většinou dobře běží i na klasických procesorech, avšak efektivněji by fungovaly na speciálních procesorech, jako je TPU (Tensor Processing Unit) od Googlu, či na čipech navržených pro grafiku, které jsou vhodné i na různé výpočetně náročné úkoly, například na trénování analytických modelů. Takové moduly se však do datových center teprve začínají integrovat.

Inspirací je lidský mozek

Již zmíněné trénování analytických modelů se uskutečňuje většinou v noci, přičemž se zpracovávají údaje shromážděné přes den. Velmi to připomíná lidské učení. Podněty, co se člověk přes den naučil, si mozek třídí a kategorizuje v noci. Rozdíl ve výkonnosti trénování modelů mezi specializovanými procesory, případně výkonnými grafickými jádry a CPU, je desetkrát až dvacetkrát.

Proto kdyby se v noci všechny nevy­užité CPU využívaly na trénování modelů, bylo by to energeticky velmi nevýhodné, protože stejný výkon by zvládla infrastruktura složená z dvacetkrát menšího počtu GPU. Proto se uvažuje o doplnění datových center specializovanými moduly se speciálními čipy optimalizovanými na roli umělé inteligence. Ty v souladu s koncepcí SDDC ohledně přerozdělení zdrojů umožní spouštět i běžné úkoly související s generováním webových stránek a transakčním zpracováním dat.

Ekonomické aspekty a burzy kapacit

SDDC a jejich komponenty umožňují i ekonomickou transformaci IT, aby již nebyla nákladovou položkou, ale klíčovou silou obchodu. Implementace SDDC umožní firmě, zda provozovateli datového centra snížit nejen náklady na správu, ale spotřebu energie, a to bez nutnosti výměny komponent za moderní s přívlastkem „green“, nakolik servery a další komponenty datového centra budou moci běžet většinu času s nižším výkonem, nebo mohou být dočasně vypínány. To umožní snížit ceny poskytovaných služeb.

ICTS24

Pronajímání kapacity datových center funguje nejen na principu „plať jen za to, co využíváš“, ale často i na principu burzy. Zákazník specifikuje, jakou kapacitu potřebuje, na jak dlouho, v jakém časovém horizontu to potřebuje, zda mu stačí mít tuto kapacitu v noci, a na základě svých požadavků dostane nabídku. Přitom cena v noci může být čtyřikrát až osmkrát nižší než přes den. Amazon tento systém již využívá a je předpoklad, že ostatní firmy ho budou následovat. 

Autor je redaktor PC Revue.