Jak přežít výpadek cloudu
Veřejné cloudy nejsou dokonalé. Každý jejich významný poskytovatel v minulosti zaznamenal výpadek interních systémů nebo úložišť i externích zdrojů, jako je síťové připojení. Výpadky on-premise systémů mohou být zničující pro každou firmu, ale výpadky cloudu mohou ovlivnit stovky společností. Jak se takovému problému bránit?
- Vytvořit strategii DR. Prvním krokem k přežití jakéhokoli výpadku cloudu je vytvoření plánu zotavení po selhání DR (Disaster Recovery) a jeho zavedení ještě předtím, než dojde ke katastrofě. Zatímco poskytovatelé cloudových služeb nabízejí nepřeberné množství vhodných služeb a prostředků, je na uživateli, aby tyto služby a prostředky nasadil, nakonfiguroval a monitoroval pro každou pracovní zátěž.
- Komunikovat a získat přehled o dění v cloudu. Zjistěte, co se děje v cloudu během výpadku. Poskytovatelé cloudových služeb bývali ohledně narušení služeb málo sdílní. Ale tím, jak podniky svěřují veřejnému cloudu čím dál důležitější transakce, požadují jeho větší transparentnost. Poskytovatelé proto zlepšují komunikaci s uživateli a nabízejí včasnější informace o povaze výpadku a jeho aktuálním stavu.
- Určit důležitost jednotlivých DR plánů. Některé DR plány jsou automatizované. Například důležité pracovní zátěže jsou často chráněné pomocí nějakého typu klastrování a klastr by měl i nadále fungovat, i když uzel nebo instance selže. Klastr, který využívá různé zóny dostupnosti AWS nebo Azure, může i nadále fungovat, i když během výpadku cloudu bude jeden uzel nedostupný. Strategie DR pro méně důležité workloady však mohou vyžadovat ruční zásah nebo diskrétní kroky, jako je obnovení a opětovné spuštění nebo přepnutí na zálohu.
- Monitorovat strategii DR. Bez ohledu na objem ruční práce nebo automatizace je důležité ověřovat, zda obnovené úlohy fungují normálně. Správci by měli porovnat výkon úloh pracujících po obnově s výkonem stejných úloh pracujících za normálních podmínek.
- Vyhodnotit průběh zotavení po selhání. Výpadky cloudu mohou být bolestivé, ale netrvají věčně. Po vyřešení výpadku na straně poskytovatele a obnovení normálního provozu je třeba, aby organizace vyhodnotily své reakce během procesu zotavení po selhání.
Problémy s virtualizací serverů
Virtualizace serverů se stala ve většině datových center dominantní technologií, protože přináší vyšší škálovatelnost, řeší problémy se správou technologií a účinně konsoliduje hardwarové prostředky datového centra. Virtuální prostředí má i řadu dalších výhod, například nižší náklady na pořízení hardwaru, snížení spotřeby energie, spolehlivější zotavení po selhání, rychlejší vývoj aplikací nebo snadné a levnější způsoby spouštění různých typů serverových operačních systémů.
Při spouštění projektu virtualizace serverů se však doporučuje určitá opatrnost, protože existuje několik nevýhod, které by mohly virtualizační úsilí podkopat nebo alespoň zbrzdit. Pochopení některých možných úskalí přinese méně překvapení a narušení provozu datového centra. Následující seznam nevýhod virtualizace serverů nemá odradit žádnou organizaci od jejího záměru, spíše má zvýšit povědomí o tom, že některým z těchto kamenů úrazu se lze vyhnout:
- Náklady na implementaci a licencování. Jednou z nejčastěji zmiňovaných výhod virtualizace serverů je úspora nákladů. Tyto úspory plynou především z omezení nákupů hardwaru. Pokud jde o software, celkové výdaje pravděpodobně naopak porostou kvůli novým nákladům na hypervizory, které umožňují virtualizaci. I když je virtualizační software typu open source nebo je součástí operačního systému serveru, mohou být účtovány poplatky za technickou podporu a údržbu. Je také zapotřebí nový software pro správu virtualizovaného prostředí a možná i další licence operačních systémů. Je proto třeba dobře spočítat, zda budou výdaje nižší než úspory.
- Zvýšení počtu virtuálních serverů. Ačkoli jedním z klíčových cílů virtualizace serverů je omezit počet fyzických serverů, často to vede k tomu, že společnost bude mít více virtuálních serverů, než bylo dříve nasazeno fyzických. Jak se počet virtuálních počítačů zvyšuje, budou přidanou kapacitou ovlivněné i další IT komponenty (zejména úložiště a síť).
- Zálohování dat. Zálohování aktivních dat je ve virtualizovaném prostředí obtížnější, protože je třeba zálohovat více serverů, aplikací a datových skladů. Vzhledem k tomu, že virtuální servery lze snadno spouštět a zastavovat, je důležité, aby zálohovací aplikace zajistila kopírování všech příslušných obchodních dat na záložní média. Většina moderních zálohovacích aplikací umí pracovat ve virtualizovaném prostředí, ale je třeba zjistit, zda jejich funkce odpovídají danému firemnímu prostředí. U aktivnějších serverů může zálohování dat navíc trvat déle.
- Spouštění virtuálních serverů je příliš snadné. Virtuální servery se konfigurují a spouštějí mnohem snadněji než běžné fyzické servery – to je samozřejmě výhoda, ale může to být také problém. Pokud k nim mají povolen přístup, mohou virtuální počítače spouštět i uživatelé s omezenou technickou odborností a bez potřebných znalostí. To může způsobit několik problémů včetně spirálově rostoucích nákladů na licence operačních systémů nebo provozu nesledovaných a nemonitorovaných virtuálních serverů.
- Bezpečnost serverů. Zajištění bezpečnosti serverů bývá vždy větší či menší problém, ale ochrana virtuálních serverů je ještě složitější. Obtíž souvisí převážně s počtem virtuálních serverů v prostředí a nestálostí jejich délky života, protože je lze snadno spustit a zastavit. Většina moderních bezpečnostních aplikací počítá s virtuálním prostředím a je dostatečně vyspělá, aby zajistila bezpečnost všech datových úložišť využívaných virtuálními servery. Dobrý bezpečnostní program by měl buď sám mít přehled o aktuálně běžících virtuálních serverech, nebo spolupracovat s aplikací pro správu virtualizace, která tyto informace může poskytnout.
- Spory o zdroje. Správci sice mohou jednotlivým virtuálním serverům přidělovat výpočetní prostředky, ale je-li jeden z těchto virtuálních počítačů přetížený, může to ovlivnit ostatní spuštěné na stejném fyzickém serveru. Pokud je přetrvávajícím problémem virtuálního prostředí soupeření o prostředky, jako jsou cykly CPU, paměť a šířka pásma, bude třeba nasadit výkonnější hardware.
- Problémy s výkonem. Příčinou špatného výkonu může být spor o prostředky, ale ani s odpovídajícími prostředky nemusejí některé úlohy na virtuálním počítači fungovat tak dobře, jako když běžely na vyhrazeném hardwarovém serveru. Další problém s výkonem může nastat, pokud hardware není plně kompatibilní s hypervizorem. K tomu dochází zejména u starších serverů nebo síťového hardwaru.
- Nová vrstva ve stacku. Virtualizace serverů se uskutečňuje instalací hypervizoru nad operační systém fyzického serveru, což umožňuje vytváření a podporu virtuálních serverů. Toto uspořádání přidává do softwarového stacku další vrstvu mezi aplikace, které hostují virtuální počítače a hardware. Přidaná vrstva může ovlivnit výkon a vyžaduje další ovladače, které je nutné pravidelně aktualizovat.
- Vzdělávání a školení. Virtualizace serverů vyžaduje další procesy, metodiky a nástroje pro správu nového prostředí. Tyto změny mohou být hluboké a neobejdou se bez školení současných zaměstnanců IT v oblasti správy virtuálních serverů a používání nových nástrojů, které vyžaduje virtualizovaná infrastruktura. Většina IT profesionálů se snadno přizpůsobí, ale vyžaduje to nějaký čas a peníze na vzdělávání.