Jaké jsou podle vás nejaktuálnější trendy v českém cloudu?
Podniky a firmy hledají nejlevnější cestu, jak provozovat své aplikace a zároveň začínají objevovat technologie a nové aplikační platformy, které jim nabídnou nezávislost na prostředí, kde jejich aplikace běží. Vedle toho testují nové technologie, jako jsou virtualizovaná síťová infrastruktura, softwarově definovaná bezpečnost nebo efektivnější doručování jejich aplikací. Sice existují společnosti, které nepotřebují žádné lokální datové centrum a vše mají ve veřejném cloudu, ale to není rozhodně většina. Jedná se především o společnosti, které provozují malé množství globálně dostupných aplikací. Podnikové firemní prostředí je přece jenom komplikovanější, s velkým množstvím aplikací, které buď není možné levně migrovat do veřejného cloudu, anebo to není možné například z bezpečnostních důvodů. Takových důvodů může být pochopitelně více, a proto lze dnes říct, že přesun veškerých výpočetních prostředků do veřejného cloudu tradičního enterprise zákazníka není zcela reálný. Pro takové společnosti je mnohem výhodnější koncept hybridního cloudu.
Jak se v českém podnikovém prostředí uplatňuje multicloud? Jaké jsou jeho perspektivy a možnosti?
MultiCloud je podle mého názoru další etapa využití technologií nabízených v prostředí tzv. veřejného cloudu. Příbuzný koncept hybridního cloudu nabízí zákazníkům kombinaci prostředí umožňující provozovat jejich stávající aplikace v různých prostředích v situaci, kdy nemusí nějak radikálně měnit jejich interní roky ověřené procesy spojené s provozem tradičního virtualizovaného datového centra. MultiCloud přichází v okamžiku, kdy tradiční zákazník provozující datové centrum má najednou k dispozici i jiná prostředí pro své aplikace a hledá cestu jak nastavit interní procesy související s nasazením a kompletním životním cyklem tak, aby byly nezávislé na cílovém prostředí, kde aplikace bude běžet. Mezi taková prostředí zahrnujeme především technologické partnery jako je AWS, Azure nebo GCP. Vzniká tak prostor pro dodavatele řešení pro automatizaci, která jsou skutečně tzv. Cloud-Agnostic. Koncept multicloudoveho prostředí vzešel především od gigantů jako Waze, Facebook, Snapchat a dalších. To jsou společnosti, které využívají multicloudové prostředí nejen pro zajištění globálního dosahu pro své uživatele, ale především provozní nezávislosti. Kdykoliv mohou přejít na platformu jiného provozovatele. S tím také souvisí možnost přepnout celý systém do datových center druhého provozovatele v případě, kdy jejich primární veřejný cloud má nějaké technologické nebo bezpečnostní problémy. Taková nezávislost ovšem není zadarmo a může vyžadovat poměrně zásadní úpravy stávajících aplikací. Také z tohoto důvodu lze říct, že maximální přínos multicloud prostředí můžeme pozorovat v kombinaci s tzv. Cloud-Native aplikacemi postavených na kontejnerech a často provozovaných v prostředí Kubernetes.
Je podle vašeho názoru vhodnější hyperkonvergovaná infrastruktura založená na integrovaném HCI zařízení, nebo na hardwarově nezávislém hyperkonvergenčním softwaru?
Podle mého názoru je vhodnější používat integrovaná HCI zařízení. Důvodů může být několik. Prvním z nich je otázka odladění celé sestavy. Pokud máte hardware postavený přímo na konkrétní software, tak bude odladěný a bude maximálně využívat technických prostředků hardwaru. Speciálně, pokud vlastníte kód a dokážete všechny softwarové komponenty sladit dohromady, navíc pod jeden management softwaru, tak máte řešení, o které se můžete opřít a další tzv. Day 2 operace jsou následně velmi jednoduché. Pokud to bude hardware ready pro hyperkonvergenční software, tak to může fungovat také dobře, ale někdy se nemusí všechny komponenty potkat s potřebami konkrétního HCI softwaru. Malinko mi to připomnělo situaci s přepínači a samostatným softwarem v podobě třeba Cumulus Networks, který se nikdy masově neprosadil.
Dalším důvodem může být technická podpora na celé řešení. Sami víme, jak někdy dochází ke třenicím mezi výrobcem hardwaru a výrobcem softwaru. Často jde spíše o nekonečný ping pong než o jasně definované řešení pro konkrétní situaci. Svalování viny jeden na druhého je bohužel častá praxe a řešení je pouze jediné, a to integrované řešení jednoho výrobce pod jedním support programem.
V obou případech vycházím tak nějak z vlastní zkušenosti. Nuancí samozřejmě může být více, ale integrované zařízení je zkrátka vždy o krok napřed.
Jaký je hlavní rozdíl mezi virtualizací sítě (network virtualization) a abstrakcí sítě (network abstraction)? Čím se oba přístupy liší a jaké jsou jejich největší výhody?
Abstrakce sítí a virtualizace sítí jsou dva pojmy velmi podobné, ale technicky se jedná o dva zcela odlišné přístupy. Síťová abstrakce je možnost využít základní fyzickou konektivitu mezi HW komponenty a pomocí virtuálních sítí (VLAN) a virtuálních routerů (VRF, Routing Instance apod.), vytvářet nad fyzickou sítí zcela nová zapojení. Je to jednodušší a starší technologie než síťová virtualizace a také přístupná již v každém fyzickém síťovém prvku. Naopak virtualizace sítí využívá softwarovou komponentu, která je naprosto nezávislá na podkladové fyzické vrstvě. Může existovat přímo v samotném počítači bez návaznosti na fyzickou síť. Jedná se o SDN technologii, která tím, že je obsažena v softwaru s jasným programovatelným rozhraním API, je jednoduše orchestrovatelná a automatizovatelná. Dnešní nejběžnější virtualizační platformy nabízejí možnost vytvářet virtuální switche, routery, firewally, load balancery a další. Je to cesta k efektivnějšímu a flexibilnějšímu využití počítačů za současného šetření prostředků, které by bylo jinak potřeba vydat za fyzické, jednoúčelové stroje s jasně ohraničenou propustností a výkonem. Ostatně cloud a kontejnery jsou jasnou ukázkou toho, jak může fungovat síťování ve virtualizaci velmi flexibilně a efektivně zároveň. Distribuovaný model virtuální sítě umožňuje snadné rozšíření na nové počítače, nebo naopak možnost redukovat počet méně výkonných počítačů za počítače s vyšším výkonem a ušetřit tak jednak náklady na licence a také za místo v racku a také spotřebu energií potřebných pro příkon a chlazení počítače.
Jak lze co nejlépe a s nejmenšími náklady zvýšit efektivitu datového centra? Jaké faktory je třeba nejvíce zohlednit při finančním plánování provozu datového centra?
Efektivitu datového centra je možné zvýšit právě zmíněnou HCI technologií. Jedná se o kombinaci počítače se softwarem umožňující propojení disků do distribuovaného řešení datového uložiště, virtuální sítě taktéž v distribuovaném modelu a jednotného nástroje pro správu. Vždy je důležité finančně porovnávat řešení do stávajícího datového centra tzv. brownfield a investici do nového datového centra tzv. greenfield. Z kalkulací víme, že pro greenfield je softwarové řešení vždycky výhodnější za současného několikanásobného výkonu. Do brownfield je potřeba vždy zahrnout stávající technologie s ohledem na fázi jejich životního cyklu a náklady na migraci. Ale i tady se dá říct, že software často ušetří finanční prostředky. V dnešní době se často setkáváme s kombinací těchto datových center. Pro firmy je čas pro uvedení produktu na trh klíčový. Čím kratší interval, tím lépe. Bohužel stávající monolitické aplikace a datová centra postavená čistě z HW technologie tento interval zkrátit nedokáží. Proto se často setkáme s tím, že společnosti nechají stávající aplikace dožít ve starém datovém centru a nové aplikace pak portují na čistě softwarově řešené DC.
Pro finanční plánování DC je potřeba zohlednit to, jestli se vám DC vůbec vyplatí vlastnit a investovat tak prostředky do výstavby, provozu, licencí, obsluhy DC, anebo jestli si DC pronajmout jako službu například v cloudu. Je to podobné tomu jestli si například auto koupíte, anebo jestli si jej pronajmete. Dnes totiž s ohledem na cloud odpadají obavy o dostatečnou konektivitu, bezpečnost, SLA atd. Proto se spousta firem vydala právě touto cestou. Například příprava prostředí pro provoz aplikace může u privátního DC trvat týdny a u cloudového řešení už můžete mít vzor řešení pro provoz aplikace k dispozici na jedno kliknutí.
Takže základní otázkou je potřeba vlastnit, či nevlastnit DC a z této otázky pak lze dostat další sadu otázek, které dále ovlivní finanční plánování DC. Jsou to otázky typu záložní lokalita, zálohování, automatizace, zabezpečení, reakční doba na vyvstalou situaci apod. Dnes doba nahrává pro tzv. OPEX řešení, protože jsou v něm jasně definované náklady v čase a není potřeba vynaložit tolik prostředků na začátku projektu. Ostatně je to zajímavý model i pro výrobce samotné a spousta z nich přechází nebo nabízí i model subskripcí.
Jaký provozní model cloudového datového centra je v současné době pro podniky nejvýhodnější? Jak se co nejlépe vyrovnat se zvýšenými nároky cloudového datového centra na přenos dat?
Dnes je ideální kombinace privátního prostředí (datového centra) a externí výpočetní kapacity poskytované jako služba. Každý má tedy dnes možnost správně rozložit své výpočetní potřeby mezi několik provozních prostředí, které ale v ideálním případě sdílejí identickou virtualizační platformu, která jim umožní bezproblémovou migraci-přesun stávajících aplikací a to v obou směrech. V tomto případě se bavíme o hybridním cloudu. Typickým scénářem je zajištění disaster recovery infrastruktury, přesun Test-Dev prostředí do veřejného cloudu nebo využití externích výpočetních služeb v případě, kdy je potřeba kapacita pouze na omezenou dobu. Fakt, že za služby veřejného cloudu lze platit formou předplatného, může přinést i výrazné finanční úspory. Nástroje na analýzu stávajícího prostředí jsou schopné navrhnout potřebné zdroje ve veřejném cloudu tak, aby to bylo pro zákazníka co nejvýhodnější. Nároky na konektivitu zde samozřejmě jsou, ale v době, kdy existují nástroje na optimalizaci WAN připojení nebo služby typu Direct Connect, už to není zásadní problém.