Po pierwszej fazie zachwytu nad chmurowością (cloud computing) obserwujemy wzrost zainteresowania firmowymi centrami danych. Czy możliwa jest kompozycja własnej infrastruktury IT bez techniczno-kosztowych minusów w porównaniu z outsourcingiem?
W każdym przedsiębiorstwie kluczowe staje się pytanie o perspektywy rozwojowe infrastruktury (tele)informatycznej. Małe i średnie firmy są przy tym w znacznym stopniu zależne od ich większych partnerów, którzy w praktyce wymuszają stosowanie określonych standardów. To „wymuszanie“ nie musi być rozumiane negatywnie.
Przykładowo: wielu różnych (mniejszych) dostawców surowców dla dużego koncernu zobowiązanych jest do przestrzegania jednolitych specyfikacji materiałowych, ale także technicznych, np. dotyczących znakowania wyrobów czy elektronicznych interfejsów. Wymieńmy tu choćby EDIFACT (Electronic Data Interchange For Administration, Commerce and Transport) czy IDoc, specyficzny dla systemów ERP-SAP.
Tak więc innowacyjne technologie często rozpowszechniają się zgodnie ze strategią top-down, czyli od „od większego do mniejszego“. Jeśli duże firmy decydują się na użycie transponderów RFID (Radio-Frequency IDentification), to w kolejnym kroku będą to robić mniejsze, aby nie wypaść z rynku. Widzimy zatem, że poszukiwanie odpowiedzi na wcześniej postawione pytanie o infrastrukturę nabiera szczególnego znaczenia w firmach dużych. Muszą one szukać strategii, które okażą się elastyczne w dłuższej perspektywie.
Zarządzanie turbulencją
Formalnie mówimy tu o strategiach modelowanych w ramach dziedziny określanej jako zarządzanie zmianą (Change Management – CM). Niemniej musimy przywyknąć do tego, że zmiany w sferze IT są szczególnie szybkozmienne i turbulentne. Spróbujmy zatem zidentyfikować, w jakim miejscu technologicznego rozwoju znajdujemy się obecnie w przedmiotowej kwestii i czego możemy spodziewać się w tzw. przewidywalnej przyszłości. W tab. 1 pokazano funkcjonalną klasyfikację rozwoju IT, na którą możemy nałożyć model tzw. Trzeciej Platformy (Third Platform 3P) zaproponowany przez IDC (International Data Corporation).
Fala
Fazy |
I
Duże komputery |
II
Mini- i mikrokomputery |
III
Internet, urządzenia przenośne |
IV
Nanokomputery, spinotronika, bioinformatyka |
1Eksperymentowanie | lata 40. | lata 70. | lata 80. | 2000–2020 |
2 Stabilizacja | lata 50. | lata 80. | lata 90. | 2020–2030 |
3 Rozkwit | od lat 60. –70. | od lat 90. | lata 2000– | 2030– |
Tab. 1. Fale i fazy rozwoju IT oraz jego prognoza
Skrótowo można powiedzieć, że 3P obejmuje cztery podstawowe składniki:
- aplikacje mobilne,
- media społecznościowe,
- Big Data,
- kloudonomika (cloudonomics).
Pierwszy i drugi z tych filarów są powszechnie znane i nie wymagają szerszego komentarza. Dodajmy jedynie, że urządzenia techniczne mają naturalną tendencję do minimalizowania swoich wymiarów i potrzeb energetycznych. A coraz mniejsze komputery, choćby w postaci smartfona, można mieć zawsze przy sobie. Stają się one więc mobilne, a jednocześnie w podobnie naturalny sposób podlegają trendowi sieciowości (networking). I wreszcie owa sieciowość nabiera wymiaru społecznościowego – stąd „społecznościowy“ Web 2.0.
Powszechnie dostępny internet (evernet) to z kolei wielka ilość danych, które wymagają nowych metod analizy. Stąd kolejny komponent 3P – Big Data. „Wielkie Dane” to uaktualniona wersja klasycznego trójpodziału: dane -> informacje -> wiedza. W przeszłości agregacja od danych prostych do złożonych była dziełem człowieka, teraz te zadania przejmują maszynowe algorytmy.
Obecnie większość powstających danych jest dziełem maszyn, a nie człowieka, zatem celem technologii Big Data jest nadanie temu procesowi wymiaru jakościowego. Stąd technologia Big Data definiowana jest w ramach modelu 4V:
– duże ilości danych (Volume),
– o znacznej różnorodności (Variety)
– i zmienności (Velocity),
– prowadzące do uzyskania nowej wartości (Value) decyzyjnej
w odniesieniu do optymalizowanych procesów (biznesowych).
I wreszcie ostatni składnik trzeciej platformy: chmurowość będąca przedmiotem badań i zastosowań nowej dziedziny wiedzy i technologii – kloudonomiki (cloudonomics). Internetowa chmura (cloud) to usługi i zasoby, z których można skorzystać w dowolnym miejscu, za pomocą dowolnego urządzenia (terminala) z dostępem do sieci. Dotyczy to zarówno hardwarowych mocy obliczeniowych (zwirtualizowane serwery), jak i samego oprogramowania (elastyczniejszy model softwarowych opłat licencyjnych).
Przeskoczyć przyszłość
Jeśli do wymienionych czterech filarów trzeciej platformy dodamy taki fenomen jak Przemysł 4.0, a więc połączone z nim systemy cyberfizyczne (Cyber-Phisical-Systems CPS) oraz internet przedmiotów (Internet of Things IoT) i zażądamy wysokich standardów bezpieczeństwa dla poszukiwanej infrastruktury to, mówiąc metaforą rolniczą, postawimy pytanie o istnienie wełnisto-mlecznych wieprzów znoszących jaja. Innymi słowy: w jaki sposób wybrać strategię infrastrukturalną, aby „przeskoczyć przyszłość”, tzn. nie zainwestować w rozwiązania, które stają się przestarzałe już w momencie ich wdrożenia?
Przyjrzyjmy się megatrendom infrastrukturalnym IT w ostatnich latach, a nawet dziesięcioleciach. W szczególności można wyróżnić cztery z nich:
- konsolidacja – dążenie do tworzenia rozwiązań zintegrowanych,
- harmonizacja – systemy homogeniczne w miejsce heterogenicznych,
- automatyzacja – bezzałogowe centra obliczeniowe,
- wirtualizacja – zastępowanie materii IT warstwą informacyjną.
Nie będziemy tu rozwijać definicji i charakterystyk wyspecyfikowanych strategii, zakładając ich powszechną znajomość. Powtórzymy jeszcze raz skrótowo: od lat konsolidujemy, harmonizujemy, automatyzujemy i wirtualizujemy. Ale czy jesteśmy zadowoleni z osiąganych efektów? Względnie zapytajmy inaczej: jakie (mega)trendy warto dodatkowo uwzględnić w obliczu wcześniej wymienionych składników Trzeciej Platformy? Wydaje się, że są dwa takie: zwinność (Agile) i skalowalność. A praktyka pokazuje, że trudno efektywnie spełnić tak określone warunki ramowe, opierając się na klasycznych już architekturach OP-C/S (OnPremise-Client/Server).
Doświadczenia największych graczy internetowych są tu szczególnie cenną wskazówką z uwagi na ich wręcz nieograniczoną „pamięciożerność“ i szerzej – „zasobożerność“ (procesory, pasma przenoszenia, czasy, redundancje sprzętowe). Mówimy tu o konglomeracie GAFA, czyli: Google, Apple, Facebook, Amazon. Dodajmy dla formalności, że obecnie kompleks Google’a występuje pod nazwą Alphabet Inc., a sam czteroliterowy skrót ma etymologię francusko-niemiecką (gaffe/gaffen – zwracać uwagę). Niemniej wskazania infrastrukturalnych gigantów IT idą w kierunku hipergonwergentnych architektur HCI (hyper-converged infrastructure).
Konwergentna wirtualizacja
HCI to kolejny poziom wcześniejszych architektur CI (converged infrastructure). Istotna różnica polega na tym, że monolityczne „silosy” pamięci SAN (Storage Area Network) czy NAS (Network Attached Storage) tworzą zwirtualizowaną strukturę o charakterze softwarowym. Podobnie dzieje się ze zwirtualizowaną siecią i zasobami procesorowymi, a nad całością czuwa tzw. hypervisor, czyli centrum opisywanej wirtualizacji.
Ideę HCI można plastycznie pokazać jako eskalację wirtualizacji, czyli najważniejszego z wcześniej wymienionych megatrendów rozwoju infrastruktur IT. Wskazaliśmy przy tym, że wirtualizacja może być definiowana jako „zastępowanie materii informacją”. A w praktyce ów czynnik informacyjny reprezentowany jest przez oprogramowanie. Tak więc HCI oznacza skalowalne technicznie i ekonomicznie architektury, postrzegane i konfigurowane jako rodzaj oprogramowania, a nie sprzętu.
Naturalnie ten proces można zaobserwować w całym rozwoju informatyki – w każdym systemie mamy do czynienia z jego warstwą logiczną i fizyczną. Mówimy tu o jego zaawansowanej postaci z użyciem takich technologii, jak: programowalna sieć komputerowa SDN (Software Defined Network), wirtualizacja funkcji sieciowych NFV (Network Functions Virtualization) czy właśnie HCI.
W tym miejscu praktyk zapyta: no dobrze, ale każde klasyczne centrum danych firmy to także jego „fizyczność”, szafy stelażowe, okablowanie, chłodzenie; gdzie w tym wszystkim przełomowa technologia? Zadajmy to pytanie bardziej systematycznie i uniwersalnie: czy HCI to zmiana paradygmatu, ewolucja, rewolucja czy tylko medialny szum „Hyde” (hyperbolic)? Zapewne te fenomeny występują tu równolegle, można dyskutować o ich proporcjach, ale istotne jest to, że na rynku są już dostępne konkretne rozwiązania HCI.
Mają je w ofercie praktycznie wszyscy wielcy dostawcy technologii infrastrukturalnych dla centrów danych, np. Oracle czy Cisco, korzystający z platformy HX Data Platform oraz systemu zarządzania i automatyzacji UCS (Unified Computing System). Również w obszarze HCI istnieją alternatywne rozwiązania otwartoźródłowe. Wymieńmy tu starego znajomego świata open-source – firmę RedHat czy PVE (Proxmox Virtual Environment) bazującą na „linuxopodobnym” derywacie Debian.
W rozważanej sferze pozorna mnogość rozwiązań da się sprowadzić do kilku wspólnych mianowników technologicznych. Na pewno należy tu wskazać start-upowy Nutanix, partnerujący klasykowi IBM i chmurom Googla. Z kolei u Hewletta-Packarda (od splitu w roku 2015 roku jako HPE – Hewlett Packard Enterprise) odnajdziemy myśl technologiczną Nimble i Simplivity (w tym ostatnim przypadku znowu dobry znajomy administratorów centrów danych) z linii serwerów ProLiant (DL 380).
Z kolei miłośnicy serwerów PowerEdge mogą kojarzyć je z HCI Della – VxRail. Również i tu formalnie mówimy o Dell EMC Corporation po pamiętnym przejęciu EMC przez Della także w roku 2015, oficjalnie procedurą cash-and-stock, a z uwagi na wielkość można wręcz mówić o cash-and-shock (akwizycja ok. 70 mld USD uchodziła za rekordową w branży). I wreszcie Lenovo Converged HX/ThinkAgile. I nie jest tajemnicą, że Lenovo współpracowało ze wspomnianymi Nimble i Simplivity, a do tego z Nutanixem i kolejnym klasykiem IT, Microsoftem, wspieranym przez, klasyka wirtualizacji, VMWare.
Na co się zdecydować? Odpowiedź zależy od analizy systemowej w danym przedsiębiorstwie. Można wszakże zauważyć, że HCI wydaje się optimum między chmurą publiczną (public cloud) a prywatną (private cloud), także z potencjałem dla najbardziej krytycznych i dużych aplikacji, tj. klasy ERP (Enterprise Ressource Planning), np. SAP.
Kategorie: Architektura systemów, Zarządzanie informacją
Musisz się zalogować aby dodać komentarz.