Tag: Zarządzanie danymi

Miękkie zmiany w świeżej pamięci

Rozmowa z Moniką Zakrzewską, inżynierem systemowym pamięci masowych. Dyskutujemy o zmianach zachodzących w wewnętrznej architekturze pamięci masowych, a w szczególności w warstwie oprogramowania. Rozmawiamy o konsekwencjach tych zmian dla wydajności, skalowania i dostępności usług składowania danych, dla ich bezpieczeństwa, a także dla biznesu klientów i ich budżetów IT.

Otwarta kopia, nareszcie w jednym kawałku

SEP

Użytkownicy platform i systemów open source od zawsze narzekali na problemy z backupem. Producenci komercyjnych rozwiązań backupowych nie spieszyli się jednak z oferowaniem agentów do wykonywania w trybie online kopii zapasowych systemów Linux oraz tego wszystkiego, co działało w ich środowisku. Z kolei rynek narzędzi open source był rozdrobniony, nie umożliwiając wdrożenia jednego systemu obsługującego jednocześnie szeroki wachlarz systemów źródłowych. Ten impas przełamała dopiero niemiecka firma SEP. Rozwijając systematycznie swój produkt SEP sesame nie tylko objęła nim większość istotnych systemów open source, ale także platformy i systemy komercyjne. Tak oto, producentom komercyjnych narzędzi backupowych wyrósł silny konkurent, poruszający się zwinnie zarówno w obcym im świecie open source, jak i w świecie komercyjnych systemów operacyjnych, serwerów pocztowych i bazodanowych oraz systemów plików.

Dane dobrze wyciśnięte

Cytryna

Deduplikacja staje się stałym elementem procesów zarządzania danymi. Pozwala ograniczyć ilość danych fizycznie przechowywanych w pamięciach masowych, skraca proces wykonywania kopii zapasowych, pozwala ograniczyć pasmo w sieciach łączących ośrodek główny i zapasowy, obniża wydatki inwestycyjne na infrastrukturę i zmniejsza koszty utrzymania środowisk. Rozwiązania służące do deduplikacji różnią się między sobą nie tylko efektywnością kompresji, ale także długą listą innych parametrów istotnych z perspektywy codziennego wykorzystania. Warto przyjrzeć się im, a najlepiej przetestować je w warunkach możliwie bliskich rzeczywistym. Kupując rozwiązanie firma wiąże się z nim na 3 do 5 lat i na ten czas zawierza mu swoje najważniejsze dane. Czas i środki poświęcone na testy zwykle zwracają się wielokrotnie poprzez uniknięcie zakupu rozwiązania zbyt drogiego lub nieoptymalnego z punktu widzenia celu deduplikacji.

Decyzja o migracji TSM: rozważna, czy romantyczna?

Decyzja o migracji TSM: rozważna, czy romantyczna?

Co najmniej kilka setek dużych podmiotów w Polsce wciąż korzysta ze starych wersji Tivoli Storage Manager, flagowego systemu backupowego IBM. Klienci trwają przy nich pomimo tego, że dawno już utraciły wsparcie techniczne producenta. Powód jest prosty: w dziedzinie ochrony danych stare znaczy sprawdzone, niezawodne. Istnieje jednak cały szereg innych powodów, dla których korzyści z trwania przy starszych wersjach schodzą na dalszy plan. Najważniejszy z nich to ten, że systemy backupu przestały już być wyspami funkcjonującymi w odrębnej czasoprzestrzeni techniczno-inżynierskiej, stając się elementem procesów biznesowych. To nie systemy backupowe mają być niezawodne, jeśli można tak powiedzieć, a przede wszystkim procesy, które systemy te zabezpieczają. Nowe wersje TSM adresują te potrzeby w sposób, który dla poprzednich wersji jest nieosiągalny, umożliwiając także redukcję kosztów operacyjnych w obszarze backupu, oraz w kilku innych obszarach IT. Niezależnie od tego, ochrona danych i ciągłość procesów jest obecnie przedmiotem żywego zainteresowania regulatorów branżowych, co nadaje sprawie migracji starszych wersji TSM zupełnie nowego wymiaru.

Pomysły na backup Anno Domini 2015

Pomysły na backup Anno Domini 2015

To, czym backup jest, a czym nie, jak jest wykonywany oraz czemu ostatecznie służy, nieustannie się zmienia. Dzieje się tak przede wszystkim dlatego, że backup musi stale nadążać za zmianami w innych obszarach – skalą biznesu, architekturą rozwiązań podlegających ochronie, wzrostem ilości i różnorodności danych, zmianami technologicznymi, możliwymi technikami wykonywania kopii i tak dalej. Wszystkie te zagadnienia mają bezpośredni wpływ na niezawodność i wydajność backupu, a także na związane z nim koszty. Odpowiedzi na pytania o cele, metody i architektury systemów backupowych z roku na rok wyglądają więc inaczej. Od czego zacząć, szykując się do budowy systemu backupowego w 2015 r.?

Usługi gotowe na rewolucję przemysłową

Usługi gotowe na rewolucję przemysłową

W sektorze bankowym, ubezpieczeniowym i telekomunikacyjnym zarządzanie procesami IT jest tym, czym produkcja i dystrybucja w firmach wytwórczych. O ile przemysł opanował i zautomatyzował swoje procesy operacyjne, branże usługowe w dużej mierze nadal tkwią w epoce ‘Excela dłubanego’ i ręcznego zarządzania plikami. Mają wprawdzie nowoczesny ‘park maszynowy’ w postaci baz danych i systemów dziedzinowych, ale tylko nieliczne posiadają rozwiązania będące koncepcyjnymi odpowiednikami systemów planowania produkcji (ERP), sterowania automatyką produkcyjną (SCADA) czy operacyjnego zarządzania procesem produkcji (MES). Zarządzanie procesami IT, w tym w szczególności dostarczanie informacji zarządczej, to w sektorach usługowych od lat dziedzina mocno kulejąca. Wiąże duże zasoby, ogranicza sprawność operacyjną i stanowi całkiem spore ryzyko. Bez znaczącego postępu w dziedzinie automatyzacji procesów w tym obszarze firmy usługowe nie będą w stanie wykonać kolejnego dużego skoku, a w efekcie miotać się między stale rosnącymi oczekiwaniami klientów, partnerów i regulatorów. Coraz trudniej będzie im także konkurować z nowymi podmiotami, wolnymi od złożoności wynikającej ze skali i bagażu historii, automatyzującymi procesy zaplecza na zupełnie innym poziomie.

Wrocławskie MPK: uwaga, nadjeżdża Open Data

Wrocławskie MPK - uwaga, nadjeżdża Open Data

Miejskie Przedsiębiorstwo Komunikacyjne we Wrocławiu w nieoczekiwany sposób przezwyciężyło bariery powszechnie pojawiające się w kontekście idei Open Data. MPK i jego partnerzy – firmy budujące aplikacje mobilne związane z informacją pasażerską – pokazały, że wzajemne obawy można rozwiać poprzez współpracę nad rozwiązaniem dobrym dla obywatela – ostatecznego użytkownika danych miejskich i aplikacji komercyjnych. Doświadczenia wrocławskie można uznać za bardzo cenną lekcję i przykład do naśladowania dla miast dopiero stojących przed uporządkowaniem sfery transportu pasażerskiego, a szerzej także jako wyjątkowo udany przypadek wprowadzenia w życie idei otwartych danych.

Majątek ujęty w procesie, z mapą w tle

Majątek ujęty w procesie, z mapą w tle

Większość kapitału firm przemysłowych i sieciowych lokowana jest w majątku trwałym. Nawet relatywnie niewielka poprawa efektywności zarządzania nim może uwolnić środki na niezbędne inwestycje, wsparcie obszarów wymagających pilnych zmian, czy też finansowanie rozwoju. Porządkowanie zarządzania majątkiem, cenne jako takie, warto wykorzystać jako okazję do przekształcenia organizacji zgodnie z modelem procesowym. Procesy biznesowe pozwalają bowiem podnieść efektywność zarządzania majątkiem firm przemysłowych i sieciowych nie tylko skokowo, ale również długofalowo. Aby ułatwić wprowadzenie zmian, a zarazem zwiększyć ich pozytywne skutki, zarządzanie procesami warto wdrażać równolegle z systemami map cyfrowych.

Oracle w sosie własnym

Oracle w sosie własnym

Producenci systemów operacyjnych, serwerów, sieci i pamięci masowych przez lata prześcigali się w strojeniu przetwarzania baz danych na wszelkie możliwe sposoby. Optymalizacje odbywały się wszakże tylko w ramach poszczególnych warstw. Koordynacja pomiędzy nimi, nawet jeśli miała miejsce, wymagała od administratorów wzniesienia się ponad inżynierskie rzemiosło, czyniąc z nich prawdziwych artystów technologii. Obecnie Oracle dużymi krokami dąży do uproszczenia infrastruktury wspierającej bazy danych, by zwiększyć ich wydajność. Nigdzie nie widać tego wyraźniej, niż w obszarze pamięci masowych, i jest to jeden z powodów rosnącej popularności platform Engineered Systems. Niezależnie od nich, w Oracle 11g oraz 12c pojawiły się technologie stanowiące prawdziwą rewolucję w dziedzinie wydajności. Mowa tu m.in. o agencie Direct NFS zintegrowanym w silniku bazy danych, innowacyjnym protokole OISP, hybrydowej kompresji danych HCC i zarządzaniu nią na podstawie statystyk Heat Maps za pomocą reguł biznesowych ADO, a także funkcjach CloneDB, służących do natychmiastowego wykonywania kopii bazy przy niewielkim zapotrzebowaniu na zasoby.