Pomost nad rzeką zmian

Pomost nad rzeką zmian

Zarządzanie zmianami, szczególnie na poziomie strategicznym, zawsze było dziedziną trudną, kosztowną i obarczoną dużym ryzykiem. Wraz z postępującą informatyzacją działalności przedsiębiorstw wszelkie zmiany w biznesie wymagają dodatkowo także zmian w środowisku informatycznym. Okoliczności są tym trudniejsze, że dotychczasowy dorobek w dziedzinie narzędzi do zarządzania zmianami jest tylko częściowo kompletny. Istnieją narzędzia do zarządzania architekturą korporacyjną, dedykowane narzędzia do zarządzania portfelami projektów, platformy do modelowania i automatyzacji procesów, a także systemy do zarządzania zasobami informatyki i ich konfiguracją. Każde z tych narzędzi wspiera zmiany w pewnym zakresie, warstwie i ujęciu. Żadne z nich, użyte samodzielnie, nie zapewnia możliwości modelowania całości zagadnień związanych ze zmianą, w szczególności zaś nie umożliwia analizy wzajemnego oddziaływania na siebie zmian w poszczególnych warstwach. Modelowanie i ocena potencjalnych zmian – w celu optymalizacji ich łącznych efektów – jest nowym, interesującym obszarem dla narzędzi informatycznych wspomagających zarządzanie organizacjami. Narzędzia integrujące informacje i funkcjonalności z różnych dziedzin są już dostępne, a jednym z nich jest oferowany przez Software AG system Alfabet.

Baza na twardo, czyli jak „konsumować” Oracle

Baza na twardo, czyli jak „konsumować” Oracle

Koszty oprogramowania Oracle spędzają sen z oczu wielu dyrektorom departamentów informatyki w Polsce. Poziomy cenowe ustalane przez strategów sprzedaży Oracle nie uwzględniają specyfiki biznesu w krajach słabiej rozwiniętych. Innymi słowy: nie jest tanio, a wręcz przerażająco drogo. Wystarczy wspomnieć, że katalogowy koszt jednej licencji bazy danych Oracle Enterprise Edition to 47 500 dolarów, do czego należy doliczyć koszty wsparcia w wysokości 10 450 dolarów rocznie. Jedna licencja Oracle opiewa tylko na jeden rdzeń procesorów POWER lub dwa rdzenie procesorów Xeon lub SPARC. Ile tych licencji trzeba ostatecznie zakupić? W przypadku maszyn fizycznych odpowiedź jest prosta: tyle, ile wynosi liczba rdzeni zainstalowanych w serwerze pomnożona przez odpowiedni współczynnik zależny od rodzaju procesora (tzw. core-factor). Koszty nie są może niskie, ale w miarę przewidywalne. W przypadku maszyn wirtualnych prostota znika, a w jej miejsce pojawia się labirynt warunków licencyjnych pełen potencjalnie kosztownych pułapek.

Dane dobrze wyciśnięte

Cytryna

Deduplikacja staje się stałym elementem procesów zarządzania danymi. Pozwala ograniczyć ilość danych fizycznie przechowywanych w pamięciach masowych, skraca proces wykonywania kopii zapasowych, pozwala ograniczyć pasmo w sieciach łączących ośrodek główny i zapasowy, obniża wydatki inwestycyjne na infrastrukturę i zmniejsza koszty utrzymania środowisk. Rozwiązania służące do deduplikacji różnią się między sobą nie tylko efektywnością kompresji, ale także długą listą innych parametrów istotnych z perspektywy codziennego wykorzystania. Warto przyjrzeć się im, a najlepiej przetestować je w warunkach możliwie bliskich rzeczywistym. Kupując rozwiązanie firma wiąże się z nim na 3 do 5 lat i na ten czas zawierza mu swoje najważniejsze dane. Czas i środki poświęcone na testy zwykle zwracają się wielokrotnie poprzez uniknięcie zakupu rozwiązania zbyt drogiego lub nieoptymalnego z punktu widzenia celu deduplikacji.

Ochroniarz z żyłką do biznesu pilnie potrzebny

Ochroniarz z żyłką do biznesu pilnie potrzebny

Stosowane dotychczas przez banki metody zapobiegania nadużyciom w dziedzinie transakcji przestają być skuteczne. Atakujący nie tylko zwiększyli intensywność prób nadużyć, ale podnieśli ich jakość. Dowodem tego są poczynania wykrytej niedawno międzynarodowej grupy przestępczej, której udało się oszukać ponad 100 banków w 30 krajach na łączną kwotę sięgającą miliarda dolarów. Jeśli zdeterminowanym przestępcom niestraszne są nowoczesne systemy zabezpieczeń i kompetentne zespoły specjalistów, pomocy należy szukać nie w technologii, lecz w regułach biznesowych oraz modelach analitycznych operujących na systematycznie gromadzonych danych o klientach, transakcjach, pracownikach, uprawnieniach, profilach ryzyka itd. Metody tego rodzaju sprawdziły się już w przypadku monitorowania transakcji pod kątem prania brudnych pieniędzy, nadużyć wewnętrznych i kredytowych. Mamy doświadczenia dowodzące, że analogiczne metody sprawdzają się także w przypadku zapobiegania nadużyciom w obszarze transakcji elektronicznych, w tym webowych.

Decyzja o migracji TSM: rozważna, czy romantyczna?

Decyzja o migracji TSM: rozważna, czy romantyczna?

Co najmniej kilka setek dużych podmiotów w Polsce wciąż korzysta ze starych wersji Tivoli Storage Manager, flagowego systemu backupowego IBM. Klienci trwają przy nich pomimo tego, że dawno już utraciły wsparcie techniczne producenta. Powód jest prosty: w dziedzinie ochrony danych stare znaczy sprawdzone, niezawodne. Istnieje jednak cały szereg innych powodów, dla których korzyści z trwania przy starszych wersjach schodzą na dalszy plan. Najważniejszy z nich to ten, że systemy backupu przestały już być wyspami funkcjonującymi w odrębnej czasoprzestrzeni techniczno-inżynierskiej, stając się elementem procesów biznesowych. To nie systemy backupowe mają być niezawodne, jeśli można tak powiedzieć, a przede wszystkim procesy, które systemy te zabezpieczają. Nowe wersje TSM adresują te potrzeby w sposób, który dla poprzednich wersji jest nieosiągalny, umożliwiając także redukcję kosztów operacyjnych w obszarze backupu, oraz w kilku innych obszarach IT. Niezależnie od tego, ochrona danych i ciągłość procesów jest obecnie przedmiotem żywego zainteresowania regulatorów branżowych, co nadaje sprawie migracji starszych wersji TSM zupełnie nowego wymiaru.

MPK: Management Pierwsza Klasa

MPK - Management Pierwsza Klasa

Jak przekształcić przedsiębiorstwo państwowe w dynamicznie rozwijającą się spółkę o wiodących w skali kraju wskaźnikach efektywności? Pierwsza myśl to prywatyzacja, ale okazuje się, że niekoniecznie. Na przykładzie Miejskiego Przedsiębiorstwa Komunikacyjnego we Wrocławiu można śmiało obronić tezę, że ambicja i pomysłowość organizatorów procesów są co najmniej tak samo ważne, jeśli nie ważniejsze, od właściciela i jego oka, które ponoć konia tuczy. W ciągu pięciu lat niewielki zespół menedżerów zarządzających projektami rozwojowymi był w stanie – przy wsparciu zarządu spółki – skutecznie popchnąć kilkutysięczną załogę ku bardzo wielu trudnym zmianom. Z firmy na wskroś papierowej, zaśniedziałej organizacyjnie i przywiązanej do branżowego status quo, MPK we Wrocławiu przekształciło się w rynkowego lidera. Liczby mówią za siebie: 91% taboru w ruchu, pierwsze miejsce w kraju pod względem kosztu przejechanego wozokilometra, odjazdy z przystanków przed planowanym czasem na poziomie 2%, poprawa skuteczności kontroli biletowej i tak dalej. Gdy zestawić je ze śmiałymi projektami reorganizacji zaplecza remontowo-magazynowego, podniesienia jakości pojazdów, programami standaryzacji, innowacyjnymi planami odzyskiwania energii czy automatycznego sterowania pojazdami, mamy prawdopodobnie do czynienia z jedną z poważniejszych transformacji biznesowych tego dziesięciolecia.

Bezpieczeństwo coraz mniej niszowe

Bezpieczeństwo coraz mniej niszowe

Rozmowa z Guillaume Lovet, menedżerem ds. badań w laboratoriach Fortinet w Sophia-Antipolis we Francji. Dyskutujemy o zagrożeniach z perspektywy stojącego za nimi rynku wartego wiele miliardów dolarów rocznie, omawiamy współczesne metody płatności i leżące u ich podstaw techniki szyfrowania, rozmawiamy o urządzeniach elektronicznych stanowiących coraz częściej realne zagrożenie dla biznesu, a także o systematycznym zarządzaniu bezpieczeństwem w kontekście rodzącego się na naszych oczach Internetu Rzeczy.

SDN w zderzeniu z rzeczywistością

SDN w zderzeniu z rzeczywistością

Rozmowa z Brianem Levy, europejskim dyrektorem ds. technologii w Brocade Communications. Rozmawiamy o przyszłości architektury sprzętu i oprogramowania sieciowego, oczekiwaniach klientów związanych m.in. z wirtualizacją oraz różnych scenariuszach wykorzystania rozwiązań opartych na koncepcji Software-Defined Networking oraz Network Functions Virtualization. Dyskutujemy także na temat kierunków rozwoju architektur aplikacyjnych w związku z upowszechnienia się trendów SDN i NFV.

Pomysły na backup Anno Domini 2015

Pomysły na backup Anno Domini 2015

To, czym backup jest, a czym nie, jak jest wykonywany oraz czemu ostatecznie służy, nieustannie się zmienia. Dzieje się tak przede wszystkim dlatego, że backup musi stale nadążać za zmianami w innych obszarach – skalą biznesu, architekturą rozwiązań podlegających ochronie, wzrostem ilości i różnorodności danych, zmianami technologicznymi, możliwymi technikami wykonywania kopii i tak dalej. Wszystkie te zagadnienia mają bezpośredni wpływ na niezawodność i wydajność backupu, a także na związane z nim koszty. Odpowiedzi na pytania o cele, metody i architektury systemów backupowych z roku na rok wyglądają więc inaczej. Od czego zacząć, szykując się do budowy systemu backupowego w 2015 r.?