Proaktywna współpraca

CTI, czyli Cyber Threat Intelligence, to oparta na faktach wiedza o istniejących lub mających się wkrótce pojawić ryzykach. Pozwala podejmować lepsze decyzje potrzebne do obrony i neutralizowania zagrożeń. Pozwala na proaktywną ochronę mającą fundamentalne znaczenie we współczesnym, cyfrowym środowisku biznesowym – mówi prof. Jerzy Surma, kierownik studiów podyplomowych Zarządzanie Cyberbezpieczeństwem w Instytucie Informatyki i Gospodarki Cyfrowej w Szkole Głównej Handlowej, członek Rady Nadzorczej BZWBK.

Miękkie zmiany w świeżej pamięci

Rozmowa z Moniką Zakrzewską, inżynierem systemowym pamięci masowych. Dyskutujemy o zmianach zachodzących w wewnętrznej architekturze pamięci masowych, a w szczególności w warstwie oprogramowania. Rozmawiamy o konsekwencjach tych zmian dla wydajności, skalowania i dostępności usług składowania danych, dla ich bezpieczeństwa, a także dla biznesu klientów i ich budżetów IT.

Oszczędzanie dla samorządowCUW

Dotychczasowe doświadczenia polskiej administracji w dziedzinie centrów usług wspólnych, jak również potrzeba przeglądu perspektyw dla nich na tle ustawy z 25 czerwca 2015 r., zaowocowała cyklem konferencji na temat CUW, które z inicjatywy firmy Evention i redakcji portalu Enterprise Software Review odbyły się w październiku 2015 r. Pokłosiem spotkań w Warszawie, Poznaniu i Katowicach, w których uczestniczyło łącznie prawie 200 osób zarządzających samorządami na wysokim i najwyższym szczeblu, jest bardzo długa lista pomysłów i opinii. Poniżej prezentujemy najciekawsze z nich. Mamy pełną świadomość, że nie wyczerpują one tego bezkresnego tematu, dlatego już teraz zapraszamy na kolejny cykl konferencji, które w kwietniu 2016 r. odbędą się w Warszawie, Rzeszowie, Wrocławiu i Toruniu.

Ryzyko szyte na miarę

Ryzyko szyte na miarę

Jeszcze przed chwilą wydawało się, że głównym wyzwaniem dla banków jest personalizacja ofert. Teraz staje się jasne, że to dopiero początek poważniejszej zmiany. Dylemat nie polega dziś wyłącznie na tym, jaki produkt zaoferować klientowi. Równie ważne jest to, na jakich warunkach należy go zaoferować, aby zarobić, a przynajmniej nie stracić. Postępująca personalizacja sprawia, że istniejące instrumentarium systemowe służące do analizy i wyceny ryzyka staje się nieefektywne, a niekiedy wręcz samo tworzy dodatkowe ryzyko operacyjne. Jego przebudowa jest konieczna, alternatywą jest bowiem wzrost kosztów i utrata konkurencyjności, w szczególności w przypadku mniejszych banków.

Otwarta kopia, nareszcie w jednym kawałku

SEP

Użytkownicy platform i systemów open source od zawsze narzekali na problemy z backupem. Producenci komercyjnych rozwiązań backupowych nie spieszyli się jednak z oferowaniem agentów do wykonywania w trybie online kopii zapasowych systemów Linux oraz tego wszystkiego, co działało w ich środowisku. Z kolei rynek narzędzi open source był rozdrobniony, nie umożliwiając wdrożenia jednego systemu obsługującego jednocześnie szeroki wachlarz systemów źródłowych. Ten impas przełamała dopiero niemiecka firma SEP. Rozwijając systematycznie swój produkt SEP sesame nie tylko objęła nim większość istotnych systemów open source, ale także platformy i systemy komercyjne. Tak oto, producentom komercyjnych narzędzi backupowych wyrósł silny konkurent, poruszający się zwinnie zarówno w obcym im świecie open source, jak i w świecie komercyjnych systemów operacyjnych, serwerów pocztowych i bazodanowych oraz systemów plików.

Pomost nad rzeką zmian

Pomost nad rzeką zmian

Zarządzanie zmianami, szczególnie na poziomie strategicznym, zawsze było dziedziną trudną, kosztowną i obarczoną dużym ryzykiem. Wraz z postępującą informatyzacją działalności przedsiębiorstw wszelkie zmiany w biznesie wymagają dodatkowo także zmian w środowisku informatycznym. Okoliczności są tym trudniejsze, że dotychczasowy dorobek w dziedzinie narzędzi do zarządzania zmianami jest tylko częściowo kompletny. Istnieją narzędzia do zarządzania architekturą korporacyjną, dedykowane narzędzia do zarządzania portfelami projektów, platformy do modelowania i automatyzacji procesów, a także systemy do zarządzania zasobami informatyki i ich konfiguracją. Każde z tych narzędzi wspiera zmiany w pewnym zakresie, warstwie i ujęciu. Żadne z nich, użyte samodzielnie, nie zapewnia możliwości modelowania całości zagadnień związanych ze zmianą, w szczególności zaś nie umożliwia analizy wzajemnego oddziaływania na siebie zmian w poszczególnych warstwach. Modelowanie i ocena potencjalnych zmian – w celu optymalizacji ich łącznych efektów – jest nowym, interesującym obszarem dla narzędzi informatycznych wspomagających zarządzanie organizacjami. Narzędzia integrujące informacje i funkcjonalności z różnych dziedzin są już dostępne, a jednym z nich jest oferowany przez Software AG system Alfabet.

Baza na twardo, czyli jak „konsumować” Oracle

Baza na twardo, czyli jak „konsumować” Oracle

Koszty oprogramowania Oracle spędzają sen z oczu wielu dyrektorom departamentów informatyki w Polsce. Poziomy cenowe ustalane przez strategów sprzedaży Oracle nie uwzględniają specyfiki biznesu w krajach słabiej rozwiniętych. Innymi słowy: nie jest tanio, a wręcz przerażająco drogo. Wystarczy wspomnieć, że katalogowy koszt jednej licencji bazy danych Oracle Enterprise Edition to 47 500 dolarów, do czego należy doliczyć koszty wsparcia w wysokości 10 450 dolarów rocznie. Jedna licencja Oracle opiewa tylko na jeden rdzeń procesorów POWER lub dwa rdzenie procesorów Xeon lub SPARC. Ile tych licencji trzeba ostatecznie zakupić? W przypadku maszyn fizycznych odpowiedź jest prosta: tyle, ile wynosi liczba rdzeni zainstalowanych w serwerze pomnożona przez odpowiedni współczynnik zależny od rodzaju procesora (tzw. core-factor). Koszty nie są może niskie, ale w miarę przewidywalne. W przypadku maszyn wirtualnych prostota znika, a w jej miejsce pojawia się labirynt warunków licencyjnych pełen potencjalnie kosztownych pułapek.

Dane dobrze wyciśnięte

Cytryna

Deduplikacja staje się stałym elementem procesów zarządzania danymi. Pozwala ograniczyć ilość danych fizycznie przechowywanych w pamięciach masowych, skraca proces wykonywania kopii zapasowych, pozwala ograniczyć pasmo w sieciach łączących ośrodek główny i zapasowy, obniża wydatki inwestycyjne na infrastrukturę i zmniejsza koszty utrzymania środowisk. Rozwiązania służące do deduplikacji różnią się między sobą nie tylko efektywnością kompresji, ale także długą listą innych parametrów istotnych z perspektywy codziennego wykorzystania. Warto przyjrzeć się im, a najlepiej przetestować je w warunkach możliwie bliskich rzeczywistym. Kupując rozwiązanie firma wiąże się z nim na 3 do 5 lat i na ten czas zawierza mu swoje najważniejsze dane. Czas i środki poświęcone na testy zwykle zwracają się wielokrotnie poprzez uniknięcie zakupu rozwiązania zbyt drogiego lub nieoptymalnego z punktu widzenia celu deduplikacji.

Ochroniarz z żyłką do biznesu pilnie potrzebny

Ochroniarz z żyłką do biznesu pilnie potrzebny

Stosowane dotychczas przez banki metody zapobiegania nadużyciom w dziedzinie transakcji przestają być skuteczne. Atakujący nie tylko zwiększyli intensywność prób nadużyć, ale podnieśli ich jakość. Dowodem tego są poczynania wykrytej niedawno międzynarodowej grupy przestępczej, której udało się oszukać ponad 100 banków w 30 krajach na łączną kwotę sięgającą miliarda dolarów. Jeśli zdeterminowanym przestępcom niestraszne są nowoczesne systemy zabezpieczeń i kompetentne zespoły specjalistów, pomocy należy szukać nie w technologii, lecz w regułach biznesowych oraz modelach analitycznych operujących na systematycznie gromadzonych danych o klientach, transakcjach, pracownikach, uprawnieniach, profilach ryzyka itd. Metody tego rodzaju sprawdziły się już w przypadku monitorowania transakcji pod kątem prania brudnych pieniędzy, nadużyć wewnętrznych i kredytowych. Mamy doświadczenia dowodzące, że analogiczne metody sprawdzają się także w przypadku zapobiegania nadużyciom w obszarze transakcji elektronicznych, w tym webowych.