Tag: Infrastruktura

Infrastruktura pod cyberostrzałem

Dotychczasowe ataki cybernetyczne na infrastrukturę krytyczną na Ukrainie mogą stanowić przygotowania do większego ataku, którego konsekwencje mogą być katastrofalne – mówi Oleksandr Sukhodolia, szef departamentu odpowiedzialnego m.in. za bezpieczeństwo energetyczne w ukraińskim Narodowym Instytucie Studiów Strategicznych.

O krok przed wyzwaniami

Patrzymy holistycznie na cały cykl życia oprogramowania, ale ze szczególnym uwzględnieniem środków konstrukcyjnych, które gwarantują, że bezpieczeństwo zostanie wbudowane w tworzone rozwiązania już na etapie projektowania, a także będzie brane pod uwagę w trakcie fazy integracji i konfiguracji – mówi prof. dr Joern Eichler, szef departamentu Secure Software Engineering we Fraunhofer Institute for Applied and Integrated Security (Fraunhofer AISEC).

Czy hakerzy już szturmują fabryki?

„A więc wojna!”– tak brzmiał komunikat w Polskim Radiu czytany pierwszego dnia światowego konfliktu w 1939 roku. To samo zdanie usłyszeliśmy podczas tegorocznej konferencji InfraSEC w kontekście zagrożenia cyberatakami polskiego przemysłu. Z każdym rokiem liczba zagrożeń i czynnych włamań do systemów rośnie, a pojęcie „wojny cyfrowej” nabiera rzeczywistego, złowieszczego znaczenia. Bezpieczeństwo przemysłowych systemów sterowania przez lata nie znajdowało się w centrum uwagi. Dopiero wydarzenia ostatnich kilku lat pokazały, że zagrożenia są realne i poważne. To oznacza, że infrastruktura podmiotów kluczowych dla polskiej gospodarki z branży energetyki, paliw i gazu oraz firm przemysłowych także może być celem ataku i musi zostać objęta odpowiednią ochroną.

Miękkie zmiany w świeżej pamięci

Rozmowa z Moniką Zakrzewską, inżynierem systemowym pamięci masowych. Dyskutujemy o zmianach zachodzących w wewnętrznej architekturze pamięci masowych, a w szczególności w warstwie oprogramowania. Rozmawiamy o konsekwencjach tych zmian dla wydajności, skalowania i dostępności usług składowania danych, dla ich bezpieczeństwa, a także dla biznesu klientów i ich budżetów IT.

Otwarta kopia, nareszcie w jednym kawałku

SEP

Użytkownicy platform i systemów open source od zawsze narzekali na problemy z backupem. Producenci komercyjnych rozwiązań backupowych nie spieszyli się jednak z oferowaniem agentów do wykonywania w trybie online kopii zapasowych systemów Linux oraz tego wszystkiego, co działało w ich środowisku. Z kolei rynek narzędzi open source był rozdrobniony, nie umożliwiając wdrożenia jednego systemu obsługującego jednocześnie szeroki wachlarz systemów źródłowych. Ten impas przełamała dopiero niemiecka firma SEP. Rozwijając systematycznie swój produkt SEP sesame nie tylko objęła nim większość istotnych systemów open source, ale także platformy i systemy komercyjne. Tak oto, producentom komercyjnych narzędzi backupowych wyrósł silny konkurent, poruszający się zwinnie zarówno w obcym im świecie open source, jak i w świecie komercyjnych systemów operacyjnych, serwerów pocztowych i bazodanowych oraz systemów plików.

Baza na twardo, czyli jak „konsumować” Oracle

Baza na twardo, czyli jak „konsumować” Oracle

Koszty oprogramowania Oracle spędzają sen z oczu wielu dyrektorom departamentów informatyki w Polsce. Poziomy cenowe ustalane przez strategów sprzedaży Oracle nie uwzględniają specyfiki biznesu w krajach słabiej rozwiniętych. Innymi słowy: nie jest tanio, a wręcz przerażająco drogo. Wystarczy wspomnieć, że katalogowy koszt jednej licencji bazy danych Oracle Enterprise Edition to 47 500 dolarów, do czego należy doliczyć koszty wsparcia w wysokości 10 450 dolarów rocznie. Jedna licencja Oracle opiewa tylko na jeden rdzeń procesorów POWER lub dwa rdzenie procesorów Xeon lub SPARC. Ile tych licencji trzeba ostatecznie zakupić? W przypadku maszyn fizycznych odpowiedź jest prosta: tyle, ile wynosi liczba rdzeni zainstalowanych w serwerze pomnożona przez odpowiedni współczynnik zależny od rodzaju procesora (tzw. core-factor). Koszty nie są może niskie, ale w miarę przewidywalne. W przypadku maszyn wirtualnych prostota znika, a w jej miejsce pojawia się labirynt warunków licencyjnych pełen potencjalnie kosztownych pułapek.

Dane dobrze wyciśnięte

Cytryna

Deduplikacja staje się stałym elementem procesów zarządzania danymi. Pozwala ograniczyć ilość danych fizycznie przechowywanych w pamięciach masowych, skraca proces wykonywania kopii zapasowych, pozwala ograniczyć pasmo w sieciach łączących ośrodek główny i zapasowy, obniża wydatki inwestycyjne na infrastrukturę i zmniejsza koszty utrzymania środowisk. Rozwiązania służące do deduplikacji różnią się między sobą nie tylko efektywnością kompresji, ale także długą listą innych parametrów istotnych z perspektywy codziennego wykorzystania. Warto przyjrzeć się im, a najlepiej przetestować je w warunkach możliwie bliskich rzeczywistym. Kupując rozwiązanie firma wiąże się z nim na 3 do 5 lat i na ten czas zawierza mu swoje najważniejsze dane. Czas i środki poświęcone na testy zwykle zwracają się wielokrotnie poprzez uniknięcie zakupu rozwiązania zbyt drogiego lub nieoptymalnego z punktu widzenia celu deduplikacji.

Decyzja o migracji TSM: rozważna, czy romantyczna?

Decyzja o migracji TSM: rozważna, czy romantyczna?

Co najmniej kilka setek dużych podmiotów w Polsce wciąż korzysta ze starych wersji Tivoli Storage Manager, flagowego systemu backupowego IBM. Klienci trwają przy nich pomimo tego, że dawno już utraciły wsparcie techniczne producenta. Powód jest prosty: w dziedzinie ochrony danych stare znaczy sprawdzone, niezawodne. Istnieje jednak cały szereg innych powodów, dla których korzyści z trwania przy starszych wersjach schodzą na dalszy plan. Najważniejszy z nich to ten, że systemy backupu przestały już być wyspami funkcjonującymi w odrębnej czasoprzestrzeni techniczno-inżynierskiej, stając się elementem procesów biznesowych. To nie systemy backupowe mają być niezawodne, jeśli można tak powiedzieć, a przede wszystkim procesy, które systemy te zabezpieczają. Nowe wersje TSM adresują te potrzeby w sposób, który dla poprzednich wersji jest nieosiągalny, umożliwiając także redukcję kosztów operacyjnych w obszarze backupu, oraz w kilku innych obszarach IT. Niezależnie od tego, ochrona danych i ciągłość procesów jest obecnie przedmiotem żywego zainteresowania regulatorów branżowych, co nadaje sprawie migracji starszych wersji TSM zupełnie nowego wymiaru.

SDN w zderzeniu z rzeczywistością

SDN w zderzeniu z rzeczywistością

Rozmowa z Brianem Levy, europejskim dyrektorem ds. technologii w Brocade Communications. Rozmawiamy o przyszłości architektury sprzętu i oprogramowania sieciowego, oczekiwaniach klientów związanych m.in. z wirtualizacją oraz różnych scenariuszach wykorzystania rozwiązań opartych na koncepcji Software-Defined Networking oraz Network Functions Virtualization. Dyskutujemy także na temat kierunków rozwoju architektur aplikacyjnych w związku z upowszechnienia się trendów SDN i NFV.

Pomysły na backup Anno Domini 2015

Pomysły na backup Anno Domini 2015

To, czym backup jest, a czym nie, jak jest wykonywany oraz czemu ostatecznie służy, nieustannie się zmienia. Dzieje się tak przede wszystkim dlatego, że backup musi stale nadążać za zmianami w innych obszarach – skalą biznesu, architekturą rozwiązań podlegających ochronie, wzrostem ilości i różnorodności danych, zmianami technologicznymi, możliwymi technikami wykonywania kopii i tak dalej. Wszystkie te zagadnienia mają bezpośredni wpływ na niezawodność i wydajność backupu, a także na związane z nim koszty. Odpowiedzi na pytania o cele, metody i architektury systemów backupowych z roku na rok wyglądają więc inaczej. Od czego zacząć, szykując się do budowy systemu backupowego w 2015 r.?