Etykieta: Big data

W kipiącym kotle, czyli technologie big data

W kipiącym kotle, czyli technologie big data

O tym, dlaczego Hadoop jest tak atrakcyjny, ciekawy, ale i niełatwy zarazem, i dlaczego specjaliści od technologii Big Data nie narzekają na brak pracy. Hadoop jest bardzo popularnym i relatywnie tanim rozwiązaniem problemu przechowywania oraz przetwarzania dużych ilości danych, z którymi obecnie nie radzą sobie tradycyjne bazy i hurtownie danych. Co ważne, Hadoop ma kilka właściwości, które lubi biznes. Po pierwsze, można tanio zacząć. Darmowa licencja oraz niewygórowane wymagania sprzętowe pozwalają na wystartowanie z małym klastrem Hadoop bez ponoszenia wysokich nakładów finansowych. Ponieważ mamy pełną skalowalność, na każdym późniejszym etapie można stosunkowo łatwo zwiększyć pojemność i moc obliczeniową klastra Hadoop przez dodanie kolejnych serwerów.

Dobre perspektywy dla optymalizacji aplikacji

Dobre perspektywy dla optymalizacji aplikacji

Niezawodność i wydajność środowisk aplikacyjnych można osiągać na wiele sposobów. W krótkiej perspektywie zwykle wystarczy rekonfiguracja. W średniej trzeba trzeźwo ocenić architekturę i nie bronić się przed jej poważniejszą optymalizacją. W dłuższej perspektywie opłaca się wykorzystywać dorobek świata open source oraz nowatorskie platformy bazodanowe i serwerowe, zoptymalizowane pod kątem konkretnych typów przetwarzania i scenariuszy skalowania.

Bankowa wycieczka do automatu, i z powrotem

Rozmowa z Andrzejem Lechowiczem, Głównym Specjalistą ds. Analiz i Wdrożeń w SK banku, największym banku spółdzielczym w Polsce. Rozmawiamy o bankowych inwestycjach w informatykę, strategiach rozwoju banków i ich konsekwencjach dla jakości obsługi i utrzymania klientów, a także o analizach na potrzeby budowania oferty i sprzedaży.