
Z profesorem Józefem Oleńskim, wykładowcą Uczelni Łazarskiego, dwukrotnym prezesem Głównego Urzędu Statystycznego, autorem książek „Ekonomika informacji” i „Infrastruktura informacyjna państwa”, rozmawia Andrzej Gontarz.
Z profesorem Józefem Oleńskim, wykładowcą Uczelni Łazarskiego, dwukrotnym prezesem Głównego Urzędu Statystycznego, autorem książek „Ekonomika informacji” i „Infrastruktura informacyjna państwa”, rozmawia Andrzej Gontarz.
O tym, dlaczego Hadoop jest tak atrakcyjny, ciekawy, ale i niełatwy zarazem, i dlaczego specjaliści od technologii Big Data nie narzekają na brak pracy. Hadoop jest bardzo popularnym i relatywnie tanim rozwiązaniem problemu przechowywania oraz przetwarzania dużych ilości danych, z którymi obecnie nie radzą sobie tradycyjne bazy i hurtownie danych. Co ważne, Hadoop ma kilka właściwości, które lubi biznes. Po pierwsze, można tanio zacząć. Darmowa licencja oraz niewygórowane wymagania sprzętowe pozwalają na wystartowanie z małym klastrem Hadoop bez ponoszenia wysokich nakładów finansowych. Ponieważ mamy pełną skalowalność, na każdym późniejszym etapie można stosunkowo łatwo zwiększyć pojemność i moc obliczeniową klastra Hadoop przez dodanie kolejnych serwerów.
Niezawodność i wydajność środowisk aplikacyjnych można osiągać na wiele sposobów. W krótkiej perspektywie zwykle wystarczy rekonfiguracja. W średniej trzeba trzeźwo ocenić architekturę i nie bronić się przed jej poważniejszą optymalizacją. W dłuższej perspektywie opłaca się wykorzystywać dorobek świata open source oraz nowatorskie platformy bazodanowe i serwerowe, zoptymalizowane pod kątem konkretnych typów przetwarzania i scenariuszy skalowania.
Rozmowa z Andrzejem Lechowiczem, Głównym Specjalistą ds. Analiz i Wdrożeń w SK banku, największym banku spółdzielczym w Polsce. Rozmawiamy o bankowych inwestycjach w informatykę, strategiach rozwoju banków i ich konsekwencjach dla jakości obsługi i utrzymania klientów, a także o analizach na potrzeby budowania oferty i sprzedaży.