Lubelska masa krytyczna

Grzegorz Hunicz, dyrektor Wydziału Informatyki i Telekomunikacji w Urzędzie Miasta Lublin

Rozmowa z Grzegorzem Huniczem, dyrektorem Wydziału Informatyki i Telekomunikacji w Urzędzie Miasta Lublin. Rozmawiamy o tym jak koordynacja inwestycji i dbanie o interoperacyjność wpływa na efekty inwestycji miejskich w sieci i usługi informatyczne, jak godzić interesy publiczne z interesami operatorów prywatnych, o potencjalnych korzyściach z centralizacji zarządzania sieciami, komputerami i aplikacjami we wszystkich jednostkach podległych samorządowi, a także o roli miejskich wydziałów informatyki i telekomunikacji jako centrów usług wspólnych – nie tylko w obszarach stricte informatycznych.

Chmurowe bóle i dylematy a sprawa polska

Chmurowe bóle i dylematy a sprawa polska

Podobno od chmury nie ma już odwrotu, ale my, Polacy, ewidentnie mamy z nią problem. Sądzimy, że mieć na własność jest lepiej, niż wynajmować, że o solidność i bezpieczeństwo sami potrafimy zatroszczyć się najlepiej… Uważamy ponadto, że jesteśmy unikalni, często nie chcąc zauważyć, że te nasze przekonania nie mają racjonalnego uzasadnienia i są kosztowne. W życiu prywatnym możemy sobie na to pozwolić. W sferze zawodowej, w której wartości wyznacza rynek i konkurencja, takie myślenie jest nie do utrzymania. W biznesie nie da się robić wszystkiego samodzielnie, a już na pewno nie po kosztach dających możliwość konkurowania. Wygrywają ci, którzy potrafią dostarczyć na rynek produkt lub usługę wystarczająco dobrą, po najniższej cenie, szybciej niż inni. Istnienie ofert chmurowych skłania do analizy modelu biznesowego i struktury kosztów po to, by móc działać sprawniej i taniej. To zmiana, dla wielu z nas trudna, ale raczej konieczna, by móc pozostać w grze.

Oracle w sosie własnym

Oracle w sosie własnym

Producenci systemów operacyjnych, serwerów, sieci i pamięci masowych przez lata prześcigali się w strojeniu przetwarzania baz danych na wszelkie możliwe sposoby. Optymalizacje odbywały się wszakże tylko w ramach poszczególnych warstw. Koordynacja pomiędzy nimi, nawet jeśli miała miejsce, wymagała od administratorów wzniesienia się ponad inżynierskie rzemiosło, czyniąc z nich prawdziwych artystów technologii. Obecnie Oracle dużymi krokami dąży do uproszczenia infrastruktury wspierającej bazy danych, by zwiększyć ich wydajność. Nigdzie nie widać tego wyraźniej, niż w obszarze pamięci masowych, i jest to jeden z powodów rosnącej popularności platform Engineered Systems. Niezależnie od nich, w Oracle 11g oraz 12c pojawiły się technologie stanowiące prawdziwą rewolucję w dziedzinie wydajności. Mowa tu m.in. o agencie Direct NFS zintegrowanym w silniku bazy danych, innowacyjnym protokole OISP, hybrydowej kompresji danych HCC i zarządzaniu nią na podstawie statystyk Heat Maps za pomocą reguł biznesowych ADO, a także funkcjach CloneDB, służących do natychmiastowego wykonywania kopii bazy przy niewielkim zapotrzebowaniu na zasoby.

Jak w zarządzaniu wiedzą przejść od słów do czynów

Jak w zarządzaniu wiedzą przejść od słów do czynów

Przychody i zyski firm w coraz większym stopniu są pochodną informacji gromadzonej w ich systemach informatycznych oraz wiedzy, którą posiadają ich pracownicy. Mimo to, informacja i wiedza nie są dziedzinami podlegającymi zarządzaniu. Choć powszechnie słychać szumne deklaracje o erze informacji, dla znakomitej większości organizacji zarządzanie informacją i wiedzą to teren zupełnie obcy, metodologicznie trudny i nieintuicyjny. Doświadczenia z projektów zagranicznych oraz realizowanych w Polsce pokazują jednak, że ten impas można – i warto – przezwyciężyć.

W kipiącym kotle, czyli technologie big data

W kipiącym kotle, czyli technologie big data

O tym, dlaczego Hadoop jest tak atrakcyjny, ciekawy, ale i niełatwy zarazem, i dlaczego specjaliści od technologii Big Data nie narzekają na brak pracy. Hadoop jest bardzo popularnym i relatywnie tanim rozwiązaniem problemu przechowywania oraz przetwarzania dużych ilości danych, z którymi obecnie nie radzą sobie tradycyjne bazy i hurtownie danych. Co ważne, Hadoop ma kilka właściwości, które lubi biznes. Po pierwsze, można tanio zacząć. Darmowa licencja oraz niewygórowane wymagania sprzętowe pozwalają na wystartowanie z małym klastrem Hadoop bez ponoszenia wysokich nakładów finansowych. Ponieważ mamy pełną skalowalność, na każdym późniejszym etapie można stosunkowo łatwo zwiększyć pojemność i moc obliczeniową klastra Hadoop przez dodanie kolejnych serwerów.

UMED w Łodzi: eksperymentalna kuracja procesami

Uniwersytet Medyczny w Łodzi: eksperymentalna kuracja procesami

Rozmowa z Piotrem Jagiełło, kierownikiem programu BPM w Biurze Nauki, Strategii i Rozwoju Uniwersytetu Medycznego w Łodzi. Rozmawiamy m.in. o tym, gdzie leżą wyzwania dla transformacji procesowej w szkolnictwie wyższym, jak wygląda budowa długofalowego programu BPM w dużej organizacji, jak prowadzić taki program w warunkach braku wzorców, nie tylko w Polsce, ale w Europie, na czym taki program polega w praktyce, jakie założenia warto przyjąć przystępując do takiego przedsięwzięcia.

Z lornetką nad brzegiem SAN-u

Z lornetką nad brzegiem SAN-u

Postępująca konsolidacja sprawia, że od poprawnego działania sieci SAN coraz częściej zależy dostępność całego firmowego środowiska aplikacyjnego. W związku z tym, pojawiła się silna potrzeba automatyzacji zarządzania i zaawansowanej diagnostyki sieci SAN, której dotychczasowe narzędzia nie zapewniają. Oprogramowanie Brocade Fabric Vision to bardzo ambitna próba całościowego zaspokojenia potrzeb administratorów sieci SAN w tej dziedzinie. Obejmuje narzędzia m.in. do testowania i diagnozowania warstwy fizycznej i sygnału optycznego, narzędzia do monitorowania warstwy połączeń, a także do analizy strumieni danych poszczególnych aplikacji korzystających z sieci SAN.

Zapora odporna na mody i rewolucje

Zapora odporna na mody i rewolucje

Wbrew marketingowym pozorom, zapory sieciowe nie rozwijają się generacjami, ani nie przechodzą wielkich rewolucji. Z perspektywy technologicznej ich rozwój to systematyczny postęp, dokonujący się większymi lub mniejszymi krokami. Spośród pojawiających się okresowo trendów, tylko nieliczne zyskują aprobatę klientów i wsparcie wiodących producentów. I lepiej, żeby tak zostało.

Dobre perspektywy dla optymalizacji aplikacji

Dobre perspektywy dla optymalizacji aplikacji

Niezawodność i wydajność środowisk aplikacyjnych można osiągać na wiele sposobów. W krótkiej perspektywie zwykle wystarczy rekonfiguracja. W średniej trzeba trzeźwo ocenić architekturę i nie bronić się przed jej poważniejszą optymalizacją. W dłuższej perspektywie opłaca się wykorzystywać dorobek świata open source oraz nowatorskie platformy bazodanowe i serwerowe, zoptymalizowane pod kątem konkretnych typów przetwarzania i scenariuszy skalowania.