Analityka

Inteligentny ład w danych

W dobie cyfrowej transformacji dane zaczynają przenikać wszystkie aspekty życia – prywatnego i biznesowego. Dla ludzi odpowiedzialnych za analitykę oraz BI oznacza to ogromne wyzwania, ale i niespotykane wcześniej szanse. Coraz więcej przedsiębiorstw rozumie, dlaczego dane powinny być traktowane jako zasób tworzący wartość, a CDO jest coraz częściej uważany za partnera w biznesie. Musi on skutecznie wspierać realizację strategii biznesowej, zapewniać jakość i ład w danych, promować wysoką kulturę zarządzania informacją. Jak to zrobić, opierając się na najlepszych praktykach, wiedzy i doświadczeniach liderów dyskutowano podczas piątej konferencji „Chief Data Officer Forum”.

Wpływ digitalizacji na różne obszary wykorzystania danych jest dzisiaj niepodważalny. Współczesne cyfrowe przedsiębiorstwa przechowują dane i uruchamiają aplikacje w środowisku hybrydowym – większość nadal we własnej serwerowni, ale też coraz częściej z zastosowaniem chmury. Cyfryzacja oddziałuje na zachowania klientów, pracowników i dostawców. Wszyscy oni korzystają z urządzeń mobilnych. Kanały cyfrowe są obecnie kluczowe w kontaktach z klientami. Aplikacje muszą być dostępne na urządzeniach mobilnych i „znać” preferencje ich użytkowników. Całości cyfrowego środowiska dopełniają miliardy inteligentnych urządzeń, które monitorują różne aspekty biznesu.

„Wyzwań, jakie powstają w wyniku oddziaływania cyfrowego świata na biznes, nie można ignorować. Trzeba się z nimi zmierzyć, żeby możliwe było zwiększanie zwinności działania firmy i tworzenie nowej wartości dla organizacji” – mówił Mike Ferguson, dyrektor zarządzający w Intelligent Business Strategies, podczas wystąpienia otwierającego „CDO Forum 2018”. „Lojalność jest coraz tańsza, dlatego potrzebujemy coraz więcej danych, żeby rozumieć klientów i zwiększać swoje szanse na ich zatrzymanie. Pogłębianie wiedzy w celu lepszego zrozumienia klientów to warunek sukcesu na konkurencyjnym rynku. Do tego niezbędna jest integracja i analiza danych” – tłumaczył Mike Ferguson.

Jednym z kluczowych wyzwań cyfryzacji jest rosnąca liczba źródeł danych. Mamy dane: maszynowe rozumiane jako clickstream lub logi, strukturalne, niestrukturalne, częściowo ustrukturyzowane, webowe, otwarte dane rządowe, dane pogodowe, transakcyjne i wiele, wiele innych. Przy tym mamy różne obciążenia analityczne i w konsekwencji różne narzędzia, które tworzą ekosystem analityczny organizacji. Wszystko to wymaga od IT bliskiej współpracy z biznesem. W przeciwnym razie bardzo szybko IT może stać się wąskim gardłem w firmie.

„Obecnie mamy do czynienia ze złożonymi ekosystemami składającymi się z wielu repozytoriów danych zoptymalizowanych do różnych obciążeń analitycznych. To sprawia, że zarządzanie nimi jest skomplikowane – istnieją silosy, koszty są zbyt wysokie, a dostęp do danych dla potencjalnych użytkowników utrudniony i wymaga integracji” – mówił Mike Ferguson.

Jego zdaniem, zasadnicze pytanie brzmi: czy można połączyć ład w danych ze zwinnością biznesową pozwalającą na błyskawiczne udostępnianie danych wszystkim zainteresowanym przedstawicielom biznesu? „Tak, ale trzeba pokonać złożoność ekosystemu, skutecznie zarządzać danymi i skracać czas osiągania wartości biznesowej” – wyjaśniał Mike Ferguson.

Jednym z głównych wyzwań cyfryzacji jest rosnąca liczba źródeł danych.

Najważniejszym krokiem prowadzącym do sukcesu w sferze wykorzystania danych jest stworzenie wspólnego, biznesowego słownika dla zaufanych danych oraz informacji, które mają być współdzielone. Przy tym konieczne jest racjonalizowanie wykorzystania danych i technologii integracji aplikacji oraz udostępnianie w maksymalnie szerokim zakresie metadanych. Ważna jest też automatyzacja przyspieszająca i ułatwiająca wykrywanie nowych danych, katalogowanie ich oraz mapowanie do wspomnianego wcześniej wspólnego słownika. Potrzebne jest budowanie „informacyjnego łańcucha dostaw” łączącego producentów i konsumentów danych, upraszczanie dostępu i demokratyzacja danych. Wreszcie konieczne są zmiany organizacyjne, które pozwolą budować firmę posiadającą strategię bazującą na danych, dzięki czemu tworzona będzie nowa wartość biznesowa.

„Wspólny słownik, katalog informacyjny, logiczne data lake – zwirtualizowany zbiór danych, pozwalający na samoobsługowe przygotowanie danych oraz wykorzystanie prostych w użyciu usług przyspieszających osiągnięcie wartości – wszystko to są dziś elementy niezbędne do odniesienia sukcesu w obszarze danych” – podsumowywał Mike Ferguson.

Najważniejszym krokiem prowadzącym do sukcesu w sferze wykorzystania danych jest stworzenie wspólnego, biznesowego słownika dla zaufanych danych oraz informacji, które mają być współdzielone. Przy tym konieczne jest racjonalizowanie wykorzystania danych i technologii integracji aplikacji oraz udostępnianie w maksymalnie szerokim zakresie metadanych.

Perspektywy dostawców i użytkowników

O praktycznych aspektach „inteligentnego zarządzania danymi” oraz o tym, jak godzić świat zarządzania Big Data z tradycyjnym światem BI i hurtowni danych, mówił Dariusz Flisiak, Business Intelligence & Data Warehouse Director w Credit Suisse. Jego zdaniem, zachodząca wokół nas rewolucja cyfrowa nie sprawiła, że mamy do czynienia z nowym zestawem danych. Nowe źródła stanowią jedynie uzupełnienie zestawu, który istniał już wcześniej. Na przykład w bankowości w dalszym ciągu główną rolę odgrywają zbiory, które były wykorzystywane wcześniej.

„W biznesie istnieje bardzo silna pokusa, żeby budować własne silosy informacyjne. Trzeba na to zwrócić baczną uwagę, ponieważ może okazać się, że zamiast korzyści powstaje chaos i pojawiają się większe koszty. Hurtownie danych nadal zawierają gros informacji o dużych korporacjach. Nie można jednak ignorować współczesnych trendów i dlatego warto tworzyć wirtualne ‘jeziora danych’ (data lake), wspólne słowniki oraz zapewniać ład w danych, opierając się na tych samych zasadach co dotychczas. Pojedyncze inicjatywy trzeba od razu włączać w cały ekosystem, wykorzystując mechanizmy zarządzania danymi, żeby później uniknąć kłopotów” – przekonywał Dariusz Flisiak.

Dodawał przy tym, że trzeba odpowiedzieć sobie na pytanie, czy źródła danych należy tylko łączyć, czy również modernizować. W dużych korporacjach nadal wykorzystuje się technologie zaprojektowane w latach 70. Ich wirtualizowanie nie ma sensu. Konieczna jest inteligentna modernizacja bazująca na dojrzałym podejściu do zarządzania danymi.

Rewolucja cyfrowa nie sprawiła, że mamy do czynienia z nowym zestawem danych. Nowe źródła stanowią jedynie uzupełnienie dla zestawu, który istniał już wcześniej. Nie można jednak ignorować współczesnych trendów i dlatego warto tworzyć wirtualne „jeziora danych” (data lake), wspólne słowniki. Zapewniać ład w danych trzeba jednak na bazie tych samych zasad co dotychczas.

Ciekawego kontekstu dla tej dyskusji dostarczyło wystąpienie Piotra Borowika, Senior Systems Engineera w SAS, który mówił o nowoczesnych narzędziach i technologiach pozwalających na samodzielne przygotowanie danych do analizy. „Demokratyzacja to obecnie istotny trend w obszarze BI. Głównym wyzwaniem jest tu przygotowanie danych. Zgodnie z zasadą Pareto na samo analizowanie danych poświęca się zaledwie 20% czasu, reszta to przygotowanie danych: dostęp, eksploracja, czyszczenie i transformacja. Narzędzia do tradycyjnego zarządzania danymi oraz ich integracji są przeznaczone dla zaawansowanych technicznie użytkowników. Dlatego w ofercie SAS uzupełniają je narzędzia do przygotowania danych ad hoc, przeznaczone dla użytkowników biznesowych i data scientists. Pozwalają one na samoobsługę procesów data wrangling oraz data blending. Umożliwiają przygotowanie danych w czasie liczonym w minutach, a nie dniach, tygodniach czy nawet miesiącach” – mówił Piotr Borowik.

Z kolei Andrzej Osiński, Country Manager w Bisnode Polska, opowiadał o „sztuce integracji danych” w obszarze customer intelligence. „Naszym celem jest łączenie wszystkich zbiorów w jeden, pozwalający na łatwe użycie danych. W efekcie pomagamy lepiej zrozumieć osobę lub firmę, która przychodzi do naszej organizacji. Dzięki temu maksymalizujemy zyski z procesów sprzedażowych i upsellowych, ewentualnie lepiej potrafimy pożegnać się z klientem, co jest bardzo ważne w sytuacji, gdyby chciał on do nas kiedyś wrócić” – przekonywał Andrzej Osiński. Podkreślał, że jakość danych ma ogromny wpływ na podejmowane decyzje. „Dlatego zachęcamy wszystkich do benchmarkowania danych z plikiem referencyjnym. W ten sposób jesteśmy w stanie pokazać wartość łączenia danych wewnętrznych i zewnętrznych” – mówił Andrzej Osiński.

O skomplikowanych wyborach i drodze, jaka została przebyta w zakresie podejścia do danych, mówił Tomasz Burzyński, Business Insights Director w Orange Polska. Na przykładzie tej firmy dobrze widać, jak odbywa się i czym jest uwarunkowana ewolucja wielkiej organizacji w podążaniu przez „morze danych”. Tomasz Burzyński opowiadał, dlaczego zdecydowano o odejściu od zamkniętych, dedykowanych środowisk w stronę budowy ekosystemu w dużej części opartego na rozwiązaniach open source. Mówił, kto jest i kto powinien być liderem zmian wobec nierozerwalnego splotu technologii i otoczenia biznesowego. Wskazywał też na konieczność zmian w podejściu do BI i analityki biznesowej na początku drogi do Big Data i zaawansowanej analizy danych.

Demokratyzacja to obecnie istotny trend w obszarze BI. Głównym wyzwaniem jest tu przygotowanie danych. Zgodnie z zasadą Pareto na samo analizowanie danych poświęca się zaledwie 20% czasu, reszta to przygotowanie danych – dostęp, eksploracja, czyszczenie i transformacja.

Dane w kontekście

RODO, które niedawno zaczęło obowiązywać, dostarczyło bardzo ciekawego kontekstu dla zarządzania danymi. O tym, jak bardzo zmieniły się warunki działania dla firm i profesjonalistów od danych, co robić, by nie rezygnować z postępu i innowacji w zakresie wykorzystania danych w biznesie, opowiadał mecenas Marcin Maruta, Senior Partner w Kancelarii Maruta Wachta.

„Witamy w świecie regulacji. Dla niektórych branż, takich jak bankowość czy telekomunikacja, to nie nowość, ale dla pozostałych to poważne wyzwanie. Czego nauczyliśmy się do tej pory? Przede wszystkim tego, że konieczna jest automatyzacja w zakresie obsługi zgłoszeń. To znacznie trudniejsze, niż się wydaje – jest bardzo mało czasu i potrzeba do tego całego sztabu ludzi. Jedyne rozwiązanie to regularne ćwiczenia. Po drugie, że zarządzanie danymi jest niezbędne, żeby wiedzieć, co się stało – dlaczego i z jakich baz dane wyciekły” – mówił Marcin Maruta.

Przygotowania do RODO i pierwsze tygodnie jego obowiązywania nauczyły nas również, że nie wiadomo, jakie dane organizacja posiada, gdzie one się znajdują, w jakich procesach są wykorzystywane i jak są zabezpieczone. To dotyczy nawet dużych firm. Uporządkowanie tego wszystkiego zajmuje dużo czasu, wysiłku i jest niezwykle kosztowne. Wymaga zmiany podejścia i procedur, ale niekoniecznie narzędzi. „Refleksja na dziś? Podstawowe procesy zostały opanowane, ale obszar niepewności jest olbrzymi. Obsługa incydentów stanowi duży problem – od procedur rejestracji po notyfikację. Trudność stanowi także wypracowanie standardów, zwłaszcza w obliczu braku ludzi i kolejnych zapowiadanych zmian” – podsumowywał Marcin Maruta.

Z kolei prof. Andrzej Sobczak, kierownik Zakładu Zarządzania Informatyką w Instytucie Informatyki i Gospodarki Cyfrowej w Szkole Głównej Handlowej w Warszawie, przybliżył zależności pomiędzy ładem danych oraz automatyzacją i robotyzacją. „Istnieje mocna korelacja pomiędzy tymi obszarami. Jakość danych stanowi dla wszystkich poważne wyzwanie. Po prostu nikogo nie stać na ciągłe poprawianie danych. Trzeba zapewnić ich wysoką jakość u źródła. I tutaj jest właśnie miejsce dla robotów” – przekonywał Andrzej Sobczak.

 

Przygotowania do RODO i pierwsze tygodnie jego obowiązywania nauczyły nas, że nie wiadomo, jakie dane organizacje posiadają, gdzie one się znajdują, w jakich procesach są wykorzystywane i jak są zabezpieczone. To dotyczy nawet dużych firm. Uporządkowanie tego wszystkiego zajmuje dużo czasu, wymaga wysiłku i jest niezwykle kosztowne.

Gość specjalny „CDO Forum 2018” Caroline Carruthers, Group Director of Data Management w Lowell Group, współautorka podręcznika dla CDO, opowiadała o roli oraz zadaniach Chief Data Officera we współczesnych organizacjach. Tłumaczyła m.in., dlaczego CDO dzisiaj tak trudno wejść do grona menedżerów C-level, ale jednocześnie dlaczego organizacje tak bardzo potrzebują CDO. Jej zdaniem kluczowe znaczenie ma pierwsze 100 dni na tym stanowisku. Należy poszukiwać sprzymierzeńców w organizacji i angażować ich w promowanie odpowiedniego podejścia do danych.

Nie jest jednak łatwo o dobrych specjalistów od zarządzania danymi. Na rynku są odczuwalne braki kadrowe w tym zakresie. Grzegorz Klima, Head of Model Validation (Credit Risk/CVaR, OpRisk & inter-risk Aggregation) w polskim oddziale Commerzbank AG, przedstawił wyzwania i specyfikę rekrutowania ludzi oraz budowania zespołu Advanced Analytics/Big Data i zarządzania nim.

„Rekrutujemy, ale jak to robić dobrze? Przede wszystkim trzeba określić zestaw kluczowych kompetencji, które chcemy pozyskać, oraz interesujący nas stos technologiczny. Ważne, żeby nie przykładać zbyt dużej wagi do umiejętności miękkich ani historii zawodowej tego typu specjalistów. Należy natomiast zwrócić uwagę na solidne wykształcenie – dwuletnie studia podyplomowe z Data Science to dobry biznes dla uczelni, ale tylko tyle” tłumaczył Grzegorz Klima. Dodawał także, że warto pytać kandydatów o karierę akademicką, np. o temat pracy magisterskiej, co pozwoli ocenić faktyczne doświadczenie w tym obszarze, a także umiejętność mówienia o kwestiach technicznych w sposób przyjazny dla biznesu. Dobrym pomysłem w przypadku tzw. juniorów jest wprowadzenie testów kompetencyjnych. W przypadku menedżerów lepiej sprawdza się przygotowanie zadania do rozwiązania.

Kontekstu dla wystąpienia Grzegorza Klimy dostarczył prof. Przemysław Biecek z Wydziału Matematyki i Nauk Informacyjnych na Politechnice Warszawskiej. „Nowo utworzony kierunek studiów ‘Inżynieria i analiza danych’ był najbardziej obleganym kierunkiem studiów w Polsce. O jedno miejsce walczyło 66 osób. To pokazuje, że zainteresowanie jest ogromne” – mówił Przemysław Biecek. W jego opinii potencjał 15-latków jest olbrzymi. Problem polega na tym, że brakuje im czasu, żeby się rozwijać. Biznes za wcześniej wyciąga młodych ludzi z uczelni. Dobrym rozwiązaniem jest współpraca pomiędzy uczelniami i biznesem.

Jakość danych stanowi dla wszystkich poważne wyzwanie. Po prostu nikogo nie stać na ciągłe poprawianie danych. Trzeba zapewnić ich wysoką jakość u źródła. I tutaj jest miejsce dla robotów.


Polska DAMA

O możliwościach rozwoju zawodowego dla profesjonalistów zajmujących się danymi, jakie oferuje organizacja non profit DAMA, opowiadał podczas „CDO Forum 2018” Jarosław Chrupek, Global Head of Data Management w British American Tobacco.

DAMA daje możliwości pogłębiania wiedzy, a także certyfikacji potwierdzającej posiadanie specjalistycznych umiejętności w zakresie zarządzania danymi. Od ubiegłego roku trwały prace nad stworzeniem polskiego oddziału DAMA International. Niedawno odbyło się spotkanie założycielskie, powstał statut stowarzyszenia, został wybrany zarząd i komisja rewizyjna. Wszystkie niezbędne dokumenty zostały złożone do sądu, który zarejestruje stowarzyszenie. „Wkrótce zaczniemy szeroko propagować istnienie DAMA Polska i zachęcać do uczestnictwa w jej działalności” – zapowiadał Jarosław Chrupek.