Zaawansowana analiza danych i aplikacje umożliwiające wizualizację danych zmieniły obraz kontrolingu. Nowoczesne narzędzia pozwalają dzisiaj kontrolerom finansowym na błyskawiczne identyfikowanie trendów, niespodziewanych sytuacji, a zarazem umożliwiają wgląd w operacje jednocześnie na poziomie dużych liczb i w szczegółach – mówi Mariusz Walkiewicz, dyrektor w PwC, lider zespołu Business Intelligence i ekspert ds. analityki danych.
Jak narzędzia informatyczne wykorzystywane przez kontroling zmieniły się na przestrzeni ostatnich kilku czy może kilkunastu lat?
Patrząc z perspektywy kilkunastu lat, MS Excel – a przy większych ilościach danych Access – był narzędziem, które zrewolucjonizowało kontroling. Zamiast papieru i kalkulatora, bez wsparcia ze strony działu informatyki, tysiące liczb mogły być agregowane, sumowane i filtrowane zgodnie z naszymi wymaganiami. Niestety, jakość danych w systemach źródłowych często odbiegała od perfekcji, a ówczesne hurtownie danych raczej skupiały się na zbieraniu danych, a nie poprawie ich jakości. Zmuszało to analityków do wprowadzania zmian i korygowania błędów bezpośrednio w arkuszach kalkulacyjnych oraz pisania coraz bardziej skomplikowanych formuł. Efektem był bałagan i niespójność danych w organizacji – ta sama kategoria, np. nowy klient, mogła mieć dwie, a nawFet więcej interpretacji i wszystkie dało się uzasadnić.
Ponadto w plikach pojawiało się coraz więcej komentarzy, kolorów komórek, dziesiątek wersji tych samych informacji, co jeszcze bardziej utrudniało pracę z danymi. Każdy nieraz słyszał o raportach, które generują się godzinami. Każdy pewnie słyszał też o irytacji użytkowników, którym po raz kolejny Excel odmówił posłuszeństwa i pracę z całego dnia trzeba było powtórzyć. Końcowe wyniki takich analiz trafiały do Power Pointa w postaci kolorowych wykresów, jednak głębsza ich analiza wymagała przeglądania dziesiątków arkuszy z danymi źródłowymi.
Dzisiaj to się zmieniło…
Spory odsetek przedsiębiorstw wciąż tak działa. W ciągu minionych kilku lat rośnie jednak rola narzędzi do analityki wizualnej. Potocznie nazywane są dashboardami albo kokpitami menedżerskimi. Narzędzia te stają się na tyle intuicyjne, że mogą być wykorzystywane przez osoby niebędące analitykami czy informatykami. Jednym z założeń tych narzędzi jest ich samoobsługowość. Nie byłoby to jednak możliwe bez budowy centralnych repozytoriów danych w postaci korporacyjnych hurtowni danych, gdzie rzesza analityków i programistów dba o to, żeby dane z wielu źródeł były poprawne, spójne i dostępne z jednego miejsca – to tzw. jedna wersja prawdy, czyli angielskie single source of truth.
Rośnie rola narzędzi do analityki wizualnej. Potocznie nazywane są dashboardami albo kokpitami menedżerskimi. Narzędzia te stają się na tyle intuicyjne, że mogą być wykorzystywane przez osoby niebędące analitykami ani informatykami.
Jakich zmian można spodziewać się w tym kontekście w najbliższym czasie?
Tak jak kiedyś Excel zrewolucjonizował pracę kontrolingu, ale też w swojej zaawansowanej wersji wymagał znajomości tabel przestawnych, formuł tablicowych czy skryptowego języka VBA, tak teraz do działów kontrolingu trafiają nowe narzędzia analityczne. W większości są to rozwiązania klasy public domain, takie jak R czy Python, które pozwalają pójść o krok dalej i stosować mechanizmy predykcji. Tym samym w działach kontrolingu pojawiają się nowe kompetencje, związane z budowaniem modeli operujących na milionach transakcji na podstawie koncepcji uczenia maszynowego.
Równolegle, w całych organizacjach pojawia się niedosyt informacji, który powoduje, że narzędzia do analityki wizualnej można spotkać w każdym dziale. Uproszczenie sposobu korzystania z narzędzi analitycznych demokratyzuje dostęp do danych. Dostęp do analiz i raportów na urządzeniach mobilnych umożliwia błyskawiczną reakcję na zmiany zachodzące w przedsiębiorstwie. Dotyczy to zarówno szeregowych pracowników, jak i członków zarządu.
Wraz ze wzrostem liczby osób, które korzystają z danych, istotna staje się kwestia jakości danych. Powstają role właściciela danych czy opiekuna danych w ramach koncepcji Data Governance. Jest ona znana od lat, ale w przeszłości funkcjonowała bardziej ze względu na obowiązujące regulacje, np. w sektorze finansowym, niż faktyczne wymagania biznesu.
Do tego obrazka idealnie wpasowuje się jeszcze jeden trend: chmura. Coraz bardziej zaawansowane wyliczenia, predykcja, uczenie maszynowe powodują, że lokalne komputery zaczynają działać jak przeładowane danymi Excele. Z pomocą przychodzą tutaj rozwiązania chmurowe oraz wirtualizacja serwerów, gdzie zwiększenie mocy obliczeniowej jest dziecinnie proste, a jedyne, co trzeba kontrolować, to koszty.
Jakie możliwości otwierają przed kontrolingiem te nowe narzędzia analityczne?
Technologia Big Data pozwala na coraz szersze wykorzystanie danych nieustrukturyzowanych i przekształcanie ich w łatwe analizy. Przykładem jest porównanie kosztów poszczególnych kampanii marketingowych z wywołanym przez nie wzrostem sentymentu w mediach społecznościowych. Narzędzia analityczne zapewniają możliwości predykcji, co pozwala na lepsze przewidywanie zmian na rynku i u konkurencji. Techniki uczenia maszynowego zwiększają możliwości wykrywania powtarzających się wzorców, a więc przewidywania zmian trendów i korelacji zdarzeń. Wyniki ww. analiz są z kolei udostępniane w przystępnej wizualnie formie, gdzie odbiorca błyskawicznie znajduje kluczowe dla siebie informacje.
Wraz ze wzrostem liczby osób, które korzystają z danych, istotna staje się kwestia jakości danych. Powstają role właściciela danych czy opiekuna danych w ramach koncepcji Data Governance.
Czy pojawiają się również nowe wyzwania i zagrożenia?
Oczywiście, tak duży postęp związany z analityką danych, to też nowe wyzwania. Coraz większa złożoność danych źródłowych – produkty pakietowe, wysublimowane mechanizmy promocji, nieustrukturyzowane dane – zwiększy ilość i złożoność stosowanych obliczeń. Znajomość Excela już nie wystarczy. Pojawia się konieczność przyswojenia coraz bardziej zaawansowanej wiedzy z zakresu statystyki, wizualizacji i uczenia maszynowego. Pracownicy kontrolingu muszą przyglądać się postępom w tym obszarze i szybko doskonalić umiejętności w zakresie nowych metod oraz narzędzi analitycznych tak, żeby dotrzymywać kroku wymaganiom swoich organizacji.
Oczekiwanie coraz szybszych obliczeń może też wpłynąć na intensywność pracy kontrolingu i większy poziom stresu. Z drugiej strony, spadnie stres związany z opóźnieniami i możliwością popełnienia błędu przy ręcznym poprawianiu danych.
Podstawowym zagrożeniem jest oczywiście bezpieczeństwo, na które można spojrzeć w dwóch wymiarach: po pierwsze, co i komu udostępniamy wewnątrz organizacji, oraz po drugie, jak użytkownicy końcowi dbają o dane, do których mają dostęp, i ile z tych danych jest w niekontrolowany sposób dostępnych poza organizacją.
Drugim, nieoczywistym jeszcze zagrożeniem jest fakt, że nowe technologie wiążą się z niechęcią do tworzenia wyczerpującej dokumentacji systemów i narzędzi analitycznych. Syndrom zrzut z ekranu wystarczy wraz z rosnącym stopniem skomplikowania analiz może prowadzić do ponownego zmniejszenia przejrzystości sposobu uzyskiwania wyników przez kontroling.
Jakie korzyści może ostatecznie odnieść dzięki tym zmianom biznes?
Znaczne przyspieszenie raportowania oraz analiza predykcyjna umożliwią szybsze dostosowywanie się do zmian na rynku. Dzięki dashboardom widocznym na telefonach i tabletach skróci się nie tylko sam czas obliczeń, ale też czas od ich wykonania do przeanalizowania wyników przez decydentów i podjęcia stosownych decyzji biznesowych.
Wreszcie nadejdzie ten moment, kiedy marżowość produktów i skuteczność akcji promocyjnych będzie można wyliczyć na poziomie pojedynczych złotówek. Optymalizacja marżowości nie będzie oparta na górnolotnym haśle: zredukujmy koszty, lecz na wskazaniu, które konkretnie elementy zawiodły. Pozwoli to na precyzyjną ocenę skutków podjętych decyzji i wykonanie diagnozy, co zagrało, a co nie.
Tak wykorzystywana analityka, dzięki lepszym prognozom, pozwoli też na większą śmiałość w zdobywaniu nowych rynków i tworzeniu nowych produktów oraz usług. Pozwoli także na bardziej precyzyjną i przejrzystą ocenę menedżerów oraz pracowników, w tym określanie wynagrodzeń, a także premii.
Na rynku zagości znane do tej pory ze świata amerykańskiej armii pojęcie Information Superiority – przewaga dzięki posiadanym informacjom. Wygra ten biznes, który będzie lepiej potrafił zebrać i wykorzystać dane.
Wreszcie nadejdzie ten moment, kiedy marżowość produktów i skuteczność akcji promocyjnych będzie można wyliczyć na poziomie pojedynczych złotówek.
Mariusz Walkiewicz był prelegentem na konferencji „Financial Controlling Forum”. Relację można przeczytać na stronie https://e-s-r.pl/2019/12/09/controlling-coraz-wiecej-wskaznikow-coraz-wiecej-technologii/ . Ze szczegółowymi informacjami i agendą spotkania można zapoznać się na stronie https://fcforum.pl . Druga edycja „Financial Controlling Forum” odbędzie się w listopadzie 2020 r.
Kategorie: Analityka
Musisz się zalogować aby dodać komentarz.