Analityka

Na straży zaufania do danych

W dobie cyfrowej transformacji zaufanie staje się głównym czynnikiem decydującym o sukcesach i porażkach projektów biznesowych. Tymczasem zaledwie co trzeci menedżer ma bezwzględne zaufanie do informacji uzyskiwanych dzięki nowoczesnym systemom analitycznym; co czwarty wątpi w ich wiarygodność – tak wynika z raportu „Guardians of trust. Who is responsible for trusted analytics in the digital age?” przygotowanego przez KPMG International. Niestety, nie jest do końca jasne, kto i w jaki sposób może to zmienić. Niewątpliwie ważną rolę mają do odegrania menedżerowie odpowiedzialni za technologię. Budowanie zaufania do zaawansowanych modeli analitycznych zaczyna się od proaktywnego zarządzania.

Coraz więcej decyzji biznesowych podejmowanych jest na podstawie analizy danych. Coraz większy udział mają w tym algorytmy sztucznej inteligencji. Właśnie dlatego zaczyna się dyskutować kwestię odpowiedzialności za skutki złej decyzji biznesowej podjętej na podstawie dostępnych danych. Z raportu KPMG wynika, że blisko sześciu na dziesięciu respondentów uznaje, iż odpowiedzialność powinna zostać przeniesiona na dostawcę usług lub osoby odpowiedzialne za technologie w firmach.

Analogicznie w przypadku wskazania odpowiedzialnego za potencjalny wypadek spowodowany przez w pełni autonomiczny samochód 62% respondentów uznaje, że winnym kolizji jest de facto twórca oprogramowania. Na producenta auta oraz osobę będącą w samochodzie, która mogła zapobiec wypadkowi, wskazało 54% ankietowanych.

„W czasie, kiedy maszyny pracują równolegle z ludźmi, badanie wskazuje na wyraźną potrzebę proaktywnego zarządzania analityką w celu budowania zaufania. Ale kto powinien być odpowiedzialny za wiarygodność modeli analitycznych? I na czym polega dobre zarządzanie? W miarę jak organizacje przechodzą transformację cyfrową, a sztuczna inteligencja wkracza do prawie każdej branży, czy ktoś w ogóle bierze odpowiedzialność za jakość, efektywność, spójność i niezawodność danych i analityki?” – pyta dr Thomas Erwin, Global Head of KPMG Lighthouse Center of Excellence for Data & Analytics and Intelligent Automation, Partner w KPMG Germany.

Sześciu na dziesięciu respondentów uznaje, iż odpowiedzialność za skutki złej decyzji biznesowej podjętej na podstawie dostępnych danych powinna zostać przeniesiona na dostawcę usług lub osoby odpowiedzialne za technologie w firmach.

Potencjał i wyzwanie

Zdaniem 92% menedżerów, nieprawidłowe wykorzystanie analityki danych może doprowadzić do znacznej szkody reputacyjnej dla firmy. Jednocześnie 61% CEO, którzy wzięli udział w badaniu „Global CEO Outlook Survey”, przyznało, że budowanie zaufania klientów i partnerów biznesowych jest jednym z trzech najważniejszych priorytetów ich firm. Nie chodzi tylko o zaufanie do marki, lecz także do wyników analizy danych, których wykorzystanie ma wpływać na zwiększenie efektywności biznesu. To oznacza, że organizacje muszą wziąć odpowiedzialność za wiarygodność danych i wyników analiz przeprowadzanych na ich podstawie oraz wypracować najlepsze praktyki zarządzania danymi.

„Nie ulega wątpliwości, że potencjał analityki danych jest ogromny. Zarówno w kontekście ochrony już istniejącej wartości w firmie, doskonalenia procesów, jak i tworzenia nowej wartości. Analityka danych jest wykorzystywana w przedsiębiorstwach od bardzo wielu lat, teraz jednak, ze względu na postępującą cyfryzację procesów wewnętrznych i relacji z otoczeniem zewnętrznym, a także coraz większą liczbę dostępnych źródeł, wartość, jaką można uzyskać z dobrej jakości analiz, jest nieporównywalnie większa. Nadal w większości organizacji zasadniczym wyzwaniem pozostaje zapewnienie jakości wyników analiz. Z naszego doświadczenia wynika, że nie chodzi tylko o algorytmy, ale przede wszystkim o spójne rozumienie przez różnych uczestników procesu, co oznaczają określone kategorie danych, a przez to spójne rozumienie, co oznacza wyliczony na ich podstawie wynik. Często w praktyce okazuje się, że nawet tak oczywiste pojęcia jak: sprzedaż, marża czy terminowy, nie są jednoznaczne, a ich rozumienie w różnych częściach organizacji znacznie się różni” – mówi Krzysztof Radziwon, partner w Dziale Usług Doradczych, szef zespołu ds. zarządzania ryzykiem w KPMG w Polsce.

Nadal w większości organizacji zasadniczym wyzwaniem pozostaje zapewnienie jakości wyników analiz. Nie chodzi tylko o algorytmy, ale przede wszystkim o spójne rozumienie przez różnych uczestników procesu, co oznaczają określone kategorie danych, a przez to spójne rozumienie, co oznacza wyliczony na ich podstawie wynik.

Kwestia odpowiedzialności

Chociaż menedżerowie mają świadomość rosnącej odpowiedzialności za analitykę danych, wciąż brakuje klarownego przypisania odpowiedzialności za ten obszar w strukturze organizacyjnej. Według 19% respondentów, taka rola spoczywa na dyrektorze ds. informatyki. Z kolei w 13% organizacji odpowiedzialność za obszar analityki danych przypisana jest dyrektorowi ds. danych, a w blisko co dziesiątej firmie odpowiedzialność spoczywa na programistach. Warto również zwrócić uwagę na fakt, że zdaniem blisko jednej piątej ankietowanych odpowiedzialność za zapewnienie jakości w obszarze analityki danych powinna spoczywać na zewnętrznych podmiotach – niezależnych audytorach czy ciałach nadzorujących.

„Przypisanie odpowiedzialności za jakość danych oraz za obszar analityki danych, rozumiany jako zapewnienie kontroli nad rzetelnością algorytmów, procesem wytwórczym i utrzymaniem środowiska, jest niezwykle istotne z perspektywy budowania zaufania do wyników analityki danych. Nie da się budować zaufania do wyników pochodzących z ‘czarnej skrzynki’, za którą nikt nie chce wziąć odpowiedzialności” – podkreśla Krzysztof Radziwon.

Według uczestników badania KPMG, firmy chcące zapewnić wzrost zaufania do wykorzystywanych danych i analiz powinny skupić się m.in. na: zapewnieniu wzrostu transparentności algorytmów i metodologii, wzmocnieniu wewnętrznych i zewnętrznych mechanizmów zapewniania jakości, nadzorze nad sztuczną inteligencją oraz rozwoju standardów stosowanych zabezpieczeń.

———————————————————————————————————————————-

Raport KPMG „Guardians of trust” powstał na podstawie badania przeprowadzonego wśrod blisko 2,2 tys. menedżerów działów biznesowych i IT zatrudnionych w spółkach na całym świecie. Wyrazili oni swoją opinię na temat głównych wyzwań, jakie stoją przed ich firmami.


10 rekomendacji

  1. Oceń poziom zaufania – jeśli nie możesz tego zmierzyć, nie możesz tym zarządzać.
  2. Priorytetyzuj ryzyka – nie staraj się zrobić wszystkiego od razu.
  3. Stwórz profile interesariuszy zaufania – organizacja powinna pomyśleć o wszystkich.
  4. Zbuduj system odpowiedzialności – każdy kluczowy algorytm powinien mieć „ludzkiego partnera”.
  5. Zapewnij zgodność z regulacjami – konieczne jest ciągłe monitorowanie wchodzących i planowanych zmian prawnych.
  6. Przygotuj manifest – pracownicy potrzebują konkretnych wytycznych.
  7. Zaangażuj zarząd – pełna odpowiedzialność wymaga edukacji członków zarządu.
  8. Bądź elastyczny – nie ma jednego idealnego podejścia czy frameworku.
  9. Zrewiduj model zarządzania – odpowiedzialność musi być rozproszona wewnątrz organizacji, a nawet wykraczać poza nią.
  10. Precyzyjnie ustal zakres odpowiedzialności i określ obowiązki dla poszczególnych systemów lub algorytmów.

Źródło: KPMG