Jeszcze przed chwilą wydawało się, że głównym wyzwaniem dla banków jest personalizacja ofert. Teraz staje się jasne, że to dopiero początek poważniejszej zmiany. Dylemat nie polega dziś wyłącznie na tym, jaki produkt zaoferować klientowi. Równie ważne jest to, na jakich warunkach należy go zaoferować, aby zarobić, a przynajmniej nie stracić. Postępująca personalizacja sprawia, że istniejące instrumentarium systemowe służące do analizy i wyceny ryzyka staje się nieefektywne, a niekiedy wręcz samo tworzy dodatkowe ryzyko operacyjne. Jego przebudowa jest konieczna, alternatywą jest bowiem wzrost kosztów i utrata konkurencyjności, w szczególności w przypadku mniejszych banków.
Ryzyko towarzyszy bankowości od jej zarania, ale jego źródła i formy zmieniają się wraz z tym, jak zmienia się oblicze działalności bankowej. Niegdysiejszych rozpruwaczy sejfów, zbójców napadających na konwoje i fałszerzy czeków zastąpili hakerzy, karderzy i grupy wyłudzające kredyty „na słupa”. Na przestrzeni lat banki nauczyły się ryzyko identyfikować, szacować, minimalizować, oraz wyceniać jego wartość. Ostatecznie bowiem, ryzyko jest dla banków niczym innym, jak kosztem, który trzeba uwzględnić w rachunku ekonomicznym.
Dopóki zdarzeń wymagających analizy i wyceny ryzyka było relatywnie mało, a kwoty operacji duże, wycena mogła odbywać się „ręcznie”. Wraz z upowszechnieniem się bankowości elektronicznej, liczba operacji, a więc także liczba indywidualnych kalkulacji ryzyka, wzrosła o całe rzędy wielkości. W takich okolicznościach, wyliczanie wartości ryzyka trzeba było zautomatyzować, i tak też banki postąpiły. Wdrożyły rozwiązania kalkulujące ryzyko automatycznie dla jednorodnych grup produktów.
W międzyczasie bankowość wkroczyła jednak w erę usług szytych na miarę, w której tradycyjne granice między produktami zacierają się. Ocena i wycena ryzyka dla takich ofert wymaga sięgnięcia do obszarów, czy też zdarzeń, nie uważanych dotychczas za istotne w kontekście danej kategorii produktowej. Sięganie do znacznie szerszej gamy źródeł danych oznacza dwie rzeczy: uwzględnienie ich w algorytmach analitycznych, oraz samą możliwość sięgnięcia do tych źródeł. Systemy do analizy ryzyka czekają więc w najbliższym czasie spore zmiany.
Coraz trudniejsze decyzje
Kalkulowanie ryzyka ma na celu podejmowanie decyzji. Bank chce wiedzieć, jakie produkty chce sprzedać klientowi, jakie może mu sprzedać pod pewnymi warunkami, a jakich nie zaoferuje mu w żadnym wypadku, chyba, że nastąpi zasadnicza zmiana okoliczności. Problem banku polega dziś na tym, że ma o kliencie dużo danych, ale nie informacji, które można wykorzystać do wnioskowania. Istniejące systemy analizują standardowe ryzyka dotyczące standardowych kategorii produktowych. W efekcie, nawet bez personalizacji oferty, tradycyjna analiza ryzyka jest w pewnym sensie fikcją.
To, co bank wie o kliencie w kontekście produktów hipotecznych nie przekłada się na to, co wie o nim w kontekście pożyczek konsumpcyjnych, debetów na koncie ROR czy zachowań związanych z kartami. To oddzielne, nie widzące się wzajemnie światy danych i informacji. Gdyby poszczególne systemy analizy ryzyka potrafiły automatycznie sięgać wzajemnie do swoich danych, jakość analizy ryzyka byłaby znacznie lepsza. Ryzyko zostało by zredukowane, a w efekcie działalność banku stała by się bardzie rentowna. Póki co, mamy jednak do czynienia z trendem odwrotnym.
„To, co bank wie o kliencie w kontekście produktów hipotecznych, nie przekłada się na to, co wie o nim w kontekście pożyczek konsumpcyjnych, debetów na koncie ROR czy zachowań związanych z kartami. To oddzielne, nie widzące się wzajemnie światy danych i informacji”
Systemy do analizy ryzyka przypisane do produktów nikomu nic nie udostępniają, a już na pewno nie automatycznie. Jedynym sposobem dobrania się do danych źródłowych takich systemów jest warstwa raportowa. Cóż jednak? Czy do każdego nowego produktu banki mają tworzyć odrębny raport? To oznaczałoby, że sto różnych produktów to co najmniej sto różnych raportów. Co będzie, gdy ich liczba sięgnie tysięcy? Kto weźmie odpowiedzialność za wiarygodność raportów, skoro tworzy je wiele osób, każda po swojemu?
Powiedzmy to wyraźnie: obszar analizy i kalkulacji ryzyka w bankach stał się nieefektywny z perspektywy operacyjnej. Banki posiadają dane, ale ich przetworzenie w informację istotną z punktu widzenia kalkulacji ryzyka, w szczególności na potrzeby nowych, złożonych produktów, stało się problematyczne i kosztowne. Osadzone w „starych” realiach produktowych i wymagające ręcznej integracji środowisko systemów analizujących ryzyko samo staje się źródłem ryzyka operacyjnego. Koszty bezpośrednie i pośrednie tego stanu rzeczy rosną, i są zagrożeniem dla faktycznej rentowności produktów oferowanych klientom.
Droga ku standaryzacji
Nawet jeśli banki niekiedy kupują raporty wspomagające analizy ryzyka, kalkulacja i wycena ryzyka jest i pozostanie jednym z głównych obszarów ich kompetencji biznesowych. Dostosowanie tej sfery do nowych okoliczności rynkowych leży w ich najlepiej pojętym interesie. O tym, że analiza i wycena ryzyka dowolnie złożonych produktów bankowych jest możliwa, elastyczna, jednostkowo tania, a także przewidywalna, świadczą wdrożenia systemów z rodziny IMPAQ kdprevent.
Architektura kdprevent zakłada a priori, że poszczególne rodzaje ryzyka są silnie powiązane z klientem, a zatem, że mogą występować w kontekście wielu różnych produktów bankowych. Założenie to znajduje odzwierciedlenie w konstrukcji systemu, który w ramach modułów dziedzinowych standaryzuje opis ryzyka oraz zestawy danych źródłowych, na podstawie których jest ono oceniane i wyceniane. Krótko mówiąc, środowisko systemów do analizy ryzyka można poddać standaryzacji, dzięki której czas i koszt uzyskania informacji o ryzyku stają się przewidywalne.
W ramach platformy kdprevent rozwijamy rozwiązania horyzontalne wyspecjalizowane we wspieraniu procesu zarządzania ryzykami kredytowymi (CFD – Credit Fraud Detection), ryzykami związanymi z aktywnościami klienta banku w kontekście dostępu do jego rachunku przez Internet (WFP – Web Fraud Protection), przeciwdziałaniu praniu brudnych pieniędzy (AML – Anti-Money Laundering), przeciwdziałaniu wyłudzeniom wewnętrznym i zewnętrznym (AFS – Anti Fraud System). Ponadto platforma potrafi analizować dane w czasie rzeczywistym np. analiza operacji transgranicznych.
„Nawet jeśli banki niekiedy kupują raporty wspomagające analizy ryzyka, kalkulacja i wycena ryzyka jest i pozostanie jednym z głównych obszarów ich kompetencji biznesowych. Dostosowanie tej sfery do nowych okoliczności rynkowych leży w ich najlepiej pojętym interesie. O tym, że analiza i wycena ryzyka dowolnie złożonych produktów bankowych jest możliwa, elastyczna, jednostkowo tania dzięki automatyzacji, a także przewidywalna, świadczą wdrożenia systemów z rodziny IMPAQ kdprevent.”
W przypadku rodziny systemów kdprevent standaryzacja ma wymiar nie tylko merytoryczny, ale także technologiczny. Każdy z modułów można wdrażać niezależnie od pozostałych, ale mając dwa, trzy czy więcej bank buduje spójne środowisko, wykorzystujące tę samą technologię bazodanową, tę samą architekturę aplikacyjną, ten sam zestaw założeń funkcjonalnych, te same interfejsy integracyjne, wspólne słowniki i tak dalej.
Alternatywa: wzrost kosztów
Analiza ryzyka jest obszarem z natury delikatnym. Zmiany w sferze klienckiej i produktowej są jednak nieubłagane, dlatego przegląd i optymalizacja rozwiązań do analizy ryzyka staje się dla banków koniecznością. Klienci będą traktowani przez banki coraz bardziej indywidualnie po to, by uzyskać sprzedaż produktów finansowych w przypadkach, gdy oferty standardowe nie działają. Złożoność produktów będzie rosnąć także w wyniku zaostrzającej się konkurencji między bankami. Oba trendy będą wzajemnie napędzać się.
Systemy do analizy ryzyka ściśle powiązane z systemami produktowymi gwarantują bankom jedno: systematyczną utratę konkurencyjności. Ustalenie rzeczywistego ryzyka dla coraz bardziej niestandardowych produktów będzie wymagać sporych nakładów bezpośrednich, co odczują szczególnie mniejsze banki, mające mniej liczną grupę klientów, a więc ograniczone możliwości redukcji kosztów jednostkowych.
Pozostanie przy stanie obecnym będzie coraz bardziej komplikować architekturę systemów do analizy ryzyka, w tym ich warstwę integracyjną. Będzie też zwiększać koszty poprzez wzrost ryzyka operacyjnego związanego z tymi systemami. To po prostu ślepa uliczka. Banki powinny uporządkować sferę analizy ryzyka standaryzując dostęp do danych źródłowych i budując rozwiązania o charakterze otwartym.

Schemat 1. Koncepcja procesu analizy ryzyka w systemie IMPAQ kdprevent.
Joanna Majewska jest dyrektorem sprzedaży w sektorze bankowym w Impaq Sp. z o.o. Można się z nią skontaktować pod adresem joanna kropka majewska w domenie impaqgroup kropka com.
Artykuł ukazał się w miesięczniku BANK z dnia 19 listopada 2015 r. pod tytułem: Zmiany z szacunku dla ryzyka.
Kategorie: Analityka, Analizy/Raportowanie, Rozwiązania dziedzinowe
Musisz się zalogować aby dodać komentarz.