Analityka

Co dla maszyn, co dla ludzi?

Co będzie w przyszłości skuteczniejsze dla zapewnienia bezpieczeństwa w firmie: działania systemów sztucznej inteligencji czy aktywność człowieka? Odpowiedzi na to pytanie szukali uczestnicy panelu dyskusyjnego „Człowiek czy maszyna?” przeprowadzonego w formie debaty oksfordzkiej podczas „Advanced Threat Summit 2018”.

Teza dyskusji brzmiała: Wszyscy podkreślają potrzebę inwestowania w budowanie „security awarness” – tak aby użytkownik był w pełni świadomy zagrożeń w cyberprzestrzeni i wiedział, jak powinien reagować i zachowywać się, by nie narażać firmy na niepotrzebne ryzyko. Może jednak nie ma to większego sensu, bo zawsze znajdzie się czarna owca, która się nie nauczy, a jeśli się nauczy, to nie będzie pamiętać, a nawet jeśli będzie pamiętać, to nie zrobi tego, co trzeba. Zamiast inwestowania w ludzi trzeba inwestować w narzędzia, które w automatyczny sposób zapobiegną niepożądanym sytuacjom. W czasach, gdy do świata cyberbezpieczeństwa wkracza AI i automatyzacja, stanie się to normą.

Przedstawiamy argumenty przytoczone przez uczestników odgrywających rolę zarówno zwolenników szerokiego zastosowania automatyzacji w cyberochronie, jak i broniących roli człowieka w tych działaniach.

Za maszyną

Szacuje się, że do 2030 r. na świecie będzie więcej robotów niż ludzi. Roboty zastąpią człowieka w wielu działaniach. Będą od niego efektywniejsze. Już dzisiaj system sztucznej inteligencji w samochodach autonomicznych jest w stanie przetworzyć 10 tys. razy więcej informacji niż człowiek i o 75% szybciej.

Ludzie, także ci zajmujący się cyberbezpieczeństwem, nie są w stanie poradzić sobie z olbrzymią ilością docierających do nich informacji. Sztuczna inteligencja reaguje szybciej, często reaguje od razu. Człowiek działa z opóźnieniem. Przy dużej ilości informacji sztuczna inteligencja będzie coraz bardziej potrzebna.

Użytkownicy sieci nabierają się cały czas na najprostsze metody phishingu. Maszyna rozpoznaje i blokuje malware. Wszystkich ludzi nie da się wyedukować. Nadal 20–30% kliknie w zainfekowany link. Maszyna może te ataki zablokować, by e-maile z niebezpieczną zawartością w ogóle do adresata nie doszły.

Na testy phishingowe potrzeba dużo czasu i zaangażowania ludzi do ich przygotowania. Są maszyny, które same robią testy. Automatycznie przygotowują środowisko testowe. Po co zatrudniać tyle ludzi do przeglądania logów, lepiej to zautomatyzować. Czas reakcji jest natychmiastowy. Ludzie reagują z opóźnieniem.

Wiele działań jest niemożliwych do wykonania przez człowieka bez wsparcia maszyny, bo informacji do przetworzenia jest coraz więcej. Ludzie nie sprawdzają się przy analizie dużych ilości danych. Lepiej wykorzystać maszynę, żeby chociażby ograniczyć zakres ważnych danych, na podstawie których można podjąć decyzję.

Mamy do czynienia z dużą szybkością zmian, również w dziedzinie cyberbezpieczeństwa. Pojawiają się wciąż nowe rodzaje zagrożeń i nowe metody ataków. Stare metody ochrony już się nie sprawdzają. Przestępcy też automatyzują swoją działalność. Żeby za nimi nadążać, trzeba się stale szkolić. Maszyna nadąża i dzięki temu jest w stanie zabezpieczać luki w systemie.

Człowiek nie radzi sobie ze skomplikowanymi modelami matematycznymi. Myśli liniowo, ma problemy z ogarnięciem funkcji wykładniczej. Wyobraźnia ludzka zawodzi, gdy stopień skomplikowania funkcji jest duży (np. Jak wysoka będzie kartka papieru złożona 45 razy? – Sięgnie aż do księżyca!). Maszyna lepiej sobie radzi, bo lepiej liczy.

Moc maszyn rośnie ekspotencjalnie. Rośnie też liczba kodu używanego do programowania różnych urządzeń, np. w samochodach. W rozrastających się kodach pojawia się coraz większa ilość błędów i pomyłek. To oznacza zagrożenie. Ludzie z ich znalezieniem i wyeliminowaniem sobie nie poradzą. Maszyna jest w stanie to zrobić.

Ludzie nie są w stanie poradzić sobie z olbrzymią ilością docierających do nich informacji. Sztuczna inteligencja reaguje szybciej, często reaguje od razu. Człowiek działa z opóźnieniem. Przy dużej ilości informacji sztuczna inteligencja będzie coraz bardziej potrzebna.

Za człowiekiem

Ludzie będą potrzebni do podejmowania decyzji. W wielu przypadkach maszyna nie podejmie decyzji, człowiek będzie umiał zadecydować. Także w coraz trudniejszych i coraz bardziej skomplikowanych sprawach i sytuacjach. Warunek jest taki, że musi się cały czas uczyć.

Jeśli człowiek się myli, to trzeba go edukować. Trzeba podnosić świadomość ludzi odnośnie do możliwości korzystania z dobrodziejstw sztucznej inteligencji, jak również związanych z tym zagrożeń. Trzeba też koncentrować się na użytkownikach systemów informatycznych, aby radzili sobie z rozpoznawaniem ataków w coraz bardziej złożonym środowisku technicznym.

Tylko człowiek może być ekspertem od cyberbezpieczeństwa. Maszyna może dostarczyć wyniki analiz, ale i tak musi to być potem zweryfikowane przez człowieka. Na przykład wyniki generowane przez skanery podatności trzeba przeanalizować i skategoryzować. Należy im nadać odpowiednie wagi, określić, co jak będziemy traktować. Maszyna może monitorować sytuację, ale to człowiek decyduje ostatecznie, czy mamy do czynienia z faktycznym zagrożeniem, czy z fałszywym ostrzeżeniem.

Maszyna może wspomagać eksperta, nigdy go jednak nie zastąpi. To człowiek może udoskonalić działanie systemów, a nie odwrotnie. To człowiek musi wymyślić założenia, według których maszyna będzie działać. Bo człowiek rozumie kontekst wydarzeń. W tym jest zdecydowanie lepszy od algorytmów sztucznej inteligencji.

Przestępcy ciągle zmieniają metody ataków. Specjaliści od bezpieczeństwa muszą za nimi nadążać. Człowiek rozpoznaje zagrożenie, dopiero potem zatrudnia maszynę do monitorowania sieci. Gdy pojawia się nowy atak, to maszyna sobie nie radzi. Trzeba maszynie najpierw zadać zadanie, dopiero potem będzie działać automatycznie.

Żeby system automatyczny dobrze funkcjonował, potrzebuje odpowiednio przygotowanego środowiska – trzeba wyjść od dobrych danych, procedur, regulacji etc. Maszyny nie zlikwidują chaosu. Maszynie trzeba przygotować środowisko pracy. Może to zrobić tylko człowiek. Tylko on wiec decyduje, jak wszystko ma być zorganizowane, poukładane, żeby maszyna działała efektywnie.

Tylko człowiek może być ekspertem od cyberbezpieczeństwa. Maszyna może dostarczyć wyniki analiz, ale i tak muszą być one potem zweryfikowane i zinterpretowane przez człowieka. Maszyna może wspomagać eksperta, nigdy go jednak nie zastąpi.


W dyskusji panelowej „Człowiek czy maszyna?” udział wzięli: Tomasz Bujała, CISO, Grupa Ubezpieczeniowa Europa; Tomasz Dziurzyński, dyrektor Departamentu Bezpieczeństwa Systemów Informatycznych i Informacji, Citi Handlowy; Łukasz Guździoł, Head of Frameworks – Global Governance & Chief Information Security Officer PL & ISSA BoD Member, Credit Suisse/TRISW/ISSA Polska; Barbara Nerć-Szymańska, MBA, CISA, CISM, menedżer w Departamencie Bezpieczeństwa, mBank; Jacek Skorupka, dyrektor IT Security, Idea Bank SA; Krzysztof Słotwiński, CSO, BGŻ BNP Paribas.