Rynek rozwiązań cyberbezpieczeństwa wykorzystujących uczenie maszynowe rozwija się bardzo dynamicznie. Niestety, niewiele wiadomo, czy i jak korzystają z technologii sztucznej inteligencji przestępcy i grupy sponsorowane przez państwa. O trendach, nowych rozwiązaniach i zagrożeniach związanych ze sztuczną inteligencją, uczeniem maszynowym oraz internetem rzeczy rozmawiamy z Januszem Żmudzińskim, ekspertem w obszarze bezpieczeństwa teleinformatycznego, członkiem Polskiego Towarzystwa Informatycznego i ISACA.
Czy można powiedzieć, że sztuczna inteligencja zrewolucjonizowała już cyberbezpieczeństwo?
Sztuczna inteligencja, uczenie maszynowe, głębokie uczenie to bardzo dynamicznie rozwijający się obszar. Niemalże każdego dnia pojawiają się nowe prace naukowe. Prowadzi się coraz więcej zaawansowanych badań dotyczących potencjalnych zastosowań w obszarze cyberbezpieczeństwa. Trudno jednak ich wyniki przełożyć na codzienną praktykę.
Na razie wiemy, że uczenie maszynowe doskonale się sprawdza w obszarze analizy ruchu sieciowego i analizowania zachowań użytkowników. Systemy wykorzystujące sztuczną inteligencję potrafią skutecznie wykrywać anomalie. Dzięki temu wspierają codzienną pracę administratorów i ekspertów od cyberbezpieczeństwa. Mogą być także wykorzystywane do weryfikowania użytkowników podczas logowania, choć tutaj pojawiają się wątpliwości dotyczące naruszenia prywatności.
Ciekawym rozwiązaniem jest amerykańskie oprogramowanie antywirusowe Cylance, jednak dotychczas nie trafiło na czołowe pozycje rankingu antywirusów. To pokazuje, że chyba nie jest do końca skuteczne. Niemniej to bardzo ciekawy kierunek rozwoju.
Kto jest liderem w tym obszarze?
W USA, Izraelu i Europie Zachodniej powstaje mnóstwo start-upów wykorzystujących technologie sztucznej inteligencji. Nie wiadomo jednak, co robią Chińczycy czy Rosjanie. O rozwiązaniach tworzonych w tych państwach wiemy niewiele. Trudno uwierzyć, że te państwa nie mają własnych technologii cyberbezpieczeństwa wykorzystujących uczenie maszynowe.
Na razie wiemy, że uczenie maszynowe doskonale się sprawdza w obszarze analizy ruchu sieciowego i analizowania zachowań użytkowników. Systemy wykorzystujące sztuczną inteligencję potrafią skutecznie wykrywać anomalie.
A czy pojawia się coraz więcej złośliwego oprogramowania wykorzystującego technologię sztucznej inteligencji?
Na razie żadna z firm monitorujących nie wykrywa jeszcze malware’u wykorzystującego uczenie maszynowe. Nie do końca wiadomo, dlaczego tak jest. Czy nie udaje się go zarejestrować, bo jeszcze nie ma, czy nie rejestrują , bo zwyczajnie tego nie widzą.
Na razie więc nie mamy się czego obawiać…
Na razie firmy antywirusowe mówią, że nie jest to jeszcze zagrożenie. Możemy jednak pytać, na ile postrzeganie sztucznej inteligencji, jako bezpiecznej technologii, jest właściwe. Czy przypadkiem nie jest to lekceważenie realnego zagrożenia, czy też faktycznie nie jest ono istotne. Zwłaszcza biorąc pod uwagę niski próg wejścia w technologię uczenia maszynowego, wydaje się, że zagrożenie istnieje i jest poważne. Pojawiły się już próby modyfikowania istniejącego ransomware. W laboratoriach powstały wersje Wannacry wzbogacone o uczenie maszynowe. Można to zrobić i jest to bardzo niebezpieczne.
Sporo słychać o próbach tworzenia złośliwego oprogramowania, które będzie identyfikowało cele ataków na inteligentne urządzenia, internet rzeczy. Inspiracją do tego była prezentacja oprogramowania DeepLocker na konferencji „BlackHat 2018”.
Eksperci IBM pokazali oprogramowanie wykorzystujące uczenie maszynowe, które w wyrafinowany sposób zawęża listę potencjalnych celów ataku, a przy tym może być niewykrywalne dla systemów anti-malware. Dowiedli, że istnieje taka możliwość. Skoro oni tego dokonali, to mogą to zrobić także inni. Na razie nie wiadomo, co z tego wyniknie w praktyce, ale przeprowadzenie ataku APT z wykorzystaniem takiego narzędzia wydaje się realne i budzi przerażenie, bo wykrywalność byłaby bardzo niska. W połączeniu z botami, które mogą zaatakować w inteligentny sposób, wydaje się, że będzie to poważne wyzwanie.
Pojawiły się już próby modyfikowania istniejącego ransomware. W laboratoriach powstały wersje Wannacry wzbogacone o uczenie maszynowe. Można to zrobić i jest to bardzo niebezpieczne.
Jakich problemów możemy się w związku z tym spodziewać?
Wiadomo, że można manipulować danymi wejściowymi uczenia maszynowego i wpływać na wyniki. Prosta manipulacja może na przykład oznaczać, że system zinterpretuje obrazek jako coś innego. Wydaje się, że to niewielki problem. Tymczasem konsekwencje mogą być poważne.
Wątpliwości budzi zwłaszcza wykorzystanie sztucznej inteligencji przez wojsko. Kilka miesięcy temu Amerykanie ujawnili program Skyborg, dotyczący stworzenia autonomicznych samolotów myśliwskich, które latałyby jako maszyny skrzydłowe samolotów pilotowanych przez człowieka. Tego typu broń może zostać przekazana armii amerykańskiej już za kilka lat. Biorąc pod uwagę jakość tworzonego oprogramowania oraz ilość pojawiających się w nim błędów, można mieć obawy. Potwierdza je przykład ostatnich problemów z samolotami Boeinga. To przenosi problemy ze sztuczną inteligencją na nowy poziom. Czy takie oprogramowanie będzie odporne na ataki?
Inna ciekawa informacja, która wypłynęła niedawno, związana jest z komercjalizacją chińskiego systemu kredytu społecznego. Pojawiła się wiadomość, że z takiego rozwiązania chciałoby korzystać jedno z australijskich miast. Oznacza to, że ta technologia wychodzi poza Chiny. O planach jej zakupu mówił Wietnam. Nie znamy dokładnie zakresu działania tego rozwiązania. Idea zwiększenia bezpieczeństwa mieszkańców jest piękna, ale potencjalne zagrożenia są ogromne. Kto będzie sprawował kontrolę nad systemami? Do tego dochodzi pytanie: jaką kontrolę – jawną lub niejawną – nad nimi będą mieli producenci? Co się stanie, jeśli systemy tego typu zostaną zaatakowane?
Czy władze i społeczeństwo są świadome istnienia tych zagrożeń?
Postrzeganie tych rozwiązań przez władze i społeczeństwo nie jest do końca poprawne. Zakłada się, że sztuczna inteligencja jest mądra i odpowiedzialna, a chyba tak w rzeczywistości nie jest. Ogólnie świadomość ludzi jest niska. Przeciętny internauta nie wie na przykład, czym jest technologia deepfake, a może ona stanowić poważne zagrożenie dla interesu narodowego. Dlatego w ubiegłym roku Departament Obrony USA ogłosił konkurs na rozwiązanie do wykrywania deepfake. Na zwycięzców czekały granty w wysokości 50 mln USD. W Polsce mało kto się tym interesuje, a zagrożenia ze strony deepfake nie jest z kategorii science fiction.
Wiele osób, nawet na konferencjach branżowych, jest zaskoczonych, że takie możliwości istnieją, że to nie jest film „Black Mirror”, ale rzeczywistość dostępna nie tylko dla zawodowców, ale dla zwykłego internauty z mocnym komputerem. Łatwo sobie zatem wyobrazić, jakimi możliwościami w tym zakresie dysponują chociażby grupy sponsorowane przez państwa.
Rozmawiał Rafał Jakubowski.
Wiadomo, że można manipulować danymi wejściowymi uczenia maszynowego i wpływać na wyniki. Prosta manipulacja może na przykład oznaczać, że system zinterpretuje obrazek jako coś innego niż jest w rzeczywistości. Konsekwencje tego mogą być poważne.
Kategorie: Rozwiązania dziedzinowe
Musisz się zalogować aby dodać komentarz.