Sztuczna inteligencja i uczenie maszynowe otwierają przed branżą cyberbezpieczeństwa nowe możliwości, ale to miecz obosieczny. Powstanie Accepted Artificial Persons sprawi, że będzie można automatyzować i dowolne skalować ataki, które do tej pory wymagały wielu wyrafinowanych technik i ogromnych nakładów pracy ludzkiej. Dobra wiadomość jest taka, że droga do wejścia na podobny poziom rozwoju sztucznej inteligencji wydaje się jeszcze bardzo, bardzo długa – tłumaczy Wieland Alge, Managing Partner w MAD Ventures.
Podczas wystąpienia na „Advanced Threat Summit 2019“ mówił Pan o sztucznej inteligencji nowej generacji, czyli Accepted Artificial Persons. Czy może Pan wyjaśnić tę koncepcję?
W zasadzie chodzi o znacznie rozszerzony test Touringa. Accepted Artificial Person to nie ktoś, czy właściwie coś, co próbuje być naturalne. Wiemy, że to nie jest człowiek, ale mimo to akceptujemy taką sztuczną inteligencję jako partnera do rozmowy, albo ze względu na to, że możemy uzyskać jakąś pomoc, czyli po prostu jest dla nas użyteczna.
Accepted Artificial Person to cel większości wysiłków związanych z coraz powszechniejszymi czatbotami, ale na razie cel bardzo odległy. Problem polega na tym, że próbuje się wykorzystywać zamknięty model konwersacji. Uznaje się, że dobry czatbot zna odpowiedź na wszystkie możliwe pytania człowieka. Accepted Artificial Person mogłaby swobodnie rozmawiać z człowiekiem, nie znając wszystkich odpowiedzi.
Wydaje się, że stworzenie takiej technologii jest bardzo bliskie…
W firmowych czy uniwersyteckich laboratoriach tworzy się boty, które potrafią prowadzić rozmowę z ograniczoną grupą klientów. Jeśli jednak zadamy bardziej skomplikowane pytanie, które wykracza poza określony zakres, możemy usłyszeć: przepraszam, nie rozumiem.
Tak nie reagują ludzie, albo inaczej: tak reagują ludzie, których określilibyśmy jako „dziwnych”. Być może tak zareagowałby Sheldon Cooper z „Teorii wielkiego podrywu”. Może właśnie na tym polega problem. Większość badaczy sztucznej inteligencji jest podobna do Sheldona Coopera?
Perfekcja i dokładność odpowiedzi znajdują się na szczycie listy priorytetów. Naturalna konwersacja meandruje pomiędzy modelem otwartym i zamkniętym, gdzie dokładność odpowiedzi jest istotna, ale płynnie jest zastępowana przez żarty. To naturalny, akceptowany sposób rozmowy, w której można polubić rozmówcę. I właśnie na to na razie nie mamy algorytmu. Wymykają się nam konteksty, aspekty kulturalne, indywidualizm czy sympatia. W życiu zawodowym „akceptowalne” znaczy coś innego niż w barze. Właśnie dlatego jesteśmy wciąż bardzo daleko od akceptowalności sztucznej inteligencji.
W firmowych czy uniwersyteckich laboratoriach tworzy się boty, które potrafią prowadzić rozmowę z ograniczoną grupą klientów. Jeśli jednak zadamy bardziej skomplikowane pytanie, które wykracza poza określony zakres, możemy usłyszeć: przepraszam, nie rozumiem.
Czy należy rozumieć, że Accepted Artificial Person to cel, czy też może wskazówka dla rozwoju sztucznej inteligencji?
Na pewno jedno i drugie. Jest ogromne zapotrzebowanie w tym zakresie. Ponieważ zwyczajni ludzie chcą nie tylko sztucznej inteligencji, do której się dopasują, ale i takiej, która będzie ludzka. Niezależnie od tego, komu uda się to ostatecznie osiągnąć, zyska ogromną przewagę. Gdyby przykładowo Asystent Google zyskał taką akceptowalność, a Alexa nie, byłaby to ogromna różnica. Zwłaszcza na rynku masowym, zwłaszcza w kontekście starszych osób i starzejących się społeczeństw.
Nie mamy wyjścia: musimy budować skalowalne rozwiązania wsparcia życia i gospodarstw domowych dla starszych osób, rozwiązania, jakie nie bazują na ludzkiej pracy, na którą w krajach zachodnich nie bylibyśmy w stanie sobie pozwolić. Piramida pokoleniowa już dzisiaj została odwrócona. Nie stać nas to, żeby młodzi ludzie obsługiwali starszych, ponieważ nie będziemy w stanie nic wytworzyć. Taka jest brutalna prawda.
Jakie to wszystko ma konsekwencje dla cyberbezpieczeństwa?
Jesteśmy wciąż daleko od celu. Przed nami mnóstwo pracy i tak naprawdę nie wiemy ile. To zła wiadomość z punktu widzenia polityki społecznej, ale dobra dla branży cyberbezpieczeństwa, ponieważ niewłaściwe wykorzystanie akceptowalnej przez ludzi sztucznej inteligencji oznaczałoby chaos i zniszczenie.
Wyobraźmy sobie sytuację, gdy tworzymy skalowalny model, w którym osoba wysyła e-mail, sztuczna osoba oddzwania do niej, rozmawia w taki sposób, jakiego ludzie oczekują, komunikuje się na wszystkich poziomach, wzbudza zaufanie. I właśnie wzbudzenie zaufania jest kluczowe. Dzisiaj można to osiągnąć, wykorzystując pracę ludzi. Jednak koszt jest wysoki. Trzeba zatrudnić mnóstwo ludzi mówiących w różnych językach. Jeśli jednak moglibyśmy to skalować, konsekwencje byłyby niewyobrażalne.
Obecnie połączenie technologii i edukacji pozwala zwiększyć odporność pracowników na oszustwa, w których chce się nakłonić kogoś do zrobienia przelewu na większą kwotę, udając firmowego CFO. Jeśli jednak maszyna będzie mówić jak CFO, pisać e-maile jak CFO, to będzie CFO. Taki atak będzie można przeprowadzić równocześnie w tysiącach firm. Jeśli byłbym Chief Digital Officer mafii, marzyłbym o takiej technologii i chciałbym ją pozyskać za wszelką cenę.
Dzisiaj możemy zwiększyć odporność pracowników na oszustwa, w których chce się nakłonić kogoś do zrobienia przelewu na większą kwotę, udając firmowego CFO. Jeśli jednak maszyna będzie mówić jak CFO, pisać e-maile jak CFO, to będzie CFO. Taki atak będzie można przeprowadzić równocześnie w tysiącach firm.
Podczas prezentacji wspomniał Pan, że trudno cokolwiek prognozować, pewne jednak jest, że powstanie akceptowalnej sztucznej inteligencji będzie oznaczać koniec poczty elektronicznej. Dlaczego?
E-mail to jedna z tych technologii, której powstanie wymyka się w zrozumieniu ludzi od cyberbezpieczeństwa. Chyba od końca lat 90. mówi się o tym, że trzeba zastąpić innym rozwiązaniem protokół SMTP, który nigdy nie miał być protokołem obsługującym masową komunikację. Tak jak HTTP został zastąpiony przez HTTPS.
SMTP powstał jako eksperyment, prototyp wymiany tekstu. W dziwny sposób ten protokół, który nie daje żadnej szansy na właściwe potwierdzenie tożsamości czy powrót do źródła, z którego nadeszła wiadomość, stał się fundamentem cyfrowej komunikacji. I nie mamy dziś jego następcy, który rozwiązałby te podstawowe problemy.
Wielka branża, której byłem częścią, sobie z tym nie poradziła. Wymagałoby to dodania zbyt wielu elementów. Co ciekawe, nie wystarczyłoby to wszystko, żeby poczta elektroniczna zniknęła z biznesu. Nawet pojawienie się SPAM-u nie zabiło e-maila. Akurat w tym wypadku branża szybko zareagowała stworzeniem filtrów antyspamowych, które rozwiązały problem.
Bez możliwości potwierdzenia, kto jest nadawcą e-maila – człowiek czy sztuczna inteligencja – stanie się on technologią, do której nikt nie będzie miał zaufania. Przestanie być akceptowalnym sposobem komunikacji. To będzie ostatecznym impulsem do zastąpienia tradycyjnej poczty elektronicznej nową technologią. To nie będzie trywialne, ale nie będzie wyjścia. W przypadku Accepted Artificial Persons nie da się zastosować algorytmu, który pozwoli odróżnić je od prawdziwych ludzi.
Rozmawiał Rafał Jakubowski.
Wieland Alge był prelegentem podczas „Advanced Threat Summit 2019”. Relacje z konferencji można znaleźć na stronach: https://e-s-r.pl/2019/11/19/potrzebne-jest-holistyczne-podejscie-do-cyberbezpieczenstwa/ oraz https://e-s-r.pl/2019/11/27/bezpieczenstwo-chmury-nikt-nas-nie-zwolni-z-odpowiedzialnosci/ .
Kategorie: Cyfrowa transformacja
Musisz się zalogować aby dodać komentarz.