Cyfrowa transformacja

Cel: zbudować zaufanie do sztucznej inteligencji

Europejska strategia rozwoju sztucznej inteligencji opiera się na założeniu, że jednym z filarów efektywnego wykorzystania tej technologii jest zapewnienie odpowiednich ram etyczno-prawnych. W Unii Europejskiej trwają prace nad stworzeniem zbioru wytycznych decydujących o zbudowaniu zaufania do sztucznej inteligencji i jej wdrożeń. 

Jednym z podstawowych warunków rozwoju zastosowań sztucznej inteligencji w życiu codziennym i biznesie jest zapewnienie akceptacji społecznej dla realizowanych wdrożeń. Służyć temu będzie przejrzystość zasad funkcjonowania wykorzystywanych algorytmów oraz efektów ich działania. Ludzie łatwiej dostrzegą pożytki z zastosowania sztucznej inteligencji, gdy będą przekonani, że jest ona dla nich bezpieczna i zrozumiała. 

Doprowadzenie do takiej sytuacji jest jednym z zadań, jakie przyjęła na siebie Komisja Europejska, inicjując proces opracowania wytycznych w zakresie etyki rozwoju i wykorzystania sztucznej inteligencji. „Etyczna sztuczna inteligencja jest korzystna dla wszystkich” – powiedział w kwietniu 2018 roku komisarz Andrus Ansip, gdy Komisja rozpoczynała prace pilotażowe z tego obszaru. 

Rok później w deklaracji „Budowanie zaufania do sztucznej inteligencji” określono etapy przygotowania zbioru wytycznych. Są to: określenie kluczowych wymogów w zakresie godnej zaufania sztucznej inteligencji, ustanowienie zakrojonego na dużą skalę etapu pilotażowego w celu uzyskania informacji zwrotnych od zainteresowanych stron oraz praca nad doprowadzeniem do międzynarodowego konsensusu w sprawie SI ukierunkowanej na człowieka.

Wytyczne pod adresem godnej zaufania sztucznej inteligencji mają obejmować następujące wymagania: przewodnia i nadzorcza rola człowieka; stabilność i bezpieczeństwo; ochrona i prywatność danych; transparentność; różnorodność, niedyskryminacja, sprawiedliwość; dobrobyt społeczny i środowiskowy; odpowiedzialność. Dla ich ostatecznego kształtu istotne znaczenie będzie miała m.in. ocena zagrożeń zarówno na poziomie jednostkowym, jak i społecznym. 

Istotne znaczenie dla ostatecznego kształtu wytycznych pod adresem godnej zaufania sztucznej inteligencji będzie miała ocena potencjalnych zagrożeń związanych z jej wykorzystaniem.

Plany zakładają, że na początku 2020 roku grupa ekspertów dokona przeglądu list kontrolnych dotyczących kluczowych wymogów związanych z wykorzystaniem sztucznej inteligencji. W swoich pracach będzie się odwoływała m.in. do informacji zwrotnych otrzymanych od przedstawicieli biznesu, środowiska naukowo-badawczego i instytucji publicznych. Po ocenie wyników opublikuje zaktualizowaną wersję wytycznych, uzupełnioną o wnioski płynące z fazy pilotażowej. Określi również ewentualne kolejne działania.

Ponadto od końca 2019 roku mają być prowadzone dyskusje z państwami członkowskimi oraz zainteresowanymi stronami na temat opracowania i wdrożenia modelu wymiany danych, a także optymalnego wykorzystania wspólnych przestrzeni danych.

Etyka w ujęciu strategicznym

Program budowania zaufania do sztucznej inteligencji jest jednym z elementów procesu wdrażania przyjętej również w 2018 roku unijnej strategii „Sztuczna inteligencja dla Europy”. Jej celem jest zwiększenie w ciągu najbliższej dekady inwestycji publicznych i prywatnych w rozwój SI do poziomu co najmniej 20 mld euro rocznie. Głównymi obszarami działań mają być: zwiększenie potencjału technologicznego i przemysłowego UE oraz wdrożenie SI w całej gospodarce (tak w sektorze prywatnym, jak i publicznym); przygotowanie się na zmiany społeczno-gospodarcze (m.in. poprzez modernizację systemów edukacji i szkoleń, jak również wspieranie zmian na rynku pracy) oraz właśnie zapewnienie odpowiednich ram etyczno-prawnych.

Unia Europejska zamierza w latach 2021–2027 przeznaczyć 2,5 mld euro na rozwój sztucznej inteligencji. Środki te mają być wydawane w ramach  planowanego na ten okres programu „Cyfrowa Europa”, którego cały budżet ma wynieść 9,2 mld euro. Kluczowymi obszarami do dofinansowania z tych funduszy będą: wysoko wydajne systemy obliczeniowe (superkomputery), sztuczna inteligencja, cyberbezpieczeństwo i zaufanie, zaawansowane umiejętności cyfrowe oraz szerokie wykorzystanie technologii cyfrowych w całej gospodarce. Inwestycje w projekty związane ze sztuczną inteligencję mają się odbywać z uwzględnieniem zmian społeczno-gospodarczych powodowanych przez tę technologię oraz przy zachowaniu odpowiednich norm prawnych i etycznych.

Unia Europejska zamierza w latach 2021–2027 przeznaczyć 2,5 mld euro na rozwój sztucznej inteligencji. Środki te będą wydawane w ramach  planowanego na ten okres programu „Cyfrowa Europa”. 

Jednym z priorytetów jest też utworzenie w Europie światowej klasy ośrodków badawczo-rozwojowych dla produktów i usług związanych z SI. Jego realizacji ma służyć zwiększenie wydatków na badania i innowacje w ramach programu „Horyzont Europa”. Komisja Europejska zaproponowała też stworzenie wspólnych, europejskich bibliotek algorytmów, które byłyby dostępne dla wszystkich chcących wdrażać rozwiązania z zakresu SI. Przewidziane jest ponadto budowanie otwartych platform z dostępem do zasobów danych przemysłowych.

Potrzebne jest podejście holistyczne

Jednym z najważniejszych, a jednocześnie najtrudniejszych do zrealizowania wyzwań w zakresie budowania zaufania do sztucznej inteligencji jest zapewnienie jej przejrzystości. Pokazanie transparentności wykorzystywanych algorytmów sprawia kłopoty ze względu na samą naturę działania SI. 

Wiele technik sztucznej inteligencji, szczególnie tych najbardziej zaawansowanych, korzysta z olbrzymiej ilości danych, parametrów, interakcji i relacji. Działa w środowisku, które trudne jest do zrozumienia przez człowieka. W tym też jednak tkwi ich siła i użyteczność, gdyż są w stanie przeprowadzić działania i osiągnąć efekty nieosiągalne dla ludzkich mocy poznawczych. 

Człowiek ma jednak potrzebę poznania i zrozumienia zasad działania maszyn oraz programów bazujących na rozwiązaniach sztucznej inteligencji. Szczególnie gdy ich celem jest podejmowanie dotyczących go decyzji, na przykład na bazie profilowania dla celów kredytowych czy ubezpieczeniowych. Chcemy wiedzieć, dlaczego i na jakiej podstawie algorytm podjął taką, a nie inną dotyczącą nas decyzję. 

Jednym z najważniejszych, a jednocześnie najtrudniejszych do zrealizowania wyzwań w zakresie budowania zaufania do sztucznej inteligencji jest zapewnienie jej przejrzystości.

Ze względu na coraz większą złożoność systemów inteligentnych trudno jednak wytłumaczyć ich działanie tradycyjnymi metodami, odwołując się do opisu ich poszczególnych elementów czy części składowych lub przez samo pokazanie ich kodu źródłowego. Zdaniem autorów wydanego przez Fundację Digital Poland raportu „Iloraz sztucznej inteligencji. Potencjał AI w polskiej gospodarce” wytłumaczenie zasad działania algorytmów sztucznej inteligencji, a tym samym zapewnienie ich przejrzystości wymaga podejścia holistycznego. 

„Holistyczne podejście umożliwia szersze spojrzenie na ogół projektu, podejmowane działania i testowanie sztucznej inteligencji. Co więcej, umożliwiaopisanie każdego aspektu systemu w kategoriach praktycznych, niekoniecznie dostarczając podstawowych danych treningowych lub sam kod, a także zwiększa prawdopodobieństwo, że ktoś zrozumie sposoby funkcjonowania SI i dostrzeże błędy lub uprzedzenia” – czytamy w raporcie.

To ważne, gdyż lepsze zrozumienie zasad działania sztucznej inteligencji zwiększa jej wiarygodność w oczach potencjalnych użytkowników, a tym samym przyczynia się do lepszego, nastawionego na rozwiązywanie rzeczywistych problemów społecznych jej wykorzystania. 


Siedem zasad niezbędnych do uzyskania godnej zaufania sztucznej inteligencji 

Wiarygodna SI powinna działać zgodnie ze wszystkimi stosownymi przepisami ustawowymi i wykonawczymi, a także z szeregiem wymogów – szczegółowe listy kontrolne mają pomóc w weryfikacji stosowania każdego z kluczowych wymogów:

  • przewodnia i nadzorcza rola człowieka – systemy SI powinny wspierać rozwój sprawiedliwego społeczeństwa poprzez wzmacnianie przewodniej roli człowieka i praw podstawowych, a nie zmniejszać, ograniczać czy wypaczać ludzką autonomię;
  • stabilność i bezpieczeństwo – algorytmy stosowane w ramach wiarygodnej sztucznej inteligencji muszą być bezpieczne, niezawodne i wystarczająco solidne, by poradzić sobie z błędami lub niespójnościami na wszystkich etapach cyklu życia systemu SI;
  • ochrona prywatności i danych obywatele powinni mieć pełną kontrolę nad własnymi danymi, zaś dane ich dotyczące nie będą wykorzystywane do szkodzenia im ani ich dyskryminowania;
  • przejrzystość – należy zapewnić identyfikowalność systemów SI;
  • różnorodność, niedyskryminacja i sprawiedliwość systemy SI powinny uwzględniać cały zakres ludzkich zdolności, umiejętności i wymogów oraz zapewniać dostępność;
  • dobrostan społeczny i środowiskowy systemy sztucznej inteligencji powinny wzmacniać pozytywne zmiany społeczne, wspierać zrównoważony rozwój i odpowiedzialność ekologiczną;
  • odpowiedzialność należy wprowadzić mechanizmy zapewniające odpowiedzialność za systemy SI oraz ich wyniki.

Źródło: https://ec.europa.eu/poland/news/190409_AI_pl (portal Przedstawicielstwa Komisji Europejskiej w Polsce)


 

Kategorie: Cyfrowa transformacja

Tagi: