11 kwietnia 2019

Prawne aspekty i etyka sztucznej inteligencji

Prawne aspekty i etyka sztucznej inteligencji

Rozwój sztucznej inteligencji, to proces któremu powinniśmy przyglądać się ze szczególną uwagą. Proces ten jest właściwie w początkowej fazie, ale dokonania dzisiejszej sztucznej inteligencji już są naprawdę zdumiewające. Właściwie, to nawet wielu twierdzi, że nie powinniśmy używać określenia "sztuczna inteligencja", bowiem obecne mechanizmy są dalekie od inteligencji używanej przez ludzi, czy nawet zwierzęta. Niemniej, termin ten już się upowszechnił, a w dodatku coraz częściej wywołuje dyskusje, w których ścierają się zwolennicy oraz przeciwnicy sztucznej inteligencji.

Osobiście uważam, że jej rozwój wywoła dla ludzkości skutki nie mniejsze jak wywołane przez wynalezienie maszyny parowej, która dała asumpt rewolucji przemysłowej. Rewolucja technologiczna, która nas czeka, odmieni świat na zawsze. I tak samo, jak brakowało regulacji prawnych chroniących przed dzikimi zmianami społecznymi wywołanymi rewolucją przemysłową, tak obecnie brakuje regulacji prawnych związanych zwłaszcza z rozwojem sztucznej inteligencji. Jednakże, istnieje silna świadomość nadchodzących zmian i potrzeby prawnych rozwiązań.

Wyrazem tejże świadomości są opublikowane właśnie przez Niezależną Grupę Ekspertów Wysokiego Szczebla ds. Sztucznej Inteligencji "Wytyczne etyki dla sztucznej inteligencji godnej zaufania"[1][2]. Wytyczne to zbiór postulatów i wskazań kierowanych w szczególności do wszystkich osób związanych z pracami nad rozwojem sztucznej inteligencji.

prawo etyka sztuczna inteligencja
Prawo a sztuczna inteligencja



Sztuczna inteligencja godna zaufania

Głównym zamierzeniem twórców Wytycznych jest, aby twórcy AI (ang. artificial intelligence - sztuczna inteligencja) na każdym etapie swojej pracy tworzyli sztuczną inteligencję godną zaufania. Godna zaufania AI powinna składać się z trzech elementów, które powinny być aktualne na każdym etapie "życia" AI:
  1. powinna być zgodna z prawem, zgodna ze wszystkimi obowiązującymi przepisami i regulacjami,
  2. powinna być etyczna, zapewniając przestrzeganie zasad i wartości etycznych,
  3. powinna być solidna (odporna), zarówno z technicznego, jak i społecznego punktu widzenia, ponieważ nawet przy dobrych intencjach systemy sztucznej inteligencji mogą powodować niezamierzoną szkodę.
Twórcy opracowania założyli, że Wytyczne skupią się na opisaniu osiągnięcia zgodności z drugim i trzecim z filarów godnej zaufania AI, gdyż Wytyczne nie mają na celu udzielania porad prawnych w celu zapewnienia zgodności działań z prawem. Nadto, uznano że obecne regulacje powinny wystarczyć twórcom AI i powinni oni po prostu się ich trzymać oraz przestrzegać, tak jak przestrzega się prawa w ogólności. Jako obowiązujące regulacje prawne w zakresie sztucznej inteligencji wskazano przykładowo Traktat o funkcjonowaniu Unii Europejskiej, Kartę praw podstawowych Unii Europejskiej, Ogólne rozporządzenie o ochronie danych, Dyrektywę o odpowiedzialności za produkty wadliwe, Rozporządzenie w sprawie ram swobodnego przepływu danych nieosobowych w Unii Europejskiej, dyrektywy antydyskryminacyjne oraz dyrektywy z zakresu ochrony konsumentów, zdrowia i bezpieczeństwa pracy. Wskazano również na obowiązujące regulacje krajowe państw członkowskich.

Niestety moim zdaniem takie tłumaczenie jest unikiem, który nie powinien mieć miejsca przy tego typu publikacji. Zamiarem Wytycznych było kompleksowe nakreślenie ścieżki prawidłowego rozwoju prac nad sztuczną inteligencją, wskazaniu drogowskazu, który powinien zapewniać zgodność prac na trzech, uznanych za najistotniejsze, polach: zgodności z prawem, zgodności z etyką oraz zapewnienia solidności (odporności). W zakresie dwóch ostatnich, wskazano bardzo istotne, przemyślane i trafne wnioski, których powinni trzymać się twórcy AI. Zatem, konsekwencją powinno być również nakreślenie kierunku rozwoju prawodawstwa normującego sztuczną inteligencję. Zwłaszcza, że twórcy wydają szereg zaleceń w kategoriach etycznych, a nawet technologicznych, które krążą wokół zagadnień bezpieczeństwa ludzi, bezpieczeństwa informacji, wykorzystywania sztucznej inteligencji, relacji AI - człowiek. Wszak, normy etyczne mają swoje odzwierciedlenie w normach prawnych: nie zabijaj a przepisy karzące za zabójstwo. W Wytycznych tego właśnie zabrakło.

Przeczytaj również Podatek od robotów - za czy przeciw?

Moim zdaniem, nie sposób przewidzieć, w jakim kierunku rozwinie się rozwój sztucznej inteligencji, dlatego na razie powinny być przynajmniej ogólne ramy prawne, które ten rozwój będą stymulowały i formowały. Sztuczna inteligencja jest tworem, który nie mieści się w ogólnie przyjętym porządku prawnym, bowiem ze swojej istoty stwarza wiele nowych problemów i stawia trudne pytania. Chociażby o odpowiedzialność za czyny AI. Dlatego chciałbym się postarać o pewne dywagacje w zakresie aspektów prawnych dot. sztucznej inteligencji, które powinny być wynikiem norm etycznych postulowanych przez Wytyczne. 

Człowiek na pierwszym miejscu

Wytyczne skupiają się oczywiście na relacji sztucznej inteligencji do człowieka. Jako główne przesłanie opracowania można by określić potrzebę zapewnienia i ochrony człowiekowi jego człowieczeństwa. Twórcy opracowania sformułowali cztery najważniejsze zasady etyczne w kontekście sztucznej inteligencji, które są osadzone w fundamentalnych prawach człowieka:
  1. szacunek dla ludzkiej autonomii,
  2. zapobieganie szkodom,
  3. uczciwość,
  4. wyjaśnienie (wytłumaczalność).
Szacunek dla ludzkiej autonomii powinien wyrażać się w tym, że ludzie wchodzący w interakcje ze sztuczną inteligencją muszą być w stanie utrzymać pełne i skuteczne samostanowienie nad sobą i być w stanie uczestniczyć w procesie demokratycznym [3]. Chodzi o to, aby systemy sztucznej inteligencji nie mogły w nieuzasadniony sposób podporządkowywać, wymuszać, oszukiwać, manipulować, czy w inny nieuprawiony sposób wpływać na ludzi i ich decyzje, zachowania. Zamiast tego powinny być zaprojektowane tak, aby zwiększać, uzupełniać i wzmacniać ludzkie zdolności poznawcze, społeczne i kulturowe. Ten postulat jest trochę jakby obawą przed buntem maszyn. Sztuczna inteligencja powinna służyć pokornie ludziom i nigdy ich nie zdradzić. Jak jednak wyegzekwować tę zasadę bez konkretnych norm prawnych? Czy w ogóle AI może odpowiadać prawnie? Obawiam się, że same zasady etyczne nie wystarczą, aby zapewnić realizację podniesionego postulatu. 

Zapobieganie szkodom sprowadza się do postulatu zapewnienia, aby sztuczna inteligencja nie była podatna na niewłaściwe jej użycie. Systemy powinno się tworzyć tak, aby nikt nie mógł użyć ich do niecnych celów. Co więcej, AI nie powinna być narzędziem używanym nieodpowiednio przez silniejszych ekonomicznie nad słabszymi, np. pracodawców przeciwko pracownikom, przedsiębiorców przeciwko konsumentom. Materię tej zasady poniekąd regulują obecne przepisy dot. ochrony konkurencji i konsumentów, czy prawa pracy. Aczkolwiek, regulacje będą wymagały dostosowania do nowych realiów.

Opracowywanie, wdrażanie i używanie systemów sztucznej inteligencji musi być uczciwe. Co więcej, Wytyczne zakładają również, że AI przyczyni się do zwiększenia sprawiedliwości społecznej poprzez ograniczenie uprzedzeń, dyskryminacji i stygmatyzacji. Powinna również służyć wspieraniu równych szans w zakresie dostępu do edukacji, towarów, usług i technologii. Ponadto stosowanie systemów sztucznej inteligencji nigdy nie powinno prowadzić do oszukania lub nieuzasadnionego ograniczenia wolności wyboru. I tutaj niestety bez właściwych regulacji już doszło niejednokrotnie do zaprzeczenia istoty tej zasady. Albowiem, znane są przypadki, kiedy mechanizmy sztucznej inteligencji używane w procesach rekrutacyjnych powielały wzorce ludzkie i stosowały segregację kandydatów ze względu na rasę, płeć, czy inne cechy, co nie powinno mieć miejsca. Wynikało to akurat z danych, które były podstawą nauki AI, a które pochodziły od ludzi. AI powielała wzorce zachowań rekruterów. Zatem, odpowiednie regulacje mogłyby przewidywać, jak tworzyć bazy danych, lub jakie dane dostarczać AI, aby była ona właśnie społecznie sprawiedliwa i obiektywna. 

Przeczytaj również Postulat wspólnego wzoru faktury

Z powyższym, ściśle związana jest zasada wyjaśniania. Albowiem, procesy na podstawie których funkcjonuje AI powinny być transparentne na każdym etapie funkcjonowania, aby człowiek miał pewność, na czym opiera się dana decyzja podjęta przez AI. Wszelkie aspekty wzięte pod uwagę w procesie decyzyjnym powinny być możliwe do ustalenia i wyjaśnione. Tylko wtedy decyzja będzie mogła być kwestionowana. Wydaje mi się, że bez odpowiednich regulacji w tym zakresie, zasada może być trudna do wyegzekwowania. Stosowne regulacje mogłyby nakładać na twórców obowiązki udostępniania, bądź wglądu do programów, kodów, algorytmów itp. Być może konieczna będzie nawet jakaś instytucja, która będzie poddawała audytom i kontroli twórców oraz wykorzystujących AI, coś co jest powszechne na rynku spożywczym, farmaceutycznym, transportowym itd.  

Sposoby na zapewnienie sztucznej inteligencji godnej zaufania

Na podstawie przedstawionych powyżej głównych zasad AI godnej zaufania, twórcy Wytycznych przygotowali 7 wymogów wdrożenia i realizacji, przy czym zaznaczono, że nie jest to lista wyczerpująca:
  1. Działalność i nadzór człowieka,
  2. Techniczna odporność i bezpieczeństwo,
  3. Zarządzanie prywatnością i danymi,
  4. Transparentność,
  5. Różnorodność, niedyskryminacja i uczciwość,
  6. Dobrobyt społeczny i środowiskowy,
  7. Odpowiedzialność.
Niektóre ze stawianych wymogów już mają pokrycie w obowiązkach sformułowanych w przepisy prawa, jak chociażby wymóg zarządzania prywatnością i danymi. Jednakże niedawna histeria związana z RODO pokazała, jak bardzo boimy się regulacji w tym zakresie i postrzegamy to jako swoisty kaganiec, nadmierny ciężar. Pomimo szerokiej kampanii informacyjnej, wiele osób podchodziło wciąż z niezrozumieniem do zagadnień ochrony danych, a nawet niechęcią. Co gorsza, wydaje mi się, że większość zobowiązanych dążyło jedynie do zapewnienia zgodności formalnej, a więc przygotowaniu wymaganych dokumentów, pomijając zupełnie istotę zmian. Jeżeli w ten sam sposób będziemy podchodzili do prawa sztucznej inteligencji, to niestety regulacje prawne będą jedynie wydmuszką, która w krótkim czasie okaże swoje słabości. Sztuczna inteligencja jest właściwie tworzona do przetwarzania wielkich (naprawdę wielkich) zasobów informacji. Jednakże, skądś te informacje musi pobierać, a informacje generują głównie ludzie. Dlatego konieczna jest moim zdaniem regulacja wykorzystywania danych generowanych przez ludzi w kontekście wykorzystywania w rozwoju sztucznej inteligencji. Ochrona danych i rozwój sztucznej inteligencji powinny być zharmonizowane do tego stopnia, aby zabezpieczyć nasze dane, lecz jednocześnie nie ograniczyć rozwoju AI. Chiny obecnie wykorzystują informacje generowane przez swoich obywateli na wielką skalę do rozwoju AI, dlatego możliwe że niedługo osiągną prym w wyścigu. Lecz, tym samym znacząco ograniczają prywatność swoich obywateli. Być może nawet w pewnym momencie będzie nawet konieczne rozważenie poświęcenia swojej prywatności na rzecz rozwoju AI, tak jak już zrobiliśmy to dla celów walki z terroryzmem

Przeczytaj również Obniżenie ceny z powodu wady rzeczy sprzedanej  

Bardzo ważnym wymogiem jest zapewnienie nadzoru człowieka nad AI. Człowiek powinien móc nadzorować, a przede wszystkim ingerować w każdy proces myślowy sztucznej inteligencji. Zwłaszcza, człowiek powinien móc decydować, kiedy używać AI, a kiedy z niej zrezygnować lub ograniczyć jej zastosowanie. Z tym wiąże się ściśle postulat zapewnienia odporności technicznej na ataki i niepowołaną ingerencję w systemy sztucznej inteligencji. Nie trudno sobie wyobrazić, co może się wydarzyć, jeżeli ktoś o złych zamiarach przejmie kontrolę np. nad sterowaniem ruchem miejskim, analizą zachowań przestępczych, tworzeniem i przetwarzaniem informacji lub temu podobne. Dlatego systemy powinny być odporne na niepożądany dostęp i zmiany, powinny mieć stosowne zabezpieczenia, podwójne mechanizmy, gdyż skutki ingerencji mogą mieć nieodwracalne skutki. Jeżeli na tym polu wystąpi brak efektywnej regulacji prawnej, która zdefiniuje chociaż standardowe zabezpieczenia systemów AI, może dojść do tego, że systemy te będą łatwym celem ataków. Obecnie ataki hakerskie są powszechnością, więc ataki na AI na pewno również będą występowały. Konieczne będzie zaostrzenie kar za tego rodzaju czyny, jak również odpowiedni rozwój kompetencji organów śledczych oraz policji, czy służb bezpieczeństwa. Bez skutecznej ochrony prawnej, zarówno prewencyjnej, jak i represyjnej, sztuczna inteligencja może stać się szybko narzędziem zła. 

Transparentność działań sztucznej inteligencji to klucz do zapewnienia zaufania człowieka. Tylko, jeżeli człowiek będzie w stanie łatwo zrozumieć wybory dokonywane przez AI oraz zaakceptować ich uzasadnienie, możliwe będzie tworzenie sztucznej inteligencji godnej zaufania. Nie można bowiem polegać na czymś, czego się nie rozumie. Ważne jest również, aby transparentność obejmowała dane, na podstawie których działają systemy AI. Wszystko to powinno służyć przede wszystkim korygowaniu działań AI, bowiem jeżeli systemy przyjmą pewne wadliwe schematy działań, to będą je następnie utrwalać. Konieczne jest również, aby człowiek miał świadomość, kiedy kontaktuje się ze sztuczną inteligencją, bowiem obecnie już w Internecie wszechobecne są boty służące obsłudze klienta, jednakże klienci nie mają świadomości, że rozmawiają z programem komputerowym, a nie żywym człowiekiem. Dlatego, bez odpowiednich regulacji prawnych, otwiera się w tym zakresie szerokie pole do nadużyć. Niestety, ale jestem przekonany, że bez odpowiedniej kontroli nad wykorzystywaniem AI, będzie ona wykorzystywana do zwykłego "robienia pieniędzy", czy wręcz gorszych celów. Konieczny jest nadzór skutecznych i sprawnych organów państwowych, które będą egzekwowały solidne przepisy. Zapewnienie ludziom komfortu i bezpieczeństwa w obcowaniu ze sztuczną inteligencją powinno być priorytetem. 

Prawo sztucznej inteligencji

Zdaję sobie sprawę, że poruszyłem jedynie kilka aspektów wielkiej materii, jaką jest sztuczna inteligencji i prawne oraz etyczne podejście do niej. Na pewno rozwój AI może przysłużyć się w wielkim stopniu rozwojowi ludzkości, polepszyć i usprawnić wypracowane przez człowieka, a często niesprawiedliwe, mechanizmy społeczne. Niestety, może również łatwo zostać wykorzystana do dominacji nad ludźmi, manipulacji, wykorzystywania, wpływania na nasze decyzje. Dlatego, konieczne i pilne jest stworzenie regulacji prawnych, najlepiej międzynarodowych, które chociaż unormują podstawowe kwestie związane z rozwojem sztucznej inteligencji. Jest naprawdę mnóstwo problemów natury etycznej, które powinny być zabezpieczone normami prawnymi. W przeciwnym razie, Wytyczne stworzone przez Komisję Europejską staną się jedynie zbiorem szczytnych idei. Należy jednak również mieć na uwadze, że nadmierna regulacja w zakresie prawa sztucznej inteligencji może doprowadzić do zahamowania rozwoju, lub też ucieczce twórców do państw, które stworzą bardziej przyjazne ekosystemy dla AI. Naprawdę patrzę w przyszłość z wielkim zaciekawieniem, gdyż czekają nas niesamowicie ekscytujące czasy.




[1] Independent High-Level Expert Group on Artificial Intelligence set up by The European Commission, "Ethics Guidelines For Thrustworthy AI", Bruksela, 8.04.2019 r., dostęp: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai
[2] Wytyczne są wyłącznie w języku angielskim, wszelkie tłumaczenia są moje.   
[3] Tłumaczenie dosłowne, str. 13 Wytycznych.

2 komentarze:

  1. Bardzo trafny artykuł. Wszystko idzie do przodu i trzeba się na to przygotować najlepiej jak umiemy. Ale tak jak słusznie zostało zauważone, trzeba najpierw zrozumieć te działania, bo nie da się zaufać czemuś, czego nie rozumiemy.

    OdpowiedzUsuń

Jeżeli chcesz o coś spytać lub podzielić się swoimi uwagami - pisz śmiało!