Pomiń nawigację

14 grudnia 2022

Nowa legislacja w sprawie sztucznej inteligencji

Udostępnij

Komisja Europejska zaproponowała nowy zestaw przepisów regulujących funkcjonowanie sztucznej inteligencji. Nowe przepisy mają na celu głównie ochronę człowieka przed negatywnymi konsekwencjami jej działalności. Z rozwojem sztucznej inteligencji wiąże się wiele nowych możliwości i dobrodziejstw, niemniej istnieją pewne ryzyka, na które Komisja Europejska chce zawczasu przygotować europejską społeczność.

Kontekst nowej legislacji i zakładane korzyści

Sztuczna inteligencja (SI), jeszcze niedawno obecna tylko w filmach science-fiction, dzisiaj pojawia się w codziennym zastosowaniu. W większości przypadków używanie terminu sztucznej inteligencji jest mocno na wyrost, niemniej coraz częściej na decyzje i losy człowieka wpływ mają programy komputerowe, które na podstawie przetworzonej wielkiej ilości informacji generują określone decyzje. Komisja Europejska definiuje system sztucznej inteligencji jako oprogramowanie, które zostało opracowane z wykorzystaniem określonej techniki i podejścia i które może, dla danego zestawu celów określonych przez człowieka, generować wyniki, takie jak treść, prognozy, zalecenia lub decyzje wpływające na środowiska, z którymi wchodzą w interakcje[1].

Komisja Europejska zauważa, że potencjalne korzyści płynące ze sztucznej inteligencji dla naszych społeczeństw są różnorodne, od lepszej opieki medycznej po lepszą edukację. W obliczu szybkiego rozwoju technologicznego sztucznej inteligencji UE musi działać wspólnie, aby wykorzystać te możliwości. O ile większość systemów sztucznej inteligencji nie będzie stwarzać żadnego ryzyka lub będzie ono niewielkie, o tyle niektóre z nich mogą wygenerować takie zagrożenie, którym należy się zająć, aby uniknąć niepożądanych skutków. Na przykład nieprzejrzystość wielu algorytmów może powodować niepewność i utrudniać skuteczne egzekwowanie obowiązujących przepisów dotyczących bezpieczeństwa i praw podstawowych. W odpowiedzi na te wyzwania konieczne są działania legislacyjne, aby zapewnić dobrze funkcjonujący rynek wewnętrzny systemów sztucznej inteligencji, na którym odpowiednio uwzględniono zarówno korzyści, jak i zagrożenia[2].

Propozycja Komisji jest odpowiedzią na aktualne środowisko prawne, które nie do końca nadąża za rozwojem sztucznej inteligencji. Obecne krajowe (tj. państw członkowskich) przepisy dotyczące odpowiedzialności, w szczególności opartej na winie, nie są dostosowane do rozpatrywania roszczeń z tytułu odpowiedzialności za szkody spowodowane przez produkty i usługi wykorzystujące sztuczną inteligencję. Aktualne koncepcje prawne wymagają, aby to ofiary udowodniły bezprawne działanie lub zaniechanie osoby, która wyrządziła szkodę. Jednakże specyficzne cechy sztucznej inteligencji, w tym złożoność, autonomia i nieprzejrzystość, mogą utrudniać ofiarom zidentyfikowanie osoby odpowiedzialnej i udowodnienie wymogów skutecznego dochodzenia roszczeń z tytułu odpowiedzialności cywilnej lub być zbyt kosztowne dla ofiar. Wniesienie sprawy do sądu z reguły wiąże się z kosztami, które musi ponieść powód. Tak więc brak pewności co do osoby odpowiedzialnej za szkodę może zniechęcać ofiary do dochodzenia roszczeń w procesach sądowych, jeżeli ustalenie tej osoby będzie utrudnione. Co więcej dowiedzenie przed sądem winy takiej osoby wobec wysokiego stopnia skomplikowania i złożoności funkcjonowania sztucznej inteligencji nie jest proste.

W odpowiedzi na powyższe zagrożenia ustawodawcy niektórych z państw członkowskich rozpoczęli własne działania legislacyjne. Jednakże odrębne regulacje krajowe przyczyniłyby się do skomplikowania rozwoju sztucznej inteligencji w Unii Europejskiej. Dlatego Komisja Europejska dążąc do rozwoju SI wyszła z propozycją przyjęcia przepisów ułatwiających dochodzenie roszczeń za szkody wyrządzone przez sztuczną inteligencję. Przepisy zostały zawarte w projekcie dyrektywy Parlamentu Europejskiego i Rady w sprawie dostosowania zasad pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji (dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję).

Zgodnie z uzasadnieniem projektu dyrektywa zwiększy zaufanie społeczne do technologii sztucznej inteligencji i dostęp do skutecznego systemu wymiaru sprawiedliwości. Przyczyni się to do stworzenia skutecznego systemu odpowiedzialności cywilnej, dostosowanego do specyfiki SI, w przypadku gdy uzasadnione roszczenia o naprawienie szkody zostaną rozpatrzone pozytywnie. Zwiększenie zaufania społecznego przyniesie również korzyści wszystkim przedsiębiorstwom w łańcuchu wartości sztucznej inteligencji, ponieważ wzmocnienie zaufania obywateli przyczyni się do szybszego upowszechnienia sztucznej inteligencji. Nowe przepisy w zakresie odpowiedzialności SI przyniosłyby również pośrednie korzyści wszystkim obywatelom dzięki zwiększonemu poziomowi ochrony zdrowia i bezpieczeństwa oraz eliminacji źródeł zagrożeń dla zdrowia, co byłoby realizacją idei Traktatu o Funkcjonowaniu Unii Europejskiej.

Oczekuje się również, że dyrektywa przyczyni się do osiągnięcia powiązanych celów i celów zrównoważonego rozwoju (ang. Sustainable Development Goals – SDG). Rozpowszechnianie aplikacji SI jest korzystne chociażby dla środowiska. Na przykład systemy sztucznej inteligencji stosowane w optymalizacji procesów sprawiają, że procesy są mniej marnotrawne (np. poprzez zmniejszenie ilości potrzebnych nawozów i pestycydów, zmniejszenie zużycia wody przy takiej samej wydajności itp.).

Uprawniony do roszczeń

Projektowana dyrektywa będzie obejmować roszczenia odszkodowawcze wyłącznie wtedy, gdy szkoda jest spowodowana przez dane wyjściowe lub nieutworzenie danych wyjściowych przez system sztucznej inteligencji nastąpiło z winy osoby, na przykład dostawcy lub użytkownika. Zatem dyrektywa nie dotyczy roszczeń z tytułu odpowiedzialności cywilnej, jeżeli szkoda została spowodowana oceną dokonaną przez człowieka, po której następuje działanie lub zaniechanie człowieka, podczas gdy system sztucznej inteligencji dostarczał jedynie informacji lub porad, które zostały uwzględnione przez odpowiedni podmiot ludzki. W tym drugim przypadku możliwe jest wsteczne prześledzenie szkody w wyniku działania lub zaniechania człowieka, ponieważ dane wyjściowe systemu AI nie są wstawione między działanie lub zaniechanie człowieka a szkodę, a tym samym ustalenie związku przyczynowego nie jest trudniejsze niż w sytuacjach, gdy system AI nie jest zaangażowany.

Co istotne, projektowana dyrektywa zakłada minimalną harmonizację z prawem krajowym państw członkowskich. Oznacza to, że krajowi ustawodawcy będą mogli przyjąć bardziej korzystne dla poszkodowanych przepisy, które będą ich bardziej chroniły lub bardziej ułatwiały dochodzenie roszczeń.

Na gruncie nowych przepisów z powództwem będzie mogła wystąpić osoba, która:

  1. została poszkodowana w wyniku działania systemu sztucznej inteligencji lub w wyniku awarii takiego systemu w zakresie wytworzenia danych wyjściowych tam, gdzie takie dane wyjściowe powinny były zostać wygenerowane;
  2. przejęła lub wstąpiła w prawa osoby poszkodowanej na mocy prawa lub umowy (np. ubezpieczyciel); lub
  3. działa w imieniu co najmniej jednej osoby poszkodowanej zgodnie z prawem unijnym lub krajowym (np. fundacja, stowarzyszenie poszkodowanych).

Ujawnienie dowodów i wzruszalne domniemanie niezgodności

Głównym celem projektowanej dyrektywy jest zapewnienie osobom ubiegającym się o odszkodowanie za szkody spowodowane przez systemy sztucznej inteligencji wysokiego ryzyka skutecznych środków identyfikacji osób potencjalnie odpowiedzialnych oraz odpowiednich dowodów na poparcie roszczenia. Jednocześnie przepisy dyrektywy mają służyć wykluczeniu fałszywie zidentyfikowanych potencjalnych oskarżonych, oszczędzając czas i koszty zaangażowanych stron oraz zmniejszając obciążenie sądów sprawami.

Aby realizacja tego celu była możliwa, dyrektywa wyposaża sąd w możliwość nakazania ujawnienia odpowiednich dowodów dotyczących określonych systemów sztucznej inteligencji wysokiego ryzyka, co do których istnieje podejrzenie, że spowodowały szkodę. Wezwania dowodowe kierowane są do dostawcy systemu SI, osoby, na której spoczywają obowiązki dostawcy lub użytkownika. Żądania powinny być poparte faktami i dowodami wystarczającymi do ustalenia zasadności rozpatrywanego roszczenia o odszkodowanie, a żądane dowody powinny być do dyspozycji adresatów. Tak więc sąd nie powinien działać automatycznie, lecz tylko w przypadkach odpowiednio uzasadnionych przez potencjalnego powoda. Potencjalny powód musi przedstawić fakty i dowody wystarczające na poparcie zasadności roszczenia o odszkodowanie.

System sztucznej inteligencji uznaje się za system wysokiego ryzyka, jeżeli spełnione są oba następujące warunki:

  1. system SI ma być stosowany jako element bezpieczeństwa produktu lub sam jest produktem;
  2. produkt, którego elementem zabezpieczającym jest system SI, lub sam system SI jako produkt, musi przejść ocenę zgodności przeprowadzoną przez osobę trzecią w celu wprowadzenia tego produktu do obrotu lub oddania do użytku.

Aby zachować równowagę między interesami stron zaangażowanych w roszczenie o odszkodowanie i zainteresowanych stron trzecich, sądy powinny nakazać ujawnienie dowodów tylko wtedy, gdy jest to konieczne i proporcjonalne do poparcia roszczenia lub potencjalnego roszczenia o odszkodowanie. W tym zakresie ujawnienie powinno dotyczyć jedynie dowodów, które są niezbędne do rozstrzygnięcia danego roszczenia o odszkodowanie. Aby zapewnić proporcjonalność takich środków ujawniania lub zabezpieczania, sądy krajowe powinny dysponować skutecznymi środkami ochrony uzasadnionych interesów wszystkich zaangażowanych stron, na przykład ochrony tajemnicy przedsiębiorstwa oraz informacji poufnych, takich jak informacje związane z bezpieczeństwem publicznym lub narodowym. W odniesieniu do tajemnic przedsiębiorstwa lub domniemanych tajemnic przedsiębiorstwa, które sąd uznał za poufne, sądy krajowe powinny być uprawnione do podejmowania szczególnych środków w celu zapewnienia poufności tajemnic przedsiębiorstwa w trakcie postępowania i po jego zakończeniu, przy jednoczesnym osiągnięciu sprawiedliwej i proporcjonalnej równowagi między interesem posiadacza tajemnicy przedsiębiorstwa w zachowaniu tajemnicy a interesem osoby poszkodowanej. Powinno to obejmować środki mające na celu ograniczenie dostępu do dokumentów zawierających tajemnice handlowe oraz dostępu do przesłuchań lub dokumentów i ich transkrypcji do ograniczonej liczby osób. Podejmując decyzję w sprawie takich środków, sądy krajowe powinny wziąć pod uwagę potrzebę zapewnienia prawa do skutecznego środka prawnego i dostępu do bezstronnego sądu, uzasadnione interesy stron oraz, w stosownych przypadkach, osób trzecich, a także wszelkie potencjalne szkody wyrządzone którejkolwiek ze stron lub, w stosownych przypadkach, stronom trzecim, wynikające z przyznania lub odrzucenia takich środków. Ponadto, aby zapewnić proporcjonalne stosowanie środka polegającego na ujawnieniu informacji wobec osób trzecich w przypadku roszczeń odszkodowawczych, sądy krajowe powinny nakazać ujawnienie osobom trzecim tylko wtedy, gdy nie można uzyskać dowodów od pozwanego.

W przypadku gdy pozwany nie zastosuje się do nakazu sądu krajowego dotyczącego roszczenia o odszkodowanie dotyczącego ujawnienia lub zabezpieczenia dowodów znajdujących się w jego dyspozycji sąd krajowy będzie mógł uznać, że pozwany nie dopełnił odpowiedniego obowiązku staranności. W szczególności sąd będzie mógł uznać, że żądane dowody miały na celu udowodnienie wniesionego przez powoda roszczenia o odszkodowanie. Przy czym, pozwany będzie miał prawo obalić to domniemanie.

Wzruszalne domniemanie związku przyczynowego w przypadku winy

Zgodnie z projektowaną zasadą domniemania sądy krajowe powinny zakładać związek przyczynowy między winą pozwanego a wynikiem wygenerowanym przez system sztucznej inteligencji lub niepowodzeniem systemu sztucznej inteligencji do generowania danych wyjściowych, jeżeli spełnione są wszystkie następujące warunki:

  1. powód wykazał lub sąd przyjął winę pozwanego lub osoby, za której zachowanie jest on odpowiedzialny, polegającą na niedopełnieniu obowiązku staranności przewidzianą w prawie unijnym lub krajowym, mającą na celu bezpośrednio ochronę przed powstałą szkodą;
  2. można uznać za zasadnie prawdopodobne, w oparciu o okoliczności danej sprawy, że usterka wpłynęła na dane wyjściowe wytwarzane przez system sztucznej inteligencji lub na niepowodzenie wytworzenia danych wyjściowych przez system sztucznej inteligencji;
  3. powód wykazał, że wynik wygenerowany przez system SI lub brak wytworzenia wyniku przez system SI spowodował powstanie szkody.

W stosunku do roszczeń związanych ze szkodami wyrządzonymi przez systemy sztucznej inteligencji wysokiego ryzyka, powód będzie musiał wykazać również brak spełnienia przez dostawcę tego systemu określonych wymogów systemu. Przykładowo, że system nie został zaprojektowany i opracowany w sposób spełniający odpowiednie wymogi przejrzystości albo nie został zaprojektowany i opracowany w sposób umożliwiający skuteczny nadzór przez osoby fizyczne w okresie użytkowania systemu SI.

Chociaż szczególne cechy niektórych systemów sztucznej inteligencji, takie jak autonomia i nieprzejrzystość, mogą nadmiernie utrudniać powodowi wywiązanie się z ciężaru dowodu, mogą wystąpić sytuacje, w których takie trudności nie występują, ponieważ mogą istnieć wystarczające dowody i wiedza fachowa dostępne dla powoda w celu udowodnienia związku przyczynowego. Może tak być na przykład w przypadku systemów sztucznej inteligencji wysokiego ryzyka, w przypadku których powód mógłby w rozsądny sposób uzyskać dostęp do wystarczających dowodów i wiedzy fachowej poprzez wymogi w zakresie dokumentacji i rejestrowania zgodnie z prawem. W takich sytuacjach sąd nie powinien stosować domniemania.

Domniemanie związku przyczynowego może mieć również zastosowanie do systemów sztucznej inteligencji, które nie są systemami sztucznej inteligencji wysokiego ryzyka, ponieważ powód może mieć nadmierne trudności w dowodach. Na przykład takie trudności można ocenić w świetle cech niektórych systemów sztucznej inteligencji, takich jak autonomia i nieprzejrzystość, które w praktyce bardzo utrudniają wyjaśnienie wewnętrznego funkcjonowania systemu sztucznej inteligencji, co negatywnie wpływa na zdolność powoda do udowodnienia związku przyczynowego między winą oskarżonego a wyjściem SI. Sąd krajowy powinien zastosować domniemanie, jeżeli powód znajduje się w nadmiernie trudnej sytuacji w celu udowodnienia związku przyczynowego, ponieważ wymagane jest wyjaśnienie, w jaki sposób system sztucznej inteligencji był kierowany przez działanie lub zaniechanie człowieka, które stanowi winę za wytworzenie danych wyjściowych lub brak wytworzenia danych, które spowodowało szkodę. Od powoda nie należy jednak wymagać wyjaśnienia cech danego systemu sztucznej inteligencji ani tego, w jaki sposób cechy te utrudniają ustalenie związku przyczynowego.

Zastosowanie domniemania związku przyczynowego ma zapewnić osobie poszkodowanej podobny poziom ochrony, jak w sytuacjach, w których nie bierze udziału sztuczna inteligencja, a zatem w których udowodnienie związku przyczynowego może być łatwiejsze. Niemniej zmniejszenie ciężaru udowodnienia związku przyczynowego nie zawsze jest właściwe na mocy projektowanej dyrektywy, jeżeli pozwany nie jest użytkownikiem profesjonalnym, lecz raczej osobą korzystającą z systemu sztucznej inteligencji do swojej działalności prywatnej. W takich okolicznościach, aby zrównoważyć interesy osoby poszkodowanej i użytkownika nieprofesjonalnego, należy wziąć pod uwagę, czy tacy użytkownicy nieprofesjonalni mogą poprzez swoje zachowanie zwiększać ryzyko wyrządzenia szkody przez system sztucznej inteligencji. Jeżeli dostawca systemu sztucznej inteligencji wywiązał się ze wszystkich spoczywających na nim obowiązków i w konsekwencji system ten został uznany za wystarczająco bezpieczny, aby mógł być wprowadzany do obrotu w danym celu przez użytkowników nieprofesjonalnych, a następnie jest on wykorzystywany do tego zadania, domniemanie związku przyczynowego nie powinno mieć zastosowania do prostego uruchomienia takiego systemu przez takich nieprofesjonalnych użytkowników. Użytkownik nieprofesjonalny, który kupuje system sztucznej inteligencji i po prostu uruchamia go zgodnie z jego przeznaczeniem, bez istotnej ingerencji w warunki działania, nie powinien być objęty domniemaniem związku przyczynowego określonym w projektowanej dyrektywie. Jeżeli jednak sąd krajowy ustali, że użytkownik nieprofesjonalny istotnie ingerował w warunki działania systemu SI lub był zobowiązany i mógł określić warunki działania systemu SI, a tego nie uczynił, wówczas domniemanie związku przyczynowego powinno mieć zastosowanie, jeżeli spełnione są wszystkie pozostałe warunki. Może tak być na przykład w przypadku, gdy użytkownik nieprofesjonalny nie przestrzega instrukcji użytkowania lub innych obowiązujących obowiązków ostrożności przy wyborze obszaru działania lub przy ustalaniu warunków działania systemu sztucznej inteligencji. Pozostaje to bez uszczerbku dla faktu, że dostawca powinien określić zamierzony cel systemu sztucznej inteligencji, w tym konkretny kontekst i warunki użytkowania, oraz odpowiednio wyeliminować lub zminimalizować ryzyko związane z tym systemem w momencie projektowania i opracowywania, biorąc pod uwagę wiedzę i doświadczenie przewidywanego użytkownika.

Podsumowanie

Rozwój sztucznej inteligencji i coraz większa jej obecność w codziennym życiu wymuszają stosowne regulacje prawne. Komisja Europejska otwarcie zachęca do rozwoju sztucznej inteligencji widząc w niej szanse na rozwój rynku cyfrowego oraz ogólnie pozytywny wpływ na społeczeństwo. Niemniej, będąc świadomą ewentualnego ryzyka błędów w działaniu sztucznej inteligencji, Komisja zawczasu reguluje odpowiedzialność dostawców systemu SI oraz ułatwia ewentualne dochodzenie roszczeń.

Paweł Terpiłowski

radca prawny, autor bloga www.Sprawnie.com


[1] Artykuł 3 projektu rozporządzenia Parlamentu Europejskiego i Rady ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji) i zmieniające niektóre akty ustawodawcze Unii.

[2] Komisja Europejska, link , dostęp dnia 28.11.2022 r.

Zobacz więcej podobnych artykułów