Poprzedni artykuł w numerze
Abstrakt
Problematyka tekstu obejmuje rozważania de lege lata oraz de lege ferenda dotyczące odpowiedzialności cywilnej za szkody spowodowane funkcjonowaniem sztucznej inteligencji w reżimie odpowiedzialności deliktowej (ex delicto) oraz umownej (ex contractu). Opracowanie stanowi przegląd dotychczasowego dorobku polskiej nauki prawa cywilnego w zakresie sztucznej inteligencji oraz zbadanie aktualności przepisów polskiego Kodeksu cywilnego w odniesieniu do szkód wywołanych funkcjonowaniem sztucznej inteligencji. W tekście poruszono również wybrane zagadnienia prawne, których źródłem jest prawodawstwo Unii Europejskiej, ze szczególnym uwzględnieniem proponowanej przez Komisję Europejską dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję. Tekst uwzględnia przy tym praktyczne doświadczenie autorów w obsłudze prawnej podmiotów z sektora technologii informacyjnych.
I. Wstęp
Jesteśmy świadkami dynamicznego rozwoju sztucznej inteligencji (zwanej dalej zamiennie „AI”, z angielskiego artificial intelligenceSpotyka się niekiedy także skrót „SI”, od polskiego zwrotu „sztuczna inteligencja”, ale dużo rzadziej niż „AI”, stąd postanowiliśmy w niniejszym artykule posługiwać się bardziej popularną wersją skrótu.).
Do pewnego momentu przebieg rozwoju sztucznej inteligencji pozostawał poza obszarem szerszego zainteresowania opinii publicznej. Od pewnego czasu jednak – za sprawą komercyjnego sukcesu otwartych, tzw. generatywnych modeli AI (czyli modeli zdolnych do tworzenia bardzo różnorodnych materiałów jak teksty i obrazy oraz do prowadzenia konwersacji w ich przedmiocie z użytkownikiem) – dyskusja o sztucznej inteligencji, w tym związanych z nią wyzwaniach prawnych, trafiła do mainstreamu.
Im więcej sztucznej inteligencji w naszym życiu, tym więcej okazji, w których może ona zawieść. Jest to normalne dla każdej technologii od zarania dziejów. Niepowodzenia w funkcjonowaniu modeli AI w naturalny sposób będą generować u określonych podmiotów szkody, a te wymagać będą ustalenia osoby odpowiedzialnej za jej naprawienie. Należy więc określić, kto, w jaki sposób i w jakim zakresie powinien być do tego zobowiązany. Niniejszy artykuł zmierza do udzielenia odpowiedzi na postawione pytanie. Kształt konkretnego rozstrzygnięcia wskazanego problemu będzie zależał od rodzaju sztucznej inteligencji „zaangażowanej” w wyrządzenie szkody oraz okoliczności jej wyrządzenia.
W tym miejscu należy poczynić uwagi na temat tego, czym jest sztuczna inteligencja i dlaczego jej cechy sprawiają, że należy ją traktować wyjątkowo w kontekście odpowiedzialności cywilnej. Stoimy na stanowisku, że prawo cywilne w kontekście definiowania AI powinno pełnić rolę wtórną, oddając ocenę, czym jest AI, sferze faktów bądź innym aktom prawnym.
W świecie nauki, techniki i biznesu nie istnieje jedna powszechnie uznana definicja sztucznej inteligencji. Szczęśliwie, stosowane opisy tego pojęcia są dość spójne, a różnice między nimi nie są istotne z perspektywy przeciętnego uczestnika obrotu. Przykładowo uznany w świecie technologii amerykański National Institute of Standard and Technology określa AI jako „(1) gałąź nauk komputerowych poświęconą opracowywaniu systemów przetwarzania danych, które wykonują funkcje zwykle związane z ludzką inteligencją, takie jak rozumowanie, uczenie się i samodoskonalenie oraz (2) zdolność urządzenia do wykonywania funkcji, które zwykle kojarzone są z ludzką inteligencją, takich jak rozumowanie, uczenie się i samodoskonalenie”https://csrc.nist.gov/Topics/technologies/artificial-intelligence.. W Polityce dla rozwoju sztucznej inteligencji w Polsce od roku 2020http://sipdata.lex.pl/dane/monitory/2021/2445830/1.pdf?_ga=2.116799297.677839057.1620393881-573017618.1603871734. określa się ją jako dziedzinę wiedzy obejmującą m.in. sieci neuronowe, robotykę i tworzenie modeli zachowań inteligentnych oraz programów komputerowych symulujących te zachowania, włączając w to również uczenie maszynowe (ang. machine learning), głębokie uczenie (ang. deep learning) oraz uczenie wzmocnione (ang. reinforcement learning). Latem 2024 r. pojawiła się pierwsza definicja legalna pojęcia sztucznej inteligencji – przewidziana przez art. 3 pkt 1 rozporządzenia AI ActTj. Rozporządzenia Parlamentu Europejskiego i Rady (UE) 2024/1689 z 13.06.2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji)., przewidująca, że „system AI” oznacza system maszynowy, który został zaprojektowany do działania z różnym poziomem autonomii po jego wdrożeniu oraz który może wykazywać zdolność adaptacji po jego wdrożeniu, a także który – na potrzeby wyraźnych lub dorozumianych celów - wnioskuje, jak generować na podstawie otrzymanych danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne.
Przywołana wyżej definicja systemu AI określa de facto zakres przedmiotowy tego rozporządzenia, nie musi być jednak rozpoznawana przez prawo cywilne, dopóki nie istnieją do niej odwołania. Z tego powodu istotne wydaje się określenie kluczowych cech AI, aby móc dalej prowadzić rozważania dotyczące odpowiedzialności cywilnej w jej kontekście.
Można zatem wysnuć wniosek, że sztuczną inteligencję charakteryzuje zbliżenie rezultatów jej działania do wytworów pracy ludzkiego intelektu (co koresponduje ze zdolnością do wnioskowania i wpływania na otoczenie, wymienionymi w AI Act). Bardzo często będzie ją cechować także zdolność do samodoskonalenia, czyli poprawiania metod swojego funkcjonowania (typowo, ale nie zawsze – na co również zwraca uwagę AI Act). Trzecią, immanentną i najważniejszą cechą sztucznej inteligencji z perspektywy rozważań dotyczących odpowiedzialności cywilnej jest autonomiczność. Skoro sztuczna inteligencja może symulować inteligentne zachowania i jest zdolna do optymalizacji metod swojego działania, to znaczy, że może działać w sposób niezdeterminowany bezpośrednio przez twórców inteligentnych algorytmów (czy szerzej – wykorzystujących ich rozwiązania IT), a więc autonomiczny. A zatem, w pewnym sensie, zdolny do zaskakiwania twórców czy operatorów AI. Oczywiście poziom autonomiczności różnych rozwiązań AI może się różnić. Niemniej ta cecha stanowi kluczową „operacyjną” różnicę pomiędzy narzędziami IT wykorzystującymi rozwiązania oparte na sztucznej inteligencji, a klasycznymi systemami IT. Ukazuje też, dlaczego sztuczna inteligencja wymaga odrębnego podejścia w kontekście odpowiedzialności cywilnej. Im bardziej sztuczna inteligencja jest autonomiczna, tym mocniej wymyka się tradycyjnemu rozumieniu kontroli nad środkami technicznymi. Poniżej wielokrotnie wskazujemy, że stopień natężenia samodzielności AI powinien wpływać na jej postrzeganie oraz ocenę z perspektywy norm prawa cywilnego dotyczących odpowiedzialności.
II. Sztuczna inteligencja a czyny niedozwolone
W polskim systemie prawa cywilnego mianem „czynu niedozwolonego”, tudzież „deliktu”, zwykło się nazywać zdarzenie prawne, z którego wystąpieniem łączy się powstanie zobowiązania opiewającego na świadczenie, a którego treścią jest naprawienie szkody – bądź to in natura, bądź poprzez zapłatę odszkodowania pieniężnegoTak: R. Strugała, Dobra i interesy chronione w strukturze czynu niedozwolonego, Warszawa 2019, SIP Legalis; W. Czachórski (w:) System prawa cywilnego, red. S. Grzybowski, Wrocław 1980, t. III, cz. I, s. 518; A. Wolter, Prawo cywilne. Zarys części ogólnej, Warszawa 1977, s. 105 i n.; S. Grzybowski, Prawo cywilne. Zarys części ogólnej, Warszawa 1974, s. 84 i n.; E. Łętowska, K. Osajda (w:) System Prawa Prywatnego, red. E. Łętowska, t. 5, Warszawa 2013, s. 14; A. Śmieja (w:) System Prawa Prywatnego, red. A. Olejniczak, Warszawa 2014, t. 6, s. 356..
Pojęcie „czynu niedozwolonego” ma znaczenie techniczneF. Zoll, Zobowiązania w zarysie według polskiego Kodeksu zobowiązań, Warszawa 1948, s. 119., co oznacza, że odnosi się do szerokiego wachlarza możliwych zdarzeń, niekoniecznie będących wynikiem zachowania człowieka, jednakże skutkujących zagrożeniem lub naruszeniem dóbr, a w efekcie – mogących prowadzić do powstania szkody. Polski Kodeks cywilny zawiera bogaty katalog takich, innych niż bezpośrednie czyny człowieka, zdarzeń. Tytułem przykładu wskazać można art. 431 k.c., który reguluje odpowiedzialność za szkody spowodowane przez zwierzęta, lub art. 435 k.c., odnoszący się do odpowiedzialności prowadzącego przedsiębiorstwo wprawiane w ruch za pomocą sił przyrody. Co więcej, owa „techniczność” pojęcia czynu niedozwolonego objawia się również w przesłance, że dla powstania obowiązku naprawienia szkody nie ma znaczenia, czy dany czyn był prawnie zakazany lub chociażby negatywnie oceniany w świetle zasad współżycia społecznego. Kluczowym kryterium jest bowiem sam fakt naruszenia dóbr podmiotu i wywołanie lub groźba wywołania szkody, które nie mają prawnego uzasadnieniaB. Lackoroński, M. Raczkowski (w:) Kodeks cywilny. Komentarz, red. K. Osajda, red. tomu W. Borysiak, komentarz do art. 415 k.c., teza nr 4, SIP Legalis..
Prowadzi to do – być może – nieintuicyjnego wniosku, że wbrew brzmieniu art. 415 k.c. samo pojęcie deliktu nie jest ściśle związane z winą podmiotu. Powszechnie jako nieodłączne elementy deliktu, a także warunki odpowiedzialności z tytułu jego powstania, wyróżnia się trzy przesłanki, tj.: 1) zaistnienie zdarzenia szkodzącego, 2) wystąpienie szkody oraz 3) istniejący pomiędzy nimi adekwatny związek przyczynowy. Natomiast sama podstawa odpowiedzialności jest już elementem zmiennym, gdyż może nią być zarówno działanie człowieka, jak i inne zdarzenie. Tym samym wyróżnić można dalsze elementy deliktu, tzw. zasady odpowiedzialności deliktowej, przede wszystkim zasadę winy, zasadę ryzyka, zasadę bezprawności oraz zasadę słuszności.
Powyższe uwagi mają niebagatelne znaczenie, gdyż otwierają możliwość, aby w ogóle dyskutować na temat odpowiedzialności deliktowej za zdarzenia związane z eksploatacją sztucznej inteligencji. Trudno sobie bowiem wyobrazić, aby sztuczna inteligencja, jako taka, ponosiła „winę” za jakiekolwiek swoje „zachowania” i ich skutkiKwestię podmiotowości prawnej sztucznej inteligencji pozostawiamy poza zakresem niniejszego artykułu jako mającą znikome znaczenie dla podejmowanych w nim rozważań.. Z całą pewnością jednak może ona być przyczyną zaistnienia zdarzeń, które mogą prowadzić do naruszenia dóbr (fizycznych lub niematerialnych) innych podmiotów, co z kolei sprawi, że u tych podmiotów powstaną szkody. Sztuczna inteligencja może być zatem przyczyną powstania deliktu. Należy przy tym zauważyć, że sztuczna inteligencja, jako taka, nie jest podmiotem prawa, ale jego przedmiotem (jednak nie jest rzeczą). Co do zasady za przedmioty prawa odpowiada ich właściciel (lub podmiot uprawniony), jednak w przypadku sztucznej inteligencji kwestia niekiedy nie wydaje się oczywista.
Nauka prawa musi zatem znaleźć odpowiedź na zasadnicze pytanie, jaka jest podstawa odpowiedzialności za taki delikt oraz kto powinien tę odpowiedzialność ponosić, a także zmierzyć się z wyzwaniem ustalenia, jak należy prawnie kwalifikować delikty związane z funkcjonowaniem sztucznej inteligencji.
Wbrew pozorom pytanie to nie jest ani przesadnie nowe, ani ubogie w możliwe – i satysfakcjonujące – odpowiedzi. W istocie, w polskiej nauce prawa dyskusja na ten temat toczy się już od przynajmniej kilku lat. Jej efekty potwierdzają przy tym ponadczasowość konstrukcji funkcjonujących w prawie cywilnym, które są w stanie radzić sobie z wyzwaniami rzucanymi im przez nowe technologie, pomimo powracających regularnie głosów domagających się uchwalania odpowiednich przepisów i tworzenia nowych konstrukcji dla każdego nowego zjawiska technologicznego. Naukowe opracowania zyskują przy tym coraz większe znaczenie praktyczne.
Odpowiedzialność w obszarze sztucznej inteligencji jest w istocie zawsze – w większym lub mniejszym stopniu – związana przede wszystkim z odpowiedzialnością za działanie programu komputerowego. Oczywiście, programu unikalnego, niezwykle zaawansowanego oraz, częściowo lub całkowicie, autonomicznego, ale jednak wciąż programu komputerowego, bez działania którego sztuczna inteligencja nie może istnieć. Po drugie, sztuczna inteligencja może funkcjonować wyłącznie w sferze wirtualnej, jako element oprogramowania, albo w programie komputerowym powiązanym integralnie z rzeczą (jako element bezpieczeństwa albo program operujący tą rzeczą, jak np. robotem, dronem lub samochodem autonomicznym).
Potencjalne szkody, które mogą powstać wskutek użycia sztucznej inteligencji, są niezwykle zróżnicowane. Mogą mieć charakter majątkowy, jak i niemajątkowy (krzywda), mogą dotyczyć rzeczy lub dóbr niematerialnych. Wreszcie, szkody mogą zostać wywołane przez człowieka wspieranego w jakimś zakresie przez AI (sztuczna inteligencja jako narzędzie), jak i przez AI „autonomicznie”, bez jego bezpośredniego udziału (sztuczna inteligencja samodzielnie podejmująca decyzję)Z zastrzeżeniem tzw. systemów sztucznej inteligencji wysokiego ryzyka, zgodnie z definicją przyjętą we Wniosku – Rozporządzeniu Parlamentu Europejskiego i Rady ustanawiającym zharmonizowane przepisy dotyczące sztucznej inteligencji (Akt w sprawie sztucznej inteligencji) i zmieniającym niektóre akty ustawodawcze Unii. W myśl art. 14 ust. 1 rozporządzenia: „Systemy sztucznej inteligencji wysokiego ryzyka projektuje się i opracowuje się w taki sposób, w tym poprzez uwzględnienie odpowiednich narzędzi interfejsu człowiek-maszyna, aby w okresie wykorzystywania systemu sztucznej inteligencji wysokiego ryzyka mogły je skutecznie nadzorować osoby fizyczne”..
Czyny niedozwolone wywołane przez człowieka posługującego się jedynie AI (AI jako narzędzie), jak np. atak hackerski z wykorzystaniem sztucznej inteligencji, nie stanowią wielkiego wyzwania z punktu widzenia analizy odpowiedzialności deliktowej. Oceniać je można tak samo jak tradycyjne czyny niedozwolone, popełniane z wykorzystaniem specyficznego narzędzia. Pewien problem pojawia się jednak w sytuacji, kiedy to sztuczna inteligencja „samodzielnie” – tj. bez bezpośredniego udziału i woli człowieka – wywoła jakieś zdarzenie faktyczne, którego skutkiem będzie szkoda danego podmiotu. Przeważnie wyrządzenie szkody przez AI będzie implikacją błędu jej działania, wynikającego z bugu oprogramowania, w którym został osadzony model AI, czy niedostatków jej algorytmu albo nieprawidłowości w procesie z treningu na danych. Jednak jest możliwe do wyobrażenia wyrządzenie szkody przez AI w sytuacji, kiedy działała ona w pełni sprawnie. Może to nastąpić w sytuacji klasycznego wypadku samochodowego (np. zderzenie dwóch pojazdów) albo konieczności podjęcia przez AI decyzji o minimalizowaniu nieuniknionej szkody (np. przy zajściu nieprzewidzianych okoliczności AI decyduje się na jeden z wariantów, z których każdy jest szkodliwy, ale ten wybrany – najmniej).
Podmiotów, którym mogłaby zostać potencjalnie przypisana odpowiedzialność, jest na pierwszy rzut oka tak dużo, że wyzwaniem może okazać się wskazanie tego właściwego (projektant algorytmów, producent, podmiot wdrażający lub trenujący model AI czy użytkownik końcowy), a regulacje prawne nie pokrywają (lub pokrywają niekompletnie) całego wachlarza zdarzeń mogących wywoływać u danego podmiotu szkodę w związku z działaniem sztucznej inteligencji. W anglosaskiej literaturze prawniczej – w kontekście sektora IT – występuje nawet pojęcie zwane liability gap i oznacza ono sytuację, w której występuje luka prawna odnosząca się do możliwości przypisania odpowiedzialnościZob. np. S. De Conca, Bridging the Liability Gaps: Why AI Challenges the Existing Rules on Liability and How to Design Humanempowering Solutions (w:) Law and Artificial Intelligence. Information Technology and Law Series, red. B. Custers, E. Fosch-Villaronga, vol 35. T.M.C. Asser Press, The Hague (2022), https://doi.org/10.1007/978-94-6265-523-2_13.. Czy tego typu sytuacja może istnieć w polskim porządku prawnym?
Na tego typu pytanie należy udzielić odpowiedzi negatywnej. Prawo cywilne jest bowiem dziedziną prawa, która zgłasza pretensje do zupełnościS. Grzybowski (w:) System prawa cywilnego, t. 1, Część ogólna, Ossolineum 1985, s. 164–166.. Wobec faktu, że rzeczywistość zawsze pozostaje o krok przed prawem, nieuchronnie muszą w nim powstawać luki. Prawo cywilne radzi sobie z nimi swoim podstawowym narzędziem, czyli analogią. Jest ona przy tym zabiegiem o znaczeniu absolutnie podstawowym, a zarazem całkowicie zwyczajnym i stanowiącym niekwestionowaną zasadęJ. Nowacki, Analogia legis, Warszawa 1966, s. 218–221.. Z tego też powodu nawet jeżeli mielibyśmy w polskich realiach prawnych do czynienia z czymś na kształt liability gap, lukę tę można – i należy – wypełnić, stosując w odpowiedni sposób analogię. System prawa cywilnego nie zniósłby tego rodzaju próżni.
Zatem kluczowym zadaniem w kontekście odpowiedzialności deliktowej za AI nie jest odpowiedź na pytanie, czy sztuczna inteligencja jest objęta jej zakresem, a raczej wybór odpowiedniej zasady tej odpowiedzialności spośród zasad winy (uznawanej często za „domyślną”), ryzyka, słuszności czy może wręcz zasady gwarancyjnej.
W naszej ocenie przyjęcie zasady odpowiedzialności w kontekście AI wymaga podejścia funkcjonalnego i powinno być determinowane przede wszystkim stopniem autonomiczności danego narzędzia AI. Jeśli sztuczna inteligencja jest wyłącznie narzędziem w rękach operatora, który na końcu podejmuje decyzję, sytuacja taka nie różni się niczym od korzystania z długopisu, samochodu, noża czy „nieinteligentnego” oprogramowania komputerowegoTak trafnie: A. Chłopecki (w:) Sztuczna Inteligencja – szkice prawnicze i futurologiczne, Warszawa 2021, SIP Legalis.. Zwracamy przy tym uwagę, że nie ma tutaj znaczenia rodzaj sztucznej inteligencji – słaba lub silna, wąska lub szeroka. Poniekąd należałoby dokonać oceny, czy AI jest po prostu kolejnym mniej lub bardziej skomplikowanym narzędziem w rękach człowieka, czy wyręcza przy realizacji określonych czynności.
M. Wałachowska proponuje z kolei możliwość stosowania zasady „winy organizacyjnej”, stanowiącej postać klasycznej zasady winy, obejmującej przykładowo sytuację wykazania, że dane urządzenia wykorzystujące sztuczną inteligencję nie były należycie serwisowane czy wbrew zaleceniom twórcy oprogramowania nie zainstalowano poprawek i uzupełnień do systemu. Nie można również jej zdaniem wykluczyć odpowiedzialności lekarza czy pielęgniarki na zasadzie winy własnej, częściej jednak mielibyśmy do czynienia z odpowiedzialnością podmiotu leczniczego (na podstawie art. 429 lub 430 k.c.), w zależności od charakteru prawnego stosunku łączącego np. szpital z lekarzem monitorującym urządzenie czy weryfikującym analizy badań wykonane przez urządzenieZob. M. Wałachowska (w:) Prawo sztucznej inteligencji, Rozdział V. Sztuczna inteligencja a zasady odpowiedzialności cywilnej, red. L. Lai, M. Świerczyński, SIP Legalis.
Praktyka i nauka prawna są dość zgodne, że dla AI o wysokim poziomie autonomiczności zasada winy często może być nieadekwatna (operator czy producent AI nie powinien móc uwolnić się od odpowiedzialności w wypadku, kiedy model sztucznej inteligencji zachował się inaczej, niż było przewidziane). Tytułem przykładu, A. Chłopecki wyraża pogląd, który sam określa jako kontrowersyjny, zakładający ustalenie odpowiedzialności dysponenta niebędącego przedsiębiorcą na zasadzie winy w nadzorze, a dysponenta będącego przedsiębiorcą – na zasadzie ryzykaA. Chłopecki (w:) Sztuczna Inteligencja…, Rozdział 7, Warszawa 2021, SIP Legalis.. W praktyce zatem przedsiębiorca odpowiadałby za każdy skutek działania AI, o ile nie byłby spowodowany okolicznością niedotyczącą AI (okoliczności egzoneracyjne takie jak spowodowanie szkody przez osobę trzecią, nad którą nie było możliwości zapanowania – jak np. gdy ktoś rzuca się pod koła auta autonomicznego albo gdy nieprawidłowość działania modelu AI wynika z poważnego ataku hackerskiego, przed którym obrona nie była możliwa mimo zachowania należytej staranności), a konsument odpowiadałby za szkodę wyrządzoną przez sztuczną inteligencję, o ile w sposób nieprawidłowy („niezgodny z instrukcją”) by ze sztucznej inteligencji korzystał, przy czym to na nim spoczywałby ciężar dowodu, że jego działanie było prawidłowe. Jest to niewątpliwie ciekawa koncepcja, jednak niemająca na ten moment podstaw ustawowych. Jej przyjęcie, w naszej opinii, wymagałoby zmian legislacyjnych.
Tymczasem, nie uciekając się do dyskusji de lege ferenda, które są tyleż interesujące, co niewystarczające z uwagi na teraźniejsze potrzeby obrotu, prawo daje pewne podstawy, które należy wykorzystywać w kontekście AI – instytucje odpowiedzialności za pojazd i za przedsiębiorstwo wprawiane w ruch za pomocą sił przyrody. Można przyjrzeć się także odpowiedzialności za szkody wyrządzone przez zwierzęta jako intrygującej (i kontrowersyjnej) opcji do wykorzystania wobec AI, do której można sięgać przez analogię. Ponadto trwają już także prace nad specjalnymi przepisami dot. odpowiedzialności za AI jednolitymi w całej Unii Europejskiej, które również zostaną tutaj omówione.
III. Przedsiębiorstwo wprawiane w ruch za pomocą sił przyrody
Reżim odpowiedzialności oparty na zasadzie ryzyka, dotyczący przedsiębiorstw wprawianych w ruch za pomocą sił przyrody, jest najbardziej atrakcyjnym z punktu widzenia dochodzenia swoich roszczeń, ale również potencjalnie cieszyć się będzie największą popularnością (bowiem to przedsiębiorcy tworzą i używają sztucznej inteligencji na największą skalę). Z tego też względu wywód rozpocząć wypada od tej właśnie podstawy odpowiedzialności.
Zgodnie z art. 435 k.c. odpowiedzialność na zasadzie ryzyka ponosi każdy podmiot prowadzący na własny rachunek przedsiębiorstwo lub zakład wprawiany w ruch za pomocą sił przyrody, w szczególności pary, gazu, elektryczności, paliw płynnych. W doktrynie i orzecznictwie przyjmuje się, że owo „wprawianie w ruch za pomocą sił przyrody” oznacza, że przedsiębiorstwo wykorzystuje bezpośrednio siły przyrody w ramach procesów polegających na przetwarzaniu energii na pracę lub inne postacie energii z wykorzystaniem maszyn lub innych urządzeń, będąc wprawiane w ruch jako całość przez owe siły przyrody w tym sensie, że funkcjonowanie przedsiębiorstwa jest uzależnione od wykorzystania tych sił przyrodyZob.: postanowienie Sądu Najwyższego z 29.01.2008 r. (I PK 258/07), Legalis nr 170244; wyrok Sądu Najwyższego z 27.09.2018 r. (III PK 77/17), Legalis nr 1838342; zob. także K. Panfil (w:) Kodeks cywilny. Komentarz, red. K. Osajda, W. Borysiak, komentarz do art. 435 k.c., teza nr 14, SIP Legalis.. Orzecznictwo jest dość spójne w zakresie uznania przedsiębiorstw energetycznychWyrok Sądu Najwyższego z 24.09.2009 r. (IV CSK 207/09), Legalis nr 178951 oraz z 5.09.2012 r. (IV CSK 25/12), Legalis nr 551895., gazowniWyrok Sądu Najwyższego z 24.05.1961 r. (3 CR 962/60), OSPiKA 1962, poz. 110., elektrowniWyrok Sądu Apelacyjnego w Warszawie z 15.01.2014 r. (VI ACa 676/13), Legalis nr 831514., lotniskWyrok Sądu Apelacyjnego w Warszawie z 22.05.2019 r. (V ACa 123/18), Legalis nr 2122827; wyrok Sądu Apelacyjnego w Warszawie z 2.03.2017 r. (I ACa 1210/14), Legalis nr 1636742. i innych, podobnych, za przedsiębiorstwa wprawiane w ruch za pomocą sił przyrody.
Siłą rzeczy, w związku z ciągłym rozwojem technologicznym, przedsiębiorstwa wskazane wyżej korzystają z szeroko rozumianego oprogramowania. Zarówno w formie systemów zarządzających danymi procesami w ramach działalności gospodarczej (jak ERP, CRM, itp.), jak i oprogramowania związanego bezpośrednio z maszynami (jak windy, dźwigi, elementy kontroli dostępu etc.) czy robotami (np. roboty przemysłowe w fabrykach). Coraz częściej takie oprogramowanie wykorzystuje i będzie wykorzystywać elementy sztucznej inteligencji – w celu wykonywania określonej pracy w coraz bardziej zautomatyzowany sposób. W zakresie, w jakim dane oprogramowanie steruje fizycznym obiektem (jak maszyna czy robot) czy jest jego elementem bezpieczeństwa, przedsiębiorstwo nadal spełnia przesłankę „przetwarzania” energii celem „wprawiania w ruch” przedsiębiorstwa – a zatem jego funkcjonowanie jest możliwe dzięki „pracy” owych maszyn. Jak słusznie zauważa jednak A. Michalak – kwestia, że roboty posługują się oprogramowaniem, jest prawnie irrelewantna z punktu widzenia „klasycznej” wykładni art. 435 k.c. Istotne znaczenie ma fakt, że to robot (czy inna maszyna) jest wprawiany w ruch za pośrednictwem energii elektrycznej, która jest następnie przetwarzana na pracęA. Michalak, Odpowiedzialność cywilnoprawna w obrocie oprogramowaniem komputerowym w erze sztucznej inteligencji. Rozdział VI, § 4, Warszawa 2021, SIP Legalis.. Natomiast w zakresie przedsiębiorstwa, którego istotną częścią wprawiającą w ruch jest oprogramowanie (jak wspominane systemy klasy ERP), lub – idąc dalej – którego działalność wyczerpuje się wyłącznie w obszarze wirtualnym (jak np. wirtualna elektrownia), autor ten zauważa, że tradycyjna wykładnia art. 435 k.c. uniemożliwia kwalifikację takiego przedsiębiorstwa jako wprawianego w ruch za pomocą sił przyrodyAutor powołuje się przy tym na obszerne uzasadnienie wyroku Sądu Najwyższego z 21.09.2017 r. (I PK 272/16), Legalis nr 1695956..
O ile zatem tradycyjne ujęcie odpowiedzialności na gruncie art. 435 k.c. opiera się na ryzyku stwarzanym przez technikę, o tyle poza zakresem swojego zastosowania pozostawia ryzyko stwarzane przez nowe technologie, które korzystają z „sił przyrody” jedynie pośrednio. Finalnie A. Michalak, podpierając się stanowiskiem M. Zelka, ryzykuje sformułowanie tezy, zgodnie z którą art. 435 k.c., w swoim aktualnym brzmieniu, umożliwia przyjęcie interpretacji, że „siłą przyrody” wprowadzającą w ruch przedsiębiorstwo może być także oprogramowanie – przy założeniu, że „siła przyrody” zostanie uznana jako pojęcie prawne, a nie pojęcie techniczne (nawiązujące do zasad fizyki)A. Michalak, Odpowiedzialność…, Rozdział VI, § 4.. Ponadto odpowiedzialność na podstawie art. 435 k.c. ponosić mogłyby wyłącznie takie przedsiębiorstwa, które prowadząc działalność gospodarczą na bazie oprogramowania, stwarzają wysokie ryzyko wyrządzenia szkody (trudno uznać, że odpowiedzialność na zasadzie ryzyka miałby ponosić przykładowo sprzedawca prowadzący sklep internetowy i wykorzystujący system CRM).
Powyższy pogląd zasługuje na aprobatę. W swoim stanowisku wykonamy nawet krok dalej i stwierdzimy, że objęcie dyspozycją art. 435 k.c. przedsiębiorstw opartych na działaniu pewnych kategorii oprogramowania, a w szczególności tego wykorzystującego metody sztucznej inteligencji, jest wręcz nieuchronną koniecznością, bowiem „kategoria przedsiębiorstwa lub zakładu wprawianego w ruch za pomocą sił przyrody jest zmienna, zależna od aktualnego rozwoju gospodarki i postępu technologicznego. W szczególności, przesłanki z art. 435 § 1 KC może – z uwagi na zmieniony sposób funkcjonowania i wykorzystywania przetworzonej energii czy inną skalę działalności – spełniać przedsiębiorstwo, którego w starszym orzecznictwie nie zakwalifikowano na gruncie art. 435 § 1 KC”K. Panfil (w:) Kodeks cywilny. Komentarz, red. K. Osajda, W. Borysiak, komentarz do art. 435 k.c., teza nr 19, SIP Legalis..
Uważamy, że przewidywany wpływ sztucznej inteligencji na obrót gospodarczy nie pozwoli, aby – w określonych przypadkach – nie objąć posługiwania się odpowiedzialnością na zasadzie ryzyka, tak jak przewiduje to art. 435 k.c. Czy to poprzez zmianę wykładni pojęcia „wprawiania w ruch za pomocą sił przyrody”, czy poprzez zastosowanie analogii, czy też wreszcie – poprzez bezpośrednią interwencję ustawodawcy (krajowego bądź unijnego). Interwencja ustawodawcza byłaby o tyle przydatna, że mogłaby jasno wyznaczyć granice pomiędzy przypadkami stosowania sztucznej inteligencji w przedsiębiorstwach, które generują podwyższone ryzyko dla człowieka i przez to powinny być objęte odpowiedzialnością na zasadzie ryzyka, a pomiędzy przypadkami, kiedy takie ryzyko nie jest wysokie i nie wymaga zwiększania rygoru odpowiedzialności. W tej sytuacji, w naszej opinii, pod uwagę powinny być wzięte dwa czynniki: stopień autonomiczności (samodzielności) wykorzystywanego modelu AI oraz szacowany rozmiar czy dotkliwość potencjalnych szkód, które taki model może wyrządzić człowiekowi (i to w każdej z możliwych sfer doznania szkód: majątkowej, zdrowotnej, psychiczno-emocjonalnej).
IV. Odpowiedzialność posiadacza pojazdu
Analiza art. 435 k.c. od razu kieruje uwagę czytelnika na jego rozwinięcie w zakresie art. 436 k.c., który to statuuje odpowiedzialność samoistnego posiadacza mechanicznego środka komunikacji poruszanego za pomocą sił przyrody (przepis określa, że do posiadacza takiego pojazdu stosuje się taką samą zasadę odpowiedzialności jak do dysponenta przedsiębiorstwa z art. 435 k.c.). Słusznie na myśl przychodzą od razu autonomiczne samochody, zatem tego wątku odpowiedzialności deliktowej nie sposób w tym miejscu pominąć.
Kodeks cywilny wprawdzie nie zawiera definicji pojęcia „mechanicznego środka komunikacji poruszanego za pomocą sił przyrody”, jednakże definicja taka została skonstruowana przez doktrynę i orzecznictwo, w postaci katalogu warunków, jakie muszą zostać spełnione przez pojazd, aby został uznany za mechaniczny środek komunikacji poruszany za pomocą sił przyrody. Wskazuje się, że musi być on wyposażony we własne urządzenie napędowe (silnik), być zdolny do przemieszczania się (zmiany miejsca położenia) bez względu na to, jaką drogą (lądową, morską, powietrzną) owo przemieszczanie będzie się odbywać, a nadto środek ten musi być przeznaczony do komunikacji. Środek musi być przy tym tego rodzaju, że jego konstrukcja pozwala na ruch z wykorzystaniem sił przyrody w rozumieniu art. 435 k.c., a zatem w szczególności pary, gazu, elektryczności, paliw płynnych, odpowiednio przetworzonychM. Zelek (w:) Kodeks cywilny, t. 2, Komentarz. Art. 353–626, red. M. Gutowski, komentarz do art. 436, Nb 4, SIP Legalis..
W doktrynie dość jednolicie przyjmuje się, że dron nie stanowi mechanicznego środka komunikacji poruszanego za pomocą sił przyrody w rozumieniu art. 436 k.c. przede wszystkim z uwagi na fakt, że drony należą do kategorii specjalistycznych urządzeń i maszyn niesłużących komunikacji, nawet jeżeli są wyposażone w silnik i zdolne do samodzielnego przemieszczenia sięM. Zelek (w:) Kodeks…, Nb 5; K. Panfil (w:) Kodeks cywilny. Komentarz, red. K. Osajda, W. Borysiak, komentarz do art. 436 k.c., teza nr 13, SIP Legalis; L. Jantowski (w:) Kodeks cywilny. Komentarz aktualizowany, red. M. Balwicka-Szczyrba, A. Sylwestrzak, komentarz do art. 436 k.c., teza nr 2, LEX/el. 2023..
Z kolei pojazd (samochód) autonomiczny z całą pewnością jest objęty dyspozycją art. 436 k.c., z tego samego powodu, z którego praca maszyn czy robotów może przesądzać o kwalifikacji przedsiębiorstwa jako wprawianego w ruch za pomocą sił przyrody, niezależnie od zastosowanego w nich oprogramowania. Pojazd autonomiczny ma wszystkie cechy tradycyjnego pojazdu, a ponadto posiada dodatkową cechę, jaką jest sterowanie nim nie przez kierowcę, ale przez zintegrowane z nim oprogramowanie. Nie ma zatem żadnego powodu, aby nie stosować do niego art. 436 k.c. Wniosek, że definicja „mechanicznego środka transportu poruszanego za pomocą sił przyrody” obejmuje pojazd autonomiczny, znajduje także potwierdzenie w doktrynieZob. A. Krasuski, Status prawny sztucznego agenta. Podstawy prawne zastosowania sztucznej inteligencji, Warszawa 2021, Rozdział VII, pkt 6.2.1., SIP Legalis..
Bardzo ważkim problemem i przedmiotem ożywionych dyskusji pozostaje jednak kwestia podmiotu odpowiedzialnego za ewentualne szkody wywołane przez pojazd autonomiczny – czy powinien to być twórca oprogramowania, producent samochodu czy jego użytkownik.
Przede wszystkim należy wskazać, że de lege lata treść art. 436 k.c., jak się wydaje, dość stanowczo, przesądza tę kwestię w odniesieniu do użytkownika (posiadacza samoistnego) pojazdu – zgodnie bowiem z jego treścią z całą pewnością ponosi on odpowiedzialność za szkodę spowodowaną posiadanym pojazdem. Należy przy tym przypomnieć, iż jest to odpowiedzialność oparta na zasadzie ryzyka, która uzasadniona jest aspektem istotnego niebezpieczeństwa związanego z poruszaniem się takim środkiem transportu (wysoka podatność na wypadki wynikająca z ograniczeń ludzkiej percepcji oraz potencjalnie dotkliwe szkody do wywołania przy użyciu pojazdu). Trudno powiedzieć, czy taka ocena zachowuje aktualność dla samochodów autonomicznych. Co prawda, w mediach często można usłyszeć o przypadkach kuriozalnych lub niebezpiecznych zdarzeń z ich udziałem. Jednak już wkrótce fakt używania podczas jazdy pojazdu mechanicznego, korzystającego z rozwiązań opartych na sztucznej inteligencji, oceniany być może całkowicie przeciwnie – jako zmniejszający niebezpieczeństwo i redukujący ryzyko. Powstanie wówczas sprzeczność aksjologiczna w wykładni tego przepisu, która prawdopodobnie wymusi zmianę jego brzmienia.
Obecnie, co do zasady, posiadacz pojazdu autonomicznego odpowiada za szkody wyrządzone przez ten pojazd. Dla porządku należy przy tym zwrócić uwagę, że odpowiada każdorazowo posiadacz samochodu, a więc osoba sprawująca nad nim faktyczne władztwo, nie zaś jego właściciel. O ile wydaje się to uzasadnione dla aut z inteligentnymi systemami wspierania kierowcy (gdzie jednak ciągle to on prowadzi i on podejmuje decyzje), o tyle wydaje się zupełnie niesłuszne dla w pełni autonomicznych samochodów, gdzie rola „kierowcy” sprowadza się do biernego pasażera (i, nota bene, powinna powodować, że nie jest już nazywany kierowcą). W tym miejscu wysoce oczekiwane i nieuniknione wydaje się dokonanie przez prawodawcę interwencji legislacyjnej. Widoczne staje się bowiem, że istnienie w przepisach wyjątku obciążającego na zasadzie ryzyka operatora samochodu autonomicznego byłoby kontrskuteczne – skoro jego działanie (a w zasadzie brak działania) w żaden sposób nie pozostaje w adekwatnym związku przyczynowym ze szkodą wyrządzoną przez autonomiczny pojazd.
Dla porządku należy pamiętać, że odpowiedzialność posiadacza pojazdu z art. 436 k.c. nie jest absolutna. Treść tego przepisu odsyła do art. 435 k.c., który w § 1 przewiduje przesłanki egzoneracyjne. Są nimi sytuacje, gdy szkoda powstała wskutek: (i) działania siły wyższej; (ii) z wyłącznej winy poszkodowanego oraz (iii) z wyłącznej winy osoby trzeciej, za którą posiadacz nie ponosi odpowiedzialności. Od razu uwagę przykuwa przesłanka nr (iii), tj. potencjalna wyłączna wina osoby trzeciej, a zatem przykładowo twórcy oprogramowania lub producenta pojazdu. Należy jednak zaznaczyć, że szanse dowodowe na wykazanie, że szkoda powstała z wyłącznej winy przynajmniej jednego z tych dwóch podmiotów, są bliskie zeru, w szczególności dla osoby niekompetentnej na poziomie technicznym.
Na marginesie należy również zauważyć, że powyższe rozważania mają niebagatelne znaczenie dla systemu ubezpieczeń cywilnych o charakterze obowiązkowym (np. OC), którego przepisy ustalają wysokość odszkodowania na mieszczącą się „w granicach odpowiedzialności cywilnej posiadacza lub kierującego pojazdem”Art. 36 ustawy o ubezpieczeniach obowiązkowych, Ubezpieczeniowym Funduszu Gwarancyjnym i Polskim Biurze Ubezpieczycieli Komunikacyjnych (Dz.U. z 2003 r. nr 124 poz. 1152)..
V. Odpowiedzialność za AI a odpowiedzialność jak za zwierzę domowe
Niezbyt oczywista, ale warta rozważenia, jest możliwość zastosowania do sztucznej inteligencji art. 431 k.c. – przepisu konstruującego odpowiedzialność za posiadane zwierzę. Porównanie sztucznej inteligencji do zwierzęcia rodzi pewien wewnętrzny konflikt, bowiem jest równocześnie adekwatne i nietrafione. Z jednej strony sztuczna inteligencja jest tworem niematerialnym, sztucznym (nawet jeżeli wiąże się z materialnym urządzeniem czy nośnikiem), stworzonym przez człowieka efektem skomplikowanej pracy programistycznej i matematycznej. Zwierzę z kolei jest istotą żywą, organiczną, o ograniczonym, względem człowieka, stopniu świadomości i poziomie inteligencji.
Równocześnie, zarówno sztuczna inteligencja na swoim obecnym poziomie rozwoju, jak i zwierzęta mają pewne wspólne cechy, które mogą nabrać znaczenia prawnego. Przede wszystkim sztuczna inteligencja oraz zwierzęta cechują się przynajmniej pewnym stopniem autonomiczności działania, są w stanie się „uczyć”, nabywać nowe umiejętności i działać samodzielnie, a jednak nie sposób mówić o ich świadomości (w znaczeniu pełnym) czy woli. Pozostają zatem pod kontrolą człowieka, co samo w sobie nasuwa pojęcie „nadzór”. Mimo to człowiek, choć ma na nie ogromny wpływ, nie jest w stanie zdeterminować lub przewidzieć każdego ich zachowania Z powyższych powodów ani zwierzęciu, ani sztucznej inteligencji nie da się obecnie przypisać czegoś takiego jak wina za żadne ze swoich działań, można ją z kolei przypisać nadzorującemu je człowiekowi. Równocześnie człowiek może zwierzęciem oraz modelem AI rozporządzać, a zatem jedno i drugie jest przedmiotem prawa cywilnego. Czy odpowiedzialność za efekt funkcjonowania sztucznej inteligencji można zatem opierać na tożsamych podstawach jak odpowiedzialność za zwierzę? Wydaje się to potencjalnie możliwe.
Zgodnie z art. 431 § 1 k.c.: „kto zwierzę chowa albo się nim posługuje, obowiązany jest do naprawienia wyrządzonej przez nie szkody niezależnie od tego, czy było pod jego nadzorem, czy też zabłąkało się lub uciekło, chyba że ani on, ani osoba, za którą ponosi odpowiedzialność, nie ponoszą winy”. Z kolei zgodnie z § 2 tego przepisu: „chociażby osoba, która zwierzę chowa lub się nim posługuje, nie była odpowiedzialna według przepisów paragrafu poprzedzającego, poszkodowany może od niej żądać całkowitego lub częściowego naprawienia szkody, jeżeli z okoliczności, a zwłaszcza z porównania stanu majątkowego poszkodowanego i tej osoby, wynika, że wymagają tego zasady współżycia społecznego”.
Wyżej wymieniona konstrukcja jest bardzo atrakcyjna dla AI (w tym nieucieleśnionej w żadnym fizycznym obiekcie). Sprowadzałaby się do tego, że operator AI odpowiada za jej działania, chyba że mimo starannego działania, zgodnie z otrzymanymi instrukcjami, AI wymknęła się spod jego kontroli.
Postuluje się niekiedy potrzebę stworzenia legalnej definicji zwierzęcia oraz „sztucznego agenta”, dla których miałyby funkcjonować zbliżone zasady odpowiedzialnościA. Krasuski, Status…, Rozdział VII, pkt 4.2. (nota bene, jest to problem podobny jak w przypadku pojęcia „wprawiania w ruch za pomocą sił przyrody”).
J.M. Kondek ogranicza się do stwierdzenia, że de lege lata stosowanie art. 431 k.c. musiałoby zostać oparte na analogiiJ. M. Kondek (w:) Kodeks cywilny. Komentarz, red. K. Osajda, red. tomu W. Borysiak, komentarz do art. 431 k.c., teza nr 11, SIP Legalis., a zatem wyłącznie odpowiednio, a nie wprost. W naszej ocenie jest to najbardziej relewantne oraz trafne stanowisko, jakie można obecnie zająć, i należy się do niego przychylić. Na marginesie wskazać należy, że sama idea porównania sztucznej inteligencji do zwierzęcia domowego jest na świecie przedmiotem ożywionej dyskusji i generalnie dopuszcza się taką możliwośćZob. np. E. Schaerer, R. Kelley, M. Nicolescu, Robots as Animals: A Framework for Liability and Responsibility in Human-Robot Interactions, The 18th IEEE International Symposium on Robot and Human Interactive Communication, Toyama, Japan, 2009, s. 72–77..
Powyższe rozważania spotykają się jednak z zasadniczym problemem, mianowicie granicą odpowiedzialności osoby nadzorującej. Co do zasady, osoba taka zobowiązana jest do zachowania należytej staranności i od oceny tego kryterium zależeć będzie możliwość przypisania jej winy w nadzorze. Należyta staranność w nadzorze ściśle związana jest jednak ze stopniem autonomiczności sztucznej inteligencji, a zatem potencjalnej nieobliczalności jej funkcjonowania. Należy wskazać, że sytuacja potencjalnie nie różni się od oceny tego kryterium w przypadku zwierzęcia, jednak wymaga wyraźnego zaznaczenia. Jeżeli podmiot posługujący się sztuczną inteligencją wykaże, że dochował należytej staranności w nadzorze nad nią, to może zwolnić się od odpowiedzialności za wyrządzone przez jej działanie szkody – oczywiście wyłącznie w granicach art. 431 k.c.
Zagadnienie opisane powyżej jest znacznie bardziej nieostre w przypadku zwierząt, ponieważ trudniej sparametryzować stopień nieobliczalności danego zwierzęcia i jednolity standard należytej staranności w odniesieniu do nadzoru nad nim. W tym aspekcie sztuczną inteligencję łatwiej ocenić, ponieważ stopień jej autonomiczności może zostać zawczasu zaprojektowany czy skalkulowany w kontekście ryzyka i poddaje się łatwiejszej i obiektywnej parametryzacji.
VI. Odpowiedzialność za produkt niebezpieczny
Rozważając możliwość stosowania względem sztucznej inteligencji przepisów o produktach niebezpiecznych, napotykamy zasadniczy problem – art. 4491 § 2 k.c. stanowi, iż przez „produkt rozumie się rzecz ruchomą, choćby została ona połączona z inną rzeczą. Za produkt uważa się także zwierzęta i energię elektryczną”. Z kolei zgodnie z art. 2 Dyrektywy Rady z 25.07.1985 r. w sprawie zbliżenia przepisów ustawowych, wykonawczych i administracyjnych Państw Członkowskich dotyczących odpowiedzialności za produkty wadliwe (85/374/EWG) (Dz.U. UE L z 7.08.1985 r.) „produkt” oznacza każdą rzecz ruchomą, nawet będącą częścią składową innej rzeczy ruchomej lub nieruchomej. „Produktem” jest także elektryczność.
Czy zatem przepisy dotyczące rzeczy można stosować do sztucznej inteligencji?
Jeśli chodzi o sam model AI i oprogramowanie, w którym jest osadzony, odpowiedź jest negatywna. Regulacje o produkcie niebezpiecznym, zgodnie z intencją ustawodawcy unijnego, który je wprowadzał, mają dotyczyć rzeczy – materialnych obiektów, a nie oprogramowaniaJ. M. Kondek, Odpowiedzialność odszkodowawcza za oprogramowanie i sztuczną inteligencję (uwagi de lege lata i de lege ferenda) (w:) Prawo prywatne, Instytut Wymiaru Sprawiedliwości, Warszawa 2021, s. 7–8, dostęp: https://iws.gov.pl/wp-content/uploads/2021/08/ IWS_Kondek-J.M._-Odpowiedzialnosc-odszkodowawcza-za-oprogramowanie-i-sztuczna-inteligencje.pdf.. Wskazuje na to choćby zastosowanie rozszerzenia pojęcia rzeczy ruchomej na elektryczność – gdyby bowiem dopuszczalna była wykładnia rozszerzająca pojęcia rzeczy ruchomej, rozszerzenie to stanowiłoby superfluum. Co więcej, wniosek taki jest słuszny także na tle analizy innych aktów prawnych UE. W ostatnim czasie ustawodawca unijny za pomocą dyrektywy „Omnibus”Dyrektywa Parlamentu Europejskiego i Rady (UE) 2019/2161 z 27.11.2019 r. zmieniająca dyrektywę Rady 93/13/EWG i dyrektywy Parlamentu Europejskiego i Rady 98/6/WE, 2005/29/WE oraz 2011/83/UE w odniesieniu do lepszego egzekwowania i unowocześnienia unijnych przepisów dotyczących ochrony konsumenta (Tekst mający znaczenie dla EOG). dokonał korekty szeregu dyrektyw z zakresu ochrony konsumenta, wprowadzając pojęcia treści cyfrowych w rozumieniu przyjętym w dyrektywie 2019/770. Zmiana ta nie objęła jednak dyrektywy o odpowiedzialności za szkodę wyrządzoną przez produkt niebezpieczny, w której definicja produktu pozostała niezmieniona.
Przedmiotem sporu pozostaje możliwość umieszczenia AI w reżimie odpowiedzialności za produkt niebezpieczny wtedy, kiedy jest ona elementem rzeczy, czyli przedmiotu materialnego, tj. stanowi oprogramowanie w jakimś zakresie operujące rzeczą, np. robotem albo lodówką lub zabawkąZa dopuszczalnością takiego uznania zob. M. Wałachowska (w:) Prawo… Odmiennie: W. Dubis (w:) Kodeks cywilny. Komentarz, red. E. Gniewek, P. Machnikowski, Warszawa 2023, komentarz do art. 4491 k.c., Nb 11..
W naszej ocenie zasadne jest przyjęcie szerokiej wykładni pojęcia „produkt niebezpieczny” i objęcie jego zakresem również rzeczy, których operatorem jest sztuczna inteligencja. Przesłanką warunkującą dopuszczalność takiej kwalifikacji jest ścisłe zintegrowanie sztucznej inteligencji z obiektem materialnym (rzeczą). Natomiast nie może być umieszczane w takim reżimie ani samo oprogramowanie, ani usługi (np. w modelu Software as a Service) udostępniane w oparciu o nieZob. jednak szerzej: J. Kuźmicka-Sulikowska, Pojęcie produktu niebezpiecznego (w:) Księga dla naszych kolegów: prace prawnicze poświęcone pamięci doktora Andrzeja Ciska, doktora Zygmunta Masternaka i doktora Marka Zagrosika, red. J. Mazurkiewicz, Wrocław 2013, s. 253–256.. Kwalifikacja taka powinna być analogiczna do pojęcia wskazanego w treści art. 2 pkt 5b ustawy z 30.05.2014 r. o prawach konsumenta (Dz.U. z 2014 r. poz. 827), zgodnie z którym towarem z elementami cyfrowymi jest towar zawierający treść cyfrową lub usługę cyfrową lub z nimi połączony w taki sposób, że brak treści cyfrowej lub usługi cyfrowej uniemożliwiłby jego prawidłowe funkcjonowanieDefinicja ta stanowi powielenie definicji przyjętej w art. 2 pkt 3 Dyrektywy Parlamentu Europejskiego i Rady (UE) 2019/770 z 20.05.2019 r. w sprawie niektórych aspektów umów o dostarczanie treści cyfrowych i usług cyfrowych (Tekst mający znaczenie dla EOG).. Na marginesie należy zaznaczyć, że omawiana kwestia może stanowić uzasadniony przedmiot pytania prawnego do TSUE.
Niezależnie od powyższego należy wskazać, że prawodawca unijny prowadzi obecnie prace nad aktualizacją dyrektywy o produktach wadliwych. Zgodnie z Wnioskiem Komisji Europejskiej z 28.09.2022 r. – Dyrektywa Parlamentu Europejskiego i Rady w sprawie odpowiedzialności za produkty wadliwe (Tekst mający znaczenie dla EOG) definicja „produktu” ma zostać rozszerzona na cyfrowe pliki produkcyjne i oprogramowanieProjekt Wniosku: https://eur-lex.europa.eu/legal-content/PL/TXT/HTML/?uri=CELEX:52022PC0495 (dostęp: 19.11.2024 r.).. W przypadku przyjęcia nowej wersji dyrektywy o odpowiedzialności za produkty wadliwe oraz jej implementacji do polskiego porządku prawnego prowadzone wyżej rozważania staną się oczywiście nieaktualne.
Reżim odpowiedzialności za produkt niebezpieczny zakłada, że jeśli produkt jest niebezpieczny (tj. zgodnie z art. 4491 k.c. „niezapewniający bezpieczeństwa, jakiego można oczekiwać, uwzględniając normalne użycie produktu”, czyli zachowujący się w sposób, którego nie można było oczekiwać), to za szkodę wywołaną przez produkt niebezpieczny odpowiada producent przedmiotu (a w pewnym zakresie także dystrybutor czy importer). Wydaje się, że jest to interesująca opcja prawna dla ucieleśnionej AI (w robotach, dronach i innych pojazdach, sprzęcie AGD, zabawkach, czujnikach i innych urządzeniach). Należy jednak pamiętać, że odpowiedzialność za produkt niebezpieczny doznaje licznych ograniczeń, w tym: (i) gdy właściwości niebezpieczne produktu ujawniły się po wprowadzeniu go do obrotu, chyba że wynikały one z przyczyny tkwiącej poprzednio w produkcie; (ii) gdy nie można było przewidzieć niebezpiecznych właściwości produktu, uwzględniając stan nauki i techniki w chwili wprowadzenia produktu do obrotu albo gdy właściwości te wynikały z zastosowania przepisów prawa; (iii) a także, w odniesieniu do rzeczy zniszczonych przez produkt niebezpieczny, gdy nie były one używane przede wszystkim do osobistego użytku (czyli reżim ochrony za szkody na mieniu właściwie w niewielkim zakresie może dotyczyć przedsiębiorców).
VII. Dyrektywa odpowiedzialności za sztuczną inteligencję (aild)
Powyżej została zarysowana sytuacja odpowiedzialności deliktowej za AI de lege lata, w zastanym stanie prawnym. Komisja Europejska przedstawiła jednak projekt aktu prawnego, który ma ze swej natury istotnie wpłynąć na zasady odpowiedzialności deliktowej w kontekście AI. Mowa o wniosku Komisji Europejskiej z 28.09.2022 r., w którym proponuje ona nową dyrektywę unijną dotyczącą odpowiedzialności za sztuczną inteligencję – Dyrektywę Parlamentu Europejskiego i Rady w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji („AILD”). Projekt dyrektywy zastępuje wcześniej zaproponowany projekt rozporządzenia, co należy ocenić pozytywnie. Każde państwo członkowskie Unii Europejskiej ma swój odrębny, różniący się od innych, system odpowiedzialności cywilnej. Regulowanie pewnego wycinka takiego systemu rozporządzeniem mogłoby prowadzić do jego rozbicia. Dyrektywa natomiast, pozwalając na implementację oczekiwanych mechanizmów w porządkach prawnych państw członkowskich we właściwy dla nich sposób, z uwzględnieniem lokalnej specyfiki, wydaje się rozsądniejszym instrumentem prawnym dla tego obszaru.
Projekt AILD zakłada szereg interesujących zmian w uregulowaniach dotyczących deliktów popełnianych przy udziale AI. Przede wszystkim, co bardzo istotne, dotyka ona wyłącznie czynów niedozwolonych opartych na zasadzie winy. Jak głosi art. 1 ust. 2 AILD: „niniejsza dyrektywa ma zastosowanie do pozaumownych cywilnoprawnych roszczeń odszkodowawczych opartych na zasadzie winy w sytuacjach, gdy szkoda spowodowana przez system sztucznej inteligencji powstała po [zakończeniu okresu transpozycji]”. Zatem nie będzie ona miała zasadniczo zastosowania przykładowo do sytuacji, o których mowa w art. 435 lub 436 k.c. Modyfikuje jednak istotnie regulacje poza tymi obszarami.
Najważniejsze zmiany AILD sprowadzają się do wprowadzenia domniemań korzystnych dla poszkodowanych i zmiany rozkładu ciężaru dowodowego, obciążając nim operatorów AI. Na szczególną uwagę zasługują jej art. 3 ust. 1 oraz art. 4 ust. 1.
Zgodnie z tym pierwszym: „Państwa członkowskie zapewniają, aby sądy krajowe były uprawnione – na wniosek potencjalnego powoda, który wcześniej zwrócił się do dostawcy, do osoby podlegającej obowiązkom dostawcy lub do użytkownika o ujawnienie istotnych dowodów, którymi osoby te dysponują, dotyczących konkretnego systemu sztucznej inteligencji wysokiego ryzyka, co do którego istnieje podejrzenie, że spowodował szkodę, jeżeli taki potencjalny powód spotkał się z ich strony z odmową, lub na wniosek powoda – do nakazania tym osobom ujawnienia takich dowodów”. Mechanizm ten należy oceniać z dużą dozą ostrożności. Nie jest bowiem wiadome, jaki miałby być realny kształt takiego uprawnienia oraz czy nie stanowi ono superfluum. W praktyce sądy krajowe już dzisiaj posiadają narzędzia, aby przymusić strony procesu do ujawnienia istotnych informacji – dowodów – dotyczących sprawy cywilnej (przykładowo – dokumentów, na podstawie art. 248 § 1 k.p.c.). Ponadto, zgodnie z art. 233 § 2 k.p.c.: „Sąd oceni na tej samej podstawie, jakie znaczenie nadać odmowie przedstawienia przez stronę dowodu lub przeszkodom stawianym przez nią w jego przeprowadzeniu wbrew postanowieniu sądu”.
Nie jest więc w obecnym stanie prawnym tak, że sądy są bezbronne wobec obstrukcji bądź bierności procesowej pozwanego, a bierność ta cieszy się absolutną „bezkarnością”. Oczywiście, sąd musi jeszcze zechcieć skorzystać z instytucji, jakie przewiduje Kodeks postępowania cywilnego, co niestety zbyt często nie jest takie oczywiste. Problem w tym, że AILD również przewiduje wyłącznie opcjonalne narzędzie, które jednak w obecnym brzmieniu do niczego sądu krajowego nie zobowiązuje. Można domyślać się, że intencją prawodawcy unijnego było pokrycie realnego problemu faktycznej niemożności dotarcia przez poszkodowanego do dowodów wykazujących, że w dotyczącej go sytuacji model AI zadziałał nieprawidłowo. Skuteczność rozwiązania tego problemu wciąż będzie jednak uzależniona od aktywności sądu w danym procesie.
Wspomnieć należy także, że sąd krajowy może zobowiązać dostawcę sztucznej inteligencji do ujawnienia istotnych informacji „tylko wtedy, gdy powód podjął wszelkie proporcjonalne próby uzyskania od pozwanego takich istotnych dowodów” (art. 3 ust. 2 AILD). Nietrudno zauważyć problemy i nieścisłości związane z oceną, jak należy rozumieć owe „wszelkie proporcjonalne próby uzyskania od pozwanego istotnych dowodów”. Poszczególne sądy mogą przy tym wykładać tę kwestię w zupełnie odmienne sposoby.
Opisana wyżej propozycja rodzi też potencjalne ryzyka w zakresie ochrony tajemnicy przedsiębiorstwa – uprawnienie sądu może być wykorzystywane w celu uzyskania od dostawcy sztucznej inteligencji informacji wrażliwych. Należy zauważyć, że AILD nie precyzuje, w jaki sposób takie informacje dowodowe powinny zostać dostarczone, co wróży problemy ze stosowaniem proponowanej normy przez sądy.
Na czym zatem miałaby polegać praktyczna wartość projektowanego „uprawnienia” sądów krajowych? Odpowiedzi możemy szukać w art. 3 ust. 5 AILD, zgodnie z którym: „w przypadku gdy pozwany nie zastosuje się do nakazu ujawnienia lub zabezpieczenia dowodów, którymi dysponuje, (…), sąd krajowy domniemywa, że pozwany nie zastosował się do odpowiedniego obowiązku dochowania należytej staranności, w szczególności w okolicznościach, (…), które miały zostać wykazane za pomocą wnioskowanych dowodów na potrzeby odpowiedniego roszczenia odszkodowawczego”. Przepis ten wprowadza zatem obligatoryjne domniemanie przez sąd krajowy winy nieumyślnej podmiotu w sytuacji niezastosowania się przez niego do zobowiązania sądu, którego nałożenie ma jednak charakter wyłącznie fakultatywny. Intencje Komisji Europejskiej proponującej takie normy należy postrzegać pozytywnie. Ich istotą było nałożenie pewnej sankcji w ramach procedury na podmiot, który albo nie chce ujawnić niekorzystnych dla siebie dowodów, albo ich wcale nie zbiera (co zasługuje na aprobatę ze względu na komplementarność z wymaganiami AI Act dotyczącymi wyjaśnialności działań sztucznej inteligencji, w tym obowiązku rejestrowania i przechowywania danych pozwalających zidentyfikować i zinterpretować przyczyny danego działania modelu).
W praktyce jednak proponowany mechanizm może stać się jedynie kolejnym trudno egzekwowalnym roszczeniem. Czy dostarczenie materiałów, które są kompletnie nieczytelne nawet dla profesjonalisty w obszarze analityki danych, będzie czyniło zadość wymaganiom dyrektywy? W jaki sposób te dane powinny zostać dostarczone (znane są przypadki wydruków tzw. drzewek decyzyjnych AI na kilkanaście tysięcy stron)? To tylko niektóre z wielu problematycznych pytań, na które AILD nie przynosi odpowiedzi.
Artykuł 4 ust. 1 AILD wprowadza natomiast generalną zasadę, zgodnie z którą: „z zastrzeżeniem wymogów ustanowionych w niniejszym artykule sądy krajowe domniemywają, do celów stosowania przepisów dotyczących odpowiedzialności na potrzeby roszczenia odszkodowawczego, istnienie związku przyczynowego między winą pozwanego a wynikiem uzyskanym przez system sztucznej inteligencji lub faktem nieuzyskania przez taki system wyniku”, jeżeli zostaną spełnione wszystkie warunki wymienione w tym przepisie (wykazanie winy polegającej na niedochowaniu należytej staranności, związek tejże winy z nieprawidłowym działaniem AI, związek, zaistnienie szkody wskutek nieprawidłowego działania AI).
Wydaje się zatem, że stosunkowo łagodne zasady reżimu odpowiedzialności na zasadzie winy zostają przez AILD przesunięte w stronę zasad odpowiedzialności na zasadzie ryzyka. Następuje bowiem, efektywnie, eliminacja dwóch przesłanek zasadności roszczenia odszkodowawczego (przesłanki zawinienia oraz adekwatnego związku przyczynowego), natomiast pozwany może się od odpowiedzialności uwolnić, jeżeli domniemania te obali. Odpowiedzialność na zasadzie winy ulega zatem znacznemu zaostrzeniu.
Trudno jednoznacznie ocenić, jaka intencja przyświeca Komisji Europejskiej proponującej przepisy przewidujące istnienie „związku przyczynowego między winą a wynikiem uzyskanym przez system sztucznej inteligencji”. W polskim prawie cywilnym (zresztą nie tylko w polskim; proponowane mechanizmy wydają się także niezbyt kompatybilne z prawem państw takich jak Francja i Niemcy), co do zasady, wykazać należy związek przyczynowy między danym zdarzeniem a szkodą, nie zaś między danym zdarzeniem a winą. Zachowanie sprawcy z kolei może być zawinione lub nie. Być może propozycja Komisji Europejskiej jest pewnym skrótem myślowym, oznaczającym domniemanie związku przyczynowego pomiędzy zawinionym zachowaniem pozwanego a szkodą powoda. Wskazuje to jednak na pewną niechlujność nomenklatury prawodawcy unijnego, a być może, co gorsza, na dość powierzchowne zrozumienie istoty zasad odpowiedzialności cywilnej.
Można też przewidywać trudności, przed jakimi stanie polski ustawodawca implementujący AILD. Nietrudno bowiem spostrzec, że mamy do czynienia ze szkodliwą praktyką implementacji unijnych dyrektyw sprowadzającą się wyłącznie do ich tłumaczenia na język polski. W omawianej sytuacji odbyłoby się to z wielką szkodą dla polskiego prawa zobowiązań – jako że mielibyśmy do czynienia z powstaniem zupełnie nowego, obcego doktrynalnie reżimu odpowiedzialności.
Niestety, obecnie propozycja Komisji Europejskiej jawi się jako regulacja wycinkowa i kazuistyczna. Do tego wprowadzająca więcej zamieszania niż realnej pomocy dla poszkodowanych przy udziale AI.
Przede wszystkim reżim odpowiedzialności na zasadzie winy w przypadku sztucznej inteligencji ze swojej istoty jest obszarem znacznie ograniczonym i dotyczy w przeważającej mierze przypadków, kiedy winę tę można przypisać jakiemuś ludzkiemu zachowaniu, a zatem sprawcą szkody musi być człowiek posługujący się sztuczną inteligencją, nie zaś sztuczna inteligencja działająca autonomicznie (tj. niepodlegająca systemowej kontroli człowieka).
Po drugie, nie wydaje się, aby istniało racjonalne uzasadnienie dla dokonywania tak daleko idącej ingerencji w istotę odpowiedzialności deliktowej na zasadzie winy, zamiast wprowadzenia regulacji poddającej te typy czynów niedozwolonych odpowiedzialności na zasadzie ryzyka (tak jak przecież dokonano tego w wielu innych sektorach, przykładowo przedsiębiorstw wprawianych w ruch za pomocą sił przyrody).
Propozycja unijna wygląda na próbę osiągnięcia jakiegoś bliżej niesprecyzowanego kompromisu, którego cel pozostaje jednak niejasny. Jak już było wspominane, doświadczenia z ostatnich lat nie wzbudzają optymizmu co do sposobu implementacji dyrektywy przez polskiego ustawodawcę. Można obawiać się dokonania prostego tłumaczenia i uchwalenia go w formie odrębnej ustawy, co spowoduje przy okazji dalszą, i tak już postępującą, dekodyfikację i fragmentaryzację polskiego prawa cywilnego, tym razem w odniesieniu do deliktów.
Z powyższych względów, w naszej ocenie, propozycja Komisji Europejskiej powinna być traktowana z dużą dozą ostrożności, a kluczowe znaczenie będzie mieć sposób jej implementacji przez ustawodawcę krajowego, co powinno nastąpić poprzez odpowiednią, mądrą i dostosowaną do polskich ram odpowiedzialności cywilnej nowelizację Kodeksu cywilnego oraz Kodeksu postępowania cywilnego. Należy mieć też nadzieję, że w toku unijnych prac legislacyjnych dojdzie do dość głębokich zmian w AILD, które doprowadziłyby do jej uproszczenia, rozbudowania detali dotyczących stosowania przepisów oraz podniesienia technicznego poziomu proponowanych przepisów.
VIII. Odpowiedzialność kontraktowa
W przeciwieństwie do odpowiedzialności deliktowej, nie wydaje się, żeby odpowiedzialność kontraktowa, a więc z tytułu niewykonania lub nienależytego wykonania zobowiązania umownego, wymagała szczególnych zmian powodowanych przez rozwój rozwiązań wykorzystujących sztuczną inteligencję. Wynika to z faktu, że ten rodzaj odpowiedzialności, w naszej kulturze prawnej, opiera się na zasadzie wolności stron i swobodzie umów. Zasada swobody umów nie jest absolutna i doznaje ograniczeń. Pewną absolutną granicą jest wina umyślna (zgodnie z art. 473 k.c. nie wolno wyłączyć odpowiedzialności z jej tytułu). W stosunkach prawnych dotyczących oprogramowania istotne znaczenie mają także ograniczenia swobody umownego kształtowania zakresu odpowiedzialności wynikające z przepisów chroniących konsumentów. Ograniczenia wynikające z prawa autorskiego czy przepisów o ochronie konkurencji w praktyce mają znikome znaczenie.
Należy również zaznaczyć, że dla obrotu odpowiedzialność kontraktowa w kontekście sztucznej inteligencji ma w tej chwili dużo większą doniosłość praktyczną niż odpowiedzialność deliktowa. Realna obecność AI w naszym codziennym życiu w sposób mogący generować okoliczności uzasadniające częste powoływanie się na odpowiedzialność deliktową (czyli przede wszystkim powszechność urządzeń i pojazdów sterowanych przez autonomiczną AI) to wciąż jeszcze kwestia przyszłości (chociaż, naszym zdaniem, niezbyt odległej). Aktualnie AI najczęściej wykorzystywana jest właśnie na podstawie umów. Odnosi się to zarówno do projektów dotyczących sztucznej inteligencji w obrocie profesjonalnym, jak i do korzystania przez konsumentów z produktów przedsiębiorców zasilanych przez AI czy korzystania z tzw. otwartych modeli AI. Zawsze odbywa się to na podstawie umowy (czy to zawieranej „tradycyjnie”, czy adhezyjnej, w oparciu o wzorzec umowny). Szkody wywoływane w takich sytuacjach będą szkodami, dla których właściwe będzie sięgnięcie po odpowiedzialność ex contractu.
Punktem wyjścia do dyskusji o odpowiedzialności kontraktowej za AI jest określenie rządzących nią zasad odpowiedzialności (analogicznie jak w odniesieniu do odpowiedzialności deliktowej) i zestawienie ich z wyzwaniami wynikającymi ze szkód wyrządzanych potencjalnie przy udziale sztucznej inteligencji.
Kluczowe dla tego problemu jest brzmienie samego art. 471 k.c. statuującego odpowiedzialność ex contractu: „dłużnik obowiązany jest do naprawienia szkody wynikłej z niewykonania lub nienależytego wykonania zobowiązania, chyba że niewykonanie lub nienależyte wykonanie jest następstwem okoliczności, za które dłużnik odpowiedzialności nie ponosi”. Tak więc dłużnik będzie odpowiadał w zakresie okoliczności leżących w jego gestii. Okoliczności te wskazują właściwie przepisy art. 472–474 k.c. Przewidują one, że jeżeli strony nie ustaliły inaczej w umowie, dłużnik odpowiada w przypadku niedochowania należytej staranności. Będzie to oznaczało odpowiedzialność na zasadzie winy „w postaci niedbalstwa z możliwością postawienia dłużnikowi zarzutu naruszenia reguł należytej staranności”K. Zagrobelny (w:) Kodeks cywilny. Komentarz, red. E. Gniewek, P. Machnikowski, Warszawa 2021, Legalis, komentarz do art. 471 k.c.. A. Michalak dostrzega tutaj słusznie możliwość powstania luki w odpowiedzialności (liability gap). Zauważa, że jeśli wykonawcy systemu AI „dołożyli należytej staranności w wyposażaniu programu w mechanizmy zapobiegające szkodliwemu działaniu oprogramowania, np. wprowadzając filtry blokujące możliwość użycia określonych słów lub ograniczając funkcjonalności oprogramowania, (…) a mimo to samouczący się program wyrządzi szkodę, to nie można przypisać odpowiedzialności za jego działanie (zaniechanie) twórcy, wykonawcy lub użytkownikowi oprogramowania (…). W efekcie w opisanej powyżej sytuacji nikt nie ponosi odpowiedzialności za działanie inteligentnego programu”A. Michalak, Odpowiedzialność…, Rozdział IV, § 1, pkt II, SIP Legalis.. Jest to sytuacja nader korzystna i oczekiwana dla dostawców narzędzi AI. Jest natomiast ogromnym ryzykiem dla tzw. zamawiających czy użytkowników końcowych (zwłaszcza konsumentów). Płynie stąd jasna konkluzja, że kluczowym elementem dotyczącym eksploatacji sztucznej inteligencji jest podział odpowiedzialności za efekty procesu uczenia AI. Powinien być on ustalany odrębnie dla każdego przypadku i uwzględniać (oraz umożliwiać weryfikowanie) kwestię odpowiedzialności za algorytm, za dostarczanie danych uczących model AI oraz prowadzenie treningu i bieżące korygowanie sztucznej inteligencji.
Płynie z tego dalszy wniosek. Umowy dotyczące wdrażania, trenowania, rozwijania i eksploatowania AI powinny zawierać bardzo precyzyjne i możliwie wyczerpujące matryce odpowiedzialności. Wskazanie strony odpowiedzialnej (w rozumieniu responsibility) za prowadzenie danego procesu znacząco ułatwi ustalenie strony odpowiedzialnej (w rozumieniu liability) za niepowodzenie tego procesu. W praktyce często będzie dochodzić do ustalenia zasad odpowiedzialności dostawcy w konkretnych obszarach na zasadzie ryzyka – tzn. że będą odpowiedzialni za dotrzymanie założonych kontraktowo wskaźników jakościowych, takich jak trafność działania modelu AI. Charakterystyczną cechą umów na eksploatację „dedykowanych” modeli AI jest fluktuacja zakresu odpowiedzialności w czasie. Jeśli to zamawiający dostarcza jej danych i odpowiada za bieżące pogłębianie treningu i korygowanie wyników, to z upływem czasu, siłą rzeczy, odpowiedzialność dostawcy będzie ulegać redukcji, jako że funkcjonujący model AI będzie w dużej mierze już czymś innym niż rezultat pierwotnie uruchomiony przez tego dostawcę.
Z drugiej strony, w przypadku niewykonania lub nienależytego wykonania umów globalnych dostawców otwartych modeli AI mamy do czynienia z odwrotną sytuacją: kontraktowo ich odpowiedzialność (zwłaszcza w stosunkach konsumenckich) jest redukowana do bardzo niskiego poziomu. Należy przy tym pamiętać, że wzorce umowne (popularnie zwane w obrocie terms of service) w lwiej części przypadków podlegają prawu obcemu, zatem rozważania dotyczące zasad odpowiedzialności w polskim prawie cywilnym mają ograniczone znaczenie praktyczne, z zastrzeżeniem, że w odniesieniu do konsumentów są oni chronieni przez Rozporządzenie Parlamentu Europejskiego i Rady (WE) Nr 593/2008 z 17.06.2008 r. w sprawie prawa właściwego dla zobowiązań umownych (Rzym I) – zgodnie z jego art. 6 ust. 2 zd. 2 w zw. z art. 6 ust. 1, umowny wybór prawa obcego względem konsumenta „nie może jednak prowadzić do pozbawienia konsumenta ochrony przyznanej mu na podstawie przepisów, których nie można wyłączyć w drodze umowy, na mocy prawa właściwego dla tego konsumenta”.
Skupiając się na specyfice sztucznej inteligencji, nie można zapominać, że jest to ciągle narzędzie IT. Istotne w kontekście omawiania odpowiedzialności kontraktowej za AI pozostają doświadczenia wynikające z przyjętych w doktrynie i praktyce zasad dotyczących umów IT na „nieinteligentne” systemy IT. Należy zauważyć, że na rynku IT od lat funkcjonuje zbiór standardów, które powtarzają się właściwie w każdej umowie dot. wdrożenia czy utrzymania oprogramowania. Należą do nich: (i) wyłączenie odpowiedzialności za utracone korzyści; (ii) ograniczenie całkowitej odpowiedzialności za szkody do wartości kontraktu (np. 100% wynagrodzenia za wdrożenie i licencjonowanie systemu); (iii) wyjątki od ww. ograniczenia odpowiedzialności, obejmujące aktualnie najczęściej (oprócz winy umyślnej wynikającej z przepisów): rażące niedbalstwo, szkodę wywołaną istnieniem wady prawnej produktu, ujawnieniem informacji poufnych, naruszeniem w obszarze danych osobowych, naruszeniem istotnych zasad cyberbezpieczeństwa; (iv) wyłączenie rękojmi za wady fizyczne.
Należy się spodziewać, że opisany wyżej standard utrzyma się również dla umów dotyczących AI. Zmiany, jakie zajdą, mogą dotyczyć rozszerzenia listy wyjątków od limitu odpowiedzialności. W naszej ocenie powinny do nich dołączyć szkody wynikające z niezapewnienia przez dostawcę AI leżących po jego stronie wymagań wynikających z AI Act. Mogą to być też inne rodzaje szkód, które są specyficzne dla AI i potencjalnie dotkliwe.
Należy z całą stanowczością podkreślić, że sankcje wynikające z umowy powinny być odpowiednio zagregowane z odpowiednio opisanymi wymaganiami wobec modelu AI, w tym parametrami jakościowymi w kontrakcie.
Odpowiedzialność kontraktowa w tej chwili stanowi także odpowiedź na niedostatki dotyczące odpowiedzialności deliktowej. Niezależnie od tego, kto aktualnie lub w przyszłości będzie odpowiadał za szkody wywołane przez określone systemy czy modele AI, już dzisiaj kontraktując ich dostarczenie, trening, rozwój i utrzymanie, trzeba odpowiednio się zabezpieczyć, zachowując wyobraźnię i intuicję prawniczą. Podmioty, które są lub z dużym prawdopodobieństwem będą wskazane jako odpowiedzialne, jako producenci lub dystrybutorzy produktów lub usług AI (i wcale nie musi to dotyczyć klasycznych dostawców algorytmów lub modeli AI; to mogą być firmy przewoźnicze udostępniające autonomiczne taksówki, banki korzystające z AI, placówki medyczne stosujące AI do diagnozowania pacjentów; fabryki korzystające z robotów przemysłowych sterowanych przez AI etc.), nabywając produkty lub usługi AI wykorzystywane do dalszej obsługi klientów, powinny stosować odpowiednie mechanizmy kontraktowe, które w razie zgłoszenia szkody przez ich klienta pozwolą im następnie przenieść przez regres poniesione koszty na dostawcę albo zaangażować go do aktywnej obrony przed roszczeniami osób trzecich. Mamy tutaj na myśli konieczność oznaczającą nie tyle stworzenie prawnej dopuszczalności dochodzenia takich roszczeń (to często będzie możliwe niezależnie od umowy), ale stworzenie faktycznych warunków określenia wysokości i efektywnego mechanizmu dochodzenia odszkodowania. Powoływanie się na „przepisy ogólne” w kontekście AI może być nad wyraz nieefektywne.
IX. Podsumowanie
Adopcja sztucznej inteligencji w obrocie przebiega tyleż szybko, co niespodziewanie i nierównomiernie. Pewne jej konkretne zastosowania „eksplodują”, przynosząc prawnikom niemało tematów do refleksji. Trudno antycypować, z jakimi wyzwaniami możemy mieć wkrótce do czynienia. Im powszechniejsze będzie korzystanie z AI, tym więcej będzie zdarzać się problemów generujących szkody. Jest to naturalne i nieuniknione. Każde dzieło człowieka jest obarczone niedoskonałościami.
Prawny ekosystem odpowiedzialności cywilnej za AI jest mocno pofragmentowany. Pewne istniejące instytucje wydają się być gotowe na nowe wyzwania rzucane przez sztuczną inteligencję. Inne wymagają drobnych modyfikacji, a czasem po prostu otworzenia na AI. Stoimy także w obliczu obszarów, które mogą ulegać istotnym przeobrażeniom, zwłaszcza w wyniku działań legislacyjnych Unii Europejskiej.
Mamy więc do czynienia z typową dla naszych czasów sytuacją, w której nie możemy sobie pozwolić na prawnicze dywagacje i powolne dojrzewanie przepisów w ramach żmudnego procesu legislacyjnego wspieranego ożywioną dyskusją naukową i praktyczną. Normy dotyczące sztucznej inteligencji zarówno w rozumieniu przepisów, jak i mechanizmów kontraktowych, będą wykuwać się spontanicznie i na bieżąco, w odniesieniu do rodzących się potrzeb. Przypomina to operację na żywym organizmie, albo – posługując się żargonem rynku IT – „testy na produkcji”.
Potknięcia będą w takiej sytuacji nieuniknione. Ale prawo i prawnicy nie mogą spowalniać rynkowej adopcji i rozwoju narzędzi AI. Prawo w obecnym kształcie co prawda jest pełne wyzwań, ale daje dobry fundament do poradzenia sobie przez rynek z zagadnieniami dotyczącymi AI. Należy jedynie baczyć, aby dostosowywanie istniejących mechanizmów, jak i projektowanie tych nowych, odbywało się z poszanowaniem zasad prawa cywilnego. Tak aby implementowanie zasad dotyczących odpowiedzialności za sztuczną inteligencję było sprawnym rozwinięciem istniejących dzisiaj ram, a nie przeszczepionym bez wyobraźni ciałem obcym tworzącym problem z każdego zagadnienia do rozwiązania. Jest to odpowiedzialność zarówno decydentów w procesie legislacyjnym, prawników-naukowców stanowiących zaplecze intelektualne legislacji, jak i (może przede wszystkim) prawników-praktyków, borykających się z wyzwaniami związanymi z AI w ich codziennej działalności.