Poprzedni artykuł w numerze
ABSTRAKT
G łównym celem niniejszego artykułu jest udzielenie odpowiedzi na pytanie, jak zgodnie z de lege lata obowiązującymi przepisami prawa prawidłowo określić status prawny i definicję sztucznej inteligencji. Niniejsze opracowanie ma za zadanie przedstawić również funkcje, jakie może pełnić sztuczna inteligencja w prawie ochrony konkurencji i konsumentów. Tezą opracowania jest konstatacja, iż sztuczna inteligencja może stanowić efektywne narzędzie służące przedsiębiorcom do jeszcze bardziej opłacalnego prowadzenia działalności gospodarczej.
Do najpowszechniej używanych przez przedsiębiorców zaawansowanych algorytmów należą chatboty, voiceboty, inteligentni asystenci i silniki rekomendacji. Inną tezę stanowi twierdzenie, że odpowiedzialność deliktowa przedsiębiorców z tytułu działania lub zaniechania działania sztucznej inteligencji w obszarze prawa antymonopolowego nie może być wyłączona nawet w sytuacji, w której mamy do czynienia z zaawansowanymi, samouczącymi się w sposób nienadzorowany algorytmami. Przeciwna konkluzja bowiem wiązałyby się ze zbyt dużym ryzykiem nadużyć i poważną potencjalną szkodą dla konsumentów. Artykuł przedstawia również sposoby, za pomocą których sztuczna inteligencja może przyczynić się do ulepszenia działania organów antymonopolowych. Tytułem wniosków de lege ferenda ustawodawca powinien wprowadzić kompleksową i precyzyjną regulację prawną dotyczącą statusu prawnego sztucznej inteligencji oraz kwestii odpowiedzialności deliktowej za działania lub zaniechania zaawansowanych algorytmów.
WPROWADZENIE
Sztuczna inteligencja (dalej także jako: AI) przez wiele lat pozostawała w sferze zainteresowania jedynie naukowców oraz twórców dzieł fantastyki naukowej. Dopiero na przestrzeni ostatnich lat sztuczną inteligencją – za sprawą pojawiania się coraz to nowszych rozwiązań opartych na AI a dostępnych już dla każdego – zainteresowało się szersze grono odbiorców, a w odpowiedzi na ten trend również ustawodawcy. Można wysnuć konkluzję, że potrzeba prawnego uregulowania kwestii związanych z korelacją sztucznej inteligencji na gruncie różnych gałęzi prawa jest czymś zdecydowanie więcej niż tylko suchym wymogiem prawodawcy. Wręcz przeciwnie, w tym przypadku to regulacje prawne niejednokrotnie nie nadążają za zmianami w dynamicznym rozwoju sztucznej inteligencjiT. Zalewski, Prawo sztucznej inteligencji, Warszawa 2020, s. 1–2. .
Obecnie sztuczna inteligencja jest jednym z głównych tematów debaty publicznej z zakresu kwestii społeczno-gospodarczych zarówno na szczeblu międzynarodowym, unijnym, jak i krajowym oraz jest powszechnie postrzegana za jeden z najbardziej relewantnych czynników wpływających na przemiany społeczne oraz rozwój gospodarczyA. Piskorz-Ryń, Prawo sztucznej inteligencji i nowych technologii, Warszawa 2022, s. 32–34..
Do najpopularniejszego rodzaju generatywnej sztucznej inteligencji należy CHAT GPT, mający już ponad 100 milionów użytkowników, którzy zadają mu bardzo szeroki wachlarz pytań – zaczynając od tych pytań dotyczących obaw o miejsce człowieka w przyszłości w świecie zdominowanym przez zaawansowane algorytmy, poprzez specjalistyczne pytania zawodowe czy odnoszące się do pracy domowej zadawanej w szkole, po pytania osobiste, a nawet tak trywialne kwestie jak przepisy kulinarneM. Sewastianowicz, Sztuczna inteligencja dużo może, także rozpowszechnić firmowe tajemnice, Warszawa 2023, s. 65–67..
Celem artykułu jest udzielenie odpowiedzi na pytanie, jak sztuczna inteligencja może być M. Derdak, Czy androidy śnią o zmowach cenowych? Algorytmy cenowe, sztuczna inteligencja i prawo konkurencji, „Kwartalnik Antymonopolowy wykorzystywana przez przedsiębiorców w prowadzeniu przez nich działalności gospodarczej i w kontakcie z konsumentami. Niniejsze opracowanie odnosi się także do kwestii ustalenia, w jaki sposób organy antymonopolowe mogą korzystać z zaawansowanych algorytmów, aby weryfikować, czy uczestnicy obrotu gospodarczego przestrzegają przepisów prawa ochrony konkurencji i konsumentów. Praca formułuje również postulaty de lege ferenda odnoszące się do stworzenia odpowiednich przepisów mających charakter norm ius cogens celem stworzenia odpowiedniej płaszczyzny legislacyjnej umożliwiającej korzystanie ze sztucznej inteligencji.
Tezę badawczą niniejszego opracowania stanowi założenie, że sztuczna inteligencja może przyczynić się do urzeczywistniania zasad prawa antymonopolowego w praktyce. Inną tezą badawczą jest konstatacja, że zaawansowane algorytmy mogą popełniać praktyki ograniczające konkurencję i c celu zapewnienia właściwego poziomu bezpieczeństwa obrotu prawno-gospodarczego nie powinno się zwalniać przedsiębiorców korzystających z nich z odpowiedzialności za potencjalne szkody spowodowane działaniem lub zaniechaniem sztucznej inteligencjiM. Derdak, Czy androidy śnią o zmowach cenowych? Algorytmy cenowe, sztuczna inteligencja i prawo konkurencji, „Kwartalnik Antymonopolowy i Regulacyjny” 2018/7, s. 80..
W niniejszej pracy wykorzystano metodę badawczą analityczną, metodę porównawczą i metodę dogmatyczną rozumianą jako analiza i wykładnia obecnie obowiązujących przepisów prawa, przy uwzględnieniu poglądów wyrażonych w orzecznictwie oraz doktrynie. Uzasadnieniem dla podjęcia rozważań we wskazanym powyżej zakresie jest brak wyczerpującego opracowania przedmiotowych zagadnień w nauce prawa i coraz powszechniejsze wykorzystanie sztucznej inteligencji w obrocie gospodarczym.
II. DEFINICJA POJĘCIA „SZTUCZNA INTELIGENCJA”
Samo zdefiniowanie pojęcia „sztuczna inteligencja” nastręcza już pewnych trudności. Wynika to przede wszystkim z trzech czynników. Po pierwsze, o ile samo prowadzenie analiz na temat możliwości zastosowania sztucznej inteligencji w różnych obszarach ludzkiej aktywności jest częste, o tyle rzadko prowadzone są szersze dyskusje dotyczące definicji terminu „sztuczna inteligencja”, dlatego de lege lata też próżno szukać definicji legalnej pojęcia „sztuczna inteligencja” w aktach prawnychM. Nowakowski, Na styku regulacji, czyli sztuczna inteligencja w sektorze finansowym – status quo i kierunki rozwoju prawa, Warszawa 2019, s. 124–125. .
Po drugie, sama definicja pojęcia „inteligencja” jest newralgiczna i różnorako pojmowana. Termin „inteligencja” fluktuował na przestrzeni ostatnich dekad od rozumienia tego pojęcia tylko jako zdolności intelektualnych i umiejętności przyswajania nowych wiadomości do interpretowania tegoż pojęcia jako umiejętności kooperacji ze zdolnościami kreowanymi w sferze emocjonalnej czy też interpersonalnej ludzkiej psychiki.
Po trzecie, nauka na obecnym poziomie nie jest w stanie precyzyjnie określić stopnia ludzkiego pierwiastka w sztucznej inteligencji z powodu braku dostatecznej wiedzy o funkcjonowaniu mózgu człowieka, chociaż warte wspomnienia jest, że dosyć prężnie rozwija się dziedzina zajmująca się sieciami neuronowymi, które mają docelowo imitować ludzki mózgM. Nowakowski, Na styku regulacji…, s. 134–136..
Adekwatna, choć relatywnie ogólna definicja pojęcia „sztuczna inteligencja” wywodzi się bezpośrednio od analiz naukowca Alana Turinga. W świetle tej definicji sztuczna inteligencja oznacza zdolność maszyny do naśladowania lub imitowania ludzkiej inteligencji. Test przeprowadzony przez Alana Turinga przedstawia się następująco: sędzia – człowiek – prowadzi rozmowę w języku naturalnym z pozostałymi stronami. Jeśli sędzia nie jest w stanie wiarygodnie określić, czy któraś ze stron jest maszyną, czy człowiekiem, wtedy stwierdza się, iż maszyna przeszła pomyślnie test. Podstawowym założeniem tego eksperymentu jest to, że zarówno człowiek, jak i maszyna próbują przejść test, zachowując się w sposób możliwie jak najbardziej zbliżony do ludzkiego behawioryzmuhttps://web.archive.org/web/20110726153108/http://orium.homelinux.org/paper/turingai.pdf (dostęp: 14.11.2023 r.)..
Definicja zaproponowana przez Alana Turinga koresponduje z definicją ukształtowaną w Słowniku języka polskiego PWN, zgodnie z którą sztuczna inteligencja stanowi dział informatyki badający reguły rządzące zachowaniami umysłowymi człowieka i tworzący programy lub systemy komputerowe symulujące ludzkie myśleniehttps://sjp.pwn.pl/sjp/sztuczna-inteligencja;2466532.html (dostęp: 14.11.2023 r.)..
W doktrynie niekiedy wskazuje się na korelację pomiędzy istotą sztucznej inteligencji a pojęciem „produkt niebezpieczny” w rozumieniu art. 4491 k.c.Ustawa z 23.04.1964 r. Kodeks cywilny (tj. Dz.U. z 2023 r. poz. 1610 z późn. zm.). Zgodnie
z literalnym brzmieniem art. 4491 § 3 k.c. za produkt niebezpieczny uznaje się produkt niezapewniający bezpieczeństwa, jakiego można oczekiwać, uwzględniając normalne jego użycieM. Woźniak-Cichuta, Kto ponosi odpowiedzialność w gospodarce nowych technologii? Bezpieczeństwo produktów w erze sztucznej inteligencji, Internetu Rzeczy i robotyki (w:) Wyzwania dla prawa konsumenckiego w wymiarze globalnym, regionalnym i lokalnym, red. M. Namysłowska, K. Podgórski, E. Sługocka-Krupa, Warszawa 2022, s. 357–358.. O tym, czy produkt jest bezpieczny, decydują okoliczności z chwili wprowadzenia go do obrotu. W ślad za judykaturą niebezpieczeństwo produktu wynikać może z jego naturalnych właściwości (tzw. produkty niebezpieczne per se), jak to ma miejsce w odniesieniu do materiałów wybuchowych, broni, materiałów toksycznych, itp., czy też z jego nieodpowiedniej jakości, wywołanej wadami konstrukcyjnymi, produkcyjnymi lub instrukcyjnymi, w tym z jego nieodpowiednią prezentacją, reklamą czy instrukcjami użytkowania i konserwacjiWyrok Sądu Apelacyjnego w Białymstoku z 29.04.2016 r., (I Aca 20/16), LEX nr 2056671.. Mając na względzie szerokie rozumienie potencjalnego niebezpieczeństwa produktu, można by uznać sztuczną inteligencję za wchodzącą w zakres terminu „produkt niebezpieczny”.
Takiej konstatacji przeczy jednak dosłowne brzmienie art. 4491 § 2 k.c., zgodnie z którym produkt niebezpieczny jako rzecz ruchoma stosownie do art. 45 k.c. może mieć wyłącznie materialną formę. W związku z powyższą wykładnią za produkt nie mogą zostać uznane dobra niematerialne takie jak projekty techniczne lub programy komputerowe, nawet kiedy zostaną utrwalone na określonym nośniku informacji czy wprowadzone do urządzenia, z uwagi właśnie na brak wymaganej dla rzeczy postaci materialnejZ. Banaszczyk, Art. 4491 k.c. (w:) K. Pietrzykowski, Komentarz. Kodeks cywilny, Warszawa 2008, t. 1, s. 1331..
W literaturze przedmiotu pojawiają się jednakże głosy, zgodnie z którymi pojęcie produktu zostało określone przez ustawodawcę w art. 4491 § 2 zbyt wąsko. Wykładnia funkcjonalna tego przepisu i wszechobecna cyfryzacja przemawiają za rozszerzającą interpretacją terminu „produkt niebezpieczny”. Zdaniem niektórych przedstawicieli doktryny produkty takie jak oprogramowanie komputerowe, o ile tylko zostały inkorporowane do innego produktu, np. komputera lub telefonu, można uznać za produktJ. Rajski, Odpowiedzialność za produkt niebezpieczny w świetle nowych przepisów kodeksu cywilnego, „PPH” 2001/100, s. 25..
Wobec sporu w doktrynie co do pojęcia „produkt niebezpieczny” oraz braku innej adekwatnej definicji legalnej odpowiadającej istocie sztucznej inteligencji słusznym postulatem de lege ferenda jest wprowadzenie przez ustawodawcę definicji legalnej tegoż terminu.
III. AKT W SPRAWIE SZTUCZNEJ INTELIGENCJI
Konsekwencją wzrostu popularności oraz powszechności użytkowania sztucznej inteligencji jest próba zapewnienia bezpiecznych i zgodnych z de lege lata obowiązującymi przepisami w obszarze praw podstawowych, a także z unijnymi wartościami systemów sztucznej inteligencji wprowadzanych na rynek państw członkowskich UER. Bujalski, Akt o sztucznej inteligencji [projekt UE], Warszawa 2022, s. 23–24.. Powyższa konstatacja stanowi ratio legis unijnego projektu aktu w sprawie sztucznej inteligencji. Uzgodniony przez Radę UE wyżej wspomniany projekt rozporządzenia został już zaopiniowany pozytywnie przez Europejski Komitet Ekonomiczno-Społeczny, Europejski Bank Centralny oraz Europejski Komitet Regionów. Aktualnie jest przedmiotem negocjacji pomiędzy Radą UE a Parlamentem Europejskimhttps://eur-lex.europa.eu/legal-content/PL/HIS/?uri=CELEX:52021PC0206&qid=1671031275662 (dostęp: 14.11.2023 r.)..
W przedmiotowym projekcie rozporządzenia zaaprobowano podejście oparte na analizie ryzyka i ustanowiono jednolite, horyzontalne ramy prawne dotyczące sztucznej inteligencji, aby zapewnić możliwie jak najbardziej stabilną pewność prawa. W założeniu ma się to przyczynić do wspierania innowacji w zakresie AI, umożliwić efektywne wdrażanie de lege lata i de lege ferenda obowiązujących przepisów o prawach podstawowych i bezpieczeństwie, a także stworzyć jednolity rynek dla zastosowań sztucznej inteligencjiR. Bujalski, Akt o sztucznej…, s. 27–28..
We wspomnianym projekcie zawężono termin „sztuczna inteligencja” do systemów opracowanych przy wykorzystaniu mechanizmów uczenia się maszyn oraz podejść opartych na logice i wiedzy, aby odróżnić sztuczną inteligencję od mniej skomplikowanych systemów. Ponadto wprowadzono zakaz wykorzystywania AI do celów oceny punktowej zachowań społecznych obywateli oraz zakazano korzystania z systemów sztucznej inteligencji wykorzystujących podatność osób znajdujących się w ciężkim położeniu z uwagi na kryteria społeczne lub ekonomiczneI. Małobęcka-Szwast, Akt w sprawie sztucznej inteligencji – nowe wyzwania dla prawników, „Prawo i Praktyka” 2022/4, s. 33–34.. Na gruncie projektu wypracowano też kompromis, zgodnie z którym uznano, że organy ścigania są uprawnione do korzystania z systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej jedynie w ściśle określonych przypadkach. Wprowadzono również kategorię systemów wysokiego ryzyka sztucznej inteligencji, która może powodować poważne naruszenia praw podstawowych lub inne istotne zagrożenia. Kryteria, które muszą zostać spełnione przez sztuczną inteligencję wysokiego ryzyka, są precyzyjne technicznie, dzięki czemu są czytelne i relatywnie łatwe do oceny oraz raportowania w dokumentacji technicznej, do sporządzania której są zobligowani na podstawie Kodeksu spółek handlowych, ustawy z 29.09.1994 r. o rachunkowości i innych aktów prawnych przedsiębiorcyhttps://eur-lex.europa.eu/legal-content/PL/TXT/PDF/?uri=CONSIL:ST_15698_2022_INIT&from=PL (dostęp: 14.11.2023 r.)..
W oparciu o rozporządzenie Akt w sprawie sztucznej inteligencji ma zostać powołany specjalny organ, jakim będzie Rada ds. Sztucznej Inteligencji. Organ ten ma w założeniu posiadać stosunkowo dużą autonomię i relatywnie szeroki zakres kompetencji w strukturze zarządzania przewidzianej w akcie o sztucznej inteligencji. Rada ta ma utworzyć stałą podgrupę służącą jako platforma dla szerokiego grona zainteresowanych stron. Warto w tym miejscu podkreślić, że w kontekście kar za naruszenia przepisów aktu o sztucznej inteligencji projekt rozporządzenia przewiduje proporcjonalne pułapy administracyjnych kar pieniężnych dla przedsiębiorców należących do sektora małych i średnich przedsiębiorców oraz przedsiębiorstw typu start-up w celu zachęcania ich do wdrażania innowacyjnych rozwiązań związanych
z zaawansowanymi algorytmamihttps://eur-lex.europa.eu/legal-content/PL/TXT/PDF/?uri=CONSIL:ST_15698_2022_INIT&from=PL (dostęp: 14.11.2023 r.)..
IV. RELACJE POMIĘDZY SZTUCZNĄ INTELIGENCJĄ A URZĘDEM OCHRONY KONKURENCJI I KONSUMENTÓW
Dyskusje dotyczące korelacji sztucznej inteligencji z prawem odbywają się również w obszarze prawa konkurencji, tj. na rynku intensywnie korzystającym z technologii cyfrowych. Sztuczna inteligencja z wysokim stopniem prawdopodobieństwa odgrywać będzie coraz bardziej doniosłą rolę zarówno w stosunkach prywatnych pomiędzy przedsiębiorcami, jak i z punktu widzenia publicznoprawnych relacji przedsiębiorcy na linii – Urząd Ochrony Konkurencji i Konsumentów a przedsiębiorcahttps://www.pwc.pl/pl/artykuly/ai-a-prawo-konkurencji.html (dostęp: 20.05.2023 r.). .
Sztuczna inteligencja może stać się sprzymierzeńcem wykorzystywanym przez Prezesa UOKiK w ochronie prawa konsumentów. Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy (OPI PIB) wygrał w 2022 r. ogłoszony przez Prezesa UOKiK konkurs na opracowanie i wdrożenie narzędzia, które pomoże w prosty sposób wykryć abuzywne zapisy w umowach zawieranych pomiędzy przedsiębiorcami a konsumentami. Zwycięski projekt zakłada, że umowy będą zbierane za pomocą web crawler, czyli internetowego robota indeksującego, a zaawansowane algorytmy je przeanalizują
i dokonają porównania ich postanowień z rejestrem klauzul niedozwolonych, w którym znajduje się ponad 10.000 zapisów. Co istotne, narzędzie ma docelowo wyszukiwać nie tylko zapisy literalnie identyczne, a również zapisy podobne, zawierające na przykład wyrazy bliskoznaczne. Baza abuzywnych klauzul powstała zarówno
w oparciu o wzory umów udostępnione w Internecie, jak i na podstawie danych dostarczonych przez konsumentów wraz z zawiadomieniem w związku z podejrzeniem naruszenia zakazu stosowania niedozwolonych postanowień umownych składanym do Prezesa UOKiK, o którym to zawiadomieniu jest mowa explicite w art. 99a ustawy z 16.02.2007 r. o ochronie konkurencji i konsumentówUstawa z 16 .02.2007 r. o ochronie konkurencji i konsumentów (tj. Dz. U. z 2024 r. poz. 594), dalej u.o.k.i.k.. Stosownie do art. 99a ust. 2 pkt 3 u.o.k.i.k. w zw. z art. 23a u.o.k.i.k. i art. art. 3851 § 1 k.c. zawiadomienie powinno zawierać wskazanie postanowienia wzorca umowy naruszającego zakaz stosowania we wzorcach umów zawieranych z konsumentami niedozwolonych postanowień umownych, o których mowa w 3851 § 1 k.c. Wyżej wskazane narzędzie będzie wykorzystywane do wyszukiwania klauzul abuzywnych w umowach zawieranych pomiędzy przedsiębiorcami a konsumentami, regulaminach oraz na stronach internetowych firm, platformach e-commerce i sklepów internetowych. Dzięki zastosowaniu sztucznej inteligencji będzie możliwa relatywnie szybka weryfikacja zdecydowanie większej ilości danych niż obecniehttps://www.gazetaprawna.pl/firma-i-prawo/artykuly/8571586,sztuczna-inteligencja-uokik.html (dostęp: 14.11.2023 r.).
Z punktu widzenia dzisiejszego stopnia zaawansowania techniki jak najbardziej realne wydaje się zastosowanie sztucznej inteligencji w pracy biegłych sądowych.
Co prawda w Założeniach do strategii AI w Polsce dostrzeżono taką możliwość
w odniesieniu do biegłych tylko w sprawach karnych, ale nie ma żadnych przeciwwskazań do stosowania ich w sprawach administracyjnych, sądowoadministracyjnych oraz cywilnychA. Bieliński, Potencjalne obszary zastosowania sztucznej inteligencji w postępowaniu cywilnym – czy obecnie ma to rację bytu i czy jesteśmy na takie rozwiązania gotowi?, „Studia Prawnicze: rozprawy i materiały” 2022/33, s. 22. Mając na względzie możliwość gromadzenia i analizowania niemal nieskończonej ilości na bieżąco pojawiającej się literatury przedmiotu oraz orzeczeń, sztuczna inteligencja może w niedalekiej przyszłości wspomóc, a nawet zastąpić organ w rozstrzyganiu kwestii takich jak to, czy w danym stanie faktycznym doszło przykładowo do popełnienia praktyk ograniczających konkurencję czy też koncentracji przedsiębiorcówM. Tegmark, Życie 3.0. Człowiek w erze sztucznej inteligencji, Warszawa 2019, s. 245–246..
Obecnie do najbardziej znanych systemów AI służących do analizy prawa należy ROSS, który specjalizuje się w prawie upadłościowym, prawie własności intelektualnej i prawie pracy w USA. Przygotowując odpowiedź na pytanie, ROSS znajduje właściwe przepisy prawa i orzecznictwo oraz przygotowuje projekt notatki, która jest następnie oceniana przez ludzi. Pozwala to zaoszczędzić nawet do 30 godzin podczas analizy jednej sprawy M. Araszkiewicz, Sztuczna inteligencja i prawo do wyjaśnienia, Kraków 2018, s. 36.. W Polsce natomiast coraz większym zainteresowaniem cieszy się projekt dotyczący pozasądowego postępowania a wdrażany przez IUS.AI spółkę z o.o. z siedzibą w Warszawie na rzecz Ultima Ratio – Sądu Arbitrażowego przy Stowarzyszeniu Notariuszy. System ten zajmuje się stosunkowo prostymi, lecz czasochłonnymi czynnościami takimi jak analiza porównawcza spraw oraz judykatury, opracowanie projektu uzasadnienia orzeczenia po dokonaniu analizy materiału dowodowego zgromadzonego w sprawie i stanowisk stron Ł. Goździaszek, Perspektywy wykorzystania sztucznej inteligencji w postępowaniu sądowym, „Przegląd Sądowy” 2015/10, s. 34–35. .
V. SZTUCZNA INTELIGENCJA JAKO NARZĘDZIE UŻYWANE PRZEZ PRZEDSIĘBIORCÓW
Z perspektywy prywatnoprawnej sytuacji przedsiębiorcy technologia oparta na działaniu zaawansowanych algorytmów w sposób diametralny zmieniła proces decyzyjny przedsiębiorców, zwłaszcza w zakresie polityki cenowej, analityki predykcyjnej, a także automatyzacji podejmowania decyzji. Przede wszystkim decyzje mogą być podejmowane przez przedsiębiorców znacznie szybciej, albowiem dane pułapy cenowe są automatycznie dopasowywane do konkretnych grup docelowych, a produkty w sposób bardzo kompatybilny dopasowywane do indywidualnych potrzeb danych konsumentów. Tym samym przedsiębiorcy mogą również oszczędzić i nie zatrudniać sztabu specjalistów, którzy tradycyjnie analizowaliby różne czynniki. Powyższe zjawiska oddziałują pozytywnie na wydajność produkcji i pracy, koszty inwestycji oraz znacząco skracają długość procesu decyzyjnegoP. Księżak, Prawo cyborgów (1). Wprowadzenie w problematykę, „Głos Prawa. Przegląd Prawniczy Allerharda” 2022/9, s. 11–12.
Sztuczna inteligencja jest wykorzystywana przez przedsiębiorców głównie
w postaci chatbotów. Działanie chatbotów przejawia się w prowadzeniu konwersacji z klientem w formie pisemnej lub ustnej w celu jak najszybszego sklasyfikowania
i rozwiązania problemuM. Dargas-Draganik, Wykorzystanie sztucznej inteligencji w postępowaniach sądowych na przykładzie Chin i Estonii, „Czasopismo Naukowe Uniwersytetu Gdańskiego” 2022/22, s. 19–21..
Wart zasygnalizowania jest w tym miejscu problem związany z voicebotami
i chatbotami, z których przedsiębiorcy coraz częściej korzystają w kontaktach z konsumentami. Samo korzystanie z voicebotów i chatbotów nie stanowi jeszcze deliktu prawa ochrony konkurencji, lecz z danych, którymi dysponuje UOKiK, wynika, że konsumenci zgłaszają wiele zastrzeżeń co do działania tych narzędzi. Dotyczy to
w szczególności postępowań reklamacyjnych, gdyż odpowiedzi chatbotów lub
voicebotów są niejednokrotnie niemerytoryczne i nie prowadzają do rozwiązania danego problemu. Innym mankamentem jest brak możliwości przejścia na rozmowę z człowiekiemM. Boroń, Sztuczna inteligencja w służbie praw konsumenta. UOKiK planuje wdrożyć nowe narzędzia, „Gazeta Prawna” 2022/10, s. 23–24..
Następnym narzędziem, z którego chętnie korzystają przedsiębiorcy, są tzw. inteligentni asystenci. Inteligentnych asystentów można określić jako programy wykorzystywane przez przedsiębiorców w celu podziału bieżących zadań i poprawienia organizacji działań wewnątrz firmy. Mają priorytetowe znaczenie dla działania dużych przedsiębiorcówA. Grendys, Elektroniczny sąd arbitrażowy dla przedsiębiorców dostanie wsparcie AI, Warszawa 2019, s. 43–33..
Innym narzędziem używanym przez przedsiębiorców są silniki rekomendacji. Silniki rekomendacji stanowią inteligentne zaawansowane algorytmy, które segregują dane pod kątem ich użyteczności na potrzeby wyszukiwania konkretnych informacji czy przeprowadzania raportu. Silniki rekomendacji są szczególnie skuteczne w przypadku, gdy przedsiębiorca potrzebuje dostępu do określonych danych znajdujących się na różnych nośnikach M. Hetmański, Słaba i silna sztuczna inteligencja, „Computerworld” 2017/5, s. 21. .
VI. SZTUCZNA INTELIGENCJA JAKO NARZĘDZIE DO POPEŁNIENIA DELIKTÓW PRAWA OCHRONY KONKURENCJI I KONSUMENTÓW
Korzystanie ze sztucznej inteligencji wiąże się również z pewnym stopniem ryzyka. Odnośnie do wyżej wspomnianego procesu decyzyjnego należy podkreślić, że zautomatyzowane procesy decyzyjne oparte na zaawansowanych algorytmicznych systemach z uwagi właśnie na ten mechaniczny, zero-jedynkowy, wysoce stronniczy charakter mogą utrwalać krzywdzące podziały społeczne oraz powielać szkodliwe stereotypyhttps://ksiegowosc.infor.pl/wiadomosci/5722900,chatboty-algorytmy-sztuczna-inteligencja-a-prawa-konsumenta-stanowisko--uokik.html (dostęp: 14.11.2023 r.). .
Sztuczna inteligencja tworzy także nowe płaszczyzny do zmów cenowych stanowiących rodzaj zakazanych porozumień ograniczających konkurencję stosownie do art. 6 ust 1 pkt 1 u.o.k.i.k. Artykuł 6 ust. 1 u.o.k.i.k. można podzielić na dwie części. W pierwszej części w ust. 1 zamieszczono klauzulę generalną, ustanawiającą zakaz porozumień antykonkurencyjnych. W drugiej części zawarty został katalog tego rodzaju porozumień. Przedmiotowy katalog ma tylko przykładowy charakter, o czym świadczy zawarty w art. 6 ust 1 in fine zwrot „w szczególności”K. Kohutek, Art. 6 (w:) K. Kohutek, M. Sieradzka, Ustawa o ochronie konkurencji i konsumentów. Komentarz, Warszawa 2014, s. 243–244.. Zakazem z art. 6
ust. 1 pkt 1 objęte są zarówno porozumienia między przedsiębiorcami reprezentującymi stronę popytu, czyli ustalającymi ceny zakupu, jak i występującymi po stronie podaży, czyli ustalającymi ceny sprzedaży. W ślad za orzecznictwem należy wskazać, że dla istoty porozumienia cenowego nie jest konieczne, aby porozumienie to zawiązali wszyscy konkurenci funkcjonujący na rynku. Wystarczy, że uczynią to co najmniej dwa podmiotyWyrok Sądu Antymonopolowego z 1.03.1993 r. (XVII Amr 37/92). LEX nr 10983.
Przepis art. 6 ust. 1 pkt 1 u.o.k.i.k. zakazuje zarówno porozumień ustalających ceny w sposób bezpośredni, jak i tylko pośredni. Z bezpośrednim ustalaniem cen mamy do czynienia w razie jednoznacznego określania ceny towaru, czyli wskazania konkretnej kwoty, za którą towar ma zostać zbyty bądź poniżej lub powyżej jakiej wysokości nie może być sprzedawany. Pośrednie ustalenie ceny interpretuje się jako osiągnięcie przez strony porozumienia odnośnie do czynników wpływających na wysokość ceny takich jak ograniczenia w zakresie udzielania promocji, ustalenie zasad kalkulacji cen przykładowo poprzez odwołanie się do stawek za godzinę pracy albo przez przyjęcie określonego wzoru matematycznego dla kalkulacji lub ustalenia wspólnej ceny sprzedaży, terminów płatnościK. Kohutek, Art. 6 (w:) K. Kohutek, M. Sieradzka, Ustawa o..., s. 245–247. Sztuczna inteligencja może znaleźć zastosowanie zwłaszcza w przypadku analizy ewentualnego wystąpienia pośredniego ustalania cen, ponieważ może generować, przetwarzać i porównywać bardzo szeroki zakres informacji.
Porozumienia stanowiące delikt prawa konkurencji mogą zostać wdrożone za pomocą zaawansowanych algorytmów, które pełnią wówczas rolę środka komunikacji. W tej sytuacji sztuczną inteligencję można porównać do zaawansowanych technologicznie narzędziM. Derdak, Czy androidy śnią o..., s. 82..
Orzecznictwo wskazuje, że – jak wynika już z samej wykładni językowej art. 6 ust. 1 u.o.k.i.k. – zakazane są porozumienia, których celem lub skutkiem jest wyeliminowanie, ograniczenie lub naruszenie w inny sposób konkurencji na rynku właściwym. Posłużenie się spójnikiem „lub” oznacza, że sklasyfikowanie określonego porozumienia jako mającego antykonkurencyjny cel zwalnia z wymogu udowodnienia antykonkurencyjnego skutku tego porozumieniaWyrok Sądu Ochrony Konkurencji i Konsumentów w Warszawie z 24.03.2004 r., (XVII Ama 29/03), LEX nr 124535. Oznacza to, że już samo zawarcie porozumienia, o którym mowa w art. 6 ust. 1 pkt 1 u.o.k.i.k., jest zakazane. Nie ma znaczenia, czy postanowienia przedmiotowego porozumienia doszły do skutku. Zatem już same uzgodnienia w zakresie ograniczeń cenowych w ramach danego porozumienia z wykorzystaniem sztucznej inteligencji można uznać za niedozwoloną praktykę.
Wobec powyższego, optymalne rozwiązanie, które pomogłoby wyeliminować popełnianie praktyk ograniczających konkurencję przy użyciu sztucznej inteligencji w przyszłości, mógłby stanowić na przykład system, który wykrywałby tzw. „słowa klucze” świadczące o możliwości zawarcia bezpośrednio lub pośrednio porozumienia będącego deliktem prawa antymonopolowego. Powinien także istnieć system, który przeciwdziałałby usuwaniu treści wiadomości wygenerowanych przez sztuczną inteligencję, aby uniemożliwić zacieranie dowodów popełnienia zakazanych praktyk ograniczających konkurencję post factum.
Jak doprecyzowuje judykatura, nie są przejawem porozumienia ograniczającego konkurencję, a w szczególności mającego postać uzgodnionego zachowania
z art. 6 ust. 1 pkt 1 u.o.k.i.k., tzw. paralelne zachowania przedsiębiorców, świadomie dopasowujących się do powstałej sytuacji na danym rynku właściwym. Jako normalna reakcja rynkowa, świadome dopasowywanie się do zmieniających wymagań rynku, między innymi w zakresie ofert cenowych konkurentów, nie jest zakazane. Różnica pomiędzy dozwolonym zachowaniem paralelnym a niedozwolonym porozumieniem ograniczającym konkurencję tkwi w tym, że w pierwszym przypadku mamy do czynienia jedynie z racjonalnie uzasadnionym naśladownictwem zachowań innych konkurentów, w drugim zaś – z zawartym w jakikolwiek sposób i w jakiejkolwiek formie porozumieniem konkurentów. Jeżeli podążanie przez przedsiębiorców za cenami konkurentów poprzedzone jest jakimikolwiek bezpośrednimi lub pośrednimi kontaktami między przedsiębiorcami, których celem lub skutkiem jest wpływanie na decyzje rynkowe niektórych z nich lub ujawnienie ich zamierzeń, objęte jest ono zakazem porozumień cenowych. Istotne znaczenie dla ustalenia istnienia porozumienia ograniczającego konkurencję zawartego w formie poufnej zmowy mają skoordynowane zachowania na rynku uczestników tego porozumienia nakierowane na osiągnięcie celu sprzecznego z prawemWyrok Sądu Najwyższego z 9.08.2006 r., (III SK 6/06), LEX nr 354144.
Sztuczna inteligencja poprzez dokładną analizę konkretnych zachowań przedsiębiorców połączoną z interpretacją właściwych przepisów prawa mogłaby pomóc
w odróżnianiu porozumień ograniczających konkurencję od dozwolonych paralelnych zachowań.
Na gruncie polskiego orzecznictwa nie ma jeszcze przykładów deliktów popełnionych za pomocą sztucznej inteligencji lub przez sztuczną inteligencję. Wartą uwagi jest sprawa, w której na koreańską spółkę NAVER została nałożona w dniu 6.10.2020 r. kara pieniężna przez koreańską komisję ochrony konkurencji. Spółka NAVER prowadziła platformę wyszukującą i porównującą oferty większości sklepów internetowych działających na terenie Korei Południowej. Koreańska komisja antymonopolowa uznała, że spółka NAVER dostosowała kryteria rankingów wyszukiwania w ten sposób, że kryteria rankingów w znaczący sposób faworyzowały spółkęhttps://m.koreaherald.com/view.php?ud=20201006000715 (dostęp: 14.11.2023 r.).. Przekładając powyższy stan faktyczny na grunt polskiego ustawodawstwa, powyższe działanie odpowiadałoby naruszeniu prawa antymonopolowego z art. 9 ust. 2
pkt 5 u.o.k.i.k., tj. przeciwdziałaniu ukształtowaniu się warunków niezbędnych do powstania bądź rozwoju konkurencji. Przeciwdziałanie ukształtowaniu się warunków niezbędnych do powstania bądź rozwoju konkurencji jest równoznaczne z podejmowaniem działań, które znacząco utrudniają, bądź też nawet zupełnie uniemożliwiają podjęcie lub rozwój działalności gospodarczej konkurentom dominującego przedsiębiorcy, a w rezultacie prowadzą do wykluczenia wspomnianych konkurentów
z danego rynku właściwegoC. Banasiński, Polskie prawo antymonopolowe. Zarys wykładu, Warszawa 2018, s. 149–153.. Delikt z art. 9 ust. 1 pkt 2 u.o.k.i.k. należy do ograniczeń konkurencji o charakterze wykluczającym i wymierzony jest wprost przeciwko funkcjonowaniu mechanizmu konkurencjiWyrok Sądu Najwyższego z 13.05.2008 r., (III SK 30/07), LEX nr 511741. Nadużycia pozycji dominującej wskazane w art. 9 ust. 2 pkt 2 może dopuścić się jedynie ten przedsiębiorca, który ogranicza produkcję, zbyt lub postęp techniczny pomimo posiadanych przez siebie stosownych możliwości, składających się łącznie na jego potencjał produkcyjny, dystrybucyjny, badawczo-rozwojowy oraz potencjał w zakresie możliwości zbytu, uwarunkowany istnieniem stosownego popytu na przedmiotowe produkty.M. Szydło, Nadużywanie pozycji dominującej, Warszawa 2010, s. 163 Szkoda w brzmieniu
art. 9 ust. 2 pkt 2 powinna być rozumiana nie jako każde naruszenie prywatnych interesów kontrahentów czy konsumentów, ale takie naruszenie, które jednocześnie stanowi naruszenie interesu publicznego, uzasadniające interwencję antymonopolową organu ochrony konkurencjiWyrok Sądu Ochrony Konkurencji i Konsumentów w Warszawie z 12.05.2014 r., (XVII AmA 16/13), LEX nr 2155801.
W świetle powyższych rozważań optymalnym rozwiązaniem byłoby zaopatrzenie sztucznej inteligencji, z której korzystaliby przedsiębiorcy, w mechanizmy bezpieczeństwa takie jak zapory uniemożliwiające manipulację danymi.
Do tej pory raportowane sprawozdania organów antymonopolowych związane z korzystaniem ze sztucznej inteligencji były dość mocno ograniczone i sprowadzają się do szablonowych spraw związanych z ustalaniem cen sprzedaży pomiędzy konkurentami oraz pomiędzy dostawcą a odbiorcą, w których przedsiębiorcy w celu wdrożenia uprzednio zawartego porozumienia korzystali z programów komputerowych monitorujących lub dostosowujących ceny sprzedaży towarów. Mającym bezprecedensowy charakter rozstrzygnięciem była decyzja brytyjskiego organu ochrony konkurencji (tj. Competition and Markets Authority) z dnia 12.08.2016 r. w sprawie Trod Ltd v. GB eye Ltd3. Przedmiotowa sprawa dotyczyła dwóch przedsiębiorców prowadzących działalność gospodarczą w zakresie internetowej sprzedaży plakatów za pośrednictwem brytyjskiego oddziału spółki Amazon. Przedsiębiorcy ci korzystali wspólnie ze specjalnie dostosowanego oprogramowania, które automatycznie korygowało ceny produktów oferowanych przez nich za pośrednictwem sprzedażowej platformy internetowej. Założeniem działania tego algorytmu było wdrożenie uprzedniego porozumienia przedsiębiorców odnośnie do niekonkurowania w zakresie cenhttps://assets.publishing.service.gov.uk/media/57ee7c2740f0b606dc000018/case-50223-final-non-confidential-infringement--decision.pdf (dostęp: 14.11.2023 r.).. Przekładając powyższy stan faktyczny na grunt polskiego ustawodawstwa, należy stwierdzić, że takie zachowanie przedsiębiorców stanowiłoby delikt z art. 6
ust. 1 pkt 6, tj. ograniczanie dostępu do rynku lub eliminowanie z rynku przedsiębiorców nieobjętych porozumieniem. Skutek ograniczania dostępu do rynku oznacza, że
w konsekwencji obowiązywania danego porozumienia działalność na rynku staje się dla przedsiębiorców ekonomicznie nieopłacalna. Nie ma przy tym żadnego znaczenia, czy ograniczenie dostępu do rynku odnosi się do przedsiębiorców, którzy dopiero planują wejść na dany rynek, czy do przedsiębiorców, którzy już na danym rynku prowadzą działalność gospodarczą. Ponadto ograniczenie dostępu do rynku powstaje zarówno w przypadku pogorszenia sytuacji podmiotów niebędących stroną porozumienia, jak i poprzez polepszenie sytuacji jego uczestnikówWyrok Sądu Najwyższego z 14.01.2009 r., (III SK 26/08), LEX nr 584997..
Podobnie za praktykę ograniczającą konkurencję w postaci utrudnienia dostępu do rynku lub eliminowania z rynku przedsiębiorców nieobjętych porozumieniem można uznać działania dwóch konkurujących ze sobą brytyjskich dostawców gazu
i energii elektrycznej (Economy i EGEL), którzy zawarli zmowę cenową z firmą Dyball. Spółka Dyball dostarczała Economy oraz Egel oprogramowanie, które informowało konkurujące ze sobą spółki o zasięgu klientów. W ten sposób Economy i Egel agresywnie pozyskiwali klientów innych firm. Wszyscy uczestnicy tej zmowy (w tym firma IT) zostali ukarani finansowo w 2019 r. przez U.K. Gas and Electricity Markets Authority, nie wykluczając spółki dostarczającej oprogramowanie bazujące na sztucznej inteligencjihttps://content.next.westlaw.com/practical-law/document/I47f90210823111e9adfea82903531a62/Ofgem-fines-Economy-Energy-E-Gas-and-Electricity-and-Dyball-Associates-for-infringing-the-Chapter-I-prohibition?viewType=FullText&transitionType=Default&contextData=(sc.Default) (dostęp: 14.11.2023 r.)..
Komisja Europejska w dniu 24.07.2018 r. wydała cztery decyzje, kolejno
w sprawie COMP/40465 Asus, COMP/40469 Denon & Marantz, COMP/40181 Philips oraz COMP/40182 Pioneer, w których to sprawach po raz pierwszy uznała, że sztuczna inteligencja została użyta do praktyk antykonkurencyjnych. Producenci sprzętu komputerowego wyznaczali swoim dystrybutorom ceny stałe lub ceny minimalne, a później wpływali pośrednio na ich decyzje cenowe za pomocą oprogramowania opartego na zaawansowanych algorytmach poprzez to, że w przypadku stwierdzenia przez producentów odchylenia od narzuconej ceny, dystrybutorzy byli karani ze strony producentów sankcjami takimi jak nagłe wstrzymanie dostawhttps://ec.europa.eu/competition/antitrust/cases/dec_docs/40181/40181_417_3.pdf (dostęp: 14.11.2023 r.).. Komisja Europejska w swoich rozstrzygnięciach podkreśliła, że ze względu na stosowanie przez innych uczestników rynku algorytmów cenowych, dla których danymi wejściowymi są ceny stosowane przez tych dystrybutorów, taka praktyka może mieć szczególnie istotny negatywny wpływ na dany rynek właściwyhttps://ec.europa.eu/competition/antitrust/cases/dec_docs/40469/40469_329_3.pdf (dostęp: 14.11.2023 r.).
VII. ODPOWIEDZIALNOŚĆ ZA DELIKT ANTYMONOPOLOWY POPEŁNIANY PRZEZ SZTUCZNĄ INTELIGENCJĘ
Newralgiczną kwestią jest zwłaszcza sytuacja, kiedy sztuczna inteligencja skonstruowana zostaje w sposób umyślnie prowadzący do niedozwolonego w świetle prawa antymonopolowego porozumienia. Tytułem przykładu sztuczna inteligencja może zostać zaprojektowana w taki sposób, aby mogła wymieniać się szczegółowymi informacjami wrażliwymi i w skojarzony sposób ustalać wysokość cen dwóch lub więcej przedsiębiorców. Powyższy przypadek należałoby uznać za przejaw uzgodnionej koordynacji działań przedsiębiorców, która mieści się w szerokim pojęciu „porozumienia w prawie konkurencji”. W świetle tego zagadnienia najbardziej kluczowa wydaje się kwestia odpowiedzialności za naruszenie prawa konkurencji przy użyciu sztucznej inteligencji. W ślad za powyższym relewantne jest pytanie, w którym momencie sztuczna inteligencja przestaje być tylko narzędziem służącym człowiekowi do wdrożenia jego zamiarów, a staje się samodzielnym bytem o określonej autonomii, zdolnym do podejmowania własnych, niezależnych decyzji, których rezultaty mogą być odmienne od intencji człowieka M. Derdak, Czy androidy śnią o..., s. 24–25..
Prima facie, ewidentne jest w wyżej przytoczonym przykładzie zawinienie ze strony przedsiębiorcy, który korzystając z takiego zaawansowanego algorytmu, powinien mieć świadomość, że w przypadku użycia przez innego przedsiębiorcę podobnego algorytmu nastąpi zmowa cenowa lub inny rodzaj deliktu prawa ochrony konkurencji M. Derdak, Czy androidy śnią o..., s. 24–25..
Nawet w sytuacji, w której przedsiębiorca korzysta ze sztucznej inteligencji, która nie została docelowo skonstruowana tak, aby umożliwić przedsiębiorcom popełnianie praktyk ograniczających konkurencję, ale zawiera luki lub błędy, których reperkusję stanowi koordynacja cen z rywalizującymi algorytmami, na przedsiębiorcę może zostać nałożona administracyjna kara pieniężna przez Prezesa UOKiK, albowiem na podstawie art. 106 ust. 1 pkt 1 u.o.k.i.k. na przedsiębiorcę można nałożyć karę, jeżeli chociażby nieumyślnie dopuścił się naruszenia zakazu zawierania porozumień naruszających konkurencjęT. Skoczny, Ustawa o ochronie konkurencji i konsumentów, Warszawa 2014, s. 1336. . Możliwość nałożenia kary pieniężnej wskazanej w art. 106
ust. 1 pkt 1 u.o.k.i.k. nie jest bowiem uzależniona od tego, czy przedsiębiorca miał zamiar stosowania niedozwolonych praktyk, czy też dopuścił się tych praktyk nieumyślnie, tj. nie mając świadomości, że postępuje w sposób sprzeczny z prawem lub dobrymi obyczajami. Tym samym przesłankę do nałożenia kary pieniężnej nie stanowi wina, w tym wina umyślna. Niemniej jednak okoliczność, czy naruszenie prawa antymonopolowego nastąpiło w sposób zawiniony, czy też nieumyślny, jest relewantnym czynnikiem branym pod uwagę w szczególności przy ustalaniu wysokości kary. Faktyczna wysokość kary musi być bowiem, w pierwszej kolejności, odzwierciedleniem winy,
z jaką związane jest naruszenie zakazuWyrok Sądu Ochrony Konkurencji i Konsumentów w Warszawie z 24.05.2006 r., (XVII Ama 17/05), LEX nr 194953.
Kolejną sytuację do hipotetycznego rozważania stanowi przypadek, w którym pomimo dochowania należytej staranności w projektowaniu, wdrażaniu i korzystaniu ze sztucznej inteligencji, jej działanie prowadzi do rezultatów odmiennych od intencji człowieka. Z takim stanem rzeczy możemy mieć do czynienia w przypadku wysoce zaawansowanej sztucznej inteligencji samouczącej się, która może korzystać z procesu nienadzorowanego uczenia maszynowego J. Wątor, Robot odpowie za swoją pracę? Już musimy rozmawiać, jak to regulować, „Business Insider” 2017/4, s. 16.
W tym miejscu warto wskazać różnice pomiędzy samouczeniem się sztucznej inteligencji nadzorowanym a samouczeniem się nienadzorowanym. W uczeniu nadzorowanym mamy do czynienia z ludzkim nadzorem nad kreowaniem funkcji odwzorowującej sposób reakcji systemu na dane wejściowe. Taka kontrola przejawia się w tworzeniu zestawu danych uczących, czyli łączeniu wielu bodźców uczących oraz poszukiwanych przez nadzorcę odpowiedzi na nie. W konsekwencji system ma zapamiętać prawidłową odpowiedź na dany bodziec wejściowy i zgeneralizować dane wyuczone na nowe przypadki. Natomiast uczenie nienadzorowane opiera się na braku obecności precyzyjnej lub nawet zbliżonej odpowiedzi w danych uczących. Przykładem uczenia nienadzorowanego jest uczenie przez wzmacnianie, które jest niezbędne z punktu widzenia kształtowania przez przedsiębiorców polityki cenowej R. Skibiński, Odpowiedzialność za sztuczną inteligencję będzie uregulowana, „Prawo.pl” 2022/10, s. 18–19. Ta metoda przejawia się w wyznaczaniu przez sztuczną inteligencję optymalnej polityki działania w zupełnie nowym dla niej środowisku w oparciu o interakcje z tymże środowiskiem. Jedyną informacją, na której sztuczna inteligencja bazuje, jest sygnał wzmocnienia, który osiąga wysoką wartość, kiedy algorytm podejmuje właściwe decyzje, lub niską, gdy popełnia błądT. J. Sejnowski, Deep Learning. Głęboka rewolucja. Kiedy sztuczna inteligencja spotyka się z ludzką, Warszawa 2019, s. 57–58..
Warte podkreślenia jest twierdzenie, iż nawet takich sytuacji nie powinno się postrzegać jako przypadki wyłączające odpowiedzialność przedsiębiorcy. Takie sytuacje należy bowiem traktować jako funkcje ukryte, za które przedsiębiorca bierze na siebie ryzyko w momencie podjęcia decyzji o korzystaniu ze sztucznej inteligencji. Przeciwna konstatacja tworzyłaby zbyt szerokie pole do potencjalnych nadużyć, ponieważ przedsiębiorcy mogliby wówczas chętniej korzystać z ryzykownych, słabo przetestowanych zaawansowanych algorytmów w celu dążenia jedynie do możliwie jak największej maksymalizacji zysków za wszelką cenęA. Chłopecki, Sztuczna inteligencja – szkice prawnicze i futurologiczne, Warszawa 2018, s. 156. .
VIII. ZAKOŃCZENIE
Reasumując powyższe rozważania, należy stwierdzić, że wdrożenie sztucznej inteligencji do różnych dziedzin życia będzie stanowić przełom na miarę pojawienia się sieci internetowych na przełomie XX i XXI wieku. Widoczny jest w ostatnich latach wzrost świadomości technologicznej wśród przedsiębiorców, którzy coraz częściej dostrzegają szereg korzyści płynących z korzystania ze sztucznej inteligencji
w prowadzeniu działalności gospodarczej. Również organy administracji publicznej, w tym organy antymonopolowe, mogą używać zaawansowanych algorytmów w celu weryfikacji przestrzegania przez podmioty gospodarcze przepisów prawa ochrony konkurencji i konsumentów. Mając na względzie rosnącą popularność sztucznej inteligencji, przedsiębiorcy powinni postrzegać wydatki związane z wdrażaniem sztucznej inteligencji do swojej działalności nie przez pryzmat wydatków i kosztów prowadzenia działalności gospodarczej, a w kategorii budowania pozytywnej reputacji wśród klientów i odpowiedniej renomy na rynku właściwym oraz inwestycji na przyszłość. Nie bez znaczenia pozostaje, że zaawansowanie technologiczne ma korzystny wpływ na zwiększenie konkurencyjności danego przedsiębiorstwaM. Boroń, Sztuczna inteligencja w służbie..., s. 18–19.
W ramach wniosków de lege ferenda warto zauważyć, że sztuczna inteligencja może też stanowić zagrożenie na rynku właściwym. Ustawodawcy powinni stworzyć precyzyjne regulacje o charakterze ius cogens, które regulowałyby status prawny sztucznej inteligencji i kwestie odpowiedzialności deliktowej za działania i zaniechania zaawansowanych algorytmów. Ustawa w tym zakresie zachęciłaby efektywnie przedsiębiorców do wdrażania zaawansowanych technologii. Powyższe rozwiązanie legislacyjne zapewniłoby również odpowiedni stopień bezpieczeństwa konsumentomS. Cydzik, Roboty odgrywają coraz większą rolę i wymagają odrębnych przepisów, „Rzeczpospolita” 2017/4, s. 10.
Właściwym postulatem de lege ferenda wydaje się być brak wyłączenia odpowiedzialności za działania lub zaniechania sztucznej inteligencji nawet w przypadku mechanizmów uczących się w sposób nienadzorowany. Taki postulat ma wskazane wyżej uzasadnienie prawne, etyczne i aksjologiczne. Przeciwna konstatacja rodziłaby zbyt duże ryzyko nadużyć i stanowiłaby płaszczyznę do wyrządzenia szkody konsumentom będącym słabszą stroną stosunku prawnego J. Wątor, Robot odpowie za swoją pracę?..., s. 18.
Odnośnie do postulatów w zakresie sztucznej inteligencji, z której korzystaliby
w nieodległej przyszłości przedsiębiorcy, to powinna ona być zaopatrzona
w mechanizmy bezpieczeństwa takie jak zapory uniemożliwiające manipulację danymi. Ponadto powinna być w pewien sposób kontrolowana przez sztuczną inteligencję, która byłaby w posiadaniu organu antymonopolowego.