Kto w świetle prawa odpowiada za decyzje podejmowane przez systemy AI?[AI w pigułce]

XXI wiek to czas rozwoju branży nowych technologii oraz niezwykle szybki rozwój systemów sztucznej inteligencji (AI). Nie dziwi więc coraz częstsze i chętniejsze wykorzystywanie AI przez przedsiębiorców, w celu przyspieszenia codziennych procesów w firmach. Im większa ingerencja systemów sztucznej inteligencji w decyzje mogące wywierać realny wpływ na osoby trzecie. W związku z tym coraz większe grono zarówno prawników, jak i przedsiębiorców zaczyna zastanawiać się nad tym, kto ponosi odpowiedzialność za decyzje podejmowane przez AI. W tym artykule postaram się odpowiedzieć na to pytanie w jak najbardziej zrozumiały sposób.

Jakie rodzaje odpowiedzialności są przewidziane w polskim prawie?

Na wstępie należy zaznaczyć, że rozważaniom w tym artykule poddana zostanie odpowiedzialność cywilnoprawna.

Polski kodeks cywilny przewiduje odpowiedzialność deliktową – model oparcia jej na winie podmiotu (art. 415), odpowiedzialność kontraktową (art. 471) oraz odpowiedzialność opartą na ryzyku (art. 474). Przyjrzyjmy się pokrótce tym modelom i spróbujmy je sprawnie porównać:

  • odpowiedzialność deliktowa – aby przypisać odpowiedzialność, należy wykazać winę podmiotu; słowem – musi istnieć możliwość przypisania jej konkretnej osobie fizycznej, w przypadku AI – na przykład programiście, który tworzył system;
  • odpowiedzialność kontraktowa – zgodnie z jej mechanizmem, dłużnik obowiązany jest do naprawienia szkody wynikłej z niewykonania lub nienależytego wykonania zobowiązania, chyba że niewykonanie lub nienależyte wykonanie jest następstwem okoliczności, za które dłużnik odpowiedzialności nie ponosi. To sposób dochodzenia roszczeń w przypadku niewykonania lub nienależytego wykonania umowy. Zgodnie z przepisami polskiego kodeksu cywilnego strona, która nie wywiązała się ze swoich zobowiązań, może być zobowiązana do naprawienia szkody, jaką druga strona poniosła wskutek tego naruszenia. W praktyce odpowiedzialność ta najczęściej przyjmuje formę obowiązku zapłaty odszkodowania, chyba że strony w umowie przewidziały inne konsekwencje, np. kary umowne za świadczenia niepieniężne lub odsetki za opóźnienie,
  • odpowiedzialność na zasadzie ryzyka – w tym przypadku dany podmiot jest odpowiedzialny jak za własne działanie lub zaniechanie za działania i zaniechania osób, z których pomocą zobowiązanie wykonywa, jak również osób, którym wykonanie zobowiązania powierza.

Rozważając tematykę związaną ze sztuczną inteligencją i jej wykorzystywaniem model odpowiedzialności opartej na zasadzie ryzyka wydaje się racjonalniejszym i bardziej odpowiednim rozwiązaniem. Warto jednak podkreślić, że system AI nie posiada ani osobowości prawnej, ani zdolności prawnej, ani też zdolności do czynności prawnych. W związku z powyższym nie da się go w żaden sposób sądzić, przeprowadzać z jego udziałem czynności procesowych czy też karać. Byłoby to skrajnie nielogiczne. Trzeba więc szukać alternatywnych metod pociągania do odpowiedzialności w związku z działaniem i decyzyjnością systemów AI, bazując na obowiązującym stanie prawnym.

Czy rekrutacja z wykorzystaniem systemów AI jest możliwa? Sprawdź już teraz:

AI Act – wszystko co musisz wiedzieć w pigułce

Na szczeblu unijnym ma miejsce próba rewolucyjnego uregulowania prawnego sztucznej inteligencji i jej wykorzystania. Mówiąc konkretniej, Rozporządzenie 2024/1689 w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji (czyli AI Act) zostało przyjęte i wchodzi w życie etapami, a cały proces wdrażania tych przepisów dojdzie do skutku w sierpniu 2027 roku, czyli już za dwa lata.

AI Act obszernie reguluje problematykę stosowania systemów opartych o sztuczną inteligencję. Z uwagi na to, iż rozporządzenie jako akt prawny obowiązuje we wszystkich państwach członkowskich bez konieczności dodatkowych implementacji, stanowi bardzo skuteczną próbę ujednolicania prawa we wspólnocie. Co więcej, warto zauważyć, że Komisja Europejska przedstawiła w formie wniosku Dyrektywę Parlamentu Europejskiego i Rady w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji (dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję). Na szczeblu unijnym zauważono bowiem luki w obowiązującym systemie prawnym, które uniemożliwiają skuteczne wyciąganie odpowiedzialności za decyzje podejmowane przez systemy AI.

Poznaj zmiany wprowadzone przez AI Act w 2025 roku:

Kto ponosi odpowiedzialność za decyzje podejmowane przez systemy AI?

Dopóki nie zostaną wprowadzone lex specialis, które bezpośrednio odnoszą się do tematyki AI, należy stosować rozszerzającą wykładnię obowiązujących przepisów, co w nie każdym przypadku jest skuteczne. Racjonalnym wydaje się dążenie do uznania modelu opartego o odpowiedzialność na zasadzie ryzyka. Należy czekać na szybkie uchwalenie przepisów, które – jak już wspomniano – konkretyzują to zagadnienie. W chwili obecnej w razie problemów interpretacyjnych, warto skorzystać z pomocy profesjonalnego prawnika, który specjalizuje się w prawie nowych technologii i przepisach związanych z informatyzacją i cyfryzacją.

Podsumowanie – o czym musisz pamiętać?

Nieustanny i prężny rozwój systemów sztucznej inteligencji i związane z nim ryzyko szkód, których wystąpienie jest trudne do przypisania konkretnej osobie, co wykazano w tym artykule, wprowadza konieczność uszczegółowienia i doprecyzowania systemu prawnego zarówno na poziomie wspólnotowym, jak i prawa krajowego. W chwili obecnej, patrząc na możliwości płynące z obowiązującego porządku prawnego, racjonalniejsze wydaje się przypisywanie odpowiedzialności za systemy AI na zasadzie ryzyka. Niezbędne jest jednak szersze pochylenie się nad legislacją w tej kwestii.

Czy platformy społecznościowe muszą przestrzegać RODO? Dowiedz się, za co na TikToka została nałożona kara:

W czym możemy pomóc Ci pomóc?

  • Wesprzemy Cię przy wdrażaniu przepisów wynikających z AI Act.
  • Przeprowadzimy audyt prawny Twojego biznesu.
  • Pomożemy Ci w spełnieniu wymogów związanych z dostępnością cyfrową.
  • Odpowiemy na nurtujące Cię pytania i w razie potrzeby sporządzimy opinię prawną.

Potrzebujesz wsparcia prawnego w związku z wprowadzaniem systemów AI w Twoim biznesie? Zastanawiasz się, czy i w jakim stopniu dotyczy Cię AI Act? Skontaktuj się z nami już teraz.

Avatar photo

Autor wpisu:

Milena Dorobek-Lis

Studia prawnicze i studia podyplomowe z zakresu prawa pracy ukończyła na Uniwersytecie Warszawskim, aplikację radcowską ukończyła w Okręgowej Izbie Radców Prawnych Warszawie. Zdobywała doświadczenie w kancelariach prawnych, organach administracji publicznej, w tym Biurze Generalnego Inspektora Ochrony Danych Osobowych oraz wieloletniej współpracy z przedsiębiorcami, w szczególności z branży e-commerce. Była głównym prawnikiem w Fundacji Rozwoju Przedsiębiorczości „Twój StartUp”.

Specjalizuje się w kompleksowej obsłudze prawnej przedsiębiorców, prawie nowych technologii, e – commerce, prawie i postępowaniu administracyjnym.

Przewijanie do góry