AI Act – od informacji ogólnych do systemów wysokiego ryzyka

Po kilkuletnich pracach Unia Europejska wprowadziła pierwszą na świecie kompleksową regulację dotyczącą sztucznej inteligencji. 1 sierpnia 2024 roku wszedł w życie jeden z najbardziej oczekiwanych europejskich aktów prawnych – AI Act. Rozporządzenie to ma bezpośrednie zastosowanie we wszystkich państwach członkowskich, co oznacza, że jego przepisy obowiązują bez potrzeby wdrażania ich do krajowego prawa. Dowiedz się, jak wprowadzone przepisy wpłyną na Twoją firmę.

AI Act – informacje ogólne i zakres zastosowania

Celem AI Act jest zapewnienie bezpiecznego i uregulowanego środowiska prawnego dla rozwoju AI, przy jednoczesnym minimalizowaniu ryzyka związanego ze stosowaniem sztucznej inteligencji. Zgodnie z definicją zawartą w rozporządzeniu, systemem AI jest „system maszynowy, który działa z pewnym poziomem autonomii i zdolnością adaptacji po wdrożeniu”. Omawiany akt prawny wprowadza również obowiązki dotyczące transparentności i nadzoru nad działaniem systemów AI.

Rozporządzenie AI Act weszło w życie 1 sierpnia 2024 r. częściowo. W lutym 2025 roku wejdą w życie przepisy ogólne oraz dotyczące praktyk zakazanych i niedopuszczalnych systemów AI. Z kolei po upływie roku, czyli od sierpnia 2025 roku obowiązywać zaczną przepisy między innymi odnoszące się do sankcji.

Najpóźniej, bowiem dopiero w sierpniu 2027 roku, wejdą w życie przepisy odnoszące się do systemów AI wysokiego ryzyka.

Kogo obejmują regulacje AI Act?

Przepisy dotykają szerokiego grona podmiotów, w tym:

  • dostawców,
  • importerów,
  • dystrybutorów,
  • użytkowników systemów AI.

Co ważne, rozporządzenie obejmuje także podmioty z siedzibami poza UE, o ile wyniki działania ich systemów są wykorzystywane na terenie UE. Wyłączone spod regulacji zostały jednak systemy stosowane wyłącznie do celów wojskowych, obronnych lub bezpieczeństwa narodowego.

Oś AI Act, czyli ocena ryzyka

Jednym z kluczowych elementów AI Act jest klasyfikacja systemów sztucznej inteligencji na podstawie poziomu ryzyka, jakie stwarzają. AI Act wyróżnia cztery kategorie:

a) Minimalne ryzyko – systemy takie jak gry wideo czy filtry antyspamowe.
b) Ograniczone ryzyko – np. chatboty, programy generujące tzw. “deepfake”,
c) Wysokie ryzyko – obejmujące systemy stosowane w branży medycznej, transportowej, zatrudnieniu, dostępie do usług, które mogą bezpośrednio wpływać na prawa podstawowe i bezpieczeństwo użytkowników.
d) Niedopuszczalne ryzyko – systemy zakazane ze względu na ich potencjalnie niebezpieczne zastosowanie, jak np. technologie manipulacyjne oparte na technikach podprogowych lub wykorzystujące słabości docelowych grup odbiorców, np. niepełnosprawność, wiek.

Systemy AI wysokiego ryzyka – na co Przedsiębiorcy powinni zwrócić uwagę?

Systemom wysokiego ryzyka poświęcono cały Rozdział III rozporządzenia, co bezsprzecznie świadczy o wadze tego aspektu. Jak już wspomniano, regulacje odnoszące się do tej kategorii ryzyka wejdą w życie dopiero w 2027 roku.

Więcej o AI wysokiego ryzyka przeczytasz w naszym artykule:
AI ACT – unijne rozporządzenie w sprawie tzw. sztucznej inteligencji

Obowiązki związane ze stosowaniem systemów AI wysokiego ryzyka to: ustanowienie, wdrożenie, dokumentowanie i obsługa systemu zarządzania ryzykiem. Realizowanie tych obowiązków traktować należy jako proces zintegrowany i ciągły, z bieżącym aktualizowaniem nowych potencjalnych zagrożeń możliwych do racjonalnego przewidzenia. Kolejnym obowiązkiem jest przyjęcie strategi radzenia sobie z ryzykiem, która musi być poprzedzona testami. Przy wdrażaniu systemu zarządzania ryzykiem dostawcy powinni zwrócić uwagę na to, czy dany system AI wysokiego ryzyka w świetle swojego zamierzonego przeznaczenia może mieć niekorzystny wpływ na osoby poniżej 18 roku życia lub w szczególnych przypadkach – inne grupy osób szczególnie wrażliwych.

Prawodawca kładzie duży nacisk na wiedzę techniczną, doświadczenie, wykształcenie i szkolenia, jakich oczekuje od podmiotu stosującego AI. Ponadto podmiot stosujący AI powinien mieć świadomość kontekstu, w jakim będzie stosował system AI. Systemy AI wysokiego powinny być rozwijane i zarządzane w sposób umożliwiający podmiotom stosującym zarówno interpretację wyników systemu, jak i ich właściwe wykorzystanie. Wraz z systemem powinna być dołączona instrukcja użytkowania.

Przed wprowadzeniem systemu AI wysokiego ryzyka trzeba posiadać dokumentację techniczną, która poddawana będzie aktualizacji. Dokumentację techniczną sporządza się tak, aby wykazać, że system AI wysokiego ryzyka jest zgodny z wymogami zawartymi w rozporządzeniu. Ponadto w dokumentacji należy dostarczyć właściwym organom informacje niezbędne do oceny zgodności systemu AI z tymi wymogami.
Obowiązkowe jest też prowadzenie rejestru zdarzeń w całym cyklu życia danego systemu. Monitorowanie w sposób ciągły działania systemu ma na celu zapewnienie większego bezpieczeństwa oraz ułatwienie wychwycenia występujących zagrożeń.

Dostawców, podmioty stosujące i osoby, na które AI ma wpływ, należy wyposażyć w niezbędne kompetencje w zakresie AI. Chodzi o kompetencje umożliwiające im podejmowanie świadomych decyzji w odniesieniu do systemów AI, co pozwoli czerpać największe korzyści z systemów AI, a jednocześnie chronić prawa podstawowe, zdrowie i bezpieczeństwo oraz sprawować kontrolę demokratyczną.

Sankcje

Naruszenie przepisów AI Act może skutkować surowymi sankcjami finansowymi. W rozporządzeniu przewidziano kilka progów kar, m.in.:

  • do 35 mln euro lub 7% rocznego globalnego obrotu firmy dla najpoważniejszych przewinień, np. stosowania zakazanych systemów AI;
  • do 15 mln euro lub 3% globalnego obrotu za „mniejsze” naruszenia, takie jak brak odpowiednich zabezpieczeń czy niewłaściwe zarządzanie danymi.

W czym możemy pomóc Twojej firmie?

Nasza Kancelaria oferuje kompleksowe doradztwo prawne w zakresie prawa nowych technologii. Pomoże Ci także przystosować się do aktów prawnych takich jak AI Act.

Nasze wsparcie w tym zakresie obejmuje między innymi:

  • ocenę, jak AI Act wpłynie na Twoją Firmę;
  • ocenę, jakie obowiązki i kiedy zostaną nałożone na Twoją firmę w związku z wejściem w życie AI Act;
  • analizę ryzyk prawnych związanych z aktualnie prowadzoną działalnością związaną z wykorzystaniem nowych technologii,
  • wdrażanie (od strony prawnej) rozwiązań z wykorzystaniem sztucznej inteligencji do Twojej Firmy.

Umów się z nami na e-spotkanie (klik) lub skorzystaj z formularza kontaktowego:

Scroll to Top