Rozwój generatywnej sztucznej inteligencji (AI) otwiera przed przedsiębiorcami szereg nowych możliwości: począwszy od automatyzacji tworzenia treści, skończywszy na wsparciu w analizie danych. Coraz częściej narzędzia AI stają się elementem codziennej pracy zespołów, jednak ich wykorzystywanie nie pozostaje bez wpływu na kwestie prawne. W szczególności mnożą się pytania o prawa autorskie do wygenerowanych materiałów oraz o ochronę tajemnicy przedsiębiorstwa. Nie można zapominać też o ochronie danych osobowych czy innych danych wrażliwych. Przeczytaj ten artykuł, aby dowiedzieć się więcej na ten temat.
Dostosuj się do wymogów płynących z dostępności cyfrowej, która obowiązuje od końca czerwca 2025.
Prawo autorskie i dane osobowe a AI
Zgodnie z polską ustawą o prawie autorskim i prawach pokrewnych (Dz.U.2025.24 t.j. z dnia 2025.01.09), ochronie podlegają jedynie przejawy działalności twórczej o indywidualnym charakterze, czyli utwory. Kluczowy jest tu zaistniały twórczy wkład człowieka. Treści stworzone wyłącznie przez system AI, bez twórczego udziału osoby fizycznej, nie spełniają ustawowych przesłanek uznania ich za utwór. Jeżeli natomiast pracownik modyfikuje wygenerowany materiał w sposób kreatywny, możliwe jest przypisanie mu praw autorskich osobistych, zaś zgodnie z art. 12 wspomnianej ustawy, prawa majątkowe nabywa wówczas pracodawca, o ile ustawa lub umowa zawarta między nimi nie stanowi inaczej.
Kolejne wyzwanie to odpowiedzialność za błędne lub wprowadzające w błąd treści wygenerowane przez AI, które mogą naruszać dobra osobiste lub prowadzić do złudnych wyobrażeń odbiorców na dany temat. Osoba fizyczna musi kontrolować efekt końcowy i jego zgodność z prawem.
Nie bez znaczenia pozostaje też kwestia przetwarzania danych osobowych, gdyż korzystanie z narzędzi opartych na AI może skutkować nieuprawnionym przetwarzaniem informacji o użytkownikach, zwłaszcza gdy model „uczy się” na rzeczywistych danych i wykorzystuje je szeroko. Przedsiębiorco – jeżeli jesteś w posiadaniu danych osobowych przykładowo swoich klientów, powinieneś przeanalizować, czy korzystanie z generatywnej AI poprzez wgrywanie do niej danych klientów, albo dokumentów zawierających te dane, jest właściwym działaniem. Ochrona danych osobowych nie przestaje obowiązywać tylko dlatego, że do gry wchodzi AI.
Należy jednak pamiętać, że generatywna AI może korzystać z różnorakich, istniejących zbiorów danych, nierzadko kopiując fragmenty cudzych utworów. To z kolei może prowadzić do naruszeń prawa autorskiego i praw osób trzecich, a w efekcie powstania utworów stanowiących plagiat. Ryzyko to powinno być objęte świadomością organizacyjną i regulaminową.
Szkolenia kadr to klucz do sukcesu współpracy z systemami AI!
W świetle prawa pracy oraz Rozporządzenia (UE) 2024/1689 o AI, pracodawca, który wdraża systemy AI w swoim zakładzie pracy, zobowiązany jest zadbać o odpowiedni poziom przygotowania zespołu. Zarówno art. 17 kodeksu pracy, jak i art. 4 Rozporządzenia (UE) 2024/1689, wskazują na konieczność wspierania pracowników w podnoszeniu kwalifikacji, w tym także w zakresie bezpiecznego korzystania z dobrodziejstw nowych technologii.
Zadbaj o poufność
Nie mniej istotna pozostaje kwestia poufności informacji. Ustawa o zwalczaniu nieuczciwej konkurencji (Dz.U. 2003 nr 153 poz. 1503) w art. 11 definiuje tajemnicę przedsiębiorstwa jako informacje nieujawnione, mające wartość gospodarczą i podlegające ochronie, jeżeli podjęto działania w celu zachowania ich poufności. Wysyłanie danych, takich jak przykładowo:
- projekty graficzne,
- wzory umów,
- strategie biznesowe,
do zewnętrznych modeli opartych o AI, może prowadzić do ich niekontrolowanego udostępnienia. Warto więc przeanalizować, czy dany model AI przechowuje lub przetwarza dane w sposób umożliwiający ich wykorzystanie w innych sesjach lub przez osoby trzecie. Jak można się upewnić? W pierwszej kolejności, czytając regulamin danego serwisu/ narzędzia.
Dowiedz się, co zrobić w przypadku wycieku danych w Twojej firmie.
Podsumowując, wykorzystanie generatywnej AI w miejscu pracy to wielka szansa na rozwój, jednakże wymaga nie tylko znajomości narzędzi i ich sprawnej obsługi, ale także biegłości w obrębie znajomości i właściwego stosowania przepisów prawa. Odpowiednie procedury, szkolenia dla kadr oraz świadomość regulacyjna mogą zminimalizować ryzyko prawne i wspomóc bezpieczne wdrożenie tych technologii w Państwa biznesie. W razie jakichkolwiek wątpliwości warto skonsultować się z prawnikiem specjalizującym się w obsłudze przedsiębiorców, a także w prawie unijnym.
W czym możemy Ci pomóc?
- Wesprzemy Cię w dostosowywaniu firmy do wymogów płynących z dostępności cyfrowej.
- Przeprowadzimy audyt prawny Twojego biznesu.
- Przeprowadzimy szkolenie z zakresu legalnego wykorzystywania AI.
- Doradzimy Ci, jak właściwie chronić dane osobowe w ramach Twojej firmy.
- Sporządzimy opinię prawną na istotny dla Ciebie temat.
FAQ: Najczęściej zadawane pytania o generatywną AI w biznesie
Tak – można korzystać z wytworów AI, ale trzeba uważać na prawa autorskie, zwłaszcza gdy wykorzystano chronione treści lub trenowano modele na takich zbiorach. Należy też zapewnić transparentność działania AI zgodnie z przepisami AI Act.
Akt o AI (AI Act) będzie wprowadzał obowiązki przede wszystkim dla dostawców i użytkowników systemów wysokiego ryzyka lub modeli ogólnego przeznaczenia. Obowiązuje etapowo od 2025 do 2026 roku.
Tak – jeśli spełnione są zasady dozwolonego użytku, np. TDM, albo uzyskano zgodę lub licencję. Każdemu prawu autorskiemu przysługuje możliwość sprzeciwu wobec wykorzystania w procesie treningowym (opt-out).
AI Act przewiduje obowiązek dostawców przestrzegania zgłoszonego sprzeciwu praw autorskich wobec ich treści używanych do szkolenia modeli generatywnych.
Przede wszystkim możliwe naruszenia praw autorskich, brak transparentności w danych treningowych, brak mechanizmów opt-out, a także ryzyko sankcji administracyjnych w przypadku naruszenia AI Act (kara do 7% obrotu lub 35 mln €).
Podsumowanie – Jak prawo autorskie wpływa na korzystanie z AI?
- Możesz korzystać z generatywnej AI, ale konieczne jest przestrzeganie prawa autorskiego (np. dozwolonego użytku, licencji, opt‑out).
- AI Act UE wprowadza obowiązki dotyczące transparentności, klasyfikacji ryzyka i mechanizmów zgłaszania sprzeciwu – wejdzie w życie etapowo w latach 2025–2026.
- Pozorne wykorzystanie modeli bez zachowania praw autorskich i mechanizmów opt‑out może skutkować karami administracyjnymi (do 35 mln € lub 7 % obrotu).
- Firmy muszą wdrożyć wewnętrzne procedury, politykę AI oraz świadomość prawną wśród pracowników, by legalnie i bezpiecznie korzystać z AI.




