Już od 2025 r. Akt o sztucznej inteligencji (AI Act) zaczął stopniowo obowiązywać w państwach członkowskich, a w Polsce powstaje specjalna ustawa wdrażająca jego postanowienia. To największa jak dotąd inicjatywa regulacyjna dotycząca AI na świecie, która bezpośrednio wpłynie na przedsiębiorstwa działające w różnych branżach – od nowych technologii po przemysł, finanse i usługi.
Dlaczego Unia wprowadza regulacje dotyczące AI?
AI Act ma na celu zapewnienie jednolitych zasad dla rozwoju, wprowadzania na rynek i wykorzystywania systemów sztucznej inteligencji w całej UE. Główne motywacje ustawodawcy to:
- zagwarantowanie wysokiego poziomu ochrony zdrowia, bezpieczeństwa i praw podstawowych,
- ograniczenie ryzyka nieuczciwych praktyk i manipulacji,
- stworzenie ram wspierających innowacyjność i konkurencyjność europejskich firm,
- uniknięcie rozdrobnienia przepisów krajowych i zapewnienie pewności prawa przedsiębiorcom.
Dzięki temu AI ma rozwijać się w sposób odpowiedzialny, zgodny z wartościami UE, przy jednoczesnym zapewnieniu firmom swobodnego dostępu do jednolitego rynku.
Harmonogram wejścia w życie przepisów
Przepisy nie zaczną obowiązywać od razu w całości. Wprowadzono okresy przejściowe:
- od lutego 2025 r. – zaczęły obowiązywać pierwsze rozdziały (definicje, ogólne zasady stosowania),
- od sierpnia 2025 r. – weszły w życie przepisy dotyczące zakazanych praktyk, nadzoru i sankcji,
- od sierpnia 2026 r. – pełne stosowanie aktu,
- od sierpnia 2027 r. – dodatkowe obowiązki dla systemów wysokiego ryzyka.
Dla firm oznacza to konieczność rozpoczęcia przygotowań już teraz, zwłaszcza w obszarze klasyfikacji systemów AI oraz dostosowania procesów compliance.
Jakie obowiązki spadną na firmy?
Firmy będą musiały ustalić, czy ich systemy należą do kategorii:
- zakazanych praktyk – np. manipulacyjnych technik podprogowych czy scoringu społecznego,
- wysokiego ryzyka – np. systemów wykorzystywanych w rekrutacji, finansach, ochronie zdrowia, infrastrukturze krytycznej,
- ograniczonego ryzyka – np. chatbotów, generatorów treści, które muszą spełnić wymogi przejrzystości,
- minimalnego ryzyka – gdzie wymogi są ograniczone.
Dostawcy systemów wysokiego ryzyka będą zobowiązani prowadzić szczegółową dokumentację techniczną, zapewniającą audytowalność i wyjaśnialność działania algorytmów.
Firmy będą musiały zgłaszać poważne incydenty związane z funkcjonowaniem AI do organu nadzorczego.
Systemy wysokiego ryzyka nie trafią na rynek bez uprzedniej oceny zgodności i uzyskania oznakowania CE, potwierdzającego spełnienie wymogów rozporządzenia.
Naruszenia przepisów mogą skutkować dotkliwymi karami finansowymi, analogicznymi do tych znanych z RODO.
Szanse dla przedsiębiorców
Mimo dużej liczby obowiązków, nowe przepisy mogą okazać się korzystne:
- większe zaufanie klientów i kontrahentów dzięki certyfikowanym, bezpiecznym systemom AI,
- wsparcie regulatora w ramach piaskownic regulacyjnych,
- lepszy dostęp do rynku unijnego – jednolite przepisy zmniejszają ryzyko barier prawnych między krajami,
- możliwość uzyskania przewagi konkurencyjnej przez firmy, które jako pierwsze wdrożą zgodne i transparentne rozwiązania.
Nowe przepisy dotyczące sztucznej inteligencji oznaczają dla firm konieczność gruntownego przygotowania się do nowej rzeczywistości regulacyjnej. Organizacje muszą wdrożyć procedury oceny ryzyka, dokumentowania, raportowania i certyfikacji systemów AI. Jednocześnie pojawiają się narzędzia wsparcia – opinie indywidualne, piaskownice regulacyjne i mechanizmy łagodzenia sankcji.
Dla przedsiębiorstw, które odpowiednio wcześnie rozpoczną dostosowanie, regulacje te mogą stać się nie tylko obowiązkiem, ale i szansą na rozwój w bezpiecznym i transparentnym otoczeniu prawnym.

dr Krzysztof Staniek
Doradca podatkowy | Radca Prawny |
Partner zarządzający Staniek & Partners






