Harmonogram EU AI Act 2026–2027: co wchodzi w życie i kiedy

Szczegółowy harmonogram wdrożenia EU AI Act: zakazy od lutego 2025, GPAI od sierpnia 2025, systemy wysokiego ryzyka od sierpnia 2026. Obowiązki dostawców i wdrażających.

Harmonogram wdrożenia EU AI Act: kluczowe daty

EU AI Act (Rozporządzenie 2024/1689) weszło w życie 1 sierpnia 2024 roku, ale jego poszczególne przepisy stosuje się stopniowo — według harmonogramu rozłożonego na lata 2025–2027. Zrozumienie tego harmonogramu jest kluczowe dla dostawców i wdrażających systemy AI, którzy muszą planować zgodność z wyprzedzeniem.

Etap 1: luty 2025 — zakaz systemów AI wysokiego ryzyka społecznego

Od 2 lutego 2025 roku obowiązuje zakaz stosowania systemów AI, które Akt o AI klasyfikuje jako niedopuszczalne. Dotyczy to praktyk takich jak:

  • Subliminalny wpływ na zachowanie: Systemy AI wykorzystujące techniki podprogowe, które zniekształcają zachowanie osób w sposób mogący im zaszkodzić.
  • Eksploatacja słabości: Systemy celowo wykorzystujące podatności wynikające z wieku, niepełnosprawności lub sytuacji społecznej.
  • Scoring społeczny: Systemy oceniające wiarygodność osób fizycznych na podstawie zachowania społecznego w sposób prowadzący do nieuzasadnionego lub nieproporcjonalnego traktowania.
  • Identyfikacja biometryczna w czasie rzeczywistym: Zdalne systemy identyfikacji biometrycznej w przestrzeni publicznej do celów egzekwowania prawa (z wąskimi wyjątkami).
  • Wnioskowanie o emocjach: Systemy inferencji emocji w miejscu pracy i w instytucjach edukacyjnych.

W tym samym terminie (luty 2025) rozpoczęły się obowiązki dotyczące umiejętności w zakresie AI — organizacje muszą zapewnić personelowi odpowiednią wiedzę o systemach AI, z którymi pracuje (art. 4 Aktu o AI).

Etap 2: sierpień 2025 — modele AI ogólnego przeznaczenia (GPAI)

Od 2 sierpnia 2025 roku zastosowanie mają przepisy dotyczące modeli AI ogólnego przeznaczenia (General-Purpose AI models — GPAI). Dotyczy to dostawców modeli fundamentalnych, takich jak duże modele językowe (LLM) i modele generatywne.

Dostawcy modeli GPAI muszą spełnić następujące wymagania:

  • Przygotowanie i utrzymywanie dokumentacji technicznej (art. 53) umożliwiającej ocenę zgodności przez Komisję Europejską.
  • Udostępnienie dostawcom systemów AI działającym na bazie danego modelu informacji i dokumentacji wystarczającej do zachowania zgodności.
  • Wdrożenie polityki poszanowania prawa autorskiego (art. 53 ust. 1 lit. c) — szczególnie istotne dla modeli trenowanych na danych z internetu.
  • Publikacja podsumowania treści użytych do trenowania (art. 53 ust. 1 lit. d).

Dla modeli GPAI o dużym ryzyku systemowym (model z możliwością obliczeniową trenowania powyżej 10²⁵ FLOP, lub wyznaczony przez Komisję) dodatkowe wymagania obejmują: ocenę modelu, testy adversarialne, zgłaszanie incydentów do Komisji i wdrożenie środków cyberbezpieczeństwa.

W sierpniu 2025 roku uruchomiono również Europejski Urząd ds. AI (AI Office) przy Komisji Europejskiej, który jest głównym organem nadzoru nad modelami GPAI.

Etap 3: sierpień 2026 — pełne stosowanie dla systemów wysokiego ryzyka

2 sierpnia 2026 roku to kluczowa data dla większości podmiotów w sektorze prywatnym. Od tego momentu pełne przepisy Aktu o AI stosują się do systemów AI wysokiego ryzyka wymienionych w Załączniku III, które nie są objęte zakresem Załącznika I (produkty regulowane sektorowo).

Systemy AI wysokiego ryzyka wymienione w Załączniku III obejmują m.in.:

  • Systemy biometryczne (kategoryzacja, rozpoznawanie emocji).
  • Systemy zarządzające infrastrukturą krytyczną (energia, woda, transport).
  • Systemy AI w edukacji — ocena uczniów, egzaminy, rekrutacja.
  • Systemy AI w zatrudnieniu — rekrutacja, ocena pracownicza, awanse.
  • Systemy AI w usługach publicznych i prywatnych niezbędnych do życia — scoring kredytowy, ubezpieczenia, opieka zdrowotna.
  • Systemy AI w egzekwowaniu prawa.
  • Systemy AI w zarządzaniu migracją i azylem.
  • Systemy AI wspomagające wymiar sprawiedliwości.

Obowiązki wdrażających (deployers) systemy wysokiego ryzyka od sierpnia 2026 roku obejmują między innymi:

  • Przeprowadzenie oceny wpływu na prawa podstawowe (FRIA) przed wdrożeniem.
  • Rejestrację systemu w unijnej bazie danych EU AI Act.
  • Zapewnienie nadzoru ludzkiego nad systemem podczas jego działania.
  • Monitorowanie działania systemu i zgłaszanie poważnych incydentów do organu nadzorczego.
  • Przechowywanie logów przez minimum 6 miesięcy (lub dłużej, jeśli wymaga prawa).
  • Informowanie pracowników i osób, których systemy dotyczą, o stosowaniu AI (art. 26 ust. 6).

Etap 4: sierpień 2027 — systemy wysokiego ryzyka z Załącznika I

Do 2 sierpnia 2027 roku przedłużony jest termin wdrożenia dla systemów AI wysokiego ryzyka stanowiących element produktów regulowanych przepisami sektorowymi UE — tj. wymienionych w Załączniku I Aktu o AI. Dotyczy to m.in.:

  • Systemów AI w urządzeniach medycznych (regulowanych dyrektywą MDR/IVDR).
  • Systemów AI w maszynach, zabawkach, sprzęcie morskim i lotniczym objętych odpowiednimi dyrektywami unijnymi.
  • Systemów AI w pojazdach i komponentach motoryzacyjnych.

Termin ten został wydłużony, ponieważ systemy te przechodzą już przez procesy certyfikacji w ramach istniejących regulacji sektorowych — przepisy AI Act dostosowują się do tych cykli.

Dostawcy vs. wdrażający: różny zakres obowiązków

AI Act rozróżnia dwie główne kategorie podmiotów z różnymi obowiązkami:

  • Dostawcy (providers): Podmioty opracowujące lub zlecające opracowanie systemu AI wprowadzanego na rynek UE. To na nich spoczywa największy ciężar — dokumentacja techniczna, ocena zgodności, oznakowanie CE (dla systemów wysokiego ryzyka), rejestracja w bazie danych.
  • Wdrażający (deployers): Podmioty korzystające z systemu AI w kontekście zawodowym. Ich obowiązki są węższe, ale znaczące: nadzór ludzki, rejestracja (dla Załącznika III), FRIA (jeśli system ma istotny wpływ na prawa jednostek), transparentność wobec pracowników i osób dotkniętych.

Kancelarie prawne i firmy finansowe, które korzystają z zewnętrznych narzędzi AI (np. asystentów prawnych AI, systemów scoringu kredytowego), działają jako wdrażający — a nie jako dostawcy. Nie zwalnia ich to jednak z obowiązku weryfikacji, że stosowane narzędzia spełniają wymogi AI Act po stronie dostawcy.

Sankcje i egzekwowanie

AI Act przewiduje system kar administracyjnych podobny do RODO:

  • Do 35 mln EUR lub 7% globalnego rocznego obrotu — za naruszenia zakazów stosowania systemów niedopuszczalnych lub za przekazanie organom nieprawdziwych informacji.
  • Do 15 mln EUR lub 3% globalnego rocznego obrotu — za inne naruszenia przepisów dotyczących systemów wysokiego ryzyka.
  • Do 7,5 mln EUR lub 1,5% globalnego rocznego obrotu — za przekazanie nieprawidłowych, niekompletnych lub wprowadzających w błąd informacji organom.

Dla MŚP i startupów kary są kalkulowane z uwzględnieniem niższego progu bezwzględnego. Organy nadzorcze mają być wyznaczone przez każde Państwo Członkowskie do 2 sierpnia 2025 roku. W Polsce rolę tę powierzono Prezesowi Urzędu Komunikacji Elektronicznej (UKE), który współpracuje z UODO w zakresie kwestii danych osobowych.

Co zrobić teraz: plan działania dla organizacji

Niezależnie od etapu, w którym znajduje się Twoja organizacja, warto podjąć następujące kroki już dziś:

  • Inwentaryzacja systemów AI: Zidentyfikuj wszystkie systemy AI używane lub planowane do wdrożenia w organizacji — zarówno własne, jak i zewnętrzne narzędzia SaaS.
  • Klasyfikacja ryzyka: Oceń, czy każdy zidentyfikowany system należy do kategorii zakazanej, wysokiego ryzyka, ograniczonego ryzyka czy minimalnego ryzyka.
  • Weryfikacja dostawców: Zażądaj od dostawców narzędzi AI dokumentacji potwierdzającej zgodność z AI Act (zwłaszcza dla systemów wysokiego ryzyka).
  • Szkolenie personelu: Zapewnij pracownikom wiedzę o AI (obowiązek od lutego 2025) — zacznij od podstawowych szkoleń dotyczących systemu AI Act i zasad nadzoru ludzkiego.
  • Przegląd strony internetowej: Zweryfikuj, czy strona organizacji zawiera wymagane informacje o stosowaniu systemów AI — chatboty AI muszą być wyraźnie oznaczone, polityka prywatności powinna zawierać klauzulę o zautomatyzowanym podejmowaniu decyzji.