Dyrektywa o odpowiedzialności za AI: co grozi firmom korzystającym z AI na stronie
Jak dyrektywa AILD zmienia odpowiedzialność za szkody wyrządzone przez AI — domniemanie przyczynowości, prawo do ujawnienia dokumentacji i związek z EU AI Act.
Dyrektywa o odpowiedzialności za AI — czym jest i dlaczego ma znaczenie?
W październiku 2022 roku Komisja Europejska przedstawiła projekt Dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję (AI Liability Directive — AILD). Dyrektywa uzupełnia EU AI Act, regulując cywilnoprawną odpowiedzialność odszkodowawczą za szkody wyrządzone przez systemy AI. W odróżnieniu od EU AI Act, który skupia się na wymogach ex ante (przed wprowadzeniem na rynek), AILD dotyczy roszczeń ex post — kiedy szkoda już nastąpiła.
Na początku 2026 roku dyrektywa jest nadal w fazie legislacyjnej (trilog między Parlamentem, Radą i Komisją), jednak jej kluczowe mechanizmy są już dobrze znane i warto przygotować się na jej wejście w życie.
Kluczowy mechanizm: domniemanie związku przyczynowego
Największą innowacją AILD jest wzruszalne domniemanie związku przyczynowego(presumption of causality). Dotyczy ono sytuacji, gdy:
- Pozwany naruszył obowiązek staranności (duty of care) wynikający z prawa UE lub prawa krajowego — w tym wymagania EU AI Act.
- Na podstawie okoliczności sprawy jest prawdopodobne, że naruszenie mogło wpłynąć na wynik działania systemu AI.
- Powód wykazał, że wynik działania systemu AI spowodował szkodę.
Innymi słowy: jeśli Twoja organizacja nie spełniła wymogów AI Act (np. nie prowadziła rejestru logów, nie zapewniła nadzoru ludzkiego nad systemem wysokiego ryzyka), a system AI wyrządził komuś szkodę — sąd może domniemywać, że naruszenie było przyczyną szkody. Ciężar obalenia tego domniemania spoczywa na pozwanym.
Prawo do ujawnienia informacji i dowodów
AILD wprowadza prawo poszkodowanego do żądania ujawnienia dokumentacji i danych dotyczących systemu AI (right of disclosure). Sądy będą mogły nakazać producentom i operatorom systemów AI udostępnienie:
- Dokumentacji technicznej systemu AI (odpowiadającej wymogom EU AI Act art. 11–13).
- Logów i zapisów operacyjnych (jeśli system je generował).
- Informacji o danych treningowych, w zakresie niezbędnym do oceny roszczenia.
- Wyników oceny ryzyka i oceny zgodności.
Jeżeli pozwany odmówi ujawnienia dokumentów bez uzasadnionego powodu, sąd może zastosowaćnegatywne domniemanie faktyczne — czyli uznać, że ukryte dokumenty potwierdzają roszczenie powoda.
Kto ponosi odpowiedzialność?
AILD nie zastępuje istniejącego reżimu odpowiedzialności cywilnej — nakłada się na niego. Odpowiedzialność może dotyczyć:
- Dostawcy systemu AI (providers): Podmioty, które opracowały system AI i umieściły go na rynku. Mogą ponosić odpowiedzialność na mocy Dyrektywy o odpowiedzialności za produkty (PLD — Product Liability Directive, nowelizowanej równolegle przez Komisję), a AILD uzupełnia PLD w obszarach nieobjętych tą dyrektywą.
- Operatorzy/wdrażający (operators/deployers): Podmioty korzystające z systemu AI w działalności zawodowej. AILD wprost reguluje odpowiedzialność operatorów — w tym za szkody wynikające z nieprawidłowego nadzoru lub wdrożenia systemu.
- Użytkownicy-konsumenci: Prywatni użytkownicy systemów AI co do zasady nie są objęci reżimem AILD jako pozwani, jednak mogą być powodami w przypadku szkód wyrządzonych przez systemy AI innych podmiotów.
Związek z EU AI Act: niezgodność = ryzyko odpowiedzialności
AILD i EU AI Act są zaprojektowane jako uzupełniające akty prawne. Praktyczne konsekwencje:
- Naruszenie obowiązków EU AI Act (brak dokumentacji, brak logów, brak nadzoru ludzkiego) automatycznie tworzy podstawę domniemania przyczynowości w AILD.
- Systemy AI wysokiego ryzyka (Załącznik III EU AI Act) będą poddane szczególnej kontroli w postępowaniach cywilnych — wymagana dokumentacja stanie się kluczowym dowodem.
- Rejestr systemów AI (art. 71 EU AI Act) umożliwi poszkodowanym identyfikację dostawcy systemu i żądanie ujawnienia dokumentacji.
Innymi słowy: zgodność z EU AI Act to nie tylko wymóg regulacyjny, ale też tarcza prawna w ewentualnych postępowaniach odszkodowawczych.
Co to oznacza dla strony internetowej organizacji?
Jeśli Twoja organizacja korzysta z systemów AI na stronie internetowej — chatbotów, systemów rekomendacji, narzędzi do oceny ryzyka klientów — AILD nakłada na Ciebie obowiązki informacyjne i dokumentacyjne:
- Transparentność AI na stronie: Użytkownicy muszą wiedzieć, że wchodzą w interakcję z systemem AI (wymóg EU AI Act art. 50, wzmacniany przez AILD poprzez domniemanie przyczynowości w razie braku transparentności).
- Dokumentacja techniczna: Każdy system AI wysokiego ryzyka używany na stronie musi mieć udokumentowane działanie, dane treningowe i mechanizmy nadzoru. W razie sporu sąd może nakazać jej ujawnienie.
- Logi i audyt: Systemy AI powinny generować logi operacyjne (kto, kiedy, z jakim wynikiem), które pozwolą odtworzyć zdarzenie w razie roszczenia.
- Polityka prywatności: Powinna zawierać informację o stosowaniu zautomatyzowanego podejmowania decyzji i profilowania, podstawę prawną (RODO art. 22) oraz prawo do wyjaśnienia decyzji.
Harmonogram i aktualny status
Stan na marzec 2026: AILD jest w fazie triloga. Parlament Europejski przyjął swoje stanowisko w grudniu 2023 roku, rozszerzając zakres dyrektywy o dodatkowe środki ochrony konsumentów. Oczekiwane jest osiągnięcie porozumienia w 2026 roku. Po przyjęciu dyrektywa da państwom członkowskim dwa lata na implementację do prawa krajowego.
Organizacje powinny już teraz przygotowywać się do AILD poprzez:
- Inwentaryzację systemów AI używanych w działalności i na stronie internetowej.
- Zapewnienie zgodności z EU AI Act — to minimalizuje ryzyko AILD.
- Wdrożenie systemów logowania dla systemów AI podejmujących decyzje wobec użytkowników.
- Aktualizację polityki prywatności o klauzule dotyczące AI i zautomatyzowanego podejmowania decyzji.
- Konsultację z ubezpieczycielem w zakresie rozszerzenia polis OC o ryzyko AI.