AI
calendar
18.02.2025

Wytyczne KE do zakazanych praktyk AI (art. 5 AI Act) – co realnie oznaczają dla firm

4 lutego 2025 r. Komisja Europejska opublikowała projekt Wytycznych dotyczących zakazanych praktyk AI (C(2025) 884, „Guidelines on prohibited AI practices”), które mają ujednolicić interpretację art. 5 AI Act w całej UE. Wytyczne są niewiążące, ale pokazują, jak KE rozumie przepisy i jak będą je egzekwować organy nadzoru. Przypomnienie: AI Act wszedł w życie 1 sierpnia 2024 r., a zakazy z art. 5 zaczęły obowiązywać po 6 miesiącach – 2 lutego 2025 r. (większość pozostałych obowiązków stosuje się później). 

Równolegle warto znać samą treść rozporządzenia – AI Act (UE) 2024/1689 – w którym art. 5 definiuje katalog praktyk „nieakceptowalnego ryzyka”, a art. 99 przewiduje wysokie sankcje za naruszenia. 

Co dokładnie jest zakazane? Praktyki z art. 5 AI Act – wersja „praktyczna”

Wytyczne KE punkt po punkcie tłumaczą osiem zakazów z art. 5, z przykładami i granicami stosowania. Najczęściej dotykają one dwóch obszarów istotnych dla biznesu: zarządzania pracownikami i reklamy/UX.

Manipulacja, techniki podprogowe, celowe wprowadzanie w błąd (art. 5 ust. 1 lit. a)–(b))

Zakazane są systemy AI, które stosują podprogowe lub celowo manipulacyjne techniki w celu materialnego zniekształcenia zachowania ludzi i powodują (lub z dużym prawdopodobieństwem mogą spowodować) istotną szkodę. Odmianą tego jest wykorzystywanie podatności z uwagi na wiek, niepełnosprawność czy szczególną sytuację społeczno-ekonomiczną. Wytyczne rozróżniają „dozwoloną perswazję” (np. zwykła personalizacja reklamy, transparentne rekomendacje) od manipulacji prowadzącej do szkody. 

Granice w reklamie/UX (przykłady z wytycznych):

  • Niedozwolone: podprogowe bodźce w kreacji reklamowej, „dark patterns” prowadzące do niezamierzonego zakupu u osób starszych, agresywne natarczywe mechanizmy wywołujące stres w grupach wrażliwych.

  • Dozwolone: personalizacja na podstawie preferencji, jeśli jest transparentna, nie eksploatuje podatności i nie prowadzi do materialnej szkody. 

„Social scoring” (art. 5 ust. 1 lit. c))

Zakaz obejmuje systemy oceniające osoby na podstawie zachowań społecznych lub cech osobowych, które skutkują nieuzasadnionym lub nieproporcjonalnym traktowaniem w niespowiązanych kontekstach (dotyczy zarówno sektora publicznego, jak i prywatnego). Wytyczne precyzują elementy „scoringu” i kiedy takie systemy wypadają poza zakaz (np. oceny oparte na obiektywnych kryteriach w jednym, uzasadnionym kontekście). 

Indywidualna ocena ryzyka przestępstwa wyłącznie na podstawie profilowania (art. 5 ust. 1 lit. d))

Zakazane są systemy przewidujące, że konkretna osoba popełni przestępstwo, jeśli prognoza opiera się wyłącznie na profilowaniu lub analizie cech osobowości – bez oparcia w obiektywnych i weryfikowalnych faktach związanych z czynem. Dozwolone pozostają narzędzia wspierające ludzką ocenę na podstawie faktów (np. analiza śladów transakcyjnych bez profilowania cech osobowości).

Tworzenie baz rozpoznawania twarzy przez „untargeted scraping” (art. 5 ust. 1 lit. e))

Zakazane jest budowanie/rozszerzanie baz danych biometrycznych poprzez nieukierunkowane pobieranie wizerunków z Internetu i monitoringu CCTV (scraping). To uderza m.in. w praktyki masowego zasilania baz „dla treningu” bez podstawy prawnej i kontroli źródła. 

Identyfikacja emocji w pracy i w edukacji (art. 5 ust. 1 lit. f))

To najbardziej praktyczny dla firm zakaz. Obejmuje systemy wnioskujące o emocjach lub intencjach osób na podstawie danych biometrycznych (mowa, twarz, gesty) w miejscu pracy i w instytucjach edukacyjnych.

  • Zakazane przykłady (z wytycznych): analiza tonu głosu konsultantów w call-center celem mierzenia „poziomu frustracji”, kamery czy klawiaturowe „behaviour analytics” oceniające nastrój lub „motywację” pracowników, monitoring ekspresji twarzy uczniów podczas zajęć lub rekrutacji.

  • Co nie jest „emotion recognition”: sama detekcja uśmiechu lub analiza treści tekstu (sentiment analysis) bez danych biometrycznych; te zastosowania nie podpadają pod art. 5 ust. 1 lit. f).

  • Wyjątki – wąskie i ściśle interpretowane: cele medyczne (np. wyrób medyczny wspierający terapię) lub bezpieczeństwo (np. system wykrywania zmęczenia kierowców/pilotów). Dane nie mogą być wtórnie użyte do oceny pracownika/ucznia; należy wykazać konieczność i brak mniej inwazyjnych alternatyw. 

Biometryczna kategoryzacja osób według „wrażliwych” cech (art. 5 ust. 1 lit. g))

Zakazane jest dedukowanie z danych biometrycznych m.in. rasy, poglądów politycznych, przynależności związkowej, wyznań, życia seksualnego/orientacji itp. – niezależnie od celu. 

Zdalna identyfikacja biometryczna „w czasie rzeczywistym” w przestrzeni publicznej do celów ścigania (art. 5 ust. 1 lit. h))

Co do zasady zakazana, ale są wyjątki: poszukiwanie zaginionych/ofiar poważnych przestępstw, zapobieganie realnie imminent zamachom terrorystycznym, lokalizacja sprawców wybranych ciężkich przestępstw. Nawet wtedy wymagana jest m.in. ukierunkowana (targeted) operacja, ocena wpływu na prawa podstawowe (FRIA), uprzednie zezwolenie (co do zasady sądowe) oraz rejestracja systemu w unijnej bazie (z wyjątkami na pilne sytuacje). 

Jak KE rysuje „granice” – przypadki brzegowe

Emotion vs. ekspresja: dostrzeżenie ekspresji (np. „uśmiech”) bez wnioskowania o stanie wewnętrznym to nie „emotion recognition”. Jeśli jednak system konkluduje, że pracownik jest „zły”, „zdemotywowany” albo „zestresowany” – w pracy to zakazane

Reklama i UX: wytyczne dopuszczają perswazję i spersonalizowaną komunikację, o ile jest transparentna i nie prowadzi do istotnej szkody ani nie wykorzystuje podatności (wiek, niepełnosprawność, status socjoekonomiczny). W przeciwnym razie – ryzyko podpadnięcia pod art. 5. Wyraźnie wskazano interakcję z innym prawem UE (np. ochrona konsumentów, RODO). 

Sankcje i egzekwowanie

Za naruszenie zakazów z art. 5 grożą najwyższe kary w AI Act – do 35 mln EUR lub 7% globalnego rocznego obrotu (w zależności od tego, co wyższe). Organy nadzoru rynku mogą błyskawicznie wszczynać procedury, a Komisja przewiduje mechanizmy skoordynowanego działania między państwami. 

Co zrobić teraz? Plan dostosowania „krok po kroku”

Mapowanie i audyt użycia AI
Zidentyfikuj wszystkie systemy, które mogą podpadać pod art. 5. Zwróć szczególną uwagę na:

  • HR (monitoring pracy, „productivity analytics”, voice/tone analytics w call-center),

  • rekrutację (analiza wideo, głosu, mikroekspresji),

  • reklamę/UX (A/B testy wykorzystujące natarczywe mechanizmy, targeting do grup wrażliwych),

  • szkolenia/edukację (proctoring, monitoring emocji uczniów/studentów),

  • bezpieczeństwo fizyczne i cyber (biometria, monitoring w czasie rzeczywistym).

Decyzje „stop/keep/change”

  • Zastosowania objęte zakazemwyłącz.

  • Przypadki „na granicy” – zdemontuj funkcje wnioskowania o emocjach z danych biometrycznych lub zastąp je analizą niebiometryczną (np. ankiety, deklaratywne NPS, analiza tekstu).

  • Zastosowania z wyjątkiem (medyczne/bezpieczeństwa) – przygotuj strict-necessity case i dokumentację („dlaczego nie ma mniej inwazyjnej alternatywy”), pamiętając o ograniczeniu celu i zakazie wtórnego użycia. 

Dokumentacja i oceny ryzyka

  • Dla wyjątków i przypadków granicznych przygotuj Fundamental Rights Impact Assessment (FRIA) (jeżeli dotyczy), a dla danych osobowych – DPIA (RODO).

  • Ustal politykę etycznego stosowania AI (dozwolone/niedozwolone praktyki, eskalacja wątpliwości).

  • W kontraktach z dostawcami wprowadź zakaz funkcji art. 5 (reprezentacje/warranties, prawo audytu, „kill switch”).

Projektowanie i testowanie

  • Usuń z modeli cechy biometryczne w modułach, które mogłyby służyć wnioskowaniu o emocjach pracowników/uczniów.

  • W reklamie/UX wdrażaj test szkodliwości (czy mechanika może materialnie zniekształcić zachowanie? kogo dotyka? jakie skutki?).

  • Prowadź dzienniki decyzji modelu, testy red-teamingu i human-in-the-loop tam, gdzie ryzyko jest podwyższone.

Transparentność i szkolenia

  • Zaktualizuj klauzule informacyjne (także poza RODO, np. informacja o braku użycia systemów zakazanych).

  • Przeszkol działy marketingu, HR i compliance – to tam najłatwiej o nieświadome naruszenie.

Kluczowe wnioski dla zarządów i compliance

  1. Zero tolerancji dla funkcji z art. 5 w HR i edukacji (szczególnie „emotion recognition”).

  2. Reklama/UX: uważaj na techniki wpływu – perswazja tak, manipulacja nie.

  3. Wyjątki (medyczne/bezpieczeństwo) są wąskie i wymagają twardych podstaw (konieczność, brak alternatyw, ograniczenie celu).

  4. Dowody zgodności: audyt, oceny (FRIA/DPIA), umowy z dostawcami, testy i logi.

  5. Reakcja natychmiastowa: lepiej wyłączyć ryzykowne moduły teraz, niż tłumaczyć się przed organem nadzoru jutro.

FAQ

Czy analiza nastroju w tekście (sentiment analysis) jest zakazana?

Nie, o ile nie korzysta z danych biometrycznych i nie jest używana w sposób manipulacyjny prowadzący do istotnej szkody.

Czy mogę mierzyć „zaangażowanie” konsultantów poprzez analizę tonu głosu?

W kontekście pracy – jeżeli system wnioskuje o emocjach na podstawie biometrii (głos/twarz/gesty), będzie to co do zasady zakazane. Rozważ metryki niebiometryczne (np. czas rozmowy, wyniki jakościowe).

Czy personalizacja reklam jest dozwolona?

Tak, jeśli jest transparentna, nie wykorzystuje podatności grup wrażliwych i nie powoduje istotnej szkody. Podprogowe lub agresywnie manipulacyjne techniki będą zabronione.

Czy system wykrywania zmęczenia kierowcy jest legalny?

Tak – wytyczne traktują zmęczenie jako stan fizjologiczny poza definicją „emotion recognition”, a dodatkowo wąski wyjątek „safety” może uzasadniać użycie – z zachowaniem ograniczenia celu i zgodności z innym prawem (np. RODO).

Jakie grożą kary?

Za złamanie zakazów z art. 5 – do 35 mln EUR lub 7% globalnego obrotu.