1. Wprowadzenie
AI Act, przyjęty przez Unię Europejską, wprowadza klasyfikację systemów sztucznej inteligencji (AI) w oparciu o poziom ryzyka. Wysokiego ryzyka systemy AI, ze względu na ich potencjalny wpływ na zdrowie, bezpieczeństwo oraz prawa podstawowe obywateli, podlegają szczególnym regulacjom.
2. Czym są systemy wysokiego ryzyka w AI Act?
Systemy AI wysokiego ryzyka to technologie, które mogą znacząco wpłynąć na prawa podstawowe, zdrowie lub bezpieczeństwo osób. Regulacja obejmuje:
- Systemy stosowane jako komponenty bezpieczeństwa produktów, które podlegają przepisom harmonizacyjnym UE.
- Systemy o konkretnych zastosowaniach, wymienione w Załączniku III AI Act.
3. Kryteria klasyfikacji systemów jako wysokiego ryzyka
Systemy regulowane przepisami harmonizacji unijnej
Systemy AI wykorzystywane jako komponenty produktów objętych unijnymi przepisami harmonizacyjnymi, np.:
- Urządzenia medyczne (zgodnie z rozporządzeniem o wyrobach medycznych),
- Maszyny stosowane w przemyśle,
- Zabawki, które wpływają na bezpieczeństwo dzieci.
Jeśli produkt lub jego komponent podlega procedurze oceny zgodności z udziałem strony trzeciej, system AI również jest uznawany za wysokiego ryzyka.
Zastosowania wymienione w Załączniku III
AI Act precyzuje listę zastosowań, które są klasyfikowane jako wysokiego ryzyka. Obejmują one m.in.:
- Zarządzanie infrastrukturą krytyczną (np. systemy zarządzania energią lub wodą),
- Systemy edukacyjne i rekrutacyjne (ocena uczniów, monitorowanie pracowników),
- Ocena zdolności kredytowej i przyznawanie świadczeń społecznych,
- Zastosowania w służbach ratunkowych (triage pacjentów, priorytetyzacja zgłoszeń),
- Wspieranie wymiaru sprawiedliwości (np. analiza danych prawnych).
4. Obowiązki dostawców systemów wysokiego ryzyka
Ocena zgodności i dokumentacja techniczna
Dostawcy systemów AI wysokiego ryzyka muszą:
- Przeprowadzić ocenę zgodności systemu przed wprowadzeniem go na rynek,
- Opracować szczegółową dokumentację techniczną, zawierającą dane dotyczące działania systemu, jego algorytmów oraz ryzyk.
Jakość danych i bezpieczeństwo systemów
Dane wykorzystywane do trenowania systemów AI muszą być:
- Dokładne i rzetelne,
- Wolne od uprzedzeń, aby uniknąć dyskryminacji,
- Zgodne z wymogami ochrony prywatności i bezpieczeństwa.
Rejestracja systemów w unijnej bazie danych
Każdy system AI wysokiego ryzyka musi zostać zarejestrowany w centralnej bazie danych UE, co zwiększa transparentność i umożliwia nadzór nad jego użytkowaniem.
5. Obowiązki użytkowników i innych podmiotów
Deployerzy i ich obowiązki
Użytkownicy systemów AI wysokiego ryzyka muszą:
- Zapewnić prawidłowe wdrożenie systemu zgodnie z przeznaczeniem,
- Monitorować działanie systemu i zgłaszać incydenty lub nieprawidłowości.
Rola importerów i dystrybutorów
Importerzy i dystrybutorzy muszą upewnić się, że systemy AI wprowadzone na rynek UE spełniają wymogi AI Act.
6. Wyłączenia i szczególne przypadki
Niektóre systemy mogą zostać wyłączone z klasyfikacji jako wysokiego ryzyka, jeśli:
- Nie wpływają znacząco na zdrowie, bezpieczeństwo lub prawa podstawowe,
- Są wykorzystywane wyłącznie w celach badawczych lub testowych.
7. Przykłady zastosowań systemów wysokiego ryzyka
- Systemy oceniania uczniów w instytucjach edukacyjnych – AI oceniająca wyniki egzaminów.
- AI w rekrutacji – technologie analizujące CV i podejmujące decyzje o zatrudnieniu.
- Systemy analizy zdolności kredytowej, które decydują o przyznaniu pożyczki.
- AI w służbie zdrowia – wspomaganie diagnoz medycznych lub triage pacjentów w szpitalach.
8. Podsumowanie
Systemy wysokiego ryzyka stanowią kluczowy obszar regulacji AI Act, którego celem jest ochrona praw obywateli oraz zapewnienie odpowiedzialnego wykorzystania technologii AI. Dzięki surowym wymaganiom dotyczącym zgodności, jakości danych oraz transparentności, Unia Europejska wyznacza globalne standardy dla wdrażania systemów sztucznej inteligencji.
9. Najczęściej zadawane pytania (FAQ)
1. Co decyduje o klasyfikacji systemu jako wysokiego ryzyka?
Kryteria obejmują wpływ na zdrowie, bezpieczeństwo i prawa podstawowe oraz specyficzne zastosowania wymienione w Załączniku III AI Act.
2. Czy każdy system AI w produktach podlega tej klasyfikacji?
Nie, tylko te, które są komponentami produktów objętych przepisami harmonizacji unijnej i wymagają oceny zgodności.
3. Jakie obowiązki mają dostawcy systemów wysokiego ryzyka?
Dostawcy muszą przeprowadzić ocenę zgodności, zapewnić jakość danych, przygotować dokumentację techniczną i zarejestrować system w bazie danych UE.
4. Czy systemy wysokiego ryzyka mogą być stosowane bez ograniczeń?
Nie, ich stosowanie podlega ścisłym regulacjom, w tym obowiązkom dotyczącym nadzoru i monitorowania działania.
5. Czy użytkownicy takich systemów ponoszą odpowiedzialność za ich działanie?
Tak, deployerzy muszą zapewnić, że systemy są używane zgodnie z przeznaczeniem i monitorować ich działanie.
Masz pytania? Napisz do nas na office@ipsolega.pl lub bezpośrednio z Błażejem Wągiel.