Nowe wytyczne MDCG 2025-26: Jak MDR i IVDR współgrają z Aktem o Sztucznej Inteligencji (AI Act)?

Wprowadzenie

W ostatnich latach sztuczna inteligencja (AI) coraz odważniej wkracza do świata medycyny. Od narzędzi wspierających diagnozowanie chorób po systemy pomagające w analizie obrazów medycznych – AI staje się integralnym elementem wielu wyrobów medycznych. Jednak tak szybki rozwój technologiczny stawia przed producentami, jednostkami notyfikowanymi i organami nadzorczymi poważne wyzwania związane z zapewnieniem bezpieczeństwa, przejrzystości i zgodności z prawem.

Unia Europejska zareagowała na te zmiany, wprowadzając szereg aktów prawnych regulujących AI – z czego kluczowym jest rozporządzenie o sztucznej inteligencji, tzw. AI Act (AIA). Równolegle, producenci wyrobów medycznych już wcześniej musieli dostosować się do rozporządzenia MDR (2017/745) oraz IVDR (2017/746), które nakładają rygorystyczne wymagania dotyczące bezpieczeństwa i skuteczności produktów.

W czerwcu 2025 r. opublikowano dokument MDCG 2025-6, który odpowiada na potrzebę wyjaśnienia, jak te trzy ramy prawne – MDR, IVDR i AIA – powinny być stosowane wspólnie. Dokument ten jest efektem współpracy Grupy Koordynacyjnej ds. Wyrobów Medycznych (MDCG) oraz Wspólnej Rady ds. Sztucznej Inteligencji (AIB). Jego celem jest ułatwienie producentom zrozumienia i wdrożenia przepisów w sposób spójny i zintegrowany.

To nie tylko zestaw technicznych wytycznych. To narzędzie, które ma pomóc wszystkim uczestnikom rynku wyrobów medycznych – od producentów, przez jednostki notyfikowane, aż po instytucje ochrony zdrowia – w odpowiedzialnym i bezpiecznym wdrażaniu innowacyjnych rozwiązań AI.

W tym artykule przyjrzymy się bliżej nowym wytycznym, analizując, co się zmieniło, jakie nowe obowiązki nakładają one na producentów oraz jak zapewnić zgodność z nowymi przepisami bez paraliżowania procesu innowacji. To lektura obowiązkowa dla każdego, kto pracuje z wyrobami medycznymi opartymi na AI w Unii Europejskiej.


Przegląd dokumentu MDCG 2025-6

Dokument MDCG 2025-6 to odpowiedź na rosnącą potrzebę integracji przepisów regulujących wyroby medyczne z regulacjami dotyczącymi sztucznej inteligencji. Opublikowany w czerwcu 2025 r., dokument ten został wspólnie zatwierdzony przez Medical Device Coordination Group (MDCG) oraz Artificial Intelligence Board (AIB) – dwie instytucje powołane do nadzoru nad przestrzeganiem unijnego prawa w zakresie wyrobów medycznych i sztucznej inteligencji.

Głównym celem dokumentu jest wyjaśnienie, jak MDR/IVDR współgrają z AI Act, szczególnie w kontekście wyrobów medycznych zawierających systemy AI uznawane za „wysokiego ryzyka”. Dokument opiera się na podejściu Nowych Ram Legislacyjnych (NLF), zakładającym jednoczesne stosowanie wielu aktów prawnych UE w odniesieniu do jednego produktu – jeśli spełnia on przesłanki ich zastosowania.

MDCG 2025-6 nie jest jednak dokumentem wiążącym prawnie. Nie stanowi oficjalnego stanowiska Komisji Europejskiej i nie może być traktowany jako źródło wykładni prawa. To raczej praktyczny przewodnik, który ma na celu ułatwienie producentom interpretacji przepisów i ich spójne wdrożenie w praktyce.

W dokumencie omówiono m.in.:

  • kiedy MDAI (Medical Device Artificial Intelligence) podlega AI Act,

  • jakie systemy AI uznaje się za wysokiego ryzyka,

  • jakie nowe obowiązki pojawiają się w zakresie zarządzania ryzykiem, dokumentacji technicznej i nadzoru,

  • w jaki sposób można łączyć wymagania AIA z już istniejącymi procedurami MDR/IVDR.

Wytyczne te mają charakter dynamiczny – przewiduje się ich dalszy rozwój i aktualizację, w miarę jak pojawiać się będą kolejne akty wykonawcze i wytyczne Komisji Europejskiej. Stanowią zatem żywy dokument, który powinien być regularnie przeglądany przez producentów i inne zainteresowane strony.


Zakres zastosowania i klasyfikacja MDAI

Zrozumienie, kiedy i jak przepisy AI Act mają zastosowanie do wyrobów medycznych, jest kluczowe dla producentów, którzy chcą wprowadzać na rynek produkty oparte na AI. Dokument MDCG 2025-6 jednoznacznie wyjaśnia, że AI Act ma zastosowanie do każdego wyrobu medycznego zawierającego system AI, jeśli spełnione są dwa warunki określone w artykule 6 ust. 1 AIA:

  1. System AI jest komponentem bezpieczeństwa lub sam stanowi wyrób medyczny,

  2. Podlega ocenie zgodności z udziałem jednostki notyfikowanej zgodnie z MDR lub IVDR.

Oznacza to, że nie wszystkie wyroby medyczne z AI automatycznie stają się „wysokiego ryzyka” według AIA. Przykładowo:

  • Urządzenia klasy I (niesterylne, niepomiarowe) nie są uznawane za systemy wysokiego ryzyka w rozumieniu AIA,

  • Natomiast klasy IIa, IIb i III – tak, ponieważ wymagają udziału jednostki notyfikowanej.

Co ważne, fakt, że AI system został sklasyfikowany jako wysokiego ryzyka na gruncie AIA nie zmienia klasy ryzyka wyrobu medycznego wg MDR/IVDR. Klasyfikacja wg MDR/IVDR wpływa na AIA, a nie odwrotnie. Innymi słowy, to MDR/IVDR determinuje, czy system AI podlega rygorom wysokiego ryzyka według AIA.

Ważną definicją w tym kontekście jest również pojęcie „deployer” w AI Act – czyli osoba lub instytucja używająca systemu AI pod swoją kontrolą. Nie należy jej mylić z „użytkownikiem” w rozumieniu MDR/IVDR, którym może być np. pacjent czy lekarz.

Ta sekcja dokumentu MDCG pomaga w precyzyjnej identyfikacji produktów, które będą musiały spełniać oba zestawy przepisów, co ma kluczowe znaczenie dla prawidłowego procesu certyfikacji.


Wymagania dotyczące systemów zarządzania

Zarządzanie systemami AI w wyrobach medycznych to nie tylko projektowanie i testowanie – to całościowy nadzór nad cyklem życia produktu, od fazy koncepcyjnej aż po monitorowanie po wprowadzeniu na rynek. Tutaj spotykają się wymagania MDR/IVDR i AI Act – oba zestawy przepisów nakładają obowiązki, które muszą być ze sobą zintegrowane.

MDR i IVDR od dawna wymagają od producentów ustanowienia i utrzymywania systemów zarządzania jakością, adekwatnych do klasy ryzyka danego wyrobu. Obejmuje to procedury dotyczące projektowania, produkcji, monitorowania i raportowania. W przypadku AI te obowiązki ulegają rozszerzeniu.

AI Act wprowadza m.in. obowiązek:

  • ciągłego nadzoru nad systemem AI po wdrożeniu,

  • integracji zarządzania ryzykiem z analizą danych wejściowych i wyjściowych,

  • projektowania systemu z funkcjami umożliwiającymi nadzór przez człowieka (human oversight),

  • dokumentowania wszelkich zmian i ich wpływu na bezpieczeństwo i skuteczność.

W praktyce oznacza to, że producenci muszą poszerzyć swoje QMS (Quality Management Systems) o elementy wymagane przez AI Act – np. zasady testowania danych, logowania zdarzeń, czy przejrzystości działania systemu AI.

Warto dodać, że oba systemy – MDR/IVDR i AIA – są komplementarne. AI Act pozwala na zintegrowanie jego wymagań z już istniejącą dokumentacją MDR/IVDR, by ograniczyć powielanie pracy. Producent musi jednak wykazać pełną zgodność z oboma zestawami przepisów.


Zarządzanie danymi i ich jakość

AI żywi się danymi. Jakość tych danych determinuje jakość decyzji podejmowanych przez system – szczególnie w kontekście zdrowia i życia pacjentów. Dlatego zarówno MDR/IVDR, jak i AI Act, kładą ogromny nacisk na governance danych.

Zgodnie z AIA, dane używane do trenowania, walidacji i testowania systemu AI muszą być:

  • odpowiednie dla celu zastosowania,

  • wystarczająco reprezentatywne,

  • wolne od błędów i uprzedzeń (bias),

  • zgodne z przepisami RODO, w tym co do celu zbierania i przetwarzania danych.

MDR i IVDR również wymagają, by dane kliniczne używane do oceny wyrobu były rzetelne, pozyskiwane w odpowiedni sposób i reprezentatywne dla populacji docelowej. Obie regulacje zgodnie podkreślają wagę kompletności, przejrzystości i odporności danych.

W praktyce oznacza to obowiązek wdrożenia:

  • strategii doboru danych treningowych (np. obejmujących różne grupy wiekowe, płcie, regiony),

  • dokumentacji każdego etapu przetwarzania danych,

  • środków ograniczających potencjalne uprzedzenia algorytmu.

AI Act przewiduje także obowiązek logowania zdarzeń (event logging), co umożliwia identyfikację i eliminację problemów związanych z błędami danych czy ich dryfem w czasie.

Wszystkie te elementy – dane, dokumentacja, mechanizmy nadzoru – muszą być częścią spójnego systemu zarządzania jakością i ryzykiem, zintegrowanego z MDR/IVDR. To trudne zadanie, ale kluczowe dla bezpieczeństwa pacjentów i zgodności prawnej.

Transparentność i nadzór ludzki

Jednym z fundamentów nowoczesnego podejścia do sztucznej inteligencji w ochronie zdrowia jest transparentność – czyli zdolność systemu AI do wyjaśnienia, jak podejmuje decyzje, na jakiej podstawie, i jakie są jego ograniczenia. Zarówno MDR/IVDR, jak i AI Act uznają ten aspekt za kluczowy dla zaufania użytkowników i bezpieczeństwa pacjentów.

AI Act zobowiązuje producentów wysokiego ryzyka MDAI do projektowania systemów tak, by były one zrozumiałe dla użytkowników – w tym lekarzy, techników czy administratorów. Muszą oni być w stanie zinterpretować dane wyjściowe i zrozumieć sposób działania algorytmu. Wymagana jest także dokumentacja obejmująca m.in. strukturę systemu, rodzaj danych wejściowych, zakres możliwych błędów oraz scenariusze testowe.

Co więcej, jeśli system AI bezpośrednio komunikuje się z użytkownikiem końcowym (np. chatboty medyczne), osoba ta musi być poinformowana, że rozmawia z AI – chyba że jest to oczywiste. Ten wymóg dotyczy wszystkich klas wyrobów, niezależnie od ich klasyfikacji MDR.

Z kolei MDR i IVDR, choć bardziej skupione na aspektach klinicznych i dokumentacyjnych, również kładą nacisk na przejrzystość działania urządzeń. Instrukcja użytkowania musi jasno określać m.in. przeznaczenie wyrobu, sposób jego działania i potencjalne ograniczenia. W przypadku wyrobów zawierających AI – również sposób, w jaki system podejmuje decyzje.

Uzupełnieniem transparentności jest obowiązek wprowadzenia nadzoru ludzkiego (human oversight). Producent musi zapewnić, że użytkownicy mają możliwość przerwania działania systemu w sytuacji awaryjnej, nadzoru jego pracy lub interpretacji jego wyników. Przykładem może być przycisk „STOP” w autonomicznym robocie chirurgicznym lub system ostrzegający lekarza o niepewności diagnozy wygenerowanej przez AI.

Tego rodzaju rozwiązania projektowe – będące nie tylko zabezpieczeniem, ale i narzędziem odpowiedzialności – są wymagane przez oba zestawy przepisów i stanowią jeden z filarów bezpieczeństwa MDAI.


Dokumentacja techniczna i ocena zgodności

W dobie sztucznej inteligencji dokumentacja techniczna to nie tylko instrukcja obsługi i schemat elektryczny. To kompleksowy zbiór danych, który musi dokumentować cały proces projektowania, testowania i monitorowania systemu AI, zgodnie zarówno z MDR/IVDR, jak i AI Act.

AI Act wprowadza precyzyjne wymagania dotyczące dokumentacji technicznej dla systemów wysokiego ryzyka. Dokumentacja ta musi zawierać:

  • opis funkcjonalności systemu AI,

  • dane treningowe, walidacyjne i testowe,

  • analizę ryzyka,

  • opis środków nadzoru ludzkiego,

  • sposób zapewnienia przejrzystości i śledzenia działania systemu,

  • deklarację zgodności.

Dodatkowo, zgodnie z art. 11 AIA, dokumentacja musi być dostępna w formie jednego, spójnego pliku – co ma ułatwić proces oceny przez jednostki notyfikowane.

Z kolei MDR i IVDR nakładają swoje własne, bardzo szczegółowe wymagania dokumentacyjne, w tym:

  • opis konstrukcji urządzenia i algorytmu,

  • procesy walidacji klinicznej,

  • wyniki badań bezpieczeństwa,

  • procedury nadzoru po wprowadzeniu na rynek.

W przypadku MDAI, dokumentacja ta powinna zostać rozszerzona o wszystkie elementy wymagane przez AIA. Co istotne, oba systemy dopuszczają zintegrowane podejście, gdzie dokumentacja AI może zostać „wbudowana” w dokumentację MDR/IVDR, o ile spełnia wszystkie wymagania.

Jeśli chodzi o ocenę zgodności – większość MDAI klasyfikowanych jako wysokiego ryzyka będzie musiała przejść przez procedurę z udziałem jednostki notyfikowanej, zarówno w zakresie MDR/IVDR, jak i AI Act. AIA pozwala jednak na ocenę zgodności w ramach jednej procedury, bez konieczności podwójnych działań – co ma zmniejszyć obciążenie administracyjne.

Krótko mówiąc – dokumentacja to nie tylko obowiązek formalny. To fundament, który potwierdza, że AI działa zgodnie z prawem, z zasadami etyki i – co najważniejsze – z myślą o pacjencie.


Walidacja kliniczna i testy wydajności

Jednym z największych wyzwań stojących przed producentami MDAI jest udowodnienie, że system AI działa tak, jak deklaruje to producent – a więc jest bezpieczny, skuteczny i użyteczny klinicznie. Tutaj do gry wchodzą: walidacja kliniczna (zgodnie z MDR) oraz ocena wydajności (zgodnie z IVDR), uzupełnione o wymagania AI Act.

MDR i IVDR jasno określają, że każdy wyrób medyczny musi posiadać dowody kliniczne, które potwierdzają jego skuteczność i bezpieczeństwo. W przypadku MDAI oznacza to konieczność przeprowadzenia:

  • badań klinicznych lub analizy literatury (w zależności od klasy ryzyka),

  • testów wydajności z udziałem populacji docelowej,

  • oceny stabilności działania systemu w czasie.

Równocześnie AI Act wprowadza wymogi niezależnej walidacji systemów AI, które obejmują m.in.:

  • dokładność (accuracy),

  • odporność (robustness),

  • bezpieczeństwo cybernetyczne,

  • zgodność z prawami podstawowymi, w tym ochroną danych i niedyskryminacją.

AI Act wymaga również, by testy były prowadzone w różnych warunkach użytkowania – co oznacza, że walidacja musi uwzględniać np. różne modele urządzeń, konfiguracje systemowe czy populacje pacjentów.

Warto również zaznaczyć, że jeśli MDAI jest zaprojektowany do ciągłego uczenia się po wprowadzeniu na rynek, producent musi opracować tzw. plan zmian wstępnie określonych (pre-determined change control plan), który umożliwia nadzór nad „ewolucją” algorytmu. Plan taki powinien być częścią dokumentacji technicznej i musi zostać zatwierdzony w trakcie oceny zgodności.

W efekcie walidacja MDAI staje się procesem znacznie bardziej złożonym niż w przypadku tradycyjnych wyrobów. Wymaga zarówno testów technicznych, jak i dowodów klinicznych – a także ciągłego monitorowania w ramach nadzoru po wprowadzeniu na rynek.


Zarządzanie zmianami i modyfikacjami MDAI

Technologia nie stoi w miejscu – a już na pewno nie AI. Systemy oparte na sztucznej inteligencji często są aktualizowane, doskonalone i dostosowywane do nowych danych. Ale jak pogodzić te zmiany z wymogami regulacyjnymi, które wymagają stałej zgodności z pierwotnie zatwierdzoną wersją produktu?

Tutaj z pomocą przychodzi MDCG 2025-6, który wyjaśnia różnicę między „modyfikacją” a „istotną zmianą” (substantial modification). Zgodnie z AI Act, każda istotna zmiana MDAI wymaga ponownej oceny zgodności. Jednak jeśli zmiany zostały przewidziane już na etapie pierwszej certyfikacji – jako tzw. pre-determined changes – można je wdrażać bez potrzeby powtórnej certyfikacji.

W kontekście MDR/IVDR, każda istotna zmiana, np. w zakresie oprogramowania lub interfejsu użytkownika, również może wymagać nowego przeglądu przez jednostkę notyfikowaną. MDCG 2025-6 podkreśla jednak, że plan zmian może być zintegrowany z dokumentacją MDR/IVDR, jeśli spełnia wymagania AIA.

Co ważne – zmiany, które zostaną wdrożone przed 2 sierpnia 2027 r., nie będą podlegać przepisom AIA, nawet jeśli są istotne. Po tej dacie – każda istotna zmiana w systemie AI klasy wysokiego ryzyka będzie wymagała pełnego dostosowania do AIA, nawet jeśli urządzenie zostało już wcześniej zatwierdzone.

Zarządzanie zmianami w MDAI to dziś nie tylko obowiązek inżynieryjny, ale również strategiczne wyzwanie regulacyjne. Planowanie, dokumentacja i transparentność stają się kluczowymi narzędziami w utrzymaniu zgodności i ciągłego doskonalenia produktu.

Podsumowanie

Dokument MDCG 2025-6 stanowi milowy krok w integracji dwóch najważniejszych obszarów unijnego prawa regulującego technologie medyczne: rozporządzeń MDR/IVDR oraz nowego AI Act. Wytyczne te nie tylko porządkują obowiązki producentów wyrobów medycznych opartych na sztucznej inteligencji, ale także wprowadzają nową jakość w zarządzaniu ryzykiem, dokumentacją, danymi i bezpieczeństwem pacjenta w kontekście technologii cyfrowych.

Dzięki MDCG 2025-6 producenci otrzymują kompletną mapę drogową, jak stosować oba akty prawne jednocześnie – w sposób spójny, ustandaryzowany i praktyczny. W szczególności wytyczne te umożliwiają:

  • zintegrowanie dokumentacji technicznej MDR/IVDR z wymaganiami AIA,

  • uproszczenie oceny zgodności poprzez połączenie procedur,

  • lepsze zarządzanie cyklem życia MDAI, w tym aktualizacjami i walidacją.

Choć dokument nie ma charakteru wiążącego prawnie, jego znaczenie praktyczne jest ogromne. Stanowi on fundament odpowiedzialnego rozwoju i wdrażania AI w medycynie, zapewniając nie tylko zgodność z przepisami, ale także zaufanie lekarzy i pacjentów.

W erze, w której technologia rozwija się szybciej niż przepisy, MDCG 2025-6 to odpowiedź na realne potrzeby branży. Uczy, że innowacja i regulacja nie muszą się wykluczać – mogą i powinny iść w parze.


FAQ – Najczęściej zadawane pytania

1. Czy każda AI w wyrobie medycznym podlega AI Act?
Nie. AI Act ma zastosowanie tylko do tych systemów AI, które są komponentem bezpieczeństwa lub wyrobem samym w sobie i podlegają ocenie zgodności z udziałem jednostki notyfikowanej.

2. Czy muszę tworzyć dwie oddzielne dokumentacje – MDR i AIA?
Nie. Możesz zintegrować wymagania AIA w dokumentacji MDR/IVDR, o ile spełnione zostaną wszystkie obowiązki obu regulacji.

3. Czy zmiany w MDAI po wprowadzeniu na rynek zawsze wymagają nowej certyfikacji?
Nie. Jeśli zmiany zostały przewidziane i zatwierdzone w planie zmian, nie wymagają nowej oceny zgodności.

4. Jakie dane muszę uwzględnić przy tworzeniu MDAI?
Dane treningowe, walidacyjne i testowe muszą być wysokiej jakości, reprezentatywne, wolne od biasu i zgodne z RODO.

5. Czy system AI musi być „wyjaśnialny” dla lekarza?
Tak. Musisz zapewnić instrukcje i narzędzia umożliwiające zrozumienie wyników systemu AI przez użytkownika.

Jeśli masz pytania lub chcesz dowiedzieć się więcej o obowiązkach producentów wyrobów medycznych, skontaktuj się z nami już teraz na office@ipsolegal.pl lub bezpośrednio z Błażej Wągiel !

Aby uzyskać więcej informacji na temat obowiązków związanych z MDR i IVDR zapoznaj się z naszą bazą wiedzy i dotychczasowymi biuletynami: https://lnkd.in/egJwQ5G5

Share
Polish