AI
calendar
04.09.2025

AI Act a komercjalizacja cyfrowego zdrowia: co oznacza dla IP i dokumentacji technicznej

Unijny Akt o sztucznej inteligencji (AI Act) tworzy jednolite ramy regulacyjne dla systemów SI w całej UE. Kluczowym założeniem jest podejście oparte na ryzyku: im wyższe ryzyko dla zdrowia, bezpieczeństwa czy praw podstawowych, tym dalej idące obowiązki dla dostawców (providers) i użytkowników wdrażających (deployers). Część przepisów wchodzi etapami do 1 sierpnia 2027 r., przy czym zakazy dotyczące systemów o niedopuszczalnym ryzyku (art. 5) obowiązują już od 2 lutego 2025 r.

Szeroka definicja systemu AI z art. 3 ust. 1 („system maszynowy… wnioskuje, jak generować na podstawie otrzymanych danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne”) obejmuje zdecydowaną większość współczesnych rozwiązań software’owych w e-zdrowiu — od algorytmów klasyfikujących obrazy po systemy wspomagania decyzji klinicznych.

Niniejszy przegląd podsumowuje najistotniejsze przepisy dla cyfrowego zdrowia i pokazuje, dlaczego ochrona własności intelektualnej (IP) staje się strategicznie ważniejsza w dobie obowiązkowej dokumentacji, audytów i ocen zgodności.

Co trafia do „wysokiego ryzyka”?

Zgodnie z art. 6 AI Act system AI jest wysokiego ryzyka m.in. gdy:

  • jest produktem lub elementem bezpieczeństwa produktu objętym unijnymi aktami harmonizacyjnymi z Załącznika I, i

  • ten produkt/system wymaga oceny zgodności przez stronę trzecią przed wprowadzeniem do obrotu/użytkowania.

Dla cyfrowego zdrowia najważniejsze akty z Załącznika I to:

  • Rozporządzenie (UE) 2017/745 (MDR) — wyroby medyczne,

  • Rozporządzenie (UE) 2017/746 (IVDR) — wyroby medyczne do diagnostyki in vitro.

W MDR Reguła 11 klasyfikuje oprogramowanie:

  • dostarczające informacje do decyzji diagnostycznych/terapeutycznych → zwykle klasa IIa/IIb/III (w zależności od wpływu na zdrowie),

  • monitorujące procesy fizjologiczne → co do zasady min. IIa.

Klasa urządza faktyczny obowiązek zaangażowania jednostki notyfikowanej (third-party conformity assessment).

Poza wyrobami MDR/IVDR, Załącznik III AI Act wymienia dodatkowe przypadki wysokiego ryzyka — w zdrowiu m.in.:

  • systemy triage w stanach nagłych,

  • kategoryzacja biometryczna / rozpoznawanie emocji (z licznymi ograniczeniami i zakazami w art. 5).

Dlaczego kwalifikacja „wysokie ryzyko” ma znaczenie?

Systemy high-risk podlegają rozbudowanym wymogom, w tym m.in.:

  • Art. 10 – Zarządzanie danymi: jakość, adekwatność, reprezentatywność zbiorów, dokumentacja pochodzenia, strategie ograniczania biasu.

  • Art. 11 – Dokumentacja techniczna: przygotowana przed wprowadzeniem do obrotu i aktualizowana, aby wykazać zgodność.

  • Art. 12 – Rejestrowanie zdarzeń (logging): ślady działania umożliwiające audyt.

  • Art. 13 – Przejrzystość: tak zaprojektowana, by wdrażający mógł zrozumieć wyjścia i właściwie je zastosować; instrukcje użycia, ograniczenia, metryki wydajności.

  • Art. 14 – Nadzór ludzki: jasne mechanizmy „człowiek w pętli/na pętli” i bezpieczne obejścia.

  • Art. 15 – Solidność, dokładność, cyberbezpieczeństwo: testy, walidacje, odporność na błędy i ataki.

  • Załącznik IV – Zakres dokumentacji: m.in. opis systemu, procesu rozwoju, danych, testów, zarządzania ryzykiem.

Konsekwencja praktyczna: nawet bez publicznego ujawnienia, znaczna część „know-how” musi zostać przedstawiona organom i jednostkom notyfikowanym. Dla innowatorów to ryzyko ekspozycji informacji zastrzeżonych — a więc potrzeba strategii IP.

Harmonogram w pigułce

  • 2 lutego 2025 r. — stosowanie art. 5 (praktyki zakazane, np. social scoring, identyfikacja biometryczna w czasie rzeczywistym w przestrzeni publicznej — z wąskimi wyjątkami, predykcja przestępczości oparta wyłącznie na profilowaniu, rozpoznawanie emocji w pracy/szkole itp.).

  • Dalsze etapy — obowiązki dla modeli ogólnego przeznaczenia (GPAI), rejestry, wymogi dla high-risk, piaskownice regulacyjne; pełna stosowalność do 1 sierpnia 2027 r. (szczegóły zależą od kategorii).

Sankcje (ramowo): za naruszenia zakazów z art. 5 — nawet do 35 mln € lub 7% globalnego obrotu; za inne naruszenia — progi niższe (np. do 15 mln € lub 3%), za nieprawidłowe informacje — do 7,5 mln € lub 1%.

AI Act × MDR/IVDR: podwójna ścieżka zgodności

Dla software’u medycznego często trzeba zsynchronizować:

  • QMS wg MDR/IVDR (np. ISO 13485), zarządzanie ryzykiem (ISO 14971), cyberbezpieczeństwo (IEC 62304/62443/81001-5-1), kliniczne/pomiarowe dowody,

  • wymogi AI Act (art. 10–15, Zał. IV) — dane, dokumentacja, nadzór ludzki, logi.

Dobra praktyka: jeden spójny zestaw artefaktów (Design History File + AI Tech File), z sekcjami/załącznikami poufnymi, zarządzanymi w trybie „need-to-know” z jednostką notyfikowaną (umowy o poufności).

Dlaczego ochrona IP staje się krytyczna?

Ryzyko „wymuszonej” ujawnialności

  • Ocena zgodności przez stronę trzecią może wymagać szczegółów architektury, pipeline’u danych, metryk, procedur testowych.

  • Nawet jeśli to nie jest publikowane, krąg odbiorców rośnie (audytorzy, konsultanci, organy), co osłabia wyłączność opartą wyłącznie na tajemnicy przedsiębiorstwa.

Patent jako „zamiana” ryzyka na ochronę

  • Skoro i tak musisz ujawnić szczegóły w regulatorce, rozważ zgłoszenie patentowe, które daje silny, egzekwowalny monopol w zamian za ujawnienie rozwiązania.

  • W medycznych zastosowaniach SI wiele rozwiązań spełnia kryteria patentowalności (w EPO: wymóg „technicznego charakteru/efektu”, podejście COMVIK dla CII).

  • Uwaga na wyłączenia (art. 53(c) EPC: metody diagnostyczne/terapeutyczne stosowane na ciele człowieka/zwierzęcia wyłączone — lecz systemy/urządzenia/aplikacje i metody przetwarzania danych technicznych co do zasady mogą być patentowane).

Nie tylko patenty

  • Tajemnica przedsiębiorstwa/know-how: procedury treningu, feature engineering, strategie augmentacji, walidacji, MLOps.

  • Prawo autorskie: kod źródłowy, dokumentacja; prawa do baz danych (sui generis) dla kosztownych w wytworzeniu zbiorów.

  • Znaki towarowe: nazwy modeli/produktów (compliance wymaga zaufania — marka to aktywo).

  • Umowy licencyjne i FTO: licencje na frameworki/biblioteki, analiza „freedom-to-operate” vs. cudze patenty.

Patentowanie AI w zdrowiu — praktyczne wskazówki

  • „Techniczny efekt” i problem-solution: podkreśl wpływ na proces techniczny (np. redukcja fałszywych alarmów EKG poprzez nową obróbkę sygnału; odporność na zakłócenia; skrócenie czasu inference; mniejsze zużycie pamięci przy zachowaniu metryk klinicznych).

  • Dane jako wejście do procesu technicznego: obraz medyczny/sygnał bio w konkretnym pipeline’ie (filtry, segmentacja, normalizacja), a nie tylko „predykcja klasy X”.

  • Zależności z nadzorem ludzkim i bezpieczeństwem: opisz mechanizmy interwencji człowieka, fallbacki, self-checks — to wzmacnia „techniczną” stronę wynalazku (i jednocześnie pokrywa art. 14/15 AI Act).

  • Chronologia: złóż najpierw, publikuj potem. Utrzymuj rygor NDA. Rozważ strategię EP/PCT i priorytety (12 miesięcy).

  • Pakiety zgłoszeń: osobno architektura modelu, osobno pipeline danych/augmentacje, osobno elementy deploy (kompresja, kwantyzacja, edge). Większa elastyczność egzekwowania.

Mapa zgodności: AI Act ↔ dokumentacja ↔ IP

Wymóg AI ActCo trzeba mieć „na papierze”Działanie IP
Art. 10 Daneopisy źródeł, kryteria włączeń/wyłączeń, statystyki biasu, procedury anonimizacjiochrona DB (sui generis), tajemnica know-how dot. kuracji danych
Art. 11 + Zał. IVpełny opis systemu, procesu rozwoju, testów, zarządzania ryzykiemzgłoszenie patentowe (architektura/pipeline), NDA z NB
Art. 12 Logispecyfikacja logowania, polityki retencji, audytowalnośćbrak bezpośredniego IP, ale know-how w politykach i narzędziach
Art. 13 Przejrzystośćinstrukcja użycia, metryki, ograniczenia, interpretowalnośćochrona dokumentacji jako pr. autorskie; trade secrets metryk
Art. 14 Nadzór ludzkiscenariusze interwencji, progi eskalacji, UI/UX bezpieczeństwapatent na mechanizmy HIL/HOL/HOoL
Art. 15 Solidnośćzestaw testów, ataki adwersarialne, walidacje klinicznepatenty na metody hardeningu, tajemnica dot. benchów


Checklista dla zespołów digital health (produkt + prawo + IP)

  1. Ocena kwalifikacji: MDR/IVDR? klasa wg Reguły 11? Załącznik III AI Act?

  2. Plan zgodności: jeden „master” Tech File (MDR/IVDR + AI Act).

  3. Dane: legalność pod GDPR (podstawa, minimalizacja), jakość, representatywność, bias.

  4. Walidacja: metryki kliniczne na danych docelowej populacji; stabilność wersji (model/versioning).

  5. Nadzór ludzki: role kliniczne, alert fatigue, UI ograniczeń i niepewności.

  6. Cyber i MLOps: supply chain (biblioteki), SBOM, kontrola zmian modelu (drift).

  7. IP: audyt nowości, decyzja „patent vs. trade secret”, NDA, plan publikacji po zgłoszeniu.

  8. Kontrakty: licencje danych i modeli, prawa do wyników, klauzule poufności dla NB/partnerów.

  9. Post-market: monitoring działania, incydenty, aktualizacje; konsekwencje na gruncie AI Act/MDR.

  10. Risk & fines: matryca ryzyk prawnych, właściciele ryzyk, rezerwy/procedury.

Przykłady zastosowań i konsekwencje

  • Sepsis early-warning w ICU (IIb/III): high-risk; wymogi art. 10–15; wysoki próg dowodów klinicznych; warto opatentować pipeline detekcji i mechanizmy HIL.

  • Analiza retinopatii cukrzycowej (IIa/IIb): podobnie; IP na pre-/post-processing obrazu + robustność wobec artefaktów.

  • Triage SOR (Zał. III): high-risk nawet poza MDR; nacisk na przejrzystość, nadzór ludzki i dokumentację decyzji.

  • Aplikacja wellness bez celu medycznego: może wypaść z MDR, ale jeśli wchodzi w Zał. III lub wykorzystuje zakazane praktyki — ryzyka pozostają (art. 5!).

Wnioski

AI Act nie tylko podnosi poprzeczkę regulacyjną dla AI w zdrowiu — przekształca też ekonomikę informacji. Skoro dostawcy muszą przygotować i cyklicznie aktualizować szczegółową dokumentację oraz udostępniać ją stronom trzecim (NB, organy), oparcie przewagi wyłącznie na tajemnicy staje się mniej bezpieczne. Dobrze zaprojektowana strategia IP (patenty + know-how + prawa do baz danych + kontrakty) pozwala zabezpieczyć innowacje, jednocześnie spełniając wymogi zgodności i budując zaufanie rynku.

Rekomendacja praktyczna: po wstępnej kwalifikacji (MDR/IVDR/Zał. III) wykonaj szybki „dual track”: (i) mapowanie artefaktów pod AI Act/MDR oraz (ii) skan nowości i plan zgłoszeń patentowych, zanim ujawnisz szczegóły w cyklu oceny zgodności lub publikacjach.

FAQ

Czy każdy system AI w zdrowiu będzie „wysokiego ryzyka”?

Nie, ale znaczna część (MDR/IVDR klasy IIa–III, Zał. III) tak. Klasyfikacja zależy od celu medycznego i wpływu na decyzje kliniczne.

Czy AI Act wymaga publicznego ujawnienia kodu/modelu?

Nie. Wymaga jednak szczegółowej dokumentacji i transparentności dla oceniających i wdrażających — to zwiększa krąg odbiorców wrażliwych informacji.

Czy patentowanie jest zawsze lepsze niż tajemnica?

Nie. Gdy łatwo odtworzyć rozwiązanie po produkcie — patent bywa korzystniejszy. Gdy odtworzenie jest trudne, a ujawnienie szkodzi — rozważ tajemnicę. Często najlepsza jest strategia mieszana.

Jak EPO ocenia zgłoszenia „AI w medycynie”?

Wymagany jest techniczny charakter i efekt techniczny (np. przetwarzanie sygnału/fizycznego obrazu w celu poprawy jakości/robustności). Czyste modele matematyczne bez kontekstu technicznego — ryzyko odmowy.

Czy regulacja koliduje z RODO?

Nie — działa obok. Trzeba spełnić oba reżimy (legalność danych, minimalizacja, bezpieczeństwo, prawa pacjenta), zwłaszcza przy danych zdrowotnych.