Unijny Akt o sztucznej inteligencji (AI Act) tworzy jednolite ramy regulacyjne dla systemów SI w całej UE. Kluczowym założeniem jest podejście oparte na ryzyku: im wyższe ryzyko dla zdrowia, bezpieczeństwa czy praw podstawowych, tym dalej idące obowiązki dla dostawców (providers) i użytkowników wdrażających (deployers). Część przepisów wchodzi etapami do 1 sierpnia 2027 r., przy czym zakazy dotyczące systemów o niedopuszczalnym ryzyku (art. 5) obowiązują już od 2 lutego 2025 r.
Szeroka definicja systemu AI z art. 3 ust. 1 („system maszynowy… wnioskuje, jak generować na podstawie otrzymanych danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne”) obejmuje zdecydowaną większość współczesnych rozwiązań software’owych w e-zdrowiu — od algorytmów klasyfikujących obrazy po systemy wspomagania decyzji klinicznych.
Niniejszy przegląd podsumowuje najistotniejsze przepisy dla cyfrowego zdrowia i pokazuje, dlaczego ochrona własności intelektualnej (IP) staje się strategicznie ważniejsza w dobie obowiązkowej dokumentacji, audytów i ocen zgodności.
Co trafia do „wysokiego ryzyka”?
Zgodnie z art. 6 AI Act system AI jest wysokiego ryzyka m.in. gdy:
-
jest produktem lub elementem bezpieczeństwa produktu objętym unijnymi aktami harmonizacyjnymi z Załącznika I, i
-
ten produkt/system wymaga oceny zgodności przez stronę trzecią przed wprowadzeniem do obrotu/użytkowania.
Dla cyfrowego zdrowia najważniejsze akty z Załącznika I to:
-
Rozporządzenie (UE) 2017/745 (MDR) — wyroby medyczne,
-
Rozporządzenie (UE) 2017/746 (IVDR) — wyroby medyczne do diagnostyki in vitro.
W MDR Reguła 11 klasyfikuje oprogramowanie:
-
dostarczające informacje do decyzji diagnostycznych/terapeutycznych → zwykle klasa IIa/IIb/III (w zależności od wpływu na zdrowie),
-
monitorujące procesy fizjologiczne → co do zasady min. IIa.
Klasa urządza faktyczny obowiązek zaangażowania jednostki notyfikowanej (third-party conformity assessment).
Poza wyrobami MDR/IVDR, Załącznik III AI Act wymienia dodatkowe przypadki wysokiego ryzyka — w zdrowiu m.in.:
-
systemy triage w stanach nagłych,
-
kategoryzacja biometryczna / rozpoznawanie emocji (z licznymi ograniczeniami i zakazami w art. 5).
Dlaczego kwalifikacja „wysokie ryzyko” ma znaczenie?
Systemy high-risk podlegają rozbudowanym wymogom, w tym m.in.:
-
Art. 10 – Zarządzanie danymi: jakość, adekwatność, reprezentatywność zbiorów, dokumentacja pochodzenia, strategie ograniczania biasu.
-
Art. 11 – Dokumentacja techniczna: przygotowana przed wprowadzeniem do obrotu i aktualizowana, aby wykazać zgodność.
-
Art. 12 – Rejestrowanie zdarzeń (logging): ślady działania umożliwiające audyt.
-
Art. 13 – Przejrzystość: tak zaprojektowana, by wdrażający mógł zrozumieć wyjścia i właściwie je zastosować; instrukcje użycia, ograniczenia, metryki wydajności.
-
Art. 14 – Nadzór ludzki: jasne mechanizmy „człowiek w pętli/na pętli” i bezpieczne obejścia.
-
Art. 15 – Solidność, dokładność, cyberbezpieczeństwo: testy, walidacje, odporność na błędy i ataki.
-
Załącznik IV – Zakres dokumentacji: m.in. opis systemu, procesu rozwoju, danych, testów, zarządzania ryzykiem.
Konsekwencja praktyczna: nawet bez publicznego ujawnienia, znaczna część „know-how” musi zostać przedstawiona organom i jednostkom notyfikowanym. Dla innowatorów to ryzyko ekspozycji informacji zastrzeżonych — a więc potrzeba strategii IP.
Harmonogram w pigułce
-
2 lutego 2025 r. — stosowanie art. 5 (praktyki zakazane, np. social scoring, identyfikacja biometryczna w czasie rzeczywistym w przestrzeni publicznej — z wąskimi wyjątkami, predykcja przestępczości oparta wyłącznie na profilowaniu, rozpoznawanie emocji w pracy/szkole itp.).
-
Dalsze etapy — obowiązki dla modeli ogólnego przeznaczenia (GPAI), rejestry, wymogi dla high-risk, piaskownice regulacyjne; pełna stosowalność do 1 sierpnia 2027 r. (szczegóły zależą od kategorii).
Sankcje (ramowo): za naruszenia zakazów z art. 5 — nawet do 35 mln € lub 7% globalnego obrotu; za inne naruszenia — progi niższe (np. do 15 mln € lub 3%), za nieprawidłowe informacje — do 7,5 mln € lub 1%.
AI Act × MDR/IVDR: podwójna ścieżka zgodności
Dla software’u medycznego często trzeba zsynchronizować:
-
QMS wg MDR/IVDR (np. ISO 13485), zarządzanie ryzykiem (ISO 14971), cyberbezpieczeństwo (IEC 62304/62443/81001-5-1), kliniczne/pomiarowe dowody,
-
wymogi AI Act (art. 10–15, Zał. IV) — dane, dokumentacja, nadzór ludzki, logi.
Dobra praktyka: jeden spójny zestaw artefaktów (Design History File + AI Tech File), z sekcjami/załącznikami poufnymi, zarządzanymi w trybie „need-to-know” z jednostką notyfikowaną (umowy o poufności).
Dlaczego ochrona IP staje się krytyczna?
Ryzyko „wymuszonej” ujawnialności
-
Ocena zgodności przez stronę trzecią może wymagać szczegółów architektury, pipeline’u danych, metryk, procedur testowych.
-
Nawet jeśli to nie jest publikowane, krąg odbiorców rośnie (audytorzy, konsultanci, organy), co osłabia wyłączność opartą wyłącznie na tajemnicy przedsiębiorstwa.
Patent jako „zamiana” ryzyka na ochronę
-
Skoro i tak musisz ujawnić szczegóły w regulatorce, rozważ zgłoszenie patentowe, które daje silny, egzekwowalny monopol w zamian za ujawnienie rozwiązania.
-
W medycznych zastosowaniach SI wiele rozwiązań spełnia kryteria patentowalności (w EPO: wymóg „technicznego charakteru/efektu”, podejście COMVIK dla CII).
-
Uwaga na wyłączenia (art. 53(c) EPC: metody diagnostyczne/terapeutyczne stosowane na ciele człowieka/zwierzęcia wyłączone — lecz systemy/urządzenia/aplikacje i metody przetwarzania danych technicznych co do zasady mogą być patentowane).
Nie tylko patenty
-
Tajemnica przedsiębiorstwa/know-how: procedury treningu, feature engineering, strategie augmentacji, walidacji, MLOps.
-
Prawo autorskie: kod źródłowy, dokumentacja; prawa do baz danych (sui generis) dla kosztownych w wytworzeniu zbiorów.
-
Znaki towarowe: nazwy modeli/produktów (compliance wymaga zaufania — marka to aktywo).
-
Umowy licencyjne i FTO: licencje na frameworki/biblioteki, analiza „freedom-to-operate” vs. cudze patenty.
Patentowanie AI w zdrowiu — praktyczne wskazówki
-
„Techniczny efekt” i problem-solution: podkreśl wpływ na proces techniczny (np. redukcja fałszywych alarmów EKG poprzez nową obróbkę sygnału; odporność na zakłócenia; skrócenie czasu inference; mniejsze zużycie pamięci przy zachowaniu metryk klinicznych).
-
Dane jako wejście do procesu technicznego: obraz medyczny/sygnał bio w konkretnym pipeline’ie (filtry, segmentacja, normalizacja), a nie tylko „predykcja klasy X”.
-
Zależności z nadzorem ludzkim i bezpieczeństwem: opisz mechanizmy interwencji człowieka, fallbacki, self-checks — to wzmacnia „techniczną” stronę wynalazku (i jednocześnie pokrywa art. 14/15 AI Act).
-
Chronologia: złóż najpierw, publikuj potem. Utrzymuj rygor NDA. Rozważ strategię EP/PCT i priorytety (12 miesięcy).
-
Pakiety zgłoszeń: osobno architektura modelu, osobno pipeline danych/augmentacje, osobno elementy deploy (kompresja, kwantyzacja, edge). Większa elastyczność egzekwowania.
Mapa zgodności: AI Act ↔ dokumentacja ↔ IP
Wymóg AI Act | Co trzeba mieć „na papierze” | Działanie IP |
---|---|---|
Art. 10 Dane | opisy źródeł, kryteria włączeń/wyłączeń, statystyki biasu, procedury anonimizacji | ochrona DB (sui generis), tajemnica know-how dot. kuracji danych |
Art. 11 + Zał. IV | pełny opis systemu, procesu rozwoju, testów, zarządzania ryzykiem | zgłoszenie patentowe (architektura/pipeline), NDA z NB |
Art. 12 Logi | specyfikacja logowania, polityki retencji, audytowalność | brak bezpośredniego IP, ale know-how w politykach i narzędziach |
Art. 13 Przejrzystość | instrukcja użycia, metryki, ograniczenia, interpretowalność | ochrona dokumentacji jako pr. autorskie; trade secrets metryk |
Art. 14 Nadzór ludzki | scenariusze interwencji, progi eskalacji, UI/UX bezpieczeństwa | patent na mechanizmy HIL/HOL/HOoL |
Art. 15 Solidność | zestaw testów, ataki adwersarialne, walidacje kliniczne | patenty na metody hardeningu, tajemnica dot. benchów |
Checklista dla zespołów digital health (produkt + prawo + IP)
-
Ocena kwalifikacji: MDR/IVDR? klasa wg Reguły 11? Załącznik III AI Act?
-
Plan zgodności: jeden „master” Tech File (MDR/IVDR + AI Act).
-
Dane: legalność pod GDPR (podstawa, minimalizacja), jakość, representatywność, bias.
-
Walidacja: metryki kliniczne na danych docelowej populacji; stabilność wersji (model/versioning).
-
Nadzór ludzki: role kliniczne, alert fatigue, UI ograniczeń i niepewności.
-
Cyber i MLOps: supply chain (biblioteki), SBOM, kontrola zmian modelu (drift).
-
IP: audyt nowości, decyzja „patent vs. trade secret”, NDA, plan publikacji po zgłoszeniu.
-
Kontrakty: licencje danych i modeli, prawa do wyników, klauzule poufności dla NB/partnerów.
-
Post-market: monitoring działania, incydenty, aktualizacje; konsekwencje na gruncie AI Act/MDR.
-
Risk & fines: matryca ryzyk prawnych, właściciele ryzyk, rezerwy/procedury.
Przykłady zastosowań i konsekwencje
-
Sepsis early-warning w ICU (IIb/III): high-risk; wymogi art. 10–15; wysoki próg dowodów klinicznych; warto opatentować pipeline detekcji i mechanizmy HIL.
-
Analiza retinopatii cukrzycowej (IIa/IIb): podobnie; IP na pre-/post-processing obrazu + robustność wobec artefaktów.
-
Triage SOR (Zał. III): high-risk nawet poza MDR; nacisk na przejrzystość, nadzór ludzki i dokumentację decyzji.
-
Aplikacja wellness bez celu medycznego: może wypaść z MDR, ale jeśli wchodzi w Zał. III lub wykorzystuje zakazane praktyki — ryzyka pozostają (art. 5!).
Wnioski
AI Act nie tylko podnosi poprzeczkę regulacyjną dla AI w zdrowiu — przekształca też ekonomikę informacji. Skoro dostawcy muszą przygotować i cyklicznie aktualizować szczegółową dokumentację oraz udostępniać ją stronom trzecim (NB, organy), oparcie przewagi wyłącznie na tajemnicy staje się mniej bezpieczne. Dobrze zaprojektowana strategia IP (patenty + know-how + prawa do baz danych + kontrakty) pozwala zabezpieczyć innowacje, jednocześnie spełniając wymogi zgodności i budując zaufanie rynku.
Rekomendacja praktyczna: po wstępnej kwalifikacji (MDR/IVDR/Zał. III) wykonaj szybki „dual track”: (i) mapowanie artefaktów pod AI Act/MDR oraz (ii) skan nowości i plan zgłoszeń patentowych, zanim ujawnisz szczegóły w cyklu oceny zgodności lub publikacjach.