Wpływ AI Act na sektor lifescience

Po wielomiesięcznych negocjacjach z państwami członkowskimi w grudniu 2023 roku, rozporządzenie Unii Europejskiej dotyczące sztucznej inteligencji (AI ACT) w marcu 2024 roku uzyskało zatwierdzenie Parlamentu Europejskiego.

AI ACT oczekuje na ostateczne przyjęcie i zatwierdzenie przez Radę UE, co ma nastąpić przed zakończeniem dotychczasowej kadencji. Po opublikowaniu w Dzienniku Urzędowym Unii Europejskiej ma ono wejść w życie stopniowo w ciągu 24 miesięcy.

Regulacja ma na celu ochronę praw podstawowych, demokracji, państwa prawa i zrównoważonego rozwoju środowiskowego przed AI o wysokim ryzyku, jednocześnie wspierając innowacje i pozycjonując UE jako lidera w tej dziedzinie. Ustanawia istotne obowiązki dla AI i jej operatorów, oparte na potencjalnym ryzyku i poziomie wpływu.

AI ACT ma charakter ponadsektorowy, ale jego wpływ na nauki życiowe i ochronę zdrowia jest istotny i będzie znaczący.

AI ACT a lifescience

Przedsiębiorstwa z branży lifescience mogą podlegać AI ACT, jeśli ich portfolio obejmuje technologie zależne od AI lub cyfrowe procesy oparte na AI.Narzędzia telemonitoringu, terapie cyfrowe, roboty opieki zdrowotnej, urządzenia do noszenia przez pacjentów, oprogramowanie do wystawiania recept przez dostawców opieki zdrowotnej, medyczne chatboty i różne algorytmy używane w ośrodkach opieki to tylko kilka przykładów aplikacji, które często polegają na AI, aby osiągnąć swoją funkcjonalność.

Jednak AI nie musi być wbudowana w technologię, aby regulacja miała zastosowanie. AI ACT reguluje AIniezintegrowane, które służą funkcjonalności produktu bez fizycznej integracji. Powszechne jest również stosowanie AI przez przedsiębiorstwa przed wprowadzeniem produktu farmaceutycznego na rynek lub uzyskaniem znakowania CE dla urządzenia medycznego lub w celu wsparcia tych produktów.

Zastosowania w cyklu produktu i usługi

Tam, gdzie systemy AI napędzają procesy badawczo-rozwojowe i produkcyjne w naukach życiowych, konieczne będzie uwzględnienie AI ACT. Na przykład w fazie odkrywania badań naukowych w dziedzinie lifescience coraz częściej stosuje się systemy AI do identyfikacji i walidacji cząsteczek docelowych. Narzędzia AI mogą korzystnie wpływać na badania kliniczne urządzeń medycznych, badania wydajnościowe w diagnostyce in vitro i próby leków w celu zarządzania liczbą pacjentów i ich rekrutacją. Mogą także optymalizować projektowanie badań klinicznych, podczas gdy elementy AI w druku 3D, adaptacyjnej produkcji i konserwacji przewidywanej mogą przyspieszyć fazę produkcji produktów naukowych. Kontrole jakości są również wzmacniane dzięki wykorzystaniu czujników zasilanych AI w zakładach produkcyjnych.

Wykorzystanie AI wzrasta w fazie po wprowadzeniu produktu na rynek. AI może pomagać w zbieraniu, sortowaniu, triażowaniu lub centralizacji zgłaszania niepożądanych zdarzeń, poważnych incydentów, skarg lub raportów od pacjentów lub pracowników służby zdrowia. Podobnie narzędzia wspierane przez AI rozpowszechniają się, aby ułatwić raportowanie po aktualizacjach dotyczących bezpieczeństwa, kliniczne obserwacje po wprowadzeniu na rynek, raportowanie trendów i inne działania monitorowania rynku wtórnego, które muszą prowadzić przedsiębiorstwa naukowe.

Wsparcie organizacyjne

Poza cyklem życia regulowanych produktów lub usług, przedsiębiorstwa naukowe stosują AI na co dzień, aby korzystać na rzecz pacjentów i społeczności medycznej. Specjaliści z działu zasobów ludzkich (HR) w organizacjach mogą wykorzystywać narzędzia AI do rekrutacji i selekcji talentów oraz automatyzacji czasochłonnych zadań. Dzięki temu mogą zwolnić specjalistów z działu HR, aby skoncentrowali się na decyzjach strategicznych. W zakresie zamówień na produkty naukowe specjaliści branży wykorzystują AI do zarządzania ryzykiem dostawców i cyfryzacji wprowadzania danych lub przetwarzania faktur.

Prawnicy in house coraz częściej polegają na narzędziach zarządzania kontraktami opartymi na AI, na platformach cyfrowych dostarczających porady dla swoich kolegów oraz na oprogramowaniu do badań prawnych.

W zasadzie AI jest wszędzie, a plan rozporządzenia dotyczącego SI UE obejmuje liczne jednostki biznesowe i wiele operacji w firmach farmaceutycznych i medycznych.

Trójstopniowe podejście regulacyjne

Pojęcie systemu AI w AI ACT jest szeroko interpretowane i opiera się na trójstopniowym podejściu. Definicja ta jest ściśle zgodna z pracą organizacji międzynarodowych zajmujących się AI, aby ułatwić międzynarodowe zbieżności.

Po pierwsze, system AI to system oparty na maszynie, zaprojektowany do pracy na różnych poziomach autonomii. Termin „oparty na maszynie” odnosi się do faktu, że systemy AI działają na maszynach.

System może wykazywać adaptacyjność po wdrożeniu. Adaptacyjność, jaką system AI może wykazywać po wdrożeniu, odnosi się do zdolności samoświadomości, pozwalającej na zmianę systemu w trakcie użytkowania.

Po trzecie, dla wyraźnych lub domniemanych celów, system wnioskuje z otrzymanych wejść, w jaki sposób wygenerować wyjścia (takie jak przewidywania, treść, rekomendacje lub decyzje), które mogą wpływać na środowiska fizyczne lub wirtualne. Ta zdolność do wnioskowania odnosi się do zdolności systemów AI do wywodzenia modeli lub algorytmów z danych lub wejść. Zdolność systemu SI do wnioskowania przekracza podstawową obróbkę danych i umożliwia uczenie się, rozumowanie lub modelowanie.

AI ogólnego przeznaczenia

Rozporządzenie dotyczące AI reguluje również AI ogólnego przeznaczenia, w ramach dwóch osobnych kategorii: modele AI ogólnego przeznaczenia i systemy AI ogólnego przeznaczenia.

Pojęcie modeli AI ogólnego przeznaczenia obejmuje każdy model AI, który wykazuje znaczną uniwersalność i jest zdolny do kompetentnego wykonywania szerokiego zakresu odrębnych zadań, niezależnie od sposobu wprowadzenia modelu na rynek i który może być zintegrowany z różnymi systemami lub aplikacjami. Wyłącza modele AI używane do działań badawczych, rozwojowych lub prototypowania przed ich wprowadzeniem na rynek.

Kategoria modeli AI ogólnego przeznaczenia jest wyraźnie oddzielona od pojęcia „systemów AI”, aby zapewnić pewność prawną. Te modele są zazwyczaj szkolone na dużej ilości danych, za pomocą różnych metod, takich jak samo-nadzorowane, nienadzorowane lub uczenie ze wzmocnieniem. Definicja opiera się na kluczowych cechach funkcjonalnych modelu AI ogólnego przeznaczenia. Takie cechy obejmują uniwersalność i zdolność do kompetentnego wykonywania szerokiego zakresu odrębnych zadań.

Systemy AI ogólnego przeznaczenia opierają się na modelu AI ogólnego przeznaczenia i mają zdolność do obsługi różnych celów, zarówno do bezpośredniego użytku, jak i do integracji w inne systemy AI.

Gdy model AI ogólnego przeznaczenia jest zintegrowany lub stanowi część systemu AI, należy go uznać za system AI ogólnego przeznaczenia, gdy w wyniku tej integracji ma zdolność do obsługi różnych celów. System AI ogólnego przeznaczenia może być używany bezpośrednio lub może być zintegrowany z innymi systemami AI.

Synergia prawa unijnego

Przepisy rozporządzenia dotyczącego wprowadzania na rynek, wprowadzania do użytku i używania lub wdrażania systemów AI o wysokim ryzyku są spójne z nową ramą legislacyjną Unii Europejskiej (NLF), przyjętą w 2008 roku.

AI ACT podąża tymi samymi poziomymi zasadami NLF, jak tzw. „produkty przemysłowe”, takie jak produkty budowlane, sprzęt ochrony osobistej, sprzęt radiowy, urządzenia medyczne, urządzenia gazowe, przyrządy pomiarowe i wiele innych technologii, które muszą posiadać oznakowanie CE zgodności z prawem UE.

W skrócie, podejście UE do regulowania AI polega na traktowaniu systemów AI jak każdych innych produktów przemysłowych, jednocześnie wprowadzając nowe i specyficzne dla AI obowiązki, które są opracowane wokół jego cyfrowej natury i adresują jego potencjalną nieprzewidywalność.

Ta pozycja sugeruje jednoczesne i uzupełniające stosowanie różnych aktów prawnych UE.

AI ACT ma na celu objęcie szerokiej gamy branż, ale jego wpływ na lifescience i ochronę zdrowia ma szczególne znaczenie.

Połączenie instrumentów regulacyjnych może okazać się wyzwaniem dla technologii lifescience, które obecnie podlegają istniejącym przepisom NLF UE; na przykład dotyczącego wyrobów medycznych MDR/IVDR lub przepisów dotyczących niskiego napięcia. Niektóre z tych technologii wkrótce będą objęte nadchodzącym AI ACT, ponieważ zawierają jeden lub więcej systemów AI o wysokim ryzyku.

Regulacja ma na celu ograniczenie obciążenia dla operatorów i uniknięcie ewentualnych powtórzeń. Dla systemów AI o wysokim ryzyku związanymi z produktami objętymi istniejącymi przepisami NLF UE, zgodność tych systemów AI z wymaganiami AI ACT byłaby oceniana jako część oceny zgodności przewidzianej już w obowiązującym prawie NLF. Prawdziwym testem będzie, czy koordynacja tych ocen, w tym z organami oceny zgodności, stanie się płynnym przedsięwzięciem.

AI ACT nie narusza istniejącego prawa unijnego – w szczególności w zakresie ochrony danych i konsumentów, praw podstawowych, zatrudnienia i ochrony pracowników oraz bezpieczeństwa produktu – do którego regulacja ta jest uzupełniająca.

Jest to pierwsze spojrzenie w serii analizującej konsekwencje rozporządzenia dotyczącego SI UE dla przedsiębiorstw aktywnych w dziedzinie biofarmaceutyków, wyrobów medycznych i diagnostyki in vitro. W kolejnych częściach serii skupimy się na rozszerzeniu regulacji na opiekę zdrowotną i lifescience.

Jeśli masz pytania skontaktuj się z nami na office@ipsolegal.pl lub bezpośrednio z Błażej Wągiel.

Share
Polish