Logowanie

Zaloguj za pomocą
PWZ i hasła

Zaloguj przez
login.gov

Administratorem Państwa danych osobowych jest Okręgowa Izba Lekarska w Łodzi z siedzibą w Łodzi (93-005) przy ul. Czerwonej 3. Administrator wyznaczył inspektora ochrony danych osobowych, z którym można skontaktować się pod adresem e-mail: iod@oil.lodz.pl

Więcej informacji na temat przetwarzania danych osobowych znajdą Państwo na naszej stronie internetowej w Polityce prywatności.

15 listopada 2024

Nowy Kodeks Etyki Lekarskiej – czy rzeczywiście jest nowy? – cz. III

Przedostatnia część cyklu poświęcona jest postępowaniu lekarza wobec pacjenta. W nowym Kodeksie Etyki Lekarskiej (nKEL) nie dokonano zbyt wielu modyfikacji względem nadal obowiązujących norm. Korekty mają charakter dostosowujący brzmienie przepisów kodeksu do obowiązującego nazewnictwa oraz standardów prawnych i społecznych.

adw. Amadeusz Małolepszy

Jednak to właśnie w rozdziale poświęconym postępowaniu lekarza wobec pacjenta umieszczono novum w postaci uregulowań poświęconych wykorzystaniu sztucznej inteligencji (SI) w procesie diagnostycznym i terapeutycznym. Temu zagadnieniu i problemom z nim związanych poświęcone będzie niniejsze opracowanie.

 

Sztuczna inteligencja w postępowaniu diagnostycznym, leczniczym lub zapobiegawczym

Zaaprobować należy ruch naprzeciw współczesności. Nie jest to falstart, bo świat oparty na SI to nie futurystyczna wizja, to dzieje się już dziś. Stan wiedzy pacjentów i lekarzy o sztucznej inteligencji jest jednak ograniczony. Są to zagadnienia nowe, których nie rozumiemy, przez co budzą (uzasadniony) niepokój. Z biegiem czasu zapewne ulegnie to zmianie. Nauczymy się korzystać z narzędzi opartych na sztucznej inteligencji. Okres przejściowy, w którym znajdujemy się, warto wykorzystać do wypracowania modelu, zasad postępowania oraz korzystania ze wsparcia sztucznej inteligencji.

Zasadnicza zmiana brzmienia art. 12 Kodeksu Etyki Lekarskiej wydaje się być największą zmianą wchodzącą w życie od 1 stycznia 2025 r. Przepis ten stanowi o tym, że lekarz może w postępowaniu diagnostycznym, leczniczym lub zapobiegawczym korzystać z algorytmów sztucznej inteligencji przy spełnieniu następujących warunków:

  • poinformowania pacjenta, że przy stawianiu diagnozy lub w procesie terapeutycznym będzie wykorzystana sztuczna inteligencja,
  • uzyskania świadomej zgody pacjenta na zastosowanie sztucznej inteligencji w procesie diagnostycznym lub terapeutycznym,
  • zastosowania algorytmów sztucznej inteligencji, które są dopuszczone do użytku medycznego i posiadają odpowiednie certyfikaty,
  • ostateczną decyzję diagnostyczną i terapeutyczną zawsze podejmuje lekarz.

Regulacja ta wyprzedza ustawodawstwo powszechne. Aktualnie wiodącym aktem prawnym w dziedzinie sztucznej inteligencji jest Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji), tekst mający znaczenie dla EOG (Dz.U. UE. L. z 2024 r. poz. 1689). Rozporządzenie to, bezpośrednio stosowane w Polsce, wejdzie w życie od 2 sierpnia 2026 r., a część norm będzie obowiązywała od lutego i sierpnia 2025 r.

Powołany przepis nKEL określa warunki, których spełnienie jest niezbędne, aby móc skorzystać z algorytmów sztucznej inteligencji. Przesłanki zawarte w art. 12 nKEL muszą być spełnione łącznie. Oznacza to, że brak któregokolwiek uniemożliwia sięgnięcie po algorytmy SI w procesie diagnostycznym, leczniczym lub zapobiegawczym.

Jak informować pacjentów o wykorzystaniu sztucznej inteligencji?

Wykorzystanie sztucznej inteligencji wymaga poinformowania pacjenta oraz uzyskania jego świadomej zgody (art. 12 pkt 1 i 2 nKEL). Nasuwa się pytanie, jaką treść ma zawierać informacja i o czym należy pacjenta poinformować. Informacja powinna być zrozumiała dla pacjenta. I tutaj może pojawić się problem. Jak bowiem przedstawić drugiej osobie w sposób dla niej zrozumiały informacje o czymś, czego samemu się nie do końca rozumie lub nie jest się pewnym. Łatwo wskazać, że informacja dla pacjenta nie powinna zawierać wyłącznie terminologii informatyczno-medycznej i przedstawiać korzyści i ryzyka związane z zastosowaniem sztucznej inteligencji w postępowaniu diagnostycznym, leczniczym lub zapobiegawczym. Z tych ogólnych sformułowań niewiele jednak wynika, ale pewne jest, że zdawkowe poinformowanie pacjenta nie spełni warunku, o którym mowa w art. 12 pkt 1 nKEL. Im bardziej skąpa informacja, tym trudniej przyjąć, że pacjent wyraził świadomą zgodę na zastosowanie sztucznej inteligencji w procesie diagnostycznym lub terapeutycznym.

Informacja dla pacjenta nie musi mieć formy pisemnej. Podobnie jak w przypadku zgody. W art. 16 ust. 8 nKEL wskazano, że zgoda może być wyrażona ustnie albo przez takie zachowanie się, które w sposób niebudzący wątpliwości wskazuje na wolę poddania się czynnościom proponowanym przez lekarza albo brak takiej woli. Przyjęcie formy pisemnej powyższych oświadczeń ma niebagatelne znaczenie dla celów dowodowych w razie sporu.

Zgoda, o której mowa w art. 12 pkt 2 nKEL, jest zgodą na zastosowanie sztucznej inteligencji w procesie diagnostycznym lub terapeutycznym. Nie jest ona równoznaczna ze zgodą na zaproponowane leczenie. Dalsza procedura wymaga odrębnego wyrażenia woli przez pacjenta, jak również odrębnego poinformowania go o korzyściach i ryzyku.

W nKEL sztuczna inteligencja ma wspomagać człowieka, a nie zastępować go. Rozwiązanie to zasługuje na aprobatę. Wyniki analizy uzyskane przy wykorzystaniu algorytmów sztucznej inteligencji każdorazowo muszą być ocenione przez lekarza, który podejmuje ostatecznie decyzję diagnostyczną lub terapeutyczną.

Jak zatem traktować wsparcie sztucznej inteligencji? Czy ma być na równi np. z opisem radiologicznym lub wynikami morfologii, czy może na równi z opinią innego lekarza (konsylium)? Kodeks Etyki Lekarskiej nie daje odpowiedzi. Wynikiem działania algorytmów sztucznej inteligencji najprawdopodobniej będą propozycje działań diagnostycznych, terapeutycznych lub zapobiegawczych, czyli najbardziej powinien przypominać opinię lekarza.

Otwarte jest pytanie o to, czy lekarz powinien uzasadnić podjętą przez siebie decyzję w przedmiocie wyników przedstawionych przez sztuczną inteligencję. Innymi słowy, dlaczego uznał je za słuszne lub dlaczego stwierdził, że są nieprzydatne. Uzasadnienie ukazuje proces myślowy, który doprowadził lekarza do podjęcia decyzji. Łatwo odrzucić zaproponowane rozwiązania, które nie będą zgodne z obowiązującymi przepisami prawa lub obowiązującymi zasadami etycznymi. Nie da się także wykluczyć, że zaproponowane rozwiązania będą radykalne bądź niemożliwe do zrealizowania. Trudniej natomiast uzasadnić wybór jednej opcji spośród trzech zaproponowanych. Proces eliminacji można przeprowadzić przy wykorzystaniu sztucznej inteligencji, ale jego efekty nie muszą doprowadzić do przedstawienia wyłącznie jednego rozwiązania, a nawet gdyby, to decyzję o jego zastosowaniu podejmuje lekarz.

Sięgnięcie w postępowaniu diagnostycznym, terapeutycznym lub zapobiegawczym po algorytmy sztucznej inteligencji pozostaje w gestii lekarza, ale pacjent ma także prawo o to wnioskować. Można nawet zaryzykować tezę, że pacjenci, jako lepiej zorientowani w tematyce SI, będą oczekiwali jej wykorzystania w procesie leczniczym. Lekarz z kolei musi taką prośbę uszanować, albowiem obowiązkiem lekarza jest respektowanie prawa pacjenta do świadomego udziału w podejmowaniu decyzji dotyczących jego zdrowia (art. 14 ust. 1 nKEL).

Trzeba tu zaznaczyć, że nie każde narzędzie korzystające ze SI będzie mogło być wykorzystane w postępowaniu lekarskim. W art. 12 pkt 3 nKEL stanowi się, że można korzystać jedynie z tych algorytmów, które są dopuszczone do użytku medycznego i posiadają odpowiednie certyfikaty. Brak regulacji prawnych na szczeblu krajowym, jak i UE określających wymogi, których spełnienie upoważnia do uzyskania certyfikatu oraz podmiotów uprawnionych do wydawania takich dokumentów powoduje, że warunek zastrzeżony w nKEL nie jest możliwy do spełnienia.

Dokumentacja medyczna a sztuczna inteligencja – co powinno się w niej znaleźć?

Przepisy nKEL milczą w zakresie dokumentowania procesu wykorzystania algorytmów sztucznej inteligencji w postępowaniu diagnostycznym, terapeutycznym lub zapobiegawczym. Milczą też na ten temat przepisy rozporządzenia Ministra Zdrowia z 6 kwietnia 2020 r. w sprawie rodzajów, zakresu i wzorów dokumentacji medycznej oraz sposobu jej przetwarzania (t.j. Dz.U. z 2024 r., poz. 798). Dokumentacja medyczna wydaje się jednak naturalnym miejscem, w którym powinny znaleźć się informacje na temat wykorzystania sztucznej inteligencji.

Opis zastosowania algorytmów SI powinien wskazywać na spełnienie warunków, o których mowa w art. 12 nKEL. Powinna znaleźć się tam wzmianka o udzielonej pacjentowi informacji oraz wzmianka o świadomej zgodzie wyrażonej przez pacjenta na wykorzystanie SI. Powinny także znaleźć się w nim dane, które zostały przedstawione do analizy przez SI, a także wyniki analizy. Nadto należałoby zamieścić informacje o wykorzystanym narzędziu informatycznym oraz o certyfikatach dopuszczających je do użytku medycznego. To wszystko mogłoby znajdować się w wygenerowanym raporcie stanowiącym załącznik do historii choroby. Ostatnim elementem, który powinien być odnotowany, jest decyzja lekarza o skorzystaniu lub odmowie skorzystania z propozycji wygenerowanych przez sztuczną inteligencję.

Panaceum 11/2024

Strona korzysta z plików cookie w celu realizacji usług. Możesz określić warunki przechowywania lub dostępu do cookie w Twojej przeglądarce lub konfiguracji usługi.