Autor : Anna Rokicińska
2020-09-17 11:59
Komisja Europejska promuje rozwiązania wspierające sztuczną inteligencję (AI) w ochronie zdrowia i medycynie. Problemem w Polsce są bazy danych. Rozwiązaniem podsuwanym przez Komisję jest tzw. zaufana trzecia strona. O jakie rozwiązania chodzi? To tłumaczyła podczas Forum Ekonomicznego w Karpaczu Ligia Koronowska, menadżer projektów w Polskiej Federacji Szpitali.
Anna Rokicińska: Na jakim etapie wdrażania sztucznej inteligencji do systemu ochrony zdrowia jesteśmy?
Ligia Koronowska: Zaczynamy raczkować. A może nawet więcej. Nie wszyscy są w sektorze ochrony zdrowia świadomi, że sztuczna inteligencja w medycynie już istnieje i już jest wykorzystywana. Jeśli mówimy o diagnostyce obrazowej, to już są wykorzystywane certyfikowane algorytmy, które na przykład informują radiologa, które badania powinny być najszybciej ocenione, albo nawet już sugerują diagnozę, jak może być postawiona po obejrzeniu danego badania obrazowego. Oczywiście wciąż istnieje współpraca między algorytmami sztucznej inteligencji, a radiologami. Natomiast na świecie już są dostępne algorytmy sztucznej inteligencji, które samodzielnie stawiają diagnozę bez pieczątki.
A.R. Sztuczna inteligencja musi się uczyć na bazach danych. Im baza szersza tym „diagnoza” sztucznej inteligencji pełniejsza. Mamy z tym chyba problem?
L.K. Zdecydowanie tak. W Polsce jest problem z dostępem do danych medycznych z dokumentacji medycznej. Jeśli mówimy o anonimowych danych, to jest ten problem szczególnie jeśli podmiot leczniczy ma przekazywać te dane podmiotowi, który nie jest uczelnią wyższą czy uniwersytetem. Mamy taki zapis w ustawie o prawach pacjenta i Rzeczniku Praw Pacjenta, który blokuje przekazywanie takich danych. Tworzy się szara strefa, bo w zasadzie nie wiadomo czy można przekazywać te anonimowe dane, czy też nie. To jest duży bloker, który powinniśmy zaadresować. Natomiast jeśli mówimy o danych osobowych pacjenta, to warto byłoby wspomnieć o projekcie, który jest promowany przez Komisję Europejską, czyli takim projekcie dawstwa danych. Chodzi o nauczenie pacjenta tego, że tak samo, jak oddaje krew czy szpik może oddawać swoje dane medyczne, przekazywać swoje dane medyczne i w ten sposób może mieć wpływ na rozwój medycyny, na zwiększenie liczby badań naukowych, rozwój nowoczesnych technologii. Tutaj wysiłek to jedno kliknięcie, co jest mało obciążające dla pacjenta, a może wesprzeć rozwój nowych technologii w medycynie. To też pozwala na kompletownie danych pacjenta, bo jak mamy już dostęp do dataset-ów , to one – ta dokumentacja medyczna – mają ograniczony zakres. Przykład to rozwijające algorytmy opierające się na badaniach obrazowych. Mamy tylko dokumentację opierającą się na badaniach obrazowych, a żeby rozwijać coraz bardziej zaawansowane algorytmy sztucznej inteligencji, potrzebujemy więcej danych o pacjencie. Chodzi o skompletowane dane. Jeśli mówimy o kompletnych danych, to dostęp do takich jest w Polsce już zupełnie ograniczony.
A.R. Ale co z bezpieczeństwem tych danych? My przecież boimy się ich udostępniać z powodu ewentualnego niepożądanego ich wykorzystania np, przez różne firmy.
L.K. I to jest bardzo dobre pytanie. Odpowiedzią na nie jest stworzenie tak zwanej zaufanej trzeciej strony na przykład podmiotu, fundacji, która będzie gromadzić te dane i która będzie dawała absolutną pewność pacjentowi, że te dane będą wykorzystywane tylko do celów naukowych, badawczo-rozwojowych. Natomiast w żaden sposób nie będą one przekazywane podmiotom do tego nieuprawnionym. Poza tym, ze względu na RODO, pacjent za każdym razem, jeśli taka zaufana trzecia strona chciałaby przekazać dane osobowe pacjenta kolejnej firmie zewnętrznej, to pacjent musi każdorazowo wyrazić na to zgodę. Musi zostać o tym poinformowany. Dotyczy to tego, jakie dane mają zostać przekazane, komu, na jaki czas, dlaczego itd. Jeśli działamy w obrębie prawa, pacjent za każdym razem musi wyrazić taką zgodę. Mało tego, musimy być pewnie, że został on poinformowany w transparentny i zrozumiały dla niego sposób.
A.R. Pani mówi o przypadkach udostępniania danych w obrębie prawa, ale my najbardziej boimy się tego pozaprawnego wykorzystania, choćby kradzieży.
L.K. Kradzież, to oczywiście bezprawie. Tu nie mówimy o modelu promowanym przez Komisję Europejską zaufanej trzeciej strony, tylko mówimy o działaniu poza granicami prawa. Kradzież danych zdarzała się i pewnie będzie zdarzać. Natomiast trzeba robić wszystko, by zapewnić jak najwyższe standardy bezpieczeństwa dla ochrony takich danych, jakimi są dane medyczne.
A.R. A czy na świecie są takie państwa, które wiodą prym we wdrażaniu sztucznej inteligencji w medycynie i ochronie zdrowia?
L.K. Trudno tutaj wskazać jednego lidera. Jeśli mówimy na przykład o dostępie do danych, to w Estonii jest taki projekt zbierania danych do państwowego repozytorium danych. Dzięki temu algorytmy sztucznej inteligencji czy start-upy, które się zajmują sztuczną inteligencją , mają dużo prostszy start, no bo mają dostęp do danych, którymi tę sztuczną inteligencję trenują. W zasadzie w każdym kraju europejskim teraz jest wyścig, jeżeli chodzi o sztuczną inteligencję. Również Komisja Europejska widzi tę potrzebę i nie chce by Europa została w tyle za Stanami Zjednoczonymi czy innymi krajami. Być może te kraje mają właśnie mniej blokerów by rozwijać sztuczną inteligencję.
A.R. A jakie są u nas przeszkody w rozwoju sztucznej inteligencji?
L.K. Brak dostępu do danych. Jeśli już jest ten dostęp do danych, to dane są słabej jakości. Nie są wystandaryzowane, czyli nie możemy porównać jednego dokumentu medycznego do drugiego. Nawet jeśli zawierają podobne informacje, to nie są zapisane w podobny sposób. To będzie dla sztucznej inteligencji nieczytelne. Przeszkodą jest też niedostateczna edukacja personelu medycznego i społeczeństwa w zakresie roli sztucznej inteligencji w medycynie. Ogromnym blokerem w kontekście bezpieczeństwa użytkowania takich algorytmów w medycynie jest niedostosowana certyfikacja dla wyrobów medycznych. Chcąc certyfikować nasz algorytm sztucznej inteligencji, żeby uzyskał oznakę CE, to możemy certyfikować sam algorytm, jako wyrób medyczny. Natomiast sam ten proces certyfikacji jest niedostosowany tak nowoczesny rozwiązań, jak sztuczna inteligencja. Sztuczna inteligencja cały czas się uczy i cały czas musi się zmieniać. Te przeszkody musimy usuwać z drogi sztucznej inteligencji. Chodzi o korzyści dla pacjenta i o jego bezpieczeństwo.
Polecamy także:
Eksperci angażowani przez ABM poza ustawą o zamówieniach
Transfer technologii: które sprzęty medyczne wzięto z kosmonautyki?