Autor : Lidia Raś
2023-06-12 10:00
- W najbliższym czasie medyczna AI będzie funkcjonowała przede wszystkim jako systemy wspomagania decyzji i na razie nie zastąpi lekarza. Natomiast trzeba zdać sobie sprawę, że lekarz, który będzie z niej korzystać, zastąpi w przyszłości tego, który się na to nie zdecyduje - mówi dr Przemysław Czuma w rozmowie z CowZdrowiu.
Lidia Raś: Jak pan skorzystał dziś w pracy ze sztucznej inteligencji?
dr Przemysław Czuma: Odpowiem z przymrużeniem oka: Jedyną sztuczną inteligencją, z której korzystam na co dzień, jest asystent głosowy Googla’e w telefonie komórkowym oraz od niedawna ChatGPT. Mówiąc jednak poważnie, sporo się obecnie mówi o postępach AI w medycynie. Kiedy przegląda się serwisy społecznościowe, można wręcz odnieść wrażenie, że sztuczna inteligencja reguluje już większość dziedzin, i że jej rozwiązania są w zasięgu ręki także w medycynie. Jako lekarz praktyk widzę to jednak trochę inaczej. Owszem, doszliśmy do etapu, w którym szuka się sposobów przeniesienia rozwiązań teoretycznych do praktyki, ale na szeroką skalę te rozwiązania nie są wdrożone, a już na pewno nie w standardowej opiece zdrowotnej. I, jak podejrzewam, jeszcze jakiś czas to się nie zmieni. Natomiast możliwości, które stoją za postępem technicznym, są olbrzymie. Określenie, że będzie to przełom, naprawdę nie jest na wyrost. Uczenie maszynowe wkroczy do ochrony zdrowia i już widać, że te dziedziny medycyny, w których ważna dla diagnostyki jest analiza obrazów, a więc radiologia, kardiologia, dermatologia w najbliższym czasie będą podlegać znacznym przeobrażeniom.
Co dla pana, lekarza praktyka, byłoby przełomem?
Śledzę bacznie to, co się dzieje w medycynie jeśli chodzi o sztuczną inteligencję. Wydaje mi się jednak, że pierwszymi jaskółkami zmian będą rozwiązania, które nie dotyczą bezpośrednio samego leczenia. Początek będzie związany raczej z automatyzacją, ułatwiającą funkcjonowanie i wykonującą powtarzalne czynności, których jest mnóstwo w praktyce lekarskiej. Być może będą to systemy rejestracji czy czatboty odpowiadające na podstawowe pytania pacjentów, dotyczące chorób i zabiegów.
Taka szybka porada?
Tak. Wśród członków stowarzyszenia Sztuczna Inteligencja w Medycynie, które zorganizowałem dwa lata temu, jest znakomity specjalista AI prof. Bartosz Ziółko, który zajmuje się systemami rozpoznawania mowy wykorzystywanymi np. w czatbotach. Zastanawialiśmy się wspólnie na jednym ze spotkań Stowarzyszenia, jakie są możliwości profilowania takiego bota pod kątem konkretnego ośrodka. Wprowadzając dane, zawierające opis wykonywanych zabiegów, czat mógłby -zamiast lekarza- informować jak wygląda określona operacja, ile trwa rehabilitacja, jak przebiega, jak długo pacjent musi zostać w szpitalu, co do niego zabrać itp. Wydaje się, że takie rozwiązanie jest na wyciągnięcie ręki. Na inne jeszcze trochę trzeba poczekać.
Jak to poczekać? AI zdaje egzaminy, potrafi opisać zdjęcie RTG, niemal powszechne jest wrażenie, że choćby w radiologii mamy już sukces…
To poczucie bierze się z “bańki”, w której funkcjonujemy, dlatego trzeba być jej świadomym. Śledząc wiadomości na przykład w sieci społecznościowej LinkdIn odnoszę wrażenie, że jako Polska jesteśmy światowym liderem sztucznej inteligencji. Tymczasem jeśli spojrzeć na to z boku, nie mamy obecnie aplikacji AI, która byłaby systemowo wykorzystywana choćby w 10 procentach publicznych placówek szpitalnych czy ambulatoryjnych; wdrożonej np. jako narzędzie wspomagania radiologa. Pod względem liczby znaczących publikacji naukowych czy patentów, jesteśmy na jednym z ostatnich miejsc w Europie. Prowadzą Chiny i USA, ale nawet w Stanach Zjednoczonych oprócz tego, że powstał taki czy inny efektywny algorytm, konkretów w praktyce klinicznej na szeroką skalę brak. Droga od innowacyjnego pomysłu do sukcesu, czyli wdrożenia rozwiązania, wcześniej poprzedzonego udowodnieniem jego skuteczności, bywa długa. Szczególnie w medycynie. Mimo wielu rozwiązań, także w radiologii, na razie jeszcze nie wykorzystuje się ich powszechnie w diagnostyce. Rozwijany w USA od ponad dekady system sztucznej inteligencji „Watson” również miał być przełomem. Ogromne oczekiwania towarzyszyły wykorzystaniu go między innymi w onkologii, jako systemu wspomagającego decyzje kliniczne. Mimo początkowej ekscytacji, Watson zawiódł. Powodów było wiele: podpowiedzi nie zawsze były czytelne i trafne. Do tego doszedł problem ze sposobem dostarczania informacji. Monity podsyłane lekarzowi przez AI powodowały rozproszenie i zmęczenie, a nie dodawały specjalnie nowej informacji. Podkreślę raz jeszcze: jesteśmy na bardzo ciekawym etapie, gdy nowe rozwiązania się tworzą, a koncepcje podejścia do nich są wypracowywane. Osiągnęliśmy kamień milowy w postaci umiejętności tworzenia skutecznych algorytmów, teraz trzeba będzie nauczyć się zastosować je w praktyce i „zintegrować” ze środowiskiem lekarskim.
To znaczy?
Rozwiązania AI muszą mieć akceptację osób z nich korzystających, w tym wypadku lekarzy i całego personelu medycznego. Na przykład nie tylko jakie wyniki, ale w jaki sposób otrzymają oni opis badań, też ma niebagatelne znaczenie. Sztuczna inteligencja nie stanie się przynajmniej w nadchodzących kilku latach w pełni autonomicznym “bytem”, który “podrzuci” gotowy wynik, a lekarz go bezkrytycznie zaakceptuje. W najbliższym czasie medyczna AI będzie funkcjonowała przede wszystkim jako systemy wspomagania decyzji i na razie nie zastąpi lekarza. Natomiast trzeba zdać sobie sprawę, że lekarz, który będzie z niej korzystać, zastąpi w przyszłości tego, który się na to nie zdecyduje. Mamy do czynienia z systemami, które potencjalnie mają zdolność uczenia się, mają natychmiastowy dostęp do pełnej bazy wiedzy, mogą być wkrótce jeszcze bardziej precyzyjne, mają szybszą reakcję niż człowiek. Ludzki organizm ma swoje ograniczenia, a automat z dużą mocą obliczeniową, nie będzie ich miał. Jestem przekonany, że to, co mówię może być odbierane pesymistycznie, ale oceniając racjonalnie, nie da się tego uniknąć. Jest taka książka, którą bardzo lubię, „Superinteligencja. Scenariusze, strategie, zagrożenia” Nicka Bostroma. Nie pamiętam w tej chwili, kto jest autorem żartobliwego komentarza, czy sam Bostrom, czy Harari, iż każdy wizjoner przepowiada zmiany w ciągu nadchodzących 30 lat, ponieważ jest to wystarczająco blisko, by pobudzić ludzką wyobraźnię i jednocześnie wystarczająco daleko, by nikt go z tych wizji nie rozliczył (śmiech - red.). Prędzej czy później jednak maszyna będzie sprawniejsza niż człowiek fizycznie i intelektualnie, jest to nieuniknione. To zapewne spowoduje likwidację niektórych “tradycyjnych” zawodów, choć może w medycynie niekoniecznie w pierwszym rzucie. Zawody pielęgniarskie i chirurdzy na pewno na razie nie muszą się niczego obawiać, ale na specjalności typu sekretarka medyczna, zapotrzebowanie niewątpliwie spadnie. Istnieją scenariusze, które zapowiadają, iż do końca 2040 sztuczna inteligencja może przyczynić się do likwidacji ogółem ok. 30 proc. miejsc pracy. Jeśli to prawda, czekają nas gwałtowne zmiany na rynku zatrudnienia.
A czy środowisko medyczne jest tego świadome?
No i to jest właśnie problem, bo nie za bardzo. Świadomość lekarzy na temat AI nie jest zbyt wysoka, to nie jest powszechny temat rozmów. Między innymi właśnie z tego powodu założyliśmy Polskie Stowarzyszenie Sztuczna Inteligencja w medycynie, które jest interdyscyplinarnym środowiskiem, skupiającym osoby z szerokiego kręgu specjalności m.in. informatyków, prawników i lekarzy. Dodam, że ci ostatni nie stanowią większości. Chcemy wspólnie śledzić co się dzieje w technologii medycznej wraz z ludźmi zainteresowanymi podobną tematyką, by móc się tymi informacjami dzielić. Jest to ruch, który sam z siebie wychodzi już z różnymi inicjatywami, związanymi z praktycznym wykorzystywaniem AI. Mamy np. grupę programistów, zainteresowanych tworzeniem rozwiązań, próbujemy robić na razie jeszcze niezbyt skomplikowane aplikacje. Jesteśmy w ciekawym momencie dziejowym - zapewne w przyszłości, gdy technologia okrzepnie, duże firmy zaczną przejmować rynek, ale na początkowym etapie każdy może testować i wprowadzać nowe rozwiązania. By nie być gołosłownym: członkiem stowarzyszenia jest Marcin Szeliga, który jest autorem podręczników o AI i doświadczonym praktykiem. Razem zastanawiamy się obecnie nad ciekawą aplikacją rozpoznającą kąt położenia panewki endoprotezy oraz pracujemy nad projektem rozpoznawania trudnych czasem do wykrycia złamań kości w obrębie nadgarstka. Planujemy też zajęcia, które umożliwią samodzielne tworzenie studentom medycyny i lekarzom prostych rozwiązań w oparciu o AI. Z kolei dzięki młodemu lekarzowi Jakubowi Kuflowi, będziemy publikować monografię o sztucznej inteligencji. Mam nadzieję na zaangażowanie większej liczby lekarzy w tego typu działania.
A czemu medycy nie są zainteresowani w szerszym stopniu?
Jest kilka przyczyn. Po pierwsze obciążenie pracą, które sprawia, że zawsze brakuje na wszystko czasu. Po drugie, niemniej istotne: za mało, moim zdaniem, mówi się o nadchodzących zmianach. Przyszli lekarze nie mają dostępu do tej wiedzy jako elementu nauczania, a o wykorzystaniu algorytmów w medycynie powinni się już uczyć, bo na pewno się z tym spotkają w życiu zawodowym. Programy studiów są poszerzane o wiedzę specjalistyczną z biochemii, chemii itp., ale nie o AI, choć to wiedza, która na pewno przyda się w nieodległej przyszłości. Chyba tylko jedna uczelnia medyczna poświęca czas tej tematyce i jest to Uniwersytet Medyczny we Wrocławiu. Jeśli kogoś pomijam - przepraszam i cieszę się, jeśli tego typu inicjatyw jest więcej.
Należy być świadomym, że śledzenie na bieżąco wszystkich zmian w aktualnej wiedzy medycznej jest obecnie w zasadzie niewykonalne nawet dla najbardziej pracowitego i inteligentnego lekarza. Pacjent z kolei już teraz może zapytać AI w zasadzie o wszystko: o każdy lek, każdą chorobę, każdy zabieg i uzyskać w miarę kompetentną odpowiedź. O ile do tej pory dr Google był wyśmiewany nie bez przyczyny, tak teraz chat GPT można zacząć traktować jako znacznie bardziej zaawansowane źródło informacji. Grupa doskonale zorientowanych co do własnych dolegliwości pacjentów się poszerzy, co niewątpliwie będzie wyzwaniem dla lekarzy, którzy przecież muszą znać się na daleko szerszym spectrum wiedzy medycznej. Może się okazać, że w przypadku jakiejś rzadko spotykanej jednostki chorobowej będą ustępowali wiedzą chorym. Asymetria informacji, która kiedyś funkcjonowała pomiędzy lekarzem a pacjentem zacznie się balansować, bo ci drudzy z racji łatwiejszego dostępu do wiedzy będą coraz lepiej poinformowani. Uważam, iż jest to po prostu znak czasów - pojawia się trzeci gracz. Oprócz duetu: pacjent - lekarz, także AI. Odnalezienie się w takim trójkącie dla niektórych nie będzie łatwe.
Kto będzie w tym układzie odpowiedzialny za diagnozę? Powszechna jest opinia, że prawo będzie bezradne wobec AI.
Część z tych opinii wynika z personifikowania sztucznej inteligencji, a to jednak są tylko algorytmy, czyli obliczenia. Tymczasem fraza „sztuczna inteligencja” narzuca trochę takie skojarzenia. Rozumiem naturalnie trudności regulacyjne, szczególnie efekt „czarnej skrzynki”, czyli braku możliwości wytłumaczenia, dlaczego osiągnięto taki a nie inny rezultat, wprowadzając do systemu określone dane. Jeśli nie do końca wiadomo skąd wziął się wynik czyli diagnoza, to jest to problem. Z kolei oczekiwanie, że algorytmy będą zrozumiała i przejrzyste, w moim odczuciu jest tylko częściowo spełnialne. Jesteśmy w momencie, gdy systemy obliczeniowe są nie do ogarnięcia dla przeciętnego człowieka. Wielość zmiennych, danych, powoduje, że AI musi być w pewnym stopniu niezrozumiała. Trzeba się liczyć z tym, że nawet twórca algorytmu nie będzie potrafił w pełni uzasadnić wyniku algorytmu, który sam stworzył. Z drugiej strony lekarz informujący o diagnozie, której nie potrafi uzasadnić i wytłumaczyć pacjentowi, dlaczego jest taka a nie inna? Absurd! Ale przecież i dziś jako lekarze musimy zaakceptować pewien, czasem wysoki stopień niepewności stawianej diagnozy, przewidywanej skuteczności leczenia, czy mechanizmu działania leku.
Tylko że kiedy mówi się o etycznej stronie AI to właśnie możliwość zrozumienia decyzji jest jednym z kluczowych wymogów.
Jak na razie w świetle prawa to lekarz odpowiada za leczenie pacjenta, niezależnie od tego z jakich narzędzi korzysta. Może jednak dojść do sytuacji, w której to narzędzie, używane w dobrej wierze, zadziała nieprawidłowo np. z powodu niedopatrzenia producenta. Gdy dopuszcza się określony system, musi on się wykazać najwyższą skutecznością, by lekarz mógł mu zaufać. Kiedy jednak się zepsuje, zacznie podawać złe wyniki, a jako leczący jestem tego nieświadomy, to przecież nie mogę za to odpowiadać. Jeden na milion nóż laserowy też się może zepsuć, ale to nie znaczy, że nie należy z niego korzystać. Mimo pewnej odrębności rozwiązań opartych na sztucznej inteligencji, zasada wprowadzenia algorytmów do leczenia powinna być podobna, jak w przypadku innych narzędzi w medycynie.
A propos narzędzi AI. Czy robotyka medyczna mieści się w tym obszarze?
Robotyka medyczna nie jest tożsama ze sztuczną inteligencją. Robot to przyrząd, który na przykład pozwala na przeniesienie ruchów chirurga na pacjenta. Wiem, że profesor Nawrat, pionier polskiej robotyki medycznej, członek Rady Naukowej naszego Stowarzyszenia, który widzi AI właśnie jako dział robotyki w tym miejscu głośno zgłosiłby odrębne zdanie, ale po to właśnie spotykamy się i dyskutujemy w PSSIM (śmiech -red.). W sztucznej inteligencji istotny jest algorytm, który oczywiście może wspomagać obsługę robota. Jest to kolejny krok w rozwoju, w przyszłości roboty prawdopodobnie stopniowo nabędą autonomię dzięki AI, choć myślę że na początku zaliczymy kilka spektakularnych wpadek.
Dlaczego?
Z każdą nową technologią jest tak, że musi ona dojrzeć. Wokół robotyki panuje obecnie niesamowity „hype”, szum… Można odnieść wrażenie, że wszyscy kupują lub planują zakup robota operacyjnego, bo jest to nobilitujące, szczególnie, jak odnoszę wrażenie, dla placówek niepublicznych. Ktoś jednak będzie się musiał poświęcić sporo czasu i zdrowia, by nauczyć się obsługi takich urządzeń. Jestem chirurgiem i zdaję sobie sprawę, czym jest i jak wygląda krzywa uczenia. Można naturalnie przeprowadzić kilka zabiegów pod okiem specjalisty, natomiast dalej, ciągle na etapie początkowym, błędy są nieuchronne. Jeśli zderzymy to z wysokimi oczekiwaniami pacjentów (szczególnie zamożniejszych skuszonych obiecującą technologią), oczekujących spektakularnych efektów oraz brak powikłań, to mamy gotową mieszankę wybuchową, która zaowocuje spektakularnymi wpadkami nagłośnionymi w mediach. Oziębi to zapewne nastroje na pewien czas, ale z pewnością nie zatrzymania zmian.
Dr Przemysław Czuma: chirurg, specjalista ortopedii i traumatologii, zajmujący się m.in. endoprotezoplastyką stawów z wykorzystaniem najnowszych osiągnięć implantologii oraz rekonstrukcją skomplikowanego mechanizmu stopy ludzkiej. Pomysłodawca, założyciel i organizator Polskiego Stowarzyszenia "Sztuczna Inteligencja w Medycynie" , absolwent MBA w ochronie zdrowia na Politechnice Śląskiej
Czytaj też:
Informatyzacja – co z repozytoriami i zgodą na procedurę?
Zaburzenia odżywiania: czatbot zastąpił infolinię. Ale szkodził
W CowZdrowiu do listopada 2023. Wcześniej od 2014 do marca 2023 r. w „Dzienniku Gazecie Prawnej”, gdzie kierowała serwisem gazetaprawna.pl. Ponadto zajmowała się tematyką społeczną, ekologiczną, prawną i kulturalną oraz nagrywała podcasty i wideo. Wcześniej związana m.in. z Polska Press i Mediami Regionalnymi.
//