Autor : Lidia Raś
2023-06-27 09:03
- Czy nie powinniśmy jako społeczność zawodowa, zawalczyć, by nie zostać zastąpionym przez AI, także dla dobra pacjenta? Gdybym chciał podejść w sposób kreatywny do tematu, to bym potraktował tę sytuację jako zimny prysznic dla lekarzy. Pora zacząć się doskonalić, stawać się lepszymi specjalistami, bardziej dostępnymi dla pacjentów. Lekarz powinien mieć w sobie to „coś”, w co pacjent wierzy i co daje mu poczucie bezpieczeństwa, a to wymaga też stworzenia pewnych warunków - mówi psychiatra, prof. Marek Krzystanek w rozmowie z CowZdrowiu.pl.
Lidia Raś: Panie Profesorze, czy są jakieś szczególne cechy, które powinien posiadać dobry lekarz psychiatra oraz psychoterapeuta?
prof. Marek Krzystanek: Oczywiście. By być dobrym psychiatrą trzeba spełnić dwa warunki. Po pierwsze w pacjencie widzieć człowieka a nie chorobę, po drugie - nie bać się chorób psychicznych. Psychiatrą nie może być osoba, która odczuwa w sobie jakieś napięcie czy lęk w spotkaniu z chorobą psychiczną. Jeśli chodzi o psychoterapeutów, to jest tyle szkół psychoterapii, że po prostu trzeba szukać podejścia, które najlepiej będzie odpowiadać konkretnym predyspozycjom osobowościowym. Są takie psychoterapie, w których bardziej wchodzi się w relacje albo nie wchodzi się wcale; są bardziej humanistyczne, wymagające wręcz podejścia filozoficznego, albo takie w których konieczne jest teoretyczne przygotowanie. Są też podejścia, w których niepożądana jest teoria, ale zaletą jest „czysta karta”. Sam przeszedłem trzy szkolenia, żeby znaleźć szkołę psychoterapii odpowiednią dla mnie.
Powiedział pan, że trzeba „widzieć człowieka a nie chorobę”.
Tak, bo psychiatria jest najbardziej humanistyczną dziedziną medycyny. Bazujemy na kontakcie z człowiekiem, więc trzeba go po prostu lubić. Swobodne prowadzenie rozmowy jest niezbędne żeby stworzyć most komunikacyjny, relację, dzięki której człowiek otworzy się przed nami i będzie chciał opowiedzieć o swoich przeżyciach. Do psychiatry przychodzą ludzie z różnymi historiami, każdy człowiek jest inny i tylko pełne zaufanie pacjenta daje możliwość poznania intymnych przecież spraw, rozpoznania problemu, postawienia diagnozy i propozycji terapii.
Moje pytania, jak się pan domyśla, były wprowadzeniem do pytania o miejsce sztucznej inteligencji w tej relacji. Użył pan wielokrotnie słów kluczy: dostrzeganie i lubienie człowieka, rozumienie, zaufanie, dociekanie… Czy to wszystko, co powinno się mieścić w podejściu człowieka lekarza, zaoferuje też lekarz AI w postaci aplikacji? Czy te cechy i umiejętności można przenieść na narzędzie, nawet najlepsze?
Myślę, że psychiatria może być ostatnią z dziedzin, gdzie lekarz człowiek zostanie zastąpiony przez lekarza AI. Nie jest bowiem problemem tworzenie algorytmów przetwarzających dane, wyciągających wnioski, samouczących się. Problemem jest wydobywanie tych danych z człowieka. I być może właśnie ten czynnik ludzki może na jakiś czas ocalić moją specjalność przed zastąpieniem przez lekarza AI. Ale zagrożenie jest i to dla większości zawodów intelektualnych na świecie. Za kilka, może kilkanaście lat staną się niepotrzebne. Skrajną głupotą ze strony ludzi jest tworzenie tego typu sztucznej inteligencji, która miałaby zastąpić człowieka, bo jest to po prostu działanie przeciwko ludzkości. Wszystko to zdąża w kierunku wykreowania bytu, który będzie inteligentniejszy i zdolniejszy od nas, który z definicji nas przerośnie i dla którego możemy, jako ludzie, okazać się zbędni.
Będzie bytem autonomicznym?
Tak. Jestem przeciwnikiem rozwoju sztucznej inteligencji bez ograniczeń, ale widzimy wszyscy, że ten pęd jest nie do zatrzymania. Ludzie nie chcą uczyć się na błędach i doświadczeniach takich wynalazców jak choćby Alfred Nobel, czy J. Robert Oppenheimer, którzy po fakcie zrozumieli, że przyczynili się do stworzenia śmiercionośnych narzędzi. Jesteśmy w takim momencie, gdy jeszcze coś możemy zrobić. Widzę jakąś sprzeczność w tym co nas otacza. Z jednej strony walczymy z wykluczeniami różnego rodzaju, a z drugiej, w tempie piramidalnym, dążymy do wykluczenia znacznej części ludzkości. Jeśli sztuczna inteligencja stanie się samoświadoma, a to nie jest już niemożliwe, co wtedy? Były już takie doświadczenia, prowadzone przez Google’a w zakresie voicebotów, które mogą się ze sobą porozumiewać. W pewnym momencie zdecydowano o wyłączeniu dwóch maszyn, kiedy zaczęły rozmawiać między sobą językiem, który same wytworzyły. A co jeśli wyłączenie AI po wpuszczeniu do sieci nie będzie możliwe? Takie działania jakie obserwujemy obecnie, mogą doprowadzić do całkowitego wykluczenia człowieka. Ci, którzy nad tym pracują, podświadomie właśnie do tego dążą.
Powiedział pan, że nie jest problemem przetworzenie pozyskanych danych, ale że trudnością jest zdobycie ich.
Tak, ponieważ jest to kwestia wytworzenia relacji. Człowiek musi dopasować się do człowieka. Kiedy ze sobą rozmawiamy, mamy kontakt intelektualny, emocjonalny, czasem dotykowy czy poprzez feromony, ale ogólnie jest to poznanie wielozmysłowe. Gdy w kontakcie pozostaje człowiek i sztuczna inteligencja, to ta druga zbiera głównie dane słuchowe i wzrokowe. A to wydaje się być w psychiatrii nieco za mało. Kontakt z drugim człowiekiem to złożony proces, i pozostaje wątpliwość czy do końca go rozumiemy, czy kontakt nie zachodzi też w inny sposób. Być może nasz umysł też jest zmysłem i odbieramy coś ponad to, co zna dzisiejsza nauka. Jestem przekonany, że relacja człowiek-człowiek ma w sobie coś więcej niż człowiek-sztuczna inteligencja. Ludzie ze swej natury zachowują się w sposób irracjonalny, podczas gdy wszystkie algorytmy sztucznie stworzone, będą logiczne. Czynnik błędu, który jest motorem rozwoju ludzkości, jest czymś co zaprzecza logice algorytmów AI. Właśnie w tym widzę szansę, że AI mogłaby nie przerosnąć człowieka jeśli idzie o zdolność pozyskiwania i tworzenia nowych danych. Ale mam świadomość, że może udać się stworzyć algorytmy irracjonalne, które będą właśnie wybierać tę najmniej prawdopodobną opcję z losowymi rozwiązaniami.
Przemysław Czuma: To znak czasów. Do duetu pacjent - lekarz dołącza AI
Czy „doktor czat GPT”, aplikacje, voiceboty mogą być niebezpieczne?
Trzeba jasno postawić pytanie: w którą stronę chcemy iść, bo opcji jest kilka. Możemy pogodzić się z tym, że lekarz/terapeuta AI będzie lepszy od człowieka, więc go zastąpi, zostawiając tylko wybitnych lekarzy do „karmienia” AI i tworzenia algorytmów, ale i oni za jakiś czas mogą okazać się niepotrzebni. Inna opcja może zakładać, że lekarz AI będzie aplikacją pomocniczą, która odciąży człowieka, by ten, ostatecznie weryfikował diagnozę i leczenie sugerowane przez AI, być może bez kontaktu z pacjentem. I jest wariant trzeci, w którym decydenci stwierdzą, że jednak nie chodzi o to, by stworzyć idealistyczny świat funkcjonujący jak perfekcyjna maszyna, w którym ludzie nie będą potrzebni, więc zamkniemy temat, by nie prowadzić do samoeliminacji ludzkich zawodów.
Jestem zainteresowany sztuczną inteligencją, by zwiększyć skuteczność diagnoz i tworzyć podpowiedzi terapeutyczne dla lekarzy. W tej chwili np. tworzymy aplikację, która ma wykorzystywać algorytmy sztucznej inteligencji do wczesnego rozpoznawania chorób okulistycznych. To bardzo ciekawe, ale świadomie ograniczone zastosowanie, które ma być wsparciem dla lekarza okulisty, jednak docelowo nie ma go zastąpić. Można powiedzieć, że z tej triady opcji, o której wspomniałem, wybieram drugi model. Opublikowałem nawet taki manifest w Europejskim Towarzystwie Psychiatrycznym, w którym napisałem, że my jako lekarze powinniśmy na poziomie rozwiązań prawnych, systemowych wprowadzić ograniczenia w używaniu AI, sprowadzając ją do roli narzędzia wspomagającego lekarza, żeby nie stać się zawodem wykluczonym. To wg mnie nie powinna być inicjatywa oddolna, ale działania na poziomie Naczelnej Izby Lekarskiej, Ministerstwa Zdrowia czy nawet wyżej – WHO.
Jeśli chodzi o bezpieczeństwo korzystania z takich aplikacji, są instytucje oddelegowane do tego, by nadzorować i weryfikować nowe rozwiązania tak, by to nie była wolna amerykanka. Z dużym zainteresowaniem śledzę i współuczestniczę w inicjatywach Ministerstwa Zdrowia, które stworzyło koszyk aplikacji medycznych. Przechodzą one aktualnie proces certyfikacji, w której uczestniczy też Naczelna Izba Lekarska z NIL IN (projekt Naczelnej Izby Lekarskiej, skupiający społeczność lekarzy innowatorów – red.). Ministerstwo Zdrowia będzie te aplikacje weryfikować pod kątem bezpieczeństwa i skuteczności oraz certyfikować na określony czas, po którym certyfikat należałoby odnawiać. To jest realizacja tej bliskiej mi idei, gdzie człowiek cały czas nadzoruje i kontroluje AI, będąc jej ostatecznym weryfikatorem.
Będę adwokatem diabła i spytam: a może rosnące zainteresowanie korzystaniem z aplikacji rozpoznających depresję czy inne zaburzenia, to naturalna konsekwencja rozwoju technologii, słabości systemu ochrony zdrowia i podejścia lekarzy do pacjentów, często pozostawiającego wiele do życzenia? Dług popandemiczny rozrósł się, co widać m.in. po ogromnym wzroście rozmaitych zaburzeń psychicznych, kolejki do specjalistów są gigantyczne. I wtedy z pomocą przychodzi sztuczna inteligencja. Jest czat GPT i rozmaite aplikacje, które zachęcają do skorzystania, przyciągając komunikatami niczym z reklamy: zasługujesz, by ktoś cię wysłuchał, jestem do twojej dyspozycji, możesz na mnie o każdej porze liczyć. Ludzie skuszą się łatwością dostępu, natychmiastowością reakcji, słowami, które dają wsparcie… I – nie wierzę, że to mówię – empatią, bo podobno nauczenie jej AI też jest możliwe, a której niestety często brakuje lekarzom.
Absolutnie się z tym zgadzam. Tym bardziej pytam, czy nie powinniśmy jako społeczność zawodowa zawalczyć, żeby nie zostać zastąpionym przez AI, także dla dobra pacjenta. Musimy tak zmienić system opieki medycznej, by być konkurencyjnym wobec maszyny. Gdybym chciał podejść w sposób kreatywny do tematu, to bym potraktował tę sytuację jako zimny prysznic dla lekarzy. Może pora powiedzieć: jest taka potencjalna szansa, że lekarz AI zostanie wprowadzony i będzie lepszy od człowieka. Pora zacząć się doskonalić, stawać się lepszymi specjalistami, bardziej dostępnymi dla pacjentów. Lekarz powinien mieć w sobie to „coś”, w co pacjent wierzy i co daje mu poczucie bezpieczeństwa, a to wymaga też stworzenia pewnych warunków. Dlatego potrzeba zmian systemowych. Jeśli wizyta powinna trwać 45 minut, ale lekarz ma przyjąć dziennie 30 osób, to tych specjalnych warunków nie da się stworzyć. Specjalista w Skandynawii może dziennie przyjąć ambulatoryjnie 3 pacjentów i z każdym ma spędzić 45 minut. Tam system opieki zdrowotnej działa w ten sposób. Tymczasem u nas wielu lekarzy po 5 latach przyjmowania 30 pacjentów dziennie popada w rutynę, lecząc 3 lekami i zadając każdemu te same pytania. Jeśli mogliby przyjmować dziennie 3 pacjentów, to ich staranność, wnikliwość, świeżość umysłu, gotowość do ciągłego poszerzania wiedzy na pewno byłaby stymulowana i wtedy nie byłoby potrzeby protezowania lekarza i wprowadzania lekarza AI.
Niestety mam wrażenie, że nie ma reakcji ze strony naszej grupy zawodowej. Kolejki są długie, lekarze leczą czasami w sposób schematyczny, nie są elastyczni, nie kreują nowych rozwiązań, działają rutynowo, a w takiej sytuacji przegrają z AI w przedbiegach. Wyczuwam wręcz podekscytowanie czatem GPT, jakby lekarze nie rozumieli, że stworzymy sobie przeciwnika, z którym nie wygramy oraz fascynację, że mogą wprowadzić dowolne pytanie do czatu GPT i dostaną odpowiedź bez otwierania podręcznika. Problem w tym, że powinni ją znać, i powinni umieć samodzielnie diagnozować i leczyć. Jeśli maszyna podpowiada mi coś, na co nie wpadłem, to jest sygnał dla mnie. Powinienem był to wiedzieć - na tym polega moja rola jako lekarza. W tym kontekście AI może odegrać właśnie rolę wspomagania lekarza, ale ostatecznie to człowiek ma leczyć. Jestem przekonany, że lekarz jest w stanie dostrzec coś, czego maszyna nie ma w zbiorze big data. To zresztą jest podstawą mojego optymizmu. Ale bez zmiany postawy wszystkich lekarzy, zapewni to pozostanie w zawodzie wyłącznie wybitnym klinicystom.
Dariusz Tarabasz: Medycy muszą uważać, by nie uzależnić się od AI
Voiceboty mogą być przydatne do stawiania diagnozy. Potrafię zaakceptować fakt, że wywiad od pacjenta zbierze sztuczna inteligencja. Byłoby to z pewnością jakimś operacyjnym, czasowym ułatwieniem dla lekarza.
Absolutnie tak. Sam stworzyłem system, po przejściu którego, pacjent uzyska diagnozę screeningową, precyzyjną w 99 proc. Przygotowałem wywiad ekspercki, w którym znajdują się jasno sformułowane pytania zamknięte. Jest on też dostępny w Internecie, więc każdy kto ma taką potrzebę może sprawdzić, czy objawy, które u siebie obserwuje mogą być oznaką depresji czy innego zaburzenia psychicznego. Oczywiście diagnozę przesiewową weryfikuje lekarz na wizycie w kontakcie bezpośrednim, ponieważ stoi za nim doświadczenie kliniczne, które jest taką „nakarmioną” inteligencją. Takie stawianie wstępnej diagnozy przez AI ma sens. Dołączyłem to rozwiązanie do systemu Cyberdoktor, który stworzyłem i zaczyna on funkcjonować w systemie Centrów Zdrowia Psychicznego. Pacjent, który rejestruje w nim wizytę, zanim trafi do lekarza, przechodzi przez algorytmy wywiadu eksperckiego, które generują diagnozę przesiewową. Naprowadza ona lekarza, skraca czas dojścia do diagnozy ostatecznej, ułatwia pracę i pozwala więcej czasu poświęcić pacjentowi.
To jest system oparty o sztuczną inteligencję?
On przygotowuje dane do systemu AI. To raczej proste algorytmy decyzyjne, trudno nawet nazwać je sztuczną inteligencją. Ta aplikacja stanowi jeden z modułów systemu Cyberdoktor, ale zbiera dane, dotyczące odpowiedzi pacjenta na poszczególne pytania, które tworzą jego profil objawowy. Aplikacja zapamiętuje zmianę w objawach związaną z interwencją leczniczą co zasila sztuczną inteligencję. Ale to jest logiczne rozwiązanie, przydatne lekarzowi, ma cel, nie rodzi więc poczucia, że coś wymyka się spod kontroli. Lekarz jest końcowym elementem, który to wszystko nadzoruje. Jeśli damy pacjentom voiceboty, które mają podejmować decyzje diagnostyczne, to zmniejszy to zapotrzebowanie na lekarzy i psychoterapeutów, ale ta sama grupa będzie na bieżąco monitorować i weryfikować diagnozę oraz terapię sugerowaną przez AI. Voicebot mógłby diagnozować i sugerować terapię/lek, ale by pobrać receptę, niezbędna byłaby weryfikacja diagnozy przez lekarza człowieka.
Niezmiennie wierzę w to, że człowiekowi może przyjść do głowy sposób leczenia, na który nikt wcześniej nie wpadł. Czat AI nie wytwarza nowych rzeczy, składa odpowiedzi z wcześniejszych danych. To człowiek wytworzył te dane i bardzo bym nie chciał, by ten czynnik ludzki został zatracony. Przychodzą do mnie ludzie, którzy mówią, że wszyscy już rozłożyli ręce w ich przypadku, a ja wymyślam całkiem nowe sposoby leczenia farmakologicznego. I one działają. Robię to na bazie wiedzy teoretycznej, znanych publikacji, doświadczenia klinicznego i inteligencji umysłu biologicznego, którego uproszczeniem jest inteligencja cyfrowa. Wpada mi do głowy rozwiązanie, którego nie stosowano i proponuję leczenie „szyte na miarę”, spersonalizowaną farmakoterapię. Gdybym miał partnera w postaci lekarza AI, to nakarmiłbym go tą wiedzą, którą on wykorzysta w przyszłości. Ale wszystko zaczyna się od pomysłu człowieka. Dlatego musimy obronić swoją pozycję jako twórcy nowej wiedzy. Nie chciałbym, żeby zastąpił mnie Marek Krzystanek AI.
prof. dr hab. n. med. i n. o zdr. Marek Krzystanek, psychiatra, seksuolog i psychoteraputa poznawczo-behawioralny. Kierownik Kliniki Rehabilitacji Psychiatrycznej Śląskiego Uniwersytetu Medycznego w Katowicach i lekarz prowadzący oddziałów dziennych rehabilitacji psychiatrycznej w Górnośląskim Centrum Medycznym im. prof. Leszka Gieca SUM w Katowicach. Innowator, wynalazca i prekursor telemedycyny w Polsce. Tworzy nowe aplikacje mobilne dla sektora e-health/mobile health wykorzystujące rzeczywistość wirtualną i algorytmy sztucznej inteligencji dla poprawy zdrowia oraz dla jego optymalizacji i utrzymania w nurcie antiaging. Autor ponad 300 publikacji naukowych. Przewodniczący Naukowej Sekcji Telepsychiatrii Polskiego Towarzystwa Psychiatrycznego. Zainteresowania pozanaukowe: filozofia fenomenologiczna, psychologia głębi, buddyzm zen i gnostycyzm. Uprawia amatorsko klasyczny boks, gra na puzonie, australijskim didgeridoo i hangdrum. Jest aktywnym poetą, opublikował osiem tomików poezji.
W CowZdrowiu do listopada 2023. Wcześniej od 2014 do marca 2023 r. w „Dzienniku Gazecie Prawnej”, gdzie kierowała serwisem gazetaprawna.pl. Ponadto zajmowała się tematyką społeczną, ekologiczną, prawną i kulturalną oraz nagrywała podcasty i wideo. Wcześniej związana m.in. z Polska Press i Mediami Regionalnymi.
//