Autor : Redakcja
2023-05-15 12:41
Sztuczna inteligencja może zrewolucjonizować opiekę zdrowotną poprzez poprawę diagnostyki chorób, znalezienie lepszych sposobów leczenia pacjentów i objęcie opieką większej liczby osób. Ale rozwój AI może również mieć negatywny wpływ na zdrowie - twierdzą eksperci.
Międzynarodowa grupa lekarzy i ekspertów zajmujących się ochroną zdrowia dołączyła do apelu o moratorium nad pracami badawczo-rozwojowymi nad sztuczną inteligencją. Uważają oni, że jest to konieczne aż do czasu uregulowania kwestii prawnych oraz technologicznych. Nie kwestionują potencjału transformacyjnego dla społeczeństwa, jaki tkwi w rozwoju sztucznej inteligencji, w tym w medycynie i zdrowiu publicznym, ale niektóre jej rodzaje i zastosowania, szczególnie samodoskonaląca się sztuczna inteligencja (AI, AGI), stanowią „egzystencjalne zagrożenie dla ludzkości” - napisali na łamach BMJ Global Hearth, którego obszerne fragmenty cytuje The Guardian. Sztuczna inteligencja może zrewolucjonizować opiekę zdrowotną poprzez poprawę diagnostyki chorób, znalezienie lepszych sposobów leczenia pacjentów i objęcie opieką większej liczby osób. Ale rozwój AI może również mieć negatywny wpływ na zdrowie - twierdzą specjaliści z Wielkiej Brytanii, USA, Australii, Kostaryki i Malezji. Piszą, że zagrożenia dotyczące medycyny i opieki zdrowotnej obejmują możliwość wystąpienia błędów sztucznej inteligencji i wyrządzenia krzywdy pacjentowi, problemy z prywatnością i bezpieczeństwem danych oraz wykorzystanie sztucznej inteligencji w sposób, który pogłębi nierówności społeczne i zdrowotne.
Eksperci wskazali trzy typy potencjalnych zagrożeń związanych z AI i jej nieodpowiednim wykorzystaniem oraz brakiem wiedzy o możliwym wpływie na społeczeństwo.
Pierwszy z nich wynika ze zdolności sztucznej inteligencji do gromadzenia i analizowania ogromnych baz danych, w tym danych osobowych. Rodzi to ryzyko wykorzystania ich do manipulowania społeczeństwami, a w konsekwencji obalenia demokracji. Przywołują znane i potwierdzone już przykłady jak np. wpływ na wyniki wyborów prezydenckich w USA w 2016 roku. Jak piszą, szybko rosnące techniczne możliwości zniekształcania lub fałszywego przedstawiania rzeczywistości za pomocą systemów opartych na sztucznej inteligencji mogą osłabiać demokrację, a co za tym idzie napędzać podziały i konflikty społeczne, co ma wpływ na zdrowie publiczne. Ponadto inwigilacja oparta na AI może być wykorzystywana przez rządy i inne podmioty do bardziej bezpośredniej kontroli i ucisku ludzi. I nie chodzi tylko o Chiny, gdzie narzędzia inwigilacji są wykorzystywane, ale o – jak piszą – co najmniej 75 innych krajów, nie tylko z rozwiniętymi reżimami wojskowymi, ale i uznawanymi za kraje liberalnej demokracji.
Analiza i raport z badań diagnostycznych w 60 sekund? Z AI to możliwe
Drugi zestaw zagrożeń dotyczy rozwoju śmiercionośnych autonomicznych systemów broni, takich jak choćby drony, które zdolne będą do lokalizowania, wybierania i atakowania bez kontroli i nadzoru człowieka. Mogą stać się w takich warunkach śmiercionośną bronią na masową skalę.
Trzeci zestaw zagrożeń wynika z utraty miejsc pracy, który będzie towarzyszyć powszechnemu wdrażaniu sztucznej inteligencji. Eksperci dostrzegają korzyści wynikające z eliminowania pracy niebezpiecznej czy powtarzalnej, ale bezrobocie, które powiększy się w związku z tym, nie będzie lepszym rozwiązaniem. Także z powodu niekorzystnych skutków zdrowotnych, które będą nieuniknione. Nie ma jak dotąd szczegółowych analiz, jak społeczeństwa mogą zareagować na świat, w którym praca stała się zbędna lub niedostępna. Nie ma też strategii, które przygotowano by na tę okoliczność, a które pomogłyby eliminować problemy zdrowotne, będące wynikiem masowego bezrobocia.
Jak uważają eksperci, przyszłe efekty rozwoju AI będą zależeć od obecnych decyzji politycznych oraz od skuteczności instytucji regulacyjnych, które muszą tak działać, by minimalizować ryzyko a maksymalizować korzyści. Nalegają więc, by unikać destrukcyjnego "wyścigu zbrojeń AI".