Czy można ufać sztucznej inteligencji?

Fot. Getty Images/iStockphoto
Atutem serialowego dr. House’a była umiejętność łączenia pozornie niepowiązanych faktów oraz brak emocji przy ich interpretowaniu. Dokładnie takie walory ma sztuczna inteligencja, wykorzystywana coraz częściej w medycynie. Wie więcej niż człowiek. Czy może mu zagrozić? To bardzo prawdopodobne.
Oliwia Tarasewicz-Gryt 2018-09-18 12:50

O sztucznej inteligencji (AI) sporo się dziś mówi w różnych kontekstach. Mamy już inteligentne domy, samochody i systemy rekomendacji produktów, skrojone na miarę klienta. Istotą inteligencji jest zdolność uczenia się i adaptacji do nowych warunków. Użycie tego określenia w odniesieniu do maszyn nie jest wcale nadużyciem. One także potrafią się uczyć, również na własnych błędach i samodzielnie podejmować decyzje. Tak zwane maszynowe uczenie pozwala im stale poszerzać zasób wiedzy na temat diagnostyki poszczególnych chorób. Mają ogromną moc obliczeniową potrzebną do zdobywania wiedzy i przetwarzania danych. Na przykład Watson, opracowany w IBM, wykorzystuje połączenie algorytmów do przetwarzania języka naturalnego, wyszukiwania informacji, reprezentacji wiedzy, wnioskowania automatycznego i uczenia maszynowego. Można z nim rozmawiać. Zawiera 2880 rdzeni (przeciętny współczesny komputer ma ich dziś 2–4). Ma też 15 terabajtów pamięci operacyjnej.

Systemy AI potrafią błyskawicznie analizować bazy danych niedostępne dla człowieka nawet nieprzeciętnie uzdolnionego. Następnie łączą te dane w logiczną całość, wykrywając powiązania i powtarzalne prawidłowości, które pozwalają postawić diagnozę i dopasować konkretne terapie do pacjenta.

Sztuczna inteligencja wspiera medycynę na wiele sposobów. Niedawno usłyszeliśmy o japońskiej pacjentce, u której Watson zdiagnozował białaczkę. Zajęło mu to 10 minut, choć wcześniej lekarze długo nie potrafili zinterpretować wyników badań. Pojawiła się też w „Nature” sensacja od Google – jego AI umie przewidzieć śmierć i ocenić szanse na powodzenie terapii. W prowadzonym w dwóch szpitalach eksperymencie trafność prognoz sztucznej inteligencji wynosiła 93–95 procent. Komputer Google’a ocenia nie tylko prawdopodobieństwo śmierci, ale i powrotu do szpitala po wypisie. Wykorzystuje w tym celu setki tysięcy danych pacjentów (u chorej na raka piersi przeanalizowała prawie 176 tysięcy przeróżnych informacji na temat jej choroby i stanu zdrowia).

Szybciej, dokładniej, skuteczniej

Sztuczna inteligencja wykorzystywana jest w firmach, które pracują głównie nad przyspieszeniem procedury, prowadzącej do postawienia diagnozy, opracowaniem skutecznej terapii, tworzeniem nowych leków i odnajdywaniem związków pomiędzy genami a zachorowalnością na konkretne choroby. Sztuczna inteligencja wspiera też udoskonalanie aparatury, służącej do diagnostyki obrazowej i wizualizacji narządów wewnętrznych.

To, co naukowcom kiedyś zajmowało lata pracy, komputer robi w kilka dni, o czym przekonali się w 2016 roku naukowcy z Bay Labs, którzy przebadali dzięki sztucznej inteligencji 1200 kenijskich dzieci i w ciągu czterech dni wykryli reumatyczną chorobę serca (RHD) i wrodzone wady u 48 pacjentów. Algorytm sztucznej inteligencji dysponował wiedzą, jaką specjalista od wykrywania tego typu schorzeń zdobywa w… pięć lat.

Sztuczna inteligencja jest nadzieją dla chorych na stwardnienie boczne zanikowe (ALS). Instytut Neurologiczny Barrow w Phoenix przeprowadził niedawno badania z wykorzystaniem Watsona, który wyodrębnił pięć genów mogących mieć związek z wywoływaniem choroby. Wcześniej nie wiązano ich z ALS. Badacze uznali, że uzyskanie tych wyników bez pomocy komputera zajęłoby im 5–6 lat. Start-up Benevolent AI, interpretując dane Watsona, zasugerował następnie użycie dwóch nowych leków, które mogą powstrzymać degradację neuronów, a które nigdy wcześniej nie były wykorzystywane w leczeniu tej choroby.

W Cambridge Cancer Genomics wykorzystuje się AI do przewidywania postępów nowotworu na podstawie jego DNA w próbkach krwi pacjenta. To pozwala określić, jaka będzie odpowiedź organizmu na terapię. Skraca to czas na zweryfikowanie skuteczności leczenia i jednocześnie pozwala lekarzom szybko reagować w razie konieczności modyfikacji terapii. Umożliwia też zredukowanie ubocznych skutków. Naukowcy z CCG twierdzą, że dzięki AI mogą nawrót choroby zidentyfikować o 7 miesięcy wcześniej niż w standardowej praktyce.

W firmie Euretos robot analizuje 200 baz danych, m.in. z zakresu biologii, genetyki, metabolomiki, obejmujących publikacje, dane z eksperymentów medycznych oraz badań klinicznych, co pozwala badaczom uzyskać wgląd w to, jak mechanizmy cząsteczkowe wpływają na patologie w obrębie komórek i tkanek. FDNA z kolei używa AI, by wykazywać związek pomiędzy cechami fenotypowymi a mutacjami genetycznymi. To umożliwia naukowcom opracowywanie, testowanie spersonalizowanych leków.

AI może być wykorzystywana również w profilaktyce chorób. Naukowcy z Uniwersytetu Południowej Kalifornii oraz Uniwersytetu Karola III w Madrycie uznali, że przyszłe problemy neurologiczne można zdiagnozować już w wieku niemowlęcym, analizując sposób, w jaki dziecko się porusza. Doszli do tego wniosku na podstawie badania, wykorzystującego dane z akcelerometrów, żyroskopów i magnetometrów przytwierdzonych do kostek niemowląt. Algorytm wykrywał i analizował ruchy nóg, co pozwoliło przewidzieć z 77-proc. dokładnością problemy, które pojawiły się u dzieci między 6. a 12. miesiącem życia. Wczesne wykrycie choroby pozwala na szybszą i bardziej skuteczną interwencję.

Kiedy medycyna nie może pomóc

Mimo ogromnych postępów medycyna ma nadal ograniczone możliwości we wspieraniu osób z niepełnosprawnościami. Sztuczna inteligencja dostarcza więc rozwiązań, będących „zewnętrznymi zmysłami”, jak Seeing AI – aplikacja Microsoftu, która opisuje rzeczywistość niewidomym użytkownikom telefonów. Bazuje na działającej w chmurze sztucznej inteligencji, która przetwarza i analizuje obrazy, przesyłane przez użytkowników smartfona. Microsoft opracował także specjalną aplikację dla osób niesłyszących, wdrażaną dziś m.in w salach wykładowych, przetwarzającą mowę w wyświetlany tekst.

AI może także pomóc w normalnym życiu chorym na chorobę Parkinsona. Lift Labs, mała firma z San Francisco, przejęta następnie przez Google, stworzyła Liftware Steady – urządzenie, które wykrywa drżenie rąk i odróżnia je od celowych ruchów człowieka. Użytkownik ma do dyspozycji specjalne sztućce, które „neutralizują” niechciane ruchy i zapobiegają rozlewaniu czy rozrzucaniu jedzenia.

Rozwój kontrolowany

Osiągnięć i sukcesów jest znacznie więcej, a prace nad AI zmieniają także biznesowe relacje w medycynie. Powstają partnerstwa biznesu i nauki (np. MIT i IBM), a rynek wymusza intensyfikację prac nad udoskonaleniem technologii. Nad rozwiązaniami wspierającymi i lekarzy, i pacjentów pracują nie tylko wielkie koncerny, jak IBM, Microsoft, Intel czy Google, ale także mniejsze, najczęściej biotechnologiczne start-upy, które nierzadko wynajdują innowacyjne rozwiązania dla mniej „medialnych” dziedzin medycyny niż onkologia – jak Lift Labs, sprzedające sztućce dla pacjentów z chorobą Parkinsona.

Przy tak ogromnej presji rynku i pieniądzach, przeznaczanych na rozwój sztucznej inteligencji, procesu tego nie da się zatrzymać. Komisja Europejska planuje zwiększyć nakłady na rozwój badań nad AI o co najmniej 20 mld euro. Powstał niedawno program „Horyzont 2020”, dzięki któremu będzie można przeznaczyć 2,5 mld euro, na prace nad Big Data i robotyką. Komisja wychodzi z założenia, że to, czego powinniśmy się uczyć, to interakcje z AI i szukanie sposobu na jej kreatywne wykorzystanie i liczy, że te pieniądze przyspieszą w ośrodkach w całej Europie rozwój zastosowań sztucznej inteligencji w kluczowych sektorach, jak transport czy zdrowie.

Nie wszystkie konsekwencje wdrażanych innowacji można przewidzieć, więc równocześnie z rozwojem technologii trwają prace nad wypracowaniem standardów etycznych dla wykorzystywania sztucznej inteligencji. Szczególnie ważne są tutaj maszyny, które potrafią się uczyć. Machine learning i tzw. deep learning polega na tym, że komputer, za pomocą skomplikowanych struktur matematycznych, jest w stanie sam decydować i modyfikować swoje decyzje, opierając się na popełnianych błędach.

W przypadku algorytmów AI ani programiści, ani tym bardziej użytkownik końcowy, np. lekarz, nie wiedzą, dlaczego dokładnie dana decyzja została przez maszynę podjęta. Można określić zbiór danych, z których urządzenie korzystało, jednak nie sposób zrekonstruować całego drzewa decyzyjnego z takiego systemu i ustalić, gdzie maszyna popełniła błąd. Przypomina to trochę jazdę po nieznanych drogach z użyciem samochodowej nawigacji. Kiedy stracimy zaufanie do urządzenia, nie wiemy, jak daleko musimy wrócić, by trafić na właściwą czy też w ogóle przejezdną drogę.

Może się w pewnym momencie okazać, że ludzie nie mają pełnej kontroli nad tym, czego maszyny się nauczą i jak to wykorzystują, stąd apele o wprowadzenie regulacji. Słychać je głównie w Europie. Do końca 2018 roku Komisja Europejska planuje zakończyć prace nad kodeksem etyki, który ma obowiązywać zarówno przedsiębiorców rozwijających sztuczną inteligencję, jak i urzędników. Amerykanie są większymi optymistami i uważają, że wszystko wyreguluje się samo, a w toku debaty z decydentami uda się wypracować dobre rozwiązania.

Również w Polsce rozmawia się o badaniach nad AI, jednak głównie w kontekście finansowym. Mówi się o narodowej strategii rozwoju sztucznej inteligencji, w której zawarte musiałyby być elementy takie jak dofinansowanie badań z tego zakresu i kształcenie kadr. Szczegółów na razie nie znamy.

Czy grozi nam bunt maszyn?

Połowa przepytanych przez Jamesa Barrata, autora publikacji Artificial Intelligence and the End of the Human Era ekspertów AI uważa, że istnieje prawdopodobieństwo osiągnięcia przez AI ludzkiego poziomu inteligencji przed 2040 rokiem. A co będzie później?

Maszyny pokazały już, że potrafią odmówić człowiekowi posłuszeństwa. Niedawno „zbuntował się” należący do Microsoftu chatbot o imieniu Taylor, zaprojektowany, by rozmawiać na Twitterze z młodymi ludźmi. Miał się uczyć na podstawie otrzymywanych pytań i poprawiać swoje możliwości. W ciągu 24 godzin rozmówcy sprawili, że „Tay” zafascynowała się Hitlerem, stała się rasistką i seksistką. Microsoft musiał zakończyć eksperyment.

To pokazuje, że w nieprzewidywalnym otoczeniu mogą ujawnić się błędy w oprogramowaniu, które mogą mieć katastrofalne skutki. Pojawiają się też ostrzeżenia dla branży medycznej. Niektórzy naukowcy ze Stanford University School of Medicine w Kalifornii piszą o możliwych negatywnych skutkach zastosowania mechanizmów sztucznej inteligencji w opiece medycznej, bowiem dane użyte do tworzenia algorytmów mogą zawierać błędy, które będą przekładały się na nieprawidłowe zalecenia kliniczne.

Zastosowanie sztucznej inteligencji wpływa też na relację lekarz–pacjent. Kiedy człowieka wspomaga maszyna, pojawia się „trzecia osoba”, w dodatku bezduszna, która nie jest w tej relacji zupełnie transparentna. To problem nie tylko w medycynie, choć tutaj wydaje się szczególnie palący, gdyż w leczeniu konieczne jest nawiązanie relacji opartej na zaufaniu, a trudno przecież zaufać robotowi.

Kolejnym problemem może być kwestia danych pacjenta – które z nich można digitalizować i przechowywać oraz jak je bezpiecznie wykorzystywać.

Życie jak w „Black Mirror”

Ten popularny serial podejmuje głęboko humanistyczną refleksję nad społecznymi konsekwencjami rozwoju technologii. Mówi też o buncie robotów i skutkach ich wykorzystywania. Czy ten scenariusz może się sprawdzić?

Z danych ekspertów wynika, że do 2020 roku większość interakcji z klientami będzie zachodzić bez udziału człowieka, za pośrednictwem chatbotów, co – jak wykazały badania Ipsos prowadzone w 7 krajach – rodzi obawy o dehumanizację pracy. 76 procent badanych boi się podsłuchiwania i inwigilacji. Połowa obawia się też spadku wynagrodzeń.

Najgroźniejsza wydaje się nie tyle możliwość odebrania pracy, co konsekwencje „usamodzielniania się” maszyn, które za kilkanaście lat mogą się stać mądrzejsze od ludzi. Google już w tej chwili pracuje nad tym, by w razie czego powstrzymać komputery przed buntem, co świadczy o tym, że eksperci uznają zagrożenie za realne.

W medycynie niemożliwe wydaje się zastąpienie człowieka robotem. Podobnie jak coraz doskonalsze tomografy i roboty chirurgiczne, sztuczna inteligencja to nie konkurencja dla ludzkich możliwości, lecz wsparcie i coraz doskonalsze narzędzie pracy. Uzyskane dane muszą być jednak zawsze zweryfikowane i podporządkowane doświadczeniu klinicznemu, które – w przeciwieństwie do maszyn – nie bazuje na żadnych algorytmach.

Doktor House miał dwa walory, których sztuczna inteligencja, w tym uczące się maszyny, mieć nie będą: intuicję i doświadczenie. Są w medycynie niezbędne. Ważne jest, by to niesamowite narzędzie pozostawało w dobrych rękach, bo nie jesteśmy w stanie nauczyć maszyn moralności i empatii.

Źródło: "Służba Zdrowia" 9/2018

PDF

Zobacz także