Narzędzie analityczne przygotowane przez ekspertów Google do spraw rozwoju sztucznej inteligencji było w stanie poddać obróbce ponad 46 mld pojedynczych danych medycznych dotyczących ponad 216 tys. pacjentów z zaledwie dwóch szpitali.
Dzięki wykorzystaniu najnowszych rozwiązań i procedur opartych na technologii machine learning i metodyce deep learning, narzędzie było w stanie oszacować, ile czasu dany pacjent powinien spędzić w szpitalu i jakie jest ryzyko tzw. readmisji, czyli nieplanowanego ponownego przyjęcia pacjenta do szpitala z podobnego powodu, jak poprzednio. W niektórych przypadkach model Google’a potrafił trafnie oszacować nawet prawdopodobieństwo zgonu danego pacjenta.
Wyniki Google’a porównano ze wskaźnikami trafności tradycyjnych modeli predykcyjnych i okazało się, że narzędzie oparte na technologii wspieranej przez sztuczną inteligencję ma o ponad 10 procent wyższą skuteczność w ocenie śmiertelności pacjentów. Podobnie gdy chodziło o określenie okresu hospitalizacji. Wskaźniki były porównywalne tylko w przypadku potencjalnego powrotu pacjenta do szpitala.
Co ważne, dane, które zostały poddane analizie, nie zostały w żaden sposób wyselekcjonowane przez człowieka. Sztuczna inteligencja samodzielnie oceniła, które informacje są ważne w przypadku danego pacjenta.
– Wyniki te pokazują jak ogromny potencjał drzemie w technologiach kognitywnych. Narzędzia analityczne wykorzystujące deep learning nie zastąpią oczywiście doświadczonych lekarzy, ale mogą stanowić istotne wsparcie w ich pracy – mowa chociażby o skróceniu czasu realizacji procesów czy zmniejszeniu liczby potencjalnych błędów. Ma to ogromne znacznie choćby w tych obszarach, gdzie czas ma kluczowe znacznie dla efektywności organizacji. W służbie zdrowia stawką jest ludzkie życie – tłumaczy Adam Dzielnicki z firmy Atman.
Tak zwany EHR (ang. electronic health record), czyli elektroniczna dokumentacja medyczna, to jeden z cyfrowych standardów zachodniej służby zdrowia, zawierający dosłownie wszystkie dane medyczne pacjenta. To potencjalnie tysiące różnych zmiennych, których uporządkowanie i analiza w oparciu o tradycyjne modele są zadaniami praktycznie niewykonalnymi. Zazwyczaj używane modele predykcyjne wymagają ogromnego wysiłku polegającego na ręcznym wyborze lub uspójnieniu odpowiednich zmiennych.
Jak podają eksperci Deloitte w analizie „Cognitive technologies. A technical primer”, wydatki na wdrożenie technologii kognitywnych, takich jak np. deep learning czy sztuczna inteligencja, mogą w latach 2017-2021 wynieść nawet 200 mld dolarów. Jednym z głównych czynników, który napędza ten rozwój, jest szybko rosnąca liczba danych, które organizacje muszą przetwarzać.
Źródło: Inf. pras.