https://frosthead.com

Kan en algoritme diagnostisere lungebetennelse?

Lungebetennelse legger en million voksne amerikanere på sykehuset hvert år og dreper 50 000. Hvis en lege mistenker at en pasient har lungebetennelse, vil han eller hun vanligvis bestille røntgen av brystet. Disse røntgenbildene må selvfølgelig tolkes av en lege. Men nå har forskere fra Stanford utviklet en algoritme de sier at de kan diagnostisere lungebetennelse på røntgenbilder bedre enn erfarne radiologer.

"Fordelen med en algoritme har er at den kan lære av hundretusener av røntgenbilder av brystet og tilhørende diagnoser fra andre eksperter, " sier Pranav Rajpurkar, en doktorgradsstudent i Stanford Machine Learning Group, som var medledende forskningen. "Når får radiologer noensinne en sjanse til å lære av hundretusener av andre radiologers diagnoser og finne mønstre i bildene som fører til disse diagnosene?"

Algoritmen, kalt CheXNet, kan også diagnostisere 13 andre medisinske tilstander, inkludert emfysem og pneumothorax (luft fanget mellom lunge og brystvegg). Teamet bygde algoritmen ved hjelp av et offentlig datasett fra National Institutes of Health (NIH), som inneholdt mer enn 100 000 røntgenbilder av brystet merket med 14 mulige forhold. Datasettet ble utgitt sammen med en initial diagnosealgoritme, som NIH oppfordret andre forskere til å gå videre.

Rajpurkar og hans medlemmer av Machine Learning Group bestemte seg for å ta utfordringen. Forskerne hadde fire Stanford-radiologer som markerer mulige indikasjoner på lungebetennelse på 420 av bildene. Ved å bruke disse dataene opprettet de i løpet av en uke en algoritme som kunne diagnostisere 10 tilstander nøyaktig. I løpet av en måned kunne algoritmen overgå tidligere algoritmer ved diagnostisering av alle 14 tilstander. På dette tidspunktet stemte CheXNet-diagnosene oftere med en flertall av radiologer enn en individuell mening fra noen radiolog.

Forskningen ble publisert denne måneden på det vitenskapelige preprint-nettstedet arXiv .

Andre diagnostiske algoritmer har kommet med nyhetene den siste tiden. Kanadiske og italienske team har begge utviklet algoritmer for diagnostisering av Alzheimers sykdom fra hjerneskanninger. Distribusjonen av plakkene i hjernen som kjennetegner sykdommen er for subtil for det blotte øye, men forskerne sier at AI-teknologi kan oppdage unormale mønstre. Rajpurkar og hans medforskere ved Stanfords Machine Learning Group har også utviklet en algoritme for diagnostisering av hjerterytmier, og analysert timer med data fra bærbare hjerte monitorer. Andre lungebetennelsesalgoritmer er utviklet fra NIH-dataene, men Stanford-en er så langt den mest nøyaktige.

CheXNet kan være spesielt nyttig på steder der folk ikke har lett tilgang til erfarne radiologer, sier teamet. Det kan også være nyttig som en slags triage, og identifisere hvilke tilfeller som sannsynligvis trenger akutt oppmerksomhet, og hvilke ikke. Teamet utviklet også et verktøy som produserer et kart over potensielle indikatorer for lungebetennelse på røntgenbilder, og gir en praktisk visuell guide for leger.

Mens teamet er optimistisk med hensyn til CheXNets diagnostiske evner, er de forsiktige med hensyn til grensene.

"AI er et kraftig verktøy, men det tar mange års erfaring og mange tøffe timer å intuitere hvordan du kan bruke det, og det er like vanskelig å finne ut hvor vi kan bruke den til mest mulig positiv innvirkning, " sier Rajpurkar.

Selv om det er en rekke dype læringsalgoritmer i utvikling, har ingen ennå gjennomgått den strenge test- og godkjenningsprosessen som er nødvendig for bruk på virkelige pasienter.

Paul Chang, radiologiprofessor og visepresident for avdeling for radiologi ved University of Chicago, høres en skeptisk merknad om CheXNet og lignende dyp læringsprogrammer. Leger bruker allerede algoritmer for å hjelpe til med diagnostisering av et hvilket som helst antall tilstander, sier Chang. Disse algoritmene er avhengige av en forhåndsformet modell av hvordan tilstanden ser ut: kreftformer er større og piggere enn for eksempel godartede masser. Derimot er dype læringsprogrammer ment å finne ut hvilke funksjoner som er viktige på egen hånd, ved å knuse enorme datamengder. Men dette betyr også at de kan ta feil ledetråder. Chang gir eksempelet på en dyp læringsalgoritme som lærte forskjellen mellom forskjellige typer røntgenstråler: hender, føtter, mammogrammer. Men forskere oppdaget at programmet ganske enkelt hadde lært seg å kjenne igjen mammogrammer ved at hovedbildet var på siden av filmen i stedet for i midten (siden brystene er festet til brystveggen vises de på kanten av filmen i en mammogram-bilde. Hender eller føtter vil derimot vises i midten av røntgenbildet). Algoritmen lærte ikke noe vesentlig om bryster, bare om deres plassering på skjermen.

"Dette er veldig tidlige tider, " sier Chang, som påpeker at CheXNet-resultatene ikke har blitt fagfellevurdert. “Dyp læring har et stort potensial, men vi innen medisin og radiologi har en tendens til å være tidlig i hypesyklusen, men det tar oss lengre tid å adoptere. Vi lærer hvordan vi kan konsumere det på riktig måte. ”

Kan en algoritme diagnostisere lungebetennelse?