Det er influensasong, og mange av oss ser oss nervøse på noen som hoster eller snuser i nærheten. Men hvordan unngår vi, i tillegg til å beskytte oss mot offentlige nysner, å komme i kontakt med infeksjoner?
Det viser seg at hjernen vår er ganske finstemt til å oppdage sykdom hos andre. Ny forskning antyder at subtile ansikts-signaler varsler oss om infeksjoner bare timer etter at de tar tak. Denne forskningen kan en dag bidra til å trene AI-systemer også for å oppdage sykdom.
En studie publisert i tidsskriftet Proceedings of the Royal Society B tok 16 friske frivillige og injiserte dem, til forskjellige tider, med både en placebo og en type E. coli- bakterier som forårsaker influensalignende symptomer. De frivillige, som ikke visste hvilken injeksjon de nettopp hadde fått, ble fotografert to timer etter hvert skudd. Disse fotografiene ble så vist til 62 deltakere som ble bedt om å bedømme om personen på bildet var frisk eller syk. Disse deltakerne måtte dømme etter bare å ha sett bildet i fem sekunder.
Deltagerne klarte bare å oppdage en syk person 52 prosent av tiden, neppe bedre enn sjanse. Men de klarte å oppdage en sunn person 70 prosent av tiden. Ansiktsfunksjoner relatert til sykdomsvurderinger inkluderer rødere øyne, duller hud, et mer hovent ansikt, en droopier munn og øyelokk og blekere hud og lepper. De syke bildene ble også vurdert til å se mer slitne ut.
"Vi forventet at folk ville være bedre enn sjansen til å oppdage syke mennesker, men langt fra 100 prosent siden de bare fikk se et bilde i noen sekunder, " sier John Axelsson, professor ved University of Stockholm og co forfatter av studien. "Vi forventer at folk skal bli mye bedre når de kan samhandle på ekte med noen og deretter også bruke andre ledetråder som biologisk bevegelse, lukt osv."
Forskningen var begrenset av studiens lille størrelse og det faktum at alle de frivillige var kaukasiske og alle var sunne, sier Axelsson. Ytterligere forskning er nødvendig for å se på forskjellige etniske grupper, forskjellige aldre og på mennesker med kroniske lidelser. Mer forskning kan også potensielt identifisere flere funksjoner som er viktige for vurderingene våre om sykdom og helse utover de som er identifisert i studien. Ytterligere forskning kan også vise om vi behandler mennesker som fremstår syke annerledes.
Til tross for disse begrensningene, håper Axelsson at bedre forståelse av ikke-verbale sykdomstegn kan hjelpe leger med å forbedre diagnosene. Syktetegnene som er identifisert av studien, vil også "veldig sannsynlig" en dag bli brukt til å trene AIs for å oppdage sykdom, selv om dette ikke er en del av Axelssons forskning.
Annen nyere forskning har vist hvor mye subtile ansiktsegenskaper og bevegelser som kan avsløre om helse og mentale tilstander, sier Mark Frank, en kommunikasjonsprofessor ved universitetet i Buffalo, State University of New York, som studerer ansiktsuttrykk. Tilstedeværelse eller fravær av visse ørsmå ansiktsbevegelser kan indikere lidelser som Bells parese eller hjernesvulster. Mikrouttrykk - flyktig utseende ofte for raskt til å registrere seg på vår bevissthet - kan avsløre schizofreni eller om en person med depresjon er i bedring eller ikke.
"Subtive bevegelser i øyelokk kan avsløre tretthet og kan til og med forutsi når det er mer sannsynlig at en bilist krasjer kjøretøyet, " sier Frank.
Å forstå hva ansiktene våre sier om helsen vår, vil være viktig i trening av AI-er, sier Frank. Hjelpemidler kan hjelpe mennesker med å analysere og ta beslutninger i sanntid, noe som kan være spesielt viktig når folk blir "overveldet av for mye informasjon."
Man kan tenke seg at en sykdomsdetekterende AI ble brukt på flyplasser, for eksempel å skanne tusenvis av ansikter i sekundet. Flyplasser i noen deler av verden bruker allerede temperaturscannere for å luke ut potensielt syke individer; en AI kunne forbedre slik teknologi for å identifisere mennesker som er syke uten feber. Slike teknologier vil sannsynligvis føre til personvernproblemer, samt debatter om hvorvidt de er effektive som inneslutningsstrategier.
Utviklere jobber allerede med en rekke nevrale nettverk - systemer som lærer på egen hånd ved å analysere enorme mengder data - for å oppdage tegn på sykdom tidligere eller bedre enn mennesker kan. Nylige eksempler inkluderer en algoritme for å lese røntgenbilder av brystet og diagnostisere lungebetennelse, en AI for å oppdage veldig tidlige lungekreft på CT-skanning, og en Google-teknologi for å søke tidlige tegn på øyesykdommer som kan forårsake blindhet. Men for at et nevralt nettverk skal lære, må det fortelles hva du skal se etter. Noe som betyr at mennesker trenger å lære det. Noe som betyr at mennesker trenger å vite. Studier som Axelssons, som viser hvilke ansiktsendringer som er assosiert med sykdom, kan gi mennesker verktøyene til å gjøre undervisningen.
I mellomtiden, nå vet du å holde deg borte fra mennesker med subtilt hengende øyelokk (selv om de kanskje bare er slitne). Bedre ennå, bare få et influensa.