https://frosthead.com

En dag vil telefonen din vite om du er lykkelig eller trist

Ansiktsanalyse på jobb. Bilde takket være Affectiva

Så mye tid vi bruker med mobiltelefoner, bærbare datamaskiner og nettbrett, er det fremdeles ganske mye enveis forhold. Vi handler, svarer de. Jada, du kan føre en samtale med Siri på iPhone-en din, og mens hun er rask, kvalifiserer den neppe som lekende bantering. Du stiller spørsmål, hun gir svar.

Men hva om disse enhetene virkelig kunne lese følelsene våre? Hva om de kunne tolke hver eneste småbevegelse, hver ansiktslysning slik at de kan måle følelsene våre så vel som - kanskje bedre enn - våre beste venner? Og så svarer de, ikke med informasjon, men hva som kan passere for empati.

Vi er ikke der ennå, men vi beveger oss raskt i den retningen, drevet av et vitenskapsfelt kjent som affektiv databehandling. Den er bygd rundt programvare som kan måle, tolke og reagere på menneskelige følelser. Dette kan innebære å fange ansiktet ditt på kameraet og deretter bruke algoritmer på alle aspekter av uttrykkene dine for å prøve å gi mening om hver smirk og hake gnidd. Eller det kan innebære å lese nivået av irritasjon eller glede ved å spore hvor raskt eller med hvor mye kraft du tapper ut en tekst eller om du bruker uttrykksikoner. Og hvis du virker for opprørt - eller full - kan du få en melding som antyder at du kanskje vil holde av ved å trykke på send-ikonet.

Når vi ser hvor vanskelig det er for oss mennesker å gi mening om andre mennesker, er denne forestillingen om programmeringsmaskiner å lese følelsene våre ingen liten utfordring. Men det øker hastigheten, da forskere skjerper fokuset på læremidlene emosjonell intelligens.

Hvert trekk du gjør

Et av de bedre eksemplene på hvordan affektiv databehandling kan fungere, er tilnærmingen til et selskap som kalles, passende, Affectiva. Den registrerer uttrykk og deretter, ved hjelp av proprietære algoritmer, gransker antydninger til ansiktene og tapper inn i en database med nesten 300 millioner rammer med elementer av menneskelige ansikter. Programvaren er foredlet til et punkt der den kan knytte ulike kombinasjoner av disse elementene til forskjellige følelser.

Da den ble utviklet på MITs Media Lab av to forskere, Rosalind Picard og Rana el Kaliouby, ble programvaren, kjent som Affdex, designet med det formål å hjelpe autistiske barn til å kommunisere bedre. Men det hadde helt klart masser av potensial i forretningsverdenen, og derfor spanderte MIT prosjektet til et privat selskap. Siden har det samlet inn 21 millioner dollar fra investorer.

Så hvordan brukes Affdex? Oftest er det å se på folk som ser på reklamer. den registrerer folk mens de ser annonser på datamaskinene sine - ikke bekymre deg, du må velge dette - og deretter, basert på databasen med ansiktslys, evaluerer du hvordan seerne føler om det de har sett. Og programvaren gir ikke bare en samlet positiv eller negativ dom; det bryter seernes reaksjoner sekund for sekund, noe som gjør det mulig for annonsører å identifisere, med mer presisjon enn noen gang før, hva som fungerer i en reklame og hva som ikke gjør det.

Det er også i stand til å se at mens folk sier en ting, kan ansiktene si en annen. Under et intervju med Huffington Post ga el Kaliouby eksemplet på responsen på en annonse for kroppslotion som ble sendt i India. Under reklamen berører en ektemann lekent nok sin kones utsatte mage. Etterpå sa en rekke kvinner som hadde sett det at de fant den scenen krenkende. Men ifølge el Kaliouby viste videoene til seerne at hver eneste av kvinnene svarte på scenen med det hun kalte et "glede-smil."

Hun ser muligheter utenfor reklamens verden. Smarte TV-er kan være så mye smartere om hva slags programmer vi liker hvis de er i stand til å utvikle en minnebank av ansiktsuttrykkene våre. Og politikere vil kunne få reaksjoner i sanntid på hver linje de uttaler seg under en debatt og kunne tilpasse budskapene sine på farten. I tillegg, sier el Kaliouby, kan det være helseprogrammer. Hun sier det er mulig å lese en persons hjertefrekvens med et webkamera ved å analysere blodstrømmen i ansiktet hans.

"Tenk å ha et kamera hele tiden med å overvåke hjerterytmen din, " sa hun til Huffington Post, "slik at det kan fortelle deg om noe er galt, hvis du trenger å komme mer i form, eller hvis du rurer på brynet ditt tid og behov for å slappe av. ”

Så hva synes du, skummel eller kul?

Sporingsenheter

Her er fem andre måter maskiner reagerer på menneskelige følelser:

  • Og hvordan var dagen min ?: Forskere ved University of Cambridge har utviklet en Android-mobilapp som overvåker en persons oppførsel gjennom dagen, ved hjelp av innkommende samtaler og tekster, pluss innlegg i sosiale medier for å spore humøret. Appen, kalt "Emotion Sense", er designet for å skape en "oppdagelsesreise", slik at brukerne kan ha en digital registrering av toppene og dalene i hverdagen. Dataene kan lagres og brukes til terapitimer.
  • Og dette er meg etter den tredje koppen kaffe: Så er det Xpression, en annen stemningssporende app laget av et britisk selskap som heter EI Technologies. I stedet for å stole på at folk i terapi holder dagbøker om humørsvingninger, lytter appen etter endringer i en persons stemme for å avgjøre om de er i en av fem emosjonelle tilstander: rolig, glad, trist, sint eller engstelig / redd. Deretter holder det en liste over en persons sinnsstemninger og når de endrer seg. Og hvis personen ønsker det, kan denne posten automatisk sendes til en terapeut på slutten av hver dag.
  • Hva om du bare hater å skrive på en telefon? : Forskere hos Samsung jobber med programvare som vil måle sinnssammenheng etter hvordan du skriver ut tweets på smarttelefonen. Ved å analysere hvor raskt du skriver, hvor mye telefonen rister, hvor ofte du gjør feil på baksiden og hvor mange uttrykksikoner du bruker, skal telefonen være i stand til å finne ut om du er sint, overrasket, glad, trist, redd eller avsky. Og basert på hvilken konklusjon det trekker, kan det med tweeten inneholde passende emoticon for å tipse dine følgere til din sinnstilstand.
  • Bare ikke inviter vennene dine til å se på: Ved hjelp av en sensor som er slitt på håndleddet og et smarttelefonkamera slitt rundt halsen, har forskere ved MIT laget et "livelogging" -system som samler bilder og data designet for å vise en person hvilke hendelser som representerte deres emosjonelle høyder og lavheter. Systemet, kalt Inside-Out, inkluderer en biosensor i et armbånd som sporer økte følelser gjennom elektriske ladninger i huden mens smarttelefonen sporer personens beliggenhet og tar flere bilder i minuttet. På slutten av dagen kan brukeren se opplevelsene sine, sammen med alle sensordataene.
  • Brynet ditt sier at du har problemer: Dette var sannsynligvis uunngåelig. Forskere ved University of South California har opprettet en robotterapeut som ikke bare er programmert for å oppmuntre pasienter med tidsbestemte “Uh-huhs”, men som også er eksperter med å bruke bevegelsessensorer og stemmeanalyse, til å tolke pasientens hver gest og stemme. bøyning under en terapitime.

Videobonus: Vil du se hvor bisarr denne trenden med enheter som leser menneskelige følelser kan bli? Ta en titt på denne promoteringen av Tailly, en mekanisk hale som henter spenningsnivået ditt ved å spore pulsen og deretter vugge riktig.

Mer fra Smithsonian.com

Denne nye roboten har en følelse av berøring

Matlaging med roboter

En dag vil telefonen din vite om du er lykkelig eller trist