https://frosthead.com

Hvordan maskiner blir flinkere til å samtale

Husk tilbake når omtrent alt i den digitale verden dreide seg om "søk", da en høy Google-rangering var den hellige gral.

Så var det den strekningen da hvert selskap følte at det trengte å ha sin egen mobilapp. Det var nøkkelen til å følge med på massemigrasjonen til smarttelefoner.

Men det er på tide å gå videre, sier seerne i Silicon Valley, til en ny fase, en som, tro det eller ei, er bygget rundt samtale.

Microsofts administrerende direktør Satya Nadella sa for så mye for noen uker siden på de store utviklerkonferansen kjent som Microsoft Build, og beskrev samtalen som den neste digitale "plattformen." Han gikk så langt som å foreslå at chatbots - programvare som lar deg kommunisere direkte med når for eksempel kjøp av enheter - vil ha samme type dyp innvirkning som nettlesere som først gjorde det mulig for oss å søke på nettet og Apples bruk av berøringsskjermen på telefoner.

Mer nylig veide Facebook-gründer Mark Zuckerberg seg og kunngjorde at chatbots vil bli en nøkkelfunksjon i Facebook Messenger. De vil ikke bare være i stand til å forstå hva en person sier - enten gjennom stemmegjenkjenning eller forståelse av en skrevet setning - men vil også lære nok om preferansene dine fra tidligere samtaler til at de vil kunne utføre handlinger på egen hånd, slik som som å sende blomster eller bestille middag.

Tanken er at i stedet for å søke på nettet for å få informasjon, vil vi i økende grad stole på at roboter gjør det for oss, enten det er gjennom digitale samtaleassistenter som Apples Siri eller Microsofts Cortana, eller gjennom mer spesialisert programvare, for eksempel en restaurantbot som bruker kunstig intelligens for å bli kjent med en persons smak og vaner så godt at de kan forutse eventuelle behov.

Bli kjent med deg

Det er for tidlig å forutsi hvordan alt dette vil riste ut, men Microsofts Nadella delte en visjon om at folk regelmessig skal samhandle med sine digitale assistenter, som igjen kan koble dem til "arbeiderboter" som faktisk håndterer oppgaver som å bestille fly eller planlegge møter . Og Amazon har nettopp avslørt programvare som lar oss kommunisere med termostater, lysbrytere og andre enheter gjennom sin digitale assistent, Alexa.

Det tyder på en annen type forhold til maskinene våre, en som er mer personlig og engasjerende. Ikke at digitale assistenter nødvendigvis vil bli de virtuelle sidekikkene våre, men hvis vi vil like og stole på dem - og tilgi feilene - er det mye mer sannsynlig at vi gjør dem til en del av hverdagen vår.

Så det er mer krefter for å få dem til å føle en del av vår verden, at de til og med er koblet til popkultur. I tråd med starten av den nye sesongen av "Game of Thrones", ble Siri programmert med en haug med smarte svar som viste frem kunnskapen hennes om showet. Og etter at en reklamefilm med Cookie Monster i samspill med Siri fikk mer enn 10 millioner visninger på YouTube, fulgte Apple opp med en tullete bak kulisseversjonen tidligere denne måneden.

Forme en personlighet

Microsofts Cortana har på sin side en fin sangstemme (jeg har hørt "henne" gjøre forkortede versjoner av "Danny Boy" og "Auld Lang Syne" når du blir bedt om å synge en sang) og nådige svar på personlige spørsmål (Når du ble spurt henne alder, svarte den: "I kalenderen din er jeg fremdeles i spedbarn. I botår er jeg ganske moden.")

Det viser seg at Cortana har et lite team - inkludert en lyriker, en forfatter og en dramatiker - som legger ord i munnen hennes, ifølge en fersk rapport fra Elizabeth Dwoskin i Washington Post. Jobben deres er å ikke bare få henne til å lyde mer menneskelig, men også legge lag til personligheten hennes. Når forfatterne former henne som karakter, bryter de med hvordan hun skal svare på forskjellige typer spørsmål. Hvor pålitelig skal hun være? Hvor koselig? Hvor kunnskapsrik trenger hun å være om aktuelle hendelser? Når skal hun uttale seg?

Så er det en annen vurdering. På samme måte som at Cortana høres for robot ut, kan hindre folk i å komme i kontakt med henne, slik at hun kan virke for menneskelig kan føle skummel. Dukkert i empati som en person kan føle hvis en robot virker for ekte, er det som har blitt kjent innen robotikk som den "uhyggelige dalen." Det er antatt at litt sære, til og med en feil, hos en digital assistent ikke er en dårlig ting. Det kan få det til å virke mindre truende og mer bedårende.

Men Microsoft kjenner også til risikoen ved å invitere mennesker til en botes læringsprosess. Sent i forrige måned avduket den på Twitter og noen få andre chat-apper en samtalebot ved navn Tay. Det var et eksperiment for å se hva publikum kunne lære det. Det gikk ikke bra. I løpet av timer hadde Tay lært å være skandaløst upassende, spilt rasistiske kommentarer og antydet på et tidspunkt at Holocaust aldri skjedde. Microsoft sendte en rask unnskyldning og Tay gikk bort.

Livguider?

På noen måter har Google mest å tape fra botbommen. Når det blir lettere for bots å hente informasjon, svare på spørsmål og utføre oppgaver, hvorfor skulle vi til og med gjøre Google-søk? Google vet selvfølgelig dette, så det satser stort på sin egen digitale assistent, Google Nå.

Ved å kombinere stemmesøk med den enorme mengden brukerdata den har samlet inn i løpet av årene, håper Google å utvikle den ultimate virtuelle betjent, en som vet så mye om deg at det kan være flere trinn foran når du skal imøtekomme dine behov. Søkeselskapets mål er å gjøre spranget, gjennom Google Nå, fra formidling av øyeblikkelig informasjon til pålitelig livsguide.

Googles bot vil ideelt sett være i stand til å gi deg beskjed, basert på sanntidsdata, når du trenger å reise på jobb, eller peke på kule ting du kan gjøre med barna dine i løpet av helgen, eller foreslå feriemuligheter basert på steder du har hatt glede av i fortiden. Som Amit Singhal, Googles senior visepresident for søkeprodukter, sa det under et nylig intervju med Time, “Jeg vil at Google Nå skal hjelpe meg ikke bare bare å gjøre det neste. Jeg vil at den skal muliggjøre en bedre opplevelse i denne vakre reisen som vi kaller livet. ”

Singhal påpekte også at Google i det minste foreløpig ikke bruker mye energi på å gi Google Nå en vinnende personlighet. Han hevder at å lære det å fortelle vitser ville antydet at disse robotene er mer sofistikerte enn de faktisk er på dette tidspunktet. Bedre, sier han, for å konsentrere seg om å foredle gruvedrift av enorme datamengder for å la Google Nå lære å danne den typen forbindelser som gjør menneskelig tale forståelig.

Det er det virkelige tippepunktet for roboter. Programvare er mye mer effektiv nå til å gjenkjenne menneskelige ord enn for noen få år siden, med en nøyaktighetsgrad på mer enn 90 prosent, ifølge de fleste estimater. Men å virkelig forstå hva disse ordene betyr i sammenheng forblir et hinder.

Samtidig pleier vi å øke forventningene. Ekte samtale flytter interaksjonen langt utover å skrive et spørsmål i en søkeboks. Når vi snakker med en chatbot, er det mer sannsynlig at vi føler at vi snakker med en annen person, til å være mer åpne og snakke i flere setninger krydret med doble betydninger og samtaler. Alt som gjør det så mye vanskeligere for roboter å finne ut hva det er vi ønsker.

Fortsatt blir roboter i økende grad sett på som en naturlig forlengelse av hvordan vi allerede kommuniserer og bruker mobiltelefonene våre. Og de blir sett på som måten vi skal snakke med bilene våre, TV-ene og alle andre apparater.

Det er klart, digitale assistenter og bots har fortsatt en vei å gå før de kan tolke alt vi sier med presisjon og uttrykke seg på språk som høres naturlig ut. Men det virker bare et spørsmål om tid før de er mindre nyhet og mer følgesvenn.

Noen veldig store selskaper banker på det.

Hvordan maskiner blir flinkere til å samtale