https://frosthead.com

Roboter er smarte - men kan de forstå oss?

I filmene hører du aldri roboter som sier "va?"

For all sin angst ble "Star Wars" C-3PO aldri forvirret. Sonny, den viktigste ikke-menneskelige i "Jeg, robot" kan ha vært forvirret over hva han var, men så ikke ut til å ha noen problemer med å forstå Will Smith.

I virkeligheten sliter imidlertid maskiner fortsatt mektig med menneskelig språk. Jada, Siri kan svare på spørsmål hvis den gjenkjenner nok av ordene i en gitt spørring. Men å be en robot om å gjøre noe som det ikke er programmert, steg for steg, å gjøre? Vel, lykke til med det.

En del av problemet er at vi som mennesker ikke er veldig presise i hvordan vi snakker; når vi snakker med hverandre, trenger vi vanligvis ikke være det. Men be en robot om å “varme opp litt vann”, og den passende responsen vil være “Hva?” - med mindre den hadde lært hvordan man behandler den lange rekke spørsmål knyttet til den tilsynelatende enkle handlingen. Blant dem: Hva er vann? Hvor får du det? Hva kan du legge den i? Hva betyr "varme opp"? Hvilket annet objekt trenger du for å gjøre dette? Er kilden i dette rommet?

Nå har imidlertid forskere ved Cornell University tatt på seg utfordringen med å trene en robot for å tolke det som ikke blir sagt - eller tvetydigheten til det som blir sagt. De kaller prosjektet Tell Me Dave, et nikk til HAL, datamaskinen med den beroligende stemmen og paranoide tendenser i filmen "2001: A Space Odyssey."

Roboten deres, utstyrt med et 3D-kamera, er blitt programmert for å knytte objekter til deres evner. For eksempel vet den at en kopp er noe du kan bruke til å holde vann, drikke, eller som en måte å helle vann på noe annet; en komfyr er noe som kan varme opp ting, men også noe du kan plassere ting på. Datavitere kaller grunnleggende treningsteknikk - hjelper roboter å koble ord til objekter og handlinger i den virkelige verden.

"Ord betyr ikke noe for en robot med mindre de er jordet til handlinger, " forklarer Ashutosh Saxena, leder av Tell Me Dave-teamet. Prosjektets robot, sier han, har lært å kartlegge forskjellige setninger, for eksempel å "plukke den opp" eller "løfte den" til samme handling.

Det er et stort skritt fremover i kommunikasjon mellom mennesker og roboter, gitt hvor mange forskjellige måter vi kan beskrive en enkel oppgave.

"Alle roboter, som for eksempel industriell produksjon, selvkjørende biler eller hjelpende roboter, må samhandle med mennesker og tolke det upresise språket, " sa han. "Å kunne finne ut betydningen av ord fra deres miljømessige kontekst ville være nyttig for alle disse robotene umiddelbart."

En gruppeinnsats

Saxena har sammen med doktorgradsstudenter Dipendra Misra og Jaeyong Sung også henvendt seg til crowddsourcing for å samle så mange forskjellige varianter av det engelske språket som mulig.

Besøkende på nettstedet Tell Me Dave blir bedt om å lede en virtuell robot for å fullføre en viss oppgave, for eksempel “Make ramen.” Fordi de fleste har en tendens til å gi forskjellige kommandoer når de leder roboten gjennom prosessen, har teamet kunnet samle et stort ordforråd relatert til samme trinn i prosessen.

Disse kommandoene, spilt inn i forskjellige aksenter, er assosiert med lagrede videosimuleringer av forskjellige oppgaver. Så selv om setningene er forskjellige - "ta potten til komfyren" i motsetning til "legg potten på komfyren" - kan Tell Me Dave-maskinen beregne sannsynligheten for en fyrstikk med noe den har hørt før.

På dette tidspunktet fullfører Tell Me Dave-robotten etterspurte oppgaver nesten to tredjedeler av tiden. Det inkluderer tilfeller der objekter flyttes til forskjellige steder i rommet, eller roboten jobber helt i et annet rom. Noen ganger er imidlertid roboten fortsatt uten ledelse: Da den ble bedt om å vente til iskremen ble myk, "kunne den ikke finne ut hva de skulle gjøre, " sier Saxena.

Likevel har det blitt mye bedre til å fylle ut uspesifiserte trinn. For eksempel, når han ble bedt om å "varme vannet i potten", innså roboten at den først trengte å føre potten over til kranen og fylle den med vann. Den vet også at når den blir bedt om å varme opp noe, kan den enten bruke komfyren eller mikrobølgeovnen, avhengig av hvilken som er tilgjengelig.

Saxena sier at Tell Me Dave-robottreningen må forbedres før den kan brukes i virkelige omgivelser; å være i stand til å følge veibeskrivelse 64 prosent av tiden, er ikke bra nok, sier han, spesielt siden mennesker forstår hva de blir fortalt 90 prosent av tiden.

Saxena og teamet hans vil presentere sine algoritmer for trening av roboter, og vise hvordan de har utvidet prosessen gjennom crowddsourcing, neste uke på Robotics Science and Systems Conference ved University of California, Berkeley; lignende forskning blir gjort ved University of Washington.

Det er ingen tvil om at roboter vil beherske algoritmene - det er bare et spørsmål om når dette vil gi spranget fra lab til marked. Neste år? Ikke sannsynlig. Men i løpet av et tiår, da store selskaper fokuserer på å komme inn i nye markeder som selvkjørende biler, er det fullt mulig at vi kan fortelle roboter som Tell Me Dave om å komme i gang med middagen.

Hva sa du?

Her er nyere informasjon om forskning på kommunikasjon med og gjennom roboter:

  • Hva er bevegelsen for å "sørge for at setet mitt er varmt" ?: Mercedes-Benz ønsker å være det første store bilfirmaet som begynner å selge førerløse biler, kanskje så snart som 2020, og ingeniørene har begynt å samarbeide med robotikkeksperter for å utvikle måter å folk til å kommunisere med kjøretøyene sine. En metode som får mye oppmerksomhet er bruken av håndsignalene som en bilsensorer kan forstå. Eksperter sier at med riktig gest kan du hagle den parkerte bilen din for å hente deg.
  • Endelig hjelperoboter for mekanikk: Hos Audi vil robothjelpere snart sendes til selskapets mekanikk over hele verden. Robotene vil være utstyrt med 3D-kameraer styrt av en spesialist på stedet, som kan lede menneskene som faktisk jobber på bilene gjennom vanskelige reparasjoner.
  • Gjør Siri smartere: I følge en rapport i Wired, har Apple begynt å ansette topp talegjenkjenningsexperter da det begynner å fokusere på konseptet nevrale nettverk, å få maskiner til å lære ord ved å bygge forbindelser og etterligne måten neuroner fungerer i den menneskelige hjernen.
  • Robot trenger tur til kunstshow: Senere denne måneden vil en robot begynne å gå på tur over Canada. Det ble kalt HitchBOT, det er blitt beskrevet som et prosjekt-sosialt eksperiment for kombinasjonskunst. Målet er å se om HitchBOT kan klare det fra Halifax til et galleri over hele landet i Britisk Columbia. Den vil ikke være i stand til å bevege seg på egen hånd, men den vil være utstyrt med en mikrofon og kamera som lar den oppdage bevegelse og tale. Den vil også kunne svare på spørsmål ved hjelp av en Wikipedia-database.
Roboter er smarte - men kan de forstå oss?