Når brukergrensesnitt går, er det en av luktemåtene å velge, flytte eller klikke eller på annen måte kontrollere en datamaskin med å tone et mykt, Bluetooth-aktivert klikker på størrelse med en wad gum. Men for visse situasjoner gir det faktisk mye mening. Si at du sykler, og vil svare på en samtale på headsettet, eller slå opp veibeskrivelse, men ikke vil ta hendene fra stolpene. Eller hvis du er lam og trenger å kjøre en elektrisk rullestol, vil en beskjeden retningspute i munnen være langt mindre merkbar enn en vanlig munn- eller hakekontrollenhet, eller til og med en du trykker med skulderen.
"Hvordan kan vi gjengi disse interaksjonene mens vi opprettholder diskretheten i grensesnittet?" Sier Pablo Gallego, en av oppfinnerne av enheten, kalt ChewIt. “Folk kan ikke si om du har et samspill med ChewIt, eller om du har tyggegummi eller en gummy i munnen. Eller kanskje en karamell. ”
Gallego slo seg til ro med denne ideen, fast bestemt på å avgrense den og lage en prototype i forfølgelsen av sin mastergrad i ingeniørfag ved New Zealands University of Auckland. Forskning viste at mennesker kan gjenkjenne forskjellige former i munnen, omtrent som med fingertuppene. Og han visste at vi tåler tyggegummi og andre fremmedlegemer. Det som fulgte var mange års arbeid, med optimalisering av formfaktoren. Et rundt objekt ville ikke fungere; brukeren kunne ikke fortelle hvordan den var orientert. Den måtte være stor nok til å kontrollere, men liten nok til å stikke av i kinnet. Sammen med stipendiat Denys Matthies, laget Gallego ChewIt av en asymmetrisk klatt med polymerharpiks som inneholdt et kretskort med en knapp som kan kontrollere og bevege en stol.
Denne prototypen av ChewIt viser polymerharpiks og kretskort. (University of Auckland)Gallego og Matthies unnfanget og bygde ChewIt ved University of Aucklands Augmented Human Lab, en forskningsgruppe ingeniørprofessor Suranga Nanayakkara samlet for å finne opp verktøy designet for å tilpasse teknologi til menneskelig bruk, snarere enn omvendt. Nanayakkara resonnerte, det er et misforhold mellom hva teknologien vår gjør og hvordan den grensesnitt mot oss. Vi skulle ikke være nødt til å lære det; det skal lære oss.
"Kraftig teknologi, dårlig designet, vil få brukerne til å føle seg deaktivert, " sier Nanayakkara. “Kraftig teknologi med riktig mann-maskin-grensesnitt vil få folk til å føle seg styrket, og det vil gjøre menneske-til-menneske-samspillet i forgrunnen, [og] holde teknologien i bakgrunnen. Det hjelper å utnytte teknologiens fulle potensiale. ”
Nanayakkara har gått ut av sin vei for å sikre at studenter og forskere i hans produktive laboratorium er i stand til å lage basert på deres interesser, og samarbeide med hverandre om ideene sine. Ulike teknologier de har utviklet er bemerkelsesverdig. Det er en velkomstmatte som gjenkjenner beboere basert på deres fotavtrykk, inkludert brukerens vekt og sålenes sliteprofiler, og som låser opp døren for dem. Det er en personlig minnetrener som kobles til via lyd til tider når den gjenkjenner at brukeren har tid og oppmerksomhet til å øve. Det er en smart cricket-flaggermus som hjelper brukere med å trene grepet og svingene. Det er en trinndetektor for ganghjelpemidler for eldre, fordi FitBits og smartwatches ofte ikke teller trinn når folk bruker ruller.
Og det er GymSoles. Disse smarte innleggssålene fungerer som en vektløftertrener, og hjelper brukerne med å opprettholde riktig form og holdning under knebøy og dødløfter. "Disse har veldig forskjellige holdninger, " sier Samitha Elvitigala, som bygger enheten som en del av doktorgradsstipendiet. "Det er noen subtile bevegelser du må følge, ellers vil du ende opp med skader." Sensorer i sålene sporer føttens trykkprofil, beregner trykksenteret og sammenligner det med mønsteret det skal være - si om vektløfteren lener seg for langt tilbake eller for langt frem. Deretter gir enheten haptisk tilbakemelding i form av subtile vibrasjoner, som indikerer hvordan løfteren skal rette seg inn. Ved å justere vippet og plasseringen av føttene, beina og hoftene på riktig måte, faller hele kroppen i riktig form. Elvitigala raffinerer fortsatt prosjektet, og ser på hvordan det kan brukes til andre bruksområder, som å forbedre balansen hos Parkinsons pasienter eller hjerneslagsoffer.
Opprinnelsen til Augmented Human Lab går helt tilbake til en opplevelse Nanayakkara hadde på videregående. Arbeidet med studenter på en boligskole for døve, forsto at han alle utenom ham kommuniserte sømløst. Det fikk ham til å tenke nytt om kommunikasjon og evner. "Det handler ikke alltid om å fikse funksjonshemming, det handler om å få kontakt med mennesker, " sier han. “Jeg følte at jeg trengte noe for å være koblet med dem.” Senere merket han et lignende problem i kommunikasjonen med datamaskiner.
Han lærte å tenke på det som et designproblem mens han studerte ingeniørfag, og deretter som postdoc i dataforsker Pattie Maes 'Fluid Interfaces-gruppe, en del av MIT Media Lab. I likhet med Augmented Human Lab, bygger Fluid Interfaces-gruppen enheter designet for å forbedre den kognitive evnen via sømløse datamaskingrensesnitt.
"Enheter spiller en rolle i livene våre, og for øyeblikket er virkningen veldig negativ på vår fysiske velvære, vårt sosiale velvære, " sier Maes. "Vi må finne måter å integrere enheter bedre i våre fysiske liv, våre sosiale liv, slik at de blir mindre forstyrrende og får mindre negative effekter."
Målet, sier Maes, er ikke å få datamaskiner til å gjøre alt for oss. Vi har det bedre hvis de kan lære oss å gjøre ting selv, og hjelpe oss som vi gjør. For eksempel designet elevene hennes et par briller som sporer bærernes øyebevegelser og EEG, og minner dem om å fokusere på et foredrag eller en lesing når oppmerksomheten flagges. En annen bruker augmented reality for å hjelpe brukere med å kartlegge minner på gatene når de går, en romlig memoreringsteknikk som minnesmestere omtaler som et "minne palace." Sammenlign det med Google (kanskje du søker "Halloween kostymer" i stedet for å bli kreativ, sier Maes ) eller Google Maps, som i stor grad har erstattet vårt behov for å beholde informasjon eller forstå hvor vi er.
"Vi glemmer ofte at når vi bruker noen tjenester som dette, som forsterker oss, er det alltid en kostnad, " sier hun. “Mange enheter og systemer som vi bygger, forsterker en person med visse funksjoner. Men når du forsterker en eller annen oppgave eller evne, mister du også noen ganger litt av den evnen. ”
Kanskje Nanayakkaras mest kjente enhet, FingerReader, begynte i sin tid på MIT. FingerReader er designet for svaksynte og er enkel i grensesnittet - pek det ringbårne kameraet mot noe, klikk, og enheten vil fortelle deg hva det er, eller lese hvilken tekst som er på det, gjennom et sett hodetelefoner.
FingerReader fulgte Nanayakkara til Singapore, hvor han først startet Augmented Human Lab ved Singapore University of Technology and Design, og deretter til University of Auckland, hvor han flyttet teamet sitt 15 i mars 2018. * I den tiden, han og hans studentene har foredlet FingerReader og laget påfølgende versjoner. Som mange av de andre enhetene er FingerReader patentert (foreløpig), og kan en dag finne veien til markedet. (Nanayakkara grunnla en oppstart kalt ZuZu Labs for å produsere enheten, og produserer en testkjøring på noen hundre stykker.)
På noen måter takler utvidelsen av virtuelle assistenter som Siri, Alexa og Google Assistant lignende problemer. De tillater et mer naturlig grensesnitt, mer naturlig kommunikasjon mellom mennesker og deres allestedsnærværende datamaskiner. Men for Nanayakkara unngår de ikke enhetene hans, de tilbyr bare et nytt verktøy for å komplementere dem.
"Disse muliggjørende teknologiene er flotte, de trenger å skje, det er slik feltet går fremover, " sier han. ”Men noen må tenke på hvordan man best utnytter de fullstendige maktene til dem. Hvordan kan jeg utnytte dette for å skape det neste mest spennende samspillet mellom mann og maskin? ”
* Redaktørens merknad 15. april 2019: En tidligere versjon av denne artikkelen uttalte feil at Suranga Nanayakkara flyttet teamet sitt fra Singapore University of Technology and Design til University of Auckland i mai 2018, da det faktisk var i mars 2018. Historien er redigert for å rette opp i det faktum.