Hjernemaskingrensesnitt var en gang ting av science fiction. Men teknologien - som muliggjør direkte kommunikasjon mellom en persons eller dyrs hjerne og en ekstern enhet eller en annen hjerne - har kommet langt det siste tiåret.
Forskere har utviklet grensesnitt som lar lammede mennesker skrive bokstaver på en skjerm, la en person bevege en annens hånd med tankene sine og til og med gjøre det mulig for to rotter å handle tanker - i dette tilfellet kunnskapen om hvordan man løser en bestemt oppgave - når de ligger i laboratorier tusenvis av miles fra hverandre.
Nå har et team ledet av Miguel Nicolelis fra Duke University (forskeren bak rottetankingsordningen, blant annet hjernemaskingrensesnitt) laget et nytt oppsett som lar apene kontrollere to virtuelle armer bare ved å tenke på å bevege sine virkelige armer . De håper at teknologien, avslørt i en artikkel publisert i dag i Science Translational Medicine, en dag kan føre til lignende grensesnitt som lar lammede mennesker bevege robotarmer og bein.
Tidligere hadde teamet til Nicolelis og andre laget grensesnitt som gjorde at aper og mennesker kunne bevege en enkelt arm på lignende måte, men dette er den første teknologien som lar et dyr bevege flere lemmer samtidig. "Bimanuelle bevegelser i våre daglige aktiviteter - fra å skrive på et tastatur til å åpne en boks - er kritisk viktige, " sa Nicolelis i en pressemelding. "Fremtidige grensesnitt mellom hjerner og maskiner som tar sikte på å gjenopprette mobilitet hos mennesker, må innlemme flere lemmer for å dra stor nytte av alvorlig lammede pasienter.
I likhet med gruppens tidligere grensesnitt, er den nye teknologien avhengig av ultratynne elektroder som er kirurgisk innebygd i hjernebarken til apenes hjerner, et område i hjernen som kontrollerer frivillige bevegelser, blant andre funksjoner. Men i motsetning til mange andre grensesnitt mellom hjerner og maskiner, som bruker elektroder som overvåker hjerneaktivitet i bare en håndfull nevroner, registrerte Nicolelis 'team aktivitet i nesten 500 hjerneceller fordelt på en rekke cortexområder i de to rhesusapene som var testpersoner for denne studien.
Deretter, i løpet av noen uker, satte de apekattene gjentatte ganger foran en skjerm, hvor de så et par virtuelle armer fra et førstepersonsperspektiv. Til å begynne med kontrollerte de hver av armene med joysticks, og fullførte en oppgave der de måtte flytte armene for å dekke over bevegelige former for å motta en belønning (en smak av juice).
Da dette skjedde, registrerte elektrodene hjerneaktiviteten i apene som korrelerte med de forskjellige armbevegelsene, og algoritmer analyserte den for å bestemme hvilke spesifikke mønstre i neuronaktivering som var knyttet til hva slags armbevegelser - venstre eller høyre, og fremover eller bakover .
Etter hvert, når algoritmen nøyaktig kunne forutsi apens tiltenkte armbevegelse basert på hjernemønstrene, ble oppsettet endret slik at joysticken ikke lenger kontrollerte de virtuelle armene - apekattenes tanker, som registrert av elektrodene, hadde kontroll i stedet. Fra apenes perspektiv hadde ingenting endret seg, ettersom joysticken fremdeles ble satt ut foran dem, og kontrollen var basert på hjernemønstre (spesifikt, og forestilte seg at armene beveget seg) som de produserte uansett.
Innen to uker skjønte begge apene at de ikke trengte å bevege hendene og manipulere joysticken for å bevege de virtuelle armene - de måtte bare tenke på å gjøre det. Med tiden ble de flinkere og bedre til å kontrollere de virtuelle armene gjennom dette maskin-hjerne-grensesnittet, og til slutt gjøre det like effektivt som de hadde flyttet styrespakene.
Fremtidige fremskritt i denne typen grensesnitt kan være enormt verdifullt for mennesker som har mistet kontrollen over sine egne lemmer på grunn av lammelse eller andre årsaker. Etter hvert som høyteknologiske bioniske lemmer fortsetter å utvikle seg, kan disse typer grensesnitt etter hvert være slik de blir brukt på daglig basis. En person med ryggmargsskade, for eksempel, kunne lære å effektivt forestille seg å bevege to armer slik at en algoritme kunne tolke hjernemønstrene hans for å flytte to robotarmer på ønsket måte.
Men hjernemaskingrensesnitt kan også en dag betjene en mye større befolkning: brukere av smarttelefoner, datamaskiner og annen forbrukerteknologi. Allerede har selskaper utviklet hodesett som overvåker hjernebølgene dine slik at du kan flytte en karakter rundt i et videospill bare ved å tenke på det, og i det vesentlige bruke hjernen din som en joystick. Til slutt ser noen ingeniører for seg at hjernemaskingrensesnitt kan gjøre det mulig for oss å manipulere nettbrett og kontrollere bærbar teknologi som Google Glass uten å si et ord eller berøre en skjerm.