https://frosthead.com

Nevrovitere har konvertert hjernebølger til muntlig tale

Den samme teknologien som styrker din chatte mobile assistent kan en dag gi en stemme til de som har mistet evnen til å snakke. Som Renae Reints rapporterer for Fortune, gjorde nevrovitenskapsmenn fra Columbia University nylig et stort fremskritt mot dette futuristiske målet og omsatte hjernebølger til forståelig tale for første gang.

Teamets forskning, publisert i Scientific Reports, innebærer en noe ukonvensjonell tilnærming. I stedet for direkte å spore tanker for å produsere tale, registrerte forskerne nevrologiske mønstre generert av testpersoner som lytter til andre snakker. Disse hjernebølgene ble ført inn i en vokoder - en kunstig intelligensalgoritme som syntetiserer tale - og deretter konvertert til forståelige, om enn robotlydende, tale som speiler setningene som deltakerne hørte.

"Stemmene våre hjelper oss med å koble oss til våre venner, familie og verden rundt oss, og det er grunnen til at det er så ødeleggende å miste kraften i ens stemme på grunn av skade eller sykdom, " sier studieforfatter Nima Mesgarani, ingeniør i Columbias nevrobiologiprogram. en uttalelse. "Med dagens studie har vi en potensiell måte å gjenopprette den kraften. Vi har vist at med riktig teknologi kan disse menneskers tanker dekodes og forstås av enhver lytter. "

Ifølge Gizmodos George Dvorsky er det verdt å merke seg at forskere ennå ikke har funnet ut hvordan de direkte kan oversette interne tanker, også kjent som innbilt tale, til ord. I dette ideelle scenariet vil enkeltpersoner som bruker taleteknologi bare se for seg hva de ønsket å si, og deretter vente på at et kunstig stemmesystem skal verbalisere disse tankene.

Den avdøde britiske fysikeren Stephen Hawking brukte en rudimentær versjon av talesynteteknologi for å kommunisere med andre. Som Nina Godlewski skriver for Newsweek, ble Hawking diagnostisert med amyotrofisk lateral sklerose (ALS) i en alder av 21. Den motoriske nevronsykdommen hevdet til slutt taleevnen sin, og tvang ham til å bruke en håndholdt klikker for å utløse tale.

Da Hawking mistet bruken av hendene, byttet han til et system basert på ansiktsbevegelser; Gizmodos Dvorsky forklarer videre at forskeren brukte en kinnebryter koblet til brillene sine for å velge ord som ble talt av en stemmesynteser.

En avansert iterasjon av denne teknologien ville utelate den midterste mannen og gjøre det mulig for brukere å produsere tale uten hjelp av en datamaskin eller bevegelsesfølsomt system.

Til sammenligning, Avery Thompson bemerker for Popular Mechanics, studerer Columbia-teamet studien om å oversette "overhørt tale." Forskere rekrutterte fem epilepsipasienter som skulle gjennomgå hjernekirurgi og ba dem lytte til en rekke talte ord - for eksempel en innspilling av noen teller fra null til ni — mens de er koblet til nevrale overvåkingsenheter.

Hjernebølgene fanget av disse verktøyene ble satt inn i vokoderen, som syntetiserte tale ved hjelp av et nevralt nettverk som ble opplært, med ord fra Futurismens Kristin Houser, for å "rydde opp" output og gjøre lydene forståelige.

Deretter ba forskerne 11 andre deltakere om å lytte til talen som ble aktivert med AI. Betydelig, studerer medforfatter Mesgarani i uttalelsen fra Columbia, at disse individene var i stand til å "forstå og gjenta" lydene rundt 75 prosent av tiden - "godt og utover" hastighetene som ble sett i tidligere eksperimenter. (Du kan bedømme innspillingene selv her.)

I et intervju med Gizmodos Dvorsky sier Mesgarani at han og kollegene håper å syntetisere mer komplekse setninger i løpet av en nær fremtid. Forskerne ønsker også å registrere hjernesignaler generert av testpersoner som tenker eller forestiller seg handlingen av å snakke i stedet for bare å lytte til andre snakke. Til slutt, legger Mesgarani til i uttalelsen, har teamet som mål å en dag transformere teknologien til et implantat som er i stand til å oversette en brukeres tanker direkte til ord.

Potensielle begrensninger i den nye forskningen inkluderer dens lille prøvestørrelse, og ifølge Newcastle University nevrovitenskapsmann Andrew Jackson, som ikke var involvert i studien, var det faktum at nevrale nettverk måtte introduseres for et stort antall hjernesignaler fra hver nye deltaker. for å syntetisere tale utover tallene null til ni.

"Det vil være interessant i fremtiden å se hvor godt dekodere som er trent for en person, generaliserer til andre individer, " forteller Jackson til Gizmodo . “Det er litt som tidlige talegjenkjenningssystemer som måtte trent individuelt av brukeren, i motsetning til dagens teknologi, som Siri og Alexa, som kan gi mening for noens stemme, igjen ved å bruke nevrale nettverk. Bare tiden vil vise om disse teknologiene en dag kan gjøre det samme for hjernesignaler. "

Nevrovitere har konvertert hjernebølger til muntlig tale