https://frosthead.com

Når maskiner ser

mønstergjenkjenning

Mønstergjenkjenning av en sommerfuglvinge. Bilde takket være Li Li

Her i Washington har vi hørt om denne tingen du kaller “forhåndsplanlegging”, men vi er ennå ikke klare til å omfavne den. Litt for futuristisk.

Likevel kan vi ikke la være å beundre langveisfra de som prøver å forutsi hva som kan skje mer enn en måned fra nå. Så jeg ble imponert for noen uker siden da de store tenkerne hos IBM forestilte verden for fem år derav og identifiserte hva de tror vil være fem innovasjonsområder som vil ha størst innvirkning på hverdagen vår.

De har gjort dette i noen år nå, men denne gangen fulgte de vanvittige susene et tema - de fem menneskelige sansene. Ikke at de sier at innen 2018 vil vi alle kunne se, høre og lukte bedre, men heller at maskiner vil - at ved å bruke hurtigutviklende sensoriske og kognitive teknologier, vil datamaskiner akselerere transformasjonen fra henting av data og behandler motorer til tenkeverktøy.

Ser du et mønster?

La oss i dag takle syn. Det er et logisk sprang å anta at IBM kanskje viser til Googles prosjektglass. Ingen tvil om at det har omdefinert rollen som briller, fra nerdete tilbehør som hjelper oss med å se bedre til combo-smarttelefon / datadykker som vi en dag vil ha på oss.

Men det er ikke det IBMerne snakker om. De er fokusert på maskinsyn, spesielt mønstergjenkjenning, der datamaskiner gjennom gjentatt eksponering for bilder kan identifisere ting.

Som det viser seg, var Google tilfeldigvis involvert i et av fjorårets mer bemerkelsesverdige mønstergjenkjenningseksperimenter, et prosjekt der et nettverk av 1 000 datamaskiner som bruker 16 000 prosessorer, etter å ha undersøkt 10 millioner bilder fra YouTube-videoer, var i stand til å lære seg hva en katt så ut.

Det som gjorde dette spesielt imponerende er at datamaskinene klarte å gjøre det uten noen menneskelig veiledning om hva de skulle se etter. All læring ble gjort gjennom maskinene som jobbet sammen for å bestemme hvilke funksjoner hos katter som fortjener oppmerksomheten og hvilke mønstre som betydde noe.

Og det er modellen for hvordan maskiner skal lære seg syn. Slik forklarer John Smith, en toppsjef i IBMs Intelligent Information Management, det:

«La oss si at vi ønsket å lære en datamaskin hvordan en strand ser ut. Vi ville begynne med å vise datamaskinen mange eksempler på strandscener. Datamaskinen ville gjøre disse bildene til forskjellige funksjoner, for eksempel fargedistribusjoner, teksturmønstre, kantinformasjon eller bevegelsesinformasjon i tilfelle av video. Deretter skulle datamaskinen begynne å lære å diskriminere strandscener fra andre scener basert på disse forskjellige funksjonene. For eksempel vil det lære at for en strandscene, er det vanligvis visse fargefordelinger sammenlignet med et bybilde i sentrum. "

Hvor smart er smart?

Bra for dem. Men innse det, å identifisere en strand er ganske grunnleggende ting for de fleste av oss mennesker. Kan vi bli revet med på hvor mye tenkemaskiner som kan gjøre for oss?

Gary Marcus, psykologiprofessor ved New York University, mener det. Han skrev nylig på The New Yorkers nettsted, og konkluderer at selv om det er gjort store fremskritt i det som har blitt kjent som “dyp læring”, har maskiner fremdeles en lang vei å gå før de skal anses som virkelig intelligente.

”Realistisk sett er dyp læring bare en del av den større utfordringen med å bygge intelligente maskiner. Slike teknikker mangler måter å representere årsakssammenhenger (for eksempel mellom sykdommer og deres symptomer), og vil sannsynligvis møte utfordringer med å tilegne seg abstrakte ideer som "søsken" eller "identisk med." De har ingen åpenbare måter å utføre logiske slutninger på, og de er også fortsatt langt fra å integrere abstrakt kunnskap, for eksempel informasjon om hva gjenstander er, hva de er for og hvordan de vanligvis brukes. ”

Folkene hos IBM vil uten tvil anerkjenne like mye. Læring av maskiner kommer i trinn, ikke sprang.

Men de tror at dyp læring i løpet av fem år har tatt nok fremskritt til at datamaskiner for eksempel vil begynne å spille en mye større rolle i medisinsk diagnose, at de faktisk kan bli bedre enn leger når det gjelder å oppdage svulster, blodpropp eller syke vev i MR, røntgenstråler eller CT-skanninger.

Og det kan utgjøre en stor forskjell i livene våre.

Å se er å tro

Her er flere måter maskinsynet påvirker livene våre:

  • Sette din beste arm frem: Teknologi utviklet ved University of Pittsburgh bruker mønstergjenkjenning for å gjøre paraplegics i stand til å kontrollere en robotarm med hjernen.
  • Munnen din sier ja, men hjernen din sier nei: Forskere ved Stanford fant ut at bruk av mønstergjenkjenningsalgoritmer på MR-skanninger av hjerner kan hjelpe dem med å finne ut om noen faktisk hadde korsryggsmerter eller om de forfalsket det.
  • Når føflekkene dine er klare for nærbilder: I fjor lanserte en rumensk oppstart med navnet SkinVision en iPhone-app som lar folk ta et bilde av føflekker på huden og deretter få SkinVisions anerkjennelsesprogramvare til å identifisere eventuelle uregelmessigheter og påpeke risikonivået - uten tilbyr en faktisk diagnose. Neste trinn er å gjøre det mulig for folk å sende bilder av huden direkte til hudlegen sin.
  • Har jeg fått en avtale for deg: Nå under utvikling er en markedsføringsteknologi kalt Facedeals. Det fungerer slik: Når et kamera ved en butikkinngang gjenkjenner deg, blir du sendt tilpassede butikkavtaler på smarttelefonen din. Og ja, du må velge deg inn først.
  • Jeg ville vite at forseglingen hvor som helst: Et datastyrt foto-ID-system som bruker mønstergjenkjenning, hjelper britiske forskere med å spore grå seler, som har unike markeringer på strøkene.

Videobonus: Mens vi er gjenstand for kunstig intelligens, er her en robot-sverm som spiller Beethoven, komplimenter av forskere ved Georgia Tech. Satser på at du ikke forventet å se det i dag.

Mer fra Smithsonian.com

En mer menneskelig kunstig hjerne

Hvordan teknologi bekjemper terrorisme

Når maskiner ser