https://frosthead.com

Hvordan forståelse av dyr kan hjelpe oss med å få mest mulig ut av kunstig intelligens

Hver dag dukker det utallige overskrifter fra utallige kilder over hele kloden, både som advarer om alvorlige konsekvenser og lovende utopiske fremtider - alt takket være kunstig intelligens. AI “transformerer arbeidsplassen”, skriver Wall Street Journal, mens magasinet Fortune forteller at vi står overfor en “AI-revolusjon” som vil “forandre livene våre.” Men vi forstår egentlig ikke hvordan det å samhandle med AI vil være - eller hvordan det skal være.

Det viser seg imidlertid at vi allerede har et konsept vi kan bruke når vi tenker på AI: Det er slik vi tenker om dyr. Som en tidligere dyretrener (om enn kort) som nå studerer hvordan folk bruker AI, vet jeg at dyr og dyreopplæring kan lære oss ganske mye om hvordan vi bør tenke på, tilnærme oss og samhandle med kunstig intelligens, både nå og i framtid.

Å bruke dyreanalogier kan hjelpe vanlige mennesker til å forstå mange av de komplekse aspektene ved kunstig intelligens. Det kan også hjelpe oss å tenke på hvordan vi best kan lære disse systemene nye ferdigheter, og kanskje viktigst av alt, hvordan vi kan tenke oss begrensningene deres, selv om vi feirer AIs nye muligheter.

Ser på begrensninger

Som AI-ekspert Maggie Boden forklarer, “Kunstig intelligens søker å få datamaskiner til å gjøre det slags ting sinn kan gjøre.” AI-forskere jobber med å lære datamaskiner å resonnere, oppfatte, planlegge, bevege seg og gjøre assosiasjoner. AI kan se mønstre i store datasett, forutsi sannsynligheten for at en hendelse skal inntreffe, planlegge en rute, administrere en persons møteplan og til og med spille krigsspill-scenarier.

Mange av disse egenskapene er i seg selv ikke overraskende: Selvfølgelig kan en robot rulle rundt i et rom og ikke kollidere med noe. Men på en eller annen måte virker AI mer magisk når datamaskinen begynner å sette sammen disse ferdighetene for å utføre oppgaver.

Ta for eksempel autonome biler. Opprinnelsen til den førerløse bilen er i et 1980-års epoke Defense Advanced Research Project Agency Agency-kalt Autonom Land Vehicle. Prosjektets mål var å oppmuntre til forskning på datasyn, persepsjon, planlegging og robotkontroll. I 2004 ble ALV-innsatsen den første Grand Challenge for selvkjørende biler. Nå, mer enn 30 år siden innsatsen begynte, ligger vi på stupet av autonome eller selvkjørende biler på det sivile markedet. De første årene trodde de færreste at en slik bragd var umulig: Datamaskiner kunne ikke kjøre!

Likevel kan de, som vi har sett. Autonome biler er relativt enkle å forstå. Men vi sliter med å forstå begrensningene deres. Etter den fatale Tesla-krasjen i 2015, der bilens autopilotfunksjon ikke klarte å kjenne en traktor-tilhenger som krysset inn i kjørefeltet, ser det fremdeles ut til at noen fatter alvoret i hvor begrenset Teslas autopilot egentlig er. Mens selskapet og programvaren ble renset for uaktsomhet av National Highway Traffic Safety Administration, er det fortsatt uklart om kundene virkelig forstår hva bilen kan og ikke kan gjøre.

Hva om Tesla-eiere ikke ble fortalt at de kjørte en "beta" -versjon av en autopilot, men snarere en semi-autonom bil med den mentale ekvivalensen til en orm? Den såkalte "intelligensen" som gir "full selvkjøringsevne" er virkelig en gigantisk datamaskin som er ganske flink til å føle objekter og unngå dem, gjenkjenne bilder i bilder og begrenset planlegging. Det kan endre eieres perspektiver om hvor mye bilen virkelig kunne gjort uten menneskelig innspill eller tilsyn.

Hva er det?

Teknologer prøver ofte å forklare AI med tanke på hvordan det er bygget. Ta for eksempel fremskritt gjort i dyp læring. Dette er en teknikk som bruker flerlags nettverk for å lære hvordan du gjør en oppgave. Nettverkene må behandle enorme mengder informasjon. Men på grunn av datamengden de trenger, kompleksiteten i assosiasjonene og algoritmene i nettverkene, er det ofte uklart for mennesker hvordan de lærer hva de gjør. Disse systemene kan bli veldig gode til en bestemt oppgave, men vi forstår dem ikke egentlig.

I stedet for å tenke på AI som noe overmenneskelig eller fremmed, er det lettere å analogisere dem til dyr, intelligente ikke-menneskelige vi har erfaring med å trene.

Hvis jeg for eksempel skulle bruke forsterkningslæring for å trene en hund til å sitte, ville jeg berømme hunden og gi ham godbiter når han sitter på kommando. Over tid ville han lære å knytte kommandoen til oppførselen til godbiten.

Å trene et AI-system kan være veldig det samme. For å styrke dyp læring, har menneskelige designere satt opp et system, sett for seg hva de vil at det skal lære, gi det informasjon, se på dets handlinger og gi det tilbakemeldinger (for eksempel ros) når de ser hva de vil. I bunn og grunn kan vi behandle AI-systemet som om vi behandler dyr vi trener.

Analogien fungerer også på et dypere nivå. Jeg forventer ikke at den sittende hunden skal forstå komplekse begreper som "kjærlighet" eller "god." Jeg forventer at han lærer en oppførsel. Akkurat som vi kan få hunder til å sitte, bli og rulle over, kan vi få AI-systemer til å flytte biler rundt offentlige veier. Men det er for mye å forvente at bilen "løser" de etiske problemene som kan oppstå i akutte nødsituasjoner.

Hjelper forskere også

Å tenke på AI som et trenbart dyr er ikke bare nyttig for å forklare det for allmennheten. Det er også nyttig for forskere og ingeniører som bygger teknologien. Hvis en AI-stipendiat prøver å lære et system en ny ferdighet, kan det å tenke på prosessen sett fra et dyretreners perspektiv, bidra til å identifisere potensielle problemer eller komplikasjoner.

For eksempel, hvis jeg prøver å trene hunden min til å sitte, og hver gang jeg sier "sitte" summeren til ovnen går, vil hunden min begynne å assosiere sittende ikke bare med kommandoen min, men også med lyden fra ovnens summer. I hovedsak blir summeren et annet signal som forteller hunden å sitte, som kalles en "tilfeldig forsterkning." Hvis vi ser etter tilfeldige forsterkninger eller signaler i AI-systemer som ikke fungerer som de skal, vet vi bedre ikke bare hva som skjer galt, men også hvilken spesifikk omskolering som vil være mest effektiv.

Dette krever at vi forstår hvilke meldinger vi gir under AI-trening, samt hva AI-en kan observere i omgivelsene. Ovnens summer er et enkelt eksempel; i den virkelige verden vil det være langt mer komplisert.

Før vi ønsker AI-overherrer velkommen og overleverer våre liv og jobber til roboter, bør vi ta en pause og tenke på hva slags intelligenser vi skaper. De vil være veldig flinke til å gjøre bestemte handlinger eller oppgaver, men de kan ikke forstå begreper og vet ikke noe. Så når du tenker på å beskjedne tusenvis for en ny Tesla-bil, husk at autopilot-funksjonen egentlig bare er en veldig rask og sexy orm. Vil du virkelig gi en orm kontroll over livet ditt og dine kjære? Sannsynligvis ikke, så hold hendene på rattet og ikke sovner.


Denne artikkelen ble opprinnelig publisert på The Conversation. Samtalen

Heather Roff, seniorforsker, Institutt for politikk og internasjonale forhold, University of Oxford; Forskningsforsker, Global Security Initiative, Arizona State University

Hvordan forståelse av dyr kan hjelpe oss med å få mest mulig ut av kunstig intelligens