https://frosthead.com

Hva skjer når kunstig intelligens slår på oss?

Kunstig intelligens har kommet langt siden R2-D2. I disse dager ville de fleste årtusener gå tapt uten smarte GPS-systemer. Roboter navigerer allerede på slagmarkene, og droner kan snart levere Amazon-pakker til dørstokken.

Siri kan løse kompliserte likninger og fortelle deg hvordan du koker ris. Hun har til og med bevist at hun til og med kan svare på spørsmål med en sans for humor.

Men alle disse fremskrittene avhenger av at en bruker gir AI-retning. Hva ville skje hvis GPS-enheter bestemte seg for at de ikke ville gå til renseriene, eller enda verre, Siri bestemte seg for at hun kunne bli smartere uten deg?

Vår siste oppfinnelse: Kunstig intelligens og slutten av den menneskelige epoken. "> Den siste oppfinnelsen vår: Kunstig intelligens og slutten av den menneskelige æra. ">" Før vi deler planeten med superintelligente maskiner, må vi utvikle en vitenskap for å forstå dem. Ellers vil de ta kontrollen, "sier forfatteren James Barrat om sin nye bok, Our Final Invention: Artificial Intelligence and the End of the Human Era . (Courtesy of James Barrat)

Dette er bare den tamest av resultatene James Barrat, en forfatter og dokumentarfilmskaper, spår i sin nye bok, Our Final Invention: Artificial Intelligence and the End of the Human Era .

Om ikke lenge, sier Barrat, vil kunstig intelligens - fra Siri til droner og data mining-systemer - slutte å lete etter mennesker for oppgraderinger og begynne å søke forbedringer på egen hånd. Og i motsetning til R2-D2s og HALs av science fiction, vil ikke fremtidens AI nødvendigvis være vennlig, sier han: de kan faktisk være det som ødelegger oss.

I et nøtteskall, kan du forklare den store ideen din?

I dette århundret vil forskere lage maskiner med intelligens som tilsvarer og deretter overgår våre egne. Men før vi deler planeten med superintelligente maskiner, må vi utvikle en vitenskap for å forstå dem. Ellers tar de kontrollen. Og nei, dette er ikke science fiction.

Forskere har allerede laget maskiner som er bedre enn mennesker ved sjakk, Jeopardy!, navigasjon, data mining, search, theorem bevising og utallige andre oppgaver. Etter hvert vil det bli laget maskiner som er bedre enn mennesker ved AI-forskning

På det tidspunktet vil de kunne forbedre sine egne evner veldig raskt. Disse selvforbedrende maskinene vil forfølge målene de er opprettet med, enten de er romutforskning, spiller sjakk eller plukker aksjer. For å lykkes vil de søke og bruke ressurser, det være seg energi eller penger. De vil søke å unngå feilmodusene, som å være slått av eller koblet fra. Kort sagt, de vil utvikle stasjoner, inkludert selvbeskyttelse og ressurserverv - stasjoner omtrent som våre egne. De vil ikke nøle med å tigge, låne, stjele og verre for å få det de trenger.

Hvordan ble du interessert i dette emnet?

Jeg er en dokumentarfilmskaper. I 2000 intervjuet jeg oppfinneren Ray Kurzweil, robotisten Rodney Brooks og sci-fi-legenden Arthur C. Clarke for en TLC-film om fremstilling av romanen og filmen, 2001: A Space Odyssey. Intervjuene utforsket ideen om Hal 9000 og ondskapsfulle datamaskiner. Kurzweils bøker har fremstilt AI-fremtiden som en skremmende "singularitet", en periode der teknologiske fremskritt overgår menneskers evne til å forstå dem. Likevel forventet han bare gode ting som dukker opp fra AI som er sterke nok til å matche og deretter overgå menneskelig intelligens. Han spår at vi vil kunne omprogrammere cellene i kroppene våre for å beseire sykdom og aldring. Vi vil utvikle super utholdenhet med nanoboter som leverer mer oksygen enn røde blodlegemer. Vi overlader hjernen vår med datamaskinimplantater slik at vi blir superintelligente. Og vi hjelper våre hjerner til et mer holdbart medium enn vår nåværende "våtvare" og lever for alltid hvis vi vil. Brooks var optimistisk og insisterte på at AI-forbedrede roboter ville være allierte, ikke trusler.

Forsker-vendte forfatter Clarke var derimot pessimistisk. Han fortalte at intelligens vil vinne ut, og mennesker vil sannsynligvis konkurrere om overlevelse med superintelligente maskiner. Han var ikke spesifikk om hva som ville skje når vi deler planeten med superintelligente maskiner, men han følte at det ville være en kamp for menneskeheten at vi ikke ville vinne.

Det gikk imot alt jeg hadde tenkt på AI, så jeg begynte å intervjue eksperter på kunstig intelligens.

Hvilke bevis har du for å støtte ideen din?

Avansert kunstig intelligens er en teknologi med dobbelt bruk, som kjernefysisk fisjon, i stand til stor skade eller stor skade. Vi begynner akkurat å se skaden.

NSAs personvernskandale oppstod fordi NSA utviklet veldig sofistikerte data-mining-verktøy. Byrået brukte sin makt til å rørge metadataene til millioner av telefonsamtaler og hele Internett - kritisk, all e-post. Forført av kraften fra data-mining AI misbrukte et byrå som ble beskyttet for å beskytte grunnloven i stedet. De utviklet verktøy som er for kraftige til at de kan brukes på en ansvarlig måte.

I dag brygger det et annet slag om å lage fullstendig autonome drapsmenn og slagmarkroboter drevet av avanserte AI - menneskedrapere uten mennesker i loopen. Det brygger mellom Forsvarsdepartementet og drone- og robotprodusentene som betales av DOD, og ​​folk som synes det er dumt og umoralsk å lage intelligente drapsmaskiner. De som går inn for autonome droner og slagmarkroboter hevder at de vil være mer moralske - det vil si mindre emosjonelle, vil målrette seg bedre og være mer disiplinerte enn menneskelige operatører. De mot å ta mennesker ut av løkken ser på drones elendige historie med å drepe sivile og involvering i utenomrettslige attentater. Hvem legger på seg den moralske skylden når en robot dreper? Robotprodusentene, robotbrukerne, eller ingen? Nevermind de tekniske hindringene for å fortelle venn fra fiende.

Som eksperter i boka mine argumenterer for , vil ikke AI som nærmer seg intelligens på menneskelig nivå lett kontrolleres på lengre sikt; dessverre innebærer superintelligens ikke velvilje. Som AI-teoretiker Eliezer Yudkowsky fra MIRI [Machine Intelligence Research Institute] uttrykker det, "AI elsker deg ikke og hater den heller ikke, men du er laget av atomer den kan bruke til noe annet." Hvis etikk ikke kan bygges inn i en maskin, så lager vi superintelligente psykopater, skapninger uten moralske kompasser, og vi vil ikke være deres mestere på lenge.

Hva er nytt med tankegangen din?

Enkeltpersoner og grupper så forskjellige som den amerikanske dataforskeren Bill Joy og MIRI har lenge advart om at vi har mye å frykte fra maskiner hvis intelligens formørker vår egen. I vår siste oppfinnelse argumenterer jeg for at AI også vil bli misbrukt på utviklingsveien til intelligens på menneskelig nivå. Mellom i dag og dagen da forskere skaper intelligens på menneskelig nivå, vil vi ha AI-relaterte feil og kriminelle applikasjoner.

Hvorfor har ikke mer blitt gjort, eller hva gjøres for å hindre AI i å slå på oss?

Det er ikke en grunn, men mange. Noen eksperter tror ikke vi er nær nok til å skape kunstig intelligens på menneskelig nivå og utover å bekymre deg for risikoen. Mange AI-produsenter vinner kontrakter med Defense Advanced Research Projects Agency [DARPA] og ønsker ikke å ta opp spørsmål de anser som politiske. Normalitetsskjevheten er en kognitiv skjevhet som forhindrer folk i å reagere på katastrofer og katastrofer underveis - det er definitivt en del av det. Men mange AI-produsenter gjør noe. Sjekk forskerne som gir råd til MIRI. Og mye mer vil involveres når farene ved avansert AI går inn i mainstream-dialogen.

Kan du beskrive et øyeblikk da du visste at dette var stort?

Vi mennesker styrer fremtiden ikke fordi vi er de raskeste eller de sterkeste skapningene på planeten, men fordi vi er de smarteste. Når vi deler planeten med skapninger smartere enn oss selv, vil de styre fremtiden. Da jeg forsto denne ideen, følte jeg at jeg skrev om det viktigste spørsmålet i vår tid.

Hver stor tenker har forgjengerne som arbeidet var avgjørende for oppdagelsen hans. Hvem ga deg grunnlaget for å bygge ideen din?

Grunnlaget for AI risikoanalyse ble utviklet av matematikeren IJ Good, science fiction skribent Vernor Vinge, og andre inkludert AI-utvikler Steve Omohundro. I dag er MIRI og Oxford's Future of Humanity Institute nesten alene om å løse dette problemet. Den endelige oppfinnelsen vår har rundt 30 sider med sluttnoter som anerkjenner disse tenkerne.

Hva har vært høydepunktet når du forsker og utvikler ideen din? Og lavpunktet?

Høydepunktene var å skrive Our Final Invention, og min pågående dialog med AI-produsenter og teoretikere. Mennesker som programmerer AI er klar over sikkerhetsproblemene og ønsker å hjelpe med å komme fram med sikkerhetstiltak. For eksempel jobber MIRI med å lage "vennlig" AI

Dataforsker og teoretiker Steve Omohundro har tatt til orde for en "stillas" -tilnærming, der beviselig sikker AI er med på å bygge den neste generasjonen AI for å sikre at også den er trygg. Så gjør AI det samme, og så videre. Jeg tror det må opprettes et offentlig-privat partnerskap for å bringe AI-produsenter for å dele ideer om sikkerhet - noe som det internasjonale atomenergibyrået, men i samarbeid med selskaper. Lavpunktene? Å innse at den beste, mest avanserte AI-teknologien vil bli brukt til å lage våpen. Og disse våpnene vil til slutt snu mot oss.

Hvilke to eller tre personer er mest sannsynlig å prøve å tilbakevise argumentet ditt? Hvorfor?

Oppfinner Ray Kurzweil er sjefsapolog for avanserte teknologier. I de to intervjuene mine med ham, hevdet han at vi ville smelte sammen med AI-teknologiene gjennom kognitive forbedringer. Kurzweil og mennesker som i det store og hele kalles transhumanister og singularitariere tror AI og til slutt kunstig generell intelligens og videre vil utvikle seg med oss. For eksempel vil datamaskinimplantater forbedre hjernens hastighet og generelle evner. Etter hvert skal vi utvikle teknologien for å transportere vår intelligens og bevissthet til datamaskiner. Da vil superintelligens i det minste delvis være menneskelig, noe som i teorien ville sikre at superintelligens var "trygt."

Av mange grunner er jeg ikke tilhenger av dette synspunktet. Problemet er at vi mennesker ikke er pålitelig trygge, og det virker usannsynlig at superintelligente mennesker vil være det heller. Vi aner ikke hva som skjer med et menneskes etikk etter at deres intelligens er styrket. Vi har et biologisk grunnlag for aggresjon som maskiner mangler. Superintelligens kan godt være en aggresjonsmultiplikator.

Hvem blir mest berørt av denne ideen?

Alle på planeten har mye å frykte fra den uregulerte utviklingen av superintelligente maskiner. Et etterretningsløp pågår akkurat nå. Å oppnå AGI er jobb nummer én for Google, IBM og mange mindre selskaper som Vicarious og Deep Thought, samt DARPA, NSA og myndigheter og selskaper i utlandet. Profitt er den viktigste motivasjonen for det løpet. Se for deg et sannsynlig mål: en virtuell menneskelig hjerne til en datamaskin. Det ville være den mest lukrative varen i historien. Se for deg banker med tusenvis av hjerner fra ph.d.-kvalitet som jobber 24/7 med legemiddelutvikling, kreftforskning, våpenutvikling og mye mer. Hvem vil ikke kjøpe den teknologien?

I mellomtiden utvikler 56 nasjoner slagmarkrobotene, og drivkraften er å gjøre dem og droner til autonome. De vil være maskiner som dreper, uten tilsyn av mennesker. Utarmede nasjoner vil bli skadet mest av autonome droner og slagmarkroboter. Til å begynne med er det bare rike land som har råd til autonome drapsboter, så rike nasjoner vil utøve disse våpnene mot menneskelige soldater fra fattige nasjoner.

Hvordan kan det endre livet, slik vi kjenner det?

Tenk deg: om så lite som et tiår felt et halvt dusin selskaper og nasjoner datamaskiner som konkurrerer eller overgår menneskelig intelligens. Se for deg hva som skjer når disse datamaskinene blir ekspert på programmering av smarte datamaskiner. Snart deler vi planeten med maskiner tusenvis eller millioner ganger mer intelligente enn vi er. Og hele tiden vil hver generasjon av denne teknologien bli våpen. Uregulert vil det være katastrofalt.

Hvilke spørsmål blir ikke besvart?

Løsninger. Den åpenbare løsningen vil være å gi maskinene en moralsk følelse som gjør at de verdsetter menneskers liv og eiendom. Men å programmere etikk til en maskin viser seg å være ekstremt vanskelig. Moralske normer skiller seg fra kultur til kultur, de endres over tid og er kontekstuelle. Hvis vi mennesker ikke kan være enige om når livet begynner, hvordan kan vi da fortelle en maskin om å beskytte livet? Vil vi virkelig være trygge , eller vil vi virkelig være fri ? Vi kan diskutere det hele dagen og ikke oppnå enighet, så hvordan kan vi programmere det?

Vi må også, som jeg nevnte tidligere, få AI-utviklere sammen. På 1970-tallet bestemte rekombinante DNA-forskere å stanse forskningen og komme sammen til en konferanse på Asilomar i Pacific Grove, California. De utviklet grunnleggende sikkerhetsprotokoller som "ikke sporer DNA på skoene dine", i frykt for å forurense miljøet med pågående genetiske verk. På grunn av “Asilomar Guidelines” drar verden fordel av genmodifiserte avlinger, og genterapi ser lovende ut. Så vidt vi vet ble ulykker unngått. Det er tid for en Asilomar-konferanse for AI

Hva står i veien?

En enorm økonomisk vind fremmer utviklingen av avansert intelligens på menneskelig nivå til en datamaskin som pris vil være den hotteste varen i historien. Google og IBM vil ikke dele hemmelighetene sine med publikum eller konkurrenter. Forsvarsdepartementet vil ikke åpne laboratoriene sine for Kina og Israel, og omvendt. Offentlig bevissthet må skyve politikk mot åpenhet og offentlig-private partnerskap designet for å sikre sikkerhet.

Hva er det neste for deg?

Jeg er en dokumentarfilmskaper, så jeg tenker selvfølgelig på en filmversjon av Our Final Invention .

Hva skjer når kunstig intelligens slår på oss?