https://frosthead.com

Kan maskiner lære seg moral?

Da John Brennan, president Obamas valg om å være den neste lederen av CIA, dukket opp for en senatkomité i går, erstattet ett spørsmål alle andre under hans konfirmantforhandling:

Hvordan blir beslutningene tatt for å sende mordere droner etter mistenkte terrorister?

Hvordan og, for den saks skyld, hvorfor man bestiller spesifikke drone-streik forblir stort sett et mysterium, men i det minste en ting er tydelig - beslutningene blir tatt av mennesker som man kunne håpe og bryter med tanken om å sende et dødelig missil. inn i en okkupert bygning.

Men hva hvis ikke mennesker var involvert? Hva om beslutninger om liv eller død en dag ble overlatt til maskiner utstyrt med masse data, men også en følelse av rett og galt?

Moralsk kvartær

Det er ikke så langt hentet. Det kommer ikke til å skje noen gang snart, men det er ingen tvil om at når maskiner blir mer intelligente og mer autonome, vil en sentral del av transformasjonen deres være evnen til å lære moral.

Det er faktisk ikke så langt unna. Gary Marcus, som nylig skrev i The New Yorker, presenterte scenariet med en av Googles førerløse biler før han ble tvunget til å ta et sekunders avgjørelse: “Bilen din kjører med en hastighet langs en bro på 50 mil i timen når feilaktig skolebuss med 40 uskyldige barn krysser sin vei. Bør bilen svinge, eventuelt risikere eieren (du) livet, for å redde barna, eller fortsette, og sette alle 40 barna i fare? Hvis avgjørelsen må tas i millisekunder, må datamaskinen ringe. "

Og hva med robotvåpen eller soldater? Ville en drone kunne lære å ikke skyte på et hus hvis den visste at uskyldige sivile også var inne? Kan maskiner læres å følge de internasjonale krigsreglene?

Ronald Arkin, informatikkprofessor og robotikkekspert ved Georgia Tech, mener absolutt det. Han har utviklet programvare, referert til som en "etisk guvernør", som vil gjøre maskiner i stand til å bestemme når det er passende å skyte og når det ikke er det.

Arkin erkjenner at dette fortsatt kan være flere tiår unna, men han mener at roboter en dag kan være både fysisk og etisk overlegne overfor menneskelige soldater, ikke sårbare for det følelsesmessige traumet i kamp eller ønsker om hevn. Han ser ikke for seg en all-robot-hær, men en der maskiner tjener sammen med mennesker, og som utfører høyrisikojobber full av stressende snap-beslutninger, for eksempel å rydde bygninger.

Pass på mordereoboter

Men andre føler at det er på tide å skvise denne typen tanker før den går for langt. Sent i fjor ga Human Rights Watch og Harvard Law Schools menneskerettighetsklinikk ut en rapport, "Losing Humanity: The Case Against Killer Robots, " som, til sin tittel, ba regjeringene om å forby alle autonome våpen fordi de ville "øke risiko for død eller skade på sivile under væpnet konflikt. "

Omtrent på samme tid kunngjorde en gruppe professorer fra Cambridge University planer om å lansere det de kaller Center for the Study of Existential Risk. Når det åpnes senere i år, vil det presse på for seriøs vitenskapelig forskning på hva som kan skje hvis og når maskiner blir smartere enn oss.

Faren, sier Huw Price, en av senterets medstiftere, er at vi en dag kan ha å gjøre med “maskiner som ikke er skadelige, men maskiner hvis interesser ikke inkluderer oss”.

Kunsten å bedrag

Shades of Skynet, det useriøse kunstige intelligenssystemet som skapte en cyborg Arnold Schwarzenegger i The Terminator- filmene. Kanskje dette alltid vil være ting av science fiction.

Men vurder annen forskning Ronald Arkin nå gjør som en del av prosjekter finansiert av Department of Defense. Han og kollegene har studert hvordan dyr bedrar hverandre, med mål om å lære roboter kunsten å bedrag.

For eksempel har de jobbet med programmering av roboter slik at de om nødvendig kan gi styrke som dyr ofte gjør. Og de har sett på læremaskiner for å etterligne oppførselen til skapninger som det østlige grå ekornet. Ekorn skjuler nøttene sine for andre dyr, og når andre ekorn eller rovdyr dukker opp, vil de grå ekornene noen ganger besøke steder der de pleide å skjule nøtter for å kaste konkurrentene fra banen. Roboter programmert for å følge en lignende strategi har vært i stand til å forvirre og bremse konkurrenter.

Det er alt i interesse, sier Arkin, for å utvikle maskiner som ikke vil være en trussel for mennesker, men snarere en eiendel, særlig i krigens stygg kaos. Nøkkelen er å begynne å fokusere nå på å sette retningslinjer for passende robotatferd.

"Når du begynner å åpne Pandora's Box, hva bør du gjøre med denne nye evnen?", Sa han i et nylig intervju. "Jeg tror at det er et potensial for at ikke-krigsførende blir redusert av disse intelligente robotene, men vi må være veldig forsiktige med hvordan de brukes og ikke bare slippe dem ut på slagmarken uten passende bekymring."

For å tro New Yorker- skribent Gary Marcus, tilbyr etisk avanserte maskiner stort potensial utenfor slagmarken.

Tanken som hjemsøker meg mest er at den menneskelige etikken i seg selv bare er et arbeid i fremgang. Vi konfronterer fortsatt situasjoner som vi ikke har velutviklede koder for (for eksempel i tilfelle assistert selvmord) og trenger ikke se langt inn i fortiden for å finne tilfeller der våre egne koder var tvilsomme eller verre (f.eks. Lover som tillatt slaveri og segregering).

Det vi virkelig ønsker er maskiner som kan gå et skritt videre, utstyrt ikke bare med de sunneste etiske kodene som våre beste samtidsfilosofer kan utvikle, men også med muligheten for at maskiner gjør sin egen moralske fremgang, og bringer dem forbi vår egen begrensede tidlige - det tjueførste århundrets idé om moral. ”

Maskiner marsjerer videre

Her er nyere robotutvikling:

  • Hmmmm, etisk og sleipt: Forskere i Australia har utviklet en robot som kan snike seg rundt ved å bevege seg bare når det er nok bakgrunnsstøy til å dekke opp lyden.
  • Hva er den summende lyden ?: Britiske soldater i Afghanistan har begynt å bruke overvåkningsdroner som kan passe i håndflaten. Kalt Black Hornet Nano er den lille roboten bare fire centimeter lang, men har et spionkamera og kan fly i 30 minutter på full lading.
  • Skraper i overflaten: NASA utvikler en robot kalt RASSOR som bare veier 100 kilo, men vil være i stand til å gruve mineraler på månen og andre planeter. Den kan bevege seg i ulendt terreng og til og med over fet skrift ved å støtte seg opp på armene.
  • Ah, begjær: Og her er en tidlig Valentinsdag-historie. Forskere ved Universitetet i Tokyo brukte en hannmot for å kjøre en robot. De brukte faktisk parringsbevegelsene sine for å rette enheten mot et objekt duftet med kvinnelige møllferomoner.

Videobonus: Så du er bare ikke sikker på at du kunne betjene en 13 fot høy robot? Ikke noe problem. Her er en fin demonstrasjon som viser hvor enkelt det kan være. En lykkelig modell viser deg selv hvordan du bruker “Smile Shot” -funksjonen. Du smiler, det fyrer BBs. Hvor vanskelig er det?

Mer fra Smithsonian.com

Denne roboten er en bedre far enn faren din

Roboter Få menneskelig berøring

Kan maskiner lære seg moral?