https://frosthead.com

Kan mordere Roboter lære å følge krigens regler?

Som Memorial Day minner oss om hvert år, forsvinner ikke krig.

Men det endrer seg. Og et av de mer dyptgripende skiftene vi vil se de kommende årene, er til et militær som blir stadig mer avhengig av roboter. Droner får mesteparten av oppmerksomheten nå, men mer og mer av Forsvarsdepartementets nyvinninger er andre typer ubemannede maskiner, fra eksperimentelle fly til bakkestående soldater.

Det er lett å forstå attraksjonen. Å bruke roboter er potensielt mer effektivt, mer presist og rimeligere enn å bare stole på mennesker i krigføring. Og det vil selvfølgelig også bety færre menneskelige skader.

Men denne transformasjonen bringer en komplisert utfordring: Kan militære maskiner programmeres til å ta avgjørelser? Noe som fører til et klistrete spørsmål: Kan roboter lære seg moral?

Det amerikanske kontoret for sjøforskning mener at det er på tide å finne ut av det. Tidligere denne måneden kunngjorde den en fem-årig, 7, 5 millioner dollar bevilgning til å finansiere forskning ved Tufts, Brown, Yale og Georgetown universiteter og Rensselaer Polytechnic Institute (RPI) om hvorvidt maskiner en dag kan velge rett fra galt.

Sjøforsvaret ønsker å unngå situasjonen Googles førerløse bil nå står overfor: å ha en teknologi som er utgitt langt foran enhver klarhet i de juridiske og etiske spørsmålene den reiser. Før autonome roboter går ut i feltet, ønsker militæret å vite om de faktisk kan lære å gjøre det rette.

Som Selmer Bringsjord, leder for RPIs avdeling for kognitive vitenskap ser det, kan en robot kunstig intelligens være designet for å fungere på to nivåer av moral. Den første ville være basert på en sjekkliste over tydelige etiske valg, for eksempel "hvis du kommer over en såret soldat, bør du hjelpe ham eller henne." Men hva om denne handlingen strider mot dens primære oppdrag, som å levere ammunisjon som er kritisk nødvendig av andre soldater? På det tidspunktet, sier Bringsjord, ville roboten måtte ha evnen til å engasjere seg i "dypere moralsk begrunnelse" for å ta avgjørelser i situasjoner som programmererne kanskje ikke hadde klart å forutse.

Forskere må trenge å utvikle unike algoritmer og beregningsmekanismer som kan integreres i den eksisterende arkitekturen til autonome roboter, en "tenkeprosess" som vil tillate en maskin å overstyre planlagt atferd basert på dens evne til å anvende moralsk begrunnelse.

Hvis dette virker ekstra ambisiøst, vel, det er det. Til å begynne med må forskerne isolere de grunnleggende elementene i menneskets moral - om hvilke prinsipper er vi alle enige om? - og deretter finne ut hvordan de kan innarbeides i algoritmer som vil gi roboter et visst nivå av moralsk kompetanse.

Det er ikke noe lite selskap. Av den grunn er det sannsynlig at maskiner som ikke er kontrollert av mennesker i overskuelig fremtid vil være begrenset til ikke-stridsroller, for eksempel overvåking, sikkerhet, søk og redning eller medisinsk behandling. Men uunngåelig vil militære planleggere ønske et svar på spørsmålet som henger over alt dette: Skal roboter, som handler på egen hånd, noen gang få lov til å drepe et menneske?

Hvis en maskin er 90 prosent sikker på at alle i et kjøretøy den har til hensikt å skyte er en terrorist, er det da sikkert? Ville en robot kunne skyte et våpen mot et barn hvis den bestemmer at det er fienden? Hvis noe går galt og en autonom robot feilaktig sprenger en landsby, hvem er ansvarlig? Kommandanten som beordret operasjonen? Personen som programmerte roboten? Eller ingen?

Hvis du tror at dette fremdeles er ting som science fiction, bør du vurdere at tidligere denne måneden, eksperter på emner fra kunstig intelligens til menneskerettigheter til folkerett, veide inn "killer robots" på en FN-konferanse i Genève. Grupper som Human Rights Watch og tjenestemenn fra en håndfull land, inkludert Pakistan, Egypt, Cuba og Vatikanet, ba om et direkte forbud mot roboter med myndighet til å drepe. Men de fleste land, særlig de med de mest avanserte robotene, er ikke klare til å gå så langt.

Se for eksempel på WildCat, en firbeint robot som utvikles for å kjøre i høye hastigheter i alle typer terreng.

Foreløpig følger det amerikanske militæret et direktiv fra forsvarsdepartementet fra 2012 om at ingen maskiner med makt til å drepe kan være fullstendig autonome. Et menneske må bokstavelig talt ringe skuddene. Men det stemmer kanskje ikke alle steder: I mars siterte New Scientist en russisk tjenestemann som sa at robotvakt på fem ballistiske missilinstallasjoner vil kunne oppdage og ødelegge mål uten at et menneske gir klarsignal.

Foster-Miller Talon, sett nedenfor, er en av de mange maskinene rundt om i verden som er utviklet for kamp.

Regler for krig

En rapport om morderen-robotkonferansen vil bli presentert for FNs utvalgte utvalgte coventional våpen i november. Men det ser ikke ut til at et forbud kommer snart.

Blant dem som deltok i diskusjonen i Genève var Ronald Arkin, en kunstig intelligensekspert fra Georgia Tech, som lenge har vært en talsmann for å gi maskiner muligheten til å ta moralske beslutninger. Han mener at hvis roboter kan lære å følge folkeretten, kunne de faktisk oppføre seg mer etisk enn mennesker i krigføring fordi de ville være usikre konsistent. De ville ikke være i stand til å svare i sinne eller med panikk eller fordommer. Så Arkin motsetter seg et forbud, selv om han er åpen for et moratorium for autonome våpen inntil maskiner får en sjanse til å se om de kan mestre krigsreglene.

En annen AI-vitenskapsmann, Noel Sharkey, som debatterte Arkin i Genève, har et helt annet sinn. Han tror ikke roboter noensinne bør gis myndighet til å ta beslutninger om liv eller død.

Nylig sa han til Defense One : “Jeg tror ikke de noen gang vil ende opp med en moralsk eller etisk robot. For det må vi ha moralsk handlefrihet. For det må vi forstå andre og vite hva det vil si å lide. "

"En robot kan være installert med noen regler for etikk, men den vil ikke virkelig bry seg, " sier han.

Kan mordere Roboter lære å følge krigens regler?