Når det gjelder å bestemme seg for å drepe et menneske i en krigstid, skal en maskin ta den avgjørelsen eller skal et annet menneske?
Spørsmålet er et moralsk spørsmål, brakt i forgrunnen av teknikkene og insentivene til moderne teknologi. Det er et spørsmål hvis virkeområde faller i regi av folkeretten, og som nasjoner har debattert i årevis. Likevel er det også et kollektivt handlingsproblem, et som ikke bare krever stater, men også selskaper og arbeidere i selskaper å komme til enighet for å gi avkall på en opplevd fordel. Faren ligger ikke så mye i å lage et våpen, men i å lage et våpen som kan velge mål uavhengig av den menneskelige ansvarlige som initierer sin handling.
I en 8-rapport fra Pax - en nonprofit med det eksplisitte målet å beskytte sivile mot vold, redusere væpnet konflikt og bygge en rettferdig fred - ser forfatterne på den eksisterende tilstanden til kunstig intelligens i våpen og oppfordrer nasjoner, selskaper og arbeidere til å tenke om hvordan man kan forhindre et AI-våpenløp, i stedet for å tenke på hvordan man vinner et. Uten korrigerende tiltak, advarer rapporten, kan status quo føre alle deltakere i en situasjon uten vinn, med noen fordel oppnådd ved å utvikle et autonomt våpen midlertidig og begrenset.
"Vi ser dette nye AI-våpenløpet, og vi tror at hvis ingenting skjer, er det en stor trussel mot menneskeheten," sa Frank Slijper, en av forfatterne på rapporten. ”Det er et vindu med muligheter for å stoppe et AI-våpenløp. Statene bør prøve å forhindre et våpenløp i AI og arbeide for internasjonal regulering. I mellomtiden har selskaper og forskningsinstitutter et stort ansvar selv for å sørge for at det arbeidet i AI og beslektede felt ikke bidrar til potensielle dødelige autonome våpen. ”
Rapporten er skrevet med et spesifikt øye mot de syv ledende AI-kreftene. Disse inkluderer de fem faste medlemmene i FNs sikkerhetsråd: Kina, Frankrike, Russland, Storbritannia og USA. I tillegg redegjør rapporten for kunstig intelligensforskning fra Israel og Sør-Korea, begge land hvis geografiske og politiske holdninger har oppmuntret utviklingen av militær AI.
"Vi identifiserte hovedaktørene når det gjelder bruk og forsknings- og utviklingsinnsats for både AI og militær bruk av AI i stadig mer autonome våpen. Jeg kunne ikke tenke på noen, noen stat vi ville gått glipp av fra disse syv, sier Slijper. "Selvfølgelig er det alltid et nummer åtte og tallet ni."
For hver omfattet AI-makt undersøker rapporten tilstanden til AI, AIs rolle i militæret, og hva som er kjent om samarbeid mellom AI-utviklere i privat sektor eller universiteter og militæret. Med land som USA, hvor militære AI-programmer er navngitt, kan styringspolitikk pekes på, og det er kjent debatter om forholdet mellom kommersiell AI og militær bruk, beskriver rapporten prosessen. Grundigheten av forskningen brukes til å understreke Pax eksplisitt aktivistoppdrag, selv om den også gir en verdifull undersøkelse av staten AI i verden.
Som rapporten opprettholder, er ikke denne rollen som AI i våpen bare et spørsmål for regjeringer. Det er et spørsmål til de ansvarlige for selskaper, og et spørsmål for arbeiderne som lager AI for selskaper.
"Mye av det har å gjøre med den ganske unike karakteren til AI-infundert våpenteknologi," sier Slijper. “Tradisjonelt var det mange selskaper som nå jobber med AI og jobbet med det fra et rent sivilt perspektiv for å gjøre godt og hjelpe menneskeheten. Disse selskapene var ikke tradisjonelt militære produsenter eller dominerende leverandører til militæret. Hvis du jobber for et våpenselskap, vet du hva du jobber for. ”
I USA er det blitt uttrykt motstand mot å bidra til Pentagon-kontrakter fra arbeidere i teknologisektoren. Etter at Google-arbeider skriker etter å ha lært om selskapets satsing på Prosjekt Maven, som utviklet en drone-footage-prosessering AI for militæret, ble selskapets ledelse enige om å solnedgang prosjektet. (Project Maven administreres nå av Peter Thiel-støttet Andruil.)
Microsoft opplevde også arbeidermotstand til militær bruk av det utvidede reality-verktøyet HoloLens, med noen arbeidere som skrev et brev om at i Pentagons hender gjorde sensorene og behandlingen av headsettet det farlig nær en våpenkomponent. Arbeiderne bemerket spesielt at de hadde bygget HoloLens "Å hjelpe folk med å lære kirurgi eller spille piano, skyve grensene for spill og koble til Mars Rover," alt dette er langt fra å hjelpe militæret i trusselidentifisering på patrulje.
"Og jeg tror det er for mange mennesker som jobber i teknologisektoren ganske urovekkende at, selv om det selskapet i utgangspunktet hovedsakelig eller bare jobbet med sivile applikasjoner av den teknologien, nå ser de mer og mer at disse teknologiene også ble brukt til militær prosjekter eller til og med dødelige våpen, ”sa Slijper.
Slijper peker på protokollen om blinde våpen som en måte det internasjonale samfunnet regulerte en teknologi med både sivile og militære applikasjoner for å sikre at bruken falt under krigens lover.
Vel, Duh. I det minste har de blitt presset tilbake av ansatte når de bekreftet at de ble brukt. Men egentlig, tenk på det. Du jobber med AI-komponenter for kjente regjeringsstyrte og finansierte organisasjoner, og du tror ikke bunnlinjepunktet er å utnytte den teknologien til krigsmaskinen? VAKNING, BARN! De gir ikke ut penger fordi de er hyggelige. Hele historien til regjeringen / militæret / etterretningskomplekset og hva de finansierer blir glanset over og glemt av de som ikke vil se.