Ex-Google Engineer: 'Killer Robots' kunne starte krig

Del denne historien!
Når regjeringer øker AI-våpenkappløpet for å lede autonome roboter med en 'lisensiert til å drepe', øker også risikoen for forferdelige feil, inkludert muligheten for å starte en robotkrig. ⁃ TN Editor

En ny generasjon autonome våpen eller "mordereroboter" kunne ved et uhell starte en krig eller forårsake massedusler, en tidligere topp Google programvareingeniør har advart.

Laura Nolan, som trakk seg fra Google i fjor i protest mot å bli sendt til å jobbe med et prosjekt for å forbedre seg dramatisk Amerikansk militær droneteknologi, har bedt om at alle AI-drapsmaskiner som ikke er operert av mennesker, skal forbys.

Nolan sa at mordereroboter som ikke er ledet av menneskelig fjernkontroll, bør forbys av samme type internasjonal traktat som forbyr kjemiske våpen.

I motsetning til droner, som blir kontrollert av militære lag som ofte er tusenvis av kilometer unna der det flygende våpenet blir utplassert, sa Nolan at mordererobotene har potensial til å gjøre “katastrofale ting som de ikke opprinnelig var programmert for”.

Det er ingen antydninger om at Google er involvert i utviklingen av autonome våpensystemer. I forrige måned debatterte et FN-panel av regjeringseksperter autonome våpen og fant at Google var i ferd med å tømme AI for bruk i våpensystemer og delta i beste praksis.

Nolan, som har sluttet seg til Kampanje å stoppe Killer Robots og har orientert FN-diplomater i New York og Genève om farene som følger av autonome våpen, sa: “Sannsynligheten for en katastrofe står i forhold til hvor mange av disse maskinene vil være i et bestemt område på en gang. Det du ser på er mulige grusomheter og ulovlige drap selv under krigsføringslover, spesielt hvis hundrevis eller tusenvis av disse maskinene er utplassert.

”Det kan være store ulykker fordi disse tingene vil begynne å oppføre seg på uventede måter. Derfor bør avanserte våpensystemer bli underlagt meningsfull menneskelig kontroll, ellers må de bli forbudt fordi de er altfor uforutsigbare og farlige. "

Google rekrutterte Nolan, en datavitenskap utdannet fra Trinity College Dublin, for å jobbe på Project Maven i 2017 etter at hun hadde vært ansatt i tech-giganten i fire år, og ble en av de beste programvareniørene i Irland.

Hun sa at hun ble "stadig mer etisk bekymret" over sin rolle i Maven-programmet, som ble utviklet for å hjelpe det amerikanske forsvarsdepartementet drastisk å fremskynde drone-videogjenkjenningsteknologi.

I stedet for å bruke et stort antall militære operatører til å spole gjennom timer og timer med drone-videoopptak av potensielle fiendens mål, ble Nolan og andre bedt om å bygge et system der AI-maskiner kunne differensiere mennesker og gjenstander i en uendelig raskere hastighet.

Google lot Project Maven-kontrakten bortfalle i mars i år etter mer enn 3,000 av sine ansatte signerte en begjæring i protest mot selskapets involvering.

Som ingeniør for nettstedssikkerhet var min ekspertise hos Google å sikre at systemene og infrastrukturen ble holdt i gang, og det var dette jeg skulle hjelpe Maven med. Selv om jeg ikke var direkte involvert i å få fart på videoinnkjenningen, skjønte jeg at jeg fortsatt var en del av drapskjeden; at dette til slutt vil føre til at flere blir målrettet og drept av det amerikanske militæret på steder som Afghanistan. ”

Selv om hun trakk seg over Project Maven, har Nolan spådd at autonome våpen som utvikles utgjør en langt større risiko for menneskeslekten enn fjernstyrte droner.

Hun redegjorde for hvordan eksterne krefter som spenner fra skiftende værsystemer til maskiner som ikke klarer å utarbeide kompleks menneskelig oppførsel, kan kaste mordere roboter av banen, med muligens fatale konsekvenser.

“Du kan ha et scenario der autonome våpen som er blitt sendt ut for å gjøre en jobb, konfronterer uventede radarsignaler i et område de søker; Det kan være vær som ikke ble tatt med i programvaren, eller de støter på en gruppe væpnede menn som ser ut til å være opprørs fiender, men som faktisk er ute med våpen på jakt etter mat. Maskinen har ikke den skjønnet eller sunn fornuft som den menneskelige berøringen har.

”Det andre skremmende med disse autonome krigssystemene er at du bare virkelig kan teste dem ved å distribuere dem i en virkelig kampsone. Kanskje det skjer med russerne for tiden i Syria, hvem vet? Det vi vet er at i FN har Russland motarbeidet enhver traktat, enn si forbud mot disse våpnene forresten.

“Hvis du tester en maskin som tar egne beslutninger om verden rundt den, må den være i sanntid. Hvordan trener du dessuten et system som kun kjører på programvare for å oppdage subtil menneskelig atferd eller skille forskjellen mellom jegere og opprørere? Hvordan skiller drapsmaskinen der ute på egen hånd og skiller mellom den 18 år gamle striden og 18-åringen som jakter på kaniner? ”

Les hele historien her ...

Abonner!
Varsle om
gjest

1 Kommentar
eldste
Nyeste Mest stemte
Inline tilbakemeldinger
Se alle kommentarer
steve

Dette minner meg om den scenen fra War Games - litt gammeldags å se nå - men høyst relevant. https://www.youtube.com/watch?v=NHWjlCaIrQo