Verden må handle raskt for å avverge en fremtid der autonome roboter med kunstig intelligens streifer rundt på feltene og dreper mennesker, advarte forskere og våpeneksperter på en elitesamling i de sveitsiske alpene.
Det må avtales regler for å forhindre utvikling av slike våpen, sa de på et møte 19-23 i januar med milliardærer, forskere og politiske ledere i det snødekte skistedet Davos.
Angela Kane, den tyske FNs høye representant for nedrustningssaker fra 2012-2015, sa at verden hadde vært treg med å iverksette forebyggende tiltak for å beskytte menneskeheten mot den dødelige teknologien.
"Det kan være for sent," fortalte hun en debatt i Davos.
”Det er mange land og mange representanter i det internasjonale samfunnet som virkelig ikke forstår hva det er involvert i. Denne utviklingen er noe som er begrenset til et visst antall avanserte land, ”sa Kane.
Utplasseringen av autonome våpen ville representere en farlig ny æra i krigføring, sa forskere.
"Vi snakker ikke om droner, der en menneskelig pilot styrer dronen," sa Stuart Russell, professor i informatikk ved University of California, Berkeley.
”Vi snakker om autonome våpen, noe som betyr at det ikke er noen bak. AI: våpen med kunstig intelligens, ”fortalte han et forum i Davos. "Svært presist, våpen som kan lokalisere og angripe mål uten menneskelig inngripen."
Russell sa at han ikke forutsa en dag der roboter kjemper krigene for mennesker, og på slutten av dagen sier den ene siden: "OK du vant, så du kan ha alle kvinnene våre."
Men noen 1,000-sjefer for vitenskap og teknologi, inkludert den britiske fysikeren Stephen Hawking, sa i et åpent brev i juli i fjor at utviklingen av våpen med en grad av selvstendig beslutningsevne kan være gjennomførbar i løpet av år, ikke tiår.
De ba om et forbud mot krenkende autonome våpen som er utenfor meningsfull menneskelig kontroll, og advarte om at verden risikerte å gli inn i et kunstig intelligensvåpenløp og løfte alarm over risikoen for at slike våpen falt i hendene på voldelige ekstremister.
Problemet er kulturelt, ikke teknologisk.
Hvis vi kondolerer mord som en løsning på utfordringer fra dem som tenker annerledes enn måten vi gjør, betyr det da noe hvordan vi driver med drapet?