Pentagon-sjefer frykter mordereoboter kan potensielt utslette menneskeheten

Pentagon (Wikipedia Commons)
Del denne historien!

For bare et halvt år siden benektet Pentagon at det ville lage autonome mordereoboter. I dag er det klart at de ikke bare lager slike maskiner, de er tydelig bekymret for potensialet i autonome robotkrig for å utslette hele menneskeheten.  TN Editor

Store teknologiske sprang fremover i droner, kunstig intelligens og autonome våpensystemer må tas opp før menneskeheten blir drevet til utryddelse.

Robotvåpen har blitt så avanserte at topp militæreksperter i USA frykter plottet til sci-fi-filmen 'Terminator' kan gå i oppfyllelse.

Store teknologiske sprang fremover i droner, kunstig intelligens og autonome våpensystemer må tas opp før menneskeheten blir drevet til utryddelse avmekaniske overherrer som i 1984 Arnold Schwarzenegger-klassikeren, ifølge Pentagon-sjefer.

Luftforsvarets general Paul Selva, nestleder for de felles stabssjefene ved det amerikanske forsvarsdepartementet, sa såkalt tenkende våpen kan føre til: "Robotsystemer for å gjøre dødelig skade ... en terminator uten samvittighet."

Da han ble spurt om robotvåpen som kunne ta egne beslutninger, sa han: "Vår jobb er å beseire fienden", men "det styres av lov og konvensjon."

Han sier militæret insisterer på å holde mennesker i beslutningsprosessen for å "påføre fienden vold".

“Den etiske grensen er den vi har tegnet en ganske fin linje på. Det er en vi må vurdere når vi utvikler disse nye våpnene, la han til.

Selva sa at Pentagon må nå ut til kunstige intelligensfirmaer som ikke nødvendigvis er "militærorienterte" for å utvikle nye systemer for kommando- og ledermodeller, rapporterer US Naval Institute News .

Les hele historien her ...

Abonner!
Varsle om
gjest

3 kommentarer
eldste
Nyeste Mest stemte
Inline tilbakemeldinger
Se alle kommentarer
FreeOregon

General Paul Selva har samvittighet?

John Dunlap

Denne artikkelen styrker bare min overbevisning om at disse våpnene ikke er ment for konvensjonelle slagmarker. AI vil aldri ta avgjørelser “bedre” enn et menneske kan, men det tar allerede beslutninger mye raskere. Disse maskinene har ingen fordel mot konvensjonelle krefter, ganske enkelt fordi motstridende krefter vil stille sine egne systemer og mottiltak, men de utgjør en alvorlig fare. Spesielt, på grunn av hastigheten som autonome våpen vil ta avgjørelser, er det en veldig reell sannsynlighet for at formen på enhver konflikt, inkludert utvidelse og opptrapping, vil utvikle seg i et tempo som overgår beslutningstakernes evne til å holde seg foran... Les mer "