Eksperter: Det eneste forsvaret mot drapsmann AI utvikler det ikke

Del denne historien!
Morderen som ikke er kontrollert i krigføring er uunngåelig fordi den vil bli for komplisert for menneskelig styring og kontroll. Det eneste virkelige svaret er å ikke utvikle det i utgangspunktet. ⁃ TN Editor

En fersk analyse om krigføringens fremtid indikerer at land som fortsetter å utvikle AI til militær bruk, risikerer å miste kontrollen over slagmarken. De som ikke risikerer utryddelse. Enten du er for eller imot AI våpenløp: det skjer. Her er hva det betyr, ifølge en trio av eksperter.

Forskere fra ASRC Federal, et privat selskap som gir støtte til etterretnings- og forsvarsmiljøene, og University of Maryland publiserte nylig et papir på pre-print server arxivdiskutere de potensielle konsekvensene av å integrere AI-systemer i moderne krigføring.

Avisen - les her - fokuserer på de nærmeste fremtidige konsekvensene for AI våpenløp under forutsetning av at AI vil ikke på en eller annen måte kjøre amok eller overtakelse. I hovedsak er det et kort, nøkternt og skremmende blikk på hvordan all denne forskjellige maskinlæringsteknologien vil spille ut basert på analyse av dagens banebrytende militære AI-teknologier og spådd integrasjon i skala.

Oppgaven begynner med en advarsel om forestående katastrofe, og forklarer at det nesten helt sikkert vil være en "normal ulykke", angående AI - en forventet hendelse av en art og omfang vi ikke kan forutsi. I utgangspunktet vil verdensmilitærene bryte noen sivile egg som gjør AI-armene ras-omelett:

Studier av dette feltet begynte med ulykker som Three Mile Island, men AI-teknologier utgjør lignende risikoer. Å finne og utnytte disse svakhetene for å indusere mangelfull oppførsel vil bli et permanent trekk i militærstrategien.

Hvis du tenker mordere roboter som dukker det ut i byene våre mens sivile løper etter skrik, tar du ikke feil - men roboter som fullmakt for soldater er ikke menneskehetens største bekymring når det gjelder AI-krigføring. Denne artikkelen diskuterer hva som skjer etter at vi når det punktet hvor det blir tydelig at mennesker holder maskiner tilbake i krigføring.

I følge forskerne er problemet ikke det vi kan ramme inn som godt og ondt. At det er lett å si at vi ikke skal la roboter myrde mennesker med autonomi, men det er ikke slik fremtidens beslutningsprosess kommer til å fungere.

Forskerne beskriver det som en glatt skråning:

Hvis AI-systemer er effektive, ville et press for å øke bistandnivået til krigsmannen være uunngåelig. Fortsatt suksess ville bety å gradvis skyve mennesket ut av løkken, først til en tilsynsrolle og deretter til slutt som rollen som en "drepemaskinoperatør" som overvåker en lov som alltid er på.

LOVER, eller dødelige autonome våpensystemer, vil nesten umiddelbart gå utover menneskers evne til å jobbe med datamaskiner og maskiner - og sannsynligvis raskere enn folk flest tror. Hånd-til-hånd-kamp mellom maskiner vil for eksempel være helt autonom av nødvendighet:

Etter hvert som AI blir mer i stand til reflekterende og integrerende tenkning, vil den menneskelige komponenten måtte fjernes helt etter hvert som hastigheten og dimensjonaliteten blir uforståelig, til og med regnskap for kognitiv assistanse.

Og til slutt vil taktikken og lydhørheten som kreves for å handle slag med AI, være lenger enn menneskenes kjennelse:

Gitt et slagområde så overveldende at mennesker ikke manuelt kan engasjere seg i systemet, vil den menneskelige rollen være begrenset til post-hoc rettsmedisinske analyser, når fiendtlighetene har opphørt, eller traktater er inngått.

Hvis dette høres litt dystert ut, er det fordi det er det. Som Importer AI-er Jack Clark påpeker: "Dette er en rask artikkel som beskriver bekymringene for AI + War fra et samfunn vi ikke ofte hører fra: folk som jobber som direkte leverandører av myndighetsteknologi."

Det kan være i alles interesse å følge nøye med på hvordan både akademikere og myndigheter fortsetter å ramme problemet fremover.

Les hele historien her ...

Abonner!
Varsle om
gjest

2 Kommentar
eldste
Nyeste Mest stemte
Inline tilbakemeldinger
Se alle kommentarer
Elle

Det forbløffer meg alltid hvordan en "studie" må gjennomføres for å "bestemme" sannsynlighetene for den eller de veldig åpenbare handlingene som kommer. Vel, DUH! på AI-fronten, gutter. Minner meg om å bli invitert til middag av kona til administrerende direktør i et markedsføringsfirma. Jeg definerer ham som sådan fordi det er alt han snakket om. Under måltidet fortsatte han og fortsatte med selskapet sitt, ad nauseum for oss andre. Da han endelig nådde utbyttet. Han fortalte bordet at hans 'fantastiske' firma hadde fått 4 millioner dollar for å finne ut hvorfor folk valgte en... Les mer "