Kunstig intelligensarme er uunngåelig, men kan det kontrolleres?

Del denne historien!

World Economic Forum forstår at AI har utløst et internasjonalt våpenkappløp, men utfallet er fremdeles uklart. Fra et teknokratisk sinn er AI løsningen på alle menneskets samfunnsmessige og personlige problemer.  TN Editor

Maskinene stiger, underkaster menneskeheten. Det er en science fiction trope som er nesten like gammel som maskiner selv. Dommedagscenariene spunnet rundt dette temaet er så utlandsk - som Matrisen, der menneskeskapt kunstig intelligens plugger mennesker inn i en simulert virkelighet for å høste energi fra kroppene deres - det er vanskelig å visualisere dem som alvorlige trusler.

I mellomtiden fortsetter kunstige intelligente systemer å utvikle seg raskt. Selvkjørende biler begynner å dele veiene våre; lomme-størrelse enheter svarer på spørsmålene våre og administrerer tidsplanene våre i sanntid; algoritmer slo oss på Go; roboter blir flinkere til å reise seg når de faller om. Det er åpenbart hvordan utvikling av disse teknologiene vil komme menneskeheten til gode. Men, da - begynner ikke alle de dystopiske sci-fi-historiene på denne måten?

Enhver diskusjon om det dystopiske potensialet i AI risikerer å gravitere mot en av to ytterpunkter. Man er altfor troverdig skremsel. Siri er selvfølgelig ikke i ferd med å overføre til morderisk HAL fra 2001: A Space Odyssey. Men det andre ytterpunktet er like farlig - selvtilfredshet om at vi ikke trenger å tenke på disse spørsmålene, fordi menneskeheten-truende AI er flere tiår eller mer borte.

Det er sant at den kunstige "superintelligensen" elskede av sci-fi kan være mange tiår i fremtiden, hvis det i det hele tatt er mulig. Imidlertid a fersk undersøkelse av ledende AI-forskere av TechEmergence fant et bredt spekter av bekymringer rundt sikkerhetsfarene ved AI i en mye mer realistisk, 20-års tidsramme - inkludert nedbryting av finansielle systemer når algoritmer samhandler uventet, og potensialet for AI å hjelpe ondsinnede aktører med å optimalisere bioteknologiske våpen.

Disse eksemplene viser hvordan den fjerde industrielle revolusjonen sammen med teknologisk fremgang på mange fronter lover en rask og massiv demokratisering av kapasiteten til å ødelegge i veldig stor skala. På den mørke siden av den “dype weben”, der informasjon er skjult fra søkemotorer, finnes allerede destruktive verktøy over en rekke nye teknologier, fra 3D-trykte våpen til fissilt materiale og utstyr for genteknologi i hjemmelaboratorier. I begge tilfeller forverrer AI potensialet for skade.

Vurder en annen mulighet nevnt i TechEmergence-undersøkelsen. Hvis vi kombinerer en pistol, en quadrocopter drone, et høyoppløselig kamera og en ansiktsgjenkjenningsalgoritme som ikke trenger å være mye mer avansert enn den nåværende best i klassen, kunne vi i teorien lage en maskin vi kan programmere for å fly over folkemengdene, søke spesielle ansikter og myrde mål på sikte.

En slik enhet krever ingen superintelligens. Det kan tenkes å bruke nåværende, ”smale” AI som ennå ikke kan gjøre den slags kreative forståelsessprang på tvers av forskjellige domener som mennesker kan. Når "kunstig generell intelligens", eller AGI, utvikles - som det virker sannsynlig, før eller senere - vil det øke både de potensielle fordelene ved AI og i ord av Jeff Goddell, dets sikkerhetsrisiko, "å tvinge en ny type regnskap med den teknologiske genien".

Men det blir ikke tenkt nok på det våpenbare potensialet til AI. Som Wendell Wallach uttrykker det: "Å navigere fremtiden for teknologiske muligheter er en farlig virksomhet," konstaterer han. "Det begynner med å lære å stille de riktige spørsmålene - spørsmål som avslører fallgruvene av passivitet, og enda viktigere, gangene som er tilgjengelige for å planlegge et kurs til en trygg havn."

Ikke-spredning utfordringer

Fremtredende lærde inkludert Stuart Russell har utstedt oppfordring til handling for å unngå "potensielle fallgruver" i utviklingen av AI som har vært Backed av ledende teknologer inkludert Elon Musk, Demis Hassabis, Steve Wozniak og Bill Gates. Én høyprofilet fallgruve kan være "dødelige autonome våpensystemer" (LAWS) - eller, mer kjent, "killerroboter". Teknologiske fremskritt innen robotikk og digital overføring av sikkerhet har allerede forandret krigføringens grunnleggende paradigme. Ifølge til Christopher Coker ”Det 21-århundre teknologien endrer vår forståelse av krig på dypt urovekkende måter.” Fullt utviklede lovverk vil sannsynligvis transformere moderne krigføring så dramatisk som krutt og atomvåpen.

FNs menneskerettighetsråd har etterlyst et moratorium om videreutvikling av LOVER, mens andre aktivistgrupper og kampanjer har tatt til orde for et fullstendig forbud, og tegnet en analogi med kjemiske og biologiske våpen, som det internasjonale samfunnet vurderer utenfor det blotte. For tredje år på rad møttes FNs medlemsstater forrige måned for å diskutere oppfordringen om et forbud, og hvordan man kan sikre at en videreutvikling av LAWS forblir innenfor internasjonal humanitær rett. Når banebrytende våpenteknologi ikke lenger er begrenset til noen få store militærer, blir ikke-spredningstiltak mye vanskeligere.

Debatten kompliseres av at definisjoner forblir forvirret. Plattformer, for eksempel droner, forveksles ofte med våpen som kan lastes på plattformer. Ideen om systemer som blir bedt om å utføre smalt definerte oppgaver, for eksempel å identifisere og eliminere pansrede kjøretøyer som beveger seg i et spesifikt geografisk område, skilles ikke alltid fra ideen om at systemer får skjønnsmessig omfang til å tolke mer generelle oppdrag, for eksempel "vinn krigen" .

Les hele historien her ...

Abonner!
Varsle om
gjest

0 kommentarer
Inline tilbakemeldinger
Se alle kommentarer