AI kan hate deg uten menneskelig innsats

Del denne historien!
Flere nylige studier har vist at dyp læring AI kan utvikle skjevheter akkurat som mennesker gjør. Problemet er at AI er helt tom for menneskelige følelser, og modellerer en Schizoid personlighetsforstyrrelse. ⁃ TN Editor

Hva om en robot bestemmer at den hater deg?

Det kan virke som et tullete spørsmål, men ifølge forskning krever det å utvikle fordommer overfor andre ikke et høyt nivå av kognitiv evne og kan lett vises av roboter og andre kunstig intelligente maskiner.

Studien, utført av informatikk- og psykologeksperter fra Cardiff University og MIT, avslørte at grupper av autonome maskiner kunne demonstrere fordommer ved ganske enkelt å identifisere, kopiere og lære atferden fra hverandre. Funnene ble publisert i tidsskriftet Natur.

Roboter er i stand til å danne fordommer omtrent som mennesker.

In en pressemeldingforklarte forskerteamet at selv om det kan se ut som om menneskelig erkjennelse ville være nødvendig for å danne meninger og stereotypere andre, ser det ut til at det ikke er tilfelle. Fordommer ser ikke ut til å være et menneskespesifikt fenomen.

Noen typer datamaskinalgoritmer har allerede vist fordommer som rasisme og sexisme som maskinene lærer av offentlige poster og andre data generert av mennesker. I to forrige tilfeller av AI som utviser slike fordommer, Microsoft chatbots Tay og Zo ble lagt ned etter at folk lærte dem å tappe rasistiske og sexistiske merknader på sosiale medier.

Dette betyr at roboter kan være like hatefulle som mennesker kan være. Og siden de er tusenvis av ganger smartere enn oss, kan du forestille deg fremtiden hvis de utvikler en skjevhet mot menneskeheten?

Ingen menneskelige innspill er nødvendig.

Veiledning fra mennesker er ikke nødvendig for at roboter skal lære å mislike visse mennesker.

Imidlertid viste denne studien at AI ikke trenger provokasjon og inspirasjon fra troll for å få den til å utvise fordommer: Den er i stand til å danne dem av seg selv.

For å utføre forskningen, laget teamet datasimuleringer av hvordan fordomsfulle individer kan danne en gruppe og samhandle med hverandre. De skapte et spill av "gi og ta", der hver AI-bot tok en beslutning om å donere til et annet individ i sin egen arbeidsgruppe eller en annen gruppe. Avgjørelsene ble tatt basert på hvert enkelt menneskes omdømme og deres donasjonsstrategi, inkludert deres nivåer av fordommer overfor individer i utenforstående grupper.

Etter hvert som spillet gikk og en superdatamaskin samlet tusenvis av simuleringer, begynte hver enkelt å lære nye strategier ved å kopiere andre, enten i sin egen gruppe eller hele befolkningen.

Medforfatter av studien Professor Roger Whitaker, fra Cardiff Universitys kriminalitets- og sikkerhetsforskningsinstitutt og School of Computer Science and Informatics, sa av funnene:

Ved å kjøre disse simuleringene tusenvis av tusenvis av ganger begynner vi å få en forståelse av hvordan fordommer utvikler seg og forholdene som fremmer eller hindrer den.

Funnene involverer individer som oppdaterer sine fordommer ved å fortrinnsvis kopiere de som får en høyere kortsiktig utbetaling, hvilket betyr at disse beslutningene krever ikke nødvendigvis avanserte kognitive evner.

Det er gjennomførbart at autonome maskiner med evne til å identifisere seg med diskriminering og kopiere andre i fremtiden kan være mottakelige for skadelige fenomener vi ser i den menneskelige befolkningen.

Mange av AI-utviklingene vi ser involverer autonomi og selvkontroll, noe som betyr at oppførselen til enheter også påvirkes av andre rundt dem. Kjøretøy og tingenes internett er to nylige eksempler. Studien vår gir en teoretisk innsikt der simulerte agenter med jevne mellomrom oppfordrer andre til en slags ressurs. (kilde)

Autonomi og selvkontroll. Er det ikke det som skjedde i Terminator-franchisen?

Musk lagt til, "Med kunstig intelligens tilkaller vi demonen."

Les hele historien her ...

Abonner!
Varsle om
gjest

1 Kommentar
eldste
Nyeste Mest stemte
Inline tilbakemeldinger
Se alle kommentarer