Forskere finner ut at AI-programmer lærer rasistiske og kjønnsfordeler

Wikipedia Commons
Del denne historien!
image_pdfimage_print

Et AI-program som lærer av det mennesker vet og skriver om, ville naturlig nok plukket opp alle skjevhetene og funnet ut at de er normale. I utgangspunktet innebærer dette at de negative sidene ved menneskelig atferd ganske enkelt vil bli rullet over på kunstig intelligens. TN Editor

Et kunstig intelligensverktøy som har revolusjonert datamaskinens evne til å tolke hverdagsspråket, har vist seg å være slående kjønns- og raseskikk.

Funnene øker spekteret av eksisterende sosiale ulikheter og fordommer som blir forsterket på nye og uforutsigbare måter ettersom stadig flere beslutninger som påvirker hverdagen vår, blir avledet til automater.

I løpet av de siste årene har muligheten til programmer som Google Translate å tolke språk dramatisk forbedret. Disse gevinstene har vært takket være nye maskinlæringsteknikker og tilgjengeligheten av store mengder online tekstdata som algoritmene kan trenes på.

Imidlertid når maskiner nærmer seg å tilegne seg menneskelignende språkkunnskaper, absorberer de også de dypt inngrodde skjevhetene som er skjult innenfor mønstrene for språkbruk, viser den siste forskningen.

Joanna Bryson, dataforsker ved University of Bath og medforfatter, sa: “Mange mennesker sier at dette viser at AI er fordommer. Nei. Dette viser at vi er fordomsfulle og at AI lærer det. ”

[the_ad id = ”11018 ″]

Men Bryson advarte om at AI har potensialet til å forsterke eksisterende skjevheter fordi, i motsetning til mennesker, algoritmer kan være uutstyrte for å bevisst motvirke lærte skjevheter. "En fare vil være hvis du hadde et AI-system som ikke hadde en eksplisitt del som var drevet av moralske ideer, det ville være ille," sa hun.

Forskningen, publisert i tidsskriftet Vitenskap, fokuserer på et maskinlæringsverktøy som kalles "ordinbedring", som allerede transformerer måten datamaskiner tolker tale og tekst. Noen hevder at det naturlige neste trinnet for teknologien kan innebære maskiner som utvikler menneskelignende evner som sunn fornuft og logikk.

"En av de viktigste grunnene til at vi valgte å studere ordinnlegginger er at de har vært fantastisk vellykkede de siste årene med å hjelpe datamaskiner med å forstå språk," sa Arvind Narayanan, dataforsker ved Princeton University og avisens seniorforfatter.

Tilnærmingen, som allerede er brukt i websøk og maskinoversettelse, fungerer ved å bygge opp en matematisk representasjon av språk, der betydningen av et ord blir destillert til en rekke tall (kjent som en ordvektor) basert på hvilke andre ord vises hyppigst ved siden av. Kanskje overraskende ser denne rent statistiske tilnærmingen ut til å fange den rike kulturelle og sosiale konteksten til hva et ord betyr på en måte som en ordbokdefinisjon ikke ville være i stand til.

Les hele historien her ...

Bli med på vår adresseliste!


avatar
1 Kommentar tråder
0 Tråd svar
0 Følgere
Mostïve kommentar
Hotteste kommentar tråd
1 Kommentarforfattere
Nigel Nylig kommenterte forfattere
Abonner
Nyeste eldste de fleste stemte
Varsle om
Nigel
Gjest
Nigel

Fordommer er en del av den menneskelige tilstanden - vi samarbeider med mennesker som ser ut som vi gjør, vi samler oss i grupper som er som oss selv og holder våre synspunkter, vi ser med mistanke på de som ikke er det og ikke - det er vår evolusjonære vei. Dette er et annet spaltepunkt identifisert av dette teknokratiet - det er en fornærmelse en spenning plassert på selve stoffet til hvem vi er. Å fornekte oss forskjellene våre og å nekte å tillate oss å feire dem er i strid med vår natur, forårsaker oss dyp nød og sikter mot det som... Les mer "