Facebook oppretter etisk team for å undersøke skjevheter i AI-programvare

Del denne historien!
AI-programmer arver skjevhetene til deres skaper. Dermed inneholder sensurprogrammene som Facebook har laget allerede frø av teknokrattenking og etikk. Er de samme menneskene i stand til å undersøke sine egne kreasjoner? ⁃ TN Editor

Mer enn noensinne,  Facebook  er under press for å bevise at algoritmene blir distribuert ansvarlig.

Onsdag, på sin F8-utviklerkonferanse, avslørte selskapet at det har dannet et spesielt team og utviklet diskret programvare for å sikre at dens kunstige intelligenssystemer tar beslutninger så etisk som mulig, uten skjevheter.

Facebook, som andre store teknologiselskaper med produkter brukt av store og forskjellige grupper mennesker, er mer dypt integrerende AI i sine tjenester. Facebook sa denne uken at det vil begynne å tilby å oversette meldinger som folk mottar via Messenger-appen. Oversettelsessystemer må først trenes på data, og etisk press kan bidra til at Facebooks systemer læres å gi rettferdige oversettelser.

 "Vi vil se tilbake, og vi vil si: 'Det er fantastisk at vi var i stand til å være proaktive med å komme foran disse spørsmålene og forstå før vi lanserer ting som er rettferdighet for et gitt produkt for en demografisk gruppe,'" Isabel Kloumann , sa forsker ved Facebook, til CNBC. Hun nektet å si hvor mange som er på laget.

Facebook sa at denne innsatsen ikke er et resultat av noen endringer som har skjedd i løpet av de syv ukene siden det ble avslørt at dataanalytikerfirma Cambridge Analytica misbrukt personopplysninger om det sosiale nettverkets brukere før valget i 2016. Men det er klart at det offentlige sentimentet mot Facebook har blitt dramatisk negativt for sent, så mye at administrerende direktør Mark Zuckerberg måtte sitte i timevis med avhør av kongressen forrige måned.

Hver kunngjøring er nå under et mikroskop.

Facebook sluttet ikke med å danne et styre med fokus på AI-etikk, som Axon (tidligere Taser) gjorde forrige uke. Men trekkene stemmer overens med en bredere bransjens anerkjennelse av at AI-forskere må jobbe for å gjøre systemene inkluderende. Alfabetets DeepMind AI-gruppe dannet en etikk- og samfunnsteam i fjor. Før det, Microsofts forskningsorganisasjon opprettet en Fairness Accountability Transparency and Ethics-gruppe.

Feltet til AI har hatt sin del av forlegenheter, som da Google Photos ble oppdaget for tre år siden å kategorisere svarte mennesker som gorillaer.

I fjor utviklet Kloumanns team et programvare som heter Fairness Flow, som siden har blitt integrert i Facebooks mye brukte FBLearner Flow intern programvare for lettere å trene og kjøre AI-systemer. Programvaren analyserer dataene, tar sitt format i betraktning, og produserer deretter en rapport som oppsummerer dem.

Kloumann sa at hun har jobbet med emnet rettferdighet siden hun begynte på Facebook i 2016, akkurat da folk i teknologibransjen begynte å snakke om det mer åpent, og da samfunnsmessige bekymringer dukket opp om kraften til AI.

Les hele historien her ...

 

Abonner!
Varsle om
gjest

0 kommentarer
Inline tilbakemeldinger
Se alle kommentarer