Mer enn noensinne, Facebook er under press for å bevise at algoritmene blir distribuert ansvarlig.
Onsdag, på sin F8-utviklerkonferanse, avslørte selskapet at det har dannet et spesielt team og utviklet diskret programvare for å sikre at dens kunstige intelligenssystemer tar beslutninger så etisk som mulig, uten skjevheter.
Facebook, som andre store teknologiselskaper med produkter brukt av store og forskjellige grupper mennesker, er mer dypt integrerende AI i sine tjenester. Facebook sa denne uken at det vil begynne å tilby å oversette meldinger som folk mottar via Messenger-appen. Oversettelsessystemer må først trenes på data, og etisk press kan bidra til at Facebooks systemer læres å gi rettferdige oversettelser.
Facebook sa at denne innsatsen ikke er et resultat av noen endringer som har skjedd i løpet av de syv ukene siden det ble avslørt at dataanalytikerfirma Cambridge Analytica misbrukt personopplysninger om det sosiale nettverkets brukere før valget i 2016. Men det er klart at det offentlige sentimentet mot Facebook har blitt dramatisk negativt for sent, så mye at administrerende direktør Mark Zuckerberg måtte sitte i timevis med avhør av kongressen forrige måned.
Hver kunngjøring er nå under et mikroskop.
Facebook sluttet ikke med å danne et styre med fokus på AI-etikk, som Axon (tidligere Taser) gjorde forrige uke. Men trekkene stemmer overens med en bredere bransjens anerkjennelse av at AI-forskere må jobbe for å gjøre systemene inkluderende. Alfabetets DeepMind AI-gruppe dannet en etikk- og samfunnsteam i fjor. Før det, Microsofts forskningsorganisasjon opprettet en Fairness Accountability Transparency and Ethics-gruppe.
Feltet til AI har hatt sin del av forlegenheter, som da Google Photos ble oppdaget for tre år siden å kategorisere svarte mennesker som gorillaer.
I fjor utviklet Kloumanns team et programvare som heter Fairness Flow, som siden har blitt integrert i Facebooks mye brukte FBLearner Flow intern programvare for lettere å trene og kjøre AI-systemer. Programvaren analyserer dataene, tar sitt format i betraktning, og produserer deretter en rapport som oppsummerer dem.
Kloumann sa at hun har jobbet med emnet rettferdighet siden hun begynte på Facebook i 2016, akkurat da folk i teknologibransjen begynte å snakke om det mer åpent, og da samfunnsmessige bekymringer dukket opp om kraften til AI.