Kunne et program oppdage potensielle terrorister ved å lese ansiktsuttrykk og oppførsel? Dette var hypotesen som ble testet av US Transportation Security Administration (TSA) i 2003, da den begynte å teste et nytt overvåkingsprogram kalt Screening of Passengers by Observation Techniques-programmet, eller Spot for short.
Mens de utviklet programmet, konsulterte de Paul Ekman, emeritus-professor i psykologi ved University of California, San Francisco. Flere tiår tidligere hadde Ekman utviklet en metode for å identifisere små ansiktsuttrykk og kartlegge dem til tilsvarende følelser. Denne metoden ble brukt til å trene "atferdsdetekteringsoffiserer" til å skanne ansikter for tegn på bedrag.
Men da programmet ble rullet ut i 2007, var det besatt med problemer. Offiserer var henviser passasjerer for avhør mer eller mindre tilfeldig, og det lille antallet arrestasjoner som oppsto, var på siktelser uten tilknytning til terrorisme. Enda mer bekymringsfullt var det faktum at programmet angivelig var det brukt for å rettferdiggjøre raseprofilering.
Ekman prøvde å distansere seg fra Spot og hevdet at metoden hans ble brukt feil. Men andre antydet at programmets fiasko skyldtes en utdatert vitenskapelig teori som understøttet Ekmans metode; nemlig at følelser kan trekkes objektivt gjennom analyse av ansiktet.
De siste årene har teknologiselskaper begynt å bruke Ekmans metode for å trene algoritmer for å oppdage følelser fra ansiktsuttrykk. Noen utviklere hevder at automatiske systemer for følelsesgjenkjenning ikke bare vil være bedre enn mennesker til å oppdage sanne følelser ved å analysere ansiktet, men at disse algoritmene vil bli innstilt på våre innerste følelser og forbedre samspillet med enhetene våre enormt.
Men mange eksperter som studerer emosjonsvitenskapen er opptatt av at disse algoritmene vil mislykkes igjen, og tar høye innsatser om livene våre basert på feil vitenskap.
Teknologi for følelsesdeteksjon krever to teknikker: datamaskinvisjon, for nøyaktig å identifisere ansiktsuttrykk, og maskinlæringsalgoritmer for å analysere og tolke det emosjonelle innholdet i disse ansiktsegenskapene.
Det andre trinnet bruker typisk en teknikk som kalles veiledet læring, en prosess der en algoritme blir opplært til å gjenkjenne ting den har sett før. Den grunnleggende ideen er at hvis du viser algoritmen tusenvis og tusenvis av bilder av glade ansikter med etiketten "lykkelig" når den ser et nytt bilde av et lykkelig ansikt, vil den igjen identifisere det som "lykkelig".
En doktorgradsstudent, Rana el Kaliouby, var en av de første som begynte å eksperimentere med denne tilnærmingen. I 2001, etter å ha flyttet fra Egypt til Cambridge University for å ta doktorgrad i informatikk, fant hun ut at hun brukte mer tid med datamaskinen sin enn med andre mennesker. Hun regnet med at hvis hun kunne lære datamaskinen å gjenkjenne og reagere på sin følelsesmessige tilstand, ville tiden hennes brukt langt borte fra familie og venner være mindre ensom.
Kaliouby dedikerte resten av doktorgradsstudiene sine til å jobbe med dette problemet, og utviklet etter hvert en enhet som hjalp barn med Asperger syndrom til å lese og svare på ansiktsuttrykk. Hun kalte det “følelsesmessig høreapparat”.
I 2006 sluttet Kaliouby seg til Affective Computing-lab ved Massachusetts Institute of Technology, hvor hun sammen med laboratoriets direktør, Rosalind Picard, fortsatte å forbedre og foredle teknologien. Så, i 2009, de medgrunnlegger en oppstart som heter Affectiva, den første virksomheten som markedsfører “kunstig emosjonell intelligens”.
Den største terroristen er regjeringen
Hvor ansiktsskanningen etter dem?