Noen svir seg i en lang linje ved en flyplassens sikkerhetsport. Er den personen ganske nervøs for ventetiden?
Eller er dette en passasjer som har noe uhyggelig å skjule?
Selv høyt utdannede sikkerhetsansvarlige for sikkerhetsadministrasjoner i Transport Security Administration (TSA) har fortsatt vanskelig for å fortelle om noen lyver eller forteller sannheten - til tross for milliarder av dollar og mange års studier som er viet til emnet.
Nå bruker University of Rochester forskere datavitenskap og et online crowddsourcing-rammeverk kalt ADDR (Automated Dyadic Data Recorder) for å styrke vår forståelse av bedrag basert på ansikts- og verbale ledetråder.
De håper også å minimere tilfeller av rasemessige og etniske profiler som TSA-kritikere hevder oppstår når passasjerer trekkes til side under byråets Screening of Passengers by Observation Techniques (SPOT) -program.
"I utgangspunktet er systemet vårt som Skype på steroider," sier Tay Sen, en doktorgradsstudent på laboratoriet Ehsan Hoque, en adjunkt i informatikk. Sen samarbeidet tett med Karmul Hasan, en annen doktorgradsstudent i gruppen, om to artikler i IEEE automatisert ansikts- og gestegjenkjenning og Fortsettelser av ACM om interaktiv, mobil, bærbar og ubiquituous teknologi. Avisene beskriver rammene laboratoriet har brukt for å lage det største offentlig tilgjengelige bedrag-datasettet hittil - og hvorfor noen smil er mer bedragere enn andre.
Spill avslører sannheten bak et smil
Slik fungerer ADDR: To personer melder seg på Amazon Mekanisk Turk, markedsmarkedet for internett som passer folk til oppgaver som datamaskiner for øyeblikket ikke kan gjøre. En video tilordner den ene personen til å være beskriver og den andre til å være forhør.
Beskriveren får deretter vist et bilde og blir bedt om å huske så mange detaljer som mulig. Datamaskinen instruerer beskriveren om enten å lyve eller fortelle sannheten om det de nettopp har sett. Avhøreren, som ikke har vært kjent med instruksjonene til beskriveren, stiller deretter beskriveren et sett med grunnleggende spørsmål som ikke er relevante for bildet. Dette gjøres for å fange individuelle atferdsforskjeller som kan brukes til å utvikle en "personlig modell." De rutinemessige spørsmålene inkluderer "hva hadde du på deg i går?" - å provosere en mental tilstand som er relevant for å hente et minne - og "hva er 14 ganger 4?" - å provosere en mental tilstand som er relevant for analytisk hukommelse.
"Mange ganger pleier folk å se på en bestemt måte eller vise et slags ansiktsuttrykk når de husker ting," sa Sen. "Og når de får et beregningsspørsmål, har de en annen type ansiktsuttrykk."
De er også spørsmål som vitnet ikke har noe incentiv til å lyve om, og som gir en grunnleggende oversikt over den enkeltes ”normale” svar når han svarer ærlig.
Og selvfølgelig er det spørsmål om selve bildet, som vitnet gir enten en sannferdig eller uærlig respons.
Hele utvekslingen er spilt inn på en egen video for senere analyse.
1 millioner ansikter
En fordel med denne crowddsourcing-tilnærmingen er at den gjør det mulig for forskere å benytte seg av et langt større basseng med forskningsdeltakere - og samle inn data langt raskere - enn det som ville skjedd hvis deltakerne måtte føres inn i et laboratorium, sier Hoque. Å ikke ha et standardisert og konsistent datasett med pålitelig grunnsannhet har vært det største tilbakeslaget for villedningsforskning, sier han. Med ADDR-rammeverket samlet forskerne 1.3 millioner rammer av ansiktsuttrykk fra 151 par individer som spilte spillet, i løpet av noen ukers anstrengelse. Mer datainnsamling pågår i laboratoriet.
Datavitenskap gjør det mulig for forskerne å raskt analysere alle disse dataene på nye måter. For eksempel brukte de automatisert ansiktsfunksjonsanalyseprogramvare for å identifisere hvilke handlingsenheter som ble brukt i en gitt ramme, og for å tildele en numerisk vekt til hver.
Forskerne brukte deretter en ukontrollert klyngeteknikk - en maskinlæringsmetode som automatisk kan finne mønstre uten å bli tildelt noen forhåndsbestemte etiketter eller kategorier.
Det fortalte oss at det i utgangspunktet var fem slags smilefaglige 'ansikter' som folk laget når de svarte på spørsmål, »sa Sen. Den som hyppigst assosieres med å lyve, var en høyintensitetsversjon av det såkalte Duchenne-smilet som involverer både kinn / øye- og munnmusklene. Dette stemmer overens med "Duping Delight" -teorien om at "når du lurer noen, har du en tendens til å glede deg over den," forklarte Sen.
Mer forvirrende var oppdagelsen av at ærlige vitner ofte ville trekke øynene opp, men ikke smilte i det hele tatt med munnen. "Da vi gikk tilbake og spilte på videoene igjen, fant vi ut at dette ofte skjedde når folk prøvde å huske hva som var i et bilde," sa Sen. "Dette viste at de konsentrerte seg og prøvde å huske ærlig."
Jeg lurer bare på hvordan mennesker kan leve et liv helt uten innhold, bare på illusjoner.
Hvis AI Facial kan fortelle hvem som lyver, hvorfor har de ikke prøvd dette på Al Gore, Obama, Bush og 9/11 for lenge siden?
Svaret er at AI er basert på falske premisser, hvorfor resultatet selvfølgelig også må være falskt