Ansiktsgjenkjenningsalgoritme forårsaket feilaktig arrestasjon

Del denne historien!
Denne historien avslører hvorfor Amazon, IBM og Microsoft har trukket seg ut av ansiktsgjenkjenningsvirksomheten for å avlede noen kritikk over raseskjevhet. I dette tilfellet spikret algoritmen feil svart mann for en forbrytelse han ikke begikk. ⁃ TN Editor

En torsdag ettermiddag i januar var Robert Julian-Borchak Williams på kontoret sitt hos et bilforsyningsselskap da han fikk en samtale fra Detroit politidepartement som ba ham komme til stasjonen for å bli arrestert. Han trodde først at det var en prank.

En times tid senere, da han trakk seg inn i oppkjørselen i en rolig underavdeling i Farmington Hills, Mich., Trakk en politibil seg bak og sperret ham inn. To offiserer kom seg ut og håndjernte mr. Williams på plenen foran, foran hans kone og to små døtre, som var forferdet. Politiet ville ikke si hvorfor han ble arrestert, bare viser ham et stykke papir med fotografiet og ordene "forbrytelsesordre" og "larceny."

Hans kone, Melissa, spurte hvor han ble ført. "Google det," husker hun en offiser som svarte.

Politiet kjørte Mr. Williams til et interneringssenter. Han fikk tatt krusskuddet, fingeravtrykk og DNA, og ble holdt over natten. Rundt klokka XNUMX fredag ​​tok to detektiver ham med til et avhørslokale og plasserte tre papirbiter på bordet, med forsiden ned.

"Når er siste gang du dro til en Shinola-butikk?" spurte en av detektivene etter mr. Williams erindring. Shinola er en eksklusiv butikk som selger klokker, sykler og lærvarer i det trendy Midtown-området i Detroit. Williams sa at han og kona hadde sjekket det ut da butikken åpnet i 2014.

Detektiven snudde det første papiret. Det var et stillbilde fra en overvåkningsvideo, som viser en tungtstående mann, kledd i svart og iført en rød St. Louis Cardinals-hette, som sto foran en klokkeoppvisning. Fem timestykker, til en verdi av 3,800 dollar, ble butikkløftet.

“Er dette deg?” spurte detektiven.

Det andre papiret var en nærbilde. Bildet var uskarpt, men det var tydeligvis ikke Williams. Han plukket opp bildet og holdt det ved siden av ansiktet.

"Nei, dette er ikke meg," sa Williams. "Tror du alle svarte menn ser like ut?"

Williams visste at han ikke hadde begått den aktuelle forbrytelsen. Det han ikke kunne ha visst, mens han satt i avhørsrommet, er at saken hans kan være den første kjente beretningen om at en amerikaner urettmessig ble arrestert basert på en feilaktig kamp fra en ansiktsgjenkjenningsalgoritme, ifølge eksperter på teknologi og loven .

Et defekt system

En landsomfattende debatt raser om rasisme i rettshåndhevelse. Over hele landet protesterer millioner ikke bare handlingene fra enkeltoffiserer, men skjevheter i systemene som brukes til å undersøke lokalsamfunn og identifisere personer for påtale.

Ansiktsgjenkjenningssystemer har blitt brukt av politistyrker til mer enn to tiår. Nyere studier av MIT og Nasjonalt institutt for standarder og teknologi, eller NIST, har funnet ut at selv om teknologien fungerer relativt bra på hvite menn, er resultatene mindre nøyaktige for andre demografier, delvis på grunn av mangel på mangfoldighet i bildene som brukes til å utvikle de underliggende databasene.

I fjor, under en offentlig høring om bruken av ansiktsgjenkjenning i Detroit, var en assisterende politimester blant dem som vakte bekymring. "På spørsmålet om falske positiver - det er absolutt saklig, og det er godt dokumentert," sa James White. "Så det angår meg som en afroamerikansk mann."

Denne måneden AmazonMicrosoft og IBM kunngjorde at de ville stoppe eller pause deres tilbud om ansiktsgjenkjenning for rettshåndhevelse. Bevegelsene var stort sett symbolsk, gitt at selskapene ikke er store aktører i bransjen. Teknologipolitiavdelingene bruker blir levert av selskaper som ikke er husholdningsnavn, for eksempel Vigilant Solutions, Cognitec, NEC, Rank One Computing og Clearview AI.

Les hele historien her ...

Abonner!
Varsle om
gjest
2 kommentarer
eldste
Nyeste Mest stemte
Inline tilbakemeldinger
Se alle kommentarer
DawnieR

Glem svarte mennesker ... Jeg tar et utdannet gjetning om at dette ALDRI vil fungere for asiater heller!

dP_Ted

Det kom til å skje. Det som får meg er at personen datamaskinen velger noen ganger ser ganske annerledes ut enn den faktiske personen, men det er hva datamaskinen sier som går. smh