Barnesikringstjenester for å bruke AI, Big Data for å forutsi overgrep mot barn

Del denne historien!
Før forbrytelse blir tatt til en ny ekstrem for å røyke ut barnemishandlingssituasjoner, men for å komme dit, vil millioner av borgere bli utsatt for personvernmisbruk. Mange falske positive vil også bli misbrukt feilaktig. Er det dette som handler om en slags misbruk for en annen? Faktisk har teknokrater skapt en etisk storm. ⁃ TN Editor

I en tids nøysomhet og et klima med frykt for overgrep mot barn, er det kanskje ikke overraskende at sosionomer har henvendt seg til ny teknologi for å få hjelp.

Lokale myndigheter - som står overfor spiralende etterspørsel og et finansieringsmangel på £ 800m - begynner å spørre om big data kan bidra til å identifisere utsatte barn.

Kunne et dataprogram flagge en problemfamilie, identifisere et potensielt offer og forhindre en annen Baby P eller Victoria Climbié?

For mange år siden ville slike spørsmål vært ting av science fiction; nå er de tingene fra vitenskapelig faktum.

Bristol er ett sted som eksperimenterer med disse nye evnene, og han kjemper seg med de moralske og etiske spørsmålene som følger med dem.

Gary Davies, som fører tilsyn med rådets prediktive system, kan se fordelene.

Han argumenterer for at det ikke betyr å ta mennesker ut av beslutningsprosessen; snarere betyr det å bruke data for å hindre mennesker i å gjøre feil.

"Det sier ikke at du blir utnyttet seksuelt, eller at du vil savne," sier Davies. "Det demonstrerer atferdsegenskapene ved å bli utnyttet eller gå glipp av. Det markerer risikoen og sårbarheten. "

Slike teknikker har fungert på andre områder i mange år. Maskinlæringssystemer som er bygd for å utvinne enorme mengder personopplysninger, har lenge vært brukt til å forutsi kundeatferd i privat sektor.

Dataprogrammer vurderer hvor sannsynlig vi vil misligholde et lån, eller hvor stor risiko vi utgjør for en forsikringsleverandør.

Designere av en prediktiv modell må identifisere en "utfallsvariabel", som indikerer tilstedeværelsen av faktoren de prøver å forutsi.

For beskyttelse av barn, kan det være et barn som kommer inn i omsorgssystemet.

De prøver deretter å identifisere egenskaper som ofte finnes hos barn som kommer inn i omsorgssystemet. Når disse er identifisert, kan modellen kjøres mot store datasett for å finne andre individer som har de samme egenskapene.

The Guardian innhentet detaljer om alle prediktive indikatorer vurdert for inkludering i Thurrock-rådets barnesikringssystem. De inkluderer historie om overgrep i hjemmet, krenkelse av ungdom og truancy.

Mer overraskende indikatorer som restanse på husleie og helsedata ble opprinnelig vurdert, men ekskludert fra den endelige modellen. Når det gjelder både Thurrock, et råd i Essex og Londons bydel i Hackney, kan familier bli flagget til sosionomer som potensielle kandidater til programmet Troubled Families. Gjennom denne ordningen mottar råd tilskudd fra staten for å hjelpe husholdninger med langvarige vansker som arbeidsledighet.

Slike systemer vekker uunngåelig bekymringer for personvern. Wajid Shafiq, administrerende direktør i Xantura, selskapet som leverer prediktivt analysearbeid til både Thurrock og Hackney, insisterer på at det er en balanse mellom personvernrettigheter og bruk av teknologi for å levere et offentlig gode.

Les hele historien her ...

Abonner!
Varsle om
gjest

0 Kommentar
Inline tilbakemeldinger
Se alle kommentarer