Facebook for å bruke AI til å skanne tankene dine, 'Forbedre brukernes sikkerhet'

Wikipedia Commons
Del denne historien!
Technocrat-minded sosiale ingeniører på Facebook tror de nå kan skanne tankene dine ved å lese innleggene dine, og erklære når du trenger psykiske helsetjenester. Egentlig? Vil de rapportere deg automatisk slik at menn i hvite frakker dukker opp ved leilighetsdøren din med en rett jakke? Denne tankegangen er utenfor farlig. ⁃ TN Editor

Dette er programvare for å redde liv. Facebooks nye "proaktive deteksjon" -teknologi for kunstig intelligens vil skanne alle innlegg for mønstre av selvmordstanker, og når det er nødvendig sende psykiske helseressurser til brukeren i fare eller deres venner, eller kontakte lokale førstesvarere. Ved å bruke AI til å flagge bekymringsfulle innlegg til menneskelige moderatorer i stedet for å vente på brukerrapporter, kan Facebook redusere hvor lang tid det tar å sende hjelp.

Facebook  tidligere testet ved hjelp av AI for å oppdage urolige innlegg og mer tydelig overflater for selvmordsrapportering til venner i USA Nå vil Facebook skure alle typer innhold hele verden med denne AI, unntatt i EU, hvor Generell databeskyttelsesforskrift personvernlovgivning om profilering av brukere basert på sensitiv informasjon kompliserer bruken av denne teknologien.

Facebook vil også bruke AI til å prioritere spesielt risikable eller presserende brukerrapporter, slik at de raskere blir adressert av moderatorer, og verktøy for å øyeblikkelig overflate lokale språkressurser og kontaktinfo for første responder. Den dedikerer også flere moderatorer til selvmordsforebygging, og opplærer dem til å håndtere sakene 24 / 7, og har nå 80 lokale partnere som Save.org, National Suicide Prevention Lifeline og Forefront for å gi ressurser til brukere i fare og deres nettverk .

"Dette handler om å barbere minutter i hvert eneste trinn i prosessen, spesielt i Facebook Live," sier VP for produktadministrasjon Guy Rosen. I løpet av den siste testmåneden har Facebook iverksatt mer enn 100 "velværekontroller" med førstesvarere som besøker berørte brukere. "Det har vært tilfeller der førstesvareren har kommet, og personen fortsatt sender."

Ideen om å proaktivt skanne innholdet i folks innlegg kan utløse litt dystopisk frykt for hvordan ellers teknologien kan brukes. Facebook hadde ikke svar om hvordan det ville unngå å skanne etter politisk dissens eller småkriminalitet, med Rosen bare å si “vi har en mulighet til å hjelpe her, så vi kommer til å investere i det.” Det er absolutt enorme fordelaktige aspekter ved teknologi, men det er et annet rom der vi har lite annet valg enn å håpe Facebook ikke går for langt.

Facebook-sjef Mark Zuckerberg berømmet produktoppdateringen i et innlegg i dag, skriver det "I fremtiden vil AI kunne forstå flere av de subtile nyansene i språket, og vil kunne identifisere forskjellige spørsmål utover selvmord også, inkludert raskt å oppdage flere typer mobbing og hat."

Dessverre, etter at TechCrunch spurte om det var en måte for brukere å velge bort, å ha innleggene sine, svarte en talsperson for Facebook at brukere ikke kan velge bort. De bemerket at funksjonen er designet for å forbedre brukernes sikkerhet, og at støtteressurser som tilbys av Facebook raskt kan avskjediges hvis en bruker ikke ønsker å se dem.]

Facebook trente AI ved å finne mønstre i ordene og bildene som ble brukt i innlegg som manuelt har blitt rapportert for selvmordsrisiko i det siste. Det ser også etter kommentarer som “er du i orden?” Og “Trenger du hjelp?”

Les hele historien her ...

Abonner!
Varsle om
gjest

0 kommentarer
Inline tilbakemeldinger
Se alle kommentarer