Unnskyldningen er å fange barnemishandlere og seksuelle rovdyr, men i prosessen må 100 prosent av bildene dine også skannes. Når overvåkingsdøren er åpnet, kan alle andre typer bilder målrettes for andre formål. Dette kan omfatte politiske protester, lokaliseringsinformasjon, psykologiske profiler, dvs. hva du tar bilder av, etc. ⁃ TN Editor
eple vil rapportere bilder av utnyttelse av barn lastet opp til iCloud i USA til politiet, selskapet sa på torsdag.
Det nye systemet vil oppdage bilder som heter Child Sexual Abuse Material (CSAM) ved hjelp av en prosess som kalles hashing, der bilder blir transformert til unike tall som tilsvarer det bildet.
Apple begynte å teste systemet torsdag, men de fleste amerikanske iPhone -brukere vil ikke være en del av det før en iOS 15 -oppdatering senere i år, sa Apple.
Bevegelsen bringer Apple på linje med andre skytjenester som allerede skanner brukerfiler, ofte ved hjelp av hashing -systemer, for innhold som bryter vilkårene for bruk, inkludert bilder av utnyttelse av barn.
Det representerer også en test for Apple, som sier at systemet er mer privat for brukere enn tidligere metoder for å eliminere ulovlige bilder av seksuelle overgrep mot barn, fordi det bruker sofistikert kryptografi på både Apples servere og brukerenheter og ikke skanner faktiske bilder, bare hashes.
Men mange personvernfølsomme brukere rekylerer fortsatt fra programvare som varsler myndigheter for innholdet på en enhet eller i skyen, og kan reagere negativt på denne kunngjøringen, spesielt siden Apple har forsvaret enhetskryptering høyt og opererer i land med færre talebeskyttelse enn OSS
Lovhåndhevelsesmyndigheter rundt om i verden har også presset Apple til å svekke krypteringen for iMessage og andre programvaretjenester som iCloud for å undersøke utnyttelse av barn eller terrorisme. Torsdagens kunngjøring er en måte for Apple å løse noen av disse problemene uten å gi opp noen av sine tekniske prinsipper rundt brukernes personvern.
Hvordan fungerer det
Før et bilde lagres i Apples iCloud, samsvarer Apple med bildens hash mot en database med hashes levert av National Center for Missing and Exploited Children (NCMEC). Denne databasen vil bli distribuert i koden til iOS som begynner med en oppdatering til iOS 15. Matchingsprosessen er utført på brukerens iPhone, ikke i skyen, sa Apple.
Hvis Apple deretter oppdager et visst antall krenkende filer i en iCloud -konto, vil systemet laste opp en fil som lar Apple dekryptere og se bildene på den kontoen. En person vil gjennomgå bildene manuelt for å bekrefte om det er et treff eller ikke.
Apple vil bare kunne se på bilder som samsvarer med innhold som allerede er kjent og rapportert til disse databasene - det vil for eksempel ikke kunne oppdage foreldres bilder av barna sine i badekaret, ettersom disse bildene ikke vil være en del av NCMEC -databasen.
Hvis personen som gjør den manuelle gjennomgangen konkluderer med at systemet ikke gjorde en feil, vil Apple deaktivere brukerens iCloud -konto og sende en rapport til NCMEC eller varsle politiet om nødvendig. Brukere kan klage til Apple hvis de tror at kontoen deres ble flagget ved en feiltakelse, sa en Apple -representant.
Systemet fungerer bare på bilder lastet opp til iCloud, som brukere kan slå av, sa Apple. Bilder eller andre bilder på en enhet som ikke er lastet opp til Apple -servere, vil ikke være en del av systemet.
Flink. Det er på tide at folk våkner til det som har skjedd hele tiden. Den eneste endringen nå er at de begynner å gå etter folk for å skape presedens. Men hvis du tror de ikke vet hva som er i icloud eller på telefonen din, er du ikke veldig smart. De skapte tingen. Og jeg jobbet i telekom, FYI. Jeg kunne bare gå opp i neste etasje og se serverrommet. På den tiden ønsket FBI tilsynelatende å komme seg inn der ... fordi telefonene var av en bestemt type som visstnok var veldig nyttig for forhandlere og ikke for... Les mer "
Beste svar er å bruke en tredjeparts skylagring som ikke har interesse for dine private saker. De er der ute, men du må lete etter dem. Du kan kryptere innholdet ditt med dem. Bare vet at alt kryptert innhold ikke kan hentes av selskapet hvis du mister passordet ditt.
For å være ærlig, aner du ikke hvem disse selskapene er. Jeg har funnet ut at ved å gjøre undersøkelser har alle "personvern" -selskaper noen ganske skyggefulle midler. Og det er uten unntak.
[…] Les mer: Apple begynner å skanne alle personlige bilder og bilder lastet opp til iCloud [...]
Bedre å ikke ta noen bilder av babyer eller barn som bader eller dusjer… .Du er en pervers hvis du gjør det nå.
[…] Apple begynner å skanne alle personlige bilder og bilder lastet opp til iCloud […]