Trinn 1: Bruk AI for å gjøre uoppdagelige endringer i utendørsbilder. Trinn 2: slipp dem ut i åpen kildekodeverden og nyt kaoset.
Bekymringer dype forfalskninger—Maskin-manipulerte videoer av kjendiser og verdensledere som påstås å si eller gjøre ting som de virkelig ikke gjorde - er sjarmerende sammenlignet med en ny trussel: doktrerte bilder av selve jorden.
Kina er den anerkjente lederen når det gjelder å bruke en ny teknikk som kalles generative adversarial nettverk for å lure datamaskiner til å se objekter i landskap eller i satellittbilder som ikke er der, sier Todd Myers, automatiseringsleder og informasjonssjef i kontoret til teknologidirektøren. hos National Geospatial-Intelligence Agency.
“Kineserne ligger godt foran oss. Dette er ikke klassifisert info, ”sa Myers torsdag på det andre året Geniusmaskiner toppmøte, vert av Forsvar En og Nextgov. “Kineserne har allerede designet; de gjør det allerede nå, ved å bruke GAN-er - som er generative motstandsnettverk - for å manipulere scener og piksler for å lage ting av uærlige grunner. "
For eksempel, sa Myers, kan en motstander lure datamaskinassisterte billedanalytikere til å rapportere at en bro krysser en viktig elv på et gitt punkt.
"Så fra et taktisk perspektiv eller oppdragsplanlegging, trener du kreftene dine til å gå en bestemt rute, mot en bro, men den er ikke der. Så venter det en stor overraskelse på deg, ”sa han.
Først beskrevet i 2014, GAN-er representerer en stor evolusjon i måten nevrale nettverk lærer å se og gjenkjenne objekter og til og med oppdage sannhet fra fiksjon.
Si at du ber det konvensjonelle nevrale nettverket om å finne ut hvilke objekter som er hva i satellittbilder. Nettverket vil bryte bildet i flere biter, eller pikselklynger, beregne hvordan de ødelagte brikkene forholder seg til hverandre, og deretter ta en beslutning om hva det endelige produktet er, eller om bildene er ekte eller doktorgrad. Alt er basert på opplevelsen av å se på mange satellittbilder.
GAN-er reverserer prosessen ved å slå to nettverk mot hverandre - derav ordet “motstander.” Et konvensjonelt nettverk kan si: “Tilstedeværelsen av x, y og z i disse pikselklyngene betyr at dette er et bilde av en katt.” Men et GAN-nettverk kan si: “Dette er et bilde av en katt, så x, y og z må være til stede. Hva er x, y og z, og hvordan forholder de seg? ”Motstandernettverket lærer hvordan man konstruerer, eller genererer, x, y og z på en måte som overbeviser det første nevrale nettverket, eller diskriminerende, om at noe er der når det kanskje ikke er det.
Mange forskere har funnet GAN-er nyttige for å oppdage objekter og sortere gyldige bilder fra falske bilder. I 2017 brukte kinesiske lærde Gans å identifisere veier, broer og andre funksjoner i satellittbilder.
Bekymringen, som AI-teknologer fortalte Kvarts i fjor, er at den samme teknikken som kan skille ekte broer fra falske, også kan bidra til å lage falske broer som AI ikke kan fortelle fra den virkelige tingen.
Myers bekymrer seg for at når verden kommer til å stole mer og mer på åpen kildekode-bilder for å forstå det fysiske terrenget, bare en håndfull fagmessig manipulerte datasett som er lagt inn i åpen kildekode for tilførselslinje, kan skape ødeleggelser. "Glem [Forsvarsdepartementet] og [etterretningsfellesskapet]. Tenk at Google Maps blir infiltrert med det, målrettet? Og forestill deg fem år fra nå når Tesla [selvkjørende] semis er det ute og dirigerer ting? ”sa han.
Når det gjelder dype falske videoer av mennesker, biometriske indikatorer som puls og tale kan beseire den falske effekten. Men forfalsket landskap er ikke sårbart for de samme teknikkene.