Yoshua Bengio, en kanadisk datamaskinforsker som hjalp til med å pionere teknikkene som ligger til grunn for mye av den nåværende spenningen rundt kunstig intelligens, er bekymret for Kinas bruk av AI til overvåking og politisk kontroll.
Bengio, som også er en av grunnleggerne av det Montreal-baserte AI-programvareselskapet Element AI, sa at han var bekymret for teknologien han bidro til å skape som ble brukt til å kontrollere folks atferd og påvirke deres sinn.
"Dette er Big Brother-scenariet i 1984," sa han i et intervju. "Jeg tror det blir mer og mer skummelt."
Bengio, professor ved University of Montreal, regnes som en av de tre ”gudfedrene” for dyp læring, sammen med Yann LeCun og Geoff Hinton. Det er en teknologi som bruker nevrale nettverk - en slags programvare løst basert på aspekter av den menneskelige hjerne - for å lage spådommer basert på data. Det er ansvarlig for nylige fremskritt innen ansiktsgjenkjenning, prosessering av naturlige språk, oversettelse og anbefalingsalgoritmer.
Dyp læring krever en stor mengde data for å gi eksempler å lære - men Kina, med sin enorme befolkning og system for statsregistrering, har mye av det.
Den kinesiske regjeringen har begynt å bruke videokameraer med lukket krets og ansiktsgjenkjenning for å overvåke hva innbyggerne gjør offentlig, fra jaywalking til å delta i politisk uenighet. Det er også opprettet en nasjonal plattform for deling av kredittinformasjon, som brukes til å svarteliste jernbane- og flypassasjerer for "usosial" oppførsel, og vurderer å utvide bruken av dette systemet til andre situasjoner.
"Bruk av ansiktet ditt for å spore deg bør være sterkt regulert," sa Bengio.
Bengio er ikke alene om sin bekymring for Kinas bruk av saker for AI. Milliardær George Soros brukte nylig en tale på World Economic Forum den X. 24, for å synliggjøre risikoen landets bruk av AI utgjør for borgerlige friheter og minoritetsrettigheter.
I motsetning til noen jevnaldrende, har Bengio, som leder Montreal Institute for Learning Algorithms (Mila), motstå fristelsen til å jobbe for et stort, reklamedrevet teknologiselskap. Han sa at ansvarlig utvikling av AI kan kreve at noen store teknologiselskaper må endre måten de driver på.
Mengden data store teknologibedrifter kontrollerer er også et problem. Han sa at opprettelsen av datatillits - ideelle organisasjoner eller juridiske rammer der folk eier dataene sine og tillater at de bare brukes til visse formål - kan være en løsning. Hvis en tillit hadde nok data, kunne den forhandle bedre vilkår med store teknologiselskaper som trengte det, sa han torsdag under en samtale på Amnesty International UKs kontor i London.