Newspeak AI: Totalt Fake News kunne ødelegge Internett

newspeak
Del denne historien!
OpenAI ble grunnlagt i 2015 for å fremme og utvikle AI som ville være til nytte for menneskeheten som helhet. I stedet bygde de den farligste AI-tenkningen som kunne ødelegge Internett og manipulere hodet til enhver person på jorden.

OpenAI ble opprinnelig finansiert, delvis, av Elon Musk, en fullbyrdet Technokrat hvis bestefar var sjef for Technocracy, Inc., i Canada i løpet av 1930s og 40s. ⁃ TN Editor

Et kunstig intelligenssystem som genererer realistiske historier, dikt og artikler er oppdatert, med noen som hevder at det nå er nesten like bra som en menneskelig forfatter.

Tekstgeneratoren, bygget av forskningsselskapet OpenAI, ble opprinnelig ansett som "for farlig" til å bli offentliggjort på grunn av potensialet for misbruk.

Men nå har en ny, kraftigere versjon av systemet - som kan brukes til å lage falske nyheter eller voldelig spam på sosiale medier - blitt gitt ut.

BBC, sammen med noen AI-eksperter, bestemte seg for å prøve det.

Modellen, kalt GPT-2, ble trent på et datasett på åtte millioner websider, og er i stand til å tilpasse seg stilen og innholdet i den innledende teksten som er gitt til den.

Det kan bli ferdig med et Shakespeare-dikt, i tillegg til å skrive artikler og epiteletter.

På den tiden sa firmaet: ”På grunn av bekymringene våre for ondsinnede applikasjoner av teknologien, frigjør vi ikke den trente modellen. Som et eksperiment i ansvarlig avsløring frigir vi i stedet en mye mindre modell som forskere kan eksperimentere med. ”

Som et resultat hadde den utgitte versjonen langt færre parametere - setninger og setninger - enn brukt under trening.

Denne måneden bestemte OpenAI seg for å utvide parametrene, og tilby en mye bredere database med treningsdata.

Tech-nyhetsnettstedet The Next Web sa om oppdateringen: "Denne fungerer nesten bra nok til å brukes som generell kunstig intelligens for tekstgenerering - nesten."

Artikkelforfatter Tristan Greene la til: Jeg er livredd for GPT-2 fordi den representerer den typen teknologi som onde mennesker kommer til å bruke for å manipulere befolkningen - og etter min mening gjør det den farligere enn noen pistol. ”

BBC bestemte seg for å teste systemet ved å legge inn de første setningene i en nyere historie, passende nok om AI.

Vi begynte med den første setningen i den virkelige historien:

Den kinesiske søkemotoren Sogou lager kunstige intelligens-lookalikes for å lese populære romaner i forfatterstemmer.

Her er hva tekstgeneratoren kom med for å fullføre det:

I følge forskerne er denne metoden for lesing ikke bare hjernen til Amazon Kindle-brukere. Brukere av Android-enheter er også et bemerkelsesverdig marked for falsk lesing. Det er flere teorier som forklarer dette.

For det første er enheten i brukerens hånd forskjellig fra nettbrettet eller datamaskinen de leser på. For det andre kan enheten som brukes til å få tilgang til Internett bli manipulert på en eller annen måte. En tredje grunn er at brukeren bare kan kopiere og lime inn innhold direkte i sine virtuelle tegn.

En annen forklaring er imidlertid at enheten ikke har stemmegjenkjenningsfunksjoner i det hele tatt. Hvis dette er tilfelle, er stemmegjenkjenning mer avansert enn Googles oversettelsesmotor. Som sådan blir disse brukerne lurt til å tro at de leser fra en ekte forfatter - boken er laget for å høres autentisk ut så snart de prøver å lese.

Nå Klikk her for å lese den virkelige historien til sammenligning.

Noel Sharkey, professor i informatikk ved University of Sheffield, gjennomførte sine egne tester på generatoren og ble ikke så imponert.

Mannen går inn i en bar

“Hvis programvaren fungerte som ment av Open AI, ville det være et veldig nyttig verktøy for å enkelt generere falske nyheter og clickbait spam. Heldigvis genererer den i sin nåværende form usammenhengende og latterlig tekst med lite forhold til inngangsoverskriftene, sa han.

Han la til: ”Jeg testet programvaren med mange overskrifter og fikk latterlige resultater. For eksempel for "Kalkuner hater jul" fikk jeg at "Tyrkia er den eneste nasjonen i verden som ikke feirer jul" og en rekke ikke-relaterte setninger.

"For" Boris Johnson elsker backstop ", ga den usammenhengende bråkete og noen ting om AI og sport. Da jeg kom med uttalelsen om at 'Boris Johnson hater backstop', fikk jeg en mer sammenhengende historie som ser ut til å ha blitt trukket ut av et Google-søk. ”

Dave Coplin, grunnlegger av AI consulting the Envisioners, hadde også et spill med systemet og la den første linjen i en klassisk vits: En mann går inn i en bar ...

Forslaget fra AI var ikke det han forventet: “… Og bestilte to halvliter øl og to skott. Da han prøvde å betale regningen, ble han konfrontert med to menn, hvorav den ene ropte "Dette er for Syria". Mannen ble deretter igjen blødende og stukket i halsen ”.

Denne "overveldende dystopiske refleksjonen av samfunnet vårt" var en leksjon i hvordan ethvert AI-system vil gjenspeile den skjevheten som finnes i treningsdata, sa han.

"Fra mine korte eksperimenter med modellen er det ganske klart at en stor del av dataene er trent av internettnyheter," sa han.

Les hele historien her ...

Abonner!
Varsle om
gjest

1 Kommentar
eldste
Nyeste Mest stemte
Inline tilbakemeldinger
Se alle kommentarer
Elle

Fantastisk. De ekle kreftene på jobben presser virkelig hardt for å få AI Fake New-robotene i form før valgkampen begynner for alvor.

Sinnsykt asyl Jim? Tru dat, bror.

Den underliggende sannheten om AI-trusselen unnslipper helt, veldig dumme skapere / kodere hvis eneste mål er å slippe løs AI-botsene sine på Internett og andre steder. De er mer som 6 år gamle barn med en kasse med fyrstikker i en tørr skog enn profesjonelle eller voksne. Det tas ikke hensyn til resultatene som kan komme fra AI, bortsett fra ett - det til PROFIT.