ChatGPT kan ha irreversible konsekvenser for læring og beslutningstaking

Wikipedia Commons
Del denne historien!
Det er to aspekter av sinnet. En handler om hva du tenker, og AI kan stappe hjernen din full av tull på et øyeblikk. Det andre aspektet er hvordan du tenker, eller hvordan du kommer til konklusjoner, tro osv. ChatGPT og look-a-likes har potensialet til å omkoble hjernen din og stille endringer i beslutningsveiene dine. Dette er spesielt farlig for ungdom opp til 25 år, ettersom hjernen blir satt for livet. ⁃ TN-redaktør

Menneskehetens moderne bane har blitt definert av flere bøyningspunkter. Oppfinnelsen av blant annet elektrisitet, lyspære, telegrafsystemet, datamaskin og internett signaliserte nye irreversible milepæler i vår modus vivendi. Den nylige introduksjonen av ChatGPT kan imidlertid vise seg å være mer enn et vendepunkt. Det kan være en permanent forstyrrelse av vår livsstil; det er tabber og Wokist raserianfall til tross.

ChatGPT er nå den raskest voksende forbrukerappen i historien. Innen to måneder etter lanseringen i november 2022, klarte ChatGPT å skaffe mer enn 100 millioner brukere. Utvikleren OpenAI, som begynte med 375 ansatte og tynne inntekter, er nå verdsatt til $ 30 milliarder og teller.

Hvordan virker det? Grovt sett samler ChatGPT data fra nettkilder og syntetiserer svar på en spørring i løpet av sekunder. Det er for tiden den mest allsidige av en stall av nye kunstig intelligens-drevne store språkmodeller. Den kan komponere musikknoter, skrive programvarekoder, løse matematiske ligninger, skrive romaner, essays og avhandlinger, blant en rekke andre oppgaver. Den kan brukes av forskere til å oversette sine originale verk – skrevet på et morsmål – til engelsk. Etter hvert som AI-verktøy som ChatGPT utvikler seg, kan de erstatte menneskelig aktivitet over et bredt, men likevel uberegnelig spekter. Hundrevis av millioner av arbeidsplasser kan stå på spill.

Dens mest umiddelbare innvirkning vil imidlertid være innen menneskelig læring og beslutningstaking.

Menneskelig læring

Menneskelig læring er en livslang prosess formet av utallige faktorer. Disse inkluderer (men er ikke begrenset til) erfaring, instinkt, interaksjoner, feil (og korreksjoner), introspeksjon, personlig angst, dristighet, veiledning, tekstdata og individuell psyke. De fleste av disse forutsetningene er fremmede for ChatGPT, og dette inkluderer "no pain no gain"-aksiomet for menneskelig læring og utvikling.

AI-verktøy er også upåvirket av menneskelige begrensninger som tidsbegrensninger, tretthet, "fridager" og plager. Over tid har disse begrensningene fått mennesker til å delegere sine eksistensielt krav om å tenke og lære til maskiner. Ubønnhørlig digitalisering har også gjort oss dyktige på vite hvor eller hvordan man kan søke informasjon istedenfor lære hvordan du kan beholde den samme informasjonen. Hvor mange av oss husker telefonnumrene til familie, kolleger og venner i disse dager? En digital krykke er nå et must for å navigere på veier (f.eks. Waze, Google Maps), matlaging (videokanaler), reparere apparater (DIY-kanaler) og en rekke andre hverdagslige aktiviteter. Våre daglige oppgaver blir raskt flere mekanistisk, fortrenger vår evne til å skape noe nytt eller endre spillet. Vi blir utvidelser av maskinene våre i stedet for omvendt. Som et resultat står menneskeheten nå overfor en epoke med kollektiv stupor og konformitet.

Det er ingen bedre måte å måle hvordan AI-verktøy kan påvirke våre evner til å tenke og lære enn ved å observere ChatGPTs innvirkning på den globale utdanningssektoren. Både studenter og lærere bruker nå ChatGPT som et pedagogisk supplement, et jukseverktøy eller som en digital krykke.

En fersk Undersøkelsen av Walton Family Foundation og Impact Research fant at de fleste lærere (51%), og mange elever, allerede bruker ChatGPT på skolene. Nok en undersøkelse som involverer 1,000 amerikanske høyskoler fant at 30 % av studentene brukte ChatGPT til skriftlige oppgaver, og 60 % av dem brukte det på «mer enn halvparten av oppgavene sine». ChatGPT har passert mange eksamener på høyt nivå, inkludert Wharton MBA-eksamen, amerikansk medisinsk lisensieringseksamen, flere jusseksamener og en finale ved Stanford Medical School.

Papirmølle kan også bruke ChatGPT til å lage vitenskapelige artikler og rapporter. Forskere som bruker slike konstruerte data, eller som bevisst forfalsker forskningsprosessen gjennom generativ AI, kan ende opp med å fremme politikk og produkter som er skadelige for samfunnet. Verden har ikke råd til nok en coronapyschosis!

Alt i alt blir både elever og lærere stadig mer skremt av den allmektige AI. AI hever standarden for studenter, professorer og en rekke fagfolk. Å sortere ut ekte gjenstander blir også stadig vanskeligere.

As Christopher Kanan, bemerket førsteamanuensis i informatikk ved University of Rochester nylig: "Det blir bare vanskeligere å finne ut hvem som vet hva og hvem som får hjelp fra ting som ChatGPT." Noen få skoler i New York, Hong Kong, Bangalore og andre steder har forbudt elever fra å bruke ChatGPT i oppgavene sine på grunn av bekymringer for "plagiering", juks og feilinformasjon.

Mens ChatGPT er et flott verktøy for å studere komplekse konsepter og tråder av kunnskapsintegrasjon, i virkeligheten kan det forvandle de fleste brukere til føyelige forbrukere av AI-generert data. Langvarig digitalt mediert passivitet atrofierer det tenkende fakultetet.

En annen ulempe med ChatGPT er potensialet til å utvide det mye omdiskuterte digitale skillet. Søknader om jobber, forfremmelser, stipender osv. vil i overveldende grad favorisere de digitale har fremfor de digitale som ikke har, spesielt når det kreves abonnementsavgift for tilgang.

Lærere for øyeblikket er ikke i stand til å definere de etiske grensene til ChatGPT og inntar en avventende holdning. Selve det etiske rammeverket kan være skrevet av, eller ved hjelp av, verktøy som ChatGPT. Aini Suzana Ariffin, førsteamanuensis i politiske studier ved Universiti Teknologi Malaysia, er overbevist om at lærere ikke trenger å være skremt. "Et etisk rammeverk for generative AI-verktøy som ChatGPT vil sortere ut hva som forsterker læringsprosessen og hva som hindrer den. Dette kan ta tid og vil involvere mye debatt, men vi bør begynne nå.»

Menneskelig beslutningstaking

Regjeringen i Singapore kunngjorde nylig at tjenestemennene deres vil begynne å bruke ChatGPT for å lette arbeidsmengden. Dette er fornuftig ettersom repeterende eller dagligdagse oppgaver kan fremskyndes av AI-verktøy. Men etter hvert som generative AI-verktøy blir eksponentielt mer intelligente og effektive – slik de faktisk vil – kan styringskomplekset gradvis bli tilranet av maskiner. Denne nye formen for sosial ordning kalles "algokrati"; en der algoritmer, spesielt AI og blokkjede, brukes over hele spekteret av regjeringen. Algokrati innebærer uunngåelig prediktiv styring. Politistyrken i Berlin har allerede innlemmet en embryonal form for algokrati i sitt prediktiv politisering system. Står vi overfor en Minority Report samfunnet i nær fremtid?

ChatGPT akselererer også informasjonsflyten til de høyeste beslutningsnivåene til en regjering eller organisasjon – og omgår de tradisjonelle portvaktrollene til byråkratier på mellomnivåene. Selv om dette kan bli varslet som en velkommen utvikling mot byråkrati, kan mangelen på tradisjonelle kontroller og balanser føre til tvingende beslutninger med sørgelige sosioøkonomiske implikasjoner. Tenk deg å transplantere et så algokratisk beslutningssystem inn i atomvåpeninfrastrukturen til en militær supermakt?

ChatGPT risikerer også å bryte personvernet og lekke personopplysninger i sektorer som bank og helsevesen. Effektiviteten til generative AI-verktøy er drevet av et stadig voksende datavolum som hele tiden sløyfes tilbake til deres nevrale nettverk. Denne søken etter nøyaktighet, effektivitet og hastighet kan føre til at private data blir kompromittert som en del av maskinlæringsprosessen.

På helseområdet, informert samtykke til AI-assistert helsevesen kan reduseres ettersom pasienter enten ikke forstår hva de samtykker til, eller at de stoler for mye på et "intelligent og upartisk" maskinbasert system. Det blir mer illevarslende når triage brukes i kritiske situasjoner. Tradisjonelt bestemmes triage av integriteten og ferdighetene til medisinsk personell som er til stede, samt ressursene som er tilgjengelige in situ. En algoritme kan imidlertid uten lidenskap arrangere triage basert på en pasients "verdi for samfunnet"; data-utledet forventet levealder; og kostnader forbundet med å redde pasientens liv.

De etiske dimensjonene ved AI-mediert triage er ikke løst. Det er imidlertid verdt å merke seg at Microsofts medgründer Bill Gates er for dødspaneler for dødssyke som «ikke har noen fordeler for samfunnet» og hvis bevaring tilsynelatende kan oppveie jobbene til «hundre tusen lærere». Hvis vi strekker denne logikken ytterligere, kan vi være vitne til et fremtidig mandat for "smarte babyer" som visstnok vil befolke et "smart samfunn". Fremtidens sofistikerte algoritmer kan sortere ut de genetiske egenskapene fra de genetiske som ikke har dem gjennom føtale DNA-tester og verktøy som preimplantasjonsgenetisk diagnose (PGD). Denne eugeniske drivkraften har blitt eufemistisk kalt "frembringende velgjørende". Forresten, Bill Gates har økonomisk støttet et kinesisk firma som jobber med å skape "superbabyer". Er det noe rart at Microsoft er en primær økonomisk støttespiller for OpenAI?

På slutten av dagen, vil et etisk AI-rammeverk bli stengt av Tech Titans som kan bestemme design, parametere og mål for generative AI-verktøy? Eller vil våre valgte ledere forsøke å søke en synergistisk sameksistens mellom AI og mennesker.

Les hele historien her ...

Om redaktøren

Patrick Wood
Patrick Wood er en ledende og kritisk ekspert på bærekraftig utvikling, grønn økonomi, Agenda 21, 2030 Agenda og historisk teknokrati. Han er forfatteren av Technocracy Rising: The Trojan Horse of Global Transformation (2015) og medforfatter av Trilaterals Over Washington, bind I og II (1978-1980) med avdøde Antony C. Sutton.
Abonner!
Varsle om
gjest

12 Kommentar
eldste
Nyeste Mest stemte
Inline tilbakemeldinger
Se alle kommentarer
Valerian

ChatGPT kan ha irreversible konsekvenser. Teknokrater bryr seg ikke om den mentale og psykologiske statusen til befolkningen, og de gjør det uansett, til tross for erkjennelsene som er omtalt i artikkelen. De kan ikke dy seg. De ønsker at befolkningen skal sitte fast i gruppetenkede, meningsløse kontrollbaserte ideologier og har gjort det til et poeng å få individualismen kuet og eliminert så mye som mulig. De er opptatt av simuleringer og tilnærminger mens de er i tankesettet til materielle reduksjonistiske tankemønstre og modeller, som alle benekter naturen til Spirit, hvem vi egentlig er. Så, de er eksistensielt umodne og farlige, knyttet til en rekke... Les mer "

Anne

Gode ​​poeng. Oppfinnerne av onde ting vil uten tvil at alle skal være i enighet med djevelen og antikristen også. Det er derfor jeg ikke har tillit til de fleste medisinske eller teknologiske fremskritt i dag. Det er så klart for meg at det hele fører frem til dyresystemet og den store trengsel.

Erik Nielsen

Bra en. Jeg ser mange ungdommer som allerede er låst i en mental matrise de ikke kan komme seg ut fra.

De kan ikke gjøre enkle logiske konklusjoner, og de ignorerer ganske enkelt dokumentert virkelighet.

Men problemet for oss er hvordan vi kommer av dem? De henger som bly på oss for å lage sitt enkle verdensbilde.
Vi kan ikke fortsette et negativt liv som psykologiske sykepleiere for 3-5 milliarder psykisk utviklingshemmede som tror de er filmstjerner som digitale nomader.

[…] Les originalartikkel […]

Anne

ChatGPT kan lære uten min involvering. Og jeg kan lære uten dens hjelp. Nå som du sier det. ChatGPT lærer mer gratis ved å undersøke databaser for henvendelser fra folk som bruker det. Jeg vil ikke bli kjent med CharGPT. Jeg vil heller ikke at ChatGPT skal vite om min eksistens. Moderne teknologi kan være en god ting når den er skapt av etiske mennesker med gode intensjoner. Men når det er tydelig at djevelen er i detaljene. Jeg styrer unna noe eller noen han har hendene på.

[…] ChatGPT kan ha irreversible konsekvenser for læring og beslutningstaking […]

[…] ChatGPT kan ha irreversible konsekvenser for læring og beslutningstaking […]

Elle

Dette programmet representerer den siste spikeren i kisten til menneskehetens fordumming, rett etter offentlig utdanning. Sannhetssøkere må nå være årvåkne når de er på nett, vite hvor fakta opprinnelig dukket opp om emner og bygge et bibliotek med personlig kunnskap som kan deles slik at når vi ser informasjon gjentatt av 'ChatCrap', gjenkjenner vi den som sådan og unngår den. . Dette burde ikke være veldig vanskelig med det første før tyrannene stenger tilgangen til ekte informasjon, som vi vet kommer. Inntil da er det SÅ mange kunnskapsholdere på nettet som ilder... Les mer "

DawnieR

"ChatGPT kan ha irreversible konsekvenser for læring og beslutningstaking"...

Vi er LÅÅÅÅÅÅÅÅÅÅLANG forbi det, på grunn av våre SKOOLS (stavet med vilje)!!

[…] ChatGPT kan ha irreversible konsekvenser for læring og beslutningstaking […]

[…] ChatGPT kan ha irreversible konsekvenser for læring og beslutningstaking […]

[…] 15. MARS 2023 | CHATGPT KAN HA IRREVERSIBLE KONSEKVENSER FOR LÆRING OG BESLUTNINGSTAKE […]