En advarsel som jeg må legge inn er at læringsprosessen til AI bruker bokstavelig talt alt på Internett, som inneholder en høy prosentandel av våken/partisk informasjon. Å lære av våkne historier, bøker, videoer osv. kan være nok til å resultere i en våken AI. Likevel ville det være mulig å programmere de-bias konklusjonene som er gjort, men det har ikke blitt gjort noen forsøk på å gjøre det. ⁃ TN-redaktør
Hva gjør du hvis beslutninger som pleide å bli tatt av mennesker, med alle deres skjevheter, begynner å bli tatt av algoritmer som matematisk ikke er i stand til skjevheter? Hvis du er rasjonell, bør du feire. Hvis du er en militant liberal, anerkjenner du denne utviklingen for den dødelige trusselen den er, og prøver å ta tilbake kontrollen.
Du kan se dette utfolde seg på AI-konferanser. Forrige uke deltok jeg på 2020-utgaven av NeurIPS, den ledende internasjonale maskinlæringskonferansen. Det som startet som en liten samling samler nå nok folk til å fylle en idrettsarena. I år, for første gang, NeurIPS krevde at de fleste artikler inkluderte en uttalelse om "bredere konsekvenser", og at de var gjenstand for gjennomgang av et etisk styre. Hvert papir som for eksempel beskriver hvordan man kan øke hastigheten på en algoritme, må nå ha en del om de sosiale godene og ondskapene til denne obskure tekniske fremgangen. "Uavhengig av vitenskapelig kvalitet eller bidrag," heter det i innkallingen til papirer, "kan en innsending bli avvist for ... inkludert metoder, applikasjoner eller data som skaper eller forsterker urettferdig skjevhet."
Dette var bare den siste svingen til skralle. Tidligere har inkludert å gi nytt navn til konferansen til noe mer politisk korrekt og å kreve at deltakerne eksplisitt aksepterer en omfattende 'atferdskodeks' før de kan registrere seg, som gjør at konferansen kan sparke deltakerne ut for å ha lagt ut noe på sosiale medier som tjenestemenn ikke godkjente. Mer seriøst, et helt underfelt av AI har dukket opp med det uttrykkelige formålet blant annet å "debiasing" algoritmer. Det er nå i full gang.
Jeg la ut noen tweets som reiste spørsmål om de siste endringene - og avbryter-mobben falt over meg. Fornærmelser, hån, trusler – you name it. Du skulle tro at forskere ville være over slik oppførsel, men nei. Jeg påpekte at NeurIPS er en uteligger når det gjelder å kreve bredere konsekvensuttalelser, og kansellererne endret gjentatte ganger tema. Jeg argumenterte mot politiseringen av AI, men de tok det som en fornektelse av at etiske hensyn er gyldige. En bedriftsdirektør for maskinlæringsforskning, også en Caltech-professor, publiserte på Twitter for alle for å se en lang liste over personer å kansellere, og deres eneste forbrytelse er å ha fulgt meg eller likt en av mine tweets. Den samme mengden lyktes i å gjøre universitetsutgaven min til en uttalelse som avviste mine synspunkter og bekreftet dens liberale legitimasjon.
Hvorfor oppstyret? Data kan selvfølgelig ha skjevheter, det samme kan dataforskere. Og algoritmer som er kodet av mennesker kan i prinsippet gjøre hva vi sier til dem. Men maskinlæringsalgoritmer, som stort sett alle algoritmer du finner i lærebøker i datavitenskap, er i hovedsak bare komplekse matematiske formler som ikke vet noe om rase, kjønn eller sosioøkonomisk status. De kan ikke være rasistiske eller sexistiske mer enn formelen y = ax + b kan.
Daniel Kahnemans bestselgende bok, Tenkende, Rask og Sakte, har et helt kapittel om hvordan algoritmer er mer objektive enn mennesker, og derfor tar bedre beslutninger. For det militante liberale sinnet er de imidlertid kloakk av urettferdighet og må ryddes opp.
Det som i praksis betyr å rydde opp i algoritmer, er å legge inn skjevheter som favoriserer spesifikke grupper, og i realiteten gjenopprette den sosiale kontrollen som den politiske venstresiden er så opptatt av i automatisert form. 'Debiasing' betyr med andre ord å legge til bias. Ikke overraskende fører dette til at algoritmene presterer dårligere med sin tiltenkte funksjon. Kredittkortscoringsalgoritmer kan avvise flere kvalifiserte søkere for å sikre at like mange kvinner og menn aksepteres. Parole-konsultasjonsalgoritmer kan anbefale å slippe flere farlige kriminelle fri for å få et proporsjonalt antall hvite og svarte løslatt. Noen går til og med inn for å forby bruken i algoritmer av alle variabler som er korrelert med rase eller kjønn, med den begrunnelse at de utgjør redlining. Dette vil ikke bare gjøre maskinlæring og alle dens fordeler praktisk talt umulige, men er spesielt ironisk gitt at disse variablene er nettopp det vi trenger for å skille beslutninger fra de vi ønsker å ekskludere.
Hvis du stiller spørsmål ved dette eller andre av et bredt spekter av liberale krav til AI, har du mye sorg. Jo mer fremtredende forskeren som blir kansellert, jo bedre, fordi det sender den mest skremmende beskjeden til alle andre, spesielt juniorforskere. Jeff Dean, Googles legendariske sjef for AI, og Yann LeCun, Facebooks sjef AI-forsker og medgründer av dyp læring, har begge fant seg selv på mottakersiden av den liberale posses misnøye.
Høyre har så langt i stor grad vært uvitende om progressiv politikks akselererende inngrep i AI. Hvis AI fortsatt var et uklart og umodent felt, kan dette være OK, men tiden for det har for lengst gått. Algoritmer styrer i økende grad livene våre, og de kan påtvinge et militant liberalt (i realiteten illiberalt) samfunn bakdøren. Hver gang du gjør et nettsøk, bruker sosiale medier eller får anbefalinger fra Amazon eller Netflix, velger algoritmer hva du ser. Algoritmer hjelper til med å velge jobbkandidater, velgere som skal målrettes i politiske kampanjer, og til og med personer som har vært på dato. Både bedrifter og lovgivere må sørge for at de ikke blir tuklet med. Og vi må alle være klar over hva som skjer, så vi kan si noe. Jeg, for det første, har begynt å stille spørsmål ved det ortodokse synet på menneskelige fordommer, etter å ha sett hvordan progressive med glede vil tildele fordommer selv til algoritmer som åpenbart ikke kan ha noen. Er vi virkelig så dyptgående og uoppløselig rasistiske og sexistiske som de hevder? Jeg tror ikke.
Pedro Domingos er professor emeritus i informatikk og ingeniørfag ved University of Washington.
[…] Les originalartikkel […]
Etter mitt skjønn, etter at de tar ned Internett (snart), vil det starte på nytt med GPT og Bard, et. al., som våre nye og eneste søkemotoralternativer. Det vil si at vi vil bli matet med det de vil vi skal vite og bare det de vil at vi skal vite. Borte vil være "du er nå fri til å bevege deg i hytta." Uff. Husk dette? «Når du bruker Google, får du mer enn ett svar? Selvfølgelig gjør du det. Vel, det er en feil. Vi har flere insekter per sekund i verden. Vi bør kunne gi deg det rette svaret... Les mer "
Jeg elsker denne uttalelsen, "algoritmer som matematisk ikke er i stand til skjevhet". Algoritmer er koder som tekniske libs lager. Selvfølgelig er de i stand til skjevhet. Jeg vil ta det ett skritt videre ved å si at hele formålet med AI og algoritmer generelt er slik at skaperne av dem styrer oss mot deres ene regel, ett syn, lønnsomt akseptabelt svar. Når det gjelder shopping, vil de åpenbart styre pengene våre dit de ønsker at de skal gå. De ville ikke brukt milliarder på alt dette med mindre de får en kontant belønning. Hvis AI-ene var virkelig objektive, ingen av disse... Les mer "
[…] Militante liberale politiserer […]