I fremtiden kan fremtiden din være avhengig av en serie nøye beregnet nuller og enere.
Når teknologien forbedres, blir mennesker mindre involvert i beslutninger som påvirker livene våre - og det er ikke akkurat en god ting.
Etter hvert som kunstig intelligens vinner terreng, har høyskoleprofessorer ved University of Massachusetts-Amherst utviklet et program for å teste programvare for skjevhet og diskriminering.
Ja, rasediskriminering. Men mer enn det. Helsevesenets beslutninger. Lånvedtak. Pokker, selv hvordan Amazon bestemmer pakkeforsendelsespriser.
"I dag bestemmer programvare hvem som får lån eller blir ansatt, beregner score for risikovurdering som hjelper til med å bestemme hvem som skal i fengsel og hvem som blir satt fri, og hjelper til med å diagnostisere og behandle medisinske pasienter," ifølge til programmets utviklere.
Med det er det kritisk "programvare diskriminerer ikke grupper eller enkeltpersoner," hevder forskere, og legger til at deres studieretning er "undervurdert" og "utallige eksempler på urettferdig programvare har dukket opp."
I en vitenskapelig Artikkel utgitt for en kommende programvareteknikk Konferansen, dataforskere Alexandra Meliou og Yuriy Brun, som opprettet programmet sammen med doktorgradsstudent Sainyam Galhotra, detaljerer den "økende bekymringen" for diskriminering av programvare.
I papiret spår de to professorene den utviklende og økende innflytelsen programvare vil ha på menneskers liv i fremtiden, og hevder programvare for tiden spiller en stor rolle i samfunnet.
"Fremover vil viktigheten av å sikre rettferdighet i programvare bare øke," heter det i avisen.
De lærde brukte eksempler som illustrerer skjevhet mot de velstående og nedslitte.
Et av eksemplene på diskriminering av programvare levert av Brun og Meliou er programmering som brukes av Amazon.com for å bestemme hvilke geografiske områder som vil få gratis levering samme dag. Etter utrullingen av programmet i fjor, var det det påstått at minoritetsnabolagene fikk fordelen med mye lavere hastighet enn overveiende hvite nabolag.
Forfatterne trekker også frem hvordan programvare som brukes i offentlig sektor kan projisere skjevheter, søkelyssteknologi som brukes i en rekke stater som beregner score på sannsynligheten for at en kriminell kan begå ytterligere forbrytelser. I følge forskerne har programvaren funnet å "flagge svarte tiltalte som falsk kriminelle, med feil merking av dem på denne måten med nesten det dobbelte av antallet hvite tiltalte."
I vårt økonomiske kapitalismesystem basert på "frie" markeder er markedsdelen allerede 90% kunstig (HFT)