I ukene siden det amerikanske presidentvalget har Facebook-administrerende direktør Mark Zuckerberg vært brannslukking. Ikke bokstavelig, men billedlig. Utbredte beskyldninger hevder at hans sosiale medieselskap bidro til valgets uventede utfall ved å formidle falske nyheter og “filterbobler.” Zuckerberg har hardt tilbakevist disse beskyldningene, men saken stiller et tornete spørsmål: Hvordan sikrer vi at teknologi fungerer for samfunnet?
En fjerde industriell revolusjon oppstår som vil stille tøffe etiske spørsmål med få enkle, svart-hvitt svar. Mindre, kraftigere og billigere sensorer; kognitive databehandlinger innen kunstig intelligens, robotikk, prediktiv analyse og maskinlæring; nano, nevro og bioteknologi; tingenes internett; 3D-utskrift; og mye mer, krever allerede virkelige svar veldig raskt. Og dette vil bare bli vanskeligere og mer sammensatt når vi legger inn disse nytt teknologier inn i kroppene og hjernen vår for å forbedre vår fysiske og kognitive funksjon.
Ta det valget samfunnet snart må ta om autonome biler som eksempel. Hvis en krasj ikke kan unngås, bør en bil programmeres for å minimere de omkomne selv om den skader bilens beboere, eller skal bilen beskytte beboerne under noen omstendigheter?
Forskning viser at publikum er i konflikt. Forbrukerne foretrekker å minimere antallet totale skader i en bilulykke, men er likevel uvillige til å kjøpe en selvkjørende bil hvis den ikke er selvbeskyttende. Det ideelle alternativet er selvfølgelig at selskaper skal utvikle algoritmer som omgår denne muligheten fullstendig, men det er ikke alltid at dette er et alternativ. Det som imidlertid er klart, er at slike etiske krav må forenes før noen forbruker overlater nøklene til mørkhullede algoritmer.
Med så mange forskjellige interessenter involvert, hvordan sikrer vi en styringsmodell som gjør at teknologi fungerer for samfunnet?