Ingeniører bruker kognitiv psykologi for å finne ut hvordan AI-er tenker og gjør dem mer ansvarlige.
Ingeniører av kunstig intelligens har et problem: De vet ofte ikke hva kreasjonene deres tenker.
Når kunstig intelligens vokser i kompleksitet og utbredelse, blir den også kraftigere. AI har allerede tatt for seg beslutninger om som går i fengsel og som mottar et lån. Det er forslag AI bør bestemme som får den beste sjansen til å leve når en selvkjørende bil står overfor en uunngåelig krasj.
Å definere AI er glatt og vokser mer, ettersom oppstartene sliser buzzwordet over hva de gjør. Det er generelt akseptert som ethvert forsøk på å ape menneskelig intelligens og evner. En delmasse som har tatt av er nevrale nettverk, systemer som "lærer" som mennesker gjør gjennom trening, og gjør erfaring til nettverk av simulerte nevroner. Resultatet er ikke kode, men en uleselig, sammenfiltret masse på millioner - i noen tilfeller milliarder - kunstige nevroner, noe som forklarer hvorfor de som lager moderne AI-er, kan bli forvirret om hvordan de løser oppgaver.
De fleste forskere er enige om utfordring med å forstå AI trykker. Hvis vi ikke vet hvordan et kunstig sinn fungerer, hvordan kan vi da konstatere dets skjevheter eller forutsi feilene?