Det som skiller mennesker fra maskiner er hastigheten som vi kan lære av omgivelsene våre.
Men forskere har vellykket trent datamaskiner til å bruke kunstig intelligens for å lære av erfaring - og en dag kan de være smartere enn skaperne sine.
Nå har forskere innrømmet at de allerede er forvirret av den mekaniske hjernen de har bygd, noe som øker utsiktene til at vi kan miste kontrollen over dem helt.
Datamaskiner utfører allerede utrolige bragder - som å kjøre biler og forutsi sykdommer - men produsentene sier at de ikke helt har kontroll over kreasjonene sine.
Dette kan ha katastrofale konsekvenser for sivilisasjonen, har tekniske eksperter advart.
Ta den merkelige førerløse bilen som dukket opp i gatene i New Jersey, USA, i fjor.
Det skilte seg fra Google, Tesla eller Ubers autonome kjøretøy, som følger reglene satt av tech-utviklere for å reagere på scenarier mens de er på veien.
Denne bilen kunne ta sine egne beslutninger etter å ha sett hvordan mennesker lærte å kjøre.
Og skaperne, forskere ved chipproduserende selskap Nvidia (som forsyner noen av de største bilprodusentene med superdatamaskinbrikker), sa at de ikke var 100 prosent sikre på hvordan det gjorde det, MIT Technology Review rapportert.
Det mystiske sinnet kan være et tegn på mørke tider som kommer, frykter skeptikere.
Bilens underliggende teknologi, kalt “dyp læring”, er et kraftig verktøy for å løse problemer.
Det hjelper oss å merke vennene våre på Facebook, gir assistanse på smarttelefonene våre ved å bruke Siri, Cortana eller Google.
Dyp læring har hjulpet datamaskiner med å bli bedre til å gjenkjenne objekter enn en person.
Militæret strømmer millioner i teknologien slik at den kan brukes til å styre skip, kontrollere droner og ødelegge mål.
Og det er håp om at den vil være i stand til å diagnostisere dødelige sykdommer, gjøre handelsmenn til milliardærer ved å lese aksjemarkedet og fullstendig transformere verden vi lever i.
Men hvis vi ikke sørger for at skaperne har full forståelse av hvordan det fungerer, er vi i dype problemer, hevder forskere.
Hvis de ikke kan finne ut hvordan algoritmene (formlene som holder datamaskiner som utfører oppgavene vi ber dem om å gjøre) fungerer, vil de ikke kunne forutsi når de mislykkes.
Tommi Jaakkola, professor ved MIT som jobber med applikasjoner av maskinlæring, advarer: "Hvis du hadde et veldig lite nevralt nettverk [dyp læringsalgoritme], kan du kanskje forstå det."
"Men når den først blir veldig stor, og den har tusenvis av enheter per lag og kanskje hundrevis av lag, så blir den ganske uforståelig."
Det betyr at en førerløs bil, som Nvidias, kunne sveve seg først i et tre, og vi hadde ingen anelse om hvorfor den bestemte seg for å gjøre det.