En ny rase av AI-drevne roboter kan snart etterligne nesten enhver handling etter å ha sett et menneske gjøre dem bare en gang.
Forskere har utviklet en kløvet maskin som kan lære nye oppgaver, for eksempel å slippe en ball i en bolle eller hente en kopp, ganske enkelt ved å se på en person utføre dem først.
Forskere sa at trikset lar android mestre nye ferdigheter mye raskere enn andre roboter, og kan en dag føre til maskiner som er i stand til å lære komplekse oppgaver rent gjennom observasjon - omtrent som mennesker og dyr gjør.
Prosjektledende forsker forsker Tianhe Yu skrev i en blogginnlegg: 'Å lære en ny ferdighet ved å observere et annet individ, evnen til å imitere, er en viktig del av intelligens hos mennesker og dyr.
'En slik evne vil gjøre det dramatisk lettere for oss å kommunisere nye mål til roboter - vi kan ganske enkelt vise roboter hva vi vil at de skal gjøre.'
Roboten ble utviklet av ingeniører ved University of California i Berkeley, og lærer raskt nye handlinger ved å se en person gjøre det på video.
Klipp av android viser at det plukker opp frukt og putter det i en bolle, i tillegg til at det forsiktig beveger seg rundt et hinder etter den samme banen demonstrert av en forsker.
De fleste maskiner, for eksempel robotene i bilfabrikker, er programmert til å fullføre oppgaver via datakode - en stiv og ofte tidkrevende prosess.
Nylig har det blitt utviklet androider som kan lære ved å se en annen robot fullføre handlingen, selv om de vanligvis trenger å etterligne oppgaven tusenvis av ganger før de fullfører den.
I den nye artikkelen skisserte UC-teamet teknikken som gjorde det mulig for dem å lære en robothandlinger med bare én demonstrasjon - enormt påskynde til læringsprosessen.
De kombinerte to forskjellige læringsalgoritmer til en enkelt super-AI.
En av disse - en metrolæringsalgoritme - hjelper en robot å lære ved å innlemme bevegelsene som brukes i tidligere oppgaver i stedet for å mestre hver ferdighet fra bunnen av.
Den andre, en imitasjonsalgoritme, lar maskinen plukke opp en ny ferdighet ved å se på noe annet utføre det.
Ved å kombinere de to tillot forskere å bygge en AI som bygger på både tidligere erfaring og mimikk for å bygge nye ferdigheter i en prosess forskerne kaller modell-agnostisk meta-learning (Maml).
Dette betyr at den kan lære å manipulere et objekt den aldri har sett før ved å se på en eneste video - et gjennombrudd som kan fremskynde maskinlæring.