UC Berkeley-forskere har utviklet en robotlæringsteknologi som gjør at roboter kan forestille seg fremtiden for handlingene sine, slik at de kan finne ut hvordan de kan manipulere objekter de aldri har opplevd før. I fremtiden kan denne teknologien hjelpe selvkjørende biler med å forutse fremtidige hendelser på veien og produsere mer intelligente robotassistenter i hjem, men den første prototypen fokuserer på å lære enkle manuelle ferdigheter helt fra autonomt spill.
Bruker denne teknologien, kalt visuell framsynkan robotene forutsi hva kameraene deres vil se om de utfører en bestemt bevegelsessekvens. Disse robot fantasiene er fremdeles relativt enkle foreløpig - spådommer som er gjort bare noen sekunder inn i fremtiden - men de er nok til at roboten kan finne ut hvordan du kan bevege objekter rundt på et bord uten å forstyrre hindringer. Avgjørende kan roboten lære å utføre disse oppgavene uten hjelp fra mennesker eller forkunnskaper om fysikk, dets miljø eller hva gjenstandene er. Det er fordi den visuelle fantasien læres helt fra grunnen av uten tilsyn og uten tilsyn, hvor roboten leker med objekter på et bord. Etter denne spillefasen bygger roboten en prediktiv modell av verden, og kan bruke denne modellen til å manipulere nye objekter som den ikke har sett før.
"På samme måte som vi kan forestille oss hvordan handlingene våre vil bevege objektene i miljøet vårt, kan denne metoden gjøre det mulig for en robot å visualisere hvordan ulik atferd vil påvirke verden rundt den," sa Sergey Levine, adjunkt i Berkeleys avdeling for elektroteknikk og informatikk, hvis laboratorium utviklet teknologien. "Dette kan muliggjøre intelligent planlegging av svært fleksible ferdigheter i komplekse situasjoner i den virkelige verden."
[the_ad id = "11018 ″]
Forskerteamet vil utføre en demonstrasjon av den visuelle framsynsteknologien ved Neural Information Processing Systems konferanse i Long Beach, California, desember 5.
Kjernen i dette systemet er en dyp læringsteknologi basert på konvolutjonell tilbakevendende videospådom, eller dynamisk nevral adveksjon (DNA). DNA-baserte modeller forutsier hvordan piksler i et bilde vil bevege seg fra en ramme til den neste basert på robotens handlinger. Nyere forbedringer av denne klassen av modeller, så vel som kraftig forbedrede planleggingsmuligheter, har gjort det mulig for robotkontroll basert på video prediksjon å utføre stadig mer komplekse oppgaver, for eksempel å skyve leker rundt hindringer og plassere flere objekter.