Ülikooli uurijad on välja töötanud niisuguse robotõppetehnika, mis võimaldab roboteil oma tegevuse tagajärgi tulevikus ette näha, et nad oskaksid välja nuputada, kuidas manipuleerida selliseid objekte, millega nad varem kokku puutunud ei ole.

Ehkki tulevikus võib vastav tehnika aidata inseneridel projekteerida senisest arukamaid robot-koduabilisi ning isejuhtivatel autodel aimata ette tulevikusündmusi liikluses, keskendub esialgne prototüüp lihtsate käeliste oskuste õpetamisele täiel määral autonoomse „mängimise“ kaudu.

Praegu küünib prognoos paari sekundini

Uue tehnika toel, mida nimetatakse „visuaalseks ettenägelikkuseks“ (ingl visual foresight), oskavad robotid prognoosida seda, mida nende kaamerad näevad, kui nad sooritavad konkreetse jada liigutusi. Seni on taolised „robo-kujutlused“ suhteliselt lihtsad — masinad ei „ennusta“ tulevikku rohkem kui mõne sekundi jagu —, kuid sellest piisab, et robot suudaks välja mõelda, kuidas esemeid laual liigutada ilma takistustesse takerdumata. Mis kõige olulisem — robot õpib neid ülesandeid täitma täielikult ilma inimeste korraldusteta ja isegi ilma eelneva arusaamiseta füüsikareeglitest, ümbritsevast keskkonnast või liigutatavate objektide funktsioonist.

Nimelt omandab robot oma n-ö visuaalse kujutlusvõime täielikult „nullist“, ainuüksi järelevalveta ja juhendamata ringi uidates ja ümbrust uurides, mis sisuliselt tähendab, et robot mängib laual leiduvate esemetega. Pärast taolist mängimisfaasi konstrueerib robot enda maailmast prediktiivse (s.t sündmuste edukaks prognoosimiseks kõlbuliku) mudeli, mida aluseks võttes oskab see manipuleerida ka uusi objekte, millega varem pole kokku puutunud.

„Samamoodi, nagu meie oskame ette kujutada, kuidas objektid meie tegevuse tulemusel meid ümbritsevas keskkonnas liiguvad, võimaldab antud meetod robotil visualiseerida seda, kuidas eri käitumisviisid seda ümbritsevat maailma mõjutavad,“ selgitas Berkeley ülikooli elektritehnika ja arvutiteaduse teaduskonna aseprofessor Sergey Levine, kelle juhitud laboris tehnika välja töötati. „See teeb võimalikuks keerukates elulistes olukordades äärmist paindlikkust nõudvate oskuste aruka ettekavandamise.“

Töörühm esitles visuaalse ettenägelikkuse tehnikat eile USA-s California osariigis toimunud neuro-infotöötlussüsteemide konverentsi raames.

Robotid saavad hulga oskusi arendada omapäi

Süsteemi tuumaks on ahenduslikul kihtideta videoprognostikal (ingl convolutional recurrent video prediction) e nn dünaamilisel neuro-advektsioonil (DNA; dynamic neural advection) rajanev sügavõppe-tehnika (deep learning technology). DNA-põhised mudelid prognoosivad seda, kuidas kujutist moodustavad pikslid roboti tegevuse mõjul kaadrist kaadrisse liiguvad.

Selle mudeliterühma arendamise vallas viimasel ajal tehtud edusammud, nagu ka oluliselt paranenud planeerimissuutlikkus on võimaldanud videoprognostika-põhiselt juhitavatel robotitel täita üha keerukamaid ülesandeid, nt nihutada mänguasju takistustest mööda ja paigutada ümber tervet hulka esemeid.

„Minevikus on robotid oskuseid omandanud inimeste juhendamisel ja nende pakutava tagasiside toel. Meie töö teeb põnevaks asjaolu, et robotid oskavad tervet hulka objektide manipuleerimise oskuseid omandada täielikult omal käel,“ kommenteeris Levine’i laboratooriumi juures töötav doktorand ja algse DNA-mudeli leiutaja Chelsea Finn.
Uudse tehnikaga varustatud robot nihutab esemeid laual ning kasutab siis õpitud prognostika-mudelit selliste liigutuste valimiseks, mis paigutavad objekti soovitud kohta.

Sisuliselt rakendab robot toor-vaatlusandmete baasil omandatud mudelit selleks, et õpetada iseendale, kuidas takistusi vältida ja objekte takistustest mööda toimetada.

Kuna videoprognostiline juhtimine rajaneb ainult sellistel vaatlustel, mida robot iseseisvalt, nt kaamera-ülesvõtete kaudu koguda saab, on tulemuseks üldine ja laialdaselt rakenduskõlbulik meetod. Erinevalt konventsionaalsetest visuaalsetest raaltuvastus-meetoditest, mis nõuavad inimestelt tuhandete või isegi miljonite kujutiste sildistamist käsitsi, pole videoprognostiliste mudelite konstrueerimiseks vaja muud kui märgistamata videoandmeid, mille kogumisega saab robot täielikult omal käel hakkama.

Videoprognostilisi mudeleid on juba rakendatud andmemassiivide juures, mis kujutavad kõike inimeste liikumisest autojuhtimiseni, ja tulemused on vägagi paljutõotavad.