Nu ska roboten lära sig saker själv
Genom att inspireras av mänskliga minnesmodeller och människors sätt att lära sig nya färdigheter kan man konstruera robotar som kan lära nya saker snabbt och effektivt.
Robotar blir allt mer vanliga och används inom en rad olika områden. En ny trend, bort från förprogrammerade robotar som utför väldefinierade uppgifter i välkontrollerade miljöer har startat.
Att programmera robotar för olika arbetsuppgifter kostar mycket pengar och måste normalt göras av experter. Forskare arbetar därför med att hitta andra lösningar, baserade på människans naturliga sätt att lära sig saker: genom undervisning, imitation och andra sociala interaktioner. En vanlig teknik kallas Learning from Demonstration (LFD) eller Imitation Learning (IL).
– En arbetsuppgift för en robot kan vara en mycket enkel sak som att ”plocka upp en kopp”, till en komplex uppgift som att efter en jordbävning assistera hjälparbetare med att leta efter offer som fastnat och behöver omedelbar hjälp. Roboten och hjälparbetaren kan hjälpas åt med att flytta undan de föremål som täcker offret, säger Benjamin Fonooni.
Att lära robotar nya färdigheter så att de kan upprepa dem i nya situationer och miljöer, i rätt tid och på ett lämpligt sätt, innebär av en rad utmaningar. Forskning på människor och djur visar att flera kognitiva förmågor är inblandade vid inlärning av nya färdigheter. Några av de mest anmärkningsvärda är förmågan att rikta uppmärksamheten på de relevanta aspekterna av demonstrerat beteende, och förmågan att anpassa observerade rörelser till sin egen kropp.
– De metoder jag har arbetat med och utvecklat i mitt avhandlingsarbete fokuserar på att roboten ska förstå lärarens intentioner, och identifiera relevant information. Jag har integrerat motorkommandon med begrepp, föremål och omgivningens tillstånd för att säkerställa korrekt upprepning av inlärda beteenden.
Ett annat huvudresultat i Benjamin Fonoonis avhandling är metoder för att lösa tvetydigheter i demonstrationer, där lärarens intention inte är entydig, och flera demonstrationer är nödvändiga för att roboten ska kunna förstå intentionen på ett korrekt sätt. De utvecklade metoderna är inspirerade av modeller av människors minne, och Benjamin Fonooni har använt en så kallad priming-mekanism för att ge roboten ledtrådar som kan öka sannolikheten för att lärarens intention med en demonstration uppfattas på ett korrekt sätt.
– De nya metoderna öppnar upp för en framtid där även användare som inte är robotexperter ska kunna lära robotar att utföra uppgifter genom att helt enkelt visa hur man utför dem.
FAKTA
Benjamin Fonoonis avhandlingsarbete har delvis finansierats av EU-projektet INTRO (INTeractive RObotics research network) inom det sjunde ramprogrammet.
Avhandlingen har publicerats digitalt
Om disputationen: Fredagen den 16 januari försvarar Benjamin Fonooni, institutionen för datavetenskap vid Umeå universitet, sin avhandling med titeln Cognitive Interactive Robot Learning. Titel på svenska: Kognitiv interaktiv robotinlärning. Disputationen äger rum kl 13:15 i MA121 vid MIT-huset, Umeå universitet. Fakultetsopponent är professor Christian Balkenius från institutionen för filosofi vid Lunds universitet, Sverige.
Benjamin Fonooni är född och uppvuxen i Teheran, Iran, och har en kandidatexamen i datavetenskap och en magisterexamen i artificiell intelligens och robotik. Under sin grundutbildning medverkade han i design och utveckling av den första iranska intelligenta humanoida roboten Firatelloid, lanserad år 2002.
Kontaktinformation
Benjamin Fonooni, Institutionen för datavetenskap, Umeå universitet. Telefon: 070-255 12 34. E-post: fonooni@cs.umu.se