Ansiktsmodeller ger ”bandsnålare” videokommunikation
Går det att kombinera en tredimensionell trådmodell av ett ansikte med verkliga bilder på samma ansikte? Och går det att få den dator som bygger upp den nya bilden att följa ansiktet också när personen i fråga gör en snabb rörelse eller delvis skymmer sig själv med handen?
Det är några forskningsfrågor för bildkodningsgruppen vid institutionen för systemteknik på Linköpings universitet. Målet är att hitta ny teknik för informationssnål videokommunikation.
Traditionell överföring av rörliga bilder kräver en mycket stor bandbredd, vilket är begränsande. Så kallad modellbaserad kodning kan vara ett sätt att komma runt problemet när det gäller former som går att överföra till en modell, till exempel ansikten.
Ett möjligt arbetssätt är att låta en dator koda av geometrin hos en viss persons ansikte och skapa en trådmodell. Modellen skickas, samman med en äkta ansiktsbild, till en mottagardator som kombinerar bild och modell. I den fortsatta kommunikationen behöver sedan inte ett fullständigt videobildsflöde skickas över, utan bara de data som innebär ändringar i trådmodellen. På så sätt kan kommunikationen klara sig med ett mycket mindre bandutrymme.
Jacob Ström, en av medlemmarna i bildkodningsgruppen, disputerar inom kort på en avhandling där han dels arbetat med en ansiktsmodell, dels försökt skapa algoritmer som kan hjälpa datorn att hänga med vid snabba ansiktsrörelser. Målet är att få datorn att klara av ansiktsavkodning under naturliga förhållanden, dvs när den person som talar rör sig och vrider på huvudet och inte hela tiden försöker sitta onaturligt stilla framför kameran.
Jacob Ström disputerar den 14 februari. Avhandlingen heter Model-based head tracking and coding.
Mer information Jacob Ström, tel 0702-672 192, jacobs@isy.liu.se eller forskargruppens ledare professor Robert Forchheimer, tel 013-28 13 42, robert@isy.liu.se. Info finns också på webben, adr http://www.icg.isy.liu.se/ samt
http://www.icg.isy.liu.se/~jacobs/