Å filme en scene i en film kan kreve dusinvis av ta, noen ganger mer. I Gone Girl ble regissøren David Fincher i gjennomsnitt sagt 50 tar per scene. For skuespillerne i The Social Network skuespillerne Rooney Mara og Jesse Eisenberg opptrådte åpningsscenen 99 ganger (regissert av Fincher igjen; han er tilsynelatende beryktet for dette). Stanley Kubricks The Shining involverte 127 bilder av den beryktede scenen der Wendy rygger opp trappen og svinger en baseballballtre på Jack, som anses som den mest tar per scene av en hvilken som helst film i historien.
En ny programvare, fra Disney Research i samarbeid med University of Surrey, kan bidra til å kutte ned antall nødvendige ting og dermed spare tid og penger. FaceDirector blander bilder fra flere bilder, noe som gjør det mulig å redigere presise følelser på skuespillernes ansikter.
"Å produsere en film kan være veldig dyrt, så målet med dette prosjektet var å prøve å gjøre prosessen mer effektiv, " sier Derek Bradley, dataforsker ved Disney Research i Zürich som hjalp til med å utvikle programvaren.
Disney Research er en internasjonal gruppe forskningslaboratorier som fokuserer på den typen innovasjon som kan være nyttig for Disney, med lokaliteter i Los Angeles, Pittsburgh, Boston og Zürich. Nyere prosjekter inkluderer en veggklatrerobot, en "augmented reality coloring book" der barna kan fargelegge et bilde som blir et bevegelig 3D-tegn på en app, og en vest for barn som gir sensasjoner som vibrasjoner eller følelsen av regndråper å samsvare med storybook scener. Teamet bak FaceDirector jobbet med prosjektet i omtrent ett år, før de presenterte forskningen sin på den internasjonale konferansen om datavisjon i Santiago, Chile i desember.
Å finne ut hvordan man skal synkronisere forskjellige takter var prosjektets hovedmål og dets største utfordring. Skuespillere kan ha hodene i forskjellige vinkler fra å ta, snakke i forskjellige toner eller ta pause til forskjellige tider. For å løse dette laget teamet et program som analyserer ansiktsuttrykk og lyd signaler. Ansiktsuttrykk spores ved å kartlegge landemerker i ansiktet, som øynene og munnen. Programmet bestemmer deretter hvilke rammer som kan passe inn i hverandre, som puslespillbrikker. Hver puslespillbit har flere kamerater, så en regissør eller redaktør kan deretter bestemme den beste kombinasjonen for å skape ønsket ansiktsuttrykk.
For å lage materiale å eksperimentere hentet teamet inn en gruppe studenter fra Zürich University of the Arts. Studentene utførte flere opptak av en sammensatt dialog, hver gang de gjorde forskjellige ansiktsuttrykk - glade, sinte, begeistrede og så videre. Teamet var da i stand til å bruke programvaren til å lage et antall kombinasjoner av ansiktsuttrykk som formidlet mer nyanserte følelser - trist og litt sint, spent, men redd, og så videre. De var i stand til å blande flere tar - si, en redd og en nøytral - for å skape stigende og fallende følelser.
FaceDirector-teamet er ikke sikker på hvordan eller når programvaren kan bli kommersielt tilgjengelig. Produktet fungerer fortsatt best når det brukes med scener som er filmet mens du sitter foran en statisk bakgrunn. Å bevege skuespillere og bevege seg utendørs (tenke svaiende trær, passerende biler) er mer en utfordring for synkronisering.