Förra veckan pratade jag om en teknik som bland annat gör det möjligt för kameran att känna av djupet i bilden. Det finns flera andra tekniska lösningar som åstadkommer samma sak.
Forskare vid Computer Vision Laboratory har utvecklat en metod som projicerar ett stort antal ljuspunkter på scenen som ska fotas. Beroende på avståndet mellan objekt och kamera blir ljuspunkterna olika skarpa. Datorn avlägsnar sedan ljuspunkterna på egen hand och lagrar informationen om djupet.
Tekniken har testats och fungerar bra för både stillbild och video. Snart är det alltså möjligt att ändra fokus och skärpedjup godtyckligt även i rörlig bild! Hur coolt som helst.

Den här tekniken kan också göra det trivialt att frilägga objekt. Man kan till exempel tänka sig att datorn direkt levererar bilden i lagerform, där varje lager innehåller objekt på ett visst avstånd ifrån kameran. Särskilda lager kan också ta hand om objekt som breder ut sig i djupet. För filmmakare kan det innebära att det på sikt blir överflödigt att använda greenscreen. Filma i vilket garage som helst och ersätt bakgrunden baserat på avstånd snarare än färg.
Om den här tekniken slår igenom ska bli spännande att se. Projiceringen av ljusprickar känns lite gammalmodig och bör få problem i starkt omgivande ljus. Därför gissar jag att andra metoder kommer att hinna före. Men oavsett hur den tekniska lösningen kommer att se ut är jag övertygad om att den automatiska friläggningen och de avståndsbaserade åtgärderna snart är här.