Weergaveschermen die op camera's zijn aangesloten, verschillen aanzienlijk van vensters of spiegels. Als we door een raam of spiegel kijken, kunnen we ons concentreren op oneindigheid, en we kunnen ons uitkijkpunt verplaatsen om een beetje anders te zien. Met een beeldscherm met live camerabeelden, zien we het gezichtsveld vanuit één punt (de cameralocatie) en ligt onze focus op het scherm.
Zou het mogelijk zijn om een scherm + camera te ontwikkelen die is veel dichter bij een raam of een spiegel? Ik denk dat het scherm en de camera hetzelfde oppervlak moeten hebben. Beide zijn gevoelig voor richting, en wanneer camerapixel $ (C_i, C_j) $ op de camera een foton ontvangt met frequentie $ \ nu $ vanuit hoeken $ (C_ \ phi, C_ \ theta) $, zou het scherm een corresponderende foton met frequentie $ \ nu $ van positie $ (S_i, S_j) $ naar richting $ (S_ \ phi, S_ \ theta) $, waarbij $ (S_ \ phi, S_ \ theta) $ worden berekend uit $ (C_ \ phi , C_ \ theta) $ ofwel venster- of spiegelachtig gedrag nabootsen.
Is zo'n apparaat theoretisch mogelijk? Zo ja, zou zo'n apparaat vandaag technisch haalbaar zijn? Zo ja, is er serieus werk verricht aan dergelijke apparaten? Als het theoretisch mogelijk is maar vandaag niet haalbaar, wat zou er dan ontwikkeld moeten worden voordat dergelijke apparaten aan de horizon verschijnen?
Het zou een breed scala aan toepassingen in telepresence, augmented reality, autotechniek en zeker nog veel andere gebieden.