Vraag:
Kunnen camera's + beeldschermen met optisch gedrag als venster / spiegel bestaan?
gerrit
2016-03-17 17:32:46 UTC
view on stackexchange narkive permalink

Weergaveschermen die op camera's zijn aangesloten, verschillen aanzienlijk van vensters of spiegels. Als we door een raam of spiegel kijken, kunnen we ons concentreren op oneindigheid, en we kunnen ons uitkijkpunt verplaatsen om een ​​beetje anders te zien. Met een beeldscherm met live camerabeelden, zien we het gezichtsveld vanuit één punt (de cameralocatie) en ligt onze focus op het scherm.

Zou het mogelijk zijn om een ​​scherm + camera te ontwikkelen die is veel dichter bij een raam of een spiegel? Ik denk dat het scherm en de camera hetzelfde oppervlak moeten hebben. Beide zijn gevoelig voor richting, en wanneer camerapixel $ (C_i, C_j) $ op de camera een foton ontvangt met frequentie $ \ nu $ vanuit hoeken $ (C_ \ phi, C_ \ theta) $, zou het scherm een ​​corresponderende foton met frequentie $ \ nu $ van positie $ (S_i, S_j) $ naar richting $ (S_ \ phi, S_ \ theta) $, waarbij $ (S_ \ phi, S_ \ theta) $ worden berekend uit $ (C_ \ phi , C_ \ theta) $ ofwel venster- of spiegelachtig gedrag nabootsen.

Is zo'n apparaat theoretisch mogelijk? Zo ja, zou zo'n apparaat vandaag technisch haalbaar zijn? Zo ja, is er serieus werk verricht aan dergelijke apparaten? Als het theoretisch mogelijk is maar vandaag niet haalbaar, wat zou er dan ontwikkeld moeten worden voordat dergelijke apparaten aan de horizon verschijnen?

Het zou een breed scala aan toepassingen in telepresence, augmented reality, autotechniek en zeker nog veel andere gebieden.

Het simpele feit dat het ongelooflijk handig zou zijn, maar je hebt er nog nooit van gehoord, zou een hint moeten zijn over de haalbaarheid :-)
@CarlWitthoft Klopt, hoewel er veel gadgets zijn waarvan we hebben gehoord dat ze helemaal niet haalbaar zijn, zoals tijdmachines (-:
Vier antwoorden:
Chris Mueller
2016-03-17 19:39:16 UTC
view on stackexchange narkive permalink

De technologie om te doen wat je wilt, bestaat al decennia en wordt holografie genoemd. Het probleem met gewone fotografische sensoren en displays is dat ze alleen amplitude-informatie over het licht opnemen / reproduceren. Om b.v. uit welke hoek de straal kwam, moet je ook de fase-informatie van het licht opnemen. Dit is precies wat holografie doet.

In de afbeelding onderaan kunt u zien dat twee afbeeldingen van een enkel hologram vanuit verschillende hoeken de muis laten zien alsof deze vanuit verschillende hoeken wordt bekeken. Er zijn delen van de scène zichtbaar vanuit de ene hoek die niet eens zichtbaar zijn vanuit de andere hoek, zoals de achterkant van de muis en de tak achter de muis.

De technologieën die nodig zijn om realtime hologrammen te maken (vergelijkbaar met een camera met een scherm) bevinden zich nog in de R&D-fasen en zijn momenteel erg rudimentair. Ruimtelijke lichtmodulatoren bieden een manier om in realtime 2D-hologrammen te produceren. Deze groep was in staat om het hologram op te nemen met een standaard 4K-camera met een lensarray en gebruikte ruimtelijke lichtmodulatoren om het hologram in realtime te reproduceren (niet erg goed echter).

enter image description here

jhabbott
2016-03-17 19:13:09 UTC
view on stackexchange narkive permalink

Zo'n scherm is misschien mogelijk met technologie die vergelijkbaar is met metamaterialen die bekend staan ​​om de mogelijke toepassing als een 'onzichtbaarheidsmantel'. Sommige bedrijven beweren ook dat ze dit voor het leger hebben bereikt, maar de effectiviteit ervan is twijfelachtig omdat alle PR eromheen stilstaande beelden en mock-ups gebruikt.

De truc zou zijn om het licht van alle kanten op te vangen en reproduceer diezelfde scatter aan de andere kant (of vanaf het scherm). Er zijn manieren om dingen 'onzichtbaar' te maken voor sommige golflengten met behulp van refractie om EM-golven rond een centraal object te buigen, maar het is onwaarschijnlijk dat dit zou werken voor een willekeurig geplaatst 'scherm', tenzij je de invoer zou kunnen vastleggen met een bundel glasvezel en reproduceer het op de een of andere manier precies aan het andere uiteinde (zonder 'verdraaien' van de uitgaande verstrooiing).

Dat alles lijkt nogal wazig en veel te onderontwikkeld voor de praktische toepassing die u bent hier zoeken. Het beste dat u kunt bereiken, is waarschijnlijk een 3D-lensvormig scherm met head / eye-tracking, zodat het beeld kan worden gemanipuleerd volgens de relatieve positie van het scherm / hoofd.

Dit zou maar voor één persoon tegelijk werken met de huidige technologie, voor zover ik weet. De invoer zou dan moeten worden verwerkt tot een 3D-scène, zodat deze vanuit andere hoeken opnieuw kan worden weergegeven. Deze technologie is redelijk volwassen en er zijn veel technologieën, variërend van pure camera-gebaseerde vastlegging van zichtbaar licht met softwareverwerking tot actieve 3D-scancamera's die meerdere actieve en passieve inputs combineren. Als alternatief zou een dicht opeengepakte 2D-reeks camera's kunnen worden gebruikt en twee geschikte camera's kunnen worden geselecteerd om overeen te komen met de relatieve oriëntatie van het hoofdscherm. Hun gezichtsveld zou nog steeds moeten worden gemanipuleerd op basis van de afstand tussen het hoofd en het scherm. Dit zou waarschijnlijk gemakkelijker digitaal te doen zijn door het beeld bij te snijden en te schalen met een groothoeklens.

pjc50
2016-03-17 20:38:06 UTC
view on stackexchange narkive permalink

Het verzenden van elk afzonderlijk foton is onhaalbaar, gezien de hoeveelheid berekeningen die nodig zou zijn, maar technologie voor het vastleggen van informatie over de richting van binnenkomend licht bestaat al en wordt gebruikt in de Lytro "lichtveld" camera.

De bijbehorende lichtveldweergave bestaat voor zover mij bekend niet. Het Lytro-systeem maakt gebruik van een conventioneel display met nabewerking waarmee u het brandpunt, de scherptediepte, enz. Kunt aanpassen nadat de foto is gemaakt.

Nou, je zou een stel * N * fotonen kunnen uitzenden voor elk stel * N * fotonen die binnenkomen ... Ik bedoelde niet letterlijk elk foton te verwerken.
Ja, hoewel u zich daar zorgen over moet maken over hoekkwantisering: voor elk punt op de ontvanger kunt u slechts een bepaald aantal N "emmers" met richtingen hebben waarin u kijkt. Hoe meer emmers, hoe meer ruis.
Niemand zei dat het gemakkelijk zou worden ;-)
Rugnir
2016-03-17 18:38:50 UTC
view on stackexchange narkive permalink

3D-camera's

3D-camera's die uit twee afzonderlijke camera's bestaan ​​om dieptewaarneming mogelijk te maken, bestaan ​​al heel lang. De enige verdieping is dat het moeilijk kan zijn om het aan een paar menselijke ogen te laten zien op een manier die de hersenen kunnen begrijpen. De meeste inspanningen zijn tegenwoordig gericht op het tonen van slechts één beeld aan elk oog, en laten de hersenen zich concentreren op het synchroniseren van de beelden tot één samenhangend verhaal.

Het probleem hiermee is dat je ofwel een beeldscherm heel dicht bij de ogen nodig hebt, of een gepolariseerde bril.

Hoewel het interessant is, verschilt dit van wat ik vraag. Het effect van een spiegel of raam nabootsen gaat veel verder dan stereoweergave.
`Het probleem daarmee is of je een beeldscherm heel dicht bij de ogen nodig hebt, of een gepolariseerde bril. 'Of een [parallaxbarrière] (https://en.wikipedia.org/wiki/Parallax_barrière).


Deze Q&A is automatisch vertaald vanuit de Engelse taal.De originele inhoud is beschikbaar op stackexchange, waarvoor we bedanken voor de cc by-sa 3.0-licentie waaronder het wordt gedistribueerd.
Loading...