-
Die Erfindung betrifft ein Verfahren zum Wiedergeben von, insbesondere bewegten, holografischen Bildern, bei dem ein von einem realen oder virtuellen Objekt oder einer realen oder virtuellen Szene ausgesandtes Wellenfeld aufgenommen wird, das ausgesandte Wellenfeld digital als Matrix von Matrixelementen aufgenommen wird, die Matrixelemente der Matrix auf einem Speichermedium gespeichert werden, die gespeicherten Matrixelemente der Matrix einem holografischen 3D-Display zugeführt werden, und das 3D-Display ein Wellenfeld zum Wiedergeben der, insbesondere bewegten, holografischen Bilder des Objektes oder der Szene in Form einer Matrix aus Bildpunkten entsprechend der zugeführten Matrixelemente erzeugt. Außerdem betrifft die Erfindung eine Vorrichtung zum Wiedergeben von, insbesondere bewegten, holografischen Bildern, mit einer Steuerung, und mit einem 3D-Display zum Erzeugen eines Wellenfeldes, wobei das 3D-Display ein Matrix-Display ist und den Matrixelementen zugeordnete elektronisch ansprechbare Mittel zum Ändern des Brechungsindex hat.
-
Unter realen oder virtuellen Objekten oder Szenen ist dabei zu verstehen, dass es sich neben realen Objekten oder Szenen auch um solche handeln kann, die rein digital erzeugt worden sind, wie beispielsweise bei CAD-Programmen, Designprogrammen, Architekturprogrammen oder Virtual Reality. In dem Fall wird die Matrix von Matrixelementen direkt digital erzeugt. Häufig wird auch ein zunächst analog aufgenommener holografischer Film anschließend zum Erzeugen der Matrix von Matrixelementen digital aufgenommen. Diese Varianten sollen durch die gewählte Formulierung mit umfasst sein.
-
Es gibt verschiedene Möglichkeiten, dreidimensionale Bilder oder Filme darzustellen. Einige davon täuschen die Sinne, wie beispielsweise die Stereoskopie, bei der dem Auge auf verschiedene Weise unterschiedliche Bilder für das rechte Auge und das linke Auge dargeboten werden. Dies funktioniert allerdings nicht bei allen Betrachtern und führt bei einzelnen zu unerwünschten Folgen, wie beispielsweise Übelkeit. Eine weitere übliche Methode der Darstellung dreidimensionaler Bilder ist die so genannte Holografie. Hierbei werden mittels kohärenten Lichtes die Wellenfelder erzeugt, wie sie der tatsächliche Gegenstand erzeugt haben würde. Nachteilig hierbei ist allerdings, dass das Datenvolumen schon zum Erzeugen eines holografischen Bildes eines unbewegten Gegenstandes verhältnismäßig groß ist. Bewegte Bilder oder gar Filme mit einem Betrachtungswinkel von 45° oder mehr und mit einigermaßen guter Detailauflösung sind hier allerdings wegen der verfügbaren 3D-Displays wie auch der Speicher und Rechenleistung bisher nicht möglich.
-
Aufgabe der Erfindung ist es deshalb, ein Verfahren und eine Vorrichtung zum Wiedergeben von holografischen Bildern anzugeben, mit denen die Wiedergabe von bewegten Bildern, insbesondere Filmen möglich ist.
-
Die Aufgabe wird bei einem Verfahren der eingangs genannten Art dadurch gelöst, dass mittels einer Recheneinheit die Matrix von Matrixelementen in Matrixsegmente mit jeweils mehreren Matrixelementen aufgeteilt wird, für jedes Matrixsegment ein funktionaler Pixel mit einem Wert und einer Verteilungsfunktion einer funktionalen Matrix ermittelt wird, und dass 3D-Display das Wellenfeld entsprechend der funktionalen Pixel der funktionalen Matrix erzeugt.
-
Auf diese Weise lässt sich ein Betrachtungswinkel von 45° oder mehr bei hoher Bildqualität und einer um mehrere Größenordnungen reduzierten Datenrate wie auch erforderlichen Anzahl an Bildpunkten bei dem 3D-Display erzielen.
-
Bei der Vorrichtung der eingangs genannten Art wird die Aufgabe dadurch gelöst, dass die Steuerung hergerichtet ist zum Durchführen des erfindungsgemäßen Verfahrens.
-
Vorteilhaft bei der Erfindung lässt sich die in der Druckschrift
DE 10 2018 115 785 A1 beschriebene Vorrichtung verwenden.
-
Eine Weiterbildung der Erfindung zeichnet sich dadurch aus, dass als Verteilungsfunktion eine Polynomfunktion verwendet wird. Derartige verhältnismäßig einfach zu berechnende Funktionen liefern bereits hervorragende Ergebnisse was Detailgenauigkeit und Reduzierung der erforderlichen Daten und Bildpunktmenge betrifft. Besonders einfach sind lineare Phasenverschiebungsfunktionen. Hierbei wird das Wellenfeld durch den funktionalen Pixel als eine Art schiefer Ebene dargestellt. Es können aber auch Polynome höhere Ordnungen, wie beispielsweise kubische Phasenverschiebungsfunktionen verwendet werden. Hierdurch lässt sich eine bessere Näherung der durch die funktionalen Pixel angenäherten Wellenfunktionen an die tatsächlichen Wellenfunktionen erzeugen.
-
Es ist außerdem von Vorteil, wenn die Matrixsegmente quadratisch sind. Hierbei lässt sich ein Schwerpunkt für den funktionalen Pixel finden und die maximalen räumlichen Abweichungen sind in alle Richtungen gleich. Es können aber auch andere Matrixsegmente verwendet werden.
-
Bei einer anderen Weiterbildung ist es von Vorteil, wenn die Werte der funktionalen Pixel jeweils so gewählt werden, dass die Summe der Abstände der Werte der funktionalen Pixel für die jeweiligen Matrixelemente zu den tatsächlichen Werten der Matrixelemente minimiert wird. Auf diese Weise wird eine möglichst geringe Abweichung der Werte der funktionalen Pixel, von denen der tatsächlichen Matrixelemente erzielt, was zu einer besonders guten Abbildung führt.
-
Eine Weiterbildung der Vorrichtung mit den Erfindungsmerkmalen zeichnet sich dadurch aus, dass die Mittel verkippbare Spiegel haben. Mittels dieser verkippbaren Spiegel lässt sich einfach die Oberfläche der jeweiligen Kugelwelle an der betreffenden Stelle durch eine Funktion entsprechend der Spiegeloberfläche simulieren. Dies ist besonders von Vorteil, bei einer linearen Phasenmodulation. Eine einfache Möglichkeit, dies zu realisieren, ist ein so genanntes „Micro-Mirror-Array“ (MMA), wobei jedes MMA-Element in Höhe, Verkippung und Hubbewegung verstellbar ist. Hierdurch lässt sich eine einfache und abbildungsgetreue Reduzierung der erforderlichen Datenmenge wie auch eine gute Abbildungsleistung erzielen.
-
Weiter ist es von Vorteil, wenn die Auflösung des 3D-Displays kleiner als 100 µm ist. Bereits hierbei kann das Auge kaum noch die einzelnen Bildpunkte auflösen. Es ist allerdings auch möglich, eine Auflösung von 30 bis 70 µm, insbesondere von 40 bis 60 µm vorzusehen. Wird eine Auflösung von 50 µm verwendet, entspricht dies der maximalen Auflösung des menschlichen Auges.
-
Holographische 3D-Displays basieren auf der Wiedergabe des exakten Wellenfelds, das von einem Objekt oder einer Szene bei Beleuchtung gestreut (bzw. reflektiert) wird. In der Theorie bieten sie für den Beobachter eine perfekte Darstellung mit allen relevanten Tiefeninformationen, einem vollen Betrachtungswinkel von 180° und einer großen Tiefenschärfe. In der praktischen Anwendung leiden jedoch dynamische holographische Displays aufgrund der begrenzten Anzahl verfügbarer Pixel unter erheblichen Einschränkungen hinsichtlich der Displaygröße und des Betrachtungswinkels. Der Grund dafür ist die große Anzahl von Pixeln, die erforderlich ist, um die feinen Strukturen eines Hologramms über die makroskopische Oberfläche des Displays zu rekonstruieren. In letzter Zeit gab es zahlreiche Bemühungen, dieses Problem zu lösen, darunter das zeitliche Multiplexing von partiellen Hologrammen, wiederbeschreibbare holographische Medien, zeitliches oder räumliches Multiplexing von Licht, das von räumlichen Lichtmodulatoren (SLM) gebeugt wird, die Projektion der holographischen Daten in die Pupille des Betrachters, Nahbereichsansätze oder sogar tragbare Geräte. Doch keines dieser Verfahren ermöglicht eine Videoanzeige von holographischen Daten mit einem großen Betrachtungswinkel über die Fläche eines herkömmlichen Bildschirms. Andere Ansätze wie das Integral Imaging oder Stereoskopie reproduzieren betrachterabhängige Perspektiven, leiden jedoch entweder unter geringer Auflösung oder sind sehr eingeschränkt im adressierbaren Tiefenbereich.
-
In diesem Beitrag stellen wir eine alternative Strategie vor, um das Problem der begrenzten Anzahl von Displaypixeln zu überwinden. Die Idee besteht darin, das Wellenfeld stückweise zu parametrisieren, zum Beispiel in lokale Segmente aufzuteilen, die durch Polynome approximiert werden können. Daher besteht die Aufgabe des Anzeigegeräts darin, diese polynomialen Segmente zu bilden, anstatt nur eine Mustermatrix bereitzustellen. Der Vorteil besteht darin, dass Polynome nur eine geringe Anzahl von Parametern benötigen, um genau beschrieben zu werden. Daher kann selbst ein einfaches Polynom, wie eine lineare Phasenverteilung, die durch einen gekippten Spiegel erzeugt wird, verwendet werden, um eine dichte Pixelmatrix zu ersetzen und somit die (übliche) Pixelanzahl um mehrere Größenordnungen zu reduzieren. Wir bezeichnen daher solche Pixel, die die Fähigkeit haben, eine Funktion über ihre Oberfläche zu reproduzieren, als funktionale Pixel. Als Beispiel für das Konzept können wir die Pixel eines Mikrospiegelarrays (Micro mirror array, MMA) in diesem Sinne als funktionale Pixel betrachten, wenn die einzelnen Spiegel Tip, Tilt und Senkbewegung bieten. Ein einzelner Spiegel kann leicht Licht in einen großen Bildwinkel verteilen, was im Falle eines rein diffraktiven Matrix-Displays viele mikroskopische Pixel, d.h., ein großes Raum-Bandbreitenprodukt (space-bandwidth product, SBP) erfordern würde. Somit wird die Anzahl der Displaypixel die notwendig sind, um ein holographisches Wellenfeld mit einem großen Betrachtungswinkel und gleichzeitig großer Anzeigefläche zu bieten, signifikant reduziert. Die lineare Approximation erlaubt keine Phasenvariation höherer Ordnung. Gemäß dem holographischen Prinzip ist jedoch jeder Teil eines Objekts in der gesamten Wellenfront codiert, was auf eine gewisse Toleranz gegenüber lokalen Phasenapproximationen hindeutet. Um den Informationsverlust zu minimieren, stellen wir sicher, dass unsere Approximation eine Projektion ist, d.h., wir approximieren das Wellenfeld lokal mit der linearen Funktion, die der ebenen Wellen mit der höchsten Energie entspricht.
-
In diesem Beitrag werden wir die holografische Darstellung eines 3D-Objekts, sowie die holographische Projektion eines Grauwertbildes beispielhaft zeigen. Wir stellen eine Methode vor, die das Wellenfeld in der Hologrammebene in einen Satz von lokalen ebenen Wellen zerlegt und die Qualität der rekonstruierten Objekte für verschiedene Segmentierungsfenster bewertet. Wir werden unsere Methode experimentell mit einem räumlichen Lichtmodulator (spatial light modulator, SLM) testen, da der SLM es uns ermöglicht, die Ergebnisse zwischen dem approximierten und dem echten Wellenfeld im selben Setup zu vergleichen. Die Methode kann jedoch problemlos auf jedes Gerät angepasst werden, das eine lineare Phasenmodulation bietet, wie das oben beispielhaft genannte MMA.
-
Im Rahmen der skalaren Beugungstheorie besteht das Ziel eines holographischen Displays darin, die komplexe Amplitude
des von einem Objekt oder einer Szene gestreuten Lichts über dem Bereich H zu reproduzieren, der durch die aktive Oberfläche des Displays definiert ist, d. h.
Folglich verwenden wir im Folgenden den Begriff (komplexes) Hologramm, um auf die Verteilung
anstelle eines Interferenzmusters zu verweisen.
1 zeigt die Idee der funktionalen Pixel, die ein Wellenfeld lokal durch elementare Funktionen (z. B. Polynome) modulieren, die von Anzeigegeräten basierend auf nur wenigen Parametern generiert werden können.
-
Im Folgenden werden wir das Konzept anhand einer segmentierten ebenen Wellenzerlegung des Wellenfelds in der Hologrammebene demonstrieren. Zu diesem Zweck projizieren wir lokale Bereiche des Wellenfelds, z. B. die Bereiche über Pixel eines Mikrospiegelarrays (MMA), auf die Menge der ebenen Wellen. Mathematisch bedeutet dies, dass wir über jedes Segment die Distanz zwischen dem Wellenfeld
und einer ebenen Welle
berechnen:
wobei A die Oberfläche des Segments ist. Wir suchen dann die Projektion von
auf die Menge der ebenen Wellen, d. h. wir finden die ebene Welle
die Gleichung 1 minimiert, so dass
-
Die Lösung von Gleichung 2 stellt ein nichtlineares inverses Problem dar, aufgrund der Struktur von
Es kann sogar mehrdeutig werden, zum Beispiel, wenn
mehrere ebene Wellen mit identischer Amplitude beschreibt, die in verschiedenen Richtungen verlaufen. Im Folgenden werden wir zunächst erörtern, wie das Problem mathematisch gelöst werden kann, und schließlich einen numerisch effizienten Algorithmus zur Verarbeitung diskreter Daten vorstellen.
-
1. zeigt ein Beispiel eines funktionalen Pixels: Links sehen wir eine Gruppe von 4 × 4 konventionellen Pixeln. Jeder von ihnen modifiziert den Phasenwert ϕn über seiner Oberfläche durch einen konstanten Phasenhub. Die Punkte repräsentieren Abtastpositionen einer zu reproduzierenden Phasenverteilung. In diesem Beispiel approximieren sie eine lineare Phasenrampe mit einer Neigung von 45°. Auf der rechten Seite sehen wir ein einzelnes funktionales Pixel, das eine kontinuierliche Phasenrampe erzeugt, die denselben Bereich wie die zuvor genannten 16 Pixel abdeckt und denselben Phasengradienten aufweist. Während das funktionale Pixel nur die 3 Parameter Phasen ϕ und zwei Komponenten eines k-Vektors ki und kj benötigt, um die lineare Phasenverteilung vollständig nachzubilden, benötigen die konventionellen Pixel 16 Parameter. Ein solches funktionales Pixel kann z.B. durch ein Tip-Tilt-Piston MMA realisiert werden. Jeder Spiegel kann nach oben und unten bewegt werden, um einen konstanten Phasenversatz ϕ zu erzeugen, ähnlich wie bei aktuellen Phasen-SLMs. Zusätzlich können sie um zwei Achsen in Richtung ki und kj verkippt werden, um eine lineare Phasenverteilung zu erzeugen (begrenzt nur durch ihre maximalen Ablenkungswinkel).
-
Wir beginnen unsere Herleitung mit der bekannten Struktur der Lösung, die eine ebene Welle ist:
mit dem Wellenvektor
einer konstanten, positiven Amplitude a und einer konstanten Phase ϕ. Für spätere Verwendung definieren wir auch die Norm von
über die Fläche A des Segments als die Leistung P und die Norm von
gemäß Gleichung 3 als
-
Lassen Sie uns nun die Norm in Gleichung 1 ausführen. Unter Berücksichtigung von Gleichung 4 erhalten wir:
wobei
den Realteil darstellt. Bitte beachten Sie, dass die Integration in Gleichung 5 als Fourier-Transformierte interpretiert werden kann, wenn wir die Grenzen auf Unendlich erweitern. Zu diesem Zweck führen wir die Fensterfunktion ein:
und erhalten
mit dem Spektrum
-
Um D zu minimieren, müssen wir
und ϕ so wählen dass diese den letzten Term in Gleichung 7 maximieren. Das bedeutet, wir müssen
so wählen, dass wir den maximalen Fourier-Koeffizienten S
max erhalten, d.h.
und wir müssen ϕ = arg{S
max} wählen, so dass wir den Realoperator eliminieren können, und erhalten
-
Schließlich müssen wir a bestimmen. Da Gleichung 10 ein quadratisches Polynom in a ist, können wir einfach
fordern, um das Ergebnis
zu erhalten.
-
Dies ist ein sehr intuitives Ergebnis. Es bedeutet, dass die ebene Welle
die D minimiert, durch den größten Fourier-Koeffizienten von
gegeben ist, d.h.
mit
so dass
Es repräsentiert daher die dominanteste ebene Welle im Spektrum von
Die Amplitude ist durch das Reziproke des integrierten Bereichs 1/A normiert, wird jedoch in der Praxis auf Werte skaliert, die im experimentellen Aufbau möglich sind. Im Folgenden werden wir einen Algorithmus vorstellen, um
aus diskreten Daten zu bestimmen.
-
Im Folgenden zeigen wir, wie wir ũ in unseren Experimenten bestimmen. Der Klarheit halber nehmen wir einen eindimensionalen Fall an, d. h. ũ und u sind diskrete Spaltenvektoren, und ihre Komponenten beziehen sich auf komplexe Feldamplituden an Positionen entlang eines eindimensionalen Rasters G mit Abstand Δp und Größe L = N Δp. Die Erweiterung auf 2 Dimensionen ist unkompliziert und erhöht lediglich die Komplexität der Notation. Um ũ numerisch zu finden, verwenden wir einen zweistufigen Ansatz:
- 1. Zunächst berechnen wir die diskrete Fourier-Transformation und erstellen einen neuen Spektrum-Spaltenvektor ûmax. der nur den maximalen Frequenzkoeffizienten von û enthält und ansonsten null ist:
- 2. Im zweiten Schritt müssen wir berücksichtigen, dass sowohl u als auch û diskrete Vektoren sind und wir nicht erwarten können, dass ũ genau durch das Spektrum ûmax abgetastet wird. Daher wird die in Schritt eins gefundene ebene We im Allgemeinen nur eine Approximation der Hauptausbreiiungsriuniung darsiellen. Dieses Problem kann entweder durch eine Subpixel-Analyse von û im Fourier-Raum oder, unter Verwendung des Verschiebungssatzes, durch eine lineare Regression der Phase im Ortsraum gelöst werden. Wir entscheiden uns für letzteren Ansatz. Hierzu betrachten wir den hermitesch transponierten Zeilenvektor extrahieren die verbleibende und führen eine lineare Regression durch. basierend auf der (Spalten-)Pseudoinversen B+ = (B*B)-1 B* der Koordinatenmatrix mit xn = n · Δp. Der resultierende Vektor f = (k, ϕ) enthält den verbleibenden k-Vektor k und die Phasenkonstante ϕ. Mit dieser Vorbereitung können wir schließlich die Komponenten des dominanten ebenen Wellenvektors berechnen, zu
-
Es ist zu beachten, dass wir ϕres nicht vor dem Einsetzen in Gleichung 15 unwrappen (demodulieren) müssen. Der Fehler im linearen Term von ϕres ist kleiner als 2π/L, da umax bereits eine ausreichend gute Approximation von ũ liefert. Der Hauptvorteil dieses Ansatzes ist, dass eine lineare Phasenregression numerisch sehr effizient ist und eine genaue Lösung für das Phasenproblem bietet. Der Nachteil besteht darin, dass die Amplitude |umax| nicht angepasst wird. Da für die Holografie (und für Lichtbeuauna im Allgemeinen) die Phase signifikant wichtiger ist als die Amplitude und |umax| bereits eine sehr gute Approximation ist, verwenden wir diese Methode im Sinne der Recheneffizienz. Wenn jedoch mehr Präzision erforderlich ist, kann ü auch durch eine Sine-Interpolation oder eine parabolische Anpassung um den maximalen Koeffizienten des Spektrums û gefunden werden. Beispiele für den numerischen Berechnungsprozess der Projektion sind zusammen mit einem Beispiel-Wellenfeld im begleitenden Material Code 1 gegeben.
-
Um das Potenzial linearer funktionaler Pixel für dynamische holographische Displays zu bewerten, haben wir sowohl numerische als auch experimentelle Untersuchungen durchgeführt. In 2 sehen wir das Schema für die numerische Simulation. In der Simulation wird angenommen, dass jeder Punkt des dreidimensionalen Objekts ein sphärisches Wellenfeld aussendet. Das Wellenfeld g in der Objektebene ist eine Überlagerung aller sphärischen Wellen, die in die Hologrammebene propagiert werden müssen. Das Abtastraster G besteht aus 1024 × 1024 Proben mit einem Abstand Δp = 8, µm in jeder Richtung. In der Hologrammebene finden wir zusätzlich ein Raster funktionaler Pixel mit einem Abstand Δs > Δp. In allen Simulationen nehmen wir eine Wellenlänge von A = 638,nm und einen Abstand zwischen den Ebenen von z0 = 200,mm an. Aus Gründen der Praktikabilität haben wir Δs = α Δp als ein ganzzahliges Vielfaches α des Abtastabstands Δp in allen Simulationen gewählt. Als Beispiel haben wir mit einem Faktor α = 8 am Ende 128 × 128 funktionale Pixel, wobei jedes funktionale Pixel 8 × 8 Abtastpunkte von G abdeckt.
-
2. zeigt eine schematische Darstellung der Simulationsumgebung: Das Objekt ist ein dreidimensionaler Drahtquader mit den Textzeichen „BIAS“ darunter. Das von jedem Objektpunkt stammende Wellenfeld wird in die Objektebene propagiert, wobei die Intensität jedes Punktes einen festen Wert I0 hat. Die entsprechende Phase entlang der Kanten des Drahtquaders ist null, während die Phase an der Oberfläche der Textzeichen „BIAS“ einer statistischen Verteilung folgt, um eine raue Oberfläche zu simulieren. Zur Validierung des Konzepts funktionaler Pixel wird das kombinierte Objektwellenfeld über die Distanz z0 in die Hologrammebene propagiert, auf die Menge lokaler ebener Wellen gemäß Gleichung 17 projiziert und zurück in die Objektebene propagiert, um die Bildqualität zu bewerten. Der Pixelabstand in beiden Ebenen beträgt Δp, wobei die funktionalisierten Pixel einen Abstand von Δs = α Δp mit der ganzen Zahl α haben.
-
Das Konzept des Experimentes besteht darin, das initiale Wellenfeld g von der Objektebene in die Hologrammebene unter Verwendung der ebenen Wellenzerlegung zu propagieren.
wobei
die z-Komponente von
ist. Anschließend wird das Wellenfeld lokal über dem jeweiligen Bereich jedes funktionalen Pixels durch die Approximation Gleichung 17 ersetzt und das approximierte Objektwellenfeld g̃ in die Objektebene zurück propagiert, um die Qualität (Abweichung von initialen Wellenfeld) abhängig von a zu bewerten. Für die quantitative Bewertung des rekonstruierten Wellenfelds g̃ haben wir es über die normalisierte Kreuzkovarianz mit dem initialen Wellenfeld g verglichen,
wobei
f das Mitteln von f über das Gitter G bedeutet.
3 zeigt ein Beispiel zur Veranschaulichung des Projektionsprozesses, der durch Gleichung 17 ermöglicht wird. In
3a und
3b sehen wir die Amplituden- und Phasenverteilung des Wellenfelds in der Objektebene. Das Objekt besteht aus einem dreidimensionalen Drahtquader von 4mm mal 6mm mal 50 mm, sowie 4 Textzeichen mit rauen, statistischen Oberflächen, die in verschiedenen Tiefenebenen unterhalb des Quaders platziert sind. Das Objekt erscheint nach numerischer Propagation von z
0 = 200mm verschwommen, wie aus der in
3c und
3d gezeigten Amplitude und Phase des Wellenfelds in der Hologrammebene ersichtlich ist. Die entsprechende Phase entlang der Kanten des Quaders ist null, während die Phase an der Oberfläche der Textzeichen einer statistischen Verteilung folgt. Der Quader ist leicht geneigt, um Vorder- und Rückseite gleichzeitig zu zeigen.
-
3e und 3f zeigen Amplitude und Phase des projizierten Wellenfelds ũ gemäß Gleichung 17. In dem Beispiel haben wir α = 32 gewählt. Es ist zu erkennen, dass das Wellenfeld ein degradiertes (pixeliertes) Erscheinungsbild hat, was besonders bei der Amplitude sichtbar ist. Die Phase in 3f hingegen ist linear approximiert und erscheint daher wesentlich glatter. Es zeigt visuell große Ähnlichkeiten mit dem initialen Wellenfeld in 3d.
-
3. a-b) zeigt Amplitude und Phase eines Wellenfelds in der Objektebene. c)-d): Amplitude und Phase in der Hologrammebene für eine Auflösung von 1024 × 1024 Pixel. e)-f): Amplitude und Phase mit einer Auflösung von 32 × 32 funktionalen Pixeln, was einer Reduktion der Pixelzahl von etwas über 210 entspricht! Das Wellenfeld kann auch bei einer um drei Größenordnungen niedrigeren Auflösung gut mit funktionalen Pixeln approximiert werden.
-
Um die Rekonstruktionsqualität mit zunehmenden Werten von α quantitativ zu untersuchen, haben wir das projizierte Wellenfeld ũ für 3 Werte α = 2, 8, 32 berechnet und es zurück in die Objektebene propagiert. Darüber hinaus haben wir als Vergleich das projizierte Wellenfeld uconst eines konventionellen digitalen (komplexen) Hologramms berechnet, bei dem die Anzahl der Pixel um die gleichen Werte von α reduziert wird, während die modulierte Phase einen konstanten Wert anstelle einer linearen Phasenverteilung über jedes einzelne Pixel erhält. Die resultierenden rekonstruierten Objektwellenfelder g̃α des funktionalen Pixelansatzes sind in 4a-c zu sehen, mit den entsprechenden rekonstruierten Objektwellenfeldern gα,const für konstante Phasenmodulation über jedem Pixel in 4d-f. Wie erwartet sehen wir, dass die Rekonstruktionsqualität für beide Ansätze mit zunehmenden Werten von α abnimmt. Dies wird auch quantitativ durch die normierten Kreuzkorrelationskoeffizienten ρ bestätigt, die zusammen mit den Ergebnissen dargestellt sind. Dennoch sind im Fall der funktionalen Pixel die Rekonstruktionen selbst für signifikant große Werte von α überraschend nahe am initialen Wellenfeld, während die Rekonstruktion mit konstanten Phasenwerten für größere Werte von α nahezu vollständig degradiert. In 4b sehen wir zum Beispiel das Ergebnis g̃8. das aus 128 × 128 funktionalen Pixeln rekonstruiert wurde. Obwohl dies nur 1.5 % der ursprünglichen Hologrampixel darstellt, wird das Objekt fast perfekt approximiert und zeigt auch quantitativ eine Korrelation von 88 %. Selbst im Fall von 4c, was dem Ergebnis g̃32 von 32×32 funktionalen Pixeln entspricht, finden wir eine Korrelation von etwa 76%. Visuell erscheint es degradiert, aber immer noch akzeptabel, wenn man bedenkt, dass nur 1024 Pixel verwendet wurden. Dies bedeutet eine erhebliche Reduktion um den Faktor 210 im Vergleich zur ursprünglichen Pixelanzahl. Im Vergleich dazu zeigt die Rekonstruktion mit konstanter Phasenmodulation eine Korrelation von nur 62 % und ist visuell nahezu vollständig degradiert.
-
4. a)-c): Objektrekonstruktionen eines 3D-Objekts aus Wellenfeldern mit funktionalen Pixeln für zunehmende Faktoren von α = 2, 8, 32 und der entsprechenden Kreuzkorrelation ρ mit dem initialen Wellenfeld. d)-f): Objektrekonstruktion mit Pixeln konstanter Phase für die gleichen zunehmenden Faktoren von α. Alle Verteilungen haben eine Größe von 1024 × 1024 Pixel. Wie erwartet, ist die rekonstruierte Objektdarstellung mit steigendem α deutlich degradiert. Dennoch sind selbst für vergleichsweise große Werte von α, wie etwa α = 32 in c) gezeigt, die Bilddetails gut erhalten. Dies ist eine überraschend gute Leistung, wenn man die erhebliche Verringerung der Pixelanzahl um mehr als 3 Größenordnungen betrachtet. Im Vergleich dazu zeigt die entsprechende Rekonstruktion mit konstanter Phasenmodulation in f) deutlich mehr Degradation. Darüber hinaus wird für die funktionale Pixelrekonstruktion mit α = 8 ein Video mit sich ändernden Fokusebenen im Supplementary Material gezeigt (siehe Visualisierung 1).
-
Um die Rekonstruktion für die holographische Projektion von Grauwertbildern zu untersuchen, haben wir das projizierte Wellenfeld ũ unter Verwendung des Standardtestbilds „Cameraman“ als Intensitätsverteilung mit einer konstanten Phasenverteilung in der Objektebene berechnet. Wir haben die Werte α = 2, 8 verwendet, um die Rekonstruktion mit funktionalen Pixeln in 5a-c mit denen unter Verwendung einer konstanten Phasenmodulation in 5d-f zu vergleichen. Die Rekonstruktion mit funktionalen Pixeln zeigt für beide Werte von α eine höhere Korrelation mit dem Originalbild als die konventionelle Rekonstruktion. Der Unterschied ist weniger ausgeprägt als bei dem 3D-Objekt, da für die holographische Projektion die Phaseninformation verhältnismäßig ebener ist als für 3D-Objekte. Wenn wir jedoch die vergrößerten Ausschnitte für α = 8 in 5c und f vergleichen, liefert die funktionale Pixelrekonstruktion immer noch eine signifikant schärfere Rekonstruktion. Darüber hinaus zeigt die konventionelle Rekonstruktion Gibbs-Artefakte, da bei der Rekonstruktion hohe räumliche Frequenzen fehlen, die bei Verwendung funktionaler Pixel erhalten bleiben.
-
5. Objektrekonstruktionen des Grauwertbildes „Cameraman“ aus Wellenfeldern mit funktionalen Pixeln (a)-b)) sowie konventionellen konstanten Phasenpixeln (d)- e)) für verschiedene Faktoren von α = 2, 8 und die entsprechende Kreuzkorrelation ρ mit dem initialen Wellenfeld. Wie erwartet, ist die rekonstruierte Objektdarstellung mit steigendem α degradiert. Bei einem Vergleich der Rekonstruktionen für α = 8, von denen in c) und f) jeweils vergrößerte Ausschnitte gezeigt werden, liefert die funktionale Pixelrekonstruktion eine deutlich schärfere Darstellung, während die konventionelle Rekonstruktion aufgrund fehlender hoher räumlicher Frequenzen im Hologramm Gibbs-Artefakte aufweist.
-
Um die Bedeutung dieses Ergebnisses zu verdeutlichen, nehmen wir an, wir möchten ein echtes holographisches Display mit (klassischem) Pixelabstand Δp = 0, 5 µm und Kantenlänge von 30 cm erstellen, das einen Beobachtungswinkel von ±30° @λ = 532 nm über die Fläche eines 17"-Displays bietet. Ein solches System würde klar jedes existierende holographische Display übertreffen, würde jedoch leider eine unrealistisch große Menge von 360 Gigapixel erfordern. Wenn jedoch diese Pixel als funktionale Pixel ausgelegt sind (z.B. durch Verwendung eines MMA), können wir die Pixelanzahl auf 360 Megapixel reduzieren, mit leicht reduzierter Qualität. Dies ist immer noch eine große Anzahl, erscheint jedoch mit der derzeit verfügbaren Technologie viel besser zu bewältigen. Darüber hinaus können wir bei weiterer Akzeptanz von Degradierung diese Zahl sogar unter 100 Megapixel senken. Allerdings müssen wir in zukünftiger Arbeit untersuchen, ob dies immer noch eine akzeptable Qualität des Gesamtbildes ergibt.
-
Es ist zu beachten, dass die Reduzierung der Anzahl von Pixeln auch eine Reduzierung der Information bedeutet. Die Menge an Information, die in einem Hologramm gespeichert ist, ist jedoch in der Regel viel größer als für die visuelle Darstellung erforderlich. Wenn sich das Objekt zum Beispiel 200 mm hinter einem Hologramm mit einer Kantenlänge von 400 mm befindet, beträgt die numerische Apertur bezüglich der Hologrammebene NA = 0.71. Dies liegt im Bereich der Mikroskopie und bietet eine (potenzielle) laterale Auflösung von weniger als der Wellenlänge. Im Vergleich zur Auflösung der menschlichen Augen ist dies um Größenordnungen besser und zeigt, dass noch viel Spielraum für eine Reduzierung der Information besteht, bevor eine wesentliche Beeinträchtigung der visuellen Qualität unvermeidlich wird. Daher könnten funktionale Pixel tatsächlich zu einer Enabling-Technologie werden, um die enorme Pixelkluft zu echten holographischen Displays zu schließen.
-
Für die experimentelle Untersuchung haben wir den in 6 dargestellten Aufbau verwendet, der die Modulation von Amplitude und Phase des Lichts ermöglicht. Die Schlüsselelemente des Aufbaus sind zwei phasenmodulierende Flüssigkristall-SLM Holoeye Pluto VIS 014, die sich in der vorderen und der hinteren Brennebene einer 4f-Konfiguration befinden. Beide Modulatoren bieten jeweils 1920 × 1080 Pixel mit einem Pitch von Δp = 8 µm in jeder Richtung. In unseren Experimenten haben wir einen quadratischen Teilausschnitt von 1024 × 1024 Pixeln verwendet. Die Kamera ist eine Allied Vision Technologies F-146B Marlin mit 1392 × 1040 Pixeln der Größe 4.65 µm.
-
6. Experimenteller Aufbau: Eine bi-telezentrische 4f-Konfiguration wird verwendet, um sowohl die Amplitude als auch die Phase des Lichts zu modulieren, wobei zwei räumliche Lichtmodulatoren in Kombination verwendet werden. Während der erste SLM die Phase moduliert, nutzt der zweite die Polarisationsoptik zur Modulation der Amplitude. Schließlich wird das modulierte Licht mit einem Objektiv auf einen Kamerasensor gelenkt, um ein virtuelles Bild des Objekts aufzunehmen.
-
Licht von einer Laserdiode Picotronic DOE-D638-60-3-F mit einer Wellenlänge von λ = 638 nm wird kollimiert und linear polarisiert entlang der langsamen Achse der SLMs. Es wird dann unter Verwendung von Strahlteilern auf beide Geräte umgeleitet. Schließlich wird das Licht von einer Kamera mit einem Objektiv erfasst. Das Objekt wird in z0 = 200 mm hinter der Hologrammebene als virtuelles Bild betrachtet. Der erste SLM moduliert die Phase, während der zweite die Amplitude moduliert. Die 4 f - Anordnung ist bi-telezentrisch und gewährleistet eine genaue Pixel-zu-Pixel-Abbildung zwischen den SLMs. Die Amplitudenmodulation wird durch eine Drehung der Polarisation um 45° unter Verwendung einer λ/2-Platte vor dem zweiten SLM und einem Polarisator danach realisiert. Es ist zu beachten, dass die zusätzliche (unbeabsichtigte) Phasenänderung, die durch den zweiten SLM eingeführt wird, vom ersten kompensiert werden muss.
-
Wie im Simulationsexperiment haben wir mehrere SLM-Pixel zu einem funktionalen Pixel gruppiert. Da wir den Pixelabstand bereits in der Simulation so gewählt haben, dass er genau der Größe der SLM-Pixel entspricht, ist dies leicht auf die experimentelle Umsetzung übertragbar. Auch der Pixelabstand von Δs = α Δp mit positiven ganzen Werten α = {2, 8, 32} wurde identisch zur Simulation gewählt. So lassen sich die experimentellen Ergebnisse direkt mit der Simulation vergleichen. Unter Verwendung des 3D-Drahtkuboids und Buchstaben als Objekt sind die aufgenommenen Bilder für verschiedene Faktoren von α in 7a-c zu sehen (sowie 7d-f für konstante Phasenpixel). Ihre jeweiligen normalisierten Kreuzkovarianzen werden mit dem Hologramm verglichen, das durch die volle Auflösung des SLMs erzeugt wurde (α = 1). Wir sehen, dass sowohl der Drahtkuboid als auch die Buchstaben bis auf einige Unschärfen gut rekonstruiert sind, während die Rekonstruktion mit konstanten Pixeln für α = 32 nahezu vollständig degradiert ist. Unter Verwendung der funktionalen Pixelrekonstruktion mit α = 8 in 7g-i wird die Rekonstruktion des Drahtkuboids gezeigt, wobei auf verschiedene Tiefenebenen fokussiert wird. Ein Video mit sich ändernder Fokusebene ist im Begleitmaterial verfügbar (siehe Visualisierung 2). Bei Variation der Fokusebene erscheinen unterschiedliche Teile des Kubus sowie verschiedene Buchstaben scharf, was die Tiefenschärfe der Rekonstruktion zeigt.
-
7. a)-c): Aufgenommene Bilder von 3D-Hologrammen mit funktionalen Pixeln für verschiedene Faktoren von α = 2, 8, 32. d)-f): Aufnahmen mit konstanten Phasenpixeln bei steigendem α. Bei ansteigendem α verschlechtert sich die Bildqualität. Wenn jedoch funktionale Pixel verwendet werden, wird durch die Verringerung der Pixelanzahl sogar um mehrere Größenordnungen die Qualität der Intensitätsverteilung nur in geringem Ausmaß schlechter. Ähnlich wie in den Ergebnissen der Simulation in bleiben, wie aus c) hervorgeht, selbst bei einer Verringerung der Pixelzahl um drei Größenordnungen die meisten Objektdetails erhalten, während die Rekonstruktion mit konstanter Phasenmodulation visuell fast vollständig degradiert und nur eine Korrelation von ρ = 0, 5613 aufweist. g)-i): Aufnahmen mit funktionalen Pixeln mit α = 8, fokussiert auf verschiedene Tiefenebenen, um die dreidimensionale Natur der Rekonstruktion zu demonstrieren. Ein Video dieser Rekonstruktion mit sich ändernden Fokusebenen ist ebenfalls im Begleitmaterial enthalten (siehe Visualisierung 2).
-
Unter Verwendung des Grauwertbilds „Cameraman“ als Objekt für die holographische Projektion in 8 sehen wir auch hier experimentelle Ergebnisse, die der Simulation entsprechen. Im Vergleich zur Simulation sind die projizierten Verteilungen durch kohärente Verstärkung aufgrund von störenden Reflexionen im Aufbau und einer nicht perfekten Phasenanpassung der SLMs aufeinander degradiert. Wie in den vergrößerten Ausschnitten in 8c und f gezeigt, zeigt die funktionale Pixelrekonstruktion schärfere Kanten als die konventionelle Rekonstruktion im Fall von α = 8. Dies ist plausibel, da höhere räumliche Frequenzen, die konventionell aufgrund eines größeren Pixelabstands verloren gehen, innerhalb der linearen Phasenmodulation der funktionalen Pixel teilweise erhalten bleiben.
-
Beide Beispiele zeigen, dass die Pixelzahl um mehrere Größenordnungen reduziert werden kann, ohne dass schwerwiegende Fehler in den dargestellten Szenen auftreten, wenn funktionale Pixel zur Modulation des Wellenfelds verwendet werden. Daher bestätigt das Experiment die Ergebnisse der Simulation.
-
8. a)-c): Aufgenommene Bilder holographischer Projektionen eines Grauwertbildes mit funktionalen Pixeln für verschiedene Faktoren von α = 2, 8. d)-f): Aufnahmen mit konstanten Phasenpixeln bei steigendem α. Ähnlich wie in den Ergebnissen der Simulation in verringert ein Anstieg von α die Bildqualität sowohl für die funktionalen als auch für die konstanten Phasenpixel. Die funktionale Pixelrekonstruktion erzeugt eine größere Korrelation mit dem Originalbild, und zeigt, wie in den vergrößerten Ausschnitten für α = 8 in c) und f) zu sehen ist, schärfere Kanten, da die hohen räumlichen Frequenzen durch die lineare Phasenmodulation erhalten bleiben.
-
Wir haben gezeigt, dass das Konzept funktionaler Pixel den Weg zu echten holographischen dynamischen Displays mit bereits existierender oder leicht erweiterter Technologie ebnen könnte. Für die gezeigten Beispiele von Pixeln, die eine lineare Phasemodulation über die Pixelfläche erzeugen (anstatt nur einen konstanten Phasenhub), konnten wir die Anzahl der Pixel um den Faktor 210 reduzieren, d.h. um drei Größenordnungen, während die meisten Objektdetails erhalten blieben. Im Fall der holographischen Projektion haben wir gezeigt, dass funktionale Pixel die Schärfe verbessern und Ringing-Artefakte im Vergleich zur gleichen Anzahl konstanter Pixel reduzieren.
-
Die vorgestellten Methoden können bereits mit vorhandener Technologie von MMA-Geräten implementiert werden. Das Konzept funktionaler Pixel kann jedoch weiterentwickelt werden, um noch niedrigere Pixeldichten zu erreichen, indem intelligentere Pixel entwickelt werden, die in der Lage sind, Phasenmodulationen höherer Ordnung zu erzeugen, oder durch zeitliche Multiplexing-Ansätze. Beides könnte beispielsweise durch dynamische Metamaterialien realisiert werden, z. B. durch resonante photonische Strukturen, die die dynamische Kontrolle von Amplitude und Phase des Lichts ermöglichen. Da die Methode funktionaler Pixel nur erfordert, dass der Lichtmodulator (z.B. MMA) eine einzelne diffraktive Oberfläche pro Szene anzeigt (kein Multiplexing), kann sie darüber hinaus verwendet werden, um sich bewegende Szenen ohne weitere Anpassung zu erstellen, solange der Lichtmodulator die Anzeige in Videogeschwindigkeit unterstützt. Wir glauben, dass der überraschend große Faktor von 210 bei der Reduzierung der Pixelanzahl eine bedeutende Rolle bei den Bemühungen spielen kann, die enorme Pixelkluft zu überwinden, die derzeit das Hauptproblem bei der Entwicklung von dynamischen holografischen Displays mit großer Fläche und weitem Blickwinkel darstellt.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- DE 102018115785 A1 [0008]