Bei der hier beschriebenen Erfindung handelt es sich um ein autosteroskopisches Wiedergabegerät,
das es ermöglicht Bild-, Film-, und Fernsehbilder so aufzunehmen und darzustellen, daß ein
dreidimensionaler Eindruck entsteht. Der oder die Betrachter nehmen die dargestellten Gegenstände
und Szenen in derselben Weise visuell wahr, als wenn sich diese Objekte in der Realität vor ihnen
befinden würden. Die entsprechenden Bild-, Film -, oder Fernsehbilder können durch die Aufnahme
natürlicher Szenen mittels Kameras erzeugt werden oder auch vollständig computer-generiert sein.
Neben einer speziellen optischen Vorrichtung ist noch eine Bildprozessierung notwendig, um das für
die 3D-Darstellung erforderliche Bild abzuleiten. Das Verfahren eignet sich für Standbilder genauso
wie für bewegte Szenen, und gewährleistet eine perfekte Grauton- oder Farbwiedergabe. Es bestehen
keine prinzipiellen Beschränkungen für die Größe der Darstellungen.
Das hier beschriebene Verfahren erlaubt eine autostereoskopische Bildaufnahme und Wiedergabe,
die durch folgende Punkte gekennzeichnet ist:
- 1. In jeder Beobachterposition innerhalb eines definierten Bereiches nimmt ein Beobachter die
dargestellten Objekte stereoskopisch wahr. Da Stereoskopie zu den stärksten visuellen
Wahrnehmungsfaktoren gehört, haben die Beobachter den Eindruck ein reales Objekt vor sich
wahrzunehmen.
- 2. Mit Ändern der Beobachtungsposition, erfolgt auch eine entsprechende Änderung des
wahrgenommenen Objektes, wobei der stereoskopische Eindruck erhalten bleibt. Man kann also
um ein Objekt "herumschauen" und beispielsweise Details wahrnehmen, die aus der
ursprünglichen Beobachtungsposition nicht sichtbar waren. Diese Eigenschaft ist vom Betrachten
von Hologrammen bekannt, konnte bisher aber nicht elektronisch realisiert werden.
Dieses sogenannte "autostereoskopische" Sehen ist der Mensch von seiner natürlichen Wahrnehmung
gewöhnt, da sich die Augenpupillen im allgemeinen immer leicht bewegen und damit verbundene
Änderungen der Beobachtungsposition (Perspektive) auftreten. Rein stereoskopische
Bildwiedergabe, wo immer nur dieselben zwei Beobachtungsperspektiven gesehen werden (z. B. mit
Hilfe einer Polarisation- oder Shutterbrille), wird bei längerer Betrachtung als unnatürlich empfunden
und führt bei vielen Betrachtern sogar nach einiger Zeit zu Unwohlsein.
An Vorschlägen für autosteroskopische Verfahren mangelt es nicht, die hier jedoch nicht alle
gewürdigt werden können. Eine systematische Darstellung von Verfahren der 3D-Darstellung findet
sich in Ref. 1 (Takanori Okoshi, Three-Dimensional Imaging Techniques, Academic Press, 1976).
Ref. 2/3/4/5/6/ verweisen auf die Patente und Veröffentlichungen für autosteroskopische Verfahren,
die nach unserer Recherche den gegenwärtigen Stand der Technik charakterisieren. In der einen oder
anderen Weise haben jedoch alle diese Verfahren Nachteile, die deren praktische Umsetzung für die
meisten Anwendungen nicht zuläßt:
Collender (Robert B. Collander, 3-D Television, Movies, and Computer Graphics without Glasses,
IEEE Trans. Consumer Electronics, Vol. CE-32(1), Febr. 1986) hat als einer der Ersten, das Time-
Multiplexing von Perspektiven vorgeschlagen. Sein System arbeitet im Projektionsmode und
verwendet einen speziellen Projektionsschirm mit einer integrierten Fresnellinse. Unterhalb des
Schirms beimden sich ein oder mehrere Projektoren, die relativ zum Schirm eine Rotationsbewegung
ausführen. Die mechanische Ausführung und die speziellen Eigenschaften des Projektionsschirms
beschränken den möglichen Einsatz eines solchen Systems.
Eichenlaub beschreibt in Ref. 3 (Jesse B. Eichenlaub, Three dimensional imaging system, U. S. Patent
4367486, Jan. 1983) und Ref. 4 (Jesse B. Eichenlaub, Autostereoscopic display with illuminating lines
and light valve, European Patent EP 0316465 A1, May 1989) ein Verfahren, in dem das Multiplexen
von Perspektiven durch eine spezielle Anordnung von Lichtquellen und eines sich davor befindlichen
Lichtmodulators realisiert wird. Das System zeichnet sich insbesondere durch sein kompaktes Design
aus. Jedoch haben die heute verfügbaren Lichtmodulatoren nicht die benötigte Bandbreite für die
Darstellung einer größeren Anzahl von Perspektiven.
Meacham hat in Ref. 5 (G. B. Kirby Meacham, Autostereoscopic displays - past and future, SPIE
Vol. 624, Advances in Display Technology VI, 1986) eine Weiterentwicklung des Collender
Verfahrens vorgenommen, das ebenfalls ein kompaktes Design erlaubt. In seinem System muß die
Perspektivinformation, durch Dunkelbereiche getrennt werden, was effektiv die Bildauflösung
einschränkt und auch das Design verkompliziert.
Travis beschreibt in Ref. 6 (Adrian Robert Travis, Colour Autostereoscopic Display, International
Publication Number WO 95/14353, May 1995) eine Methode, die der von Eichenlaub sehr ähnlich
ist. Jedoch wird das Design so umgestaltet, daß der Gebrauch des Lichtmodulators zur
Perspektivenbildmodulation umgangen wird. Dies wird durch ein kompliziertes System von optischen
Komponenten erreicht.
Ein weiteres Verfahren, daß den Anforderungen an ein perfektes autossteroskopisches Display sehr
nahe kommt, ist in Ref. 7 (D. Just und H. Rurige, Patent DE 41 23 895 A1, 1994) beschrieben. Es
beruht auf der Verwendung eines optischen Verschlusses, im Folgenden "Apertur" genannt (praktisch
wird meistens eine Schlitzapertur verwendet), die sich in einem geeigneten Abstand vor einem
Monitor bewegt. Der Monitor ist derart modifiziert, daß er mit einer höheren Bildwiedergaberate
arbeitet, als es für die normale Bild- und Fersehwiedergabe erforderlich ist. Bei der Bewegung der
Apertur kann es sich um eine echte mechanische Bewegung handeln oder um die Pseudobewegung
einer elektro-optisch kontrollierbaren Apertur. Für praktische Systeme werden wahrscheinlich nur
elektro-optische Verschlüsse (im folgenden als "Shutter" bezeichnet) in Frage kommen, für die es
eine Reihe von verschiedenen Technologien gibt. Gegenwärtig sind ferroelektrische Flüssigkristalle
in Hinblick auf Schaltzeiten und verfügbare Größe die geeignetesten Shutter. Durch Herabsetzung der
Bildwiederholraten, wie es durch die Verwendung des erfindungsgemäßen Verfahrens ermöglicht
wird, kommen auch andere Flüssigkristalle in Frage, z. B. die Doppel-Pi Zelle. Außerdem eignen sich
auch elektro-optische Kristalle, z. B. KTP, zur Verwendung als Shutter. Diese Kristalle können heute
mit Seitenlängen von 50 cm in sehr kurzer Zeit gezüchtet werden.
Unabhängig von der praktischen Realisierung des Shutters werden synchron mit der
Aperturbewegung auf dem Monitor Perspektivdarstellungen gezeigt, die von den geometrischen
Zentren der Aperturpositionen, z. B. mittels einer Kamera, aufgenommen wurden. Bewegt sich die
Apertur schnell genug über die Bildschirmfläche, so wird die Bewegung von einem Betrachter nicht
mehr aufgelöst und die Perspektivdarstellungen verschmelzen zu einer dreidimensionalen
Wahrnehmung. Wir bezeichnen dieses Verfahren im Folgenden als das Einfach-Apertur Verfahren,
da immer nur eine einzelne Apertur zu jedem Zeitpunkt geöffnet ist.
Insbesondere ist das Einfach-Apertur Verfahren durch folgende Eigenschaften ausgezeichnet:
- - Es gibt keine Beschränkung durch Beobachtungszonen, wie man sie bei fast allen anderen
autosteroskopischen Verfahren findet. Der Beobachter kann sich völlig frei seitlich und/oder vor-
und zurück bewegen, ohne den autosteroskopischen Eindruck zu verlieren. Nur in extremen
Beobachtungspositionen, die aber praktisch völlig irrelevant sind, z. B. bei sehr großen oder
kleinen Beobachtungsabständen oder in extremen Seitenpositionen, kann es zu Qualitätseinbußen
kommen. Die beschriebene Eigenschaft impliziert bereits, daß es auch für eine beliebige Anzahl
von Beobachtern keine Einschränkung gibt: jeder Betrachter nimmt die dargestellte 3D Szene aus
der für seine Position richtigen Perspektive wahr!
- - Der oder die Beobachter benötigen keine Sehhilfen (wie Polarsations- oder Shutterbrillen) oder
irgendwelche anderen, oft als lästig empfundenen Hilfsmittel (z. B. für sog. Headtracking),
sondern sie sind völlig frei und, unbehindert.
- - Das Verfahren ist von den Komponenten überaus einfach aufgebaut: es benötigt einen
"normalen" Monitor mit einer modifizierten, höheren Bildwiederholrate als sonst üblich und eine
bewegliche Apertur, die sich in einem geeigneten Abstand vor diesem Monitor befindet. Die
Apertur kann mechanisch oder nicht-mechanisch realisiert werden. Dazu kommt natürlich die
elektronische Steuerung die für das Funktionieren unabdingbar ist. Es wird keine weitere Optik
benötigt und es sind keine besonderen Justierungen, z. B. zwischen Monitor und Apertur,
erforderlich.
Obwohl das Verfahren durch seine Simplizität besticht, gibt es auch hier einige Nachteile die für eine
kommerzielle Anwendung zumindest hinderlich sind:
- 1. Zum einen erfordert die in Ref. 7 beschriebene Konstruktion ein großes Volumen. Im besten Fall,
bei geeigneter Faltung des Lichtweges, benötigt man in etwa die Dimensionen eines großen CRT
Monitors.
- 2. Es besteht eine Kopplung zwischen der Breite der Einfach-Apertur und der Anzahl der
Perspektiven, die dazu führt, daß das Verfahren für eine sehr geringe Perspektivenanzahl,
insbesondere also für den stereoskopischen Grenzfall, nicht geeignet ist.
- 3. Das Verfahren ist mit recht hohen Lichtverlusten behaftet, so daß ein sehr heller Bildschirm
erforderlich ist.
- 4. Die erforderliche Bilddatenrate ist sehr hoch und läßt sich nur mit wenigen derzeit verfügbaren
Displaytechniken realisieren.
- 5. Bei Verwendung von Perspektivdarstellungen, wie sie bei anderen autosteroskopischen Verfahren
gebräuchlich sind (siehe z. B. Ref. 2), ergeben sich geometrische Verzerrungen, die beim
Betrachten von Szenen störend in Erscheinung treten können.
Insbesondere Punkt 3) und 4) erschweren die praktische Realisierung des Systems. Die erforderliche
Bildwiederholrate ergibt sich aus der Standardbildrate für eine flimmerfreie Darstellung (typisch 50-70 Hz)
und der Anzahl der benötigten perspektivischen Ansichten (typisch eine Ansicht pro Grad
Raumwinkel). Für große Blickwinkelbereiche von typisch 90-180 Grad, wie sie das in Ref. 7
beschriebene System ermöglicht, kommt man daher auf Bildwiederholraten von mehreren tausend
Hertz. Darüber hinaus ist die Bildhelligkeit umkehrt proportional zur Anzahl der Perspektiven
herabgesetzt. So eindrucksvoll der Blickwinkelbereich eines solchen Systems auch ist, in der Praxis
ist er meistens irrelevant, da man vor einem Arbeitsplatzrechner oder einem Videobildschirm
meistens nur einen relativ begrenzten Bewegungsspielraum nutzt, z. B. durch leichte Kopf- und
Körperbewegungen sowie geringfügige Abstandsveränderungen zum Bildschirm. Außerdem kann
durch elektronische Manipulation ein 3D-Objekt beliebig gedreht und von allen Seiten betrachtet
werden. Die hier beschriebene Erfindung, in allen ihren verschiedenen Ausführungsformen, macht
sich diese Einsicht zu Nutze und vermeidet durch das erfindungsgemäße Verfahren die Nachteile des
in Ref. 7 beschriebenen Verfahrens. Neben den Verbesserungen von Bildwiederholraten und
Bildhelligkeit, lassen sich auch wesentlich kompaktere Ausführungsformen, bis hin zum
Flachbildmonitor, erzielen. Einige Ausführungsformen sind sowohl für sehr kleine (bis hin zum
stereoskopischen Grenzfall), als auch für große Perspektivenzahlen geeignet, so daß sie sich adaptiv
für verschiedene Applikationen einsetzen lassen. Durch die die korrekte Erzeugung und
Prozessierung der Perspektivbilder, läßt sich eine verzerrungsfreie Darstellung erzielen. Diese
geometrische Verarbeitung der Perspektivbilder kann auch bei dem in Ref. 7 beschriebene Verfahren
zum Vorteil angewandt werden.
Im weiteren werden zunächst die in der Patentschrift wiedergegebenen Zeichnungen erklärt, um dann
mit Hilfe der zeichnerischen Darstellungen die Wirkungsweise des erfindungsgemäßen Verfahrens
und seiner Ausführungsformen, sowie die aus diesen Darlegungen abgeleiteten Patentansprüche zu
erläutern.
Fig. 1 zeigt die perspektivische Betrachtung einer dreidimensionalen Szene (bestehend aus einem
Würfel und einer Kegelpyramide) und einer sich vor dieser befindlichen Beobachtungslinie, mit den
markierten Positionen B0 und Bi . Weiterhin ist eine imaginäre Projektionsebene E zu sehen, in der
sich die zu den Beobachtungspositionen Bi gehörigen Perspektiven als Schnittpunkte der Sehstrahlen
BiP, d. h. der Verbindungslinien von einem, Szenenpunkt P zur Beobachtungsposition, ergeben. Im
Beobachtungspunkt B0 ist ein linkshändiges Koordinatensystem x,y,z verankert, die positive z-Achse
zeigt zum Szenenmittelpunkt PM (hier beliebig als Zentrum des Würfels angenommen). Die
Projektionsebene E ist co-planar zur x,y-Ebene und verwendet co-planare Koordinaten xp,yp zur
Festlegung der Perspektiven.
Fig. 2 zeigt die gleiche geometrische Konfiguration wie in Fig. 1 in der Draufsicht.
Fig. 3 zeigt ebenfalls die Draufsicht der geometrische Konfiguration aus Fig. 1. Als Projektionsebene
mit den Koordinaten x'p, y'p wird hier nicht mehr die Ebene E verwendet, sondern eine senkrecht zum
Sehstrahl BiPM (Beobachtungspunkt-Szenenzentrum) verlaufende Ebene E'. Dadurch ergeben sich
Perspektivdarstellungen wie sie mit einer regulären Kamera (schematisch angedeutet) aus der
Beobachtungsposition aufgenommen würden (bis auf die Skalierung).
Fig. 4 ist identisch mit Fig. 3 nur sind die Beobachtungspunkte kreisförmig um den Szenenmittelpunkt
angeordnet (aus Gründen der Anschauung ist auch die ursprüngliche Beobachtungslinie
eingezeichnet). Analog wie in Fig. 3 wird auch hier als Projektionsebene. (Koordinaten x'p, y'p) eine
senkrecht zum Sehstrahl BiPMit, (Beobachtungspunkt-Szenenzentrum) errichtete Ebene E' verwendet.
Die Kamerainterpretation der sich ergebenden Perspektiven ist auch hier genau wie in Fig. 3.
Fig. 5 ist identisch mit Fig. 3 nur wird hier die Kamera in der sogenannten Scheimflug Konfiguration
verwendet. Dabei ist die Filmebene der Kamera um den selben Winkel zur Kameraachse geneigt, wie
die Fensterebene E. Diese geneigte Abbildungsebene der Kamera ist bei dieser Geometrie die
Projektionsebene E'.
Fig. 6 zeigt ein Blockschaltbild des erfindungsgemäßen Verfahrens: Eine Dateneingangsstufe
übernimmt das Einlesen und Formatieren der unterschiedlichen Datensätze die für eine 3D-
Darstellung verwendet werden können. Eine weitere Funktion dieser Prozessierungseinheit ist die
optionale geometrische Korrektion der Daten. Die Dateneingangsstufe überträgt die so prozessierten
Bilddaten an das nachfolgende Modul. Dieses nimmt eine Perspektiven-Verschachtelung nach dem
im Text beschriebenen Verfahren vor. Diese verschachtelten Perspektiven, hier als Bildkomposite
bezeichnet, werden direkt zum Bildschirm übertragen. Beide Module werden von einer Steuereinheit
kontrolliert und geben Statusinformation an diese zurück, woraus die Steuereinheit ein
Synchronisationssignal ableitet und zum Bildschirm und Shutter sendet. Dieses Signal synchronisiert
das Öffnen der richtigen Shutteraperturen mit den Bildkompositen.
Fig. 7a, b, c zeigt eine Darstellung Verfahrens 1 für drei gleichzeitig geöffnete Aperturen (1, 4, 7 in Fig.
7a oder 3, 6, 9 in Fig. 7b). Die Teilperspektiven der Breite D ergeben sich durch den Schnitt der
Strahlen die von den hinter den Aperturen gelegenen Projektionszentren ausgehen, mit der
Bildschirmebene. Zu jedem Zeitpunkt sind die Teilperspektiven der Breite D nebeneinander auf dem
Bildschirm angeordnet die ein Bildkomposit ausmachen. Für jede Aperturgruppe ergibt sich eine Zone
der störungsfreien Wahrnehmung, die fett eingezeichnet ist. Fig. 7a und 7b zeigen die
Wahrnehmungszonen zu zwei unterschiedlichen Zeitpunkten des Multiplexzyklus. In dem gezeigten
Beispiel sind drei Takte notwendig um alle Aperturen einmal zu öffnen. Fig. 7a entspricht dem ersten
Zeittakt (Apertur 1, 4, 7 geöffnet), während Fig. 7b den dritten Zeittakt wiedergibt (Apertur 3, 6 und 9
geöffnet). Fig. 7c zeigt die Wiedergabe der Wahrnehmungszone wie sie sich aus dem Durchschnitt der
Zonen für alle Aperturgruppen ergibt.
Fig. 8 zeigt die "direkte" Erzeugung der Bildkomposite, wie sie sich aus entsprechenden
Kameraaufnahmen gewinnen lassen. Die Kameras sind in den Projektionszentren für die einzelnen
Teilperspektiven im geringen Abstand zur Aperturebene positioniert. Die Aperturen vor den Kameras
begrenzen das Blickfeld auf ein dahinterliegendes 3D-Objekt von dem daher nur Segmente
wahrgenommen werden. Die abgebildeten Segmente, genannt Kamerabildsegmente, werden dann zu
einem Komposit zusammengefügt, wie es der relativen Lage der Segmente entspricht (dabei müssen
eventuelle Spiegelungen der Bildaufnahmevorichtung berücksichtigt werden) und dann zum
Bildschirm übertragen.
Fig. 9 zeigt eine Darstellung des Verfahrens 2 bei dem sich die Teilperspektiven der Breite D hinter
einer Aperturebene beimden. Die zu einem Zeitpunkt geöffneten Aperturen (fett eingezeichnet) haben
den Abstand Sp und die Breite S. Mit dem Durchschalten aller Aperturgruppen innerhalb eines Zyklus
wird die gesamte Shutterapertur einmal geöffnet. Synchron mit dem Öffnen einer Aperturgruppe
werden auf dem Bildschirm die entsprechenden Teilperspektiven der Breite D wiedergegeben. Nach
Konstruktion kommen in einem Abstand L vor der Aperturebene auf einer Sehlinie der Breite W die
Beobachtungszonen aller Teilperspektiven zur Deckung.
Fig. 10 veranschaulicht die "indirekte" Erzeugung der Bildkomposite am Beispiel einer zentralen
Teilperspektive. Für ein komplettes Bildkomposit müssen alle anderen Teilperspektiven in der
gleichen Weise erzeugt und hinzugefügt werden. Anstatt eine Kamera im Projektionszentrum zu
positionieren kann die Teilperspektive auch von einer weiter entfernten Sehlinie W mit Hilfe von
mehreren Kameraaufnahmen gemacht werden. Dabei wird die Sehlinie in eine Anzahl von
Beobachtungszonen aufgeteilt, im dargestellten Beispiel sind dies fünf, die, durch die Apertur auf dem
Bildschirm in entsprechende Segmente abgebildet werden. Hat man eine vom Beobachtungspunkt Bi
aufgenommene Vollperspektive vorliegen, so findet sich dieses Segment an der entsprechenden
Position wieder, so daß sich die Teilperspektive durch das Aneinanderfügen der entsprechenden
Segmente der Vollperspektiven erzeugen läßt.
Fig. 11 zeigt eine extremes Ausführungsbeispiel nach Verfahren 2, bei dem jedem Bildschirmpunkt
eine Anordnung von Microaperturen zugeordnet ist, deren Öffnen und Schließen synchron zur
Variation der Perspektivenhelligkeit des Bildschirmpunktes erfolgt.
Fig. 12a zeigt den Intensitätsverlauf eines Bildschirmpunktes über 6 Zeittakte eines Multiplexzyklus
(entsprechend 6 vorhandenen Aperturen), so wie die integrierte Helligkeit der dritten Apertur über
diesem Multiplexzyklus (schraffierte Fläche in Fig. 12b). Der kleinste auftretende Intensitätswert in
Fig. 12a ist Imin. Fig. 12b zeigt die Aperturhelligkeit für die dritte Apertur gemäß des Einfach-
Aperturverfahrens, bei dem die Apertur nur für einen Zeittakt geöffnet ist. Fig. 12c zeigt eine
Aufspaltung der Intensität in den Basisanteil IB und Modulationsanteil IM. IB ist ein sechstel des
Minimalwertes Imin, und wird ständig durch alle Aperturen durchgelassen, so daß die integrierte
Aperturhelligkeit in Fig. 12d (schraffierte Fläche) genau der von Fig. 12b entspricht, obwohl der
Intensitätsverlauf in Fig. 12c kleiner ist als der ursprüngliche Verlauf.
Fig. 13a zeigt ähnlich wie in Fig. 12c eine Zerlegung in Basis- und Modulationsanteil, nur ist die
Zerlegung hier spezifisch für jede von zwei Schaltgruppen vorgenommen. Fig. 13b zeigt, daß auch
hier die integrierte Aperturhelligkeit identisch mit der von Fig. 12b ist. Fig. 13c zeigt eine Zerlegung
für drei Schaltgruppen. Die in den Intensitätsbalken eingezeichneten Pfeile verdeutlichen die
Polarisationsrichtung mit der die entsprechenden Lichtanteile kodiert werden. In der selben Weise
zeigt Fig. 13d die Aperturhelligkeit in Abhängigkeit von der Polarisation über den Multiplexzyklus.
Fig. 14 zeigt den Basis- und Modulationsanteil entsprechend ihrer Modulationsrichtung (Basisanteil in
horizontaler und Modulationsanteil in vertikaler Polarisation). Beide Anteile treten durch eine
Vorrichtung von zwei elektrooptischen Modulatoren hinter denen sich jeweils ein Polarisator befindet
(durchlassend für vertikale Polarisation und sperrend für horizontale Polarisation). Durch Anlegen
einer Spannung an den ersten elektrooptischen Modulator kann die Eingangspolarisation um 90 Grad
gedreht werden, d. h. der Basisanteil tritt in vertikaler Position und der Modulationsanteil in
horizontaler Polarisation aus. Da der erste Polarisator nur Licht vertikaler Polarisation durchläßt,
kann durch Anlegen einer Spannung am ersten Modulator vom Modulationsanteil zum Basisanteil
geschaltet werden. Durch Anlegen einer Spannung an den zweiten elektro-optischen Modulator kann
das immer in vertikaler Polarisation eintretende Licht ebenfalls um 90 Grad gedreht werden. In
diesem Fall tritt kein Licht mehr durch den zweiten vertikalen Polarisator und das Element ist
lichtundurchlässig.
Fig. 15 zeigt wie an den Seitenflächen von zwei in geringem Abstand gegenüberliegenden, geöffneten
Aperturelementen (fett eingezeichnet) ein Abblocken des Lichtes auftritt, was sich visuell wie der
Blick durch einen Lattenzaun bemerkbar macht (Fig. 15a). Durch transparentschalten von
benachbarten Aperturelementen bei einem der beiden Verschlüsse wird dieser Lattenzauneffekt
unterdrückt, ohne das eine merkliche Änderung des Kontrastverhältnisses stattfindet (Fig. 15b).
Fig. 16 zeigt die Prozessierungseinheit zur Ausnutzung von Helligkeitskorrelationen zwischen
Perspektiven. Dabei befinden sich die Perspektivbilder in einem Bildspeicher. Ein
Arithmetikprozessor bestimmt für jedes Pixel die optimale Zerlegung in. Schaltgruppen gemäß des
erfindungsgemäßen Verfahrens. Daraus resultieren dann ein Basisanteil und die Modulatiosanteile.
Man beachte, daß der Basisanteil, per Definition, allen Perspektiven einer Schaltgruppe gemeinsam
ist.
Wir beschreiben zuerst die Bedingungen für den geometrisch korrekten Bildaufnahmeprozeß der
inhärent mit der verzerrungsfreien 3D-Wiedergabe verbunden ist und anhand dessen sich auch am
besten das Prinzip der autostereoskopischen Wiedergabe erklären läßt. Betrachtet man eine
dreidimensionale Szene, so ergeben sich abhängig von der Beobachtersituation verschiedene
perspektivische Ansichten der Szene. Ohne Beschränkung der Allgemeinheit betrachten wir hier nur
Veränderungen mit horizontaler Parallaxe, d. h. es sind nur Positionen längs einer horizontalen
Beobachtungslinie erlaubt. Der allgemeine Fall, beliebiger Beobachtungsveränderungen läßt sich
leicht aus dem Fall der horizontalen Parallaxe ableiten, ist aber in der Praxis wenig relevant, da die
Augen eines menschlichen Betrachters horizontal angeordnet sind.
Ferner gibt es bei jeder Bildwiedergabe praktische Beschränkungen in den Dimensionen,
beispielsweise hat ein Monitor nur eine endliche Ausdehnung. Dies läßt sich am besten dadurch
beschreiben, daß man annimmt, die 3D-Szene werde durch ein Fenster betrachtet. Fig. 1a zeigt eine
perspektivische Ansicht dieser Verhältnisse und Fig. 1b diesselbe Situation in der Draufsicht. Der
Mittelpunkt PM der Szene liege beispielsweise im Zentrum des Würfels. Die Beobachtungspositionen
Bi (-N<i<N) befinden sich längs einer horizontalen Linie, die vor dem Beobachtungsfenster und
parallel zu den waagerechten Fensterkanten verläuft. Wir definieren ein Koordinatensystem im Punkt
B0, mit der z-Achse in Richtung der Verbindungslinie B0PM und der x-Achse entlang der horizontalen
Beobachtungslinie. Die y-Achse ergänzt das Koordinatensystem linkshändig. Bei (xp,yp) der
Schnittpunkt der Verbindungslinie von einem Beobachtungspunkt Bi zu einem beliebigen
Szenenpunkt P mit den Koordinaten (x,y,z) und der Fensterebene. Für eine beliebige aber feste
Beobachtungsposition, definiert die Gesamtheit der Schnittpunkte (xp,yp) für alle Szenenpunkte P die
Perspektive Bi. Punkte in der Szene die von anderen verdeckt werden, sind dabei nicht sichtbar -
jedoch können diese Punkte von einer anderen Position aus in Erscheinung treten. Aus der Geometrie
von Fig. 1a, b kann die Relation zwischen den Objektkoordinaten (x,y,z) und den
Perspektivkoordinaten (xp,yp) abgeleitet werden. Es gilt mit den Notationen aus Fig. 1:
Um eine verzerrungsfreie Darstellung der 3D Szene in der Wiedergabe zu gewährleisten, ist es
erforderlich, daß die Perspektivdarstellungen einer Szene nach Gleichung 1 bestimmt werden. Die bei
anderen autosteroskopischen Verfahren verwendeten Perspektivbilder kommen dieser Forderung nur
approximativ nach. Hier sind insbesondere zwei Methoden der Pespektivengenerierung zu nennen die
in Fig. 3 und Fig. 4 in der Draufsicht gezeigt sind. In Fig. 3 werden die Perspektivdarstellungen genau
wie in Fig. 2 von einem Punkt gewonnen, der sich auf der horizontalen Beobachtungslinie befindet.
Der Unterschied ist jedoch, das hier die Projektionsebene E' nicht mehr mit der Fensterebene E
zusammenfällt, sondern senkrecht zum Sehstrahl Bi PM verläuft. Die Perspektiven die durch diese
Projektion gewonnen werden, entsprechen der Bildaufnahme durch eine Kamera am Ort Bi (in der
Näherung der geometrischen Optik). Durch die üblichen Brennweiten erfolgt natürlich keine 1 : 1-
Abbildung, aber dies macht sich nur als globaler Skalierungsfaktor bemerkbar. Fig. 3 entnimmt man
den Zusammenhang zwischen den planaren Projektionskoordinaten und den räumlichen
Szenenkoordinaten x,y,z (Notationen wie in Fig. 3):
Ähnlich wie in Fig. 3 werden auch die Perspektivdarstellungen in Fig. 4 erzeugt, nur bewegt sich der
Beobachtungspunkt Bi nun auf einer Kreisbahn um den Szenenmittelpunkt PM. Auch hier ist die
Projektionsebene E' senkrecht zum Sehstrahl BiPM orientiert und daher verschieden von der
Fensterebene E. Wiederum entnimmt man aus Fig. 4 den Zusammenhang zwischen den planaren
Koordinaten und den Szenenkoordinaten (Notationen wie in Fig. 4):
Ein Vergleich von Gl. 1, 2, und 3 zeigt, das die Koordinatentransformationen für kleine Winkel
ungefähr gleich und für die Mittenperspektiven B0 sogar identisch zueinander sind. Für große
Winkel sind die Abweichungen aber nicht immerzu vernachlässigen, so das Verzerrungen im Bild
auftreten, wenn die Perspektivkoordinaten xp,yp nach Gleichung 2 bzw. 3, anstatt nach Gleichung 1
berechnet werden.
Sollen die Perspektiven von einer realen Szene mittels einer Kamera konform mit Gleichung 1
erzeugt werden, so ist es vorteilhaft die Kamera in der Scheimflug Konfiguration zu benutzen. Dabei
ist die Filmebene der Kamera relativ zur optischen Achse geneigt und zwar in der gleichen Weise wie
die Fensterebene E. Fig. 5 zeigt diesen Fall für die Aufnahmegeometrie aus Fig. 3. Es läßt sich zeigen,
daß in diesem Fall für die Projektionskoordinaten gilt:
Damit ist die Projektionskoordinate xp bis auf den Skalierungsfaktor mit der exakten Gleichung 1
identisch. Die unkorrigierte Koordinate yp kann durch Neigung der Kameraebene in der orthogonalen
Richtung in der gleichen Weise korrigiert werden.
Eine weitere Möglichkeit, ist die Verwendung eines 3D-Scanners, mit dem sich direkt die
Raumkoordinaten x,y,z bestimmen lassen, die sich dann einfach durch Einsetzen in Gleichung 1 in
korrekte Perspektivdarstellungen umwandeln lassen. Auch bei den handelsüblichen
Computerprogrammen zur Erzeugung von Perspektiven sind meistens nur die Kameramethoden nach
Gleichung 2 und 3 implementiert, jedoch kann ein Zusatzmodul hier in recht einfacher Weise auch
die Transformation nach Gleichung I liefern. Die mit inhärenten 3D-Aufnahmeverfahren, z. B. bei der
medizinischen Tomographie, gewonnenen, digitalen Datensätze sind meistens auch in
Raumkoordinaten gespeichert (wobei es sich auch um abstrakte oder virtuelle Räume handeln kann)
und können damit analog zu 3D-Scanner Daten behandelt werden.
Liegen hingegen nur normale Perspektivaufnahmen einer Szene vor, so müssen diese korrigiert
werden, um in jedem Fall eine verzerrungsfreie Darstellung zu gewährleisten. Dabei kann man wie
folgt vorgehen:
- a) Zunächst müssen die Korrespondenzpunkte in den Perspektiven identifiziert werden, die einem
Szenenpunkt entsprechen. Dazu gibt es bereits eine Anzahl von Verfahren, die in der Literatur
beschrieben sind.
- b) Mit Hilfe der gefundenen Korrespondenzpunkte können Gleichung 2 und 3 nach den
Szenenkoordinaten aufgelöst werden.
- c) Im letzten Schritt berechnet man aus den Szenenkoordinaten nach Gleichung 1 die korrigierten
Perspektiven.
Die Korrektur der Perspektiven kann in Echtzeit oder Offline erfolgen.
Im folgenden setzen wir voraus, daß die Perspektiven in der korrekten geometrischen Repräsentation
vorliegen. Nehmen wir an, diese Perspektiv- oder Projektionspunkte einer 3D-Szene seien zusammen
mit den zugehörigen Lichtintensitäten (und der Farbinformation) mit denen die Bildpunkte der Szene
strahlen abgespeichert (analog oder digital). Man kann nun einen Beobachter mit Hilfe dieser
Perspektiven, den gleichen visuellen Eindruck vermitteln wie dem Betrachter der realen Szene, wenn
man es erreicht, die zu einer Beobachtungsposition zugehörige Perspektive nur von eben dieser einen
Position aus sichtbar werden zu lassen und von keiner anderen. Bei Stereohologrammen löst man
diese Anforderung, indem man die Perspektiven in Hologrammstreifen kodiert, die dann,
entsprechend der Perspektivenabfolge, aneinander gesetzt werden. Schaut ein Betrachter durch einen
einzelnen Hologrammstreifen, so sieht er die kodierte Perspektivansicht in einer Ebene hinter dem
Hologramm rekonstruiert. Bewegt man sich längs der Hologrammstreifen, so ergibt sich genau die
Perspektivenabfolge wie in der natürlichen Betrachtung. Die Hologrammstreifen sind dabei so
schmal, das die beiden Augen eines Beobachters einen Szenenpunkt immer nur durch zwei
unterschiedliche Hologramme wahrnehmen können, woraus sich die Stereowahrnehmung ergibt. Eine
andere technische Lösung für das Problem besteht in der Verwendung einer bewegten Schlitzapertur:
wenn die Apertur um eine der Beobachtungspositionen zentriert ist, zeigt man auf einem Monitor der
in der Fensterebene plaziert ist, die zugehörige Perspektivansicht, also die, die beispielsweise von
einer Kamera in dieser Position aufgenommen wurde. Danach bewegt sich die Apertur zur nächsten
Position und so fort, bis sich der Vorgang wieder von vorne wiederholt. Natürlich muß die Bewegung
der Apertur schnell genug erfolgen, um von einem Beobachter nicht mehr aufgelöst werden zu
können. Außerdem muß die Synchronisation der Perspektivdarstellungen auf dem Monitor mit der
Aperturbewegung sichergestellt sein. Diese Lösung ist das in Ref. 7 dargelegte Einfach-Apertur
Verfahren.
Die hier beschriebene Erfindung setzt auf dieser Idee auf, verwendet aber mehrere Aperturen,
wodurch sich die oben aufgeführten Nachteile des Einfach-Aperturverfahrens vermeiden lassen. Wir
beschreiben hier zwei technische Ausführungsformen, die sich in der Konstruktion und in den
Displayeigenschaften etwas voneinander unterscheiden. Beide Ausführungsformen basieren auf der
Verwendung von mehreren simultan geöffneten Aperturen innerhalb eines Zeittaktes des
Multiplexzyklus. Im nächsten Takt wird dann die momentan geöffnete Aperturgruppe geschlossen
und die nächste Gruppe von Aperturen geöffnet und so fort, bis sich der Vorgang mit dem
Einschalten der ersten Aperturgruppe wiederholt. Gleichzeitig mit dem Öffnen der Aperturen, muß
auf dem Bildschirm die entsprechende Perspektivinformation, die als Bildkomposit bezeichnet wird,
gezeigt werden, die sich anders wie beim Einfach-Apertur Verfahren, aus mehreren Teilausschnitten
von "konventionellen" Perspektiven zusammensetzt, da sich ja die simultan geöffneten Aperturen die
Bildschirmfläche für die zugehörige Perspektivdarstellung teilen müßen. Die beiden
Ausführungsformen unterscheiden sich in der geometrischen Positionierung dieser Teilausschnitte
relativ zu den geöffneten Aperturen:
- a) beim Multi-Apertur Verfahren I sind die perspektivischen Teilausschnitte genau hinter den
geöffneten Aperturen zentriert (Fig. 7a, b). Während eines Multiplextaktes werden in der
Aperturebene mehrere Aperturschlitze im äquidistantem Abstand simultan geöffnet (in Fig. 7a sind
dies die fett markierten Schlitze mit der Numerierung 1, 4, 7). Fig. 7a zeigt den Fall, in dem die
Perspektivausschnitte, die zu den simultan geöffneten Aperturen gehören, direkt aneinandergesetzt
sind. Dadurch wird die verfügbare Bildschirmfläche am Besten genutzt, jedoch könnte man auch
Dunkelbereiche zwischen den Ausschnitten plazieren, um z. B. ein potentielles Übersprechen von
verschiedenen Perspektiven zu verhindern. Da für jede geöffnete Apertur nur ein streifenförmiger
Ausschnitt der ursprünglichen Vollperspektive dargestellt wird, ist der Bewegungsbereich für einen
Betrachter, innerhalb dessen er einen störungsfreien 3D-Eindruck hat, natürlich eingeschränkt. Der
Bereich innerhalb dessen sich ein Beobachter, relativ zu einem geöffnten Aperturschlitz, bewegen
kann läßt sich geometrisch aus der Breite der perspektivischen Teilausschnitte und der Kanten des
Aperturspalts bestimmen. Es ergibt sich für jede Apertur ein trichterförmiger Bereich der sich von
dem jedem Teilausschnitt zugeordneten Projektionszentrum in den Beobachtungsraum hinein
erstreckt (Fig. 7a, b). Bewegt sich ein Beobachter außerhalb dieser Bereiche, so kann es dazu kommen,
daß Perspektivausschnitte durch die Apertur wahrgenommen werden, die nicht zu dieser Apertur
gehören und daher eine Störung des 3D-Effektes verursachen. Da dies für jeden geöffneten Schlitz
gilt, ergibt sich die Zone einer störungsfreien 3D-Wahrnehmung nur im Überlappungsbereich der
erlaubten Wahrnehmungszonen für die einzelnen geöffneten Aperturen (in Fig. 7a, b fett
eingezeichnet). Die für eine Gruppe von geöffnten Aperturen beschriebenen Verhältnisse gelten
genauso für jede andere Aperturgruppe die im Verlauf des Multiplexzyklus geöffnet wird. Fig. 7b
zeigt die Aperturgruppe 3, 6, 9 im geöffneten Zustand (ebenfalls fett eingezeichnet). Der erlaubte
Wahrnehmungsbereich ist hier aber relativ zu jeder anderen Gruppe in dem Maße verschoben, wie es
der Verschiebung der beiden Aperturgruppen entspricht. Da der Beobachter innerhalb eines
Multiplexzyklus widerspruchsfreie Information von allen Aperturgruppen wahrnehmen sollte, ergibt
sich die Beobachtungszone für eine widerspruchsfreie 3D-Wahrnehmung als Durchschnitt der
gültigen Beobachtungszonen für alle Gruppen. Für die Konstruktion dieser Zone reicht es, den
Überlappungsbereich der ersten und letzten Aperturgruppe zu bestimmen, da dieser dann auch
automatisch für die dazwischenliegenden Gruppen Gültigkeit hat. Fig. 7c zeigt die Verhältnisse für
das Beispiel aus Fig. 7a, b. Für das praktische Design ist es wichtig den Abstand L der
Wahrnehmungszone zum Aperturebene, sowie den Abstand vom Beginn der Wahrnehmungszone zu
einer Sehline, mit vorgegebener Breite W, zu bestimmen. Mit den in Fig. 7a, b, c dargelegten
Bezeichnungen ergibt sich:
- 1. Eine typische Anzahl von gleichzeitig geöffneten Aperturen ist drei oder vier, jedoch kann der Wert
im Design variiert werden.
- 2. Beim Multi-Apertur Verfahren II werden die Perspektivausschnitte auf dem Bildschirm, ebenfalls
zur besten Ausnutzung der Bildschirmfläche aneinandergrenzend präsentiert. Während beim
Verfahren I die Aperturzentren den Mittelpunkten der Perspektivausschnitten gegenüberliegen, weicht
Verfahren II jedoch von dieser Geometrie ab: eine Anordnung von Aperturschlitzen wird den
Perspektivausschnitten jetzt so zugeordnet, daß der gültige Wahrnehmungsbereich für alle Schlitze, auf
einer vorgegeben Sehlinie W zusammenfällt (Fig. 9). Es ergibt sich aus der Geometrie, daß die
Anordnung der Schlitze wiederum periodisch ist (allerdings mit einer unterschiedlicher Periode Sp als
für die Perspektivausschnitte). Weiterhin ist auch die sich aus diesem Konstruktionsprinzip ergebende
Schlitzbreite s stets die gleiche für alle Schlitzpositionen. Die Sehlinie W kann beispielsweise so groß
gewählt werden, wie die Gesamtaperturbreite bei einem äquivalenten Einfach-Apertursystem. Damit
ergibt sich automatisch ein ähnlich großer Wahrnehmungsbereich innerhalb dessen sich ein oder
mehrere Beobachter frei bewegen können. Für die Designkonstruktion ist der Zusammenhang
zwischen der Schlitzperiode Sp innerhalb einer geöffneten Gruppe, der Schlitzbreite s, der Breite D
der Perspektivausschnitte, der Sehlinienbreite W, sowie der Abstände Bildschirm zu Aperturebene d
und Aperturebene zu Sehlinie L entscheidend. Aus der Geometrie von Fig. 9 laßen sich folgende
Relationen herleiten:
Die Anzahl der simultan geöffneten Schlitze ist auch hier ein variabler Designparameter und kann für
einige Konstruktionen 30 oder mehr betragen.
Aus den beschriebene Konstruktionsprinzipen ergeben sich auch für beide Verfahren die Anleitung
zum Aufbau der Bildkomposite. Dabei kann man einen "direkten" und einen "indirekten" Aufbau der
Bildkomposite unterscheiden. Beim direkten Aufbau (Fig. 8) wird jeder Teilausschnitt des
Bildkomposits vom zugehörigen Projektionzentrum aufgenommen oder erzeugt. Beispielsweise würde
man in diese Position eine Kamera positionieren, wenn es sich um die Aufnahme einer natürlichen
Szene handelt. Durch geeignete Beschränkung des Blickfeldes, z. B. durch Blenden, wird dann ein
Teilausschnitt der Breite D erzeugt. Aus den Aufnahmen mehrerer dieser Teilausschnitte, die jeweils
den simultan geöffneten Aperturen zugeordnet sind, wird dann das Bildkomposit zusammengesetzt.
Beim indirekten Aufbau des Bildkomposits (Fig. 10) bestimmt sich jeder Teilausschnitt selbst aus einer
Anzahl von Segmenten, wie sie von den Positionen Bi (i = -2..2) auf einer hinter dem
Projektionszentrum gelegenen Beobachtungslinie, sichtbar werden. Fig. 10 zeigt dies anhand von fünf
Beobachtungspositionen, bei denen sich die entsprechenden Segmente aus den fünf Vollperspektiven
entnehmen lassen. Eine Vollperspektive entspricht dabei, den Perspektiven die von den jeweiligen
Beobachtungspositionen aus ohne jegliche Aperturbeschränkung zu gewinnen sind. Im Extremfall
kann von jeder Vollperspektive nur noch eine Pixelspalte verwendet werden, so daß sich für eine
Anzahl von N Perspektiven die Breite D als N × Pixelabstand ergibt. Ein Vorteil dieses
Bildkompositaufbaus ist, daß bei Kameraaufnahmen nicht das Projektionzentrum verwendet werden
muß, sondern ein Abstand gewählt werden kann, der der Kameraoptik optimal entspricht. In einer
Echtzeitverarbeitung muß diese "Verschachtelung" von der elektronischen Prozessierungseinheit
ausgeführt werden (Fig. 6).
Entscheidend für die Reduzierung der Bildwiederholrate (und damit auch der Erhöhung der
Lichteffizienz) bei beiden Verfahren ist das Verhältnis des Abstandes von Schlitz zu Schlitz innerhalb
einer Gruppe, also SP, und der Schlitzbreite s. Dieses Verhältnis bestimmt die Anzahl der
erforderlichen Multiplexschritte und entspricht auch der Anzahl der "effektiven" Perspektiven. Die
Unterscheidung zwischen Perspektiven und "effektiven" Perspektiven ergibt sich aus der Tatsache,
daß eine Aperturöffnung nicht mehr alle Objektpunkte erfaßt, sondern nur noch die, die zu der
Teilansicht gehören. Die effektive Anzahl von Perspektiven, ist durch die Anzahl der verschiedenen
Ansichten festgelegt, mit der jeder beliebiger Objektpunkt während einen Multiplexzyklus dargestellt
werden soll. Die Gesamtanzahl der Perspektiven (genauer eigentlich der Teilperspektiven), die ja per
Definition immer größer ist als die effektive Perspektivenzahl, ist hingegen identisch mit der
Gesamtzahl der Aperturen und ergibt sich auch aus dem Produkt der Anzahl der simultan geöffnten
Aperturen und der effektiven Perspektivenzahl.
Obwohl das Multi-Apertur-Verfahren hier am Beispiel schlitzförmiger Aperturen erläutert wird, ist es
keineswegs darauf beschränkt. Eine andere Art der Multi-Apertur Gestaltung ist beispielsweise das
Öffnen mehrerer Kreissegmente in einer kreisförmigen Shutterfläche, wie es insbesondere in einer
Draufsichtgeometrie verwendet werden könnte.
Im folgenden geben wir einige Konstruktionsbeispiele an, die nach dem Verfahren I und II konstruiert
sind. Diese sollen nur beispielhaft für die Konstruktion in praktischen Applikationen stehen. Bei
beiden Verfahren müßen, neben den oben angeführten geometrischen Relationen, noch zwei weitere
Bedingungen für ein erfolgreiches Design beachtet werden, nämlich die Bedingung für
stereoskopische Wahrnehmung und für Unterdrückung des Flipping-Effektes (Ref. 7). Insbesondere die
Bedingung für stereoskopische Wahrnehmung ist kritisch für ein erfolgreiches Design und ist in den
Beispielen berücksichtigt wurden:
a) Verfahren I: Arbeitsplatzrechnerkonfiguration
Spaltbreite s = 1 cm
Bildschirmbreite B = 39 cm
Anzahl der Aperturen NT
= 27
Anzahl der geöffneten Aperturen No = 3
Abstand Bildschirm zu Aperturebene d = 26 cm
Sehlinie W = 15 cm im Abstand von 84 cm
b) Verfahren II: Arbeitsplatzrechnerkonfiguration
Spaltbreite s = 1 cm
Bildschirmbreite B = 30 cm
Anzahl der Aperturen NT
= 24
Anzahl der geöffneten Aperturen No = 6
Abstand Bildschirm zu Aperturebene d = 15 cm
Sehlinie W = 15 cm im Abstand von 60 cm
c) Verfahren II: Notebook-Konfiration
Spaltbreite s = 0.5 mm
Bildschirmbreite B = 25 cm
Anzahl der Aperturen NT
= 480
Anzahl der geöffneten Aperturen No = 48
Abstand Bildschirm zu Aperturebene d = 3.5 cm
Sehlinie W = 6.5 cm im Abstand von 52.5 cm
d) Verfahren II: TV/Video-Konfiguration
Spaltbreite s = 0.5 cm
Bildschirmbreite B = 39 cm
Anzahl der Aperturen NT
= 72
Anzahl der geöffneten Aperturen No = 3
Abstand Bildschirm zu Aperturebene d = 10 cm
Sehlinie W = 150 cm im Abstand von 120 cm
Die Breite W der Sehlinie ist in den angegebenen Beispielen für den Minimalabstand spezifiziert. Der
oder die Beobachter können sich auch in einen größeren Abstand plazieren, wobei sich die Sehlinie
vergrößert (siehe Fig. 7c).
Ein spezieller Fall ergibt sich aus einer Grenzbetrachtung von Verfahren II, bei dem man die
Perspekivausschnitte D auf nur noch ein Pixel beschränkt. Mit anderen Worten jedem
Bildschirmpunkt wird eine Mikroschlitzanordnung zugeordnet, von der jeweils eine Mikroapertur
entsprechend der darzustellenden Perspektive des Bildpunktes geöffnet wird (Fig. 11). Bei einem
Pixelabstand von 0.5 mm ergibt sich für typische Werte der Notebook-Konfiguration (W = 250 mm,
L = 750 mm) mit 12 Perspektiven eine Spaltbreite von s = 0.5/12 mm und eine Spaltperiode von ebenfalls
0.5 mm (die exakten Werte weichen geringfügig davon ab). Die geometrischen Dimensionen sind zwar
recht klein, jedoch innerhalb der Grenzen die sich heute fertigungstechnisch ohne weiteres herstellen
lassen. Der Vorteil einer solchen Konfiguration für die Steigerung der Bildhelligkeit wird im
Folgenden noch erkennbar werden.
Aus den Designbeispielen erkennt man, daß sich für eine große Zahl von Applikationen, z. B.
Workstation, Notebook, oder TV/Video, 3D-Systeme nach den hier beschriebenen Verfahren
konstruieren lassen. Bei Verfahren II können auch sehr kleine Perspektivenzahlen, bis hin zu einem
rein stereoskopischen Wiedergabesystem, realisiert werden. Natürlich ist bei rein stereoskopischer
Wiedergabe, die Beobachtungszone recht klein (+/- halber Augenabstand). Jedoch kann eine
stereoskopische Wiedergabe auch mit einem Headtrackingsystem gekoppelt werden. Mit
konfigurierbaren Schlitzbreiten, wie beispielsweise bei einem elektro-optischen Shutter, und einem
variablen Abstand zwischen Aperturebene und Bildschirm ließe sich das 3D-Wiedergabesystem
flexibel den verschiedensten Situationen anpassen. Grundlegend für das funktionieren des Multi-
Apertur-Verfahrens (I oder II) ist die Synchronisation der Bildkomposite mit den zu öffnenden
Aperturen. Fig. 6 zeigt das Steuerungs- und Prozessierungssystem. Je nach der Aufnahmegeometrie der
Eingangsdaten, sind von der Prozessierungseinheit auch geometrische Korrektionen und der Aufbau
der Bildkomposite, Perspektivenverschachtelung genannt, vorzunehmen.
Die Verschachtelung von Perspektiven erlaubt es im übrigen die bekannten Techniken mit
Polarisations-Farbfilterbrillen auf das beschriebene Bild-Aufnahme und Wiedergabeverfahren zu
übertragen.
Dazu werden jedoch nicht die Perspektivenkomposite in schneller Folge nacheinander, sondern
gleichzeitig auf dem Bildschirm gezeigt. Die Perspekiven-Komposite werden "gleichzeitig" auf dem
Bildschirm gezeigt, indem die Bilder von zwei Projektoren (mit jeweils einem Pol-Filter
unterschiedlicher Polarisationsrichtung) überlagert werden, oder die Bilder (langsamer) LCD-Paneels
oder CRTs polarisiert und dann mit einem Polarisationsteiler überlagert werden. Ein Sonderfall bildet
die Darstellung verschiedener Perspektiven mit unterschiedlichen Farben, die ja gleichzeitig von
praktisch jedem normalen Monitor erzeugt werden können. Wählt man beispielsweise eine
Schlitzbreite s = 1 cm, Teilperspektiven der Breite D = 2 cm und einen Abstand von Bildschirm und
Aperturebene d = 1 cm, so gibt es zwei Aperturgruppen, denen zwei Bildkompositgruppen zugeordnet
sind. Statt sie zu multiplexen, werden sie unterschiedlich polarisiert oder mit unterschiedliche Farben
dargestellt. Auf dem Bildschirm überlagern sich also ständig zwei Bildkomposite von denen eines
durch die erste Aperturgruppe und das andere durch die zweite Aperturgruppe gesehen wird. Wenn
man die Farb- und Polarisationskodierung verknüpft kann man sogar 6 verschiedene Bildkomposite
gleichzeitig zeigen. Die Shuttersegmente in dieser Ausführungsform sind aus vertikalen Streifen von
Polarisations- bzw. Farbfilterfolien aufgebaut. Sie sind völlig passiv und benötigen keinerlei
elektronische Steuerung.
Allerdings ist die Wahrnehmungszone für einen Betrachter vergleichsweise beschränkt. Wie schon
oben erwähnt, kann aber durch ein sog. Head Tracking System die Position des Betrachters in der
Horizontalen und sein Abstand zum Monitor bestimmt werden, worauf die Bildschirminformation
entsprechend der geänderten Beobachtungsposition geändert wird. Die Steuerungs- und
Prozessierungseinheit wären in diesem Fall analog zu Fig. 6, wobei allerdings die Shuttersteuerung
durch Head Tracking Einheit zu ersetzen ist. Der Bildprozessor wäre für das Verändern der
Bildinformation mit der getrackten Beobachterposition verantwortlich.
Zuletzt sei noch eine weitere erfindungsgemäße Methode der Helligkeitssteigerung beschrieben, die
auf der Beobachtung basiert, daß für die meisten Szenen, die Pixelwerte für die verschiedenen
Perspektiven stark korreliert sind. Die Helligkeit und Farbe ändert sich für ein Pixel zwischen
benachbarten Perspektiven oft nur geringfügig. Dies gilt insbesondere für die Pixel die nicht auf den
Rändern von Objekten liegen, sondern auf den Oberflächen. Hier ist diese Änderung sehr klein. Die
Bildhelligkeit I eines jeden Pixel kann in einen Basisanteil IB der mehreren Perspektiven gemeinsam
ist und einem Modulationsanteil IM zu zerlegen, der die eigentliche Änderung mit der Perspektive
darstellt:
Gleichung 7
I = IB
+ IM
Hierbei repräsentiert der Basisanteil allerdings nicht den Durchschnittswert der Perspektivintensitäten,
sondern den Minimalwert. Dies resultiert aus der Tatsache, daß Lichtintensitäten stets positiv sind und
daher der Modulationsanteil nicht vom Basisanteil subtrahiert, sondern nur hinzugefügt werden kann.
Für eine größere Anzahl von Perspektiven wird es daher wahrscheinlicher, das der Basisanteil kleiner
und der Modulationsanteil größer wird. Fig. 12a zeigt einen angenommenen Intensitätsverlauf für
einen Bildpunkt als Funktion der Zeit (mit 6 Zeittakten, entsprechend einer Anzahl von 6
Perspektiven). Für die wahrgenommene Helligkeit einer Perspektive ist nur die integrierte
Aperturhelligkeit entscheidend (vorausgesetzt der Multiplex-Vorgang läuft genügend schnell ab). Im
Standardmode wird durch das Ein- und Ausschalten der Aperturen, gerade der Anteil Sm(I) aus dem
Pixelintensitätsprofil herausgeschnitten, der für die Perspektive m wirksam werden soll (Fig. 12b).
Nehmen wir nun an, der 6te Teil der Minimalintensität Imin Intensitätsprofil von Fig. 12a würde
ständig, d. h. für alle Perspektiven (wir beschreiben nachfolgend wie das praktisch realisiert werden
kann), durch den Shutter durchgelassen. Der Modulationsanteil ergibt sich dann aus der Differenz der
ursprünglichen Intensitätswerte reduziert um die Minimalintensität. Insgesamt ergibt sich der gesamte
Intensitätsverlauf nach Gleichung 7 als Summe beider Anteile. Fig. 12c zeigt diesen Intensitätsverlauf
und Fig. 12d zeigt für diesen Fall die integrierte Aperturhelligkeit wiederum als schraffierte Fläche.
Nach Konstruktion sind die schraffierten Flächen in Fig. 12b und 12d identisch und gleiches gilt für
alle Aperturen, so daß man mit einem reduzierten Intensitätsverlauf wie in Fig. 12c dargestellt, genau
dieselbe Bildhelligkeit erreicht wie mit dem Intensitätsverlauf aus Fig. 12a (unter der Voraussetzung das
der Basisanteil ständig durchgelassen wird). Oder anders ausgedrückt: bei gleichem Intensitätsverlauf
läßt sich mit dem angegebenen Verfahren die Aperturhelligkeit erhöhen. Da für eine größere Anzahl
von Perspektiven die Minimalintensitäten der Pixel im allgemeinen recht kleine Werte haben können
(oder sogar Null werden), ist die "Ersparnis" im Intensitätsprofil nicht immer signifikant (wie es auch
der Vergleich von Fig. 12a und 12c demonstriert). Jedoch kann man anstatt die Aufspaltung in Basis-
und Modulationsanteil über den gesamten Perspektivenbereich zu erstrecken, die Zerlegung auch auf
einer kleineren Anzahl von Perspektiven anwenden. Während eine Perspektivgruppe gemultiplext
wird, müßen alle nicht zu dieser Gruppe gehörigen Aperturen allerdings auf undurchläßig geschaltet
werden. Fig. 13a zeigt eine Zerlegung des Intensitätsprofils von Fig. 12a in zwei Schaltgruppen. Der
Basisanteil ist für die erste Gruppe beträchtlich größer (Faktor 3) als der Basisanteil für alle
Perspektiven, so daß sich der Intensitätsverlauf des Pixels innerhalb dieser Gruppe viel wirksamer
reduzieren läßt. Allerdings ist der Intensitätsverlauf für die zweite Gruppe (in der die ursprüngliche
Minimalintensität liegt) etwas größer als vorher (Fig. 12c). Wie man aus dem Vergleich von Fig. 12c
und Fig. 13a sieht, ist jedoch die gesamte mittlere Intensität für Fig. 13a beträchtlich geringer als in
Fig. 12a. In der Tat kann man die Zerlegung systematisch so wählen, daß die mittlere Intensität
minimal wird. Betrachtet man eine Anzahl von N Perspektiven mit Minimalintensität Imin und eine
Aufspaltung in N1 und N2 Perspektiven mit Minimalintensitäten Imin1 = Imin (ohne Beschränkung der
Allgemeinheit sei die ursprüngliche Minimalintensität innerhalb der N1 Perspektiven) und Imin2. Dann
ist die mittlere Intensität für die Zerlegung kleiner als für die ursprünglichen Perspektiven, wenn gilt:
Gleichung 8
Dieses Kriterium kann sukzessive angewandt werden, d. h. ausgehend von N Perspektiven bestimmt
man zunächst die Zerlegung mit Perspektiven N1 und N2 mit minimaler Intensität. Dies kann in N
Vergleichen in der Art von Gleichung 8 vollzogen werden. Dann kann man für die so gefundenen
Perspektivenzahlen N1 und N2 die Prozedur wiederholen, bis sich keine Zerlegung mehr findet die eine
geringere mittlere Intensität aufweist. Sollte eine Zerlegung eine genau so große mittlere Intensität
haben, wie die ursprüngliche Perspektivenzahl, so kann man zusätzlich die maximale Intensität
minimieren. Dies ist für den Verlauf in Fig. 13d der Fall, der die gleiche mittlere Intensität wie Fig. 13a
aufweist, aber eine etwas geringere Maximalintensität hat (natürlich kann die Minimierung der
Maximalintensität auch überhaupt als Kriterium für die Gruppenzerlegung herangezogen werden). Im
allgemeinen wird die optimale Zerlegung spezifisch für jeden Bildpunkt sein, deshalb ist dieses
Verfahren am effektivsten, wenn es für jeden Bildpunkt individuell optimiert werden kann. Dies ist
genau für die oben erwähnte Konfiguration der Fall, in der jeder Bildpunkt seine eigene Mikroapertur
vor sich hat. Für alle anderen Konfigurationen, bis hin zu der Einfach-Apertur Geometrie, müssen die
Zerlegungen, so gewählt werden, daß sie im Mittel über alle Bildpunkte eine Verbesserung erreichen.
Da es hierbei nicht auf den absoluten Intensitätsverlauf ankommt, sondern nur auf die Korrelation der
Perspektiven von Bildpunkt zu Bildpunkt, wird man im allgemeinen immer eine Reduzierung der
mittleren Intensität zu erreichen sein. Im einfachsten Fall, kann man einfach eine feste Zerlegung in
Gruppen von drei oder vier Perspektiven wählen, da über eine solch geringe Anzahl von Perspektiven
immer eine Korrelation für fast alle Bildpunkte besteht. Das Verfahren kann im schlechtesten Fall, d. h.
wenn keine Korrelationen gefunden werden, die sich für eine Helligkeitssteigerung verwenden laßen,
auch in der schon bekannten Standardweise, d. h. mit IB = 0, betrieben werden.
Fig. 16 zeigt das System zur Erzeugung der Basisanteil-Bilder und der Modulationsanteilbilder.
Benachbarte perspektivische Ansichten werden in einem Bildspeicher abgelegt und von einen
Arithmetik-Prozessor werden die Intensitäten der Bildpunkte mit gleicher x-y-Koordinate gemäß des
erfindungsgemäßen Verfahrens ausgewertet. Dies geschieht Bildpunkt für Bildpunkt. Der gefundene
Minimalwert der Intensität wird durch die Anzahl der Aperturen in der dazugehörigen Schaltgruppe
dividiert und als Basisanteil der Schaltgruppe abgelegt. Der Modulationsanteil ergibt sich aus der
Differenz der ursprünglichen Intensität und des Minimalwertes.
Aus dem beschriebenen Funktionsprinzip ergibt sich, daß insgesamt drei Aperturzustände erforderlich
sind:
- - durchlässig für Basisanteil, aber undurchlässig für Modulationsanteil,
- - durchlässig für Basis-und Modulationsanteil,
- - undurchlässig für Basis-und Modulationsanteil.
Man braucht daher einen zusätzlichen Freiheitsgrad für die Trennung von Basis-und
Modulationsanteil, da eine einfache durchlässige Apertur nicht zwischen diesen beiden Anteilen
unterscheiden kann. Als geeignete optische Kanäle für diese Informationstrennung bietet sich die
Polarisation des Lichtes an, die ohnehin schon implizit durch die Verwendung von elektro-optischen
Verschlüssen, die mit Polarisationsfolien arbeiten, verwendet wird. Außerdem ist Polarisation eine zur
Farbe orthogonale Eigenschaft des Lichtes, so das die volle Farbfähigkeit weiterhin gewährleistet ist.
Fig. 14 zeigt eine schematische Darstellung der technischen Realisierung: dabei wird der Basisanteil
mit horizontaler Polarisation übertragen, während der Modulationsanteil mit vertikaler Polarisation
ausgesandt wird (wichtig ist allerdings nur, daß die Polarisationszustände orthogonal sind). Für den
Zeittakt in dem der Modulationsanteil durchgeschaltet wird, überträgt man auch den Basisanteil mit
vertikaler Polarisation. Der elektro-optische Verschluß besteht aus zwei elektro-optischen Medien, im
folgenden EOM abgekürzt, (beispielsweise zweier ferroelektrischer Flüssigkristallschichten) hinter
denen jeweils ein Polarisator gesetzt wird - ohne Beschränkung der Allgemeinheit nehmen wir an die
Polarisatoren wären für vertikale Polarisation durchläßig und für horizontale Polarisation sperrend:
Durch Anlegen einer elektrischen Spannung wird die Eingangspolarisation nach Durchlaufen des
elektro-optischen Mediums um 90 Grad gedreht. Es lassen sich dann folgende Schaltzustände
realisieren:
- 1. es liegt keine Spannung an beiden elektro-optischen Medien an. Daher wird die vertikale
Polarisation (Modulationsteil) durch das erste EOM durchgelassen, während der Basisanteil mit
horizontaler Polarisation gesperrt wird. Genau wie beim ersten EOM läuft die vertikale Polarisation
ungehindert durch den zweiten EOM. Da der Basisanteil per Definition immer present sein muß, wird
er in dieser Phase auf den Modulationsanteil gelegt, d. h. also in vertikaler Polarisation übertragen.
- 2. es liegt eine Spannung am ersten EOM an, aber keine am zweiten. Der erste EOM dreht die
horizontale Polarisation in die Vertikale, weil umgekehrt, die vertikale Polarisation in eine horizontale
umgewandelt, wird. Da der Polarisator stets nur vertikale Polarisation passieren läßt, wird nun der
Basisanteil durchgelassen, nicht jedoch der nun in horizontaler Polarisation auftretende
Modulationsanteil. Wie vorher hat der zweite EOM auf die vertikale Polarisation keinen Einfluß.
- 3. es liegt eine Spannung am hinteren EOM an, dadurch wird die vertikale Eingangspolarisation in die
Horizontale gedreht, und dann am Ausgangspolarisator gestoppt. Da durch den vertikalen Polarisator
des ersten EOM immer nur eine vertikale Polarisation auftreten kann, ist das Element für alles Licht
(unabhängig von der ursprünglichen Polarisation) undurchlässig.
Fig. 13c zeigt die Polarisation des Basis-und Modulationsanteils für den Intensitätsverlauf innerhalb
der ersten Schaltgruppe und Fig. 13d die Polarisation des durch die Apertur m = 3 durchgelassenen
Lichtes. Die beschriebene Vorrichtung, im Prinzip eine Anordnung von zwei elektro-optischen
Verschlüssen, hat also gerade die erforderliche Eigenschaft, die Steuerung dreier
Transmissionszustände vorzunehmen.
Darüberhinaus hat eine solche Vorrichtung noch eine andere positive Eigenschaft: solange
Flüssigkristalle als elektro-optische Verschlüsse verwendet werden, sind die in der Praxis verfügbaren
Kontraste von 100 : 1 bis 150 : 1 für eine ideale 3D-Darstellung nicht immer ausreichend, insbesondere
für Systeme die auf eine hohe Anzahl von Perspektiven dimensioniert sind. Es kommt dann zu einer
Art Halo-Bildung aufgrund der durchscheinenden Perspektiven, die eigentlich nicht sichtbar sein
sollten. Eine einfache aber wirkungsvolle Methode der Kontrasterhöhung ist es, zwei Verschlüsse in
dichten Kontakt zu verwenden. Aus der Optik ist bekannt das sich die Kontraste von zwei
Transmissionsscheiben im Kontakt multiplizieren. Daher ergibt sich für zwei Einzelverschlüsse mit
einem Kontrast von jeweils 100 : 1 ein Gesamtkontrast von 10 000 : 1. Steuert man also synchron zwei
Schlitze in den beiden Verschlüssen an, so ergibt sich dieser sehr hohe Gesamtkontrast. Allerdings
kommt es zu einem anderen störenden Effekt. Da nämlich die beiden Verschlüsse eine endliche Dicke
und einen endlichen, wenn auch kleinen Abstand voneinander haben, gibt es an der Grenzfläche von
zwei nacheinander geöffneten Aperturen ein Abblocken des Lichtes das seitlich durch die
Aperturöffnung fällt (Fig. 15a). Da die Aperturen über die gesamte Verschlußfläche gescannt werden,
erhält man so einen Streifeneindruck zwischen den Aperturgrenzflächen. Der visuelle Eindruck ist
daher ungefähr so, als wenn, man die 3D-Szene durch einen Lattenzaun betrachten würde. Schaltet
man jedoch in einem der beiden Verschlüsse, anstatt nur einer Apertur, eine kleinere Anzahl von
benachbarten Aperturen auf durchläßig so ergibt sich für das Licht aus der Bildebene eine
trichterförmige Bahn (Fig. 15b), die den beschriebenen Lattenzauneffekt wirksam unterdrückt. Der
oben beschriebene Gesamtkontrast wird dadurch nur unwesentlich reduziert, da ja nur lokal um die
Aperturöffnung herum der Kontrast reduziert ist. Die beschriebene Methode kann für das Multi-
Apertur und das Einfach-Apertur Verfahren in gleicher Weise eingesetzt werden.
Bezüglich der Erzeugung von polarisierten Licht gibt es vielfältige Möglichkeiten, die sich in der
Literatur beschrieben worden sind. Es lassen sich sowohl Polarisationsmasken vor einem Bildschirm
verwenden, als auch die Kombination von den polarisierten Komponenten zweier Lichtquellen.
Werden in dem Display Bildprojektoren verwendet, so können vor deren Objektiven Polarisationsfilter
verwendet und die polarisierten Bilder auf einem geeigneten, polarisationserhaltenden Bildschirm
überlagert werden. Kommen Bildröhren oder Flachdisplays zur Anwendung, können Basis-und
Modulationsanteil über einen Polarisationsteiler überlagert werden.
Die Verwendung von polarisiertem Licht, bedeutet zwar eine 50% Verminderung der Lichtleistung bei
normalen, unpolarisierten Lichtquellen, jedoch ist dieser Verlust ohnehin unvermeidlich wenn von
einer elektro = optischen Apertur Gebrauch gemacht wird.
Eine Alternative zu dem Polarisationsverfahren besteht darin, nur einen Bildschirm zu verwenden und
den Basis-und Modulationsanteil nacheinander wiederzugeben. Dabei werden die Doppel-EOMs so
gesteuert, daß für den Basisanteil alle Aperturen einer Schaltgruppe geöffnet sind, während für die
Modulationsanteile nur die entsprechenden einzelnen Aperturen geöffnet werden.