DE10056978B4 - Verfahren zur Erzeugung eines stereographischen Bildes - Google Patents

Verfahren zur Erzeugung eines stereographischen Bildes Download PDF

Info

Publication number
DE10056978B4
DE10056978B4 DE10056978A DE10056978A DE10056978B4 DE 10056978 B4 DE10056978 B4 DE 10056978B4 DE 10056978 A DE10056978 A DE 10056978A DE 10056978 A DE10056978 A DE 10056978A DE 10056978 B4 DE10056978 B4 DE 10056978B4
Authority
DE
Germany
Prior art keywords
dimensional image
image
dimensional
eye
buffer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE10056978A
Other languages
English (en)
Other versions
DE10056978B8 (de
DE10056978A1 (de
Inventor
Soon Hung Han
Boyoung Hyun Yoo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
INFINIXLAB INC., KR
Original Assignee
Korea Advanced Institute of Science and Technology KAIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Korea Advanced Institute of Science and Technology KAIST filed Critical Korea Advanced Institute of Science and Technology KAIST
Publication of DE10056978A1 publication Critical patent/DE10056978A1/de
Publication of DE10056978B4 publication Critical patent/DE10056978B4/de
Application granted granted Critical
Publication of DE10056978B8 publication Critical patent/DE10056978B8/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)

Abstract

Verfahren zur Erzeugung stereographischer Bilder unter Verwendung eines Z-Puffers, mit folgenden Schritten:
a) Erzeugen eines ersten zweidimensionalen Bildes für ein Auge eines Betrachters durch Rendering eines dreidimensionalen Modells und Speicherung der Farbinformation und der Tiefeninformation des ersten zweidimensionalen Bildes in einem Einzelbild-Puffer bzw. einem Z-Puffer;
b) Erzeugen eines zweiten zweidimensionalen Bildes für das andere Auge des Betrachters auf der Grundlage des ersten zweidimensionalen Bildes, der in dem Einzelbild-Puffer gespeicherten Farbinformation und der in dem Z-Puffer gespeicherten Tiefeninformation; wobei man
b-1) das erste zweidimensionale Bild nach Pixeln durchsucht, die jeweils Pixeln des zweiten zweidimensionalen Bildes entsprechen, indem man die Disparität (e) der Fehlanpassung zwischen linkem und rechtem Bild, die dem halben Augenabstand des Betrachters entspricht, die Entfernung (de) vom Beobachtungspunkt zu der Projektionsebene und jede Pixelkoordinate x*L des ersten zweidimensionalen Bildes in folgende Gleichung einsetzt:
Figure 00000002
wobei x*R die Pixelkoordinate des zweiten zweidimensionalen Bildes und z die Tiefeninformation sind;...

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zur Erzeugung eines dreidimensionalen stereographischen Bildes unter Verwendung eines Computers und insbesondere ein Verfahren zur Erzeugung eines dreidimensionalen stereographischen Bildes auf der Grundlage eines ersten zweidimensionalen ebenen Bildes, welches für ein einzelnes Auge eines Betrachters ermittelt wurde, und der in einem Z-Puffer gespeicherten Tiefeninformation dieses ersten Bildes.
  • Im allgemeinen kann ein Betrachter eine dreidimensionale Tiefeninformation des Gegenstandes eines Bildes visuell mit einer von zwei Methoden wahrnehmen, wobei sich diese Methoden darin unterscheiden, daß eine Methode auf der Betrachtung mit einem Auge und die andere Methode auf der Betrachtung mit zwei Augen basiert.
  • Bei der Methode mit einem Auge kann ein Betrachter Phänomene wie Ferne oder Nähe, Parallelverschiebung, relative Objektgröße, Überlappungen, Helligkeit und Schatten, Focusadaption usw. mit einem Auge wahrnehmen. Der perspektivische Eindruck von Ferne und Nähe beruht darauf, daß parallele Linien in einem sogenannten Fluchtpunkt zusammenlaufen. Das Phänomen der Parallelverschiebung beruht auf der Tatsache, daß bei einer Bewegung des Kopfes des Betrachters ein in der Nähe des Beobachtungspunktes befindlicher Gegenstand eine größere scheinbare Bewegung erfährt, als ein Gegenstand, der weit von der Projektionsebene entfernt ist. Das Überlappungsphänomen beruht auf der Tatsache, daß ein in der Nähe befindlicher Gegenstand einen weiter entfernt befindlichen Gegenstand überdeckt. Die Focusadaption beruht darauf, daß die Augenmuskulatur bei Be trachtung von unterschiedlich weit entfernten Gegenständen unterschiedlich stark angespannt wird.
  • Bei der Methode mit zwei Augen kann der Betrachter zusätzlich zu den oben erwähnten Phänomenen ein weiteres Phänomen wahrnehmen: Dieses weitere Phänomen basiert auf der Tatsache, daß die Position der Projektion eines Gegenstandes auf die Retina des jeweiligen Auges unterschiedlich ist und von dem Konvergenzwinkel der beiden Augen abhängt, d.h. von der Entfernung zwischen dem Betrachter und dem betrachteten Gegenstand.
  • Die Wahrnehmung mit einem Auge erzeugt nur einen schwachen Eindruck der dreidimensionalen Entfernungen. Demgegenüber erzeugt die Betrachtung mit beiden Augen einen sehr starken Eindruck der dreidimensionalen Entfernungen, da beim Menschen das System Auge/Gehirn die beiden unterschiedlichen, vom jeweiligen Auge wahrgenommenen Bilder kombiniert und entsprechende dreidimensionale Informationen daraus ableitet.
  • Die oben erläuterten charakteristischen Eigenschaften der auf der Betrachtung mit zwei Augen basierenden Wahrnehmung werden im Bereich der Stereographie angewandt, wo bereits unterschiedlichste technische Ansätze zur Erzeugung von stereographischen Bildern vorgeschlagen worden sind.
  • Gemäß einem herkömmlichen Verfahren zur Erzeugung eines stereographischen Bildes werden zwei zweidimensionale Bilder eines Gegenstandes erzeugt, nämlich ein Bild für das linke Auge und ein anderes Bild für das rechte Auge. Dieses herkömmliche Verfahren zur Erzeugung stereographischer Bilder erzeugt demnach zwei Bilder, die, basierend auf zwei unterschiedlichen Projektionszentren, auf eine zweidimensionale Ebene projiziert werden (ein Zentrum für das linke Auge und das andere Zentrum für das rechte Auge). Zu diesem Zweck wird bei dem herkömmli chen Bildgebungsverfahren ein Graphikpipeline-Schema verwendet, wie es in der beigefügten 1 angedeutet ist.
  • 1 zeigt ein funktionales Blockdiagramm des Graphikpipeline-Schemas, das bei herkömmlichen stereographischen Bildgebungsverfahren verwendet wird. Ein Computer, der unter Verwendung eines Graphikprogrammes für dreidimensionale Graphiken (3-D Graphikprogramm) das gewünschte Bild auf dem Bildschirm erzeugen und visualisieren soll, muß dabei die folgenden Operationen durchführen:
    Zu dem 3D-Graphikprogramm gehört eine applikationsspezifische Verarbeitung 110, eine Szenenverarbeitung 111, eine Polygonverarbeitung 112, eine Pixelverarbeitung 113, eine Szenenverarbeitung 121, eine Polygonverarbeitung 122 und eine Pixelverarbeitung 123. Die Szenenverarbeitung 111, die Polygonverarbeitung 112 und die Pixelverarbeitung 113 bilden eine Prozedur zur Erzeugung eines ersten Bildes, das für ein Auge (beispielsweise das linke Auge) auf eine zweidimensionale Ebene projiziert wird. Die Szenenverarbeitung 121, die Polygonverarbeitung 122 und die Pixelverarbeitung 123 bilden eine Prozedur zur Erzeugung eines zweiten Bildes, das für das jeweils andere Auge (im vorliegenden Beispiel also für das rechte Auge) auf die zweidimensionale Ebene projiziert wird. Da die beiden Prozeduren einander entsprechen, wird bei der folgenden Beschreibung hauptsächlich auf die Prozedur zur Erzeugung des zweidimensionalen Bildes für das linke Auge Bezug genommen.
  • In der applikationsspezifischen Verarbeitung 110 betätigt oder bewegt der Benutzer ein dreidimensionales Modell entsprechend einem Anwendungsprogramm. Die Szene verändert sich entsprechend den von dem Benutzer ausgewählten Änderungen des Modells, der Beleuchtung oder des Hintergrundes. Die Veränderungen der Szene werden in einem sogenannten Szenengraphen 117 gespeichert. Der Szenengraph 117 ist im wesentlichen eine graphenartige Datenbank zur Speicherung von Detailinformationen einzelner Szenen und insbesondere aller Informationen, die zur Definition einer Szene benötigt werden, wie beispielsweise Modell, Beleuchtung, Geräusche usw.
  • Die Szenenverarbeitung 111 hat die Aufgabe, eine tatsächliche dreidimensionale Szene auf dem Bildschirm darzustellen. Das Verarbeitungsmodul 111 liest dazu Informationen aus dem Szenengraphen 117 und erzeugt, basierend auf dem Szenengraphen 117 dreidimensionale Polygone, die mit einem sogenannten Rendering-Verfahren bearbeitet werden können. Bei der dreidimensionalen Bildverarbeitung sind Gegenstände, die auf einem Bildschirm dargestellt werden, im wesentlichen aus dreidimensionalen Polygonen aufgebaut. In einem Verfahren, das man auch als „culling" oder „level of detail (LOD)" bezeichnet, entfernt die Szenenverarbeitung 111 aus dem vom Szenengraphen 117 gelieferten Daten alle unnötigen Polygone und liefert letztlich einen Satz von tatsächlich am Bildschirm sichtbaren dreidimensionalen Polygonen.
  • Die Polygonverarbeitung 112 dient dann dazu, diesen Polygonensatz auf einem zweidimensionalen Bildschirm darzustellen. Zu diesem Zweck transformiert die Polygonverarbeitung 112 dreidimensionale Polygone in zweidimensionale Polygone durch Projektion der dreidimensionalen Polygone auf eine Ebene. Dabei berechnet die Polygonverarbeitung 112 Helligkeiten basierend auf Beleuchtung, Textur des Gegenstandes und anderen Rendering-Informationen oder -Daten.
  • Die Pixelverarbeitung 113 erzeugt schließlich Farbinformationen für jedes Pixel eines Bildes, das schließlich auf dem Bildschirm dargestellt wird. Die Pixelverarbeitung 113 führt auf der Basis von zweidimensionalen Polygon- und Textur informationen Maßnahmen zur Texturgebung, zum sogenannten "blending" und zum Anti-Aliasing durch. Dann speichert die Pixelverarbeitung 113 die resultierenden Farbinformationen für jedes Pixel des zweidimensionalen Bildes für das linke Auge in dem Einzelbild-Puffer 115, der auch als "frame-buffer" bezeichnet wird. Die Pixelverarbeitung 113 speichert außerdem Tiefeninformation für jedes Pixel in dem Tiefenpuffer oder Z-Puffer 116, welcher für die perspektivischen Effekte (Ferne-/Nähe-Wirkung) eines Gegenstandes sorgt und auch als "Z-buffer" bezeichnet wird.
  • Entsprechend erzeugt die Szenenverarbeitung 121 dreidimensionale Polygone für das rechte Auge, die dann durch die Polygonverarbeitung 122 in zweidimensionale Polygone transformiert werden. Die Pixelverarbeitung 123 speichert Farbinformation und Tiefeninformation für jedes Pixel des Bildes für das rechte Auge in dem Einzelbild-Puffer 125 bzw. dem Z-Puffer 126.
  • Üblicherweise muß die gesamte Graphikpipeline der 1 mit den oben erläuterten vier Verfahrensabschnitten zur Darstellung eines Gegenstandes auf dem Bildschirm abgearbeitet werden. Für die Darstellung eines stereographischen Bildes auf einem Bildschirm müssen darüber hinaus beide, für die beiden Augen erforderlichen Bilder mittels zweier Graphikpipelines in der oben dargestellten Weise erzeugt werden. Damit man die beiden, für das jeweilige Auge benötigten Bilder erhält, müssen sowohl der Schritt der stereographischen Projektion, als auch der abschließende Schritt der Bilddarstellung auf dem Bildschirm oder Display des Computers zweimal durchgeführt werden, nämlich einmal für jedes Bild.
  • Die Projektionsmatrizen für den Projektionsschritt können durch die folgenden Gleichungen 1 und 2 ausgedrückt werden: [Gleichung 1]
    Figure 00060001
    [Gleichung 2]
    Figure 00060002
  • In den obigen Gleichungen 1 und 2 ist SL die zweidimensionale Bildprojektionsmatrix für das linke Auge und SR die zweidimensionale Bildprojektionsmatrix für das rechte Auge.
  • Zur Erzeugung eines stereographischen Bildes auf einem Computerbildschirm müssen, wie oben erwähnt, zwei Bilder eines dreidimensionalen Gegenstandes erzeugt werden, nämlich ein Bild für das linke Auge und das andere Bild für das rechte Auge. Zu diesem Zweck müssen sowohl das Verfahren zur Darstellung eines Bildes auf dem Computerbildschirm, wie auch das stereographische Projektionsverfahren zweimal durchgeführt werden. Alle herkömmlichen dreidimensionalen stereographischen Bildgebungsverfahren laufen in der dargestellten Weise ab, so daß Rechenzeiten erforderlich sind, die doppelt so hoch wie die Rechenzeit zur Erzeugung eines nichtstereographischen einzelnen Bildes sind. Daraus resultieren beträchtliche Einschränkungen bei der Nutzung von stereographischen Bildern bei dreidimensionalen Simulationen oder Animationen.
  • Aus der Internationalen Patentanmeldung WO 97/23097 A2 ist ein Verfahren zur Erzeugung eines Ausgangsbildes, durch parallaktische Transformation eines Eingangsbildes bekannt, wobei das Eingangs- und das Ausgangsbild ein Bildpaar einer stereoskopischen dreidimensionalen Darstellung bilden können. Gemäß WO 97/23097 wird das Ausgangsbild auf der Grundlage des zweidimensionalen Eingangsbildes und einer jedem Pixel des Eingangsbildes zugeordneten Pixelverschiebung erzeugt, die aus den Tiefeninformationen errechnet werden muss. Auch dieses Verfahren ist mit großer Rechenzeit verbunden.
  • Der vorliegenden Erfindung liegt daher das technische Problem zugrunde, ein Verfahren zur Erzeugung eines stereographischen Bildes bereitzustellen, das weniger Rechenzeit als herkömmliche stereographische Bildgebungsverfahren erfordert.
  • Gelöst wird diese Aufgabe durch das Verfahren gemäß beigefügtem Hauptanspruch. Eine vorteilhafte Weiterbildung des erfindungsgemäßen Verfahrens ist Gegenstand des abhängigen Anspruchs.
  • Gegenstand der vorliegenden Erfindung ist demnach ein Verfahren zur Erzeugung eines stereographischen Bildes unter Verwendung des Z-Puffers, wobei die beiden ebenen Bilder, die zur Erzeugung des stereographischen Bildes erforderlich sind, generiert werden durch Erzeugen eines ersten Bildes auf herkömmliche Weise und anschließende Erzeugung des zweiten Bildes durch einfache Additionsschritte, die auf dem erzeugten zweidimensionalen ersten Bild, der zugehörigen Farbinformation und im Z-Puffer gespeicherten Tiefeninformation basieren.
  • Im ersten Schritt des erfindungsgemäßen Verfahrens wird ein erstes zweidimensionales Bild für ein einzelnes Auge des Betrachters durch Rendering eines dreidimensionalen Modells erzeugt und die Farbinformation und die Tiefeninformation des ersten zweidimensionalen Bildes in dem Einzelbild-Puffer bzw. dem Z-Puffer gespeichert. Der zweite Schritt, bei dem das zweite zweidimensionale Bild für das andere Auge des Betrachters erzeugt wird, erfolgt auf der Grundlage des ersten zweidimensionalen Bildes, der in dem Einzelbild-Puffer gespeicherten entsprechenden Farbinformation und der in dem Z-Puffer gespeicherten Tiefeninformation. Der dritte Schritt des erfindungsgemäßen Verfahrens, bei dem schließlich das gewünschte stereographische Bild erzeugt wird, erfolgt auf der Grundlage des erzeugten ersten zweidimensionalen Bild und des aus dem ersten Bild errechneten zweiten zweidimensionalen Bild.
  • Im zweiten Schritt wird das erste zweidimensionale Bild nach Pixeln durchsucht, die jeweils Pixeln des zweiten zweidimensionalen Bildes entsprechen. Farbwerte der gesuchten Pixel des ersten zweidimensionalen Bildes werden interpoliert, um Farbwerte des zweiten zweidimensionalen Bildes zu erhalten.
  • Dabei wird in dem oben erwähnten zweiten Schritt das erste zweidimensionale Bild nach Pixeln durchsucht, welche jeweils Pixeln des zweiten zweidimensionalen Bildes entsprechen, indem man die Disparität (e) zwischen dem linken und rechten Auge des Betrachters, den Abstand de vom Beobachtungspunkt zu der Projektionsebene und jeden Pixelkoordinate (x*L) des ersten zweidimensionalen Bildes in folgende Gleichung einsetzt:
    Figure 00090001
  • Anschließend liefert der oben genannte zweite Schritt die Farbwerte des zweiten zweidimensionalen Bildes durch Einsetzen der Farbwerte des ersten zweidimensionalen Bildes in die folgende Gleichung:
    Figure 00090002
    wobei
    Figure 00090003
    der Farbwert an der Pixelkoordinate x*R des zweiten zweidimensionalen Bildes,
    Figure 00090004
    der Farbwert an der Pixelkoordinate x*L des ersten zweidimensionalen Bildes und
    Figure 00090005
    der Farbwert der folgenden Pixelkoordinate x*L+1 des ersten zweidimensionalen Bildes sind.
  • Gegenstand der vorliegenden Erfindung ist außerdem ein Computerprogrammprodukt, insbesondere ein computerlesbares Speichermedium bzw. ein Prozessor mit einem Programm, welches das oben beschriebene Verfahren zur Erzeugung stereographischer Bilder unter Verwendung des Z-Puffers ausführen kann.
  • Die Erfindung wird im folgenden unter Bezugnahme auf beigefügte Zeichnungen näher erläutert.
  • In den Zeichnungen zeigt:
  • 1 ein Funktionsblockdiagramm des Graphikpipeline-Schemas, welches bei herkömmlichen Verfahren zur Erzeugung stereographischer Bilder verwendet wird;
  • 2a den Zustand einer Bildprojektion eines Punktes P(x, y, z), basierend auf den Projektionszentren des Beobachtungspunktes EL (–e, 0, de) des linken Auges und des Beobachtungspunktes Er (e, 0, de) des rechten Auges;
  • 2b die Darstellung einer Verschiebung der Projektionszentren, so daß der Beobachtungspunkt des linken Auges auf der z-Achse liegt;
  • 2c eine Darstellung einer Verschiebung der Projektionszentren, so daß der Beobachtungspunkt des rechten Auges auf der z-Achse liegt;
  • 3 eine Illustration der Suche nach Pixeln des linken Bildes, welche den jeweiligen Pixeln des rechten Bildes entsprechen, um das rechte Bild auf der Grundlage der Daten des linken Bildes zu erzeugen; und
  • 4 eine Illustration der Suche nach Pixeln des linken Bildes, welche den jeweiligen Pixeln des rechten Bildes entsprechen in einer Pixel-Reihe der Darstellung der 3.
  • Gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung umfaßt das erfindungsgemäße Verfahren zur Erzeugung eines stereographischen Bildes unter Verwendung des Z-Puffers den Schritt, ein zweidimensionales Bild für ein Auge zu erzeugen, indem man eine allgemeine Graphikpipeline auf ein dreidimensionales Modell anwendet. Bei diesem Schritt wird die Farbinformation jedes Pixels des erzeugten zweidimensionalen Bildes in dem Einzelbild-Puffer und die entsprechende Tiefeninformation in dem Z-Puffer gespeichert. Anschließend wird ein weiteres zweidimensionales Bild auf der Grundlage der in dem Einzelbild-Puffer gespeicherten Farbinformation und der in dem Z-Puffer gespeicherten Tiefeninformation erzeugt. Schließlich erhält man das stereographische Bild durch Kombination der beiden erzeugten zweidimensionalen Bilder, wie dies oben bereits detaillierter erläutert wurde.
  • Der oben erwähnte Schritt der Erzeugung des ersten zweidimensionalen Bildes für ein einzelnes Auge wird in an sich bekannter Weise durchgeführt. Dabei wird das zweidimensionale Bild durch ausgehend vom gegebenen dreidimensionalen Gegenstand durch sequentielle Durchführung der applikationsspezifischen Verarbeitung, der Szenenverarbeitung, der Polygonverarbeitung und der Pixelverarbeitung erzeugt. Jeder Verarbeitungsschritt wird in der eingangs erläuterten Art und Weise durchgeführt, so daß hierauf nicht mehr speziell eingegangen werden muß. Durch diese Verarbeitungsschritte werden schließlich für jedes Pixel Farbinformationen in dem Einzelbild-Puffer und Tiefeninformation in dem Z-Puffer gespeichert.
  • Anschließend wird das zweite zweidimensionale Bild auf der Grundlage der in dem Einzelbild-Puffer gespeicherten Farbinformation und der in dem Z-Puffer gespeicherten Tiefeninformation erzeugt, wie im folgenden detaillierter erläutert wird:
    Zunächst wird das folgende Projektionsverfahren zur Erzeugung eines zweidimensionalen ebenen Bildes betrachtet, um einen Ausdruck für die Korrelation zwischen den beiden Bildern für das jeweilige Auge abzuleiten. In 2a ist eine Projektion eines Punktes P(x, y, z) in Abhängigkeit von dem Beobachtungspunkte EL(–e, 0, de) für das linke Auge und von dem Beobachtungspunkt ER(e, 0, de) des rechten Auges dargestellt. 2b ist eine Darstellung, bei der die Projektionszentren so verschoben worden sind, daß der Beobachtungspunkt des linken Auges auf der z-Achse liegt. Unter Verwendung von trigonometrischen Relationen kann man die folgenden Zusammenhänge ableiten: [Gleichung 3]
    Figure 00120001
    [Gleichung 4]
    Figure 00120002
  • In der in 2c gezeigten Darstellung sind die Projektionszentren so verschoben worden, daß der Beobachtungspunkt des rechten Auges auf der z-Achse liegt. Wiederum lassen sich trigonometrische Relationen nutzen und man gelangt zu folgenden Ergebnissen: [Gleichung 5]
    Figure 00120003
    [Gleichung 6]
    Figure 00130001
  • Da die y-Koordinaten für beide Augen identisch sind, kann als Ausdruck für die y-Achse die in der folgenden Gleichung 7 dargestellte Beziehung herangezogen werden: [Gleichung 7]
    Figure 00130002
  • Mit obigen Ausgangsgleichungen erhält man für die Koordinaten eines Gegenstandes, der auf das linke bzw. das rechte Auge projiziert wird, die in den folgenden Gleichungen 8 und 9 angegebenen Relationen. Dabei sind die y-Koordinaten des Gegenstandes für das rechte und linke Bild identisch und können durch die in der folgenden Gleichung 10 definierte Beziehung berechnet werden.
  • [Gleichung 8]
    Figure 00130003
  • [Gleichung 9]
    Figure 00130004
  • [Gleichung 10]
    Figure 00130005
  • Durch Umformen der beiden Gleichungen 8 und 9 erhält man die im folgenden angegebenen Gleichungen 11 und 12 für x*L und x*R.
  • [Gleichung 11]
    Figure 00140001
  • [Gleichung 12]
    Figure 00140002
  • Erfindungsgemäß erhält man demnach zunächst ein zweidimensionales Bild für ein Auge (beispielsweise das linke Auge) auf der Grundlage der Transformationsmatrix gemäß Gleichung 1. Anschließend kann dann ein zweidimensionales Bild für das rechte Auge einfach aus den Daten des zweidimensionalen Bildes für das linke Auge berechnet werden.
  • Wie insbesondere aus Gleichung 11 hervorgeht, können die Bildkoordinaten für das rechte Auge einfach aus den Bildkoordinaten für das linke Auge auf der Grundlage des Parameters (e) berechnet werden, der den Grad der Disparität zwischen dem linken und rechten Bild des stereographischen Bildes angibt. Der Parameter (e) entspricht dem halben Abstand zwischen den beiden Augen des Beobachters. Außerdem wird ein Parameter (de) verwendet, der dem Abstand des Beobachtungspunktes zur Projektionsebene entspricht.
  • Das dreidimensionale Bild kann dann entsprechend der oben erläuterten allgemeinen Prozedur auf einem zweidimensionalen Bildschirm eines Computers dargestellt werden. In diesem Fall basiert die oben erwähnte Projektionstransformation auf dem Satz zweidimensionaler Koordinaten und der Tiefeninformation entlang der z-Achse für jede Koordinate.
  • Die Daten, die benötigt werden, um die zweidimensionalen Koordinaten auf dem Computerbildschirm anzuzeigen, werden in dem Einzelbild-Puffer des Computers gespeichert, während die Tiefeninformation entlang der z-Achse in dem Z-Puffer (den man auch als „Tiefenpuffer" bezeichnet) gespeichert wird.
  • Demnach wird nur das Bild für das linke Auge entsprechend der allgemeinen an sich bekannten Graphikpipline erzeugt, während das Bild für das rechte Auge in der in 3 detaillierter dargestellten Weise berechnet wird. Die Tiefeninformation z für jedes Pixel aus dem Z-Puffer des Computers, die Bilddisparität (e), welches zur Erzeugung des linken Bildes verwendet wurde, und der Abstand (de) des Beobachtungspunktes von der Projektionsebene werden in Gleichung 11 eingesetzt.
  • 3 illustriert die Erzeugung des rechten Bildes aus dem linken Bild unter Verwendung der Richtschnur der Gleichung 11. In 3 entsprechen die Gitterpunkte den Pixeln eines Computerbildschirms und die jedem Gitterpunkt zugeordnete Zahl entspricht der Tiefeninformation entlang der z-Achse, die im Z-Puffer gespeichert ist. Das rechte Bild der 3 erhält man aus dem linken Bild entsprechend einem spezifischen Algorithmus der im folgenden detaillierter beschrieben wird.
  • Wie bereits oben im Zusammenhang mit 2 erläutert, tritt ein Unterschied zwischen den beiden Bildern wegen des Abstandes der beiden Augen nur in Richtung der x-Achse auf. Daher kann die Transformation gemäß Gleichung 11 jeweils für eine Pixelreihe eines Bildes berechnet und für jede Reihe entsprechend wiederholt werden. Wenn erfindungsgemäß beispielsweise das rechte Bild aus dem linken Bild berechnet wird, so bedeutet dies, daß die Farbinformation für jedes Pixel des rechten Bildes aus dem linken Bild gewonnen wird, indem die Farbinfor mation des linken Bildes auf das rechte Bild abgebildet (gemappt) wird. Die Farbinformation für das rechte Bild erhält man dabei in folgender Weise: Wenn man Gleichung 11 nach x*L auflöst, so erhält man [Gleichung 13]
    Figure 00160001
  • Um nun die Farbinformation für die Koordinaten x*R für jedes Pixel des rechten Bildes zu erhalten, werden die Koordinaten x*L des Originalbildes auf der Grundlage der Gleichung 13 berechnet.
  • Die Farbinformation von x*R wird dann aus dem berechneten Ergebnis von x*L berechnet. Obwohl die Koordinate jedes Pixels eine ganze Zahl ist, muß das berechnete Ergebnis nicht notwendigerweise ganzzahlig sein. Diesbezüglich kann die Bildqualität verbessert werden, wenn man ein Interpolationsverfahren verwendet, wie dies beispielsweise in der folgenden Gleichung 14 angegeben ist. Dabei ist
    Figure 00160002
    die Farbinformation bei der Pixelkoordinate x*R des rechten Bildes,
    Figure 00160003
    die Farbinformation bei der Koordinate, die man erhält, wenn man das berechnete (nicht ganzzahlige) Ergebnis x*L in eine ganze Zahl umwandelt, und
    Figure 00160004
    ist die Farbinformation der folgenden Pixelkoordinate des linken Bildes.
  • [Gleichung 14]
    Figure 00160005
  • Mit anderen Worten folgt aus den beiden oben dargestellten Schritten, daß man den Farbwert für jedes Pixel des rechten Bildes aus dem linken Bild erhält, um schließlich das rechte Bild aus dem linken Bild (dem Originalbild) aufzubauen. Demnach wird das Originalbild nach Pixeln durchsucht, die Pixeln des rechten Bildes entsprechen, die auf der Grundlage der Relation gemäß Gleichung 13 erzeugt werden. Anschließend werden die Farbwerte der entsprechenden Pixel des Originalbildes gemäß der Relation von Gleichung 14 interpoliert und die interpolierten Ergebnisse werden als Farbwerte für das rechte Bild verwendet.
  • Die dargestellte Prozedur wird für jedes Pixel des rechten Bildes in der Weise wiederholt, daß nach Beendigung der Berechnung für eine Bildreihe (Pixel für Pixel) die Berechnung für die nächste Reihe fortgesetzt wird.
  • Wie aus obiger Beschreibung hervorgeht, wird nach dem erfindungsgemäßen Verfahren lediglich ein zweidimensionales Bild gemäß an sich bekannter Bildgebungsmethoden aus einem dreidimensionalen Modell erzeugt, während das andere zweidimensionale Bild nach dem erfindungsgemäß vorgeschlagenen spezifischen Algorithmus aus dem ersten erzeugten zweidimensionalen Bild berechnet wird. Durch Kombination der beiden zweidimensionalen Bilder wird schließlich ein stereographisches Bild erzeugt. Verglichen mit herkömmlichen Verfahren zur Erzeugung stereographischer 3-D-Bilder, welche die doppelte Rechenzeit eines herkömmlichen Verfahrens zur Erzeugung eines zweidimensionalen Bildes benötigen, ist es mit dem erfindungsgemäßen Verfahren einfach und schnell möglich, stereographische Bilder durch Anwendung eines simplen Algorithmus zu erzeugen, ohne daß der Rechenaufwand des Computers verdoppelt wird.
  • Das erfindungsgemäße Verfahren wurde anhand eines bevorzugten Ausführungsbeispiels detaillierter dargestellt. Es versteht sich jedoch, daß der Fachmann ausgehend von der vorliegenden Offenbarung ohne weiteres Abwandlungen des erfindungsgemäßen Verfahrens finden kann, die hier nicht näher erläutert wurden.

Claims (3)

  1. Verfahren zur Erzeugung stereographischer Bilder unter Verwendung eines Z-Puffers, mit folgenden Schritten: a) Erzeugen eines ersten zweidimensionalen Bildes für ein Auge eines Betrachters durch Rendering eines dreidimensionalen Modells und Speicherung der Farbinformation und der Tiefeninformation des ersten zweidimensionalen Bildes in einem Einzelbild-Puffer bzw. einem Z-Puffer; b) Erzeugen eines zweiten zweidimensionalen Bildes für das andere Auge des Betrachters auf der Grundlage des ersten zweidimensionalen Bildes, der in dem Einzelbild-Puffer gespeicherten Farbinformation und der in dem Z-Puffer gespeicherten Tiefeninformation; wobei man b-1) das erste zweidimensionale Bild nach Pixeln durchsucht, die jeweils Pixeln des zweiten zweidimensionalen Bildes entsprechen, indem man die Disparität (e) der Fehlanpassung zwischen linkem und rechtem Bild, die dem halben Augenabstand des Betrachters entspricht, die Entfernung (de) vom Beobachtungspunkt zu der Projektionsebene und jede Pixelkoordinate x*L des ersten zweidimensionalen Bildes in folgende Gleichung einsetzt:
    Figure 00190001
    wobei x*R die Pixelkoordinate des zweiten zweidimensionalen Bildes und z die Tiefeninformation sind; b-2) Farbwerte der gesuchten Pixel des ersten zweidimensionalen Bildes interpoliert und Farbwerte des zweiten zweidimensionalen Bildes entsprechend der interpolierten Ergebnisse gewinnt; und c) Erzeugen des stereographischen Bildes auf der Grundlage des ersten zweidimensionalen Bildes und des zweiten zweidimensionalen Bildes.
  2. Verfahren gemäß Anspruch 1, dadurch gekennzeichnet, daß man in dem Schritt b-2) die Farbwerte des zweiten zweidimensionalen Bildes gewinnt, indem man die Farbwerte des ersten zweidimensionalen Bildes in die folgende Gleichung einsetzt:
    Figure 00200001
    wobei
    Figure 00200002
    die Farbinformation bei jeder Pixelkoordinate x*R des zweiten zweidimensionalen Bildes,
    Figure 00200003
    die Farbinformation bei jeder Pixelkoordinate x*L des ersten zweidimensionalen Bildes und
    Figure 00200004
    die Farbinformation bei der folgenden Pixelkoordinate x*L+1 des ersten zweidimensionalen Bildes sind.
  3. Programmspeicher, in Form eines computerlesbaren Speichermediums oder eines Prozessors, zur Speicherung eines Programms, welcher so konfiguriert ist, daß die folgenden Schritte ausführbar sind: a) Erzeugen eines ersten zweidimensionalen Bildes für ein Auge eines Benutzers durch Rendering eines dreidimensionalen Modells und Speichern von Farbinformation und Tiefeninformation des ersten zweidimensiona len Bildes in einem Einzelbild-Puffer bzw. in einem Z-Puffer; b) Durchsuchen des ersten zweidimensionalen Bildes nach Pixeln, die jeweils Pixeln des zweiten zweidimensionalen Bildes für das andere Auge des Betrachters entsprechen, auf der Grundlage des ersten zweidimensionalen Bildes und der in dem Z-Puffer gespeicherten Tiefeninformation, wobei man b-1) das erste zweidimensionale Bild nach Pixeln durchsucht, die jeweils Pixeln des zweiten zweidimensionalen Bildes entsprechen, indem man die Disparität (e) der Fehlanpassung zwischen linkem und rechtem Bild, die dem halben Augenabstand des Betrachters entspricht, die Entfernung (de) vom Beobachtungspunkt zu der Projektionsebene und jede Pixelkoordinate x*L des ersten zweidimensionalen Bildes in folgende Gleichung einsetzt:
    Figure 00210001
    wobei x*R die Pixelkoordinate des zweiten zweidimensionalen Bildes und z die Tiefeninformation sind; b-2) Farbwerte der gesuchten Pixel des ersten zweidimensionalen Bildes interpoliert und Farbwerte des zweiten zweidimensionalen Bildes entsprechend der interpolierten Ergebnisse gewinnt; c) Interpolieren von Farbwerten der gesuchten Pixel des ersten zweidimensionalen Bildes und Gewinnung von Farbwerten des zweiten zweidimensionalen Bildes entsprechend der interpolierten Ergebnisse; und d) Erzeugen eines stereographischen Bildes auf der Grundlage des ersten zweidimensionalen Bildes und des zweiten zweidimensionalen Bildes.
DE10056978A 1999-11-17 2000-11-17 Verfahren zur Erzeugung eines stereographischen Bildes Expired - Lifetime DE10056978B8 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-1999-0051079A KR100381817B1 (ko) 1999-11-17 1999-11-17 제트버퍼를 이용한 입체영상 생성방법 및 기록매체
KR1999-51079 1999-11-17

Publications (3)

Publication Number Publication Date
DE10056978A1 DE10056978A1 (de) 2001-08-09
DE10056978B4 true DE10056978B4 (de) 2007-12-06
DE10056978B8 DE10056978B8 (de) 2008-05-29

Family

ID=19620495

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10056978A Expired - Lifetime DE10056978B8 (de) 1999-11-17 2000-11-17 Verfahren zur Erzeugung eines stereographischen Bildes

Country Status (4)

Country Link
US (1) US6603475B1 (de)
JP (1) JP3459401B2 (de)
KR (1) KR100381817B1 (de)
DE (1) DE10056978B8 (de)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4708619B2 (ja) * 2001-07-31 2011-06-22 キヤノン株式会社 立体画像形成システムおよび立体画像形成方法
WO2004071102A1 (ja) * 2003-01-20 2004-08-19 Sanyo Electric Co,. Ltd. 立体視用映像提供方法及び立体映像表示装置
KR101041723B1 (ko) * 2003-12-19 2011-06-14 티디비전 코포레이션 에스.에이. 데 씨.브이. 3차원 비디오게임 시스템
EP1605408A1 (de) * 2004-06-11 2005-12-14 Saab Ab Image-based rendering (IBR)
JP4523368B2 (ja) * 2004-09-10 2010-08-11 株式会社マーキュリーシステム 立体視画像生成装置およびプログラム
US8004515B1 (en) * 2005-03-15 2011-08-23 Nvidia Corporation Stereoscopic vertex shader override
KR100723421B1 (ko) 2006-03-13 2007-05-30 삼성전자주식회사 포인트 보간에 의한 렌더링 방법, 포인트 보간에 의한 렌더링 장치 및 기록매체
EP2082372A1 (de) * 2006-11-17 2009-07-29 THOMSON Licensing System und verfahren zur modellanpassung und registration von objekten für die umsetzung von 2d in 3d
EP2130178A1 (de) * 2007-03-23 2009-12-09 Thomson Licensing System und verfahren zur regionenklassifikation von 2d-bildern für die umsetzung von 2d in 3d
GB2470759A (en) * 2009-06-03 2010-12-08 Sony Comp Entertainment Europe Displaying videogame on 3D display by generating stereoscopic version of game without modifying source code
WO2012071063A1 (en) 2010-11-23 2012-05-31 Circa3D, Llc Blanking inter-frame transitions of a 3d signal
JP5903023B2 (ja) * 2012-10-04 2016-04-13 株式会社ジオ技術研究所 立体視地図表示システム
KR102543136B1 (ko) * 2021-06-01 2023-06-15 (주)이머시브캐스트 클라우드 vr 기반의 3차원 영상 제공 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997023097A2 (en) * 1995-12-19 1997-06-26 Philips Electronics N.V. Parallactic depth-dependent pixel shifts

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6392689B1 (en) * 1991-02-21 2002-05-21 Eugene Dolgoff System for displaying moving images pseudostereoscopically
JPH07200876A (ja) * 1993-12-28 1995-08-04 Matsushita Electric Ind Co Ltd 三次元画像生成方法
JP3126575B2 (ja) * 1993-12-28 2001-01-22 シャープ株式会社 立体視用3次元画像生成装置
JP2983844B2 (ja) * 1994-07-14 1999-11-29 三洋電機株式会社 3次元画像変換方法
JP2763499B2 (ja) * 1994-11-30 1998-06-11 株式会社ナムコ 画像合成装置及び画像合成方法
JPH0916806A (ja) * 1995-07-04 1997-01-17 Ricoh Co Ltd 立体画像処理装置
WO1997015150A1 (fr) * 1995-10-19 1997-04-24 Sony Corporation Procede et dispositif de formation d'images en trois dimensions
KR100445619B1 (ko) * 1996-07-18 2004-08-25 산요덴키가부시키가이샤 2차원 영상을 3차원 영상으로 변환하는 장치 및 방법
JPH1040420A (ja) * 1996-07-24 1998-02-13 Sanyo Electric Co Ltd 奥行き感制御方法
JP3397602B2 (ja) * 1996-11-11 2003-04-21 富士通株式会社 画像表示装置及び方法
KR100203125B1 (ko) * 1996-12-30 1999-06-15 류정열 직분식 가솔린 인젝터의 분사 연료량 보정방법
JPH11127458A (ja) * 1997-10-20 1999-05-11 Sunrise:Kk 立体映像用画像編集
JP2952585B1 (ja) * 1998-04-07 1999-09-27 株式会社地域メディア開発研究所 画像生成方法
KR100321897B1 (ko) * 1998-12-22 2002-05-13 박남은 입체영상이미지변환방법및그장치
US6445392B1 (en) * 1999-06-24 2002-09-03 Ati International Srl Method and apparatus for simplified anti-aliasing in a video graphics system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997023097A2 (en) * 1995-12-19 1997-06-26 Philips Electronics N.V. Parallactic depth-dependent pixel shifts

Also Published As

Publication number Publication date
US6603475B1 (en) 2003-08-05
KR20010047046A (ko) 2001-06-15
JP3459401B2 (ja) 2003-10-20
KR100381817B1 (ko) 2003-04-26
JP2001202532A (ja) 2001-07-27
DE10056978B8 (de) 2008-05-29
DE10056978A1 (de) 2001-08-09

Similar Documents

Publication Publication Date Title
DE69529548T2 (de) Bilderzeugungsverfahren und -gerät
DE69621509T2 (de) Verfahren zur Auswahl zweier Einzelbilder einer zweidimensionalen Bildsequenz als Basis für die Berechnung der relativen Tiefe von Bildobjekten
DE69434685T2 (de) Bildverarbeitungsverfahren und -gerät
DE69621778T2 (de) Tiefenabhängige parallaktische pixelverschiebung
DE69706611T2 (de) Stereoskopisches Display-System und -Verfahren
DE68919867T2 (de) Stereoskopisches Graphik-Anzeigesystem mit mehreren Fenstern zur Darstellung von Mehrfachbildern.
DE19953595A1 (de) Verfahren und Vorrichtung zur Verarbeitung dreidimensionaler Bilder
DE69531583T2 (de) Bildverarbeitungsverfahren und -gerät
DE69730565T2 (de) Gerät zur Erzeugung eines stereoskopischen bewegenden Bildes mittels Computergraphik
DE10056978B4 (de) Verfahren zur Erzeugung eines stereographischen Bildes
EP2676449B1 (de) Verfahren und vorrichtung zur stereobasis-erweiterung von stereoskopischen bildern und bildfolgen
EP1451775A1 (de) Erzeugung einer stereo-bildfolge aus einer 2d-bildfolge
EP3304496B1 (de) Verfahren und vorrichtung zum erzeugen von daten für eine zwei- oder dreidimensionale darstellung zumindest eines teils eines objekts und zum erzeugen der zwei- oder dreidimensionalen darstellung zumindest des teils des objekts
WO2011103865A2 (de) Verfahren und autostereoskopische anzeige zur erzeugung von dreidimensionalen bildern
EP2528042A1 (de) Verfahren und Vorrichtung zum Re-Meshing von 3D-Polygonmodellen
DE102007021518B4 (de) Verfahren zum Verarbeiten eines Videodatensatzes
DE102018130770A1 (de) Stereoskopische Wiedergabe von virtuellen 3D-Objekten
DE102014206914A1 (de) Ein stereoskopisches Aufbereitungssystem
DE112015006086B4 (de) Bildverarbeitungsvorrichtung, Bildanzeigevorrichtung und Bildverarbeitungsverfahren
WO2009118156A2 (de) Verfahren zum erzeugen einer 3d-abbildung einer szene aus einer 2d-abbildung der szene
WO2011032642A1 (de) Verfahren und vorrichtung zum erzeugen von teilansichten und/oder einer raumbildvorlage aus einer 2d-ansicht für eine stereoskopische wiedergabe
EP3465608B1 (de) Verfahren und vorrichtung zum bestimmen eines übergangs zwischen zwei anzeigebildern, und fahrzeug
WO2007085482A1 (de) Verfahren zur erzeugung und darstellung räumlich wahrnehmbarer bilder
EP0960390B1 (de) Verfahren und anordnung zur kodierung eines digitalisierten bildes
DE102015209284A1 (de) Verfahren zum Erzeugen einer Ansicht einer Fahrzeugumgebung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8396 Reprint of erroneous front page
8364 No opposition during term of opposition
R081 Change of applicant/patentee

Owner name: INFINIXLAB INC., KR

Free format text: FORMER OWNER: KOREA ADVANCED INSTITUTE OF SCIENCE AND TECHNOLOGY, TAEJON, KR

R082 Change of representative

Representative=s name: DR. SCHOEN, NEYMEYR & PARTNER MBB, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0013020000

Ipc: H04N0013200000

R071 Expiry of right