DE19953595B4 - Verfahren und Vorrichtung zur Verarbeitung dreidimensionaler Bilder - Google Patents

Verfahren und Vorrichtung zur Verarbeitung dreidimensionaler Bilder Download PDF

Info

Publication number
DE19953595B4
DE19953595B4 DE19953595A DE19953595A DE19953595B4 DE 19953595 B4 DE19953595 B4 DE 19953595B4 DE 19953595 A DE19953595 A DE 19953595A DE 19953595 A DE19953595 A DE 19953595A DE 19953595 B4 DE19953595 B4 DE 19953595B4
Authority
DE
Germany
Prior art keywords
image
group
display
pixel coordinate
coordinate group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE19953595A
Other languages
English (en)
Other versions
DE19953595A1 (de
Inventor
Hung-Chong Peitou Hung
Yu-Hsiang Peitou Hung
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Asustek Computer Inc
Original Assignee
Asustek Computer Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asustek Computer Inc filed Critical Asustek Computer Inc
Publication of DE19953595A1 publication Critical patent/DE19953595A1/de
Application granted granted Critical
Publication of DE19953595B4 publication Critical patent/DE19953595B4/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

Vorrichtung (50) zur Erzeugung dreidimensionaler Bilder, wobei ausgehend von einem dreidimensionalen, mehrere Objekte enthaltenden Bild bei der Anzeige ein dreidimensionaler Effekt erzeugt wird, mit folgenden Einrichtungen
– eine erste Einrichtung (51), die ausgehend von einer Vielzahl von Scheitelpunktkoordinaten der einzelnen Objekte (11, 111, 112, 113, 114) eine erste Bildpunktkoodinatengruppe (14, 141, 142, 143, 144) für eine Anzeigeeinrichtung in einer Anzeigeebene (13) erzeugt, wobei diese erste Bildpunktkoordinatengruppe eine Vielzahl von Anzeigepunkten enthält,
– eine zweite Einrichtung (52) zur Berechnung einer zweiten Bildpunktkoordinatengruppe (16, 161, 162, 163, 164) für die Anzeigeeinrichtung in der Anzeigeebene (13),
– eine dritte Einrichtung (53), die ausgehend von der ersten Bildpunktkoordinatengruppe und der zweiten Bildpunktkoordinatengruppe eine erste 3D-Bildgruppe und einer zweite 3D-Bildgruppe erzeugt, und
– eine vierte Einrichtung (54) zur überlappenden Anzeige der ersten und der zweiten 3D-Bildgruppe auf der Anzeigeeinrichtung
dadurch gekennzeichnet,
dass die zweite Einrichtung (52) die zweite Bildpunktkoordinatengruppe...

Description

  • Die vorliegende Erfindung bezieht sich auf eine Vorrichtung und auf ein Verfahren nach dem Obergriff der Ansprüche 1 bzw. 5.
  • In diesem Zusammenhang bezieht sich die Erfindung auch auf ein Verfahren und eine Vorrichtung zur Steuerung von Flüssigkristall(LCD)-Shutter-Brillen und insbesondere auf eine Vorrichtung und ein Verfahren, um ein rechtes und ein linkes LCD-Shutter einer LCD-Shutter-Brille wechselweise lichtdurchlässig zu schalten. Ein Betrachter, der eine solche LCD-Shutter-Brille trägt, die durch eine solche Vorrichtung gesteuert wird, kann bei Betrachtung eines ebenen Bildes einen dreidimensionalen Effekt feststellen.
  • Mit dem Beginn des Multimedia-Zeitalters und den Technologiefortschritten sind dreidimensionale Bilddarstellungssysteme zu einer wesentlichen Funktion von Videospielsoftware geworden, insbesondere, wenn eine dreidimensionale Anwendersoftware auf einem PC zusammen mit LCD-Shutter-Brillen oder am Kopf getragenen Anzeigeeinheiten zusammenwirken. Mit einem solchen Aufbau können Benutzer eine virtuelle Realität erfahren. Wenn man beispielsweise eine LCD-Shutter-Brille benutzt, wird die Zweiaugen-Disparität gewöhnlich dazu benutzt, um eine Tiefenwahrnehmung und Dreidimensionalität zu schaffen derart, daß ein Betrachter, der diese LCD-Shutter-Brille trägt, bei Betrachtung eines ebenen Bildes den dreidimensionalen Effekt feststellt.
  • Die durch die zweiäugige Betrachtung bedingte Disparität bzw. Ungleichheit der beiden Bilder beruht darauf, daß sich bei Betrachtung eines Objekts eine leichte Unstimmigkeit ergibt zwischen den Bildern, die auf die linke und die rechte Netzhaut abgebildet werden, bedingt durch die verschiedenen Sichtwinkel für das linke und das rechte Auge. Nachdem die Sehnerven die leicht unterschiedlichen Bilder verarbeitet haben, kann der Betrachter einen dreidimensionalen Effekt erfahren. Einfacher ausgedrückt, wenn eine spezielle Methode angewendet wird, um ein erstes und zweites Abbild einer zweidimensionalen Bildvorlage zu erstellen, und wenn zwischen dem ersten und zweiten Abbild eine feste Abweichung besteht und das linke und rechte Auge jeweils nur das linke oder das rechte Abbild sehen kann, dann kann aufgrund der Zweiaugen-Disparität ein dreidimensionaler Effekt erreicht werden. Die Funktion der LCD-Shutter-Brille ergibt sich wie folgt: Wenn ein für das linke Auge bestimmtes Bild auf dem Bildschirm dargestellt wird, dann läßt die linke Linse der LCD-Shutter-Brille durch, während die rechte Linse Licht sperrt ist, und umgekehrt. Durch die abwechselnde Lichtsperre bzw. Lichtdurchlässigkeit der beiden Linsen kann der Betrachter einen dreidimensionalen Effekt feststellen.
  • Untersuchungen haben ergeben, daß bekannte 3D-Bildsysteme (z.B. D3D, OpenGL) vielfach das folgende Prinzip anwenden (siehe 1):
    Man stelle sich ein Objekt 11 vor, das in einem virtuellen Raum angeordnet ist und dessen Umriß durch die Verbindung eines ersten Scheitelpunktes 111, eines zweiten Scheitelpunktes 112, eines dritten Scheitelpunktes 113, eines vierten Scheitelpunktes 114 usw. nachgezeichnet wird. Einfach ausgedrückt, kann jedes Objekt durch die Vektoren bestimmter Scheitelpunkte nachgezeichnet werden. Wenn ein Objekt 11 auf einem Bildschirm 13 dargestellt werden soll, kann unter Mitwirkung eines ersten Sehpunktes 12 (z.B. das linke Auge einer Person), der den ersten Scheitelpunkt 111 auf den Bildschirm 13 des Computer projiziert, ein erster Anzeigepunkt 141 gebildet werden. Dieses Verfahren kann für den zweiten Scheitelpunkt 112, denn dritten Scheitelpunkt 113 und den vierten Scheitelpunkt 114 wiederholt werden, indem auf dem Bildschirm 13 ein zweiter Anzeigepunkt 142, ein dritter Anzeigepunkt 143 und ein vierter Anzeigepunkt 144 dargestellt wird. Mit einem handelsüblichen 3D-Wiedergabegerät werden dann der erste, zweite, dritte und vierte Anzeigepunkt 141, 142, 143 und 144 miteinander verbunden. Auf diese Weise wird ein erstes 3D-Bild 14 auf dem Computerbildschirm dargestellt. Ein derartiges 3D-Bild kann jedoch keine Tiefenwahrnehmung erzeugen, wie dies mit der sogenannten Zweiaugen-Disparität möglich ist und deshalb ist diese Einrichtung auch nicht geeignet, einen dreidimensionalen Effekt, wie man ihn in der realen Welt erlebt, zu erzeugen. Deshalb bezieht sich die vorliegende Erfindung auf die Darstellung von „3D-Bildern" linearer Perspektive durch einen einzigen Sehpunkt und nicht auf wirkliche „dreidimensionale Bilder".
  • Die Lösung besteht nun darin, den ersten Scheitelpunkt 111 mit einem zweiten Sehpunkt 15 (z.B. dem rechten Auge der Person) in Verbindung zu bringen und daraus einen fünften Anzeigepunkt 116 zu bilden. Wenn man dies mit dem zweiten Scheitelpunkt 112, dem dritten Scheitelpunkt 113 und dem vierten Scheitelpunkt 114 wiederholt, so läßt sich auf dem Bildschirm 13 ein sechster, siebter und achter Anzeigepunkt 162, 163 und 164 darstellen. Nach Verarbeitung durch eine 3D-Wiedergabeeinrichtung wird ein zweites 3D-Bild 16 auf dem Computerbildschirm 13 dargestellt. Auf diese Weise ergibt sich eine gewisse Diskrepanz zwischen dem ersten 3D-Bild 14 und dem zweiten 3D-Bild 16, wobei das linke Auge des Betrachters nur das erste 3D-Bild 14 und das rechte Auge des Betrachters nur das zweite 3D-Bild 16 sieht. Als Ergebnis der Zweiaugen-Disparität ergibt sich für den Betrachter das Erlebnis eines dreidimensionalen Effektes.
  • Das soeben beschriebene Verfahren zur Erzeugung einer Zweiaugen-Disparität ist jedoch in seiner Wirkung begrenzt. Wenn man den ersten Scheitelpunkt 111 auf dem Computerbildschirm projiziert, um den ersten Anzeigepunkt 141 zu er zeugen, ist es notwendig, dies mit einer Matrix-Berechnung zu synchronisieren. Um die räumlichen Koordinaten für den ersten Scheitelpunkt 111 in die Computerkoordinaten für den ersten Anzeigepunkt 141 zu konvertieren bzw. umzusetzen, bedarf es eines gewissen Zeitaufwandes. Wegen der Zweiaugen-Disparität ist eine nochmalige Matrix-Berechnung notwendig, um die räumlichen Koordinaten des ersten Scheitelpunktes 111 in den fünften Anzeigepunkt 161 zu konvertieren. Es ist offensichtlich, daß die beschriebene Methode viele Wiederholungen dieser Matrix-Berechnung erfordert, bevor andere Verfahrensschritte angewendet werden können. Darüber hinaus ist diese Matrix-Berechnung sehr zeitaufwendig und behindert deshalb den folgenden Bildverarbeitungsprozeß. Deshalb wird dieses Verfahren mit wiederholten Matrix-Berechnungen vor allem für stehende dreidimensionale Bilder verwendet und liefert wegen der umfangreichen Verarbeitungszeit keine idealen Ergebnisse, wenn es für die Echtzeitdarstellung von dreidimensionalen Bildern angewendet werden soll.
  • Wie vorstehend erwähnt, ergibt sich für ein dreidimensionales (3D-)Bild, das durch ein herkömmliches 3D-Wiedergabegerät erzeugt wird, nur ein zweidimensionales Bild. Das 3D-Wiedergabegerät speichert den Bildinhalt in einem Rahmen-Pufferspeicher, und benutzt die Abtastschaltung für den Zugriff der Information im Rahmen-Pufferspeicher und benutzt darüber hinaus das Verfahren der verschachtelten Abtastung, um die 3D-Bildinformation auf dem Bildschirm darzustellen – siehe hierzu 2(a). 2(a) zeigt in einem Blockschaltbild den Zusammenhang zwischen einem herkömmlichen 3D-Wiedergabegerät 21, einer Abtasteinheit 22, einer Adreßübersetzungsschaltung 23 und einem Rahmen-Pufferspeicher 24. Die Speicheradresse eines Computers ist im wesentlichen ein eindimensionaler Zeilenvektor und die Information eines 3D-Bildes in einem Rahmen-Pufferspeicher besteht aus vielen Pixeln bzw. Bildpunkten. Wenn z.B. die obere linke Ecke auf dem Bildschirm 25 ein Originalpunkt 26 ist, dann ist die reale Speicheradresse für irgendein Pixel P mit den Koordinaten (x, y) (siehe 2(b) Reale Adresse von Pixel P = P0 + y·pitch + x
  • Hierbei ist P0 die reale Speicheradresse des Originalpunkts 26 in der linken oberen Ecke des Bildschirms 25, und „pitch" ist die Breite jeder Abtastzeile im Rahmen-Pufferspeicher 24 (siehe hierzu 2(a)). Damit das 3D-Wiedergabegerät ein 3D-Bild skizziert (dieses Bild ist noch ein zweidimensionales Bild), bedient es sich der sogenannten Adreßübersetzungsschaltung 23, um jeden Pixel in dem 3D-Rahmen-Pufferspeicher zu konvertieren, bevor sie in der Lage ist, Information in der realen Speicheradresse zu hinterlegen. Wenn die Abtasteinheit 22 jede Pixel-Information im Rahmen-Pufferspeicher in einer verschachelten Art und Weise auf dem Bildschirm 25 darstellen will, dann benötigt auch die Abtastschaltung 22 die Adreßübersetzungsschaltung 23, um die reale Adresse des Pixels zu erhalten und um die unter der realen Adresse hinterlegte Information an den Bildschirm 25 zu übertragen. Üblicherweise wird bei einer Anzeigeeinheit eines stereoskopischen Systems unterschieden zwischen einer nicht überlappenden und einer überlappenden Abtastung. Die Anwendung einer nicht überlappenden Abtastung für eine dreidimensionale Darstellung ist komplizierter im Aufbau, weil für das linke und rechte Auge jeweils ein Anzeigebildschirm vorgesehen sein muß. Wegen der gegenseitigen Anpassung der nicht verschachtelten Verarbeitungssysteme und der fertiggestellten dreidimensionalen Bilder wird davon selten Gebrauch gemacht, weil die fertiggestellten dreidimensionalen Bilder üblicherweise für überlappte Verarbeitungssysteme entworfen sind. Deshalb benutzen stereoskopische Anzeigevorrichtungen üblicherweise eine überlappte Aufzeichnung, bei der zwei unterschiedliche Bilder (das erste 3D-Bild 31 und das zweite 3D-Bild 32) unter getrennten Speicheradressen angeordnet sind. Es sei hierzu auf 3 verwiesen, die die Speicheranordnung von zwei 3D-Bildern zeigt, die nach der üblichen Methode mit Hilfe eines 3D-Wiedergabegerätes erzeugt worden sind. Die Anordnung von zwei getrennten Rahmen-Pufferspeichern in einem Speicher verursacht jedoch Probleme für eine übliche Aufzeichnungsanordnung 22. Um auf dem Bildschirm das vorerwähnte erste 3D-Bild 31 und zweite 3D-Bild 32 in einer überlappenden Weise darstellen zu können, wird eine andere Art von Adreßüber setzungsschaltung, und nicht die übliche Adressübersetzungsschaltung 23, benötigt.
  • Aus der US 5796373 A ist eine Einrichtung bekannt, die eine erste Bildpunktgruppe und eine zweite Bildpunktgruppe bildet, um einen räumlichen Eindruck bei einem Betrachter zu erzeugen, wenn er eine Brille trägt, die synchronisiert mit der aufeinanderfolgenden Darstellung die Bilder jeweils dem rechten und linken Auge zuführt. Dabei werden die erste und zweite Bildpunktgruppe aus gegebenen rechten und linken Bilddaten eines Stereobildes gebildet.
  • Aus der WO 97/23097 A2 ist die Erzeugung eines Bildes durch Parallelverschiebung eines Eingabebildes bekannt. Das Bild wird aus dem Eingabebild durch Verwendung gespeicherter Verschiebewerte erzeugt.
  • Aus James Foley, Grundlagen der Computergraphik, 1. Aufl., Addison-Wesley, 1994, S. 495–S. 498, ist bekannt, stereoskopische Darstellungen durch unterschiedliche Bilder für rechtes und linkes Auge zu erzeugen.
  • Der vorliegenden Erfindung liegt die Aufgabe zugrunde, eine einfache Vorrichtung und ein entsprechendes Verfahren zur Verfügung zu stellen, mit der bzw. mit dem eine wirkungsvolle Darstellung von 3D-Bildern erzielt wird.
  • Erfindungsgemäß wird dies mit einer Vorrichtung mit den Merkmalen des Anspruchs 1 und einem Verfahren mit den Merkmalen des Anspruchs 5 erreicht. Vorteilhafte Weiterbildungen der Erfindung sind in den Unteransprüchen angegeben.
  • Das erfindungsgemäße Verfahren zur Verarbeitung dreidimensionaler Bilder vermeidet die Wiederholung von Matrix-Berechnungen und ist besonders effektiv bei der Bestimmung der Adresse im Bild-Rahmenspeicher. Deshalb ist dieses Verfahren besonders geeignet für die dreidimensionale Echtzeit-Darstellung von Bildern. Ein weiterer Vorteil besteht darin, dass die Vorrichtung zur Verarbeitung dreidimensionaler Bilder gemäß der Erfindung keine geänderte Adressübersetzungs schaltung 23 benötigt, sondern lediglich eine zusätzliche und einfache elektrische Schaltung. Dies wiederum führt zu einer Verringerung der Herstellungskosten.
  • Um im Vorliegenden das erfindungsgemäße Verfahren, den Aufbau und die Merkmale darzustellen, werden die Vorteile der Erfindung anhand der Zeichnungen näher erläutert. Die folgenden Erläuterungen beziehen sich jedoch nur auf eine besonders vorteilhafte Ausführungsform und können deshalb nicht dazu benutzt werden, den Schutzumfang und den Anwendungsbereich der Erfindung einzuschränken. Deshalb liegen ähnliche und analoge Variationen der Erfindung im Schutzbereich der beanspruchten Erfindung.
  • Die Erfindung wird nun anhand der beigefügten Zeichnungen beschrieben. es zeigt:
  • 1 das Verfahren zur Bildung von stereoskopischen Bildern;
  • 2(a) in einem Blokschaltbild eine bekannte Vorrichtung mit einem 3D-Bild-Wiedergabegerät 21, einer Abtastschaltung 22, einer Adreßübersetzungsschaltung 23, einem Rahmen-Pufferspeicher 24 und dem Bildschirm 25;
  • 2(b) die reale Speicheradresse irgendeines Pixels P mit den Koordinaten (x, y), wenn sich dessen ursprüngliche Position in der linken oberen Ecke des Bildschirms befindet;
  • 3 die übliche Speicheranordnung von zwei 3D-Bildern, wie sie in einer üblichen 3D-Wiedergabeeinrichtung erzeugt werden;
  • 4 das Prinzip des erfindungsgemäßen Verfahrens zur Erzeugung stereoskopischer Bilder;
  • 5 ein Blockschaltbild einer erfindungsgemäßen Vorrichtung zur Verarbeitung dreidimensionaler Bilder;
  • 6(a) die Abtastzeilen eines ersten 3D-Bildes 61, eines zweiten 3D-Bildes 62, die erfindungsgemäß überlappend im Speicher angeordnet sind;
  • 6(b) die entsprechende reale Speicheradresse eines Pixels P1 mit den Koordinaten (x1, y1), welche im Rahmen-Pufferspeicher für das erste 3D-Bild 61 vorliegt, sowie und die entsprechende reale Speicheradresse eines Pixels P2 mit den Koordinaten (x2, y2), welche im Rahmen-Pufferspeicher für das zweite 3D-Bild 62 vorliegt; und
  • 7 das Blockschaltbild eines weiteren Ausführungsbeispiels gemäß der Erfindung.
  • Um dreidimensionale Bilder zu erzeugen, bedient man sich am besten des Prinzips der Zweiaugen-Disparität, wonach eine leichte Abweichung zwischen den Bildern, die vom rechten und vom linken Auge gesehen werden, dazu benutzt wird, um den Eindruck einer Dreidimensionalität zu erreichen. 4 zeigt das Prinzip des erfindungsgemäßen Verfahrens zur Erzeugung eines stereokopischen Bildes mit dem Hinweis, daß die Adressenabweichung vom linken Auge und vom rechten Auge in horizontaler Richtung liegt. Da das linke und rechte Auge in der gleichen Ebene adressiert wird, und die Abweichung ausschließlich in der horizontalen Richtung liegt, ist es klar, daß der Hauptunterschied zwischen den Bildern, die vom linken und rechten Auge wahrgenommen werden, in der horizontalen Abweichung, und im Wert dieser Abweichung zwischen diesen beiden Bildern, bezogen auf die Position von Objekt und Beobachter liegt. Es sei vorausgesetzt, daß ein Scheitelpunkt 41 eines Objekts 40 in der oberen X-Z-Ebene angeordnet ist (siehe 4). Außerdem sei vorausgesetzt, daß das linke Auge 42 und das rechte Auge 43 jeweils einen Sehpunkt für die Darstellung von Bildern auf dem Bildschirm 44 darstellt, um dort einen ersten Anzeigepunkt 45 und einen zweiten Anzeigepunkt 46 zu erzeugen. Da das linke und das rechte Auge in der gleichen Ebene adressiert sind und nur eine Abweichung in X-Richtung aufweisen, variiert der Koordinatenwert des ersten Anzeigepunktes 45 und des zweiten Anzeigepunktes 46 nur aufgrund einer Abweichung in X-Richtung. Der Abstand d2 vom linken Auge zum rechten Auge, der Abstand d3 vom Scheitelpunkt 41 zum Bildschirm 44 und der Abstand d4 vom linken und rechten Auge zum Bildschirm 44 stehen alle in wichtiger Beziehung zum Abstand d1 zwischen dem ersten Anzeigepunkt 45 und dem zweiten Anzeigepunkt 46. Durch Anwendung einfacher geometrischer Prinzipien, vergleichbar denen für das Dreieck, ergibt sich für die Abweichung d1 zwischen dem ersten Anzeigepunkt 45 und zweiten Anzeigepunkt 46 folgende Beziehung: d1 = d3·d2/(d4 + d3)
  • Nachdem für den ersten Anzeigepunkt 45 eine Rechenoperation durchgeführt wurde, um daraus eine Koordinatenadresse auf den Bildschirm 44 zu erhalten, würde es sehr zeitaufwendig sein, auch für den zweiten Anzeigepunkt 46 diese Matrix-Berechnung nach der bekannten Methode durchzuführen. Die vorliegende Erfindung führt deshalb zu einer neuen Vorrichtung und zu einem neuen Verfahren zur Verarbeitung dreidimensionaler Bilder. Nach Anwendung der Matrix-Berechnung sind die Koordinaten für den ersten Anzeigepunkt 45 mit (x, y, z) bekannt. Um die Koordinaten für den zweiten Anzeigepunkt 46 zu erhalten, ist es nur notwendig, den Abstand d1 von der X-Koordinate für den ersten Anzeigepunkt 45 abzuziehen, um folgende Koordinaten (x-d1, y, z) zu erhalten. Dieses Verfahren spart Zeit, indem sie die Matrix-Berechnung vermeidet.
  • Gegenwärtig werden dreidimensionale Objekte unter Zuhilfenahme dreidimensionaler Wiedergabegeräte als 3D-Bilder dargestellt. Um alle Scheitelpunkte eines Objekts 40 auf dem Bildschirm 44 nach dem beschriebenen Verfahren darzustellen, wäre es gemäß einem nächsten Schritt notwendig, daß eine 3D-Wiedergabevorrichtung jeden Anzeigepunkt, der vom linken Auge 42 gesehen wird, zu verarbeiten, um daraus ein 3D-Bild für das linke Auge 42 zu erzeugen. Nach demselben Prinzip wird jeder Anzeigepunkt für das rechte Auge 43 verarbeitet, um daraus auf dem Bildschirm 44 ein weiteres 3D-Bild für das rechte Auge 43 zu erzeugen, so daß sich insgesamt ein Bild mit realem dreidimensionalen Effekt ergibt.
  • Das erfindungsgemäße Verfahren zur Erzeugung dreidimensionaler Bilder umfaßt folgende Schritte:
    • 1. In einem Projektionsschritt wird die Matrix-Berechnung dazu benutzt, den jeweiligen Anzeigepunkt zu berechnen, dessen Koordinate sich auf dem Bildschirm befindet und von jedem Scheitelpunkt jedes Objekts projiziert wird, das im virtuellen Raum existiert, wobei davon ausgegangen wird, daß diese Anzeigepunkte die erste Punktkoordinatengruppe desjenigen 3D-Bildes bilden, die für die Betrachtung durch das linke Auge bestimmt sind;
    • 2. Verschiebeschritt: i) Bezogen auf den Scheitelpunkt jedes Objekts wird der Abstand zwischen jedem Scheitelpunkt und dem Bildschirm ermittelt; ii) Unter Benutzung des vorerwähnten Abstandes zwischen jedem Scheitelpunkt und dem Bildschirm, des Abstandes der beiden Augen und des Abstandes zwischen Auge und Bildschirm, wird der Betrag der horizontalen Bewegung errechnet, die für jeden Anzeigepunkt in einer ersten Punktkoordinatengruppe des 3D-Bildes notwendig ist, das für die Betrachtung durch das linke Auge bestimmt ist. Dies führt zur Schaffung einer zweiten Punktkoordinatengruppe, die auf dem Bildschirm dargestellt wird. Dieses durch die zweite Punktkoordinatengruppe gebildete 3D-Bild ist für die Betrachtung durch das rechte Auge vorgesehen.
    • 3. Bilderzeugung: Nachdem die 3D-Wiedergabevorrichtung die erste Punktkoordinatengruppe verarbeitet, wird eine erste 3D-Bildgruppe, die für die Betrachtung durch das linke Auge bestimmt ist, im Speicher erzeugt. Anschließend verarbeitet die 3D-Wiedergabevorrichtung eine zweite Punktkoordinatengruppe, um daraus eine zweite 3D-Bildgruppe zu erzeugen, die für die Betrachtung durch das rechte Auge bestimmt ist.
    • 4. Dreidimensionale Bildanzeige: Ausgabe der ersten 3D-Bildgruppe und der zweiten 3D-Bildgruppe in überlappender Weise, wobei die Bilder vom linken und rechten Auge getrennt betrachtet werden. Im Vergleich zum Stand der Technik nach dem Patent 084753 der Republik China: „Three-Dimensional Imaging System and Method of Using Depth of Vision to Show Two Dimension Images", umfaßt das insoweit beschriebene Verfahren folgende Schritte: 1) Verwendung der 3D-Wiedergabevorrichtung zur Bildung einer ersten Bildgruppe; 2) Nachbildung dieser ersten Bildgruppe zur Bildung einer zeitweise vorhandenen Bildgruppe; 3) Verschiebung dieser zeitweilig vorhandenen Bildgruppe um einen vorbestimmten Abstand zur Bildung einer zweiten Bildgruppe; 4) Kombination der ersten und zweiten Bildgruppe; 5) Darstellung der miteinander kombinierten Bilder zur Bildung dreidimensionaler Bilder.
  • Diese Verfahrensschritte enthalten jedoch noch folgende Schwachpunkte:
    • 1) Um die zeitweise vorhandene Bildgruppe zu schaffen, ist es notwendig, alle Pixel in der ersten Bildgruppe komplett nachzubilden, aber nicht die erste Bildkoordinatengruppe gemäß der Erfindung. Der Bedarf an Speicher und Zeit, der für diese Nachbildung erforderlich ist, hängt von der Auflösung des Computerbildschirms ab; je höher diese Auflösung ist, um so größer muß der Speicher sein und um so länger dauert die Nachbildung.
    • 2) Um die Abweichung, bedingt durch die Ungleichheit der beiden Bilder bei der Zweiaugenbetrachtung, zu berechnen, ist es notwendig, alle Pixel in der zeitweise vorhandenen Bildgruppe zu berechnen und zu übertragen, um die zweite Bildgruppe zu erzeugen, aber nicht die erste Bildkoordinatengruppe gemäß der Erfindung. Je größer das Bild ist, um so mehr Pixels werden einbezogen und um so größer ist der Zeitaufwand, der zur Berechnung dieser Abweichung notwendig ist.
  • Im Gegensatz dazu ist es mit der Erfindung möglich, die zweite Punktkoordinatengruppe durch Verschiebung der ersten Punktkoordinatengruppe zu erzeugen und durch die 3D-Wiedergabeeinrichtung die Ausgabe der ersten 3D-Bildgruppe und der zweiten 3D-Bildgruppe zu veranlassen. Dies vermeidet sowohl die Nachbildung der 3D-Bilder und mehrere Rechenvorgänge, spart Rechenzeit und ist deshalb für die Darstellung von dreidimensionalen Bildern in Realzeit besonders geeignet.
  • Außerdem wird durch die Erfindung eine Vorrichtung geschaffen, mit der dreidimensionale Bilder schneller generiert werden können. 5 zeigt ein Blockschaltbild der erfindungsgemäßen Vorrichtung zur Erzeugung dreidimensionaler Bilder. Diese Vorrichtung 50 enthält eine erste, eine zweite, eine dritte und eine vierte Einrichtung. Die erste Einrichtung 51 empfängt eine Vielzahl von Koordinaten für Scheitelpunkte einer Vielzahl von Objekten, die im virtuellen Raum existieren, um daraus eine erste Punktkoordinatengruppe für die entsprechende Anzeigevorrichtung zu erzeugen. Diese erste Punktkoordinatengruppe enthält eine Vielzahl von Anzeigepunkten. Diese zweite Einrichtung 52 wird dazu benutzt, um den Betrag der horizontalen Bewegung zu berechnen und zwar für jeden Anzeigepunkt der ersten Punktkoordinatengruppe, um daraus eine zweite Punktkoordinatengruppe für die Anzeigeeinheit zu generieren. Diese dritte Einrichtung 53 empfängt die erste Punktkoordinatengruppe und die zweite Punktkoordinatengruppe, um daraus eine erste 3D-Bildpunktgruppe und eine zweite 3D-Bildpunktgruppe zu generieren. Die vierte Einrichtung 54 wird zur überlappenden Darstellung der ersten und zweiten 3D-Bildpunktgruppe an der Anzeigeeinrichtung benutzt. Die in dieser Weise ausgebildete Vorrichtung zur Erzeugung dreidimensionaler Bilder enthält ferner ein fünfte Einrichtung 55 zur Speicherung der Daten der ersten Punktkoordinatengruppe, der zweiten Punktkoordinatengruppe, der ersten 3D-Bildpunktgruppe und der zweiten 3D-Bildpunktgruppe.
  • Zur Anpassung an die herkömmliche Abtasteinrichtung 22 und Adreßübersetzungeinrichtung 23 kann beim erfindungsgemäßen Verfahren zur Erzeugung dreidimensionaler Bilder ein Verfahrensschritt bezüglich der Variation der Speicheranordnung einbezogen werden. Dieser Verfahrensschritt ordnet die Abtastzeile für die erste 3D-Bildgruppe und die Abtastzeile für die zweite 3D-Bildgruppe jeweils überlappend im Speicher an (siehe 6). 6(a) zeigt im einzelnen, daß die Abtastzeile der ersten 3D-Bildgruppe und die Abtastzeile der zweiten 3D-Bildgruppe bei der Erfindung überlappend im Speicher plaziert sind. Zu Beginn wird eine erste Abtastzeile 611 der ersten 3D-Bildgruppe 61 im Speicher hinterlegt. Anschließend wird eine erste Abtastzeile 621 der zweiten 3D-Bildgruppe 62 hinterlegt, dann wird in der Folge jeweils eine Abtastzeile des ersten 3D-Bildes 61 und des zweiten 3D-Bildes 62 jeweils überlappend im Speicher hinterlegt, so daß sich ein kombinierter Rahmen-Pufferspeicher 63 ergibt, wie er in 6(a) dargestellt ist. Daraus ergibt sich die entsprechende reale Speicheradresse für das Pixel P1 der ersten 3D-Bildgruppe 61 mit den Koordinaten (x1, y1) wie folgt (siehe hierzu auch 6(b)) Adresse von Pixel P1 = (P0 + pitch) + y1·(2·pitch) + x1
  • Die entsprechende reale Speicheradresse von Pixel P2 der zweiten 3D-Bildgruppe 62 mit den Koordinaten (x2, y2) lautet: Adresse von Pixel P2 = (P0 + pitch) + y2·(2·pitch) + x2
  • Für den Fall, daß die 3D-Wiedergabevorrichtung die Daten der ersten 3D-Bildgruppe 61 im Speicher hinterlegen will, ist es lediglich erforderlich, die Startadresse als P0 zu setzen und die Breite der Abtastzeile des Rahmen-Pufferspeichers als 2·pitch. Für die Daten der zweiten 3D-Bildgruppe, die im Speicher hinterlegt werden, ist dann die Startadresse in (P0 + pitch) zu ändern, die Breite des Rahmen-Pufferspeichers mit 2·pitch beizubehalten, so daß dann jede Abtastzeile der ersten 3D-Bildgruppe 61 und der zweiten 3D-Bildgruppe 62 über lappend im Speicher hinterlegt werden kann und daraus ein kombinierter Rahmen-Pufferspeicher 63 entsteht, wie er in 6(a) dargestellt ist. Da die herkömmliche Abtastschaltung 22 und die Adreßübersetzungsschaltung 23 die überlappende Abtastmethode unterstützen, werden bei den ungeradzahligen Abtastzeilen des kombinierten Rahmen-Pufferspeichers 63 die Rahmen-Pufferdaten der ersten 3D-Bildgruppe 61 dargestellt. Anderseits werden in den geradzahligen Abtastzeilen des kombinierten Rahmen-Pufferspeichers 63 die Rahmen-Pufferdaten der zweiten 3D-Bildgruppe 62 dargestellt. Eine derart überlappende Anzeigevorrichtung stellt demnach getrennte Bilder für das linke und rechte Auge zur Verfügung, wobei die herkömmliche Abtastschaltung 22 und Adreßübersetzungsschaltung 23 nicht geändert werden müssen und in üblicher Weise betrieben werden können.
  • Um der herkömmlichen Abtastschaltung 22 und der Adreßübersetzungsschaltung 23 zu entsprechen, enthält die Vorrichtung 50 zur Erzeugung dreidimensionaler Bilder darüber hinaus eine sechste Schaltung zum Betrieb des geänderten Speicheraufbaus. Wie aus 7 ersichtlich, enthält diese sechste Schaltung 70 eine Schaltung zur Erzeugung einer Startadresse, eine Schaltung zur Adressenberechnung und eine Adreßauswahlschaltung. Die Schaltung 71 zur Erzeugung der Startadresse wählt eine vorbestimmte Adresse unterschiedlichen Ursprungs aus. Wenn die 3D-Wiedergabeeinrichtung 74 die erste 3D-Bildgruppe 61 entwirft, sendet die Schaltung 71 zur Generierung der Startadresse P0 als ursprüngliche Startadresse aus. Andererseits, wenn die 3D-Wiedergabeeinrichtung 74 die zweite 3D-Bildgruppe 62 entwirft, sendet die Schaltung 71 P0 + pitch als ursprüngliche Startadresse aus. Die Adreßberechnungsschaltung 72 empfängt eine Pixelkoordinate der ersten 3D-Bildgruppe 61 oder der zweiten 3D-Bildgruppe 62 und den Ausgangswert der Schaltung 61 zur Erzeugung der Startadresse, um daraus eine reale Speicheradresse für diese Pixel-Koordinate zu erzeugen. Die Adreßauswahlschaltung 73 wird dazu benutzt, um wahlweise die Ausgangsadresse der Adressrechnerschaltung 72 auszugeben, wenn die 3D-Wiedergabeeinrichtung 74 in etrieb ist, um 3D-Bilder in den Speicher einzulesen, oder sie gibt die Adresse der Adressübersetzungsschaltung 23 aus, wenn die Abtastschaltung 22 3D-Bilder auf dem Bildschirm anzeigen soll.
  • Zusammenfassend ist festzustellen, daß mit dem erfindungsgemäßen Verfahren eine effiziente und effektive Wiedergabe von dreidimensionalen Bildern möglich ist. Das erfindungsgemäße Verfahren vermeidet einerseits die Wiederholung von Matrix-Berechnungen und erweist sich andererseits als vorteilhaft bei der Bereitstellung von Speicheradressen. Deshalb ist es besonders geeignet für die Anzeige von dreidimensionalen Bildern in Echtzeit. Darüber hinaus hat die erfindungsgemäße Vorrichtung den Vorteil, daß weder die Abtastschaltung 22 noch die Adreßübersetzungsschaltung 23 geändert werden müssen, es genügt lediglich die Hinzufügung einfacher elektrischer Komponenten zur Darstellung dreidimensionaler Bilder, dies bei niedrigen Herstellungskosten.
  • Wenngleich die vorliegende Erfindung lediglich anhand eines möglichst praktikablen und bevorzugten Ausführungsbeispiels beschrieben worden ist, so ist sie doch nicht auf die insoweit offenbarte Ausführung beschränkt. Sie umfaßt vielmehr eine Vielzahl von Modifikationen und äquivalenten Lösungen im Geist und im Umfang der angefügten Ansprüche.
  • 21
    3D-Wiedergabeeinrichtung
    22
    Abtastschaltung
    23
    Adreßübersetzungsschaltung
    24
    Rahmenpufferspeicher
    31
    erstes 3D-Bild
    32
    zweites 3D-Bild
    33
    Endadresse von 31
    34
    Startadresse von 32
    40
    Objekt
    41
    Scheitelpunkt
    42
    linkes Auge
    43
    rechtes Auge
    44
    Bildschirm
    45
    erster Anzeigepunkt
    46
    zweiter Anzeigepunkt
    51...55
    erste...fünfte Einrichtung
    61
    erstes 3D-Bild (Bildgruppe)
    611
    erste Abtastzeile von 61
    62
    zweites 3D-Bild (Bildgruppe)
    621
    erste Abtastzeile von 62
    63
    Pufferspeicher
    70
    sechste Einrichtung
    71
    Einrichtung zur Erzeugung einer Startadresse
    72
    Einrichtung zur Berechnung von Adressen
    73
    Einrichtung zur Auswahl von Adressen
    74
    3D-Wiedergabeeinrichtung

Claims (6)

  1. Vorrichtung (50) zur Erzeugung dreidimensionaler Bilder, wobei ausgehend von einem dreidimensionalen, mehrere Objekte enthaltenden Bild bei der Anzeige ein dreidimensionaler Effekt erzeugt wird, mit folgenden Einrichtungen – eine erste Einrichtung (51), die ausgehend von einer Vielzahl von Scheitelpunktkoordinaten der einzelnen Objekte (11, 111, 112, 113, 114) eine erste Bildpunktkoodinatengruppe (14, 141, 142, 143, 144) für eine Anzeigeeinrichtung in einer Anzeigeebene (13) erzeugt, wobei diese erste Bildpunktkoordinatengruppe eine Vielzahl von Anzeigepunkten enthält, – eine zweite Einrichtung (52) zur Berechnung einer zweiten Bildpunktkoordinatengruppe (16, 161, 162, 163, 164) für die Anzeigeeinrichtung in der Anzeigeebene (13), – eine dritte Einrichtung (53), die ausgehend von der ersten Bildpunktkoordinatengruppe und der zweiten Bildpunktkoordinatengruppe eine erste 3D-Bildgruppe und einer zweite 3D-Bildgruppe erzeugt, und – eine vierte Einrichtung (54) zur überlappenden Anzeige der ersten und der zweiten 3D-Bildgruppe auf der Anzeigeeinrichtung dadurch gekennzeichnet, dass die zweite Einrichtung (52) die zweite Bildpunktkoordinatengruppe (16, 161, 162, 163, 164) aus dem Betrag einer horizontalen Bewegung oder Verschiebung in der Anzeigeebene (13), die für jeden Anzeigepunkt der ersten Bildpunktkoordinatengruppe erforderlich ist, berechnet.
  2. Vorrichtung nach Anspruch 1, gekennzeichnet durch eine fünfte Einrichtung (55) zur Speicherung der ersten Bildkoordinatengruppe, der zweiten Bildkoordinatengruppe, der ersten 3D-Bildgruppe und der zweiten 3D-Bildgruppe.
  3. Vorrichtung nach Anspruch 2, gekennzeichnet durch ein sechste Einrichtung (70) zur Überlappung der Abtastzeilen der ersten 3D-Bildgruppe und der zweiten 3D-Bildgruppe in der fünften Einrichtung.
  4. Vorrichtung nach Anspruch 3, dadurch gekennzeichnet, daß die sechste Einrichtung (70) folgende Komponenten aufweist: – eine Startadressen-Erzeugungsschaltung (71) zur wahlweisen Ausgabe einer vorbestimmten Adresse verschiedener Herkunft; – eine Adreß-Rechnerschaltung (72), die ausgehend von einer Pixelkoordinate in der ersten 3D-Bildgruppe oder der zweiten 3D-Bildgruppe und dem Ausgangswert der Startadressen-Generierschaltung (71) eine reale Speicheradresse dieser Pixel-Koordinate erzeugt; und – eine Adreß-Auswahlschaltung (73) zur selektiven Ausgabe einer entsprechenden Adresse, die für eine 3D-Wiedergabeeinrichtung oder eine Abtasteinheit benötigt wird.
  5. Verfahren zur Erzeugung dreidimensionaler, mehrere Objekte enthaltender Bilder aus einer dreidimensionalen Bildvorlage zur Erzeugung eines dreidimensionalen Effekts, mit folgenden Schritten: a) ein Projektionsschritt zur Erzeugung einer ersten Punktkoordinatengruppe (14, 141, 142, 143, 144) durch Projizierung einer Vielzahl von Scheitelpunktkoordinaten aus einer Vielzahl von Objekten (11, 111, 112, 113, 114) auf einer Anzeigeeinrichtung in einer Anzeigeebene (13), b) ein Verschiebe-Rechenschritt zur Erzeugung einer zweiten Punktkoordinatengruppe für die Anzeigeeinrichtung in der Anzeigeebene (13), c) ein Bilderzeugungsschritt zur Erzeugung einer ersten 3D-Bildgruppe und einer zweiten 3D-Bildgruppe mit Hilfe der ersten Punktkoordinatengruppe und der zweiten Punktkoordinatengruppe, und d) ein Anzeigeschritt zur überlappenden Anzeige der ersten 3D-Bildgruppe und der zweiten 3D-Bildgruppe auf der Anzeigeeinrichtung, dadurch gekennzeichnet, dass die zweite Bildpunktkoordinatengruppe (16, 161, 162, 163, 164) aus dem Betrag einer horizontalen Bewegung oder Verschiebung in der Anzeigeebene (13), die für jeden Anzeigepunkt der ersten Bildpunktkoordinatengruppe erforderlich ist, berechnet wird.
  6. Verfahren nach Anspruch 5, gekennzeichnet durch einen Verfahrensschritt einer Variationsspeicheranordnung, bei welchem Verfahrensschritt Abtastzeilen der ersten und zweiten 3D-Bildgruppe verschachtelt in einer Speicheranordnung abgespeichert werden.
DE19953595A 1999-03-19 1999-11-08 Verfahren und Vorrichtung zur Verarbeitung dreidimensionaler Bilder Expired - Lifetime DE19953595B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW088104308A TW421969B (en) 1999-03-19 1999-03-19 3D image processing device and method
TW88104308 1999-03-19

Publications (2)

Publication Number Publication Date
DE19953595A1 DE19953595A1 (de) 2000-09-28
DE19953595B4 true DE19953595B4 (de) 2006-10-12

Family

ID=21640006

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19953595A Expired - Lifetime DE19953595B4 (de) 1999-03-19 1999-11-08 Verfahren und Vorrichtung zur Verarbeitung dreidimensionaler Bilder

Country Status (4)

Country Link
US (1) US6515663B1 (de)
JP (1) JP3230745B2 (de)
DE (1) DE19953595B4 (de)
TW (1) TW421969B (de)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2328795A1 (en) 2000-12-19 2002-06-19 Advanced Numerical Methods Ltd. Applications and performance enhancements for detail-in-context viewing technology
CA2345803A1 (en) * 2001-05-03 2002-11-03 Idelix Software Inc. User interface elements for pliable display technology implementations
US8416266B2 (en) 2001-05-03 2013-04-09 Noregin Assetts N.V., L.L.C. Interacting with detail-in-context presentations
WO2002101534A1 (en) * 2001-06-12 2002-12-19 Idelix Software Inc. Graphical user interface with zoom for detail-in-context presentations
US9760235B2 (en) * 2001-06-12 2017-09-12 Callahan Cellular L.L.C. Lens-defined adjustment of displays
CA2361341A1 (en) 2001-11-07 2003-05-07 Idelix Software Inc. Use of detail-in-context presentation on stereoscopically paired images
US8120624B2 (en) * 2002-07-16 2012-02-21 Noregin Assets N.V. L.L.C. Detail-in-context lenses for digital image cropping, measurement and online maps
CA2393887A1 (en) * 2002-07-17 2004-01-17 Idelix Software Inc. Enhancements to user interface for detail-in-context data presentation
CA2406047A1 (en) * 2002-09-30 2004-03-30 Ali Solehdin A graphical user interface for digital media and network portals using detail-in-context lenses
CA2449888A1 (en) * 2003-11-17 2005-05-17 Idelix Software Inc. Navigating large images using detail-in-context fisheye rendering techniques
CA2407383A1 (en) * 2002-10-10 2004-04-10 Idelix Software Inc. Editing multiple layers of a presentation using detail-in-context lenses
US20110069086A1 (en) * 2002-10-10 2011-03-24 Shoemaker Garth B D Detail-in-Context Presentations in Client/Server Systems
US7650036B2 (en) * 2003-10-16 2010-01-19 Sharp Laboratories Of America, Inc. System and method for three-dimensional video coding
US8106927B2 (en) 2004-05-28 2012-01-31 Noregin Assets N.V., L.L.C. Graphical user interfaces and occlusion prevention for fisheye lenses with line segment foci
US9317945B2 (en) * 2004-06-23 2016-04-19 Callahan Cellular L.L.C. Detail-in-context lenses for navigation
US7714859B2 (en) 2004-09-03 2010-05-11 Shoemaker Garth B D Occlusion reduction and magnification for multidimensional data presentations
US7995078B2 (en) 2004-09-29 2011-08-09 Noregin Assets, N.V., L.L.C. Compound lenses for multi-source data presentation
US7463258B1 (en) 2005-07-15 2008-12-09 The United States Of America As Represented By The Secretary Of The Navy Extraction and rendering techniques for digital charting database
JP4761528B2 (ja) * 2005-10-11 2011-08-31 任天堂株式会社 ゲームプログラムおよびゲーム装置
US8031206B2 (en) * 2005-10-12 2011-10-04 Noregin Assets N.V., L.L.C. Method and system for generating pyramid fisheye lens detail-in-context presentations
US7522164B2 (en) * 2006-03-28 2009-04-21 International Business Machines Corporation Using self-adjustable three-dimensional matrix to simplify the construction of a complex 3D scene
US7983473B2 (en) 2006-04-11 2011-07-19 Noregin Assets, N.V., L.L.C. Transparency adjustment of a presentation
US9026938B2 (en) * 2007-07-26 2015-05-05 Noregin Assets N.V., L.L.C. Dynamic detail-in-context user interface for application access and content access on electronic displays
EP2553933B1 (de) 2010-03-31 2018-10-24 Thomson Licensing 3d-disparitätskarten
TWI419078B (zh) * 2011-03-25 2013-12-11 Univ Chung Hua 即時立體影像產生裝置與方法
JP5741683B2 (ja) * 2011-03-28 2015-07-01 株式会社Jvcケンウッド 立体映像処理装置及び立体映像処理方法
TWI467514B (zh) * 2011-05-12 2015-01-01 Himax Tech Ltd 三維影像處理系統及方法
KR101810845B1 (ko) 2011-05-26 2017-12-22 톰슨 라이센싱 스케일-독립적인 맵
CN103686116B (zh) * 2012-09-04 2016-04-20 晨星软件研发(深圳)有限公司 立体影像输出装置与相关的立体影像输出方法
US10134170B2 (en) * 2013-09-26 2018-11-20 Intel Corporation Stereoscopic rendering using vertix shader instancing
CN109461116B (zh) * 2018-10-16 2023-04-28 浩云科技股份有限公司 一种基于opengl的720全景展开监控方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997023097A2 (en) * 1995-12-19 1997-06-26 Philips Electronics N.V. Parallactic depth-dependent pixel shifts
US5796373A (en) * 1996-10-10 1998-08-18 Artificial Parallax Electronics Corp. Computerized stereoscopic image system and method of using two-dimensional image for providing a view having visual depth

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5684937A (en) * 1992-12-14 1997-11-04 Oxaal; Ford Method and apparatus for performing perspective transformation on visible stimuli
US5808588A (en) 1996-04-25 1998-09-15 Artificial Parallax Electronics Corp. Shutter synchronization circuit for stereoscopic systems
JP3928229B2 (ja) * 1997-11-28 2007-06-13 ソニー株式会社 表示制御装置および表示制御方法、並びに記録媒体
US6249286B1 (en) * 1998-10-31 2001-06-19 Hewlett-Packard Company Memory efficient surface normal compression
US6317126B1 (en) * 1999-03-09 2001-11-13 Silicon Graphics, Inc. Method and device for associating a pixel with one of a plurality of regions in a logarithm or cosine space

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997023097A2 (en) * 1995-12-19 1997-06-26 Philips Electronics N.V. Parallactic depth-dependent pixel shifts
US5796373A (en) * 1996-10-10 1998-08-18 Artificial Parallax Electronics Corp. Computerized stereoscopic image system and method of using two-dimensional image for providing a view having visual depth

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JAMES D.FOLEY: Grundlagen der Computergraphik, 1. Aufl., Addison-Weseley, 1994, S.en 495-498, ISBN 3-89319-647-1 *

Also Published As

Publication number Publication date
DE19953595A1 (de) 2000-09-28
JP2000267649A (ja) 2000-09-29
US6515663B1 (en) 2003-02-04
JP3230745B2 (ja) 2001-11-19
TW421969B (en) 2001-02-11

Similar Documents

Publication Publication Date Title
DE19953595B4 (de) Verfahren und Vorrichtung zur Verarbeitung dreidimensionaler Bilder
EP2027728B1 (de) Verfahren und vorrichtung zur pseudoholographischen bilderzeugung
DE69434685T2 (de) Bildverarbeitungsverfahren und -gerät
DE102005010250B4 (de) Verfahren und Einrichtung zum Nachführen von Sweet-Spots
EP0836332B1 (de) Positionsadaptiver, autostereoskoper Monitor (PAM)
DE69632755T2 (de) Vorrichtung zur Erzeugung von rechnererzeugten stereoskopischen Bildern
DE60120474T2 (de) Rasterung von dreidimensionalen bildern
EP2800350A2 (de) Anordnung und Verfahren zur Aufnahme und Wiedergabe von Bildern einer Szene und/oder eines Objektes
DE10245611A1 (de) Vorrichtung zur Anzeige von dreidimensionalen Bildern
EP1451775A1 (de) Erzeugung einer stereo-bildfolge aus einer 2d-bildfolge
EP0760145B1 (de) Verfahren zum erzeugen räumlich wirkender bilder
DE4312918A1 (de) Wiedergabeeinrichtung
DE4300246A1 (en) Depth scanner for displaying three=dimensional pictures without lenses - projects collimated light through object to be scanned and condenses light and filters to remove direct flow component
DE102010028668B4 (de) Verfahren zur räumlichen Darstellung
DE10056978B4 (de) Verfahren zur Erzeugung eines stereographischen Bildes
EP2478705A1 (de) Verfahren und vorrichtung zum erzeugen von teilansichten und/oder einer raumbildvorlage aus einer 2d-ansicht für eine stereoskopische wiedergabe
EP2122415A1 (de) Autostereoskopisches bildwiedergabegerät zur erzeugung eines schwebenden reellen stereobildes
DE102004032586B4 (de) Verfahren zur Erzeugung einer dreidimensionalen Darstellung
DE69723789T2 (de) Verfahren und Gerät zur Erzeugung beweglicher Bilder aus aleatorischen Punkten
DE19702329A1 (de) Betrachtungssystem für elektronische 3-D-Animation und 3-D-Betrachtungsgerät
WO2007085482A1 (de) Verfahren zur erzeugung und darstellung räumlich wahrnehmbarer bilder
DE10046788B4 (de) Verfahren und Vorrichtung zur Erzeugung eines Kombinationsbildes aus in einem Datensatz gespeicherten Bildinformationen
EP1019776A1 (de) Verfahren und anordnung zum herstellen eines räumlich wiedergebbaren bildes
EP1249134B1 (de) Verfahren und vorrichtung zu einer hardware-unabhängigen realisierung einer stereoskopischen darstellung
EP0567477B1 (de) Verfahren zur wiedergabe dreidimensionaler szenen

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
8328 Change in the person/name/address of the agent

Representative=s name: PATENTANWALTSKANZLEI LIERMANN-CASTELL, PATENTANWAE

R071 Expiry of right