DE60030401T2 - Anzeigetechniken für dreidimensionale virtuelle Realität - Google Patents

Anzeigetechniken für dreidimensionale virtuelle Realität Download PDF

Info

Publication number
DE60030401T2
DE60030401T2 DE60030401T DE60030401T DE60030401T2 DE 60030401 T2 DE60030401 T2 DE 60030401T2 DE 60030401 T DE60030401 T DE 60030401T DE 60030401 T DE60030401 T DE 60030401T DE 60030401 T2 DE60030401 T2 DE 60030401T2
Authority
DE
Germany
Prior art keywords
image
dimensional image
world
dimensional
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60030401T
Other languages
English (en)
Other versions
DE60030401D1 (de
Inventor
John T. New York Edmark
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia of America Corp
Original Assignee
Lucent Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lucent Technologies Inc filed Critical Lucent Technologies Inc
Publication of DE60030401D1 publication Critical patent/DE60030401D1/de
Application granted granted Critical
Publication of DE60030401T2 publication Critical patent/DE60030401T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft die Integration dreidimensionaler Computergraphik und eines zweidimensionalen Bildes zur Bereitstellung eines realistischen dreidimensionalen Virtual-Reality-Erlebnisses.
  • Allgemeiner Stand der Technik
  • Die Anzeige einer dreidimensionalen Virtual-Reality-Welt für einen Benutzer erfordert beträchtliche Rechenleistung und es ist in der Regel kostspielig, die dafür erforderlichen notwendigen hochdetaillierten Modelle zu entwickeln. Um das Problem zu vereinfachen, kann man zweidimensionale Bilder wie etwa Videos oder Fotografien zur Repräsentation oder Simulation von Teilen der dreidimensionalen Welt verwenden. Durch eine solche Anordnung läßt sich eine große Reduktion der Rechenleistung und Kosten erzielen.
  • Eine Beschränkung einer solchen Welt entsteht, wenn sich ein Benutzer in der Welt bewegt und die Welt von einem anderen Ort als dem ursprünglichen Kontext des zweidimensionalen Bildes aus betrachtet, der sorgfältig kalibriert wurde, um in die Welt „reinzupassen". Ansichtsänderungen, wie etwa von einem anderen Ort als dem idealen Sichtpunkt des Bildes, der auch als „Mitte der Projektion" bekannt ist, führen dazu, daß das Bild nicht gut mit umgebenden Objekten der dreidimensionalen Welt ausgerichtet ist oder auf diese paßt. Anzeigetechniken zur Behandlung solcher Sichtpunktänderungen werden jedoch in dem US-Patent-Nr. 6,229,548 beschrieben, das die Manipulation des zweidimensionalen Bildes durch Verwendung sogenannter „pyramidischer Panel-Strukturen" offenlegt. Genauer gesagt, wird das zweidimensionale Bild so manipuliert, daß Fluchtpunkt(e) des Bildes gemäß der Bewegung des Benutzers eingestellt wird bzw. werden. Auf diese Weise wirkt, während sich der Benutzer von dem idealen Sichtpunkt wegbewegt, eine Verzerrung zur Begrenzung der Diskontinuitäten zwischen dem zweidimensionalen Bild und der Umgebung der Welt. Diese letzteren neuartigen Anzeigetechniken haben jedoch den Nachteil, daß sie hauptsächlich für sogenannte „korridorartige" zweidimensionale Bilder, wie zum Beispiel Straßen, arbeiten, bei denen parallele Merkmale an einem sogenannten „Fluchtpunkt" zu konvergieren scheinen.
  • G.U. Carraro et al., „Techniques for Handling Video in Virtual Environments", Computer Graphics, Siggraph 98 Conference Proceedings, Orlando FL, 19.-24.07.1998, Computer Graphics Proceedings, Siggraph, New York NY ACM US (19.07.1998), Seiten 353-360, bespricht die Verwendung pyramidischer Panels zur Integration von korridorartigem Bild in virtuelle Umgebungen.
  • Y. Horry et al., „Tour Into the Picture: Using A Spidery Mesh Interface to Make Animation from A Single Image", Computer Graphics Proceedings, Siggraph 97, Los Angeles, 3.-8.8.1997, Reading, Addison Wesley US (03-08-1997), Seiten 225-232, bespricht ein Verfahren mit dem Namen TIP (Tour Into the Picture) zur Erzeugung von Animationen aus einem 2D-Bild oder -Foto einer Szene. Eine sogenannte „spinnenartige Masche" wird verwendet, um ein einfaches Szenenmodell eines 2D-Bildes zu erzeugen.
  • Kurzfassung der Erfindung
  • Ein Verfahren und eine Vorrichtung gemäß der vorliegenden Erfindung werden in den unabhängigen Ansprüchen dargelegt, auf die der Leser nun verwiesen wird. Bevorzugte Merkmale werden in den abhängigen Ansprüchen dargelegt.
  • Obwohl sogenannte „pyramidische Panel-Strukturen" verwendet werden können, um den/die Fluchtpunkt(e) des Bildes gemäß der Bewegung des Benutzers einzustellen, haben solche Strukturen den Nachteil, daß sie hauptsächlich für „korridorartige" zweidimensionale Bilder arbeiten. Der Verfasser hat festgestellt, daß gemäß den Prinzipien der Erfindung Sichtpunktänderungen auch durch Aufteilen des zweidimensionalen Bildes in Polygon-Aufteilungen behandelt werden können, wobei jede einer in dem Bild abgebildeten Oberfläche entspricht, und dann die Eckpunkte der Polygon-Aufteilungen mit der Bewegung des Benutzers gekoppelt werden, um so Verzerrungen zu begrenzen. Bildpunkte, die weiter von der Sichtebene des Benutzers entfernt sind, bewegen sich genauer gesagt dichter mit der Bewegung des aktuellen Sichtpunkts des Benutzers als näher angeordnete Bildpunkte. Während sich der Betrachter von dem idealen Sichtpunkt IVP des Bildes wegbewegt, wirkt die resultierende Verzerrung in dem Bild auf diese Weise als Gegenwirkung und Begrenzung von Verzerrungen. Insbesondere werden bei diesem letzteren Ansatz zweidimensionale Bilder nicht als sogenannte „korridorartige" Bilder behandelt, wodurch eine größere Vielfalt zweidimensionaler Bilder mit der vorliegenden Erfindung verwendet werden kann.
  • Kurze Beschreibung der Zeichnungen
  • Es zeigen:
  • 1 ein Beispiel von dem vom Benutzer Gesehenen, wenn ein Benutzer die Welt von dem idealen Sichtpunkt für ein einen Teil der Welt repräsentierendes zweidimensionales Bild betrachtet;
  • 2 ein Beispiel von dem vom Benutzer Gesehenen, wenn sich ein Benutzer in der Welt von 1 bewegt und das zweidimensionale Bild von einem anderen Ort als dem idealen Sichtpunkt des Bildes aus betrachtet, ohne Verwendung der vorliegenden Erfindung;
  • 3 einen beispielhaften Prozeß gemäß den Prinzipien der vorliegenden Erfindung zum Manipulieren des zweidimensionalen Bildes gemäß der Bewegung des Benutzers;
  • 4-6 die Aufteilung des zweidimensionalen Bildes in Polygon-Aufteilungen und die Abbildung der Eckpunkte davon gemäß der Bewegung des Benutzers; und
  • 7 und 8 Beispiele für das vom Benutzer gesehene, wenn ein Benutzer die Welt von einem Ort links des idealen Sichtpunkts des Bildes aus betrachtet, ohne bzw. mit Verwendung der vorliegenden Erfindung.
  • Ausführliche Beschreibung
  • Um die Erfindung besser zu verstehen, zeigen 1-2 Beispiele für das vom Benutzer Gesehene, wenn sich der Benutzer in einer dreidimensionalen Virtual-Reality-Welt (x, y, z) bewegt und ein zweidimensionales Bild (x, y) von einem Ort an dem idealen Sichtpunkt (IVP) des Bildes aus und dann von einem anderen Ort aus, d.h. einem von dem ursprünglichen Kontext des Bildes verschiedenen Ort aus, sieht. Zur Vereinfachung der Terminologie soll der Ausdruck zweidimensionales Bild entweder einen Videoclip oder ein Foto bezeichnen.
  • 1 zeigt eine beispielhafte dreidimensionale Reality-Welt 105, die in zwei Teile unterteilt ist, eine Sichtebene 110, auf der ein zweidimensionales Bild 115 wie zum Beispiel eine Standfotografie, ein Bild oder ein aktuelles Einzelbild eines Videoclips gezeigt oder angezeigt ist; und den Rest der Welt 120. In diesem Fall ist das zweidimensionale Bild 115 ein Bild der Bretton Hall, die sich am Schnittpunkt der 86. Straße und des Broadway in New York City befindet und die zur Simulation eines Gebäudes 125 in der durch die rechteckigen Koordinaten (x, y, z) definierten Virtual-Reality-Welt 105 benutzt wird. Der Rest der Welt 120 wird unter Verwendung von Computergrafiktechniken repräsentiert und wird somit hier als Computergrafik (CG-Teil) 120 bezeichnet. Obwohl es nicht gezeigt ist, können in dem CG-Teil 120 verschiedene synthetische dreidimensionale Objekte vorliegen, die zum Beispiel in der Virtual Reality Modeling Language (VRML) modelliert werden.
  • Obwohl die dreidimensionale Welt 105 tatsächlich nicht in einer zweidimensionalen Ebene (x, y) wiedergegeben werden kann, ist zu beachten, daß sie auf eine Sichtebene projiziert und dort angezeigt werden kann, um so als drei Dimensionen (x, y, z) aufweisend zu erscheinen. Folglich werden die Techniken der vorliegenden Erfindung vorzugsweise mit Computern und Software verwendet, die kompliziert genug ist, um Bilder als drei Dimensionen aufweisend auf einer zweidimensionalen Ebene anzuzeigen. Man beachte, daß, damit die Welt realistisch aussieht, Computergrafik-Anzeigetechniken die z-Komponenten von Objekten benutzen, um sie als Funktion ihrer Distanz (z-Achse) zum Sichtpunkt des Benutzers gemäß den x- und y-Komponenten zu skalieren.
  • Das zweidimensionale Bild 115 wird sorgfältig in der umgebenden Umgebung des CG-Teils 120 als Funktion der Abmessungen der Umgebungen in der Welt plaziert, zurechtgeschnitten und bemessen. Beim Betrachten des zweidimensionalen Bildes 115 gibt es jedoch nur einen Sichtpunkt, von dem aus der Inhalt des Bildes korrekt betrachtet werden kann. Diese eindeutige Position wird als der ideale Sichtpunkt (IVP) des Bildes bezeichnet, der auch als „Mitte der Projektion" bekannt ist. In 1 ist das zweidimensionale Bild 115 von seinem idealen Sichtpunkt aus zu sehen. Benutzer betrachten das Bild 115 jedoch nur selten von seinem idealen Sichtpunkt aus. Wenn sich Benutzer in der Welt 105 bewegen, wie zum Beispiel nach links oder nach rechts des Gebäudes 125, oder sich näher zu dem Bild oder weiter von ihm weg bewegen, betrachten sie das Bild 115 von anderen Positionen als seinem idealen Sichtpunkt aus. Ohne Verwendung der vorliegenden Erfindung würden solche Sichtpunktänderungen eine Verzerrung von Merkmalen in dem Bild 115 wie in 2 gezeigt verursachen.
  • Zweidimensionale Bilder werden nicht als sogenannte „korridorartige" Bilder behandelt, so daß vielfältigere zweidimensionale Bilder mit der vorliegenden Erfindung benutzt werden können. Wenn sich der Benutzer jedoch von dem idealen Sichtpunkt wegbewegt, wird das zweidimensionale Bild 115 jedoch ähnlich manipuliert, um die Bewegung des Benutzers zu berücksichtigen, wie später besprochen werden wird. Gemäß den Prinzipien der Erfindung wird das zweidimensionale Bild 115 in separate Polygon-Aufteilungen aufgeteilt, die jeweils einer in dem Bild abgebildeten gewünschten Oberfläche von Objekten entsprechen. Jeder Eckpunkt der Polygon-Aufteilung wird dann an die Bewegung des Benutzers in bezug auf den idealen Sichtpunkt des Bildes angekoppelt, wobei die Kopplungsstärke von der Distanz des Eckpunkts von der Sichtebene 110 abhängt, wie später ausführlicher besprochen werden wird. Das Ergebnis dieser Kopplung besteht darin, daß Objekte in dem zweidimensionalen Bild 115 sich als texturabgebildete Festmodelle zu verhalten scheinen.
  • 3 zeigt einen beispielhaften Prozeß gemäß den Prinzipien der Erfindung zur Manipulation eines zweidimensionalen Bildes 115 gemäß der Position des Betrachters. Der Prozeß beginnt im Schritt 130 immer dann, wenn bestimmt wird, daß sich die Position des Betrachters geändert hat.
  • Im Schritt 135 wird ein Vektor C von dem idealen Sichtpunkt IVP des Bildes normal zu der Sichtebene 110, die das Bild 115 enthält, projiziert. Im Schritt 140 werden interessierende Objekte in dem zweidimensionalen Bild 115 dann in separate Polygon-Aufteilungen aufgeteilt, die jeweils einer gewünschten Oberfläche des Objekts entsprechen, wie in 4 gezeigt. Hierbei und lediglich zur Veranschaulichung wurde das Gebäude 125 in nur zwei Polygon-Aufteilungen 145 und 150 segmentiert, die der linken bzw. der rechten Seite des Gebäudes entsprechen. Man beachte, daß die Eckpunkte der Polygon-Aufteilungen mit Q1-Q6 bezeichnet sind, wobei ihr Schnittpunkt sich entlang dem Liniensegment
    Figure 00070001
    befindet. Es versteht sich, daß die Eckpunkte Q1-Q6 im dreidimensionalen Raum durch einen entsprechenden Vektor Q i definiert werden, der auf die Position des Eckpunkts Qi zeigt. Im Schritt 155 wird danach der aktuelle Sichtpunkt des Benutzers V bestimmt und ein Vektor T wird von dem idealen Sichtpunkt IVP zu dem aktuellen Ort V des Betrachters projiziert. Als nächstes wird im Schritt 160 ein Koppelverhältnis αi für jeden Eckpunkt Qi gemäß der folgenden Gleichung berechnet:
    Figure 00070002
    wobei Di die orthogonale Distanz von dem idealen Sichtpunkt (IVP) des Bildes zu der Bildebene in dem dreidimensionalen Raum (x, y, z) der den Eckpunkt Qi enthaltenden virtuellen Welt ist. Während sich der Betrachter bewegt, wird jeder Eckpunkt Qi dann gemäß der folgenden Gleichung im Schritt 165 auf einen neuen Eckpunkt Q'i abgebildet: Q i' = Q i + αi T (Gl. 2), wodurch neue Polygon-Aufteilungen 145' und 150' in den Weltkoordinaten (x, y, z) gebildet werden. Für Fachleute ist ohne weiteres ersichtlich, daß der Ort des abgebildeten Eckpunkts Q'i im dreidimensionalen Raum durch einen entsprechenden Vektor Q i' definiert wird, der auf den Ort des Eckpunkts Q'i zeigt. Dies ist in 5 dargestellt. Außerdem ist zur Veranschaulichung in 6 die orthogonale Distanz D3 für den Eckpunkt Q3 gezeigt. Man beachte, daß αi von 1 für die Eckpunkte, die sich bei Unendlich (D = ∞) befinden, bis zu 0 für die Eckpunkte, die sich in der Sichtbildebene befinden (D = |C|), variiert, wodurch eine stärkere Kopplung für ferner gelegene Objekte bereitgestellt wird. Im Schritt 165 werden die entsprechenden Bilder in den ursprünglichen Polygon-Aufteilungen 145 und 150 dann auf neue Polygon-Aufteilungen 145' bzw. 150' texturabgebildet. Ähnlich wird die oben beschriebene Prozedur für jede Polygon-Aufteilung wiederholt (Schritt 170). Es versteht sich, daß die obigen Polygon-Aufteilungen im dreidimensionalen Raum (x, y, z) der virtuellen Welt im Schritt 165 so manipuliert wurden, daß sich ferner von der Sichtebene 110 gelegene Bildpunkte dichter mit der Bewegung des aktuellen Sichtpunkts des Benutzers bewegen als die Punkte, die sich ferner näher der Sichtebene befinden. Während sich der Betrachter von dem idealen Sichtpunkt IVP des Bildes wegbewegt, wirkt die resultierende Verzerrung auf diese Weise in dem Bild zur Begrenzung von Verzerrungen.
  • 7 und 8 vergleichen die Anzeige des zweidimensionalen Bildes 115 für die Anzeige desselben Bildes mit und ohne Verwendung der Polygon-Aufteilungen der vorliegenden Erfindung. Genauer gesagt zeigt 7 die Betrachtung des zweidimensionalen Bildes 115 an einem Ort links des idealen Sichtpunkts IVP des Bildes ohne Verwendung der vorliegenden Erfindung. In dieser letzteren Figur beachte man die Verzerrungen in dem Bild. 8 zeigt dasselbe zweidimensionale Bild, das gemäß den Prinzipien der Erfindung manipuliert wurde. Man beachte jedoch, daß in dieser letzteren Figur die Verzerrungen im wesentlichen beseitigt wurden.
  • Es sollte offensichtlich sein, daß Objekte in dem zweidimensionalen Bild in mehr als zwei Polygon-Aufteilungen aufgeteilt werden können. Anstatt die Seiten des Gebäudes als zwei Oberflächen zu behandeln, kann man zum Beispiel mehrere Polygon-Aufteilungen verwenden, die jeweils einen verschiedenen Teil des Gebäudes im dreidimensionalen Raum der Welt 105 repräsentieren, wie etwa Türen, Wände und Fenster. In einem solchen Fall wird jede Polygon-Aufteilung ähnlich auf die hier oben beschriebene Weise manipuliert. Die Aufteilung von Objekten im zweidimensionalen Bild in eine größere Anzahl kleinerer Polygon-Aufteilungen verringert Verzerrungen weiter. Es wird in Betracht gezogen, daß die Anzahl der Polygon-Aufteilungen, in die jedes Objekt aufgeteilt wird, empirisch auf der Basis des Bildinhalts sowie des Bewegungsbereichs des Benutzers in der virtuellen Welt und der Verarbeitungsleistung des verwendeten Computersystems gewählt werden kann.

Claims (13)

  1. Verfahren zur Verwendung bei der Verarbeitung einer Ansicht einer dreidimensionalen Welt, bei dem ein erster Teil der Welt als Computergraphik modelliert und ein zweiter Teil der Welt durch ein zweidimensionales Bild repräsentiert wird, mit den folgenden Schritten: Bestimmen des aktuellen Sichtpunkts des zweidimensionalen Bildes des Benutzers (155); Aufteilen des zweidimensionalen Bildes in Polygon-Aufteilungen, die jeweils einer gewünschten Oberfläche eines in dem zweidimensionalen Bild abgebildeten Objekts entsprechen (140); Verzerren der Polygon-Aufteilungen gemäß der Bewegung des aktuellen Sichtpunkts des Benutzers von dem idealen Sichtpunkt des zweidimensionalen Bildes, wobei die Eckpunkte der Polygon-Aufteilungen mit der Bewegung des Benutzers gekoppelt sind, dergestalt, daß Bewegungen von Bildpunkten, die sich ferner von der Sichtebene des Benutzers entfernt befinden, stärker mit der Bewegung des aktuellen Sichtpunkts des Benutzers gekoppelt werden als die Punkte, die sich näher bei der Sichtebene Befinden (160, 165), wobei der ideale Sichtpunkt die Mitte der Projektion des zweidimensionalen Bildes ist; und während sich der Benutzer in der dreidimensionalen Welt bewegt, Wiederholen des obigen Verzerrungsschritts, um so Diskontinuitäten zwischen dem zweidimensionalen Bild und der Computergraphik zu begrenzen.
  2. Verfahren nach Anspruch 1, ferner mit dem Schritt des Skalierens des zweidimensionalen Bildes als Funktion der Dimensionen der Umgebung in der Welt, vor dem Aufteilungsschritt.
  3. Verfahren nach Anspruch 1, wobei das zweidimensionale Bild kein "korridorartiges" Bild ist, wobei ein korridorartiges Bild parallele Strukturelemente aufweist, die scheinbar an einem einzigen Verschwindungspunkt konvergieren.
  4. Verfahren nach Anspruch 1, ferner mit dem Schritt des Anzeigens des mit dem ersten Teil der Welt, der als Computergraphik modelliert wird, zusammengeführten zweidimensionalen Bildes, nach dem Verzerrungsschritt.
  5. Verfahren nach Anspruch 1, wobei das zweidimensionale Bild ein Videoeinzelbild ist.
  6. Verfahren nach Anspruch 1, wobei das zweidimensionale Bild ein Standbild ist.
  7. Verfahren zur Verwendung bei der Verarbeitung einer Ansicht einer dreidimensionalen Welt, bei dem ein erster Teil der Welt als Computergraphik modelliert und ein zweiter Teil der Welt durch ein zweidimensionales Bild repräsentiert wird, das auf eine Sichtebene projiziert wird, die einen idealen Sichtpunkt (IVP) aufweist, wobei es sich bei dem idealen Sichtpunkt um die Mitte der Projektion des zweidimensionalen Bildes handelt, mit den folgenden Schritten: Projizieren eines Vektors C von dem idealen Sichtpunkt (IVP) des Bildes normal zu der Sichtebene des zweidimensionalen Bildes (135); Aufteilen des zweidimensionalen Bildes in eine erste Menge von Polygon-Aufteilungen mit als Q1-Qi bezeichneten Eckpunkten, wobei jede der Polygon-Aufteilungen einer in dem zweidimensionalen Bild gezeigten Oberfläche entspricht, wobei i eine ganze Zahl ist (140); Projizieren eines Vektors T von dem idealen Sichtpunkt IVP des Bildes zu dem aktuellen Sichtpunkt V (155); Bestimmen eines Koppelverhältnisses αi für jeden Eckpunkt, der durch
    Figure 00120001
    gegeben wird, wobei Di die orthogonale Distanz von dem idealen Sichtpunkt (IVP) des Bildes zu der Bildebene im dreidimensionalen Raum (x, y, z) der den Eckpunkt Qi enthaltenen Welt ist (160); Abbilden (165) jeweils der Eckpunkte Q1-Qi auf Q1'-Qi' im dreidimensionalen Raum (x, y, z) der Welt gemäß der Beziehung Q i' = Q i + αi T, wodurch eine zweite Menge von Polygon-Aufteilungen definiert wird, wobei Qi und Qi' im dreidimensionalen Raum durch entsprechende Vektoren Q i und Q i' definiert sind, die auf die Position der Eckpunkte Qi bzw. Qi' zeigen; und Abbilden des entsprechenden Bildes in der ersten Menge von Polygon-Aufteilungen auf die zweite Menge von Polygon-Aufteilungen (165).
  8. Verfahren nach Anspruch 7, ferner mit dem Schritt des Skalierens des zweidimensionalen Bildes als Funktion der Dimensionen der Umgebung in der Welt, vor dem Aufteilungsschritt.
  9. Verfahren nach Anspruch 7, wobei das zweidimensionale Bild kein "korridorartiges" Bild ist, wobei ein korridorartiges Bild parallele Strukturelemente aufweist, die scheinbar an einem einzigen Verschwindungspunkt konvergieren.
  10. Verfahren nach Anspruch 7, ferner mit dem Schritt des Anzeigens des mit dem ersten Teil der Welt, der als Computergraphik modelliert wird, zusammengeführten zweidimensionalen Bildes.
  11. Verfahren nach Anspruch 7, wobei das zweidimensionale Bild ein Videoeinzelbild ist.
  12. Verfahren nach Anspruch 7, wobei das zweidimensionale Bild ein Standbild ist.
  13. Vorrichtung mit Mitteln zum Ausführen der Schritte eines Verfahrens nach einem der vorhergehenden Ansprüche.
DE60030401T 1999-12-22 2000-12-08 Anzeigetechniken für dreidimensionale virtuelle Realität Expired - Lifetime DE60030401T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US470480 1999-12-22
US09/470,480 US6567085B1 (en) 1999-12-22 1999-12-22 Display techniques for three-dimensional virtual reality

Publications (2)

Publication Number Publication Date
DE60030401D1 DE60030401D1 (de) 2006-10-12
DE60030401T2 true DE60030401T2 (de) 2007-02-22

Family

ID=23867790

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60030401T Expired - Lifetime DE60030401T2 (de) 1999-12-22 2000-12-08 Anzeigetechniken für dreidimensionale virtuelle Realität

Country Status (6)

Country Link
US (1) US6567085B1 (de)
EP (1) EP1111546B1 (de)
JP (1) JP5165819B2 (de)
AU (1) AU7237200A (de)
CA (1) CA2327779C (de)
DE (1) DE60030401T2 (de)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7095905B1 (en) 2000-09-08 2006-08-22 Adobe Systems Incorporated Merging images to form a panoramic image
US7006707B2 (en) * 2001-05-03 2006-02-28 Adobe Systems Incorporated Projecting images onto a surface
US7103236B2 (en) * 2001-08-28 2006-09-05 Adobe Systems Incorporated Methods and apparatus for shifting perspective in a composite image
US7660464B1 (en) 2005-12-22 2010-02-09 Adobe Systems Incorporated User interface for high dynamic range merge image selection
JP2009146140A (ja) * 2007-12-13 2009-07-02 Ponos Corp 3次元画像表示装置
CN101697235B (zh) * 2009-10-30 2013-04-10 青岛海信移动通信技术股份有限公司 一种透视图生成方法和装置
KR102576654B1 (ko) 2016-10-18 2023-09-11 삼성전자주식회사 전자 장치 및 그의 제어 방법
KR101926701B1 (ko) * 2017-08-16 2019-03-07 황금희 2d 데이터 - 3d 데이터 변환 장치 및 방법

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3577120A (en) * 1968-10-14 1971-05-04 Boeing Co Display system for use in vtol-type aircraft
JP2832463B2 (ja) * 1989-10-25 1998-12-09 株式会社日立製作所 3次元モデルの再構成方法および表示方法
US5685776A (en) * 1994-11-23 1997-11-11 Tiger Electronics, Inc. Hand-held electronic game devices
US6016150A (en) * 1995-08-04 2000-01-18 Microsoft Corporation Sprite compositor and method for performing lighting and shading operations using a compositor to combine factored image layers
JP3179318B2 (ja) * 1995-08-22 2001-06-25 日本電気株式会社 情報提示装置
JP3429400B2 (ja) * 1995-09-29 2003-07-22 富士通株式会社 モデリングシステム
JP3104638B2 (ja) * 1996-03-25 2000-10-30 株式会社日立製作所 3次元画像作成装置
JPH10198822A (ja) * 1997-01-10 1998-07-31 Sharp Corp 画像合成装置
JPH10255069A (ja) * 1997-03-10 1998-09-25 Canon Inc 画像処理システム
IL123733A0 (en) * 1997-03-27 1998-10-30 Rt Set Ltd Method for compositing an image of a real object with a virtual scene
JP3067097B2 (ja) * 1997-05-07 2000-07-17 一成 江良 三次元画像データ作成方法
US5990900A (en) * 1997-12-24 1999-11-23 Be There Now, Inc. Two-dimensional to three-dimensional image converting system
US6236402B1 (en) * 1998-06-30 2001-05-22 Lucent Technologies, Inc. Display techniques for three-dimensional virtual reality

Also Published As

Publication number Publication date
EP1111546A2 (de) 2001-06-27
DE60030401D1 (de) 2006-10-12
JP2001222726A (ja) 2001-08-17
AU7237200A (en) 2001-06-28
EP1111546B1 (de) 2006-08-30
CA2327779C (en) 2006-03-14
US6567085B1 (en) 2003-05-20
EP1111546A3 (de) 2004-02-11
CA2327779A1 (en) 2001-06-22
JP5165819B2 (ja) 2013-03-21

Similar Documents

Publication Publication Date Title
DE69924700T2 (de) Verfahren zur Darstellung von durch Oberflächenelemente repräsentierten grafischen Objekten
DE60115034T2 (de) Verfeinerung von dreidimensionalen polygonalen gitterdaten
DE102020000810A1 (de) 3D-Objektrekonstruktion unter Nutzung einer fotometrischen Netzdarstellung
DE112007002991B4 (de) Computergraphikschattenvolumen unter Verwendung von hierarchischem Okklusions-Culling
DE60300788T2 (de) Bild mit Feldtiefe aus Z-Pufferbilddaten und Alphamischung
DE60225933T2 (de) Tragbare virtuelle realität
DE69732663T2 (de) Verfahren zur erzeugung und änderung von 3d modellen und korrelation von solchen modellen mit 2d bildern
DE10296401B4 (de) Verbund-Rendering von 3-D-Graphikobjekten
EP0789328B1 (de) Bildverarbeitungsverfahren zur Darstellung von spiegelnden Objekten und zugehörige Vorrichtung
DE60201692T2 (de) Auf 3D Objekten angewendetes 2D Bildverarbeitungsverfahren
DE112007001789B4 (de) Verfahren zum Bewerten eines Bildes im Hinblick auf eine dominante Linie
DE3022454A1 (de) Optisches abbildesystem mit computererzeugtem bild fuer einen bodenfesten flugsimulator
DE102012210521A1 (de) Unbeschnittene Zeit- und Linsen-Begrenzungen für verbesserte Probentest- Effizienz bei Bild-Rendering
DE69531536T2 (de) Synthetisches bilderzeugungsverfahren mit sphärischem puffer
DE102016103854A1 (de) Graphikverarbeitung mit direktionalen Darstellungen der Beleuchtung an Sondenpositionen innerhalb einer Szene
DE19906995A1 (de) Erzeugen von Anpaßdaten für einen virtuellen Szenenaufbau
Chen et al. Manipulation, display, and analysis of three-dimensional biological images
DE602004012341T2 (de) Verfahren und System zur Bereitstellung einer Volumendarstellung eines dreidimensionalen Objektes
EP0862141A2 (de) Bilddarstellungsverfahren und Vorrichtung zur Durchführung des Verfahrens
DE69732465T2 (de) Bildverarbeitungsgerät und -verfahren
DE10085297B4 (de) Verfahren und Vorrichtung zur Erzeugung einer Bewegungsillusion
DE60030401T2 (de) Anzeigetechniken für dreidimensionale virtuelle Realität
JPH10507858A (ja) 3次元ワイヤフレーム上の写真現実表面に自動的に迅速に描画する方法および装置
EP0865002B1 (de) Verfahren und Vorrichtung zur Darstellung computermodellierter Objekte
EP2893510B1 (de) Verfahren und bildverarbeitungsanlage zum entfernen eines visuellen objektes aus einem bild

Legal Events

Date Code Title Description
8364 No opposition during term of opposition