DE10250602A1 - System zum Erzeugen einer synthetischen Szene - Google Patents

System zum Erzeugen einer synthetischen Szene

Info

Publication number
DE10250602A1
DE10250602A1 DE10250602A DE10250602A DE10250602A1 DE 10250602 A1 DE10250602 A1 DE 10250602A1 DE 10250602 A DE10250602 A DE 10250602A DE 10250602 A DE10250602 A DE 10250602A DE 10250602 A1 DE10250602 A1 DE 10250602A1
Authority
DE
Germany
Prior art keywords
scene
images
texture map
base
memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10250602A
Other languages
English (en)
Other versions
DE10250602B4 (de
Inventor
Bruce E Blaho
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Co filed Critical Hewlett Packard Co
Publication of DE10250602A1 publication Critical patent/DE10250602A1/de
Application granted granted Critical
Publication of DE10250602B4 publication Critical patent/DE10250602B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Es wird ein System zum Erzeugen einer Synthetikszene in Echtzeit bereitgestellt, die eine Umgebung und ein Objekt umfaßt. Es wird ein Speicher zum Speichern einer vorbestimmten Anzahl von Basisbildern bereitgestellt. Es wird ein Prozessor zum Erzeugen einer richtungsabhängigen Texturabbildung, basierend auf den Basisbildern, bereitgestellt, die auf dem Speicher gespeichert sind, und um die Szene in Echtzeit gemäß der richtungsabhängigen Texturabbildung aufzubereiten.

Description

  • Die vorliegende Erfindung bezieht sich auf das Gebiet von Computergraphiksystemen. Insbesondere bezieht sich diese Erfindung auf ein Computergraphik-System und -Verfahren zum Aufbereiten einer Szene basierend auf synthetisch erzeugten Texturabbildungen.
  • Ein typisches Computergraphiksystem umfaßt eine Anzeigevorrichtung, die ein zweidimensionales (2D) Array von lichtimitierenden Bereichen aufweist. Die lichtimitierenden Bereiche werden üblicherweise als Pixel bezeichnet. Ein derartiges Computergraphiksystem implementiert üblicherweise eine Hardware und/oder eine Software zum Erzeugen eines 2D-Arrays aus Farbwerten, die die Farben bestimmen, die aus den entsprechenden Pixeln der Anzeigevorrichtung emittiert werden sollen.
  • Derartige Computergraphiksysteme werden üblicherweise zum Anzeigen von dreidimensionalen (3D) Objekten verwendet. Üblicherweise erzeugt ein Computergraphiksystem etwas, das auf einer zweidimensionalen (2D) Anzeigevorrichtung als ein 3D-Objekt erscheint, durch Erzeugen von 2D-Ansichten des 3D-Objekts. Die 2D-Ansicht eines 3D-Objekts, die zu einer bestimmten Zeit erzeugt wird, hängt üblicherweise von einem räumlichen Verhältnis zwischen dem 3D-Objekt und eines Betrachter des 3D-Objekts zu einer bestimmten Zeit ab. Dieses räumliche Verhältnis kann als die Ansichtrichtung bezeichnet werden.
  • Die U.S.-Anmeldung mit dem Titel "DIRECTION-DEPENDENT TEXTURE MAPS IN A GRAPHICS SYSTEM" mit der Seriennummer 09/329553, eingereicht am 10. Juni 1999, offenbart ein Verfahren zum Erzeugen von Texturabbildungen in einem Graphiksystem und wird hierdurch durch Bezugnahme aufgenommen. Der Prozeß, durch den ein Computergraphiksystem die Farbwerte für eine 2D-Ansicht eines 3D-Objekts erzeugt wird üblicherweise als Bildaufbereitung bezeichnet. Ein Computergraphiksystem bereitet üblicherweise ein 3D-Objekt durch Unterteilen des 3D-Objekts in einen Satz von Polygonen und durch individuelles Aufbereiten von jedem der Polygonen auf.
  • Die Farbwerte für ein Polygon, die für eine bestimmte Ansichtrichtung aufbereitet werden, hängen üblicherweise von den Oberflächenmerkmalen des Polygons und den Beleuchtungseffekten auf dem Polygon ab. Die Oberflächenmerkmale umfassen Merkmale, wie z. B. Oberflächenfarben und Oberflächenstrukturen. Die Beleuchtungseffekte hängen üblicherweise von einem räumlichen Verhältnis zwischen dem Polygon und einer oder mehreren Lichtquellen ab. Dieses räumliche Verhältnis kann als die Lichtquellenrichtung bezeichnet werden.
  • Üblicherweise umfaßt die Bewertung der Beleuchtungseffekte an einem individuellen Pixel in einem Polygon für eine bestimmte Ansichtrichtung eine Anzahl von 3D-Vektorberechnungen. Diese Berechnungen umfassen üblicherweise Gleitkomma-Quadratwurzel- und Dividier-Operationen. Derartige Berechnungen sind üblicherweise zeitaufwendig und teuer, egal, ob sie in der Hardware oder der Software ausgeführt werden.
  • Ein bekanntes Verfahren zum Reduzieren eines derartigen Rechenaufwandes ist es, die Beleuchtungseffekte in nur ein paar Bereichen eines Polygons zu bewerten, wie z. B. den Eckpunkten, und dann die Ergebnisse über das gesamte Polygon zu interpolieren. Beispiele dieser Verfahren umfassen Verfahren, die üblicherweise als Flachschattierung und Glattschattierung bezeichnet werden. Derartige Verfahren reduzieren üblicherweise die Anzahl von Berechnungen, die während einer Abtastumwandlung durchgeführt werden, und erhöhen daher die Aufbereitungsgeschwindigkeit. Leider sind derartige Verfahren üblicherweise nicht in der Lage, Schattierungsmerkmale aufzubereiten, die kleiner sind als die Bereiche individueller Polygone.
  • Ein bekanntes Verfahren zum Aufbereiten von Merkmalen, die kleiner sind als der Bereich eines Polygons ist es, etwas zu verwenden, das üblicherweise als eine Texturabbildung bezeichnet wird. Eine übliche Texturabbildung ist eine Tabelle, die ein Muster von Farbwerten für ein bestimmtes Oberflächenmerkmal enthält. Ein Holzmaserungs- Oberflächenmerkmal kann z. B. unter Verwendung einer Texturabbildung aufbereitet werden, die ein Farbmuster für eine Holzmaserung enthält.
  • Leider ergibt die Texturabbildung üblicherweise relativ flache Oberflächenmerkmale, die sich mit der Ansichtrichtung oder der Lichtquellenrichtung nicht ändern. Das Erscheinungsbild von echten 3D-Objekten ändert sich jedoch üblicherweise mit der Ansichtrichtung und/oder der Lichtquellenrichtung. Diese Richtungsänderungen werden üblicherweise durch 3D-Strukturen an der Oberfläche eines Polygons verursacht. Derartige Strukturen können eine lokalisierte Schattierung oder Einschlüsse oder Änderungen bei Spiegelreflexionen von einer Lichtquelle verursachen. Die Effekte können mit der Ansichtrichtung für eine gegebene Lichtquellenrichtung variieren und können mit der Lichtquellenrichtung für eine gegebene Ansichtrichtung variieren.
  • Ein bekanntes Verfahren zum Handhaben der Richtungsabhängigkeit derartiger struktureller Effekte in einer Polygonoberfläche ist die Verwendung von etwas, das üblicherweise als eine Bump-Abbildung bezeichnet wird. Eine typische Bump-Abbildung enthält ein Höhenfeld, von dem ein Muster von 3D-Normalvektoren für eine Oberfläche extrahiert wird. Die Normalvektoren werden üblicherweise verwendet, um Beleuchtungsgleichungen an jedem Pixel in der Oberfläche zu bewerten. Leider umfassen derartige Gleichungen üblicherweise eine Anzahl von teueren und zeitaufwendigen 3D- Vektorberechnungen, wodurch die Aufbereitungsgeschwindigkeit gesenkt oder die Kosten der Graphiksystem-Hardware und/oder -Software erhöht werden.
  • Bei Anwendungen, wie z. B. computergenerierte 3D-Animationen, ist eine Szene aus mehreren sequentiellen Rahmen von Darstellungen zusammengesetzt. Während des Prozesses des Erzeugens einer computergenerierten Graphikpräsentation, wie z. B. in Trickfilmen oder Filmen, wird eine Sequenz von Szenen erzeugt, die verschiedene Umgebungen und Objekte darstellt, und dieselbe wird sequentiell angeordnet, um eine komplette Darstellung zu bilden, die an einen Benutzer über eine Anzeigevorrichtung auf einer sequentiellen Basis Szene für Szene angezeigt wird.
  • Jede Szene kann aus einer Sequenz von Rahmen zusammengesetzt sein. Ein Rahmen ist üblicherweise eine statische 2D- Darstellung eines 3D- oder 2D-Objekts innerhalb einer definierten Umgebung.
  • Jeder Rahmen kann ein 3D- oder 2D-Objekt oder -Objekte aus einem bestimmten Ansichts- (Kamera-) Winkel darstellen oder beleuchtet von einem bestimmten Belichtungswinkel. Von Rahmen zu Rahmen dieser Szene können sich Dinge, wie Kamerawinkel oder Belichtungswinkel ändern, wodurch der Szene durch einen Bewegungssinn oder eine Änderung eine Dynamik verliehen wird. Ein Objekt kann z. B. bei einem Rahmen von einer Frontal-Ansichtposition betrachtet werden, während bei einem zweiten sequentiellen Rahmen das Objekt von einer linken Ansichtposition betrachtet wird. Wenn die zwei Rahmen hintereinander betrachtet werden, scheint sich das Objekt von einer Vorwärtsposition zu einer Position zu drehen, die der rechten Seite des Objekts zugewandt ist. Der Prozeß des Erzeugens einer Szene umfaßt das Anordnen einer Reihe von Abbildungen oder Rahmen. Während dieses Prozesses ist es für den Erzeuger/Bearbeiter üblich, eine Vorschau der Szene zu betrachten, um den Fortschritt oder Status der bislang an der Szene getanen Arbeit zu bestimmen.
  • Bei 3D-Objekten, bei denen die Umgebungen in der Szene dargestellt sind, wird jeder Rahmen aufbereitet, um Realismus und 3D-Qualität hinzuzufügen, wie z. B. Schatten und Variationen bei Farbe oder Schattierung. Bei einem Computergraphiksystem ist dieser Aufbereitungsprozeß rechentechnisch intensiv und kann einen bedeutenden Zeitaufwand erfordern, um fertiggestellt zu werden, abhängig von dem Grad der 3D-Qualität, die für die Vorschau, die Szenenanzeige und/oder die Leistung der Computerhardware, die zum Ausführen der Aufbereitungsberechnungen verwendet werden, gewünscht ist. Folglich ist es für Erzeuger/Autoren üblich, bei der 3D-Qualität für einen niedrigeren Detailgrad zu sprechen, wenn eine Vorschau einer Szene ausgeführt wird. Manche Beispiele einer Szenenqualität niedrigeren Grades umfassen Drahtrahmendarstellungen oder eine Niedrigauflösungs-Texturabbildung. Während dies ermöglicht, daß der Erzeuger/Autor eine allgemeine Darstellung der Szene in weniger Zeit als Vorschau betrachtet ist es nicht möglich, eine Vorschau einer Echtdarstellung der Szene zu liefern, wie dieselbe in endgültiger Form erscheinen wird.
  • Um für die Szene und die Objekte in derselben ein realistisches Erscheinungsbild bereitzustellen, werden Texturabbildungstechniken verwendet, um Dinge wie z. B. Schatten, Schlaglichter und Oberflächentextur für die Objekte und die Szenenoberflächen durch den Prozeß des Aufbereitens zu liefern.
  • Es wurden Techniken zum Erzeugen einer auf einem Bild basierenden Texturabbildung vorgeschlagen, bei der eine Szene und/oder ein Objekt innerhalb einer Szene für mehrere vordefinierte Kamerapositionen z. B. über eine digitale oder auf einem Film basierende Standbildkamera photographiert werden. Eine Variation dieser Technik hält die Kameraposition konstant, während eine Licht/Beleuchtungs- Quelle bewegt wird, um das Objekt von unterschiedlichen Winkeln zu belichten, wodurch unterschiedliche Schatten und Schlaglichte auf das Objekt geworfen werden. Während diese Technik nützlich ist, ist dieselbe relativ zeitaufwendig, um eine Reihe von Abbildungen zur Verwendung beim Erzeugen einer auf einem Bild basierenden Texturabbildung zu erzeugen und erfordert natürlich das tatsächliche physische Objekt oder ein Modell desselben.
  • Üblicherweise möchte der Benutzer (Erzeuger) die Szene an einem Punkt während des Prozesses des Erzeugens einer computergenerierten Szene betrachten, um zu bestimmen, ob dieselbe wie gewünscht ist. Um dies auf eine Weise durchzuführen, die für die Szene ein photorealistisches Erscheinungsbild vorlegt, wird jeder Rahmen üblicherweise gemäß einer vordefinierten Texturabbildung aufbereitet. Da der Prozeß des Aufbereitens einer Szene eine beträchtliche Zeit erfordern kann, um ausgeführt zu werden, aufgrund der rechentechnischen Komplexitäten des Aufbereitens der Szene, ist es für Benutzer üblich, einen niedrigeren Grad einer Szenenqualität für die Darstellung während der "Vorschau" der Szene auszuwählen.
  • Somit besteht ein Bedarf in der Industrie, den zuvor genannten Nachteilen und Unzulänglichkeiten zu begegnen, dem bislang nicht begegnet wurde.
  • Es ist die Aufgabe der vorliegenden Erfindung, ein Verfahren und ein System zum Erzeugen einer Szene für eine Echtzeitanzeige mit verbessertem Erscheinungsbild zu schaffen.
  • Diese Aufgabe wird durch ein Verfahren gemäß Anspruch 1 und durch ein System gemäß Anspruch 3 oder 9 gelöst.
  • Die vorliegende Erfindung schafft ein System und ein Verfahren zum Aufbereiten einer synthetischen oder einer computergenerierten Szene basierend auf einem vorbestimmten Satz von Basisbildern. Kurz beschrieben kann das System wie folgt in der Architektur implementiert sein. Ein Speicherungsspeicher wird zum Speichern einer Texturabbildung (Textur-Map) bereitgestellt, die gemäß einer vorbestimmten Anzahl von Basisbildern erzeugt wird; eine Aufbereitungseinheit wird zum Aufbereiten einer Szene gemäß der auf einem Bild basierenden Texturabbildung und zum nachfolgenden Ausgeben der aufbereiteten Szene zum Anzeigen auf einer Anzeigevorrichtung bereitgestellt. Eine Steuerung wird zum Steuern der Aufbereitungseinheit bereitgestellt.
  • Ein weiteres Ausführungsbeispiel der Erfindung kann wie folgt beschrieben werden. Ein Basisbilderzeuger wird zum Abtasten einer Szene und zum Erzeugen einer Mehrzahl von Basisbildern bereitgestellt. Ein Texturabbildungserzeuger wird zum Erzeugen einer Texturabbildung gemäß der Mehrzahl von Basisbildern bereitgestellt. Ein Speicherungsdienst wird zum Speichern der Texturabbildung bereitgestellt; und eine Aufbereitungseinheit wird zum Aufbereiten der Szene gemäß der Texturabbildung bereitgestellt.
  • Die vorliegenden Erfindung kann ferner derart betrachtet werden, daß sie ein Verfahren zum Aufbereiten einer photorealistischen Szene bereitstellt. Diesbezüglich kann das Verfahren umfassend durch die nachfolgenden Schritte zusammengefaßt werden: eine Szene, die aus einer synthetischen Umgebung und einem synthetischen Objekt zusammengesetzt ist wird definiert; eine vorbestimmte Anzahl von Basisbildern wird gemäß vordefinierten Szenenparametern erzeugt. Eine Texturabbildung wird basierend auf der vorbestimmten Anzahl von Basisbildern erzeugt; und die Szene wird gemäß der Texturabbildung aufbereitet.
  • Zusätzlich dazu kann die vorliegende Erfindung derart betrachtet werden, daß sie ein Verfahren zum Erzeugen photorealistischer Darstellungen liefert, das durch folgende Schritte zusammengefaßt werden kann: eine Szene, die aus einer synthetischen Umgebung und einem synthetischen Objekt zusammengesetzt ist wird definiert; eine vorbestimmte Anzahl von Basisbildern wird gemäß vorbestimmten Szenenparametern erzeugt. Daten, die die Basisbilder darstellen, werden in einem Speicher gespeichert. Daten, die die Basisbilder darstellen werden in dem Speicher gespeichert. Eine Texturabbildung wird basierend auf der vorbestimmten Anzahl von Basisbildern erzeugt; und die Szene wird gemäß der Texturabbildung aufbereitet.
  • Zusätzlich dazu kann die vorliegende Erfindung derart betrachtet werden, daß sie ein Verfahren zum Erzeugen photorealistischer Darstellungen liefert, das durch die folgenden Schritte zusammengefaßt werden kann: Eine Szene, die aus einer synthetischen Umgebung und einem synthetischen Objekt zusammengesetzt ist, wird definiert; eine vorbestimmte Anzahl von Basisbildern wird gemäß den vorbestimmten Szenenparametern erzeugt. Daten, die die Basisbilder darstellen, werden aus dem Speicher wiedergewonnen, und eine Texturabbildung wird basierend auf der vorbestimmten Anzahl von Basisbildern erzeugt. Die Szene wird gemäß der Texturabbildung aufbereitet und zur Betrachtung angezeigt.
  • Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend bezugnehmend auf die beiliegenden Zeichnungen näher erläutert. Es zeigen:
  • Fig. 1 ein Computergraphiksystem, das Oberflächenmerkmale eines 3D-Objekts unter Verwendung der vorliegenden Technik aufbereitet;
  • Fig. 2 ein Polygon, das in einem Puffer definiert ist und das durch den Graphikprozessor unter Verwendung von Oberflächenmerkmalen aufbereitet werden soll, die durch eine richtungsabhängige Texturabbildung definiert werden;
  • Fig. 3 ein Flußdiagramm, das das Verfahren der vorliegenden Erfindung darstellt;
  • Fig. 4A bis 4D Diagramme, die das Abtasten eines Objekts von offensichtlich unterschiedlichen Perspektiven darstellt, um Basisbilder zu erzeugen;
  • Fig. 5 ein Diagramm, das das Abtasten eines Objekts von einer festen Perspektive aber mit variierenden Beleuchtungswinkeln darstellt, um Basisbilder zu erzeugen;
  • Fig. 6 ein Diagramm, das ein Ausführungsbeispiel eines Systems zum Aufbereiten einer Szene gemäß der vorliegenden Erfindung darstellt;
  • Fig. 7 ein Flußdiagramm, das ein Verfahren zum Erzeugen einer Szene zum Anzeigen basierend auf Basisbilddaten darstellt; und
  • Fig. 8 ein Diagramm, das ein System zum Erzeugen einer Szene zum Anzeigen gemäß der vorliegenden Erfindung darstellt.
  • Fig. 1 zeigt ein Computergraphiksystem 10, das die hierin offenbarten Lehren einlagert. Das Computergraphiksystem 10 umfaßt einen Puffer 12, einen Graphikprozessor 14, eine richtungsabhängige Texturabbildung 16, einen Rahmenpuffer 18 und eine Anzeige 20. Der Puffer 12 enthält Geometrie- und Attribut-Daten, die ein 3D-Objekt beschreiben, das auf der Anzeige 20 erzeugt werden soll. Das 3D-Objekt ist in dem Puffer 12 als ein Satz von Polygonen in einem 3D-Raum dargestellt. Bei einem Ausführungsbeispiel sind die Polygone Dreiecke 30 (Fig. 2), und die Geometriedaten in dem Puffer 12 umfassen die 3D-Koordinaten der Eckpunkte der Dreiecke.
  • Der Graphikprozessor 14 liest die Geometriedaten, die die Polygone definieren, aus dem Puffer 12 und wandelt jedes Polygon abtastmäßig um. Die Abtastumwandlung eines Polygons ergibt eine 2D-Ansicht des Polygons, die von einer Ansichtrichtung und einer Lichtquellenrichtung abhängt. Eine 2D- Ansicht eines Polygons umfaßt einen Farbwert für jedes Pixel des Polygons, das in der Ebene der Anzeige 20 sichtbar ist. Der Graphikprozessor 14 schreibt die Farbwerte für die aufbereiteten Polygone in den Rahmenpuffer 18. Die Farbwerte aus dem Rahmenpuffer 18 werden an die Anzeige 20 geliefert. Die Anzeige 20 ist eine 2D-Anzeigevorrichtung, wie z. B. eine Zeilenabtastvorrichtung oder eine Flachbildschirm-Anzeigevorrichtung.
  • Die richtungsabhängige Texturabbildung 16 enthält Parameter, die eine Oberflächenstruktur auf eine Weise definieren, bei der das Erscheinungsbild der Oberflächenstruktur entweder mit der Ansichtrichtung oder der Lichtquellenrichtung variiert. Der Graphikprozessor 14 bildet die Oberflächenstruktur, die in der richtungsabhängigen Texturabbildung 16 definiert ist, auf die Polygone ab, die während der Abtastumwandlung aus dem Puffer 12 erhalten werden. Das Ergebnis ist eine realistischere Aufbereitung von 3D- Merkmalen in einer Oberfläche auf einem 3D-Objekt im Vergleich zu einer Texturabbildung, aber ohne die rechentechnischen Nachteile, die einer Bump-Abbildung zugeordnet sind.
  • Bei einem Ausführungsbeispiel sind die Parameter, die in der richtungsabhängigen Texturabbildung 16 enthalten sind, die A1, A2, A3, A4, A5 und A6-Koeffizienten zum Bewerten der nachfolgenden Polynomgleichung zweiter Ordnung (Gleichung 1).


    wobei CI die Farbintensität an einem gegebenen Punkt ist. Die Ausdrücke DU und DV sind die 2D-Komponenten eines Augenpunktvektors, wenn die richtungsabhängige Texturabbildung 16 angepaßt ist, um die Richtung zu betrachten. Die Ausdrücke DU und DV sind die 2D-Komponenten eines Lichtquellenvektors, wenn die richtungsabhängige Texturabbildung 16 an die Lichtquellenrichtung angepaßt ist.
  • Die nachfolgende Tabelle (Tabelle 1) stellt den Inhalt der richtungsabhängigen Texturabbildung 16 dar. Die richtungsabhängige Texturabbildung 16 enthält n × m Unterabbildungseinträge. Jeder der n × m Einträge entspricht einem Muster einer bestimmten Oberfläche, die durch die richtungsabhängige Texturabbildung 16 modellartig dargestellt ist. Diese Muster können als Textels bezeichnet werden. Die Koeffizienten für ein individuelles Textel werden als A11,0-A61,j bezeichnet, wobei i von 0 bis n reicht und j von 0 bis m reicht. TABELLE 1

  • Die richtungsabhängige Texturabbildung 16 ist repräsentativ für einen Satz von Texturabbildungen, die zum Aufbereiten von 3D-Objekten im Graphiksystem 10 verwendet werden können. Jede richtungsabhängige Texturabbildung, die den vorliegenden Techniken entspricht, wird an eine bestimmte Oberflächenstruktur angepaßt, die auf ein 3D-Objekt abgebildet werden soll.
  • Zusätzlich dazu ist jede richtungsabhängige Texturabbildung angepaßt, um eine realistische 3D-Aufbereitung entweder ansprechend auf die Lichtquellenrichtung oder die Ansichtrichtung bereitzustellen. Die richtungsabhängige Texturabbildung 16 kann z. B. angepaßt sein, um eine realistische 3D-Aufbereitung ansprechend auf eine variierende Lichtquellenrichtung für eine gegebene feste Ansichtrichtung zu liefern. Alternativ kann die richtungsabhängige Texturabbildung 16 angepaßt sein, um eine realistische 3D- Aufbereitung ansprechend auf eine variierende Ansichtrichtung für eine gegebene feste Lichtquellenrichtung zu liefern.
  • Eine richtungsabhängige Texturabbildung kann an einen bestimmten Farbkanal der Anzeige 20 angepaßt sein. Das Graphiksystem 10 kann z. B. eine separate richtungsabhängige Texturabbildung für jeden der roten, grünen und blauen Kanäle für eine RGB-Anzeige für eine bestimmte Oberflächenstruktur umfassen. Alternativ kann eine richtungsabhängige Texturabbildung verwendet werden, um die Leuchtdichtekomponenten für eine bestimmte Oberflächenstruktur und die entsprechenden Chrominanzkomponenten bzw. Farbwertkomponenten können als Konstanten modellartig dargestellt sein.
  • Vorschau einer synthetischen Szene in Echtzeit
  • Auf einem Computer basierende Hochqualitäts-Bildsynthesetools, die bei vielen handelsüblich erhältlichen Anwendungen angetroffen werden, können verwendet werden, um mehrere Bilder einer synthetischen Szene zu erzeugen anstelle tatsächliche Photographien einer echten Szene zu verwenden. Diese Anwendungen können ferner synthetische Szenen basierend auf Darstellungen und anderen Eingaben von einem Benutzer erzeugen. Während der Erzeugung einer Szene kann eine Vorschau des Fortschreitens der Szenenerzeugung betrachtet werden, um zu sehen, wie die Szene erscheint. Um die Vorschau so realistisch wie möglich zu machen, wird es bevorzugt, einen bestimmten Grad einer Texturabbildung zu verwenden, um die Szene für eine Vorschau aufzubereiten. Wenn sich jedoch der Grad des gewünschten Photorealismus während der Vorschau erhöht, erhöht sich die Zeit, die von den verfügbaren rechentechnischen Ressourcen benötigt wird, um die Szene für eine Vorschau aufzubereiten. Um einen erhöhten Photorealismus während der Vorschau einer computergenerierten Szene bereitzustellen und um ferner eine Echtzeitvorschau bereitzustellen, liefert ein Ausführungsbeispiel der Erfindung das Erzeugen einer vorbestimmten Anzahl von Basisbildern, die dann verwendet werden, um richtungsabhängige Texturabbildungen gemäß den Basisbildern zu erzeugen. Diese richtungsabhängigen Texturabbildungen werden dann verwendet, um die Szene aufzubereiten.
  • Fig. 3 stellt ein Verfahren zum Betrachten einer Vorschau einer computergenerierten oder synthetischen Szene unter Verwendung von richtungsabhängigen Texturabbildungen dar. Diese richtungsabhängigen Texturabbildungen werden gemäß einem vorbestimmten Satz von Basisbildern erzeugt.
  • Die Szene kann eine Umgebung und/oder ein Objekt umfassen. Bei diesem Verfahren wird ein Objekt, das Teil der Szene sein kann, definiert oder erzeugt (301). Das Objekt kann z. B. ein synthetisches Objekt sein, das unter Verwendung eines Computerbildaufbereitungspakets erzeugt wird, wie z. B. Renderman™ von Pixar™. Bei Schritt 303 wird das Objekt in der Umgebung abgetastet, um eine vorbestimmte Anzahl von Basisbildern zu erzeugen. Basisbilder sind vorzugsweise synthetische oder computergenerierte Bilder, können jedoch ferner digitalisierte Echtweltbilder sein, wie z. B. auf einem Film basierende Photographien. Alternativ kann das Objekt alleine abgetastet werden, ohne die Umgebung, um eine vorbestimmte Anzahl von Basisbildern zu erzeugen. Diese Basisbilder können in einem Speicher für eine nachfolgende Bezugnahme gespeichert werden. Während des Abtastens eines Objekts in einer Umgebung können Dinge wie die Ansichtperspektive oder die Beleuchtungsposition geändert werden, um eine Darstellung des Objekts oder der Umgebung unter derartigen Bedingungen zu liefern. Auf ähnliche Weise können auch andere Parameter geändert/modifiziert/variiert werden, während des Abtastens des Objekts in einer Umgebung, einschließlich aber nicht begrenzt auf die Geometrie des Objektes; die Oberflächeneigenschaften von Objekten oder Oberflächen innerhalb einer Szene sowie Eigenschaften der Beleuchtung innerhalb einer Szene, wie z. B. Farbe und Helligkeit. Andere Parameter können Zeit oder Temperatur umfassen. Während des Abtastprozesses kann die Szene oder die Objekte innerhalb der Szene abgetastet werden, um Zeitsprungeffekte zu liefern. Jede dieser verschiedenen Ansichten, Perspektiven, Beleuchtungswinkel und andere Beleuchtungseigenschaften kann durch ein Basisbild dargestellt sein (Objektbasisbild oder Umgebungsbasisbild), das in den Speicher gespeichert werden kann. Eine richtungsabhängige Texturabbildung wird basierend auf den Basisbildern erzeugt, die aus der Abtastung des Objekts in der Umgebung bei Schritt 305 hergeleitet werden. Bei Schritt 307 wird die Szene basierend auf der richtungsabhängigen Texturabbildung aufbereitet, die aus den Basisbildern erzeugt wird, die aus der Abtastung eines Objekts hergeleitet werden. Dieses Objekt kann alleine oder in einer vorbestimmten Umgebung abgetastet werden.
  • Während des Aufbereitens einer Szene kann einer der Parameter, die durch die Basisbilder dargestellt sind, verändert oder variiert werden, um einen nahezu augenblickliche Reflexion der veränderten Parameter in der Szene zu ermöglichen, die aufbereitet wird.
  • Durch Einschränken der Anzahl von Basisbildern auf eine vorbestimmte Anzahl wird es möglich, einen Ausgleich zwischen einer Realistikszene-Aufbereitung (d. h. Bilder, die photorealistisch erscheinen) und relativ kurzen Zeiten zum Durchführen einer derartigen Aufbereitung zu erreichen und somit eine schnelle Vorschau der in der Entwicklung befindlichen Szene zu ermöglichen. Bei einem Ausführungsbeispiel der vorliegenden Erfindung werden vierzig (40) Objektbilder über ein Abtasten eines Objekts in einer Umgebung erzeugt. Jedes Basisbild stellt das abgetastete Objekt/Umgebung mit einem bestimmten angewendeten Parameter oder einem Satz von Parametern dar. Die vierzig Basisbilder können verwendet werden, um eine richtungsabhängige Texturabbildung zu erzeugen. Das Aufbereiten der Szene wird dann gemäß der richtungsabhängig erzeugten Texturabbildung ausgeführt, die an dem vorbestimmten Satz von Basisbildern erzeugt wird.
  • Im allgemeinen gilt, je höher die Qualität, die während der Vorschau einer Szene erwünscht ist, desto mehr Basisbilder werden benötigt. Wenn sich die Anzahl von Basisbildern jedoch erhöht, werden die rechentechnischen Ressourcen größer, die erforderlich sind, um richtungsabhängige Texturabbildungen zu erzeugen und die Szene für eine Vorschau in Echtzeit aufzubereiten. Durch das Bestimmen des Grades der gewünschten Bildqualität während der Vorschau und der Kapazität der verfügbaren Systemrechenressourcen kann eine optimale Anzahl von Basisbildern bestimmt werden, die den gewünschten Qualitätsgrad ergeben und ein Betrachten der Vorschau in Echtzeit ohne unnötige Belastung der verfügbaren Rechensystemressourcen ermöglichen.
  • Die Fig. 4A-4D stellen ein Beispiel davon dar, wie ein Objekt 400 aus unterschiedlichen Perspektiven 401, 402 und 403 abgetastet werden kann, um Basisbilder 410, 420 und 430 zu erzeugen. Das Abtasten kann über das Identifizieren einer existierenden Ansicht oder einer Perspektive eines computergenerierten Bildes als ein Basisbild ausgeführt werden. Daten, die eine derartige Ansicht darstellen, könnten dann zum Beispiel gespeichert und verwendet werden, um eine Objekttexturabbildung zu erzeugen. Ferner kann das Abtasten tatsächlich über das Bilderzeugen eines Objekts (oder einer Umgebung) aus einer vorbestimmten Perspektive ausgeführt werden, um ein Basisbild zu produzieren/erzeugen. Auf ähnliche Weise, Bezug nehmend auf Fig. 5, kann eine Betrachtungsperspektive 550 konstant bleiben, während die Position oder die offensichtliche Position einer Beleuchtungsquelle in Beziehung zu dem Objekt 500 variiert werden könnte, um Basisbilder zu liefern, die das Objekt 500 unter unterschiedlichen Belichtungsbedingungen zeigen. Hier wird eine Belichtungsquelle 570 abwechselnd z. B. an drei unterschiedlichen Positionen 501, 502 und 503 plaziert, während das Objekt 500 von der festen Betrachtungsperspektive 550 aus abgetastet wird, um eine Reihe von Objektbasisbildern zu erzeugen.
  • Fig. 6 zeigt ein Blockdiagramm eines Ausführungsbeispiels eines Szenenaufbereitungssystems 250 gemäß der vorliegenden Erfindung. Es ist ersichtlich, daß ein Prozessor 602, ein Lokale-Schnittstelle-Bus 604, ein Speicher 606 zum Speichern von Elektronikformatbefehlen (Software) 605 und Daten 608 bereitgestellt sind. Der Speicher 606 kann sowohl flüchtigen als auch nichtflüchtigen Speicher umfassen. Eine Eingabe-/Ausgabe-Schnittstelle 640 kann zum schnittstellenmäßigen Verbinden mit und Kommunizieren von Daten, die z. B. von einem Netzwerk 675 oder Eingabevorrichtungen, wie z. B. einer Tastatur 620 und einer Zeigevorrichtung 625 empfangen wurden, bereitgestellt sein. Die Eingabe-/Ausgabe- Schnittstelle 640 kann ebenfalls schnittstellenmäßig mit dem Graphikprozessor 645 verbunden sein. Der Graphikprozessor 645 ist zum Ausführen der Verarbeitung von Graphikinformationen zum Anzeigen gemäß Befehlen von dem Prozessor 602 bereitgestellt.
  • Der Prozessor 602 kann konfiguriert sein, um eine Szene abzutasten und eine vorbestimmte Anzahl von Umgebungsbasisbildern und Objektbasisbildern gemäß der oben im Hinblick auf Fig. 3 beschriebenen Methodik zu erzeugen. Diese Basisbilder können dann in den Speicher 606 gespeichert werden. Der Prozessor 602 kann ferner konfiguriert sein, um Texturabbildungen basierend auf den Objektbasisbildern und/oder den Umgebungsbasisbildern zu erzeugen, die in dem Speicher 606 gespeichert sind. Der Prozessor 602 erzeugt diese Texturabbildungen vorzugsweise gemäß der oben Bezug nehmend auf Fig. 3 beschriebenen Methodik. Der Prozessor 602 kann konfiguriert sein, um die obige Abtastung und Erzeugung von Basisbildern sowie Texturabbildungen basierend auf der Software 605 auszuführen.
  • Der Graphikprozessor 645 kann konfiguriert sein, um auf relevante Texturabbildungsdaten zuzugreifen, die in dem Texturabbildungsspeicher 16 (Fig. 1) gespeichert sind, wenn nötig, und die verarbeiteten Graphikdaten an den Rahmenpuffer 646 ausgeben, von dem Graphikdaten an eine Anzeigevorrichtung 616 zum Anzeigen ausgegeben werden. Der Prozessor 602 kann so konfiguriert sein, um den Zugriff auf Daten, die in dem Speicher 606 gespeichert sind, gemäß der Software 605, die auf dem Speicher 606 gespeichert ist, zu steuern und zu gewähren. Die Software 605 kann z. B. eine Softwareaufbereitungsanwendung oder eine Bilderzeugungsanwendung oder ähnliches umfassen. Ferner kann die Software 605 Softwarebefehle zum Ausführen des Verfahrens zum Aufbereiten einer Szene umfassen, wie oben Bezug nehmend auf Fig. 3 erörtert wurde.
  • Texturabbildungen, die als ein Ergebnis des Verfahrens hierin erzeugt werden, werden vorzugsweise in dem Texturabbildungsspeicher 16 gespeichert. Der Texturabbildungsspeicher 16 kann als Teil des Speicherungsspeichers 606 eingelagert sein. Ferner kann der Texturabbildungsspeicher 16 sowie der Speicher 606 z. B. ein beliebiger Typ eines computerlesbaren Mediums sein.
  • Bei einem alternativen Ausführungsbeispiel der vorliegenden Erfindung wird ein System und ein Verfahren zum Erzeugen einer Szene für eine Echtzeitanzeige geschaffen. Dieses System und dieses Verfahren wird nachfolgend Bezug nehmend auf Fig. 7 und Fig. 8 erörtert. Hinsichtlich dieses Systems kann eine vorbestimmte Szene, die z. B. aus einer Umgebung und/oder einem Objekt innerhalb der Umgebung zusammengesetzt ist, durch eine vorbestimmte Anzahl von Basisbildern dargestellt sein. Diese Basisbilder können z. B. auf einem zugeordneten computerlesbaren Speicher gespeichert sein, wie z. B. einer optischen, magnetischen oder halbleiterbasierten Speichervorrichtung. Diese Basisbilder können wie oben im Hinblick auf den in Fig. 3 beschriebenen Prozeß erörtert wurde erzeugt werden. Diese Basisbilder können Umgebungsbasisbilder sein, die darstellend für eine bestimmte Umgebung unter verschiedenen Bedingungen sind, wie durch vorbestimmte Parameter definiert ist. Diese Basisbilder können ferner Objektbasisbilder umfassen, die darstellend für ein definiertes Objekt innerhalb der Umgebung sind. Die Szene, die durch diese Basisbilder dargestellt ist, kann z. B. eine computergenerierte Bewegtszene oder eine computergenerierte Standbildszene sein. Dieses System und dieses Verfahren könnte z. B. verwendet werden, um photorealistische, bewegte, und computergenerierte Darstellungen bei Anwendungen, wie z. B. Videospielen, Umgebungssimulationssystemen, wie z. B. Flugsimulatoren, oder graphischen Darstellungen zu erzeugen und anzuzeigen.
  • Fig. 7 ist ein Flußdiagramm, das ein Verfahren zum Erzeugen einer Szene zum Anzeigen basierend auf Basisbilddaten darstellt (Objektbasisbild und/oder Umgebungsbasisbilder), die z. B. auf einer Speichervorrichtung gespeichert sind. Bezugnehmend auf Fig. 7 ist ersichtlich, daß Daten, die Umgebungsbasisbilder und/oder Objektbasisbilder darstellen, aus dem Speicher wiedergewonnen werden (701). Der Speicher kann ein Typ eines computerlesbaren Speichers oder eine Speicherungsvorrichtung sein. Eine richtungsabhängige Texturabbildung wird gemäß den Umgebungsbasisbildern (702) erzeugt. Die richtungsabhängige Texturabbildung kann auf dem Speicher für eine spätere Wiedergewinnung, falls erwünscht, gespeichert werden. Basierend auf der richtungsabhängigen Texturabbildung wird eine Szene aufbereitet, die ein Objekt darstellt, das den wiedergewonnen Basisbildern zugeordnet ist (704). Diese aufbereitete Szene kann zum Anzeigen auf einer Anzeigevorrichtung ausgegeben werden (705).
  • Bei einem Ausführungsbeispiel können Parameter, die durch die Basisbilder dargestellt sind, während des Prozesses des Aufbereitens einer Szene zum Anzeigen verändert werden. Wenn z. B. die Basisbilder ein Objekt derart darstellen, wie es unter unterschiedlichen Belichtungsbedingungen betrachtet wird, kann ein Benutzer auswählen, von Szenen, bei denen die Belichtungsbedingungen hell sind, zu Szenen, bei der das gleiche Objekt oder die Umgebung unter dunklen Belichtungsbedingungen dargestellt ist, zu wechseln. Dadurch, daß verschiedene Parameter durch die Basisbilder dargestellt werden, ist es möglich, die angezeigte Szene in Echtzeit zu ändern.
  • Fig. 8 stellt ein Ausführungsbeispiels eines Systems zum Erzeugen einer Szene in Echtzeit zum Anzeigen gemäß der vorliegenden Erfindung dar. Dieses System umfaßt einen Prozessor 802, einen Lokale-Schnittstelle-Bus 804, einen Speicherungsspeicher 806 zum Speichern von Elektronikformatbefehlen (Software) 805 und Daten 808. Der Speicherungsspeicher 806 kann sowohl flüchtigen als auch nichtflüchtigen Speicher umfassen. Eine Eingabe-/Ausgabe-Schnittstelle 840 kann zum schnittstellenmäßigen Verbinden mit und Kommunizieren von Daten bereitgestellt sein, die z. B. von einem Netzwerk 875 oder Eingabevorrichtungen, wie z. B. einer Tastatur 820 oder einer Zeigevorrichtung 825 empfangen werden. Die Eingabe-/Ausgabe-Schnittstelle 840 kann sich ferner schnittstellenmäßig z. B. mit dem Graphikprozessor 845 verbinden. Der Graphikprozessor 845 kann zum Ausführen der Verarbeitung der Graphikinformationen zum Anzeigen gemäß Befehlen von dem Prozessor 802 bereitgestellt sein. Der Graphikprozessor 845 kann konfiguriert sein, um auf relevante Texturabbildungsdaten zuzugreifen, die z. B. in dem Texturabbildungsspeicher 816 gespeichert sind, wenn nötig, und um die verarbeiteten Graphikdaten an den Rahmenpuffer 846 auszugeben, von dem Graphikdaten, die eine Szene darstellen, an eine Anzeigevorrichtung 818 zum Anzeigen ausgegeben werden.
  • Der Prozessor 802 greift auf Daten zu, die in dem Speicher 806 gespeichert sind, z. B. gemäß der Software 805, die auf dem Speicher 806 gespeichert ist. Daten, die in dem Speicher 806 gespeichert sind, können Basisbilddaten umfassen, die ein definiertes Objekt unter vorbestimmten Bedingungen darstellen. Diese Basisbilddaten können ferner ein Objekt innerhalb einer Umgebung unter vorbestimmten Bedingungen darstellen. Es wird darauf hingewiesen, daß Basisbilddaten auf einer Speichervorrichtung gespeichert sein können, die dem Prozessor 802 zugeordnet und von demselben zugreifbar ist. Der Speicher 806 kann ein festes oder entfernbares Speicherungsmedium sein. Derselbe kann ferner über ein Netzwerk, wie z. B. das Internet, zugreifbar sein.
  • Der Prozessor 802 kann konfiguriert sein, um Texturabbildungen basierend auf den Basisbildern zu erzeugen, die als Daten 808 in dem Speicher 806 gespeichert sind, gemäß der Software 805. Diese Texturabbildungen können dann in den Texturabbildungsspeicher 816 gespeichert werden. Der Prozessor 802 kann ferner konfiguriert sein, um eine Szene zum Anzeigen gemäß der Software 805 und den Texturabbildungsdaten, die in dem Texturabbildungsspeicher 816 gespeichert sind, zu erzeugen. Die Software 805 kann z. B. eine Präsentationsanwendung, eine Videospielanwendung oder ähnliches umfassen, das konfiguriert ist, um zu verursachen, daß eine Szene zum Anzeigen gemäß der in Fig. 7 erläuterten Methodik erzeugt wird.
  • Bei einem weiteren Ausführungsbeispiel dieses Systems kann der Prozessor 802 konfiguriert sein, um die Objektbasisbilder und die Umgebungsbasisbilder gemäß der oben Bezug nehmend auf Fig. 3 beschriebenen Methodik zu erzeugen. Diese Objektbasisbilder und/oder Umgebungsbasisbilder können z. B. als Daten 808 in dem Speicher 806 gespeichert werden, sobald dieselben durch den Prozessor 802 erzeugt wurden.
  • Es sollte darauf hingewiesen werden, daß der Texturabbildungsspeicher 816 als ein Teil des Speichers 806 eingelagert sein kann. Der Speicher 816 sowie der Speicher 806 kann z. B. ein Typ eines computerlesbaren Mediums sein. Der Speicher 806 kann einen einzelnen Typ einer Speicherspeicherung oder mehrere Typen einer Speicherspeicherung umfassen, einschließlich aber nicht begrenzt auf einen Halbleiterspeicherungsspeicher, einen Magnetspeicherungsspeicher, einen Magnetplattenspeicher, einen Optikplattenspeicher und einen Magnet-/Optik-Plattenspeicher und Kombinationen derselben.
  • Prozeßbeschreibungen oder Blöcke in den Flußdiagrammen können als darstellende Module, Segmente oder Abschnitte des Codes betrachtet werden, die einen oder mehrere ausführbare Befehle zum Implementieren spezifischer logischer Funktionen oder Schritte in dem Prozeß umfassen, und alternative Implementierungen sind innerhalb des Schutzbereichs des bevorzugten Ausführungsbeispiels der vorliegenden Erfindung umfaßt, bei dem Funktionen außer der Reihenfolge von der ausgeführt werden können, die gezeigt oder erörtert wurde, einschließlich im wesentlichen gleichzeitig oder in umgekehrter Reihenfolge, abhängig von der involvierten Funktionalität, wie Fachleuten auf dem Gebiet allgemein bekannt ist.
  • Die Software 605 (Fig. 6) sowie die Software 805 (Fig. 8) weist eine geordnete Auflistung von ausführbaren Befehlen zum Implementieren von Logikfunktionen auf und kann in einem computerlesbaren Medium Verwendung durch oder in Verbindung mit einem Befehlsausführungssystem, einer Einrichtung oder einer Vorrichtung verkörpert sein, wie z. B. einem computerbasiertem System, einem prozessorenthaltenden System oder einem anderen System, das die Befehle aus dem Befehlsausführungssystem, der Einrichtung oder der Vorrichtung abrufen und die Befehle ausführen kann. In dem Kontext dieses Dokuments kann ein "computerlesbares Medium" eine Einrichtung sein, die das Programm zur Verwendung durch oder in Verbindung mit dem Befehlsausführungssystem, der Einrichtung oder der Vorrichtung enthalten, speichern, kommunizieren, verteilen oder transportieren kann. Das computerlesbare Medium kann z. B. aber nicht ausschließlich ein elektronisches, magnetisches, optisches, elektromagnetisches, Infrarot oder Halbleiter-System eine Einrichtung, eine Vorrichtung oder ein Verteilmedium sein. Spezifischere Beispiele (eine nicht erschöpfende Liste) des computerlesbaren Mediums würde folgende umfassen: eine elektrische Verbindung (elektronisch) mit einem oder mehreren Drähten, eine tragbare Computerdiskette (magnetisch), einen Direktzugriffsspeicher (RAM) (elektronisch), einen Nur-Lese- Speicher (ROM) (elektronisch), einen löschbaren, programmierbaren Nur-Lese-Speicher (EPROM oder Flash-Speicher) (elektronisch), eine optische Faser (optisch) und einen tragbaren CD-Platten-Nur-Lese-Speicher (CDROM) (optisch). Es wird darauf hingewiesen, daß das computerlesbare Medium sogar Papier oder ein anderes geeignetes Medium sein könnte, auf das Programm gedruckt wird, da das Programm elektronisch, z. B. über ein optisches Scannen des Papiers oder des anderen Mediums erfaßt, nachfolgend kompiliert, interpretiert oder anderweitig auf eine andere geeignete Weise verarbeitet werden kann, wenn nötig, und dann in einen Computerspeicher gespeichert werden kann.

Claims (18)

1. Verfahren zum Erzeugen einer Szene für eine Echtzeitanzeige, wobei das Verfahren folgende Schritte aufweist:
Empfangen von Daten, die eine vorbestimmte Anzahl von Basisbildern darstellen (701);
Erzeugen einer richtungsabhängigen Texturabbildung gemäß den Basisbildern (702); und
Erzeugen der Szene gemäß der richtungsabhängigen Texturabbildung (704).
2. Verfahren gemäß Anspruch 1, bei dem die vorbestimmte Anzahl von Basisbildern vierzig Basisbilder aufweist.
3. System zum Erzeugen einer Szene für eine Echtzeitanzeige, das folgende Merkmale aufweist:
einen Speicher (806) zum Speichern von Daten, die eine Mehrzahl von Basisbildern darstellen;
einen Prozessor (845) zum Erzeugen einer Texturabbildung auf einer richtungsabhängigen Basis gemäß der Mehrzahl von Basisbildern; und
wobei der Prozessor (845) ferner konfiguriert ist, um eine Szene in Echtzeit basierend auf der richtungsabhängigen Texturabbildung aufzubereiten.
4. System gemäß Anspruch 3, bei dem der Prozessor (845) einen Graphikprozessor aufweist.
5. System gemäß Anspruch 3 oder 4, bei dem die Mehrzahl von Basisbildern ein Muster eines Objekts innerhalb einer Umgebung darstellt.
6. System gemäß einem der Ansprüche 3 bis 5, bei dem die richtungsabhängige Texturabbildung aus der Mehrzahl von Basisbildern hergeleitet wird.
7. System gemäß einem der Ansprüche 3 bis 6, bei dem die Basisbilder über eine photographische Standbildkamera erzeugt werden.
8. System gemäß einem der Ansprüche 3 bis 7, bei dem die Basisbilder computergenerierte Bilder sind, die basierend auf vorbestimmten Parametern erzeugt werden.
9. System zum Erzeugen einer Szene gemäß einer Mehrzahl von Basisbildern, wobei das System folgende Merkmale aufweist:
eine Steuerung (802) zum Wiedergewinnen von Basisbilddaten aus dem Speicher (806);
wobei die Steuerung (802) konfiguriert ist, um richtungsabhängige Texturabbildungsdaten gemäß den Basisbilddaten zu erzeugen;
einen Speicher (816) zum Speichern der richtungsabhängigen Texturabbildungsdaten;
wobei die Steuerung (802) ferner konfiguriert ist, um die Szene in Echtzeit gemäß den richtungsabhängigen Texturabbildungsdaten aufzubereiten; und
einen Ausgang zum Ausgeben von Daten, die die Szene darstellen, an eine Anzeigevorrichtung (818).
10. System gemäß Anspruch 9, bei dem die Basisbilddaten ein Objekt innerhalb einer Umgebung darstellen.
11. System gemäß Anspruch 9, bei dem die Basisbilddaten ein Objekt darstellen.
12. System gemäß Anspruch 10 oder 11, bei dem die Basisbilddaten Daten aufweisen, die eine vorbestimmte Anzahl von Basisbildern darstellen.
13. System gemäß Anspruch 12, bei dem die Basisbilddaten Daten aufweisen, die vierzig (40) Basisbilder darstellen.
14. System gemäß einem der Ansprüche 9 bis 13, bei dem die richtungsabhängigen Texturabbildungsdaten eine richtungsabhängige Texturabbildung aufweisen.
15. System gemäß Anspruch 14, bei dem die richtungsabhängigen Texturabbildungsdaten eine Objekttexturabbildung aufweisen.
16. System gemäß einem der Ansprüche 9 bis 15, bei dem der Speicher (806) eine Speicherungsvorrichtung aufweist, die für die Steuerung (802) über ein Netzwerk (875) zugreifbar ist.
17. System gemäß Anspruch 16, bei dem das Netzwerk (875) das Internet aufweist.
18. System gemäß einem der Ansprüche 9 bis 17, bei dem die Steuerung (802) ferner konfiguriert ist, um Basisbilddaten ausschließlich für eine vorbestimmte Anzahl von Basisbildern aus dem Speicher wiederzugewinnen, basierend auf einem spezifizierten Grad von gewünschten Szenendetails.
DE10250602A 2001-10-31 2002-10-30 System zum Erzeugen einer synthetischen Szene Expired - Fee Related DE10250602B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/999759 2001-10-31
US09/999,759 US6781583B2 (en) 2001-10-31 2001-10-31 System for generating a synthetic scene

Publications (2)

Publication Number Publication Date
DE10250602A1 true DE10250602A1 (de) 2003-05-22
DE10250602B4 DE10250602B4 (de) 2005-10-13

Family

ID=25546659

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10250602A Expired - Fee Related DE10250602B4 (de) 2001-10-31 2002-10-30 System zum Erzeugen einer synthetischen Szene

Country Status (2)

Country Link
US (1) US6781583B2 (de)
DE (1) DE10250602B4 (de)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6864889B2 (en) * 2001-10-31 2005-03-08 Hewlett-Packard Development Company, L.P. System for previewing a photorealistic rendering of a synthetic scene in real-time
JP2003208601A (ja) * 2002-01-15 2003-07-25 Nec Corp 3次元物体撮影装置、3次元形状モデル生成装置、3次元形状モデル生成方法、3次元形状モデル生成プログラム
US7012615B2 (en) * 2004-02-12 2006-03-14 Pixar Using polynomial texture maps for micro-scale occlusions
US7153794B2 (en) * 2004-05-07 2006-12-26 Milliken & Company Heat and flame shield
JP2007066064A (ja) * 2005-08-31 2007-03-15 Sega Corp 画像生成装置及びプログラム
SG182922A1 (en) * 2011-01-18 2012-08-30 Agency Science Tech & Res A method and a device for merging a plurality of digital pictures
US11076300B2 (en) * 2018-07-09 2021-07-27 Here Global B.V. Determining a plurality of potential installation positions
US10955256B2 (en) * 2018-10-26 2021-03-23 Here Global B.V. Mapping system and method for applying texture to visual representations of buildings

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5544291A (en) * 1993-11-10 1996-08-06 Adobe Systems, Inc. Resolution-independent method for displaying a three dimensional model in two-dimensional display space
US5740343A (en) * 1995-11-03 1998-04-14 3Dfx Interactive, Incorporated Texture compositing apparatus and method
US6124858A (en) * 1997-04-14 2000-09-26 Adobe Systems Incorporated Raster image mapping
US6037949A (en) * 1997-08-04 2000-03-14 Pixar Animation Studios Texture mapping and other uses of scalar fields on subdivision surfaces in computer graphics and animation
US6300960B1 (en) * 1997-08-04 2001-10-09 Pixar Animation Studios Realistic surface simulation in computer animation
US6297834B1 (en) * 1999-06-10 2001-10-02 Hewlett-Packard Company Direction-dependent texture maps in a graphics system
US6515674B1 (en) * 2000-03-17 2003-02-04 Hewlett-Packard Company Apparatus for and of rendering 3d objects with parametric texture maps

Also Published As

Publication number Publication date
US20030080961A1 (en) 2003-05-01
DE10250602B4 (de) 2005-10-13
US6781583B2 (en) 2004-08-24

Similar Documents

Publication Publication Date Title
DE60300788T2 (de) Bild mit Feldtiefe aus Z-Pufferbilddaten und Alphamischung
DE112007002991B4 (de) Computergraphikschattenvolumen unter Verwendung von hierarchischem Okklusions-Culling
DE10296401B4 (de) Verbund-Rendering von 3-D-Graphikobjekten
DE69832611T2 (de) Computergrafiksystem
DE69830767T2 (de) Verfahren und Vorrichtung zum Zusammensetzen geschichteter synthetischer graphischer Filter
DE60107130T2 (de) Sichtbarkeitsprojektion und Bildrekonstruktion für Oberflächenelemente
DE19646194B4 (de) Echtzeit-Wiedergabeverfahren zum wahlweisen Ausführen von Bump-Mapping- und Phong-Schattierungs-Prozessen und zugehörige Vorrichtung
DE60026197T2 (de) Detailgerichtete hierarchische Distanzfelder in der Objektmodellierung
DE60311359T2 (de) Vorrichtungen und Verfahren zur kontrollierbaren Texturabtastung
DE69127915T2 (de) System und Verfahren von Prioritätsfarbabbildung
DE69919145T2 (de) Stochastiches detailniveau in einer rechneranimation
DE10223751B4 (de) System und Verfahren zum Kombinieren von Graphikformaten in einer digitalen Videopipeline
DE69924699T2 (de) Verfahren zur Schaffung von als Oberflächenelemente dargestellten grafischen Objekten
DE69735181T2 (de) Verfahren und Vorrichtung für virtuelle Architektur
DE102015113240A1 (de) System, verfahren und computerprogrammprodukt für schattierung unter verwendung eines dynamischen objektraumgitters
DE69722139T2 (de) Dreidimensionale abbildung von bildtexturen
DE112005002076T5 (de) Unterteilung von Geometriebildern in Grafikhardware
DE102005035012A1 (de) Hochleistungsschattierung von großen volumetrischen Daten unter Verwendung von partiellen Schirmraumableitungen
EP0789328A2 (de) Bildverarbeitungsverfahren zur Darstellung von spiegelnden Objekten und zugehörige Vorrichtung
DE102019118838A1 (de) Virtuelle photogrammetrie
EP2528042B1 (de) Verfahren und Vorrichtung zum Re-Meshing von 3D-Polygonmodellen
DE19906995A1 (de) Erzeugen von Anpaßdaten für einen virtuellen Szenenaufbau
DE102020108358A1 (de) Wiedergeben von szenen mit einer kombination aus strahlverfolgung und rasterung
DE60002487T2 (de) Verfahren und vorrichtung zur darstellung von bildern mit brechungen
DE102008050449A1 (de) Clipping Geometrien beim Raycasting

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8127 New person/name/address of the applicant

Owner name: HEWLETT-PACKARD DEVELOPMENT CO., L.P., HOUSTON, TE

8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06T0015100000

Ipc: G06T0015000000