DE19646194A1 - Echtzeit-Wiedergabeverfahren zum wahlweisen Ausführen von Erhebungskartierungs- und Phong-Schattierungsprozessen und zugehörige Vorrichtung - Google Patents

Echtzeit-Wiedergabeverfahren zum wahlweisen Ausführen von Erhebungskartierungs- und Phong-Schattierungsprozessen und zugehörige Vorrichtung

Info

Publication number
DE19646194A1
DE19646194A1 DE19646194A DE19646194A DE19646194A1 DE 19646194 A1 DE19646194 A1 DE 19646194A1 DE 19646194 A DE19646194 A DE 19646194A DE 19646194 A DE19646194 A DE 19646194A DE 19646194 A1 DE19646194 A1 DE 19646194A1
Authority
DE
Germany
Prior art keywords
factor
mapping
survey
diffuse
mirror
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE19646194A
Other languages
English (en)
Other versions
DE19646194B4 (de
Inventor
Seung-Hak Choi
Kil-Su Eo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of DE19646194A1 publication Critical patent/DE19646194A1/de
Application granted granted Critical
Publication of DE19646194B4 publication Critical patent/DE19646194B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/80Shading
    • G06T15/83Phong shading

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Generation (AREA)

Description

Die vorliegende Erfindung bezieht sich auf ein Echtzeit-Wiedergabeverfahren zum wahlweisen Ausführen von Erhe­ bungskartierungs - und Phong-Schattierungsprozessen und auf eine Vorrichtung zum Ausführen dieses Verfahrens.
Eine Erhebungskartierungsvorrichtung dient im allgemeinen dazu, ein Objekt mit einer unebenen Oberfläche, wie z. B. die Borke eines Baums, darzustellen, was einem Textur-Kartierungsprozeß in der Hinsicht ähnlich ist, daß in einem Modellierungsprozeß Grundkonturen des Objekts als Polygon ausgedrückt werden, wobei die in der wirklichen Welt erhaltenen Kartendaten für einen Wiedergabeprozeß verwendet werden. Gemäß dem Erhebungskartierungsprozeß bestehen die als Erhebungskarte bezeichneten Kartendaten jedoch aus geometrischen Daten, die den Grad der Uneben­ heit der angehobenen und zurückgesetzten Oberfläche widerspiegeln, wobei die Intensität (oder Helligkeit) jedes Pixels des Polygons in Abhängigkeit von der lokalen Beziehung zwischen dicht und Blickwinkel in der vorlie­ genden Situation berechnet wird, indem die geometrischen Informationen der Erhebungskarte extrahiert werden, anstatt einfach das Polygon mit den Kartendaten zu über­ schreiben, wodurch im Vergleich zum Textur-Kartierungs­ prozeß ein viel realistischeres Bild erhalten wird.
Somit kann mit dem Erhebungskartierungsprozeß ein reali­ stischer Unebenheitseffekt unter Verwendung der von der wirklichen Welt erhaltenen Erhebungskarte dargestellt werden, wobei der Prozeß schnell ausgeführt wird, da im Modellierungsprozeß nur wenige Polygone verwendet werden. Wenn ferner die lokale Beziehung zwischen Objekt, Licht und Betrachtungswinkel verändert wird, wird auch die Intensität jedes hervorgehobenen und zurückversetzten Abschnitts in der unebenen Oberfläche in jedem Pixel entsprechend geändert.
Wie oben beschrieben worden ist, wird jeder unebene Abschnitt durch einen Schattierungseffekt dargestellt. Bei den meisten Schattierungstechniken wie z. B. der Gouraud-Schattierung und der Phong-Schattierung wird die Intensität jedes Pixels in Abhängigkeit vom Normalvektor bestimmt. Hierzu hat Blinn ein Erhebungskartierungsver­ fahren vorgeschlagen, das auf einer Normalvektorperturba­ tion beruht, bei der der Normalvektor jedes Pixels in Abhängigkeit von der Erhebungskarte verändert wird, um den Unebenheitseffekt zu erzeugen. Das von Blinn vorge­ schlagene Erhebungskartierungsverfahren kann jedoch nur angewendet werden, wenn die Oberfläche eines Objekts eine funktionale Beziehung einer parametrischen Oberfläche besitzt, so daß es unmöglich ist, dieses Verfahren auf das Polygonmodell anzuwenden, das in der Praxis häufig verwendet wird.
Vor kurzem haben Ernst u. a. ein Erhebungskartierungsver­ fahren vorgeschlagen, das auf das Polygonmodell angewen­ det werden kann, indem auf der Grundlage des Normalvek­ torperturbationsverfahrens der obenerwähnte Nachteil beseitigt wird. Dieses Verfahren besitzt jedoch den Nachteil, daß die Schattierung jeder Grenzlinie zwischen Polygonen unstetig ist.
Andererseits ist für die Echtzeit-Verarbeitung bezüglich der Erhebungskartierung eine Wiedergabe-Hardware erfor­ derlich. Es gibt jedoch derzeit keine andere Hardware als die von Ernst vorgeschlagene Schaltung, wobei es wegen deren komplizierter Struktur schwierig ist, die Schaltung zu verwirklichen. Wenn z. B. nur eine Lichtquelle vorhan­ den ist, sollten für jedes Pixel zwei Skalarproduktbe­ rechnungen eines dreidimensionalen Vektors, zwölf Multi­ plikationen, fünf Divisionen und zwei Arcustangens-Be­ rechnungen durchgeführt werden. Ferner wird aufgrund der unstetigen Schattierung an der Grenze von Polygonen die Bildqualität herabgesetzt. Ferner sollte eine verwendete Nachschlagtabelle immer dann neu berechnet werden, wenn sich die Positionsbeziehung zwischen der Lichtquelle und dem Objekt ändert, wodurch die Verarbeitungsgeschwindig­ keit verringert wird.
Ferner wird bei Blinns Verfahren keine grundsätzliche Betrachtung über die Hardware angestellt, so daß es nicht für die Erzeugung der Schaltung geeignet ist. Zum Bei­ spiel sollten für jedes Pixel ein Partialdifferentialvek­ tor der gekrümmten Oberfläche, wenigstens zwei Kreuzpro­ duktberechnungen mit dreidimensionalen Vektoren und eine Berechnung der Länge des dreidimensionalen Vektors ausge­ führt werden.
Es ist daher die Aufgabe der vorliegenden Erfindung, ein Echtzeit-Wiedergabeverfahren zum wahlweisen Ausführen von Erhebungskartierungs- und Phong-Schattierungsprozessen zu schaffen.
Es ist eine weitere Aufgabe der vorliegenden Erfindung, eine Wiedergabevorrichtung zu schaffen, mit der das obenerwähnte Echtzeit-Wiedergabeverfahren ausgeführt wer­ den kann.
Diese Aufgaben werden erfindungsgemäß gelöst durch ein Echtzeit-Wiedergabeverfahren zum wahlweisen Ausführen von Erhebungskartierungs- und Phong-Schattierungsprozessen sowie durch eine zugehörige Vorrichtung, die die in den unabhängigen Ansprüchen 1 bzw. 5 angegebenen Merkmale besitzen. Die abhängigen Ansprüche sind auf bevorzugte Ausführungsformen gerichtet.
Weitere Merkmale und Vorteile der vorliegenden Erfindung werden deutlich beim Lesen der Beschreibung bevorzugter Ausführungsformen, die auf die beigefügten Zeichnungen Bezug nimmt; es zeigen:
Fig. 1 ein Schaubild, das ein Operationsprinzip der vorliegenden Erfindung darstellt und ein Beispiel eines Kartenraums und eines Achsenvektors zeigt;
Fig. 2 ein Blockschaltbild einer Echtzeit-Wiedergabevor­ richtung zum wahlweisen Ausführen von Erhebungs­ kartierungs- und Phong-Schattierungsprozessen ge­ mäß der vorliegenden Erfindung; und
Fig. 3 ein Strukturbild des in Fig. 2 gezeigten quadra­ tischen Interpolierers.
Wie in Fig. 2 gezeigt, enthält eine Echtzeit-Wiedergabe­ vorrichtung erste bis dritte Interpolierungsabschnitte 21 bis 23, eine Erhebungskarte 24, erste und zweite Skalar­ produkt-Ausführungsvorrichtungen 25 und 26, erste und zweite Multiplexierer 27 und 28, eine Exponential-Ausfüh­ rungsvorrichtung 29 sowie einen Addierer 30.
Fig. 3 ist ein Strukturbild eines in Fig. 2 gezeigten quadratischen Interpolierers (QI), der zwei (nicht ge­ zeigte) Akkumulatoren enthält.
Im folgenden wird auf der Grundlage der in Fig. 2 gezeig­ ten Struktur die Funktionsweise der Wiedergabevorrichtung beschrieben.
Gemäß dem Phong-Helligkeitsmodell ist die Intensität eines an einer bestimmten Position angeordneten Objekts gemäß der folgenden Formel (1) definiert:
wobei Hi = (Li + E)/|(Li + E) |.
In der Formel (1) stellt N einen Einheitsnormalvektor der beabsichtigten Position dar, während E einen Einheitsvek­ tor darstellt, der eine Blickrichtung von der beabsich­ tigten Position darstellt, Li einen Einheitsvektor dar­ stellt, der die Richtung der i-ten Lichtquelle an der beabsichtigten Position darstellt, ia die Intensität einer Umgebungslichtquelle darstellt, Ili die Intensität der i-ten Lichtquelle darstellt, ka einen Umgebungsrefle­ xionskoeffizienten darstellt, kd einen Diffusreflexions­ koeffizienten darstellt, ks einen Spiegelreflexionskoef­ fizienten darstellt, ns einen Spiegelreflexionsexponenten und x eine diffuse Farbe des Objekts darstellen. Die jeweiligen Ausdrücke der Formel (1) werden auch der Reihe nach Umgebungsfaktor, Diffusionsfaktor und Spiegelfaktor genannt.
Wenn ein Objekt mit einer gekrümmten Oberfläche nähe­ rungsweise als Satz von Polygonen ausgedrückt wird, ist der Normalvektor eines beliebigen Punktes innerhalb des Polygons nicht bestimmt. Gemäß dem Phong-Schattierungs­ verfahren wird der Normalvektor an jedem Scheitelpunkt des betrachteten Polygons linear interpoliert, um den Normalvektor an einem beliebigen Punkt innerhalb des Polygons zu erhalten.
Während die im herkömmlichen Erhebungskartierungsverfah­ ren verwendete Erhebungskarte Höhendaten enthält, enthält die Erhebungskarte der vorliegenden Erfindung einen Einheitsnormalvektor. Der Raum, in dem die Erhebungskarte definiert ist, wird Kartenraum genannt, wobei die Koordi­ naten dieses Kartenraums durch u, v bzw. h dargestellt werden, wie in Fig. 1 gezeigt ist. Die Höhe h des hervor­ gehobenen Abschnitts der Oberfläche wird in Abhängigkeit von den Positionen von u und v (hierbei sind u und v ganze Zahlen) bestimmt. Hierbei kann der Einheitsnormal­ vektor N* = (n*u, n*v, n*h) im Kartenraum unter Verwendung eines Bildverarbeitungsverfahrens berechnet werden. Diese Einheitsnormalvektoren werden ferner in der Erhebungs­ karte B (u, v) gespeichert.
Gemäß dem Erhebungskartierungsverfahren der vorliegenden Erfindung wird jede Axialrichtung des Kartenraums auf dem Polygon berechnet, wobei der Einheitsnormalvektor N* entsprechend der berechneten Axialrichtung transformiert wird.
Wenn eine affine Transformationsmatrix zum Berechnen der Axialrichtung des Kartenraums auf dem Polygon gleich M ist, wird die Matrix M wie folgt berechnet.
Es wird angenommen, daß ein Eingangspolygon P ein Dreieck ist und jedem Scheitel i des Polygons P die dreidimensio­ nalen Koordinatenwerte (xi (w), yi (w), zi (w)) jedes Schei­ tels und der Ort der Erhebungskarte (ui, vi) (hierbei gilt 1 i 3) zugewiesen sind. Wenn der Normalvektor Np des Polygons P und die h-Achse des Kartenraums in Über­ einstimmung gebracht werden, erfüllt die Matrix M die Bedingung der folgenden Formel (2).
(ui,vi,0,1) M = (xi (w),yi (w),zi (w),1); i = 1, 2, 3. (2)
Die Matrix M, die die obengenannte Bedingung der Formel (2) erfüllt, kann durch Lösen eines linearen Gleichungs­ systems erhalten werden.
Die Einheitsvektoren der zwei Axialrichtungen im Karten­ raum werden mit U* = (1, 0, 0) bzw. V* = (0, 1, 0) be­ zeichnet. Nach Transformieren dieser Einheitsvektoren in homogene Koordinaten wird das Ergebnis mit der Matrix M multipliziert, womit die Vektoren Up und Vp der Axial­ richtungen im Polygon P erhalten werden. Jedoch sind Np und der gegebene Normalvektor Ni an jedem Scheitel i nicht aufeinander ausgerichtet. Somit wird die h-Achse auf Ni ausgerichtet, woraufhin Up und Vp auf eine Fläche senkrecht zu Ni projiziert werden. Die Transformationen der projizierten Vektoren in die Einheitsvektoren sind wie in Fig. 1 gezeigt durch Ui und Vi dargestellt, die Axialvektoren genannt werden. Diese Axialvektoren werden für jeden Scheitel berechnet.
Wenn andererseits der Phong-Schattierungsprozeß ausge­ führt wird, werden die gegebenen Normalvektoren an jedem Scheitel linear interpoliert, um den Normalvektor N an jedem Pixel, das innerhalb des Polygons angeordnet ist, zu berechnen. Gemäß der vorliegenden Erfindung werden zum Zweck der Erhebungskartierung die an jedem Scheitel berechneten Axialvektoren, die mit U bzw. V bezeichnet sind, linear interpoliert. Die Vektoren N, U und V sind im allgemeinen keine Einheitsvektoren, da sie mittels Linearinterpolation berechnet werden. In der Praxis sind jedoch die Differenzen der Normalvektoren Ni an den jeweiligen Scheiteln des Polygons P klein, was auch für die Vektoren Ui und Vi gilt. Daraus folgt, daß die Länge von N, U und V ungefähr gleich 1 ist. Infolgedessen werden die Vektoren N, U und V als Einheitsvektoren betrachtet. Somit wird ein Normalvektor N′, der anhand der Erhebungskarte B(u, v) entsprechend den Werten (u, v) jedes Pixels korrigiert worden ist, durch folgende Formel (3) ausgedrückt:
N′ = n*uU + n*vV + n*hN. (3)
Der anhand der obigen Formel (3) korrigierte Normalvektor N′ wird auf jeden Faktor der Formel (1) angewendet. Zuerst wird der Umgebungsfaktor I(a), der ein konstanter Wert ist, einfach verarbeitet. Der Diffusfaktor I(d) wird andererseits entsprechend der folgenden Formel (4) verar­ beitet.
Wenn hierbei gilt:
kann die Formel (4) entsprechend der folgenden Formel (5) in eine Skalarproduktform umgeordnet werden.
I(d) = N*·(IU (d), IV (d), IN (d)) (5)
In der obigen Formel (5) ist IN (d) gleich dem Diffusfak­ tor vor der Erhebungskartierung, während IU (d) und IV (d) gleich den Diffusfaktoren sind, die unter Berücksichti­ gung von U und V als Normalvektoren berechnet worden sind. Somit können diese Werte IU (d) und IV (d) auf die gleiche Weise berechnet werden wie im Verfahren zur Berechnung von IN (d). Das heißt, es kann ein beliebiges Verfahren zur Berechnung des Diffusfaktors für den Phong-Schattierungsprozeß verwendet werden, um diese Werte zu berechnen.
Ferner kann der Spiegelfaktor I(s) nach dem gleichen. Berechnungsverfahren mit der folgenden Formel (6) ausge­ drückt werden:
Hierbei gilt:
In diesem Verfahren kann zur Berechnung von IX (S) ein beliebiges Verfahren zur Berechnung des Spiegelfaktors für den Phong-Schattierungsprozeß verwendet werden.
Im folgenden wird mit Bezug auf Fig. 2 die nach der obenbeschriebenen Art operierende Wiedergabevorrichtung beschrieben.
Zuerst wird angenommen, daß von einer Lichtquelle paral­ lel gerichtetes Licht abgestrahlt wird. Das heißt, die Anzahl der Lichtquellen n ist gleich I und die Richtung Li zur Lichtquelle ist im selben Polygon gleich.
Um die Wiedergabevorrichtung anzusteuern, wird der zuge­ hörige Prozeß grob in einen Modellierungsschritt zum Erzeugen eines dreidimensionalen Polygonmodells durch einen Benutzer, einen Geometriemaschinenverarbeitungs­ schritt zum Transformieren des erzeugten Polygonmodells auf eine Position auf einer Fläche und einen Rasterma­ schinenverarbeitungsschritt zum Ausführen einer Operation mit einem auf der Fläche befindlichen Pixel und zum Speichern des Ergebnisses in einem Rahmenpuffer einge­ teilt. Vor der Operation des Rastermaschinenverarbei­ tungsschritts werden im folgenden zuerst die für die beiden vorherigen Schritte erforderlichen Operationen beschrieben.
Im Modellierungsschritt erstellt der Benutzer im voraus die geeigneten Daten zum Ansteuern der Wiedergabevorrich­ tung. In diesem Schritt wird angenommen, daß die Objekte in Form von Polygonen modelliert sind und die Polygone jeweils Dreiecke sind. Für den Phong-Schattierungsprozeß wird jedem Scheitel ein Normalvektor zugewiesen. Für den Erhebungskartierungsprozeß werden allen Scheiteln Werte (ui, vi) zugewiesen, die nicht zum Normalvektor gehören, wobei der Axialvektor unter Verwendung der zugewiesenen Werte (ui, vi) berechnet wird und anschließend das Ergeb­ nis im Modell gespeichert wird. Es können sich jedoch mehrere Dreiecke einen Scheitel teilen, wobei die für die jeweiligen Dreiecke berechneten Axialvektoren verschieden sein können. In diesem Fall wird der Mittelwert der Axialvektoren für die jeweiligen Dreiecke berechnet und anschließend im Modell gespeichert.
Für den anschließenden Geometriemaschinenverarbeitungs­ schritt haben Bishop und Weimer eine Hardware für die Phong-Schattierung vorgeschlagen, in der eine Taylor­ reihenentwicklung und eine quadratische Interpolation durchgeführt werden.
Das heißt, nach der Berechnung des Diffusfaktorwerts und des Spiegelfaktorwerts an den drei Scheiteln des Dreiecks unter Verwendung der obigen Formel (1) werden die berech­ neten Werte im Rastermaschinenverarbeitungsschritt bezüg­ lich der Koordinatenwerte der Fläche innerhalb des Poly­ gons quadratisch interpoliert. Durch Modifizieren der obigen Formel wird aufgrund der sechs Koeffizienten der quadratischen Gleichung die folgende Formel (7) erhalten.
IN (d) = T₅x² + T₄xy + T₃y² + T₂x + T₁y + T₀ (7)
In der obigen Formel (7) stellen x und y die Koordinaten der Fläche dar. Durch Lösen des Systems linearer Glei­ chungen, die durch Einsetzen der jeweiligen Diffusfaktor­ werte an den drei Scheiteln und den Zwischenpunkten auf den Kanten des Dreiecks abgeleitet werden, können die Koeffizienten der Formel (7) erhalten werden. Im Raster­ maschinenverarbeitungsschritt wird unter Verwendung der Koeffizienten die Vorwärtsdifferenz berechnet, so daß die Diffusfaktorwerte über zwei Addierprozesse an den benach­ barten Pixeln berechnet werden können. Ferner kann der Spiegelfaktorwert auf die gleiche Weise berechnet werden.
Das obenbeschriebene Verfahren, das sich auf Formel (7) bezieht, kann unverändert zur Berechnung der obigen Formeln (5) und (6) verwendet werden. Das heißt, IN (d), IU (d), IV (d), IN (S), IU (S), IV (S) werden an den drei Schei­ teln und an den Zwischenpunkten auf jeder Kante im Drei­ eck berechnet, wodurch die Lösungen des linearen Glei­ chungssystems erhalten werden. Hierbei wird das Ergebnis in Form der quadratischen Gleichung ähnlich der Formel (7) ausgedrückt, wodurch die Koeffizienten der quadrati­ schen Gleichung erhalten werden.
Im Geometriemaschinenverarbeitungsschritt wird für jedes Dreieck die Spannweite berechnet, wobei die Spannweite zur Rastermaschine übertragen wird. Ferner werden IN (d), IU (d), IV (d), IN (S), IU (S), IV (S) am Startpunkt jeder Spann­ weite unter Verwendung der quadratischen Gleichung der Formel (7) berechnet. Anschließend wird das Ergebnis als Eingangswert zur Rastermaschine übertragen. Ferner werden für die quadratische Interpolation, da die x-Koordinaten­ werte um I zunehmen, die Inkremente von IN (d), IU (d), IV (d), IN (S), IU (S), IV (S), d. h. ΔxIN (d), ΔxIU (d), ΔxIV (d), ΔxIN (S), ΔxIU (S), ΔxIV (S) und die Inkremente von ΔxIN (d), ΔxIU (d), ΔxIV (d), ΔxIN (S), ΔxIU (S), ΔxIV (S), d. h. Δx²IN (d), Δx²IU (d), Δx²IV (d), Δx²IN (S), Δx²IU (S), Δx²IV (S) am Start­ punkt jeder Spannweite berechnet, wobei das Ergebnis zum Eingang der Rastermaschine übertragen wird.
Zum Berechnen der Werte (u, v) jedes Pixels in der Fläche wird die in der Texturkartierung verwendete quadratische Interpolation verwendet. Hierzu wird der quadratische Interpolationskoeffizient benötigt, der für u und v auf die gleiche Weise wie oben beschrieben berechnet und anschließend zum Eingang der Rastermaschine übertragen wird.
Im folgenden wird im Rastermaschinenverarbeitungsschritt mit Bezug auf die Fig. 2 und 3 eine Schaltung zur Durch­ führung der Erhebungskartierung beschrieben.
Wenn sich das LADE/ADDIERE-Steuersignal LASELECT am quadratischen Interpolierer (QI) der ersten bis dritten Interpolationsabschnitte 21 bis 23 im LADE-Zustand befin­ det, werden Y bzw. ΔxY in zwei Akkumulatoren gespeichert. Andererseits wird im ADDIERE-Zustand Δx²Y zu ΔxY addiert und anschließend das Ergebnis zu Y addiert.
Hierbei ist Y entweder IN (d), IU (d), IV (d), IN (S), IU (S), IV (S) u oder v, während die Dateneingänge für jeden quadratischen Interpolierer (QI) der ersten bis dritten Interpolationsabschnitte 21 bis 23 Y, ΔxY und Δx²Y sind.
Die Erhebungskarte 24 dient zum Speichern des Einheits­ normalvektors N* im Kartenraum. Der Einheitsnormalvektor N* wird in der Erhebungskarte 24 unter Verwendung des Werts (u, v) des vorliegenden Pixels erhalten. Ein Pixel der Erhebungskarte 24 umfaßt drei Bytes, wobei jedes Byte dem jeweiligen Komponentenwert des Einheitsnormalvektors entspricht.
Die erste Skalarprodukt-Ausführungsvorrichtung 25 führt das Skalarprodukt bezüglich des in der Erhebungskarte 24 erhaltenen Einheitsnormalvektors N* und der Ausgabe IN d, IU (d), IV (d) des quadratischen Interpolierers (QI) des ersten Interpolationsabschnitts 21 aus. Die zweite Ska­ larprodukt-Ausführungsvorrichtung 26 führt das Skalarpro­ dukt bezüglich des in der Erhebungskarte 24 erhaltenen Einheitsnormalvektors N* und des Ausgangs IN (S), IU (S), IV (S) des quadratischen Interpolierers (QI) des zweiten Interpolationsabschnitts 22 durch. Die ersten und zweiten Skalarprodukt-Ausführungsvorrichtungen 25 und 26 enthal­ ten jeweils drei Multiplizierer und einen Addierer.
Der erste Multiplexierer 27 gibt in Abhängigkeit von einem Erhebungskartierungs-/Phong-Schattierungs-Auswahl­ signal (BPSELECT) entweder den Ausgang der ersten Skalar­ produkt-Ausführungsvorrichtung 25 oder IN (d) des ersten Interpolationsabschnitts 23 aus. Der zweite Multiplexie­ rer 28 gibt in Abhängigkeit von einem Erhebungskartie­ rungs-/Phong-Schattierungs-Auswahlsignal (BPSELECT) entweder den Ausgang der zweiten Skalarprodukt-Ausfüh­ rungsvorrichtung 26 oder IN (S) vom zweiten Interpola­ tionsabschnitt 22 aus.
Ferner wird im Fall des Spiegelfaktors die Exponential-Ausführungsvorrichtung 29, in der die Exponentialopera­ tion bezüglich des Ausgangs vom zweiten Multiplexierer 28 durchgeführt wird, mittels der Nachschlagtabelle imple­ mentiert. Hierbei ist die Exponential-Ausführungsvorrich­ tung 29 mit Xna bezeichnet, wie in Fig. 2 gezeigt ist.
Der Addierer 30 addiert den Umgebungsfaktor, den Diffus­ faktor vom ersten Multiplexierer 27 und den Spiegelfaktor von der Exponential-Ausführungsvorrichtung 29 und gibt das Ergebnis aus.
Da die in Fig. 2 gezeigte Wiedergabevorrichtung im Ver­ gleich zu der von Ernst u. a. vorgeschlagenen Schaltung eine einfache Struktur besitzt, kann die Wiedergabevor­ richtung leicht verwirklicht werden. Ferner werden als Hardware für die Phong-Schattierung nur IN (d) und IN (S) verwendet. Hierbei kann separat nur der Phong-Schattie­ rungsmodus durchgeführt werden oder es kann der Erhe­ bungskartierungsmodus unter Verwendung von IN (d) und IN (S) durchgeführt werden. Das heißt, wenn nur die Phong-Schat­ tierung benötigt wird, kann die Wiedergabevorrichtung durch Betriebsartumschaltung durch die ersten und zweiten Multiplexierer 27 und 28 verwendet werden. Hierbei wird die Betriebsartumschaltung durch ein BPSELECT-Signal gesteuert.
Die Erhebungskarte 24 und die Exponential-Ausführungsvor­ richtung 29 der in Fig. 2 gezeigten Wiedergabevorrichtung verwenden einen Speicher, um darin die Nachschlagtabelle zu speichern.
Das obenbeschriebene Funktionsprinzip wird auf das Poly­ gonmodell angewendet, das derzeit hauptsächlich verwendet wird. Ferner wird gemäß dem obenerwähnten Verfahren an den Grenzen zwischen Dreiecken derselbe Axialvektor verwendet, so daß die Grenze zwischen Dreiecken stetig schattiert ist.
Wie oben beschrieben worden ist, kann gemäß des Echtzeit-Wiedergabeverfahrens und der Vorrichtung zum wahlweisen Ausführen der Erhebungskartierung und der Phong-Schattie­ rung gemäß der vorliegenden Erfindung eine unebene Ober­ fläche eines Objekts dargestellt werden, so daß das realistische Erscheinungsbild des Bildes verbessert werden kann, wenn die Wiedergabevorrichtung auf die dreidimensionale Echtzeit-Animation angewendet wird. Ferner kann die Wiedergabevorrichtung auf das Polygonmo­ dell angewendet werden, das derzeit häufig verwendet wird, wodurch ein weiter Anwendungsbereich geschaffen wird. Ferner entsteht an den Grenzen jedes Polygons keine Unstetigkeit. Außerdem kann die Wiedergabevorrichtung aufgrund ihrer einfachen Struktur leicht verwirklicht werden. Ferner kann wahlweise die Phong-Schattierung durchgeführt werden, wobei diese bei Bedarf auch separat durchgeführt werden kann.

Claims (8)

1. Echtzeit-Wiedergabeverfahren zum wahlweisen Durchführen von Erhebungskartierungs- und Phong-Schattie­ rungsprozessen, um einen Intensitätswert eines Objekts zu erhalten, gekennzeichnet durch die Schritte:
  • a) Berechnen eines Umgebungsfaktors;
  • b) Erhebungskartierung eines Diffusfaktors und wahlweises Ausgeben des erhebungskartierten Diffusfaktors oder des Diffusfaktors vor der Erhebungskartierung in Abhängigkeit von einem Erhebungskartierungs/Phong-Schat­ tierungs-Auswahlsignal (BPSELECT);
  • c) Erhebungskartierung eines Spiegelfaktors und wahlweises Ausgeben des erhebungskartierten Spiegelfak­ tors oder des Spiegelfaktors vor der Erhebungskartierung in Abhängigkeit vom Erhebungskartierungs-/Phong-Schattie­ rungs-Auswahlsignal (BPSELECT); und
  • d) Summieren des Umgebungsfaktors aus Schritt (a), des Diffusfaktors aus Schritt (b) und des Spiegel­ faktors aus Schritt (c) und Erhalten des Intensitätswerts des Objekts, das von einem beliebigen Ort aus betrachtet wird, im Rastermaschinenabschnitt.
2. Echtzeit-Wiedergabeverfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Diffusfaktor im Schritt (b) mittels folgender Gleichungen erhebungskartiert wird: N′ = n*uU + n*vV + n*hN(hierbei bezeichnet N′ einen Normalvektor, der mittels einer Erhebungskarte B(u, v), die den Werten (u, v) jedes Pixels zugeordnet ist, korrigiert worden ist, während n*u, n*v und n*h die Komponenten eines Einheitsnormalvek­ tors in einem Kartenraum bezeichnen, N die an jedem Scheitel gegebenen Normalvektoren bezeichnet, die mittels Linearinterpolation berechnet worden sind, und U und V die an jedem Scheitel gegebenen Axialvektoren bezeichnen, die mittels Linearinterpolation berechnet worden sind) undI(d) = N*·(IU (d), IV (d), IN (d))(hierbei bezeichnet I(d) den erhebungskartierten Diffus­ faktor, während IN (d) den Diffusfaktor vor der Erhebungs­ kartierung bezeichnet und IU (d) und IV (d) die mit Bezug auf U und V als Normalvektoren berechneten Diffusfaktoren bezeichnen).
3. Echtzeit-Wiedergabeverfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Spiegelfaktor im Schritt (c) mittels folgen­ der Gleichungen erhebungskartiert wird: N′ = n*uU + n*vV + n*hN(hierbei bezeichnet N′ einen Normalvektor, der mittels einer Erhebungskarte B(u, v), die den Werten (u, v) jedes Pixels zugeordnet ist, korrigiert worden ist, während n*u, n*v und n*h die Komponenten eines Einheitsnormalvek­ tors in einem Kartenraum bezeichnen, N die an jedem Scheitel gegebenen Normalvektoren bezeichnet, die mittels Linearinterpolation berechnet worden sind, und U und V die an jedem Scheitel gegebenen Axialvektoren bezeichnen, die mittels Linearinterpolation berechnet worden sind) und (hierbei bezeichnet I(5) den erhebungskartierten Spiegel­ faktor, während IN (S) den Spiegelfaktor vor der Erhe­ bungskartierung bezeichnet und IU (S) und IV (S) die mit Bezug auf U und V als Normalvektoren berechneten Spiegel­ faktoren bezeichnen).
4. Echtzeit-Wiedergabeverfahren nach Anspruch 1, dadurch gekennzeichnet, daß eine für den Erhebungskartierungsprozeß verwen­ dete Erhebungskarte einen Einheitsnormalvektor eines Kartenraums speichert.
5. Echtzeit-Wiedergabevorrichtung zum wahlweisen Durchführen von Erhebungskartierungs- und Phong-Schattie­ rungsprozessen, um einen Intensitätswert eines Objekts zu erhalten, gekennzeichnet durch
eine Berechnungseinrichtung zum Erhalten eines Umgebungsfaktors;
erste und zweite Interpolationsabschnitte (21, 22) zum Durchführen einer quadratischen Interpolation, um den Diffusfaktor bzw. den Spiegelfaktor zu erhalten;
einen dritten Interpolationsabschnitt (23) zum Durchführen der quadratischen Interpolation, um für jedes Pixel in einem Polygon Werte der Position innerhalb eines Kartenraums zu erhalten;
eine Erhebungskarte (24) zum Ausgeben eines Normalvektors, der mittels der Werte der Position inner­ halb des Kartenraums jedes Pixels, die vom dritten Inter­ polationsabschnitt (23) erhalten werden, korrigiert ist;
eine erste Skalarprodukt-Ausführungsvorrichtung (25) zum Durchführen einer Skalarproduktoperation mit dem Diffusfaktor und dem in der Erhebungskartierung korri­ gierten Normalvektor und zum Ausgeben eines erhebungskar­ tierten Diffusfaktors;
eine zweite Skalarprodukt-Ausführungsvorrichtung (26) zum Durchführen einer Skalarproduktoperation mit dem Spiegelfaktor und dem in der Erhebungskarte korrigierten Normalvektor und zum Ausgeben eines erhebungskartierten Spiegelfaktors;
einen ersten Multiplexierer (27) zum wahlweisen Ausgeben des erhebungskartierten Diffusfaktors oder des Diffusfaktors in Abhängigkeit von einem Erhebungskartie­ rungs-/Phong-Schattierungs-Auswahlsignal (BPSELECT);
einen zweiten Multiplexierer (28) zum wahlweisen Ausgeben des erhebungskartierten Spiegelfaktors oder des Spiegelfaktors in Abhängigkeit von einem Erhebungskartie­ rungs-/Phong-Schattierungs-Auswahlsignal (BPSELECT);
einen Exponential-Ausführungsabschnitt (29) zum Multiplizieren des vom zweiten Multiplexierer (28) ausge­ gebenen Spiegelfaktors mit einem Spiegelreflexionsexpo­ nenten, um einen endgültigen Spiegelfaktor aus zugeben; und
einen Addierer (30) zum Summieren des Umgebungs­ faktors, des vom ersten Multiplexierer (27) ausgegebenen Diffusfaktors und des vom Exponential-Ausführungsab­ schnitt (29) ausgegebenen Spiegelfaktors und zum Erhalten des Intensitätswerts des Objekts.
6. Echtzeit-Wiedergabevorrichtung nach Anspruch 5, dadurch gekennzeichnet, daß der erste Interpolationsabschnitt (21) eine quadratische Interpolation durchführt, um für jedes Pixel innerhalb des Polygons den Diffusfaktor vor den Erhe­ bungskartierungsprozeß zu erhalten, wobei der Interpola­ tionseingang von an jedem Scheitel des Polygons gegebenen Normalvektoren und den für jeden Scheitel des Polygons berechneten Axialvektoren abgeleitet wird.
7. Echtzeit-Wiedergabevorrichtung nach Anspruch 5, dadurch gekennzeichnet, daß der zweite Interpolationsabschnitt (22) eine quadratische Interpolation durchführt, um für jedes Pixel innerhalb des Polygons den Spiegelfaktor vor dem Erhe­ bungskartierungsprozeß zu erhalten, wobei der Interpola­ tionseingang von an jedem Scheitel des Polygons gegebenen Normalvektoren und den für jeden Scheitel des Polygons berechneten Axialvektoren abgeleitet wird.
8. Echtzeit-Wiedergabevorrichtung nach Anspruch 5, dadurch gekennzeichnet, daß die Phong-Schattierungsfunktion durchgeführt wird, indem von den ersten und zweiten Multiplexierern (27, 28) der Diffusfaktor vor der Erhebungskartierung bzw. der Spiegelfaktor vor der Erhebungskartierung ausge­ geben werden.
DE19646194A 1995-11-09 1996-11-08 Echtzeit-Wiedergabeverfahren zum wahlweisen Ausführen von Bump-Mapping- und Phong-Schattierungs-Prozessen und zugehörige Vorrichtung Expired - Fee Related DE19646194B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR95-40496 1995-11-09
KR1019950040496A KR100261076B1 (ko) 1995-11-09 1995-11-09 범프 맵핑과 퐁 쉐이딩을 동시에 수행하는 렌더링방법 및 장치

Publications (2)

Publication Number Publication Date
DE19646194A1 true DE19646194A1 (de) 1997-05-15
DE19646194B4 DE19646194B4 (de) 2005-12-08

Family

ID=19433533

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19646194A Expired - Fee Related DE19646194B4 (de) 1995-11-09 1996-11-08 Echtzeit-Wiedergabeverfahren zum wahlweisen Ausführen von Bump-Mapping- und Phong-Schattierungs-Prozessen und zugehörige Vorrichtung

Country Status (4)

Country Link
US (1) US5808619A (de)
JP (1) JP3021368B2 (de)
KR (1) KR100261076B1 (de)
DE (1) DE19646194B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005048100A1 (de) * 2005-09-30 2007-04-05 Robert Bosch Gmbh Elektrisches Gerät, insbesondere elektronisches Steuergerät für Kraftfahrzeuge

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6724383B1 (en) * 1997-02-21 2004-04-20 Mental Images G.M.B.H. System and computer-implemented method for modeling the three-dimensional shape of an object by shading of a two-dimensional image of the object
US9098297B2 (en) * 1997-05-08 2015-08-04 Nvidia Corporation Hardware accelerator for an object-oriented programming language
JP3514945B2 (ja) * 1997-05-26 2004-04-05 株式会社ソニー・コンピュータエンタテインメント 画像作成方法および画像作成装置
US6226006B1 (en) * 1997-06-27 2001-05-01 C-Light Partners, Inc. Method and apparatus for providing shading in a graphic display system
JP3035571B2 (ja) 1997-12-22 2000-04-24 株式会社島精機製作所 画像処理装置
US6014144A (en) * 1998-02-03 2000-01-11 Sun Microsystems, Inc. Rapid computation of local eye vectors in a fixed point lighting unit
US6762768B2 (en) * 1998-06-01 2004-07-13 Ati Technologies, Inc. Method and apparatus for rendering an object using texture variant information
US6480205B1 (en) 1998-07-22 2002-11-12 Nvidia Corporation Method and apparatus for occlusion culling in graphics systems
JP3605317B2 (ja) * 1999-06-07 2004-12-22 株式会社ソニー・コンピュータエンタテインメント 画像描画方法、画像描画装置及び記録媒体
US6618048B1 (en) 1999-10-28 2003-09-09 Nintendo Co., Ltd. 3D graphics rendering system for performing Z value clamping in near-Z range to maximize scene resolution of visually important Z components
US6717577B1 (en) 1999-10-28 2004-04-06 Nintendo Co., Ltd. Vertex cache for 3D computer graphics
US7209140B1 (en) 1999-12-06 2007-04-24 Nvidia Corporation System, method and article of manufacture for a programmable vertex processing model with instruction set
US6844880B1 (en) 1999-12-06 2005-01-18 Nvidia Corporation System, method and computer program product for an improved programmable vertex processing model with instruction set
US7071937B1 (en) 2000-05-30 2006-07-04 Ccvg, Inc. Dirt map method and apparatus for graphic display system
JP4443012B2 (ja) 2000-07-27 2010-03-31 株式会社バンダイナムコゲームス 画像生成装置、方法および記録媒体
US7538772B1 (en) 2000-08-23 2009-05-26 Nintendo Co., Ltd. Graphics processing system with enhanced memory controller
US7196710B1 (en) 2000-08-23 2007-03-27 Nintendo Co., Ltd. Method and apparatus for buffering graphics data in a graphics system
US6636214B1 (en) 2000-08-23 2003-10-21 Nintendo Co., Ltd. Method and apparatus for dynamically reconfiguring the order of hidden surface processing based on rendering mode
US6825851B1 (en) 2000-08-23 2004-11-30 Nintendo Co., Ltd. Method and apparatus for environment-mapped bump-mapping in a graphics system
US6707458B1 (en) 2000-08-23 2004-03-16 Nintendo Co., Ltd. Method and apparatus for texture tiling in a graphics system
US6700586B1 (en) 2000-08-23 2004-03-02 Nintendo Co., Ltd. Low cost graphics with stitching processing hardware support for skeletal animation
US6980218B1 (en) 2000-08-23 2005-12-27 Nintendo Co., Ltd. Method and apparatus for efficient generation of texture coordinate displacements for implementing emboss-style bump mapping in a graphics rendering system
US6811489B1 (en) 2000-08-23 2004-11-02 Nintendo Co., Ltd. Controller interface for a graphics system
US7576748B2 (en) 2000-11-28 2009-08-18 Nintendo Co. Ltd. Graphics system with embedded frame butter having reconfigurable pixel formats
US6597356B1 (en) 2000-08-31 2003-07-22 Nvidia Corporation Integrated tessellator in a graphics processing unit
US6828980B1 (en) 2000-10-02 2004-12-07 Nvidia Corporation System, method and computer program product for z-texture mapping
US6731298B1 (en) 2000-10-02 2004-05-04 Nvidia Corporation System, method and article of manufacture for z-texture mapping
US6850244B2 (en) * 2001-01-11 2005-02-01 Micron Techology, Inc. Apparatus and method for gradient mapping in a graphics processing system
US6614431B1 (en) * 2001-01-18 2003-09-02 David J. Collodi Method and system for improved per-pixel shading in a computer graphics system
US6781594B2 (en) * 2001-08-21 2004-08-24 Sony Computer Entertainment America Inc. Method for computing the intensity of specularly reflected light
US7046245B2 (en) * 2001-10-10 2006-05-16 Sony Computer Entertainment America Inc. System and method for environment mapping
US8133115B2 (en) 2003-10-22 2012-03-13 Sony Computer Entertainment America Llc System and method for recording and displaying a graphical path in a video game
US7525543B2 (en) * 2004-08-09 2009-04-28 Siemens Medical Solutions Usa, Inc. High performance shading of large volumetric data using screen-space partial derivatives
US20060071933A1 (en) 2004-10-06 2006-04-06 Sony Computer Entertainment Inc. Application binary interface for multi-pass shaders
US7636126B2 (en) 2005-06-22 2009-12-22 Sony Computer Entertainment Inc. Delay matching in audio/video systems
US7965859B2 (en) 2006-05-04 2011-06-21 Sony Computer Entertainment Inc. Lighting control of a user environment via a display device
US7880746B2 (en) 2006-05-04 2011-02-01 Sony Computer Entertainment Inc. Bandwidth management through lighting control of a user environment via a display device
US8115774B2 (en) * 2006-07-28 2012-02-14 Sony Computer Entertainment America Llc Application of selective regions of a normal map based on joint position in a three-dimensional model
US10786736B2 (en) 2010-05-11 2020-09-29 Sony Interactive Entertainment LLC Placement of user information in a game space
US9342817B2 (en) 2011-07-07 2016-05-17 Sony Interactive Entertainment LLC Auto-creating groups for sharing photos
KR101428577B1 (ko) * 2012-08-06 2014-08-11 동명대학교산학협력단 적외선 동작 인식 카메라를 사용하여 화면상에 네추럴 유저 인터페이스 기반 입체 지구본을 제공하는 방법
US10140751B2 (en) 2013-08-08 2018-11-27 Imagination Technologies Limited Normal offset smoothing
IL233523A (en) 2014-07-06 2017-06-29 Au10Tix Ltd A system and method for quantifying repetition such as in the analysis of laminated documents
CN113706693B (zh) * 2021-08-27 2023-11-17 武汉大学 一种微光条件下偏振三维重建方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2710616B2 (ja) * 1987-09-22 1998-02-10 大日本印刷株式会社 三次元物体を二次元表現する上での物体表面処理方法および処理装置
JPH04106672A (ja) * 1990-08-28 1992-04-08 Hitachi Ltd 物体の照明条件推定方法,物体の3次元情報生成方法,物体の形状と質感の生成方法,物体の形状と質感の生成装置
JPH05298460A (ja) * 1992-04-16 1993-11-12 Dainippon Printing Co Ltd 貝殻質感表現装置
JP3107452B2 (ja) * 1992-04-28 2000-11-06 株式会社日立製作所 テクスチャマッピング方法およびその装置
JP2682559B2 (ja) * 1992-09-30 1997-11-26 インターナショナル・ビジネス・マシーンズ・コーポレイション 物体の画像をディスプレイ装置上に表示する装置及び方法並びにコンピュータ・グラフィックス表示システム
JPH07296187A (ja) * 1994-04-28 1995-11-10 Sony Corp 画像表示処理装置
JPH08263694A (ja) * 1995-03-22 1996-10-11 Tsuneo Ikedo バンプマップシェーディング回路

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005048100A1 (de) * 2005-09-30 2007-04-05 Robert Bosch Gmbh Elektrisches Gerät, insbesondere elektronisches Steuergerät für Kraftfahrzeuge

Also Published As

Publication number Publication date
JP3021368B2 (ja) 2000-03-15
DE19646194B4 (de) 2005-12-08
US5808619A (en) 1998-09-15
KR100261076B1 (ko) 2000-07-01
JPH09167255A (ja) 1997-06-24
KR970029185A (ko) 1997-06-26

Similar Documents

Publication Publication Date Title
DE19646194B4 (de) Echtzeit-Wiedergabeverfahren zum wahlweisen Ausführen von Bump-Mapping- und Phong-Schattierungs-Prozessen und zugehörige Vorrichtung
DE4314265B4 (de) Displaysystem
DE69839277T2 (de) Verfahren und anordnung zur ausführung von farbschlüsseln, transparenz und nebelfunktionen
US5555352A (en) Object-based irregular-grid volume rendering
DE10296401B4 (de) Verbund-Rendering von 3-D-Graphikobjekten
DE19807053B4 (de) Strahltransformationsverfahren für eine schnelle Volumenaufbereitung für eine perspektivische Betrachtung
DE19807013B4 (de) Volumetrisches Vorabschneidungsverfahren, das eine minimale Anzahl von Abtastpunkten durch ein Volumen gewährleistet
DE69924699T2 (de) Verfahren zur Schaffung von als Oberflächenelemente dargestellten grafischen Objekten
DE3022454A1 (de) Optisches abbildesystem mit computererzeugtem bild fuer einen bodenfesten flugsimulator
US5381519A (en) System for line interpolation for computer graphics displays
JPH0778267A (ja) 陰影を表示する方法及びコンピュータ制御表示システム
DE69924230T2 (de) Verfahren zur Modellierung von durch Oberflächenelemente dargestellten grafischen Objekten
DE19906995A1 (de) Erzeugen von Anpaßdaten für einen virtuellen Szenenaufbau
EP0862141A2 (de) Bilddarstellungsverfahren und Vorrichtung zur Durchführung des Verfahrens
DE69732465T2 (de) Bildverarbeitungsgerät und -verfahren
US5086496A (en) Method for hidden line and surface removal in a three dimensional display
DE10085297B4 (de) Verfahren und Vorrichtung zur Erzeugung einer Bewegungsillusion
Romney Computer assisted assembly and rendering of solids
DE102006021118A1 (de) Rendern von anatomischen Strukturen mit ihrem nahen Umgebungsbereich
DE4100691B4 (de) Verfahren zur Darstellung eines dreidimensionalen Modells
DE69910980T2 (de) Antialiasing mit unterabtastung für textur-raender
DE19620858A1 (de) Computergraphiksystem mit Pixel-Tiefenhinweisgebung
DE60030401T2 (de) Anzeigetechniken für dreidimensionale virtuelle Realität
DE60020234T2 (de) Verfahren und vorrichtung zur bildwiedergabe
DE10250602B4 (de) System zum Erzeugen einer synthetischen Szene

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee