DE19646194A1 - Echtzeit-Wiedergabeverfahren zum wahlweisen Ausführen von Erhebungskartierungs- und Phong-Schattierungsprozessen und zugehörige Vorrichtung - Google Patents
Echtzeit-Wiedergabeverfahren zum wahlweisen Ausführen von Erhebungskartierungs- und Phong-Schattierungsprozessen und zugehörige VorrichtungInfo
- Publication number
- DE19646194A1 DE19646194A1 DE19646194A DE19646194A DE19646194A1 DE 19646194 A1 DE19646194 A1 DE 19646194A1 DE 19646194 A DE19646194 A DE 19646194A DE 19646194 A DE19646194 A DE 19646194A DE 19646194 A1 DE19646194 A1 DE 19646194A1
- Authority
- DE
- Germany
- Prior art keywords
- factor
- mapping
- survey
- diffuse
- mirror
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/80—Shading
- G06T15/83—Phong shading
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Image Generation (AREA)
Description
Die vorliegende Erfindung bezieht sich auf ein
Echtzeit-Wiedergabeverfahren zum wahlweisen Ausführen von Erhe
bungskartierungs - und Phong-Schattierungsprozessen und
auf eine Vorrichtung zum Ausführen dieses Verfahrens.
Eine Erhebungskartierungsvorrichtung dient im allgemeinen
dazu, ein Objekt mit einer unebenen Oberfläche, wie z. B.
die Borke eines Baums, darzustellen, was einem
Textur-Kartierungsprozeß in der Hinsicht ähnlich ist, daß in
einem Modellierungsprozeß Grundkonturen des Objekts als
Polygon ausgedrückt werden, wobei die in der wirklichen
Welt erhaltenen Kartendaten für einen Wiedergabeprozeß
verwendet werden. Gemäß dem Erhebungskartierungsprozeß
bestehen die als Erhebungskarte bezeichneten Kartendaten
jedoch aus geometrischen Daten, die den Grad der Uneben
heit der angehobenen und zurückgesetzten Oberfläche
widerspiegeln, wobei die Intensität (oder Helligkeit)
jedes Pixels des Polygons in Abhängigkeit von der lokalen
Beziehung zwischen dicht und Blickwinkel in der vorlie
genden Situation berechnet wird, indem die geometrischen
Informationen der Erhebungskarte extrahiert werden,
anstatt einfach das Polygon mit den Kartendaten zu über
schreiben, wodurch im Vergleich zum Textur-Kartierungs
prozeß ein viel realistischeres Bild erhalten wird.
Somit kann mit dem Erhebungskartierungsprozeß ein reali
stischer Unebenheitseffekt unter Verwendung der von der
wirklichen Welt erhaltenen Erhebungskarte dargestellt
werden, wobei der Prozeß schnell ausgeführt wird, da im
Modellierungsprozeß nur wenige Polygone verwendet werden.
Wenn ferner die lokale Beziehung zwischen Objekt, Licht
und Betrachtungswinkel verändert wird, wird auch die
Intensität jedes hervorgehobenen und zurückversetzten
Abschnitts in der unebenen Oberfläche in jedem Pixel
entsprechend geändert.
Wie oben beschrieben worden ist, wird jeder unebene
Abschnitt durch einen Schattierungseffekt dargestellt.
Bei den meisten Schattierungstechniken wie z. B. der
Gouraud-Schattierung und der Phong-Schattierung wird die
Intensität jedes Pixels in Abhängigkeit vom Normalvektor
bestimmt. Hierzu hat Blinn ein Erhebungskartierungsver
fahren vorgeschlagen, das auf einer Normalvektorperturba
tion beruht, bei der der Normalvektor jedes Pixels in
Abhängigkeit von der Erhebungskarte verändert wird, um
den Unebenheitseffekt zu erzeugen. Das von Blinn vorge
schlagene Erhebungskartierungsverfahren kann jedoch nur
angewendet werden, wenn die Oberfläche eines Objekts eine
funktionale Beziehung einer parametrischen Oberfläche
besitzt, so daß es unmöglich ist, dieses Verfahren auf
das Polygonmodell anzuwenden, das in der Praxis häufig
verwendet wird.
Vor kurzem haben Ernst u. a. ein Erhebungskartierungsver
fahren vorgeschlagen, das auf das Polygonmodell angewen
det werden kann, indem auf der Grundlage des Normalvek
torperturbationsverfahrens der obenerwähnte Nachteil
beseitigt wird. Dieses Verfahren besitzt jedoch den
Nachteil, daß die Schattierung jeder Grenzlinie zwischen
Polygonen unstetig ist.
Andererseits ist für die Echtzeit-Verarbeitung bezüglich
der Erhebungskartierung eine Wiedergabe-Hardware erfor
derlich. Es gibt jedoch derzeit keine andere Hardware als
die von Ernst vorgeschlagene Schaltung, wobei es wegen
deren komplizierter Struktur schwierig ist, die Schaltung
zu verwirklichen. Wenn z. B. nur eine Lichtquelle vorhan
den ist, sollten für jedes Pixel zwei Skalarproduktbe
rechnungen eines dreidimensionalen Vektors, zwölf Multi
plikationen, fünf Divisionen und zwei Arcustangens-Be
rechnungen durchgeführt werden. Ferner wird aufgrund der
unstetigen Schattierung an der Grenze von Polygonen die
Bildqualität herabgesetzt. Ferner sollte eine verwendete
Nachschlagtabelle immer dann neu berechnet werden, wenn
sich die Positionsbeziehung zwischen der Lichtquelle und
dem Objekt ändert, wodurch die Verarbeitungsgeschwindig
keit verringert wird.
Ferner wird bei Blinns Verfahren keine grundsätzliche
Betrachtung über die Hardware angestellt, so daß es nicht
für die Erzeugung der Schaltung geeignet ist. Zum Bei
spiel sollten für jedes Pixel ein Partialdifferentialvek
tor der gekrümmten Oberfläche, wenigstens zwei Kreuzpro
duktberechnungen mit dreidimensionalen Vektoren und eine
Berechnung der Länge des dreidimensionalen Vektors ausge
führt werden.
Es ist daher die Aufgabe der vorliegenden Erfindung, ein
Echtzeit-Wiedergabeverfahren zum wahlweisen Ausführen von
Erhebungskartierungs- und Phong-Schattierungsprozessen zu
schaffen.
Es ist eine weitere Aufgabe der vorliegenden Erfindung,
eine Wiedergabevorrichtung zu schaffen, mit der das
obenerwähnte Echtzeit-Wiedergabeverfahren ausgeführt wer
den kann.
Diese Aufgaben werden erfindungsgemäß gelöst durch ein
Echtzeit-Wiedergabeverfahren zum wahlweisen Ausführen von
Erhebungskartierungs- und Phong-Schattierungsprozessen
sowie durch eine zugehörige Vorrichtung, die die in den
unabhängigen Ansprüchen 1 bzw. 5 angegebenen Merkmale
besitzen. Die abhängigen Ansprüche sind auf bevorzugte
Ausführungsformen gerichtet.
Weitere Merkmale und Vorteile der vorliegenden Erfindung
werden deutlich beim Lesen der Beschreibung bevorzugter
Ausführungsformen, die auf die beigefügten Zeichnungen
Bezug nimmt; es zeigen:
Fig. 1 ein Schaubild, das ein Operationsprinzip der
vorliegenden Erfindung darstellt und ein Beispiel
eines Kartenraums und eines Achsenvektors zeigt;
Fig. 2 ein Blockschaltbild einer Echtzeit-Wiedergabevor
richtung zum wahlweisen Ausführen von Erhebungs
kartierungs- und Phong-Schattierungsprozessen ge
mäß der vorliegenden Erfindung; und
Fig. 3 ein Strukturbild des in Fig. 2 gezeigten quadra
tischen Interpolierers.
Wie in Fig. 2 gezeigt, enthält eine Echtzeit-Wiedergabe
vorrichtung erste bis dritte Interpolierungsabschnitte 21
bis 23, eine Erhebungskarte 24, erste und zweite Skalar
produkt-Ausführungsvorrichtungen 25 und 26, erste und
zweite Multiplexierer 27 und 28, eine Exponential-Ausfüh
rungsvorrichtung 29 sowie einen Addierer 30.
Fig. 3 ist ein Strukturbild eines in Fig. 2 gezeigten
quadratischen Interpolierers (QI), der zwei (nicht ge
zeigte) Akkumulatoren enthält.
Im folgenden wird auf der Grundlage der in Fig. 2 gezeig
ten Struktur die Funktionsweise der Wiedergabevorrichtung
beschrieben.
Gemäß dem Phong-Helligkeitsmodell ist die Intensität
eines an einer bestimmten Position angeordneten Objekts
gemäß der folgenden Formel (1) definiert:
wobei Hi = (Li + E)/|(Li + E) |.
In der Formel (1) stellt N einen Einheitsnormalvektor der
beabsichtigten Position dar, während E einen Einheitsvek
tor darstellt, der eine Blickrichtung von der beabsich
tigten Position darstellt, Li einen Einheitsvektor dar
stellt, der die Richtung der i-ten Lichtquelle an der
beabsichtigten Position darstellt, ia die Intensität
einer Umgebungslichtquelle darstellt, Ili die Intensität
der i-ten Lichtquelle darstellt, ka einen Umgebungsrefle
xionskoeffizienten darstellt, kd einen Diffusreflexions
koeffizienten darstellt, ks einen Spiegelreflexionskoef
fizienten darstellt, ns einen Spiegelreflexionsexponenten
und x eine diffuse Farbe des Objekts darstellen. Die
jeweiligen Ausdrücke der Formel (1) werden auch der Reihe
nach Umgebungsfaktor, Diffusionsfaktor und Spiegelfaktor
genannt.
Wenn ein Objekt mit einer gekrümmten Oberfläche nähe
rungsweise als Satz von Polygonen ausgedrückt wird, ist
der Normalvektor eines beliebigen Punktes innerhalb des
Polygons nicht bestimmt. Gemäß dem Phong-Schattierungs
verfahren wird der Normalvektor an jedem Scheitelpunkt
des betrachteten Polygons linear interpoliert, um den
Normalvektor an einem beliebigen Punkt innerhalb des
Polygons zu erhalten.
Während die im herkömmlichen Erhebungskartierungsverfah
ren verwendete Erhebungskarte Höhendaten enthält, enthält
die Erhebungskarte der vorliegenden Erfindung einen
Einheitsnormalvektor. Der Raum, in dem die Erhebungskarte
definiert ist, wird Kartenraum genannt, wobei die Koordi
naten dieses Kartenraums durch u, v bzw. h dargestellt
werden, wie in Fig. 1 gezeigt ist. Die Höhe h des hervor
gehobenen Abschnitts der Oberfläche wird in Abhängigkeit
von den Positionen von u und v (hierbei sind u und v
ganze Zahlen) bestimmt. Hierbei kann der Einheitsnormal
vektor N* = (n*u, n*v, n*h) im Kartenraum unter Verwendung
eines Bildverarbeitungsverfahrens berechnet werden. Diese
Einheitsnormalvektoren werden ferner in der Erhebungs
karte B (u, v) gespeichert.
Gemäß dem Erhebungskartierungsverfahren der vorliegenden
Erfindung wird jede Axialrichtung des Kartenraums auf dem
Polygon berechnet, wobei der Einheitsnormalvektor N*
entsprechend der berechneten Axialrichtung transformiert
wird.
Wenn eine affine Transformationsmatrix zum Berechnen der
Axialrichtung des Kartenraums auf dem Polygon gleich M
ist, wird die Matrix M wie folgt berechnet.
Es wird angenommen, daß ein Eingangspolygon P ein Dreieck
ist und jedem Scheitel i des Polygons P die dreidimensio
nalen Koordinatenwerte (xi (w), yi (w), zi (w)) jedes Schei
tels und der Ort der Erhebungskarte (ui, vi) (hierbei
gilt 1 i 3) zugewiesen sind. Wenn der Normalvektor Np
des Polygons P und die h-Achse des Kartenraums in Über
einstimmung gebracht werden, erfüllt die Matrix M die
Bedingung der folgenden Formel (2).
(ui,vi,0,1) M = (xi (w),yi (w),zi (w),1); i = 1, 2, 3. (2)
Die Matrix M, die die obengenannte Bedingung der Formel
(2) erfüllt, kann durch Lösen eines linearen Gleichungs
systems erhalten werden.
Die Einheitsvektoren der zwei Axialrichtungen im Karten
raum werden mit U* = (1, 0, 0) bzw. V* = (0, 1, 0) be
zeichnet. Nach Transformieren dieser Einheitsvektoren in
homogene Koordinaten wird das Ergebnis mit der Matrix M
multipliziert, womit die Vektoren Up und Vp der Axial
richtungen im Polygon P erhalten werden. Jedoch sind Np
und der gegebene Normalvektor Ni an jedem Scheitel i
nicht aufeinander ausgerichtet. Somit wird die h-Achse
auf Ni ausgerichtet, woraufhin Up und Vp auf eine Fläche
senkrecht zu Ni projiziert werden. Die Transformationen
der projizierten Vektoren in die Einheitsvektoren sind
wie in Fig. 1 gezeigt durch Ui und Vi dargestellt, die
Axialvektoren genannt werden. Diese Axialvektoren werden
für jeden Scheitel berechnet.
Wenn andererseits der Phong-Schattierungsprozeß ausge
führt wird, werden die gegebenen Normalvektoren an jedem
Scheitel linear interpoliert, um den Normalvektor N an
jedem Pixel, das innerhalb des Polygons angeordnet ist,
zu berechnen. Gemäß der vorliegenden Erfindung werden zum
Zweck der Erhebungskartierung die an jedem Scheitel
berechneten Axialvektoren, die mit U bzw. V bezeichnet
sind, linear interpoliert. Die Vektoren N, U und V sind
im allgemeinen keine Einheitsvektoren, da sie mittels
Linearinterpolation berechnet werden. In der Praxis sind
jedoch die Differenzen der Normalvektoren Ni an den
jeweiligen Scheiteln des Polygons P klein, was auch für
die Vektoren Ui und Vi gilt. Daraus folgt, daß die Länge
von N, U und V ungefähr gleich 1 ist. Infolgedessen
werden die Vektoren N, U und V als Einheitsvektoren
betrachtet. Somit wird ein Normalvektor N′, der anhand
der Erhebungskarte B(u, v) entsprechend den Werten (u, v)
jedes Pixels korrigiert worden ist, durch folgende Formel
(3) ausgedrückt:
N′ = n*uU + n*vV + n*hN. (3)
Der anhand der obigen Formel (3) korrigierte Normalvektor
N′ wird auf jeden Faktor der Formel (1) angewendet.
Zuerst wird der Umgebungsfaktor I(a), der ein konstanter
Wert ist, einfach verarbeitet. Der Diffusfaktor I(d) wird
andererseits entsprechend der folgenden Formel (4) verar
beitet.
Wenn hierbei gilt:
kann die Formel (4) entsprechend der folgenden Formel (5)
in eine Skalarproduktform umgeordnet werden.
I(d) = N*·(IU (d), IV (d), IN (d)) (5)
In der obigen Formel (5) ist IN (d) gleich dem Diffusfak
tor vor der Erhebungskartierung, während IU (d) und IV (d)
gleich den Diffusfaktoren sind, die unter Berücksichti
gung von U und V als Normalvektoren berechnet worden
sind. Somit können diese Werte IU (d) und IV (d) auf die
gleiche Weise berechnet werden wie im Verfahren zur
Berechnung von IN (d). Das heißt, es kann ein beliebiges
Verfahren zur Berechnung des Diffusfaktors für den
Phong-Schattierungsprozeß verwendet werden, um diese Werte zu
berechnen.
Ferner kann der Spiegelfaktor I(s) nach dem gleichen.
Berechnungsverfahren mit der folgenden Formel (6) ausge
drückt werden:
Hierbei gilt:
In diesem Verfahren kann zur Berechnung von IX (S) ein
beliebiges Verfahren zur Berechnung des Spiegelfaktors
für den Phong-Schattierungsprozeß verwendet werden.
Im folgenden wird mit Bezug auf Fig. 2 die nach der
obenbeschriebenen Art operierende Wiedergabevorrichtung
beschrieben.
Zuerst wird angenommen, daß von einer Lichtquelle paral
lel gerichtetes Licht abgestrahlt wird. Das heißt, die
Anzahl der Lichtquellen n ist gleich I und die Richtung
Li zur Lichtquelle ist im selben Polygon gleich.
Um die Wiedergabevorrichtung anzusteuern, wird der zuge
hörige Prozeß grob in einen Modellierungsschritt zum
Erzeugen eines dreidimensionalen Polygonmodells durch
einen Benutzer, einen Geometriemaschinenverarbeitungs
schritt zum Transformieren des erzeugten Polygonmodells
auf eine Position auf einer Fläche und einen Rasterma
schinenverarbeitungsschritt zum Ausführen einer Operation
mit einem auf der Fläche befindlichen Pixel und zum
Speichern des Ergebnisses in einem Rahmenpuffer einge
teilt. Vor der Operation des Rastermaschinenverarbei
tungsschritts werden im folgenden zuerst die für die
beiden vorherigen Schritte erforderlichen Operationen
beschrieben.
Im Modellierungsschritt erstellt der Benutzer im voraus
die geeigneten Daten zum Ansteuern der Wiedergabevorrich
tung. In diesem Schritt wird angenommen, daß die Objekte
in Form von Polygonen modelliert sind und die Polygone
jeweils Dreiecke sind. Für den Phong-Schattierungsprozeß
wird jedem Scheitel ein Normalvektor zugewiesen. Für den
Erhebungskartierungsprozeß werden allen Scheiteln Werte
(ui, vi) zugewiesen, die nicht zum Normalvektor gehören,
wobei der Axialvektor unter Verwendung der zugewiesenen
Werte (ui, vi) berechnet wird und anschließend das Ergeb
nis im Modell gespeichert wird. Es können sich jedoch
mehrere Dreiecke einen Scheitel teilen, wobei die für die
jeweiligen Dreiecke berechneten Axialvektoren verschieden
sein können. In diesem Fall wird der Mittelwert der
Axialvektoren für die jeweiligen Dreiecke berechnet und
anschließend im Modell gespeichert.
Für den anschließenden Geometriemaschinenverarbeitungs
schritt haben Bishop und Weimer eine Hardware für die
Phong-Schattierung vorgeschlagen, in der eine Taylor
reihenentwicklung und eine quadratische Interpolation
durchgeführt werden.
Das heißt, nach der Berechnung des Diffusfaktorwerts und
des Spiegelfaktorwerts an den drei Scheiteln des Dreiecks
unter Verwendung der obigen Formel (1) werden die berech
neten Werte im Rastermaschinenverarbeitungsschritt bezüg
lich der Koordinatenwerte der Fläche innerhalb des Poly
gons quadratisch interpoliert. Durch Modifizieren der
obigen Formel wird aufgrund der sechs Koeffizienten der
quadratischen Gleichung die folgende Formel (7) erhalten.
IN (d) = T₅x² + T₄xy + T₃y² + T₂x + T₁y + T₀ (7)
In der obigen Formel (7) stellen x und y die Koordinaten
der Fläche dar. Durch Lösen des Systems linearer Glei
chungen, die durch Einsetzen der jeweiligen Diffusfaktor
werte an den drei Scheiteln und den Zwischenpunkten auf
den Kanten des Dreiecks abgeleitet werden, können die
Koeffizienten der Formel (7) erhalten werden. Im Raster
maschinenverarbeitungsschritt wird unter Verwendung der
Koeffizienten die Vorwärtsdifferenz berechnet, so daß die
Diffusfaktorwerte über zwei Addierprozesse an den benach
barten Pixeln berechnet werden können. Ferner kann der
Spiegelfaktorwert auf die gleiche Weise berechnet werden.
Das obenbeschriebene Verfahren, das sich auf Formel (7)
bezieht, kann unverändert zur Berechnung der obigen
Formeln (5) und (6) verwendet werden. Das heißt, IN (d),
IU (d), IV (d), IN (S), IU (S), IV (S) werden an den drei Schei
teln und an den Zwischenpunkten auf jeder Kante im Drei
eck berechnet, wodurch die Lösungen des linearen Glei
chungssystems erhalten werden. Hierbei wird das Ergebnis
in Form der quadratischen Gleichung ähnlich der Formel
(7) ausgedrückt, wodurch die Koeffizienten der quadrati
schen Gleichung erhalten werden.
Im Geometriemaschinenverarbeitungsschritt wird für jedes
Dreieck die Spannweite berechnet, wobei die Spannweite
zur Rastermaschine übertragen wird. Ferner werden IN (d),
IU (d), IV (d), IN (S), IU (S), IV (S) am Startpunkt jeder Spann
weite unter Verwendung der quadratischen Gleichung der
Formel (7) berechnet. Anschließend wird das Ergebnis als
Eingangswert zur Rastermaschine übertragen. Ferner werden
für die quadratische Interpolation, da die x-Koordinaten
werte um I zunehmen, die Inkremente von IN (d), IU (d),
IV (d), IN (S), IU (S), IV (S), d. h. ΔxIN (d), ΔxIU (d), ΔxIV (d),
ΔxIN (S), ΔxIU (S), ΔxIV (S) und die Inkremente von ΔxIN (d),
ΔxIU (d), ΔxIV (d), ΔxIN (S), ΔxIU (S), ΔxIV (S), d. h. Δx²IN (d),
Δx²IU (d), Δx²IV (d), Δx²IN (S), Δx²IU (S), Δx²IV (S) am Start
punkt jeder Spannweite berechnet, wobei das Ergebnis zum
Eingang der Rastermaschine übertragen wird.
Zum Berechnen der Werte (u, v) jedes Pixels in der Fläche
wird die in der Texturkartierung verwendete quadratische
Interpolation verwendet. Hierzu wird der quadratische
Interpolationskoeffizient benötigt, der für u und v auf
die gleiche Weise wie oben beschrieben berechnet und
anschließend zum Eingang der Rastermaschine übertragen
wird.
Im folgenden wird im Rastermaschinenverarbeitungsschritt
mit Bezug auf die Fig. 2 und 3 eine Schaltung zur Durch
führung der Erhebungskartierung beschrieben.
Wenn sich das LADE/ADDIERE-Steuersignal LASELECT am
quadratischen Interpolierer (QI) der ersten bis dritten
Interpolationsabschnitte 21 bis 23 im LADE-Zustand befin
det, werden Y bzw. ΔxY in zwei Akkumulatoren gespeichert.
Andererseits wird im ADDIERE-Zustand Δx²Y zu ΔxY addiert
und anschließend das Ergebnis zu Y addiert.
Hierbei ist Y entweder IN (d), IU (d), IV (d), IN (S), IU (S),
IV (S) u oder v, während die Dateneingänge für jeden
quadratischen Interpolierer (QI) der ersten bis dritten
Interpolationsabschnitte 21 bis 23 Y, ΔxY und Δx²Y sind.
Die Erhebungskarte 24 dient zum Speichern des Einheits
normalvektors N* im Kartenraum. Der Einheitsnormalvektor
N* wird in der Erhebungskarte 24 unter Verwendung des
Werts (u, v) des vorliegenden Pixels erhalten. Ein Pixel
der Erhebungskarte 24 umfaßt drei Bytes, wobei jedes Byte
dem jeweiligen Komponentenwert des Einheitsnormalvektors
entspricht.
Die erste Skalarprodukt-Ausführungsvorrichtung 25 führt
das Skalarprodukt bezüglich des in der Erhebungskarte 24
erhaltenen Einheitsnormalvektors N* und der Ausgabe IN d,
IU (d), IV (d) des quadratischen Interpolierers (QI) des
ersten Interpolationsabschnitts 21 aus. Die zweite Ska
larprodukt-Ausführungsvorrichtung 26 führt das Skalarpro
dukt bezüglich des in der Erhebungskarte 24 erhaltenen
Einheitsnormalvektors N* und des Ausgangs IN (S), IU (S),
IV (S) des quadratischen Interpolierers (QI) des zweiten
Interpolationsabschnitts 22 durch. Die ersten und zweiten
Skalarprodukt-Ausführungsvorrichtungen 25 und 26 enthal
ten jeweils drei Multiplizierer und einen Addierer.
Der erste Multiplexierer 27 gibt in Abhängigkeit von
einem Erhebungskartierungs-/Phong-Schattierungs-Auswahl
signal (BPSELECT) entweder den Ausgang der ersten Skalar
produkt-Ausführungsvorrichtung 25 oder IN (d) des ersten
Interpolationsabschnitts 23 aus. Der zweite Multiplexie
rer 28 gibt in Abhängigkeit von einem Erhebungskartie
rungs-/Phong-Schattierungs-Auswahlsignal (BPSELECT)
entweder den Ausgang der zweiten Skalarprodukt-Ausfüh
rungsvorrichtung 26 oder IN (S) vom zweiten Interpola
tionsabschnitt 22 aus.
Ferner wird im Fall des Spiegelfaktors die
Exponential-Ausführungsvorrichtung 29, in der die Exponentialopera
tion bezüglich des Ausgangs vom zweiten Multiplexierer 28
durchgeführt wird, mittels der Nachschlagtabelle imple
mentiert. Hierbei ist die Exponential-Ausführungsvorrich
tung 29 mit Xna bezeichnet, wie in Fig. 2 gezeigt ist.
Der Addierer 30 addiert den Umgebungsfaktor, den Diffus
faktor vom ersten Multiplexierer 27 und den Spiegelfaktor
von der Exponential-Ausführungsvorrichtung 29 und gibt
das Ergebnis aus.
Da die in Fig. 2 gezeigte Wiedergabevorrichtung im Ver
gleich zu der von Ernst u. a. vorgeschlagenen Schaltung
eine einfache Struktur besitzt, kann die Wiedergabevor
richtung leicht verwirklicht werden. Ferner werden als
Hardware für die Phong-Schattierung nur IN (d) und IN (S)
verwendet. Hierbei kann separat nur der Phong-Schattie
rungsmodus durchgeführt werden oder es kann der Erhe
bungskartierungsmodus unter Verwendung von IN (d) und IN (S)
durchgeführt werden. Das heißt, wenn nur die Phong-Schat
tierung benötigt wird, kann die Wiedergabevorrichtung
durch Betriebsartumschaltung durch die ersten und zweiten
Multiplexierer 27 und 28 verwendet werden. Hierbei wird
die Betriebsartumschaltung durch ein BPSELECT-Signal
gesteuert.
Die Erhebungskarte 24 und die Exponential-Ausführungsvor
richtung 29 der in Fig. 2 gezeigten Wiedergabevorrichtung
verwenden einen Speicher, um darin die Nachschlagtabelle
zu speichern.
Das obenbeschriebene Funktionsprinzip wird auf das Poly
gonmodell angewendet, das derzeit hauptsächlich verwendet
wird. Ferner wird gemäß dem obenerwähnten Verfahren an
den Grenzen zwischen Dreiecken derselbe Axialvektor
verwendet, so daß die Grenze zwischen Dreiecken stetig
schattiert ist.
Wie oben beschrieben worden ist, kann gemäß des
Echtzeit-Wiedergabeverfahrens und der Vorrichtung zum wahlweisen
Ausführen der Erhebungskartierung und der Phong-Schattie
rung gemäß der vorliegenden Erfindung eine unebene Ober
fläche eines Objekts dargestellt werden, so daß das
realistische Erscheinungsbild des Bildes verbessert
werden kann, wenn die Wiedergabevorrichtung auf die
dreidimensionale Echtzeit-Animation angewendet wird.
Ferner kann die Wiedergabevorrichtung auf das Polygonmo
dell angewendet werden, das derzeit häufig verwendet
wird, wodurch ein weiter Anwendungsbereich geschaffen
wird. Ferner entsteht an den Grenzen jedes Polygons keine
Unstetigkeit. Außerdem kann die Wiedergabevorrichtung
aufgrund ihrer einfachen Struktur leicht verwirklicht
werden. Ferner kann wahlweise die Phong-Schattierung
durchgeführt werden, wobei diese bei Bedarf auch separat
durchgeführt werden kann.
Claims (8)
1. Echtzeit-Wiedergabeverfahren zum wahlweisen
Durchführen von Erhebungskartierungs- und Phong-Schattie
rungsprozessen, um einen Intensitätswert eines Objekts zu
erhalten,
gekennzeichnet durch die Schritte:
- a) Berechnen eines Umgebungsfaktors;
- b) Erhebungskartierung eines Diffusfaktors und wahlweises Ausgeben des erhebungskartierten Diffusfaktors oder des Diffusfaktors vor der Erhebungskartierung in Abhängigkeit von einem Erhebungskartierungs/Phong-Schat tierungs-Auswahlsignal (BPSELECT);
- c) Erhebungskartierung eines Spiegelfaktors und wahlweises Ausgeben des erhebungskartierten Spiegelfak tors oder des Spiegelfaktors vor der Erhebungskartierung in Abhängigkeit vom Erhebungskartierungs-/Phong-Schattie rungs-Auswahlsignal (BPSELECT); und
- d) Summieren des Umgebungsfaktors aus Schritt (a), des Diffusfaktors aus Schritt (b) und des Spiegel faktors aus Schritt (c) und Erhalten des Intensitätswerts des Objekts, das von einem beliebigen Ort aus betrachtet wird, im Rastermaschinenabschnitt.
2. Echtzeit-Wiedergabeverfahren nach Anspruch 1,
dadurch gekennzeichnet, daß
der Diffusfaktor im Schritt (b) mittels folgender
Gleichungen erhebungskartiert wird:
N′ = n*uU + n*vV + n*hN(hierbei bezeichnet N′ einen Normalvektor, der mittels
einer Erhebungskarte B(u, v), die den Werten (u, v) jedes
Pixels zugeordnet ist, korrigiert worden ist, während
n*u, n*v und n*h die Komponenten eines Einheitsnormalvek
tors in einem Kartenraum bezeichnen, N die an jedem
Scheitel gegebenen Normalvektoren bezeichnet, die mittels
Linearinterpolation berechnet worden sind, und U und V
die an jedem Scheitel gegebenen Axialvektoren bezeichnen,
die mittels Linearinterpolation berechnet worden sind)
undI(d) = N*·(IU (d), IV (d), IN (d))(hierbei bezeichnet I(d) den erhebungskartierten Diffus
faktor, während IN (d) den Diffusfaktor vor der Erhebungs
kartierung bezeichnet und IU (d) und IV (d) die mit Bezug
auf U und V als Normalvektoren berechneten Diffusfaktoren
bezeichnen).
3. Echtzeit-Wiedergabeverfahren nach Anspruch 1,
dadurch gekennzeichnet, daß
der Spiegelfaktor im Schritt (c) mittels folgen
der Gleichungen erhebungskartiert wird:
N′ = n*uU + n*vV + n*hN(hierbei bezeichnet N′ einen Normalvektor, der mittels
einer Erhebungskarte B(u, v), die den Werten (u, v) jedes
Pixels zugeordnet ist, korrigiert worden ist, während
n*u, n*v und n*h die Komponenten eines Einheitsnormalvek
tors in einem Kartenraum bezeichnen, N die an jedem
Scheitel gegebenen Normalvektoren bezeichnet, die mittels
Linearinterpolation berechnet worden sind, und U und V
die an jedem Scheitel gegebenen Axialvektoren bezeichnen,
die mittels Linearinterpolation berechnet worden sind)
und
(hierbei bezeichnet I(5) den erhebungskartierten Spiegel
faktor, während IN (S) den Spiegelfaktor vor der Erhe
bungskartierung bezeichnet und IU (S) und IV (S) die mit
Bezug auf U und V als Normalvektoren berechneten Spiegel
faktoren bezeichnen).
4. Echtzeit-Wiedergabeverfahren nach Anspruch 1,
dadurch gekennzeichnet, daß
eine für den Erhebungskartierungsprozeß verwen
dete Erhebungskarte einen Einheitsnormalvektor eines
Kartenraums speichert.
5. Echtzeit-Wiedergabevorrichtung zum wahlweisen
Durchführen von Erhebungskartierungs- und Phong-Schattie
rungsprozessen, um einen Intensitätswert eines Objekts zu
erhalten,
gekennzeichnet durch
eine Berechnungseinrichtung zum Erhalten eines Umgebungsfaktors;
erste und zweite Interpolationsabschnitte (21, 22) zum Durchführen einer quadratischen Interpolation, um den Diffusfaktor bzw. den Spiegelfaktor zu erhalten;
einen dritten Interpolationsabschnitt (23) zum Durchführen der quadratischen Interpolation, um für jedes Pixel in einem Polygon Werte der Position innerhalb eines Kartenraums zu erhalten;
eine Erhebungskarte (24) zum Ausgeben eines Normalvektors, der mittels der Werte der Position inner halb des Kartenraums jedes Pixels, die vom dritten Inter polationsabschnitt (23) erhalten werden, korrigiert ist;
eine erste Skalarprodukt-Ausführungsvorrichtung (25) zum Durchführen einer Skalarproduktoperation mit dem Diffusfaktor und dem in der Erhebungskartierung korri gierten Normalvektor und zum Ausgeben eines erhebungskar tierten Diffusfaktors;
eine zweite Skalarprodukt-Ausführungsvorrichtung (26) zum Durchführen einer Skalarproduktoperation mit dem Spiegelfaktor und dem in der Erhebungskarte korrigierten Normalvektor und zum Ausgeben eines erhebungskartierten Spiegelfaktors;
einen ersten Multiplexierer (27) zum wahlweisen Ausgeben des erhebungskartierten Diffusfaktors oder des Diffusfaktors in Abhängigkeit von einem Erhebungskartie rungs-/Phong-Schattierungs-Auswahlsignal (BPSELECT);
einen zweiten Multiplexierer (28) zum wahlweisen Ausgeben des erhebungskartierten Spiegelfaktors oder des Spiegelfaktors in Abhängigkeit von einem Erhebungskartie rungs-/Phong-Schattierungs-Auswahlsignal (BPSELECT);
einen Exponential-Ausführungsabschnitt (29) zum Multiplizieren des vom zweiten Multiplexierer (28) ausge gebenen Spiegelfaktors mit einem Spiegelreflexionsexpo nenten, um einen endgültigen Spiegelfaktor aus zugeben; und
einen Addierer (30) zum Summieren des Umgebungs faktors, des vom ersten Multiplexierer (27) ausgegebenen Diffusfaktors und des vom Exponential-Ausführungsab schnitt (29) ausgegebenen Spiegelfaktors und zum Erhalten des Intensitätswerts des Objekts.
eine Berechnungseinrichtung zum Erhalten eines Umgebungsfaktors;
erste und zweite Interpolationsabschnitte (21, 22) zum Durchführen einer quadratischen Interpolation, um den Diffusfaktor bzw. den Spiegelfaktor zu erhalten;
einen dritten Interpolationsabschnitt (23) zum Durchführen der quadratischen Interpolation, um für jedes Pixel in einem Polygon Werte der Position innerhalb eines Kartenraums zu erhalten;
eine Erhebungskarte (24) zum Ausgeben eines Normalvektors, der mittels der Werte der Position inner halb des Kartenraums jedes Pixels, die vom dritten Inter polationsabschnitt (23) erhalten werden, korrigiert ist;
eine erste Skalarprodukt-Ausführungsvorrichtung (25) zum Durchführen einer Skalarproduktoperation mit dem Diffusfaktor und dem in der Erhebungskartierung korri gierten Normalvektor und zum Ausgeben eines erhebungskar tierten Diffusfaktors;
eine zweite Skalarprodukt-Ausführungsvorrichtung (26) zum Durchführen einer Skalarproduktoperation mit dem Spiegelfaktor und dem in der Erhebungskarte korrigierten Normalvektor und zum Ausgeben eines erhebungskartierten Spiegelfaktors;
einen ersten Multiplexierer (27) zum wahlweisen Ausgeben des erhebungskartierten Diffusfaktors oder des Diffusfaktors in Abhängigkeit von einem Erhebungskartie rungs-/Phong-Schattierungs-Auswahlsignal (BPSELECT);
einen zweiten Multiplexierer (28) zum wahlweisen Ausgeben des erhebungskartierten Spiegelfaktors oder des Spiegelfaktors in Abhängigkeit von einem Erhebungskartie rungs-/Phong-Schattierungs-Auswahlsignal (BPSELECT);
einen Exponential-Ausführungsabschnitt (29) zum Multiplizieren des vom zweiten Multiplexierer (28) ausge gebenen Spiegelfaktors mit einem Spiegelreflexionsexpo nenten, um einen endgültigen Spiegelfaktor aus zugeben; und
einen Addierer (30) zum Summieren des Umgebungs faktors, des vom ersten Multiplexierer (27) ausgegebenen Diffusfaktors und des vom Exponential-Ausführungsab schnitt (29) ausgegebenen Spiegelfaktors und zum Erhalten des Intensitätswerts des Objekts.
6. Echtzeit-Wiedergabevorrichtung nach Anspruch 5,
dadurch gekennzeichnet, daß
der erste Interpolationsabschnitt (21) eine
quadratische Interpolation durchführt, um für jedes Pixel
innerhalb des Polygons den Diffusfaktor vor den Erhe
bungskartierungsprozeß zu erhalten, wobei der Interpola
tionseingang von an jedem Scheitel des Polygons gegebenen
Normalvektoren und den für jeden Scheitel des Polygons
berechneten Axialvektoren abgeleitet wird.
7. Echtzeit-Wiedergabevorrichtung nach Anspruch 5,
dadurch gekennzeichnet, daß
der zweite Interpolationsabschnitt (22) eine
quadratische Interpolation durchführt, um für jedes Pixel
innerhalb des Polygons den Spiegelfaktor vor dem Erhe
bungskartierungsprozeß zu erhalten, wobei der Interpola
tionseingang von an jedem Scheitel des Polygons gegebenen
Normalvektoren und den für jeden Scheitel des Polygons
berechneten Axialvektoren abgeleitet wird.
8. Echtzeit-Wiedergabevorrichtung nach Anspruch 5,
dadurch gekennzeichnet, daß
die Phong-Schattierungsfunktion durchgeführt
wird, indem von den ersten und zweiten Multiplexierern
(27, 28) der Diffusfaktor vor der Erhebungskartierung
bzw. der Spiegelfaktor vor der Erhebungskartierung ausge
geben werden.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR95-40496 | 1995-11-09 | ||
KR1019950040496A KR100261076B1 (ko) | 1995-11-09 | 1995-11-09 | 범프 맵핑과 퐁 쉐이딩을 동시에 수행하는 렌더링방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19646194A1 true DE19646194A1 (de) | 1997-05-15 |
DE19646194B4 DE19646194B4 (de) | 2005-12-08 |
Family
ID=19433533
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19646194A Expired - Fee Related DE19646194B4 (de) | 1995-11-09 | 1996-11-08 | Echtzeit-Wiedergabeverfahren zum wahlweisen Ausführen von Bump-Mapping- und Phong-Schattierungs-Prozessen und zugehörige Vorrichtung |
Country Status (4)
Country | Link |
---|---|
US (1) | US5808619A (de) |
JP (1) | JP3021368B2 (de) |
KR (1) | KR100261076B1 (de) |
DE (1) | DE19646194B4 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005048100A1 (de) * | 2005-09-30 | 2007-04-05 | Robert Bosch Gmbh | Elektrisches Gerät, insbesondere elektronisches Steuergerät für Kraftfahrzeuge |
Families Citing this family (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6724383B1 (en) * | 1997-02-21 | 2004-04-20 | Mental Images G.M.B.H. | System and computer-implemented method for modeling the three-dimensional shape of an object by shading of a two-dimensional image of the object |
US9098297B2 (en) * | 1997-05-08 | 2015-08-04 | Nvidia Corporation | Hardware accelerator for an object-oriented programming language |
JP3514945B2 (ja) * | 1997-05-26 | 2004-04-05 | 株式会社ソニー・コンピュータエンタテインメント | 画像作成方法および画像作成装置 |
US6226006B1 (en) * | 1997-06-27 | 2001-05-01 | C-Light Partners, Inc. | Method and apparatus for providing shading in a graphic display system |
JP3035571B2 (ja) | 1997-12-22 | 2000-04-24 | 株式会社島精機製作所 | 画像処理装置 |
US6014144A (en) * | 1998-02-03 | 2000-01-11 | Sun Microsystems, Inc. | Rapid computation of local eye vectors in a fixed point lighting unit |
US6762768B2 (en) * | 1998-06-01 | 2004-07-13 | Ati Technologies, Inc. | Method and apparatus for rendering an object using texture variant information |
US6480205B1 (en) | 1998-07-22 | 2002-11-12 | Nvidia Corporation | Method and apparatus for occlusion culling in graphics systems |
JP3605317B2 (ja) * | 1999-06-07 | 2004-12-22 | 株式会社ソニー・コンピュータエンタテインメント | 画像描画方法、画像描画装置及び記録媒体 |
US6618048B1 (en) | 1999-10-28 | 2003-09-09 | Nintendo Co., Ltd. | 3D graphics rendering system for performing Z value clamping in near-Z range to maximize scene resolution of visually important Z components |
US6717577B1 (en) | 1999-10-28 | 2004-04-06 | Nintendo Co., Ltd. | Vertex cache for 3D computer graphics |
US7209140B1 (en) | 1999-12-06 | 2007-04-24 | Nvidia Corporation | System, method and article of manufacture for a programmable vertex processing model with instruction set |
US6844880B1 (en) | 1999-12-06 | 2005-01-18 | Nvidia Corporation | System, method and computer program product for an improved programmable vertex processing model with instruction set |
US7071937B1 (en) | 2000-05-30 | 2006-07-04 | Ccvg, Inc. | Dirt map method and apparatus for graphic display system |
JP4443012B2 (ja) | 2000-07-27 | 2010-03-31 | 株式会社バンダイナムコゲームス | 画像生成装置、方法および記録媒体 |
US7538772B1 (en) | 2000-08-23 | 2009-05-26 | Nintendo Co., Ltd. | Graphics processing system with enhanced memory controller |
US7196710B1 (en) | 2000-08-23 | 2007-03-27 | Nintendo Co., Ltd. | Method and apparatus for buffering graphics data in a graphics system |
US6636214B1 (en) | 2000-08-23 | 2003-10-21 | Nintendo Co., Ltd. | Method and apparatus for dynamically reconfiguring the order of hidden surface processing based on rendering mode |
US6825851B1 (en) | 2000-08-23 | 2004-11-30 | Nintendo Co., Ltd. | Method and apparatus for environment-mapped bump-mapping in a graphics system |
US6707458B1 (en) | 2000-08-23 | 2004-03-16 | Nintendo Co., Ltd. | Method and apparatus for texture tiling in a graphics system |
US6700586B1 (en) | 2000-08-23 | 2004-03-02 | Nintendo Co., Ltd. | Low cost graphics with stitching processing hardware support for skeletal animation |
US6980218B1 (en) | 2000-08-23 | 2005-12-27 | Nintendo Co., Ltd. | Method and apparatus for efficient generation of texture coordinate displacements for implementing emboss-style bump mapping in a graphics rendering system |
US6811489B1 (en) | 2000-08-23 | 2004-11-02 | Nintendo Co., Ltd. | Controller interface for a graphics system |
US7576748B2 (en) | 2000-11-28 | 2009-08-18 | Nintendo Co. Ltd. | Graphics system with embedded frame butter having reconfigurable pixel formats |
US6597356B1 (en) | 2000-08-31 | 2003-07-22 | Nvidia Corporation | Integrated tessellator in a graphics processing unit |
US6828980B1 (en) | 2000-10-02 | 2004-12-07 | Nvidia Corporation | System, method and computer program product for z-texture mapping |
US6731298B1 (en) | 2000-10-02 | 2004-05-04 | Nvidia Corporation | System, method and article of manufacture for z-texture mapping |
US6850244B2 (en) * | 2001-01-11 | 2005-02-01 | Micron Techology, Inc. | Apparatus and method for gradient mapping in a graphics processing system |
US6614431B1 (en) * | 2001-01-18 | 2003-09-02 | David J. Collodi | Method and system for improved per-pixel shading in a computer graphics system |
US6781594B2 (en) * | 2001-08-21 | 2004-08-24 | Sony Computer Entertainment America Inc. | Method for computing the intensity of specularly reflected light |
US7046245B2 (en) * | 2001-10-10 | 2006-05-16 | Sony Computer Entertainment America Inc. | System and method for environment mapping |
US8133115B2 (en) | 2003-10-22 | 2012-03-13 | Sony Computer Entertainment America Llc | System and method for recording and displaying a graphical path in a video game |
US7525543B2 (en) * | 2004-08-09 | 2009-04-28 | Siemens Medical Solutions Usa, Inc. | High performance shading of large volumetric data using screen-space partial derivatives |
US20060071933A1 (en) | 2004-10-06 | 2006-04-06 | Sony Computer Entertainment Inc. | Application binary interface for multi-pass shaders |
US7636126B2 (en) | 2005-06-22 | 2009-12-22 | Sony Computer Entertainment Inc. | Delay matching in audio/video systems |
US7965859B2 (en) | 2006-05-04 | 2011-06-21 | Sony Computer Entertainment Inc. | Lighting control of a user environment via a display device |
US7880746B2 (en) | 2006-05-04 | 2011-02-01 | Sony Computer Entertainment Inc. | Bandwidth management through lighting control of a user environment via a display device |
US8115774B2 (en) * | 2006-07-28 | 2012-02-14 | Sony Computer Entertainment America Llc | Application of selective regions of a normal map based on joint position in a three-dimensional model |
US10786736B2 (en) | 2010-05-11 | 2020-09-29 | Sony Interactive Entertainment LLC | Placement of user information in a game space |
US9342817B2 (en) | 2011-07-07 | 2016-05-17 | Sony Interactive Entertainment LLC | Auto-creating groups for sharing photos |
KR101428577B1 (ko) * | 2012-08-06 | 2014-08-11 | 동명대학교산학협력단 | 적외선 동작 인식 카메라를 사용하여 화면상에 네추럴 유저 인터페이스 기반 입체 지구본을 제공하는 방법 |
US10140751B2 (en) | 2013-08-08 | 2018-11-27 | Imagination Technologies Limited | Normal offset smoothing |
IL233523A (en) | 2014-07-06 | 2017-06-29 | Au10Tix Ltd | A system and method for quantifying repetition such as in the analysis of laminated documents |
CN113706693B (zh) * | 2021-08-27 | 2023-11-17 | 武汉大学 | 一种微光条件下偏振三维重建方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2710616B2 (ja) * | 1987-09-22 | 1998-02-10 | 大日本印刷株式会社 | 三次元物体を二次元表現する上での物体表面処理方法および処理装置 |
JPH04106672A (ja) * | 1990-08-28 | 1992-04-08 | Hitachi Ltd | 物体の照明条件推定方法,物体の3次元情報生成方法,物体の形状と質感の生成方法,物体の形状と質感の生成装置 |
JPH05298460A (ja) * | 1992-04-16 | 1993-11-12 | Dainippon Printing Co Ltd | 貝殻質感表現装置 |
JP3107452B2 (ja) * | 1992-04-28 | 2000-11-06 | 株式会社日立製作所 | テクスチャマッピング方法およびその装置 |
JP2682559B2 (ja) * | 1992-09-30 | 1997-11-26 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 物体の画像をディスプレイ装置上に表示する装置及び方法並びにコンピュータ・グラフィックス表示システム |
JPH07296187A (ja) * | 1994-04-28 | 1995-11-10 | Sony Corp | 画像表示処理装置 |
JPH08263694A (ja) * | 1995-03-22 | 1996-10-11 | Tsuneo Ikedo | バンプマップシェーディング回路 |
-
1995
- 1995-11-09 KR KR1019950040496A patent/KR100261076B1/ko not_active IP Right Cessation
-
1996
- 1996-11-08 US US08/748,489 patent/US5808619A/en not_active Expired - Lifetime
- 1996-11-08 DE DE19646194A patent/DE19646194B4/de not_active Expired - Fee Related
- 1996-11-08 JP JP8296815A patent/JP3021368B2/ja not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005048100A1 (de) * | 2005-09-30 | 2007-04-05 | Robert Bosch Gmbh | Elektrisches Gerät, insbesondere elektronisches Steuergerät für Kraftfahrzeuge |
Also Published As
Publication number | Publication date |
---|---|
JP3021368B2 (ja) | 2000-03-15 |
DE19646194B4 (de) | 2005-12-08 |
US5808619A (en) | 1998-09-15 |
KR100261076B1 (ko) | 2000-07-01 |
JPH09167255A (ja) | 1997-06-24 |
KR970029185A (ko) | 1997-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19646194B4 (de) | Echtzeit-Wiedergabeverfahren zum wahlweisen Ausführen von Bump-Mapping- und Phong-Schattierungs-Prozessen und zugehörige Vorrichtung | |
DE4314265B4 (de) | Displaysystem | |
DE69839277T2 (de) | Verfahren und anordnung zur ausführung von farbschlüsseln, transparenz und nebelfunktionen | |
US5555352A (en) | Object-based irregular-grid volume rendering | |
DE10296401B4 (de) | Verbund-Rendering von 3-D-Graphikobjekten | |
DE19807053B4 (de) | Strahltransformationsverfahren für eine schnelle Volumenaufbereitung für eine perspektivische Betrachtung | |
DE19807013B4 (de) | Volumetrisches Vorabschneidungsverfahren, das eine minimale Anzahl von Abtastpunkten durch ein Volumen gewährleistet | |
DE69924699T2 (de) | Verfahren zur Schaffung von als Oberflächenelemente dargestellten grafischen Objekten | |
DE3022454A1 (de) | Optisches abbildesystem mit computererzeugtem bild fuer einen bodenfesten flugsimulator | |
US5381519A (en) | System for line interpolation for computer graphics displays | |
JPH0778267A (ja) | 陰影を表示する方法及びコンピュータ制御表示システム | |
DE69924230T2 (de) | Verfahren zur Modellierung von durch Oberflächenelemente dargestellten grafischen Objekten | |
DE19906995A1 (de) | Erzeugen von Anpaßdaten für einen virtuellen Szenenaufbau | |
EP0862141A2 (de) | Bilddarstellungsverfahren und Vorrichtung zur Durchführung des Verfahrens | |
DE69732465T2 (de) | Bildverarbeitungsgerät und -verfahren | |
US5086496A (en) | Method for hidden line and surface removal in a three dimensional display | |
DE10085297B4 (de) | Verfahren und Vorrichtung zur Erzeugung einer Bewegungsillusion | |
Romney | Computer assisted assembly and rendering of solids | |
DE102006021118A1 (de) | Rendern von anatomischen Strukturen mit ihrem nahen Umgebungsbereich | |
DE4100691B4 (de) | Verfahren zur Darstellung eines dreidimensionalen Modells | |
DE69910980T2 (de) | Antialiasing mit unterabtastung für textur-raender | |
DE19620858A1 (de) | Computergraphiksystem mit Pixel-Tiefenhinweisgebung | |
DE60030401T2 (de) | Anzeigetechniken für dreidimensionale virtuelle Realität | |
DE60020234T2 (de) | Verfahren und vorrichtung zur bildwiedergabe | |
DE10250602B4 (de) | System zum Erzeugen einer synthetischen Szene |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |