DE69231922T2 - Mehrschichtige atmosphärische Überblendung in Echtzeit-Computer-Bildgenerator - Google Patents
Mehrschichtige atmosphärische Überblendung in Echtzeit-Computer-BildgeneratorInfo
- Publication number
- DE69231922T2 DE69231922T2 DE69231922T DE69231922T DE69231922T2 DE 69231922 T2 DE69231922 T2 DE 69231922T2 DE 69231922 T DE69231922 T DE 69231922T DE 69231922 T DE69231922 T DE 69231922T DE 69231922 T2 DE69231922 T2 DE 69231922T2
- Authority
- DE
- Germany
- Prior art keywords
- data
- point
- layer
- determining
- dfeff
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000005562 fading Methods 0.000 claims description 37
- 238000000034 method Methods 0.000 claims description 20
- 230000001186 cumulative effect Effects 0.000 claims description 12
- 230000000694 effects Effects 0.000 claims description 12
- 230000000007 visual effect Effects 0.000 claims description 10
- 230000006870 function Effects 0.000 description 13
- 230000008859 change Effects 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 101100311330 Schizosaccharomyces pombe (strain 972 / ATCC 24843) uap56 gene Proteins 0.000 description 2
- 230000002238 attenuated effect Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 101150018444 sub2 gene Proteins 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000004304 visual acuity Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000003595 mist Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Generation (AREA)
- Processing Or Creating Images (AREA)
Description
- Die Erfindung bezieht sich auf die computergesteuerte Bilderzeugung, insbesondere auf neuartige Verfahren und Geräte zum Generieren der Effekte, die von Licht verursacht werden, das durch mehrere unterschiedliche atmosphärische Schichten wandert, wenn alle Punkte auf der Fläche wenigstens eines Polygons beleuchtet werden, das eine anzuzeigende Szene darstellt.
- Der Begriff Fading, so wie er bei der Computerbilderzeugung (CIG) benutzt wird, bezeichnet die Modifizierung des spezifischen Farbwerts und der spezifischen Farbintensität eines Objekts in Richtung auf eine allgemeine Dunst- oder Fadingfarbe in Abhängigkeit sowohl von dem Abstand zwischen dem Objekt und dem Beobachter als auch von der Dichte der Streuer (z. B. Nebeltröpfchen, Staubpartikel und dgl.). Die physikalische Basis dieses Phänomens ist für einen relativ einfachen Fall in Fig. 1 dargestellt. Der Betrachter 10, der sich an einem Sehpunkt VP befindet, möchte einen gewünschten Punkt 11p an der Stelle P auf einer Fläche 11a beobachten, an der Beleuchtungslicht von einem Objekt 11 reflektiert wird. Von einer Quelle 12, d. h. der Sonne, gehen Lichtstrahlen 12a aus und wandern dann auf dem Weg zu dem betrachteten Objekt 11 vielleicht durch eine Dunstschicht 14 (z. B. eine Schicht von suspendierten Feuchtigkeitstropfen). Ein Teil 14s1 des Lichts 12a, das auf die Schicht 14 auftrifft und durch diese hindurchtritt, wird von der Schicht zerstreut, und die Lichtstrahlen 12b, die das Objekt 11 tatsächlich beleuchten, werden durch den Dunst so modifiziert, daß ihr Farbwert verändert und ihre Intensität gedämpft wird. Da die Feuchtigkeitspartikel als Miniaturprismen wirken, wird das zerstreute Licht 14s1 gebrochen und erzeugt einen Mehrfarbeneffekt, dessen Summe typischerweise weißnahe erscheint. Wenn der Betrachter 10 so positioniert ist, daß die von dem betrachteten Objekt 11 reflektierten Lichtstrahlen 12c durch die Schicht 14 (oder eine andere Zerstreuungsschicht) verlaufen, werden einige der Strahlen 12c als gestreutes Licht 14s2 selbst gestreut, so daß die Lichtstrahlen 12d, die den Sehpunkt wirklich erreichen, in ihrer Amplitude weiter verändert werden. Die Dämpfung kann je nach Art der streuenden Schicht oder Schichten sowohl bezüglich des Farbwerts als auch bezüglich der Amplitude verändert werden. Etwas von dem gestreuten Licht 14s1/14s2 kann in Richtung des Betrachters zurückkehren, so daß eine zusätzliche Farbquelle für das Auge entsteht.
- Da ein Teil des Lichts aus der Quelle gedämpft ist, wenn es von dem Betrachter empfangen wird, verringert sich der direkte Beitrag der diffusen Beleuchtung des Objekts 11. Die Nachahmung dieses Effekts ist ein kritisches Leistungsmerkmal für CIG-Systeme, insbesondere dann, wenn das CIG-System als Teil eines Trainingssystems (z. B. eines Flugsimulators oder dgl.) benutzt wird. Am heikelsten ist die Fähigkeit, ein realistisches Modell der Auswirkungen eines atmosphärischen Mehrschichtenmodells zu liefern, wobei die Effekte der einzelnen Schichten auf Pixelebene berechnet werden. Dieses Leistungsmerkmal versetzt ein System in die Lage, unter echten Grundnebelsituationen, in denen einzelne Objekte genau modelliert werden, trainieren zu können, selbst wenn diese Objekte teilweise im Dunst und teilweise in einer klareren Schicht liegen. Dieses Leistungsmerkmal ist besonders wichtig bei dem Training mit Rotorflügelmaschinen und bei Panzeranwendungen, da der größte Teil eines solchen Trainings auf Erdniveau oder in der Nähe des Erdniveaus stattfindet, wo Nebel die Sichtigkeit der Umgebung stark beeinträchtigt. Es ist dementsprechend äußerst wünschenswert, Echtzeit-CIG-Systeme so auszustatten, daß sie auch Mehrschichtstreuung beherrschen.
- Die Implementierung von Fading in früheren Bilderzeugungssystemen, wie sie z. B. in UK 1 390 357 oder US 4 199 875 offenbart sind, benutzte einen einzigen Halbfading-Abstandswert Df (Df ist der Bereich, in dem die Sichtigkeit F den Wert 0,5 hat) für alle Oberflächenpolygone in einer Displayszene in einer Menge, die künstlich so definiert ist, daß sie eine Anzahl von annähernd ähnlichen Polygonen umfaßt, z. B. die Polygone, die einen bestimmten Teil des Terrains definieren, oder diejenigen Polygone, die zu einem ausgewählten Objektmodell gehören. Durch die Benutzung eines einzelnen Df-Werts wurde die Fähigkeit eines CIG-Systems, ein geschichtetes atmosphärisches Modell genau zu erzeugen, eingeschränkt, und zwar aus dem einzigen Grund, daß eine Klasse von Merkmalen einen einzigen Df-Wert gemeinsam benutzten, selbst wenn die zahlreichen Elemente dieser Klasse in mehr als einer Schicht existierten. Ein einfaches Beispiel für diesen Nachteil läßt sich aus Fig. 2 erkennen. Eine erste Schicht 4a sei ein dichter Grundnebel mit einem kleinen Halbfading-Entfernungswert Df&sub0; und möge die untere Hälfte des Objekts 11' (ein Gebirge) überdecken, während die obere Hälfte des Gebirges in einer Schicht 14b mit klarem Himmel liegt, die eine sehr große Halbfading-Entfernung Df&sub1; hat. Eine Wolkenschicht 14i mit einer mittleren Halbfading-Entfernung Dfi, die durch den klaren Himmel über dem Gebirge verläuft, ist ebenfalls dargestellt. Beim Stand der Technik war für das gesamte Gebirge nur ein Df-Wert verfügbar, und es mußte notwendigerweise ein Fadingwert abgeleitet werden, der für das gesamte Gebirge gleich war, so daß die unterschiedlichen Schichtinformationen nicht benutzt wurden und effektiv verloren waren, so daß die realistische Darstellung des berechneten Bilds beeinträchtigt wurde.
- Es ist deshalb ein Ziel der Erfindung, neuartige Verfahren und Geräte zum Simulieren der Auswirkungen von atmosphärischen Mehrschichtstreuungen in Computer-Bilderzeugungssystemen zur Verfügung zu stellen.
- Dieses Ziel sowie weitere Ziele der Erfindung werden dem einschlägigen Fachmann durch die folgende detaillierte Beschreibung der Erfindung verdeutlicht, die auf die anliegenden Zeichnungen Bezug nimmt.
- Das Ziel der Erfindung wird erreicht durch das Verfahren nach Anspruch 1 und die Vorrichtung nach Anspruch 11.
- Erfindungsgemäß wird die Auswirkung von atmosphärischer Mehrschichtstreuung auf die Sichtigkeit F jedes Punkts P auf einer sichtbaren Fläche jedes von wenigstens einem Polygon in einer Displayszene in Computer-Bilderzeugungssystemen (CIG-Systemen) dadurch gewonnen, daß der effektive durchschnittliche Reziprokwert der Halbfading-Entfernung zwischen dem Sehpunkt und dem betrachteten Punkt in Abhängigkeit von den Höhen bestimmt wird, in denen jede der verschiedenen Streuschichten beginnt, und in den transitorischen Steigungen zwischen ihnen berücksichtigt werden. Die gesamte reduzierte Sichtigkeit des betrachteten Punkts P ist eine Funktion des mittleren Reziprokwerts der Halbfading-Entfernung für diesen Punkt und des gesamten Bereichs R zwischen dem betrachteten Punkt P und dem Sehpunkt VP.
- In einem derzeit bevorzugten Verfahren wird der durchschnittliche Reziprokwert der Halbfading-Entfernung unter Verwendung der Schichthöhen festgelegt, so daß die festgelegte reziproke Entfernung für jede Betrachtung eines beobachteten Punkts P in gleicher Höhe AltP von einem beliebigen Sehpunkt VP in gleicher Altvp verwendbar ist. Es wird eine Ausführungsform einer Vorrichtung zur Durchführung dieser Festlegungen und Berechnungen beschrieben.
- Fig. 1 zeigt eine schematische Darstellung einer Beleuchtungsquelle, eines zu betrachtenden Objekts und eines Betrachters mit einer zwischenliegenden atmosphärischen Schicht, und veranschaulicht die Art des Problems, mit dem sich die vorliegende Erfindung befaßt,
- Fig. 2 zeigt eine schematische Darstellung eines Beobachters und eines beobachteten Punkts auf einem Objekt mit einer Mehrzahl von zwischenliegenden atmosphärischen Schichten und dient zur Definition und zum Verständnis des Verfahrens gemäß der Erfindung,
- Fig. 3 zeigt ein schematisches Blockschaltbild einer Vorrichtung zur Generierung von Mehrschichtstreueffekten in einem CIG-System.
- In der Darstellung von Fig. 2 befindet sich der Betrachter 10' an dem Sehpunkt VP und beobachtet Lichtstrahlen 12'c, die von einem speziellen Punkt P an einer betrachteten Stelle 11p' auf der Oberfläche 11a' eines Objekts 11' reflektiert werden. Der Punkt P befindet sich in einem Abstand R von dem Sehpunkt VP. Der Oberflächenpunkt 11p' liegt in einer ersten atmosphärischen Schicht 14a, die einige Strahlen 14s' des von der Objektfläche 11a' reflektierten Lichts streut. Die Schicht 11a wird von einer zweiten atmosphärischen Schicht 14b überlagert, die von einer weiteren Schicht überlagert wird, und so fort, wobei der Betrachter 10' sich in einer als letzte Schicht betrachteten Schicht 14n befindet. Man erkennt, daß weitere Streuschichten über dem Sehpunkt VP und unterhalb des betrachteten Punkts 11p' vorhanden sein können, die jedoch keine Streuwirkung auf das bei dem Betrachter 10' ankommende Licht haben, weil die reflektierten Lichtstrahlen 12'c diese Schichten nicht durchlaufen. Es versteht sich ferner, daß jede Schicht 14i, mit 1 ≤ i ≤ n, im wesentlichen klar sein kann (d. h. eine Dämpfung haben kann, die im wesentlichen gleich Null ist) oder irgendeinen gewünschten Dämpfungswert αi haben kann, solange diese Dämpfung sich in irgendeiner Amplituden- oder Farbwertfunktion von der Dämpfung einer benachbarten Schicht 14(i - 1) oder 14(i + 1) unterscheidet.
- Die endgültige Farbe Cf eines Merkmals (z. B. eines betrachteten Punkts 11p'), das durch eine einzige Dunstschicht betrachtet wird, bezüglich der Sichtigkeit F dieses Merkmals ist gegeben durch:
- (1) final_color = attenuated_feature_color + haze_color_due_to_scattering oder
- (2) Cf = F*Cfeature + (1 - F)*Chaze
- wobei Cfeature die Farbe des Merkmals ist, das verarbeitet wird, und Chaze die Farbe des Dunstes ist. Die Sichtigkeit wird generiert durch
- (3) F = e-kR
- worin k eine Funktion der Nebeldichte und R der Abstand von dem Sehpunkt zu dem Objekt bedeuten. Ein gut geeigneter Weg zur Spezifizierung der Nebeldichte k besteht darin, den Abstand zu benutzen, bei dem die Sichtigkeit F gleich 0,5 ist. Dieser Abstand wird als Halbfading-Entfernung Df bezeichnet. Die Gleichung (3) kann dann folgendermaßen geschrieben werden:
- (4) F = g-KR/Df
- worin die Konstante k durch einen konstanten Wert K ersetzt ist, der für die Halbfading-Entfernung bewertet ist. Durch die Verwendung der Definition von Df kann man nach K auflösen. Wenn die Entfernung R = Df ist, ist F gleich 0,5 und deshalb
- (5) 0,5 = e-K
- oder
- (6) K = In(2) = 0,693
- Das Substituieren von K in Gleichung (4) ergibt
- (7) F = e-0,693R/Df = e-KA
- worin A nun als (R/Df) definiert wird. Die wahre Entfernung R wird für das dem Fading ausgesetzte Merkmal berechnet, und zwar für jedes Element, das das Merkmal abdeckt.
- Gemäß vorliegender Erfindung können die in Fig. 2 dargestellten Fadingbedingungen in einem CIG-System gut benutzt werden, indem für jeden verarbeiteten separaten Punkt 11p' auf dem angezeigten Objekt (Gebirge) 11' für alle sichtbaren Objekte auf dem Anzeigebildschirm 16 ein individueller effektiver Halbfading-Entfernungswert Dfeffberechnet wird. Der Bildschirm besitzt ein Zentrum 16c, das auf der zentralen Sehlinie 161 angeordnet ist, wobei der Bildschirmpunkt 16 s, der auf der Sehlinie 12c' zu einem speziellen Punkt liegt, relativ zu einer bestimmten Bildschirmstelle (z. B. der oberen linken Ecke des Bildschirms) die Bildschirmkoordinaten Ip,Jp besitzt. Der individuelle Wert Dfeffwird zu einer Funktion der verschiedenen Schichtdichten Dfi, wenn der Sehstrahl 12'c durch die verschiedenen Nebel, Dunst- und ähnliche Streuschichten 14i wandert, um den Punkt 11p' der Polygonfläche zu erreichen, der dann verarbeitet wird.
- Der Wert FP der gesamten Sichtigkeit für den betrachteten Punkt 11p' ist das Produkt der Sichtigkeiten F&sub0;, F&sub1;, F&sub2;, ... Fi, ... Fn der einzelnen Schichten mit unterschiedlich dichtem Nebel, Dunst usw., die der Sehstrahl 12'c zwischen dem Sehpunkt VP und dem betrachteten Punkt P antrifft:
- (8) FP = F&sub0; * F&sub1; * F&sub2; * ... * Fi * ... Fn
- Wenn man die Gleichung (8) für ein Beispiel mit einem Sehstrahl verwendet, der durch nur vier Schichten (mit den jeweiligen Sichtigkeiten F&sub0;, F&sub1;, F&sub2; bzw. F&sub3;) verläuft, ist die Sichtigkeit FP' entlang des Sehstrahls von dem Sehpunkt VP zu dem Punkt P
- (9) FP' = F&sub0; * F&sub1; * F&sub2; * F&sub3;
- Eine Erweiterung der Gleichung (9) ergibt
- (10) FP' = (e-KR0/Df0)(e-KR1/Df1)(e-KR2/Df2)(e-KR3/Df3)
- Da die Summe der Entfernungen durch die einzelnen Schichten entlang des Sehstrahls gleich der Entfernung von VP zu P ist (d. h. Rp = R0 + R1 + R2 + R3), existiert ein einziger effektiver Df-Wert, der mit Dfeffbezeichnet wird. Dieser ergibt
- (11) e-K(Rp/Deff) = e-K((R0/Df0))+(R1/Df1)+(R2/Df2)+(R3/Df3))
- und
- (12) Rp(1/Dfeff) = R&sub0;(1/Df &sub0;) + R&sub1;(1/Df&sub1;) + R&sub2;(1/Df&sub2;) + R&sub3;(1/Df&sub3;)
- Deshalb ist
- (13) 1/Dfeff = [R&sub0;(1/Df&sub0;) + R&sub1;(1/Df&sub1;) + R&sub2;(1/Df&sub2;) + R&sub3;(1/Df&sub3;)]/Rp.
- Wenn man von einfachen Verhältnissen ausgeht, kann 1/Dfeff offensichtlich berechnet werden, indem man anstelle der Entfernung (R) die Höhe (Alt) benutzt. Es soll insbesondere AltVP-P als Ersatz für RVP-P benutzt werden. Das führt zu einer erheblichen Vereinfachung der üblichen Berechnungen, da der vertikale Abstand durch eine gegebene Schicht konstant bleibt, während der Winkel des Sehstrahls sich ändern kann. Um den effektiven Reziprokwert der Halbfading-Entfernung (1/Dfeff) zu berechnen, muß die Höhe AltP des verarbeiteten Punkts bestimmt werden. Eine einfache Näherung besteht darin, eine Gleichung zu generieren, die die Höhe AltP als Funktion der Entfernung (R) und der Bildschirmposition (IP,JP) des Punkts 16 s beschreibt, durch den der Sehstrahl 12'c für den speziellen Punkt 11p' auf der betrachteten Polygonfläche 11a' verläuft. Diese Höhe VP läßt sich folgendermaßen ausdrükken:
- (14) AltP = AltVP + ZNfVj
- worin
- Nf der Schwerkrafteinheitsvektor,
- Vj ein Vektor durch das Pixel (IP,JP) bedeuten
- und Z eine erste Funktion der Bildschirmposition ist, die für das I/J-Bildschirmkoordinatensystem folgende Form hat
- (15) Z = C&sub4; + C&sub5;IP ü C&sub6;JP
- worin C&sub4;, C&sub5; und C&sub6; in der bekannten Weise für das spezifische Polygon berechnet werden. Dadurch wird AltP als Funktion der (IP,JP)-Koordinaten erzeugt oder
- (16) AltP = AltVP + ((C&sub1; + C&sub2;IP + C&sub3;JP)/(C&sub4; + C&sub5;IP + C&sub6;JP))
- worin C&sub1;, C&sub2; und C&sub3; ebenfalls für das spezifische Polygon berechnet werden. Die Gleichung (16) kann kombiniert werden, um eine weitere (I,J)-Funktion zu gewinnen, die folgende Form hat
- (17) AltP = ((C&sub1;' + C&sub2;'IP + C&sub3;'JP)/(C4 + C&sub5;IP + C&sub6;JP))
- Nachdem AltP = f(IP,JP) ermittelt wurde, muß 1/Dfeff für die Höhenänderung ermittelt werden. Die Information zu der atmosphärischen Schicht kann durch die Dichte pro Höheneinheit definiert werden. Eine kumulative Dichte kann dadurch berechnet werden, daß die Einheitsdichten über die Höhenänderung von der Höhe des Sehpunktes bis zu der Höhe des dem Fading unterworfenen Punkt P gemittelt werden. Es gibt viele Optionen für die Berechnung der kumulativen Nebeldichte. Eine besondere Implementierung besteht darin, diesen Wert für jeden verarbeiteten Punkt 11p' zu erzeugen. Dies kann dadurch erreicht werden, daß die Starthöhe Alt Li für jede atmosphärische Schicht, die anfängliche Nebeleinheitsdichte für diese Schicht sowie eine Steigung (mi) gespeichert werden, die die Änderungsgeschwindigkeit der Dichte der i-ten Schicht pro Höheneinheit beschreibt. Dies liefert die Möglichkeit, gleichförmige dichte Bereiche und Übergangsschichten zwischen diesen Schichten zu erzeugen. Für die Starthöhe jeder Schicht wird eine kumulative Dichte aus der Höhe = 0 gespeichert. Zusätzliche Daten werden gespeichert, um die Höhe und die kumulative Dichte an dem Sehpunkt zu beschreiben.
- Für jeden Punkt 11p' auf jedem Polygon 11a', das in der Szene verarbeitet wird, kann ein Fading-Prozessor benutzt werden, um die Information zu berechnen, die dann als Eingangsgröße für eine Reihe von Komparatoren für die Bestimmung derjenigen atmosphärischen Schichten verwendet werden, die ganz unter dem besonderen Punkt 11p' liegen, und auch für diejenige Schicht, die den Punkt enthält. Falls der Punkt innerhalb einer Schicht mit gleichförmiger Dichte liegt (kein Übergang), berechnet der Prozessor die kumulative Dichte zu dem Punkt als
- (18) (1/Dfeff_cumm_p) = (1/Dfcumm_1) + (AltP-Alt&sub1;)*(1/Df&sub1;)
- worin I die Bestimmung der laufenden Schicht ist. Falls der Punkt in eine Schicht mit transitorischer Dichte fällt, ist die kumulative Dichte zu dem Punkt
- (19) (1/Dfeff_cumm_p) = (1/Dfcumm_1) + (AltP-Alt&sub1;)*(1/Df&sub1;) + (AltP-AltI)²*(1/2)(1/Dfm),
- worin m die Steigung mi der speziellen i-ten Schicht ist. Dieses Ergebnis, das es erlaubt, die kumulative Dichte von Grund-Null zu dem betrachteten Punkt zu verarbeiten, kann verallgemeinert werden als
- (1/Dfeff_cumm_p) = (1/Dfcumm_1) + (AltP-Alt&sub1;)*(1/Df&sub1;) + S * (AltP-AltI)² * (1/2)(1/Dfm),
- worin S für nichttransitorische und transitorische Schichtdichten 0 bzw. 1 ist. Die Höhenänderung von dem Sehpunkt zu dem verarbeiteten Punkt beträgt einfach
- (20) AltVP-P = AltVP - AltP .
- Die kumulative Dichte über die Höhenänderung ist
- (21) (1/Dfeff_cumm) = (1/Dfeff_cumm_VP)(1/Dfeff_cumm_P)
- Die effektive durchschnittliche Dichte oder 1/Dfeff wird durch die folgende Gleichung ermittelt
- (22) (1/Dfeff) = (1/Dfeff_cumm)/(AltVP-P)
- Es existiert ein spezieller Fall, in welchem die Höhenänderung gleich 0 ist. Für diesen Fall ist 1/Dfeff das 1/Df in der Höhe des Sehpunkts. Das Fading für den Punkt kann nun mit Hilfe der Gleichung (7) ermittelt werden. Die effektive durchschnittliche reziproke Halbfading-Entfernung 1/Dfeff wird mit der Entfernung R multipliziert, wobei das Ergebnis als Eingangsgröße für einen exponentiellen Funktionsgenerator benutzt wird. Diese Funktion kann als Speichertabelle (TLU) oder durch stückweise Approximierung erzeugt werden.
- Fig. 3 zeigt ein derzeit bevorzugtes Ausführungsbeispiel eines Fading-Prozessors 20. Die Pixelortsdaten IP und JP für die Bildschirmpunkte 16s, die dem Sehstrahl 12'c von dem Sehpunkt VP zu dem speziellen Punkt 11p' der Polygonfläche entsprechen, für den die Fadingdaten dann berechnet werden, werden ersten Eingängen 22a/24a und zweiten Eingängen 22b/24b eines ersten bzw. eines zweiten Funktionsgenerators 22/24 zugeführt, die an den entsprechenden Ausgängen 22c/24c die Daten (C&sub4; + C&sub5;IP + C&sub6;JP) bzw. die Daten (C&sub1; + C&sub2;IP + C&sub3;JP) liefern. Der Ausgang 22c ist mit einem ersten A-Eingang 26a einer ersten Dividiereinrichtung 26 verbunden, die einen zweiten B-Eingang besitzt, der die Daten von dem Ausgang 24c aufnimmt. Die resultierenden Daten A/B an dem Ausgang 26c bilden somit die Höhe Altp des betrachteten Punkts, wie sie mit Hilfe der Gleichung (17) berechnet wird. Diese Höhendaten werden einem zweiten B-Eingang 28b einer Subtrahiereinrichtung 28 zugeführt, die einen ersten A-Eingang 28a besitzt, der die Höhendaten Alt VP des Sehpunkts aufnimmt. An dem Ausgang 28c erhält man die Daten A-B, die die gewünschte Information AIt~P-P darstellen. Eine Einrichtung 30 zur Bestimmung des Absolutwerts verarbeitet diese Daten und führt AltVP-P einem zweiten B-Eingang 32b einer zweiten Dividiereinrichtung 32 zu, die einen ersten A-Eingang 32a besitzt, der die Daten (1/Deff_cumm) aufnimmt. Die Daten A/B an dem Ausgang 32c sind die geforderten Daten der effektiven durchschnittlichen reziproken Halbfading-Entfernung (1/Dfeff).
- Es ist ferner eine Mehrzahl von N Datenkomparatoren 34a-34n vorgesehen mit jeweils einem ersten A-Eingang, der die Daten Altp aufnimmt, und einem zweiten B-Eingang, der individuell die Daten aufnimmt, die die untere Höhe Alt L1 der zugehörigen i-ten Schicht definieren. Es ist zu beachten, daß eine Höhe Alt L0 nicht verwendet wird, da die untere Höhe der nullten Schicht als Nullhöhe definiert ist. Der Ausgang des zugehörigen Komparators 34i liegt normalerweise auf einem ersten logischen Pegel, wenn A ≤ B, d. h. die tatsächliche Höhe nicht größer ist als die untere Schichthöhe, und wird nur auf einen zweiten logischen Pegel aktiviert, wenn A > B, d. h. wenn die Sehpunkthöhe über der unteren Schichthöhe liegt. Die Ausgänge der Komparatoren 34i werden sukzessiv aktiviert, beginnend mit dem Ausgangswert des ersten Komparators 34a, wenn die Höhe des Sehpunkts größer ist als die untere Höhe der ersten Schicht (d. h. über dem Grund oder der nullten Schicht liegt) und wird sukzessiv größer, wenn die Höhe des Sehpunkts größer wird und in eine nächsthöhere Schicht eintritt oder diese überschreitet. Falls der Sehpunkt VP in der i-ten Schicht liegt, werden alle Ausgänge des ersten, zweiten, ... (i - 1)-ten und i-ten Komparators auf den zweiten logischen Pegel aktiviert, während der (i + 1)-te bis n-te Ausgang auf dem ersten ausgewählten logischen Pegel bleiben. Die Zahl der aufeinanderfolgenden Pegel wird von der Codiereinrichtung 36, die die I aktivierten Komparatorausgangssignale verarbeitet, als Datum mit dem Wert I kodiert. Das I-Datum wird dem Adresseneingang 38a einer Speichereinrichtung 38 zur Adressierung eines Datensatzes zugeführt, der an einer entsprechenden Stelle in dem Speicher gespeichert ist, und außerdem als Eingangsauswahl-Steuersignal einem Steuereingang 40x eines Multiplexers (MUX) 40 mit N-Eingängen. Die Daten Alt Li über die untere Höhe der individuellen Schicht werden für jede i-te Schicht dem zugehörigen Eingang 401 des Multiplexers MUX 40 zugeführt, so daß an dem Ausgang 40y des Multiplexers MUX Daten ausgegeben werden, die die Höhe Alt L der laufenden Schicht setzen, in der der Sehpunkt VP liegt. Diese Daten werden einem zweiten B-Eingang einer weiteren Subtrahiereinrichtung 42 zugeführt, die einen ersten A-Dateneingang 42a besitzt, die die Daten Alt P von dem Ausgang 26c der ersten Dividiereinrichtung aufnimmt. Das Signal an dem (A-B)-Ausgang 42c enthält die Daten Alt(P-L) und wird einem ersten Eingang 44a einer ersten Multipliziereinrichtung 44 und beiden Eingängen 46a/46b einer zweiten Multiplizier- oder Quadriereinrichtung 46 zugeführt. Der zweite Eingang 44b des ersten Multiplizierers nimmt die Daten 1/DfI von einem ersten Ausgang 48b auf, die von der adressierten Stelle des Speichers 38 entnommen werden und liefert an seinem Ausgang 46c Produktdaten an einen ersten Eingang 48a einer dritten Multipliziereinrichtung 48. Der zweite Eingang 48b der dritten Multipliziereinrichtung nimmt von einem zweiten Ausgang 38c der Speichereinrichtung Daten der Steigung 1/Dfm auf. Der Ausgang 48c der dritten Multipliziereinrichtung liefert Daten an einen ersten Eingang 50a einer ersten Addiereinrichtung 50, die einen zweiten Eingang 50b besitzt, der die Daten Alt(P-L)² von dem Ausgang 44c der ersten Multipliziereinrichtung aufnimmt. Der Ausgang 50c der ersten Addiereinrichtung liefert Daten an einen ersten Eingang 52c einer zweiten Addiereinrichtung, die von einem dritten Ausgang 38d der Speichereinrichtung die Daten 1/Dfcumm-L empfängt. Der Ausgang 52c der zweiten Addiereinrichtung liefert die Daten 1/Dfeff_cumm, die an dem Eingang 32a der ersten Dividiereinrichtung benötigt werden.
- Die Daten 1/Dfeff an dem Ausgang 32c werden einem ersten Eingang 54a einer letzten Dividiereinrichtung 54 zugeführt, deren zweiter B-Eingang von dem Ausgang 22c des ersten Funktionsgenerators die Daten über den Kehrwert der Entfernung (1/8) aufnimmt, die von den Daten (C4 + CvI + C&sub6;J) gebildet werden. Die Daten an dem Ausgang 54c der letzten Dividiereinrichtung sind der Quotient R/Df, die dann als Daten für den A-Eingang einer Potenziereinrichtung 56 benutzt werden und nach Maßgabe eines in der Einrichtung 56 gesetzten festen Werts K verarbeitet werden, um die Ausgangsdaten e-KA zu erzeugen, die die die Daten zur Sichtigkeit F bilden, die von der Schaltung 20 ausgegeben werden. Die Schaltung 20 wird so separat für jeden betrachteten Punkt P auf jeder Fläche jedes Polygons benutzt, das in der Gesamtanzeige sichtbar ist, um die Streuungssichtbarkeit dieses Punktes zu bestimmen.
- Vorangehend wurde ein spezifisches Ausführungsbeispiel der Vorrichtung zur Durchführung des neuartigen Verfahrens zum Bestimmen der Wirkung von Mehrschicht-Fading in einigen Einzelheiten beschrieben. Der einschlägige Fachmann erkennt nun, daß zahlreiche Variationen und Modifizierungen möglich sind, die alle im Bereich der Erfindung liegen.
Claims (20)
1. Verfahren zum Bestimmen der Wirkung von Fading aufgrund von Streuung durch eine
Mehrzahl von n unterschiedlichen atmosphärischen Schichten auf die Sicht FP von einem
Sehpunkt VP für jeden betrachteten Punkt P auf einer sichtbaren Fläche jedes Polygons in
einer Displayszene in einem Computersystem zur Bilderzeugung (CIG-System), mit den
Verfahrensschritten:
(a) Bestimmen des Kehrwerts 11R der Entfernung R von dem Sehpunkt VP zu dem
betrachteten Punkt P in Abhängigkeit von dem Bildschirmort (IP, JP) eines Sehstrahls,
(b) Bestimmen der Höhe AltP des betrachteten Punkts P,
(c) Bestimmen der Höhe AltVP des Sehpunkts VP,
(d) Bestimmen des Reziprokwerts (1/Dfeff_cumm) der effektiven kumulativen Halb-Fading-
Entfernung der Schichten in Abhängigkeit von der Höhe AltP des betrachteten Punkts, der
Sehpunkthöhe AltVP, jeder Höhe Alt Li, für 1 ≤ i ≤ n, in der die jeweilige i-te atmosphärische
Schicht beginnt, und der Halb-Fading-Entfernung Df jeder Schicht und
(e) Bestimmen der totalen verringerten Sicht FP des betrachteten Punkts P von dem
Sehpunkt VP durch alle zwischenliegenden atmosphärischen Schichten in Abhängigkeit von
dem Kehrwert der Entfernung, der Höhe des betrachteten Punkts, der Sehpunkthöhe und
den Daten des Kehrwerts der effektiven kumulativen Halb-Fading-Entfernung.
2. Verfahren nach Anspruch 1, bei dem der Verfahrensschritt (e) die Schritte umfaßt:
Ermitteln von Daten für den Reziprokwert einer effektiven Halb-Fading-Entfernung
(1/Dfeff) aus den Daten AltP, den Daten AltVP und den Daten (1/Dfeff_cumm),
Ermitteln der Daten (R/Df) als Funktion der Daten des Kehrwert der Entfernung und der
Daten (1/Dfeff) und
Ermitteln der Funktion der verringerten Sicht FP aus den resultierenden Daten (R/Df).
3. Verfahren nach Anspruch 2, bei dem der Verfahrensschritt (e) weiterhin die Schritte
umfaßt:
Ermitteln der absoluten Differenz der Höhen des Sehpunkts und des betrachteten
Punkts und
Ermitteln der Daten (1/Dfeff) als Funktion der Daten (1/Dfeff_cumm) und der Daten der
absoluten Höhendifferenz.
4. Verfahren nach einem der Ansprüche 1 bis 3, bei dem der Verfahrensschritt (a) den
Schritt umfaßt:
Erzeugen der Daten des Kehrwerts der Entfernung als vorgewählte Funktion f1 = (C&sub4; +
C&sub5;IP + C&sub6;JP), worin C&sub4;, C&sub5; und C&sub6; vorbestimmte Konstanten sind.
5. Verfahren nach Anspruch 4, bei dem der Verfahrensschritt (b) die Schritte umfaßt:
Erzeugen von Daten für eine weitere vorgewählte Funktion f2 = (C&sub1; + C&sub2;IP + C&sub3;JP), worin
C&sub1;, C&sub2; und C&sub3; vorbestimmte Konstanten sind, und
Ermitteln der Daten Altp als Quotient von f1 und f2.
6. Verfahren nach einem der Ansprüche 1 bis 5, bei dem der Verfahrensschritt (d) die
Schritte umfaßt:
Ermitteln der Höhendifferenz jeder der zwischen der Höhe des Punkts P und dem
Sehpunkt VP liegenden Schicht L zu dem Punkt P sowie wenigstens einer Schicht-Halb-Fading-
Entfernungscharakteristik und
Bestimmen der Daten (1/Dfeff_cumm) aus den ermittelten Schichtdaten.
7. Verfahren nach Anspruch 6, bei dem der Verfahrensschritt des Ermittelns der Differenz
die Schritte umfaßt:
Vergleichen der laufenden Sehpunkthöhe mit der unteren Höhe jeder zugehörigen
Schicht und
Bereitstellen von Daten, welche die den Sehpunkt enthaltende höchste Schicht
bezeichnen, in Abhängigkeit von den Vergleichen.
8. Verfahren nach Anspruch 7, bei dem der Verfahrensschritt der Differenzermittlung den
Schritt umfaßt, daß durch Auswählen von Höhendaten für die untere Höhe der höchsten
enthaltenen Schicht die Daten Alt L bereitgestellt werden.
9. Verfahren nach Anspruch 8, bei dem der Verfahrensschritt (d) auch den Schritt umfaßt,
daß wenigstens eine Zwischenschichtgröße für jede Schicht gespeichert wird, die durch die
kodierten Daten adressierbar ist.
10. Verfahren nach Anspruch 6, bei dem der Verfahrensschritt der Verwendung der
Schichtdaten den Schritt umfaßt, daß der Wert einer Funktion (1/Dfeff_cumm_P) = (1/Dfcumm_i) + (AltP-
Alti) * (1/Dfi) + S * (AltP - Alti)² * (1/2)(1/Dfm) ermittelt wird, worin S = 0, wenn der Sehpunkt
nicht in einer Schicht mit transistorischer Dichte liegt, und S = 1, wenn der Sehpunkt in
einer Schicht mit transistorischer Dichte liegt.
11. Vorrichtung zum Bestimmen der Wirkung von Fading aufgrund von Streuung durch eine
Mehrzahl von n unterschiedlichen atmosphärischen Schichten auf die Sicht Fp von einem
Sehpunkt VP für jeden betrachteten Punkt P auf einer sichtbaren Fläche jedes Polygons in
einer Displayszene in einem Computersystem zur Bilderzeugung (CIG-System), wobei die
Vorrichtung aufweist:
eine erste Einrichtung zum Bestimmen des Kehrwerts 1/R der Entfernung R von dem
Sehpunkt VP zu dem betrachteten Punkt P in Abhängigkeit von dem Bildschirmort (IP, JP)
eines Sehstrahls,
eine zweite Einrichtung zum Bestimmen der Höhe AltP des betrachteten Punkts P,
eine dritte Einrichtung zum Bestimmen der Höhe AltVP des Sehpunkts VP,
eine vierte Einrichtung zum Bestimmen des Reziprokwerts (1/Dfeff_cumm) der effektiven
kumulativen Halb-Fading-Entfernung der Schichten in Abhängigkeit von der Höhe AltP des
betrachteten Punkts, der Sehpunkthöhe AltVP, jeder Höhe Alt Li für 1 ≤ i ≤ n, in der die
jeweilige i-te atmosphärische Schicht beginnt, und der Halb-Fading-Entfernung Df jeder
Schicht und
eine fünfte Einrichtung zum Bestimmen der totalen verringerten Sicht FP des
betrachteten Punkts P von dem Sehpunkt VP durch alle zwischenliegenden atmosphärischen
Schichten in Abhängigkeit von dem Kehrwert der Entfernung, der Höhe des betrachteten Punkts,
der Sehpunkthöhe und den Daten des Kehrwerts der effektiven kumulativen Halb-Fading-
Entfernung.
12. Vorrichtung nach Anspruch 11, bei der die fünfte Einrichtung aufweist:
eine sechste Einrichtung zum Ermitteln von Daten für den Reziprokwert einer
effektiven Halb-Fading-Entfernung (1/Dfeff) aus den Daten AltP, den Daten AltVP
und den Daten (1/Dfeff_cumm),
eine Dividiereinrichtung zum Ermitteln der Daten (R/Df) als Funktion der Daten des
Kehrwert der Entfernung und der Daten (1/Dfeff) und
eine Potenziereinrichtung zum Ermitteln der Funktion der verringerten Sicht FP aus den
resultierenden Daten (R/Df).
13. Vorrichtung nach Anspruch 12, bei der die sechste Einrichtung aufweist:
eine siebte Einrichtung zum Ermitteln der absoluten Differenz der Höhen des
Sehpunkts und des betrachteten Punkts und
eine Einrichtung zum Ermitteln der Daten (1/Dfeff) als Quotient der Ausgangsdaten
(1/Dfeff_cumm) der vierten Einrichtung und der Ausgangsdaten der siebten Einrichtung.
14. Vorrichtung nach einem der Ansprüche 11 bis 13, bei der die erste Einrichtung ein
Funktionsgenerator ist zum Erzeugen der Daten des Kehrwerts der Entfernung als vorgewählte
Funktion f1 = (C&sub4; + C&sub5;IP + C&sub6;JP)- worin C&sub4;, C&sub5; und C&sub6; vorbestimmte Konstanten sind.
15. Vorrichtung nach Anspruch 14, bei der die zweite Einrichtung aufweist:
einen weiteren Funktionsgenerator zum Erzeugen von Daten für eine weitere
vorgewählte Funktion f2 = (C&sub1; + C&sub2;IP + C&sub3;JP), worin C&sub1;, C&sub2; und C&sub3; vorbestimmte Konstanten sind,
und
eine Dividiereinrichtung zum Ermitteln der Daten AltP als Quotient von f1 und f2.
16. Vorrichtung nach einem der Ansprüche 11 bis 15, bei der die vierte Einrichtung
aufweist:
eine Einrichtung zum Ermitteln der Höhendifferenz jeder zwischen der Höhe des Punkts
P und dem Sehpunkt VP liegenden Schicht L zu dem Punkt P sowie wenigstens einer
Schicht-Halb-Fading-Entfernungscharakteristik und
eine Einrichtung zur Bestimmung der Daten (1/Dfeff_cumm) unter Verwendung der
ermittelten Schichtdaten.
17. Vorrichtung nach Anspruch 16, bei der die Einrichtung zum Ermitteln der Differenz
aufweist:
einen Satz von Komparatoren, die jeweils feststellen, ob die laufende Sehpunkthöhe
größer ist als die untere Höhe der zugehörigen Schicht und
eine Kodiereinrichtung, die mit dem Satz von Komparatoren zusammenwirkt, um Daten
bereitzustellen, welche die den Sehpunkt enthaltende höchste Schicht bezeichnen.
18. Vorrichtung nach Anspruch 17, bei der die Einrichtung zum Ermitteln der Differenz
ferner eine Multiplexereinrichtung aufweist zum Bereitstellen von Daten Alt L durch
Auswählen von Höhendaten für die untere Höhe der höchsten enthaltenen Schicht in Abhängigkeit
von den Daten aus der genannten Kodiereinrichtung.
19. Vorrichtung nach Anspruch 18, bei der die Addiereinrichtung eine Speichereinrichtung
aufweist, die wenigstens eine Zwischenschichtgröße für jede Schicht speichert, die durch
die kodierten Daten adressierbar ist.
20. Vorrichtung nach Anspruch 16, bei der die die Schichtdaten verwendende Einrichtung
nach einer Funktion (1/Dfeff_cumm_P) = (1/Dfcumm_i) + (AltP - Alti) * (1/Dfi) + S * (AltP - Alti)² *
(1/2)(1/Dfm) arbeitet, worin S = 0, wenn der Sehpunkt nicht in einer Schicht mit
transistorischer Dichte liegt, und S = 1, wenn der Sehpunkt in einer Schicht mit transistorischer
Dichte liegt.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US75449491A | 1991-09-03 | 1991-09-03 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69231922D1 DE69231922D1 (de) | 2001-08-16 |
DE69231922T2 true DE69231922T2 (de) | 2001-12-13 |
Family
ID=25035057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69231922T Expired - Fee Related DE69231922T2 (de) | 1991-09-03 | 1992-09-01 | Mehrschichtige atmosphärische Überblendung in Echtzeit-Computer-Bildgenerator |
Country Status (6)
Country | Link |
---|---|
US (1) | US5357579A (de) |
EP (1) | EP0531084B1 (de) |
JP (1) | JP3191180B2 (de) |
DE (1) | DE69231922T2 (de) |
IL (1) | IL102836A (de) |
TW (1) | TW225595B (de) |
Families Citing this family (77)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06292077A (ja) * | 1993-03-30 | 1994-10-18 | Sony Corp | 特殊効果装置 |
JP3557208B2 (ja) * | 1993-05-10 | 2004-08-25 | アプル・コンピュータ・インコーポレーテッド | 高性能複数層zバッファを有するコンピュータ・グラフィックス・システム |
US5638499A (en) * | 1994-05-27 | 1997-06-10 | O'connor; Michael | Image composition method and apparatus for developing, storing and reproducing image data using absorption, reflection and transmission properties of images to be combined |
US5966454A (en) * | 1995-09-14 | 1999-10-12 | Bentley Mills, Inc. | Methods and systems for manipulation of images of floor coverings or other fabrics |
TW316965B (de) * | 1995-10-31 | 1997-10-01 | Cirrus Logic Inc | |
US5936635A (en) * | 1996-06-28 | 1999-08-10 | Cirrus Logic, Inc. | System and method of rendering polygons into a pixel grid |
US5793386A (en) * | 1996-06-28 | 1998-08-11 | S3 Incorporated | Register set reordering for a graphics processor based upon the type of primitive to be rendered |
US5828382A (en) * | 1996-08-02 | 1998-10-27 | Cirrus Logic, Inc. | Apparatus for dynamic XY tiled texture caching |
US5875295A (en) * | 1996-09-30 | 1999-02-23 | S3 Incorporated | Instruction format for ensuring safe execution of display list |
US6348917B1 (en) | 1996-09-30 | 2002-02-19 | Cirrus Logic, Inc | Dynamic switching of texture mip-maps based on depth |
US5987582A (en) * | 1996-09-30 | 1999-11-16 | Cirrus Logic, Inc. | Method of obtaining a buffer contiguous memory and building a page table that is accessible by a peripheral graphics device |
US6052127A (en) * | 1996-12-30 | 2000-04-18 | Cirrus Logic, Inc. | Circuit for determining non-homogenous second order perspective texture mapping coordinates using linear interpolation |
US5844576A (en) * | 1996-12-30 | 1998-12-01 | Cirrus Logic, Inc. | Tiled linear host texture storage |
US6088016A (en) * | 1996-12-30 | 2000-07-11 | S3 Incorporated | Dithering method and apparatus using ramp probability logic |
US5835097A (en) * | 1996-12-30 | 1998-11-10 | Cirrus Logic, Inc. | Non-homogenous second order perspective texture mapping using linear interpolation parameters |
US5841442A (en) * | 1996-12-30 | 1998-11-24 | Cirrus Logic, Inc. | Method for computing parameters used in a non-homogeneous second order perspective texture mapping process using interpolation |
US5986663A (en) * | 1997-10-10 | 1999-11-16 | Cirrus Logic, Inc. | Auto level of detail-based MIP mapping in a graphics processor |
US6157386A (en) * | 1997-10-10 | 2000-12-05 | Cirrus Logic, Inc | MIP map blending in a graphics processor |
US6333746B1 (en) | 1996-12-30 | 2001-12-25 | Cirrus Logic, Inc. | Auto level of detail texture mapping for a software graphics engine |
US5977983A (en) * | 1997-02-20 | 1999-11-02 | S3 Incorporated | Method and apparatus for adjusting graphics processing procedures based on a selectable speed/quality gauge |
US5929869A (en) * | 1997-03-05 | 1999-07-27 | Cirrus Logic, Inc. | Texture map storage with UV remapping |
US6072508A (en) * | 1997-03-14 | 2000-06-06 | S3 Incorporated | Method and apparatus for shortening display list instructions |
US6028613A (en) * | 1997-03-20 | 2000-02-22 | S3 Incorporated | Method and apparatus for programming a graphics subsystem register set |
US5949421A (en) * | 1997-03-31 | 1999-09-07 | Cirrus Logic, Inc. | Method and system for efficient register sorting for three dimensional graphics |
US6130674A (en) * | 1997-03-31 | 2000-10-10 | Cirrus Logic, Inc. | Dynamically selectable texture filter for computer graphics |
US5978895A (en) * | 1997-04-04 | 1999-11-02 | Cirrus Logic, Inc. | Method for speeding mathematical operations in a processor core |
US5940090A (en) * | 1997-05-07 | 1999-08-17 | Cirrus Logic, Inc. | Method and apparatus for internally caching the minimum and maximum XY pixel address values in a graphics subsystem |
US6266753B1 (en) | 1997-07-10 | 2001-07-24 | Cirrus Logic, Inc. | Memory manager for multi-media apparatus and method therefor |
US6054993A (en) * | 1997-09-17 | 2000-04-25 | Cirrus Logic, Inc. | Chroma-keyed specular texture mapping in a graphics processor |
US6181347B1 (en) | 1997-09-17 | 2001-01-30 | Cirrus Logic, Inc. | Selectable mode smoothing texture filter for computer graphics |
US6002409A (en) * | 1997-10-29 | 1999-12-14 | Cirrus Logic, Inc. | Arbitration for shared graphics processing resources |
US6259455B1 (en) | 1998-06-30 | 2001-07-10 | Cirrus Logic, Inc. | Method and apparatus for applying specular highlighting with specular components included with texture maps |
US6252606B1 (en) | 1998-06-30 | 2001-06-26 | Cirrus Logic, Inc. | Error correction in a graphics processor |
US6943803B1 (en) | 1998-09-21 | 2005-09-13 | Evans & Sutherland Computer Corporation | Anti-aliased, textured, geocentric and layered fog graphics display method and apparatus |
US6618048B1 (en) | 1999-10-28 | 2003-09-09 | Nintendo Co., Ltd. | 3D graphics rendering system for performing Z value clamping in near-Z range to maximize scene resolution of visually important Z components |
US6717577B1 (en) | 1999-10-28 | 2004-04-06 | Nintendo Co., Ltd. | Vertex cache for 3D computer graphics |
US7119813B1 (en) | 2000-06-02 | 2006-10-10 | Nintendo Co., Ltd. | Variable bit field encoding |
JP4624527B2 (ja) * | 2000-07-28 | 2011-02-02 | 株式会社バンダイナムコゲームス | ゲームシステム及び情報記憶媒体 |
US7576748B2 (en) | 2000-11-28 | 2009-08-18 | Nintendo Co. Ltd. | Graphics system with embedded frame butter having reconfigurable pixel formats |
US6937245B1 (en) | 2000-08-23 | 2005-08-30 | Nintendo Co., Ltd. | Graphics system with embedded frame buffer having reconfigurable pixel formats |
US7034828B1 (en) | 2000-08-23 | 2006-04-25 | Nintendo Co., Ltd. | Recirculating shade tree blender for a graphics system |
US6580430B1 (en) | 2000-08-23 | 2003-06-17 | Nintendo Co., Ltd. | Method and apparatus for providing improved fog effects in a graphics system |
US6999100B1 (en) | 2000-08-23 | 2006-02-14 | Nintendo Co., Ltd. | Method and apparatus for anti-aliasing in a graphics system |
US6636214B1 (en) | 2000-08-23 | 2003-10-21 | Nintendo Co., Ltd. | Method and apparatus for dynamically reconfiguring the order of hidden surface processing based on rendering mode |
US6825851B1 (en) | 2000-08-23 | 2004-11-30 | Nintendo Co., Ltd. | Method and apparatus for environment-mapped bump-mapping in a graphics system |
US7061502B1 (en) | 2000-08-23 | 2006-06-13 | Nintendo Co., Ltd. | Method and apparatus for providing logical combination of N alpha operations within a graphics system |
US7196710B1 (en) | 2000-08-23 | 2007-03-27 | Nintendo Co., Ltd. | Method and apparatus for buffering graphics data in a graphics system |
US6867781B1 (en) | 2000-08-23 | 2005-03-15 | Nintendo Co., Ltd. | Graphics pipeline token synchronization |
US6811489B1 (en) | 2000-08-23 | 2004-11-02 | Nintendo Co., Ltd. | Controller interface for a graphics system |
US6980218B1 (en) | 2000-08-23 | 2005-12-27 | Nintendo Co., Ltd. | Method and apparatus for efficient generation of texture coordinate displacements for implementing emboss-style bump mapping in a graphics rendering system |
US6700586B1 (en) | 2000-08-23 | 2004-03-02 | Nintendo Co., Ltd. | Low cost graphics with stitching processing hardware support for skeletal animation |
US7538772B1 (en) | 2000-08-23 | 2009-05-26 | Nintendo Co., Ltd. | Graphics processing system with enhanced memory controller |
US6707458B1 (en) | 2000-08-23 | 2004-03-16 | Nintendo Co., Ltd. | Method and apparatus for texture tiling in a graphics system |
US7184059B1 (en) | 2000-08-23 | 2007-02-27 | Nintendo Co., Ltd. | Graphics system with copy out conversions between embedded frame buffer and main memory |
US7002591B1 (en) | 2000-08-23 | 2006-02-21 | Nintendo Co., Ltd. | Method and apparatus for interleaved processing of direct and indirect texture coordinates in a graphics system |
US6940504B1 (en) | 2000-11-21 | 2005-09-06 | Microsoft Corporation | Rendering volumetric fog and other gaseous phenomena using an alpha channel |
US7046243B1 (en) | 2000-11-21 | 2006-05-16 | Microsoft Corporation | Rendering volumetric fog and other gaseous phenomena |
US6686915B2 (en) * | 2001-04-19 | 2004-02-03 | Webtv Networks, Inc. | Systems and methods for rendering visual effects that are a function of depth |
JP3577016B2 (ja) * | 2001-08-24 | 2004-10-13 | コナミ株式会社 | 3次元画像処理プログラム、3次元画像処理方法及びビデオゲーム装置 |
JP3792149B2 (ja) * | 2001-11-12 | 2006-07-05 | 任天堂株式会社 | 画像処理装置および画像処理プログラム |
US7098913B1 (en) * | 2002-07-30 | 2006-08-29 | Rockwell Collins, Inc. | Method and system for providing depth cues by attenuating distant displayed terrain |
EP1854024A4 (de) | 2005-01-13 | 2008-11-05 | Hsbc North America Holdings In | Durch computersoftware implementierter rahmen zur konfiguration und ausgabe-verwaltung von gruppensystemsoftware und verfahren dafür |
US7710418B2 (en) * | 2005-02-04 | 2010-05-04 | Linden Acquisition Corporation | Systems and methods for the real-time and realistic simulation of natural atmospheric lighting phenomenon |
CN101617354A (zh) | 2006-12-12 | 2009-12-30 | 埃文斯和萨瑟兰计算机公司 | 用于校准单个调制器投影仪中的rgb光的系统和方法 |
US7940268B2 (en) * | 2007-06-29 | 2011-05-10 | Microsoft Corporation | Real-time rendering of light-scattering media |
US8358317B2 (en) | 2008-05-23 | 2013-01-22 | Evans & Sutherland Computer Corporation | System and method for displaying a planar image on a curved surface |
US8702248B1 (en) | 2008-06-11 | 2014-04-22 | Evans & Sutherland Computer Corporation | Projection method for reducing interpixel gaps on a viewing surface |
US8077378B1 (en) | 2008-11-12 | 2011-12-13 | Evans & Sutherland Computer Corporation | Calibration system and method for light modulation device |
US9460546B1 (en) | 2011-03-30 | 2016-10-04 | Nvidia Corporation | Hierarchical structure for accelerating ray tracing operations in scene rendering |
US9142043B1 (en) | 2011-06-24 | 2015-09-22 | Nvidia Corporation | System and method for improved sample test efficiency in image rendering |
US9153068B2 (en) | 2011-06-24 | 2015-10-06 | Nvidia Corporation | Clipless time and lens bounds for improved sample test efficiency in image rendering |
US8970584B1 (en) | 2011-06-24 | 2015-03-03 | Nvidia Corporation | Bounding box-based techniques for improved sample test efficiency in image rendering |
US9269183B1 (en) | 2011-07-31 | 2016-02-23 | Nvidia Corporation | Combined clipless time and lens bounds for improved sample test efficiency in image rendering |
US9641826B1 (en) | 2011-10-06 | 2017-05-02 | Evans & Sutherland Computer Corporation | System and method for displaying distant 3-D stereo on a dome surface |
US9305394B2 (en) | 2012-01-27 | 2016-04-05 | Nvidia Corporation | System and process for improved sampling for parallel light transport simulation |
US9159158B2 (en) | 2012-07-19 | 2015-10-13 | Nvidia Corporation | Surface classification for point-based rendering within graphics display system |
US9171394B2 (en) | 2012-07-19 | 2015-10-27 | Nvidia Corporation | Light transport consistent scene simplification within graphics display system |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB1390357A (en) * | 1971-04-02 | 1975-04-09 | Redifon Ltd | Ground-based flight simulation apparatus |
US4016658A (en) * | 1971-04-02 | 1977-04-12 | Redifon Limited | Video ground-based flight simulation apparatus |
US4199875A (en) * | 1977-10-26 | 1980-04-29 | The Singer Company | Visibility effects generator |
IL72685A (en) * | 1983-08-30 | 1988-08-31 | Gen Electric | Advanced video object generator |
US4897806A (en) * | 1985-06-19 | 1990-01-30 | Pixar | Pseudo-random point sampling techniques in computer graphics |
JPH0812705B2 (ja) * | 1986-09-29 | 1996-02-07 | 株式会社東芝 | 画像処理装置 |
US4866637A (en) * | 1987-10-30 | 1989-09-12 | International Business Machines Corporation | Pipelined lighting model processing system for a graphics workstation's shading function |
JPH05507166A (ja) * | 1990-05-12 | 1993-10-14 | レディフュージョン・シミュレーション・リミテッド | イメージ発生装置 |
-
1992
- 1992-07-21 TW TW081105742A patent/TW225595B/zh active
- 1992-08-17 IL IL10283692A patent/IL102836A/en not_active IP Right Cessation
- 1992-09-01 EP EP92307912A patent/EP0531084B1/de not_active Expired - Lifetime
- 1992-09-01 DE DE69231922T patent/DE69231922T2/de not_active Expired - Fee Related
- 1992-09-03 JP JP23552292A patent/JP3191180B2/ja not_active Expired - Fee Related
-
1993
- 1993-07-15 US US08/091,380 patent/US5357579A/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
IL102836A (en) | 1995-08-31 |
DE69231922D1 (de) | 2001-08-16 |
JPH05205032A (ja) | 1993-08-13 |
TW225595B (de) | 1994-06-21 |
EP0531084A2 (de) | 1993-03-10 |
IL102836A0 (en) | 1993-01-31 |
JP3191180B2 (ja) | 2001-07-23 |
EP0531084B1 (de) | 2001-07-11 |
US5357579A (en) | 1994-10-18 |
EP0531084A3 (en) | 1993-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69231922T2 (de) | Mehrschichtige atmosphärische Überblendung in Echtzeit-Computer-Bildgenerator | |
DE3650129T2 (de) | Verfahren zur Kantenglättung für Rechnerbilderzeugungssystem. | |
DE69126611T2 (de) | Bilderzeugungsgerät | |
DE10117478B4 (de) | Verfahren zur chronostratigraphischen Interpretation eines seismischen Querschnitts oder Blocks | |
DE3854543T2 (de) | Prioritätsverwaltung eines Tiefendatenpuffers für Echtzeitrechnersysteme zur Bilderzeugung. | |
DE68928181T2 (de) | Bilderzeugungsgerät | |
DE69232128T2 (de) | Verfahren zur Auflösung von Okklusion in einem kombinierten Raster/kalligraphischen Anzeigesystem | |
DE69516959T2 (de) | Stabilisierungsabschätzung einer zielbereichlokalisierung, abgeleitet von mehrfacherfassten marksteinbereichen auf einem videobild | |
DE60222437T2 (de) | Bildsynthese mit genau deterministischen methodologien unter verwendung von recursiven rotationen zur musterpunkterzeugung | |
DE69916450T2 (de) | Verfahren zum suchen von bildern, basierend auf einer invarianten indizierung der bilder | |
Ross et al. | Lightness from contrast: A selective integration model | |
DE69531536T2 (de) | Synthetisches bilderzeugungsverfahren mit sphärischem puffer | |
DE69723798T2 (de) | Gerät und Verfahren zum spekular Reflektionsimulieren in einem Graphik-Bildsystem | |
DE3886090T2 (de) | Geländesimulator. | |
EP1628262A2 (de) | Verfahren und Vorrichtung zur Darstellung einer dreidimensionalen Topographie | |
DE19549096A1 (de) | Simulationsvorrichtung und -verfahren | |
DE3133866C2 (de) | Verfahren zur Sichtsimulation | |
DE19922975A1 (de) | Verfahren und Vorrichtung zur Erzeugung einer 3D-Darstellung aus einem 2D-Bild | |
EP3420539B1 (de) | Verfahren zum betrieb einer anzeigevorrichtung und system zur anzeige von realen bildinhalten einer realumgebung überlagerten virtuellen bildinhalten | |
DE69817152T2 (de) | Computergraphisches bump-mapping-verfahren und geraet | |
DE60201906T2 (de) | Sichtbarkeitsbildsyntheseverfahren | |
DE102017118993A1 (de) | Verfahren zur Identifizierung eines Schiffes | |
DE102008016553A1 (de) | Verfahren zum Erzeugen einer 3D-Abbildung einer Szene aus einer 2D-Abbildung der Szene | |
DE60030401T2 (de) | Anzeigetechniken für dreidimensionale virtuelle Realität | |
DE19819844B4 (de) | Verfahren zur Darstellung von Gelände |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: INTEL CORPORATION, SANTA CLARA, CALIF., US |
|
8339 | Ceased/non-payment of the annual fee |