DE69231922T2 - Mehrschichtige atmosphärische Überblendung in Echtzeit-Computer-Bildgenerator - Google Patents

Mehrschichtige atmosphärische Überblendung in Echtzeit-Computer-Bildgenerator

Info

Publication number
DE69231922T2
DE69231922T2 DE69231922T DE69231922T DE69231922T2 DE 69231922 T2 DE69231922 T2 DE 69231922T2 DE 69231922 T DE69231922 T DE 69231922T DE 69231922 T DE69231922 T DE 69231922T DE 69231922 T2 DE69231922 T2 DE 69231922T2
Authority
DE
Germany
Prior art keywords
data
point
layer
determining
dfeff
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69231922T
Other languages
English (en)
Other versions
DE69231922D1 (de
Inventor
Gregory Charles Buchner
William Arthur Kelly
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of DE69231922D1 publication Critical patent/DE69231922D1/de
Application granted granted Critical
Publication of DE69231922T2 publication Critical patent/DE69231922T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Description

  • Die Erfindung bezieht sich auf die computergesteuerte Bilderzeugung, insbesondere auf neuartige Verfahren und Geräte zum Generieren der Effekte, die von Licht verursacht werden, das durch mehrere unterschiedliche atmosphärische Schichten wandert, wenn alle Punkte auf der Fläche wenigstens eines Polygons beleuchtet werden, das eine anzuzeigende Szene darstellt.
  • Der Begriff Fading, so wie er bei der Computerbilderzeugung (CIG) benutzt wird, bezeichnet die Modifizierung des spezifischen Farbwerts und der spezifischen Farbintensität eines Objekts in Richtung auf eine allgemeine Dunst- oder Fadingfarbe in Abhängigkeit sowohl von dem Abstand zwischen dem Objekt und dem Beobachter als auch von der Dichte der Streuer (z. B. Nebeltröpfchen, Staubpartikel und dgl.). Die physikalische Basis dieses Phänomens ist für einen relativ einfachen Fall in Fig. 1 dargestellt. Der Betrachter 10, der sich an einem Sehpunkt VP befindet, möchte einen gewünschten Punkt 11p an der Stelle P auf einer Fläche 11a beobachten, an der Beleuchtungslicht von einem Objekt 11 reflektiert wird. Von einer Quelle 12, d. h. der Sonne, gehen Lichtstrahlen 12a aus und wandern dann auf dem Weg zu dem betrachteten Objekt 11 vielleicht durch eine Dunstschicht 14 (z. B. eine Schicht von suspendierten Feuchtigkeitstropfen). Ein Teil 14s1 des Lichts 12a, das auf die Schicht 14 auftrifft und durch diese hindurchtritt, wird von der Schicht zerstreut, und die Lichtstrahlen 12b, die das Objekt 11 tatsächlich beleuchten, werden durch den Dunst so modifiziert, daß ihr Farbwert verändert und ihre Intensität gedämpft wird. Da die Feuchtigkeitspartikel als Miniaturprismen wirken, wird das zerstreute Licht 14s1 gebrochen und erzeugt einen Mehrfarbeneffekt, dessen Summe typischerweise weißnahe erscheint. Wenn der Betrachter 10 so positioniert ist, daß die von dem betrachteten Objekt 11 reflektierten Lichtstrahlen 12c durch die Schicht 14 (oder eine andere Zerstreuungsschicht) verlaufen, werden einige der Strahlen 12c als gestreutes Licht 14s2 selbst gestreut, so daß die Lichtstrahlen 12d, die den Sehpunkt wirklich erreichen, in ihrer Amplitude weiter verändert werden. Die Dämpfung kann je nach Art der streuenden Schicht oder Schichten sowohl bezüglich des Farbwerts als auch bezüglich der Amplitude verändert werden. Etwas von dem gestreuten Licht 14s1/14s2 kann in Richtung des Betrachters zurückkehren, so daß eine zusätzliche Farbquelle für das Auge entsteht.
  • Da ein Teil des Lichts aus der Quelle gedämpft ist, wenn es von dem Betrachter empfangen wird, verringert sich der direkte Beitrag der diffusen Beleuchtung des Objekts 11. Die Nachahmung dieses Effekts ist ein kritisches Leistungsmerkmal für CIG-Systeme, insbesondere dann, wenn das CIG-System als Teil eines Trainingssystems (z. B. eines Flugsimulators oder dgl.) benutzt wird. Am heikelsten ist die Fähigkeit, ein realistisches Modell der Auswirkungen eines atmosphärischen Mehrschichtenmodells zu liefern, wobei die Effekte der einzelnen Schichten auf Pixelebene berechnet werden. Dieses Leistungsmerkmal versetzt ein System in die Lage, unter echten Grundnebelsituationen, in denen einzelne Objekte genau modelliert werden, trainieren zu können, selbst wenn diese Objekte teilweise im Dunst und teilweise in einer klareren Schicht liegen. Dieses Leistungsmerkmal ist besonders wichtig bei dem Training mit Rotorflügelmaschinen und bei Panzeranwendungen, da der größte Teil eines solchen Trainings auf Erdniveau oder in der Nähe des Erdniveaus stattfindet, wo Nebel die Sichtigkeit der Umgebung stark beeinträchtigt. Es ist dementsprechend äußerst wünschenswert, Echtzeit-CIG-Systeme so auszustatten, daß sie auch Mehrschichtstreuung beherrschen.
  • Die Implementierung von Fading in früheren Bilderzeugungssystemen, wie sie z. B. in UK 1 390 357 oder US 4 199 875 offenbart sind, benutzte einen einzigen Halbfading-Abstandswert Df (Df ist der Bereich, in dem die Sichtigkeit F den Wert 0,5 hat) für alle Oberflächenpolygone in einer Displayszene in einer Menge, die künstlich so definiert ist, daß sie eine Anzahl von annähernd ähnlichen Polygonen umfaßt, z. B. die Polygone, die einen bestimmten Teil des Terrains definieren, oder diejenigen Polygone, die zu einem ausgewählten Objektmodell gehören. Durch die Benutzung eines einzelnen Df-Werts wurde die Fähigkeit eines CIG-Systems, ein geschichtetes atmosphärisches Modell genau zu erzeugen, eingeschränkt, und zwar aus dem einzigen Grund, daß eine Klasse von Merkmalen einen einzigen Df-Wert gemeinsam benutzten, selbst wenn die zahlreichen Elemente dieser Klasse in mehr als einer Schicht existierten. Ein einfaches Beispiel für diesen Nachteil läßt sich aus Fig. 2 erkennen. Eine erste Schicht 4a sei ein dichter Grundnebel mit einem kleinen Halbfading-Entfernungswert Df&sub0; und möge die untere Hälfte des Objekts 11' (ein Gebirge) überdecken, während die obere Hälfte des Gebirges in einer Schicht 14b mit klarem Himmel liegt, die eine sehr große Halbfading-Entfernung Df&sub1; hat. Eine Wolkenschicht 14i mit einer mittleren Halbfading-Entfernung Dfi, die durch den klaren Himmel über dem Gebirge verläuft, ist ebenfalls dargestellt. Beim Stand der Technik war für das gesamte Gebirge nur ein Df-Wert verfügbar, und es mußte notwendigerweise ein Fadingwert abgeleitet werden, der für das gesamte Gebirge gleich war, so daß die unterschiedlichen Schichtinformationen nicht benutzt wurden und effektiv verloren waren, so daß die realistische Darstellung des berechneten Bilds beeinträchtigt wurde.
  • Es ist deshalb ein Ziel der Erfindung, neuartige Verfahren und Geräte zum Simulieren der Auswirkungen von atmosphärischen Mehrschichtstreuungen in Computer-Bilderzeugungssystemen zur Verfügung zu stellen.
  • Dieses Ziel sowie weitere Ziele der Erfindung werden dem einschlägigen Fachmann durch die folgende detaillierte Beschreibung der Erfindung verdeutlicht, die auf die anliegenden Zeichnungen Bezug nimmt.
  • Das Ziel der Erfindung wird erreicht durch das Verfahren nach Anspruch 1 und die Vorrichtung nach Anspruch 11.
  • Erfindungsgemäß wird die Auswirkung von atmosphärischer Mehrschichtstreuung auf die Sichtigkeit F jedes Punkts P auf einer sichtbaren Fläche jedes von wenigstens einem Polygon in einer Displayszene in Computer-Bilderzeugungssystemen (CIG-Systemen) dadurch gewonnen, daß der effektive durchschnittliche Reziprokwert der Halbfading-Entfernung zwischen dem Sehpunkt und dem betrachteten Punkt in Abhängigkeit von den Höhen bestimmt wird, in denen jede der verschiedenen Streuschichten beginnt, und in den transitorischen Steigungen zwischen ihnen berücksichtigt werden. Die gesamte reduzierte Sichtigkeit des betrachteten Punkts P ist eine Funktion des mittleren Reziprokwerts der Halbfading-Entfernung für diesen Punkt und des gesamten Bereichs R zwischen dem betrachteten Punkt P und dem Sehpunkt VP.
  • In einem derzeit bevorzugten Verfahren wird der durchschnittliche Reziprokwert der Halbfading-Entfernung unter Verwendung der Schichthöhen festgelegt, so daß die festgelegte reziproke Entfernung für jede Betrachtung eines beobachteten Punkts P in gleicher Höhe AltP von einem beliebigen Sehpunkt VP in gleicher Altvp verwendbar ist. Es wird eine Ausführungsform einer Vorrichtung zur Durchführung dieser Festlegungen und Berechnungen beschrieben.
  • Fig. 1 zeigt eine schematische Darstellung einer Beleuchtungsquelle, eines zu betrachtenden Objekts und eines Betrachters mit einer zwischenliegenden atmosphärischen Schicht, und veranschaulicht die Art des Problems, mit dem sich die vorliegende Erfindung befaßt,
  • Fig. 2 zeigt eine schematische Darstellung eines Beobachters und eines beobachteten Punkts auf einem Objekt mit einer Mehrzahl von zwischenliegenden atmosphärischen Schichten und dient zur Definition und zum Verständnis des Verfahrens gemäß der Erfindung,
  • Fig. 3 zeigt ein schematisches Blockschaltbild einer Vorrichtung zur Generierung von Mehrschichtstreueffekten in einem CIG-System.
  • In der Darstellung von Fig. 2 befindet sich der Betrachter 10' an dem Sehpunkt VP und beobachtet Lichtstrahlen 12'c, die von einem speziellen Punkt P an einer betrachteten Stelle 11p' auf der Oberfläche 11a' eines Objekts 11' reflektiert werden. Der Punkt P befindet sich in einem Abstand R von dem Sehpunkt VP. Der Oberflächenpunkt 11p' liegt in einer ersten atmosphärischen Schicht 14a, die einige Strahlen 14s' des von der Objektfläche 11a' reflektierten Lichts streut. Die Schicht 11a wird von einer zweiten atmosphärischen Schicht 14b überlagert, die von einer weiteren Schicht überlagert wird, und so fort, wobei der Betrachter 10' sich in einer als letzte Schicht betrachteten Schicht 14n befindet. Man erkennt, daß weitere Streuschichten über dem Sehpunkt VP und unterhalb des betrachteten Punkts 11p' vorhanden sein können, die jedoch keine Streuwirkung auf das bei dem Betrachter 10' ankommende Licht haben, weil die reflektierten Lichtstrahlen 12'c diese Schichten nicht durchlaufen. Es versteht sich ferner, daß jede Schicht 14i, mit 1 ≤ i ≤ n, im wesentlichen klar sein kann (d. h. eine Dämpfung haben kann, die im wesentlichen gleich Null ist) oder irgendeinen gewünschten Dämpfungswert αi haben kann, solange diese Dämpfung sich in irgendeiner Amplituden- oder Farbwertfunktion von der Dämpfung einer benachbarten Schicht 14(i - 1) oder 14(i + 1) unterscheidet.
  • Die endgültige Farbe Cf eines Merkmals (z. B. eines betrachteten Punkts 11p'), das durch eine einzige Dunstschicht betrachtet wird, bezüglich der Sichtigkeit F dieses Merkmals ist gegeben durch:
  • (1) final_color = attenuated_feature_color + haze_color_due_to_scattering oder
  • (2) Cf = F*Cfeature + (1 - F)*Chaze
  • wobei Cfeature die Farbe des Merkmals ist, das verarbeitet wird, und Chaze die Farbe des Dunstes ist. Die Sichtigkeit wird generiert durch
  • (3) F = e-kR
  • worin k eine Funktion der Nebeldichte und R der Abstand von dem Sehpunkt zu dem Objekt bedeuten. Ein gut geeigneter Weg zur Spezifizierung der Nebeldichte k besteht darin, den Abstand zu benutzen, bei dem die Sichtigkeit F gleich 0,5 ist. Dieser Abstand wird als Halbfading-Entfernung Df bezeichnet. Die Gleichung (3) kann dann folgendermaßen geschrieben werden:
  • (4) F = g-KR/Df
  • worin die Konstante k durch einen konstanten Wert K ersetzt ist, der für die Halbfading-Entfernung bewertet ist. Durch die Verwendung der Definition von Df kann man nach K auflösen. Wenn die Entfernung R = Df ist, ist F gleich 0,5 und deshalb
  • (5) 0,5 = e-K
  • oder
  • (6) K = In(2) = 0,693
  • Das Substituieren von K in Gleichung (4) ergibt
  • (7) F = e-0,693R/Df = e-KA
  • worin A nun als (R/Df) definiert wird. Die wahre Entfernung R wird für das dem Fading ausgesetzte Merkmal berechnet, und zwar für jedes Element, das das Merkmal abdeckt.
  • Gemäß vorliegender Erfindung können die in Fig. 2 dargestellten Fadingbedingungen in einem CIG-System gut benutzt werden, indem für jeden verarbeiteten separaten Punkt 11p' auf dem angezeigten Objekt (Gebirge) 11' für alle sichtbaren Objekte auf dem Anzeigebildschirm 16 ein individueller effektiver Halbfading-Entfernungswert Dfeffberechnet wird. Der Bildschirm besitzt ein Zentrum 16c, das auf der zentralen Sehlinie 161 angeordnet ist, wobei der Bildschirmpunkt 16 s, der auf der Sehlinie 12c' zu einem speziellen Punkt liegt, relativ zu einer bestimmten Bildschirmstelle (z. B. der oberen linken Ecke des Bildschirms) die Bildschirmkoordinaten Ip,Jp besitzt. Der individuelle Wert Dfeffwird zu einer Funktion der verschiedenen Schichtdichten Dfi, wenn der Sehstrahl 12'c durch die verschiedenen Nebel, Dunst- und ähnliche Streuschichten 14i wandert, um den Punkt 11p' der Polygonfläche zu erreichen, der dann verarbeitet wird.
  • Der Wert FP der gesamten Sichtigkeit für den betrachteten Punkt 11p' ist das Produkt der Sichtigkeiten F&sub0;, F&sub1;, F&sub2;, ... Fi, ... Fn der einzelnen Schichten mit unterschiedlich dichtem Nebel, Dunst usw., die der Sehstrahl 12'c zwischen dem Sehpunkt VP und dem betrachteten Punkt P antrifft:
  • (8) FP = F&sub0; * F&sub1; * F&sub2; * ... * Fi * ... Fn
  • Wenn man die Gleichung (8) für ein Beispiel mit einem Sehstrahl verwendet, der durch nur vier Schichten (mit den jeweiligen Sichtigkeiten F&sub0;, F&sub1;, F&sub2; bzw. F&sub3;) verläuft, ist die Sichtigkeit FP' entlang des Sehstrahls von dem Sehpunkt VP zu dem Punkt P
  • (9) FP' = F&sub0; * F&sub1; * F&sub2; * F&sub3;
  • Eine Erweiterung der Gleichung (9) ergibt
  • (10) FP' = (e-KR0/Df0)(e-KR1/Df1)(e-KR2/Df2)(e-KR3/Df3)
  • Da die Summe der Entfernungen durch die einzelnen Schichten entlang des Sehstrahls gleich der Entfernung von VP zu P ist (d. h. Rp = R0 + R1 + R2 + R3), existiert ein einziger effektiver Df-Wert, der mit Dfeffbezeichnet wird. Dieser ergibt
  • (11) e-K(Rp/Deff) = e-K((R0/Df0))+(R1/Df1)+(R2/Df2)+(R3/Df3))
  • und
  • (12) Rp(1/Dfeff) = R&sub0;(1/Df &sub0;) + R&sub1;(1/Df&sub1;) + R&sub2;(1/Df&sub2;) + R&sub3;(1/Df&sub3;)
  • Deshalb ist
  • (13) 1/Dfeff = [R&sub0;(1/Df&sub0;) + R&sub1;(1/Df&sub1;) + R&sub2;(1/Df&sub2;) + R&sub3;(1/Df&sub3;)]/Rp.
  • Wenn man von einfachen Verhältnissen ausgeht, kann 1/Dfeff offensichtlich berechnet werden, indem man anstelle der Entfernung (R) die Höhe (Alt) benutzt. Es soll insbesondere AltVP-P als Ersatz für RVP-P benutzt werden. Das führt zu einer erheblichen Vereinfachung der üblichen Berechnungen, da der vertikale Abstand durch eine gegebene Schicht konstant bleibt, während der Winkel des Sehstrahls sich ändern kann. Um den effektiven Reziprokwert der Halbfading-Entfernung (1/Dfeff) zu berechnen, muß die Höhe AltP des verarbeiteten Punkts bestimmt werden. Eine einfache Näherung besteht darin, eine Gleichung zu generieren, die die Höhe AltP als Funktion der Entfernung (R) und der Bildschirmposition (IP,JP) des Punkts 16 s beschreibt, durch den der Sehstrahl 12'c für den speziellen Punkt 11p' auf der betrachteten Polygonfläche 11a' verläuft. Diese Höhe VP läßt sich folgendermaßen ausdrükken:
  • (14) AltP = AltVP + ZNfVj
  • worin
  • Nf der Schwerkrafteinheitsvektor,
  • Vj ein Vektor durch das Pixel (IP,JP) bedeuten
  • und Z eine erste Funktion der Bildschirmposition ist, die für das I/J-Bildschirmkoordinatensystem folgende Form hat
  • (15) Z = C&sub4; + C&sub5;IP ü C&sub6;JP
  • worin C&sub4;, C&sub5; und C&sub6; in der bekannten Weise für das spezifische Polygon berechnet werden. Dadurch wird AltP als Funktion der (IP,JP)-Koordinaten erzeugt oder
  • (16) AltP = AltVP + ((C&sub1; + C&sub2;IP + C&sub3;JP)/(C&sub4; + C&sub5;IP + C&sub6;JP))
  • worin C&sub1;, C&sub2; und C&sub3; ebenfalls für das spezifische Polygon berechnet werden. Die Gleichung (16) kann kombiniert werden, um eine weitere (I,J)-Funktion zu gewinnen, die folgende Form hat
  • (17) AltP = ((C&sub1;' + C&sub2;'IP + C&sub3;'JP)/(C4 + C&sub5;IP + C&sub6;JP))
  • Nachdem AltP = f(IP,JP) ermittelt wurde, muß 1/Dfeff für die Höhenänderung ermittelt werden. Die Information zu der atmosphärischen Schicht kann durch die Dichte pro Höheneinheit definiert werden. Eine kumulative Dichte kann dadurch berechnet werden, daß die Einheitsdichten über die Höhenänderung von der Höhe des Sehpunktes bis zu der Höhe des dem Fading unterworfenen Punkt P gemittelt werden. Es gibt viele Optionen für die Berechnung der kumulativen Nebeldichte. Eine besondere Implementierung besteht darin, diesen Wert für jeden verarbeiteten Punkt 11p' zu erzeugen. Dies kann dadurch erreicht werden, daß die Starthöhe Alt Li für jede atmosphärische Schicht, die anfängliche Nebeleinheitsdichte für diese Schicht sowie eine Steigung (mi) gespeichert werden, die die Änderungsgeschwindigkeit der Dichte der i-ten Schicht pro Höheneinheit beschreibt. Dies liefert die Möglichkeit, gleichförmige dichte Bereiche und Übergangsschichten zwischen diesen Schichten zu erzeugen. Für die Starthöhe jeder Schicht wird eine kumulative Dichte aus der Höhe = 0 gespeichert. Zusätzliche Daten werden gespeichert, um die Höhe und die kumulative Dichte an dem Sehpunkt zu beschreiben.
  • Für jeden Punkt 11p' auf jedem Polygon 11a', das in der Szene verarbeitet wird, kann ein Fading-Prozessor benutzt werden, um die Information zu berechnen, die dann als Eingangsgröße für eine Reihe von Komparatoren für die Bestimmung derjenigen atmosphärischen Schichten verwendet werden, die ganz unter dem besonderen Punkt 11p' liegen, und auch für diejenige Schicht, die den Punkt enthält. Falls der Punkt innerhalb einer Schicht mit gleichförmiger Dichte liegt (kein Übergang), berechnet der Prozessor die kumulative Dichte zu dem Punkt als
  • (18) (1/Dfeff_cumm_p) = (1/Dfcumm_1) + (AltP-Alt&sub1;)*(1/Df&sub1;)
  • worin I die Bestimmung der laufenden Schicht ist. Falls der Punkt in eine Schicht mit transitorischer Dichte fällt, ist die kumulative Dichte zu dem Punkt
  • (19) (1/Dfeff_cumm_p) = (1/Dfcumm_1) + (AltP-Alt&sub1;)*(1/Df&sub1;) + (AltP-AltI)²*(1/2)(1/Dfm),
  • worin m die Steigung mi der speziellen i-ten Schicht ist. Dieses Ergebnis, das es erlaubt, die kumulative Dichte von Grund-Null zu dem betrachteten Punkt zu verarbeiten, kann verallgemeinert werden als
  • (1/Dfeff_cumm_p) = (1/Dfcumm_1) + (AltP-Alt&sub1;)*(1/Df&sub1;) + S * (AltP-AltI)² * (1/2)(1/Dfm),
  • worin S für nichttransitorische und transitorische Schichtdichten 0 bzw. 1 ist. Die Höhenänderung von dem Sehpunkt zu dem verarbeiteten Punkt beträgt einfach
  • (20) AltVP-P = AltVP - AltP .
  • Die kumulative Dichte über die Höhenänderung ist
  • (21) (1/Dfeff_cumm) = (1/Dfeff_cumm_VP)(1/Dfeff_cumm_P)
  • Die effektive durchschnittliche Dichte oder 1/Dfeff wird durch die folgende Gleichung ermittelt
  • (22) (1/Dfeff) = (1/Dfeff_cumm)/(AltVP-P)
  • Es existiert ein spezieller Fall, in welchem die Höhenänderung gleich 0 ist. Für diesen Fall ist 1/Dfeff das 1/Df in der Höhe des Sehpunkts. Das Fading für den Punkt kann nun mit Hilfe der Gleichung (7) ermittelt werden. Die effektive durchschnittliche reziproke Halbfading-Entfernung 1/Dfeff wird mit der Entfernung R multipliziert, wobei das Ergebnis als Eingangsgröße für einen exponentiellen Funktionsgenerator benutzt wird. Diese Funktion kann als Speichertabelle (TLU) oder durch stückweise Approximierung erzeugt werden.
  • Fig. 3 zeigt ein derzeit bevorzugtes Ausführungsbeispiel eines Fading-Prozessors 20. Die Pixelortsdaten IP und JP für die Bildschirmpunkte 16s, die dem Sehstrahl 12'c von dem Sehpunkt VP zu dem speziellen Punkt 11p' der Polygonfläche entsprechen, für den die Fadingdaten dann berechnet werden, werden ersten Eingängen 22a/24a und zweiten Eingängen 22b/24b eines ersten bzw. eines zweiten Funktionsgenerators 22/24 zugeführt, die an den entsprechenden Ausgängen 22c/24c die Daten (C&sub4; + C&sub5;IP + C&sub6;JP) bzw. die Daten (C&sub1; + C&sub2;IP + C&sub3;JP) liefern. Der Ausgang 22c ist mit einem ersten A-Eingang 26a einer ersten Dividiereinrichtung 26 verbunden, die einen zweiten B-Eingang besitzt, der die Daten von dem Ausgang 24c aufnimmt. Die resultierenden Daten A/B an dem Ausgang 26c bilden somit die Höhe Altp des betrachteten Punkts, wie sie mit Hilfe der Gleichung (17) berechnet wird. Diese Höhendaten werden einem zweiten B-Eingang 28b einer Subtrahiereinrichtung 28 zugeführt, die einen ersten A-Eingang 28a besitzt, der die Höhendaten Alt VP des Sehpunkts aufnimmt. An dem Ausgang 28c erhält man die Daten A-B, die die gewünschte Information AIt~P-P darstellen. Eine Einrichtung 30 zur Bestimmung des Absolutwerts verarbeitet diese Daten und führt AltVP-P einem zweiten B-Eingang 32b einer zweiten Dividiereinrichtung 32 zu, die einen ersten A-Eingang 32a besitzt, der die Daten (1/Deff_cumm) aufnimmt. Die Daten A/B an dem Ausgang 32c sind die geforderten Daten der effektiven durchschnittlichen reziproken Halbfading-Entfernung (1/Dfeff).
  • Es ist ferner eine Mehrzahl von N Datenkomparatoren 34a-34n vorgesehen mit jeweils einem ersten A-Eingang, der die Daten Altp aufnimmt, und einem zweiten B-Eingang, der individuell die Daten aufnimmt, die die untere Höhe Alt L1 der zugehörigen i-ten Schicht definieren. Es ist zu beachten, daß eine Höhe Alt L0 nicht verwendet wird, da die untere Höhe der nullten Schicht als Nullhöhe definiert ist. Der Ausgang des zugehörigen Komparators 34i liegt normalerweise auf einem ersten logischen Pegel, wenn A ≤ B, d. h. die tatsächliche Höhe nicht größer ist als die untere Schichthöhe, und wird nur auf einen zweiten logischen Pegel aktiviert, wenn A > B, d. h. wenn die Sehpunkthöhe über der unteren Schichthöhe liegt. Die Ausgänge der Komparatoren 34i werden sukzessiv aktiviert, beginnend mit dem Ausgangswert des ersten Komparators 34a, wenn die Höhe des Sehpunkts größer ist als die untere Höhe der ersten Schicht (d. h. über dem Grund oder der nullten Schicht liegt) und wird sukzessiv größer, wenn die Höhe des Sehpunkts größer wird und in eine nächsthöhere Schicht eintritt oder diese überschreitet. Falls der Sehpunkt VP in der i-ten Schicht liegt, werden alle Ausgänge des ersten, zweiten, ... (i - 1)-ten und i-ten Komparators auf den zweiten logischen Pegel aktiviert, während der (i + 1)-te bis n-te Ausgang auf dem ersten ausgewählten logischen Pegel bleiben. Die Zahl der aufeinanderfolgenden Pegel wird von der Codiereinrichtung 36, die die I aktivierten Komparatorausgangssignale verarbeitet, als Datum mit dem Wert I kodiert. Das I-Datum wird dem Adresseneingang 38a einer Speichereinrichtung 38 zur Adressierung eines Datensatzes zugeführt, der an einer entsprechenden Stelle in dem Speicher gespeichert ist, und außerdem als Eingangsauswahl-Steuersignal einem Steuereingang 40x eines Multiplexers (MUX) 40 mit N-Eingängen. Die Daten Alt Li über die untere Höhe der individuellen Schicht werden für jede i-te Schicht dem zugehörigen Eingang 401 des Multiplexers MUX 40 zugeführt, so daß an dem Ausgang 40y des Multiplexers MUX Daten ausgegeben werden, die die Höhe Alt L der laufenden Schicht setzen, in der der Sehpunkt VP liegt. Diese Daten werden einem zweiten B-Eingang einer weiteren Subtrahiereinrichtung 42 zugeführt, die einen ersten A-Dateneingang 42a besitzt, die die Daten Alt P von dem Ausgang 26c der ersten Dividiereinrichtung aufnimmt. Das Signal an dem (A-B)-Ausgang 42c enthält die Daten Alt(P-L) und wird einem ersten Eingang 44a einer ersten Multipliziereinrichtung 44 und beiden Eingängen 46a/46b einer zweiten Multiplizier- oder Quadriereinrichtung 46 zugeführt. Der zweite Eingang 44b des ersten Multiplizierers nimmt die Daten 1/DfI von einem ersten Ausgang 48b auf, die von der adressierten Stelle des Speichers 38 entnommen werden und liefert an seinem Ausgang 46c Produktdaten an einen ersten Eingang 48a einer dritten Multipliziereinrichtung 48. Der zweite Eingang 48b der dritten Multipliziereinrichtung nimmt von einem zweiten Ausgang 38c der Speichereinrichtung Daten der Steigung 1/Dfm auf. Der Ausgang 48c der dritten Multipliziereinrichtung liefert Daten an einen ersten Eingang 50a einer ersten Addiereinrichtung 50, die einen zweiten Eingang 50b besitzt, der die Daten Alt(P-L)² von dem Ausgang 44c der ersten Multipliziereinrichtung aufnimmt. Der Ausgang 50c der ersten Addiereinrichtung liefert Daten an einen ersten Eingang 52c einer zweiten Addiereinrichtung, die von einem dritten Ausgang 38d der Speichereinrichtung die Daten 1/Dfcumm-L empfängt. Der Ausgang 52c der zweiten Addiereinrichtung liefert die Daten 1/Dfeff_cumm, die an dem Eingang 32a der ersten Dividiereinrichtung benötigt werden.
  • Die Daten 1/Dfeff an dem Ausgang 32c werden einem ersten Eingang 54a einer letzten Dividiereinrichtung 54 zugeführt, deren zweiter B-Eingang von dem Ausgang 22c des ersten Funktionsgenerators die Daten über den Kehrwert der Entfernung (1/8) aufnimmt, die von den Daten (C4 + CvI + C&sub6;J) gebildet werden. Die Daten an dem Ausgang 54c der letzten Dividiereinrichtung sind der Quotient R/Df, die dann als Daten für den A-Eingang einer Potenziereinrichtung 56 benutzt werden und nach Maßgabe eines in der Einrichtung 56 gesetzten festen Werts K verarbeitet werden, um die Ausgangsdaten e-KA zu erzeugen, die die die Daten zur Sichtigkeit F bilden, die von der Schaltung 20 ausgegeben werden. Die Schaltung 20 wird so separat für jeden betrachteten Punkt P auf jeder Fläche jedes Polygons benutzt, das in der Gesamtanzeige sichtbar ist, um die Streuungssichtbarkeit dieses Punktes zu bestimmen.
  • Vorangehend wurde ein spezifisches Ausführungsbeispiel der Vorrichtung zur Durchführung des neuartigen Verfahrens zum Bestimmen der Wirkung von Mehrschicht-Fading in einigen Einzelheiten beschrieben. Der einschlägige Fachmann erkennt nun, daß zahlreiche Variationen und Modifizierungen möglich sind, die alle im Bereich der Erfindung liegen.

Claims (20)

1. Verfahren zum Bestimmen der Wirkung von Fading aufgrund von Streuung durch eine Mehrzahl von n unterschiedlichen atmosphärischen Schichten auf die Sicht FP von einem Sehpunkt VP für jeden betrachteten Punkt P auf einer sichtbaren Fläche jedes Polygons in einer Displayszene in einem Computersystem zur Bilderzeugung (CIG-System), mit den Verfahrensschritten:
(a) Bestimmen des Kehrwerts 11R der Entfernung R von dem Sehpunkt VP zu dem betrachteten Punkt P in Abhängigkeit von dem Bildschirmort (IP, JP) eines Sehstrahls,
(b) Bestimmen der Höhe AltP des betrachteten Punkts P,
(c) Bestimmen der Höhe AltVP des Sehpunkts VP,
(d) Bestimmen des Reziprokwerts (1/Dfeff_cumm) der effektiven kumulativen Halb-Fading- Entfernung der Schichten in Abhängigkeit von der Höhe AltP des betrachteten Punkts, der Sehpunkthöhe AltVP, jeder Höhe Alt Li, für 1 ≤ i ≤ n, in der die jeweilige i-te atmosphärische Schicht beginnt, und der Halb-Fading-Entfernung Df jeder Schicht und
(e) Bestimmen der totalen verringerten Sicht FP des betrachteten Punkts P von dem Sehpunkt VP durch alle zwischenliegenden atmosphärischen Schichten in Abhängigkeit von dem Kehrwert der Entfernung, der Höhe des betrachteten Punkts, der Sehpunkthöhe und den Daten des Kehrwerts der effektiven kumulativen Halb-Fading-Entfernung.
2. Verfahren nach Anspruch 1, bei dem der Verfahrensschritt (e) die Schritte umfaßt:
Ermitteln von Daten für den Reziprokwert einer effektiven Halb-Fading-Entfernung (1/Dfeff) aus den Daten AltP, den Daten AltVP und den Daten (1/Dfeff_cumm),
Ermitteln der Daten (R/Df) als Funktion der Daten des Kehrwert der Entfernung und der Daten (1/Dfeff) und
Ermitteln der Funktion der verringerten Sicht FP aus den resultierenden Daten (R/Df).
3. Verfahren nach Anspruch 2, bei dem der Verfahrensschritt (e) weiterhin die Schritte umfaßt:
Ermitteln der absoluten Differenz der Höhen des Sehpunkts und des betrachteten Punkts und
Ermitteln der Daten (1/Dfeff) als Funktion der Daten (1/Dfeff_cumm) und der Daten der absoluten Höhendifferenz.
4. Verfahren nach einem der Ansprüche 1 bis 3, bei dem der Verfahrensschritt (a) den Schritt umfaßt:
Erzeugen der Daten des Kehrwerts der Entfernung als vorgewählte Funktion f1 = (C&sub4; + C&sub5;IP + C&sub6;JP), worin C&sub4;, C&sub5; und C&sub6; vorbestimmte Konstanten sind.
5. Verfahren nach Anspruch 4, bei dem der Verfahrensschritt (b) die Schritte umfaßt:
Erzeugen von Daten für eine weitere vorgewählte Funktion f2 = (C&sub1; + C&sub2;IP + C&sub3;JP), worin C&sub1;, C&sub2; und C&sub3; vorbestimmte Konstanten sind, und
Ermitteln der Daten Altp als Quotient von f1 und f2.
6. Verfahren nach einem der Ansprüche 1 bis 5, bei dem der Verfahrensschritt (d) die Schritte umfaßt:
Ermitteln der Höhendifferenz jeder der zwischen der Höhe des Punkts P und dem Sehpunkt VP liegenden Schicht L zu dem Punkt P sowie wenigstens einer Schicht-Halb-Fading- Entfernungscharakteristik und
Bestimmen der Daten (1/Dfeff_cumm) aus den ermittelten Schichtdaten.
7. Verfahren nach Anspruch 6, bei dem der Verfahrensschritt des Ermittelns der Differenz die Schritte umfaßt:
Vergleichen der laufenden Sehpunkthöhe mit der unteren Höhe jeder zugehörigen Schicht und
Bereitstellen von Daten, welche die den Sehpunkt enthaltende höchste Schicht bezeichnen, in Abhängigkeit von den Vergleichen.
8. Verfahren nach Anspruch 7, bei dem der Verfahrensschritt der Differenzermittlung den Schritt umfaßt, daß durch Auswählen von Höhendaten für die untere Höhe der höchsten enthaltenen Schicht die Daten Alt L bereitgestellt werden.
9. Verfahren nach Anspruch 8, bei dem der Verfahrensschritt (d) auch den Schritt umfaßt, daß wenigstens eine Zwischenschichtgröße für jede Schicht gespeichert wird, die durch die kodierten Daten adressierbar ist.
10. Verfahren nach Anspruch 6, bei dem der Verfahrensschritt der Verwendung der Schichtdaten den Schritt umfaßt, daß der Wert einer Funktion (1/Dfeff_cumm_P) = (1/Dfcumm_i) + (AltP- Alti) * (1/Dfi) + S * (AltP - Alti)² * (1/2)(1/Dfm) ermittelt wird, worin S = 0, wenn der Sehpunkt nicht in einer Schicht mit transistorischer Dichte liegt, und S = 1, wenn der Sehpunkt in einer Schicht mit transistorischer Dichte liegt.
11. Vorrichtung zum Bestimmen der Wirkung von Fading aufgrund von Streuung durch eine Mehrzahl von n unterschiedlichen atmosphärischen Schichten auf die Sicht Fp von einem Sehpunkt VP für jeden betrachteten Punkt P auf einer sichtbaren Fläche jedes Polygons in einer Displayszene in einem Computersystem zur Bilderzeugung (CIG-System), wobei die Vorrichtung aufweist:
eine erste Einrichtung zum Bestimmen des Kehrwerts 1/R der Entfernung R von dem Sehpunkt VP zu dem betrachteten Punkt P in Abhängigkeit von dem Bildschirmort (IP, JP) eines Sehstrahls,
eine zweite Einrichtung zum Bestimmen der Höhe AltP des betrachteten Punkts P,
eine dritte Einrichtung zum Bestimmen der Höhe AltVP des Sehpunkts VP,
eine vierte Einrichtung zum Bestimmen des Reziprokwerts (1/Dfeff_cumm) der effektiven kumulativen Halb-Fading-Entfernung der Schichten in Abhängigkeit von der Höhe AltP des betrachteten Punkts, der Sehpunkthöhe AltVP, jeder Höhe Alt Li für 1 ≤ i ≤ n, in der die jeweilige i-te atmosphärische Schicht beginnt, und der Halb-Fading-Entfernung Df jeder Schicht und
eine fünfte Einrichtung zum Bestimmen der totalen verringerten Sicht FP des betrachteten Punkts P von dem Sehpunkt VP durch alle zwischenliegenden atmosphärischen Schichten in Abhängigkeit von dem Kehrwert der Entfernung, der Höhe des betrachteten Punkts, der Sehpunkthöhe und den Daten des Kehrwerts der effektiven kumulativen Halb-Fading- Entfernung.
12. Vorrichtung nach Anspruch 11, bei der die fünfte Einrichtung aufweist:
eine sechste Einrichtung zum Ermitteln von Daten für den Reziprokwert einer effektiven Halb-Fading-Entfernung (1/Dfeff) aus den Daten AltP, den Daten AltVP und den Daten (1/Dfeff_cumm),
eine Dividiereinrichtung zum Ermitteln der Daten (R/Df) als Funktion der Daten des Kehrwert der Entfernung und der Daten (1/Dfeff) und
eine Potenziereinrichtung zum Ermitteln der Funktion der verringerten Sicht FP aus den resultierenden Daten (R/Df).
13. Vorrichtung nach Anspruch 12, bei der die sechste Einrichtung aufweist:
eine siebte Einrichtung zum Ermitteln der absoluten Differenz der Höhen des Sehpunkts und des betrachteten Punkts und
eine Einrichtung zum Ermitteln der Daten (1/Dfeff) als Quotient der Ausgangsdaten (1/Dfeff_cumm) der vierten Einrichtung und der Ausgangsdaten der siebten Einrichtung.
14. Vorrichtung nach einem der Ansprüche 11 bis 13, bei der die erste Einrichtung ein Funktionsgenerator ist zum Erzeugen der Daten des Kehrwerts der Entfernung als vorgewählte Funktion f1 = (C&sub4; + C&sub5;IP + C&sub6;JP)- worin C&sub4;, C&sub5; und C&sub6; vorbestimmte Konstanten sind.
15. Vorrichtung nach Anspruch 14, bei der die zweite Einrichtung aufweist:
einen weiteren Funktionsgenerator zum Erzeugen von Daten für eine weitere vorgewählte Funktion f2 = (C&sub1; + C&sub2;IP + C&sub3;JP), worin C&sub1;, C&sub2; und C&sub3; vorbestimmte Konstanten sind, und
eine Dividiereinrichtung zum Ermitteln der Daten AltP als Quotient von f1 und f2.
16. Vorrichtung nach einem der Ansprüche 11 bis 15, bei der die vierte Einrichtung aufweist:
eine Einrichtung zum Ermitteln der Höhendifferenz jeder zwischen der Höhe des Punkts P und dem Sehpunkt VP liegenden Schicht L zu dem Punkt P sowie wenigstens einer Schicht-Halb-Fading-Entfernungscharakteristik und
eine Einrichtung zur Bestimmung der Daten (1/Dfeff_cumm) unter Verwendung der ermittelten Schichtdaten.
17. Vorrichtung nach Anspruch 16, bei der die Einrichtung zum Ermitteln der Differenz aufweist:
einen Satz von Komparatoren, die jeweils feststellen, ob die laufende Sehpunkthöhe größer ist als die untere Höhe der zugehörigen Schicht und
eine Kodiereinrichtung, die mit dem Satz von Komparatoren zusammenwirkt, um Daten bereitzustellen, welche die den Sehpunkt enthaltende höchste Schicht bezeichnen.
18. Vorrichtung nach Anspruch 17, bei der die Einrichtung zum Ermitteln der Differenz ferner eine Multiplexereinrichtung aufweist zum Bereitstellen von Daten Alt L durch Auswählen von Höhendaten für die untere Höhe der höchsten enthaltenen Schicht in Abhängigkeit von den Daten aus der genannten Kodiereinrichtung.
19. Vorrichtung nach Anspruch 18, bei der die Addiereinrichtung eine Speichereinrichtung aufweist, die wenigstens eine Zwischenschichtgröße für jede Schicht speichert, die durch die kodierten Daten adressierbar ist.
20. Vorrichtung nach Anspruch 16, bei der die die Schichtdaten verwendende Einrichtung nach einer Funktion (1/Dfeff_cumm_P) = (1/Dfcumm_i) + (AltP - Alti) * (1/Dfi) + S * (AltP - Alti)² * (1/2)(1/Dfm) arbeitet, worin S = 0, wenn der Sehpunkt nicht in einer Schicht mit transistorischer Dichte liegt, und S = 1, wenn der Sehpunkt in einer Schicht mit transistorischer Dichte liegt.
DE69231922T 1991-09-03 1992-09-01 Mehrschichtige atmosphärische Überblendung in Echtzeit-Computer-Bildgenerator Expired - Fee Related DE69231922T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US75449491A 1991-09-03 1991-09-03

Publications (2)

Publication Number Publication Date
DE69231922D1 DE69231922D1 (de) 2001-08-16
DE69231922T2 true DE69231922T2 (de) 2001-12-13

Family

ID=25035057

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69231922T Expired - Fee Related DE69231922T2 (de) 1991-09-03 1992-09-01 Mehrschichtige atmosphärische Überblendung in Echtzeit-Computer-Bildgenerator

Country Status (6)

Country Link
US (1) US5357579A (de)
EP (1) EP0531084B1 (de)
JP (1) JP3191180B2 (de)
DE (1) DE69231922T2 (de)
IL (1) IL102836A (de)
TW (1) TW225595B (de)

Families Citing this family (77)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06292077A (ja) * 1993-03-30 1994-10-18 Sony Corp 特殊効果装置
JP3557208B2 (ja) * 1993-05-10 2004-08-25 アプル・コンピュータ・インコーポレーテッド 高性能複数層zバッファを有するコンピュータ・グラフィックス・システム
US5638499A (en) * 1994-05-27 1997-06-10 O'connor; Michael Image composition method and apparatus for developing, storing and reproducing image data using absorption, reflection and transmission properties of images to be combined
US5966454A (en) * 1995-09-14 1999-10-12 Bentley Mills, Inc. Methods and systems for manipulation of images of floor coverings or other fabrics
TW316965B (de) * 1995-10-31 1997-10-01 Cirrus Logic Inc
US5936635A (en) * 1996-06-28 1999-08-10 Cirrus Logic, Inc. System and method of rendering polygons into a pixel grid
US5793386A (en) * 1996-06-28 1998-08-11 S3 Incorporated Register set reordering for a graphics processor based upon the type of primitive to be rendered
US5828382A (en) * 1996-08-02 1998-10-27 Cirrus Logic, Inc. Apparatus for dynamic XY tiled texture caching
US5875295A (en) * 1996-09-30 1999-02-23 S3 Incorporated Instruction format for ensuring safe execution of display list
US6348917B1 (en) 1996-09-30 2002-02-19 Cirrus Logic, Inc Dynamic switching of texture mip-maps based on depth
US5987582A (en) * 1996-09-30 1999-11-16 Cirrus Logic, Inc. Method of obtaining a buffer contiguous memory and building a page table that is accessible by a peripheral graphics device
US6052127A (en) * 1996-12-30 2000-04-18 Cirrus Logic, Inc. Circuit for determining non-homogenous second order perspective texture mapping coordinates using linear interpolation
US5844576A (en) * 1996-12-30 1998-12-01 Cirrus Logic, Inc. Tiled linear host texture storage
US6088016A (en) * 1996-12-30 2000-07-11 S3 Incorporated Dithering method and apparatus using ramp probability logic
US5835097A (en) * 1996-12-30 1998-11-10 Cirrus Logic, Inc. Non-homogenous second order perspective texture mapping using linear interpolation parameters
US5841442A (en) * 1996-12-30 1998-11-24 Cirrus Logic, Inc. Method for computing parameters used in a non-homogeneous second order perspective texture mapping process using interpolation
US5986663A (en) * 1997-10-10 1999-11-16 Cirrus Logic, Inc. Auto level of detail-based MIP mapping in a graphics processor
US6157386A (en) * 1997-10-10 2000-12-05 Cirrus Logic, Inc MIP map blending in a graphics processor
US6333746B1 (en) 1996-12-30 2001-12-25 Cirrus Logic, Inc. Auto level of detail texture mapping for a software graphics engine
US5977983A (en) * 1997-02-20 1999-11-02 S3 Incorporated Method and apparatus for adjusting graphics processing procedures based on a selectable speed/quality gauge
US5929869A (en) * 1997-03-05 1999-07-27 Cirrus Logic, Inc. Texture map storage with UV remapping
US6072508A (en) * 1997-03-14 2000-06-06 S3 Incorporated Method and apparatus for shortening display list instructions
US6028613A (en) * 1997-03-20 2000-02-22 S3 Incorporated Method and apparatus for programming a graphics subsystem register set
US5949421A (en) * 1997-03-31 1999-09-07 Cirrus Logic, Inc. Method and system for efficient register sorting for three dimensional graphics
US6130674A (en) * 1997-03-31 2000-10-10 Cirrus Logic, Inc. Dynamically selectable texture filter for computer graphics
US5978895A (en) * 1997-04-04 1999-11-02 Cirrus Logic, Inc. Method for speeding mathematical operations in a processor core
US5940090A (en) * 1997-05-07 1999-08-17 Cirrus Logic, Inc. Method and apparatus for internally caching the minimum and maximum XY pixel address values in a graphics subsystem
US6266753B1 (en) 1997-07-10 2001-07-24 Cirrus Logic, Inc. Memory manager for multi-media apparatus and method therefor
US6054993A (en) * 1997-09-17 2000-04-25 Cirrus Logic, Inc. Chroma-keyed specular texture mapping in a graphics processor
US6181347B1 (en) 1997-09-17 2001-01-30 Cirrus Logic, Inc. Selectable mode smoothing texture filter for computer graphics
US6002409A (en) * 1997-10-29 1999-12-14 Cirrus Logic, Inc. Arbitration for shared graphics processing resources
US6259455B1 (en) 1998-06-30 2001-07-10 Cirrus Logic, Inc. Method and apparatus for applying specular highlighting with specular components included with texture maps
US6252606B1 (en) 1998-06-30 2001-06-26 Cirrus Logic, Inc. Error correction in a graphics processor
US6943803B1 (en) 1998-09-21 2005-09-13 Evans & Sutherland Computer Corporation Anti-aliased, textured, geocentric and layered fog graphics display method and apparatus
US6618048B1 (en) 1999-10-28 2003-09-09 Nintendo Co., Ltd. 3D graphics rendering system for performing Z value clamping in near-Z range to maximize scene resolution of visually important Z components
US6717577B1 (en) 1999-10-28 2004-04-06 Nintendo Co., Ltd. Vertex cache for 3D computer graphics
US7119813B1 (en) 2000-06-02 2006-10-10 Nintendo Co., Ltd. Variable bit field encoding
JP4624527B2 (ja) * 2000-07-28 2011-02-02 株式会社バンダイナムコゲームス ゲームシステム及び情報記憶媒体
US7576748B2 (en) 2000-11-28 2009-08-18 Nintendo Co. Ltd. Graphics system with embedded frame butter having reconfigurable pixel formats
US6937245B1 (en) 2000-08-23 2005-08-30 Nintendo Co., Ltd. Graphics system with embedded frame buffer having reconfigurable pixel formats
US7034828B1 (en) 2000-08-23 2006-04-25 Nintendo Co., Ltd. Recirculating shade tree blender for a graphics system
US6580430B1 (en) 2000-08-23 2003-06-17 Nintendo Co., Ltd. Method and apparatus for providing improved fog effects in a graphics system
US6999100B1 (en) 2000-08-23 2006-02-14 Nintendo Co., Ltd. Method and apparatus for anti-aliasing in a graphics system
US6636214B1 (en) 2000-08-23 2003-10-21 Nintendo Co., Ltd. Method and apparatus for dynamically reconfiguring the order of hidden surface processing based on rendering mode
US6825851B1 (en) 2000-08-23 2004-11-30 Nintendo Co., Ltd. Method and apparatus for environment-mapped bump-mapping in a graphics system
US7061502B1 (en) 2000-08-23 2006-06-13 Nintendo Co., Ltd. Method and apparatus for providing logical combination of N alpha operations within a graphics system
US7196710B1 (en) 2000-08-23 2007-03-27 Nintendo Co., Ltd. Method and apparatus for buffering graphics data in a graphics system
US6867781B1 (en) 2000-08-23 2005-03-15 Nintendo Co., Ltd. Graphics pipeline token synchronization
US6811489B1 (en) 2000-08-23 2004-11-02 Nintendo Co., Ltd. Controller interface for a graphics system
US6980218B1 (en) 2000-08-23 2005-12-27 Nintendo Co., Ltd. Method and apparatus for efficient generation of texture coordinate displacements for implementing emboss-style bump mapping in a graphics rendering system
US6700586B1 (en) 2000-08-23 2004-03-02 Nintendo Co., Ltd. Low cost graphics with stitching processing hardware support for skeletal animation
US7538772B1 (en) 2000-08-23 2009-05-26 Nintendo Co., Ltd. Graphics processing system with enhanced memory controller
US6707458B1 (en) 2000-08-23 2004-03-16 Nintendo Co., Ltd. Method and apparatus for texture tiling in a graphics system
US7184059B1 (en) 2000-08-23 2007-02-27 Nintendo Co., Ltd. Graphics system with copy out conversions between embedded frame buffer and main memory
US7002591B1 (en) 2000-08-23 2006-02-21 Nintendo Co., Ltd. Method and apparatus for interleaved processing of direct and indirect texture coordinates in a graphics system
US6940504B1 (en) 2000-11-21 2005-09-06 Microsoft Corporation Rendering volumetric fog and other gaseous phenomena using an alpha channel
US7046243B1 (en) 2000-11-21 2006-05-16 Microsoft Corporation Rendering volumetric fog and other gaseous phenomena
US6686915B2 (en) * 2001-04-19 2004-02-03 Webtv Networks, Inc. Systems and methods for rendering visual effects that are a function of depth
JP3577016B2 (ja) * 2001-08-24 2004-10-13 コナミ株式会社 3次元画像処理プログラム、3次元画像処理方法及びビデオゲーム装置
JP3792149B2 (ja) * 2001-11-12 2006-07-05 任天堂株式会社 画像処理装置および画像処理プログラム
US7098913B1 (en) * 2002-07-30 2006-08-29 Rockwell Collins, Inc. Method and system for providing depth cues by attenuating distant displayed terrain
EP1854024A4 (de) 2005-01-13 2008-11-05 Hsbc North America Holdings In Durch computersoftware implementierter rahmen zur konfiguration und ausgabe-verwaltung von gruppensystemsoftware und verfahren dafür
US7710418B2 (en) * 2005-02-04 2010-05-04 Linden Acquisition Corporation Systems and methods for the real-time and realistic simulation of natural atmospheric lighting phenomenon
CN101617354A (zh) 2006-12-12 2009-12-30 埃文斯和萨瑟兰计算机公司 用于校准单个调制器投影仪中的rgb光的系统和方法
US7940268B2 (en) * 2007-06-29 2011-05-10 Microsoft Corporation Real-time rendering of light-scattering media
US8358317B2 (en) 2008-05-23 2013-01-22 Evans & Sutherland Computer Corporation System and method for displaying a planar image on a curved surface
US8702248B1 (en) 2008-06-11 2014-04-22 Evans & Sutherland Computer Corporation Projection method for reducing interpixel gaps on a viewing surface
US8077378B1 (en) 2008-11-12 2011-12-13 Evans & Sutherland Computer Corporation Calibration system and method for light modulation device
US9460546B1 (en) 2011-03-30 2016-10-04 Nvidia Corporation Hierarchical structure for accelerating ray tracing operations in scene rendering
US9142043B1 (en) 2011-06-24 2015-09-22 Nvidia Corporation System and method for improved sample test efficiency in image rendering
US9153068B2 (en) 2011-06-24 2015-10-06 Nvidia Corporation Clipless time and lens bounds for improved sample test efficiency in image rendering
US8970584B1 (en) 2011-06-24 2015-03-03 Nvidia Corporation Bounding box-based techniques for improved sample test efficiency in image rendering
US9269183B1 (en) 2011-07-31 2016-02-23 Nvidia Corporation Combined clipless time and lens bounds for improved sample test efficiency in image rendering
US9641826B1 (en) 2011-10-06 2017-05-02 Evans & Sutherland Computer Corporation System and method for displaying distant 3-D stereo on a dome surface
US9305394B2 (en) 2012-01-27 2016-04-05 Nvidia Corporation System and process for improved sampling for parallel light transport simulation
US9159158B2 (en) 2012-07-19 2015-10-13 Nvidia Corporation Surface classification for point-based rendering within graphics display system
US9171394B2 (en) 2012-07-19 2015-10-27 Nvidia Corporation Light transport consistent scene simplification within graphics display system

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1390357A (en) * 1971-04-02 1975-04-09 Redifon Ltd Ground-based flight simulation apparatus
US4016658A (en) * 1971-04-02 1977-04-12 Redifon Limited Video ground-based flight simulation apparatus
US4199875A (en) * 1977-10-26 1980-04-29 The Singer Company Visibility effects generator
IL72685A (en) * 1983-08-30 1988-08-31 Gen Electric Advanced video object generator
US4897806A (en) * 1985-06-19 1990-01-30 Pixar Pseudo-random point sampling techniques in computer graphics
JPH0812705B2 (ja) * 1986-09-29 1996-02-07 株式会社東芝 画像処理装置
US4866637A (en) * 1987-10-30 1989-09-12 International Business Machines Corporation Pipelined lighting model processing system for a graphics workstation's shading function
JPH05507166A (ja) * 1990-05-12 1993-10-14 レディフュージョン・シミュレーション・リミテッド イメージ発生装置

Also Published As

Publication number Publication date
IL102836A (en) 1995-08-31
DE69231922D1 (de) 2001-08-16
JPH05205032A (ja) 1993-08-13
TW225595B (de) 1994-06-21
EP0531084A2 (de) 1993-03-10
IL102836A0 (en) 1993-01-31
JP3191180B2 (ja) 2001-07-23
EP0531084B1 (de) 2001-07-11
US5357579A (en) 1994-10-18
EP0531084A3 (en) 1993-12-08

Similar Documents

Publication Publication Date Title
DE69231922T2 (de) Mehrschichtige atmosphärische Überblendung in Echtzeit-Computer-Bildgenerator
DE3650129T2 (de) Verfahren zur Kantenglättung für Rechnerbilderzeugungssystem.
DE69126611T2 (de) Bilderzeugungsgerät
DE10117478B4 (de) Verfahren zur chronostratigraphischen Interpretation eines seismischen Querschnitts oder Blocks
DE3854543T2 (de) Prioritätsverwaltung eines Tiefendatenpuffers für Echtzeitrechnersysteme zur Bilderzeugung.
DE68928181T2 (de) Bilderzeugungsgerät
DE69232128T2 (de) Verfahren zur Auflösung von Okklusion in einem kombinierten Raster/kalligraphischen Anzeigesystem
DE69516959T2 (de) Stabilisierungsabschätzung einer zielbereichlokalisierung, abgeleitet von mehrfacherfassten marksteinbereichen auf einem videobild
DE60222437T2 (de) Bildsynthese mit genau deterministischen methodologien unter verwendung von recursiven rotationen zur musterpunkterzeugung
DE69916450T2 (de) Verfahren zum suchen von bildern, basierend auf einer invarianten indizierung der bilder
Ross et al. Lightness from contrast: A selective integration model
DE69531536T2 (de) Synthetisches bilderzeugungsverfahren mit sphärischem puffer
DE69723798T2 (de) Gerät und Verfahren zum spekular Reflektionsimulieren in einem Graphik-Bildsystem
DE3886090T2 (de) Geländesimulator.
EP1628262A2 (de) Verfahren und Vorrichtung zur Darstellung einer dreidimensionalen Topographie
DE19549096A1 (de) Simulationsvorrichtung und -verfahren
DE3133866C2 (de) Verfahren zur Sichtsimulation
DE19922975A1 (de) Verfahren und Vorrichtung zur Erzeugung einer 3D-Darstellung aus einem 2D-Bild
EP3420539B1 (de) Verfahren zum betrieb einer anzeigevorrichtung und system zur anzeige von realen bildinhalten einer realumgebung überlagerten virtuellen bildinhalten
DE69817152T2 (de) Computergraphisches bump-mapping-verfahren und geraet
DE60201906T2 (de) Sichtbarkeitsbildsyntheseverfahren
DE102017118993A1 (de) Verfahren zur Identifizierung eines Schiffes
DE102008016553A1 (de) Verfahren zum Erzeugen einer 3D-Abbildung einer Szene aus einer 2D-Abbildung der Szene
DE60030401T2 (de) Anzeigetechniken für dreidimensionale virtuelle Realität
DE19819844B4 (de) Verfahren zur Darstellung von Gelände

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: INTEL CORPORATION, SANTA CLARA, CALIF., US

8339 Ceased/non-payment of the annual fee