DE69126611T2 - Bilderzeugungsgerät - Google Patents

Bilderzeugungsgerät

Info

Publication number
DE69126611T2
DE69126611T2 DE69126611T DE69126611T DE69126611T2 DE 69126611 T2 DE69126611 T2 DE 69126611T2 DE 69126611 T DE69126611 T DE 69126611T DE 69126611 T DE69126611 T DE 69126611T DE 69126611 T2 DE69126611 T2 DE 69126611T2
Authority
DE
Germany
Prior art keywords
viewpoint
feature
fog
extinction coefficient
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69126611T
Other languages
English (en)
Other versions
DE69126611D1 (de
Inventor
Graham John 53 The Ridings West Sussex Rh15 0Pl Olive
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales Training and Simulation Ltd
Original Assignee
Thales Training and Simulation Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GB909010703A external-priority patent/GB9010703D0/en
Priority claimed from GB909012229A external-priority patent/GB9012229D0/en
Application filed by Thales Training and Simulation Ltd filed Critical Thales Training and Simulation Ltd
Publication of DE69126611D1 publication Critical patent/DE69126611D1/de
Application granted granted Critical
Publication of DE69126611T2 publication Critical patent/DE69126611T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/08Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of aircraft, e.g. Link trainer
    • G09B9/30Simulation of view from aircraft
    • G09B9/301Simulation of view from aircraft by computer-processed or -generated image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Image Processing (AREA)

Description

  • Die vorliegende Erfindung betrifft einen Bilderzeuger und insbesondere einen Rechner-Bilderzeuger, der zum Erzeugen von Informationen in Echtzeit geeignet ist, von denen ein Bild abgeleitet werden kann, um es beispielsweise in einem Flugsimulator zu zeigen.
  • Echtzeit-Bilderzeuger für Flugsimulatoren werden dazu verwendet, Bilder zu simulieren, die Piloten/innen präsentiert werden, die sich in einem nachgebildeten Cockpit eines Luftfahrzeugs befinden. Der/die geplante Betrachter/in des vom System erzeugten Bildes, das heißt der/die Simulator- 'Pilot/in', schaut durch ein imaginäres Fenster nach draußen in eine dreidimensionale (3-D)-Welt, die durch Informationen definiert ist, die als geometrische und andere kennzeichnende Attributdaten in einer Hauptdatenbank gespeichert sind. Eine vom Blickpunkt durch das Fenster gezogene Linie schneidet einen Punkt in der 3-D-Welt. Die Farbe und die Intensität dieses Punktes muß am Schnittpunkt der Linie mit dem Fenster auf das Fenster 'gemalt' werden.
  • Das gezeigte Bild setzt sich aus einer Reihe von Bildelementen (Pixeln) zusammen, die jeweils eine gleichförmige Farbe und Intensität aufweisen, wobei die Farbe und die Intensität jedes Pixels eine Funktion der Lage des Blickpunktes relativ zur 3-D-Welt ist, die durch die gespeicherten Daten repräsentiert wird. Bei einer Echtzeitanzeige, in der hunderttausende von Pixeln ausreichend schnell aktualisiert werden müssen, um ein Springen des Bildes zu vermeiden, ist zur Aufrechterhaltung der Bild- Wiedergabetreue das Ausführen vieler Millionen Rechenschritte pro Sekunde erforderlich.
  • Ansprechend auf die Bedienung der Flugsteuerungen des simulierten Luftfahrzeugs ändert sich die Lage des Blickpunktes relativ zur Datenbank mit der Zeit. Der Simulator erzeugt zu jedem Zeitpunkt eine Ausgabe, die die Blickpunktposition in Welt-Raum-Koordinaten, das heißt im Koordinatensystem der Datenbank, und die Blickrichtung anzeigt, das heißt einen Vektor, der vom Blickpunkt des/der Piloten/in durch den Mittelpunkt des Sichtfensters gezogen wird. Die Datenbank speichert Daten, die die Position und die Ausrichtung einer großen Zahl von Merkmalen kennzeichnen, die eventuell zum Endbild beitragen. Der Bilderzeuger berechnet, welche der Merkmale beim gegebenen Blickpunkt sichtbar sind, ferner die Lage der Begrenzungen der Merkmale relativ zum Sichtfenster und die Attribute, wie zum Beispiel Farbe und Intensität, der sichtbaren Merkmale. Die Verdeckung eines Merkmals durch ein anderes muß berücksichtigt werden, und bei Systemen hoher Qualität muß ferner die Wirkung eines durchscheinenden Merkmals, das ein anderes verdeckt, berücksichtigt werden.
  • Der Inhalt der Datenbank wird dazu verwendet, die Farb- und Intensitätsinformationen für jedes Pixel des Bildes abzuleiten, das auf einem Bildschirm gezeigt werden soll, der sich vor dem/r Simulatorpiloten/in befindet. Der Mittelpunkt jedes Pixels liegt auf einer eindeutigen vorgegebenen imaginären Blicklinie, die sich vom Blickpunkt zum Bildschirm erstreckt und sich in Gedanken durch den Bildschirm bis auf die Oberfläche des in der Datenbank definierten Modells erstreckt. Das bedeutet, daß das Welt-Raum-Koordinatensystem der Datenbank unter Verwendung der Blickpunkt-Koordinaten in ein Koordinatensystem transformiert werden muß, dessen Ursprung der Blickpunkt ist, das heißt in ein Blickpunkt-Raum- Koordinatensystem, und die Informationen müssen dann vom Blickpunkt-Raum in ein Bildschirm-Raum-Koordinatensystem transformiert werden. Das Bildschirm-Raum-Koordinatensystem ist zweidimensional, und sein Ursprung liegt in der Mitte des Anzeigebildschirms. Diese Transformationen machen es möglich, diejenigen Oberflächenbereiche der modellierten Merkmale zu bestimmen, die die Farbe und die Intensität jedes Pixels (dessen Bildschirm-Raum-Koordinaten bekannt sind) bestimmen. Wenn die Merkmale, die zu einem bestimmten Pixel beitragen, identifiziert sind, können die Farbe, die Intensität und andere Attribute dieser Merkmale aus der Datenbank erhalten werden, und es können geeignete Berechnungen vorgenommen werden, um die endgültig gezeigte Farbe und Intensität des Pixels zu bestimmen.
  • Wenn ein Bild hoher Qualität erzielt werden soll, dann müssen die endgültige Farbe und Intensität des Pixels auf einer Anzahl von Stichproben der beitragenden Merkmale beruhen, die an Stichprobenpunkten genommen werden, die über jedes Pixel verteilt sind. Für jedes Merkmal, das einen Beitrag zu einem Bild leistet, muß festgestellt werden, ob dieses Merkmal jeden Punkt im Bildschirm-Raum überlappt, der einem Stichprobenpunkt entspricht.
  • Bei den meisten bekannten Rechner-Bilderzeugern ist das Welt-Raum-Modell als eine Reihe polygonaler Merkmale definiert. Bei einigen Systemen können ferner Lichtpunktmerkmale dargestellt werden. Bei polygonalen Merkmalen wird jedes Polygon in der Datenbank durch die Welt- Raum-Koordinaten zumindest seiner Scheitelpunkte beschrieben, und diese geometrischen Attribute müssen in Bildschirm-Raum- Koordinaten transformiert werden, um der Lage und der Ausrichtung des Blickpunktes Rechnung zu tragen. Das bedeutet eine anfängliche Transformation vom Welt-Raum in den Blickpunkt-Raum, gefolgt von einer Transformation vom Blickpunkt-Raum in den Bildschirm-Raum. Die Transformationen sind rechnerisch aufwendige Vorgänge, ermöglichen aber die Darstellung realistischer Bilder. Ein Lichtpunktmerkmal kann beispielsweise in der Datenbank durch eine Position (die Koordinaten des Lichtpunktmittelpunktes) im Welt-Raum beschrieben werden. Die Position wird in den Bildschirm-Raum transformiert, und das Merkmal kann dann auf einem kreisförmigen Bereich des Bildschirms dargestellt werden, dessen Mittelpunkt die transformierte Position ist und dessen Radius eine Funktion der Entfernung ist, d.h. der Distanz vom Blickpunkt.
  • Es sind Rechner-Bilderzeuger bekannt, die die visuellen Effekte homogenen Nebels simulieren können, d.h. Nebels mit einer konstanten Dichte, der den gesamten Raum zwischen dem Blickpunkt und dem Modell einnimmt. Nebeleffekte können mit Bezug auf Sigma beschrieben werden, ein Wert, der gelegentlich als "Extinktionskoeffizient" bezeichnet wird. Der Transmissionsgrad von Nebel (TNebel) kann durch
  • TNebel = e-sr
  • repräsentiert werden, wobei:
  • s gleich Sigma ist
  • r die Länge des Transmissionsweges durch den Nebel ist
  • e gleich 2,71828 ist.
  • Der Transmissionsgrad TNebel ist somit der verbleibende Lichtstrom, nachdem Licht einen optischen Weg der Länge r mit Extinktionskoeffizient s durchquert hat. Der Transmissionsgrad von Nebel könnte auch mittels einer anderen als der oben angegebenen Gleichung modelliert werden, jedoch wird es stets erforderlich sein, einen Ausdruck aufzunehmen, der die Nebeldichte repräsentiert, und einen Ausdruck, der die Länge des Transmissionsweges durch den Nebel repräsentiert. Der Ausdruck, der die Nebeldichte repräsentiert, wird hierin als Extinktionskoeffizient bzw. als Sigma bezeichnet.
  • Bei Rechner-Bilderzeugern, die dazu in der Lage sind, homogenen Nebel zu simulieren, werden die Attribute eines Merkmales an einem Stichprobenpunkt somit mittels eines Nebel- Transmissionsfaktors moduliert, der eine Funktion des Extinktionskoeffizienten und der Länge des optischen Weges ist. Das Rechner-Bilderzeugersystem summiert dann, unter Verwendung üblicher Summierverfahren, die nebelmodulierten Effekte aller Stichprobenpunkte, die zu einem Pixel beitragen. Die Simulation homogenen Nebels belastet das System mit einer erhöhten Rechenlast, jedoch ist die erhöhte Last nicht sehr groß, insbesondere bei Systemen, bei denen die Merkmalsentfernung bereits zur Verfügung steht, da im wesentlichen lediglich eine Berechnung von TNebel und eine einfache Modulation der abgeleiteten Merkmalsattribute durch TNebel erforderlich ist.
  • Bekannte Rechner-Bilderzeugersysteme können somit die Effekte homogenen Nebels simulieren. In der Realität ist Nebel leider selten homogen, und die Nichthomogenität von Nebel liefert leicht erkennbare und nützliche sichtbare Signale. Nebel neigt zum Beispiel dazu, sich in Tälern oder über niedrig liegenden Bereichen in horizontalen Formationen zu sammeln, was starke visuelle Signale erzeugt. Als weiteres Beispiel sei genannt, daß Nebel "stellenweise" sein kann, so daß entlang der Länge einer Start- bzw. Landebahn unregelmäßige Nebelformationen verteilt sein können. Die Simulierung des Durchgangs eines Luftfahrzeugs durch solche Formationen produziert zweifelsohne sehr starke visuelle Signale.
  • Es ist bekannt, eine Simulierung der sichtbaren Effekte nichthomogenen Nebels zu versuchen, indem der momentane Extinktionskoeffizient homogenen Nebels variiert wird. Der Extinktionskoeffizient könnte zum Beispiel eine Funktion der Blickpunkthöhe oder einer anderen Variablen sein. Eine solcher Zugang hat sich aber als unbefriedigend erwiesen, da er zu falschen Signalen führt.
  • Theoretisch wäre es möglich, nichthomogenen Nebel als eine Reihe durchscheinender Merkmale zu modellieren und diese Merkmale auf eine übliche Weise zu verarbeiten. Leider würde eine sehr große Anzahl von "Nebelmerkmalen" benötigt, wenn falsche Signale vermieden werden sollen. Der Durchgang eines simulierten Luftfahrzeugs durch ein "Nebelmerkmal" würde zum Beispiel zum plötzlichen Verschwinden des Nebels führen, der durch dieses Merkmal dargestellt wurde. Das würde visuell erkennbar sein, es sei denn, eine Nebelformation wird aus einer großen Anzahl nah beiemanderliegender Merkmale gebildet, so daß das Verschwinden eines dieser Merkmale nicht visuell erkennbar ist. In der Praxis kann Nebel bei Echtzeitsystemen nicht durch individuelle Merkmale simuliert werden, ohne daß eine nicht akzeptable Rechenlast auferlegt wird. Eine detaillierte Modellierung von Nebelformationen unter Verwendung einer großen Anzahl individueller durchscheinender Nebelmerkmale würde ferner die Kosten der Modelldatenbankproduktion stark anwachsen lassen.
  • Es ist eine Aufgabe der vorliegenden Erfindung, die oben skizzierten Probleme zu umgehen bzw. zu mildern.
  • Gemäß der vorliegenden Erfindung ist ein Verfahren zum Simulieren der Effekte nichthomogenen Nebels in einem Bild vorgesehen, das auf einem Bildschirm gezeigt wird, wobei das Bild, von der Position eines Blickpunktes im Welt-Raum aus, das Erscheinungsbild eines Modells darstellen soll, das in einer Datenbank in Welt-Raum-Koordinaten definiert ist, und wobei das Modell mit Bezug auf eine Mehrzahl von Merkmalen definiert ist, die jeweils vorgegebene Attribute aufweisen, bei dem
  • a. eine nichthomogene Nebelstruktur in Welt-Raum- Koordinaten als eine Reihe paralleler Schichten mit vorgegebenen Extinktionskoeffizienten definiert ist, die die Nebeldichte repräsentieren,
  • b. die Position des Blickpunktes relativ zu den definierten parallelen Schichten bestimmt wird,
  • c. die Position eines Merkmals, das u.U. einen Beitrag zum Bild leistet, relativ zu den definierten parallelen Schichten bestimmt wird,
  • d. die Entfernung vom Blickpunkt zum Merkmal bestimmt wird,
  • e. aus den definierten parallelen Schichten, die sich zwischen dem Blickpunkt und dem Merkmal befinden, ein Durchschnittswert für den Extinktionskoeffizienten zwischen dem Blickpunkt und dem Merkmal berechnet wird, und
  • f. die genannten Attribute in Abhängigkeit von der berechneten Entfernung und dem berechneten Durchschnittswert für den Extinktionskoeffizienten moduliert werden.
  • Die Position des Blickpunktes relativ zu den definierten parallelen Schichten wird bevorzugt aus dem Skalarprodukt eines Vektors, der die Richtung vom Blickpunkt zu einem Ursprung der parallelen Schichten repräsentiert, mit einem Vektor, der eine zu den parallelen Schichten senkrechte Achse repräsentiert, bestimmt.
  • Der Durchschnittswert für den Extinktionskoeffizienten zwischen dem Blickpunkt und dem Merkmal wird bevorzugt berechnet, indem für jede einer Reihe von Entfernungen vom Blickpunkt in einer zu den parallelen Schichten senkrechten Richtung durchschnittliche Extinktionskoeffizientenwerte berechnet und gespeichert werden, die Entfernung vom Blickpunkt zum Merkmal in der zu den parallelen Schichten senkrechten Richtung berechnet wird und der gespeicherte durchschnittliche Extinktionskoeffizient nachgeschlagen wird, der der berechneten Entfernung vom Blickpunkt zum Merkmal entspricht.
  • Die nichthomogene Nebelstruktur kann durch eine Reihe von Stichproben-Extinktionskoeffizienten definiert sein, die jeweils dem Extinktionskoeffizienten an einer jeweiligen Stichprobenebene einer Reihe paralleler gleichmäßig beabstandeter Stichprobenebenen entsprechen, die nichthomogene Nebelstruktur wird mit Bezug auf den Blickpunkt mittels einer Reihe durchschnittlicher Extinktionskoeffizienten umdefiniert, die jeweils dem durchschnittlichen Extinktionskoeffizienten zwischen dem Blickpunkt und einer jeweiligen neuen Stichprobenebene entsprechen, wobei die neuen Stichprobenebenen parallel zu den genannten Stichprobenebenen liegen und gleichmäßig davon beabstandet sind und eine der neuen Stichprobenebenen durch den Blickpunkt geht, und jeder neue durchschnittliche Stichproben-Extinktionskoeffizient wird an einer Adresse gespeichert, die der Entfernung der neuen Stichprobenebene, auf die sich der Koeffizient bezieht, vom Blickpunkt entspricht.
  • Bevorzugt werden durchschnittliche Extinktionskoeffizienten nachgeschlagen, die zwei neuen Stichprobenebenen entsprechen, zwischen denen sich das Merkmal befindet, und ein weiterer durchschnittlicher Extinktionskoeffizient wird berechnet, indem die nachgeschlagenen Koeffizienten mit Bezug auf die Lage des Merkmals relativ zu den beiden neuen Stichprobenebenen interpoliert werden.
  • Der Bildschirm-Raum kann in eine Mehrzahl von Zellen unterteilt werden, die jeweils eine Mehrzahl von Pixeln überdecken, für jedes Merkmal werden die Adressen der neuen Stichprobenebenen für Punkte berechnet, die als die Schnitte von Geraden, die vom Blickpunkt durch die Ecken der Zellen gezogen werden, mit einer durch das Merkmal definierten Ebene definiert sind, und Adressen der neuen Stichprobenebenen für jeden einer Reihe von Stichprobenpunkten auf dem Merkmal bzw. von Bereichen des Merkmals werden mittels Interpolation aus den Adressen der neuen Zellenecken auf die Stichprobenebenen berechnet.
  • Die Erfindung stellt ferner eine Vorrichtung zum Simulieren der Effekte nichthomogenen Nebels in einem Bild bereit, das auf einem Bildschirm gezeigt wird, wobei das Bild, von der Position eines Blickpunktes im Welt-Raum aus, das Erscheinungsbild eines Modells repräsentieren soll, das in einer Datenbank in Welt-Raum-Koordinaten definiert ist, und wobei ein Modell mit Bezug auf eine Mehrzahl von Merkmalen definiert ist, die jeweils vorgegebene Attribute aufweisen, wobei die Vorrichtung folgendes umfaßt:
  • a. Mittel zum Definieren einer nichthomogenen Nebelstruktur in Welt-Raum-Koordinaten als eine Reihe paralleler Schichten mit vorgegebenen Extinktionskoeffizienten, die die Nebeldichte repräsentieren,
  • b. Mittel zum Bestimmen der Position des Blickpunktes relativ zu den definierten parallelen Schichten,
  • c. Mittel zum Bestimmen der Position eines Merkmals, das u.U. einen Beitrag zum Bild leistet, relativ zu den definierten parallelen Schichten,
  • d. Mittel zum Berechnen der Entfernung vom Blickpunkt zum Merkmal,
  • e. Mittel zum Berechnen eines Durchschnittswertes für den Extinktionskoeffizienten zwischen dem Blickpunkt und dem Merkmal aus den definierten parallelen Schichten, die sich zwischen dem Blickpunkt und dem Merkmal befinden, und
  • f. Mittel zum Modulieren der genannten Attribute in Abhängigkeit von der berechneten Entfernung und dem berechneten Durchschnittswert für den Extinktionskoeffizienten
  • Der Vorteil der vorliegenden Erfindung besteht darin, daß sie die Fähigkeit zur Simulierung nichthomogener Nebeleffekte auf eine sehr realistische Weise bereitstellt, ohne daß der Bilderzeuger mit nicht akzeptablen Rechenlasten belastet wird. Nebeltaschen in Tälern oder in anderen niedrig liegenden Bereichen können zum Beispiel durch horizontale Schichten simuliert werden, deren Höhe derart ist, daß sie nur in niedrig gelegenen Bereichen erscheinen. Stellenweiser Nebel, der entlang der Start- bzw. Landebahn beabstandet ist, kann mittels vertikaler Schichten simuliert werden. Wolkenschichten, die von Bergen durchstoßen werden, können realistisch und ökonomisch simuliert werden. So können auf ökonomische Weise viele verschiedene Effekte erzielt werden.
  • Es wird nun beispielhaft und mit Bezug auf die beiliegenden Zeichnungen ein Ausführungsbeispiel der vorliegenden Erfindung beschrieben. In den Zeichnungen zeigen
  • Fig. 1 eine schematische Darstellung der grundlegenden Konfiguration eines Rechner-Bilderzeugersystems gemäß der vorliegenden Erfindung;
  • Fig. 2 eine schematische Darstellung eines Transformationswerks, das zur Verwendung in einem System des allgemein in Fig. 1 dargestellten Typs geeignet ist;
  • Fig. 3 die gegenseitige Beziehung zwischen verschiedenen Teilflächen des Bildschirm-Raums beim Ausführungsbeispiel der vorliegenden Erfindung;
  • Fig. 4 eine schematische Darstellung grundlegender Komponenten des Bildaufbereitungswerks, das skizzenhaft mit Bezug auf Fig. 1 beschrieben wird;
  • Fig. 5 die Berechnung der Entfernung eines Merkmals vom Blickpunkt beim beschriebenen Ausführungsbeispiel der vorliegenden Erfindung;
  • Fig. 6 eine nichthomogene Nebelformation, die gemäß der vorliegenden Erfindung modelliert ist;
  • Fig. 7 und 8 das Nehmen neuer Stichproben der Nebelstruktur mit Bezug auf den Blickpunkt;
  • Fig. 9 auf allgemeine Weise die Berechnung durchschnittlicher Sigmawerte; und
  • Fig. 10 eine schematische Darstellung der Struktur eines nichthomogenen Nebelprozessors gemäß der vorliegenden Erfindung.
  • Es wird zunächst auf Fig. 1 Bezug genommen, in der die grundlegenden Funktionskomponenten eines Ausführungsbeispiels der vorliegenden Erfindung dargestellt sind, das zur Verwendung in einem Flugsimulator ausgelegt ist. Der Simulator umfaßt einen Hauptrechner 1, der Ausgaben bereitstellt, die der Position und der Fluglage des simulierten Luftfahrzeugs relativ zu einem Welt-Raum-Modell der Erdoberfläche entsprechen. Für eine/n Beobachter/in im simulierten Luftfahrzeug soll ein Bild dargestellt werden, das das Erscheinungsbild der Modelloberfläche repräsentiert. Beim beschriebenen Ausführungsbeispiel wird das Bild auf einen Rückproschirm projiziert. Der/die Beobachter/in sieht die Reflexion des Rückproschirms in einem großen sphäroidischen Spiegel. Es versteht sich jedoch, daß alternative Anzeigesysteme verwendet werden können.
  • Ein Systemmanager (SM) 2 empfängt die Ausgaben des Hauptrechners 1, die die Position und die Fluglage des Luftfahrzeugs beschreiben, und lädt von einer Datenbank Daten hinunter, die das Modell beschreiben und denjenigen Teilen des Modells entsprechen, die in Anbetracht der Position und der Fluglage des simulierten Luftfahrzeugs vom Blickpunkt des/der Beobachters/in aus potentiell sichtbar sind. Das Bild wird als eine Mehrzahl von Raster-Abtastzeilen projiziert. Kalligraphische Lichtpunkte könnten, unter Verwendung üblicher Techniken, dem Bildraster überlagert werden.
  • Die das Modell beschreibenden Daten werden während der Modellerstellung vorgegeben, beschreiben aber Merkmale der Modellszenerie, zum Beispiel Start- und Landebahnen, Gebäude und Wiesen, in Ausdrücken, die sich auf einen Satz von Welt- Raum-Koordinaten mit vorgegebenem Ursprung beziehen. Das Modell kann eine Reihe verschiedener Merkmalstypen umfassen, zum Beispiel geradseitige polygonale Merkmale und kreisförmige Lichtpunkte. Die das Modell beschreibenden Daten sind hierarchisch so geordnet, daß die meisten individuellen Merkmale des Modells mit Bezug auf Objekte definiert sind, von denen sie ein Bestandteil sind, und diese Objekte sind ihrerseits mit Bezug auf andere Objekte im Modell definiert. Die Modellwelt wird somit im allgemeinen ein Merkmal im 'Objektraum' definieren, das heißt mit Bezug auf ein Koordinatensystem, dessen Ursprung und dessen Achsen auf ein Objekt, wie zum Beispiel ein Gebäude, bezogen sind. Das Koordinatensystem dieses Objekts ist dann entweder direkt oder über ein oder mehrere weitere Objekte auf Welt-Raum- Koordinaten bezogen. Der Ausdruck 'Welt-Raum-Koordinaten' wird hierin so verwendet, daß er sowohl einen direkten Bezug auf das Koordinatensystem der Hauptdatenbank als auch einen indirekten Bezug auf das Koordinatensystem der Hauptdatenbank über einen oder mehrere 'Objekträume' umfaßt.
  • Die herausgenommenen modellbeschreibenden Daten werden zu einem Transformationswerk (TW) 3 geführt, das zwei Hauptfunktionen erfüllt, nämlich eine geometrische Transformation der Merkmalsdaten des Modells aus der Datenbank bzw. aus dem Welt-Raum-Koordinatensystem in das System der Beobachter/innen bzw. in das Blickpunkt-Koordinatensystem und eine perspektivische Transformation vom 3-D-Blickpunkt- Koordinatensystem in ein 2-D-Bildschirm-Raum- Koordinatensystem. Die zur Erzielung solcher Transformationen verwendeten Techniken sind wohlbekannt und werden dementsprechend hier nicht im Detail erläutert.
  • Das TW 3 liefert einen Strom modellbeschreibender Daten in Bildschirmkoordinaten an ein Bildaufbereitungswerk (BW) 4. Das BW 4 führt eine Reihe von Funktionen aus, wobei es geometrische Attributdaten (z.B. Größe und Position) von Merkmalen des Modells und nichtgeometrische Attributdaten von Merkmalen des Modells (zum Beispiel Farbe, Transparenz) verwendet, die vom TW 3 empfangen werden, um für jedes Pixel des darzustellenden Bildes eine endgültige Farbe zu erzeugen. Daten, die die nichtgeometrischen Attributdaten repräsentieren, werden in einen Bildspeicher im BW 4 geladen, wobei der Bildspeicher eine Speicheradresse in bezug auf jedes Pixel in der endgültigen Darstellung aufweist. Der Inhalt des Bildspeichers wird zur Anzeigeeinrichtung 5 hinuntergeladen, die das endgültige Bild produziert. Das System weist somit vier Hauptpipelinestufen auf, so daß, während ein Einzelbild dargestellt wird, das als nächstes darzustellende Einzelbild im BW 4 aufbereitet wird, das als übernächstes darzustellende Einzelbild im TW 3 verarbeitet wird, und das als überübernächstes darzustellende Einzelbild im SM 2 verarbeitet wird. Jede Stufe ist von der bzw. von jeder angrenzenden Stufe durch einen doppelt gepufferten Speicher getrennt. Ein Einzelbild-Austauschsignal wird erzeugt, um alle doppelt gepufferten Speicher zu einem Austausch im Gleichtakt zu veranlassen. Daten, die ein bestimmtes Einzelbild betreffen, werden somit mittels des Einzelbild-Austauschsignals effektiv durch die Pipeline 'getaktet'.
  • Fig. 2 ist eine detailliertere Darstellung des TW 3 aus Fig. 1. Das TW verarbeitet Daten, die zuvor aus dem SM 2 in eine kanalaktive Datenbank (KADB) 6 ausgelesen wurden. Der Inhalt der KADB 6 entspricht der Gesamtheit der Daten innerhalb der Hauptdatenbank, die sich vom Blickpunkt aus in einem potentiell sichtbaren Bereich befinden. Die KADB 6 umfaßt einen Speicher 7 und eine Steuerlogik 8, die die ausgelesenen Daten vom Speicher zu einer Anordnung von Objektprozessoren 9 steuert, die ihrerseits Steuereingaben an die Steuerlogik 8 liefert. Der Speicher 7 enthält die gesamte aktive Datenbank, und die Steuerlogik 8 wählt Objektdaten zur Verarbeitung aus. Die Objektprozessoranordnung 9 umfaßt individuelle Objektprozessoren 10, die in Gruppen auf jeweiligen Platinen 11 angeordnet sind. Diese Prozessoren bilden das Hauptrechenelement des TW 3.
  • Eine gemeinsame Ausgabe 12 der Objektprozessoranordnung 9 wird an einen Abtastumsetzer 13 geliefert, der eine Logikeinheit 14 umfaßt, die eine Ausgabe an einen Abtastumsetzerspeicher 15 liefert. Ein Attributspeicher 16 empfängt Eingaben über den Abtastumsetzer 13. Die Speicher 15 und 16 liefern die Ausgaben des TW 3 an das Bildaufbereitungswerk BW 4.
  • Die Objektprozessoren 10 erfüllen verschiedene Funktionen, unter anderem die Steuerung der Verteilung von Daten an die Objektprozessoren auf effiziente Weise, das Ausführen einer Entfernungsaussortierung, um alle Objekte auszuschließen, die sich in zu großer Entfernung befinden, um vom Blickpunkt aus sichtbar zu sein, und das Ausführen einer Sichtfeldaussortierung, um alle Objekte auszuschließen, die sich ganz außerhalb des Sichtfeldes befinden, das durch die Lage des Sichtfensters bzw. des Bildschirms relativ zum Blickpunkt gegeben ist. Für alle Merkmale, die nicht im Zuge dieser Verarbeitung aussortiert werden, müssen die geometrischen Attribute verarbeitet werden. Diese Verarbeitung umfaßt eine Reihe grundlegender Vorgänge, wie zum Beispiel Rückseitenentfernung (die Aussortierung aller Merkmale, die vom Blickpunkt aus nicht gesehen werden können, da sie vom Blickpunkt abgewandt sind), Ebenengleichungs- Attributberechnung (unter Verwendung der Koeffizienten der Ebene jedes potentiell sichtbaren Merkmals im Blickpunkt-Raum) und Sichtfeldaussortierung (die Aussortierung aller Merkmale, die ganz außerhalb des Sichtfeldes liegen, das durch das Sichtfenster repräsentiert wird). Diese Vorgänge sind für die vorliegende Erfindung nicht direkt relevant und werden daher hierin nicht im einzelnen beschrieben. Die Objektprozessoren 10 transformieren allerdings Daten, die zur Simulierung nichthomogenen Nebels benötigt werden, und dies wird untenstehend ausführlich beschrieben.
  • Unterteilung des Anzeigebildschirms
  • Das dargestellte Bild setzt sich aus einer regelmäßigen Anordnung von Pixeln zusammen, die sich nicht überlappen und die zusammen den gesamten Bildschirm überdecken. Jedes Pixel wird mittels der Raster-Abtastanzeigeeinrichtung als ein Bereich gleichförmiger Farbe und Intensität projiziert. Figur 3 enthält vier Darstellungen verschiedener Unterteilungen des Bildschirms, wobei die am weitesten links gelegene Darstellung zu einem Viertel des Maßstabs der drei anderen Darstellungen gezeichnet ist.
  • In Figur 3 entsprechen die schraffierten Bereiche, die durch die Bezugsziffer 17 gekennzeichnet sind, jeweils einem Pixel. Der Bildschirm ist in Teilflächen bzw. in Zellen unterteilt, die jeweils eine rechtwinklige Pixelanordnung überdecken, im dargestellten Fall eine vier-mal-vier- Anordnung. Ziffer 18 in Figur 3 weist auf die Begrenzung einer Zelle. Aneinandergrenzende Zellen überlappen sich nicht. Jeder Zelle ist eine Pseudozelle überlagert, die die jeweilige Zelle und eine Begrenzung von einem halben Pixel um diese Zelle herum überdeckt. Die gestrichelten Linien 19 in Figur 3 entsprechen einer Pseudozellenbegrenzung. Aneinandergrenzende Pseudozellen überlappen sich also. Jede Pseudozelle ist in eine regelmäßige Anordnung aneinanderstoßender Pseudopixel unterteilt, zum Beispiel in eine vier-mal-vier-Anordnung von Pseudopixeln. Die schraffierten Bereiche 20 in Fig. 3 entsprechen jeweils einem Pseudopixel. Den Pseudozellen sind Superzellen überlagert, die jeweils eine rechtwinklige Anordnung von Pseudozellen überdecken, im dargestellten Fall zum Beispiel eine vier-mal-vier-Anordnung von Pseudozellen. Aneinandergrenzende Superzellen überlappen sich also. Die gestrichelte Linie 21 deutet eine Superzellenbegrenzung an und der schraffierte Bereich 22 eine Pseudozelle innerhalb dieser Superzelle. Jede Superzelle überdeckt somit sechzehn Pseudozellen, und diese sechzehn Pseudozellen überdecken zusammen sechzehn Zellen und eine Begrenzung, die einen halben Pixel breit ist, um den Rand dieser sechzehn Zellen. Zur Erzielung eines Konturenausgleichs ist es erforderlich, daß aneinandergrenzende Superzellen, aneinandergrenzende Pseudozellen und aneinandergrenzende Pseudopixel sich überlappen.
  • Im dargestellten Fall einer Zelle mit vier mal vier Pixeln und einer Superzelle mit vier mal vier Pseudozellen und unter der Annahme eines Anzeigebereichs mit 1024 mal 1024 Pixeln ergeben sich 64 x 64 Superzellen und 256 x 256 Pseudozellen.
  • Abtastumsetzer
  • Für jedes von den Objektprozessoren an den Abtastumsetzer (Fig. 2) gelieferte Merkmal identifiziert der Abtastumsetzer alle Superzellen, die zumindest teilweise vom Merkmal überlappt werden. Der Abtastumsetzer weist jedem Merkmal eine Identifizierung (ID) zu, lokalisiert die Superzellen, auf die das Merkmal wirkt, und leitet die Merkmals-ID an den Abtastumsetzerspeicher 15 (der hierin im folgenden als Superzellenspeicher bezeichnet wird).
  • Das Bildaufbereitungswerk
  • Das BW 4 aus Figur 1 wird nun skizzenhaft mit Bezug auf Figur 4 beschrieben. Figur 4 zeigt den Superzellenspeicher 15 und den Attributspeicher 16 aus Figur 2. Es sei daran erinnert, daß sowohl der Superzellenspeicher als auch der Attributspeicher doppelt gepuffert sind, wobei der Inhalt der Speicher ansprechend auf den Empfang eines Signals ausgelesen wird, das den Beginn eines Einzelbilds signalisiert. Der Inhalt des Superzellenspeichers wird Superzelle für Superzelle am Ausgang 23 in einen Vorsortierer 24 ausgelesen, der ferner am Ausgang 25 geometrische Attributdaten aus dem Attributspeicher 16 empfängt. Der Vorsortierer und der Attributspeicher liefern jeweilige Ausgaben 26 und 27 an ein Spezialeffektmodul 28, einen Farbmischer 29 und einen Nachsortierer 30. Der Nachsortierer 30 führt einem Bildspeicher 31 Raster-Bilddaten zu, und eine Ausgabe 32 vom Bildspeicher wird an die Anzeigeeinrichtung (die Anzeigeeinrichtung 5 aus Figur 1) geliefert.
  • Die Funktion des Vorsortierers 24 besteht darin, jede Superzelle in eine Reihe von Pseudozellen zu unterteilen, die effektive Tiefe (Entfernung vom Blickpunkt) jedes Merkmals an jeder Pseudozellenecke zu berechnen, jedes Merkmal zu entdecken, das undurchsichtig ist und eine Pseudozelle vollständig überdeckt, und alle Merkmale von einer Berücksichtigung in bezug auf eine bestimmte Pseudozelle auszuschließen, wenn diese Merkmale hinter einem undurchsichtigen Merkmal liegen, das die Pseudozelle ganz überdeckt. Bei einer gegebenen Pseudozellengröße von vier mal vier Anzeigepixeln zuzüglich einer Begrenzung eines halben Pixels wird somit jede Superzellen-ID-Liste nacheinander für jede der sechzehn Pseudozellen berücksichtigt.
  • Die im Superzellenspeicher 15 angesammelten IDs werden Stapel für Stapel zum Vorsortierer 24 hinuntergeladen. Entsprechende Attribute werden gleichzeitig vom Attributspeicher 16 zum Vorsortierer hinuntergeladen. Der Vorsortierer empfängt also den Inhalt eines Stapels, der einer Superzelle entspricht, und verarbeitet die durch den Stapelinhalt identifizierten Merkmale, bevor der nächste Stapel hinuntergeladen wird.
  • Wenn der Vorsortierer anzeigt, daß ein Merkmal auf die Pseudozelle wirkt (sie zumindest teilweise überdeckt), die gerade verarbeitet wird, dann wird ein 'Fragment'-Datenpaket erzeugt und auf den fragmenttragenden Ausgabebus 26 angewandt. Dieses Datenpaket umfaßt lediglich die Bildschirm-Raum- Koordinaten der vier Ecken der betreffenden Pseudozelle und die ID des wirkenden Merkmals. Die Fragmente von so identifizierten Merkmalen werden dann im Spezialeffektmodul 28, im Farbmischer 29 und im Nachsortierer 30 verarbeitet.
  • Die Einheiten 28 bis 30 arbeiten auf der Grundlage von Pseudopixeln. Im dargestellten Fall überdecken sechzehn Pseudopixel eine jeweilige Pseudozelle ganz (aber erstrecken sich nicht darüber hinaus). Die Ecken der Pseudopixel werden von den Ecken der betreffenden Pseudozelle interpoliert, die vom Fragmentbus getragen werden. Wie untenstehend ausführlicher beschrieben wird, erzeugt das Spezialeffektmodul 28 für jedes Pseudopixel derjenigen Pseudozelle, die gerade verarbeitet wird, eine Ausgabe, die zur Simulierung von Nebeleffekten geeignet ist. Das Spezialeffektmodul kann ferner Ausgaben erzeugen, die für beliebige andere Spezialeffekte geeignet sind, die von den Attributen des Merkmals, das gerade verarbeitet wird, verlangt werden, wie zum Beispiel Beschaffenheitseffekte oder Landelichteffekte. Die Spezialeffektausgaben werden auf den Farbmischer 29 angewandt, wo weitere Effekte, wie zum Beispiel die Umgebungsbeleuchtung, verarbeitet werden, wobei der Farbmischer für jedes Pseudopixel eine RGBT-Ausgabe (rot, grün, blau, Transparenz) an den Nachsortierer 30 liefert. Der Nachsortierer liefert eine Ausgabe an den Bildspeicher 31. Der Bildspeicher liefert die Ausgabe 32 an die Raster- Anzeigeeinrichtung 5 (Figur 1).
  • Die Funktion des Nachsortierers 30 ist es, die Effekte von Oberflächen zu entscheiden, die andere Oberflächen verstecken bzw. teilweise verstecken. Er leistet dies, indem er die Wirkung von Merkmalen auf eine Anordnung von Stichprobenpunkten beurteilt, wobei er die Effekte solcher Wirkungen summiert und gewichtet und für jedes Anzeigepixel eine endgültige RGB-Ausgabe an den Bildspeicher liefert. Jedes vom Nachsortierer empfangene Pseudopixelfragment überdeckt eine jeweilige Anordnung von Stichprobenpunkten, die über die Pixelanordnung verteilt sind, die jeder Pseudozelle entspricht. Typischerweise sind zum Beispiel zweihundert Stichprobenpunkte vorhanden, d.h. acht pro Pixel. (Es sei daran erinnert, daß beim beschriebenen Beispiel jede Pseudozelle eine vier-mal-vier-Pixelanordnung zuzüglich einer Begrenzung der Breite eines halben Pixels überdeckt). Die Lage jedes Stichprobenpunktes relativ zu der für jede Pseudozelle definierten vier-mal-vier-Pseudopixelanordnung ist bekannt, und daher ist es erforderlich, für jeden Stichprobenpunkt zu entscheiden, ob ein Merkmal auf diesen Punkt wirkt oder nicht, und nur dann die RGBT-Eingaben vom entsprechenden Pseudopixel beim Nachsortierer zu summieren, wenn eine Wirkung entdeckt wird.
  • Jeder Stichprobenpunkt wird u.U. von einer großen Anzahl von Merkmalen überlappt, und es ist erforderlich, diese Merkmale der Tiefe nach zu sortieren, um diejenigen auszuschließen, die an diesem Stichprobenpunkt ganz durch näher (am Blickpunkt) gelegene undurchsichtige Merkmale verdeckt werden. Zu diesem Zweck wird an jedem Stichprobenpunkt die Entfernung jedes Merkmals (vom Blickpunkt) berechnet. Der RGBT-Wert und die Tiefe des ersten Merkmals, das auf einen Stichprobenpunkt wirkt, werden in einen jeweiligen Speicher geladen. Nachfolgende Merkmale werden bezüglich ihrer Tiefe mit dem ersten gespeicherten Merkmal verglichen, wobei alle Merkmale bis auf das augenblicklich nächstgelegene undurchsichtige Merkmal sowie durchscheinende Merkmale, die näher liegen als das nächstgelegene undurchsichtige Merkmal, aus dem Speicher ausgeschlossen werden (bzw. nicht eingelassen werden). Wenn alle Merkmale, die potentiell für eine Zelle wesentlich sind, auf diese Weise verarbeitet worden sind, werden die Gesamteffekte aller in jedem Stapel identifizierter Merkmale berechnet, um für jeden Stichprobenpunkt eine endgültige RGB- Ausgabe zu erzeugen. Diese Ausgaben werden dann gewichtet und summiert, um für jedes Pixel einen einzigen RGB-Wert zu erzeugen. Jedes Pixel spricht auf die Beiträge von den acht Stichprobenpunkten innerhalb seiner eigenen Begrenzung und von Stichprobenpunkten innerhalb einer darum verlaufenden Grenze der Breite eines halben Pixels an, d.h. auf zweiunddreißig Stichprobenpunkte insgesamt (1x8 + 4x4 + 4x2). Die Gesamtfläche, die die zweiunddreißig Stichprobenpunkte überdeckt, ist daher gleich der Fläche einer zwei-mal-zwei- Pixelanordnung, ist aber um den Mittelpunkt eines Anzeigepixels zentriert.
  • Der Attributspeicher 16, der Superzellenspeicher 15 und der Bildspeicher 53 sind alle doppelt gepuffert, um die Grenzen zwischen getrennten Stufen im Pipelinesystem zu definieren.
  • Das oben beschriebene und skizzierte System ist zwar von einem Typ, auf den die vorliegende Erfindung angewandt werden kann, es versteht sich jedoch von selbst, daß die vorliegende Erfindung auch bei Systemen mit einer anderen allgemeinen Struktur angewandt werden kann. Beim oben beschriebenen System wird die vorliegende Erfindung innerhalb des Spezialeffektmoduls und des Farbmischers umgesetzt, und dementsprechend werden nun die Funktionsweisen dieser Komponenten ausführlicher beschrieben.
  • Beim beschriebenen Ausführungsbeispiel kann Nebel in einer oder in zwei Formen simuliert werden, d.h. homogen und nichthomogen. Es wird angenommen, daß homogener Nebel im gesamten Welt-Raum eine gleichförmige Dichte aufweist, wohingegen nichthomogener Nebel eine Dichte aufweist, die zwischen parallelen Schichten variiert, wobei die Ausdehnung der Schichten als unendlich gedacht wird. Die Schichten könnten (im Welt-Raum) horizontal liegen, um Nebel auf Bodenhöhe zu simulieren, oder vertikal, um eine Simulierung von Nebelbänken zu ermöglichen, die entlang einer Start- bzw. Landebahn voneinander beabstandet sind, oder zur Horizontalen und zur Vertikalen geneigt.
  • Wie oben angegeben, kann der Transmissionsgrad von Nebel (TNebel) wie folgt dargestellt werden:
  • TNebel = e-sr
  • Die Ableitung von Sigma ist für die vorliegende Erfindung nicht von entscheidender Bedeutung, es ist aber bekannt, daß der Sigmawert von Kontrastverhältnissen und Verdunkelungsentfernungen abhängt. Eine häufig akzeptierte Definition von Sigma ist 3/MOR, wobei MOR die meteorologische optische Entfernung ist, das heißt die Entfernung, bei der ein Objekt mit starkem Kontrast gerade eben sichtbar ist. Das wird so dargestellt, daß die endgültig wahrgenommene Farbe des Objekts zu 5% aus der tatsächlichen Farbe des Objekts und zu 95% aus der Nebelfarbe besteht.
  • Bei einem gegebenen Objekt der Farbe Rn, Gn, Bn und einem Nebel der Farbe Rf, Gf, Bf ergibt sich dann, unter der Annahme, daß alle Wellenlängen gleichmäßig absorbiert werden, die resultierende Farbe Rd, Gd, Bd bei einer Entfernung r als:
  • Rd = TNebel x Rn + (1-TNebel) x Rf
  • Gd = TNebel x Gn + (1-TNebel) x Gf
  • Bd = TNebel x Bn + (1-TNebel) x Bf
  • Es ist diese resultierende Farbe, die im Farbmischer berechnet wird, die zur endgültigen Anzeige beitragen muß. Wenn nur homogener Nebel simuliert werden soll, kann Sigma einfach im Attributspeicher nachgeschlagen werden. Es ist dann erforderlich, die Entfernung r zu berechnen.
  • Es wird nun auf Fig. 5 Bezug genommen, in der die Berechnung der Entfernung r für einen Punkt P auf einem vierseitigen Polygon 33 gezeigt ist. Das Polygon wird vom Blickpunkt E aus durch eine Betrachtungsebene 34 betrachtet. Die z-Achse erstreckt sich vom Blickpunkt durch den Mittelpunkt der Betrachtungsebene. Der Punkt P liegt auf einer Geraden, die durch einen Stichprobenpunkt mit den Bildschirm- Raum-Koordinaten (xs ys) gezogen ist.
  • Das Transformationswerk aus Fig. 2 hat die geometrischen Attribute des Polygons im Welt-Raum auf übliche Weise in den Blickpunkt-Raum transformiert. Die Ebenengleichungskoeffizienten des Polygons sind daher aus dem Attributspeicher erhältlich, und somit können die Blickpunkt- Raum-Koordinaten (xp, yp, zp) des Punktes P wie folgt berechnet werden:
  • wobei A, B, C und D die Ebenengleichungskoeffizienten sind,
  • dx und dy Funktionen des Halbwinkels der Anzeige sind,
  • xs, ys die Bildschirm-Raum-Koordinaten des Punktes P sind.
  • Die x- und y-Koordinaten im Blickpunkt-Raum können leicht wie folgt berechnet werden:
  • xp = zpxs/dx yp = zpys/dy
  • Die Entfernung r kann wie folgt abgeleitet werden:
  • Die Verwendung dieser Gleichung in Echtzeit wäre unrealistisch, und dementsprechend wird ein Schrägentfernungs- Korrekturfaktor (sekf) berechnet, wobei
  • Auf diese Weise ist die Berechnung der Entfernung für einen beliebigen Punkt, der bestimmten Bildschirm-Raum- Koordinaten entspricht, beschrieben. Beim dargestellten System wird die reziproke Entfernung zunächst an jeder Ecke jeder Pseudozelle berechnet, und die reziproke Entfernung an einem bestimmten Pseudopixel-Mittelpunkt wird, wie untenstehend beschrieben, mittels Interpolation aus den reziproken Entfernungen der Pseudozellenecken abgeleitet.
  • Bei homogenem Nebel, läßt sich TNebel leicht ableiten, sobald die Entfernung berechnet ist. Bei nichthomogenem Nebel ist es erforderlich, die Lage und Dichte jeder der Reihe von Nebelschichten und die dadurchgehende Weglänge zu betrachten und die Effekte auf zusummieren. Das wird erreicht, indem für den Weg durch die Schicht ein Durchschnittswert für Sigma berechnet wird und dann die oben genannte exponentielle Beziehung zwischen Transmissionsgrad, Sigma und Transmissionsdistanz angewandt wird.
  • Es wird nun die Erzeugung eines Durchschnittswertes für Sigma bei nichthomogenem Nebel beschrieben. Es wird auf Fig. 6 Bezug genommen, in der ein nichthomogenes Nebelprofil dargestellt ist, bei dem durch das Viereck 35 vierzehn Nebellagen bzw. -schichten angedeutet werden. In Wirklichkeit erstreckt sich jede Nebelschicht bis ins Unendliche, jedoch ist zu Veranschaulichungszwecken die Lage jeder Schicht durch das jeweilige überlagerte Viereck angedeutet. Jedes Nebelprofil setzt sich typischerweise aus 1024 Schichten zusammen, wobei die Schichten Stichproben der Nebeldichte in Abständen von sechzehn Fuß repräsentieren, jedoch werden, wiederum zum Zwecke der Veranschaulichung, lediglich vierzehn Schichten gezeigt. Die Nebelstruktur hat einen Ursprung O mit Blickpunkt-Raum-Koordinaten (xo, yo, zo) und einen Richtungsvektor f. Der Punkt E stellt den Blickpunkt dar und das Viereck 36 den Betrachtungsschirm. Eine zur Nebelachse f senkrechte Gerade durch den Blickpunkt E schneidet die Nebelachse bei einer Entfernung fo vom Nebelursprung O.
  • Das Transformationswerk (Fig. 2) empfängt vom Systemmanager die folgenden Daten:
  • a. Eine Nebeltabelle, die sich aus 1024 Sigma- Stichprobenwerten zusammensetzt, die in Abständen von sechzehn Fuß entlang der Nebelachse genommen wurden;
  • b. Nebelursprungskoordinaten in Welt-Raum-Koordinaten; und
  • c. Einen Nebelachsen-Richtungsvektor im Welt-Raum.
  • Diese Daten werden im Objektprozessor des Transformationswerks wie folgt verarbeitet:
  • a. Der Nebelursprung wird von Welt-Raum-Koordinaten in Blickpunkt-Raum-Koordinaten transformiert, was (xo, yo, zo) ergibt;
  • b. Der Nebelachsenvektor wird in den Blickpunkt-Raum transformiert, was einen Vektor f mit den Komponenten (fx, fy, fz) ergibt;
  • c. Die Blickpunkt-Raum-Vektorkomponenten werden durch den Bildschirm z dividiert, was (f'x, f'y, f'z) ergibt, wobei:
  • f'x = fx/dx
  • f'y = fy/dy
  • f'z = fz
  • d. Die Blickpunkt-Raum-Position relativ zum Nebelursprung entlang der Nebelachse wird berechnet, was fo ergibt, wobei:
  • Auf diese Weise wurde die Position des Blickpunkts relativ zur Nebelschicht unter Verwendung einfacher Transformationstechniken bestimmt. Um eine genaue Berechnung des durchschnittlichen Sigmawertes durch die Schichten zu berechnen, werden dann von der Nebelstruktur effektiv neue Stichproben genommen, und zwar an Schichten, die den gleichen Abstand aufweisen wie die ursprünglichen Schichten, die aber so verschoben sind, daß der Blickpunkt auf einer der neuen Stichprobenschichten liegt. Das ist in Fig. 7 dargestellt, in der die ursprünglichen Nebelschichten mit Sigmawerten s(n), s(n+1) etc. durch durchgezogene Linien angedeutet sind und die Ebenen der neuen Stichprobenschichten mit Sigmawerten s'(n), s'(n+1) etc. durch gestrichelte Linien angedeutet sind. Es ist ersichtlich, daß der Blickpunkt E zwischen zwei Ebenen der ursprünglichen Schichten, aber auf einer der Ebenen der neuen Stichprobenschichten liegt. Die neuen Sigma-Stichprobenwerte leiten sich wie folgt ab:
  • s'(n) = F s(n+1) + (1-F)s(n)
  • wobei s'(n) der n-te neue Sigma-Stichprobenwert ist s(n) der ursprüngliche Sigmawert ist F der Bruchteil von fo ist.
  • In Fig. 7 wird angenommen, daß der Blickpunkt innerhalb der Nebelstruktur liegt. Fig. 8 stellt den Fall dar, in dem der Blickpunkt außerhalb der Nebelstruktur liegt. In Fig. 8 repräsentiert die durchgezogene Linie 37 einen Rand der Nebelstruktur, das heißt diejenige Schicht der Nebelstruktur, die dem Blickpunkt E am nächsten ist. In einem Fall, wie er in Fig. 8 dargestellt ist, werden wiederum neue Stichproben von der Struktur genommen, wobei die Nebelstruktur effektiv bis zum Blickpunkt ausgedehnt wird und Sigmawerte jenseits der Struktur gleich dem Sigmawert am Rand der Struktur sind.
  • Für jede neue Stichprobenebene ergibt sich der Durchschnittswert für Sigma zwischen der Ebene und dem Blickpunkt aus:
  • wobei sdu(n) der Durchschnittswert für Sigma ist und der Blickpunkt E in der Ebene liegt, die n = 0 entspricht, wie in Fig. 9 dargestellt ist.
  • Wenn entweder der Blickpunkt oder das zu betrachtende Objekt außerhalb der Nebelstruktur liegen (wie zum Beispiel in Fig. 8 dargestellt) oder wenn der Blickpunkt und das Objekt auf beiden Seiten der Nebelstruktur liegen, dann wird die Nebelstruktur in Gedanken bis zum Blickpunkt bzw. bis zum Objekt bzw. bis zu beiden ausgedehnt, wobei die ausgedehnte Schicht Sigmawerte gleich denen der ursprünglichen Schicht hat, die dem Blickpunkt bzw. dem Objekt am nächsten liegt. Damit die ausgedehnten durchschnittlichen Sigmawerte korrekt sind, werden am Rand der Nebelstruktur die Sigmawerte am Rand der Nebelstruktur glatt auf einen Nullwert hin verringert.
  • Im Fall des oben beschriebenen Ausführungsbeispiels wäre es möglich, für jeden der acht Stichprobenpunkte in jedem von sechzehn Pseudopixeln in jeder Pseudozelle nacheinander eine nichthomogene Nebeleffektausgabe zu berechnen. Um die Rechenlast zu verringern, wird jedoch bevorzugt für jeden Pseudopixel-Mittelpunkt eine einzige Nebelausgabe berechnet und diese Ausgabe jedem Stichprobenpunkt innerhalb des Pseudopixels zugeordnet. Die Durchschnittswerte für Sigma werden, wie oben beschrieben, pro Feld einmal im Transformationswerk berechnet und werden zur Speicherung in einer Nachschlagetabelle an- das Bildaufbereitungswerk verteilt. Die berechneten Sigmawerte werden im Spezialeffektmodul dazu verwendet, ein Ausgabesignal zur Nebelmodulation zur Verwendung im Farbmischer zu erzeugen.
  • Im Einzelnen führt das Spezialeffektmodul die folgenden Funktionen aus:
  • a. Für jedes gerade betrachtete Merkmal, zum Beispiel ein Polygon, wird der Wert der Nebeltabellenadresse an jeder Ecke jeder Anzeigezelle berechnet, zu dem das Merkmal einen Beitrag leistet, was folgendes liefert:
  • wobei (f'x, f'y, f'z) der normierte Nebelachsenvektor ist, der, wie oben beschrieben, im Transformationswerk berechnet wurde.
  • fo ist die Position des Blickpunktes relativ zur Nebelachse, die, wie oben beschrieben, im Transformationswerk berechnet wurde.
  • (xs, ys) sind die Bildschirm-Raum-Koordinaten der Anzeigezellenecken. (Es ist zu beachten, daß eine Anzeigezelle die vier-mal-vier-Anordnung von Pixeln ist, die von einer einzigen Pseudozelle überlappt wird, und daß angrenzende Anzeigezellen zusammenfallende Ecken aufweisen.)
  • b. Nach der Ableitung von fcij wird eine bilineare Interpolation ausgeführt, die sechzehn Werte fij für Nebeltabellenadressen an den Mittelpunkten aller sechzehn Pseudopixel ergibt, welche die Pseudozelle bilden, welche die jeweilige Anzeigezelle überlappt.
  • c. Der jedem Pseudopixel-Mittelpunkt entsprechende Durchschnittswert fur Sigma wird gebildet, indem in der Nebeltabelle nachgeschlagen wird und zwischen den Einträgen unter zwei angrenzenden Nebeltabellenadressen interpoliert wird. Im wesentlichen entsprechen die Nebeltabellenadressen jeweiligen Entfernungen vom Blickpunkt. Wenn das gerade betrachtete Merkmal außerhalb der Nebelstruktur liegt, wird die Adresse an die maximale Ausdehnung der Nebelstruktur geheftet. Somit:
  • wobei F der Bruchteil der Nebeltabellenadresse f ist f und f+1 die beiden angrenzenden Adressen sind.
  • d. Der Transmissionsgrad wird wie folgt berechnet:
  • TNebel = e-sr
  • wobei r die Entfernung zum Pseudopixel-Mittelpunkt ist,
  • s die Summe homogener und durchschnittlicher nichthomogener Sigmawerte ist und
  • r aus dem Schrägentfernungskorrekturfaktor als
  • r = z sekf
  • berechnet wird.
  • e. Der berechnete Transmissionsgrad TNebel an jedem Pseudopixel-Mittelpunkt wird an den Farbmischer übertragen.
  • Die Betriebsstruktur der nebelverarbeitenden Komponenten des Spezialeffektmoduls sind in Fig. 10 dargestellt. Bevor die Verarbeitung des Nebels beginnt, werden einmal pro Feld (sowohl homogene als auch nichthomogene) Nebelattribute empfangen. Die gleichen Nebelattribute werden für jedes Fragment verarbeitet.
  • Der Reziprokwert von z an den Anzeigezellenecken und der Reziprokwert des Schrägentfernungskorrekturfaktors (sekf) werden einem Entfernungsrechner 38 zugeführt, der für jede Ecke eine reziproke Entfernungsausgabe erzeugt. Ein Interpolator 39 interpoliert die reziproke Entfernung für jeden Pseudopixel-Mittelpunkt und liefert eine Ausgabe an einen Reziprokator 40. Dieser liefert eine Entfernungsausgabe an einen Multiplikator 41.
  • Die geometrischen Nebelattribute, das heißt die Nebelachse (senkrecht zu den Schichten) und der Ursprung, sind bereits in den Blickpunkt-Raum transformiert worden. Eine Einrichtung 42 zur inversen Perspektiventransformation verarbeitet die Attribute des nichthomogenen Nebels in Verbindung mit den Pseudozellen-Koordinaten und den reziproken z-Werten und erzeugt so Nebelprofiladressen an den Pseudozellenecken. Ein Interpolator 43 erzeugt dann sechzehn Nebelprofiladressen, eine für jeden Pseudopixel-Mittelpunkt. fo wird dann über den Summierer 44 eingeführt, und zwei Nebelprofiladressen, f und (f+1), werden erzeugt.
  • Die Nebelprofiltabelle 45 wurde mit den zutreffenden Sigma-Durchschnittswerten geladen, und die beiden adressierten Werte werden an den Interpolator 46 ausgelesen. Es wird eine lineare Interpolation der beiden adressierten Sigma- Durchschnittswerte ausgeführt, die durch eine Funktion der Lage des gerade betrachteten Punktes auf dem Merkmal relativ zum Nebelprofil gesteuert wird, d. h. den Bruchteil F der Nebeltabellenadresse, um einen glatten Übergang quer durch die Schichten zu erzeugen. Dadurch wird ein endgültiger Sigma- Durchschnittswert für eine nichthomogene Nebelstruktur erzeugt. Dieser wird dann in einem Summierer 47 ggf. zum Sigma für homogenen Nebel und ggf. zum Sigma-Durchschnittswert für andere nichthomogene Nebelstrukturen addiert. Die Summe der Sigmas wird dann im Multiplikator 41 mit der Entfernung multipliziert und dann auf eine exponentielle Nachschlagetabelle 48 angewandt, um eine endgültige TNebel- Ausgabe zu erzeugen. Diese wird dann so angewandt, wie oben in Verbindung mit einfachem homogenem Nebel beschrieben, das heißt der Farbmischer (Fig. 4) modifiziert dann die Farbe des Merkmals gemäß den folgenden Gleichungen:
  • Rd = T Rn + (1 - T)Rf
  • Gd = T Gn + (1 - T)Gf
  • Bd = T Bn + (1 - T)Bf
  • wobei (Rd, Gd, Bd) die sich ergebende Farbe ist
  • (Rn, Gn, Bn) die ursprüngliche Farbe ist
  • (Rf, Gf, Bf) die Nebelfarbe ist.
  • Die obige Beschreibung setzt voraus, daß das betreffende Merkmal ein Polygon ist. Es können auch Lichtpunkte verarbeitet werden, wobei die Entfernung für den Lichtpunkt- Mittelpunkt berechnet wird und für die vier Entfernungsausgaben eingesetzt wird, die jeder Ecke der Anzeigezelle entsprechen und die berechnet werden, wenn ein Polygon betrachtet wird. In anderer Hinsicht ist die Nebelverarbeitung für Lichtpunkte der Nebelverarbeitung für Polygone ähnlich.
  • Das beschriebene System stellt somit die Fähigkeit bereit, bestimmte häufige Nebeleffekte zu simulieren und eine Reihe verschiedener Nebeleffekte zu kombinieren, um komplexe kombinierte Nebeleffekte zu erzeugen. Die Rechenlast liegt innerhalb der Kapazität existierender Bilderzeugersysteme. Die Erfindung ermöglicht somit die Simulierung realistischer Nebeleffekte in Echtzeitsystemen.

Claims (7)

1. Verfahren zum Simulieren der Effekte nichthomogenen Nebels in einem Bild, das auf einem Bildschirm gezeigt wird, wobei das Bild, von der Position eines Blickpunktes im Welt- Raum aus, das Erscheinungsbild eines Modells darstellen soll, das in einer Datenbank in Welt-Raum-Koordinaten definiert ist, und wobei das Modell mit Bezug auf eine Mehrzahl von Merkmalen definiert ist, die jeweils vorgegebene Attribute aufweisen, bei dem
a. eine nichthomogene Nebelstruktur in Welt-Raum- Koordinaten als eine Reihe paralleler Schichten mit vorgegebenen Extinktionskoeffizienten definiert ist, die die Nebeldichte repräsentieren,
b. die Position des Blickpunktes relativ zu den definierten parallelen Schichten bestimmt wird,
c. die Position eines Merkmals, das u.U. einen Beitrag zum Bild leistet, relativ zu den definierten parallelen Schichten bestimmt wird,
d. die Entfernung vom Blickpunkt zum Merkmal bestimmt wird,
e. aus den definierten parallelen Schichten, die sich zwischen dem Blickpunkt und dem Merkmal befinden, ein Durchschnittswert für den Extinktionskoeffizienten zwischen dem Blickpunkt und dem Merkmal berechnet wird, und
f. die genannten Attribute in Abhängigkeit von der berechneten Entfernung und dem berechneten Durchschnittswert für den Extinktionskoeffizienten moduliert werden.
2. Verfahren nach Anspruch 1, bei dem die Position des Blickpunktes relativ zu den definierten parallelen Schichten aus dem Skalarprodukt eines Vektors, der die Richtung vom Blickpunkt zu einem Ursprung der parallelen Schichten repräsentiert, mit einem Vektor, der eine zu den parallelen Schichten senkrechte Achse repräsentiert, bestimmt wird.
3. Verfahren nach Anspruch 1 oder 2, bei dem der Durchschnittswert für den Extinktionskoeffizienten zwischen dem Blickpunkt und dem Merkmal berechnet wird, indem für jede einer Reihe von Entfernungen vom Blickpunkt in einer zu den parallelen Schichten senkrechten Richtung durchschnittliche Extinktionskoeffizientenwerte berechnet und gespeichert werden, die Entfernung vom Blickpunkt zum Merkmal in der zu den parallelen Schichten senkrechten Richtung berechnet wird und der gespeicherte durchschnittliche Extinktionskoeffizient nachgeschlagen wird, der der berechneten Entfernung vom Blickpunkt zum Merkmal entspricht.
4. Verfahren nach Anspruch 3, bei dem die nichthomogene Nebelstruktur im Modell durch eine Reihe von Stichproben- Extinktionskoeffizienten definiert ist, die jeweils dem Extinktionskoeffizienten an einer jeweiligen Stichprobenebene einer Reihe paralleler gleichmäßig beabstandeter Stichprobenebenen entsprechen, die nichthomogene Nebelstruktur mit Bezug auf den Blickpunkt mittels einer Reihe durchschnittlicher Extinktionskoeffizienten umdefiniert wird, die jeweils dem durchschnittlichen Extinktionskoeffizienten zwischen dem Blickpunkt und einer jeweiligen neuen Stichprobenebene entsprechen, wobei die neuen Stichprobenebenen parallel zu den genannten Stichprobenebenen liegen und gleichmäßig davon beabstandet sind und eine der neuen Stichprobenebenen durch den Blickpunkt geht, und jeder neue durchschnittliche Stichproben-Extinktionskoeffizient an einer Adresse gespeichert wird, die der Entfernung der neuen Stichprobenebene, auf die sich der Koeffizient bezieht, vom Blickpunkt entspricht.
5. Verfahren nach Anspruch 4, bei dem durchschnittliche Extinktionskoeffizienten nachgeschlagen werden, die zwei neuen Stichprobenebenen entsprechen, zwischen denen sich das Merkmal befindet, und ein weiterer durchschnittlicher Extinktionskoeffizient berechnet wird, indem die nachgeschlagenen Koeffizienten mit Bezug auf die Lage des Merkmals relativ zu den beiden neuen Stichprobenebenen interpoliert werden.
6. Verfahren nach den Ansprüchen 4 oder 5, bei dem ein Bildschirm-Raum in eine Mehrzahl von Zellen unterteilt wird, die jeweils eine Mehrzahl von Pixeln überdecken, für jedes Merkmal die Adressen der neuen Stichprobenebenen für Punkte berechnet werden, die als die Schnitte von Geraden, die vom Blickpunkt durch die Ecken der Zellen gezogen werden, mit einer durch das Merkmal definierten Ebene definiert sind, und die Adressen der neuen Stichprobenebenen für jeden einer Reihe von Stichprobenpunkten auf dem Merkmal bzw. von Bereichen des Merkmals mittels Interpolation aus den Adressen der neuen Zellenecken auf die Stichprobenebenen berechnet werden.
7. Vorrichtung zum Simulieren der Effekte nichthomogenen Nebels in einem Bild, das auf einem Bildschirm gezeigt wird, wobei das Bild, von der Position eines Blickpunktes im Welt- Raum aus, das Erscheinungsbild eines Modells repräsentieren soll, das in einer Datenbank in Welt-Raum-Koordinaten definiert ist, und wobei ein Modell mit Bezug auf eine Mehrzahl von Merkmalen definiert ist, die jeweils vorgegebene Attribute aufweisen, wobei die Vorrichtung folgendes umfaßt:
a. Mittel zum Definieren einer nichthomogenen Nebelstruktur in Welt-Raum-Koordinaten als eine Reihe paralleler Schichten mit vorgegebenen Extinktionskoeffizienten, die die Nebeldichte repräsentieren,
b. Mittel zum Bestimmen der Position des Blickpunktes relativ zu den definierten parallelen Schichten,
c. Mittel zum Bestimmen der Position eines Merkmals, das u.U. einen Beitrag zum Bild leistet, relativ zu den definierten parallelen Schichten,
d. Mittel zum Berechnen der Entfernung vom Blickpunkt zum Merkmal,
e. Mittel zum Berechnen eines Durchschnittswertes für den Extinktionskoeffizienten zwischen dem Blickpunkt und dem Merkmal aus den definierten parallelen Schichten, die sich zwischen dem Blickpunkt und dem Merkmal befinden, und
f. Mittel zum Mgdulieren der genannten Attribute in Abhängigkeit von der berechneten Entfernung und dem berechneten Durchschnittswert für den Extinktionskoeffizienten.
DE69126611T 1990-05-12 1991-04-22 Bilderzeugungsgerät Expired - Fee Related DE69126611T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB909010703A GB9010703D0 (en) 1990-05-12 1990-05-12 Image generator
GB909012229A GB9012229D0 (en) 1990-06-01 1990-06-01 Image generator
PCT/GB1991/000627 WO1991018359A1 (en) 1990-05-12 1991-04-22 Image generator

Publications (2)

Publication Number Publication Date
DE69126611D1 DE69126611D1 (de) 1997-07-24
DE69126611T2 true DE69126611T2 (de) 1997-11-20

Family

ID=26297067

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69126611T Expired - Fee Related DE69126611T2 (de) 1990-05-12 1991-04-22 Bilderzeugungsgerät

Country Status (8)

Country Link
US (2) US5412796A (de)
EP (1) EP0528837B1 (de)
JP (1) JPH05507166A (de)
AU (1) AU7747591A (de)
CA (1) CA2071539C (de)
DE (1) DE69126611T2 (de)
GB (1) GB2244412B (de)
WO (1) WO1991018359A1 (de)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW225595B (de) * 1991-09-03 1994-06-21 Gen Electric
US5366376A (en) * 1992-05-22 1994-11-22 Atari Games Corporation Driver training system and method with performance data feedback
TW250555B (de) * 1992-09-30 1995-07-01 Hudson Kk
US5598359A (en) * 1993-10-29 1997-01-28 Southwest Research Institute Weather effects generator for simulation systems
US5480305A (en) * 1993-10-29 1996-01-02 Southwest Research Institute Weather simulation system
JPH08249494A (ja) * 1995-03-09 1996-09-27 Sharp Corp Zバッファ方式隠面消去装置
US5886701A (en) * 1995-08-04 1999-03-23 Microsoft Corporation Graphics rendering device and method for operating same
JP2907089B2 (ja) * 1996-01-11 1999-06-21 日本電気株式会社 対話型映像提示装置
US6209020B1 (en) * 1996-09-20 2001-03-27 Nortel Networks Limited Distributed pipeline memory architecture for a computer system with even and odd pids
US6064392A (en) * 1998-03-16 2000-05-16 Oak Technology, Inc. Method and apparatus for generating non-homogenous fog
US6943803B1 (en) 1998-09-21 2005-09-13 Evans & Sutherland Computer Corporation Anti-aliased, textured, geocentric and layered fog graphics display method and apparatus
US6771263B1 (en) 1998-10-13 2004-08-03 Gmd-Forschungszentrum Informationstechnik Gmbh Processing volumetric image data with shadows
JP4277362B2 (ja) * 1999-05-25 2009-06-10 株式会社セガ 画像処理方法及び画像処理装置
US6618048B1 (en) 1999-10-28 2003-09-09 Nintendo Co., Ltd. 3D graphics rendering system for performing Z value clamping in near-Z range to maximize scene resolution of visually important Z components
US6717577B1 (en) 1999-10-28 2004-04-06 Nintendo Co., Ltd. Vertex cache for 3D computer graphics
US6762760B2 (en) * 2000-03-15 2004-07-13 Sun Microsystems, Inc. Graphics system configured to implement fogging based on radial distances
US7119813B1 (en) 2000-06-02 2006-10-10 Nintendo Co., Ltd. Variable bit field encoding
US7184059B1 (en) 2000-08-23 2007-02-27 Nintendo Co., Ltd. Graphics system with copy out conversions between embedded frame buffer and main memory
US7538772B1 (en) 2000-08-23 2009-05-26 Nintendo Co., Ltd. Graphics processing system with enhanced memory controller
US6636214B1 (en) 2000-08-23 2003-10-21 Nintendo Co., Ltd. Method and apparatus for dynamically reconfiguring the order of hidden surface processing based on rendering mode
US6700586B1 (en) 2000-08-23 2004-03-02 Nintendo Co., Ltd. Low cost graphics with stitching processing hardware support for skeletal animation
US7061502B1 (en) 2000-08-23 2006-06-13 Nintendo Co., Ltd. Method and apparatus for providing logical combination of N alpha operations within a graphics system
US6980218B1 (en) 2000-08-23 2005-12-27 Nintendo Co., Ltd. Method and apparatus for efficient generation of texture coordinate displacements for implementing emboss-style bump mapping in a graphics rendering system
US7002591B1 (en) 2000-08-23 2006-02-21 Nintendo Co., Ltd. Method and apparatus for interleaved processing of direct and indirect texture coordinates in a graphics system
US6825851B1 (en) 2000-08-23 2004-11-30 Nintendo Co., Ltd. Method and apparatus for environment-mapped bump-mapping in a graphics system
US7196710B1 (en) 2000-08-23 2007-03-27 Nintendo Co., Ltd. Method and apparatus for buffering graphics data in a graphics system
US6937245B1 (en) 2000-08-23 2005-08-30 Nintendo Co., Ltd. Graphics system with embedded frame buffer having reconfigurable pixel formats
US6999100B1 (en) 2000-08-23 2006-02-14 Nintendo Co., Ltd. Method and apparatus for anti-aliasing in a graphics system
US7576748B2 (en) 2000-11-28 2009-08-18 Nintendo Co. Ltd. Graphics system with embedded frame butter having reconfigurable pixel formats
US6707458B1 (en) 2000-08-23 2004-03-16 Nintendo Co., Ltd. Method and apparatus for texture tiling in a graphics system
US6811489B1 (en) 2000-08-23 2004-11-02 Nintendo Co., Ltd. Controller interface for a graphics system
US6580430B1 (en) 2000-08-23 2003-06-17 Nintendo Co., Ltd. Method and apparatus for providing improved fog effects in a graphics system
US7034828B1 (en) 2000-08-23 2006-04-25 Nintendo Co., Ltd. Recirculating shade tree blender for a graphics system
US6867781B1 (en) 2000-08-23 2005-03-15 Nintendo Co., Ltd. Graphics pipeline token synchronization
JP3792149B2 (ja) * 2001-11-12 2006-07-05 任天堂株式会社 画像処理装置および画像処理プログラム
CA2504564A1 (en) * 2002-11-01 2004-05-13 Cae Inc. Method and apparatus for providing calligraphic light point display
US7400325B1 (en) 2004-08-06 2008-07-15 Nvidia Corporation Culling before setup in viewport and culling unit
US7692647B2 (en) * 2006-09-14 2010-04-06 Microsoft Corporation Real-time rendering of realistic rain
EP2104930A2 (de) 2006-12-12 2009-09-30 Evans & Sutherland Computer Corporation System und methode zum ausgleichen des rgb-licht in einem monomodulator projektor
US8009168B2 (en) * 2007-06-26 2011-08-30 Microsoft Corporation Real-time rendering of light-scattering media
US8190403B2 (en) 2007-06-26 2012-05-29 Microsoft Corporation Real-time rendering of light-scattering media
US7990377B2 (en) * 2007-06-26 2011-08-02 Microsoft Corporation Real-time rendering of light-scattering media
US7940269B2 (en) * 2007-06-29 2011-05-10 Microsoft Corporation Real-time rendering of light-scattering media
US7940268B2 (en) * 2007-06-29 2011-05-10 Microsoft Corporation Real-time rendering of light-scattering media
US8358317B2 (en) 2008-05-23 2013-01-22 Evans & Sutherland Computer Corporation System and method for displaying a planar image on a curved surface
US8702248B1 (en) 2008-06-11 2014-04-22 Evans & Sutherland Computer Corporation Projection method for reducing interpixel gaps on a viewing surface
US8077378B1 (en) 2008-11-12 2011-12-13 Evans & Sutherland Computer Corporation Calibration system and method for light modulation device
WO2012000847A2 (fr) * 2010-07-01 2012-01-05 Thomson Licensing Procede d'estimation de diffusion de la lumiere
US9641826B1 (en) 2011-10-06 2017-05-02 Evans & Sutherland Computer Corporation System and method for displaying distant 3-D stereo on a dome surface
US9679398B2 (en) * 2015-10-19 2017-06-13 Chaos Software Ltd. Rendering images using color contribution values of render elements
US10249208B2 (en) 2016-12-02 2019-04-02 AT Systems, LLC System and method for training aircraft pilots for sudden-onset reduced-visibility conditions
US10971027B2 (en) 2016-12-02 2021-04-06 AT Systems, LLC System and method for improving safety when operating aircraft in reduced- or modified-visibility conditions
CN115601608A (zh) * 2022-09-06 2023-01-13 中国科学院长春光学精密机械与物理研究所(Cn) 空间非均匀图像数据集的构建方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3436840A (en) * 1966-08-31 1969-04-08 Bendix Corp Fog simulator and method for accomplishing airborne simulation of a fog
GB1262095A (en) * 1968-09-11 1972-02-02 Thorn Bendix Ltd Controlled degradation of a visual scene
GB1286455A (en) * 1968-09-13 1972-08-23 Thorn Elect Components Ltd Measurement of visual range in fog
US3548515A (en) * 1968-09-20 1970-12-22 Bendix Corp Day and night fog simulator
US3784720A (en) * 1970-09-14 1974-01-08 Singer Co Variable visibility simulator
US4016658A (en) * 1971-04-02 1977-04-12 Redifon Limited Video ground-based flight simulation apparatus
US3746778A (en) * 1971-10-26 1973-07-17 Singer Co Limited visibility simulation for a vehicle trainer visual system
FR2349122A1 (fr) * 1976-04-23 1977-11-18 Materiel Telephonique Systeme permettant d'alterer la qualite d'images optiques et de simuler des phenomenes atmospheriques reduisant la visibilite
US4199875A (en) * 1977-10-26 1980-04-29 The Singer Company Visibility effects generator
JPS5941222B2 (ja) * 1978-08-30 1984-10-05 株式会社日立製作所 図形表示装置
US4313726A (en) * 1979-06-29 1982-02-02 The United States Of America As Represented By The Administrator Of National Aeronautics And Space Administration Environmental fog/rain visual display system for aircraft simulators
US4672564A (en) * 1984-11-15 1987-06-09 Honeywell Inc. Method and apparatus for determining location and orientation of objects
IL79822A (en) * 1985-12-19 1990-03-19 Gen Electric Method of comprehensive distortion correction for a computer image generation system

Also Published As

Publication number Publication date
DE69126611D1 (de) 1997-07-24
EP0528837A1 (de) 1993-03-03
GB2244412B (en) 1994-03-02
JPH05507166A (ja) 1993-10-14
US5412796A (en) 1995-05-02
GB9108581D0 (en) 1991-06-05
US5535374A (en) 1996-07-09
WO1991018359A1 (en) 1991-11-28
EP0528837B1 (de) 1997-06-18
AU7747591A (en) 1991-12-10
CA2071539A1 (en) 1991-11-13
CA2071539C (en) 2001-07-17
GB2244412A (en) 1991-11-27

Similar Documents

Publication Publication Date Title
DE69126611T2 (de) Bilderzeugungsgerät
DE3650129T2 (de) Verfahren zur Kantenglättung für Rechnerbilderzeugungssystem.
DE68928181T2 (de) Bilderzeugungsgerät
DE3854543T2 (de) Prioritätsverwaltung eines Tiefendatenpuffers für Echtzeitrechnersysteme zur Bilderzeugung.
DE69120407T2 (de) Bildgenerator
DE3689271T2 (de) Verfahren zur Bildanzeige.
DE68927471T2 (de) Verfahren zur Schattierung eines graphischen Bildes
DE69123739T2 (de) Bildgenerator
DE3881416T2 (de) Verfahren zur Darstellung eines Perspektivbildes eines Gebiets und System zur Durchführung des Verfahrens.
DE3750784T2 (de) Generation eines intrapolierten charakteristischen Wertes zur Anzeige.
DE3751981T2 (de) Verfahren und Vorrichtung zur Gewinnung von Strahlungsbildern unter Verwendung eines Licht-Pufferspeichers
DE3854223T2 (de) Erzeugung und Anzeige von Rechnergraphiken.
DE3022454A1 (de) Optisches abbildesystem mit computererzeugtem bild fuer einen bodenfesten flugsimulator
DE69924699T2 (de) Verfahren zur Schaffung von als Oberflächenelemente dargestellten grafischen Objekten
DE69531536T2 (de) Synthetisches bilderzeugungsverfahren mit sphärischem puffer
DE4211385A1 (de) Daten-projektionssystem
DE102005050846A1 (de) Perspektiveneditierwerkzeuge für 2-D Bilder
DE19646194A1 (de) Echtzeit-Wiedergabeverfahren zum wahlweisen Ausführen von Erhebungskartierungs- und Phong-Schattierungsprozessen und zugehörige Vorrichtung
DE102012210521A1 (de) Unbeschnittene Zeit- und Linsen-Begrenzungen für verbesserte Probentest- Effizienz bei Bild-Rendering
DE69723798T2 (de) Gerät und Verfahren zum spekular Reflektionsimulieren in einem Graphik-Bildsystem
DE69924230T2 (de) Verfahren zur Modellierung von durch Oberflächenelemente dargestellten grafischen Objekten
DE602004012341T2 (de) Verfahren und System zur Bereitstellung einer Volumendarstellung eines dreidimensionalen Objektes
EP0862141A2 (de) Bilddarstellungsverfahren und Vorrichtung zur Durchführung des Verfahrens
DE19549096A1 (de) Simulationsvorrichtung und -verfahren
EP1628262A2 (de) Verfahren und Vorrichtung zur Darstellung einer dreidimensionalen Topographie

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee