DE69123739T2 - Bildgenerator - Google Patents

Bildgenerator

Info

Publication number
DE69123739T2
DE69123739T2 DE69123739T DE69123739T DE69123739T2 DE 69123739 T2 DE69123739 T2 DE 69123739T2 DE 69123739 T DE69123739 T DE 69123739T DE 69123739 T DE69123739 T DE 69123739T DE 69123739 T2 DE69123739 T2 DE 69123739T2
Authority
DE
Germany
Prior art keywords
light source
polygon
point
calculated
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69123739T
Other languages
English (en)
Other versions
DE69123739D1 (de
Inventor
Stephen Baker
Graham Olive
Jeffrey Smith
Karl Wood
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales Training and Simulation Ltd
Original Assignee
Thales Training and Simulation Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales Training and Simulation Ltd filed Critical Thales Training and Simulation Ltd
Publication of DE69123739D1 publication Critical patent/DE69123739D1/de
Application granted granted Critical
Publication of DE69123739T2 publication Critical patent/DE69123739T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/00Three-dimensional [3D] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/08Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of aircraft, e.g. Link trainer
    • G09B9/30Simulation of view from aircraft
    • G09B9/301Simulation of view from aircraft by computer-processed or -generated image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Educational Technology (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

  • Die vorliegende Erfindung betrifft einen Bilderzeuger und insbesondere einen Rechner-Bilderzeuger, der zum Erzeugen von Informationen in Echtzeit geeignet ist, von denen ein Bild abgeleitet werden kann, um es beispielsweise in einem Flugsimulator zu zeigen.
  • Echtzeit-Bilderzeuger für Flugsimulatoren werden dazu verwendet, Bilder zu simulieren, die Piloten/innen präsentiert werden, die sich in einem nachgebildeten Cockpit eines Luftfahrzeugs befinden. Der/die geplante Betrachter/in des vom System erzeugten Bildes, das heißt der/die Simulator'Pilot/in', schaut durch ein imaginäres Fenster nach draußen in eine dreidimensionale (3-D)-Welt, die durch Informationen definiert ist, die als geometrische und andere kennzeichnende Attributdaten in einer Hauptdatenbank gespeichert sind. Eine vom Blickpunkt durch das Fenster gezogene Linie schneidet einen Punkt in der 3-D-Welt. Die Farbe und die Stärke dieses Punktes muß am Schnittpunkt der Linie mit dem Fenster auf das Fenster 'gemalt' werden.
  • Das gezeigte Bild setzt sich aus einer Reihe von Bildelementen (Pixeln) zusammen, die jeweils eine gleichförmige Farbe und Stärke aufweisen, wobei die Farbe und die Stärke jedes Pixels eine Funktion der Lage des Blickpunktes relativ zur 3-D-Welt ist, die durch die gespeicherten Daten repräsentiert wird. Bei einer Echtzeitanzeige, in der hunderttausende von Pixeln ausreichend schnell aktualisiert werden müssen, um ein Springen des Bildes zu vermeiden, ist zur Aufrechterhaltung der Bild- Wiedergabetreue das Ausführen vieler Millionen Rechenschritte pro Sekunde erforderlich.
  • Ansprechend auf die Bedienung der Flugsteuerungen des simulierten Luftfahrzeugs ändert sich die Lage des Blickpunktes relativ zur Datenbank mit der Zeit. Der Simulator erzeugt zu jedem Zeitpunkt eine Ausgabe, die die Blickpunktposition in Welt-Raum-Koordinaten, das heißt im Koordinatensystem der Datenbank, und die Blickrichtung anzeigt, das heißt einen Vektor, der vom Blickpunkt des/der Piloten/in durch den Mittelpunkt des Sichtfensters gezogen wird. Die Datenbank speichert Daten, die die Position und die Orientierung einer großen Zahl von Merkmalen kennzeichnen, die eventuell einen Beitrag zum Endbild leisten. Der Bilderzeuger berechnet, welches der Merkmale beim gegebenen Blickpunkt sichtbar ist, die Lage der Begrenzungen der Merkmale relativ zum Sichtfenster und die Attribute, wie zum Beispiel Farbe und Stärke, der sichtbaren Merkmale. Die Verdeckung eines Merkmals durch ein anderes muß berücksichtigt werden, und bei Systemen hoher Qualität muß ferner die Wirkung eines durchscheinenden Merkmals, das ein anderes verdeckt, berücksichtigt werden.
  • Der Inhalt der Datenbank wird dazu verwendet, die Farbund Stärkeinformationen für jedes Pixel des Bildes abzuleiten, das auf einem Bildschirm gezeigt werden soll, der sich vor dem/r Simulatorpiloten/in befindet. Der Mittelpunkt jedes Pixels liegt auf einer eindeutigen vorgegebenen imaginären Blicklinie, die sich vom Blickpunkt zum Bildschirm erstreckt und sich in Gedanken durch den Bildschirm bis auf die Oberfläche des in der Datenbank definierten Modells erstreckt. Das bedeutet, daß das Welt-Raum-Koordinatensystem der Datenbank unter Verwendung der Blickpunkt-Koordinaten in ein Koordinatensystem transformiert werden muß, dessen Ursprung der Blickpunkt ist, das heißt in ein Blickpunkt-Raum- Koordinatensystem, und die Informationen müssen dann vom Blickpunkt-Raum in ein Bildschirm-Raum-Koordinatensystem transformiert werden. Das Bildschirm-Raum-Koordinatensystem ist zweidimensional, und sein Ursprung liegt in der Mitte des Anzeigebildschirms. Diese Transformationen machen es möglich, diejenigen Oberflächenbereiche der modellierten Merkmale zu bestimmen, die die Farbe und die Stärke jedes Pixels (dessen Bildschirm-Raum-Koordinaten bekannt sind) bestimmen. Wenn die Merkmale, die einen Beitrag zu einem bestimmten Pixel leisten, identifiziert sind, können die Farbe, die Stärke und andere Attribute dieser Merkmale aus der Datenbank erhalten werden, und es können geeignete Berechnungen vorgenommen werden, um die endgültig gezeigte Farbe und Stärke des Pixels zu bestimmen.
  • Wenn ein Bild hoher Qualität erzielt werden soll, dann müssen die endgültige Farbe und Stärke des Pixels auf einer Anzal von Stichproben der beitragenden Merkmale beruhen, die an Stichprobenpunkten genommen werden, die über jedes Pixel verteilt sind. Für jedes Merkmal, das einen Beitrag zu einem Bild leistet, muß festgestellt werden, ob dieses Merkmal jeden Punkt im Bildschirm-Raum überlappt, der einem Stichprobenpunkt entspricht.
  • Bei den meisten bekannten Rechner-Bilderzeuger-Systemen ist das Welt-Raum-Modell als eine Reihe polygonaler Merkmale definiert. Bei einigen Systemen können ferner Lichtpunktmerkmale dargestellt werden. Bei polygonalen Merkmalen wird jedes Polygon in der Datenbank durch die Welt- Raum-Koordinaten zumindest seiner Scheitelpunkte beschrieben, und diese geometrischen Attribute müssen in Bildschirm-Raum- Koordinaten transformiert werden, um der Lage und der Ausrichtung des Blickpunktes Rechnung zu tragen. Das bedeutet eine anfängliche Transformation vom Welt-Raum in den Blickpunkt-Raum, gefolgt von einer Transformation vom Blickpunkt-Raum in den Bildschirm-Raum. Die Transformationen sind rechnerisch aufwendige Vorgänge, ermöglichen aber die Darstellung realistischer Bilder. Ein Lichtpunktmerkmal kann beispielsweise in der Datenbank durch eine Position (die Koordinaten des Lichtpunktmittelpunktes) im Welt-Raum beschrieben werden. Die Position wird in den Bildschirm-Raum transformiert, und das Merkmal kann dann auf einem kreisformigen Bereich des Bildschirms dargestellt werden, dessen Mittelpunkt die transformierte Position ist und dessen Radius eine Funktion der Entfernung ist, d.h. der Distanz vom Blickpunkt.
  • Es sind Rechner-Bilderzeuger-Systeme bekannt, die die visuellen Effekte von Landelichtern simulieren können. Das US- Patent Nr. 4.511.337 beschreibt zum Beispiel ein System, das dazu in der Lage ist, die Beleuchtung des Bodens zu simulieren, die aus Licht resultiert, das von einem Luftfahrzeug getragen wird, einschließlich Änderungen der Lage, der Form und der Größe der beleuchteten Fläche mit Änderungen der Höhe und der Fluglage des Luftfahrzeugs. Dieses bekannte System zeigt im wesentlichen einen Kegelschnitt und kann akzeptable Ergebnisse erzielen, wenn es die Beleuchtung einer ebenen Bodenoberfläche, wie zum Beispiel einer Startbzw. Landebahn, simuliert. Wie auch bei anderen Ansätzen zur Simulierung von Landelichtern kann dieses bekannte System jedoch keine akzeptablen Ergebnisse erzielen, wenn die Landelichter etwas anderes als die Bodenebene beleuchten sollen. Wenn sich beispielsweise ein Luftfahrzeug einem Terminalgebäude nähert, dann folgt die 'beleuchtete Fläche' nicht den Wänden des Gebäudes, sondern 'beleuchtet' die Bodenebene im Gebäude. Auf diese Weise gehen auffällige visuelle Signale verloren, bzw. es erscheinen krasse Fehler in der simulierten Szenerie.
  • Ein anderes Problem, das mit der Simulierung von Luftfahrzeugslichtern und von Lichtern anderer Fahrzeuge verbunden ist, ist das der Nebelbeleuchtung. Bei einigen Rechner-Bilderzeuger-Systemen ist es möglich, die Nebeleffekte zu simulieren, die in einer Verschlechterung der Sichtbarkeit durch den Nebel betrachteter Merkmale des Modells bestehen, indem die Farbe und die Stärke des Merkmals gemäß der Farbe und der Dichte des Nebels und der Entfernung zwischen dem/der Beobachter/in und dem Merkmal moduliert werden. Im Fall von Fahrzeuglichtern resultiert jedoch eine großer Teil der sichtbaren Effekte der Lichter aus einer Streuung von Licht zurück an den/die Beobachter/in im Fahrzeug.
  • Es ist eine Aufgabe der vorliegenden Erfindung, die oben skizzierten Probleme zu umgehen bzw. zu mildern.
  • Gemäß der vorliegenden Erfindung ist ein Verfahren zum Simulieren der Beleuchtungseffekte einer an einem Fahrzeug angebrachten Lichtquelle auf ein Modell in einem Bild vorgesehen, das auf einem Bildschirm gezeigt wird, wobei das Bild das Erscheinungsbild des Modells, das in einer Datenbank in Welt-Raum-Koordinaten definiert ist, von einer Blickpunktposition im Welt-Raum aus darstellen soll, wobei das Modell mit Bezug auf eine Mehrzahl von Merkmalen definiert ist, die jeweils vorgegebene Attribute aufweisen, und wobei die auf einem Fahrzeug angebrachte Lichtquelle mit Bezug auf einen Ursprung und eine Richtung im Blickpunkt-Raum definiert ist, dadurch gekennzeichnet, daß
  • a. für jedes Merkmal, das potentiell einen Beitrag zum Bild leistet, die Winkelposition eines Punktes auf dem Merkmal relativ zur Lichtquelle als der Winkel zwischen der Lichtquellenrichtung und einer Linie, die von der Lichtquelle zu diesem Punkt gezogen wird, berechnet wird,
  • b. eine Beleuchtungsstärke für diesen Punkt unter Bezugnahme auf den berechneten Winkel bestimmt wird,
  • c. die Beleuchtungsstärke abhängig von der Entfernung vom Blickpunkt zu diesem Punkt verringert wird, um eine resultierende Stärke bereitzustellen, und
  • d. die Attribute des Merkmals an diesem Punkt abhängig von der resultierenden Stärke moduliert werden.
  • Die Erfindung stellt ferner einen Simulator der Beleuchtungseffekte einer an einem Fahrzeug angebrachten Lichtquelle auf ein Modell in einem Bild bereit, das auf einem Bildschirm gezeigt wird, wobei das Bild das Erscheinungsbild des Modells, das in einer Datenbank in Welt-Raum-Koordinaten definiert ist, von einer Blickpunktposition im Welt-Raum aus darstellen soll, wobei das Modell mit Bezug auf eine Mehrzahl von Merkmalen definiert ist, die jeweils vorgegebene Attribute aufweisen, und wobei die auf einem Fahrzeug angebrachte Lichtquelle mit Bezug auf einen Ursprung und eine Richtung im Blickpunkt-Raum definiert ist, gekennzeichnet durch
  • a. Mittel, um für jedes Merkmal, das potentiell einen Beitrag zum Bild leistet, die Winkelposition eines Punktes auf dem Merkmal relativ zur Lichtquelle als der Winkel zwischen der Lichtquellenrichtung und einer Linie, die von der Lichtquelle zu diesem Punkt gezogen wird, zu berechnen,
  • b. Mittel, um eine Beleuchtungsstärke für diesen Punkt unter Bezugnahme auf den berechneten Winkel zu bestimmen,
  • c. Mittel, um die Beleuchtungsstärke abhängig von der Entfernung vom Blickpunkt zu diesem Punkt zu verringern, um eine resultierende Stärke bereitzustellen, und
  • d. Mittel, um die Attribute des Merkmals an diesem Punkt abhängig von der resultierenden Stärke zu modulieren.
  • Der Bildschirm ist bevorzugt in eine Mehrzahl von Anzeigezellen unterteilt, die jeweils eine Pixelanordnung überdecken, der genannte Winkel wird an jeder Anzeigezellenecke berechnet, die resultierende Beleuchtungsstrke wird an jeder Anzeigezellenecke bestimmt und die Beleuchtungsstärke an jedem Pixel wird durch Interpolation aus den resultierenden Beleuchtungsstärken an den jeweiligen Anzeigezellenecken bestimmt.
  • Der Kosinus des genannten Winkels kann aus dem Skalarprodukt eines Vektors, der die Richtung der Lichtquelle repräsentiert, mit einem Vektor, der von der Lichtquelle auf den genannten Punkt auf dem Merkmal gerichtet ist, berechnet werden.
  • Das Quadrat des Kosinus des genannten Winkels wird bevorzugt wie folgt berechnet:
  • (lx, ly, lz) die Komponenten des Vektors sind, der die Richtung der Lichtquelle repräsentiert,
  • (xs, ys) die Bildschirm-Raum-Koordinaten des genannten Punktes sind,
  • (xo, yo, zo) die Blickpunkt-Raum-Koordinaten der Lichtquelle sind,
  • (xp, yp, zp) die Blickpunkt-Raum-Koordinaten des genannten Punktes sind,
  • sekf ein Schrägentfernungs-Korrekturfaktor ist,
  • Lo = xolx + yoly + zolz
  • Ld = xo² + yo² + zo²
  • und dx und dy Funktionen des Halbwinkels der Anzeige sind. Für jedes Einzelbild werden bevorzugt Beleuchtungsstärken für jeden einer vorgegebenen Anzahl von Stichprobenwinkeln berechnet, die berechneten Werte werden in einer Nachschlagetabelle gespeichert, und die gespeicherten Werte werden vom berechneten Winkel adressiert, um die entsprechenden Beleuchtungsstärken abzuleiten.
  • Bevorzugt werden Entfernungsdämpfungsfaktoren, die eine Funktion des Quadrats der Entfernung sind, für die Lichtquelle berechnet und in einer Nachschlagetabelle gespeichert, und die gespeicherten Werte werden vom Quadrat der Entfernung adressiert, um den entsprechenden Entfernungsdämpfungsfaktor abzuleiten.
  • Das obige Verfahren kann dafür ausgelegt sein, im Bild die Beleuchtungseffekte der auf einem Fahrzeug angebrachten Lichtquelle auf die Atmosphäre zu zeigen, wobei
  • a. ein dreieckiges Strahlenpolygon mit einer Spitze im Ursprung der Lichtquelle definiert wird, wobei das Strahlenpolygon in einer Ebene liegt, die eine Achse durch den Ursprung parallel zur genannten Richtung umfaßt, normal zu einer vom Blickpunkt aus gezogenen und die Achse schneidenden Linie liegt und eine definierte Länge und einen definierten Halbwinkel vom genannten einen Scheitelpunkt aus aufweist,
  • b. ein zweiter und ein dritter Scheitelpunkt des Strahlenpolygons berechnet werden,
  • c. die Beleuchtungsstärke des Strahlenpolygons abhängig von der Entfernung von der Lichtquelle berechnet wird und
  • d. das Strahlenpolygon auf dem Bildschirm als ein Merkmal des Modells gemäß seinen berechneten Scheitelpunkten und seiner berechneten Stärke gezeigt wird.
  • Für das Strahlenpolygon wird bevorzugt aus den Koordinaten des Ursprungs der Lichtquelle und den Komponenten eines Vektors, der der genannten Achse entspricht, eine Ebenengleichung Ax+By+Cz+D=0 berechnet, und der zweite und der dritte Scheitelpunkt werden aus der Ebenengleichung und der genannten definierten Länge und dem genannten definierten Halbwinkel berechnet.
  • Ähnlich kann der Simulator auch dafur eingesetzt werden, im Bild die Beleuchtungseffekte der auf einem Fahrzeug angebrachten Lichtquelle auf die Atmosphäre zu zeigen, wobei der Simulator folgendes umfaßt:
  • a. Mittel, um ein dreieckiges Strahlenpolygon mit einer Spitze im Ursprung der Lichtquelle zu definieren, wobei das Strahlenpolygon in einer Ebene liegt, die mit einer Achse durch den Ursprung parallel zur genannten Richtung zusammenfällt, normal zu einer vom Blickpunkt aus gezogenen und die Achse schneidenden Linie liegt und eine definierte Länge und einen definierten Halbwinkel vom genannten einen Scheitelpunkt aus aufweist,
  • b. Mittel, um einen zweiten und einen dritten Scheitelpunkt des Strahlenpolygons zu berechnen,
  • c. Mittel, um die Beleuchtungsstärke des Strahlenpolygons abhängig von der Entfernung von der Lichtquelle zu berechnen, und
  • d. Mittel, um das Strahlenpolygon auf dem Bildschirm als ein Merkmal des Modells gemäß seinen berechneten Scheitelpunkten und seiner berechneten Stärke zu zeigen.
  • Es wird nun beispielhaft und mit Bezug auf die beiliegenden Zeichnungen ein Ausführungsbeispiel der vorliegenden Erfindung beschrieben. In den Zeichnungen zeigen
  • Fig. 1 eine schematische Darstellung der grundlegenden Konfiguration eines Rechner-Bilderzeuger-Systems gemäß der vorliegenden Erfindung;
  • Fig. 2 eine schematische Darstellung eines Transformationswerks, das zur Verwendung in einem System des allgemein in Fig. 1 dargestellten Typs geeignet ist;
  • Fig. 3 die gegenseitige Beziehung zwischen verschiedenen Teilflächen des Bildschirm-Raums beim Ausführungsbeispiel der vorliegenden Erfindung;
  • Fig. 4 eine schematische Darstellung grundlegender Komponenten des Bildaufbereitungswerks, das skizzenhaft mit Bezug auf Fig. 1 beschrieben wird;
  • Fig. 5 schematisch die Geometrie der Landelichtsimulierung gemäß der vorliegenden Erfindung;
  • Fig. 6 die Geometrie der Nebelbeleuchtung durch Landelichter gemäß der vorliegenden Erfindung; und
  • Fig. 7 die Struktur eines Landelichtprozessors gemäß der vorliegenden Erfindung.
  • Es wird zunächst auf Fig. 1 Bezug genommen, in der die grundlegenden Funktionskomponenten eines Ausführungsbeispiels der vorliegenden Erfindung dargestellt sind, das zur Verwendung in einem Flugsimulator ausgelegt ist. Der Simulator umfaßt einen Hauptrechner 1, der Ausgaben bereitstellt, die der Position und der Fluglage des simulierten Luftfahrzeugs relativ zu einem Welt-Raum-Modell der Erdoberfläche entsprechen. Für eine/n Beobachter/in im simulierten Luftfahrzeug soll ein Bild dargestellt werden, das das Erscheinungsbild der Modelloberfläche repräsentiert. Beim beschriebenen Ausführungsbeispiel wird das Bild auf einen Rückproschirm projiziert. Der/die Beobachter/in sieht die Reflexion des Rückproschirms in einem großen sphäroidischen Spiegel. Es versteht sich jedoch, daß alternative Anzeigesysteme verwendet werden können.
  • Ein Systemmanager (SM) 2 empfängt die Ausgaben des Hauptrechners 1, die die Position und die Fluglage des Luftfahrzeugs beschreiben, und lädt von einer Datenbank Daten hinunter, die das Modell beschreiben und denjenigen Teilen des Modells entsprechen, die in Anbetracht der Position und der Fluglage des simulierten Luftfahrzeugs vom Blickpunkt des/der Beobachters/in aus potentiell sichtbar sind. Das Bild wird als eine Mehrzahl von Raster-Abtastzeilen projiziert. Kalligraphische Lichtpunkte könnten, unter Verwendung üblicher Techniken, dem Bildraster überlagert werden.
  • Die das Modell beschreibenden Daten werden während der Modellerstellung vorgegeben, beschreiben aber Merkmale der Modeuszenene, zum Beispiel Start- und Landebahnen, Gebäude und Wiesen, in Ausdrücken, die sich auf einen Satz von Welt- Raum-Koordinaten mit vorgegebenem Ursprung beziehen. Das Modell kann eine Reihe verschiedener Merkmalstypen umfassen, zum Beispiel geradseitige polygonale Merkmale und kreisförmige Lichtpunkte. Die das Modell beschreibenden Daten sind hierarchisch so geordnet, daß die meisten individuellen Merkmale des Modells mit Bezug auf Objekte definiert sind, von denen sie ein Bestandteil sind, und diese Objekte sind ihrerseits mit Bezug auf andere Objekte im Modell definiert. Die Modellwelt wird somit im allgemeinen ein Merkmal im 'Objektraum' definieren, das heißt mit Bezug auf ein Koordinatensystem, dessen Ursprung und dessen Achsen auf ein Objekt, wie zum Beispiel ein Gebäude, bezogen sind. Das Koordinatensystem dieses Objekts ist dann entweder direkt oder über ein oder mehrere weitere Objekte auf Welt-Raum- Koordinaten bezogen. Der Ausdruck 'Welt-Raum-Koordinaten' wird hierin so verwendet, daß er sowohl einen direkten Bezug auf das Koordinatensystem der Hauptdatenbank als auch einen indirekten Bezug auf das Koordinatensystem der Hauptdatenbank über einen oder mehrere 'Objekträume' umfaßt.
  • Die herausgenommenen modellbeschreibenden Daten werden zu einem Transformationswerk (TW) 3 geführt, das zwei Hauptfunktionen erfüllt, nämlich eine geometrische Transformation der Merkmalsdaten des Modells aus der Datenbank bzw. aus dem Welt-Raum-Koordinatensystem in das System der Beobachter/innen bzw. in das Blickpunkt-Koordinatensystem und eine perspektivische Transformation vom 3-D-Blickpunkt- Koordinatensystem in ein 2-D-Bildschirm-Raum- Koordinatensystem. Die zur Erzielung solcher Transformationen verwendeten Techniken sind wohlbekannt und werden dementsprechend hier nicht im Detail erläutert.
  • Das TW 3 liefert einen Strom modellbeschreibender Daten in Bildschirmkoordinaten an ein Bildaufbereitungswerk (BW) 4. Das BW 4 führt eine Reihe von Funktionen aus, wobei es geometrische Attributdaten (z.B. Größe und Position) von Merkmalen des Modells und nichtgeometrische Attributdaten von Merkmalen des Modells (zum Beispiel Farbe, Transparenz) verwendet, die vom TW 3 empfangen werden, um für jedes Pixel des darzustellenden Bildes eine endgültige Farbe zu erzeugen. Daten, die die nichtgeometrischen Attributdaten repräsentieren, werden in einen Bildspeicher im BW 4 geladen, wobei der Bildspeicher eine Speicheradresse in bezug auf jedes Pixel in der endgültigen Darstellung aufweist. Der Inhalt des Bildspeichers wird zur Anzeigeeinrichtung 5 hinuntergeladen, die das endgültige Bild produziert. Das System weist somit vier Hauptpipelinestufen auf, so daß, während ein Einzelbild dargestellt wird, das als nächstes darzustellende Einzelbild im BW 4 aufbereitet wird, das als übernächstes darzustellende Einzelbild im TW 3 verarbeitet wird, und das als überübernächstes darzustellende Einzelbild im SM 2 verarbeitet wird. Jede Stufe ist von der bzw. von jeder angrenzenden Stufe durch einen doppelt gepufferten Speicher getrennt. Ein Einzelbild-Austauschsignal wird erzeugt, um alle doppelt gepufferten Speicher zu einem Austausch im Gleichtakt zu veranlassen. Daten, die ein bestimmtes Einzelbild betreffen, werden somit mittels des Einzelbild-Austauschsignals effektiv durch die Pipeline "getaktet".
  • Fig. 2 ist eine detailliertere Darstellung des TW 3 aus Fig. 1. Das TW verarbeitet Daten, die zuvor aus dem SM 2 in eine kanalaktive Datenbank (KADB) 6 ausgelesen wurden. Der Inhalt der KADB 6 entspricht der Gesamtheit der Daten innerhalb der Hauptdatenbank, die sich vom Blickpunkt aus in einem potentiell sichtbaren Bereich befinden. Die KADB 6 umfaßt einen Speicher 7 und eine Steuerlogik 8, die die ausgelesenen Daten vom Speicher zu einer Anordnung von Objektprozessoren 9 steuert, die ihrerseits Steuereingaben an die Steuerlogik 8 liefert. Der Speicher 7 enthält die gesamte aktive Datenbank, und die Steuerlogik 8 wählt Objektdaten zur Verarbeitung aus. Die Objektprozessoranordnung 9 umfaßt individuelle Objektprozessoren 10, die in Gruppen auf jeweiligen Platinen 11 angeordnet sind. Diese Prozessoren bilden das Hauptrechenelement des TW 3.
  • Eine gemeinsame Ausgabe 12 der Objektprozessoranordnung 9 wird an einen Abtastumsetzer 13 geliefert, der eine Logikeinheit 14 umfaßt, die eine Ausgabe an einen Abtastumsetzerspeicher 15 liefert. Ein Attributspeicher 16 empfängt Eingaben über den Abtastumsetzer 13. Die Speicher 15 und 16 liefern die Ausgaben des TW 3 an das Bildaufbereitungswerk BW 4.
  • Die Objektprozessoren 10 erfüllen verschiedene Funktionen, unter anderem die Steuerung der Verteilung von Daten an die Objektprozessoren auf effiziente Weise, das Ausführen einer Entfernungsaussortierung, um alle Objekte auszuschließen, die sich in zu großer Entfernung befinden, um vom Blickpunkt aus sichtbar zu sein, und das Ausführen einer Sichtfeldaussortierung, um alle Objekte auszuschließen, die sich ganz außerhalb des Sichtfeldes befinden, das durch die Lage des Sichtfensters bzw. des Bildschirms relativ zum Blickpunkt gegeben ist. Für alle Merkmale, die nicht im Zuge dieser Verarbeitung aussortiert werden, müssen die geometrischen Attribute verarbeitet werden. Diese Verarbeitung umfaßt eine Reihe grundlegender Vorgänge, wie zum Beispiel Rückseitenentfernung (die Aussortierung aller Merkmale, die vom Blickpunkt aus nicht gesehen werden können, da sie vom Blickpunkt abgewandt sind), Ebenengleichungs- Attributberechnung (unter Verwendung der Koeffizienten der Ebene jedes potentiell sichtbaren Merkmals im Blickpunkt-Raum) und Sichtfeldaussortierung (die Aussortierung aller Merkmale, die ganz außerhalb des Sichtfeldes liegen, das durch das Sichtfenster repräsentiert wird). Diese Vorgänge sind für die vorliegende Erfindung nicht direkt relevant und werden daher hierin nicht im einzelnen beschrieben. Das Transformationswerk transformiert allerdings Daten, die zur Simulierung von Landelichtern gemäß der vorliegenden Erfindung benötigt werden, und diese Verarbeitung wird untenstehend ausführlich beschrieben.
  • Unterteilung des Anzeigebildschirms
  • Das dargestellte Bild setzt sich aus einer regelmäßigen Anordnung von Pixeln zusammen, die sich nicht überlappen und die zusammen den gesamten Bildschirm überdecken. Jedes Pixel wird mittels der Raster-Abtastanzeigeeinrichtung als ein Bereich gleichförmiger Farbe und Stärke projiziert. Figur 3 enthält vier Darstellungen verschiedener Unterteilungen des Bildschirms, wobei die am weitesten links gelegene Darstellung zu einem Viertel des Maßstabs der drei anderen Darstellungen gezeichnet ist.
  • In Figur 3 entsprechen die schraffierten Bereiche, die durch die Bezugsziffer 17 gekennzeichnet sind, jeweils einem Pixel. Der Bildschirm ist in Teilflächen bzw. in Zellen unterteilt, die jeweils eine jeweilige rechtwinklige Pixelanordnung überdecken, im dargestellten Fall eine viermal-vier-Anordnung. Ziffer 18 in Figur 3 weist auf die Begrenzung einer Zelle. Aneinandergrenzende Zellen überlappen sich nicht. Jeder Zelle ist eine Pseudozelle überlagert, die die jeweilige Zelle und eine Begrenzung von einem halben Pixel um diese Zelle herum überdeckt. Die gestrichelten Linien 19 in Figur 3 entsprechen einer Pseudozellenbegrenzung. Aneinandergrenzende Pseudozellen überlappen sich also. Jede Pseudozelle ist in eine regelmäßige Anordnung aneinanderstoßender Pseudopixel unterteilt, zum Beispiel in eine vier-mal-vier-Anordnung von Pseudopixeln. Die schraffierten Bereiche 20 in Fig. 3 entsprechen jeweils einem Pseudopixel. Den Pseudozellen sind Superzellen überlagert, die jeweils eine rechtwinklige Anordnung von Pseudozellen überdecken, im dargestellten Fall zum Beispiel eine vier-malvier-Anordnung von Pseudozellen. Aneinandergrenzende Superzellen überlappen sich also. Die gestrichelte Linie 21 deutet eine Superzellenbegrenzung an und der schraffierte Bereich 22 eine Pseudozelle innerhalb dieser Superzelle. Jede Superzelle überdeckt somit sechzehn Pseudozellen, und diese sechzehn Pseudozellen überdecken zusammen sechzehn Zellen und eine Begrenzung, die einen halben Pixel breit ist, um den Rand dieser sechzehn Zellen. Zur Erzielung eines Konturenausgleichs ist es erforderlich, daß aneinandergrenzende Superzellen, aneinandergrenzende Pseudozellen und aneinandergrenzende Pseudopixel sich überlappen.
  • Im dargestellten Fall einer Zelle mit vier mal vier Pixeln und einer Superzelle mit vier mal vier Pseudozellen und unter der Annahme eines Anzeigebereichs mit 1024 mal 1024 Pixeln ergeben sich 64 x 64 Superzellen und 256 x 256 Pseudozellen.
  • Abtastumsetzer
  • Für jedes von den Objektprozessoren an den Abtastumsetzer (Fig. 2) gelieferte Merkmal identifiziert der Abtastumsetzer alle Superzellen, die zumindest teilweise vom Merkmal überlappt werden. Der Abtastumsetzer weist jedem Merkmal eine Identifizierung (ID) zu, lokalisiert die Superzellen, auf die das Merkmal wirkt, und leitet die Merkmals-ID an den Abtastumsetzerspeicher 15 (der hierin im folgenden als Superzellenspeicher bezeichnet wird).
  • Das Bildaufbereitungswerk
  • Das BW 4 aus Figur 1 wird nun skizzenhaft mit Bezug auf Figur 4 beschrieben. Figur 4 zeigt den Superzellenspeicher 15 und den Attributspeicher 16 aus Figur 2. Es sei daran erinnert, daß sowohl der Superzellenspeicher als auch der Attributspeicher doppelt gepuffert sind, wobei der Inhalt der Speicher ansprechend auf den Empfang eines Signals ausgelesen wird, das den Beginn eines Einzelbilds signalisiert. Der Inhalt des Superzellenspeichers wird Superzelle für Superzelle am Ausgang 23 in einen Vorsortierer 24 ausgelesen, der ferner am Ausgang 25 geometrische Attributdaten aus dem Attributspeicher 16 empfängt. Der Vorsortierer und der Attributspeicher liefern jeweilige Ausgaben 26 und 27 an ein Spezialeffektmodul 28, einen Farbmischer 29 und einen Nachsortierer 30. Der Nachsortierer 30 führt einem Bildspeicher 31 Raster-Bilddaten zu, und eine Ausgabe 32 vom Bildspeicher wird an die Anzeigeeinrichtung (die Anzeigeeinrichtung 5 aus Figur 1) geliefert.
  • Die Funktion des Vorsortierers 24 besteht darin, jede Superzelle in eine Reihe von Pseudozellen zu unterteilen, die effektive Tiefe (Entfernung vom Blickpunkt) jedes Merkmals an jeder Pseudozellenecke zu berechnen, jedes Merkmal zu entdecken, das undurchsichtig ist und eine Pseudozelle vollständig überdeckt, und alle Merkmale von einer Berücksichtigung in bezug auf eine bestimmte Pseudozelle auszuschließen, wenn diese Merkmale hinter einem undurchsichtigen Merkmal liegen, das die Pseudozelle ganz überdeckt. Bei einer gegebenen Pseudozellengröße von vier mal vier Anzeigepixeln zuzüglich einer Begrenzung eines halben Pixels wird somit jede Superzellen-ID-Liste nacheinander für jede der sechzehn Pseudozellen berücksichtigt.
  • Die im Superzellenspeicher 15 angesammelten IDs werden Stapel für Stapel zum Vorsortierer 24 hinuntergeladen. Entsprechende Attribute werden gleichzeitig vom Attributspeicher 16 zum Vorsortierer hinuntergeladen. Der Vorsortierer empfängt also den Inhalt eines Stapels, der einer Superzelle entspricht, und verarbeitet die durch den Stapelinhalt identifizierten Merkmale, bevor der nächste Stapel hinuntergeladen wird.
  • Wenn der Vorsortierer anzeigt, daß ein Merkmal auf die Pseudozelle wirkt (sie zumindest teilweise überdeckt), die gerade verarbeitet wird, dann wird ein "Fragment"-Datenpaket erzeugt und auf den fragmenttragenden Ausgabebus 26 angewandt. Dieses Datenpaket umfaßt lediglich die Bildschirm-Raum- Koordinaten der vier Ecken der betreffenden Pseudozelle und die ID des wirkenden Merkmals. Die Fragmente von so identifizierten Merkmalen werden dann im Spezialeffektmodul 28, im Farbmischer 29 und im Nachsortierer 30 verarbeitet.
  • Die Einheiten 28 bis 30 arbeiten auf der Grundlage von Pseudopixeln. Im dargestellten Fall überdecken sechzehn Pseudopixel eine jeweilige Pseudozelle ganz (aber erstrecken sich nicht darüber hinaus). Die Ecken der Pseudopixel werden von den Ecken der betreffenden Pseudozelle interpoliert, die vom Fragmentbus getragen werden. Wie untenstehend ausführlicher beschrieben wird, erzeugt das Spezialeffektmodul 28 für jedes Pseudopixel derjenigen Pseudozelle, die gerade verarbeitet wird, eine Ausgabe, die zur Simulierung von Landelichtern geeignet ist. Das Spezialeffektmodul kann ferner Ausgaben erzeugen, die für beliebige andere Spezialeffekte geeignet sind, die von den Attributen des Merkmals, das gerade verarbeitet wird, verlangt werden, wie zum Beispiel Beschaffenheitseffekte oder Nebeleffekte. Die Spezialeffektausgaben werden auf den Farbmischer 29 angewandt, wo weitere Effekte, wie zum Beispiel die Umgebungsbeleuchtung, verarbeitet werden, wobei der Farbmischer für jedes Pseudopixel eine RGBT-Ausgabe (rot, grün, blau, Transparenz) an den Nachsortierer 30 liefert. Der Nachsortierer liefert eine Ausgabe an den Bildspeicher 31. Der Bildspeicher liefert die Ausgabe 32 an die Raster-Anzeigeeinrichtung 5 (Figur 1).
  • Die Funktion des Nachsortierers 30 ist es, die Effekte von Oberflächen zu entscheiden, die andere Oberflächen verstecken bzw. teilweise verstecken. Er leistet dies, indem er die Wirkung von Merkmalen auf eine Anordnung von Stichprobenpunkten beurteilt, wobei er die Effekte solcher Wirkungen summiert und gewichtet und für jedes Anzeigepixel eine endgültige RGB-Ausgabe an den Bildspeicher liefert. Jedes vom Nachsortierer empfangene Pseudopixelfragment überdeckt eine jeweilige Anordnung von Stichprobenpunkten, die über die Pixelanordnung verteilt sind, die jeder Pseudozelle entspricht. Typischerweise sind zum Beispiel zweihundert Stichprobenpunkte vorhanden, d.h. acht pro Pixel. (Es sei daran erinnert, daß beim beschriebenen Beispiel jede Pseudozelle eine vier-mal-vier-Pixelanordnung zuzüglich einer Begrenzung der Breite eines halben Pixels überdeckt). Die Lage jedes Stichprobenpunktes relativ zu der für jede Pseudozelle definierten vier-mal-vier-Pseudopixelanordnung ist bekannt, und daher ist es erforderlich, für jeden Stichprobenpunkt zu entscheiden, ob ein Merkmal auf diesen Punkt wirkt oder nicht, und nur dann die RGBT-Eingaben vom entsprechenden Pseudopixel beim Nachsortierer zu summieren, wenn eine Wirkung entdeckt wird.
  • Jeder Stichprobenpunkt wird u.U. von einer großen Anzahl von Merkmalen überlappt, und es ist erforderlich, diese Merkmale der Tiefe nach zu sortieren, um diejenigen auszuschließen, die an diesem Stichprobenpunkt ganz durch näher (am Blickpunkt) gelegene undurchsichtige Merkmale verdeckt werden. Zu diesem Zweck wird an jedem Stichprobenpunkt die Entfernung jedes Merkmals (vom Blickpunkt) berechnet. Der RGBT-Wert und die Tiefe des ersten Merkmals, das auf einen Stichprobenpunkt wirkt, werden in einen jeweiligen Speicher geladen. Nachfolgende Merkmale werden bezüglich ihrer Tiefe mit dem ersten gespeicherten Merkmal verglichen, wobei alle Merkmale bis auf das augenblicklich nächstgelegene undurchsichtige Merkmal sowie durchscheinende Merkmale, die näher liegen als das nächstgelegene undurchsichtige Merkmal, aus dem Speicher ausgeschlossen werden (bzw. nicht eingelassen werden). Wenn alle Merkmale, die potentiell für eine Zelle wesentlich sind, auf diese Weise verarbeitet worden sind, werden die Gesamteffekte aller in jedem Stapel identifizierter Merkmale berechnet, um für jeden Stichprobenpunkt eine endgültige RGB- Ausgabe zu erzeugen. Diese Ausgaben werden dann gewichtet und summiert, um für jedes Pixel einen einzigen RGB-Wert zu erzeugen. Jedes Pixel spricht auf die Beiträge von den acht Stichprobenpunkten innerhalb seiner eigenen Begrenzung und von Stichprobenpunkten innerhalb einer darum verlaufenden Grenze der Breite eines halben Pixels an, d.h. auf zweiunddreißig Stichprobenpunkte insgesamt (1x8 + 4x4 + 4x2). Die Gesamtfläche, die die zweiunddreißig Stichprobenpunkte überdeckt, ist daher gleich der Fläche einer zwei-mal-zwei- Pixelanordnung, ist aber um den Mittelpunkt eines Anzeigepixels zentriert.
  • Der Attributspeicher 16, der Superzellenspeicher 15 und der Bildspeicher 53 sind alle doppelt gepuffert, um die Grenzen zwischen getrennten Stufen im Pipelinesystem zu definieren.
  • Das oben beschriebene und skizzierte System ist zwar von einem Typ, auf den die vorliegende Erfindung angewandt werden kann, es versteht sich jedoch von selbst, daß die vorliegende Erfindung auch bei Systemen mit einer anderen allgemeinen Struktur angewandt werden kann. Beim oben beschriebenen System wird die vorliegende Erfindung innerhalb des Spezialeffektmoduls und des Farbmischers umgesetzt, und dementsprechend werden nun die Funktionsweisen dieser Komponenten ausführlicher beschrieben.
  • Es wird nun auf Fig. 5 Bezug genommen, in der die grundlegende Geometrie der Landelichtsimulierung bei einem Ausführungsbeispiel der vorliegenden Erfindung gezeigt wird. Einem/r Beobachter/in am Blickpunkt E wird ein Bild präsentiert, das auf einen Bildschirm 33 projiziert wird, wobei das Bild eine Szenerie darstellen soll, die sich aus einer Anzahl von Merkmalen zusammensetzt, die ein Polygon 34 umfassen, das teilweise von einem Strahl beleuchtet wird, der von einem Landelicht kommt. Das Landelicht wirft von der Quelle O einen kegelförmigen Lichtstrahl, wobei die Mittelachse des Strahls mit der Hauptachse des Kegels zusammenfällt. Die Strahlachse wird durch den Vektor 1 dargestellt.
  • Für einen/eine Beobachter/in bei O wäre die augenscheinliche Form der Ausleuchtzone, die durch den Lichtstrahl gebildet wird, wenn er eine beliebige Oberfläche beleuchtet, kreisförmig. Fur einen/eine Beobachter/in bei E hängt die augenscheinliche Form vom Winkel zwischen der Mittelachse des Strahls und der Normalen jeder Oberfläche ab, auf die er u.U. trifft. Für einen/eine Beobachter/in bei E würde es scheinen, daß ein Strahl, der den Fuß einer Ecke eines Gebäudes beleuchtet, eine Form erzeugt, die sich aus drei Teilkegelschnitten zusammensetzt, einer für die Bodenebene und jeweils einer für die beiden Wände, die sich in der Ecke treffen.
  • Im dargestellten Fall wird ein Teil des Polygons 34 durch den Strahl beleuchtet, und ein Teil wird nicht beleuchtet. Damit ein Punkt P auf dem Polygon durch den Strahl beleuchtet wird, muß der Winkel θ zwischen der Strahlachse und einer Geraden, die vom Lichtquellenursprung gezogen wird, kleiner sein als der Halbwinkel des Strahls. Die Beleuchtungsstärke eines Punktes innerhalb des Strahls hängt ebenfalls von θ ab, da das Stärkeprofil von Lichtstrahlen im allgemeinen nichtlinear ist, zum Beispiel Gaußsch, so daß die Stärke auf der Strahlachse am größten ist und nichtlinear mit Winkelabweichung von der Strahlachse fällt. Es sind natürlich auch andere Stärkeprofile möglich. Für eine korrekte Beleuchtung des Punktes P ist es daher erforderlich, den Winkel θ und die Lichtmenge zu berechnen, die auf einen Punkt fällt, der sich auf einer Geraden befindet, die mit der Strahlachse den Winkel θ einschließt.
  • Cos θ kann wie folgt abgeleitet werden:
  • OP 1 = OP 1 cos θ
  • wobei OP der Vektor von der Lichtquelle O zum Punkt P ist, 1 der Richtungsvektor der Strahlachse ist.
  • Durch die Wahl des Betrages von 1 gleich eins erhalten wir: aber und damit
  • wobei (xp yp zp) die Lage des Punktes P im Blickpunkt-Raum ist (xo yo zo) die Lage der Quelle O im Blickpunkt-Raum ist.
  • Die Lage des Punktes P kann wie folgt aus den Bildschirm- Koordinaten und der Tiefe zp in Z-Richtung berechnet werden:
  • xp - xszp / dx
  • yp = yszp / dy
  • zp = zp
  • wobei (xs ys) die Bildschirm-Koordinaten eines Punktes sind, durch den eine Gerade von E zu P geht und
  • dx und dy Funktionen des Halbwinkels der Anzeige sind.
  • Somit:
  • wobei Lo = xolx + yoly + zolz für jedes Einzelbild konstant ist.
  • Der Wert OP kann wie folgt berechnet werden: wobei Somit: und damit
  • Dies kann wie folgt vereinfacht werden: wobei
  • für jedes Einzelbild konstant sind.
  • Die Faktoren, die für jedes Einzelbild konstant sind, werden im Transformationswerk berechnet und an das Spezialeffektmodul verteilt, in dem weitere Landelicht- Sumulationsvorgänge ausgeführt werden. Das Transformationswerk transformiert ferner die Landelichtquelle und -richtung vom Welt-Raum in den Blickpunkt-Raum.
  • Das Spezialeffektmodul vollzieht die folgenden Aufgaben:
  • a. Für jedes zum Bild beitragende Merkmal, zum Beispiel das Polygon aus Fig. 5, wird an jeder Ecke jeder Anzeigezelle cos²θ berechnet. Eine Anzeigezelle ist die Pixelanordnung, die von einer jeweiligen Pseudozelle überlappt wird. So setzt sich in dem in Fig. 3 dargestellten Fall jede Anzeigezelle aus einer Anordnung von sechzehn Pixeln zusammen, und angrenzende Anzeigezellen haben zusammenfallende Ecken.
  • b. An jeder Anzeigezellenecke wird die Beleuchtungsstärke bestimmt. Das wird dadurch erreicht, daß ein entsprechender Stärkewert Iint in einer (Winkel-) Verteilungstabelle der Stärken nachgeschlagen wird, die zuvor für die betreffende Lichtquelle erstellt wurde. Die Tabelle wird von cos²θ adressiert.
  • c. Der aus der Nachschlagetabelle abgeleitete Stärkewert wird abhängig von der Entfernung verringert. Das wird dadurch erreicht, daß an jeder Anzeigezellenecke das Quadrat der Entfernung berechnet wird und dazu verwendet wird, eine Nachschlagetabelle zu adressieren, in der Dämpfungsfaktoren Rdäm gespeichert sind. Die Entfernung r zu einem beliebigen Punkt P mit den Blickpunkt-Raum-Koordinaten (xp, yp, zp) könnte wie folgt abgeleitet werden:
  • Die Verwendung dieser Gleichung in Echtzeit wäre rechnerisch aufwendig, und deshalb wird ein Schrägentfernungs- Korrekturfaktor (sekf) berechnet, wobei
  • r = z sekf
  • und
  • Die sich ergebende Stärke Ires wird somit aus der interpolierten Nachschlagetabellenstärke Int und dem Dämpfungsfaktor Rdäm abgeleitet, und zwar unter Verwendung der Gleichung:
  • Ires = Iint Rdäm
  • d. Die Stärke im Mittelpunkt jeder der sechzehn Pseudopixel, die die Pseudozelle bilden, die die Anzeigezelle überlappen, wird durch bilineare Interpolation der Ires-Werte berechnet, die für die Anzeigezellenecken berechnet wurden.
  • e. Die sechzehn interpolierten Stärkewerte werden an den Farbmischer ausgegeben.
  • Wenn mehr als ein Landelicht vorhanden ist, ist es erforderlich, die Aufgaben der Berechnung von cos²θ und des Nachschlagens der Stärke für jedes Landelicht gesondert durchzuführen. Für jedes Landelicht wird eine Stärke an jeder Zellenecke berechnet. Danach können die Stärken für alle Landelichter an jeder Anzeigezellenecke summiert werden, und die summierten Stärken werden dann, vor der Interpolation des Stärkewerts am Pseudopixel-Mittelpunkt, in einem einzigen Vorgang abhängig von der Entfernung verringert.
  • Im Farbmischer werden die Stärkewerte für jedes Pseudopixel auf übliche Weise dazu eingesetzt, gemäß der Farbe der Lichtquelle und ihrer Stärke am Merkmal die Attribute von Merkmalen zu modulieren, die zum Bild beitragen. Das kann jedoch unter Verwendung üblicher Techniken erreicht werden, und daher werden diese Techniken hierin nicht näher beschrieben.
  • Ein Landelichtstrahl kann durch Nebel gedämpft werden. Die Stärke des Lichts, das ein Merkmal erreicht, wie auch die Sichtbarkeit des Lichts, das vom Merkmal zum Blickpunkt geht, werden verringert. Es ist möglich, die Dämpfung zwischen dem Merkmal und dem Blickpunkt zu berücksichtigen, indem ein einfacher von der Entfernung abhängiger "Nebel"- Dämpfungsfaktor verwendet wird. Idealerweise sollte zur Berücksichtigung der Dämpfung zwischen der Quelle und dem Merkmal ein Dämpfungsfaktor verwendet werden, der von der Distanz zwischen der Quelle und dem Merkmal abhängt. Als eine sinnvolle Approximation kann jedoch angenommen werden, daß die Distanz zwischen der Quelle und dem Merkmal gleich der Entfernung ist.
  • Die obenstehende Beschreibung läßt erkennen, wie die Beleuchtung von Merkmalen in der modellierten Welt korrekt simuliert werden kann, setzt aber voraus, daß keine Streuung von Lichtstrahlen aufgrund atmosphärischer Effekte, wie zum Beispiel Regen oder Nebel, auftritt. In der Praxis ist die Fähigkeit zur Simulierung solcher Effekte sehr wünschenswert. Gemäß der vorliegenden Erfindung wird dies durch die Verwendung eines Strahlenpolygons erreicht, dessen Blickraumposition von der Blickraumposition der Lichtquelle und deren Richtung abhängt.
  • Es wird nun auf Fig. 6 Bezug genommen, in der die grundlegende Geometrie dargestellt ist. Der Blickpunkt E und die Landelichtquelle O sind genauso relativ zum Bildschirm 33 positioniert, wie in Fig. 5 dargestellt. Es wird jedoch angenommen, daß sich vor der Lichtquelle kein zu beleuchtendes Polygon befindet. Ein Teil des Strahls ist jedoch durch den Bildschirm 33 vom Blickpunkt E aus sichtbar. Ein Strahlenpolygon, das als ein Dreieck mit den Scheitelpunkten A, B, O definiert ist, definiert einen vom Strahl zu beleuchtenden Bereich. Das Dreieck ABO ist gleichschenklig, und seine Achse OC fällt mit der Richtung des Strahls zusammen.
  • Eine vom Blickpunkt E zu einem Punkt N auf der Achse OC gezogene Gerade liegt senkrecht zu der Achse. Die Koordinaten des Punktes N sind gegeben durch:
  • EN = EO + rl
  • aber: r = EO l = xolx+yoly+zolz = Lo Damit:
  • unter der Annahme, daß die Lichtquelle O die Blickpunkt- Koordinaten (xo yo zo) hat und
  • die Strahlachse 1 die Komponenten (lx ly lz) hat.
  • Dies sind die Komponenten des Vektors EN, der normal zur Achse l liegt. Die Ebene des Strahlenpolygons wird als zum Vektor EN senkrecht liegend angenommen, und damit kann die Ebenengleichung des Strahlenpolygons wie folgt gebildet werden:
  • Ax + By + Cz + D = O
  • wobei
  • A = xo + Lolx
  • B = yo + Loly
  • C = zo + Lolz
  • D = -(Axo + Byo + Czo)
  • Die so abgeleitete Ebenengleichung wird in Normalenform gebracht, und die Scheitelpunkte A und B des Strahlenpolygons werden wie folgt gebildet:
  • Scheitelpunkt C (auf der geraden Linie AB) hat die Koordinaten (xc, yc, zc)
  • und
  • xc = xo + Llx
  • yc = yo + Lly
  • zc = zo + Llz
  • wobei L die Länge des Strahlenpolygons ist. Diese Länge wird bestimmt, wenn die Lichtquelle modelliert wird.
  • Ein Einheitsvektor e entlang AB hat die Komponenten (xe, ye, ze)
  • und Xe = Cly - Blz
  • ye = Alz - Clx
  • ze = Blx - Aly
  • (xe, ye, ze) ist das Vektorprodukt des Einheitsvektors l mit dem Einheits-Normalenvektor der Ebene (A, B, C).
  • Der Vektor OA ergibt sich dann aus:
  • OA = OC + e L tanω
  • wobei ω der Halbwinkel des Strahlenpolygons ist, und der Vektor OB ergibt sich wie folgt:
  • OB = OC - e L tanω
  • Somit: = L (l + e tanω)
  • OB = L (l - e tanω)
  • und die Koordinaten von A sind (xa ya za), wobei:
  • xa = xo + L[lx + (Cly-Blx)tanω]
  • ya = yo + L[ly + (Alz-Clx)tanw]
  • za = zo + L[lz + (Blx-Aly)tanω]
  • Die Koordinaten von B können auf ähnliche Weise berechnet werden.
  • Bei gegebenen Strahlenpolygon-Scheitelpunkten kann eine Beurteilung der Frage, ob das Strahlenpolygon vom Blickpunkt aus sichtbar ist, auf genau die gleiche Art und Weise vorgenommen werden wie für ein beliebiges anderes Polygon. Diese Techniken werden hierin nicht näher beschrieben. Die Stärke der Beleuchtung des Polygons muß jedoch besprochen werden, da diese Stärke von der Entfernung von der Lichtquelle abhängt.
  • Im Fall üblicher Polygone, die durch ein Landelicht beleuchtet werden, wird die Stärke mit der Entfernung des Polygons vom Blickpunkt verringert. Im Fall von Strahlenpolygonen verringert sich die Beleuchtungsstärke von einem Maximum an der Lichtquelle zum Ende des Strahlenpolygons hin, das durch die Linie AB gebildet wird, und variiert quer zur Strahlachse. Es wird daher eine weitere Entfernungsdämpfungs-Nachschlagetabelle aufgebaut, die von OP ²cos²θ adressiert wird.
  • Da cos²θ, wie oben beschrieben, bekannt ist, ergibt sich:
  • Diese Terme wurden bereits berechnet, wie oben beschrieben.
  • Wenn ein Strahlenpolygon als auf einen bestimmten Stichprobenpunkt wirkend identifiziert worden ist, dann wird es verarbeitet wie jedes andere Polygon.
  • Es versteht sich, daß das Strahlenpolygon durchsichtig sein sollte, um zu verhindern, daß es Lichtpunkte bzw. andere dahinter befindliche Merkmale verdeckt, und um zu verhindern, daß es durch andere Lichtquellen "beleuchtet" wird.
  • Es wird nun auf Fig. 7 Bezug genommen, in der die Funktionsstruktur eines Landelichtprozessors zur Umsetzung der oben beschriebenen Vorgänge dargestellt ist. In den Prozessor werden Schrägentfernungs-Korrekturfaktoren sekf, Reziprokwerte von z, die Koordinaten (xcij, ycij) einer Anzeigezellenecke und Daten, die pro Feld konstant sind, zum Beispiel Lo, eingegeben. Zu jeder Zeit betrachtet der Prozessor einen Punkt auf einem einzigen Polygon bzw. auf einem anderen Merkmal, wobei die Bildschirm-Raum-Koordinaten dieses Punktes (xcij, ycij) sind. Ein Prozessor 34 berechnet das Quadrat der Entfernung und das Quadrat des Reziprokwertes von Z. Das Quadrat der Entfernung wird, über eine Ausleuchtzonenentfernungs-Funktionseinheit 35, dazu verwendet, die Entfernungsdämpfung für übliche Polygone zu steuern, die durch ein Landelicht beleuchtet werden. Der Reziprokwert des Quadrats von Z wird, über eine Strahlentfernungs- Funktionseinheit 36, zur Strahlenpolygon-Entfernungsdämpfung benötigt. Die zutreffende Entfernungsfunktion wird abhängig vom Polygontyp von der Einheit 37 ausgewählt, und die Stärkendämpfung wird in einer Stärken-Dämpfungseinheit 38 verarbeitet.
  • Es sind zwar drei Landelichteinheiten 39 gezeigt, jedoch könnte eine beliebige gewünschte Zahl von Einheiten bereitgestellt werden. Jede berechnet unabhängig cos²θ relativ zu ihrem jeweiligen Landelicht und adressiert die entsprechende Eintragung in einer Nachschlagetabelle (NT), um auf die entsprechenden Stärkedaten zuzugreifen. Stärkeausgaben für das Strahlenpolygon werden an die Strahlentfernungs- Funktionseinheit 36 geliefert, und andere Ausgaben werden an eine Stärken-Summiereinheit 40 geliefert, deren Ausgabe an den Stärken-Dämpfungsprozessor 38 geliefert wird. In einem Interpolator 41 werden dann Stärkewerte für jedes Pseudopixel innerhalb der Anzeigezelle abgeleitet. Diese Werte werden dann im Verdichter 42 verarbeitet und an den Farbmischer ausgegeben.

Claims (13)

1. Verfahren zum Simulieren der Beleuchtungseffekte einer auf einem Fahrzeug angebrachten Lichtquelle auf ein Modell in einem Bild, das auf einem Bildschirm gezeigt wird, wobei das Bild das Erscheinungsbild des Modells, das in einer Datenbank in Welt-Raum-Koordinaten definiert ist, von einer Blickpunktposition im Welt-Raum aus darstellen soll, wobei das Modell mit Bezug auf eine Mehrzahl von Merkmalen definiert ist, die jeweils vorgegebene Attribute aufweisen, und wobei die auf einem Fahrzeug angebrachte Lichtquelle mit Bezug auf einen Ursprung und eine Richtung im Blickpunkt-Raum definiert ist, dadurch gekennzeichnet, daß
a. für jedes Merkmal, das potentiell einen Beitrag zum Bild leistet, die Winkelposition eines Punktes auf dem Merkmal relativ zur Lichtquelle als der Winkel zwischen der Lichtquellenrichtung und einer Linie, die von der Lichtquelle zu diesem Punkt gezogen wird, berechnet wird,
b. eine Beleuchtungsstärke für diesen Punkt unter Bezugnahme auf den berechneten Winkel bestimmt wird,
c. die Beleuchtungsstärke abhängig von der Distanz vom Blickpunkt zu diesem Punkt verringert wird, um eine resultierende Stärke bereitzustellen, und
d. die Attribute des Merkmals an diesem Punkt abhängig von der resultierenden Stärke moduliert werden.
2. Verfahren nach Anspruch 1, bei dem der Bildschirm in eine Mehrzahl von Anzeigezellen unterteilt ist, die jeweils eine Pixelanordnung überdecken, der genannte Winkel an jeder Anzeigezellenecke berechnet wird, die resultierende Beleuchtungsstärke an jeder Anzeigezellenecke bestimmt wird und die Beleuchtungsstärke an jedem Pixel durch Interpolation aus den resultierenden Beleuchtungsstärken an den jeweiligen Anzeigezellenecken bestimmt wird.
3. Verfahren nach Anspruch 1, bei dem der Kosinus des genannten Winkels aus dem Skalarprodukt eines Vektors, der die Richtung der Lichtquelle repräsentiert, mit einem Vektor, der von der Lichtquelle auf den genannten Punkt des Merkmals gerichtet ist, berechnet wird.
4. Verfahren nach Anspruch 3, bei dem das Quadrat des Kosinus des genannten Winkels wie folgt berechnet wird: wobei
(lx, ly, lx) die Komponenten des Vektors sind, der die Richtung der Lichtquelle repräsentiert,
(xs, ys) die Bildschirm-Raum-Koordinaten des genannten Punktes sind,
(xo, yo, zo) die Blickpunkt-Raum-Koordinaten der Lichtquelle sind,
(xp, yp, zp) die Blickpunkt-Raum-Koordinaten des genannten Punktes sind,
sekf ein Schrägentfernungs-Korrekturfaktor ist,
Lo = xolx + yo¹y + zolz
Ld = xo² + yo² + zo²
und dx und dy Funktionen des Halbwinkels der Anzeige sind.
5. Verfahren nach einem der vorhergehenden Ansprüche, bei dem für jeden einer vorgegebenen Anzahl von Stichprobenwinkeln Beleuchtungsstärken in einer Nachschlagetabelle gespeichert werden und die gespeicherten Werte vom berechneten Winkel adressiert werden, um die entsprechenden Beleuchtungsstärken abzuleiten.
6. Verfahren nach Anspruch 5, bei dem die gespeicherten Werte vom Quadrat des berechneten Winkels adressiert werden, um die Beleuchtungsstärke abzuleiten.
7. Verfahren nach einem der vorhergehenden Ansprüche, bei dem Entfernungsdämpfungsfaktoren in einer Nachschlagetabelle gespeichert werden und die gespeicherten Werte von der Entfernung adressiert werden, um den entsprechenden Entfernungsdämpfungsfaktor abzuleiten.
8. Verfahren nach Anspruch 7, bei dem die gespeicherten Faktoren vom Quadrat der Entfernung adressiert werden, um den Entfernungsdämpfungsfaktor abzuleiten.
9. Verfahren nach einem der Ansprüche 1 bis 8 zum Zeigen der Beleuchtungseffekte der auf einem Fahrzeug angebrachten Lichtquelle auf die Atmosphäre im Bild, bei dem
a. ein dreieckiges Strahlenpolygon mit einer Spitze im Ursprung der Lichtquelle definiert wird, wobei das Strahlenpolygon in einer Ebene liegt, die eine Achse durch den Ursprung parallel zur genannten Richtung umfaßt, normal zu einer vom Blickpunkt aus gezogenen und die Achse schneidenden Linie liegt und eine definierte Länge und einen definierten Halbwinkel vom genannten einen Scheitelpunkt aus aufweist,
b. ein zweiter und ein dritter Scheitelpunkt des Strahlenpolygons berechnet werden,
c. die Beleuchtungsstärke des Strahlenpolygons abhängig von der Distanz von der Lichtquelle berechnet wird und
d. das Strahlenpolygon auf dem Bildschirm als ein Merkmal des Modells gemäß seinen berechneten Scheitelpunkten und seiner berechneten Stärke gezeigt wird.
10. Verfahren nach Anspruch 9, bei dem für das Strahlenpolygon aus den Koordinaten des Ursprungs der Lichtquelle und den Komponenten eines Vektors, der der genannten Achse entspricht, eine Ebenengleichung Ax+By+Cz+D=0 berechnet wird und der zweite und der dritte Scheitelpunkt aus der Ebenengleichung und der genannten definierten Länge und dem genannten definierten Halbwinkel berechnet werden.
11. Verfahren nach Anspruch 9 oder 10, bei dem Entfernungsdämpfungsfaktoren für das Strahlenpolygon in einer Nachschlagetabelle gespeichert werden und die gespeicherten Werte vom Produkt des Quadrats der Entfernung von der Lichtquelle zu einem zu beleuchtenden Punkt auf dem Strahlenpolygon mit dem Quadrat des genannten Winkels zwischen der Lichtquellenrichtung und einer zu dem Punkt auf dem Strahlenpolygon gezogenen Linie adressiert werden, um den entsprechenden Entfernungsdämpfungsfaktor abzuleiten.
12. Simulator der Beleuchtungseffekte einer auf einem Fahrzeug angebrachten Lichtquelle auf ein Modell in einem Bild, das auf einem Bildschirm gezeigt wird, wobei das Bild das Erscheinungsbild des Modells, das in einer Datenbank in Welt-Raum-Koordinaten definiert ist, von einer Blickpunktposition im Welt-Raum aus darstellen soll, wobei das Modell mit Bezug auf eine Mehrzahl von Merkmalen definiert ist, die jeweils vorgegebene Attribute aufweisen, und wobei die auf einem Fahrzeug angebrachte Lichtquelle mit Bezug auf einen Ursprung und eine Richtung im Blickpunkt-Raum definiert ist, gekennzeichnet durch
a. Mittel, um für jedes Merkmal, das potentiell einen Beitrag zum Bild leistet, die Winkelposition eines Punktes auf dem Merkmal relativ zur Lichtquelle als den Winkel zwischen der Lichtquellenrichtung und einer Linie, die von der Lichtquelle zu diesem Punkt gezogen wird, zu berechnen,
b. Mittel, um eine Beleuchtungsstärke für diesen Punkt unter Bezugnahme auf den berechneten Winkel zu bestimmen,
c. Mittel, um die Beleuchtungsstärke abhängig von der Distanz vom Blickpunkt zu diesem Punkt zu verringern, um eine resultierende Stärke bereitzustellen, und
d. Mittel, um die Attribute des Merkmals an diesem Punkt abhängig von der resultierenden Stärke zu modulieren.
13. Simulator nach Anspruch 12 zum Zeigen des Beleuchtungseffekts der auf einem Fahrzeug angebrachten Lichtquelle auf die Atmosphare im Bild, der folgendes umfaßt:
a. Mittel, um ein dreieckiges Strahlenpolygon mit einer Spitze im Ursprung der Lichtquelle zu definieren, wobei das Strahlenpolygon in einer Ebene liegt, die mit einer Achse durch den Ursprung parallel zur genannten Richtung zusammenfällt, normal zu einer vom Blickpunkt aus gezogenen und die Achse schneidenden Linie liegt und eine definierte Länge und einen definierten Halbwinkel vom genannten einen Scheitelpunkt aus aufweist,
b. Mittel, um einen zweiten und einen dritten Scheitelpunkt des Strahlenpolygons zu berechnen,
c. Mittel, um die Beleuchtungsstärke des Strahlenpolygons abhängig von der Distanz vom Blickpunkt zu berechnen, und
d. Mittel, um das Strahlenpolygon auf dem Bildschirm als ein Merkmal des Modells gemäß seinen berechneten Scheitelpunkten und seiner berechneten Stärke zu zeigen.
DE69123739T 1990-06-01 1991-06-03 Bildgenerator Expired - Fee Related DE69123739T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB909012273A GB9012273D0 (en) 1990-06-01 1990-06-01 Image generator
PCT/GB1991/000884 WO1991019280A1 (en) 1990-06-01 1991-06-03 Image generator

Publications (2)

Publication Number Publication Date
DE69123739D1 DE69123739D1 (de) 1997-01-30
DE69123739T2 true DE69123739T2 (de) 1997-06-19

Family

ID=10676926

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69123739T Expired - Fee Related DE69123739T2 (de) 1990-06-01 1991-06-03 Bildgenerator

Country Status (8)

Country Link
US (1) US5384719A (de)
EP (1) EP0532579B1 (de)
JP (1) JPH05507797A (de)
AU (1) AU7989191A (de)
CA (1) CA2084067A1 (de)
DE (1) DE69123739T2 (de)
GB (2) GB9012273D0 (de)
WO (1) WO1991019280A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19738713A1 (de) * 1997-09-04 1999-03-11 Bayerische Motoren Werke Ag Beleuchtungsvorrichtung für ein Fahrzeug

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2271261A (en) * 1992-10-02 1994-04-06 Canon Res Ct Europe Ltd Processing image data
GB2271259A (en) * 1992-10-02 1994-04-06 Canon Res Ct Europe Ltd Processing image data
US5598359A (en) * 1993-10-29 1997-01-28 Southwest Research Institute Weather effects generator for simulation systems
US5480305A (en) * 1993-10-29 1996-01-02 Southwest Research Institute Weather simulation system
FR2716061B1 (fr) * 1994-02-04 1996-03-15 Thomson Broadcast Procédé de génération d'images texturées et d'effets spéciaux en vidéo et dispositif pour la mise en Óoeuvre du procédé.
JP3603285B2 (ja) * 1994-07-21 2004-12-22 株式会社セガ 画像処理装置
US6298313B1 (en) 1998-09-18 2001-10-02 The United States Of America As Represented By The Secretary Of The Navy Passive ranging using inferior mirages
US6256409B1 (en) 1998-10-19 2001-07-03 Sony Corporation Method for determining a correlation between images using multi-element image descriptors
US6445834B1 (en) 1998-10-19 2002-09-03 Sony Corporation Modular image query system
US6236406B1 (en) * 1998-10-21 2001-05-22 Sony Corporation Three-dimensional color space display
GB2358919B (en) * 2000-01-26 2004-09-22 Andrew Steven Russell Monitoring device and method
US6603482B1 (en) 2000-01-31 2003-08-05 Evans & Sutherland Computer Corporation Screen space effects utilizing the alpha channel and the alpha buffer
WO2004040520A1 (en) * 2002-11-01 2004-05-13 Cae Inc. Method and apparatus for providing calligraphic light point display
EP2104930A2 (de) 2006-12-12 2009-09-30 Evans & Sutherland Computer Corporation System und methode zum ausgleichen des rgb-licht in einem monomodulator projektor
US8876534B1 (en) * 2007-07-25 2014-11-04 Rockwell Collins, Inc. Apparatus and methods for lighting synthetic terrain images
US8358317B2 (en) 2008-05-23 2013-01-22 Evans & Sutherland Computer Corporation System and method for displaying a planar image on a curved surface
US8702248B1 (en) 2008-06-11 2014-04-22 Evans & Sutherland Computer Corporation Projection method for reducing interpixel gaps on a viewing surface
US8077378B1 (en) 2008-11-12 2011-12-13 Evans & Sutherland Computer Corporation Calibration system and method for light modulation device
US9641826B1 (en) 2011-10-06 2017-05-02 Evans & Sutherland Computer Corporation System and method for displaying distant 3-D stereo on a dome surface

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1262095A (en) * 1968-09-11 1972-02-02 Thorn Bendix Ltd Controlled degradation of a visual scene
US3612761A (en) * 1969-12-19 1971-10-12 Us Navy Large-area display system
US4027403A (en) * 1975-03-12 1977-06-07 The Singer Company Real-time simulation of point system having multidirectional points as viewed by a moving observer
US3996672A (en) * 1975-03-12 1976-12-14 The Singer Company Real-time simulation of a point system as viewed by a moving observer
US3996673A (en) * 1975-05-29 1976-12-14 Mcdonnell Douglas Corporation Image generating means
US4177579A (en) * 1978-03-24 1979-12-11 The Singer Company Simulation technique for generating a visual representation of an illuminated area
ZA801538B (en) * 1979-03-19 1981-04-29 United Kingdom Government Method and apparatus for estimating slant visibility in fog
US4348184A (en) * 1980-11-04 1982-09-07 The Singer Company Landing light pattern generator for digital image systems
US4404553A (en) * 1980-11-07 1983-09-13 The Singer Company Landing light pattern generator for simulator with selective addressing of memory
US4511337A (en) * 1982-06-25 1985-04-16 The Singer Company Simplified hardware component inter-connection system for generating a visual representation of an illuminated area in a flight simulator
JPH0746391B2 (ja) * 1984-09-14 1995-05-17 株式会社日立製作所 図形シエ−デイング装置
US4897806A (en) * 1985-06-19 1990-01-30 Pixar Pseudo-random point sampling techniques in computer graphics
GB8707087D0 (en) * 1987-03-25 1987-04-29 Quantel Ltd Image signal processing systems
US5083287A (en) * 1988-07-14 1992-01-21 Daikin Industries, Inc. Method and apparatus for applying a shadowing operation to figures to be drawn for displaying on crt-display
GB8828342D0 (en) * 1988-12-05 1989-01-05 Rediffusion Simulation Ltd Image generator
US5268996A (en) * 1990-12-20 1993-12-07 General Electric Company Computer image generation method for determination of total pixel illumination due to plural light sources

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19738713A1 (de) * 1997-09-04 1999-03-11 Bayerische Motoren Werke Ag Beleuchtungsvorrichtung für ein Fahrzeug

Also Published As

Publication number Publication date
AU7989191A (en) 1991-12-31
GB9012273D0 (en) 1990-07-18
GB2261145B (en) 1994-08-17
DE69123739D1 (de) 1997-01-30
JPH05507797A (ja) 1993-11-04
EP0532579A1 (de) 1993-03-24
WO1991019280A1 (en) 1991-12-12
EP0532579B1 (de) 1996-12-18
GB2261145A (en) 1993-05-05
GB9224307D0 (en) 1993-01-20
CA2084067A1 (en) 1991-12-12
US5384719A (en) 1995-01-24

Similar Documents

Publication Publication Date Title
DE69126611T2 (de) Bilderzeugungsgerät
DE69123739T2 (de) Bildgenerator
DE68928181T2 (de) Bilderzeugungsgerät
DE3854543T2 (de) Prioritätsverwaltung eines Tiefendatenpuffers für Echtzeitrechnersysteme zur Bilderzeugung.
DE3650129T2 (de) Verfahren zur Kantenglättung für Rechnerbilderzeugungssystem.
DE69130545T2 (de) System zur Erzeugung einer texturierten Perspektivsicht
DE69120407T2 (de) Bildgenerator
DE68927471T2 (de) Verfahren zur Schattierung eines graphischen Bildes
DE3689271T2 (de) Verfahren zur Bildanzeige.
DE3881416T2 (de) Verfahren zur Darstellung eines Perspektivbildes eines Gebiets und System zur Durchführung des Verfahrens.
DE3782160T2 (de) Digitales simulationssystem zur erzeugung von realistischen szenen.
DE69329049T2 (de) Methode zur Verarbeitung von Daten, die dreidimensionale graphische Objekte repräsentieren
DE3855231T2 (de) Prioritätsauflösungssystem zwischen Polygonen mit Antialiasing
DE3750784T2 (de) Generation eines intrapolierten charakteristischen Wertes zur Anzeige.
DE3485846T2 (de) Videoobjekt-generator.
DE3022454A1 (de) Optisches abbildesystem mit computererzeugtem bild fuer einen bodenfesten flugsimulator
DE69531536T2 (de) Synthetisches bilderzeugungsverfahren mit sphärischem puffer
EP0862141A2 (de) Bilddarstellungsverfahren und Vorrichtung zur Durchführung des Verfahrens
DE19606357A1 (de) Bildverarbeitungsverfahren zur Darstellung von spiegelnden Objekten und zugehörige Vorrichtung
DE4211385A1 (de) Daten-projektionssystem
DE69230774T2 (de) Anti-aliasing Tiefenpuffer
DE69723798T2 (de) Gerät und Verfahren zum spekular Reflektionsimulieren in einem Graphik-Bildsystem
DE69606177T2 (de) Verfahren und gerät zur texturabbildung
DE19549096A1 (de) Simulationsvorrichtung und -verfahren
DE3854619T2 (de) Quadratische interpolation zur schattierten bilderzeugung.

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee