DE69130545T2 - System zur Erzeugung einer texturierten Perspektivsicht - Google Patents

System zur Erzeugung einer texturierten Perspektivsicht

Info

Publication number
DE69130545T2
DE69130545T2 DE69130545T DE69130545T DE69130545T2 DE 69130545 T2 DE69130545 T2 DE 69130545T2 DE 69130545 T DE69130545 T DE 69130545T DE 69130545 T DE69130545 T DE 69130545T DE 69130545 T2 DE69130545 T2 DE 69130545T2
Authority
DE
Germany
Prior art keywords
engine
polygon
output
memory
texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69130545T
Other languages
English (en)
Other versions
DE69130545D1 (de
Inventor
James A. Albuquerque New Mexico 87111 Cousens
John F. Albuquerque New Mexico 87110 Dawson
Thomas D. Albuquerque New Mexico 87120 Snodgrass
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honeywell Inc
Original Assignee
Honeywell Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honeywell Inc filed Critical Honeywell Inc
Publication of DE69130545D1 publication Critical patent/DE69130545D1/de
Application granted granted Critical
Publication of DE69130545T2 publication Critical patent/DE69130545T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)

Description

  • Die vorliegende Erfindung ist auf ein System für die Erzeugung texturierter Perspektivsichten für ein digitales Abbildungssystem gerichtet.
  • Die Texturabbildung ist eine Computergraphik- und Abbildungstechnik, deren Grundlage durch Heckbert, P., in: "Survey of texture mapping" IEEE Computer Graphics and Applications, November 1986 auf den Seiten 56-67 beschrieben ist.
  • Ferner offenbart die GB-A-22 07 585 ein Verfahren und eine Vorrichtung zum Schattieren von Bildern, welche sich von der Ausgabe von Objekten unterscheidet, die eine Textur besitzen.
  • Die Texturabbildung kann in einem Verfahren der Überlagerung von Luft- Aufklärungsphotographien mit durch Computer erzeugten dreidimensionalen Terrainbildern verwendet werden. Sie verbessert wesentlich die visuelle Realität von Raster-Abtastbildern, wobei nur ein relativ geringer Zuwachs an Berechnungsaufwand auftritt. Eine häufige Kritik bei der bekannten durch Computer erzeugten synthetischen Abbildung ist auf die extreme Glätte des Bildes gerichtet. Bekannte Verfahren der Bilderzeugung geben keine Textur, Höcker, Aufschlüsse oder natürliche Abnormalitäten bei der Darstellung von digitalen Terrain-Erhebungsdaten (DTED) vor.
  • Allgemein bildet eine Texturabbildung ein mehrdimensionales Bild in einem mehrdimensionalen Raum ab. Eine Textur kann im üblichen Sinn beispielsweise als Sandpapier, ein gefurchtes Feld, ein Straßenbett, ein See, eine Maserung und so fort oder als Pixelmuster (Bildelemente) auf einem Papierblatt oder photographischen Film angesehen werden. Die Pixel können in einem regelmäßigen Muster, wie beispielsweise einem Schachbrett angeordnet sein oder sie können hohe Frequenzen aufweisen wie in einer detaillierten Photographie der Landschaftsabbildung mit hoher Auflösung. Die Textur kann ebenfalls in ihrem Wesen dreidimensional sein wie in Marmor oder gemaserten Oberflächen. Für die Zwecke der Erfindung wird die Texturabbildung definiert als die Abbildung einer Textur auf eine Oberfläche im dreidimensionalen Objektraum. Wie schematisch in Fig. 1 veranschaulicht, wird ein Objekt T im Texturraum auf einem Anzeigeschirm mittels einer perspektivischen Transformation abgebildet.
  • Die Verwirklichung umfaßt zwei Prozesse. Der erste Prozess ist die geometrische Krümmung und der zweite Prozess ist die Filterung. Fig. 2 veranschaulicht graphisch den geometrischen Krümmungsprozess für die Zuführung einer Textur auf eine Oberfläche. Dieser Prozess führt die Textur einem abzubildenden Objekt analog zu einer Gummifolie zu, die über eine Oberfläche gespannt wird. In der Anwendung eines digitalen Abbildungssystems umfaßt die Textur typischerweise eine Luft-Aufklärungsphotographie und das abzubildende Objekt ist die Oberfläche der digitalen Terrain-Datenbank, wie in Fig. 2 gezeigt. Nachdem die geometrische Krümmung vervollständigt worden ist, wird der zweite Prozess der Filterung ausgeführt. In dem zweiten Prozess wird das Bild erneut auf dem Schirmgitter abgetastet.
  • Es ist die Aufgabe der vorliegenden Erfindung, die Architektur einer texturierten Perspektivsicht vorzugeben, die dem Bedürfnis der erhöhten Effektivität der Flugzeugbesatzung Rechnung trägt und somit bei geringen Flughöhen die Arbeitsbelastung reduziert, wobei sie durch das gleichzeitige Erfordernis gekennzeichnet ist, bestimmtes Terrain und Bedrohungen zu vermeiden, wodurch die Situationsbereitschaft der Besatzung erhöht wird. Diese Aufgabe wird gelöst durch die Merkmale des Patentanspruches 1. Weitere vorteilhafte Ausgestaltungen des erfindungsgemäßen Systems können den Unteransprüchen entnommen werden.
  • Die Situationsbereitschaft der Besatzung ist in einem bestimmten Maß erhöht worden durch die Hinzufügung einer perspektivischen Sichtdarstellung zu einer ebenen Ansicht, die in digitalen Abbildungssystemen bereits vorliegt. Siehe z. B. EP-A2-0 341 645. Die vorliegende Erfindung verbessert die Fähigkeit des digitalen Abbildungssystemes durch Vorgabe einer Einrichtung für die Überlagerung von Luft-Aufklärungsphotographien über dem durch den Computer erzeugten dreidimensionalen Terrainbild, was zu einer 1 : 1- Entsprechung der digitalen Abbildung mit der realen Welt führt. Auf diese Weise liefert die Erfindung visuell realistische Stichworte, welche die Informationsdarstellung eines solchen durch einen Computer erzeugten Terrainbildes verstärken. Unter Verwendung dieser Stichworte kann eine Flugzeugbesatzung rasch eine Verbindung zwischen der Darstellung und der realen Welt herstellen.
  • Die an die Architektur gestellte Herausforderung durch die Texturabbildung liegt darin, die Verarbeitungslast zu verteilen, um einen großen Datendurchfluß unter Verwendung paralleler Pipelines zu erzielen und sodann den parallelen Pixelfluß in einem einzigen Speichermodul neu zu kombinieren, der als Rahmenpuffer bekannt ist. Der sich ergebende Wettbewerb für den Zugriff auf den Rahmenpuffer vermindert den wirksamen Durchfluß der Pipelines zusätzlich zu dem Erfordernis nach einer vergrößerten Hardware und Platinenraum, um die zusätzlichen Pipelines zu verwirklichen. Das System der Erfindung stellt sich dieser Herausforderung durch wirksame Kombination einer einzigen Hochgeschwindigkeits-Pipeline mit der erhöhten Verarbeitungsleistung von parallelen Pipelines.
  • Ein System zur Vorgabe einer texturierten Perspektivsicht für digitale Abbildungssysteme wird angegeben. Die Erfindung umfaßt Mittel zum Speichern von Erhebungsdaten, Mittel zum Speichern von Texturdaten, Mittel zum Abtasten eines projizierten Sichtvolumens aus der Speichereinrichtung für die Erhebungsdaten, Mittel zum Verarbeiten des projizierten Sichtvolumens, Mittel zur Erzeugung mehrerer ebener Polygone und Mittel zur Ausgabe von Bildern. Die Verarbeitungseinrichtung umfaßt ferner Mittel für den Empfang des abgetasteten projizierten Sichtvolumens aus der Abtasteinrichtung, zur Transformierung des abgetasteten projizierten Sichtvolumens aus dem Objektraum in den Schirmraum und die Berechnung von Oberflächennormalen an jedem Scheitelpunkt eines jeden Polygons, um die Pixelintensität im Texturraum zu modulieren. Die Erzeugungseinrichtung erzeugt die Vielzahl von ebenen Polygonen aus den transformierten Scheitelpunkten und liefert sie zu der Abgabeeinrichtung, welche sodann die ebenen Polygone schattiert.
  • Die Erfindung gibt eine Technologie vor, die in der Lage ist, ein vollständig integriertes digitales Abbildungssystem in einem Flugzeug-Cockpit zu verwirklichen.
  • In einem alternativen Beispiel der Erfindung werden die Polygone mittels der Abgabeeinrichtung schattiert, die eine Farbe über der Oberfläche eines jeden Polygons zuordnet.
  • In einem noch weiteren alternativen Ausführungsbeispiel der Erfindung interpoliert die Abgabeeinrichtung die Intensitäten zwischen den Scheitelpunkten eines jeden Polygons in einer linearen Weise wie bei einer Gouraud-Schattierung.
  • Die Erfindung liefert ein digitales Abbildungssystem einschließlich der Fähigkeiten einer perspektivischen Ansicht, der Transparenz, der Texturierung, der verdeckten Linienentfernung und sekundärer visueller Effekte, wie beispielsweise Tiefenhinweis- und Artifakten-Steuerung (d. h. Entzerrung).
  • Die Erfindung gibt ferner die Möglichkeit vor, nach vorne gerichtete Infrarot-Daten (FLIR) und Radar-Rückkehrbilder darzustellen, die einem ebenen und perspektivischen digitalen Bild überlagert sind, indem Bilder verschmolzen werden durch Kombinieren oder Subtrahieren anderer Sensor-Videosignale mit der digitalen Terraindarstellung.
  • Die Erfindung gibt schließlich ein digitales Abbildungssystem vor mit einer wahlweisen Fähigkeit der Abwicklung einer Datenbank auf eine andere Datenbank, die durch die texturierte Perspektivsicht der Erfindung vorgegeben wird.
  • Andere Aufgaben, Merkmale und Vorteile der Erfindung gehen dem Fachmann aus den Zeichnungen, der Beschreibung des bevorzugten Ausführungsbeispieles und den Ansprüchen hervor. In den Zeichnungen beziehen sich gleiche Bezugsziffern auf gleiche Elemente.
  • Kurze Beschreibung der Zeichnungen
  • Fig. 1 zeigt die Abbildung eines texturierten Objektes auf einem Anzeigeschirm durch eine perspektivische Transformation.
  • Fig. 2 veranschaulicht graphisch den geometrischen Krümmungsprozeß der Erfindung für die Zuführung der Textur auf eine Oberfläche.
  • Fig. 3 veranschaulicht die Oberflächen-Normalenberechnung, wie sie durch die Erfindung verwendet wird.
  • Fig. 4 präsentiert ein funktionelles Blockdiagramm eines Ausführungsbeispieles der Erfindung.
  • Fig. 5 veranschaulicht ein Blockdiagramm eines Ausführungsbeispieles der Architektur der Erfindung für die texturierte Perspektivansicht.
  • Fig. 6 veranschaulicht schematisch die Rahmenpuffer-Konfiguration wie sie durch ein Ausführungsbeispiel der Erfindung verwendet wird.
  • Fig. 7A, 7B und 7C veranschaulichen drei Beispiele von Anzeige-Formatformen.
  • Fig. 8 gibt die Dichtefunktion für Maximum-Pixelzählstände vor.
  • Fig. 9 ist ein Blockdiagramm eines Ausführungsbeispieles des Geometriefeld- Prozessors, wie er durch die Erfindung verwendet wird.
  • Fig. 10A, 10B, 10C und 10D veranschaulichen die Architektur der markierten Texturierung, wie sie durch die Erfindung vorgegeben wird.
  • Beschreibung des bevorzugten Ausführungsbeispieles
  • Allgemein erfordert die perspektivische Transformation vom Texturraum mit den Koordinaten U, V in den Schirmraum mit den Koordinaten X, Y eine Zwischentransformation vom Texturraum in den Objektraum mit den Koordinaten X&sub0;, Y&sub0;, Z&sub0;. Die perspektivische Transformation wird verwirklicht durch die allgemeine perspektivische Transformationsgleichung der folgenden Form:
  • [XYZH]-[XYZl]X
  • wobei ein Punkt (X, Y, Z) im dreidimensionalen Raum durch einen vierdimensionalen Positionsvektor [X Y Z H] in homogenen Koordinaten repräsentiert wird.
  • Die 3 · 3-Submatrix
  • verwirklicht die Skalierung, Scherung und Rotation. Die 1 · 3-Zeilenmatrix [L M N] erzeugt die Translation.
  • Die 3 · 2-Spaltenmatrix
  • erzeugt die perspektivische Transformation. Der 1 · 1-Skalar [S] erzeugt die Gesamt- Skalierung.
  • Das kartesische Kreuzprodukt, das für die Oberflächennormale benötigt wird, erfordert eine Quadratwurzel. Wie in Fig. 3 gezeigt, ist die gezeigte Oberflächennormale ein Vektor A · B senkrecht zu der Ebene, die durch die Kanten eines Polygones gebildet wird, das durch Vektoren A und B repräsentiert wird, wobei A · B das kartesische Kreuzprodukt der zwei Vektoren ist. Die Normierung des Vektors gestattet die Berechnung für die Sonnenwinkelschattierung in einer perfekt diffusen Lambert-Oberfläche. Dies wird verwirklicht durch das Vektor-Punktprodukt des Oberflächen-Normalenvektors mit dem Sonnen-Positionsvektor. Der sich ergebende Winkel ist umgekehrt proportional zu der Intensität des Pixels der Oberfläche, unabhängig von dem Betrachtungswinkel. Diese Intensität wird verwendet, um den Texturglanz und den Intensitätswert zu modulieren.
  • wobei A = Ax² + Ay² + Az²
  • B = Bx² + By² + Bz²
  • Ein Terrain-Dreieck TT wird gebildet durch Verbindung der Endpunkte der Vektoren A und B vom Punkt BX, BY, BZ zum Punkt AX, AY, AZ.
  • Nachdem etwas die Grundlagen der Erfindung beschrieben worden sind, sei nunmehr eine Beschreibung des Verfahrens der Erfindung unten in näheren Einzelheiten gegeben.
  • Bezug nehmend nunmehr auf Fig. 4 ist ein funktionelles Blockdiagramm eines Ausführungsbeispieles der Erfindung gezeigt. Die Erfindung umfaßt funktionell eine Einrichtung zum Speichern von Elevationsdaten 10, eine Einrichtung zum Speichern von Texturdaten 24, eine Einrichtung zur Abtastung eines projizierten Sichtvolumens von der Elevationsdaten-Speichereinrichtung 12, eine Einrichtung zur Verarbeitung des Sichtvolumens 14 einschließlich einer Einrichtung für den Empfang des abgetasteten projizierten Sichtvolumens von der Abtasteinrichtung 12, eine Einrichtung für die Erzeugung von Polygon-Fülladressen 16, eine Einrichtung für die Berechnung von Textur- Scheitelpunktadressen 18, eine Einrichtung für die Erzeugung von Textur- Speicheradressen 20, eine Einrichtung für die Filterung und Interpolation von Pixeln 26 und einen Vollrahmen-Speicher 22. Die Verarbeitungseinrichtung 14 umfaßt ferner eine Einrichtung zum Transformieren des abgetasteten projizierten Sichtvolumens vom Objektraum in den Schirmraum und eine Einrichtung zur Berechnung von Oberflächennormalen an jedem Scheitelpunkt eines jeden Polygons, um die Pixelintensität zu berechnen.
  • Die Einrichtung für die Speicherung von Elevationsdaten 10 kann vorzugsweise ein Pufferspeicher mit einer Zugriffszeit von wenigstens 50 nsec sein, um eine bilineare 20 Hz- Interpolation eines Schirmes mit einer Auflösung von 512 · 512 Pixel zu erzielen. Der Pufferspeicher kann ferner vorteilhafterweise ein Puffersegment mit 256 · 256 Bit umfassen, wobei ein Schatten-RAM mit 2K-Bytes für die Darstellungsliste verwendet wird. Der Pufferspeicher kann beliebig konfiguriert sein mit einer Tiefe von 8 Bit (Datenrahmen) bis 64 Bit (d. h. die Summe umfassend aus Textur-Abbildungsdaten (24 Bit) + DTED (16 Bit) + aeronautische Kartendaten (24 Bit). Ein Puffersegment kann an irgendeiner Pufferadresse beginnen und kann horizontal oder vertikal geschrieben werden. Die Einrichtung zur Speicherung von Texturdaten 24 kann vorteilhafterweise ein Textur- Pufferspeicher sein, der identisch zu dem Erhebungs-Pufferspeicher ist mit der Ausnahme, daß er Pixelinformation für die Abwicklung in den Elevations-Datenpuffer speichert.
  • Bezug nehmend nunmehr auf Fig. 5 ist ein Blockdiagramm der Architektur der texturierten Perspektivsicht gezeigt. Die Architektur verwirklicht die in Fig. 4 gezeigten Funktionen und die folgende Diskussion soll sich auf Funktionsblöcke in Fig. 4 beziehen und entsprechende Elemente in Fig. 5. In einigen Fällen, wie beispielsweise bei dem Element 14 gibt es eine 1 : 1-Entsprechung zwischen den Funktionsblöcken in Fig. 4 und den Architekturelementen von Fig. 5. In anderen Fällen werden, wie unten erläutert, die in Fig. 4 gezeigten Funktionen durch eine Vielzahl von in Fig. 5 gezeigten Elementen ausgeführt. Die in Fig. 5 gezeigten Elemente, die das texturierte Perspektivsichtsystem 300 der Erfindung bilden, umfassen den Elevations-Pufferspeicher 10, den Form-Adressgenerator (SHAG) 12, die Texturmaschine 30, die Abgabemaschine 34, die Geometriemaschine 36, den Symbolgenerator 38, die Formmaschine 40 und den Anzeigespeicher 42. Diese Elemente bilden typischerweise einen Teil eines größeren digitalen Abbildungssystemes einschließlich einer digitalen Abbildungseinheit (DMU) 109, einer DMU-Schnittstelle 111, eines IC/DE 113, eines Darstellungsstrom-Managers (DSM) 101, eines Mehrzweckprozessors (GPP) 105, eines RV MUX 121, eines PDQ 123, einer Masterzeit 44, eines Videogenerators 46 und einer Vielzahl von Datenbanken.
  • Geometriemaschine
  • Die Geometriemaschine 36 umfaßt einen oder mehrere Geometriefeld-Prozessoren (GAP's), welche die Euler 4 · 4-Matrixtransformation vom Objektraum (manchmal als "Welt"-Raum bezeichnet) in den Schirmraum verarbeiten. Die GAP's erzeugen X- und Y- Werte in Schirmkoordinaten und Zvv-Werte in der Entfernungstiefe. Die GAP's berechnen ebenfalls Oberflächennormalen an jedem Scheitelpunkt eines Polygones, die ein Bild im Objektraum über kartesische Kreuzprodukte für eine Gouraud-Schattierung repräsentieren oder sie können eine Oberflächennormale dem gesamten Polygon für eine flache Schattierung und ein Drahtgitter zuordnen. Intensitätsberechnungen werden ausgeführt unter Verwendung eines Vektor- Punktproduktes zwischen der Oberflächennormale oder -normalen und der Beleuchtungsquelle, um eine diffus reflektierende Lambert-Oberfläche zu verwirklichen. Glanz und Intensitätswerte werden sodann dem Polygon zugeordnet. Das Verfahren und die Vorrichtung der Erfindung liefern ebenfalls ein Punkt-Abgabeschema, wobei die GAP's nur einen Scheitelpunkt eines jeden Polygons transformieren und wobei die Formmaschine 40, die weiter unten in Einzelheiten erläutert wird, gesperrt ist. In diesem Punkt-Abgabeformat werden Glanz und Intensität basierend auf dem ebenen Polygon zugeordnet, das den Scheitelpunkt enthält, und die Abgabemaschine wird gesperrt. Punktpolygone können in dem gleichen Bild wie Polygone mit mehreren Scheitelpunkten auftreten oder sie können selbst das gesamte Bild umfassen. Die "Punkte" werden durch die Polygon-Abgabemaschine 34 hindurchgereicht. Eine Entfernung zu den Scheitelpunkten oder zu dem Polygon (Zvv) wird verwendet, wenn ein Nebel- oder "Da Vinci"-Effekt aufgerufen wird, wie dies unten erläutert wird. Die GAP's transformieren ebenfalls dreidimensionale Überlagerungssymbole aus dem Weltraum in den Schirmraum.
  • Bezug nehmend nunmehr auf Fig. 9 ist ein Blockdiagramm eines Ausführungsbeispieles eines Geometriefeld-Prozessors (GAP) gezeigt. Der GAP umfaßt einen Datenregister- Dateispeicher 202, einen Gleitkomma-Multiplizierer 204, einen Koeffizientenregister- Dateispeicher 206, einen Gleitkomma-Akkumulator 208, einen 200 MHz-Oszillator 210, einen Mikrosequenzer 212, einen Steuerspeicher RAM 214 und eine Verriegelung 216.
  • Der Register-Dateispeicher kann vorteilhafterweise eine Kapazität von 512 · 32-Bit besitzen. Der Gleit-Akkumulator 208 umfaßt zwei Eingangsanschlüsse 209A und 209B mit unabhängigen Freigaben, einen Ausgangsanschluß 211 und eine Zustandscode-Schnittstelle 213, die auf Fehlercodes anspricht. Der Gleitkomma-Akkumulator arbeitet mit vier Befehlen, nämlich Multiplizieren, no-op, Durchlauf A und Durchlauf B. Der Mikrosequenzer 212 arbeitet mit sieben Befehlen einschließlich Schleife bei Zählstand, Schleife bei Bedingung, Sprung, Fortsetzung, Aufruf, Rückkehr und Ladezähler. Der Mikrosequenzer umfaßt eine Debug-Schnittstelle mit einem internen Lese/Schreib (R/W)- Register, einem R/W-Steuerspeicher, einem Adresshalt und einem Einzelschritt und umfaßt ferner eine Prozessor-Schnittstelle mit einem Signalinterrupt, einem Statusregister und einem Steuerregister.
  • In einem alternativen Ausführungsbeispiel der Erfindung ist es möglich, dem Betrachter der Darstellung den visuellen Effekt der Umgebungseinhüllung in Nebel zu geben. Die Nebeloption wird verwirklicht durch Interpolation der Farbe der Dreieck-Scheitelpunkte gegen die Nebelfarbe. Da die Dreiecke mit der Entfernung kleiner werden, werden die Nebelpartikel dichter. Durch Verwendung der bekannten Beziehung zwischen der Entfernung und der Nebeldichte kann die Nebeldicke wie gefordert eingestellt werden. Die Scheitelpunktzuordnung interpoliert die Scheitelpunktfarbe gegen die Nebelfarbe in Funktion der Entfernung gegen den Horizont. Die Nebeltechnik kann in der Hardwareversion des GAP verwirklicht werden und kann z. B. in einem GaAS- Halbleiterchip enthalten sein. Wenn ein linearer Farbraum angenommen wird (typischerweise als "RGB" bezeichnet, um die Primärfarben rot, grün und blau wiederzugegen, so wird der Betrag an Nebel als eine Funktion der Farbberechnung des Bereichs der Polygon-Scheitelpunkte durch wohlbekannte Techniken hinzugefügt. Da der Glanz durch die Elevationsbande oder den monochromen Default-Wert zugeordnet ist, ist die Nebelfarbe angeheftet. Die Abgabemaschine 34, die weiter unten in Einzelheiten erläutert wird, interpoliert sodann geradewegs die inneren Punkte.
  • In einem anderen alternativen Ausführungsbeispiel der Erfindung wird ein Da Vinci-Effekt verwirklicht. Der Da Vinci-Effekt veranlaßt das Terrain in der Ferne zu verschwimmen und sich mit dem Horizont zu vermischen. Er wird als eine Funktion der Entfernung der Polygon-Scheitelpunkte durch den GAP verwirklicht. Die Horizontfarbe wird zu den Scheitelpunkten in gleicher Weise wie der Nebeleffekt hinzugefügt.
  • Form-Adressgenerator (SHAG)
  • Der SHAG 12 empfängt die orthographisch projizierte Sicht-Volumenbegrenzung auf dem Pufferspeicher von dem DSM. Er berechnet individuelle Linienlängen der Abtastungen und die Komponenten Delta x und Delta y. Er tastet ebenfalls die Erhebungsposten aus dem Erhebungs-Pufferspeicher ab und reicht sie zu den GAP's für die Transformation weiter. In einem Ausführungsbeispiel der Erfindung umfaßt der SHAG vorzugsweise zwei arithmetische Logikeinheiten (ALU's) für die Unterstützung des Pufferspeichers 10 mit einer Zugriffszeit von 50 nsec. In dem SHAG werden Daten für die GAP's erzeugt und es werden Steuersignale zu der Formmaschine 40 weitergereicht. DFAD-Daten werden in den Überlagerungs-RAM (nicht gezeigt) heruntergeladen und dreidimensionale Symbole werden von dem Symbolgenerator 38 zu den GAP's gereicht. Die Zuordnung des Farbtones zu dem Erhebungs-Farbband wird in dieser Funktion ausgeführt. Der SHAG erzeugt Formen für die ebene Ansicht, die perspektivische Ansicht, die Unsichtbarkeit und die Radar-Simulation. Diese sind in Fig. 7 veranschaulicht. Der SHAG wird vollständiger in der EP-A2-0 345 672 erläutert.
  • Ein einfaches Lambert-Beleuchtungs-Diffusionsmodell hat sich für die Erzeugung der Tiefenmarkierung in einem Ausführungsbeispiel der Erfindung als geeignet herausgestellt. Die Sonnen-Winkelposition ist vollständig in Azimut und Zenit programmierbar. Sie kann ebenfalls selbstpositionierend sein in Abhängigkeit von der Tageszeit, der Jahreszeit, des Breiten- und Längengrades. Eine programmierbare Intensität mit Grauskala anstelle von Farbe verwirklicht den Algorithmus bezüglich der Mond-Winkelposition. Der Anzeige- Datenstrommanager (DSM) programmiert die Sonnenwinkel-Register. Die Beleuchtungsintensitäten der Mond-Winkelposition können mit den Mond-Zunahme- und Abnahmezyklen verändert werden.
  • Formmaschine und Texturmaschine
  • Weiter Bezug nehmend auf die Fig. 4 und 5 kann die Einrichtung für die Berechnung der Textur-Scheitelpunktadesse 18 die Formmaschine 40 umfassen. Erhebungsposten sind Scheitelpunkte ebener Dreiecke, die die Oberfläche des Terrains modellieren. Diese Posten sind mit der entsprechenden U, V-Koordinatenadresse versehen, die im Texturraum berechnet sind. Dieser Hinweis eliminiert das Erfordernis nach einer Interpolation durch die Substitution einer Adressenaufsuche. Unter Bezugnahme auf die Fig. 10A, 10B, 10C und 10D mit fortgesetzter Bezugnahme auf die Fig. 4 und 5 ist die Architektur der Texturierung veranschaulicht, wie sie durch die Erfindung verwendet wird. Fig. 10A zeigt ein Beispiel von DTED-Datenposten DP im Erdraum. Fig. 1 OB zeigt den zugeordneten Texturraum für die Datenposten. Fig. 10C zeigt die Datenposten und das sich ergebende Polygon im Schirmraum. Fig. 10D veranschaulicht konzeptionell die Interpolation der markierten Adressen in ein sich ergebendes Polygon RP. Die Texturmaschine 30 führt das Strukturmanagement der markierten Daten und den Filterprozeß aus. Wenn die Dreiecke zu der Abgabemaschine durch die Formmaschine weitergereicht werden, um mit der Textur gefüllt zu werden, so wird die markierte Texturadresse von dem Elevationsposten benutzt, um die Textur-Speicheradresse zu erzeugen. Der Texturwert wird gefiltert durch die Filter- und Interpolationseinrichtung 26 bevor er vor der Anzeige in den Vollrahmen- Speicher 22 geschrieben wird.
  • Die Formmaschine erzeugt die ebenen Polygone aus den transformierten Scheitelpunkten, den Schirmkoordinaten und reicht sie zu der Abgabemaschine weiter. Für Terrainpolygone wird ein Verbindungs-Offset von einer Zeilenabtastung zu der nächsten verwendet, um die Polygone zu konfigurieren. Für Überlagerungssymbole liegt eine Verbindungsliste in einem Pufferspeicher (nicht gezeigt) vor und wird für die Polygonerzeugung verwendet. Die Formmaschine informiert ebenfalls den GAP, wenn sie beschäftigt ist. In einem Ausführungsbeispiel liegen 512 Scheitelpukte in einem 1K-Puffer vor. Alle Polygone mit Oberflächennormalen von mehr als 90º gegenüber der LOS werden bei der Abgabe eliminiert. Dies ist in der Technik als Hintergrundentfernung bekannt. Solche Polygone müssen nicht transformiert werden, da sie auf dem Anzeigeschirm nicht sichtbar sind. Zusätzliche Verbindungsinformation muß erzeugt werden, wenn die Polygone nicht eben sind, da der Transformationsprozeß beteiligte Kanten erzeugt. Dies erfordert, daß die Verbindungsinformation dynamisch erzeugt wird. Somit werden nur ebene Polygone mit weniger als 513 Scheitelpunkten verwirklicht. Nichtebene Polygone und dynamische Verbindungsalgorithmen werden durch die Formmaschine nicht verwirklicht.
  • Ausgabemaschine
  • Erneut Bezug nehmend auf Fig. 5 bildet die Ausgabemaschine 34 der Erfindung eine Einrichtung zum Zeichnen von Polygonen in einer Vielzahl von Arten. Die Elemente der Ausgabemaschine können umfassen Interpolationsalgorithmen für die Verarbeitung von Koordinaten und Farbe, für die Entfernung von verdeckter Oberfläche, für Konturlinien, für flugzeugbezogene Farbbänder, für flache Schattierung, für Gouraud-Schattierung, für Phong-Schattierung, für Gitterformat oder Schirmtüreffekte, für die Erhebungslinien- Darstellung, für Querschnitte, für Hintergrundentfernung und für RECE (Luftaufklärung)- Photobetrieb. Bei den meisten bekannten Verfahren der Bildsynthese wird das Bild erzeugt durch Aufbrechen der Oberflächen des Objektes in Polygone, Berechnung der Farbe und der Intensität an jedem Scheitelpunkt des Polygons und Eingabe der Ergebnisse in einen Rahmenpuffer, während die Farben über dem Polygon interpoliert werden. Die Farbinformation an den Scheitelpunkten wird berechnet aus den Lichtquellendaten, der Oberflächennormale, der Erhebung und/oder kulturellen Elementen.
  • Die Interpolation der Koodinate und der Farbe (oder Intensität) über jedem Polygon muß rasch und genau ausgeführt werden. Dies wird verwirklicht durch Interpolation der Koordinate und Farbe an jedem quantisierten Punkt bzw. Pixel an den Kanten des Polygons und nachfolgende Interpolation von Kante zu Kante, um die Füllinien zu erzeugen. Für die Entfernung einer verdeckten Oberfläche, wie sie z. B. durch einen Z-Puffer in wohlbekannter Weise vorgegeben wird, wird die Tiefe bzw. der Z-Wert für jedes Pixel ebenfalls berechnet. Da ferner Farbkomponenten unabhängig über einer Oberfläche oder einer Gruppe von Oberflächen variieren können, werden die roten, grünen und blauen Intensitäten unabhängig interpoliert. Somit wird ein Minimum von sechs unterschiedlichen Parametern (X, Y, Z, R, G, B) unabhängig berechnet, wenn Polygone mit Gouraud-Schattierung und interpolierten Z-Werten ausgegeben werden.
  • Zusätzliche Elemente der Ausgabemaschine umfassen eine Einrichtung zur Vorgabe von Konturlinien und flugzeugbezogenen Farbbändern. Für diese Elemente wird die Elevation ebenfalls an jedem Pixel interpoliert. Transparenz-Elemente geben vor, daß ein Alpha- Kanal beibehalten und in gleicher Weise interpoliert wird. Diese Anforderungen beinhalten zwei zusätzliche Interpolationsachsen, was zu einem Gesamtwert von acht führt. Die Ausgabemaschine ist in der Lage, Polygone von einem Scheitelpunkt im Punktmodus zu verarbeiten, von zwei Scheitelpunkten im Zeilenmodus und von drei bis 512 koplanaren Scheitelpunkten im Polygonmodus.
  • Im flachen Schattierungsmodus ordnet die Ausgabemaschine dem Polygon eine einzige Farbe über die gesamte Oberfläche zu. Ein beliebiger Scheitelpunkt wird ausgewählt, um sowohl den Farbton als auch die Intensität für das gesamte Polygon zuzuordnen. Dies wird verwirklicht durch Zuordnung identischer RGB-Werte zu allen Scheitelpunkten. Eine Interpolation wird normalerweise ausgeführt, führt aber zu einem konstanten Wert. Diese Lösung beschleunigt nicht den Ausgabeprozeß, führt aber den Algorithmus ohne Einfluß auf die Hardware aus.
  • Der in der Ausgabemaschine enthaltene Gouraud-Schattierungsalgorithmus interpoliert die Intensitäten zwischen den Scheitelpunkten eines jeden Polygons, das sich in einer linearen Weise ergibt. Dies ist der Default-Modus. Der Phong-Schattierungsalgorithmus interpoliert die Oberflächennormalen zwischen den Scheitelpunkten des Polygons zwischen den Intensitätsberechnungen. Die Ausgabemaschine hat somit eine Beleuchtungsberechnung an jedem Pixel nach der Interpolation auszuführen. Diese Lösung würde beträchtlich den Hardwareentwurf beeinflussen. Dieser Algorithmus kann jedoch simuliert werden unter Verwendung einer Gewichtungsfunktion (typischerweise eine Kosinusfunktion) um ein schmales Band von Intensitäten. Dies führt zu einer nichtlinearen Interpolation und liefert einen simulierten spiegelnden Reflexionsfaktor. In einem alternativen Ausführungsbeispiel kann der GAP verwendet werden, um die Scheitelpunkte des Polygons dieser nichtlinearen Gewichtung über die Aufsuchtabelle zuzuordnen und die Ausagabemaschine interpoliert wie bei einer Gouraud-Schattierung.
  • Eine Transparenz wird im klassischen Sinne unter Verwendung eines Alpha-Kanales verwirklicht oder kann mit einem Schirmtüreffekt simuliert werden. Der Schirmtüreffekt ergibt einfach das transparente Polygon wie normal aber nur mit einer Ausgabe eines jeden zweiten oder dritten Pixels. Das Gitterformat erscheint als eine Überlagerung eines Drahtrahmens mit der Wahl der Ausgabe entweder von entfernten oder nicht entfernten verdeckten Linien. Im Falle eines Bedrohungsdom-Symbols müssen alle Polygonkanten sowie das Hintergrundterrain dargestellt werden. In einem solchen Fall wird der Füllalgorithmus der Ausgabemaschine gesperrt und nur die Polygonkanten ausgegeben. Die Interpolation der Intensität wird mit den Kanten ausgeführt, die eine Breite von zwei Pixeln besitzen müssen, um eine Austastung zu eliminieren. In einem Ausführungsbeispiel umfaßt eine Wahlmöglichkeit für ein Terraingitter die Möglichkeit der Markierung von Kanten für die Ausgabe, so daß das Gitter als ein regelmäßiges orthogonales Gitter auftritt.
  • Typisch für das Format eines am Kopf getragenen Displays (HUD), das bei Flugzeugen verwendet wird, ist die Darstellung von Erhebungslinien und von Querschnitten. Im Erhebungslinienformat wird eine Linienzeichnung aus Polygonkanten erzeugt, deren Neigungen das Vorzeichen bezogen auf den Betrachtungspunkt verändern. Alle Polygone werden transformiert, geformt und sodann werden die Oberflächennormalen berechnet und mit dem Betrachtungspunkt verglichen. Die Formmaschine entfernt die Scheitelpunkte von Kanten, die zu der Erhebung nicht beitragen und sie reicht nur die Erhebungspolygone zu der Ausgabemaschine weiter. Im Querschnittsmodus werden feste Bereichsfächer in Bezug auf das Flugzeug definiert. Eine Ebene senkrecht zu der Sichtlinie LOS wird sodann für die Ausgabe durchquert. Die Kanten scheinen sodann über das Terrain zu rollen, wenn das Flugzeug darüberfliegt. Diese Algorithmen sind ähnlich zu der Hintergrundentfernung. Sie stützen sich auf die Polygon-Oberflächennormale, die zu der Formmaschine gegeben wird.
  • Eine momentane Verwirklichung der Erfindung garantiert sich nicht schneidende Polygonseiten durch Beschränkung der ausgegebenen Polygone auf ebene Polygone. Sie können bis zu 512 Scheitelpunkte besitzen. Polygone können ebenfalls aus ein oder zwei Scheitelpunkten bestehen. Das Polygonende-Bit wird bei dem letzten Scheitelpunkt gesetzt und durch die Ausgabemaschine verarbeitet. Das Polygon ist mit einem zwei Bit- Ausgabecode markiert, um ein Gitter, eine Transparenz oder eine Gouraud-Schattierung auszuwählen. Die Ausgabemaschine verwirklicht ebenfalls eine Feinbegrenzung des Schirmes für das Polygon und verwirklicht eine Glättungsfunktion für Linien.
  • Eine wahlfreie Luftaufklärungs (RECE)-Photobetriebsweise veranlaßt den GAP, eine Luftaufklärungsphotographie in die DTED-Datenbank zu texturieren. Bei diesem Verfahren wird die Farbton-Interpolation der Ausgabemaschine gesperrt, da jedem Pixel der Abwicklung eine Farbe von dem RECE-Photo zugeordnet ist. Die Intensitätskomponente der Farbe wird in bekannter Weise als eine Funktion der Oberflächennormale sowie der Z-Tiefe oszilliert. Diese Pixel werden sodann durch die Ausgabemaschine mit einer Gleichrichtung des Z-Puffers verarbeitet, so daß andere Überlagerungen, wie beispielsweise Bedrohungen berücksichtigt werden können. Die RECE-Photos, die bei diesem Verfahren verwendet werden, sind zuvor in eine gewürfelte Geoid-Datenbank abgewickelt worden und entsprechen somit Pixel für Pixel den DTED-Daten, wie dies in der US-A-4 899 293 beschrieben ist. Die Photos können dichter als die Terraindaten sein. Dies beinhaltet einen tieferen Pufferspeicher, um die RECE-Photos zu speichern. Eine aeronautische Karten-Abwicklung ist identisch zu dem Verfahren mit RECE-Photos mit der Ausnahme, daß aeronautische Karten in dem zweiten Pufferspeicher verwendet werden. Das DTED-Abwicklungsverfahren verwendet DTED-Daten für das Elevations- Farbband der aeronautischen Karten.
  • Die Polygon-Ausgabemaschine kann vorzugsweise in einem allgemeinen Interpolations- Pipelineprozessor (GIPP) des Typs verwirklicht werden, wie er in der EP-A2-0 382 139 offenbart ist. In einem Ausführungsbeispiel der Erfindung füllen die GIPP's die transformierten Polygone unter Verwendung eines bilinearen Interpolationsschemas mit sechs Achsen (X, Y, Z, R, G, B) ein. Der ursprüngliche Schaltkreis wird ein 16 Bit-Paar und ein 8 Bit-Paar von Werten gleichzeitig interpolieren, so daß drei Chips für eine Polygonkante erforderlich sind. Ein Ausführungsbeispiel des Systems der Erfindung ist bemessen, um eine Million Pixel pro Rahmenzeit zu verarbeiten. Dies ist ausreichend, um eine Karte mit einer Auflösung von 1K · 1K zu erzeugen oder einen 512 · 512 DTED- Rahmen mit im Mittel vier Überschreibungen pro Pixel während der Entfernung der verdeckten Oberfläche, wobei die GIPP's Daten mit einer Rate von 60 nsec ausgeben und jeder FIFO, F1-F4, wie in Fig. 6 gezeigt, Daten im Mittel alle 240 nsec empfängt. Eine gleichmäßige Verteilung kann angenommen werden, wenn die unteren 2x-Adressbits decodiert werden. Somit ist der Speicher in Spalten mit einer Breite von einem Pixel unterteilt. Fig. 6 wird unten in näheren Einzelheiten erläutert.
  • Bezug nehmend erneut auf die Fig. 4 und 5 werden die "Punkte" durch die GIPP's ohne weitere Verarbeitung durchgereicht. Somit wird das Endbit eines jeden Polygons gesetzt. Ein ZB-Puffer wird benötigt, um die Farbe eines Punktes an einem vorgegebenen Pixel für die Entfernung eines verdeckten Punktes zu ändern. Eine perspektivische Tiefenmarkierung wird erhalten, wenn die Punkte näher zueinander gelangen und die Entfernung von dem Betrachtungspunkt anwächst.
  • Eine bilineare Interpolation arbeitet in ebener Ansicht entweder bei DLMS oder aeronautischen Karten. Sie erzielt eine 20 Hz-Interpolation bei einem 512 · 512-Display. Die GIPP's führen die Interpolationsfunktion aus.
  • Datenbanken
  • Eine DTED-Datenbank vom Pegel I ist in einem Ausführungsbeispiel der Erfindung enthalten und wird vorteilhafterweise in Intervallen von drei Bogensekunden abgetastet. Puffersegmente sind vorzugsweise bei den höchsten Maßstäben (104,24 nm) und den dichtesten Daten (13,03 nm) abgespeichert. Mit einem solchen Schema können alle anderen Maßstäbe gebildet werden. Eine DTED-Datenbank auf dem Pegel II ist ebenfalls enthalten und wird in Intervallen von einer Bogensekunde abgetastet. Puffersegmente sind vorzugsweise nur an den dichtesten Daten (5,21 nm) abgespeichert.
  • Eine DFAD-Datenbank für kulturelle Merkmale ist in einer Displayliste von 2K-Worten für jedes Puffersegment abgespeichert. Die Datenstruktur besteht aus einem Ikon- Zettelaufruf, einem Ort im Pufferspeicher, und Transformationskoeffizienten vom Modellraum zum Erdraum bestehend aus Skalierung, Rotation und Position (Translation). Eine zweite Datenstruktur umfaßt eine Liste von Polygonscheitelpunkten in Erdkoordinaten und eine Farbe bzw. Textur. Die DFAD-Daten können ebenfalls ähnlich Luftaufklärungsphotos auf ein Terrain gerastert oder diesem überlagert werden.
  • Aeronautische Karten mit verschiedenen Maßstäben werden in das gewürfelte Geoid abgewickelt. Diese Daten besitzen eine Tiefe von 24 Bit. Pixeldaten wie beispielsweise LandSat, FLIR, Datenrahmen und andere eingescannte Quelldaten können von einem Bit bis zu 24 Bit im Quadrat (1, 2,4,8,16,24) reichen.
  • Rahmenpuffer-Konfiguration
  • Erneut Bezug nehmend auf Fig. 6 ist die Rahmenpuffer-Konfiguration eines Ausführungsbeispieles der Erfindung schematisch dargestellt. Die Rahmenpuffer- Konfiguration wird durch ein Ausführungsbeispiel der Erfindung verwirklicht und umfaßt einen Polygon-Ausgabechip 34, der Daten an den Vollrahmen-Speicher 42 liefert. Der Vollrahmen-Speicher 42 umfaßt vorteilhafterweise (FIFO)-Puffer F&sub1;, F&sub2;, F&sub3; und F&sub4;. Wie oben bei der Erläuterung der Ausgabemaschine angezeigt, ist der Speicher in Spalten mit einer Breite von einem Pixel unterteilt, wie dies in Fig. 6 gezeigt ist. Tut man dies jedoch, so muß die Chipauswahl bei jedem Pixel verändert werden, wenn der Master-Zeitgeber 44 gemäß Fig. 5 den Speicher liest. Durch Ausrichtung der SHAG-Abtastleitungen unter 90º zu den Master-Zeitgeber-Abtastleitungen wird jedoch die Chipauswahl auf jeder Leitung geändert. Der SHAG beginnt mit der Abtastung an der unteren linken Ecke des Displays und fährt zu der oberen linken Ecke des Displays weiter.
  • Beim Aufbrechen des Bildes in dieser Weise kann die Wahrscheinlichkeit, daß der GIPP in den gleichen FIFO zweimal in einer Zeile oder dreimal, viermal usw. schreibt, berechnet werden, um festzulegen, wie tief der FIFO sein muß. Eine Decodierung der niedrigrangigen Adressbits bedeutet, daß die einzige Zeit, bei der die Ausgabemaschine in den gleichen FIFO zweimal in eine Reihe schreiben wird, dann gegeben ist, wenn eine neue Abtastzeile gestartet wird. Bei einer Tiefe von vier, wie in der Rahmenpuffer-Darstellung 100 gezeigt, liegt die Chance der Auffüllung des FIFO bei ungefähr 1 : 6,4K. Bei einem Bild mit 1 Million Pixel ist dies eine annehmbar geringe Zahl für die meisten Anwendungen. Die perspektivischen Sichttransformationen für 10.000 Polygone mit den Leistungs- und Platinenbeschränkungen, die durch die Umgebung eines Flugzeugs auferlegt werden, sind beträchtlich. Der Datendurchfluß für einen vorgegebenen Szenenaufwand kann erreicht werden durch die Hinzufügung von mehr parallelen Pipelines in der Architektur. Es ist erwünscht, so wenig wie möglich Pipelines zu haben, vorzugsweise nur eine, so daß die Bildrekonstruktion am Ende der Pipeline nicht durch eine Schiedsrichter-Engstelle eines Z-gepufferten Displayspeichers behindert wird.
  • In einem Ausführungsbeispiel der Erfindung ist die erforderliche Verarbeitungsleistung durch die Verwendung von GaAs-VSLI-Technologie für parallele Pipelines und einen parallelen Rahmenpufferentwurf erzielt worden, wodurch die Engstellen eliminiert wurden. Eine modulare Architektur gestattet die Hinzufügung zusätzlicher Funktionen, um die Integration der digitalen Darstellung in der Flugzeugkabine voranzubringen. Die Systemarchitektur der Erfindung besitzt hohe Flexibilität während die Geschwindigkeit und der Datendurchfluß aufrechterhalten wird. Die Lösung der Polygon-Datenbankstruktur erlaubt einen beliebigen Szenenaufwand und eine Vielzahl von Datenbanktypen.
  • Die Datenstruktur der Erfindung ist markiert, so daß irgendein Polygon über irgendeines der verwirklichten Schemen in einem einzigen Rahmen ausgegeben werden kann. Somit kann ein bestimmtes Bild ein Terrain mit Gouraud-Schattierung, transparente Bedrohungsdome, kulturelle Merkmale mit flacher Schattierung, Linien und Punkten aufweisen. Da zusätzlich jedes Polygon markiert ist, kann ein einzelnes Ikon verschieden schattierte Polygone umfassen. Die Erfindung beinhaltet ein 24 Bit-Farbsystem, obgleich eine erzeugte Karte auf 12 Bit skaliert sein kann. Ein 12 Bit-System liefert 4K-Farben und erfordert eine 32K · 8 RGB RAM-Aufsuchtabelle (LUT).
  • Verschiedene Merkmale
  • Die Displayformate sind in einem Beispiel der Erfindung mit weniger als 600 msec zwischen Papieraufzeichnung und einer ebenen und perspektivischen DLMS-Ansicht umschaltbar. Ein großer Puffer (1 Megabit D-RAM) ist für die Texturabbildung erforderlich. Andere Formatanzeigen wickeln Kartendaten über den DTED-Daten ab oder verwenden DTED-Daten für eine Pseudokolorierung der Karte. Beispielsweise verändert die Farbpalette die LUT für eine Transparenz. Der GAP wird verwendet, um eine wahre orthographische Projektion der Aufzeichnungsdaten zu bilden.
  • Ein Editiermodus für drei Dimensionen wird durch die Vorrichtung der Erfindung gestützt. Ein dreidimensionales Objekt wie z. B. ein "Weg am Himmel" kann für die Edition markiert werden. Dies wird verwirklicht zunächst durch Bewegung in zwei Dimensionen bei einer vorgegebenen AGL, zweitens durch Fortschreiben der AGL in der dreidimensionalen Ansicht und schließlich durch Fortschreiben der Datenbank.
  • Der Überlagerungsspeicher von dem DMC kann videomäßig mit dem Displayspeicher der perspektivischen Ansicht gemischt werden.
  • Die Möglichkeit der Rahmeneinfrierung wird durch die Erfindung unterstützt. In diesem Modus wird die Flugzeugposition unter Verwendung des Cursors fortgeschrieben. Wenn das Flugzeug aus dem Schirm fliegt, wird die Darstellung an der geeigneten Stelle zurückspringen. Diese Möglichkeit wird nur bei der ebenen Ansicht verwirklicht. Es gibt Datenrahmensoftware, um ein Durchstreifen des Pufferspeichers zu ermöglichen. Dieses Merkmal erfordert einen Zweiachsen-Steuerknüppel oder eine ähnliche Steuerung. Die Auflösung im Z-Puffer beträgt 16 Bit. Dies erlaubt einen Abwärtsbereich von 64K Metern.
  • Das durch den Computer erzeugte Bild besitzt eine Fortschreibungsrate von 20 Hz. Der Hauptzyklus ist programmierbar und veränderlich, wobei keine Rahmenerweiterung beteiligt ist. Das System läuft so schnell wie es kann, schaltet aber keine Ping-Pong- Displayspeicher solange bis jede funktionelle Einheit eine Nachricht "Pipeline leer" an den Displayspeicher ausgibt. Der Hauptzyklus kann ebenfalls auf einen festen Rahmen mit mehrfachen von 16,6 msec verriegelt sein. Im Modus mit veränderlichen Rahmen wird der Prozessortakt verwendet für eine sanfte Rahmeninterpolation zum Durchstreifen oder Zoomen. Die Rahmenerweiterung des DMC wird im perspektivischen Sichtmodus eliminiert. Eine ebene Sicht wird in der gleichen Pipeline wie die perspektivische Sicht verwirklicht. Der GPP 105 lädt das Abwärts-Zählregister des Master-Zeitgebers, um die Fortschreibungsrate zu steuern.
  • Die geringste Fortschreibungsrate beträgt 8,57 Hz. Das Bild muß in dieser Zeit erzeugt werden oder die Speicher schalten um. Dies beinhaltet eine Pipelinegeschwindigkeit von 40 Millionen Pixel pro Sekunde. Bei einem 512 · 512-Bild ergeben sich schätzungsweise 4 Millionen Pixel, die im schlimmsten Fall mit schwer verdeckter Oberflächenentfernung ausgegeben werden. In den meisten Fällen müssen nur 1 Million Pixel ausgegeben werden. Fig. 8 veranschaulicht die Analyse der Pixel-Überschreibungen. Die minimale Anforderung für die Oberflächen-Normalenauflösung, so daß das beste Bild erzielt wird, beträgt 16 Bit. Hieran angebunden ist die Weise, in der die Normale berechnet wird. Eine Mittelwertbildung in der Umgebung gibt ein glatteres Bild bei einer Maßstabsänderung oder bei einem Zoom. Die Verwendung einer Form ist weniger komplex, führt aber zu einer geringeren Bildqualität. Die Oberflächennormale wird bei Durchlauf gemäß bekannter Techniken berechnet.
  • Displayspeicher
  • Dieser Speicher ist eine Kombination der Szene und der Überlagerung mit einem Z-Puffer. Er ist verteilt oder unterteilt für ein optimales Laden während des Schreibens und während des Auslesens als Rahmenpuffer konfiguriert. Der erforderliche Master-Zeittakt beträgt ungefähr 50 MHz. Die Displayspeicher-Auflösung kann mit 512 · 512 · 12 oder mit 1024 x 1024 · 12 konfiguriert sein. Der Z-Puffer besitzt eine Tiefe von 16 Bit und eine Auflösung von 1K · 1K. Beim Beginn eines jeden Hauptzyklus werden die Z-Werte auf plus unendlich (FF Hexadezimal) eingestellt. Unendlich (Zmax) ist programmierbar. Die rückwärtige Beschneidungsebene wird durch den DSM über den Steuerbus eingestellt.
  • Beim Beginn eines jeden Hauptzyklus wird der Displayspeicher auf die Hintergrundfarbe eingestellt. Bei bestimmten Betriebsweisen, wie z. B. Gitter oder Punkt, wird diese Farbe verändert. Ein Hintergrund-Farbregister wird durch den DSM über den Konfigurationsbus geladen und verwendet, um den Speicher zu füllen.
  • Videogenerator/Master-Zeitgeber
  • Der Videogenerator 46 führt die Digital/Analog-Wandlung der Bilddaten in dem Displayspeicher für das Senden zu dem Anzeigekopf aus. Er kombiniert den Datenstrom von dem Überlagerungsspeicher des DMC mit dem Displayspeicher von der perspektivischen Ansicht. Der Konfigurationsbus lädt die Farbkarte.
  • Eine überlappende 30 Hz-Auffrischrate kann in einem System verwirklicht sein, das die vorliegende Erfindung verwendet. Farbpaletten sind durch den GPP ladbar. Die Erfindung nimmt einen linearen Farbraum in RGB ein. Alle Farben bei der Intensität Null gehen zu schwarz.
  • Dreidimensionaler Symbolgenerator
  • Der dreidimensionale Symbolgenerator 38 führt die folgenden Aufgaben aus:
  • 1. Er legt die Modell/Erd-Transformationskoeffizienten in dem GAP ab.
  • 2. Er arbeitet mit der Geometriemaschine zusammen, um die Erd/Schirm- Transformationsmatrix mit der Modell/Erd-Transformationsmatrix zu multiplizieren und eine Modell/Schirm-Transformatiosmatrix zu bilden. Diese Matrix wird über der Modell/Erd-Transformationsmatrix gespeichert.
  • 3. Er arbeitet mit der Modell/Schirm-Transformationsmatrix an jedem Punkt des Symboles von der Scheitelpunktliste zusammen, um das allgemeine Ikon in das spezielle Symbol zu transformieren.
  • 4. Er verarbeitet die Verbindungsliste in der Formmaschine und bildet die Schirmpolygone und reicht sie zu der Ausgabemaschine.
  • Die Symbolgenerator-Datenbank besteht aus der Scheitelpunktlisten-Bibliothek und 64K- Bytes des Überlagerungs-RAM und einer Verbindungsliste. Bis zu 18K-Bytes von DFAD (d. h. 2K-Bytes der Displayliste vom Schattenpuffer RAM · 9 Puffersegmente) werden in den Überlagerungs-RAM für die Verarbeitung kultureller Elemente geladen. Der Rest des Speichers speichert die Bedrohungs/Intelligenz-Datei und die Missions-Planungsdatei für den gesamten Operationsbereich. Der Überlagerungs-RAM wird über den Steuerbus von dem DSM-Prozessor mit der Bedrohungs- und Missions-Planungsdatei geladen. Der SHAG lädt die DFAD-Datei. Die Symbol-Bibliotheken werden über den Konfigurationsbus fortgeschrieben.
  • Die Scheitelpunktliste enthält die relativen Scheitelpunktpositionen der Ikons der allgemeinen Bibliothek. Zusätzlich enthält sie eine 16 Bit-Oberflächennormale, ein 1 Bit- Hinweis für das Polygonende und ein 1 Bit-Hinweis für das Symbolende. Die Tabelle besitzt 32K · 16 Bit. Ein Maximum von 512 Scheitelpunkten kann irgendeinem vorgegebenen Ikon zugeordnet sein. Die Verbindungsliste enthält die Verbindungsinformation der Scheitelpunkte des Symbols. Eine 64K · 12 Bit-Tabelle speichert diese Information.
  • Ein Weg am Himmel-Format kann bei diesem System verwirklicht sein. Es besteht entweder aus einem Drahtrahmentunnel oder einem angehobenen Straßenbett für die Zwecke der Flugstrecke. Der Drahtrahmentunnel ist eine Reihe von verbundenen transparenten Rechtecken, die durch die Formmaschine erzeugt werden, von denen nur die Kanten sichtbar sind (Drahtgitter). Alternativ können die Polygone im voraus in Erdkoordinaten berechnet werden und in einer Missions-Planungsdatei gespeichert werden. Das Straßenbett umfaßt in gleicher Weise Polygone, die durch die Formmaschine entlang einer festgelegten Wegstrecke erzeugt werden. In jedem Fall muß die Geometriemaschine diese Polygone aus dem Objektraum (Erdkoordinatensystem) in den Schirmraum transformieren. Die transformierten Scheitelpunkte werden sodann zu der Ausgabemaschine weitergereicht. Die Parameter (Höhe, Breite, Frequenz) der Tunnel- und Straßenbett-Polygone sind programmierbar.
  • Ein anderes in dem System verwendetes Symbol ist ein Wegpunkt-Hinweis. Wegpunkt- Hinweise sind Markierungen, die aus einem transparenten oder einem lichtundurchlässigen Dreieck auf einem vertikalen Stab bestehen, der perspektivisch ausgegeben wird. Das Wegpunkt-Hinweis-Ikon wird durch den Symbolgenerator als ein Makro aus einer Missions-Planungdatei erzeugt. Alternativ können sie im voraus als Polygone berechnet und gespeichert werden. Die Geometriemaschine empfängt die Scheitelpunkte von dem Symbolgenerator und führt die perspektivische Transformation mit ihnen aus. Die Geometriemaschine reicht zu der Ausgabemaschine die Polygone des Hinweisstabes und den skalierten Zettelaufruf des alphanumerischen Symbols weiter. Das ebene Ansichtsformat besteht aus einem Kreis mit einer Zahl darin und wird nicht durch die Geometriemaschine gereicht.
  • Die DFAD-Datenverarbeitung besteht aus einer verallgemeinerten Polygonausgabe, welche 32K-Punkte auf 256 Polygone oder weniger für ein vorgegebenes Puffersegment abbildet. Diese Polygone werden sodann zu der Ausgabemaschine weitergereicht. Diese Lösung kann redundant Terrain- und DFAD-Daten für die gleichen Pixel ausgeben, ermöglicht aber leicht eine Entstörung der einzelnen Merkmale. Eine andere Lösung liegt in der Rasterung der DFAD-Daten und der Verwendung einer Textur-Abwicklungsfunktion, um das Terrain mit Farbe zu versehen. Dies gestattet nicht die Entstörung einzelner Merkmale, sondern nur von Klassen (durch die Farbe). Die Terrainfarbe schaut in spärlichen Überlagerungsbereichen hindurch und kann durch einen transparenten Farbcode gehandhabt werden (Schirmtüreffekt). Es wird keine Vertikalität erzielt.
  • Es gibt 298 Kategorien von Luft-, Linear- und Punkt-Elementen. Lineare Elemente müssen auf eine Doppellinie erweitert werden, um eine verflochtene Abtastung zu verhindern. Ein Punktelement enthält eine Länge, Breite und Höhe, die durch den Symbolgenerator für eine Erweiterung verwendet werden kann. Ein typischer See enthält 900 Scheitelpunkte und erzeugt 10 bis 20 aktive Kanten für die Ausgabe bei irgendeiner vorgegebenen Abtastlinie. Die Anzahl von Scheitelpunkten ist auf 512 beschränkt. Die Displayliste besitzt 64K-Bytes für ein 1 : 250K-Puffersegment. Irgendein gegebenes Element kann 32K-Scheitelpunkte besitzen.
  • Bis zu 2K-Bytes der Displayliste pro Puffersegment DTED werden von dem DFAD angenommen. Der DSM kann die Klassen oder einzelnen Elemente markieren für eine Störung/Entstörung durch Umschaltbits in dem Überlagerungs-RAM des SHAG.
  • Der Symbolgenerator verarbeitet Makros und graphische Ursprungszeichen, die zu der Ausgabemaschine weitergereicht werden. Diese Ursprungszeichen umfassen Linien, Bögen, alphanumerische Zeichen und zweidimensionale Symbole. Die Ausgabemaschine zeichnet diese Ursprungszeichen und gibt Pixel aus, die entzerrt sind. Der GAP transformiert diese Polygone und reicht sie zu der Ausgabemaschine. Eine vollständige 4 · 4-Eulertransformation wird ausgeführt. Typische Makros umfassen die Kompaßrose und Entfernungs-Maßstabsymbole. Bei vorgegebener Makro-Anweisung erzeugt der Symbolgenerator die Ursprungs-Graphikaufrufe an die Ausgabemaschine. Diese Betriebsweise arbeitet nur in ebener Ansicht und verwirklicht zweidimensionale Symbole. Der Fachmann wird vermerken, daß die Erfindung nicht auf spezifische Zeichen beschränkt ist. Dreidimensionale Symbole geben das Problem der Beschneidung des Betrachtungsvolumens vor. Eine Grobbeschneidung wird durch den DSM im Pufferspeicher zum Zeitpunkt der Austastung gehandhabt. Die Basis eines Bedrohungsdomes kann z. B. außerhalb der orthographischen Projektion des Sichtvolumens auf dem Pufferspeicher liegen, wobei aber noch ein Teil des Domes sichtbar auf dem Schirm liegen kann. Die klassische Verwirklichung führt die Funktionen der Formung, der Transformierung, des Beschneidens auf das Betrachtungsvolumen (welches neue Polygone erzeugt) und sodann die Ausgabe aus. Eine Grob-Beschneidungsgrenze wird im Pufferspeicher um die Projektion des Betrachtungsvolumens verwirklicht, um den Einschluß des gesamten Symbols zu garantieren. Die bei der Animation zu vermeidende Anomalie liegt darin, daß Symbole sporadisch an den Rahmengrenzen des Rahmens erscheinen und verschwinden. Eine Feinbeschneidung des Schirmes wird durch die Ausgabemaschine ausgeführt. Es gibt eine Grenze von 4K um den Schirm, die ausgegeben wird. Außerhalb dieser Grenze wird das Symbol nicht ausgegeben. Dies verursacht eine gesonderte Ausgabe, die weggeschnitten wird.
  • Bedrohungsdome werden in einem Ausführungsbeispiel durch ein invertiertes konisches Volumen graphisch dargestellt. Eine Bedrohungs/Intelligenz-Datei enthält den Ort und die Maßstabsfaktoren für das allgemeine Modell, das in die spezifischen Bedrohungen zu transformieren ist. Die Formmaschine enthält die Verbindungsinformation zwischen den Scheitelpunkten und erzeugt die planaren Polygone. Die Bedrohungspolygone werden zu der Ausgabemaschine mit verschiedenen Betrachtungsparametern weitergereicht, wie z. B. Gitter, undurchlässig, Punkt, transparent usw..
  • Kartennetze repräsentieren Breiten- und Längenlinien, UTM-Angaben usw., die in die Karte perspektivisch abgewickelt werden. Der Symbolgenerator erzeugt diese Linien.
  • Der Einfrierrahmen wird nur in ebener Ansicht verwirklicht. Der Cursor wird um den Schirm herumgeführt und wird durch den Symbolgenerator erzeugt.
  • Die Möglichkeit eines programmierbaren Blinkens ist bei der Erfindung vorgesehen. Der DSM schreibt die Umschaltung des Überlagerungs-RAM für das Display fort. Der Prozessortakt wird während der variablen Rahmen-Fortschreibungsrate verwendet, um die Blinkfrequenz zu steuern.
  • Ein allgemeines Bedrohungssymbol ist in der dreidimensionalen Symbol- Erzeugungsbibliothek modelliert und gespeichert. Parameter, wie beispielsweise die Position, die Bedrohungsentfernung und der Winkel der Bedrohung, werden an den Symbolgenerator als ein Makroaufruf weitergereicht (ähnlich einer Kompaßrose). Der Symbolgenerator erzeugt eine Polygonliste für jeden Bedrohungsfall durch Verwendung der Parameter, um das allgemeine Modell zu modifizieren und es in das Erdkoordinatensystem der Terrain-Datenbank zu bringen. Die Polygone werden transformiert und im Schirmraum durch die Pipeline der perspektivischen Ansicht ausgegeben. Diese Polygone bilden nur die äußere Umhüllung des Bedrohungskonus.

Claims (9)

1. System zur Vorgabe einer texturierten perspektivischen Ansicht mehrerer Polygone für ein digitales Abbildungssystem, aufweisend:
a) einen Pufferspeicher (10) für die Speicherung von Geländedaten;
b) einen Form-Adreßgenerator (12) für die Abtastung des Pufferspeichers (10) und zur Erzeugung einer ebenen Ansicht, einer perspektivischen Ansicht, einer Durchsichtigkeit und einer Radarsimulierung;
c) eine Geometriemaschine (36), die an den Pufferspeicher (10) angeschlossen ist für
(i) eine Transformation der Geländedaten aus dem Gegenstandsraum in den Schirmraum,
(ii) eine Erzeugung dreidimensionaler Koordinaten, und
(iii) eine Berechnung von Oberflächennormalen an jedem Scheitelpunkt des Polygons;
d) eine Formmaschine (40), die an die Geometriemaschine (36) angeschlossen ist für die Erzeugung ebener Polygone aus den transformierten Scheitelpunkten in Schirmkoordinaten;
e) einen Symbolgenerator (38), der an die Geometriemaschine (36) und die Formmaschine (40) angeschlossen ist zur Übertragung von Daten zu der Geometriemaschine (36) und zur Verarbeitung von Information von der Formmaschine (40) in Symbole;
f) eine Texturmaschine (30) für die Markierung von Erhebungsposten mit entsprechenden Adressen im Texturraum;
g) eine Ausgabemaschine (34), die an die Formmaschine (40) und die Texturmaschine (30) angeschlossen ist zur Erzeugung von Bildern aus den ebenen Polygonen; und
h) einen Displayspeicher (42), der an die Ausgabemaschine (34) angeschlossen ist.
2. System nach Anspruch 1, dadurch gekennzeichnet, daß der Displayspeicher (42) wenigstens vier FIFO-Speicherpuffer (F1 bis F4) umfaßt.
3. System nach Anspruch 1, dadurch gekennzeichnet, daß die Ausgabemaschine (34) mehrere parallele Pipelineprozessoren umfaßt.
4. System nach Anspruch 1, dadurch gekennzeichnet, daß die Ausgabemaschine (34) eine Farbe über der Oberfläche eines jeden Polygons zuordnet.
5. System nach Anspruch 1, dadurch gekennzeichnet, daß die Ausgabemaschine (34) die Intensitäten zwischen den Scheitelpunkten eines jeden Polygons in einer linearen Weise interpoliert.
6. System nach Anspruch 1, dadurch gekennzeichnet, daß die Ausgabemaschine (34) ferner Mittel für die Vorgabe einer Transparenz umfaßt.
7. System nach Anspruch 1, ferner gekennzeichnet durch eine Video-Displayvorrichtung (46), die an den Displayspeicher (42) angeschlossen ist.
8. System nach Anspruch 1, ferner gekennzeichnet durch eine Vollrahmen-Speichereinrichtung (100) für die Speicherung von Displaydaten, die an die Ausgabemaschine angeschlossen ist.
9. System nach Anspruch 1, ferner gekennzeichnet durch eine Video-Displayvorrichtung (46), die an die Vollrahmen-Speichereinrichtung (100) angeschlossen ist, wobei die Video-Displayvorrichtung (46) umschaltbare Displayformate umfaßt, die mit weniger als 600 Millisekunden zwischen Papieraufzeichnung, einer ebenen DMLS und einer perspektivischen Ansicht umschaltbar sind.
DE69130545T 1990-04-26 1991-04-25 System zur Erzeugung einer texturierten Perspektivsicht Expired - Fee Related DE69130545T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US07/514,598 US5179638A (en) 1990-04-26 1990-04-26 Method and apparatus for generating a texture mapped perspective view

Publications (2)

Publication Number Publication Date
DE69130545D1 DE69130545D1 (de) 1999-01-14
DE69130545T2 true DE69130545T2 (de) 1999-06-24

Family

ID=24047889

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69130545T Expired - Fee Related DE69130545T2 (de) 1990-04-26 1991-04-25 System zur Erzeugung einer texturierten Perspektivsicht

Country Status (5)

Country Link
US (1) US5179638A (de)
EP (1) EP0454129B1 (de)
JP (1) JP3028378B2 (de)
CA (1) CA2038426C (de)
DE (1) DE69130545T2 (de)

Families Citing this family (165)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5355314A (en) * 1990-03-26 1994-10-11 Hammond Incorporated Method and apparatus for automatically generating symbol images against a background image without collision utilizing distance-dependent attractive and repulsive forces in a computer simulation
JPH05165598A (ja) * 1991-12-17 1993-07-02 Hitachi Ltd 表示制御icおよび情報処理装置
US6771812B1 (en) * 1991-12-27 2004-08-03 Minolta Co., Ltd. Image processor
EP0627103B1 (de) * 1992-02-18 1996-01-10 EVANS & SUTHERLAND COMPUTER CORPORATION Bildtexturierungssystem mit themazellen.
EP0559978B1 (de) * 1992-03-12 1998-08-05 International Business Machines Corporation Verfahren zur Bildverarbeitung
AU3930793A (en) * 1992-05-08 1993-12-13 Apple Computer, Inc. Textured sphere and spherical environment map rendering using texture map double indirection
EP0569758A3 (de) * 1992-05-15 1995-03-15 Eastman Kodak Co Verfahren und Einrichtung zur Herstellung und zum Speichern von dreimensionalen Schriftzeichen und zum dreidimensionalen Schriftsatz.
GB2267203B (en) * 1992-05-15 1997-03-19 Fujitsu Ltd Three-dimensional graphics drawing apparatus, and a memory apparatus to be used in texture mapping
JP2634126B2 (ja) * 1992-07-27 1997-07-23 インターナショナル・ビジネス・マシーンズ・コーポレイション グラフィックス表示方法および装置
US5821940A (en) * 1992-08-03 1998-10-13 Ball Corporation Computer graphics vertex index cache system for polygons
GB2270243B (en) 1992-08-26 1996-02-28 Namco Ltd Image synthesizing system
US5325480A (en) * 1992-09-16 1994-06-28 Hughes Training, Inc. Texture method for producing fluid effects in a real-time simulation
US5396583A (en) * 1992-10-13 1995-03-07 Apple Computer, Inc. Cylindrical to planar image mapping using scanline coherence
EP0622747B1 (de) * 1993-04-01 2000-05-31 Sun Microsystems, Inc. Verfahren und Vorrichtung zur adaptiven Steuerung der Texturabbildung
TW244382B (de) * 1993-04-15 1995-04-01 Sony Co Ltd
US5550959A (en) * 1993-05-27 1996-08-27 Novalogic, Inc. Technique and system for the real-time generation of perspective images
GB2278524B (en) * 1993-05-28 1997-12-10 Nihon Unisys Ltd Method and apparatus for rendering visual images employing area calculation and blending of fractional pixel lists for anti-aliasing and transparency
JPH0778267A (ja) * 1993-07-09 1995-03-20 Silicon Graphics Inc 陰影を表示する方法及びコンピュータ制御表示システム
JP3332499B2 (ja) * 1993-10-01 2002-10-07 富士通株式会社 テクスチャマッピング方法
US5542032A (en) * 1993-10-04 1996-07-30 Loral Federal Systems Company Fast display of images of three-dimensional surfaces without aliasing
US5819016A (en) * 1993-10-05 1998-10-06 Kabushiki Kaisha Toshiba Apparatus for modeling three dimensional information
DE69408473T2 (de) * 1993-10-15 1998-08-27 Evans & Sutherland Computer Co Direktes rendering von texturierten höhenfeldern
US5544291A (en) * 1993-11-10 1996-08-06 Adobe Systems, Inc. Resolution-independent method for displaying a three dimensional model in two-dimensional display space
JPH07146952A (ja) * 1993-11-22 1995-06-06 Konami Kk 3次元画像処理装置
IL112186A (en) * 1994-01-18 1998-09-24 Honeywell Inc A device for calculating inter-point vision
US5548709A (en) * 1994-03-07 1996-08-20 Silicon Graphics, Inc. Apparatus and method for integrating texture memory and interpolation logic in a computer system
US5798765A (en) * 1994-03-21 1998-08-25 Motorola, Inc. Three dimensional light intensity display map
JP3064799B2 (ja) * 1994-03-29 2000-07-12 ヤマハ株式会社 テクスチャマッピング装置
JP3214776B2 (ja) * 1994-04-13 2001-10-02 株式会社東芝 仮想環境表示装置および方法
US5566073A (en) * 1994-07-11 1996-10-15 Margolin; Jed Pilot aid using a synthetic environment
US5553228A (en) * 1994-09-19 1996-09-03 International Business Machines Corporation Accelerated interface between processors and hardware adapters
US5765561A (en) * 1994-10-07 1998-06-16 Medical Media Systems Video-based surgical targeting system
US5793372A (en) * 1994-10-21 1998-08-11 Synthonics Incorporated Methods and apparatus for rapidly rendering photo-realistic surfaces on 3-dimensional wire frames automatically using user defined points
US5857066A (en) * 1994-12-30 1999-01-05 Naturaland Trust Method and system for producing an improved hiking trail map
EP0812447B1 (de) * 1995-03-02 2004-05-26 Parametric Technology Corporation Computer-grafiksystem zum schaffen und verbessern von texturabbildungssystemen
US5649173A (en) * 1995-03-06 1997-07-15 Seiko Epson Corporation Hardware architecture for image generation and manipulation
IL112940A (en) * 1995-03-08 1998-01-04 Simtech Advanced Training & Si Apparatus and method for simulating a terrain and objects thereabove
US5737506A (en) * 1995-06-01 1998-04-07 Medical Media Systems Anatomical visualization system
US6151404A (en) * 1995-06-01 2000-11-21 Medical Media Systems Anatomical visualization system
US5790130A (en) * 1995-06-08 1998-08-04 Hewlett-Packard Company Texel cache interrupt daemon for virtual memory management of texture maps
US5704025A (en) * 1995-06-08 1997-12-30 Hewlett-Packard Company Computer graphics system having per pixel depth cueing
US6702736B2 (en) * 1995-07-24 2004-03-09 David T. Chen Anatomical visualization system
US5776050A (en) * 1995-07-24 1998-07-07 Medical Media Systems Anatomical visualization system
US5850222A (en) * 1995-09-13 1998-12-15 Pixel Dust, Inc. Method and system for displaying a graphic image of a person modeling a garment
US6023278A (en) * 1995-10-16 2000-02-08 Margolin; Jed Digital map generator and display system
US5825908A (en) * 1995-12-29 1998-10-20 Medical Media Systems Anatomical visualization and measurement system
US5904724A (en) * 1996-01-19 1999-05-18 Margolin; Jed Method and apparatus for remotely piloting an aircraft
JP3645024B2 (ja) * 1996-02-06 2005-05-11 株式会社ソニー・コンピュータエンタテインメント 描画装置及び描画方法
US5886705A (en) * 1996-05-17 1999-03-23 Seiko Epson Corporation Texture memory organization based on data locality
US5828382A (en) * 1996-08-02 1998-10-27 Cirrus Logic, Inc. Apparatus for dynamic XY tiled texture caching
US5929861A (en) * 1996-08-23 1999-07-27 Apple Computer, Inc. Walk-through rendering system
US5861920A (en) 1996-11-08 1999-01-19 Hughes Electronics Corporation Hierarchical low latency video compression
US6084989A (en) * 1996-11-15 2000-07-04 Lockheed Martin Corporation System and method for automatically determining the position of landmarks in digitized images derived from a satellite-based imaging system
US5838262A (en) * 1996-12-19 1998-11-17 Sikorsky Aircraft Corporation Aircraft virtual image display system and method for providing a real-time perspective threat coverage display
WO1998028713A1 (en) * 1996-12-20 1998-07-02 Cirrus Logic, Inc. Enhanced methods and systems for caching and pipelining of graphics texture data
DE19801801C2 (de) * 1997-01-20 2000-06-29 Nissan Motor Navigationssystem und Speichermedium für das Speichern dafür verwendeter Betriebsprogramme
FR2758888B1 (fr) * 1997-01-27 1999-04-23 Thomson Csf Procede de modelisation fine du fouillis de sol recu par un radar
US6020893A (en) * 1997-04-11 2000-02-01 Novalogic, Inc. System and method for realistic terrain simulation
US5963213A (en) * 1997-05-07 1999-10-05 Olivr Corporation Ltd. Method and system for accelerating warping
JP4104670B2 (ja) * 1997-05-09 2008-06-18 株式会社ザナヴィ・インフォマティクス 地図表示装置
AU8116498A (en) * 1997-06-17 1999-01-04 British Telecommunications Public Limited Company Generating an image of a three-dimensional object
US6028584A (en) * 1997-08-29 2000-02-22 Industrial Technology Research Institute Real-time player for panoramic imaged-based virtual worlds
US6229546B1 (en) 1997-09-09 2001-05-08 Geosoftware, Inc. Rapid terrain model generation with 3-D object features and user customization interface
US6111583A (en) 1997-09-29 2000-08-29 Skyline Software Systems Ltd. Apparatus and method for three-dimensional terrain rendering
US6057786A (en) * 1997-10-15 2000-05-02 Dassault Aviation Apparatus and method for aircraft display and control including head up display
US6038498A (en) * 1997-10-15 2000-03-14 Dassault Aviation Apparatus and mehod for aircraft monitoring and control including electronic check-list management
US5978715A (en) * 1997-10-15 1999-11-02 Dassault Aviation Apparatus and method for aircraft display and control
US6112141A (en) * 1997-10-15 2000-08-29 Dassault Aviation Apparatus and method for graphically oriented aircraft display and control
KR100362817B1 (ko) * 1997-10-27 2002-11-30 마쯔시다덴기산교 가부시키가이샤 삼차원 지도 표시장치, 그것에 사용되는 모델 변형용 데이터, 삼차원 다각형 데이터 또는 삼차원 이미지 데이터 작성장치, 그의 데이터에 기초하여 표시를 실행하는 네비게이션 장치, 삼차원 지도 표시방법, 및 모델 변형용 데이터를 기억한 매체
US6064394A (en) * 1997-10-31 2000-05-16 Autodesk, Inc. Texture mapping using a plane normal to a selected triangle and using a (U,V) origin thereof to preserve texture size upon surface scaling
JP3035571B2 (ja) * 1997-12-22 2000-04-24 株式会社島精機製作所 画像処理装置
US5974423A (en) * 1998-03-09 1999-10-26 Margolin; Jed Method for converting a digital elevation database to a polygon database
US6456288B1 (en) * 1998-03-31 2002-09-24 Computer Associates Think, Inc. Method and apparatus for building a real time graphic scene database having increased resolution and improved rendering speed
US6191793B1 (en) 1998-04-01 2001-02-20 Real 3D, Inc. Method and apparatus for texture level of detail dithering
JP4505866B2 (ja) * 1998-04-03 2010-07-21 ソニー株式会社 画像処理装置および映像信号処理方法
US7136068B1 (en) 1998-04-07 2006-11-14 Nvidia Corporation Texture cache for a computer graphics accelerator
US6404431B1 (en) 1998-04-13 2002-06-11 Northrop Grumman Corporation Virtual map store/cartographic processor
JP4042204B2 (ja) * 1998-04-21 2008-02-06 ソニー株式会社 グラフィック演算装置およびその方法
US6201546B1 (en) 1998-05-29 2001-03-13 Point Cloud, Inc. Systems and methods for generating three dimensional, textured models
US6154564A (en) * 1998-07-10 2000-11-28 Fluor Corporation Method for supplementing laser scanned data
CA2317483A1 (en) 1998-11-12 2000-05-25 Sony Computer Entertainment Inc. Image generation method and image generation device
US6281901B1 (en) 1998-11-25 2001-08-28 The United States Of America As Represented By The Secretary Of The Navy Interactive overlay for displaying 3-D data
US6452603B1 (en) * 1998-12-23 2002-09-17 Nvidia Us Investment Company Circuit and method for trilinear filtering using texels from only one level of detail
US6240341B1 (en) * 1999-01-18 2001-05-29 Honeywell International Inc. Flight management system (FMS) with integrated bit mapped data charts
US7050063B1 (en) * 1999-02-11 2006-05-23 Intel Corporation 3-D rendering texture caching scheme
US20030158786A1 (en) * 1999-02-26 2003-08-21 Skyline Software Systems, Inc. Sending three-dimensional images over a network
US6919895B1 (en) 1999-03-22 2005-07-19 Nvidia Corporation Texture caching arrangement for a computer graphics accelerator
JP4313462B2 (ja) * 1999-04-26 2009-08-12 株式会社トプコン 画像形成装置
US8595764B2 (en) * 1999-06-25 2013-11-26 Jlb Ventures, Llc Image-oriented electronic programming guide
US6735557B1 (en) * 1999-10-15 2004-05-11 Aechelon Technology LUT-based system for simulating sensor-assisted perception of terrain
US6618048B1 (en) 1999-10-28 2003-09-09 Nintendo Co., Ltd. 3D graphics rendering system for performing Z value clamping in near-Z range to maximize scene resolution of visually important Z components
US6222464B1 (en) 1999-12-02 2001-04-24 Sikorsky Aircraft Corporation Self compensating target acquisition system for minimizing areas of threat
US7167187B2 (en) 2000-03-29 2007-01-23 Sourceprose Corporation System and method for georeferencing digital raster maps using a georeferencing function
US6631326B1 (en) 2000-03-29 2003-10-07 Sourceprose Corporation System and method for performing flood zone certifications
US7119813B1 (en) 2000-06-02 2006-10-10 Nintendo Co., Ltd. Variable bit field encoding
US7576748B2 (en) * 2000-11-28 2009-08-18 Nintendo Co. Ltd. Graphics system with embedded frame butter having reconfigurable pixel formats
US6811489B1 (en) 2000-08-23 2004-11-02 Nintendo Co., Ltd. Controller interface for a graphics system
US7002591B1 (en) 2000-08-23 2006-02-21 Nintendo Co., Ltd. Method and apparatus for interleaved processing of direct and indirect texture coordinates in a graphics system
US6700586B1 (en) 2000-08-23 2004-03-02 Nintendo Co., Ltd. Low cost graphics with stitching processing hardware support for skeletal animation
US6707458B1 (en) 2000-08-23 2004-03-16 Nintendo Co., Ltd. Method and apparatus for texture tiling in a graphics system
US7034828B1 (en) 2000-08-23 2006-04-25 Nintendo Co., Ltd. Recirculating shade tree blender for a graphics system
US7184059B1 (en) 2000-08-23 2007-02-27 Nintendo Co., Ltd. Graphics system with copy out conversions between embedded frame buffer and main memory
US6636214B1 (en) 2000-08-23 2003-10-21 Nintendo Co., Ltd. Method and apparatus for dynamically reconfiguring the order of hidden surface processing based on rendering mode
US6825851B1 (en) 2000-08-23 2004-11-30 Nintendo Co., Ltd. Method and apparatus for environment-mapped bump-mapping in a graphics system
US7538772B1 (en) 2000-08-23 2009-05-26 Nintendo Co., Ltd. Graphics processing system with enhanced memory controller
US6867781B1 (en) 2000-08-23 2005-03-15 Nintendo Co., Ltd. Graphics pipeline token synchronization
US6980218B1 (en) * 2000-08-23 2005-12-27 Nintendo Co., Ltd. Method and apparatus for efficient generation of texture coordinate displacements for implementing emboss-style bump mapping in a graphics rendering system
US7061502B1 (en) 2000-08-23 2006-06-13 Nintendo Co., Ltd. Method and apparatus for providing logical combination of N alpha operations within a graphics system
US6937245B1 (en) * 2000-08-23 2005-08-30 Nintendo Co., Ltd. Graphics system with embedded frame buffer having reconfigurable pixel formats
US6828980B1 (en) * 2000-10-02 2004-12-07 Nvidia Corporation System, method and computer program product for z-texture mapping
US6757445B1 (en) 2000-10-04 2004-06-29 Pixxures, Inc. Method and apparatus for producing digital orthophotos using sparse stereo configurations and external models
US7230628B1 (en) * 2000-10-05 2007-06-12 Shutterfly, Inc. Previewing a framed image print
US6600489B2 (en) * 2000-12-14 2003-07-29 Harris Corporation System and method of processing digital terrain information
US6690960B2 (en) * 2000-12-21 2004-02-10 David T. Chen Video-based surgical targeting system
US8924506B2 (en) 2000-12-27 2014-12-30 Bradium Technologies Llc Optimized image delivery over limited bandwidth communication channels
JP3386803B2 (ja) 2001-06-20 2003-03-17 株式会社ソニー・コンピュータエンタテインメント 画像処理プログラム、画像処理プログラムを記憶したコンピュータ読み取り可能な記憶媒体、画像処理方法、及び画像処理装置
FR2826769B1 (fr) * 2001-06-29 2003-09-05 Thales Sa Procede d'affichage d'informations cartographiques sur ecran d'aeronef
CA2453031A1 (en) 2001-07-06 2003-01-16 Goodrich Avionics Systems, Inc. System and method for synthetic vision terrain display
US6700573B2 (en) 2001-11-07 2004-03-02 Novalogic, Inc. Method for rendering realistic terrain simulation
US7098913B1 (en) * 2002-07-30 2006-08-29 Rockwell Collins, Inc. Method and system for providing depth cues by attenuating distant displayed terrain
US6922199B2 (en) * 2002-08-28 2005-07-26 Micron Technology, Inc. Full-scene anti-aliasing method and system
FR2847700B1 (fr) * 2002-11-22 2005-01-14 Thales Sa Procede de synthese d'une image d'intervisibilite tridimensionnelle
US7129942B2 (en) * 2002-12-10 2006-10-31 International Business Machines Corporation System and method for performing domain decomposition for multiresolution surface analysis
EP1616299B1 (de) * 2003-04-15 2010-01-06 Nxp B.V. Computergrafikprozessor und verfahren zum erzeugen eines computergrafikbildes
US7023434B2 (en) * 2003-07-17 2006-04-04 Nintendo Co., Ltd. Image processing apparatus and image processing program
US7197170B2 (en) 2003-11-10 2007-03-27 M2S, Inc. Anatomical visualization and measurement system
US7020434B2 (en) * 2004-01-02 2006-03-28 The United States Of America As Represented By The Secretary Of The Navy Animated radar signal display with fade
US7042387B2 (en) * 2004-02-06 2006-05-09 Aviation Communication & Surveillance Systems Llc Systems and methods for displaying hazards
US20060098010A1 (en) * 2004-03-09 2006-05-11 Jeff Dwyer Anatomical visualization and measurement system
US7242407B2 (en) * 2004-05-28 2007-07-10 Lockheed Martin Corporation Reprojecting map images using graphical techniques
US7486840B2 (en) * 2004-05-28 2009-02-03 Lockheed Martin Corporation Map image object connectivity
US7492965B2 (en) * 2004-05-28 2009-02-17 Lockheed Martin Corporation Multiple map image projecting and fusing
US7280897B2 (en) 2004-05-28 2007-10-09 Lockheed Martin Corporation Intervisibility determination
US20060022980A1 (en) * 2004-07-28 2006-02-02 Donovan Kenneth B Material coded imagery for computer generated forces
JP2006105640A (ja) * 2004-10-01 2006-04-20 Hitachi Ltd ナビゲーション装置
JP4133996B2 (ja) 2004-10-08 2008-08-13 株式会社ソニー・コンピュータエンタテインメント テクスチャ作成方法
US7702137B2 (en) 2004-11-10 2010-04-20 M2S, Inc. Anatomical visualization and measurement system
US7365673B2 (en) * 2004-12-30 2008-04-29 Honeywell International, Inc. Compression and transmission of weather data
US7612775B2 (en) * 2005-07-28 2009-11-03 The Boeing Company Real-time conformal terrain rendering
US8203503B2 (en) * 2005-09-08 2012-06-19 Aechelon Technology, Inc. Sensor and display-independent quantitative per-pixel stimulation system
JP5140851B2 (ja) * 2006-01-13 2013-02-13 アクト・リサーチ・コーポレーション 体積3dイメージを表示する方法
JP4037889B2 (ja) * 2006-03-30 2008-01-23 株式会社コナミデジタルエンタテインメント 画像生成装置、画像生成方法、ならびに、プログラム
US8497874B2 (en) * 2006-08-01 2013-07-30 Microsoft Corporation Pixel snapping for anti-aliased rendering
US8144166B2 (en) * 2006-08-01 2012-03-27 Microsoft Corporation Dynamic pixel snapping
US8508552B2 (en) * 2006-09-08 2013-08-13 Microsoft Corporation Pixel snapping with relative guidelines
CN101617354A (zh) 2006-12-12 2009-12-30 埃文斯和萨瑟兰计算机公司 用于校准单个调制器投影仪中的rgb光的系统和方法
US8125498B2 (en) * 2007-01-03 2012-02-28 Siemens Medical Solutions Usa, Inc. Generating a 3D volumetric mask from a closed surface mesh
US8289326B2 (en) * 2007-08-16 2012-10-16 Southwest Research Institute Image analogy filters for terrain modeling
US8095249B2 (en) * 2007-09-04 2012-01-10 Honeywell International Inc. System and method for displaying a digital terrain
KR100889470B1 (ko) * 2008-05-14 2009-03-19 팅크웨어(주) 3차원 경로 생성 방법 및 장치
US8358317B2 (en) 2008-05-23 2013-01-22 Evans & Sutherland Computer Corporation System and method for displaying a planar image on a curved surface
US8702248B1 (en) 2008-06-11 2014-04-22 Evans & Sutherland Computer Corporation Projection method for reducing interpixel gaps on a viewing surface
US8290294B2 (en) * 2008-09-16 2012-10-16 Microsoft Corporation Dehazing an image using a three-dimensional reference model
US8619071B2 (en) * 2008-09-16 2013-12-31 Microsoft Corporation Image view synthesis using a three-dimensional reference model
US8077378B1 (en) 2008-11-12 2011-12-13 Evans & Sutherland Computer Corporation Calibration system and method for light modulation device
TWI459796B (zh) 2009-12-29 2014-11-01 Ind Tech Res Inst 產生多視角三維立體影像的方法及其裝置
EP2543964B1 (de) * 2011-07-06 2015-09-02 Harman Becker Automotive Systems GmbH Straßenbelag eines dreidimensionalen Orientierungspunkts
US9641826B1 (en) 2011-10-06 2017-05-02 Evans & Sutherland Computer Corporation System and method for displaying distant 3-D stereo on a dome surface
US20130106887A1 (en) * 2011-10-31 2013-05-02 Christopher Tremblay Texture generation using a transformation matrix
FR2996672B1 (fr) * 2012-10-05 2014-12-26 Dassault Aviat Systeme de visualisation pour aeronef avec des lignes de relief et procede associe
US9262853B2 (en) 2013-03-15 2016-02-16 Disney Enterprises, Inc. Virtual scene generation based on imagery
FR3030092B1 (fr) * 2014-12-12 2018-01-05 Thales Procede de representation tridimensionnelle d'une scene
FR3050291B1 (fr) * 2016-04-15 2020-02-28 Thales Procede d'affichage de donnees pour la gestion du vol d'un aeronef, produit programme d'ordinateur et systeme associes
CN110866964A (zh) * 2019-11-08 2020-03-06 四川大学 一种gpu加速的椭球裁剪图地形渲染方法
CN113034660B (zh) * 2021-03-23 2022-06-14 浙江大学 一种基于pbr反射模型的激光雷达仿真方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4677576A (en) * 1983-06-27 1987-06-30 Grumman Aerospace Corporation Non-edge computer image generation system
FR2610752B1 (fr) * 1987-02-10 1989-07-21 Sagem Procede de representation de l'image en perspective d'un terrain et systeme pour sa mise en oeuvre
GB2207585B (en) * 1987-07-27 1992-02-12 Sun Microsystems Inc Method and apparatus for shading images
US4876651A (en) * 1988-05-11 1989-10-24 Honeywell Inc. Digital map system
US4884220A (en) * 1988-06-07 1989-11-28 Honeywell Inc. Address generator with variable scan patterns
US4899293A (en) * 1988-10-24 1990-02-06 Honeywell Inc. Method of storage and retrieval of digital map data based upon a tessellated geoid system
US5020014A (en) * 1989-02-07 1991-05-28 Honeywell Inc. Generic interpolation pipeline processor
US4985854A (en) * 1989-05-15 1991-01-15 Honeywell Inc. Method for rapid generation of photo-realistic imagery

Also Published As

Publication number Publication date
DE69130545D1 (de) 1999-01-14
US5179638A (en) 1993-01-12
EP0454129A2 (de) 1991-10-30
CA2038426C (en) 2002-07-02
EP0454129B1 (de) 1998-12-02
EP0454129A3 (en) 1993-05-19
JP3028378B2 (ja) 2000-04-04
CA2038426A1 (en) 1991-10-27
JPH0620063A (ja) 1994-01-28

Similar Documents

Publication Publication Date Title
DE69130545T2 (de) System zur Erzeugung einer texturierten Perspektivsicht
US4985854A (en) Method for rapid generation of photo-realistic imagery
DE69130132T2 (de) Verfahren zur Erzeugung von Adressen zu texturierten, in RIP Maps gespeicherten graphischen Primitiven
DE69636599T2 (de) Verfahren und system zur wiedergabe von grafischen objekten durch teilung in bildstücke und zusammensetzen von bildlagen zu einem wiedergabebild
DE69126611T2 (de) Bilderzeugungsgerät
DE68928941T2 (de) Bilderzeugungsgerät
DE69127650T2 (de) Verfahren und Gerät zur Erzeugung von dreidimensionalen graphischen Symbolen
DE3855231T2 (de) Prioritätsauflösungssystem zwischen Polygonen mit Antialiasing
DE3750784T2 (de) Generation eines intrapolierten charakteristischen Wertes zur Anzeige.
DE60000686T2 (de) Graphisches system mit super-abgetastetem musterpuffer mit erzeugung von ausgangpixeln unter verwendung von selektiven adjustierung der filterung zur artifaktverminderung
US4343037A (en) Visual display systems of the computer generated image type
DE60100452T2 (de) Dynamische einstellung von muster zum pixel filterung in antwort auf benutzereingang und/oder sensoreingang
US4841292A (en) Third dimension pop up generation from a two-dimensional transformed image display
DE69714551T2 (de) Treiberstufe für stereoskopische bildanzeige
DE60000447T2 (de) Graphisches system das muster in einem musterpuffer darstellt und in anhängigkeit von gespeicherten mustern pixel erzeugt
DE69331486T2 (de) Bilddatenverarbeitung
DE102015113240A1 (de) System, verfahren und computerprogrammprodukt für schattierung unter verwendung eines dynamischen objektraumgitters
DE69120407T2 (de) Bildgenerator
DE4314265A1 (de) Dreidimensionales Textur-Abbildungs-Displaysystem
DE69531536T2 (de) Synthetisches bilderzeugungsverfahren mit sphärischem puffer
DE112005002076T5 (de) Unterteilung von Geometriebildern in Grafikhardware
DE19619288A1 (de) System und Verfahren zur Dreieck-Rasterung mit in zwei Dimensionen verschachtelten Rahmenpuffern
DE69606177T2 (de) Verfahren und gerät zur texturabbildung
DE69123739T2 (de) Bildgenerator
DE60000450T2 (de) Graphisches system mit überabgetastetem musterpuffer mit erzeugung von ausgangspixeln unter benutzung von selektiver justierung der filterung zur implementierung von anzeigeeffekten

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee