DE60302063T2 - Graphische benutzeroberfläche für einen flugsimulator basierend auf einer client-server-architektur - Google Patents

Graphische benutzeroberfläche für einen flugsimulator basierend auf einer client-server-architektur Download PDF

Info

Publication number
DE60302063T2
DE60302063T2 DE60302063T DE60302063T DE60302063T2 DE 60302063 T2 DE60302063 T2 DE 60302063T2 DE 60302063 T DE60302063 T DE 60302063T DE 60302063 T DE60302063 T DE 60302063T DE 60302063 T2 DE60302063 T2 DE 60302063T2
Authority
DE
Germany
Prior art keywords
data
dimensional
visual
processing
simulation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60302063T
Other languages
English (en)
Other versions
DE60302063D1 (de
Inventor
A. Christopher CULL
Yves Riel
Pierre Gagnon
Philippe Boisvert
Jean Daigle
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CAE Inc
Original Assignee
CAE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CAE Inc filed Critical CAE Inc
Application granted granted Critical
Publication of DE60302063D1 publication Critical patent/DE60302063D1/de
Publication of DE60302063T2 publication Critical patent/DE60302063T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/08Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of aircraft, e.g. Link trainer
    • G09B9/30Simulation of view from aircraft
    • G09B9/301Simulation of view from aircraft by computer-processed or -generated image
    • G09B9/302Simulation of view from aircraft by computer-processed or -generated image the image being transformed by computer processing, e.g. updating the image to correspond to the changing point of view

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)
  • Image Generation (AREA)

Description

  • TECHNISCHES GEBIET
  • Die Erfindung bezieht sich allgemein auf die Simulation komplexer Systeme zum Zwecke des System- und integrierten Verfahrenstrainings mit praktischen Übungen und insbesondere auf ein Verfahren und eine Vorrichtung für die Bereitstellung der Simulation komplexer Systeme, bei dem interaktive Grafiken mit der Darstellung von Bedienpulten eines simulierten komplexen Systems mit in Echtzeit simulierten dreidimensionalen Abbildungen einer Umgebung verschmolzen werden, in der das simulierte komplexe System betrieben wird.
  • HINTERGRUND DER ERFINDUNG
  • Die Komplexität von in vielen Tätigkeitsbereichen verwendeten Systemen nahm in einem solchen Maß zu, dass für sicheren Betrieb und Wartung umfangreiches Training erforderlich ist. Das Trainieren an realen Systemen ist in den Branchen, die teure und/oder potentiell gefährliche Gerätschaften verwenden, besonders problematisch. Beispiele dieser Gerätschaften umfassen Luftfahrzeuge, Schiffe, Unterseeboote, militärische Gerätschaften, Kernkraftwerke und eine Vielzahl von weiteren komplexen Systemen. Es wurde demzufolge übliche Praxis, für das Training Simulationen der komplexen Systeme heranzuziehen. Um das Verhalten der realen komplexen Systeme getreulich zu reproduzieren, ist eine "Vollbild"-Simulation erforderlich. Eine Vollbildsimulation ist eine Simulation, bei der sämtliche erforderlichen Subsysteme in einem solchen Umfang simuliert werden, dass die Vollbildsimulation in sämtlichen relevanten sowohl normalen als auch abnormalen Bedingungen im Wesentlichen in einer zum realen System identischen Weise reagiert.
  • Bei vielen Anwendungen, bei denen ein Vollbildsimulator involviert ist, ist ein hochauflösendes optisches System erforderlich. Diese optischen Systeme umfassen typischerweise eine dreidimensionale immersive Umgebung für den (die) Bediener. Dreidimensionale immersive Umgebungen sind dafür bekannt, dass sie die Effektivität des Simulators signifikant verbessern. Der Grad an Realismus, der durch ein hochauflösendes optisches System bereitgestellt wird, ist nunmehr ziemlich weit fortgeschritten. Das Niveau der Detaillierung, die solche optischen Systeme bereitstellen, erfordert große visuelle Datenbanken, die mit dem Vollbildsimulator synchronisiert werden müssen, um die dreidimensionalen visuellen Szenen in Echtzeit wiederzugeben. Wegen ihrer Größe und Komplexität sind Vollbildsimulatoren, die hochauflösende optische Systeme umfassen, typischerweise in einer besonderen Einrichtung untergebracht, und die Benutzer sind gezwungen, für Training und Übung zu der Einrichtung zu reisen. Eine solche dreidimensionale Trainingsstation wird in der unter der Nummer 2 256 568 veröffentlichten UK-Patentanmeldung gelehrt, die ein Simulatorsystem für Fahrzeuge lehrt, die ein Fahrzeugcockpit 12 umfassen, das durch den Benutzer zu betätigende Fahrzeugsteuermittel und mindestens eine Fensteröffnung 16, 17, 18, einen Sichtschirm 165, 175, 185, der durch die bzw. jede Öffnung eingesehen werden kann, ein Gerät für digitale Videoeffekte zur Manipulation mindestens eines Satzes von Hintergrundvideodaten für die Bildung mindestens einer Steuersequenz von bewegten Videobildern für die Anzeige an einem entsprechenden Sichtschirm aufweist. Sich bewegende Videohintergrundbilder werden dadurch generiert, dass verschiedene Manipulationen an sukzessiven Bildtimings an den Hintergrundvideodaten vorgenommen werden.
  • Die Anmeldung beschreibt des Weiteren ein Bildgenerierungssystem, das einen Computergrafik-Modeler für die Herstellung eines Computergrafikbildes einer Vordergrundszene, d.h. also den Innenraum eines Kraftfahrzeuges mit transparentem Teil bzw. transparenten Teilen, beispielsweise die Fahrzeugfenster, umfasst. Ein Gerät für digitale Videoeffekte manipuliert Hintergrundvideodaten zur Bildung einer gesteuerten Sequenz von bewegten Videohintergrundbildern und einen Compositor, der ein Computergrafik-Vordergrundbild in die gesteuerte Sequenz der bewegten Videohintergrundbilder einschleust, um eine Ausgangsbildsequenz zusammen mit dem durch transparente Teile des Vordergrundes sichtbaren Hintergrunds zu bilden.
  • Eine vom Anmelder hergestellte zweidimensionale Vektorbasierte grafische Benutzeroberfläche ermöglicht es einem Benutzer, mit einer Vollbildsimulation zu interagieren, auf die über ein Netzwerk, wie z.B. das Internet, zugegriffen wird. Die Benutzeroberfläche besteht aus "intelligenten" grafischen Objekten, mit denen der Benutzer interagiert. Um einen Kontext für eine spezifische Anwendung bereitzustellen, werden die intelligenten grafischen Objekte auf einem für die Anwendung geeigneten Bitmapped-Image überlagert.
  • Es wurde im Laufe der Zeit erkannt, dass es bei vielen Simulationsanwendungen vorteilhaft ist, dreidimensionale visuelle Echtzeit-Effekte in eine interaktive Benutzeroberfläche zu integrieren. Diese Art von Umfeld ist bei Anwendungen von wesentlicher Bedeutung, bei denen ein Bediener sich mit einer Szene außerhalb des Fensters vertraut machen und visuelle (außerhalb des Fensters liegende) Informationen interpretieren muss, um zu entscheiden, wie er in angemessener Weise auf eine Situation reagiert. Simulatoren, die unterschiedliche Grade von visueller und Simulationstreue liefern, sind im Handel verfügbar. Solche Simulatoren ermöglichen es Benutzern, mit einer dreidimensionalen visuellen Umgebung unter Verwendung einer Schnittstelle, wie z.B. eines Joysticks oder einer Tastatur, zu interagieren. Beispiele sind Microsoft Flight Simulator 2000® und AirBookTM von Simigon. Ein Nachteil solcher Systeme ist, dass die Benutzeroberflächen nicht sehr intuitiv und nicht direkt mit sämtlichen simulierten Systemen verbunden sind.
  • Die oben erwähnte zweidimensionale Vektor-basierte grafische Benutzeroberfläche des Anmelders ermöglicht es einem Benutzer, integrierte Verfahren zu lernen bzw. zu üben und Systemkenntnis zu erwerben, indem er mit den intelligenten Grafiken in der zweidimensionalen Benutzeroberfläche Benutzeroberfläche interagiert. Die Benutzereingaben an die Benutzeroberfläche werden einem Vollbildsimulationsserver zugeführt, der auf die Eingaben in realistischer Weise reagiert und Simulationszustandsdaten zurückübermittelt, die wiederum dazu verwendet werden, das Erscheinungsbild der zweidimensionalen Benutzeroberfläche zu aktualisieren. Während dies dem Benutzer ermöglicht, integrierte Prozeduren zu erlernen oder zu üben und Systemkenntnisse zu erwerben, liefert es jedoch nicht die dreidimensionale visuelle Umgebung, die für bestimmte Trainings- und Übungsanwendungen erforderlich sind. Beispielsweise erfordern in der Luftfahrtindustrie das Sichvertrautmachen mit Flugplätzen, das Sichvertrautmachen mit Wetterzuständen mit geringer Sicht beim Fliegen, Anflüge an Flugplätze, Manöver auf Rollbahnen und Ähnliches eine dreidimensionale visuelle Umgebung.
  • Es besteht demzufolge Bedarf an einem System, das eine dreidimensionale Umgebungsvisualisierung in eine voll funktionsfähige grafische Benutzeroberfläche integriert, um kostengünstiges Erlernen und Üben integrierter Prozeduren und den Betrieb eines komplexen Systems zu ermöglichen.
  • INHALT DER ERFINDUNG
  • Es ist daher eine Aufgabe der Erfindung, ein System bereitzustellen, das dreidimensionale Visualisierung in eine voll funktionsfähige grafische Benutzeroberfläche integriert, um kostengünstiges Erlernen und Üben integrierter Prozeduren und den Betrieb eines komplexen Systems zu ermöglichen.
  • Es ist eine weitere Aufgabe der Erfindung, ein Verfahren und eine Vorrichtung zum Generieren einer interaktiven grafischen Benutzeroberfläche bereitzustellen, in dem dreidimensionale visuelle Echtzeit-Informationen nahtlos mit interaktiven grafischen Darstellungen von Bedienpulten eines simulierten komplexen Systems verschmolzen werden.
  • Es ist noch eine weitere Aufgabe der Erfindung, eine dreidimensionale Darstellung von Ansichten aus dem Fenster für einen Bediener eines komplexen Systems bereitzustellen, die durch eine Rückmeldung aus einer Vollbildsimulation des komplexen Systems dynamisch aktualisiert wird.
  • Eine weitere Aufgabe der Erfindung ist es, ein Visualisierungssystem bereitzustellen, in dem eine zweidimensionale Texturmaske erzeugt wird, die in visuelle Texturdaten übersetzt wird, die für den Benutzer an ein Vollbildpolygon mit null Tiefe auf einem dreidimensionalen, unter Verwendung der visuellen Umgebungsdaten generierten Bild übertragen werden.
  • Noch eine weitere Aufgabe der Erfindung ist es, ein Visualisierungssystem bereitzustellen, bei dem ein inaktives Anzeigenfenster ein Oberflächenfenster überlagert, das Benutzereingaben in Verbindung mit Bedienpulten akzeptiert, die visuell durch Grafiken in dem interaktiven Fenster dargestellt werden.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die Erfindung liefert daher ein System zum Generieren einer hochauflösenden optischen Anzeige, die eine visuelle immersive 3D-Umgebung für einen Benutzer des mit der Vollbildsimulation eines komplexen Systems koordinierten, unter allen rele vanten sowohl normalen wie auch anormalen Bedingungen im Wesentlichen in identischer Weise wie das reale System reagierenden Systems bereitstellt, wobei das System eine Verarbeitung von intelligenten Grafiken umfasst, die geeignet ist, ein zweidimensionales Bild von angezeigten Bedienpulten des simulierten komplexen Systems zu erzeugen, wobei das Bild eingebettete intelligente Grafiken aufweist, um es dem Benutzer zu ermöglichen, in Verbindung mit den angezeigten Bedienpulten virtuelle Steuerhebel zu bedienen, und ferner eine Verarbeitung von dreidimensionalen Visualisierungen zum Generieren der hochauflösenden optischen Anzeige unter Verwendung von visuellen Umweltdaten umfasst, GEKENNZEICHNET durch die Verarbeitung von dreidimensionalen Visualisierungen, die geeignet ist, die hochauflösende optische Anzeige durch Überlagerung einer zweidimensionalen Texturmaske zu erzeugen, die in optische Texturdaten übersetzt wird, die für den Benutzer auf ein Vollbildpolygon mit null Tiefe auf einem dreidimensionalen, unter Verwendung der visuellen Umgebungsdaten generierten Bild übertragen werden.
  • Die Erfindung stellt des Weiteren ein Verfahren zur Generierung von Training und Übung an einem simulierten komplexen System für Personal bereit, das das komplexe System zu betreiben oder zu warten hat, welches Verfahren folgende Schritte umfasst: Erzeugen eines zweidimensionalen Bildes von angezeigten Bedienpulten des simulierten komplexen Systems, wobei das zweidimensionale Bild eingebettete intelligente Grafiken aufweist, um es dem Personal zu ermöglichen, mit den angezeigten Bedienpulten verbundene virtuelle Steuerhebel zu bedienen, Erzeugen einer hochauflösendenden optischen Anzeige, welche einem Benutzer des Systems unter Verwendung von visuellen Umgebungsdaten und einer aus dem zweidimensionalen Bild abgeleiteten Texturmaske eine immersive dreidimensionale visuelle Umgebung bereitstellt, GEKENNZEICHNET durch das Erzeugen der hochauflösenden optischen Anzeige durch Überlagerung einer zweidimensionalen Texturmaske, die in optische Texturdaten übersetzt wird, welche für den Benutzer auf ein Vollbildpolygon mit null Tiefe auf einem dreidimensionalen, unter Verwendung der visuellen Umgebungsdaten generierten Bild übertragen werden.
  • Die Erfindung stellt daher ein kostengünstiges Trainingssystem bereit, das realistische visuelle Simulationen für Verfahrens- und Bedienertraining an einem simulierten komplexen System generiert. Die Verarbeitung von intelligenten Grafiken übersetzt Benutzereingaben in Datenwerte, die an eine Vollbildsimulation weitergegeben werden. Die Vollbildsimulation liefert Rückmeldung an Prozesse für visuelle Simulation, die die Anzeige von Bedienpulten des komplexen Systems und des Weiteren Ansichten aus dem Fenster einer simulierten Umgebung aktualisieren.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Weitere Merkmale und Vorteile der vorliegenden Erfindung gehen aus der nachfolgenden Beschreibung hervor, in der mit Bezug auf die beigefügten Zeichnungen Ausführungsbeispiele erläutert werden. In den Zeichnungen zeigen:
  • 1 eine schematische Darstellung einer Übersicht über eine Ausführungsform eines Systems gemäß der Erfindung;
  • 2 eine schematische Darstellung einer Ausführungsform einer Client-/Server-Architektur zur Umsetzung des in 1 gezeigten Systems;
  • 3 eine schematische Darstellung einer Übersicht über eine Umsetzung einer Benutzeroberfläche gemäß einer Ausführungsform der Erfindung;
  • 4 eine schematische Darstellung, die eine detailliertere Ansicht der in 3 gezeigten Benutzeroberfläche zeigt;
  • 5 ein Flussdiagramm mit der Darstellung der für das Antreiben des in 3 gezeigten zweidimensionalen Grafiksystems verwendeten prinzipiellen Logik;
  • 6 ein Flussdiagramm mit der Darstellung der für das Antreiben des in 3 gezeigten dreidimensionalen visuellen Systems verwendeten prinzipiellen Logik;
  • 7 ein Flussdiagramm mit der Darstellung der prinzipiellen Logik, die für das Schaffen oder Aktualisieren einer Texturmaske verwendet wird, welche dafür verwendet wird, die in 3 und 4 gezeigte Benutzeroberfläche anzuzeigen;
  • 8 eine schematische Darstellung einer weiteren Ausführungsform einer Client-/Server-Architektur, die für die Implementierung des erfindungsgemäßen Systems verwendet werden kann.
  • Es sei angemerkt, dass in den gesamten beigefügten Zeichnungen analoge Merkmale durch jeweils gleiche Bezugszeichen gekennzeichnet sind.
  • AUSFÜHRLICHE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORM
  • Die vorliegende Erfindung ermöglicht es, eine dreidimensionale visuelle Umgebung in eine interaktive grafische Benutzeroberfläche zu integrieren, um eine Vielzahl von Anwendungen der Simulation komplexer Systeme zu unterstützen. Die genannten Anwendungen verwenden Vollbildsimulation mit hochauflösenden visuellen Systemen, um selbstorganisiertes Lernen und Üben an simulierten komplexen Systemen zu ermöglichen. Die Integration von dem persönlichen Arbeitstempo angepasstem Lernmaterial für direkten oder Fernunterricht wird ebenfalls ermöglicht.
  • Der Einbau einer dreidimensionalen visuellen Umgebung in eine interaktive Benutzeroberfläche wirft signifikante Schwierigkeiten auf. Zunächst ist es wegen der Größe von Datenbanken für hochauflösende visuelle Systeme derzeit erforderlich, die visuelle Datenbank vor Ort in einem Kundencomputer vorzuhalten, der die grafische Benutzeroberfläche anzeigt. Informationen für hochauflösende visuelle Systeme können unter Verwendung aktuell verfügbarer kommerzieller Technologie vernünftigerweise nicht über ein Netzwerk in Echtzeit weitergeleitet werden. Darüber hinaus ist extensive Hochgeschwindigkeitsverarbeitung erforderlich, um solche Datenbanken in Echtzeit zu rendern. Dies bedeutet eine signifikante Verarbeitungslast für den Kundencomputer und erfordert eine Grafikbeschleunigungskarte. Demzufolge sollte die Vollbildsimulation, die ebenfalls extensive Hochgeschwindigkeitsverarbeitung erfordert, idealerweise auf einen anderen Prozessor vor Ort oder an anderer Stelle, beispielsweise auf einem Simulationsserver, gefahren werden. Dies führt zu einem dritten Problem: Wie ist das dreidimensionale Rendering mit der Simulation zu synchronisieren, während die Simulation entfernt abläuft.
  • Wie nachstehend detailliert erörtert werden wird, können diese Probleme dadurch überwunden werden, dass eine lokale Kopie der Simulation, der visuellen Datenbank und ein lokales System für dreidimensionale Visualisierungen vorgehalten werden. Optional kann die Verarbeitungslast des Kundencomputers dadurch gemindert werden, dass veranlasst wird, dass der Simulator auf einem Remote-Server arbeitet. Um die Verarbeitungslast des Kundencomputers weiter zu steuern, wird die Auffrischungsrate der dreidimensionalen Umgebung angepasst. Einige der anspruchsvollen visuellen Effekte können auch ausgeschaltet werden, falls dies erforderlich ist, und einige nicht kritische Details in der visuellen Datenbank können entfernt werden. Es sollte jedoch verstanden werden, dass diese Optimierungstechniken lediglich in den Fällen erforderlich sind, bei denen der Kundencomputer keine adäquate Verarbeitungsgeschwindigkeit bietet, um die vollen dreidimensionalen Bilder wiederzugeben zu können.
  • 1 ist ein schematisches Diagramm einer Übersicht über ein System 20 nach der Erfindung. Das System 20 umfasst einen oder mehrere Kundencomputer 22, die mit einem Netzwerk 24, wie z.B. einem Local Area Network (LAN), einem Metropolitan Area Network (MAN), einem Wide Area Network (WAN) oder einem offenen Netzwerk, wie z.B. einem Intranet, oder dem Internet, verbunden sind. Jeder der Kundencomputer 22 unterstützt eine lokale Datenbank 26 mit Daten, die für die Wiedergabe hochauflösender dreidimensionaler visueller Effekte in einer dem Fachmann bekannten Weise genutzt werden. Die Datenbank mit hochauflösenden dreidimensionalen visuellen Effekten kann dem Kundencomputer in einer Vielzahl von Formen zugeführt werden. Beispielsweise kann der Inhalt der Datenbank aus einer Remote-Datenbank 30 von einem Serviceprovider unter Verwendung des elektronischen Handels oder aufgrund einer anderen vertraglichen Vereinbarung heruntergeladen werden, sie kann auf einer CD oder einem Flash-Memory gekauft werden, oder sie kann über einen beliebigen anderen Kanal auf einem computerlesbaren Medium geliefert werden. Um die Erfindung umzusetzen, wird der Kundencomputer über das Netzwerk 24 mit einem Simulationsserver 28 verbunden, der ein beliebiges mehrerer komplexer Systeme, wie beispielsweise ein Fluggerät, simulieren kann.
  • Das System 20 ist besonders für das Fernstudium oder für das Einüben von Fähigkeiten geeignet. Fernstudium wird durch die Verwendung von dem persönlichen Arbeitstempo angepasstem Lernmaterial erleichtert. Demzufolge wird der Kundencomputer analog optional mit Lerninformationen 32 versehen, wie dies nachstehend detaillierter unter Bezugnahme auf 8 erläu tert wird. Die Lerninformationen 32 können zusammen mit entsprechenden intelligenten Grafikobjekten 23 und für die Lerninformationen relevanten dreidimensionalen Datenbanken von Serviceprovider-Datenbanken 30, 33, 34 heruntergeladen oder aber über einen beliebigen anderen Kanal erhalten werden, wie dies vorstehend unter Bezugnahme auf die Datenbank 26 erläutert wurde. Fernstudium kann weiter durch die Verwendung eines Lernmanagementsystems (LMS) 38 verbessert werden. Das Lernmanagementsystem 38 verzeichnet, verfolgt, validiert und evaluiert Lernende unter Verwendung der Validierung von Lernenden und Kursaufzeichnungen 40.
  • 2 ist ein schematisches Diagramm einer Ausführungsform einer Client-/Server-Architektur zur Umsetzung des in 1 gezeigten Systems. Wie vorstehend erläutert, ist der Kundencomputer 22 über das Netzwerk 24 unter Verwendung eines beliebigen geeigneten Kommunikationsprotokolls mit dem Simulationsserver 28 verbunden. Der Kundencomputer bearbeitet die Verarbeitung der Grafiken unter Verwendung von Programmen für die Verarbeitung von intelligenten Grafiken (Smart Graphics Processing – SGP) 42, die auf zweidimensionale Grafikinformationen aus einer Datenbank 52 zurückgreifen, und von Programmen für die Verarbeitung von dreidimensionalen Visualisierungen (three-dimensional visuals – 3DV) 44, die auf visuelle Informationen aus der Datenbank 26 Zugriff nehmen. Die SGP 42 generiert ein zweidimensionales Bild, das intelligente Grafiken enthält, die virtuelle Steuerelemente darstellen, die durch einen Benutzer des Systems 20 in an sich bekannter Weise manipuliert werden können. Die 3DV-Verarbeitungsprogramme erzeugen dreidimensionale Visualisierungen eines das simulierte komplexe System umgebenden Umfelds, was ebenfalls an sich gut bekannt ist. Die SGP 42 und die 3DV 44 sind durch eine visuelle Verschmelzungsmanagement-Funktion (VMM) (46) vernetzt, wie dies nachstehend detaillierter erläutert wird.
  • Der Simulationsserver 28 unterstützt eine Simulationsinstanz 48 einer Vollbildsimulation eines komplexen Systems, die Datenelemente mit dem Kundencomputer 22 über eine Datensteuer- und Datenbereitstellungsfunktion 50 austauscht. Obwohl die Verarbeitungslast zwischen dem Kundencomputer 22 und dem Servercomputer 28 aufgeteilt wird, besteht nach wie vor ein signifikantes Hindernis, das zu überwinden ist. Um die hochauflösende optische Anzeige zu integrieren, muss dem Benutzer ein einheitliches Bild, das sowohl die interaktiven intelligenten Grafiken als auch die dreidimensionalen Visualisierungen enthält, präsentiert werden.
  • Wie in 2 gezeigt, interagieren sowohl die SGP 42 als auch die 3DV 44 mit der Simulationsinstanz 48, um sicherzustellen, dass Eingaben des Benutzers in die intelligenten Grafiken an den Simulator weitergeleitet werden und dass die Simulatorzustände optische Anzeigen aktualisieren, die sowohl von den Programmen der SGP 42 als auch der 3DV 44 generiert werden. Der Benutzer betrachtet beide, interagiert jedoch nur mit den intelligenten Grafiken, die in den gezeigten Darstellungen von Bedienpulten und Anzeigen Schalter, Instrumente, Hebel und sonstige Steuerschnittstellen darstellen. Bei der zweidimensionalen grafischen Benutzeroberfläche wird eine Bitmap verwendet, um den Kontext für Vektor-basierte intelligente Grafiken bereitzustellen. Um eine Ansicht zu schaffen, werden beide grafischen Umgebungen in einer solchen Weise überlagert, die es ermöglicht, dass ein entsprechender Teil jeder Umgebung dem Benutzer präsentiert wird (d.h., die simulierte Umgebung erscheint durch die Fenster des simulierten komplexen Systems, und intelligente Grafiken erscheinen auf der Bitmap der simulierten Bedienpulte und Anzeigen). Dies wird durch die Vielzahl von Benutzersteuerelementen verkompliziert, die von der SGP 42 angezeigt werden müssen. Darüber hinaus kann der Benutzer ein Fenster in der Größe verändern, schwenken, scrollen, zoomen oder Änderungen am Darstellungsfeld vornehmen. Wenn der Benutzer dies tut, wird lediglich der entsprechende Teil der intelligenten Grafiken von der grafischen Benutzeroberfläche angezeigt. Dies erfordert Veränderungen in Echtzeit der Speicherstelle und der Anzahl der dreidimensionalen Visualisierungen, die angezeigt werden. Um dies zu erreichen, wurde die VMM-Funktion 46 geschaffen. Die Rolle der VMM-Funktion 46 ist es, die Darstellung sowohl der zweidimensionalen als auch der dreidimensionalen Informationen lokal so zu synchronisieren bzw. zu koordinieren, dass dem Benutzer eine einheitliche koordinierte Ansicht präsentiert wird.
  • Um einen Zustand der Vollbildsimulationsinstanz 48 richtig wiederzugeben, muss der Kundencomputer 22 ständig Daten senden, die durch Interaktion des Benutzers mit der SGP 42 generiert wurden, sowie Informationen, auf die durch die 3DV 44 in der Datenbank 26 Zugriff genommen wurde. Der Kundencomputer 22 muss analog Daten von der Simulationsinstanz 48 erhalten und diese Informationen dazu verwenden, die durch die SGP 42 und die 3DV 44 jeweils generierten Anzeigen zu aktualisieren. Auf der Seite des Kundencomputers 22 wird der Informationsaustausch mit dem Simulationsserver 28 durch eine Datensteuerung und Datenbereitstellung 60 bearbeitet, die Datenkommunikationen mit einer entsprechenden Datensteuerungs- und Datenbereitstellungsfunktion 50 im Server 28 koordiniert. Die Datensteuerung wählt eine Datenbereitstellungsfunktion aus, um Datenelementsubskriptionen zu verfolgen, wie dies nachstehend unter Bezugnahme auf 5 erläutert wird, die von der SGP 42 verwendet wird, um in einem von den 3DV 44 verwendeten Speicher 56 Daten aufzuzeichnen und daraus Daten herauszulesen.
  • 3 stellt einen Überblick über die erfindungsgemäße hochauflösende optische Anzeige bereit. Ein System für zweidimensionale Grafiken 70 umfasst eine Anwendungsprogrammschnittstelle (Application Program Interface – API) 72, über die die Datensteuerungs- und Datenbereitstellungsfunktion 60 (2) wie oben erläutert Simulations-Eingabe-/Ausgabe-Daten bewegt. Das VMM 46 verwendet die API 72 auch zum Zugriff auf Bitmap-Daten und Fenstergrößeninformationen, die dazu verwendet werden, das verschmolzene optische Bild 90 zu steuern, wie dies nachstehend detaillierter erläutert wird. Analog ist ein System für dreidimensionale Visualisierung 80 vorhanden, das eine API 82 aufweist, die von der Datensteuerung und Datenbereitstellung 60 und dem VMM 46 verwendet wird. Wie nachstehend detaillierter zu erläutern sein wird, erzeugt das System für zweidimensionale Grafiken 70 ein zweidimensionales Benutzeroberflächenfenster 92, das entsprechend ausgeblendet wird, da es immer hinter dem Anzeigefenster positioniert ist. Das System 70 für zweidimensionale Grafiken generiert auch ein Bitmap-Bild, das in zweckmäßiger Weise in einem Offscreenbuffer 110 (siehe 4) abgespeichert ist. Die Funktion des Bitmap-Bildes und seine damit verbundenen Veränderungen sind wichtig. Die Bitmap wird als eine Maske verwendet, um lediglich die zweckdienlichen Teile der dreidimensionalen Visualisierungen zu zeigen, die von den Systemen für dreidimensionale Visualisierung 80 generiert werden. Der Benutzer sieht lediglich die dreidimensionalen Visualisierungen, die nicht durch die in dem Offscreenbuffer 110 abgespeicherte Bitmap kaschiert werden. Wie nachstehend unter Bezugnahme auf 7 detaillierter erklärt wird, kann eine Bitmap als eine undurchsichtige, aus Farbattributen (rot, grün und blau) bestehende Maske gedacht werden. Durch das Definieren eines einheitlichen Chromakey (einer einzigen Farbe) kann die Bitmapmaske in an sich bekannter Weise so modifiziert werden, dass Flächen, die transparent sein müssen, das Chromakey-Farbattribut zugeteilt erhalten. Diese modifizierte Bitmap wird dann in eine Textur konvertiert, die von dem Texturmaskenassembler 116 in dem dreidimensionalen optischen System 80 verwendet wird, um eine Texturmaske zu schaffen, wie nachstehend unter Bezugnahme auf 4 erklärt wird.
  • Die Texturmaske wird in visuelle Texturdaten übersetzt, die für den Benutzer über ein Vollbildpolygon mit null Tiefe übertragen werden. Entsprechend sieht der Benutzer die dreidimensionalen Visualisierungen durch den(die) transparenten Teil(e) der Maske. Da der Rest des Bildes 90 die zweidimensionale Grafik ist, die von der Bitmap abgeleitet wurde, ist die Wirkung eine Integration der vorher getrennten zweidimensionalen und dreidimensionalen Bilder, die beide jeweils entsprechend mit der Simulationsinstanz 48 synchronisiert werden.
  • 4 ist eine detailliertere Darstellung der in 3 gezeigten Bildverarbeitungsfunktionen des Kundencomputers 22. Die SGP 42 generiert ein Bitmap-Bild, das in dem Offscreenbuffer 110 abgespeichert wird. Wie nachstehend unter Bezugnahme auf 5 erläutert wird, muss der Offscreenbuffer 110 jedes Mal aktualisiert werden, wenn eines von drei Ereignissen eintritt. Und zwar, wenn der Benutzer mit den intelligenten Grafiken interagiert, um einen Zustand einer virtuellen Steuerung zu verändern, die von dem Anzeigefenster 100 gezeigt wird, der Benutzer eine Zoom-, Schwenk-, Scroll- oder Größenveränderungsoperation am Anzeigefenster 100 ausführt oder von der Simulationsinstanz 48 eine Eingabe erhalten wird, die erfordert, dass ein angezeigtes Bedienpult geändert wird. Wenn ein beliebiges dieser Ereignisse eintritt, muss die für das Generieren der Texturmaske verwendete Bitmap geändert werden.
  • Jedes Mal, wenn die SGP 42 den Offscreenbuffer 110 ändert, der die Bitmap speichert, benachrichtigt die SGP 42 demzufolge das VMM 46 über Veränderungen des Darstellungsfeldes und Aktualisierungen des Offscreenbuffers. Demzufolge sendet das VMM 46 den Befehl an die SGP, den Offscreenbuffer auf die gemeinsame im Speicher enthaltene Grafikdatenstruktur (Memory Device Context) zu kopieren. Die VMM-Funktion 46 nimmt dann die erforderliche Koordinierung mit dem System für dreidimen sionale Visualisierungen 80 vor, um entsprechende Änderungen im hochauflösenden optischen Anzeigefenster 90 zu bewirken. Bei dieser Ausführungsform übermittelt die VMM-Funktion 46 die neue Bitmap an den Texturmaskenassembler 116, der die Bitmap in visuelle Texturdaten umwandelt. Der Texturmaskenassembler leitet anschließend die visuellen Texturdaten an einen dreidimensionalen Wiedergabeprozess 114 weiter, der sie dazu verwendet, das hochauflösende optische Anzeigefenster 90 zu generieren. Des Weiteren werden die Fensterabmessungen und das Sichtfeld von dem VMM 46 über das optische 3D-System API (3) an das optische System weitergeleitet.
  • Der dreidimensionale Wiedergabeprozess erhält ständig Eingaben aus der Simulationsinstanz 48 und liest optische Systeminformationen aus der Datenbank 26 unter Verwendung einer Datenbankschnittstelle 118 aus (2). Der dreidimensionale Wiedergabeprozess 114 konvertiert die optischen Informationen in ein dreidimensionales optisches Bild, das mit der Texturmaske überlappt wird, die durch den Texturmaskenassembler 116 geschaffen wird, um das Anzeigefenster 90 zu generieren. Interpolations- und Extrapolationsalgorithmen (Koppelnavigation) sagen voraus und glätten einige der Daten (wie z.B. Positions- und Lageinformationen), die von der Simulation in einer an sich bekannten Weise erhalten werden. Das Anzeigefenster 90 zeigt die Texturmaske 94 (in diesem Fall ein Cockpit eines Fluggeräts). Transparente Bereiche 96 der Texturmaske 94 zeigen die dreidimensionalen Visualisierungen. Das Anzeigefenster 90 wird in an sich bekannter Weise generiert, wobei die Benutzereingabefunktionen deaktiviert sind. Das Anzeigefenster 90 wird dann über ein Fenster 92 angezeigt, dessen Benutzereingabefunktionen aktiviert sind. Das Fenster 92 wird optional, wie oben erklärt, ausgeblendet. Das funktionale Fenster 92 wird durch die SGP 42 gesteuert, die die an das Anzeigefenster 100 gerichteten Benutzereingabevorgänge akzeptiert. Die SGP koordiniert die von dem Fenster 92 aufgezeichneten Benutzereingabevorgänge, wobei im Offscreenbuffer 110 abgespeicherte intelligente Grafikobjekte in dem Bitmap-Bild eingebettet sind.
  • Wenn demzufolge der Benutzer eine Zielvorrichtung bedient, die einen Cursor 102 steuert, um eine Steuereinstellung auf einem angezeigten Bedienpult zu verändern, detektiert die SGP 42 den Vorgang und bestimmt eine Position des Cursors 102 auf dem aktivierten Fenster 92. Die SGP 42 ermittelt, welche Änderungen an der in dem Offscreenbuffer 110 abgespeicherten Bitmap erforderlich sind, und des Weiteren, welche Daten gegebenenfalls an die Simulationsinstanz 48 zu senden sind. Es sollte angemerkt werden, dass anstelle eines Zeigegerätes eine berührungsempfindliche Anzeigeoberfläche verwendet werden kann, wobei in diesem Fall ein Berührungsvorgang anstelle des Zeigegerätvorganges, wie oben beschrieben wurde, detektiert wird.
  • 5 ist ein Flussdiagramm, das die wesentlichen Schritte zeigt, die während der Ausführung der erfindungsgemäßen Verfahren von der SGP 42 ausgeführt werden. In einer Initialisierungsphase führt die SGP 42 Datenelementsubskription (Schritt 150) aus. Um eine effiziente Nutzung der Ressourcen des Netzwerkes 24 sicherzustellen, werden nur für einen angezeigten Teil der Bedienpulte des simulierten komplexen Systems relevante Daten an die Simulationsinstanz 48 gesandt oder von dieser empfangen. Entsprechend wird ein Datenelementsubskriptionsprozess ausgeführt. Während des Datenelementsubskriptionsprozesses registriert die SGP 42 mit der Datensteuerungs- und Datenbereitstellungsfunktion 60 sämtliche Datenelemente, die mit den intelligenten Grafiken verbunden sind, welche durch eine Default-Start-up-Ansicht des(der) Bedienpulte(s) angezeigt werden. Nach Abschluss des Datenelementsubskriptionsprozesses initialisiert die SGP 42 ein zweidimensionales grafisches Fenster 92 und generiert eine Bitmap, die in dem Offscreenbuffer 110 abgespeichert wird (Schritt 152). Auf Anforderungen des VMM 46 kopiert die SGP 42 die Bitmap auf die von dem VMM 46 gesteuerte gemeinsame im Speicher enthaltene Grafikdatenstruktur (Memory Device Context) (Schritt 154). Anschließend koordiniert das VMM das Verarbeiten der Bitmap mit den 3DV 80, wie dies oben beschrieben wurde. Im Schritt 156 ermittelt die SGP 42, ob die aktuelle Sitzung beendet wurde. Ist dies der Fall, schließt die SGP 42 ab, und darauf folgt in an sich bekannter Weise die Neuorganisation des Arbeitsspeichers (garbage collection). Ansonsten überprüft die SGP 42 ein Benutzereingaberegister (Schritt 158), um festzustellen, ob seitens des Benutzers eine Eingabe erfolgte. Wenn eine Benutzereingabe detektiert wurde, ermittelt die SGP 42 (Schritt 160), ob die Eingabe zu einer Veränderung der Ansicht führte (Größenveränderungs-, Schwenk- oder Zoomvorgang). Wenn nicht, änderte die Benutzereingabe einen Zustand einer der angezeigten intelligenten Grafiken, so dass die SGP 42 feststellt, welches) Datenelement(e) aktualisiert werden muss(müssen) (Schritt 162), um die Simulatorinstanz 48 über die Zustandsveränderung zu benachrichtigen. Wenn im Schritt 158 ermittelt wurde, dass es keine Benutzereingabe gab, überprüft bzw. ermittelt die SGP 42 (Schritt 164), ob eines der subskribierten Datenelemente durch Rückmeldung aus der Simulationsinstanz 48 verändert wurde. Wenn keines der Datenelemente von der Simulationsinstanz 48 aktualisiert wurde, fällt der Prozess zurück auf Schritt 156.
  • Die in dem Offscreenbuffer 110 gespeicherte Bitmap muss unabhängig davon aktualisiert werden, ob Datenelemente durch Benutzereingaben (Schritt 162) oder durch Rückmeldung aus der Simulationsinstanz 48 (Schritt 164) aktualisiert wurden. Entsprechend wird die Bitmap im Schritt 166 aktualisiert, und das neue Bitmap-Bild wird an das VMM 46 übermittelt (Schritt 168).
  • Wenn im Schritt 160 ermittelt wurde, dass die Benutzereingabe zu einer Veränderung der Ansicht führte (Größenveränderungs-, Schwenk- oder Zoomvorgang), berechnet die Verarbeitung von intelligenten Grafiken 42 einen neuen Fenstergrößen-, Standort- und Zoomfaktor (Schritt 170) und aktualisiert das Fenster 92 (Schritt 172). Die neuen Fensterdaten werden anschließend an das VMM 46 weitergeleitet, wenn dies von letzterem angefordert wurde (Schritt 174). Es wird dann (Schritt 176) ermittelt, ob die Veränderung der Ansicht eine Veränderung an der Subskription eines beliebigen der Datenelemente erfordert. Ist dies der Fall, werden sämtliche Datenelemente, die durch die Ansichtsveränderung ausgeschlossen wurden, entsubskribiert, und beliebige neue erforderliche Datenelemente werden subskribiert (Schritt 180). In beiden Fällen wird die Bitmap aktualisiert (Schritt 166) und wie oben beschrieben an das VMM 46 weitergeleitet (Schritt 168).
  • 6 ist ein Flussdiagramm, welches eine Übersicht über die in den 3DV 44 verwendete Logik darstellt, um die erfindungsgemäßen Verfahren auszuführen. Der Prozess beginnt mit einer Initialisierung des Fensters 90. Die 3DV 44 stützt sich auf Simulatoreingaben hinsichtlich Standort, Lage und vieler weiterer simulierter systemabhängiger Variablen, um die in dem Fenster 90 angezeigten dreidimensionalen Visualisierungen zu generieren. Analog und wie nachstehend detaillierter erläutert, kann die Datenbank 26 Datenelemente enthalten, die an die Simulationsinstanz 48 zu übermitteln sind. Demzufolge beginnt die Systeminitialisierung mit einem Datenelementsubskriptionsprozess (Schritt 200), wie dies vorstehend unter Bezugnahme auf 5 erläutert wurde. Anschließend initialisiert die 3DV 44 das Fenster 90, um eine Default-Ansicht anzuzeigen (Schritt 204), und überprüft bzw. ermittelt, ob neue Fensterdaten von dem VMM 46 erhalten wurden (Schritt 204). Wenn keine neuen Fensterdaten erhalten wurden, ermittelt die 3DV 44, ob das VMM 46 eine Bitmap-Aktualisierung anfordert (Schritt 206). Wenn eine Bitmap-Aktualisierung angefordert wird, wird die Bitmap von dem VMM akzeptiert (Schritt 210) und an den Texturmaskenassembler 116 weitergeleitet, der die Bitmap in eine Texturmaske verwandelt, wie dies nachstehend unter Bezugnahme auf 7 erläutert wird. Wenn analog im Schritt 204 ermittelt wird, dass neue Fensterdaten (Fenstergrößen-, Lage-, Scroll- oder Zoomfaktor) von dem VMM 46 aus zur Verfügung stehen, werden die Fensterdaten von dem VMM 46 im Schritt 208 akzeptiert, und die aktualisierte Bitmap wird akzeptiert (Schritt 210) und an den Texturmaskenassembler 116 weitergeleitet. In beiden Fällen wird die neue Texturmaske durch den Texturmaskenassembler 116 generiert (Schritt 212), so dass das Anzeigefenster 90 die korrekte Texturmaske über den dreidimensionalen Visualisierungen zeigt.
  • Im Schritt 214 werden die subskribierten Datenelemente aus dem gemeinsamen dreidimensionalen Speicher 56 ausgelesen (2), da diese Datenelemente möglicherweise erforderlich sind, um einen Zugriff auf Informationen aus der Datenbank 26 festzulegen, die für die nächste Wiederholung der dreidimensionalen Visualisierungskomponente des Fensters 90 erforderlich sind. Es werden dann in an sich bekannter Weise Informationen aus der Datenbank 26 ausgelesen (Schritt 216). Nach dem Zugriff auf die Daten wird im Schritt 218 ermittelt, ob der Datenzugriff etwaige Datenelemente zurückleitete, die an die Simulatorinstanz 48 zurückzuleiten sind. Beispielsweise enthält die dreidimensionale Datenbank möglicherweise Informationen über sich annähernde Objekte, Änderungen bei der Höhe, Hindernisse oder sonstige für die Simulationsinstanz 48 für die Aktualisierung von Instrumenten, Auslösen von Alarmen usw. erforderliche Informationen. Wenn in der dreidimensionalen Datenbank 26 auf Datenelementwerte zugegriffen wurde, werden diese Datenelementwerte im Schritt 220 in den gemeinsamen dreidimensionalen Speicher 56 geschrieben. Ansonsten gibt die 3DV 44 die Visualisierung für das Fenster 90 durch Überlagern der dreidimensionalen Visualisierungen mit der Texturmaske wieder, wie dies detaillierter unter Bezugnahme auf 7 beschrieben wird. Im Schritt 224 wird ermittelt, ob die Sitzung beendet wurde. Ist dies nicht der Fall, be ginnt der Prozess ab Schritt 204 erneut. Die Qualität der 3DV wird durch Betrieb mit ungefähr 60 Hz optimiert. Um jedoch die Verarbeitungslast in dem Kundencomputer zu reduzieren, kann die 3DV mit geringeren Auffrischungsraten laufen. Zusätzlich läuft die vorstehend unter Bezugnahme auf 4 beschriebene SGP 42 vorzugsweise bei ca. 5 Hz, was eine hochauflösende Simulation liefert, um die Bearbeitungslast in dem Kundencomputer 22 zu reduzieren.
  • 7 ist ein Flussdiagramm mit der Darstellung der wesentlichen Schritte in der Verarbeitung von Bitmap-Daten, um die Visualisierungen für das Fenster 90 zu generieren, die in der 3DV 44 angezeigt werden. Im Schritt 300 erhält die 3DV 44 eine neue Bitmap, die möglicherweise durch neue Fensterdaten aus dem VMM 46 ergänzt wird, wie dies vorstehend detailliert erläutert wurde. Die neue Bitmap wird an den Texturmaskenassembler 116 weitergeleitet, der die Chromakeywerte ausfiltert (Schritt 302), wie dies oben beschrieben wurde, und übersetzt den Rest des Bitmap-Bildes in visuelle Texturdaten (Schritt 304). Die visuellen Texturdaten können transparente Bereiche umfassen, vollständig transparent sein, wie dies an sich bekannt ist, oder aber je nach dem Gesichtspunkt vollständig undurchsichtig sein. Der Texturmaskenassembler 116 gibt dann die Texturmaskendaten an den dreidimensionalen Wiedergabeprozess 114 weiter (4), der die Textur als Vollbildpolygon mit null Tiefe für den Betrachter über einem hochauflösenden Bild der Umgebung überlagert, die unter Verwendung der Daten, auf die wie oben beschrieben in der Datenbank 26 Zugriff genommen wurde, geschaffen wurde.
  • 8 ist eine schematische Darstellung einer weiteren Ausführungsform eines erfindungsgemäßen Systems 20, bei dem ein Kundencomputer 22 als Trainingsvorrichtung verwendet wird, die dem persönlichen Arbeitstempo angepasste Lerninformationen als Trainingshilfe einsetzt. Das System 20 umfasst den über das Netzwerk 24 mit dem Kundencomputer 22 verbundenen Simulationsserver 28. Wie vorstehend erklärt, ist der Kundencomputer 22 mit einer Simulationsinstanz 48 des Simulationsservers 28 über Datensteuerungs- und Bereitstellungsfunktionen 50 verbunden.
  • Der Kundencomputer 22 umfasst die oben beschriebenen Datensteuerungs- und Bereitstellungsfunktionen 60. Er umfasst auch eine Run-Time Engine (RTE) 130, die dazu verwendet wird, die Lerninformationen 32 zu treiben. Die Lerninformationen 32 sind integriert und funktionieren in Abstimmung sowohl mit dem System für zweidimensionale Grafiken 70 als auch mit dem System für dreidimensionale Visualisierung 80. Beispielsweise können die Lerninformationen 32 Textboxes generieren, die in das Bitmap-Bild integriert sind, das durch das VMM 46 aus dem System für zweidimensionale Grafiken 70 an das System für dreidimensionale Visualisierungen 80 weitergeleitet wird. Die Lerninformationen können auch dazu benutzt werden, visuelle Effekte oder visuelle Highlights in den Anzeigeoutput des Systems für dreidimensionale Visualisierung 80 einzuführen. Wenn beispielsweise das komplexe System ein Fluggerät ist, können die Lerninformationen einen empfohlenen Anflugweg zu einer Landebahn illustrieren, wobei ein in dem Fenster 90 gezeigter visueller Indikator verwendet wird. Analog können Hindernisse oder Gefahren hervorgehoben oder mit einem visuellen Marker oder ähnlichem angezeigt werden. Demzufolge können die integrierten Lerninformationen für eine Anzahl von wichtigen Trainings- und Übungsanwendungen verwendet werden.
  • Die Erfindung stellt demzufolge ein wichtiges Werkzeug bereit, das in Kombination mit Lerninformationen einen raschen Fortschritt beim Trainieren integrierter Verfahren und den Erwerb von Systemkenntnis und Bedienerfähigkeiten im Zusammenhang mit dem Betrieb oder der Wartung beliebiger simulierter komplexer Systeme erlaubt. Das erfindungsgemäße System erlaubt Fernstudium und Übung von Fähigkeiten an einem entfernt liegenden Ort mit allen verbundenen Vorteilen einer Vollbildsimulation mit hochauflösenden Visualisierungen unter Einschluss einer voll funktionalen Steuerschnittstelle, die in getreulicher Weise das Aussehen und die Funktionalität eines Bedienpulte des realen Systems dupliziert. Das erfindungsgemäße System ist in einer unbegrenzten Anzahl von Anwendungen nützlich, denn es liefert sämtliche Vorteile eines Vollbildsimulators, mit Ausnahme der Bewegungs- und immersiven physischen Umgebung.
  • Die Ausführungsform(en) der Erfindung, die vorstehend beschrieben wurde(n), soll(en) lediglich beispielhaften Charakter haben. Der Rahmen der Erfindung soll demzufolge ausschließlich durch den Rahmen der beigefügten Patentansprüche eingeschränkt werden.

Claims (23)

  1. System (20) für die Erzeugung einer hochauflösenden optischen Anzeige, die eine visuelle immersive 3D-Umgebung für einen Benutzer des mit einer Vollbildsimulation (48) eines komplexen Systems, das unter allen relevanten sowohl normalen wie auch anormalen Bedingungen im Wesentlichen in identischer Weise wie das reale System reagiert, koordinierten Systems bereitstellt, wobei das System eine Verarbeitung von intelligenten Grafiken (42) umfasst, welche geeignet ist, ein zweidimensionales Bild von angezeigten Bedienpulten des simulierten komplexen Systems zu erzeugen, wobei das Bild eingebettete intelligente Grafiken aufweist, um es dem Benutzer zu ermöglichen, in Verbindung mit den angezeigten Bedienpulten virtuelle Steuerelemente zu bedienen, und ferner eine Verarbeitung von dreidimensionalen Visualisierungen (44) für das Erzeugen der hochauflösenden optischen Anzeige unter Verwendung von visuellen Umgebungsdaten umfasst, gekennzeichnet durch die Verarbeitung von dreidimensionalen Visualisierungen (80), welche geeignet ist, die hochauflösende optische Anzeige (90) durch Überlagerung einer zweidimensionalen Texturmaske zu erzeugen, die in optische Texturdaten übersetzt wird, welche für den Benutzer auf ein Vollbildpolygon mit null Tiefe auf einem dreidimensionalen, unter Verwendung der visuellen Umgebungsdaten generierten Bild übertragen werden.
  2. System (20) nach Anspruch 1, welches ferner eine Datenbank (26) mit Daten von visuellen Effekten für dynamisches Modellieren der Umgebung des komplexen Systems für die Bereitstel lung der visuellen Umgebungsdaten für die Verarbeitung von dreidimensionalen Visualisierungen (80) umfasst.
  3. System (20) nach Anspruch 1 oder 2, wobei die Verarbeitung von dreidimensionalen Visualisierungen (80) ferner geeignet ist, Daten in der Weise mit einer Vollbildsimulation (48) auszutauschen, dass die Vollbildsimulation auf die visuellen Umgebungsdaten reagiert, und wobei die Verarbeitung von dreidimensionalen Visualisierungen in Echtzeit mit der Vollbildsimulation abgestimmt wird.
  4. System (20) nach einem der vorstehenden Ansprüche, wobei die Verarbeitung von intelligenten Grafiken (42) ferner das zweidimensionale Bild in einem außerhalb des Bildschirms gelegenen Puffer (110) abspeichert und einen Speichereinrichtungskontext (112) für das Verfolgen der intelligenten Grafiken in Verbindung mit dem zweidimensionalen Bild bereithält, um die Übersetzung von Input-Vorgängen des Benutzers in Änderungen an Datenelementwerten zu ermöglichen, die der Vollbildsimulation (48) zugeführt werden.
  5. System (20) nach Anspruch 4, wobei die Verarbeitung von intelligenten Grafiken (42) ferner geeignet ist, das zweidimensionale Bild aufgrund eines Inputs des Benutzers, der einen die hochauflösende optische Anzeige (90) anzeigenden Viewport-Bereich ändert, zu aktualisieren.
  6. System (20) nach Anspruch 5, welches ferner visuelles Verschmelzungsmanagement (46) für das Kommunizieren und Koordinieren von Änderungen in dem zweidimensionalen Bild an die Verarbeitung von dreidimensionalen Visualisierungen (80) umfasst.
  7. System (20) nach Anspruch 6, wobei das visuelle Verschmelzungsmanagement (46) geeignet ist, Fensterdaten und Bitmap-Aktualisierungen zu erhalten und die Fensterdaten und die Bitmap-Aktualisierungen an die Verarbeitung von dreidimensionalen Visualisierungen (80) weiterzuleiten.
  8. System (20) nach Anspruch 7, welches ferner einen Texturmasken-Assembler (116) aufweist, welcher geeignet ist, die Bitmap-Aktualisierungen zu erhalten und die Bitmap in eine Texturmaske zu konvertieren.
  9. System (20) nach Anspruch 8, wobei die Verarbeitung von intelligenten Grafiken (42) und die Verarbeitung von dreidimensionalen Visualisierungen (80) jeweils ferner geeignet sind, dynamisch Datenelemente zu subskribieren, die zum Austausch von Daten mit der Vollbildsimulation (48) verwendet werden.
  10. System (20) nach Anspruch 9, wobei das Verarbeiten von intelligenten Grafiken (42) ferner geeignet ist, seine Datenelement-Subskriptionen jedes Mal zu verändern, wenn eine Veränderung am zweidimensionalen Bild zu einer Veränderung an intelligenten Grafiken führt, die in dem zweidimensionalen Bild eingebettet sind.
  11. System (20) nach einem der vorstehenden Ansprüche, ferner mit Lerninformationen (32) für die Bereitstellung von Ausbildung in einem beliebigen Bereich der Systemkenntnis, der integrierten Prozeduren und Fähigkeiten, die erforderlich sind, um das komplexe System zu bedienen bzw. zu warten.
  12. Verfahren zur Generierung von Ausbildung und Übung auf einem simulierten komplexen System für Personal, das das komplexe System zu betreiben bzw. zu warten hat, welches Verfahren folgende Schritte umfasst: Erzeugen eines zweidimensionalen Bildes von angezeigten Bedienpulten des simulierten komplexen Systems, wobei das zweidimensionale Bild eingebettete intelligente Grafiken aufweist, um es dem Personal zu ermöglichen, mit den angezeigten Bedienpulten verbundene virtuelle Steuerelemente (100) zu bedienen, Erzeugen einer hochauflösendenden optischen Anzeige, welche dem Benutzer des Systems unter Verwendung von visuellen Umgebungsdaten und einer aus dem zweidimensionalen Bild abgeleiteten Texturmaske eine immersive dreidimensionale visuelle Umgebung bereitstellt, gekennzeichnet durch das Erzeugen der hochauflösenden optischen Anzeige (90) durch Überlagerung einer zweidimensionalen Texturmaske, die in optische Texturdaten übersetzt wird, welche für den Benutzer (306) auf ein Vollbildpolygon mit null Tiefe auf einem dreidimensionalen, unter Verwendung der visuellen Umgebungsdaten generierten Bild übertragen werden.
  13. Verfahren nach Anspruch 12, welches ferner einen Schritt des Abrufens von visuellen Umgebungsdaten aus einer Datenbank (26) umfasst, die für einen Kundencomputer (22), der die Schritte des Generierens durchführt, lokal ist.
  14. Verfahren nach Anspruch 13, welches ferner einen Schritt der Simulation des komplexen Systems unter Verwendung einer Simulationsinstanz (48), die auf einem entfernt liegenden Server (28) läuft, umfasst.
  15. Verfahren nach Anspruch 14, welches ferner einen Schritt für das Subskribieren (150) von Datenelementen für den Austausch von Daten mit der Simulationsinstanz (48) umfasst, um einen Austausch von Daten mit der die Datenelemente verwendenden Instanz zu ermöglichen, um Inputs, die durch Manipulation der virtuellen Steuerelemente durch das Personal erzeugt werden, an die Instanz (220) zu transferieren und um Rückmeldung (214) von der Instanz für das Aktualisieren (166) des zweidimensionalen Bildes zu erhalten.
  16. Verfahren nach Anspruch 14, welches ferner einen Schritt des Subskribierens (150) von Datenelementen für den Austausch von Daten mit der Simulationsinstanz (48) umfasst, um einen Austausch (214, 220) von Daten mit der die Datenelemente verwendenden Instanz zu ermöglichen, um die aus der Datenbank der visuellen Umgebung abgerufenen Informationen an die Instanz zu transferieren und um die hochauflösende optische Anzeige mit einem Zustand der Simulationsinstanz zu koordinieren.
  17. Verfahren nach einem der Ansprüche 12 bis 16, wobei der Schritt des Generierens des zweidimensionalen Bildes ferner einen Schritt der Veränderung des zweidimensionalen Bildes in der Weise umfasst, dass Bereiche, welche transparent sein müssen, einem Chromakey-Farbattribut zugeordnet werden und ein Bitmap-Bild in einem Speicher des Kundencomputers (22) abgespeichert wird.
  18. Verfahren nach Anspruch 17, welches ferner einen Schritt der Übertragung des Bitmap-Bildes an die Verarbeitung von dreidimensionalen Visualisierungen (80) umfasst, was dafür verantwortlich ist, jedes Mal, wenn die intelligenten Grafiken ver ändert werden, die hochauflösende optische Anzeige zu erzeugen.
  19. Verfahren nach Anspruch 18, welches ferner einen Schritt des Filterns (302) der Chromakey-Werte aus dem Bitmap-Bild und des Konvertierens des Bitmap-Bildes in dreidimensionale Texturdaten (304) umfasst, die von der Verarbeitung von dreidimensionalen Visualisierungen (80) verwendet werden, um die Texturmaske zu schaffen.
  20. Verfahren nach einem der Ansprüche 12 bis 19, welches ferner einen Schritt der Bereitstellung von Lerninformationen (32) auf dem Kundencomputer (22) für das Trainieren eines Kursteilnehmers in einem beliebigen Bereich der Systemkenntnis, der integrierten Prozeduren, der Fähigkeiten des Bedieners und der Wartungsfähigkeiten umfasst, welche erforderlich sind, um das komplexe System zu betreiben bzw. zu warten.
  21. Verfahren nach Anspruch 20, welches ferner einen Schritt der Verbindung der Lerninformationen (32) mit Aufzeichnungen und Verfolgungsmechanismen einer Lernplattform (38) zum Zwecke der Zuweisung von anrechenbaren Lerneinheiten und der Ergänzung des Kurslehrplans umfasst.
  22. Verfahren nach Anspruch 21, welches ferner einen Schritt des Herunterladens auf einen Kundencomputer (22) von Lerninformationen (32), intelligenten Grafikobjekten (23) und einer Datenbank (26) mit dreidimensionalen visuellen Daten auf der Grundlage von durch die Lernplattform (38) festgelegten Lehrplanerfordernissen umfasst.
  23. Computerlesbares Medium, das vom Computer ausführbare Programmbefehle zur Umsetzung der Verfahren nach einem der Ansprüche 12 bis 22 enthält.
DE60302063T 2002-05-14 2003-05-14 Graphische benutzeroberfläche für einen flugsimulator basierend auf einer client-server-architektur Expired - Lifetime DE60302063T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US10/143,868 US7117135B2 (en) 2002-05-14 2002-05-14 System for providing a high-fidelity visual display coordinated with a full-scope simulation of a complex system and method of using same for training and practice
US143868 2002-05-14
PCT/CA2003/000705 WO2003096302A2 (en) 2002-05-14 2003-05-14 Graphical user interface for a flight simulator based on a client-server architecture

Publications (2)

Publication Number Publication Date
DE60302063D1 DE60302063D1 (de) 2005-12-01
DE60302063T2 true DE60302063T2 (de) 2006-07-27

Family

ID=29418476

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60302063T Expired - Lifetime DE60302063T2 (de) 2002-05-14 2003-05-14 Graphische benutzeroberfläche für einen flugsimulator basierend auf einer client-server-architektur

Country Status (8)

Country Link
US (1) US7117135B2 (de)
EP (1) EP1504420B1 (de)
CN (1) CN100476881C (de)
AT (1) ATE308086T1 (de)
AU (1) AU2003223811A1 (de)
CA (1) CA2485610C (de)
DE (1) DE60302063T2 (de)
WO (1) WO2003096302A2 (de)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1286322A1 (de) * 2001-08-07 2003-02-26 Siemens Aktiengesellschaft Simulationssystem, inbesondere für eine Kraftwerksanlage
US20050088449A1 (en) * 2003-10-23 2005-04-28 Blanco Leonardo E. Child window redirection
US20050140692A1 (en) * 2003-12-30 2005-06-30 Microsoft Corporation Interoperability between immediate-mode and compositional mode windows
US7412662B2 (en) * 2004-04-12 2008-08-12 Microsoft Corporation Method and system for redirection of transformed windows
US7542034B2 (en) 2004-09-23 2009-06-02 Conversion Works, Inc. System and method for processing video images
US20060178758A1 (en) * 2005-02-08 2006-08-10 Israel Aircraft Industries Ltd. Training methods and systems
US9224303B2 (en) 2006-01-13 2015-12-29 Silvertree Media, Llc Computer based system for training workers
IL174746A0 (en) * 2006-04-03 2007-03-08 Israel Aerospace Ind Ltd Methods and systems for generating virtual radar targets
US8014992B2 (en) * 2006-05-31 2011-09-06 William H Smith Electric power system training simulation software and process for electric power system training
US9047717B2 (en) 2006-09-25 2015-06-02 Appareo Systems, Llc Fleet operations quality management system and automatic multi-generational data caching and recovery
US9202318B2 (en) 2006-09-25 2015-12-01 Appareo Systems, Llc Ground fleet operations quality management system
US9172481B2 (en) 2012-07-20 2015-10-27 Appareo Systems, Llc Automatic multi-generational data caching and recovery
WO2008056359A2 (en) * 2006-11-09 2008-05-15 Israel Aerospace Industries Ltd. Mission training center instructor operator station apparatus and methods useful in conjunction therewith
US8274530B2 (en) 2007-03-12 2012-09-25 Conversion Works, Inc. Systems and methods for filling occluded information for 2-D to 3-D conversion
CN107256430B (zh) * 2007-11-23 2023-12-08 润弘精密工程事业股份有限公司 图形介面网路报修系统及其方法
US20090328080A1 (en) * 2008-06-25 2009-12-31 Microsoft Corporation Window Redirection Using Interception of Drawing APIS
DE102009029318A1 (de) * 2009-09-09 2011-03-17 Ford Global Technologies, LLC, Dearborn Verfahren und Vorrichtung zur Erprobung einer Fahrzeugkonstruktion
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US9564175B2 (en) * 2013-04-02 2017-02-07 International Business Machines Corporation Clustering crowdsourced videos by line-of-sight
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US10533850B2 (en) 2013-07-12 2020-01-14 Magic Leap, Inc. Method and system for inserting recognized object data into a virtual world
WO2015006784A2 (en) 2013-07-12 2015-01-15 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US20150121350A1 (en) * 2013-10-25 2015-04-30 Kyungpook National University Industry-Academic Cooperation Virtual simulation device and virtual simulation system including the same, and virtual simulation method
US10114783B2 (en) 2014-03-26 2018-10-30 Cae Inc. Configurable input/output unit
US8990060B1 (en) * 2014-03-26 2015-03-24 Cae Inc. Configurable modular card for use in a simulator
DE102014214667A1 (de) * 2014-07-25 2016-01-28 Bayerische Motoren Werke Aktiengesellschaft Anzeigen von dynamischen sicherheitsrelevanten dreidimensionalen Inhalten auf einer Anzeigeeinrichtung
WO2016154707A1 (en) * 2015-03-31 2016-10-06 Cae Inc. Interactive computer program with virtualized participant
US20160293047A1 (en) * 2015-03-31 2016-10-06 Cae Inc. Simulator for generating and exchanging simulation data for interacting with a portable computing device
WO2016154706A1 (en) * 2015-03-31 2016-10-06 Cae Inc. Modular infrastructure for an interactive computer program
WO2016154711A1 (en) 2015-03-31 2016-10-06 Cae Inc. Multifactor eye position identification in a display system
US20160293038A1 (en) * 2015-03-31 2016-10-06 Cae Inc. Simulator for generating and transmitting a flow of simulation images adapted for display on a portable computing device
US9754506B2 (en) 2015-03-31 2017-09-05 Cae Inc. Interactive computer program with virtualized participant
US20160293048A1 (en) * 2015-03-31 2016-10-06 Cae Inc. Simulator for generating and optimizing simulation data adapted for interacting with a portable computing device
US20160292919A1 (en) 2015-03-31 2016-10-06 Cae Inc. Modular Infrastructure For An Interactive Computer Program
CN106157731B (zh) * 2015-04-07 2018-09-18 深圳威阿科技有限公司 一种具有混合现实功能的模拟飞行座舱系统及其处理方法
CA2920937C (en) * 2016-02-17 2018-03-06 Cae Inc A simulation server capable of configuring events of a lesson plan through interactions with a computing device
CA2920915C (en) * 2016-02-17 2017-09-12 Cae Inc A simulation server capable of transmitting a visual prediction indicator representative of a predicted simulation event discrepancy
US10679513B2 (en) 2016-02-17 2020-06-09 Cae Inc. Simulation server capable of creating events of a lesson plan based on simulation data statistics
CA2920913C (en) * 2016-02-17 2018-04-10 Cae Inc Simulation server capable of interacting with a plurality of simulators to perform a plurality of simulations
CA2920988C (en) * 2016-02-17 2017-09-12 Sebastien Malo A simulation server capable of transmitting a visual alarm representative of a simulation event discrepancy to a computing device
CA2920914C (en) * 2016-02-17 2017-07-18 Cae Inc Portable computing device and method for transmitting instructor operating station (ios) filtered information
US10748443B2 (en) 2017-06-08 2020-08-18 Honeywell International Inc. Apparatus and method for visual-assisted training, collaboration, and monitoring in augmented/virtual reality in industrial automation systems and other systems
CN107729613A (zh) * 2017-09-18 2018-02-23 中国商用飞机有限责任公司 飞行模拟机数据包架构的构建方法
US10607407B2 (en) * 2018-03-30 2020-03-31 Cae Inc. Dynamically modifying visual rendering of a visual element comprising a visual contouring associated therewith
CN108600912A (zh) * 2018-04-13 2018-09-28 成都赫尔墨斯科技股份有限公司 用于综合航电系统的虚拟化无线电调谐与音频管理系统

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3862358A (en) * 1971-11-04 1975-01-21 Us Navy Visual simulation system
CA2052155C (en) 1990-10-30 1997-01-28 Victor S. De Gyarfas Glass trainer
GB2256568B (en) 1991-06-05 1995-06-07 Sony Broadcast & Communication Image generation system for 3-D simulations
US5326270A (en) 1991-08-29 1994-07-05 Introspect Technologies, Inc. System and method for assessing an individual's task-processing style
US5345554A (en) 1992-04-17 1994-09-06 Intel Corporation Visual frame buffer architecture
WO1994016423A1 (en) 1993-01-13 1994-07-21 Roads Corporation A hazard perception test system
US5651676A (en) 1993-09-02 1997-07-29 Microsoft Corporation Method of organizing and storing simulated scenery in a flight simulation system
US5550575A (en) 1994-05-04 1996-08-27 West; Brett Viewer discretion television program control system
US5548345A (en) 1995-01-05 1996-08-20 Protelcon, Inc. Video viewing censoring supervision system
US6236408B1 (en) 1995-01-10 2001-05-22 Evans & Sutherland Computer Corporation Computer graphics pixel rendering system with multi-level scanning
WO1997000106A1 (en) 1995-06-16 1997-01-03 Virtual World Entertainment, Inc. Cockpit for providing a display system and user interface for an interactive computer system
JP3635729B2 (ja) * 1995-08-31 2005-04-06 株式会社セガ 画像処理方法、画像処理装置および疑似体験装置
JP2000512039A (ja) * 1996-03-15 2000-09-12 ザパ デジタル アーツ リミテッド プログラム可能なコンピュータグラフィックオブジェクト
US6563520B1 (en) * 1996-05-01 2003-05-13 Light And Sound Design Ltd. Virtual reality interface for show control
US6425764B1 (en) * 1997-06-09 2002-07-30 Ralph J. Lamson Virtual reality immersion therapy for treating psychological, psychiatric, medical, educational and self-help problems
US6007338A (en) 1997-11-17 1999-12-28 Disney Enterprises, Inc. Roller coaster simulator
US6362818B1 (en) 1998-01-07 2002-03-26 Evans & Sutherland Computer Corporation System and method for reducing the rendering load for high depth complexity scenes on a computer graphics display
US6128019A (en) 1998-04-01 2000-10-03 Evans & Sutherland Computer Corp. Real-time multi-sensor synthetic environment created from a feature and terrain database using interacting and updatable abstract models

Also Published As

Publication number Publication date
AU2003223811A8 (en) 2003-11-11
CA2485610C (en) 2008-10-07
AU2003223811A1 (en) 2003-11-11
CN1669057A (zh) 2005-09-14
EP1504420B1 (de) 2005-10-26
WO2003096302A3 (en) 2004-04-29
EP1504420A2 (de) 2005-02-09
US7117135B2 (en) 2006-10-03
US20030214533A1 (en) 2003-11-20
CA2485610A1 (en) 2003-11-20
CN100476881C (zh) 2009-04-08
ATE308086T1 (de) 2005-11-15
DE60302063D1 (de) 2005-12-01
WO2003096302A2 (en) 2003-11-20

Similar Documents

Publication Publication Date Title
DE60302063T2 (de) Graphische benutzeroberfläche für einen flugsimulator basierend auf einer client-server-architektur
Brooks Jr Walkthrough—a dynamic graphics system for simulating virtual buildings
DE10005812B4 (de) Vom Benutzer ausgewählte Anzeige von zweidimensionalem Fenster in drei Dimensionen auf einem Rechnerbildschirm
EP3067874A1 (de) Verfahren und vorrichtung zum testen eines in einem luftfahrzeug zu bedienenden geräts
DE102017112634B4 (de) Kraftfahrzeug mit Fahrmodus und Simulationsmodus
DE69112451T2 (de) Verfahren und Vorrichtung zur Ausbildung für das Führen von Fahrzeugen.
US5533181A (en) Image animation for visual training in a simulator
DE19636923A1 (de) Verfahren und Vorrichtung zur gemeinsamen Benutzung von Eingabevorrichtungen durch mehrere unabhängige Graphik-Anzeigevorrichtungen
EP1683063A1 (de) System und verfahren zur durchführung und visualisierung von simulationen in einer erweiterten realität
DE19825302A1 (de) System zur Einrichtung einer dreidimensionalen Abfallmatte, welche eine vereinfachte Einstellung räumlicher Beziehungen zwischen realen und virtuellen Szeneelementen ermöglicht
DE102008061988A1 (de) Verfahren und Vorrichtung zum Anzeigen von Informationen
DE19958329A1 (de) Verfahren für das zeitbasierte Schatten-Rendering
WO2008074561A1 (de) Verfahren zum darstellen eines kartenausschnittes in einem navigationssystem und navigationssystem
DE19549096A1 (de) Simulationsvorrichtung und -verfahren
Sheridan Recollections on presence beginnings, and some challenges for augmented and virtual reality
DE102004016329A1 (de) System und Verfahren zur Durchführung und Visualisierung von Simulationen in einer erweiterten Realität
WO2017144049A1 (de) Verfahren zum betrieb einer anzeigevorrichtung und system zur anzeige von realen bildinhalten einer realumgebung überlagerten virtuellen bildinhalten
DE10128020B4 (de) Verfahren und Vorrichtung zur Wiedergabe einer aufgezeichneten Flugaufgabe eines Luftfahrzeuges
EP0836169B1 (de) Trainingsstation und Verwendung der Trainingsstation
DE102020003668A1 (de) Verfahren zum Anzeigen eines augmentierten Bildes
DE102013106280A1 (de) Verfahren zur Visualisierung eines CAD-Modells
DE102015120929A1 (de) Verfahren zur vorbereitenden Simulation eines militärischen Einsatzes in einem Einsatzgebiet
DE4444552C2 (de) Bedieneinheit für einen Flugsimulator
AT506618A2 (de) Interaktive multimedia-präsentationsvorrichtung
DE102018222148A1 (de) Bearbeitung von visuell darstellbaren Informationen

Legal Events

Date Code Title Description
8364 No opposition during term of opposition