DE102006060904A1 - Flughafenverkehrsinformations-Anzeigesystem - Google Patents

Flughafenverkehrsinformations-Anzeigesystem Download PDF

Info

Publication number
DE102006060904A1
DE102006060904A1 DE102006060904A DE102006060904A DE102006060904A1 DE 102006060904 A1 DE102006060904 A1 DE 102006060904A1 DE 102006060904 A DE102006060904 A DE 102006060904A DE 102006060904 A DE102006060904 A DE 102006060904A DE 102006060904 A1 DE102006060904 A1 DE 102006060904A1
Authority
DE
Germany
Prior art keywords
airport
image processing
foveal
processing unit
display system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102006060904A
Other languages
English (en)
Other versions
DE102006060904B4 (de
Inventor
Norbert Dr. Fürstenau
Markus Schmidt
Michael Rudolph
Bernd Dr. Werther
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deutsches Zentrum fuer Luft und Raumfahrt eV
Original Assignee
Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsches Zentrum fuer Luft und Raumfahrt eV filed Critical Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority to DE102006060904A priority Critical patent/DE102006060904B4/de
Priority to AT07024748T priority patent/ATE542208T1/de
Priority to ES07024748T priority patent/ES2379644T3/es
Priority to EP07024748A priority patent/EP1936583B1/de
Publication of DE102006060904A1 publication Critical patent/DE102006060904A1/de
Application granted granted Critical
Publication of DE102006060904B4 publication Critical patent/DE102006060904B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0073Surveillance aids
    • G08G5/0082Surveillance aids for monitoring traffic from a ground station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0017Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
    • G08G5/0026Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located on the ground

Abstract

Ein Flughafenverkehrsinformations-Anzeigesystem (1) mit mindestens einer auf einen zu beobachtenden Flughafenbereich ausrichtbaren Kamera (2), einer mit der mindestens einen Kamera (2) verbundenen Bildverarbeitungseinheit (9) und mindestens einer mit der Bildverarbeitungseinheit (9) in Verbindung stehenden Anzeigeeinheit (11) wird beschrieben. Die Bildverarbeitungseinheit (9) ist zur Auswahl und Darstellung eines dem Aufmerksamkeitsfokus einer gewählten Blickrichtung auf den beobachteten Flughafenbereich entsprechenden fovealen Panoramasegments und zur gleichzeitigen Darstellung von Informationen über Objekte im nicht dargestellten peripheren, außerfovealen Panoramasegment eingerichtet.

Description

  • Die Erfindung betrifft ein Flughafenverkehrsinformations-Anzeigesystem mit mindestens einer auf einen zu beobachtenden Flughafenbereich ausrichtbaren Kamera, einer mit der mindestens einen Kamera verbundenen Bildverarbeitungseinheit und mindestens einer mit der Bildverarbeitungseinheit in Verbindung stehenden Anzeigeeinheit.
  • Es besteht ein Bedarf, den Flugverkehr im Flughafenbereich ohne eine direkte Außensicht mit Mitteln für eine reine sensorbasierten Leitzentrale zu kontrollieren. Dies hat den Vorteil, dass in großräumigen Flughafenanlagen Tower zur Überwachung von Außenbereichen, die von dem Haupttower nicht einsehbar sind, nicht mehr personell besetzt werden müssen. Die Kontrolle des gesamten Flughafens kann vielmehr im Haupttower durchgeführt werden. Der Aufwand für die Erstellung von Turmbauwerken (Tower) zur Überwachung der Außenbereiche wird zudem erheblich reduziert.
  • Weiterhin besteht ein Bedarf, den Aufwand zur Kontrolle wenig frequentierter Flughäfen zu reduzieren, indem die Kontrollfunktionen auf die Lotsen eines (anderen) stärker frequentierten Flughafens verlagert werden. Hierzu ist eine sensorbasierte Überwachung des Flughafenbereichs mit einer Übertragung der Bilddaten zu einer Anzeigeeinheit für die Lotsen, die die Kontrolle durchführen, erforderlich.
  • Die Arbeitsbedingungen fordern vom Lotsen neben der Kommunikation per Funk und Telefon einen häufigen Wechsel der Aufmerksamkeit zwischen Außensicht, die hin und wieder durch den Griff zum Fernglas verstärkt wird, und verschiedenen Monitoren und Radar-Displays. Bei schlechter Sicht reduziert sich die Möglichkeit der visuellen Verkehrsüberwachung durch Blick aus den Fenstern der Leitzentralen naturgemäß deutlich und der Verkehr muss aus Sicherheitsgründen entsprechend reduziert werden.
  • In N. Fürstenau, M. Rudolph, M. Schmidt, B. Werther: Virtual Tower, in: Wettbewerb der Visionen 2001 bis 2004, Deutsches Zentrum für Luft- und Raumfahrt e. V., 2004, Seiten 16 bis 21, ist das Projekt der Entwicklung eines virtuellen Kontroll-Towers mit Vorschlägen zu Mensch-Maschine-Interaktion beschrieben.
  • N. Fürstenau: Perspectives of Virtual Reality for Integration, in: 12th Scientific Seminar, DIR, Inst. of Flight Guidance, October 2002, offenbart den Einsatz von Technologien der virtuellen Realität zur Kontrolle und Steuerung des Flugverkehrs an Flughäfen.
  • Aus C. D. Wickens: Multiple Resources and Performance Prediction in: Theor. Issues in Ergon. Sci., 2002, Vol. 3, No. 2, Seiten 159 bis 177 ist ein vierdimensionales Multi-Resourcen Modell beschrieben, bei dem zwischen einer visuellen Verarbeitung im fokalen Aufmerksamkeitsbereich und im Umgebungsbereich eines Menschen unterschieden wird, den qualitativ unterschiedliche verarbeitende Gehirnstrukturen und Informationsverarbeitungsmechanismen zugeordnet sind. Die fokale Sicht beispielsweise eines Lotsen ist nahezu immer auf den fovealen Retinabereich beschränkt und ist für Mustererkennungsaufgaben erforderlich. Die Hintergrund-/Umgebungssicht ist stark an die periphere Sicht gekoppelt und für die Orientierungswahrnehmung und die Bewegungswahrnehmung (Eigenbewegung) der beobachtenden Person zuständig.
  • DE 10 2005 005 879 offenbart ein Verfahren zur Rekonstruktion einer realen Tower-Außensicht mittels einer hochauflösenden Panoramaprojektion auf Monitoren oder mittels einer Weitwinkelprojektion zur Darstellung der Bilder von mindestens vier hochauflösenden digitalen Videokameras für ein 180° Panorama. Die digitalisierten Signale werden bei einem aus vier Segmenten bestehenden Panorama von je einem Computer pro Segment zur Verfügung gestellt, indem die komprimierten Bilddaten dekomprimiert werden. Pro Segment ist eine Kamera und eine Projektion bzw. ein Bildschirm pro Panoramasegment vorgesehen. Es besteht die Möglichkeit einer gleichzeitigen Echtzeit-Bildverarbeitung zur Objekterkennung, Bewegungsdetektion und/oder Verkehrsparameterbestimmung (Position, Geschwindigkeit, etc.).
  • Weitwinkelprojektionen, die sich zur hochauflösenden Darstellung eines Videopanoramas eignen, sind aus dem Virtual Reality-Bereich bekannt. Dies sind gekachelte Projektionssysteme mit einem hochauflösenden Digitalprojektor pro Kachel bzw. Zwei-Digitalprojektoren bei Stereoprojektionen. Den Simulatoren für die (virtuelle) Flughafen-Tower-Aussensicht werden bislang mehr als vier hochauflösende Teilbilder durch pixelgenaue Überlagerung an den vertikalen Kanten (stitching) in einer Zylinder- oder Hohlkugel-Segment-Projektion zu einer virtuellen Panoramasicht (200 bis 300°) der Flughafenoberfläche zusammengefügt. Für einen Einzelarbeitsplatz in der Tower-Umgebung sind sie aufgrund der Größe nicht geeignet.
  • Als Einzelarbeitsplatz mit einer Weitwinkelprojektion (z. B. 180°) kann auch eine sphärische Projektion genutzt werden. Allerdings entspricht die bislang maximal erhältliche Auflösung 1600×1200 Pixel nicht den Anforderungen für ein 180° Panorama, das die direkte Aussensicht des Operateurs aus dem Tower ersetzen kann.
  • Aufgabe der vorliegenden Erfindung ist es daher, ein verbessertes Flughafenverkehrsinformations-Anzeigesystem zu schaffen, das mit reduziertem technischen Aufwand eine hochaufgelöste Betrachtung der relevanten Flughafenbereiche ermöglicht und dem Operateur gleichzeitig die notwendigen Übersichtsinformationen bietet.
  • Die Aufgabe wird mit dem Flughafenverkehrsinformations-System der eingangs genannten Art dadurch gelöst, dass die Bildverarbeitungseinheit zur Auswahl und Darstellung eines dem Aufmerksamkeitsfokus einer gewählten Blickrichtung auf den beobachteten Flughafenbereich entsprechenden fovealen Panoramasegments und zur gleichzeitigen Darstellung von Informationen über bewegte Objekte im nicht dargestellten peripheren, außerfovealen Panoramasegment eingerichtet ist.
  • Es wird die Tatsache ausgenutzt, dass sich im Bereich der bewussten Aufmerksamkeit und visuellen Verarbeitung bei Betrachtung mit dem Auge ohne Verstärkung durch ein Fernglas nur der in den fovealen Bereich (< 5°) der Retina abgebildete Gegenstandsbereich befindet. Dementsprechend deckt ein Segment, das typischerweise durch einen einzelnen Monitor dargestellt wird (z. B. 45°) bereits ein deutlich größeres Panoramasegment ab. Für eine Panoramaprojektion in einem Einzelarbeitsplatz ist es jedoch nicht erforderlich, den peripheren Bereich eines z. B. 180°-Panoramas gleichzeitig vollständig darzustellen, da in einer realen Aussensicht in diesen außerfovealen Sektoren ohnehin nur markante Bewegungen wahrgenommen werden. Die Darstellung dieser außerfovealen Sektoren wird erfindungsgemäß somit auf wesentliche Bewegungsinformationen reduziert, während das foveale Panoranasegment hochaufgelöst und detailgetreu angezeigt wird.
  • Vorzugsweise ist weiterhin eine fernsteuerbare Pan-Tilt-Zoom-Kamera vorgesehen, die zur Auswahl eines Zoom-Ausschnitts des Panoramasegmentes eingerichtet ist, um den Zoom-Ausschnitt auf eine der Anzeigeeinheiten darzustellen.
  • Mit dieser fernsteuerbaren Pan-Tilt-Zoom-Kamera ist es somit möglich, die Benutzung eines Fernglases durch den Operateur zu simulieren und eine vergrößerte Ansicht eines Ausschnittsbereichs darzustellen. Zur Orientierungserleichterung bleibt, wie in der Realität auch, die detailgetreue Darstellung der fovealen Panoramasicht erhalten.
  • Eine Pan-Tilt-Zoom-Kamera ist eine durch Schwenken und Neigen ferngesteuert ausrichtbare Kamera mit Zoomfunktion. Hierzu ist die Zoom-Kamera auf einem Pan- Tilt-Panoramakopf angebracht, die eine Schwenkung um den Nodalpunkt und ein Verkippen ermöglicht. Der Nodalpunkt beschreibt die Lage der Hauptebenen eines Objektivs der Zoom-Kamera.
  • Die Bildverarbeitungseinheit ist entweder direkt oder bevorzugt indirekt beispielsweise über das in der DE 10 2005 005 879 beschriebene Übertragungssystem mit mindestens einer Kamera verbunden.
  • Bevorzugt sind vier Kameras zur Aufnahme eines hochaufgelösten 180°-Panoramas vorgesehen. Zur Kostenminimierung kann die Anzahl der hochauflösenden Panorama-Kameras gegebenenfalls auf eine Panorama-Kamera minimiert werden, die gegebenenfalls über eine Fernsteuerung schwenkbar angeordnet ist und dadurch das komplette Panorama abdecken kann. Das 180°-Panoramasegment eines beobachtbaren Flughafenbereichs wird somit in vier 45°-Segmente eingeteilt, die jeweils durch eine Panorama-Kamera beobachtet werden. Dabei wird nur der aktuelle foveale Beobachtungsbereich eines Ausschnitts eines der 45°-Segmente hochauflösend und entsprechend detailgetreu wiedergegeben.
  • Besonders vorteilhaft ist es, wenn mindestens ein mit dem Panoramaprojektionssystem verbundener Sensor zur automatischen Auswahl des zu beobachtenden, hochaufgelöst darzustellenden Segments (fovealer Aufmerksamkeitsbereich) auf der Basis von Objekterkennung und/oder Positionsbestimmung (mittels z. B. automatischer Bildverarbeitung, Anflugradar, Multilaterationssystem oder Satellitennavigation mit ADS-B (Automatic Dependent Surveillance Broadcast) vorgesehen ist. Die Bildverarbeitungseinheit ist dann zur automatischen Auswahl des fovealen Panoramasegments in Abhängigkeit von dem fovealen Aufmerksamkeitssektor eingerichtet. Damit ist es möglich, eine für die außerfoveale Sektoren auf wesentliche Bewegungsinformationen reduzierte Darstellung innerhalb des visualisierten fovealen Sektors die Aufmerksamkeit des Operateurs, d. h. seine foveale Informationsaufnahme, mit der einer Kopfdrehung des Operateurs entsprechenden Geschwindigkeit automatisch auf interessierende Bereiche des vollständigen Panoramos zu lenken. Eine manuelle Auswahl des im Detail hochaufgelöst dargestellten fovealen Aufmerksamkeitssektors durch den Operateur ist damit nicht erforderlich.
  • Das foveale Panoramasegment ist vorzugsweise kleiner als 45° eines mit den Kameras erfassbaren 180°-Panoramas.
  • Weiterhin ist es vorteilhaft, wenn die Bildverarbeitungseinheit zur gleichzeitigen permanenten Darstellung des gewählten Panoramasegmentes (entsprechend der aktuellen Blickrichtung) eingerichtet ist. Auf diese Weise wird sichergestellt, dass der Operateur die Orientierung behält.
  • Die Bildverarbeitungseinheit ist weiterhin vorzugsweise zur automatischen Auswahl des fovealen Panoramasegments in Abhängigkeit von im aufgenommenen Panorama detektierten charakteristischen Bewegungen, Flugbewegungsinformationen von einem Anflugradar, Positionsinformationen von einer Multilateral-Einrichtung über Flugzeuge und/oder Fahrzeuge im beobachteten Flughafenbereich und/oder von Flugzeugen übermittelte Satellitennavigations-Positionsinformationen eingerichtet. Auf diese Weise kann die Aufmerksamkeit des Operateurs automatisch in Abhängigkeit der genannten sensierten Bewegungen im beobachteten Flughafenbereich auf die detektierten bewegten Objekte gerichtet werden. Beispielsweise bei Anflug eines Flugzeugs wird mit Hilfe des Anflugradars oder Satellitennavigations-Positionsinformationen, die vom Flugzeug übermittelt werden, die Annäherung eines Flugzeugs erkannt und die hochaufgelöste Darstellung des fovealen Panoramasegments auf das anfliegende Flugzeug gerichtet. Nach Erfassung der Situation durch den Operateur können diese dann manuell ein anderes foveales Panoramasegment auswählen oder es kann automatisch ein neuer fovealer Panoramaausschnitt ausgewählt werden durch Kopplung der automatischen, sensorbasierten Objekterkennung und Positionsbestimmung an die Videopanorama-Rekonstruktion.
  • Die Bildverarbeitungseinheit ist vorzugsweise mit einem berührungsempfindlichen Eingabegerät ausgerüstet, insbesondere einem berührungsempfindlichen Monitor, um ein Panoramasegment in Abhängigkeit von einer Fingerbewegung auf dem Eingabegerät auszuwählen. Ein solcher „Touch-Screen"-Monitor hat den Vorteil der schnellen und einfachen Befehlseingabe durch den Operateur.
  • Die Information über bewegte Objekte werden außerhalb des gewählten Panoramasegmentes vorzugsweise in horizontalen und vertikalen Bildleisten dargestellt, die an die Darstellung des fovealen Panoramasegments angrenzen. Die weitere Darstellung der Bewegungsinformationen sollte dann von der räumlichen Position der zu den Bewegungsinformationen gehörenden Objekte abhängen. Damit behält der Operateur den Überblick über die im Umfeld des fovealen Panoramas befindlichen bewelichen Objekte, die bei seiner Lotsentätigkeit noch zu berücksichtigen sind.
  • Die Bildverarbeitungseinheit ist vorzugsweise mit einer weiteren Anzeigeeinheit zur Darstellung des mit den Kameras erfassten Panoramas verbunden. Die gesamte beispielsweise 180°-Panoramasicht wird dann (nicht hochaufgelöst) auf der weiteren Anzeigeeinheit präsentiert.
  • Die Aufgabe wird weiterhin durch das Verfahren mit den Merkmalen der Ansprüche 13 bis 15 sowie das zur Durchführung des Verfahrens eingerichtete Computerprogramm gelöst.
  • Das Verfahren sieht eine Maximierung der möglichen Frame-Rate und Minimierung der benötigten Übertragungsbandbreite bei einer gegebenen Hardwarekonstellation durch eine Darstellung des nur dem Aufmerksamkeitsfokus entsprechenden Panoramabereichs vor. Es wird ein virtuelles Panorama in einem Bildspeicher von einem Rechner aus einem Echtzeit-Videodatenstrom durch lückenlose Aneinanderreihung der Frames aus den einzelnen Panoramakameras mit Auswahl und Darstellung eines beliebigen Bereichs durch Verschieben eines Bildausschnitts mittels Wahl einer virtuellen Betrachtungsposition erzeugt.
  • Eine Datenreduktion wird durch die ausschließliche Übersendung von anzuzeigenden Anteilen (Aufmerksamkeitsfokus) der komprimierten Videodatenströme an einen Bildverarbeitungsrechner erreicht. Die hierzu gewonnene Übertragungskapazität wird bei dynamischer Anpassung der Kompressionsparameter zur Optimierung der Bildqualität genutzt. Z. B. kann dadurch die Kompression automatisch verringert werden, falls sich die Bildqualität bei Dunkelheit verschlechtert.
  • Die Erfindung wird nachfolgend anhand der beigefügten Zeichnungen mit Ausführungsbeispielen näher erläutert. Es zeigen:
  • 1 – Blockdiagramm eines erfindungsgemäßen Flughafenverkehrsinformations-Anzeigesystems;
  • 2 – Skizze eines Flughafenverkehrsinformations-Anzeigesystems mit einer Anzeigeeinheit zur Darstellung eines fovealen Panoramasegments sowie Informationen über bewegte Objekte im nicht dargestellten peripheren, außerfovealen Panoramasegment sowie einer zweiten Anzeigeeinheit zur Darstellung eines Zoom-Ausschnitts aus dem fovealen Panoramasegment;
  • 3 – Skizze eines Flughafenverkehrsinformations-Anzeigesystems mit einer Anzeigeeinheit zur Darstellung des fovealen Panoramasegments und horizontalen und vertikalen Anzeigeleisten zur Darstellung von Informationen über periphere bewegte Objekte.
  • 1 lässt ein Blockdiagramm eines Flughafenverkehrsinformations-Anzeigesystems 1 erkennen, das mindestens eine auf einen zu beobachtenden Flughafenbereich ausrichtbare Kamera 2 hat. Beispielhaft dargestellt sind vier Kameras, die jeweils mit einem Bildverarbeitungsrechner 3a, 3b, 3c, 3d verbunden sind. Die Bildverarbeitungsrechner 3a, 3b, 3c, 3d sind zur Bilddatenkompression und Echtzeit-Bildverarbeitung vorgesehen. Die Panorama-Kameras 2 werden über schnelle, breitbandige Datenleitungen 4a, 4b, 4c, 4d an die Bildverarbeitungsrechner 3a, 3b, 3c, 3d angeschlossen. Der Ausgang der Bildverarbeitungsrechner 3a, 3b, 3c, 3d ist jeweils über schnelle, breitbandige Datenleitungen 5a, 5b, 5c, 5d mit einem Switch und Sender/Converter 6 verbunden, über den die Bilddaten beispielsweise optisch über eine Breitband-Glasfaserverbindung 7 an einen Switch und Empfänger 8 weitergeleitet werden. Eine Bildverarbeitungseinheit in Form eines weiteren Bildverarbeitungscomputers 9 ist mit dem Switch und Empfänger 8 verbunden und zur Dekomprimierung der Videosignale der Panorama-Kameras 2 entsprechend dem von einem Operator 10 ausgewählten Panorama-Segment eingerichtet. Die Bildverarbei tungseinheit 9 ist weiterhin eingerichtet, um die über Echtzeit-Bildverarbeitung von den Bildverarbeitungscomputern 3a, 3b, 3c, 3d ermittelten und gesendeten Informationen über bewegte Objekte anzuzeigen. Die Anzeige mindestens des dem Aufmerksamkeitsfokus einer gewählten Blickrichtung auf den beobachteten Flughafenbereich entsprechenden fovealen Panoramasegments und der Information über bewegte Objekte in nicht dargestellten peripheren, außerfovealen Panaromasegment erfolgt beispielsweise mit den beiden dargestellten Anzeigeeinheiten 11a, 11b.
  • In dem dargestellten Ausführungsbeispiel ist eine weitere Pan-Tilt-Zoom-Kamera 12 über eine schnelle, breitbandige Datenleitung 4e mit einem weiteren Bildverarbeitungscomputer 3e verbunden, der ebenfalls zur Echtzeit-Bildverarbeitung und Extraktion von Informationen über bewegte Objekte aus dem aufgenommenen Zoom-Video eines Ausschnitts des beobachteten Flughafenbereichs eingerichtet ist. Die Pan-Tilt-Zoom-Kamera 12 ist mit Kontrollsignalen fernsteuerbar, die über die Bildverarbeitungseinheit 9 und eine Steuerdatenleitung 13 über den Bildverarbeitungscomputer 3e zur Pan-Tilt-Zoom-Kamera 12 geleitet werden.
  • Die Steuerung des Flughafenverkehrsinformations-Anzeigesystems erfolgt durch den Operateur 10 mittels Tastatur 14, Maus, Touch-Pad 15 etc., die über die Bildverarbeitungseinheit 9 und die Datenverbindungen zu den Bildverarbeitungscomputern 3a bis 3d geleitet werden können.
  • Auf diese Weise können beispielsweise Kameraparameter, wie Blende, Brennweite, Ausrichtung der Pan-Tilt-Zoom-Kamera etc. verändert werden.
  • Optional ist auch denkbar, wahlweise mittels Echtzeitverarbeitung von Bild- und ASMGCS-Informationen durch die Bildverarbeitungseinheit automatisch Steuersignale zu generieren.
  • Das dargestellte Flughafenverkehrsinformations-Anzeigesystem 1 ist somit ein Panorama-System mit einer Mehrzahl von hochauflösenden Kameras 2, die den üblicherweise durch direkte Sicht aus dem Tower überwachten Bereich gleichzeitig abbilden. Die Trennung der kognitiven Verarbeitung (foveal, peripher) wird ausgenutzt, indem von dem kompletten hochaufgelösten Panorama (z. B. 180° überdeckter Winkelbereich mit z. B. ca. 1600×1200 Bildpunkten) nur ein dem Aufmerksamkeitsfokus der gewählten (virtuellen) Blickrichtung des Operateurs 10 auf den fernen Flughafen entsprechendes Segment des Panoramas (< 45° bei 180°-Panorama mit mehr als vier Kameras 2) mit maximaler Auflösung (z. B. 1600×1200 Pixel pro Kamera) angezeigt wird.
  • Zweckmäßig zur manuellen Auswahl und zur Vergegenwärtigung des momentanen ausgewählten Panoramasegments ist die gleichzeitige, permanente Anzeige der Blickrichtung (aktuell visualisierte Kamerasegmente) auf einer verkleinerten Segmentsymbolleiste, z. B. am unteren Bildrand eines der beiden Monitore oder mit Hilfe einer vom Bildschirm getrennten, symbolischen Darstellung. Zur schnellen Anwahl eines interessierenden Panoramasegments ist denkbar, dass alternativ durch den Operateur 10 auswählbare manuelle oder automatische Verfahren zum Einsatz kommen können. Der aktive, manuelle Arbeitsmodus besitzt eine Überschreib-Funktion (Override) über den Automatikmodus. Der automatische Modus wählt das dargestellte Segment aufgrund der aktuellen Verkehrslage. Hierbei ist die Auswahl an die aktuelle Aufgabe gebunden und wird alternativ durch
    • a) Ergebnisse einer parallelen ablaufenden automatischen Bildverarbeitung zur Bewegungsdetektion;
    • b) aus in jedem Fall vorliegenden Anflugradarinformationen;
    • c) aus eventuell vorhandenen Positionsdaten eines Multilaterionssystems (Laufzeitmessung) oder
    • d) aus vom Flugzeug über ADS-B (automatic dependance surveillance broadcast) übermittelten Satellitennavigationsdaten
    gesteuert.
  • Zum Beispiel wird bei einem detektierten Flugzeug im Landeanflug, dessen Position über eine Bildverarbeitung in dem entsprechenden peripheren Segment ermittelt wurde, der momentan aktive Abschnitt auf das periphere Segment ausgerichtet und gleichzeitig der Ausrichtungswinkel (Azimuth, Vertikalwinkel) sowie Fokus (Brennweite) der Pan-Tilt-Zoom-Kamera 12 automatisch auf den festliegenden Anflugbereich ausgerichtet. Der in dem Panoramasegment angewählte und mittels der separaten fernsteuerbaren Pan-Tilt-Zoom-Kamera 12 vergrößerte Bereich wird im Panorama mit einem geeigneten rechtwinkligen Markierungskästchen angezeigt und als Zoombild auf einem benachbarten Monitor 11b dargestellt, wie in der 2 skizziert ist.
  • 3 läßt die beiden Monitore 11a, 11b des Arbeitsplatzes des Operateurs 10 mit dem gewählten Panoramasegment auf dem linken Monitor 11a und dem Zoomausschnitt auf dem rechten Monitor 11b erkennen. Am Rand des Panoramasegmentmonitors befindet sich unten eine schmale Informationsbildleiste 16, die Information zur Position des gewählten Segments und zu bewegten Objekten in den nicht dargestellten Panoramabereichen (Peripherie) enthalten. Markierungen in der unteren Leiste deuten die der Segmentierung des Gesamtpanoramas in gleichgroße Abschnitte entsprechende Ausrichtung der z. B. vier Kameras 2 an. Die Lage des gewählten Segmentes wird durch einen (z. B. rot) gefärbten Balken markiert. Das gewählte Segment setzt sich i. A. aus Anteilen von zwei benachbarten Panoramakameras zusammen. Ein kleines helleres (z. B. gelbes) Rechteck in dieser Markierung deutet den Zoombereich an, der auf dem rechten Monitor 11b gezeigt ist. Der Zoombereich kann unabhängig auch in peripheren Panoramasegmente bewegt werden, die nicht aktuell visualisiert sind. Eine Markierung, im dargestellten Beispiel das Rechteck in der unteren Informationsbildleiste, deutet die Position im Gesamtpanorama an. Ein weiteres Symbol, ein rotes Kreuz mit Pfeil, das im rechten Bereich der Informationsbildleiste 16 skizziert ist, deutet ein erkanntes bewegtes Objekt und seine Bewegungsrichtung an. Die Länge des Pfeils kann als Maß für die Geschwindigkeit gewählt werden. Es können unterschiedliche, z. B. an die Segmentposition gekoppelte Symbole für die unterschiedlichen Phasen der Landung bzw. des Starts gewählt werden (Starten/Landen auf Start-/Landebahnen, Abrollen über einen Rollweg, Kreuzen von Rollbahnen, Einfahren im Vorfeldbereich etc.). Die Information über das erkannte bewegte Objekt kann verschiedenen Quellen entstammen, wie beispielsweise der Echtzeit-Bildverarbeitung mit Bewegungserkennung, die parallel zu den Dekompressionsalgorithmen in den Bildverarbeitungscomputern 3a bis 3e implementiert sind. Denkbar ist auch die Extraktion von solchen Informationen über erkannte bewegte Objekte durch Multilaterionssysteme oder eine Satellitennavigation mit Bord-Boden-(bzw. Fahrzeug-Kontrollzentrale-)Datenverbindungen. Auch passive, unbewegte Objekte, die mittels Bildverarbeitung z. B. als neue Hindernisse erkannt wurden, können durch ein weiteres Symbol angezeigt werden.
  • Alternativ und in Ergänzung zur Darstellung der peripheren Information auf der unteren Informationsbildleiste 16 können im vertikalen Display-Rändern ähnliche schmale Informationsbildleisten 17a, 17b eingeblendet werden. Dies ist bei Verwendung von hochauflösenden Displays mit HDTV-Format (1920×1080 Pixel) ohne wesentliche Reduzierung der durch die Kameras 2 vorgegebenen Auflösung (1.600×1.200 Pixel) möglich. Die gleichzeitige Darstellung eines erkannten, bewegten Objekts im Peripheriebereich auf einer der senkrechten Informationsbildleisten 17a, 17b kann dann zur Darstellung der Höhe über der Flughafenoberfläche und gegebenenfalls des Kennzeichens des Flugobjektes (Call sign) genutzt werden. Zur quantitativ grafischen Anzeige der Höhe ist die Kenntnis der Entfernung des Objektes in Richtung des jeweiligen Panoramasegments erforderlich, die aus gegebenenfalls vorliegenden (über ADS-B übermittelten) Satellitennavigationsdaten oder Multilaterationsdaten (Laufzeitmessung) entnommen werden. Die grafische Höhenanzeige erfordert dann die Einblendung einer Referenzlinie im seitlichen Balken, die dem Fußpunkt der Vertikalen unter dem Flugzeug entspricht. Den Symbolen (z. B. Kreuz für Landung oder Stern für Start) zugeordnete Pfeile in den vertikalen Informationsleisten deuten Sink- oder Steigflug entsprechend abwärts oder aufwärts weisender Pfeilrichtung an. Pfeillängen entsprechen wieder Geschwindigkeiten. Falls letztere nicht bekannt sind, wird dies am Pfeil durch eine Markeierung (z. B. Querstrich) gekennzeichnet. Diese Variante ist in der 2 gezeigt. Neben den Symbolen in den seitlichen Informationsbildleisten 17a, 17b für periphere Objekte sind die Rufzeichen der Flugzeuge angezeigt, die zusammen mit den Positionsinformationen von ASMGCS-Sensoren (sekundärer, Multilaterationssystem, Satellitennavigationssystem) geliefert werden. Als Eingabegeräte zur Interaktion des Operateurs 10 mit dem Panoramasystem stehen im einfachsten Fall Maus und Tastatur 14 zur Verfügung, um unter anderem das momen tan benötigte Panoramasegment auf der unteren Informationsbildleiste 16 z. B. durch Anklicken oder Betätigen einer Pfeiltaste anzuwählen.
  • Ein alternatives Eingabegerät basiert auf einem Touch-Pad 15 oder Touch-Screen. Das ausgewählte Panoramasegment wird durch Fingerbewegung auf dem Touch-Pad/Touch-Screen verschoben und entsprechend angezeigt. Das Zoom-Steuerkommando wird mit drei Fingern wie folgt vorgenommen:
    • – gemeinsames Verschieben in einer Richtung bewegte Zoom-Kamera in eine neue Position;
    • – Auseinanderziehen bzw. Zusammenrücken der Fingerspitzen steuert die Vergrößerung bzw. Verkleinerung des Zoomausschnitts, dessen sich entsprechend verschiebende Markierungselemente gleichzeitig im Panorama-Display angezeigt werden.
  • In einer optionalen Realisierung kann die Segmentauswahl des Panoramas auf den Signalen eines Brain-Computer-Interface basieren, das mittels Auswertung von EEG-Signalen die mentale Vorstellung „rechts"/"links" oder „rechten Arm bewegen"/"linken Arm bewegen" in eine entsprechende Verschiebung des roten Segmentbalkens in der unteren Informationsbildleiste 16 und damit in den visualisierten Bereich umsetzt. Weiterhin ist eine Segmentsteuerung mittels Blickbewegungsregistrierung möglich. Die Fokussierung auf einen bestimmten Punkt der Segmentanzeigeleiste fällt dabei die Mitte des angezeigten Panoramaauschnitts auf diesen Punkt. Alternativ kann sich die momentane Segmentposition nach rechts oder links bewegen, wenn die Blickrichtung (Aufmerksamkeitsrichtung) entsprechend nach rechts oder links orientiert wird.
  • In einer optionalen, nicht dargestellten Ausführungsform wird neben der Pan-Tilt-Zoom-Kamera 12 anstelle des vollständigen Panoramakamerasystems bestehend aus mehreren Kameras 2 nur eine einzige hochauflösende, auf einem Drehtisch montierte Kamera 2 eingesetzt, die jeweils auf das dem Aufmerksamkeitsfokus entsprechende Panoramasegment ausgerichtet ist. Die manuelle oder automatische Auswahl des darzustellenden Segments steuert in diesem Fall die horizontale Kameraposition (Azimuthwinkel um die vertikale Drehachse) über eine Ausrichtung des Drehtisches. Die Drehgeschwindigkeit sollte derjenigen des Kopfes eines Operateurs 10 entsprechen, wenn dieser seine Aufmerksamkeit im realen Tower einem neuen Segment zuwendet. Die getrennt steuerbare Pan-Tilt-Zoom-Kamera 12, die im Unterschied zur Panorama-Kamera 2 auch vertikal um eine horizontale Drehachse kippbar ist, kann bezüglich der horizontalen Grobausrichtung wahlweise an die Panoramakamera 2 gekoppelt sein. Da eine parallele Bewegungsdetektion mittels Echtzeit-Bildverarbeitung für periphere Bereiche außerhalb der einzigen Panorama-Kamera entfällt, können Informationen über periphere bewegte Objekte nur über ASMGCS-Sensoren auf Bodenradar, Multilateration, Satellitennavigation mit (ADS-B) Bord-Boden-Datenverbindung geliefert und in den Informationsleisten 16, 17 am Bildschirmmonitorrand angezeigt werden.
  • Dieses Flughafenverkehrsinformations-Anzeigesystem 1 kann durch das Hinzufügen von kostengünstigen Standard-Videokameras noch so erweitert werden, dass diese ein komplettes Panorama mit nur einer normalen Auflösung (z. B. 768×576 Pixel) liefern. Die Standard-Videokameras dienen nicht der Visualisierung, sondern nur der automatischen Bewegungserkennung mittels Echtzeit-Bildverarbeitung entsprechend der mit der 1 beschriebenen Ausführungsform. Die hochauflösende Kamera 2 zur Visualisierung zusammen mit den nicht visualisierten, niedrig aufgelösten Hintergrundbildern entspricht dem menschlichen visuellen System mit hochauflösender Fovea und niedrig auflösendem peripheren Retinabereich. Die Realsierung ist auch mit nur einer Standardkamera für die Peripherie-Information denkbar, die dazu mit einem Fischaugenobjektiv für einen Aufnahmewinkel von z. B. 180° ausgestattet sein muss.

Claims (16)

  1. Flughafenverkehrsinformations-Anzeigesystem (1) mit mindestens einer auf einen zu beobachtenden Flughafenbereich ausrichtbaren Kamera (2), einer mit der mindestens einen Kamera (2) verbundenen Bildverarbeitungseinheit (9) und mindestens einer mit der Bildverarbeitungseinheit (9) in Verbindung stehende Anzeigeeinheit (11), dadurch gekennzeichnet, dass die Bildverarbeitungseinheit (9) zur Auswahl und Darstellung eines dem Aufmerksamkeitsfokus einer gewählten Blickrichtung auf den beobachteten Flughafenbereich entsprechenden fovealen Panoramasegments und zur gleichzeitigen Darstellung von Informationen über bewegte Objekte im nicht dargestellten peripheren, außerfovealen Panoramasegment eingerichtet ist.
  2. Flughafenverkehrsinformations-Anzeigesystem (1) nach Anspruch 1, gekennzeichnet durch eine fernsteuerbare Pan-Tilt-Zoom-Kamera (12), die zur Auswahl eines Zoom-Auschnitts des Panoramasegmentes eingerichtet ist, um den Zoom-Ausschnitt auf eine der Anzeigeeinheiten (11) darzustellen.
  3. Flughafenverkehrsinformations-Anzeigesystem (1) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Bildverarbeitungseinheit (9) direkt mit mindestens einer Kamera (2) verbunden ist.
  4. Flughafenverkehrsinformations-Anzeigesystem (1) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Bildverarbeitungseinheit (9) indirekt mit mindestens einer Kamera (2) verbunden ist.
  5. Flughafenverkehrsinformations-Anzeigesystem (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass vier Kameras (2) zur Aufnahme eines hochaufgelösten Panoramas von vorzugsweise 180° vorgesehen sind.
  6. Flughafenverkehrsinformations-Anzeigesystem (1) nach einem der vorhergehenden Ansprüche, gekennzeichnet durch mindestens einen mit der Bildverarbeitungseinheit (9) verbundenen Sensor zur Detektion des fovealen Aufmerksamkeitssektors eines Operateurs, wobei die Bildverarbeitungseinheit (9) zur Auswahl des fovealen Panoramasegmentes in Abhängigkeit von dem fovealen Aufmerksamkeitssektor eingerichtet ist.
  7. Flughafenverkehrsinformations-Anzeigesystem (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das foveale Panoramasegment kleiner als 45° eines mit den Kameras (2) erfassbaren Panoramas von vorzugsweise 180° ist.
  8. Flughafenverkehrsinformations-Anzeigesystem (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bildverarbeitungseinheit (9) zur gleichzeitigen permanenten Darstellung des gewählten Panoramasegmentes eingerichtet ist.
  9. Flughafenverkehrsinformations-Anzeigesystem (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bildverarbeitungseinheit (9) zur automatischen Auswahl des fovealen Panoramasegments in Abhängigkeit von im aufgenommenen Panorama detektierten charakteristischen Bewegungen, Flugbewegungsinformationen von einem Anflugradar, Positionsinformationen von einer Multilaterations-Einrichtung über Flugzeuge und/oder Fahrzeuge im beobachteten Flughafenbereich, und/oder von Flugzeugen übermittelte Satellitennavigations-Positionsinformationen eingerichtet ist.
  10. Flughafenverkehrsinformations-Anzeigesystem (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bildverarbeitungseinheit (9) mit einem berührungsempfindlichen Eingabegerät, insbesondere einem berührungsempfindlichen Monitor, zur Auswahl eines Panoramasegmentes in Abhängigkeit von einer Finger- oder Stiftbewegung auf dem Eingabegerät verbunden ist.
  11. Flughafenverkehrsinformations-Anzeigesystem (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bildverarbeitungseinheit (9) zur Darstellung der Informationen über bewegte Objekte in horizontalen und vertikalen an die Darstellung des Panoramasegmentes angrenzenden Bildteisten eingerichtet ist.
  12. Flughafenverkehrsinformations-Anzeigesystem nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bildverarbeitungseinheit (9) mit einer weiteren Anzeigeeinheit (11) zur Darstellung des mit den Kameras (2) erfassten Panoramas verbunden ist.
  13. Verfahren zur Darstellung eines zu beobachtenden Flughafenbereiches auf einer Anzeigeeinheit, gekennzeichnet durch: – Aufnehmen eines Echtzeit-Videodatenstroms mindestens eines Bereichs eines Flughafens, – Auswählen und Darstellen eines dem Aufmerksamkeitsfokus einer gewählten Blickrichtung auf den beobachteten Flughafenbereich entsprechenden fovealen Panoramasegments und – gleichzeitige Darstellung von Informationen über bewegte Objekte im nicht dargestellten peripheren, außerfovealen Panoramasegment.
  14. Verfahren nach Anspruch 13, gekennzeichnet durch Erzeugen eines virtuellen Panoramas eines Flughafenbereiches aus einem Echtzeit-Videodatenstrom durch Aneinanderreihung von Bildern aus einzelnen Panoramakameras und Auswahl und Darstellung des fovealen Panoramasegmentes durch Verschiebung eines Bildausschnitts des virtuellen Panoramas mittels Auswahl einer virtuellen Betrachtungsposition.
  15. Verfahren nach Anspruch 13 oder 14, gekennzeichnet durch kontinuierliches Verschieben eines ausgewählten und dargestellten hochaufgelösten Panoramasegmentes über ein von einer Anzahl von Kameras aufgenommene Panorama, so dass das Panoramasegment Anteile von Videosequenzen benachbarter Kameras enthält.
  16. Computerprogramm mit Programmcodemitteln zur Durchführung des Verfahrens nach einem der Ansprüche 13 bis 15, wenn das Computerprogramm auf einem Rechner ausgeführt wird.
DE102006060904A 2006-12-20 2006-12-20 Flughafenverkehrsinformations-Anzeigesystem Expired - Fee Related DE102006060904B4 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102006060904A DE102006060904B4 (de) 2006-12-20 2006-12-20 Flughafenverkehrsinformations-Anzeigesystem
AT07024748T ATE542208T1 (de) 2006-12-20 2007-12-20 Flughafenverkehrsinformations-anzeigesystem
ES07024748T ES2379644T3 (es) 2006-12-20 2007-12-20 Sistema indicador de información del tráfico de un aeropuerto
EP07024748A EP1936583B1 (de) 2006-12-20 2007-12-20 Flughafenverkehrsinformations-Anzeigesystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102006060904A DE102006060904B4 (de) 2006-12-20 2006-12-20 Flughafenverkehrsinformations-Anzeigesystem

Publications (2)

Publication Number Publication Date
DE102006060904A1 true DE102006060904A1 (de) 2008-06-26
DE102006060904B4 DE102006060904B4 (de) 2011-05-12

Family

ID=39271425

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102006060904A Expired - Fee Related DE102006060904B4 (de) 2006-12-20 2006-12-20 Flughafenverkehrsinformations-Anzeigesystem

Country Status (4)

Country Link
EP (1) EP1936583B1 (de)
AT (1) ATE542208T1 (de)
DE (1) DE102006060904B4 (de)
ES (1) ES2379644T3 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011084524A1 (de) 2011-10-14 2013-04-18 Robert Bosch Gmbh Verfahren zur Darstellung eines Fahrzeugumfeldes
CN112203058A (zh) * 2020-10-10 2021-01-08 深圳市卓层天气服务有限公司 通航塔台的监控方法、装置、计算机可读介质及电子设备

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3832624A1 (de) * 2019-12-03 2021-06-09 Rohde & Schwarz GmbH & Co. KG Flugverkehrskontrollsystem zur flugsicherung sowie verfahren zur übertragung von video- und/oder bilddaten
CN113766093A (zh) * 2020-06-02 2021-12-07 璞洛泰珂(上海)智能科技有限公司 全景高清多焦距摄像装置、及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060244826A1 (en) * 2004-06-22 2006-11-02 Stratech Systems Limited Method and system for surveillance of vessels
DE102005055879A1 (de) * 2005-11-23 2007-05-31 Deutsches Zentrum für Luft- und Raumfahrt e.V. Flugverkehr-Leiteinrichtung

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5659475A (en) * 1994-03-17 1997-08-19 Brown; Daniel M. Electronic air traffic control system for use in airport towers
US6628321B1 (en) * 1998-12-30 2003-09-30 Honeywell, Inc. Method and apparatus for simulating views from a window
DE10032433A1 (de) * 2000-07-04 2002-01-17 H A N D Gmbh Verfahren zur Bodenraumüberwachung
US7129887B2 (en) * 2004-04-15 2006-10-31 Lockheed Martin Ms2 Augmented reality traffic control center
DE102005005879A1 (de) 2005-02-09 2006-08-17 Schill + Seilacher "Struktol" Ag Stickstoffhaltige verbrückte Derivate von 6H-Dibenz[c,e][1,2]-oxaphosphorin-6-oxiden, Verfahren zu ihrer Herstellung sowie ihre Verwendung

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060244826A1 (en) * 2004-06-22 2006-11-02 Stratech Systems Limited Method and system for surveillance of vessels
DE102005055879A1 (de) * 2005-11-23 2007-05-31 Deutsches Zentrum für Luft- und Raumfahrt e.V. Flugverkehr-Leiteinrichtung

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DE 10 2005 055 879 A1, Anmeldetag: 23.11.2005

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011084524A1 (de) 2011-10-14 2013-04-18 Robert Bosch Gmbh Verfahren zur Darstellung eines Fahrzeugumfeldes
WO2013053590A1 (de) 2011-10-14 2013-04-18 Robert Bosch Gmbh Verfahren zur darstellung eines fahrzeugumfeldes
CN112203058A (zh) * 2020-10-10 2021-01-08 深圳市卓层天气服务有限公司 通航塔台的监控方法、装置、计算机可读介质及电子设备
CN112203058B (zh) * 2020-10-10 2024-03-01 深圳市卓层技术有限公司 通航塔台的监控方法、装置、计算机可读介质及电子设备

Also Published As

Publication number Publication date
ATE542208T1 (de) 2012-02-15
EP1936583A1 (de) 2008-06-25
DE102006060904B4 (de) 2011-05-12
ES2379644T3 (es) 2012-04-30
EP1936583B1 (de) 2012-01-18

Similar Documents

Publication Publication Date Title
EP0567660B2 (de) Einrichtung zum Führen von Fahrzeugen
EP1505556B1 (de) Verfahren und Vorrichtung zur Erkennung eines Flughindernisses
EP2464098B1 (de) Umfeld-Darstellungsvorrichtung sowie ein Fahrzeug mit einer derartigen Umfeld-Darstellungsvorrichtung und Verfahren zur Darstellung eines Panoramabildes
DE102007014015B4 (de) Mensch-Maschinen-Interface zur Pilotenunterstützung bei Start und Landung eines Fluggeräts bei verminderter Außensicht
EP1791364B1 (de) Flugverkehr-Leiteinrichtung
EP1936583B1 (de) Flughafenverkehrsinformations-Anzeigesystem
DE102009035422B4 (de) Verfahren zur geometrischen Bildtransformation
DE102017130714A1 (de) Pilotenunterstützung mittels Augmented Reality
EP3765941A1 (de) Verfahren und vorrichtung zum bereitstellen von informationen durch ein augmented-reality-gerät, verfahren und vorrichtung zum bereitstellen von informationen zur steuerung einer anzeige eines augmented-reality-gerätes, verfahren und vorrichtung zur steuerung einer anzeige eines augmented-reality-gerätes, computerlesbares speichermedium mit instruktionen zur durchführung der verfahren
EP3129861B1 (de) Bestimmung der pose einer datenbrille im fahrzeug
WO2019048623A1 (de) Assistenzsystem für ein fahrzeug
DE19811286C2 (de) Kamerabewegungssteuerung
EP1912431A2 (de) Verfahren und Vorrichtung zur Steuerung einer schwenkbaren Kamera
DE102018218746B4 (de) Verfahren zur Vermeidung einer Sichtfeldstörung für eine Bedienperson eines Objektes, Vorrichtung zur Durchführung des Verfahrens sowie Fahrzeug und Computerprogramm
EP1296213A1 (de) Verfahren und Vorrichtung zum Führen eines unbemannten Fluggerätes
DE102019208235A1 (de) Verfahren zur Bedienung einer HMD-Anzeigeeinheit für ein Fahrzeug, HMD-Anzeigeeinheit, Multifunktionslenkrad sowie Fahrzeug zur Verwendung bei dem Verfahren
EP4175281B1 (de) Verfahren und vorrichtung zum herstellen eines kommunikationskanals
EP1434184B1 (de) Steuerung eines Multikamera-Systems
DE102019218283A1 (de) Verfahren zur Darstellung von Umgebungsinformationen eines Fluggeräts, sowie System
DE102023004121A1 (de) Verfahren zur erweiterten Umfeldsicht für ein Kraftfahrzeug und System mit einem Kraftfahrzeug und einem beweglichen unbemannten Luftfahrzeug
DD224691A1 (de) Stereo-simulator, vorzugsweise zur darstellung von bewegungsablaeufen
DE10307827A1 (de) System und Verfahren zum Bewegen eines Objekts
DE102021123234A1 (de) Teleoperator-arbeitsplatz
DE10141521C1 (de) Darstellung von Anwenderinformationen
DE102020213473A1 (de) Kamerasystem sowie Verfahren zur Anzeige von Widgets für ein Kamerasystem

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R020 Patent grant now final

Effective date: 20110813

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20140701