-
Die
Erfindung betrifft ein Flughafenverkehrsinformations-Anzeigesystem
mit mindestens einer auf einen zu beobachtenden Flughafenbereich
ausrichtbaren Kamera, einer mit der mindestens einen Kamera verbundenen
Bildverarbeitungseinheit und mindestens einer mit der Bildverarbeitungseinheit
in Verbindung stehenden Anzeigeeinheit.
-
Es
besteht ein Bedarf, den Flugverkehr im Flughafenbereich ohne eine
direkte Außensicht
mit Mitteln für
eine reine sensorbasierten Leitzentrale zu kontrollieren. Dies hat
den Vorteil, dass in großräumigen Flughafenanlagen
Tower zur Überwachung
von Außenbereichen,
die von dem Haupttower nicht einsehbar sind, nicht mehr personell
besetzt werden müssen.
Die Kontrolle des gesamten Flughafens kann vielmehr im Haupttower
durchgeführt
werden. Der Aufwand für
die Erstellung von Turmbauwerken (Tower) zur Überwachung der Außenbereiche
wird zudem erheblich reduziert.
-
Weiterhin
besteht ein Bedarf, den Aufwand zur Kontrolle wenig frequentierter
Flughäfen
zu reduzieren, indem die Kontrollfunktionen auf die Lotsen eines
(anderen) stärker
frequentierten Flughafens verlagert werden. Hierzu ist eine sensorbasierte Überwachung
des Flughafenbereichs mit einer Übertragung
der Bilddaten zu einer Anzeigeeinheit für die Lotsen, die die Kontrolle
durchführen,
erforderlich.
-
Die
Arbeitsbedingungen fordern vom Lotsen neben der Kommunikation per
Funk und Telefon einen häufigen
Wechsel der Aufmerksamkeit zwischen Außensicht, die hin und wieder
durch den Griff zum Fernglas verstärkt wird, und verschiedenen
Monitoren und Radar-Displays. Bei schlechter Sicht reduziert sich
die Möglichkeit
der visuellen Verkehrsüberwachung
durch Blick aus den Fenstern der Leitzentralen naturgemäß deutlich
und der Verkehr muss aus Sicherheitsgründen entsprechend reduziert
werden.
-
In N.
Fürstenau,
M. Rudolph, M. Schmidt, B. Werther: Virtual Tower, in: Wettbewerb
der Visionen 2001 bis 2004, Deutsches Zentrum für Luft- und Raumfahrt e. V.,
2004, Seiten 16 bis 21, ist das Projekt der Entwicklung
eines virtuellen Kontroll-Towers mit Vorschlägen zu Mensch-Maschine-Interaktion beschrieben.
-
N.
Fürstenau:
Perspectives of Virtual Reality for Integration, in: 12th Scientific
Seminar, DIR, Inst. of Flight Guidance, October 2002, offenbart
den Einsatz von Technologien der virtuellen Realität zur Kontrolle
und Steuerung des Flugverkehrs an Flughäfen.
-
Aus C.
D. Wickens: Multiple Resources and Performance Prediction in: Theor.
Issues in Ergon. Sci., 2002, Vol. 3, No. 2, Seiten 159 bis 177 ist
ein vierdimensionales Multi-Resourcen
Modell beschrieben, bei dem zwischen einer visuellen Verarbeitung im
fokalen Aufmerksamkeitsbereich und im Umgebungsbereich eines Menschen
unterschieden wird, den qualitativ unterschiedliche verarbeitende
Gehirnstrukturen und Informationsverarbeitungsmechanismen zugeordnet
sind. Die fokale Sicht beispielsweise eines Lotsen ist nahezu immer
auf den fovealen Retinabereich beschränkt und ist für Mustererkennungsaufgaben
erforderlich. Die Hintergrund-/Umgebungssicht ist stark an die periphere
Sicht gekoppelt und für
die Orientierungswahrnehmung und die Bewegungswahrnehmung (Eigenbewegung)
der beobachtenden Person zuständig.
-
DE 10 2005 005 879 offenbart
ein Verfahren zur Rekonstruktion einer realen Tower-Außensicht mittels
einer hochauflösenden
Panoramaprojektion auf Monitoren oder mittels einer Weitwinkelprojektion zur
Darstellung der Bilder von mindestens vier hochauflösenden digitalen
Videokameras für
ein 180° Panorama.
Die digitalisierten Signale werden bei einem aus vier Segmenten
bestehenden Panorama von je einem Computer pro Segment zur Verfügung gestellt, indem
die komprimierten Bilddaten dekomprimiert werden. Pro Segment ist
eine Kamera und eine Projektion bzw. ein Bildschirm pro Panoramasegment vorgesehen.
Es besteht die Möglichkeit
einer gleichzeitigen Echtzeit-Bildverarbeitung zur Objekterkennung,
Bewegungsdetektion und/oder Verkehrsparameterbestimmung (Position,
Geschwindigkeit, etc.).
-
Weitwinkelprojektionen,
die sich zur hochauflösenden
Darstellung eines Videopanoramas eignen, sind aus dem Virtual Reality-Bereich
bekannt. Dies sind gekachelte Projektionssysteme mit einem hochauflösenden Digitalprojektor
pro Kachel bzw. Zwei-Digitalprojektoren bei Stereoprojektionen.
Den Simulatoren für
die (virtuelle) Flughafen-Tower-Aussensicht werden bislang mehr
als vier hochauflösende
Teilbilder durch pixelgenaue Überlagerung
an den vertikalen Kanten (stitching) in einer Zylinder- oder Hohlkugel-Segment-Projektion
zu einer virtuellen Panoramasicht (200 bis 300°) der Flughafenoberfläche zusammengefügt. Für einen
Einzelarbeitsplatz in der Tower-Umgebung sind sie aufgrund der Größe nicht geeignet.
-
Als
Einzelarbeitsplatz mit einer Weitwinkelprojektion (z. B. 180°) kann auch
eine sphärische Projektion
genutzt werden. Allerdings entspricht die bislang maximal erhältliche
Auflösung
1600×1200
Pixel nicht den Anforderungen für
ein 180° Panorama, das
die direkte Aussensicht des Operateurs aus dem Tower ersetzen kann.
-
Aufgabe
der vorliegenden Erfindung ist es daher, ein verbessertes Flughafenverkehrsinformations-Anzeigesystem
zu schaffen, das mit reduziertem technischen Aufwand eine hochaufgelöste Betrachtung
der relevanten Flughafenbereiche ermöglicht und dem Operateur gleichzeitig
die notwendigen Übersichtsinformationen
bietet.
-
Die
Aufgabe wird mit dem Flughafenverkehrsinformations-System der eingangs
genannten Art dadurch gelöst,
dass die Bildverarbeitungseinheit zur Auswahl und Darstellung eines
dem Aufmerksamkeitsfokus einer gewählten Blickrichtung auf den beobachteten
Flughafenbereich entsprechenden fovealen Panoramasegments und zur
gleichzeitigen Darstellung von Informationen über bewegte Objekte im nicht
dargestellten peripheren, außerfovealen
Panoramasegment eingerichtet ist.
-
Es
wird die Tatsache ausgenutzt, dass sich im Bereich der bewussten
Aufmerksamkeit und visuellen Verarbeitung bei Betrachtung mit dem
Auge ohne Verstärkung
durch ein Fernglas nur der in den fovealen Bereich (< 5°) der Retina
abgebildete Gegenstandsbereich befindet. Dementsprechend deckt ein
Segment, das typischerweise durch einen einzelnen Monitor dargestellt
wird (z. B. 45°)
bereits ein deutlich größeres Panoramasegment
ab. Für
eine Panoramaprojektion in einem Einzelarbeitsplatz ist es jedoch
nicht erforderlich, den peripheren Bereich eines z. B. 180°-Panoramas gleichzeitig
vollständig darzustellen,
da in einer realen Aussensicht in diesen außerfovealen Sektoren ohnehin
nur markante Bewegungen wahrgenommen werden. Die Darstellung dieser
außerfovealen
Sektoren wird erfindungsgemäß somit
auf wesentliche Bewegungsinformationen reduziert, während das
foveale Panoranasegment hochaufgelöst und detailgetreu angezeigt
wird.
-
Vorzugsweise
ist weiterhin eine fernsteuerbare Pan-Tilt-Zoom-Kamera vorgesehen,
die zur Auswahl eines Zoom-Ausschnitts des Panoramasegmentes eingerichtet
ist, um den Zoom-Ausschnitt auf eine der Anzeigeeinheiten darzustellen.
-
Mit
dieser fernsteuerbaren Pan-Tilt-Zoom-Kamera ist es somit möglich, die
Benutzung eines Fernglases durch den Operateur zu simulieren und
eine vergrößerte Ansicht
eines Ausschnittsbereichs darzustellen. Zur Orientierungserleichterung
bleibt, wie in der Realität
auch, die detailgetreue Darstellung der fovealen Panoramasicht erhalten.
-
Eine
Pan-Tilt-Zoom-Kamera ist eine durch Schwenken und Neigen ferngesteuert
ausrichtbare Kamera mit Zoomfunktion. Hierzu ist die Zoom-Kamera
auf einem Pan- Tilt-Panoramakopf
angebracht, die eine Schwenkung um den Nodalpunkt und ein Verkippen
ermöglicht.
Der Nodalpunkt beschreibt die Lage der Hauptebenen eines Objektivs
der Zoom-Kamera.
-
Die
Bildverarbeitungseinheit ist entweder direkt oder bevorzugt indirekt
beispielsweise über
das in der
DE 10 2005 005
879 beschriebene Übertragungssystem
mit mindestens einer Kamera verbunden.
-
Bevorzugt
sind vier Kameras zur Aufnahme eines hochaufgelösten 180°-Panoramas vorgesehen. Zur Kostenminimierung
kann die Anzahl der hochauflösenden
Panorama-Kameras gegebenenfalls auf eine Panorama-Kamera minimiert
werden, die gegebenenfalls über
eine Fernsteuerung schwenkbar angeordnet ist und dadurch das komplette
Panorama abdecken kann. Das 180°-Panoramasegment
eines beobachtbaren Flughafenbereichs wird somit in vier 45°-Segmente
eingeteilt, die jeweils durch eine Panorama-Kamera beobachtet werden. Dabei
wird nur der aktuelle foveale Beobachtungsbereich eines Ausschnitts
eines der 45°-Segmente hochauflösend und
entsprechend detailgetreu wiedergegeben.
-
Besonders
vorteilhaft ist es, wenn mindestens ein mit dem Panoramaprojektionssystem
verbundener Sensor zur automatischen Auswahl des zu beobachtenden,
hochaufgelöst
darzustellenden Segments (fovealer Aufmerksamkeitsbereich) auf der Basis
von Objekterkennung und/oder Positionsbestimmung (mittels z. B.
automatischer Bildverarbeitung, Anflugradar, Multilaterationssystem
oder Satellitennavigation mit ADS-B (Automatic Dependent Surveillance
Broadcast) vorgesehen ist. Die Bildverarbeitungseinheit ist dann
zur automatischen Auswahl des fovealen Panoramasegments in Abhängigkeit
von dem fovealen Aufmerksamkeitssektor eingerichtet. Damit ist es
möglich,
eine für
die außerfoveale
Sektoren auf wesentliche Bewegungsinformationen reduzierte Darstellung
innerhalb des visualisierten fovealen Sektors die Aufmerksamkeit
des Operateurs, d. h. seine foveale Informationsaufnahme, mit der
einer Kopfdrehung des Operateurs entsprechenden Geschwindigkeit
automatisch auf interessierende Bereiche des vollständigen Panoramos
zu lenken. Eine manuelle Auswahl des im Detail hochaufgelöst dargestellten
fovealen Aufmerksamkeitssektors durch den Operateur ist damit nicht
erforderlich.
-
Das
foveale Panoramasegment ist vorzugsweise kleiner als 45° eines mit
den Kameras erfassbaren 180°-Panoramas.
-
Weiterhin
ist es vorteilhaft, wenn die Bildverarbeitungseinheit zur gleichzeitigen
permanenten Darstellung des gewählten
Panoramasegmentes (entsprechend der aktuellen Blickrichtung) eingerichtet
ist. Auf diese Weise wird sichergestellt, dass der Operateur die
Orientierung behält.
-
Die
Bildverarbeitungseinheit ist weiterhin vorzugsweise zur automatischen
Auswahl des fovealen Panoramasegments in Abhängigkeit von im aufgenommenen
Panorama detektierten charakteristischen Bewegungen, Flugbewegungsinformationen von
einem Anflugradar, Positionsinformationen von einer Multilateral-Einrichtung über Flugzeuge und/oder
Fahrzeuge im beobachteten Flughafenbereich und/oder von Flugzeugen übermittelte
Satellitennavigations-Positionsinformationen eingerichtet. Auf diese
Weise kann die Aufmerksamkeit des Operateurs automatisch in Abhängigkeit
der genannten sensierten Bewegungen im beobachteten Flughafenbereich
auf die detektierten bewegten Objekte gerichtet werden. Beispielsweise
bei Anflug eines Flugzeugs wird mit Hilfe des Anflugradars oder
Satellitennavigations-Positionsinformationen,
die vom Flugzeug übermittelt
werden, die Annäherung
eines Flugzeugs erkannt und die hochaufgelöste Darstellung des fovealen
Panoramasegments auf das anfliegende Flugzeug gerichtet. Nach Erfassung
der Situation durch den Operateur können diese dann manuell ein anderes
foveales Panoramasegment auswählen oder
es kann automatisch ein neuer fovealer Panoramaausschnitt ausgewählt werden
durch Kopplung der automatischen, sensorbasierten Objekterkennung
und Positionsbestimmung an die Videopanorama-Rekonstruktion.
-
Die
Bildverarbeitungseinheit ist vorzugsweise mit einem berührungsempfindlichen
Eingabegerät ausgerüstet, insbesondere
einem berührungsempfindlichen
Monitor, um ein Panoramasegment in Abhängigkeit von einer Fingerbewegung
auf dem Eingabegerät
auszuwählen.
Ein solcher „Touch-Screen"-Monitor hat den
Vorteil der schnellen und einfachen Befehlseingabe durch den Operateur.
-
Die
Information über
bewegte Objekte werden außerhalb
des gewählten
Panoramasegmentes vorzugsweise in horizontalen und vertikalen Bildleisten
dargestellt, die an die Darstellung des fovealen Panoramasegments
angrenzen. Die weitere Darstellung der Bewegungsinformationen sollte
dann von der räumlichen
Position der zu den Bewegungsinformationen gehörenden Objekte abhängen. Damit
behält
der Operateur den Überblick über die
im Umfeld des fovealen Panoramas befindlichen bewelichen Objekte,
die bei seiner Lotsentätigkeit
noch zu berücksichtigen
sind.
-
Die
Bildverarbeitungseinheit ist vorzugsweise mit einer weiteren Anzeigeeinheit
zur Darstellung des mit den Kameras erfassten Panoramas verbunden.
Die gesamte beispielsweise 180°-Panoramasicht
wird dann (nicht hochaufgelöst)
auf der weiteren Anzeigeeinheit präsentiert.
-
Die
Aufgabe wird weiterhin durch das Verfahren mit den Merkmalen der
Ansprüche
13 bis 15 sowie das zur Durchführung
des Verfahrens eingerichtete Computerprogramm gelöst.
-
Das
Verfahren sieht eine Maximierung der möglichen Frame-Rate und Minimierung
der benötigten Übertragungsbandbreite
bei einer gegebenen Hardwarekonstellation durch eine Darstellung
des nur dem Aufmerksamkeitsfokus entsprechenden Panoramabereichs
vor. Es wird ein virtuelles Panorama in einem Bildspeicher von einem
Rechner aus einem Echtzeit-Videodatenstrom durch lückenlose
Aneinanderreihung der Frames aus den einzelnen Panoramakameras mit
Auswahl und Darstellung eines beliebigen Bereichs durch Verschieben
eines Bildausschnitts mittels Wahl einer virtuellen Betrachtungsposition
erzeugt.
-
Eine
Datenreduktion wird durch die ausschließliche Übersendung von anzuzeigenden
Anteilen (Aufmerksamkeitsfokus) der komprimierten Videodatenströme an einen
Bildverarbeitungsrechner erreicht. Die hierzu gewonnene Übertragungskapazität wird bei
dynamischer Anpassung der Kompressionsparameter zur Optimierung
der Bildqualität
genutzt. Z. B. kann dadurch die Kompression automatisch verringert
werden, falls sich die Bildqualität bei Dunkelheit verschlechtert.
-
Die
Erfindung wird nachfolgend anhand der beigefügten Zeichnungen mit Ausführungsbeispielen näher erläutert. Es
zeigen:
-
1 – Blockdiagramm
eines erfindungsgemäßen Flughafenverkehrsinformations-Anzeigesystems;
-
2 – Skizze
eines Flughafenverkehrsinformations-Anzeigesystems mit einer Anzeigeeinheit zur
Darstellung eines fovealen Panoramasegments sowie Informationen über bewegte
Objekte im nicht dargestellten peripheren, außerfovealen Panoramasegment
sowie einer zweiten Anzeigeeinheit zur Darstellung eines Zoom-Ausschnitts aus dem
fovealen Panoramasegment;
-
3 – Skizze
eines Flughafenverkehrsinformations-Anzeigesystems mit einer Anzeigeeinheit zur
Darstellung des fovealen Panoramasegments und horizontalen und vertikalen
Anzeigeleisten zur Darstellung von Informationen über periphere
bewegte Objekte.
-
1 lässt ein
Blockdiagramm eines Flughafenverkehrsinformations-Anzeigesystems 1 erkennen,
das mindestens eine auf einen zu beobachtenden Flughafenbereich
ausrichtbare Kamera 2 hat. Beispielhaft dargestellt sind
vier Kameras, die jeweils mit einem Bildverarbeitungsrechner 3a, 3b, 3c, 3d verbunden
sind. Die Bildverarbeitungsrechner 3a, 3b, 3c, 3d sind
zur Bilddatenkompression und Echtzeit-Bildverarbeitung vorgesehen.
Die Panorama-Kameras 2 werden über schnelle, breitbandige
Datenleitungen 4a, 4b, 4c, 4d an
die Bildverarbeitungsrechner 3a, 3b, 3c, 3d angeschlossen.
Der Ausgang der Bildverarbeitungsrechner 3a, 3b, 3c, 3d ist
jeweils über
schnelle, breitbandige Datenleitungen 5a, 5b, 5c, 5d mit
einem Switch und Sender/Converter 6 verbunden, über den
die Bilddaten beispielsweise optisch über eine Breitband-Glasfaserverbindung 7 an
einen Switch und Empfänger 8 weitergeleitet
werden. Eine Bildverarbeitungseinheit in Form eines weiteren Bildverarbeitungscomputers 9 ist
mit dem Switch und Empfänger 8 verbunden
und zur Dekomprimierung der Videosignale der Panorama-Kameras 2 entsprechend
dem von einem Operator 10 ausgewählten Panorama-Segment eingerichtet.
Die Bildverarbei tungseinheit 9 ist weiterhin eingerichtet,
um die über
Echtzeit-Bildverarbeitung von den Bildverarbeitungscomputern 3a, 3b, 3c, 3d ermittelten
und gesendeten Informationen über
bewegte Objekte anzuzeigen. Die Anzeige mindestens des dem Aufmerksamkeitsfokus
einer gewählten
Blickrichtung auf den beobachteten Flughafenbereich entsprechenden
fovealen Panoramasegments und der Information über bewegte Objekte in nicht
dargestellten peripheren, außerfovealen
Panaromasegment erfolgt beispielsweise mit den beiden dargestellten
Anzeigeeinheiten 11a, 11b.
-
In
dem dargestellten Ausführungsbeispiel
ist eine weitere Pan-Tilt-Zoom-Kamera 12 über eine schnelle,
breitbandige Datenleitung 4e mit einem weiteren Bildverarbeitungscomputer 3e verbunden, der
ebenfalls zur Echtzeit-Bildverarbeitung und Extraktion von Informationen über bewegte
Objekte aus dem aufgenommenen Zoom-Video eines Ausschnitts des beobachteten
Flughafenbereichs eingerichtet ist. Die Pan-Tilt-Zoom-Kamera 12 ist mit Kontrollsignalen fernsteuerbar,
die über
die Bildverarbeitungseinheit 9 und eine Steuerdatenleitung 13 über den
Bildverarbeitungscomputer 3e zur Pan-Tilt-Zoom-Kamera 12 geleitet
werden.
-
Die
Steuerung des Flughafenverkehrsinformations-Anzeigesystems erfolgt
durch den Operateur 10 mittels Tastatur 14, Maus,
Touch-Pad 15 etc., die über
die Bildverarbeitungseinheit 9 und die Datenverbindungen
zu den Bildverarbeitungscomputern 3a bis 3d geleitet
werden können.
-
Auf
diese Weise können
beispielsweise Kameraparameter, wie Blende, Brennweite, Ausrichtung
der Pan-Tilt-Zoom-Kamera etc. verändert werden.
-
Optional
ist auch denkbar, wahlweise mittels Echtzeitverarbeitung von Bild-
und ASMGCS-Informationen durch die Bildverarbeitungseinheit automatisch
Steuersignale zu generieren.
-
Das
dargestellte Flughafenverkehrsinformations-Anzeigesystem 1 ist
somit ein Panorama-System mit einer Mehrzahl von hochauflösenden Kameras 2,
die den üblicherweise
durch direkte Sicht aus dem Tower überwachten Bereich gleichzeitig
abbilden. Die Trennung der kognitiven Verarbeitung (foveal, peripher)
wird ausgenutzt, indem von dem kompletten hochaufgelösten Panorama
(z. B. 180° überdeckter
Winkelbereich mit z. B. ca. 1600×1200 Bildpunkten) nur ein
dem Aufmerksamkeitsfokus der gewählten
(virtuellen) Blickrichtung des Operateurs 10 auf den fernen
Flughafen entsprechendes Segment des Panoramas (< 45° bei
180°-Panorama
mit mehr als vier Kameras 2) mit maximaler Auflösung (z.
B. 1600×1200
Pixel pro Kamera) angezeigt wird.
-
Zweckmäßig zur
manuellen Auswahl und zur Vergegenwärtigung des momentanen ausgewählten Panoramasegments
ist die gleichzeitige, permanente Anzeige der Blickrichtung (aktuell
visualisierte Kamerasegmente) auf einer verkleinerten Segmentsymbolleiste,
z. B. am unteren Bildrand eines der beiden Monitore oder mit Hilfe
einer vom Bildschirm getrennten, symbolischen Darstellung. Zur schnellen
Anwahl eines interessierenden Panoramasegments ist denkbar, dass
alternativ durch den Operateur 10 auswählbare manuelle oder automatische
Verfahren zum Einsatz kommen können.
Der aktive, manuelle Arbeitsmodus besitzt eine Überschreib-Funktion (Override) über den Automatikmodus. Der
automatische Modus wählt
das dargestellte Segment aufgrund der aktuellen Verkehrslage. Hierbei
ist die Auswahl an die aktuelle Aufgabe gebunden und wird alternativ durch
- a) Ergebnisse einer parallelen ablaufenden
automatischen Bildverarbeitung zur Bewegungsdetektion;
- b) aus in jedem Fall vorliegenden Anflugradarinformationen;
- c) aus eventuell vorhandenen Positionsdaten eines Multilaterionssystems
(Laufzeitmessung) oder
- d) aus vom Flugzeug über
ADS-B (automatic dependance surveillance broadcast) übermittelten Satellitennavigationsdaten
gesteuert.
-
Zum
Beispiel wird bei einem detektierten Flugzeug im Landeanflug, dessen
Position über
eine Bildverarbeitung in dem entsprechenden peripheren Segment ermittelt
wurde, der momentan aktive Abschnitt auf das periphere Segment ausgerichtet
und gleichzeitig der Ausrichtungswinkel (Azimuth, Vertikalwinkel)
sowie Fokus (Brennweite) der Pan-Tilt-Zoom-Kamera 12 automatisch
auf den festliegenden Anflugbereich ausgerichtet. Der in dem Panoramasegment
angewählte
und mittels der separaten fernsteuerbaren Pan-Tilt-Zoom-Kamera 12 vergrößerte Bereich
wird im Panorama mit einem geeigneten rechtwinkligen Markierungskästchen angezeigt
und als Zoombild auf einem benachbarten Monitor 11b dargestellt,
wie in der 2 skizziert ist.
-
3 läßt die beiden
Monitore 11a, 11b des Arbeitsplatzes des Operateurs 10 mit
dem gewählten Panoramasegment
auf dem linken Monitor 11a und dem Zoomausschnitt auf dem
rechten Monitor 11b erkennen. Am Rand des Panoramasegmentmonitors befindet
sich unten eine schmale Informationsbildleiste 16, die
Information zur Position des gewählten Segments
und zu bewegten Objekten in den nicht dargestellten Panoramabereichen
(Peripherie) enthalten. Markierungen in der unteren Leiste deuten
die der Segmentierung des Gesamtpanoramas in gleichgroße Abschnitte
entsprechende Ausrichtung der z. B. vier Kameras 2 an.
Die Lage des gewählten
Segmentes wird durch einen (z. B. rot) gefärbten Balken markiert. Das
gewählte
Segment setzt sich i. A. aus Anteilen von zwei benachbarten Panoramakameras zusammen.
Ein kleines helleres (z. B. gelbes) Rechteck in dieser Markierung
deutet den Zoombereich an, der auf dem rechten Monitor 11b gezeigt
ist. Der Zoombereich kann unabhängig
auch in peripheren Panoramasegmente bewegt werden, die nicht aktuell visualisiert
sind. Eine Markierung, im dargestellten Beispiel das Rechteck in
der unteren Informationsbildleiste, deutet die Position im Gesamtpanorama an.
Ein weiteres Symbol, ein rotes Kreuz mit Pfeil, das im rechten Bereich
der Informationsbildleiste 16 skizziert ist, deutet ein
erkanntes bewegtes Objekt und seine Bewegungsrichtung an. Die Länge des Pfeils
kann als Maß für die Geschwindigkeit
gewählt werden.
Es können
unterschiedliche, z. B. an die Segmentposition gekoppelte Symbole
für die
unterschiedlichen Phasen der Landung bzw. des Starts gewählt werden
(Starten/Landen auf Start-/Landebahnen, Abrollen über einen
Rollweg, Kreuzen von Rollbahnen, Einfahren im Vorfeldbereich etc.).
Die Information über
das erkannte bewegte Objekt kann verschiedenen Quellen entstammen,
wie beispielsweise der Echtzeit-Bildverarbeitung mit Bewegungserkennung,
die parallel zu den Dekompressionsalgorithmen in den Bildverarbeitungscomputern 3a bis 3e implementiert
sind. Denkbar ist auch die Extraktion von solchen Informationen über erkannte
bewegte Objekte durch Multilaterionssysteme oder eine Satellitennavigation
mit Bord-Boden-(bzw.
Fahrzeug-Kontrollzentrale-)Datenverbindungen. Auch passive, unbewegte
Objekte, die mittels Bildverarbeitung z. B. als neue Hindernisse
erkannt wurden, können
durch ein weiteres Symbol angezeigt werden.
-
Alternativ
und in Ergänzung
zur Darstellung der peripheren Information auf der unteren Informationsbildleiste 16 können im
vertikalen Display-Rändern ähnliche
schmale Informationsbildleisten 17a, 17b eingeblendet
werden. Dies ist bei Verwendung von hochauflösenden Displays mit HDTV-Format (1920×1080 Pixel)
ohne wesentliche Reduzierung der durch die Kameras 2 vorgegebenen
Auflösung (1.600×1.200 Pixel)
möglich.
Die gleichzeitige Darstellung eines erkannten, bewegten Objekts
im Peripheriebereich auf einer der senkrechten Informationsbildleisten 17a, 17b kann
dann zur Darstellung der Höhe über der
Flughafenoberfläche
und gegebenenfalls des Kennzeichens des Flugobjektes (Call sign)
genutzt werden. Zur quantitativ grafischen Anzeige der Höhe ist die
Kenntnis der Entfernung des Objektes in Richtung des jeweiligen
Panoramasegments erforderlich, die aus gegebenenfalls vorliegenden
(über ADS-B übermittelten)
Satellitennavigationsdaten oder Multilaterationsdaten (Laufzeitmessung)
entnommen werden. Die grafische Höhenanzeige erfordert dann die
Einblendung einer Referenzlinie im seitlichen Balken, die dem Fußpunkt der
Vertikalen unter dem Flugzeug entspricht. Den Symbolen (z. B. Kreuz
für Landung
oder Stern für
Start) zugeordnete Pfeile in den vertikalen Informationsleisten deuten
Sink- oder Steigflug
entsprechend abwärts oder
aufwärts
weisender Pfeilrichtung an. Pfeillängen entsprechen wieder Geschwindigkeiten.
Falls letztere nicht bekannt sind, wird dies am Pfeil durch eine Markeierung
(z. B. Querstrich) gekennzeichnet. Diese Variante ist in der 2 gezeigt.
Neben den Symbolen in den seitlichen Informationsbildleisten 17a, 17b für periphere
Objekte sind die Rufzeichen der Flugzeuge angezeigt, die zusammen
mit den Positionsinformationen von ASMGCS-Sensoren (sekundärer, Multilaterationssystem,
Satellitennavigationssystem) geliefert werden. Als Eingabegeräte zur Interaktion
des Operateurs 10 mit dem Panoramasystem stehen im einfachsten
Fall Maus und Tastatur 14 zur Verfügung, um unter anderem das
momen tan benötigte
Panoramasegment auf der unteren Informationsbildleiste 16 z.
B. durch Anklicken oder Betätigen einer
Pfeiltaste anzuwählen.
-
Ein
alternatives Eingabegerät
basiert auf einem Touch-Pad 15 oder Touch-Screen. Das ausgewählte Panoramasegment
wird durch Fingerbewegung auf dem Touch-Pad/Touch-Screen verschoben und entsprechend
angezeigt. Das Zoom-Steuerkommando
wird mit drei Fingern wie folgt vorgenommen:
- – gemeinsames
Verschieben in einer Richtung bewegte Zoom-Kamera in eine neue Position;
- – Auseinanderziehen
bzw. Zusammenrücken
der Fingerspitzen steuert die Vergrößerung bzw. Verkleinerung des
Zoomausschnitts, dessen sich entsprechend verschiebende Markierungselemente gleichzeitig
im Panorama-Display angezeigt werden.
-
In
einer optionalen Realisierung kann die Segmentauswahl des Panoramas
auf den Signalen eines Brain-Computer-Interface basieren, das mittels Auswertung
von EEG-Signalen
die mentale Vorstellung „rechts"/"links" oder „rechten Arm bewegen"/"linken Arm bewegen" in eine entsprechende Verschiebung
des roten Segmentbalkens in der unteren Informationsbildleiste 16 und
damit in den visualisierten Bereich umsetzt. Weiterhin ist eine
Segmentsteuerung mittels Blickbewegungsregistrierung möglich. Die
Fokussierung auf einen bestimmten Punkt der Segmentanzeigeleiste
fällt dabei
die Mitte des angezeigten Panoramaauschnitts auf diesen Punkt. Alternativ
kann sich die momentane Segmentposition nach rechts oder links bewegen,
wenn die Blickrichtung (Aufmerksamkeitsrichtung) entsprechend nach rechts
oder links orientiert wird.
-
In
einer optionalen, nicht dargestellten Ausführungsform wird neben der Pan-Tilt-Zoom-Kamera 12 anstelle
des vollständigen
Panoramakamerasystems bestehend aus mehreren Kameras 2 nur
eine einzige hochauflösende,
auf einem Drehtisch montierte Kamera 2 eingesetzt, die
jeweils auf das dem Aufmerksamkeitsfokus entsprechende Panoramasegment
ausgerichtet ist. Die manuelle oder automatische Auswahl des darzustellenden
Segments steuert in diesem Fall die horizontale Kameraposition (Azimuthwinkel
um die vertikale Drehachse) über eine
Ausrichtung des Drehtisches. Die Drehgeschwindigkeit sollte derjenigen
des Kopfes eines Operateurs 10 entsprechen, wenn dieser
seine Aufmerksamkeit im realen Tower einem neuen Segment zuwendet.
Die getrennt steuerbare Pan-Tilt-Zoom-Kamera 12, die im
Unterschied zur Panorama-Kamera 2 auch vertikal um eine
horizontale Drehachse kippbar ist, kann bezüglich der horizontalen Grobausrichtung
wahlweise an die Panoramakamera 2 gekoppelt sein. Da eine
parallele Bewegungsdetektion mittels Echtzeit-Bildverarbeitung für periphere
Bereiche außerhalb
der einzigen Panorama-Kamera
entfällt,
können
Informationen über
periphere bewegte Objekte nur über
ASMGCS-Sensoren auf Bodenradar, Multilateration, Satellitennavigation mit
(ADS-B) Bord-Boden-Datenverbindung geliefert und in den Informationsleisten 16, 17 am
Bildschirmmonitorrand angezeigt werden.
-
Dieses
Flughafenverkehrsinformations-Anzeigesystem 1 kann durch
das Hinzufügen
von kostengünstigen
Standard-Videokameras noch so erweitert werden, dass diese ein komplettes
Panorama mit nur einer normalen Auflösung (z. B. 768×576 Pixel)
liefern. Die Standard-Videokameras dienen nicht der Visualisierung,
sondern nur der automatischen Bewegungserkennung mittels Echtzeit-Bildverarbeitung
entsprechend der mit der 1 beschriebenen Ausführungsform.
Die hochauflösende
Kamera 2 zur Visualisierung zusammen mit den nicht visualisierten,
niedrig aufgelösten
Hintergrundbildern entspricht dem menschlichen visuellen System
mit hochauflösender
Fovea und niedrig auflösendem
peripheren Retinabereich. Die Realsierung ist auch mit nur einer Standardkamera
für die
Peripherie-Information denkbar, die dazu mit einem Fischaugenobjektiv
für einen Aufnahmewinkel
von z. B. 180° ausgestattet
sein muss.