DE10032433A1 - Verfahren zur Bodenraumüberwachung - Google Patents
Verfahren zur BodenraumüberwachungInfo
- Publication number
- DE10032433A1 DE10032433A1 DE2000132433 DE10032433A DE10032433A1 DE 10032433 A1 DE10032433 A1 DE 10032433A1 DE 2000132433 DE2000132433 DE 2000132433 DE 10032433 A DE10032433 A DE 10032433A DE 10032433 A1 DE10032433 A1 DE 10032433A1
- Authority
- DE
- Germany
- Prior art keywords
- data
- state vectors
- traffic
- vectors
- traffic situation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0017—Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
- G08G5/0026—Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located on the ground
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0073—Surveillance aids
- G08G5/0082—Surveillance aids for monitoring traffic from a ground station
Abstract
Die vorliegende Erfindung betriff ein Verfahren zur Raumüberwachung insbesondere des Bodenraums auf Flughäfen. Um ein Verfahren zur Verfügung zu stellen, das eine preisgüstige und effektive Raumüberwachung, insbesondere des Luft- und Bodenraums von Flughäfen, erlaubt, werden erfindungsgemäß die folgenden Schritte vorgeschlagen: Überwachung mindestens eines Verkehrsortes mit mindestens einem Videosensor, Einlesen der Bilddaten mindestens einer Momentaufnahme des zumindest einen Videosensors in eine Speichereinheit, Erkennen von Ereignissen, Berechnen von Zustandsvektoren der Ereignisse aus den Bilddaten, Zuordnen der Zustandsvektoren jeweils zu einem Objekt und Ausgabe von Objektdaten.
Description
Die vorliegende Erfindung betrifft ein Verfahren zur Raumüberwachung insbesondere des Bo
denraums auf Flughäfen. Die Luft- und Bodenraumüberwachung wird im Rahmen der Flugsiche
rung durchgeführt und dient dazu, den Luftverkehr reibungslos, schnell und sicher zu gestalten.
Zu den Aufgaben der Flugsicherung gehört neben der schnellen und flüssigen Abwicklung des
Luftverkehrs die Vermeidung von Zusammenstößen zwischen Fahrzeugen in der Luft und auf
den Start- und Landebahnen, dem Rollfeld und den Parkbereichen der kontrollierten Flughäfen.
Die Kapazität des Flugverkehrs wird im wesentlichen durch zwei Engpässe beschränkt. So ist
zum einen aufgrund eingeschränkter Luftwege und -korridore der nutzbare Luftraum stark einge
engt. Zum anderen ist häufig der Verkehrsdurchsatz am Boden stark begrenzt, da es an preis
günstigen und intelligenten Bodenraumüberwachungssystemen fehlt und da neben Flugzeugen
auch eine Vielzahl von Servicefahrzeugen am Bodenverkehr teilnimmt.
Die bekannten Bodenraumüberwachungssysteme sind sehr teuer, da sie eine Vielzahl von Sen
soren, wie z. B. Flughafenradar, sekundäres Radar und GPS benötigen.
Demzufolge ist nur ein kleiner Teil der nationalen und internationalen Flughäfen mit einem Bo
denraumüberwachungssystem ausgerüstet. Doch selbst wenn ein bekanntes Bodenraumüber
wachungssystem vorhanden ist, so ist die Überwachung dennoch häufig unvollständig, da im
allgemeinen nicht alle Bereiche des Flugfeldes beobachtet werden können.
Der vorliegenden Erfindung liegt daher die Aufgabe zugrunde, ein Verfahren zur Verfügung zu
stellen, das eine preisgünstige und effektive Raumüberwachung, insbesondere des Luft- und
Bodenraums von Flughäfen, erlaubt.
Diese Aufgabe wird erfindungsgemäß durch ein Verfahren gelöst, das die Schritte aufweist:
- - Überwachung mindestens eines Verkehrsortes mit mindestens einem Videosensor,
- - Einlesen der Bilddaten mindestens einer Momentaufnahme des zumindest einen Video sensors in eine Speichereinheit,
- - Erkennen von Ereignissen,
- - Berechnung von Zustandsvektoren der Ereignisse aus den Bilddaten und
- - Zuordnen der Zustandsvektoren jeweils zu einem Objekt.
Unter einem Raumgebiet bzw. Verkehrsort kann man z. B. jeden beliebigen Ort auf dem Flugfeld
verstehen. Dies kann beispielsweise die Start- oder Landebahn oder aber eine beliebige Zu
fahrtsstraße auf dem Vorfeld oder auch eine Gateausfahrt sein. Auch wenn das erfindungsge
mäße Verfahren bereits mit Vorteil eingesetzt werden kann, wenn lediglich ein Verkehrsort mit
mindestens einem Videosensor überwacht wird, so werden doch vorzugsweise eine ganze Rei
he von Verkehrsorten bzw. Verkehrsknotenpunkten jeweils mit mindestens einem Videosensor
überwacht.
Der Videosensor kann im Prinzip jeder beliebige auf Licht reagierende Sensor sein. Besonders
bevorzugt kommen jedoch digitale Videokameras zum Einsatz, da sie Bilddaten liefern, die be
sonders leicht weiterverarbeitet werden können. Diese Bilddaten können beispielsweise im Bit
mapformat vorliegen, bei dem jedes Pixel einzeln in die Datei eingetragen ist. Mit Vorteil können
aber auch andere weniger speicherintensive Datenformate verwendet werden. Der Videosensor
liefert eine Momentaufnahme seines Sichtfeldes in Form einer Bilddatendatei, die in geeigneter
Weise in einer Speichereinheit eingelesen wird. Diese Bilddaten werden ausgewertet, um ein
oder mehrere Ereignisse zu erkennen, sofern solche vorliegen. Unter einem Ereignis werden alle
Unregelmäßigkeiten im Sichtfeld des Videosensors verstanden, insbesondere Bewegungen von
Objekten im Gesichtsfeld der Kamera oder aber auch ein Vordergrundobjekt vor einem bestimm
ten und gespeicherten festen Untergrund. Befindet sich z. B. auf dem Rollfeld ein Flugzeug, das
beispielsweise gerade über einen sogenannten Stopbar rollt, so ist dies ein Ereignis. Werden
beispielsweise Bilddaten zweier zeitlich beabstandeter Momentaufnahmen desselben Verkehrs
ortes verglichen, so stellt eine Gruppe von Pixeln, deren Farbe einen hohen Kontrast zu den
umgebenden Pixelgruppen aufweist und die auf den beiden Momentaufnahmen eine andere
Position einnimmt, ein Ereignis dar. Im nächsten Schritt wird für jedes bekannte Ereignis aus den
Bilddaten ein Zustandsvektor errechnet. Dieser Zustandsvektor kann im Prinzip beliebig definiert
sein, z. B. als Differenz zweier vektoriell dargestellter Sätze von Bildpixeln bzw. -daten. Eine
Möglichkeit besteht auch darin, daß er die Position des beobachteten Ereignisses darstellt.
Erkennen eines Ereignisses setzt insoweit auch die Definition dessen, was ein Ereignis ist, vor
aus, wobei die vorstehenden Erläuterungen ein Beispiel für eine solche Definition liefern.
Schließlich wird jedem Zustandsvektor jeweils ein Objekt zugeordnet. Unter einem Objekt wird
jeder reale Gegenstand verstanden, der sich auf dem Flughafenfeld befindet bzw. bewegt.
Selbstverständlich ist es möglich, das Erkennen von Ereignissen auf Ereignisse zu beschränken,
die eine Mindestgröße haben. Dadurch kann verhindert werden, daß beispielsweise einem zufäl
lig durch das Sichtfeld des Videosensors fliegenden Vogel ein Objekt zugeordnet wird.
Durch das beschriebene Verfahren kann einer oder können mehrere Verkehrsorte effizient
überwacht werden. Die Objektdaten können entweder direkt an das Flugsicherungspersonal
oder an eine geeignete Verarbeitungseinrichtung weitergegeben werden. Das Flugsicherungs
personal ist dadurch jederzeit darüber informiert, ob sich ein Flugzeug an einem der beobachte
ten Verkehrsorte befindet bzw. wo sich die Flugzeuge befinden.
Besonders bevorzugt ist ein Verfahren, bei dem Bilddaten mindestens zweier zeitlich beabstan
deter Momentaufnahmen mindestens eines Videosensors eingelesen werden. Dadurch, daß
zwei zeitlich versetzte Momentaufnahmen desselben Videosensors und damit desselben Ver
kehrsortes eingelesen werden, ist es möglich, aufgrund der Veränderung der Position der Pixel
gruppe, die das Ereignis darstellt, eine Geschwindigkeitskomponente des Objekts zu berechnen.
Bei geeigneter Aufstellung des Videosensors und entsprechender Streckenführung des Flug
zeuges entspricht die Geschwindigkeitskomponente der absoluten Geschwindigkeit. Bei nicht
geradliniger Streckenführung kann es von Vorteil sein, wenn mindestens ein Verkehrsort mit
mehreren, vorzugsweise mindestens drei, Videosensoren überwacht wird. In diesem Fall kann
für jeden Videosensor die relative Geschwindigkeitskomponente des Objekts getrennt berechnet
werden. Bei Kenntnis der Standorte der Videosensoren kann daraus die absolute Geschwindig
keit sowie die Bewegungsrichtung des Objekts ermittelt werden. Eine besonders bevorzugte
Ausführungsform des vorliegenden Verfahrens sieht daher vor, daß der Zustandsvektor auch die
Geschwindigkeit und/oder die Bewegungsrichtung des Objektes repräsentiert.
Dadurch ist es beispielsweise auch möglich, die Bewegung bzw. die Position des Objektes vor
auszuberechnen. Vorausgesetzt, daß sich die Geschwindigkeit des Objekts nicht wesentlich
ändert, kann die Position des Objekts für die Zukunft berechnet werden, ohne daß weitere Bild
daten von Videosensoren notwendig sind. Dies ermöglicht es, daß nicht der komplette Rollfeld
bereich überwacht werden muß. Es ist vielmehr möglich, zwischen zwei überwachten Ver
kehrsorten aus den Zustandsvektoren die voraussichtliche Position des Objektes zu berechnen.
Dadurch stehen dem Flugsicherungspersonal bzw. der weiterverarbeitenden Einheit zu jedem
Zeitpunkt die berechneten aktuellen Positionen der Luftfahrzeuge auf dem Boden des Flugfeldes
zur Verfügung, ohne daß alle Bereiche des Flugfeldes von Videosensoren überwacht werden.
Eine weitere besonders bevorzugte Variante des erfindungsgemäßen Verfahrens sieht vor, daß
der Zustandsvektor die Beschleunigung eines Objekts darstellt. Zur Berechnung der Beschleuni
gung sind mindestens drei Momentaufnahmen eines Videosensors notwendig. Aus diesen drei
Momentaufnahmen kann die Beschleunigung des Objekts berechnet werden. Die Genauigkeit
der Positionsvorhersage des Verfahrens wird dadurch erheblich verbessert. Dies ist insbesonde
re in Bereichen, in denen sich die Geschwindigkeit der Luftfahrzeuge stark ändert, z. B. aufgrund
eines Abbremsvorgangs, von großem Vorteil. Kann nämlich aus dem Zustandsvektor auch die
Beschleunigung des Objekts entnommen werden, so kann diese bei der zeitlichen Extrapolation
der Position des Objekts berücksichtigt werden.
Für manche Anwendungsfälle kann es von Vorteil sein, wenn dem Zustandsvektor Werte zuge
ordnet werden, die ein Maß für die statistischen Wahrscheinlichkeiten der Objektparameter sind.
Diese Wert können auch in den Zustandsvektor integriert werden. Durch diese Maßnahme kann
die Fehlerrate in der Ereigniserkennung deutlich minimiert werden. So ist es beispielsweise mög
lich, daß die Bilddaten des Videosensors aufgrund äußerer Einwirkungen, z. B. starker Nieder
schlag oder Vogelflug, nicht das zu beobachtende Objekt zeigen. Dann kann es passieren, daß
entweder ein Objekt erkannt wird, was sich in Wahrheit gar nicht am Verkehrsort befindet oder
daß ein am Verkehrsort befindliches Flugzeug nicht erkannt wird. Daher wird einem Zustands
vektor eines Objektes, das auf vielen hintereinander aufgenommenen Momentaufnahmen und
von verschiedenen Videosensoren erkannt wurde, eine hohe statistische Wahrscheinlichkeit
zugeordnet, während einem Zustandsvektor eines Objekts, welches lediglich in einer Moment
aufnahme erkannt wurde, eine sehr geringe statistische Wahrscheinlichkeit zugeordnet wird. Die
statistische Wahrscheinlichkeit ist daher ein Maß für die Qualität bzw. die Güte (d. h. die Genau
igkeit und Zuverlässigkeit) des erkannten Ereignisses. Es ist dann beispielsweise möglich, einen
Grenzwert zu definieren und alle Zustandsvektoren, deren Wert für die statistische Wahrschein
lichkeit diesen Grenzwert unterschreitet, nicht zu beachten.
Eine besonders bevorzugte Ausführungsform des erfindungsgemäßen Verfahrens sieht vor, daß
die Zuordnung des Zustandsvektors zu einem Objekt unter Zugriff auf Verkehrslagedaten erfolgt,
die nicht durch die Videosensoren gewonnen wurden. Diese Verkehrslagedaten können auf viel
fältige Art und Weise erhalten werden. So ist es beispielsweise möglich, daß das Flugsiche
rungspersonal an einem geeigneten Terminal die einzelnen Zustandsvektoren den eintreffenden
Flugzeugen zuordnet. In diesem Fall enthält der Zustandsvektor auch eine Objektidentifikations
nummer bzw. einen Objektnamen. Es ist dadurch möglich, mit Hilfe des Verfahrens nicht nur zu
überwachen, wo sich ein Flugzeug befindet, sondern sogar zu überwachen, wo sich welches
Flugzeug befindet.
Eine weitere Möglichkeit sieht vor, daß die Verkehrslagedaten aus dem aktuellen Flugplan
und/oder dem Belegungsplan der Parkpositionen entnommen werden. So könnte beispielsweise
das bestehende Flugsicherungssystem mit einem System, das das erfindungsgemäße Verfahren
verwirklicht, gekoppelt werden, so daß das Bodenraumüberwachungssystem, immer wenn ein
Flugzeug auf der Landebahn landet, auf die Flugplandaten des bestehenden Flugsicherungssy
stems zugreift und das Flugzeug identifiziert. Diese Identifizierung wird dann während der weite
ren Bodenraumüberwachung beibehalten. Ganz analog kann ein Objekt, das sich von einer
Parkposition wegbewegt mit Hilfe des Belegungsplan der Parkpositionen identifiziert werden.
Anstelle von oder in Kombination mit den Flugplandaten können auch Radardaten verwendet
werden. Alternativ dazu sind selbstverständlich auch alle anderen Positionssensoren verwend
bar, die zusätzliche Verkehrslagedaten liefern. Hier kommen beispielsweise Mode-S-
Radarsensoren, Near Range Radar Networks oder auch GPS-Empfänger und -Server in Frage.
Eine besonders zweckmäßige Ausführungsform sieht vor, daß die Bilddaten digital gefiltert wer
den, wobei vorzugsweise die diskrete Kalman-Filterung verwendet wird. Alternativ oder in Kom
bination dazu kann auch zumindest ein Teil der Verkehrslagedaten digital gefiltert werden, wobei
auch hier vorzugsweise die diskrete Kalman-Filterung verwendet wird. Durch die Kalman-
Filterung wird eine Schätzung und Glättung der Meßwerte in Echtzeit erreicht. Alternativ dazu
können auch andere geeignete Schätzverfahren, wie z. B. die MLS-Filterung (minimum least
square), verwendet werden. Dadurch kann die Qualität des erfindungsgemäßen Verfahrens
deutlich erhöht werden. Wie bereits erwähnt, ist es besonders bevorzugt, wenn die Zustandsvek
toren zeitabhängig weiterberechnet werden. So kann durch dieses Verfahren auch bei kurzfristi
gem Ausfall der Videosensoren die Position der einzelnen Objekte mit großer Wahrscheinlichkeit
vorhergesagt werden.
Dabei werden vorzugsweise die Zustandsvektoren desselben Objekts, die von unterschiedlichen
Sensoren ermittelt wurden, zusammengefaßt. Gleiches gilt für die von den Sensoren erhaltenen
Zustandsvektoren und die Zustandsvektoren aus den anderen Verkehrslagedaten. Dadurch wird
die Bodenraumüberwachung übersichtlicher, da weniger Zustandsvektoren verfolgt werden
müssen. Nicht immer ist es möglich, die Zustandsvektoren zusammenzufassen. Insbesondere
dann, wenn unterschiedliche Systeme zur Erfassung von Verkehrslagedaten verwendet werden,
kann eine Zusammenfassung schwierig oder sogar unmöglich werden. In diesem Fall ist es vor
teilhaft, wenn die Zustandsvektoren desselben Objekts miteinander korreliert werden. Liefert
beispielsweise das Radarsystem mit großen Zeitintervallen zuverlässige Positionsdaten eines
bestimmten Objektes, so kann der Zustandsvektor dieses Objekts mit den Radardaten korreliert
werden. Mit anderen Worten wird immer dann, wenn die zuverlässigen Radardaten vorliegen,
der aus den Videosensoren ermittelte und gegebenenfalls zeitlich extrapolierte Zustandsvektor
dieses Objekts angepaßt. Diese Korrelation erlaubt eine Korrektur der Zustandsvektoren auch
dann, wenn das Objekt sich nicht an einem von Videosensoren überwachten Verkehrsort aufhält.
Besonders bevorzugt ist ein Verfahren, bei dem sich an die Zuordnung der Zustandsvektoren zu
Objekten der Schritt anschließt:
Erzeugung einer Verkehrslagedarstellung.
Erzeugung einer Verkehrslagedarstellung.
Diese Verkehrslagedarstellung kann in jedem beliebigen Koordinatensystem erfolgen. Die Zu
standsvektoren der erkannten Objekte werden in Positionen in der Verkehrslagedarstellung um
gerechnet und an diesen Positionen in die Verkehrslagedarstellung eingetragen. Selbstverständ
lich ist es möglich, die Verkehrslagedarstellung zu visualisieren, so daß das Flugsicherungsper
sonal auf einen Blick erkennen kann, an welchen Positionen sich die einzelnen Flugzeuge befin
den und ob an irgendeiner Stelle eine Kollision droht.
Eine solche visuelle Darstellung ist jedoch nicht unbedingt notwendig. So ist es in einer beson
ders bevorzugten Variante des Verfahrens vorgesehen, daß die Zustandsvektoren im Hinblick
auf mögliche Kollisionen ausgewertet werden. Hier werden die Zustandsvektoren nicht nur zur
Erzeugung einer Verkehrslagedarstellung in Echtzeit weitergerechnet, sondern es erfolgt eine
Extrapolation der Zustandsvektoren in die Zukunft, um mögliche Kollisionen vorhersehen zu
können. Besonders bevorzugt sieht das Verfahren daher vor, daß in Abhängigkeit von der Kolli
sionsauswertung ein Alarmsignal aktiviert wird. Dieses Alarmsignal kann beispielsweise ein opti
sches oder akustisches Signal für das Flugsicherungspersonal sein.
Weitere Vorteile, Merkmale und Anwendungsmöglichkeiten des vorliegenden Verfahrens werden
deutlich anhand der folgenden Beschreibung eines bevorzugten Verfahrens sowie der dazuge
hörigen Figur. Es zeigt:
Fig. 1 einen schematischen Aufbau eines Bodenraumüberwachungssystems.
Die einzige Figur zeigt den prinzipiellen Aufbau eines Bodenraumüberwachungssystems. Die
einzelnen Komponenten des Systems sind miteinander über ein Kommunikationsnetzwerk 9
(z. B. TCP/IP-LAN Netzwerk) miteinander verbunden. Oberhalb der Linie 9 sind in Fig. 1 die
einzelnen Clients 10, 11 und 12 dargestellt, während unterhalb der Linie 9 die drei Server 2, 3
und 5 abgebildet sind. Der Server 2 ist für die Zusammenführung der Videosensorarten zustän
dig. Die einzelnen Videosensoren 7, die die Objekte 8 erkennen, werden über die Ansteuer- und
Ausleseeinheit 1 mit dem Server 2 verbunden. Der Server 2 sammelt die Sensordaten, filtert
diese mit zeitvarianter diskreter Kalman-Filterung und bildet die Zustandsvektoren der Objekte 8.
Die Zustandsvektoren werden an den Radarserver 3 zur weiteren Verarbeitung weitergegeben.
Der Radarserver 3 filtert einen oder mehrere Luftraumüberwachungsradare mit einem zeitinvari
anten diskreten Kalman-Filter, um Flugrouten zu erzeugen. Dieser Server führt eine Korrelation
zwischen den videobasierten Flugbahnen und den Radarflugbahnen zusammen mit einer Korre
lation mit den Flugplandaten 5. Die korrelierte Information wird zu den Clients 10, 11 und 12 ge
liefert. Der Flugplanserver 5 liefert die Flugplandaten zu dem Radarserver 3 für die Korrelation
des Radars mit dem Flugplan und für die zeitbasierte Identifizierung der startenden Flugzeuge.
Der Flugplanserver 5 erhält Flugplanänderungen von seinen Clients 6.
Durch das erfindungsgemäße Verfahren werden Videosensordaten mit anderen Verkehrslageda
ten kombiniert, um eine Verkehrslagedarstellung zu erzeugen, die eine sichere und zuverlässige
Überwachung des Luft- und Bodenraums gewährleistet. Ein System, das das erfindungsgemäße
Verfahren verwirklicht, besteht aus Sensorhardware 1, 7, 8, Rechnerhardware 2, 3, 5, Netzwerk
infrastruktur 9 sowie Sensorsoftware, Kommunikationssoftware, Verarbeitungssoftware und La
gedarstellungssoftware.
Die Videosensordaten werden mit Hilfe der Videosensoren 7 erfaßt. Dabei werden zunächst mit
Hilfe der digitalen Kameras 7 Pixeldaten aufgenommen. Diese umfassen sogenannte Bildframes
einer oder mehrerer Videosensoren in hoher Frequenz (typischerweise größer als 27 Hz). Dabei
sind Bildframes mindestens zweidimensionale Vektoren von Pixeln (Grau- bzw. Farbwerte), wel
che die Aufnahme der digitalen Kamera mit einer nicht unendlichen Auflösung widerspiegeln.
Aus diesen Pixeldaten werden die Zustandsdaten bzw. Zustandsvektoren berechnet. Diese kön
nen die folgenden Informationen enthalten: Objektidentiflkationsnummer, Objektklassifikation,
Position, Geschwindigkeit, Bewegungsrichtung, Beschleunigung und statistische Wahrschein
lichkeit/Qualität (Genauigkeit, Zuverlässigkeit).
Die anderen Verkehrslagedaten können beispielsweise Radardaten sein, die der Radarserver 3
zur Verfügung stellt. Dabei handelt es sich um digitalisierte Daten von beispielsweise Langstrec
kenradaren und Flughafenradaren. Diese Radare sind durch die Box mit der Bezugszahl 4 sym
bolisiert worden. Die Flugplandaten, die von dem Flugplandatenserver 5 zur Verfügung gestellt
werden, können beispielsweise von existierenden Flugplansystemen übernommen werden, die
an ein System, das das erfindungsgemäße Verfahren verwirklicht, angeschlossen werden kön
nen.
Die Kombination der Videosensordaten mit den anderen Verkehrslagedaten erfolgt durch Bildda
tenverarbeitung, digitale Filterung, statistische Interferenz, Sensordatenfusion, Track-Korrelation
und Zeitfensterkorrelation. Dabei umfaßt die Bilddatenverarbeitung die Übertragung der Pixelda
ten einer angewählten digitalen Kamera zum anwählenden Lagedarstellungssystem sowie die
Erkennung und Klassifikation von Objekten in den Pixeldaten. Die digitale Filterung der Meßwer
te erfolgt mittels der diskreten Kalman-Filterung. Mit ihrer Hilfe werden alle extrahierten Zu
standsvektoren aus der Ereigniserkennung der Videosensordaten gefiltert. Auf die gleiche Art
und Weise können auch die Radardaten oder die Daten anderer Sensoren gefiltert werden. Un
ter statistischer Inferenz wird verstanden, daß bei der Berechnung von zukünftigen Zustandsvek
toren bzw. der Extrapolation von Zustandsvektoren berücksichtigt wird, daß die Ausgangsdaten
mit einer entsprechenden Ungenauigkeit und Unzuverlässigkeit behaftet sind, so daß sich die
statistische Wahrscheinlichkeit des neuen Zustandsvektors aus der Fortpflanzung der Ungenau
igkeit und Unzuverlässigkeit der ursprünglichen Zustandsvektoren berechnet.
Unter Sensordatenfusion wird die korrekte Zusammenführung von Objektinformationen für Ob
jekte, die von mehreren Sensoren erfaßt wurden, verstanden. Werden beispielsweise von zwei
unterschiedlichen Videosensoren sich ergänzende Bewegungsinformationen ein- und desselben
Objektes erhalten, so werden diese in einen gemeinsamen Zustandsvektor eingetragen. Bei der
Sensordatenfusion muß jedoch darauf geachtet werden, daß sich unterscheidende Objekte, die
sich möglicherweise sehr nahe kommen, jederzeit korrekt unterschieden werden.
Unter der Track-Korrelation wird verstanden, daß die auf Basis unterschiedlicher Sensoren be
rechneten Flug- bzw. Bewegungsrouten für die gleichen Objekte überprüft werden. Mit anderen
Worten werden die Flugrouten, die aus den Videosensoren ermittelt wurden, mit den Flugrouten,
die aus den Radardaten ermittelt wurden, korreliert, sofern jene zur Verfügung stehen.
Unter der Zeitfensterkorrelation wird verstanden, daß die Routen, die auf Basis der Sensordaten
ermittelt wurden, mit dem Bewegungsfahrplan der Objekte gemäß der vorliegenden Flugplanda
ten innerhalb eines bestimmten Zeittoleranzfensters abgeglichen werden.
Die so ermittelten Zustandsvektoren werden in eine Lagedarstellung eingetragen. Dies erfolgt in
sequentiellen Zyklen. Die einzelnen Positionsdaten werden von dem Server 2 an den Radarser
ver 3 weitergegeben. Die Server 2 und/oder 3 übernehmen außerdem die Konfliktermittlung. Das
heißt für jeweils zwei Zustandsvektoren wird geprüft, ob Kollisionsgefahr vorliegt. Des weiteren
wird überprüft, ob gesperrte Verkehrsschutzbereiche durch andere eindringende Objekte verletzt
werden.
Liegt ein Kollisions- oder Verletzungsrisiko vor, so wird ein entsprechender Alarm ausgelöst.
Mit Hilfe des vorliegenden Verfahrens ist es möglich, preisgünstig und äußerst effektiv eine Luft
raum- und insbesondere eine Bodenraumüberwachung vorzunehmen. Durch dieses Verfahren
wird es möglich, eine Überwachung effektiv auch in Bereiche auszudehnen, die von keinem
Sensor erfaßt werden. Das Verfahren kann sehr einfach mit bereits bestehenden Luft- und Bo
denraumüberwachungssystemen kombiniert werden. Dabei profitieren beide Verfahren vonein
ander.
Claims (22)
1. Verfahren zur Raumüberwachung, das die Schritte aufweist:
Überwachung mindestens eines Verkehrsortes mit mindestens einem Videosensor,
Einlesen der Bilddaten mindestens einer Momentaufnahme des zumindest einen Video sensors in eine Speichereinheit,
Erkennen von Ereignissen,
Berechnen von Zustandsvektoren der Ereignisse aus den Bilddaten,
Zuordnen der Zustandsvektoren jeweils zu einem Objekt und
Ausgabe von Objektdaten.
Überwachung mindestens eines Verkehrsortes mit mindestens einem Videosensor,
Einlesen der Bilddaten mindestens einer Momentaufnahme des zumindest einen Video sensors in eine Speichereinheit,
Erkennen von Ereignissen,
Berechnen von Zustandsvektoren der Ereignisse aus den Bilddaten,
Zuordnen der Zustandsvektoren jeweils zu einem Objekt und
Ausgabe von Objektdaten.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß das überwachte Raumgebiet
mindestens einen Teil eines Flugfeldes bzw. Flughafengeländes bildet.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß der Zustandsvektor die
Position eines Objektes darstellt.
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, daß Bilddaten
mindestens zweier zeitlich beabstandeter Momentaufnahmen des mindestens einen
Videosensors eingelesen werden.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß der minde
stens eine Verkehrsort mit mehreren, vorzugsweise mit mindestens drei, Videosensoren
überwacht wird.
6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß der Zu
standsvektor die Geschwindigkeit und/oder die Bewegungsrichtung eines Objekts dar
stellt.
7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, daß der Zu
standsvektor die Beschleunigung eines Objekts darstellt.
8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, daß dem Zu
standsvektor ein Wert zugeordnet wird, der ein Maß für die statistische Wahrscheinlich
keit des Objektes bzw. der Genauigkeit und Zuverlässigkeit der Objektparameter ist.
9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, daß die Zuord
nung der Zustandsvektoren zu einem Objekt unter Zugriff auf Verkehrslagedaten erfolgt,
die nicht durch die Videosensoren gewonnen wurden.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß die Zuordnung der Zustands
vektoren zu einem Objekt unter Zugriff auf Radardaten erfolgt.
11. Verfahren nach Anspruch 9 oder 10, dadurch gekennzeichnet, daß die Zuordnung der
Zustandsvektoren zu einem Objekt unter Zugriff auf Flugplandaten erfolgt.
12. Verfahren nach einem der Ansprüche 9 bis 11, dadurch gekennzeichnet, daß die Zuord
nung der Zustandsvektoren zu einem Objekt unter Zugriff auf Positionssensoren erfolgt.
13. Verfahren nach einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, daß die Bildda
ten digital gefiltert werden, wobei vorzugsweise die diskrete Kalman-Filterung oder
MLS-Filterung verwendet wird.
14. Verfahren nach einem der Ansprüche 9 bis 13, dadurch gekennzeichnet, daß zumindest
ein Teil der Verkehrslagedaten digital gefiltert wird, wobei vorzugsweise die diskrete
Kalman-Filterung oder MLS-Filterung verwendet wird.
15. Verfahren nach einem der Ansprüche 1 bis 14, dadurch gekennzeichnet, daß die Zu
standsvektoren zeitabhängig in Echtzeit weiterberechnet werden.
16. Verfahren nach einem der Ansprüche 1 bis 15, dadurch gekennzeichnet, daß die Zu
standsvektoren desselben Objekts, die von unterschiedlichen Sensoren oder Verkehrs
lagedaten ermittelt wurden, zusammengefaßt werden.
17. Verfahren nach einem der Ansprüche 1 bis 16, dadurch gekennzeichnet, daß die Zu
standsvektoren desselben Objekts, die aus unterschiedlichen Verkehrslagedaten ermit
telt wurden, korreliert werden.
18. Verfahren nach einem der Ansprüche 1 bis 17, dadurch gekennzeichnet, daß sich der
Zuordnung der Zustandsvektoren zu Objekten der Schritt anschließt:
Erzeugung einer Verkehrslagedarstellung.
Erzeugung einer Verkehrslagedarstellung.
19. Verfahren nach Anspruch 18, dadurch gekennzeichnet, daß die Zustandsvektoren in
Positionen in der Verkehrslagedarstellung umgerechnet werden und an diesen Positio
nen in die Verkehrslagedarstellung eingetragen werden.
20. Verfahren nach Anspruch 18 oder 19, dadurch gekennzeichnet, daß die Zustandsvekto
ren im Hinblick auf mögliche Kollisionen ausgewertet werden.
21. Verfahren nach Anspruch 20, dadurch gekennzeichnet, daß ein Alarmsignal in Abhän
gigkeit von dem Ergebnis der Kollisionsauswertung aktiviert wird.
22. Verfahren nach einem Ansprüche 18 bis 21, dadurch gekennzeichnet, daß die Verkehrs
lagedarstellung in vorzugsweise festen äquidistanten Zeitabständen aktualisiert wird.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2000132433 DE10032433A1 (de) | 2000-07-04 | 2000-07-04 | Verfahren zur Bodenraumüberwachung |
EP01116027A EP1170715A3 (de) | 2000-07-04 | 2001-07-02 | Verfahren zur Bodenraumüberwachung |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2000132433 DE10032433A1 (de) | 2000-07-04 | 2000-07-04 | Verfahren zur Bodenraumüberwachung |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10032433A1 true DE10032433A1 (de) | 2002-01-17 |
Family
ID=7647721
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE2000132433 Withdrawn DE10032433A1 (de) | 2000-07-04 | 2000-07-04 | Verfahren zur Bodenraumüberwachung |
Country Status (2)
Country | Link |
---|---|
EP (1) | EP1170715A3 (de) |
DE (1) | DE10032433A1 (de) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007014599A1 (de) * | 2007-03-23 | 2008-09-25 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Verfahren zur Überwachung eines Rollverkehrs-Management-Systems für Flughäfen |
DE102008018880A1 (de) | 2008-04-14 | 2009-10-15 | Carl Zeiss Optronics Gmbh | Überwachungsverfahren und -vorrichtung für Windkraftanlagen, Gebäude mit transparenten Bereichen, Start- und Landebahnen und/oder Flugkorridore von Flughäfen |
DE102008054203A1 (de) * | 2008-10-31 | 2010-06-10 | Adb N.V | Vorrichtung zur Flugfeldbefeuerung eines Flughafens |
US8044840B2 (en) | 2005-09-02 | 2011-10-25 | Rheinmetall Air Defence Ag | Method for surveillance of space/air space |
DE102016223094A1 (de) * | 2016-11-23 | 2018-05-24 | Robert Bosch Gmbh | Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts |
DE102019106461A1 (de) * | 2019-03-14 | 2020-09-17 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren, Vorrichtung, Computerprogramm und Computerprogrammprodukt zur Verarbeitung von Messdatensätzen |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3779221D1 (de) * | 1986-08-19 | 1992-06-25 | Genentech Inc | Einrichtung und dispersion zum intrapulmonalen eingeben von polypeptidwuchsstoffen und -zytokinen. |
BE1014829A3 (nl) * | 2002-05-13 | 2004-05-04 | Joval N V | Werkwijze en inrichting voor het bepalen van de |
US8111289B2 (en) | 2002-07-15 | 2012-02-07 | Magna B.S.P. Ltd. | Method and apparatus for implementing multipurpose monitoring system |
US6917309B2 (en) | 2002-10-28 | 2005-07-12 | Integritech System Engineering Ltd. | Foreign object detection system and method |
DE102006060904B4 (de) * | 2006-12-20 | 2011-05-12 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Flughafenverkehrsinformations-Anzeigesystem |
US8022841B2 (en) | 2008-03-31 | 2011-09-20 | Xsight Systems Ltd. | System and method for ascription of foreign object debris detected on airport travel surfaces to foreign object sources |
US9135830B2 (en) | 2010-02-18 | 2015-09-15 | Xsight Systems Ltd. | Airport travel surface edge lighting and foreign object detection system and method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4140406A1 (de) * | 1991-12-07 | 1993-06-09 | Deutsche Aerospace Ag, 8000 Muenchen, De | System zur verbesserten orientierung, navigation, fuehrung und ueberwachung von flugzeugen |
DE4332753A1 (de) * | 1993-09-25 | 1995-03-30 | Bosch Gmbh Robert | Verfahren zur Erkennung bewegter Objekte |
DE19640938A1 (de) * | 1996-10-04 | 1998-04-09 | Bosch Gmbh Robert | Anordnung und Verfahren zur Überwachung von Verkehrsflächen |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5519618A (en) * | 1993-08-02 | 1996-05-21 | Massachusetts Institute Of Technology | Airport surface safety logic |
JP3605667B2 (ja) * | 1996-01-30 | 2004-12-22 | 株式会社ナックイメージテクノロジー | 航空機の離着陸性能計測装置 |
AUPN903296A0 (en) * | 1996-03-29 | 1996-04-26 | Commonwealth Scientific And Industrial Research Organisation | An aircraft detection system |
WO1998022922A1 (de) * | 1996-11-15 | 1998-05-28 | Siemens Aktiengesellschaft | System zur koordination der tätigkeit des flugzeugleitpersonals eines flughafens |
-
2000
- 2000-07-04 DE DE2000132433 patent/DE10032433A1/de not_active Withdrawn
-
2001
- 2001-07-02 EP EP01116027A patent/EP1170715A3/de not_active Withdrawn
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4140406A1 (de) * | 1991-12-07 | 1993-06-09 | Deutsche Aerospace Ag, 8000 Muenchen, De | System zur verbesserten orientierung, navigation, fuehrung und ueberwachung von flugzeugen |
DE4332753A1 (de) * | 1993-09-25 | 1995-03-30 | Bosch Gmbh Robert | Verfahren zur Erkennung bewegter Objekte |
DE19640938A1 (de) * | 1996-10-04 | 1998-04-09 | Bosch Gmbh Robert | Anordnung und Verfahren zur Überwachung von Verkehrsflächen |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8044840B2 (en) | 2005-09-02 | 2011-10-25 | Rheinmetall Air Defence Ag | Method for surveillance of space/air space |
DE102007014599A1 (de) * | 2007-03-23 | 2008-09-25 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Verfahren zur Überwachung eines Rollverkehrs-Management-Systems für Flughäfen |
DE102008018880A1 (de) | 2008-04-14 | 2009-10-15 | Carl Zeiss Optronics Gmbh | Überwachungsverfahren und -vorrichtung für Windkraftanlagen, Gebäude mit transparenten Bereichen, Start- und Landebahnen und/oder Flugkorridore von Flughäfen |
DE102008054203A1 (de) * | 2008-10-31 | 2010-06-10 | Adb N.V | Vorrichtung zur Flugfeldbefeuerung eines Flughafens |
DE102016223094A1 (de) * | 2016-11-23 | 2018-05-24 | Robert Bosch Gmbh | Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts |
DE102019106461A1 (de) * | 2019-03-14 | 2020-09-17 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren, Vorrichtung, Computerprogramm und Computerprogrammprodukt zur Verarbeitung von Messdatensätzen |
Also Published As
Publication number | Publication date |
---|---|
EP1170715A2 (de) | 2002-01-09 |
EP1170715A3 (de) | 2003-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0886847B1 (de) | Verfahren zur erkennung eines kollisionsrisikos und zur vermeidung von kollisionen in der luftfahrt | |
DE69731009T2 (de) | System zum Erkennen von Hindernissen | |
EP1505556B1 (de) | Verfahren und Vorrichtung zur Erkennung eines Flughindernisses | |
EP1475764B1 (de) | Verfahren und Vorrichtung zur Ermittlung der Wahrscheinlichkeit für eine Kollision eines Fahrzeugs mit einem Gegenstand | |
DE60005380T2 (de) | Überwachungssystem | |
DE10032433A1 (de) | Verfahren zur Bodenraumüberwachung | |
EP1770595B1 (de) | Verfahren zur Unterstützung von Tiefflügen zur Erkennung von Hindernissen | |
EP2936470B1 (de) | Verfahren und system zum lernen von verkehrsereignissen sowie verwendung des systems | |
DE102009016819B4 (de) | Verfahren zur Detektion wenigstens eines Objekts und/oder wenigstens einer Objektgruppe, Computerprogramm, Computerprogammprodukt, Stereokameraeinrichtung, aktiv Strahlung aussendendes Bildsensorsystem und Überwachungsvorrichtung | |
DE102015013104A1 (de) | Verfahren zur Zielanflungsteuerung von unbemannten Flugobjekten, insbesondere Lieferdrohen | |
EP2872374A2 (de) | Überwachung einer bahnstrecke | |
WO2020200792A1 (de) | Verfahren zur überprüfung eines umfelderfassungssensors eines fahrzeugs und verfahren zum betrieb eines fahrzeugs | |
DE102014219691A1 (de) | Verfahren zur Überwachung einer Umgebung einer Schienenfahrbahn und Überwachungssystem | |
DE102008018880A1 (de) | Überwachungsverfahren und -vorrichtung für Windkraftanlagen, Gebäude mit transparenten Bereichen, Start- und Landebahnen und/oder Flugkorridore von Flughäfen | |
DE102016217950A1 (de) | Verfahren und Anordnung zum Erkennen von Hindernissen auf Fluchtwegen, insbesondere in Gebäuden | |
WO1998040855A1 (de) | Einrichtung zur videoüberwachung einer fläche | |
DE19621612A1 (de) | Verfahren und Vorrichtung zur optischen Freiraumüberwachung | |
DE212015000274U1 (de) | Vorrichtung und nichtflüchtiges Computerprogrammprodukt zur Überwachung einer Flugzeugposition | |
EP2662846A1 (de) | Verfahren zum Reduzieren einer Staugefahr | |
AT17358U1 (de) | Verfahren und Überwachungssystem zur Ermittlung einer Position eines Schienenfahrzeugs | |
EP1791364B1 (de) | Flugverkehr-Leiteinrichtung | |
EP1189187B1 (de) | Verfahren zum Überwachen eines vorbestimmten Bereichs und entsprechendes System | |
WO2017125332A2 (de) | ERFASSUNG EINER GEFAHRENSITUATION IM STRAßENVERKEHR | |
DE102017124583A1 (de) | System zum Überwachen des Zutritts zu einem Fahrzeug | |
EP2254104B1 (de) | Verfahren zum automatischen Erkennen einer Situationsänderung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OM8 | Search report available as to paragraph 43 lit. 1 sentence 1 patent law | ||
8139 | Disposal/non-payment of the annual fee |