EP4354174A1 - Vorrichtung und verfahren zur positionierung eines flugzeuges - Google Patents

Vorrichtung und verfahren zur positionierung eines flugzeuges Download PDF

Info

Publication number
EP4354174A1
EP4354174A1 EP22200957.3A EP22200957A EP4354174A1 EP 4354174 A1 EP4354174 A1 EP 4354174A1 EP 22200957 A EP22200957 A EP 22200957A EP 4354174 A1 EP4354174 A1 EP 4354174A1
Authority
EP
European Patent Office
Prior art keywords
aircraft
measuring points
segments
evaluation unit
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP22200957.3A
Other languages
English (en)
French (fr)
Inventor
Dominic Ruh
Steffen Wittmeier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sick AG
Original Assignee
Sick AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sick AG filed Critical Sick AG
Priority to EP22200957.3A priority Critical patent/EP4354174A1/de
Publication of EP4354174A1 publication Critical patent/EP4354174A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/34Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/933Lidar systems specially adapted for specific applications for anti-collision purposes of aircraft or spacecraft
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section

Abstract

Eine Vorrichtung zur Positionierung eines Flugzeuges in einem Überwachungsbereich eines Vorfelds eines Flughafens weist wenigstens einen optoelektronischen Sensor zum Aussenden von Sendelichtstrahlen in den Überwachungsbereich, zum Abtasten einer Vielzahl von Messpunkten und zum Erzeugen von Messdaten aus von den Messpunkten remittiertem oder reflektiertem Sendelicht auf. Eine Steuer- und Auswerteeinheit ist dazu eingerichtet, die Messpunkte zu segmentieren, zumindest teilweise zu Segmenten des Flugzeuges zusammenzufassen, Merkmale der Segmente zu extrahieren, die Segmente anhand der extrahierten Merkmale einem Flugzeugtyp aus einer Vielzahl von Flugzeugtypen zuzuordnen und basierend auf dem zugeordneten Flugzeugtyp eine Positionierungsinformation für das Flugzeug auszugeben. Der wenigstens eine optoelektronische Sensor ist als FMCW-LIDAR-Sensor ausgeführt, und die Messdaten umfassen Radialgeschwindigkeiten der Messpunkte.

Description

  • Die Erfindung betrifft eine Vorrichtung und ein Verfahren zur Positionierung eines Flugzeuges in einem Überwachungsbereich eines Vorfelds eines Flughafens, nach dem Oberbegriff von Anspruch 1 beziehungsweise Anspruch 12.
  • Aus dem Stand der Technik sind verschiedenste Systeme zur Positionierung von Flugzeugen auf einem Vorfeld eines Flughafens bekannt, insbesondere zum Andocken eines Flugzeuges an eine Fluggastbrücke. In der Regel wird dabei ein Flugzeug mit Hilfe optoelektronischer Sensoren erfasst, und der Flugzeugtyp anhand spezifischer Segmente des Flugzeugs und deren Form, beispielsweise der Form der Flugzeugnase (Radom), deren Abstand vom Boden, oder der Position und/oder Form der Triebwerke bestimmt. Unter Kenntnis der Abmessungen des Flugzeugstyps und der von den optoelektronischen Sensoren erfassten Position des Flugzeugs kann dann das Flugzeug zu einer vorbestimmten Parkposition geleitet oder das Andocken des Flugzeugs an die Fluggastbrücke gesteuert oder unterstützt werden. Dazu kann der Pilot des Flugzeugs beispielsweise durch ein Flughafen-Andock-Leitsystem unterstützt werden. Das Flughafen-Andockleitsystem besteht aus einem Display, das im Blickfeld des Piloten angebracht ist, um dem Piloten Informationen im Cockpit anzuzeigen, und einem LiDAR-Sensor, der die Position des Flugzeugs relativ zur Parkposition misst. Neben der Messung der Position des Flugzeugs in Bezug auf die Parkposition, muss der LiDAR-Sensor auch Informationen liefern, die die Klassifizierung des Flugzeugtyps anhand der erfassten Segmente des Flugzeugs ermöglichen, da die Parkposition vom Flugzeugtyp abhängt.
  • Die DE 4301637C2 beschreibt Verfahren zum Andocken eines Flugzeuges an eine Fluggastbrücke eines Flughafengebäudes durch Ortung und Führung des Flugzeuges von einer Ausgangsstellung zu einer Fluggastbrücke unter Verwendung einer Lasersender- und einer Laserempfangseinrichtung.
  • Die EP 2 109 065 B1 bezieht sich auf ein Verfahren zur Lokalisierung und Identifizierung von Objekten, insbesondere Flugzeugen auf einem Flugplatz und zum sicheren und effizienten Andocken von Flugzeugen an einem solchen Flughafen, wobei die Identifizierung in einem zweistufigen Verfahren erfolgt. Dabei wird zunächst ein Profil eines Flugzeugs erfasst und mit bekannten Profilen abgeglichen, und in einem zweiten Schritt Komponenten des Flugzeugs, beispielsweise ein Triebwerk erfasst und als Grundlage für die Unterscheidung zwischen Flugzeugen ausgewählt. Die Erfassung der Profile und Flugzeugkomponenten erfolgt mittels Laserentfernungsmessern.
  • Aus der US 7 702 453 B2 ist ein in Verfahren zum Leiten eines Flugzeugs zu einer Halteposition innerhalb eines Flugzeugstandplatzes eines Flughafens unter Verwendung eines Hochfrequenzsignals (RF) von einem RFID-Tag bekannt. Ein Laser-Entfernungsmesser kann das Verfahren unterstützen.
  • Die EP 1 015 313 B1 zeigt ein Dockingsystem für Flughafenterminals, mit einer Positioniervorrichtung als Teil eines Gate-Betriebssystems eines Flughafenterminals, mittels der ein Flugzeug in eine für seinen Bautyp vorgegebene Parkposition leitbar ist. Eine Videoeinrichtung, erfasst das Flugzeug bei Annäherung an das Flughafenterminal, und die erfassten Daten werden mit einer Datenbank abgeglichen, in der für unterschiedliche Bautypen von Flugzeugen jeweils Template-Datensätze abgespeichert sind.
  • Die im Stand der Technik üblicherweise zur Erfassung des Flugzeugs verwendeten Bilderfassungssysteme, insbesondere Laserscanner und Kamerasysteme, weisen jedoch Nachteile auf, auf die im Folgenden näher eingegangen werden soll.
  • Laserscanner oder LiDAR (Light Detection And Ranging) - Sensoren basieren meist auf einer direkten Lichtlaufzeitmessung. Hierbei wird ein Lichtpuls vom Sensor ausgesandt, an einem Objekt reflektiert und wieder vom Sensor detektiert. Die Laufzeit des Lichtpulses wird vom Sensor bestimmt und über die Lichtgeschwindigkeit im Propagationsmedium (in der Regel Luft) die Entfernung zwischen Sensor und Objekt geschätzt. Da die Phase der elektromagnetischen Welle hierbei nicht berücksichtigt wird, spricht man von einem inkohärenten Messprinzip. Bei einer inkohärenten Messung besteht die Notwendigkeit, Pulse aus vielen Photonen aufzubauen, um den reflektierten Puls mit ausreichendem Signal-Rausch-Verhältnis zu empfangen. Die Anzahl der Photonen innerhalb eines Pulses ist im industriellen Umfeld in der Regel durch den Augenschutz nach oben limitiert. In der Folge ergeben sich Abwägungen zwischen maximaler Reichweite, minimaler Remission des Objektes, Integrationszeit und den Anforderungen an das Signal-Rausch-Verhältnis des Sensorsystems. Inkohärente Strahlung bei gleicher Wellenlänge (Umgebungslicht) wirkt sich zudem direkt auf den dynamischen Bereich des Lichtempfängers aus. Beispiele für inkohärente Strahlung bei gleicher Wellenlänge sind die Sonne, ähnliche Sensorsysteme, oder das identische Sensorsystem über eine Mehrwegeausbreitung, also unerwünschte Reflexionen.
  • Aus dem Stand der Technik bekannte Kamerasysteme basieren auf Messprinzipien wie beispielsweise der Stereoskopie oder der indirekten Lichtlaufzeitmessung. Bei der indirekten Lichtlaufzeitmessung wird die Phasendifferenz eines AMCW (Amplitude Modulated Continous Wave)-Sendesignals und dessen zeitlich verzögerter Kopie nach Reflektion mit einem Objekt bestimmt. Die Phasendifferenz entspricht der Lichtlaufzeit und kann über die Lichtgeschwindigkeit im Propagationsmedium in einen Distanzwert umgerechnet werden. Sowohl die Stereoskopie als auch die indirekte Lichtlaufzeitmessung sind jedoch nicht besonders robust gegenüber Sonneneinstrahlung und erreichen insbesondere unter Verwendung einer sogenannten Flash Beleuchtung, in der die gesamte Szene auf einmal beleuchtet wird, nicht die notwendige Reichweite für die Airport Docking Applikation. Insgesamt kann also die Genauigkeit der Detektion des Flugzeugs beziehungsweise der relevanten Merkmale wie Triebwerksposition oder Form der Flugzeugnase unbefriedigend sein und der Rechenaufwand für die Bildverarbeitung ist in der Regel hoch.
  • Es ist daher Aufgabe der Erfindung, eine Vorrichtung und ein Verfahren zur Positionierung eines Flugzeuges in einem Überwachungsbereich eines Vorfelds eines Flughafens, zu verbessern.
  • Diese Aufgabe wird durch eine Vorrichtung und ein Verfahren zur Positionierung eines Flugzeuges in einem Überwachungsbereich eines Vorfelds eines Flughafens, nach Anspruch 1 beziehungsweise 12 gelöst.
  • Eine Vorrichtung zur Positionierung eines Flugzeuges weist zur Erfassung des Flugzeugs zunächst wenigstens einen optoelektronischen Sensor auf, der Sendelichtstrahlen in einen Überwachungsbereich eines Vorfelds eines Flughafens aussendet. Die Sendelichtstrahlen tasten eine Vielzahl von Messpunkten im Überwachungsbereich ab, und der Sensor erzeugt Messdaten aus von den Messpunkten remittiertem oder reflektiertem Sendelicht. Zur Abtastung des Überwachungsbereichs kann der Sensor fachübliche Strahlablenkungsmittel aufweisen und beispielsweise als Scanner mit wenigstens einem beweglichen Ablenkspiegel ausgeführt sein.
  • Eine Steuer- und Auswerteeinrichtung ist dazu eingerichtet die erzeugten Messdaten auszuwerten, wobei zunächst eine Segmentierung der Messpunkte erfolgt und die Messpunkte zumindest teilweise zu Segmenten des Flugzeuges zusammengefasst werden. "Zumindest teilweise" bedeutet in diesem Zusammenhang, dass ein Teil der im Überwachungsbereich abgetasteten Messpunkte Objekte betreffen kann, die nicht Teil des Flugzeugs sind, beispielsweise auf dem Vorfeld befindliche Personen, Fahrzeuge, oder auch das Vorfeld selbst. Die Segmentierung kann nach bekannten Verfahren der digitalen Bildverarbeitung beziehungswiese des maschinellen Sehens erfolgen, wie beispielsweise
    • Pixelorientierte Verfahren im Grauwertbild mittels Schwellenwert-Verfahren,
    • Kantenorientierte Verfahren wie dem Sobel- oder Laplace-Operator und einer Gradientensuche,
    • Regionenorientierte Verfahren wie "Region-Growing", "Region-Splitting", "Pyramid Linking" oder "Split and Merge",
    • Modellbasierte Verfahren wie bspw. die Hough-Transformation, oder
    • Texturorientierte Verfahren.
  • Weiterhin sind unter dem Begriff "Range segmentation" spezielle Verfahren zur Segmentierung von dreidimensionalen Datensätzen bekannt. Die "Range segmentation" ist beispielsweise in den folgenden wissenschaftlichen Veröffentlichungen beschrieben:
    • "Fast Range Image-Based Segmentation of Sparse 3D Laser Scans for Online Operation" (Bogoslavskyi et al., 2016 IEEE/RSJ International Conference on Intelligent Robots and Systems, DOI: 10.1109/IROS.2016.7759050)
    • "Laser-based segment classification using a mixture of bag-of-words". (Behley et al., 2013 IEEE/RSJ International Conference on Intelligent Robots and Systems, DOI: 10.1109/IROS.2013.6696957)
    • "On the segmentation of 3d lidar point clouds" (Douillard et al., 2011 IEEE International Conference on Robotics and Automation, DOI: 10.1109/ICRA.2011.5979818)
  • Darüber hinaus können Algorithmen des maschinellen Lernens verwendet werden, um Segmente des Flugzeugs oder das komplette Flugzeug zu detektieren. Hierzu kommen nach aktuellem Stand der Wissenschaft sog. Deep Neural Networks zum Einsatz. Beispiele für solche Verfahren sind beispielsweise in folgenden wissenschaftlichen Veröffentlichungen beschrieben:
  • Als Segmente des Flugzeuges sind insbesondere solche Teile des Flugzeugs zu verstehen, die aufgrund von Merkmalen wie Form und/oder Position charakteristisch für einen bestimmten Flugzeugtyp sind, beispielsweise Triebwerke, Fahrwerk, Cockpitfenster oder Leitwerk. Der Begriff "Segment des Flugzeuges" kann auch einen Umriss des Flugzeugs umfassen, sofern das Flugzeug in seiner Gesamtheit vom Sensor erfasst wird.
  • Die Steuer- und Auswerteeinheit ist daher weiterhin dazu ausgebildet, Merkmale der Segmente zu extrahieren, die Segmente anhand der extrahierten Merkmale einem Flugzeugtyp aus einer Vielzahl von Flugzeugtypen zuzuordnen und basierend auf dem zugeordneten Flugzeugtyp eine Positionierungsinformation für das Flugzeug auszugeben, beispielsweise einen Abstand und/oder eine Richtung zu einer vorbestimmten, flugzeugtypspezifischen Parkposition. Zur Zuordnung der Segmente zu einem Flugzeugtyp kann die Steuer- und Auswerteeinheit dazu eingerichtet sein, Informationen überflugzeugtypspezifische Segmente zu empfangen, beispielsweise aus einer Datenbank. Die Datenbank kann Teil der Vorrichtung oder der Steuer- und Auswerteeinheit selbst sein, Teil einer IT-Infrastruktur des Flughafens, oder auch in einer Cloud vorliegen.
  • Erfindungsgemäß ist der optoelektronische Sensor, als frequenz-modulierter-Dauerstrich (Frequency Modulated Continuous Wave, FMCW) - LiDAR-Sensor ausgebildet. Grundlagen der FMCW-LiDAR Technologie sind beispielsweise in der wissenschaftlichen Veröffentlichung "Linear FMCW Laser Radar for Precision Range and Vector Velocity Measurements" (Pierrottet, D., Amzajerdian, F., Petway, L., Barnes, B., Lockard, G., & Rubio, M. (2008). Linear FMCW Laser Radar for Precision Range and Vector Velocity Measurements. MRS Proceedings, 1076, 1076-K04-06. doi:10.1557/PROC-1076-K04-06) oder der Doktorarbeit "Realization of Integrated Coherent LiDAR" (T. Kim, University of California, Berkeley, 2019. https://escholarship.org/uc/item/1d67v62p) beschrieben.
  • Im Gegensatz zu auf Lichtlaufzeitmessung von Laserpulsen basierenden LiDAR-Sensoren oder Laserentfernungsmessern sendet ein FMCW-LiDAR-Sensor keine gepulsten, sondern kontinuierliche Sendelichtstrahlen in einen Überwachungsbereich aus, die während einer Messung, also einer zeitdiskreten Abtastung eines Messpunktes im Überwachungsbereich, eine vorgegebene Frequenzmodulation, das heißt eine zeitliche Änderung der Wellenlänge des Sendelichts, aufweisen. Die Messfrequenz eines gesamten Frames, der aus 100.000 Messpunkten und mehr bestehen kann, liegt dabei typischerweise im Bereich von 10 bis 30 Hz. Die Frequenzmodulation kann beispielsweise als periodische Auf- und Abwärtsmodulation ausgebildet sein. Von Messpunkten im Überwachungsbereich reflektiertes Sendelicht weist im Vergleich zum ausgestrahlten Sendelicht einen Zeitversatz entsprechend der Lichtlaufzeit auf, die von der Entfernung des Messpunktes vom Sensor abhängt und aufgrund der Frequenzmodulation mit einer Frequenzverschiebung einhergeht. Im FMCW-LiDAR-Sensor werden ausgestrahltes und reflektiertes Sendelicht kohärent überlagert, wobei aus dem Überlagerungssignal die Entfernung des Messpunktes vom Sensor bestimmt werden kann. Das Messprinzip der kohärenten Überlagerung hat im Vergleich zu gepulsten oder amplitudenmodulierten inkohärenten LiDAR-Messprinzipien unter anderem den Vorteil einer erhöhten Immunität bezüglich Fremdlicht von beispielsweise anderen optischen Sensoren/Sensorsystemen oder der Sonne.
  • Bewegt sich ein Messpunkt mit einer Radialgeschwindigkeit auf den Sensor zu oder vom Sensor weg, weist das reflektierte Sendelicht zusätzlich eine Dopplerverschiebung auf. Diese Veränderung der Sendelichtfrequenz kann ein FMCW-LiDAR-Sensor bestimmen und daraus die Entfernung und die Radialgeschwindigkeit eines Messpunkts in einer einzigen Messung, also einer einmaligen Abtastung eines Messpunktes, bestimmen, während bei einem auf Lichtlaufzeitmessung von Laserpulsen basierenden LiDAR-Sensor für eine Bestimmung der Radialgeschwindigkeit wenigstens zwei Messungen, also zwei zeitlich beabstandete Abtastungen des gleichen Messpunktes, nötig sind.
  • Bei zeit- und raumdiskreter Abtastung eines dreidimensionalen Überwachungsbereichs kann ein FMCW-LiDAR-Sensor folgende Messdaten erfassen beziehungsweise erzeugen: M j , k , l = r j , k , l v j , k , l r I j , k , l .
    Figure imgb0001
  • Hierbei bezeichnen rj,k,l den Radialabstand, vr j,k,l die Radialgeschwindigkeit und Ij,k,l die Intensität jedes raumdiskreten Messpunktes j,k mit zweidimensionaler, durch Azimuthwinkel ϕ und Polarwinkel θ angegebener Position (ϕj, θk ) für jede zeitdiskrete Abtastung I. Zur einfachen Lesbarkeit wird im Folgenden der Index n für eine einmalige zeitdiskrete Abtastung eines raumdiskreten, zweidimensionalen Messpunkts (ϕj, θk ) im dreidimensionalen Überwachungsbereich verwendet. Die vom FMCW-LiDAR-Sensor erzeugten Messdaten umfassen somit zusätzlich zu den Orts- und Intensitätsinformationen der Messpunkte deren Radialgeschwindigkeiten.
  • Im Falle von single-mode emittierenden FMCW-LiDAR-Sensoren können sehr kleine Laserstrahlen mit Durchmessern im Bereich von Millimetern zur Abtastung des Messbereichs erzeugt werden. Aufgrund der hohen Messinformationsdichte des FMCW-LiDAR-Sensors können weniger komplexe und robustere Algorithmen verwendet werden, um eine Positionierungsinformation eines Flugzeugs relativ zur Parkposition zu bestimmen.
  • Die Steuer- und Auswerteeinheit kann dazu ausgebildet sein, die Messpunkte unter Verwendung der Radialgeschwindigkeiten der Messpunkte zu segmentieren. Durch die Verwendung der ortsaufgelösten Radialgeschwindigkeit als zusätzlichem Parameter zu den üblichen Orts- und Intensitätsinformationen der Messpunkte ist eine verbesserte Segmentierung der Messdaten möglich.
  • Die Steuer- und Auswerteeinheit kann dazu ausgebildet sein, unter Verwendung von ortsaufgelösten Radialgeschwindigkeiten von wenigstens einem ersten Segment zugeordneten Messpunkten ein Bewegungsmuster des ersten Segments zu bestimmen. Als Bewegungsmuster ist eine charakteristische Eigenbewegung des Segments, beispielsweise eine Rotation oder eine Relativbewegung des Segments zum Flugzeug selbst oder zu einem weiteren Segment, zu verstehen, welche sich durch ein Radialgeschwindigkeitsprofil der dem Segment zugeordneten Messpunkte ergibt. Eine entsprechende charakteristische Eigenbewegung beziehungsweise charakteristisches Radialgeschwindigkeitsprofil kann beispielsweise als vorbestimmtes Bewegungsmuster in der Steuer- und Auswerteeinheit gespeichert, in einem Einlernvorgang erfasst oder während des Betriebs der Vorrichtung mittels Methoden des maschinellen Lernens oder künstlicher Intelligenz bestimmt werden.
  • Die Verwendung der ortsaufgelösten Radialgeschwindigkeiten zur Bestimmung eines Bewegungsmusters der einem ersten Segment zugeordneten Messpunkte hat den Vorteil, dass sich das Bewegungsmuster des Segments schnell und zuverlässig bestimmen lässt.
  • Die Bestimmung eines Bewegungsmusters eines Segments, insbesondere die Bestimmung einer Relativbewegung zwischen verschieden Segmenten oder von Segmenten zum Flugzeug selbst kann beispielsweise dazu verwendet werden, die rotierenden Triebwerksschaufeln und somit das Triebwerk des Flugzeugs zu identifizieren.
  • Anhand der Bewegungsmuster von Rädern des Flugzeugs kann beispielsweise die Erkennung des Fahrwerks des Flugzeugs verbessert werden, da sich die Bewegungsmuster der Räder vom Bewegungsmuster des Flugzeugrumpfes unterscheiden. Da in der Regel das Bugfahrwerk andere Reifengrößen als das Hauptfahrwerk aufweist, unterscheiden sich auch die Bewegungsmuster der entsprechenden Räder, so dass eine verbesserte Unterscheidung und Lokalisierung von Haupt- und Bugfahrwerk möglich ist.
  • In einer Ausführungsform kann die Steuer- und Auswerteeinheit dazu ausgebildet sein, die Messdaten unter Verwendung der Radialgeschwindigkeiten der Messpunkte zu filtern. Somit kann bereits vor einer Segmentierung der Messpunkte der Rechenaufwand durch Datenreduktion vermindert werden. Eine Filterung kann beispielsweise dadurch erfolgen, dass Messpunkte mit einer Radialgeschwindigkeit kleiner, größer oder gleich einem vorgegebenen Schwellenwert verworfen und keiner weiteren Auswertung zugeführt werden. Dadurch können beispielsweise zu einem in Bewegung befindlichen Flugzeug gehörige Messpunkte von solchen getrennt werden, die zu einem statischen Hintergrund gehören und damit die Datenmenge für folgende Verarbeitungsschritte reduziert werden.
  • In einer Ausführungsform kann die Steuer- und Auswerteeinheit dazu ausgebildet sein, unter Verwendung der Radialgeschwindigkeit der Messpunkte eine Geschwindigkeit des Flugzeugs zu ermitteln und die ermittelte Geschwindigkeit mit einem vorgegebenen Geschwindigkeitslimit zu vergleichen, wobei die Positionierungsinformation für das Flugzeug dann die Geschwindigkeit des Flugzeugs und/oder eine Information über eine Überschreitung des vorgegebenen Geschwindigkeitslimits enthalten kann. Die Geschwindigkeit beziehungsweise ein 3D Geschwindigkeitsvektor des Flugzeugs kann beispielsweise durch das in "Doppler velocity-based algorithm for Clustering and Velocity Estimation of moving objects (Guo et al., 2022)" beschriebene Verfahren zur Schätzung der Geschwindigkeit berechnet werden.
  • Der FMCW-LiDAR-Sensor kann zusätzlich dazu eingerichtet sein, polarisationsabhängige Intensitäten des von den Messpunkten reflektierten oder remittierten Sendelichts zu erfassen. Dazu weist der FMCW-LiDAR-Sensor eine Auskopplungseinheit auf, die dazu ausgebildet ist, wenigstens einen Teil des von den Messpunkten im Überwachungsbereich reflektierten oder remittierten Sendelichts, im Folgenden auch als Empfangslicht bezeichnet, auszukoppeln und auf einen Polarisationsanalysator zu leiten. Der Polarisationsanalysator ist dazu eingerichtet, die polarisationsabhängigen Intensitäten des Empfangslichts zu messen, beispielswiese durch polarisationsabhängiges Aufteilen des Empfangslichts mit einem polarisierenden Strahlteilerwürfel oder einer Metaoberfläche, und Messen der Intensitäten des aufgeteilten Empfangslichts durch geeignete Detektoren.
  • Bei zeit- und raumdiskreter Abtastung eines dreidimensionalen Überwachungsbereichs kann ein derart eingerichteter FMCW-LiDAR-Sensor somit folgende Messdaten erfassen: M j , k , l = r j , k , l v j , k , l r I j , k , l I j , k , l .
    Figure imgb0002
  • Hierbei bezeichnen rj,k,l den Radialabstand, vr j,k,l die Radialgeschwindigkeit sowie l j,k,l und l j,k,l die polarisationsabhängigen Intensitäten jedes raumdiskreten Messpunktes j,k mit zweidimensionaler, durch Azimutwinkel ϕ und Polarwinkel θ angegebener Position (ϕj, θk ) für jede zeitdiskrete Abtastung l. Zur einfachen Lesbarkeit wird im Folgenden der Index n für eine einmalige zeitdiskrete Abtastung eines raumdiskreten, zweidimensionalen Messpunkts (ϕj, θk ) im dreidimensionalen Überwachungsbereich verwendet.
  • Zur Auswertung der vom FMCW-LiDAR-Sensor zusätzlich erfassten polarisationsabhängigen Intensitäten kann die Steuer- und Auswerteeinheit dazu ausgebildet sein, die Messpunkte unter Verwendung der ortsaufgelösten Radialgeschwindigkeit der Messpunkte und den polarisationsabhängigen Intensitäten des von den Messpunkten reflektierten oder remittierten Sendelichts zu segmentieren und Segmenten des Flugzeugs zuzuordnen.
  • Durch die Verwendung der ortsaufgelösten Radialgeschwindigkeit und den polarisationsabhängigen Intensitäten des von den Messpunkten reflektierten oder remittierten Sendelichts als zusätzliche Parameter ist eine weiter verbesserte Segmentierung der Messdaten möglich. Beispielsweise kann durch Auswertung der polarisationsabhängigen Intensitäten eine verbesserte Erkennung von Cockpitfenstern eines Flugzeuges erfolgen, da von den Fensterscheiben der Cockpitfenster reflektierte Sendelichtstrahlen sich hinsichtlich der polarisationsabhängigen Intensitäten von Sendelichtstrahlen, die vom Rumpf des Flugzeuges reflektiert wurden, unterscheiden.
  • Der FMCW-LiDAR-Sensor kann an einer Fluggastbrücke angeordnet sein und einen vorgegebenen Überwachungsbereich, beispielsweise das der Fluggastbrücke vorgelagerte Vorfeld abtasten. Vorzugsweise kann wenigstens ein weiterer FMCW-LiDAR-Sensor vorgesehen sein, der einen weiteren Überwachungsbereich abtastet, wobei sich die Überwachungsbereiche überlappen können. Dadurch können Abschattungen oder tote Winkel, in denen keine Objekterfassung möglich ist, vermieden werden. Werden zwei oder mehrere FMCW-LiDAR-Sensoren so zueinander angeordnet, dass orthogonal zueinanderstehende Messtrahlen erzeugt werden können, kann durch Verrechnung dieser Messstrahlenpaare ein Geschwindigkeitsvektor eines durch diese Messstrahlen abgetasteten Objekts in der durch die orthogonal zueinanderstehenden Messtrahlen aufgespannten Ebene bestimmt werden.
  • Der Sensor kann als Sicherheitssensor ausgelegt sein, beispielsweise im Sinne der Normen EN13849 für Maschinensicherheit und die Gerätenorm IEC61496 oder der EN61496 für berührungslos wirkende Schutzeinrichtungen (BWS). Der Sensor arbeitet dann besonders zuverlässig und erfüllt hohe Sicherheitsanforderungen, und kann eine redundante, diversitäre Elektronik, eine redundante Funktionsüberwachung oder eine spezielle Überwachung von Verschmutzungen optischer Bauteile aufweisen. Die Steuer- und Auswertungseinheit kann dann insbesondere dazu eingerichtet sein, Messpunkte zu Objekten zusammenzufassen, die nicht Teil des Flugzeugs sind, beispielsweise auf dem Vorfeld befindliche Personen oder Fahrzeuge, Merkmale dieser Objekte extrahieren, und beispielsweise bei Feststellung eines nicht autorisierten Objekts auf dem Vorfeld eine sicherheitsgerichtete Aktion auslösen, beispielsweise das Abgeben eines optischen und/oder akustischen Warnsignals. Damit kann die Vorrichtung zusätzlich zur Positionierung des Flugzeugs zur Vorfeldüberwachung eingesetzt werden.
  • Die Steuer- und Auswertungseinheit kann wenigstens einen digitalen Rechenbaustein aufweisen und in den Sensor integriert oder daran angeschlossen sein, etwa in Form einer übergeordneten Steuerung, die die Positionierungsinformation des Flugzeugs an das Flugzeug selbst übermittelt. Zumindest Teile der Funktionalität können auch in einem Remote-System oder einer Cloud implementiert sein.
  • Das erfindungsgemäße Verfahren kann auf ähnliche Weise weitergebildet werden und zeigt dabei ähnliche Vorteile. Derartige vorteilhafte Merkmale sind beispielhaft, aber nicht abschließend in den sich an die unabhängigen Ansprüche anschließenden Unteransprüchen beschrieben.
  • Die Erfindung wird nachstehend auch hinsichtlich weiterer Merkmale und Vorteile beispielhaft anhand von Ausführungsformen und unter Bezug auf die beigefügte Zeichnung näher erläutert. Die Abbildungen der Zeichnung zeigen in:
  • Fig. 1
    ein Beispiel für eine Radialgeschwindigkeitsmessung mit einem FMCW-LiDAR-Sensor;
    Fig. 2
    eine schematische Darstellung einer erfindungsgemäßen Vorrichtung zur Erfassung eines Flugzeugs in einer Seitenansicht;
    Fig. 3
    eine schematische Darstellung einer erfindungsgemäßen Vorrichtung zur Erfassung eines Flugzeugs in einer Frontalansicht;
    Fig. 4
    ein Ablaufdiagram für eine beispielhafte erfindungsgemäße Verarbeitung von Messdaten eines FMCW-LiDAR-Sensors.
  • In Figur 1 ist das Konzept der Radialgeschwindigkeitsmessung mit einem FMCW-LIDAR-Sensor 12 an einem dreidimensionalen Beispiel gezeigt. Bewegt sich ein Objekt 38 mit einer Geschwindigkeit v0 entlang einer Bewegungsrichtung 40 relativ zum FMCW-LiDAR-Sensor 12, kann der FMCW-LiDAR-Sensor 12 neben dem Radialabstand rund der Intensität / eines mit einem Sendelichtstrahl 14 unter einem Azimuthwinkel ϕ und einem Polarwinkel θ einmalig zeitdiskret abgetasteten Messpunkts 20 die Radialgeschwindigkeit vr des Messpunkts 20 des Objekts 38 in Richtung des FMCW-LiDAR-Sensors 12 bestimmen. Diese Information steht direkt mit einer Messung, also einer zeitdiskreten Abtastung des Messpunktes 20 zur Verfügung. Zur Identifikation bewegter Objekte entfällt somit im Unterschied zu Messverfahren, die lediglich ortsaufgelöste Radialabstände, also dreidimensionale Positionen, liefern, die Notwendigkeit einer zweiten Messung und insbesondere die Notwendigkeit, in den Messdaten der zweiten Messung zunächst die Messpunkte zu ermitteln, die den Messpunkten der ersten Messung entsprechen.
  • Im Falle eines statischen FMCW-LiDAR-Sensors ist jeder Messpunkt mit einer Radialgeschwindigkeit von Null in der Regel einem statischen Objekt zugeordnet, sofern sich dieses nicht tangential zum Messstrahl des Sensors bewegt. Aufgrund der endlichen Objektausdehnung und der hohen räumlichen Auflösung des FMCW-LiDAR-Sensors wird praktisch jedes bewegte Objekt wenigstens einen Messpunkt 20 mit einer von Null verschiedenen Radialgeschwindigkeit vr n zum FMCW-LiDAR-Sensor 12 aufweisen. Daher lassen sich bereits mit einer Messung des FMCW-LiDAR-Sensors 12 statische und bewegte Objekte unterscheiden. So können beispielsweise bei einer Erfassung eines sich bewegenden Flugzeugs statische Objekte verworfen werden. Durch eine entsprechende Datenreduktion werden Rechenaufwände bei der weiteren Auswertung der Messdaten reduziert.
  • Figur 2 zeigt eine schematische Darstellung einer erfindungsgemäßen Vorrichtung 10 zur Positionierung eines in Seitenansicht dargestellten Flugzeuges 22 auf einem Vorfeld 24 eines Flughafens. Ein FMCW-LiDAR-Sensor 12 sendet Sendelichtstrahlen 14.1, ..., 14.n in einen dreidimensionalen Überwachungsbereich 16 im Vorfeld 24 aus und erzeugt Messdaten Mn 18 aus von Messpunkten 20.1, ..., 20.n im Überwachungsbereich 16 zurück zum FMCW-LiDAR-Sensor 12 reflektiertem oder remittiertem Sendelicht. Zur Darstellung ist eine begrenzte Zahl beispielhafter Sendelichtstrahlen 14.1, ..., 14.n und Messpunkte 20.1, ..., 20.n gezeigt, die tatsächliche Anzahl ergibt sich durch die Größe des Überwachungsbereichs 16 und die räumliche Auflösung der Abtastung. Die Messpunkte 20.1, ..., 20.n können das im Überwachungsbereich 16 befindliche Flugzeug 22, aber auch Personen 26, Fahrzeuge (nicht gezeigt), oder das Vorfeld 24 selbst repräsentieren.
  • Die von einer Steuer- und Auswerteeinheit 32 empfangenen Messdaten Mn 18 des FMCW-LiDAR-Sensors 12 umfassen für jede zeitdiskrete Abtastung neben den Radialabständen rn und den Intensitäten In , also der remittierten oder reflektierten Sendelichtmenge, insbesondere die Radialgeschwindigkeiten vr n der Messpunkte 20.1, ..., 20.n, wobei mit Radialgeschwindigkeit vr n die Geschwindigkeitskomponente eines Messpunkts 20.1, ..., 20.n bezeichnet wird, mit der sich der Messpunkt 20.1, ..., 20.n auf den FMCW-LiDAR-Sensor 12 zu oder vom FMCW-LiDAR-Sensor 12 weg bewegt.
  • Die Steuer- und Auswertungseinheit 32 weist wenigstens einen digitalen Rechenbaustein auf, beispielsweise wenigstens einen Mikroprozessor, wenigstens ein FPGA (Field Programmable Gate Array), wenigstens einen DSP (Digital Signal Processor), wenigstens ein ASIC (Application-Specific Integrated Circuit), wenigstens eine VPU (Video Processing Unit) oder wenigstens einen Neural Processor. Die Steuer- und Auswertungseinheit 32 kann überdies zumindest teilweise extern des FMCW-LiDAR-Sensors 12 vorgesehen sein, etwa in einer übergeordneten Steuerung, einem angeschlossenen Netzwerk, einem Edge-Device oder einer Cloud.
  • Die Messdaten Mn 18 werden von der Steuer- und Auswerteeinheit 32 ausgewertet, wobei die Steuer- und Auswerteeinheit 32 dazu eingerichtet ist, die Messpunkte 20.1, ..., 20.n zu segmentieren, zumindest teilweise zu Segmenten des Flugzeugs 22, wie beispielsweise dem Rumpf 22.2, den Rädern 22.2 des Hauptfahrwerks, den Triebwerken 22.3, dem Cockpitfenster 22.4 oder der Flugzeugnase 22.5 zusammenzufassen, Merkmale der Segmente 22.1,....22.n zu extrahieren, die Segmente 22.1,...., 22.n anhand der extrahierten Merkmale einem Flugzeugtyp aus einer Vielzahl von Flugzeugtypen zuzuordnen und basierend auf dem zugeordneten Flugzeugtyp eine Positionierungsinformation für das Flugzeug 22 über eine Schnittstelle 34 der Steuer- und Auswerteeinheit 32 auszugeben. An der Schnittstelle 34 kann beispielsweise eine Ausgabeeinheit 36 angeschlossen sein, die einem Piloten die Positionierungsinformation beispielsweise in Form eines Abstandes zu einer typspezifischen Parkposition des Flugzeugs 22 anzeigt.
  • Die Steuer- und Auswerteeinheit 32 kann beispielsweise unter Verwendung der Radialgeschwindigkeiten vr n der Messpunkte 20.1, ..., 20.n Bewegungsmuster der Objektsegmente 22.1, ..., 22.5 bestimmen, beispielsweise eine Rotation 26 der Räder 22.2 des Hauptfahrwerks, und die erfassten Bewegungsmuster zur Extraktion von Merkmalen der Segmente 22.1, ..., 22.n verwenden.
  • Die Steuer- und Auswerteeinheit 32 kann weiterhin unter Verwendung der Radialgeschwindigkeiten vr n der Messpunkte 20.1, ..., 20.n eine Geschwindigkeit v0 entlang einer Bewegungsrichtung 27 des Flugzeugs 22 bestimmen, beispielsweise unter Verwendung eines Verfahrens, wie es in der wissenschaftlichen Veröffentlichung "Doppler velocity-based algorithm for Clustering and Velocity Estimation of moving objects (Guo et al., 2022)" beschrieben wird.
  • Figur 3 zeigt eine schematische Darstellung der erfindungsgemäßen Vorrichtung 10 aus Figur 2, wobei das Flugzeug 22 in Frontalansicht gezeigt ist. Identische Teile sind mit identischen Bezugszeichen versehen. Der FMCW-Lidar-Sensor 12 ist an einer Fluggastbrücke 28 angeordnet.
  • Die Steuer- und Auswerteeinheit (hier nicht gezeigt) kann beispielsweise unter Verwendung der Radialgeschwindigkeiten vr n von Messpunkten, die die Triebwerksschaufeln 30 des Triebwerks 22.3 erfassen, ein Bewegungsmuster der Triebwerksschaufeln 30 bestimmen, beispielsweise eine Rotation 32 der Triebwerksschaufeln 30. Da die Triebwerksschaufeln durch ihre Rotation ein sehr spezifisches Bewegungsmuster aufweisen, welches sich von Bewegungsmustern anderer Segmente des Flugzeugs 22 deutlich unterscheidet. Lässt sich die Position der Triebwerksschaufeln 30 beziehungsweise des Triebwerks 22.3 besonders zuverlässig erkennen.
  • Figur 4 zeigt in einem Ablaufdiagramm 42 eine beispielhafte erfindungsgemäße Verarbeitung der vom FMCW-LiDAR-Sensor 12 erfassten Messdaten durch die Steuer- und Auswerteeinheit 32. Nach dem Empfang 44 der Messdaten werden in einem Segmentierungsschritt 46 die Messpunkte 20.1, ..., 20.n segmentiert und zu Segmenten 22.1, ..., 22.5, des Flugzeugs 22 zusammengefasst, wobei zusätzlich zu den üblicherweise zur Segmentierung 46 verwendeten Ortskoordinaten und Intensitäten der Messpunkte insbesondere die ortsaufgelösten Radialgeschwindigkeiten vr n der Messpunkte 20.1, ..., 20.n berücksichtigt werden können. Segmente des Flugzeugs können beispielsweise der Rumpf 22.2, die Räder 22.2 des Hauptfahrwerks, die Triebwerke 22.3, das Cockpitfenster 22.4 oder die Flugzeugnase 22.5 sein.
  • Die Segmentierung 46 kann beispielsweise nach den oben genannten Verfahren der digitalen Bildverarbeitung beziehungswiese des maschinellen Sehens oder der "Range segmentation" erfolgen.
  • Durch die Verwendung der Radialgeschwindigkeit vr n zusätzlich zum Radialabstand rn und der Intensität In der Messpunkte 20.1, ..., 20.n kann die Segmentierung 46 der Messpunkte 20.1, ..., 20.n mit den oben aufgeführten Verfahren effizienter und genauer erfolgen. Beispielsweise können Messpunkte 20.1, ..., 20.n, mit Radialgeschwindigkeiten vr n kleiner, größer oder gleich einem vorgegebenen Schwellenwert verworfen und keiner weiteren Auswertung zugeführt werden. Wird ein Objekt wie das Flugzeug 22 und/oder Objektsegment wie die Flugzeugnase 22.5 durch mehrere raumdiskrete Messpunkte abgetastet und sind die dazugehörigen Radialgeschwindigkeiten unterscheidbar, können statische und dynamische Objekte und/oder Objektsegmente unterschieden werden und so stationäre Objekte wie das Vorfeld 24, bereits vor beziehungsweise während der Segmentierung 46 der Messpunkte 20.1, ..., 20.n, verworfen und der Rechenaufwand durch Datenreduktion vermindert werden.
  • Im nächsten Schritt erfolgt eine Merkmalsextraktion 48 der während der Segmentierung 46 definierten Segmente 22.1, ..., 22.5. Typische Merkmale, die bei der Verarbeitung der Messdaten aus den Segmenten 22.1, ..., 22.5 extrahiert werden können, sind beispielsweise Breite, Anzahl der Messpunkte oder Länge des Umfangs der Segmente, oder weitere Merkmale, wie sie beispielsweise in der wissenschaftlichen Veröffentlichung "A Layered Approach to People Detection in 3D Range Data" (Spinello et al., Proceedings of the Twenty-Fourth AAAI Conference on Artificial Intelligence, AAAI 2010) beschrieben sind.
  • Nach der Merkmalsextraktion 48 erfolgt eine Zuordnung beziehungsweise Klassifikation 50 der Segmente 22.1, ..., 22.5 zu einem Flugzeugtyp aus einer Vielzahl von Flugzeugtypen mit bekannten Klassifizierungsverfahren wie beispielsweise Bayes-Klassifikatoren, Support Vector Machines oder künstlichen neuronalen Netzen. Im Rahmen der Zuordnung wird der Merkmalsraum nach Gruppen von Merkmalen durchsucht, die ein Segment 22.1, ..., 22.5 definieren.
  • Basierend auf dem Ergebnis der Klassifikation 50 kann auf Basis des identifizierten Flugzeugtyps eine Ausgabe 52 einer Positionierungsinformation für das Flugzeug 22 erfolgen. Die Positionierungsinformation kann dabei Informationen zur Entfernung und/oder Richtungsangaben zu einer flugzeugtypspezifischen Parkposition für das Flugzeug 22 enthalten und auf einer Anzeigeeinheit für eine Besatzung des Flugzeugs dargestellt werden.

Claims (15)

  1. Vorrichtung (10) zur Positionierung eines Flugzeuges (22) in einem Überwachungsbereich (16) eines Vorfelds (24) eines Flughafens mit wenigstens einem optoelektronischen Sensor (12) zum Aussenden von Sendelichtstrahlen (14, ..., 14.n) in den Überwachungsbereich (16), zum Abtasten einer Vielzahl von Messpunkten (20.1, ..., 20n) und zum Erzeugen von Messdaten (18) aus von den Messpunkten (20.1, ..., 20n) remittiertem oder reflektiertem Sendelicht,
    - einer Steuer- und Auswerteeinheit (32) zur Auswertung der Messdaten (18), wobei die Steuer- und Auswerteeinheit (32) dazu eingerichtet ist, die Messpunkte (20.1, ..., 20n) zu segmentieren, zumindest teilweise zu Segmenten (22.1, ..., 22.5) des Flugzeuges (22) zusammenzufassen, Merkmale der Segmente (22.1, ..., 22.5) zu extrahieren, die Segmente (22.1, ..., 22.5) anhand der extrahierten Merkmale einem Flugzeugtyp aus einer Vielzahl von Flugzeugtypen zuzuordnen und basierend auf dem zugeordneten Flugzeugtyp eine Positionierungsinformation für das Flugzeug (22) auszugeben,
    dadurch gekennzeichnet, dass der wenigstens eine optoelektronische Sensor (12) ein FMCW-LIDAR-Sensor ist, und die Messdaten (18) Radialgeschwindigkeiten (vr n ) der Messpunkte (20.1, ..., 20n) umfassen.
  2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Steuer- und Auswerteeinheit (32) dazu ausgebildet ist, die Messpunkte (20.1, ..., 20n) unter Verwendung der Radialgeschwindigkeiten (vr n ) der Messpunkte (20.1, ..., 20n) zu segmentieren.
  3. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Steuer- und Auswerteeinheit (32) dazu ausgebildet ist, die Messpunkte (20.1, ..., 20n) zumindest teilweise unter Verwendung der Radialgeschwindigkeiten (vr n ) der Messpunkte (20.1, ..., 20n) zu Segmenten (22.1, ..., 22.5) des Flugzeuges (22) zuzuordnen.
  4. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Steuer- und Auswerteeinheit (32) dazu ausgebildet ist, Merkmale der Segmente (22.1, ..., 22.5) unter Verwendung der Radialgeschwindigkeiten (vr n ) der den Segmenten (22.1, ..., 22.5) zugeordneten Messpunkte (20.1, ..., 20.5) zu extrahieren.
  5. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Steuer- und Auswerteeinheit (32) dazu ausgebildet ist, unter Verwendung der Radialgeschwindigkeiten (vr n ) der den Segmenten (22.1, ..., 22.5) zugeordneten Messpunkte (20.1, ..., 20.5) ein Bewegungsmuster wenigstens eines der Segmente (22.1, ..., 22.5) zu bestimmen.
  6. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die Steuer- und Auswerteeinheit (32) dazu ausgebildet ist, die Messpunkte (20.1, ..., 20n) unter Verwendung der Radialgeschwindigkeit (vr n ) der Messpunkte (20.1, ..., 20n) zu filtern.
  7. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die Steuer- und Auswerteeinheit (32) dazu ausgebildet ist, unter Verwendung der Radialgeschwindigkeit (vr n ) der Messpunkte (20.1, ..., 20n) eine Geschwindigkeit (vo) entlang einer Bewegungsrichtung (27) des Flugzeugs (22) zu bestimmen.
  8. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der FMCW-LiDAR-Sensor dazu eingerichtet ist, polarisationsabhängige Intensitäten (I n , I n ) des von den Messpunkten (20.1, ..., 20n) remittierten oder reflektierten Sendelichts zu erfassen und die Messdaten (18) die polarisationsabhängigen Intensitäten (I n , I n ) umfassen.
  9. Vorrichtung nach Anspruch 8, dadurch gekennzeichnet, dass die Steuer- und Auswerteeinheit (32) dazu ausgebildet ist, die Messpunkte (20.1, ..., 20n) unter Verwendung der polarisationsabhängigen Intensitäten (I n , I n ) zu segmentieren und zumindest teilweise zu Segmenten (22.1, ..., 22.5) des Flugzeuges (22) zusammenzufassen.
  10. Vorrichtung nach Anspruch 8, dadurch gekennzeichnet, dass die Steuer- und Auswerteeinheit (32) dazu ausgebildet ist, die Messpunkte (20.1, ..., 20n) unter Verwendung der polarisationsabhängigen Intensitäten (I n , I n ) zu filtern.
  11. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die Vorrichtung wenigstens einen weiteren FMCW-LiDAR-Sensor mit einem weiteren Überwachungsbereich aufweist und sich der Überwachungsbereich (16) mit dem weiteren Überwachungsbereich zumindest teilweise überschneidet.
  12. Verfahren zur Erfassung eines Flugzeuges (22) in einem Überwachungsbereich (16) eines Vorfelds (24) eines Flughafens mit den Schritten:
    - Aussenden von Sendelichtstrahlen (14, 14.1, ..., 14.n) in den Überwachungsbereich (16) mit wenigstens einem FMCW-LiDAR-Sensor (12),
    - Abtasten einer Vielzahl von Messpunkten (20.1, ..., 20n) im Überwachungsbereich (16),
    - Erzeugen von Messdaten (18) aus von den Messpunkten (20.1, ..., 20n) remittiertem oder reflektiertem Sendelicht, wobei die Messdaten (18) Radialgeschwindigkeiten (vr n ) der Messpunkte (20.1, ..., 20n) umfassen,
    - Segmentieren (46) der Messpunkte (20.1, ..., 20n) und zumindest teilweises Zusammenfassen der Messpukte (20.1, ..., 20.5) zu Segmenten (22.1, ..., 22.5) des Flugzeugs (22);
    - Extrahieren (48) von Merkmalen der Segmente (22.1, ..., 22.5);
    - Zuordnen (50) der Segmente (22.1, ..., 22.5) zu einem Flugzeugtyp aus einer Vielzahl von Flugzeugtypen anhand der extrahierten Merkmale;
    - Ausgeben einer Positionierungsinformation für das Flugzeug (22) basierend auf dem zugeordneten Flugzeugtyp.
  13. Verfahren nach Anspruch 10, wobei das Segmentieren (48) der Messpunkte (20.1, ..., 20n) und das zumindest teilweise Zuordnen der Messpukte (20.1, ..., 20.5) zu den Objektsegmenten (22.1, ..., 22.5) unter Verwendung der Radialgeschwindigkeiten (vr n ) der Messpunkte (20.1, ..., 20n) erfolgt.
  14. Verfahren nach Anspruch 9 oder 10 mit dem weiteren Schritt
    - Bestimmen eines Bewegungsmusters wenigstens eines der Segmente (22.1, ..., 22.5) unter Verwendung der Radialgeschwindigkeiten (vr n ) der den Segmenten (22.1, ..., 22.5) zugeordneten Messpunkte (20.1, ..., 20.5).
  15. Verfahren nach einem der Ansprüche 9 bis 11 mit dem weiteren Schritt:
    - Filtern der Messpunkte (20.1, ..., 20n) unter Verwendung der Radialgeschwindigkeiten (vr n ) der Messpunkte (20.1, ..., 20n).
EP22200957.3A 2022-10-11 2022-10-11 Vorrichtung und verfahren zur positionierung eines flugzeuges Pending EP4354174A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP22200957.3A EP4354174A1 (de) 2022-10-11 2022-10-11 Vorrichtung und verfahren zur positionierung eines flugzeuges

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP22200957.3A EP4354174A1 (de) 2022-10-11 2022-10-11 Vorrichtung und verfahren zur positionierung eines flugzeuges

Publications (1)

Publication Number Publication Date
EP4354174A1 true EP4354174A1 (de) 2024-04-17

Family

ID=83690526

Family Applications (1)

Application Number Title Priority Date Filing Date
EP22200957.3A Pending EP4354174A1 (de) 2022-10-11 2022-10-11 Vorrichtung und verfahren zur positionierung eines flugzeuges

Country Status (1)

Country Link
EP (1) EP4354174A1 (de)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4301637C2 (de) 1993-01-22 1997-05-22 Daimler Benz Aerospace Ag Verfahren zum Andocken eines Flugzeuges an eine Fluggastbrücke eines Flughafengebäudes
EP1015313B1 (de) 1997-09-22 2003-03-12 Siemens Aktiengesellschaft Dockingsystem für flughafenterminals
US7702453B2 (en) 2007-03-23 2010-04-20 Dew Engineering And Development Ulc System and method for guiding an aircraft to a stopping position
EP2109065B1 (de) 1999-10-29 2015-08-19 Safegate International AB Flugzeugidentifizierungs- und -andockanleitungssysteme
CN113721253A (zh) * 2021-08-30 2021-11-30 杭州视光半导体科技有限公司 基于fmcw激光雷达的运动物体速度检测方法
US20220066025A1 (en) * 2019-01-11 2022-03-03 Adb Safegate Sweden Ab Airport stand arrangement
US20220137227A1 (en) * 2020-11-02 2022-05-05 Waymo Llc Point cloud segmentation using a coherent lidar for autonomous vehicle applications
EP4030188A1 (de) * 2021-01-15 2022-07-20 Sick Ag Vorrichtung und verfahren zum absichern eines überwachungsbereiches

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4301637C2 (de) 1993-01-22 1997-05-22 Daimler Benz Aerospace Ag Verfahren zum Andocken eines Flugzeuges an eine Fluggastbrücke eines Flughafengebäudes
EP1015313B1 (de) 1997-09-22 2003-03-12 Siemens Aktiengesellschaft Dockingsystem für flughafenterminals
EP2109065B1 (de) 1999-10-29 2015-08-19 Safegate International AB Flugzeugidentifizierungs- und -andockanleitungssysteme
US7702453B2 (en) 2007-03-23 2010-04-20 Dew Engineering And Development Ulc System and method for guiding an aircraft to a stopping position
US20220066025A1 (en) * 2019-01-11 2022-03-03 Adb Safegate Sweden Ab Airport stand arrangement
US20220137227A1 (en) * 2020-11-02 2022-05-05 Waymo Llc Point cloud segmentation using a coherent lidar for autonomous vehicle applications
EP4030188A1 (de) * 2021-01-15 2022-07-20 Sick Ag Vorrichtung und verfahren zum absichern eines überwachungsbereiches
CN113721253A (zh) * 2021-08-30 2021-11-30 杭州视光半导体科技有限公司 基于fmcw激光雷达的运动物体速度检测方法

Non-Patent Citations (10)

* Cited by examiner, † Cited by third party
Title
BEHLEY ET AL.: "Laser-based segment classification using a mixture of bag-of-words", IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS, DOI: 10.1109/I ROS.2013.6696957, 2013
BOGOSLAVSKYI ET AL.: "Fast Range Image-Based Segmentation of Sparse 3D Laser Scans for Online Operation", IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS, DOI: 10.1109/IROS.2016.7759050, 2016
DOUILLARD ET AL.: "On the segmentation of 3d lidar point clouds", IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION, 2011
GUO ET AL., DOPPLER VELOCITY-BASED ALGORITHM FOR CLUSTERING AND VELOCITY ESTIMATION OF MOVING OBJECTS, 2022
GUO, YULAN ET AL.: "Deep learning for 3d point clouds: A survey", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. 43, no. 12, 2020, pages 4338 - 4364, XP011886434, DOI: 10.1109/TPAMI.2020.3005434
LANG, ALEX H. ET AL.: "Pointpillars: Fast encoders for object detection from point clouds", PROCEEDINGS OF THE IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, 2019
PIERROTTET, D.AMZAJERDIAN, F.PETWAY, L.BARNES, B.LOCKARD, G.RUBIO, M.: "Linear FMCW Laser Radar for Precision Range and Vector Velocity Measurements", MRS PROCEEDINGS, vol. 1076, 2008
SPINELLO ET AL.: "A Layered Approach to People Detection in 3D Range Data", PROCEEDINGS OFTHE TWENTY-FOURTH AAAI CONFERENCE ON ARTIFICIAL INTELLIGENCE, 2010
T. KIM: "Realization of Integrated Coherent LiDAR", 2019, UNIVERSITY OF CALIFORNIA
YAN, YANYUXING MAOBO LI: "Second: Sparsely embedded convolutional detection", SENSORS, vol. 18, no. 10, 2018, pages 3337, XP055866583, DOI: 10.3390/s18103337

Similar Documents

Publication Publication Date Title
EP1267178B1 (de) Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes
EP1788467B1 (de) Schutzeinrichtung
EP4030188B1 (de) Vorrichtung und verfahren zum absichern eines überwachungsbereiches
EP1531343B1 (de) Verfahren zur Verfolgung von Objekten
DE102017102506B4 (de) Verfahren zum erfassen anderer fahrzeuge relativ zu einem trägerfahrzeug mittels raderfassung
DE10258794A1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
EP3435117B1 (de) Sensor und verfahren zur erfassung und abstandsbestimmung von objekten
DE102021100351A1 (de) Adaptive untersuchung für lidar-basiertes gruppieren
DE102017217844A1 (de) Verfahren und ein maschinelles Lernsystem zur Klassierung von Objekten
WO2021213788A1 (de) Verfahren und vorrichtung zum erkennen von blooming in einer lidarmessung
EP2977786B1 (de) Entfernungsmessender sensor zur erfassung und abstandsbestimmungen von objekten
EP3663881B1 (de) Verfahren zur steuerung eines autonomen fahrzeugs auf der grundlage von geschätzten bewegungsvektoren
EP4354174A1 (de) Vorrichtung und verfahren zur positionierung eines flugzeuges
DE202022105739U1 (de) Vorrichtung zur Positionierung eines Flugzeuges
EP3885787B1 (de) Erfassung von abstandsmessdaten
DE102014223741A1 (de) Erfassen von Terahertz-Strahlung zum Unterstützen eines Fahrers eines Fahrzeugs
EP3602124A1 (de) Spad-basiertes lidar-system
EP3663800B1 (de) Verfahren zur objekterfassung mit einer 3d-kamera
EP4310541A1 (de) Vorrichtung und verfahren zur erfassung von objekten in einem überwachungsbereich
DE202022104108U1 (de) Vorrichtung zur Erfassung von Objekten in einem Überwachungsbereich
EP4310547A1 (de) Vorrichtung und verfahren zur erfassung von objekten
DE202022104107U1 (de) Vorrichtung zur Erfassung von Objekten
DE202021100171U1 (de) Vorrichtung zum Absichern eines Überwachungsbereiches
EP3715908A1 (de) Verfahren und vorrichtung zur optischen distanzmessung
DE102019220209B3 (de) Ermitteln einer Relativbewegung

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN PUBLISHED

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC ME MK MT NL NO PL PT RO RS SE SI SK SM TR