ES2271508T3 - Procedimiento de guiado de una aeronave en fase final de aterrizaje y dispositivo correspondiente. - Google Patents

Procedimiento de guiado de una aeronave en fase final de aterrizaje y dispositivo correspondiente. Download PDF

Info

Publication number
ES2271508T3
ES2271508T3 ES03352001T ES03352001T ES2271508T3 ES 2271508 T3 ES2271508 T3 ES 2271508T3 ES 03352001 T ES03352001 T ES 03352001T ES 03352001 T ES03352001 T ES 03352001T ES 2271508 T3 ES2271508 T3 ES 2271508T3
Authority
ES
Spain
Prior art keywords
segments
image
runway
landing
aircraft
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES03352001T
Other languages
English (en)
Inventor
Paul Henry Robert
Guy Juanole
Michel Devy
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airbus Operations SAS
Original Assignee
Airbus Operations SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Airbus Operations SAS filed Critical Airbus Operations SAS
Application granted granted Critical
Publication of ES2271508T3 publication Critical patent/ES2271508T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/04Control of altitude or depth
    • G05D1/06Rate of change of altitude or depth
    • G05D1/0607Rate of change of altitude or depth specially adapted for aircraft
    • G05D1/0653Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing
    • G05D1/0676Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing specially adapted for landing

Abstract

Procedimiento de guiado en fase final de aterrizaje para una aeronave que consta de las etapas siguientes: a) toma de vista del suelo a partir de un dispositivo de toma de vista (2) situado a bordo de la aeronave y obtención de una imagen (56, 56''), b) análisis de la imagen (56) por un calculador (4) con el fin de detectar una zona aeroportuaria, c) detección por el calculador (4) de una zona aeroportuaria y selección de una pista (18) para el aterrizaje, d) seguimiento de la pista de aterrizaje (18) seleccionada durante la aproximación de la aeronave, marcando el calculador (4) en las imágenes suministradas por el dispositivo de toma de vista (2) la pista de aterrizaje seleccionada, e) seguimiento de la pista de aterrizaje cuando la aeronave está muy próxima al suelo, analizando el calculador (4) imágenes (56'') suministradas por el dispositivo de toma de vista con el fin de determinar la posición de la aeronave con respecto a la pista de aterrizaje.

Description

Procedimiento de guiado de una aeronave en fase final de aterrizaje y dispositivo correspondiente.
El presente invento se refiere a un procedimiento de guiado de un avión en fase final de aterrizaje así como a un dispositivo para la aplicación de este procedimiento.
Existen varios sistemas de guiado que procuran una ayuda para la navegación y el guiado de un avión. Los sistemas conocidos actualmente se denominan ILS, MLS, GPS, APALS.
El sistema ILS (Instrument Landing System o sistema de aterrizaje mediante instrumentos) funciona con la ayuda de radiobalizas instaladas a lo largo de una ruta de aproximación de un aeropuerto y de los receptores correspondientes instalados a bordo del avión. Estos receptores cooperan con indicadores a bordo que informan al piloto sobre su posición relativa con respecto a una trayectoria ideal. Estos indicadores tienen una aguja horizontal y una aguja vertical, y conservando estas dos agujas centradas el piloto puede mantener su avión alineado en la línea central de la pista manteniendo una pendiente de descenso lo más constante posible hasta el aterrizaje.
El sistema MLS (Microwave Landing System o sistema de aterrizaje por microondas) funciona sensiblemente como el sistema ILS pero utiliza microondas y no haces radioeléctricos. Debido a esto, el sistema MLS muestra con respecto al sistema ILS una mayor inmunidad a las señales reflejadas en los edificios que rodean la pista de aterrizaje.
Varios sistemas utilizan la tecnología GPS (Global Positioning System o sistema de posicionamiento global). Estos sistemas funcionan con ayuda de una constelación de satélites en órbita alrededor de la tierra. Un aparato a bordo del avión determina la posición de éste utilizando la medida de las distancias que lo separan de varios satélites cuyas posiciones se conocen. Correlacionando la posición del avión y la de la pista de aterrizaje, se puede suministrar una ayuda al piloto. Numerosos aviones utilizan ya la información GPS como una ayuda suplementaria (con respecto a los sistemas clásicos como las centrales inerciales) para encontrar su ruta en el cielo. Sin embargo, los sistemas de tipo GPS no son lo suficientemente precisos para permitir el guiado de un avión hasta en su fase final de aterrizaje. En efecto, la precisión de los sistemas GPS es del orden de una decena de metros, lo que no es suficiente para garantizar a un avión posarse en una pista de aterrizaje y no al lado de ésta.
El sistema APALS (Autonomous Precision Approach Landing System o sistema de aproximación y de aterrizaje autónomo de precisión) es en su versión básica un sistema autónomo. Su principio se basa en la utilización de antenas fijas y en el radar meteorológico. Este sistema utiliza imágenes del radar meteorológico con su propio conocimiento del terreno para determinar la posición y la altitud del avión. Este sistema puede combinarse con un sistema ILS y/o GPS. A priori, tal sistema APALS no ha sido nunca montado en un avión en condiciones operativas.
El principal inconveniente de estos dispositivos es que necesitan la presencia de instalaciones terrestres. Incluso para el APALS, que es un sistema autónomo, son necesarias antenas fijas exteriores.
El presente invento tiene por tanto como objeto suministrar un procedimiento de guiado en fase final de aterrizaje que sea totalmente autónomo y no requiera instalación específica en el terreno para realizar un aterrizaje del avión.
Con este fin, propone un procedimiento de guiado en fase final de aterrizaje para una aeronave, que tiene las etapas siguientes:
a) toma de vista del terreno a partir de un dispositivo de toma de vista situado a bordo de la aeronave y obtención de una imagen,
b) análisis de la imagen con objeto de detectar una zona aeroportuaria,
c) detección de una zona aeroportuaria y selección de una pista para el aterrizaje,
d) seguimiento de la pista de aterrizaje seleccionada durante la aproximación de la aeronave por seguimiento visual sobre las imágenes suministradas por el dispositivo de toma de vista de la pista de aterrizaje seleccionada,
e) seguimiento de la pista de aterrizaje cuando la aeronave está muy próxima al terreno mediante análisis de las imágenes suministradas por el dispositivo de toma de vista con objeto de determinar la posición de la aeronave con respecto a la pista de aterrizaje.
Tal procedimiento de guiado permite sin necesitar medios exteriores a la aeronave ayudar al piloto en una fase final de aterrizaje o también incluso suministrar a un sistema de pilotaje automático informaciones para realizar un aterrizaje automático.
En este procedimiento de guiado las etapas se desarrollan preferentemente en el orden indicado de a) a e). No obstante, son posibles modificaciones en el desarrollo de estas etapas. Así, por ejemplo si la pista se pierde en el curso del seguimiento de la etapa d), se puede realizar una reiniciación que consiste en volver a la etapa b).
A continuación se propone una manera original para la realización de la etapa b) del procedimiento de guiado. Se trata en esta etapa de reconocer en una imagen 2D segmentos que son paralelos en el espacio 3D representado. Se sabe que dos líneas paralelas en el espacio 3D, cuando son fotografiadas, lo más frecuente es que no se mantienen paralelas a menudo en la foto 2D realizada. Aquí se propone una forma original de identificar sobre una imagen plana líneas paralelas en el espacio. En la etapa b) del procedimiento de guiado descrito anteriormente, de forma original, se puede prever que el análisis se realiza buscando en la imagen segmentos de rectas sensiblemente paralelos y que la detección de una pista de aterrizaje se realiza emparejando tales segmentos de recta. Por supuesto, esta forma de actuar para identificar una pista de aterrizaje podría adaptarse a la identificación de otros objetos que tienen en el espacio líneas paralelas.
La búsqueda de segmentos paralelos se realiza preferentemente dividiendo de forma regular el intervalo de las direcciones posibles [-\pi/2; \pi/2] en N clases y asociando cada segmento a una clase, considerándose entonces dos segmentos como paralelos si pertenecen a una misma clase. Pueden entonces definirse condiciones suplementarias para considerar que dos segmentos "paralelos" de la imagen corresponden a dos segmentos paralelos del espacio. Así, dos segmentos "paralelos" serán seleccionados cuando se cumplan las condiciones siguientes:
-
estos segmentos pertenecen a una misma clase de direcciones,
-
cada uno de estos segmentos tiene una longitud mínima,
-
estos dos segmentos están enfrentados con una tasa de recubrimiento mínima,
-
la distancia que separa estos dos segmentos es inferior a un valor predeterminado.
Estas condiciones están especialmente adaptadas a la búsqueda de una zona aeroportuaria en una imagen 2D tomada desde avión a distancia de esta zona. Para la búsqueda de otros objetos que tienen segmentos característicos paralelos en el espacio 3D se podrán escoger otras condiciones.
Para completar la búsqueda de una zona aeroportuaria (o de otro objeto) es factible, para cada par de segmentos paralelos, determinar un punto de fuga, que es el punto de intersección teórico de dos segmentos sensiblemente paralelos, y dos pares de segmentos se reagrupan a continuación en la medida en la que la distancia entre los dos puntos de fuga correspondientes es inferior a un umbral predeterminado.
En el proceso de guiado descrito anteriormente la etapa d) de seguimiento de la pista de aterrizaje aplica, por ejemplo, un procedimiento de seguimiento visual que consta de las siguientes etapas:
d1) iniciación: la pista de aterrizaje seleccionada es extraída de la imagen y es modelizada y se define una ventana en la que la pista ha sido encontrada,
d2) predicción: se predice la posición de la pista de aterrizaje en la imagen en curso en función de la posición ocupada en la imagen precedente y se define una ventana correspondiente,
d3) extracción de características: se suministra una representación adaptada de los contornos y/o puntos de interés de la ventana,
d4) emparejamiento: se busca la pista de aterrizaje en la ventana en función de la predicción, y
d5) si es necesario, actualización de la representación de la pista de aterrizaje y/o de la velocidad del movimiento aparente de esta pista,
siendo las etapas d2) a d5) etapas iterativas.
La etapa de predicción, en el caso presente de seguimiento de pista de aterrizaje en fase final de aproximación de una aeronave, puede eventualmente ser omitida.
El seguimiento de la pista de aterrizaje en la etapa e) por ejemplo, se realiza analizando en la imagen en curso el color y la textura de sus píxeles con objeto de clasificar estos píxeles como pertenecientes o no a la pista de aterrizaje.
En otra forma de realización del procedimiento de guiado según el invento, el seguimiento de la pista de aterrizaje en la etapa e) puede realizarse buscando en la imagen el borde de la pista y/o un marcado en la pista.
El paso de la etapa d) a la etapa e) puede estar sujeto a la realización de una condición predeterminada. A título de ejemplo, el paso de la etapa d) a la etapa e) puede realizarse cuando el umbral de la pista no es ya visible en las imágenes. Se supone aquí que la pista de aterrizaje tiene dos bordes longitudinales paralelos unidos a un extremo por un umbral.
El presente invento se refiere también a un dispositivo de guiado en fase final de aterrizaje de una aeronave, que tiene al menos un calculador y un visualizador situado en la cabina, caracterizado porque tiene una cámara unida a dicho calculador, porque dicho calculador tiene medios para efectuar la toma y el tratamiento de imágenes de vídeo, y porque dicho calculador está unido al visualizador situado en la cabina.
La cámara utilizada es ventajosamente una cámara de tipo CCD (Charge Coupled Device o dispositivo de transferencia de carga).
En una forma de realización preferida, el dispositivo de guiado tiene al menos dos cámaras de vídeo.
Preferentemente, cada cámara está unida a dicho calculador a través de una unión por fibra óptica.
Para permitir la realización de aterrizajes automáticos, el dispositivo de guiado es ventajosamente tal que el calculador está unido a un dispositivo de pilotaje automático.
Finalmente, el presente invento se refiere también a una aeronave, caracterizada porque tiene un dispositivo de guiado tal como el anteriormente descrito.
Los detalles y ventajas del presente invento se verán mejor a partir de la descripción que sigue, realizada con referencia al dibujo esquemático anejo, en el que:
la figura 1 es un organigrama general de un procedimiento según el invento,
la figura 2 representa de forma esquemática un dispositivo para la aplicación del procedimiento representado esquemáticamente en la figura 1,
la figura 3 representa una imagen en la que aparece de forma esquemática una pista de aterrizaje,
la figura 4 muestra a título de ejemplo una imagen de segmento característica extraída de una imagen tomada por una cámara,
la figura 5 representa intervalos de direcciones posibles para la búsqueda de pares de segmentos paralelos,
la figura 6 ilustra la creación de agrupamientos de pares de segmentos paralelos,
la figura 7 ilustra la noción de punto de fuga,
la figura 8 representa una imagen que corresponde a la de la figura 4 después de su tratamiento,
la figura 9 es un organigrama de la primera fase del procedimiento de la figura 1,
la figura 10 es un organigrama de la segunda fase del procedimiento de la figura 1, y
la figura 11 representa un organigrama utilizable para la tercera fase del procedimiento de la figura 1.
La descripción que sigue se refiere a la percepción por cámara de vídeo aplicada a una función automática de aterrizaje de aeronaves, por ejemplo de aviones civiles. El procedimiento y el dispositivo descritos a continuación suministran a un piloto de avión un sistema de aproximación final de aterrizaje automático que hace el avión lo más autónomo posible con respecto al entorno exterior del avión. En lo que sigue se extrae, en las imágenes de vídeo tomadas por una cámara y tratadas por un calculador, una separación del avión en lateral y vertical con objeto de enviar estas informaciones, por ejemplo, a un sistema de control y de pilotaje automático del avión. El presente invento se refiere más particularmente a los aspectos de percepción, es decir a la toma y tratamiento de la imagen, más que a los aspectos de mando y de servidumbre para los que son factibles varias posibilidades. Según una primera posibilidad, el piloto del avión desempeña el papel del comparador y actúa sobre el pilotaje del avión en función de las informaciones visuales recibidas por el sistema de ayuda al aterrizaje. Una segunda posibilidad se refiere a una solución automática completa en la que el sistema de ayuda al aterrizaje está acoplado a un sistema de pilotaje automático. Estas dos posibilidades existen ya con sistemas de la técnica anterior del tipo ILS (Instrument Landing System).
Un dispositivo según el invento para ayudar al piloto en fase final tiene (figura 2), en un modo de realización preferido, una cámara 2, un calculador 4, varios visualizadores 6, y un dispositivo de pilotaje automático 8.
Una sola cámara es necesaria en el presente invento. Sin embargo, como habitualmente en los sistemas aeronáuticos, es preferible tener una segunda cámara en caso, por ejemplo, de fallo de la primera. Esta segunda cámara está representada en líneas de puntos en la figura 2. Cada cámara 2 es una cámara del tipo CCD (Charge Coupled Device o dispositivo de transferencia de carga). Una fibra óptica une cada cámara 2 con el calculador 4. Se trata, por ejemplo, de un calculador del tipo CIU (Camara Interface Unit). La cámara tiene medios para comprimir al formato MJPEG las imágenes de vídeo que transmite al calculador 4. Cada cámara 2 trabaja en el campo de lo visible. Se elegirá preferentemente una cámara que sea lo más inmune a las variaciones de iluminación debidas al tiempo, a la hora del día, a la niebla, a la lluvia etc... En función de la calidad de la cámara el dispositivo puede o no puede funcionar en todo momento.
El calculador del tipo CIU tiene como fin realizar la toma de las señales de vídeo en el formato MJPEG salidas de la o las cámaras 2, la descompresión de estas imágenes, así como realizar el tratamiento de estas imágenes como se describe más adelante. Este calculador debe también transmitir imágenes a los visualizadores 6 e informaciones al dispositivo de pilotaje automático 8. A la izquierda de la figura 2, las flechas en líneas de puntos indican que el calculador está también unido a otros componentes del avión tales como, por ejemplo, a una central inercial o a sondas radioeléctricas.
Los visualizadores 6 son del mismo tipo que los que generalmente se encuentran en una cabina de avión. Estos visualizadores están normalmente destinados a recibir los datos relativos al avión (altitud, navegación, alarma, sistema). En el presente dispositivo, estos visualizadores están también previstos para recibir imágenes de vídeo. La figura 2 representa tres visualizadores 6 que pueden recibir tales imágenes. Se supone entonces que en el avión equipado con el dispositivo según el invento, al menos tres visualizadores de los seis generalmente disponibles en un avión son capaces de visualizar imágenes de vídeo. Cada uno de estos visualizadores está unido al calculador 4 por una unión de tipo bus aviónico.
El dispositivo de pilotaje automático calcula y aplica en el avión las leyes de órdenes apropiadas a partir de la separación medida por el calculador 4, para corregir cualquier desviación con respecto al punto enfocado, que es el punto de impacto del avión en la pista en el caso en que las informaciones suministradas por el sistema de ayuda a la navegación deban permitir un aterrizaje totalmente automático.
La figura 1 da el sinóptico que muestra el principio de base de la división de la aproximación final de aterrizaje en tres fases según el invento. La primera fase se inicia cuando el aparato se encuentra todavía a algunos kilómetros de la pista de aterrizaje: por ejemplo 4 a 5 km. Esta primera fase P1 está destinada a identificar una zona aeroportuaria en una toma de vista realizada por una cámara 2. Una vez detectada esta zona aeroportuaria, comienza una segunda fase P2. Se trata de identificar en las imágenes siguientes la zona aeroportuaria que ha sido detectada en el curso de la fase P1. Cuando el avión se aproxima a la zona aeroportuaria, ésta aumenta cada vez más en las imágenes suministradas por la cámara 2 hasta salir del marco de estas imágenes. Se pasa entonces a una tercera fase P3 en el curso de la cual se determina la posición del avión con respecto a la pista de aterrizaje más próxima. En el curso de esta última fase, el avión rueda sobre la pista o no está más que a algunos metros por encima de ésta.
Una flecha de líneas de puntos 10 en la figura 1 sugiere que es posible una reiniciación de la fase P2 hacia la fase P1. En efecto, si durante la fase P2 el dispositivo no llega a seguir la pista de aterrizaje, se puede efectuar una nueva detección de la zona aeroportuaria. Una flecha de líneas de puntos 12 sugiere también una reiniciación de la fase P3 hacia la fase P2. Tal reiniciación es muy delicada y deberá evitarse. En efecto, en este momento, el avión está muy próximo a la pista de aterrizaje y, por razones de seguridad, es importante que el dispositivo de ayuda al aterrizaje no pierda el rastro de la pista de aterrizaje.
Como se ha indicado anteriormente, el paso 14 de la fase P1 a la fase P2 se efectúa cuando la zona aeroportuaria ha sido detectada. El paso 16 de la fase P2 a la fase P3 se realiza, por ejemplo, cuando se cumple una condición de paso. Varias condiciones de paso son posibles. Una primera condición corresponde, por ejemplo, a la desaparición del umbral de la pista en la imagen suministrada por la cámara 2. También se puede, por ejemplo, indicar que cuando el avión está a menos de cinco metros por encima de la pista se inicia la fase P3. Se pueden definir otras condiciones.
La figura 3 ilustra el principio de la ayuda al aterrizaje suministrada por el dispositivo y el procedimiento según el invento. Esta figura representa una imagen en la que únicamente se ha representado una pista de aterrizaje 18. Esta pista 18 tiene dos bordes 20 paralelos en la realidad pero convergentes hacia un punto de fuga en la imagen suministrada por la cámara 2. Estos dos bordes 20 están unidos en su base por una banda denominada umbral de pista 22. La pista de aterrizaje 18 tiene un eje longitudinal 24 denominado eje de pista. En función de la posición de los bordes de pista 20 y del umbral 22 se define un punto de referencia 26 que es el punto de impacto teórico del avión en la pista de aterrizaje 18. Este punto de referencia 26 se encuentra en el eje de pista 24. El centro de la imagen 28 corresponde al punto enfocado por la cámara 2. Como se ha indicado por la marca 30 en la figura 3, se define una marca (0, x, y, z). Los ejes y y z están en el plano de la imagen mientras que el eje de las x es perpendicular a este plano imagen. El dispositivo de ayuda al aterrizaje determina la desviación horizontal \Deltay así como la desviación vertical \Deltaz entre el punto de referencia 26 y el centro de la imagen 28. En un aterrizaje "semiautomático" el piloto del avión visualiza en un visualizador 6 la desviación vertical \Deltaz y la desviación horizontal \Deltay y actúa sobre el pilotaje del avión en función de estas informaciones suministradas por el dispositivo de ayuda al pilotaje. En modo de aterrizaje automático estas informaciones son suministradas al dispositivo de pilotaje automático 8 que actúa sobre el pilotaje del avión para tratar, por ejemplo, de mantener estas desviaciones horizontal y vertical lo más próximas al valor 0.
Para la detección de la zona aeroportuaria (etapa P1), la cámara 2 realiza primeramente una toma de vista y envía la imagen correspondiente en formato comprimido MJPEG al calculador 4. El entorno de la zona aeroportuaria puede ser muy variado. El aeropuerto puede estar rodeado de edificios o encontrarse en medio de campos, en un desierto, al borde del mar, etc... Sin embargo, se observa que las zonas aeroportuarias tienen elementos característicos muy estructurados formados por las pistas, las pistas de circulación, situadas en general sobre un fondo uniforme (con hierba o desértico). Vista desde un avión, una zona aeroportuaria tiene por tanto segmentos paralelos (ligeramente convergentes) que podrán servir de base para detectar en la imagen tomada por la cámara 2 una zona de interés. No obstante, convendrá distinguir los segmentos paralelos que corresponden a una zona aeroportuaria de los segmentos paralelos que podrían ser suministrados por otros elementos que aparecen en una imagen: carretera, inmueble, etc...
Una primera etapa en la detección de una zona aeroportuaria sobre una imagen suministrada por la cámara 2 es extraer de esta imagen los segmentos 2D característicos de esta imagen. Estos últimos pueden extraerse después de la aplicación sobre la imagen, por ejemplo, de un filtro de Sobel. En la figura 4 se muestra, a título de ejemplo, una imagen obtenida después de tal filtrado.
Los segmentos definidos en el curso de la etapa precedente son entonces clasificados en función de su orientación en la imagen. Se divide entonces de forma regular el intervalo de las direcciones posibles [-\pi/2; \pi/2] en un número cualquiera de N clases. Se tienen entonces N direcciones que barren un ángulo de 2\pi/N (figura 5). La zona rayada con referencia 32 en la figura 5 ilustra la clase de direcciones [-2\pi/N; 0].
Se escogen entonces reglas para determinar si dos segmentos pueden juzgarse como que son localmente paralelos en el plano imagen. Estas reglas son, por ejemplo, las siguientes:
-
Los dos segmentos deben pertenecer a una misma clase de direcciones. Hay que determinar el parámetro N. Se elige, por ejemplo, N=20.
-
Cada segmento debe poseer una longitud mínima l_{min} (por ejemplo 25 píxeles).
-
Los dos segmentos deben estar enfrente con una tasa de recubrimiento mínimo. Esta tasa deberá permanecer superior a una tasa mínima T_{min} (por ejemplo 30%).
-
Los dos segmentos deben estar próximos uno de otro. La distancia que los separa debe ser inferior a una distancia umbral denominada, por ejemplo, distancia_{max} (por ejemplo 40 píxeles).
El parámetro N y los valores umbral l_{min}, T_{min} y distancia_{max} deben ser adaptados al caso especial y se determinarán empíricamente. Estos valores dependen de la cámara y de la aplicación (aquí identificación de una pista de aterrizaje).
Después de la extracción de los pares de segmentos paralelos se cierra transitivamente la relación que une dos pares de segmentos fusionándolos (figura 6). Así, se forman grupos de pares de segmentos paralelos, teniendo cada par de segmentos de un grupo al menos un segmento común en dos pares de segmentos de este grupo. Así, en la figura 6, tres pares de segmentos 34, 36 y 38 han sido reagrupados en un agrupamiento 40 de pares paralelos. Se observa que el par de segmentos 34 tiene un segmento en común con el par de segmentos 36, que el par de segmentos 36 tiene un segmento en común con el par 34, y su otro segmento en común con el par 34, y su otro segmento en común con el par 38, y que el par 38 tiene un segmento en común con el par 36.
Es conocido que cuando se hace una foto a dos líneas paralelas sin que el eje de toma de vista sea perpendicular al plano que contiene estas dos líneas paralelas, la imagen formada por estas dos líneas paralelas no muestra más este paralelismo, sino que forma dos líneas convergentes hacia un punto denominado punto de fuga. Así, para determinar si segmentos paralelos de un agrupamiento 40 de pares de segmentos 34, 36, 38 corresponden a líneas paralelas del objeto fotografiado, se consideran dos a dos todos los segmentos de los agrupamientos y se determina cada vez un punto de fuga correspondiente (figura 7). Se compara a continuación entre ellos los puntos de fuga calculando la distancia euclidiana distancia_{fuga} que los separa. Si la medida distancia_{fuga} es inferior a un umbral predeterminado denominado umbral_{fuga}, entonces se crea un agrupamiento FUGA formado por cuatro segmentos. Así, por ejemplo, si como está ilustrado en la figura 7, el punto de fuga está muy alejado o en el infinito, los segmentos correspondientes no podrán ser escogidos.
En la figura 8, que corresponde a la figura 4, únicamente se han escogido los agrupamientos de pares de segmentos paralelos tales como el agrupamiento 40 de la figura 6. En toda la imagen no aparecen más que siete agrupamientos de este tipo que llevan las referencias 42, 44, 46, 48, 50, 52 y 54.
Al igual que se han realizado agrupamientos de pares de segmentos paralelos, se realiza el reagrupamiento de agrupamientos de pares de segmentos paralelos cuando en dos agrupamientos distintos (tal como el agrupamiento 40 de la figura 6) aparecen dos segmentos de un mismo agrupamiento FUGA. En el caso de la figura, ilustrado en las figuras 4 y 8, se realiza entonces el reagrupamiento de los agrupamientos 42, 44 y 46.
La figura 9 es un organigrama que recapitula las diferentes etapas de la fase P1 tal como se ha descrito anteriormente. En esta figura 9 se reconoce una imagen 56 obtenida por la cámara 2. Esta imagen es digitalizada y enviada al calculador 4. Una primera etapa 58 consiste en extraer segmentos característicos utilizando el filtro gradiente de Sobel acoplado a un operador de afinamiento y a un operador de interpolación poligonal. La etapa 60 siguiente consiste en detectar entre todos los segmentos característicos determinados en la etapa 58 los que son paralelos entre sí y en formar entonces agrupamientos de pares de segmentos paralelos. Todos los segmentos que forman parte de un agrupamiento de pares de segmentos paralelos cualesquiera se comparan entonces dos a dos para determinar, en la etapa 62, su punto de fuga. Se reagrupan entonces los pares de segmentos cuyos puntos de fuga están próximos con el fin de realizar agrupamientos FUGA. En fin, la última etapa 64 realiza el reagrupamiento de agrupamientos de pares de segmentos paralelos detectados en la etapa 60. Dos agrupamientos distintos serán reagrupados si un agrupamiento FUGA posee segmentos en uno y otro de estos agrupamientos de pares de segmentos paralelos. Después del desarrollo de este algoritmo se obtiene una imagen 66 en la que únicamente aparecen los segmentos que corresponden a segmentos paralelos en tres dimensiones. Si los valores de umbral l_{min}, T_{min} y distancia_{max} se han escogido astutamente, en la imagen 66 no quedan más que segmentos correspondientes a una zona aeroportuaria. En esta imagen 66 están eventualmente representadas varias pistas. A continuación convendrá determinar en cuál de estas pistas debe aterrizar el avión. La selección de la pista puede realizarse automáticamente en función de instrucciones previamente introducidas en el calculador 4 o la elección puede ser realizada por el piloto. En este último caso, se puede imaginar visualizar la imagen 66, superpuesta eventualmente a la imagen 56, en un visualizador 6 delante de los ojos del piloto.
Una vez seleccionada la pista de aterrizaje, conviene reconocer esta pista en las imágenes siguientes tomadas por la cámara 2. Éste es el objeto de la fase P2 del procedimiento descrito aquí.
La figura 10 muestra un esquema de principio de seguimiento visual. Este esquema tiene un primer módulo de iniciación 68 y cuatro módulos que se repiten de forma iterativa.
El módulo de iniciación 68 permite extraer de la imagen en curso el motivo visual que hay que seguir en las imágenes siguientes. En el caso presente la posición inicial de la pista de aterrizaje está dada por la fase P1 de detección. El resultado de este módulo de iniciación 68 consiste en suministrar:
-
un modelo inicial del objetivo, aquí la pista de aterrizaje, con una representación adaptada al método de seguimiento (contornos o puntos), y
-
una ventana en la que el objeto que hay que seguir, la pista de aterrizaje, ha sido encontrado.
El primer módulo del bucle representado en la figura 10 es un módulo de predicción 70. Este módulo, ejecutado en cada iteración, debe generar la posición predicha de la pista de aterrizaje en la imagen en curso I_{n} en función de la posición que tenía en la imagen precedente I_{n+1}, de la frecuencia de toma de las imágenes y del tratamiento de estas imágenes y, sobre todo, en función de un modelo de la dinámica aparente de la pista de aterrizaje en la secuencia. Este modelo es en general estimado por filtrado de Kalman. En el caso presente, las imágenes son imágenes 2D y el movimiento aparente de la pista de aterrizaje en la imagen está provocado por el movimiento de la cámara 2 con respecto a la pista de aterrizaje fija.
El resultado de este módulo de predicción 70 es una posición predicha de la pista de aterrizaje en la imagen, con la forma de una ventana o de una subimagen en la que se ejecutarán los tratamientos siguientes. El tamaño de la ventana, o de la subimagen, es función de la precisión de la predicción. Esta precisión está dada, por ejemplo, por un método de estimación con la ayuda de una matriz de variancia sobre el estado del sistema por el filtrado de Kalman.
El módulo siguiente es el módulo de extracción de las características 72. Este módulo tiene por objeto suministrar una representación adaptada de la subimagen en la que se busca el objeto. Esta representación debe construirse de forma rápida y ser suficientemente discriminante para que la búsqueda de la pista de aterrizaje seguida sea rápida. La representación se realizará, por ejemplo, con la ayuda de puntos de interés y/o de contornos y/o de segmentos, etc...
El tercer módulo representado en el bucle de la figura 10 es un módulo de emparejamiento 74. Este último va a buscar la pista de aterrizaje en la región de interés determinada por el módulo de predicción 70. Existen varios métodos de emparejamiento: método exhaustivo, de búsqueda arborescente, de relajación, de predicción-verificación, etc... En todos los casos es necesario mostrar una medida de similitud entre un subconjunto de características extraído de la imagen y el modelo del objetivo. El resultado de este módulo consiste en un conjunto de emparejamientos (imagen, modelo) y una medida de confianza en estos emparejamientos.
El último módulo del bucle representado en la figura 10 es un módulo de actualización 76 del modelo del objetivo. Este módulo permite actualizar la representación de la pista de aterrizaje y su modelo de dinámica (velocidad del movimiento aparente, etc...).
Por encima de este bucle de seguimiento visual se debe aplicar un bucle de control con el fin de verificar la coherencia del seguimiento y con el fin de corregir eventuales errores o derivas. Esta función de control tiene entonces como objeto reactivar el módulo de iniciación en caso de pérdida de la pista en la secuencia. Esta función de control asegura también el paso de la fase P2 a la fase P3.
Tal seguimiento visual puede ser también puesto en práctica por otras aplicaciones. En la aplicación al seguimiento de una pista de aterrizaje en fase final de aterrizaje, el módulo de iniciación 70 se realiza en parte en el curso de la fase P1 que suministra un conjunto de segmentos convergentes. El módulo de extracción de las características 72, en lo que a él se refiere, es ejecutado en la subimagen que contiene estos segmentos para dar un primer modelo de la pista (conjunto de puntos, contornos activos, etc...). El módulo de predicción 70 puede ser omitido en el presente caso. Es suficiente buscar en la imagen siguiente I_{n+1} la pista en la que se encontraba en la imagen precedente I_{n}.
En función del tiempo necesario para realizar las diferentes etapas del bucle representado en la figura 10, no se analizarán todas las imágenes de la secuencia de vídeo. La pista será buscada solamente en una imagen de las n de la secuencia, por ejemplo, una imagen de tres. Cuanto más grande sea n, más será necesario introducir un modelo de predicción 70.
En lo que se refiere a los módulos de extracción de las características 72, de emparejamientos 74 y de actualización del modelo 76, se pueden utilizar varias técnicas. Estas técnicas son conocidas por los expertos en la materia y no se detallarán aquí. Únicamente se cita a modo de ejemplo la técnica de seguimiento (tracking) de contornos poligonales por correlación 1D a lo largo de los contornos, y la técnica de seguimiento de contorno con la ayuda de contornos activos (o snakes) que utiliza la silueta del objeto seguido. En esta fase de seguimiento también pueden contemplarse otros métodos.
La última fase P3 es muy próxima a la que ya existe en el contexto de la carretera, en la medida en la que el avión rueda sobre la pista de aterrizaje o no está más que a algunos metros por encima de ésta. Las líneas blancas laterales y centrales de la pista de aterrizaje aparecen claramente en la imagen, las imperfecciones del pavimento alquitranado son visibles y la textura de los diferentes elementos que componen la escena (hierba, hormigón, tierra, etc...) se hace discriminante.
En el contexto de la carretera se evalúan secuencias de imágenes registradas a partir de cámaras montadas en un vehículo en movimiento. Estas secuencias de imágenes suministran informaciones sobre el entorno del vehículo, que son analizadas con el fin de aportar una ayuda al conductor que se encuentra en situaciones de tráfico reales. En el contexto de la carretera, el objeto del análisis de las imágenes es encontrar la posición del vehículo con respecto a la carretera. Es lo mismo en el caso del avión sobre la pista de aterrizaje: es preciso encontrar su posición con respecto a esta pista.
Actualmente se utilizan dos métodos. Un primer método se basa en la clasificación de píxeles de la imagen para detectar regiones (hierba, hormigón,...) y otro método se basa en un modelo geométrico de la carretera, a partir de las discontinuidades extraídas de la imagen.
A título de ejemplo, más adelante se describe un algoritmo basado en el análisis de las regiones para la realización de la fase P3. Se trata de un algoritmo de segmentación y de caracterización de las regiones de la imagen 56'. Está compuesto por cuatro grandes etapas descritas a continuación.
La primera etapa 78 debe suministrar rápidamente una descripción sintética de la escena. Se realiza sobre una imagen 56' de baja resolución. Una primera partición de la imagen se realiza dividiendo ésta en células cuadradas de un tamaño de 2x2 píxeles. Se definen varias clases analizando los histogramas de los atributos cromáticos. A cada célula se asocia una clase, sacada de una división del espacio de los colores. La fusión de las células elementales se realiza utilizando un grafo de contigüidad (de conectividad 4). Finalmente, las regiones de tamaño inferior a un umbral dado se fusionan con la región contigua que tiene el valor del criterio de homogeneidad más próximo.
Cada región resultante de la primera etapa (segmentación por color) es a continuación caracterizada por su color y su textura (etapa 80). Si bien para caracterizar una región según sus atributos colorimétricos se utiliza la media estadística de los píxeles que la componen, la medida de los atributos de textura se basa en los histogramas de suma y de diferencia. Los atributos generados por estos histogramas son la media, la varianza, la energía, la entropía, el contraste y finalmente la homogeneidad.
Se utilizan dos técnicas para identificar (etapa 82) los elementos (regiones) presentes en la imagen: la técnica de la lógica bayesiana que realiza la clasificación utilizando el conjunto de los atributos sin efectuar una partición del espacio de las características, y la técnica jerárquica basada en un algoritmo que hace una partición eficaz del espacio de las características (capacidad intrínseca de selección de los atributos). Para esta identificación se utiliza una base de aprendizaje 84 que está construida en función de la aplicación del presente algoritmo.
Cada región de la imagen está, en la última etapa 86, provista de su naturaleza (etiquetaje). Aunque la segmentación de color suministra grandes regiones, estas últimas no corresponden obligatoriamente a los principales componentes de la escena. Por tanto, es necesaria una etapa de fusión para agrupar todas las regiones conexas de la escena.
Al final de este algoritmo se obtiene un modelo nominativo 88 de las diferentes regiones que aparecen en la imagen 56'e identificado en el curso de esta fase. Esto permite entonces determinar la posición del avión con respecto a la pista de aterrizaje.
El dispositivo y el procedimiento descritos anteriormente permiten obtener un sistema de guiado en fase final de aterrizaje de un avión autónomo con respecto a cualquier tipo de instalación exterior al avión. De manera original, este sistema mide separaciones con respecto a una trayectoria de aterrizaje ideal a partir del tratamiento perceptual de imágenes transmitidas por un sistema de una (o varias) cámaras situadas a bordo del avión. Anteriormente se han descrito algoritmos de percepción para las tres fases del algoritmo representado en la figura 1.
Con respecto a la detección de la zona aeroportuaria, fase P1, se ha expuesto un algoritmo nuevo y original basado en la extracción de agrupamientos perceptuales. Este algoritmo también ha sido ensayado y da buenos resultados. Este algoritmo permite determinar en una imagen 2D de un objeto 3D los segmentos que corresponden a líneas paralelas en el espacio.
Las fases de seguimiento de pista (fases P2 y P3) también han sido probadas. En lo relativo a la fase P2, dos algoritmos probados y descritos a título de ejemplo anteriormente han dado buenos resultados. Para la última fase del procedimiento según el invento, la prueba ha sido realizada con una base de aprendizaje prevista para una aplicacíón diferente. A pesar de todo, el resultado obtenido es esperanzador. Es preciso resaltar aquí que el algoritmo utilizado y descrito procede del campo de la robótica. Otros algoritmos procedentes del campo del seguimiento de ruta por un vehículo, que ya han realizado su prueba, pueden también ser utilizados en la etapa P3.
El presente invento no se limita a las diversas formas de ejecución descritas anteriormente a título de ejemplos no limitativos, sino que se extiende a todas las variantes de realización al alcance del experto en la materia, en el marco de las reivindicaciones que siguen.

Claims (16)

1. Procedimiento de guiado en fase final de aterrizaje para una aeronave que consta de las etapas siguientes:
a)
toma de vista del suelo a partir de un dispositivo de toma de vista (2) situado a bordo de la aeronave y obtención de una imagen (56, 56'),
b)
análisis de la imagen (56) por un calculador (4) con el fin de detectar una zona aeroportuaria,
c)
detección por el calculador (4) de una zona aeroportuaria y selección de una pista (18) para el aterrizaje,
d)
seguimiento de la pista de aterrizaje (18) seleccionada durante la aproximación de la aeronave, marcando el calculador (4) en las imágenes suministradas por el dispositivo de toma de vista (2) la pista de aterrizaje seleccionada,
e)
seguimiento de la pista de aterrizaje cuando la aeronave está muy próxima al suelo, analizando el calculador (4) imágenes (56') suministradas por el dispositivo de toma de vista con el fin de determinar la posición de la aeronave con respecto a la pista de aterrizaje.
2. Procedimiento de guiado según la reivindicación 1, caracterizado porque si la pista (18) se pierde en el curso del seguimiento de la etapa d), se realiza una reiniciación que consiste en volver a la etapa b).
3. Procedimiento de guiado según una de las reivindicaciones 1 ó 2, caracterizado porque en la etapa b) el análisis se realiza buscando (58) en la imagen (56) segmentos de rectas sensiblemente paralelas y porque la detección de una pista de aterrizaje se realiza emparejando (60) tales segmentos de recta.
4. Procedimiento de guiado según la reivindicación 3, caracterizado porque la búsqueda de segmentos paralelos se efectúa dividiendo de forma regular el intervalo de las direcciones posibles [-\pi/2; \pi/2] en N clases y asociando cada segmento a una clase, considerándose entonces que dos segmentos son paralelos si pertenecen a una misma
clase.
5. Procedimiento de guiado según la reivindicación 4, caracterizado porque dos segmentos paralelos se seleccionan cuando se cumplen las condiciones siguientes:
-
estos segmentos pertenecen a una misma clase de direcciones,
-
cada uno de estos segmentos tiene una longitud mínima,
-
estos dos segmentos están enfrente uno de otro con una tasa de recubrimiento mínima,
-
la distancia que separa estos dos segmentos es inferior a un valor predeterminado.
6. Procedimiento de guiado según la reivindicación 5, caracterizado porque para cada par de segmentos paralelos se determina un punto de fuga como el punto de intersección teórico de los dos segmentos sensiblemente paralelos y porque dos pares de segmentos se reagrupan en la medida en que la distancia entre los dos puntos de fuga correspondientes es inferior a un umbral predeterminado.
7. Procedimiento de guiado según una de las reivindicaciones 1 a 6, caracterizado porque para la etapa d) de seguimiento de la pista de aterrizaje consta de las siguientes etapas elementales:
d1) iniciación (68): se extrae de la imagen la pista de aterrizaje seleccionada y se modeliza y se define una ventana en la que la pista ha sido encontrada,
d2) predicción (70): se predice la posición de la pista de aterrizaje en la imagen en curso en función de la posición ocupada en la imagen precedente y se define una ventana correspondiente,
d3) extracción de características (72): se suministra una representación adaptada de los contornos y/o puntos de interés de la ventana,
d4) emparejamiento (74): se busca la pista de aterrizaje en la ventana en función de la predicción, y
d5) si es necesario, se actualiza (76) la representación de la pista de aterrizaje y/o la velocidad del movimiento aparente de esta pista,
siendo iterativas las etapas d2) a d5).
\newpage
8. Procedimiento de guiado según una de las reivindicaciones 1 a 7, caracterizado porque el seguimiento de la pista de aterrizaje en la etapa e) se realiza analizando en la imagen en curso el color y la textura de sus píxeles con el fin de clasificar estos píxeles como pertenecientes o no a la pista de aterrizaje.
9. Procedimiento de guiado según una de las reivindicaciones 1 a 7, caracterizado porque el seguimiento de la pista de aterrizaje en la etapa e) se realiza buscando en la imagen el borde de la pista y/o una marca en la pista.
10. Procedimiento de guiado según una de las reivindicaciones 1 a 9, caracterizado porque la pista de aterrizaje tiene dos bordes longitudinales (20) paralelos unidos en un extremo por un umbral (22), y porque el paso de la etapa d) a la etapa e) se realiza cuando el umbral (22) ya no es visible en las imágenes.
11. Dispositivo de guiado en fase final de aterrizaje de un avión o similar, que tiene al menos un calculador (4) y un vsualizador (6) situado en la cabina, teniendo una cámara (2) unida a dicho calculador (4) medios para efectuar la toma y el tratamiento de imágenes de vídeo, así como medios de análisis de imagen con objeto de identificar allí una eventual zona aeroportuaria, medios de detección de tal zona, medios de identificación de una pista de aterrizaje predeterminada y de seguimiento de esta pista en imágenes sucesivas, y medios de análisis de imágenes con el fin de realizar un seguimiento de la pista cuando el avión o similar está próximo al suelo, y porque dicho calculador (4) está unido al visualizador (6) situado en la cabina.
12. Dispositivo de guiado según la reivindicación 11, caracterizado porque la cámara (2) es una cámara de tipo CCD (Charge Coupled Device o dispositivo de transferencia de carga).
13. Dispositivo de guiado según una de las reivindicaciones 11 o 12, caracterizado porque tiene dos cámaras de vídeo (2).
14. Dispositivo de guiado según una de las reivindicaciones 11 a 13, caracterizado porque cada cámara (2) está unida a dicho calculador (4) a través de un enlace de fibra óptica.
15. Dispositivo de guiado según una de las reivindicaciones 11 a 14, caracterizado porque el calculador (4) está unido a un dispositivo de pilotaje automático (8).
16. Aeronave, caracterizada porque tiene un dispositivo de guiado según una de las reivindicaciones 11 a 15.
ES03352001T 2002-01-25 2003-01-21 Procedimiento de guiado de una aeronave en fase final de aterrizaje y dispositivo correspondiente. Expired - Lifetime ES2271508T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0200928 2002-01-25
FR0200928A FR2835314B1 (fr) 2002-01-25 2002-01-25 Procede de guidage d'un aeronef en phase finale d'atterrissage et dispositif correspondant

Publications (1)

Publication Number Publication Date
ES2271508T3 true ES2271508T3 (es) 2007-04-16

Family

ID=27589582

Family Applications (1)

Application Number Title Priority Date Filing Date
ES03352001T Expired - Lifetime ES2271508T3 (es) 2002-01-25 2003-01-21 Procedimiento de guiado de una aeronave en fase final de aterrizaje y dispositivo correspondiente.

Country Status (7)

Country Link
US (1) US6952632B2 (es)
EP (1) EP1335258B1 (es)
AT (1) ATE338296T1 (es)
CA (1) CA2418243C (es)
DE (1) DE60307911T2 (es)
ES (1) ES2271508T3 (es)
FR (1) FR2835314B1 (es)

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7587278B2 (en) * 2002-05-15 2009-09-08 Honeywell International Inc. Ground operations and advanced runway awareness and advisory system
US8145367B2 (en) 2001-03-06 2012-03-27 Honeywell International Inc. Closed airport surface alerting system
US7079951B2 (en) 2002-05-15 2006-07-18 Honeywell International Inc. Ground operations and imminent landing runway selection
US7089092B1 (en) * 2002-07-18 2006-08-08 Rockwell Collins, Inc. Airborne system and method for improving the integrity of electronic landing aids
US6850185B1 (en) * 2003-07-31 2005-02-01 Rockwell Collins Runway obstacle detection system and method
JP4253239B2 (ja) * 2003-10-07 2009-04-08 富士重工業株式会社 画像認識を用いた航法装置
WO2007047953A2 (en) * 2005-10-20 2007-04-26 Prioria, Inc. System and method for onboard vision processing
GB2431790B (en) * 2005-10-27 2010-11-10 Sony Uk Ltd Data processing apparatus and method
FR2896071A1 (fr) * 2006-01-11 2007-07-13 Airbus France Sas Procede et dispositif d'aide au pilotage d'un aeronef lors d'une approche autonome.
FR2896073B1 (fr) * 2006-01-11 2008-02-08 Airbus France Sas Systeme de pilotage d'un aeronef, au moins pour piloter l'aeronef lors d'une approche autonome en vue d'un atterrissage.
WO2007124014A2 (en) * 2006-04-19 2007-11-01 Swope John M System for position and velocity sense and control of an aircraft
IL175835A0 (en) * 2006-05-22 2007-07-04 Rafael Armament Dev Authority Methods and systems for communicating and displaying points-of-interest
US7783427B1 (en) 2006-07-14 2010-08-24 Rockwell Collins, Inc. Combined runway obstacle detection system and method
US7576680B1 (en) 2006-08-09 2009-08-18 Rockwell Collins, Inc. Pulse pattern for weather phenomenon and incursion detection system and method
US7693617B2 (en) * 2006-09-19 2010-04-06 The Boeing Company Aircraft precision approach control
US7881497B2 (en) * 2007-03-08 2011-02-01 Honeywell International Inc. Vision based navigation and guidance system
US7876925B2 (en) * 2007-03-28 2011-01-25 Honeywell International Inc. Runway segmentation using vertices detection
US7917254B2 (en) * 2007-05-22 2011-03-29 The Boeing Company Aircraft guidance using localizer capture criteria for rectilinear displacement data
US7941251B2 (en) * 2007-05-22 2011-05-10 The Boeing Company Consistent localizer captures
US8019529B1 (en) 2007-08-17 2011-09-13 Rockwell Collins, Inc. Runway and airport incursion alerting system and method
BRPI0817039A2 (pt) * 2007-08-24 2015-07-21 Stratech Systems Ltd Sistema e método de vigilância de pista de pouso e decolagem
US7948403B2 (en) * 2007-12-04 2011-05-24 Honeywell International Inc. Apparatus and method for aligning an aircraft
US7826666B2 (en) * 2008-02-27 2010-11-02 Honeywell International Inc. Methods and apparatus for runway segmentation using sensor analysis
US7932853B1 (en) 2008-09-12 2011-04-26 Rockwell Collins, Inc. System and method for identifying incursion threat levels
EP2175338A1 (en) * 2008-10-13 2010-04-14 Université de la Méditerranée Steering aid method and system for landing on a target of a moving platform, and a 3 d vehicle equipped as such
US7986249B2 (en) * 2008-11-24 2011-07-26 Honeywell International Inc. System and method for displaying graphical departure procedures
US8284997B2 (en) * 2009-03-11 2012-10-09 Honeywell International Inc. Vision-based vehicle navigation system and method
US8344655B2 (en) * 2010-01-25 2013-01-01 Altman Stage Lighting Co., Inc. Power and data track lighting system
FR2959052B1 (fr) * 2010-04-16 2012-12-28 Thales Sa Dispositif d'assistance embarque au suivi d'une route aeroportuaire par un aeronef
US20110282580A1 (en) * 2010-05-11 2011-11-17 Honeywell International Inc. Method of image based navigation for precision guidance and landing
US8711007B2 (en) * 2010-06-15 2014-04-29 The Boeing Company Perspective runway system
KR101050730B1 (ko) * 2010-07-30 2011-07-20 엘아이지넥스원 주식회사 활주로 보조선 기반의 무인 항공기 위치 제어장치 및 그 제어방법
US8914166B2 (en) 2010-08-03 2014-12-16 Honeywell International Inc. Enhanced flight vision system for enhancing approach runway signatures
US8589071B2 (en) * 2011-08-15 2013-11-19 Honeywell International Inc. Aircraft vision system including a runway position indicator
US8798820B2 (en) * 2011-09-08 2014-08-05 The Boeing Company Consistent localizer captures
US9165366B2 (en) 2012-01-19 2015-10-20 Honeywell International Inc. System and method for detecting and displaying airport approach lights
US9141113B1 (en) * 2012-04-26 2015-09-22 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Probabilistic surface characterization for safe landing hazard detection and avoidance (HDA)
US8880328B2 (en) * 2012-11-02 2014-11-04 Ge Aviation Systems Llc Method of optically locating an aircraft relative to an airport
US9058742B2 (en) * 2013-02-12 2015-06-16 Ge Aviation Systems, Llc Methods for illustrating aircraft situational information
CN104006790A (zh) * 2013-02-21 2014-08-27 成都海存艾匹科技有限公司 基于视觉的飞机降落辅助装置
FR3009117B1 (fr) * 2013-07-24 2016-11-25 Airbus Operations Sas Procede et systeme d'atterrissage automatique autonome
US20150206412A1 (en) * 2013-07-29 2015-07-23 Steven Harold Lachance Scatterbrain
US9177481B2 (en) 2013-12-13 2015-11-03 Sikorsky Aircraft Corporation Semantics based safe landing area detection for an unmanned vehicle
FR3018383B1 (fr) 2014-03-07 2017-09-08 Airbus Operations Sas Procede et dispositif de determination de parametres de navigation d'un aeronef lors d'une phase d'atterrissage.
FR3020170B1 (fr) * 2014-04-22 2016-05-06 Sagem Defense Securite Procede de guidage d'un aeronef
FR3023912B1 (fr) * 2014-07-18 2020-05-08 Thales Calcul de performance pour aeronef
FR3024127B1 (fr) * 2014-07-25 2016-08-26 Airbus Operations Sas Procede et systeme d'atterrissage automatique autonome
US20160335901A1 (en) * 2015-04-07 2016-11-17 Near Earth Autonomy, Inc. Control of autonomous rotorcraft in limited communication environments
US10410096B2 (en) * 2015-07-09 2019-09-10 Qualcomm Incorporated Context-based priors for object detection in images
RU2650674C2 (ru) * 2016-04-12 2018-04-17 Открытое акционерное общество "Научно-производственное предприятие "Конверсия" Радиолокационный способ определения положения средней линии взлетно-посадочной полосы
FR3058252B1 (fr) 2016-11-03 2019-01-25 Airbus Operations Procede et dispositif d'aide a l'atterrissage d'un aeronef en phase de descente en vue d'un atterrissage sur une piste d'atterrissage.
IL249870B (en) 2016-12-29 2022-02-01 Israel Aerospace Ind Ltd Autonomous landing with the help of an image
GB2570497B (en) 2018-01-29 2020-07-29 Ge Aviat Systems Ltd Aerial vehicles with machine vision
FR3088908A1 (fr) * 2018-11-22 2020-05-29 Thales Dispositif et procede d’aide a l’atterrissage d’un aeronef par conditions de visibilite reduite
FR3110985A1 (fr) 2020-05-29 2021-12-03 Airbus Interface homme-machine d’un aéronef en phase de décollage ou d’atterrissage
US20220058962A1 (en) * 2020-08-20 2022-02-24 Aurora Flight Sciences Corporation, a subsidiary of The Boeing Company Navigation systems and methods for operation
US11783717B2 (en) 2020-08-26 2023-10-10 Honeywell International Inc. Systems and methods for identifying a number of feasible target traffic for a paired approach
CN112487977B (zh) * 2020-11-30 2024-03-26 东南大学 一种基于国产gf2遥感影像的机场跑道提取方法
US11753181B2 (en) * 2021-03-30 2023-09-12 Honeywell International Inc. System and method for visual aided landing
CN113138382B (zh) * 2021-04-27 2021-11-02 中国电子科技集团公司第二十八研究所 一种军民航机场全自动进近着陆监视方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4866626A (en) * 1987-09-18 1989-09-12 Egli Werner H Navigation by a video-camera sensed ground array
IL88263A (en) * 1988-11-02 1993-03-15 Electro Optics Ind Ltd Navigation system
JPH06135392A (ja) * 1992-10-27 1994-05-17 Mitsubishi Heavy Ind Ltd グライドスロープからのずれ量算出装置
DE19521600A1 (de) * 1995-06-14 1996-12-19 Bodenseewerk Geraetetech Landeverfahren für unbemannte Luftfahrzeuge
US6211809B1 (en) * 1998-09-01 2001-04-03 Trw Inc. Surface-based passive millimeter-wave landing aid
US6157876A (en) * 1999-10-12 2000-12-05 Honeywell International Inc. Method and apparatus for navigating an aircraft from an image of the runway
FR2808588B1 (fr) * 2000-05-05 2002-08-09 Thomson Csf Procede et dispositif de determination de la position d'un vehicule par rapport a une trajectoire ideale

Also Published As

Publication number Publication date
DE60307911D1 (de) 2006-10-12
FR2835314A1 (fr) 2003-08-01
EP1335258B1 (fr) 2006-08-30
ATE338296T1 (de) 2006-09-15
FR2835314B1 (fr) 2004-04-30
US20030225487A1 (en) 2003-12-04
DE60307911T2 (de) 2007-04-12
CA2418243C (fr) 2011-03-15
CA2418243A1 (fr) 2003-07-25
US6952632B2 (en) 2005-10-04
EP1335258A1 (fr) 2003-08-13

Similar Documents

Publication Publication Date Title
ES2271508T3 (es) Procedimiento de guiado de una aeronave en fase final de aterrizaje y dispositivo correspondiente.
US20210311490A1 (en) Crowdsourcing a sparse map for autonomous vehicle navigation
US11573090B2 (en) LIDAR and rem localization
US20220001872A1 (en) Semantic lane description
US20230382422A1 (en) Systems and methods for vehicle navigation
US10248124B2 (en) Localizing vehicle navigation using lane measurements
US20220082403A1 (en) Lane mapping and navigation
WO2018015811A1 (en) Crowdsourcing and distributing a sparse map, and lane measurements for autonomous vehicle navigation
CN117053812A (zh) 使用电子地平线导航交通工具
Choi et al. BRM localization: UAV localization in GNSS-denied environments based on matching of numerical map and UAV images
CN113034540A (zh) 基于摄像机的自动化精密道路地图生成系统及方法
US20230195122A1 (en) Systems and methods for map-based real-world modeling
US20230127230A1 (en) Control loop for navigating a vehicle
CN114930123A (zh) 用于检测交通灯的系统和方法
KR20210034253A (ko) 위치 추정 장치 및 방법
Rosenbaum et al. Towards automatic near real-time traffic monitoring with an airborne wide angle camera system
Yi et al. Geographical map registration and fusion of lidar-aerial orthoimagery in gis
KR20210098534A (ko) 포지셔닝을 위한 환경 모델을 생성하기 위한 방법 및 시스템
Gong et al. A survey of techniques for detection and tracking of airport runways
Belaroussi et al. Vehicle attitude estimation in adverse weather conditions using a camera, a GPS and a 3D road map
US20230195506A1 (en) Systems and methods for processing atomic commands
Rajamohan et al. Extracting Road Features from Aerial Videos of Small Unmanned Aerial Vehicles
Vu Robust Vehicle State Estimation for Improved Traffic Sensing and Management
Toth et al. Moving Toward Real-Time Mobile Mapping: Autonomous Vehicle Navigation