ES2271508T3 - Procedimiento de guiado de una aeronave en fase final de aterrizaje y dispositivo correspondiente. - Google Patents
Procedimiento de guiado de una aeronave en fase final de aterrizaje y dispositivo correspondiente. Download PDFInfo
- Publication number
- ES2271508T3 ES2271508T3 ES03352001T ES03352001T ES2271508T3 ES 2271508 T3 ES2271508 T3 ES 2271508T3 ES 03352001 T ES03352001 T ES 03352001T ES 03352001 T ES03352001 T ES 03352001T ES 2271508 T3 ES2271508 T3 ES 2271508T3
- Authority
- ES
- Spain
- Prior art keywords
- segments
- image
- runway
- landing
- aircraft
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000013459 approach Methods 0.000 claims abstract description 8
- 238000001514 detection method Methods 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 7
- 230000000977 initiatory effect Effects 0.000 claims description 7
- 238000004458 analytical method Methods 0.000 claims description 5
- 239000011248 coating agent Substances 0.000 claims description 3
- 238000000576 coating method Methods 0.000 claims description 3
- 238000010191 image analysis Methods 0.000 claims description 3
- 239000000835 fiber Substances 0.000 claims description 2
- 238000012545 processing Methods 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 description 7
- 238000011282 treatment Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 230000008520 organization Effects 0.000 description 4
- 244000025254 Cannabis sativa Species 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 1
- 241000270295 Serpentes Species 0.000 description 1
- 230000007910 cell fusion Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000036039 immunity Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000011068 loading method Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/04—Control of altitude or depth
- G05D1/06—Rate of change of altitude or depth
- G05D1/0607—Rate of change of altitude or depth specially adapted for aircraft
- G05D1/0653—Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing
- G05D1/0676—Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing specially adapted for landing
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Traffic Control Systems (AREA)
- Closed-Circuit Television Systems (AREA)
- Variable-Direction Aerials And Aerial Arrays (AREA)
- Image Processing (AREA)
- Radio Relay Systems (AREA)
Abstract
Procedimiento de guiado en fase final de aterrizaje para una aeronave que consta de las etapas siguientes: a) toma de vista del suelo a partir de un dispositivo de toma de vista (2) situado a bordo de la aeronave y obtención de una imagen (56, 56''), b) análisis de la imagen (56) por un calculador (4) con el fin de detectar una zona aeroportuaria, c) detección por el calculador (4) de una zona aeroportuaria y selección de una pista (18) para el aterrizaje, d) seguimiento de la pista de aterrizaje (18) seleccionada durante la aproximación de la aeronave, marcando el calculador (4) en las imágenes suministradas por el dispositivo de toma de vista (2) la pista de aterrizaje seleccionada, e) seguimiento de la pista de aterrizaje cuando la aeronave está muy próxima al suelo, analizando el calculador (4) imágenes (56'') suministradas por el dispositivo de toma de vista con el fin de determinar la posición de la aeronave con respecto a la pista de aterrizaje.
Description
Procedimiento de guiado de una aeronave en fase
final de aterrizaje y dispositivo correspondiente.
El presente invento se refiere a un
procedimiento de guiado de un avión en fase final de aterrizaje así
como a un dispositivo para la aplicación de este procedimiento.
Existen varios sistemas de guiado que procuran
una ayuda para la navegación y el guiado de un avión. Los sistemas
conocidos actualmente se denominan ILS, MLS, GPS, APALS.
El sistema ILS (Instrument Landing System o
sistema de aterrizaje mediante instrumentos) funciona con la ayuda
de radiobalizas instaladas a lo largo de una ruta de aproximación de
un aeropuerto y de los receptores correspondientes instalados a
bordo del avión. Estos receptores cooperan con indicadores a bordo
que informan al piloto sobre su posición relativa con respecto a
una trayectoria ideal. Estos indicadores tienen una aguja horizontal
y una aguja vertical, y conservando estas dos agujas centradas el
piloto puede mantener su avión alineado en la línea central de la
pista manteniendo una pendiente de descenso lo más constante posible
hasta el aterrizaje.
El sistema MLS (Microwave Landing System o
sistema de aterrizaje por microondas) funciona sensiblemente como
el sistema ILS pero utiliza microondas y no haces radioeléctricos.
Debido a esto, el sistema MLS muestra con respecto al sistema ILS
una mayor inmunidad a las señales reflejadas en los edificios que
rodean la pista de aterrizaje.
Varios sistemas utilizan la tecnología GPS
(Global Positioning System o sistema de posicionamiento global).
Estos sistemas funcionan con ayuda de una constelación de satélites
en órbita alrededor de la tierra. Un aparato a bordo del avión
determina la posición de éste utilizando la medida de las distancias
que lo separan de varios satélites cuyas posiciones se conocen.
Correlacionando la posición del avión y la de la pista de
aterrizaje, se puede suministrar una ayuda al piloto. Numerosos
aviones utilizan ya la información GPS como una ayuda suplementaria
(con respecto a los sistemas clásicos como las centrales inerciales)
para encontrar su ruta en el cielo. Sin embargo, los sistemas de
tipo GPS no son lo suficientemente precisos para permitir el guiado
de un avión hasta en su fase final de aterrizaje. En efecto, la
precisión de los sistemas GPS es del orden de una decena de metros,
lo que no es suficiente para garantizar a un avión posarse en una
pista de aterrizaje y no al lado de ésta.
El sistema APALS (Autonomous Precision Approach
Landing System o sistema de aproximación y de aterrizaje autónomo
de precisión) es en su versión básica un sistema autónomo. Su
principio se basa en la utilización de antenas fijas y en el radar
meteorológico. Este sistema utiliza imágenes del radar meteorológico
con su propio conocimiento del terreno para determinar la posición
y la altitud del avión. Este sistema puede combinarse con un sistema
ILS y/o GPS. A priori, tal sistema APALS no ha sido nunca montado
en un avión en condiciones operativas.
El principal inconveniente de estos dispositivos
es que necesitan la presencia de instalaciones terrestres. Incluso
para el APALS, que es un sistema autónomo, son necesarias antenas
fijas exteriores.
El presente invento tiene por tanto como objeto
suministrar un procedimiento de guiado en fase final de aterrizaje
que sea totalmente autónomo y no requiera instalación específica en
el terreno para realizar un aterrizaje del avión.
Con este fin, propone un procedimiento de guiado
en fase final de aterrizaje para una aeronave, que tiene las etapas
siguientes:
a) toma de vista del terreno a partir de un
dispositivo de toma de vista situado a bordo de la aeronave y
obtención de una imagen,
b) análisis de la imagen con objeto de detectar
una zona aeroportuaria,
c) detección de una zona aeroportuaria y
selección de una pista para el aterrizaje,
d) seguimiento de la pista de aterrizaje
seleccionada durante la aproximación de la aeronave por seguimiento
visual sobre las imágenes suministradas por el dispositivo de toma
de vista de la pista de aterrizaje seleccionada,
e) seguimiento de la pista de aterrizaje cuando
la aeronave está muy próxima al terreno mediante análisis de las
imágenes suministradas por el dispositivo de toma de vista con
objeto de determinar la posición de la aeronave con respecto a la
pista de aterrizaje.
Tal procedimiento de guiado permite sin
necesitar medios exteriores a la aeronave ayudar al piloto en una
fase final de aterrizaje o también incluso suministrar a un sistema
de pilotaje automático informaciones para realizar un aterrizaje
automático.
En este procedimiento de guiado las etapas se
desarrollan preferentemente en el orden indicado de a) a e). No
obstante, son posibles modificaciones en el desarrollo de estas
etapas. Así, por ejemplo si la pista se pierde en el curso del
seguimiento de la etapa d), se puede realizar una reiniciación que
consiste en volver a la etapa b).
A continuación se propone una manera original
para la realización de la etapa b) del procedimiento de guiado. Se
trata en esta etapa de reconocer en una imagen 2D segmentos que son
paralelos en el espacio 3D representado. Se sabe que dos líneas
paralelas en el espacio 3D, cuando son fotografiadas, lo más
frecuente es que no se mantienen paralelas a menudo en la foto 2D
realizada. Aquí se propone una forma original de identificar sobre
una imagen plana líneas paralelas en el espacio. En la etapa b) del
procedimiento de guiado descrito anteriormente, de forma original,
se puede prever que el análisis se realiza buscando en la imagen
segmentos de rectas sensiblemente paralelos y que la detección de
una pista de aterrizaje se realiza emparejando tales segmentos de
recta. Por supuesto, esta forma de actuar para identificar una
pista de aterrizaje podría adaptarse a la identificación de otros
objetos que tienen en el espacio líneas paralelas.
La búsqueda de segmentos paralelos se realiza
preferentemente dividiendo de forma regular el intervalo de las
direcciones posibles [-\pi/2; \pi/2] en N clases y asociando
cada segmento a una clase, considerándose entonces dos segmentos
como paralelos si pertenecen a una misma clase. Pueden entonces
definirse condiciones suplementarias para considerar que dos
segmentos "paralelos" de la imagen corresponden a dos segmentos
paralelos del espacio. Así, dos segmentos "paralelos" serán
seleccionados cuando se cumplan las condiciones siguientes:
- -
- estos segmentos pertenecen a una misma clase de direcciones,
- -
- cada uno de estos segmentos tiene una longitud mínima,
- -
- estos dos segmentos están enfrentados con una tasa de recubrimiento mínima,
- -
- la distancia que separa estos dos segmentos es inferior a un valor predeterminado.
Estas condiciones están especialmente adaptadas
a la búsqueda de una zona aeroportuaria en una imagen 2D tomada
desde avión a distancia de esta zona. Para la búsqueda de otros
objetos que tienen segmentos característicos paralelos en el
espacio 3D se podrán escoger otras condiciones.
Para completar la búsqueda de una zona
aeroportuaria (o de otro objeto) es factible, para cada par de
segmentos paralelos, determinar un punto de fuga, que es el punto
de intersección teórico de dos segmentos sensiblemente paralelos, y
dos pares de segmentos se reagrupan a continuación en la medida en
la que la distancia entre los dos puntos de fuga correspondientes
es inferior a un umbral predeterminado.
En el proceso de guiado descrito anteriormente
la etapa d) de seguimiento de la pista de aterrizaje aplica, por
ejemplo, un procedimiento de seguimiento visual que consta de las
siguientes etapas:
d1) iniciación: la pista de aterrizaje
seleccionada es extraída de la imagen y es modelizada y se define
una ventana en la que la pista ha sido encontrada,
d2) predicción: se predice la posición de la
pista de aterrizaje en la imagen en curso en función de la posición
ocupada en la imagen precedente y se define una ventana
correspondiente,
d3) extracción de características: se suministra
una representación adaptada de los contornos y/o puntos de interés
de la ventana,
d4) emparejamiento: se busca la pista de
aterrizaje en la ventana en función de la predicción, y
d5) si es necesario, actualización de la
representación de la pista de aterrizaje y/o de la velocidad del
movimiento aparente de esta pista,
siendo las etapas d2) a d5) etapas
iterativas.
La etapa de predicción, en el caso presente de
seguimiento de pista de aterrizaje en fase final de aproximación de
una aeronave, puede eventualmente ser omitida.
El seguimiento de la pista de aterrizaje en la
etapa e) por ejemplo, se realiza analizando en la imagen en curso
el color y la textura de sus píxeles con objeto de clasificar estos
píxeles como pertenecientes o no a la pista de aterrizaje.
En otra forma de realización del procedimiento
de guiado según el invento, el seguimiento de la pista de aterrizaje
en la etapa e) puede realizarse buscando en la imagen el borde de
la pista y/o un marcado en la pista.
El paso de la etapa d) a la etapa e) puede estar
sujeto a la realización de una condición predeterminada. A título
de ejemplo, el paso de la etapa d) a la etapa e) puede realizarse
cuando el umbral de la pista no es ya visible en las imágenes. Se
supone aquí que la pista de aterrizaje tiene dos bordes
longitudinales paralelos unidos a un extremo por un umbral.
El presente invento se refiere también a un
dispositivo de guiado en fase final de aterrizaje de una aeronave,
que tiene al menos un calculador y un visualizador situado en la
cabina, caracterizado porque tiene una cámara unida a dicho
calculador, porque dicho calculador tiene medios para efectuar la
toma y el tratamiento de imágenes de vídeo, y porque dicho
calculador está unido al visualizador situado en la cabina.
La cámara utilizada es ventajosamente una cámara
de tipo CCD (Charge Coupled Device o dispositivo de transferencia
de carga).
En una forma de realización preferida, el
dispositivo de guiado tiene al menos dos cámaras de vídeo.
Preferentemente, cada cámara está unida a dicho
calculador a través de una unión por fibra óptica.
Para permitir la realización de aterrizajes
automáticos, el dispositivo de guiado es ventajosamente tal que el
calculador está unido a un dispositivo de pilotaje automático.
Finalmente, el presente invento se refiere
también a una aeronave, caracterizada porque tiene un dispositivo
de guiado tal como el anteriormente descrito.
Los detalles y ventajas del presente invento se
verán mejor a partir de la descripción que sigue, realizada con
referencia al dibujo esquemático anejo, en el que:
la figura 1 es un organigrama general de un
procedimiento según el invento,
la figura 2 representa de forma esquemática un
dispositivo para la aplicación del procedimiento representado
esquemáticamente en la figura 1,
la figura 3 representa una imagen en la que
aparece de forma esquemática una pista de aterrizaje,
la figura 4 muestra a título de ejemplo una
imagen de segmento característica extraída de una imagen tomada por
una cámara,
la figura 5 representa intervalos de direcciones
posibles para la búsqueda de pares de segmentos paralelos,
la figura 6 ilustra la creación de agrupamientos
de pares de segmentos paralelos,
la figura 7 ilustra la noción de punto de
fuga,
la figura 8 representa una imagen que
corresponde a la de la figura 4 después de su tratamiento,
la figura 9 es un organigrama de la primera fase
del procedimiento de la figura 1,
la figura 10 es un organigrama de la segunda
fase del procedimiento de la figura 1, y
la figura 11 representa un organigrama
utilizable para la tercera fase del procedimiento de la figura
1.
La descripción que sigue se refiere a la
percepción por cámara de vídeo aplicada a una función automática de
aterrizaje de aeronaves, por ejemplo de aviones civiles. El
procedimiento y el dispositivo descritos a continuación suministran
a un piloto de avión un sistema de aproximación final de aterrizaje
automático que hace el avión lo más autónomo posible con respecto
al entorno exterior del avión. En lo que sigue se extrae, en las
imágenes de vídeo tomadas por una cámara y tratadas por un
calculador, una separación del avión en lateral y vertical con
objeto de enviar estas informaciones, por ejemplo, a un sistema de
control y de pilotaje automático del avión. El presente invento se
refiere más particularmente a los aspectos de percepción, es decir
a la toma y tratamiento de la imagen, más que a los aspectos de
mando y de servidumbre para los que son factibles varias
posibilidades. Según una primera posibilidad, el piloto del avión
desempeña el papel del comparador y actúa sobre el pilotaje del
avión en función de las informaciones visuales recibidas por el
sistema de ayuda al aterrizaje. Una segunda posibilidad se refiere a
una solución automática completa en la que el sistema de ayuda al
aterrizaje está acoplado a un sistema de pilotaje automático. Estas
dos posibilidades existen ya con sistemas de la técnica anterior
del tipo ILS (Instrument Landing System).
Un dispositivo según el invento para ayudar al
piloto en fase final tiene (figura 2), en un modo de realización
preferido, una cámara 2, un calculador 4, varios visualizadores 6, y
un dispositivo de pilotaje automático 8.
Una sola cámara es necesaria en el presente
invento. Sin embargo, como habitualmente en los sistemas
aeronáuticos, es preferible tener una segunda cámara en caso, por
ejemplo, de fallo de la primera. Esta segunda cámara está
representada en líneas de puntos en la figura 2. Cada cámara 2 es
una cámara del tipo CCD (Charge Coupled Device o dispositivo de
transferencia de carga). Una fibra óptica une cada cámara 2 con el
calculador 4. Se trata, por ejemplo, de un calculador del tipo CIU
(Camara Interface Unit). La cámara tiene medios para comprimir al
formato MJPEG las imágenes de vídeo que transmite al calculador 4.
Cada cámara 2 trabaja en el campo de lo visible. Se elegirá
preferentemente una cámara que sea lo más inmune a las variaciones
de iluminación debidas al tiempo, a la hora del día, a la niebla, a
la lluvia etc... En función de la calidad de la cámara el
dispositivo puede o no puede funcionar en todo momento.
El calculador del tipo CIU tiene como fin
realizar la toma de las señales de vídeo en el formato MJPEG salidas
de la o las cámaras 2, la descompresión de estas imágenes, así como
realizar el tratamiento de estas imágenes como se describe más
adelante. Este calculador debe también transmitir imágenes a los
visualizadores 6 e informaciones al dispositivo de pilotaje
automático 8. A la izquierda de la figura 2, las flechas en líneas
de puntos indican que el calculador está también unido a otros
componentes del avión tales como, por ejemplo, a una central
inercial o a sondas radioeléctricas.
Los visualizadores 6 son del mismo tipo que los
que generalmente se encuentran en una cabina de avión. Estos
visualizadores están normalmente destinados a recibir los datos
relativos al avión (altitud, navegación, alarma, sistema). En el
presente dispositivo, estos visualizadores están también previstos
para recibir imágenes de vídeo. La figura 2 representa tres
visualizadores 6 que pueden recibir tales imágenes. Se supone
entonces que en el avión equipado con el dispositivo según el
invento, al menos tres visualizadores de los seis generalmente
disponibles en un avión son capaces de visualizar imágenes de vídeo.
Cada uno de estos visualizadores está unido al calculador 4 por una
unión de tipo bus aviónico.
El dispositivo de pilotaje automático calcula y
aplica en el avión las leyes de órdenes apropiadas a partir de la
separación medida por el calculador 4, para corregir cualquier
desviación con respecto al punto enfocado, que es el punto de
impacto del avión en la pista en el caso en que las informaciones
suministradas por el sistema de ayuda a la navegación deban
permitir un aterrizaje totalmente automático.
La figura 1 da el sinóptico que muestra el
principio de base de la división de la aproximación final de
aterrizaje en tres fases según el invento. La primera fase se
inicia cuando el aparato se encuentra todavía a algunos kilómetros
de la pista de aterrizaje: por ejemplo 4 a 5 km. Esta primera fase
P1 está destinada a identificar una zona aeroportuaria en una toma
de vista realizada por una cámara 2. Una vez detectada esta zona
aeroportuaria, comienza una segunda fase P2. Se trata de
identificar en las imágenes siguientes la zona aeroportuaria que ha
sido detectada en el curso de la fase P1. Cuando el avión se
aproxima a la zona aeroportuaria, ésta aumenta cada vez más en las
imágenes suministradas por la cámara 2 hasta salir del marco de
estas imágenes. Se pasa entonces a una tercera fase P3 en el curso
de la cual se determina la posición del avión con respecto a la
pista de aterrizaje más próxima. En el curso de esta última fase, el
avión rueda sobre la pista o no está más que a algunos metros por
encima de ésta.
Una flecha de líneas de puntos 10 en la figura 1
sugiere que es posible una reiniciación de la fase P2 hacia la fase
P1. En efecto, si durante la fase P2 el dispositivo no llega a
seguir la pista de aterrizaje, se puede efectuar una nueva
detección de la zona aeroportuaria. Una flecha de líneas de puntos
12 sugiere también una reiniciación de la fase P3 hacia la fase P2.
Tal reiniciación es muy delicada y deberá evitarse. En efecto, en
este momento, el avión está muy próximo a la pista de aterrizaje y,
por razones de seguridad, es importante que el dispositivo de ayuda
al aterrizaje no pierda el rastro de la pista de aterrizaje.
Como se ha indicado anteriormente, el paso 14 de
la fase P1 a la fase P2 se efectúa cuando la zona aeroportuaria ha
sido detectada. El paso 16 de la fase P2 a la fase P3 se realiza,
por ejemplo, cuando se cumple una condición de paso. Varias
condiciones de paso son posibles. Una primera condición corresponde,
por ejemplo, a la desaparición del umbral de la pista en la imagen
suministrada por la cámara 2. También se puede, por ejemplo, indicar
que cuando el avión está a menos de cinco metros por encima de la
pista se inicia la fase P3. Se pueden definir otras
condiciones.
La figura 3 ilustra el principio de la ayuda al
aterrizaje suministrada por el dispositivo y el procedimiento según
el invento. Esta figura representa una imagen en la que únicamente
se ha representado una pista de aterrizaje 18. Esta pista 18 tiene
dos bordes 20 paralelos en la realidad pero convergentes hacia un
punto de fuga en la imagen suministrada por la cámara 2. Estos dos
bordes 20 están unidos en su base por una banda denominada umbral
de pista 22. La pista de aterrizaje 18 tiene un eje longitudinal 24
denominado eje de pista. En función de la posición de los bordes de
pista 20 y del umbral 22 se define un punto de referencia 26 que es
el punto de impacto teórico del avión en la pista de aterrizaje 18.
Este punto de referencia 26 se encuentra en el eje de pista 24. El
centro de la imagen 28 corresponde al punto enfocado por la cámara
2. Como se ha indicado por la marca 30 en la figura 3, se define
una marca (0, x, y, z). Los ejes y y z están en el plano de la
imagen mientras que el eje de las x es perpendicular a este plano
imagen. El dispositivo de ayuda al aterrizaje determina la
desviación horizontal \Deltay así como la desviación vertical
\Deltaz entre el punto de referencia 26 y el centro de la imagen
28. En un aterrizaje "semiautomático" el piloto del avión
visualiza en un visualizador 6 la desviación vertical \Deltaz y
la desviación horizontal \Deltay y actúa sobre el pilotaje del
avión en función de estas informaciones suministradas por el
dispositivo de ayuda al pilotaje. En modo de aterrizaje automático
estas informaciones son suministradas al dispositivo de pilotaje
automático 8 que actúa sobre el pilotaje del avión para tratar, por
ejemplo, de mantener estas desviaciones horizontal y vertical lo más
próximas al valor 0.
Para la detección de la zona aeroportuaria
(etapa P1), la cámara 2 realiza primeramente una toma de vista y
envía la imagen correspondiente en formato comprimido MJPEG al
calculador 4. El entorno de la zona aeroportuaria puede ser muy
variado. El aeropuerto puede estar rodeado de edificios o
encontrarse en medio de campos, en un desierto, al borde del mar,
etc... Sin embargo, se observa que las zonas aeroportuarias tienen
elementos característicos muy estructurados formados por las
pistas, las pistas de circulación, situadas en general sobre un
fondo uniforme (con hierba o desértico). Vista desde un avión, una
zona aeroportuaria tiene por tanto segmentos paralelos (ligeramente
convergentes) que podrán servir de base para detectar en la imagen
tomada por la cámara 2 una zona de interés. No obstante, convendrá
distinguir los segmentos paralelos que corresponden a una zona
aeroportuaria de los segmentos paralelos que podrían ser
suministrados por otros elementos que aparecen en una imagen:
carretera, inmueble, etc...
Una primera etapa en la detección de una zona
aeroportuaria sobre una imagen suministrada por la cámara 2 es
extraer de esta imagen los segmentos 2D característicos de esta
imagen. Estos últimos pueden extraerse después de la aplicación
sobre la imagen, por ejemplo, de un filtro de Sobel. En la figura 4
se muestra, a título de ejemplo, una imagen obtenida después de tal
filtrado.
Los segmentos definidos en el curso de la etapa
precedente son entonces clasificados en función de su orientación
en la imagen. Se divide entonces de forma regular el intervalo de
las direcciones posibles [-\pi/2; \pi/2] en un número
cualquiera de N clases. Se tienen entonces N direcciones que barren
un ángulo de 2\pi/N (figura 5). La zona rayada con referencia 32
en la figura 5 ilustra la clase de direcciones [-2\pi/N; 0].
Se escogen entonces reglas para determinar si
dos segmentos pueden juzgarse como que son localmente paralelos en
el plano imagen. Estas reglas son, por ejemplo, las siguientes:
- -
- Los dos segmentos deben pertenecer a una misma clase de direcciones. Hay que determinar el parámetro N. Se elige, por ejemplo, N=20.
- -
- Cada segmento debe poseer una longitud mínima l_{min} (por ejemplo 25 píxeles).
- -
- Los dos segmentos deben estar enfrente con una tasa de recubrimiento mínimo. Esta tasa deberá permanecer superior a una tasa mínima T_{min} (por ejemplo 30%).
- -
- Los dos segmentos deben estar próximos uno de otro. La distancia que los separa debe ser inferior a una distancia umbral denominada, por ejemplo, distancia_{max} (por ejemplo 40 píxeles).
El parámetro N y los valores umbral l_{min},
T_{min} y distancia_{max} deben ser adaptados al caso especial
y se determinarán empíricamente. Estos valores dependen de la cámara
y de la aplicación (aquí identificación de una pista de
aterrizaje).
Después de la extracción de los pares de
segmentos paralelos se cierra transitivamente la relación que une
dos pares de segmentos fusionándolos (figura 6). Así, se forman
grupos de pares de segmentos paralelos, teniendo cada par de
segmentos de un grupo al menos un segmento común en dos pares de
segmentos de este grupo. Así, en la figura 6, tres pares de
segmentos 34, 36 y 38 han sido reagrupados en un agrupamiento 40 de
pares paralelos. Se observa que el par de segmentos 34 tiene un
segmento en común con el par de segmentos 36, que el par de
segmentos 36 tiene un segmento en común con el par 34, y su otro
segmento en común con el par 34, y su otro segmento en común con el
par 38, y que el par 38 tiene un segmento en común con el par
36.
Es conocido que cuando se hace una foto a dos
líneas paralelas sin que el eje de toma de vista sea perpendicular
al plano que contiene estas dos líneas paralelas, la imagen formada
por estas dos líneas paralelas no muestra más este paralelismo,
sino que forma dos líneas convergentes hacia un punto denominado
punto de fuga. Así, para determinar si segmentos paralelos de un
agrupamiento 40 de pares de segmentos 34, 36, 38 corresponden a
líneas paralelas del objeto fotografiado, se consideran dos a dos
todos los segmentos de los agrupamientos y se determina cada vez un
punto de fuga correspondiente (figura 7). Se compara a continuación
entre ellos los puntos de fuga calculando la distancia euclidiana
distancia_{fuga} que los separa. Si la medida distancia_{fuga}
es inferior a un umbral predeterminado denominado umbral_{fuga},
entonces se crea un agrupamiento FUGA formado por cuatro segmentos.
Así, por ejemplo, si como está ilustrado en la figura 7, el punto de
fuga está muy alejado o en el infinito, los segmentos
correspondientes no podrán ser escogidos.
En la figura 8, que corresponde a la figura 4,
únicamente se han escogido los agrupamientos de pares de segmentos
paralelos tales como el agrupamiento 40 de la figura 6. En toda la
imagen no aparecen más que siete agrupamientos de este tipo que
llevan las referencias 42, 44, 46, 48, 50, 52 y 54.
Al igual que se han realizado agrupamientos de
pares de segmentos paralelos, se realiza el reagrupamiento de
agrupamientos de pares de segmentos paralelos cuando en dos
agrupamientos distintos (tal como el agrupamiento 40 de la figura
6) aparecen dos segmentos de un mismo agrupamiento FUGA. En el caso
de la figura, ilustrado en las figuras 4 y 8, se realiza entonces
el reagrupamiento de los agrupamientos 42, 44 y 46.
La figura 9 es un organigrama que recapitula las
diferentes etapas de la fase P1 tal como se ha descrito
anteriormente. En esta figura 9 se reconoce una imagen 56 obtenida
por la cámara 2. Esta imagen es digitalizada y enviada al
calculador 4. Una primera etapa 58 consiste en extraer segmentos
característicos utilizando el filtro gradiente de Sobel acoplado a
un operador de afinamiento y a un operador de interpolación
poligonal. La etapa 60 siguiente consiste en detectar entre todos
los segmentos característicos determinados en la etapa 58 los que
son paralelos entre sí y en formar entonces agrupamientos de pares
de segmentos paralelos. Todos los segmentos que forman parte de un
agrupamiento de pares de segmentos paralelos cualesquiera se
comparan entonces dos a dos para determinar, en la etapa 62, su
punto de fuga. Se reagrupan entonces los pares de segmentos cuyos
puntos de fuga están próximos con el fin de realizar agrupamientos
FUGA. En fin, la última etapa 64 realiza el reagrupamiento de
agrupamientos de pares de segmentos paralelos detectados en la etapa
60. Dos agrupamientos distintos serán reagrupados si un
agrupamiento FUGA posee segmentos en uno y otro de estos
agrupamientos de pares de segmentos paralelos. Después del
desarrollo de este algoritmo se obtiene una imagen 66 en la que
únicamente aparecen los segmentos que corresponden a segmentos
paralelos en tres dimensiones. Si los valores de umbral l_{min},
T_{min} y distancia_{max} se han escogido astutamente, en la
imagen 66 no quedan más que segmentos correspondientes a una zona
aeroportuaria. En esta imagen 66 están eventualmente representadas
varias pistas. A continuación convendrá determinar en cuál de estas
pistas debe aterrizar el avión. La selección de la pista puede
realizarse automáticamente en función de instrucciones previamente
introducidas en el calculador 4 o la elección puede ser realizada
por el piloto. En este último caso, se puede imaginar visualizar la
imagen 66, superpuesta eventualmente a la imagen 56, en un
visualizador 6 delante de los ojos del piloto.
Una vez seleccionada la pista de aterrizaje,
conviene reconocer esta pista en las imágenes siguientes tomadas
por la cámara 2. Éste es el objeto de la fase P2 del procedimiento
descrito aquí.
La figura 10 muestra un esquema de principio de
seguimiento visual. Este esquema tiene un primer módulo de
iniciación 68 y cuatro módulos que se repiten de forma
iterativa.
El módulo de iniciación 68 permite extraer de la
imagen en curso el motivo visual que hay que seguir en las imágenes
siguientes. En el caso presente la posición inicial de la pista de
aterrizaje está dada por la fase P1 de detección. El resultado de
este módulo de iniciación 68 consiste en suministrar:
- -
- un modelo inicial del objetivo, aquí la pista de aterrizaje, con una representación adaptada al método de seguimiento (contornos o puntos), y
- -
- una ventana en la que el objeto que hay que seguir, la pista de aterrizaje, ha sido encontrado.
El primer módulo del bucle representado en la
figura 10 es un módulo de predicción 70. Este módulo, ejecutado en
cada iteración, debe generar la posición predicha de la pista de
aterrizaje en la imagen en curso I_{n} en función de la posición
que tenía en la imagen precedente I_{n+1}, de la frecuencia de
toma de las imágenes y del tratamiento de estas imágenes y, sobre
todo, en función de un modelo de la dinámica aparente de la pista
de aterrizaje en la secuencia. Este modelo es en general estimado
por filtrado de Kalman. En el caso presente, las imágenes son
imágenes 2D y el movimiento aparente de la pista de aterrizaje en la
imagen está provocado por el movimiento de la cámara 2 con respecto
a la pista de aterrizaje fija.
El resultado de este módulo de predicción 70 es
una posición predicha de la pista de aterrizaje en la imagen, con
la forma de una ventana o de una subimagen en la que se ejecutarán
los tratamientos siguientes. El tamaño de la ventana, o de la
subimagen, es función de la precisión de la predicción. Esta
precisión está dada, por ejemplo, por un método de estimación con
la ayuda de una matriz de variancia sobre el estado del sistema por
el filtrado de Kalman.
El módulo siguiente es el módulo de extracción
de las características 72. Este módulo tiene por objeto suministrar
una representación adaptada de la subimagen en la que se busca el
objeto. Esta representación debe construirse de forma rápida y ser
suficientemente discriminante para que la búsqueda de la pista de
aterrizaje seguida sea rápida. La representación se realizará, por
ejemplo, con la ayuda de puntos de interés y/o de contornos y/o de
segmentos, etc...
El tercer módulo representado en el bucle de la
figura 10 es un módulo de emparejamiento 74. Este último va a
buscar la pista de aterrizaje en la región de interés determinada
por el módulo de predicción 70. Existen varios métodos de
emparejamiento: método exhaustivo, de búsqueda arborescente, de
relajación, de predicción-verificación, etc... En
todos los casos es necesario mostrar una medida de similitud entre
un subconjunto de características extraído de la imagen y el modelo
del objetivo. El resultado de este módulo consiste en un conjunto de
emparejamientos (imagen, modelo) y una medida de confianza en estos
emparejamientos.
El último módulo del bucle representado en la
figura 10 es un módulo de actualización 76 del modelo del objetivo.
Este módulo permite actualizar la representación de la pista de
aterrizaje y su modelo de dinámica (velocidad del movimiento
aparente, etc...).
Por encima de este bucle de seguimiento visual
se debe aplicar un bucle de control con el fin de verificar la
coherencia del seguimiento y con el fin de corregir eventuales
errores o derivas. Esta función de control tiene entonces como
objeto reactivar el módulo de iniciación en caso de pérdida de la
pista en la secuencia. Esta función de control asegura también el
paso de la fase P2 a la fase P3.
Tal seguimiento visual puede ser también puesto
en práctica por otras aplicaciones. En la aplicación al seguimiento
de una pista de aterrizaje en fase final de aterrizaje, el módulo de
iniciación 70 se realiza en parte en el curso de la fase P1 que
suministra un conjunto de segmentos convergentes. El módulo de
extracción de las características 72, en lo que a él se refiere, es
ejecutado en la subimagen que contiene estos segmentos para dar un
primer modelo de la pista (conjunto de puntos, contornos activos,
etc...). El módulo de predicción 70 puede ser omitido en el
presente caso. Es suficiente buscar en la imagen siguiente I_{n+1}
la pista en la que se encontraba en la imagen precedente
I_{n}.
En función del tiempo necesario para realizar
las diferentes etapas del bucle representado en la figura 10, no se
analizarán todas las imágenes de la secuencia de vídeo. La pista
será buscada solamente en una imagen de las n de la secuencia, por
ejemplo, una imagen de tres. Cuanto más grande sea n, más será
necesario introducir un modelo de predicción 70.
En lo que se refiere a los módulos de extracción
de las características 72, de emparejamientos 74 y de actualización
del modelo 76, se pueden utilizar varias técnicas. Estas técnicas
son conocidas por los expertos en la materia y no se detallarán
aquí. Únicamente se cita a modo de ejemplo la técnica de seguimiento
(tracking) de contornos poligonales por correlación 1D a lo largo
de los contornos, y la técnica de seguimiento de contorno con la
ayuda de contornos activos (o snakes) que utiliza la silueta del
objeto seguido. En esta fase de seguimiento también pueden
contemplarse otros métodos.
La última fase P3 es muy próxima a la que ya
existe en el contexto de la carretera, en la medida en la que el
avión rueda sobre la pista de aterrizaje o no está más que a algunos
metros por encima de ésta. Las líneas blancas laterales y centrales
de la pista de aterrizaje aparecen claramente en la imagen, las
imperfecciones del pavimento alquitranado son visibles y la textura
de los diferentes elementos que componen la escena (hierba,
hormigón, tierra, etc...) se hace discriminante.
En el contexto de la carretera se evalúan
secuencias de imágenes registradas a partir de cámaras montadas en
un vehículo en movimiento. Estas secuencias de imágenes suministran
informaciones sobre el entorno del vehículo, que son analizadas con
el fin de aportar una ayuda al conductor que se encuentra en
situaciones de tráfico reales. En el contexto de la carretera, el
objeto del análisis de las imágenes es encontrar la posición del
vehículo con respecto a la carretera. Es lo mismo en el caso del
avión sobre la pista de aterrizaje: es preciso encontrar su
posición con respecto a esta pista.
Actualmente se utilizan dos métodos. Un primer
método se basa en la clasificación de píxeles de la imagen para
detectar regiones (hierba, hormigón,...) y otro método se basa en un
modelo geométrico de la carretera, a partir de las discontinuidades
extraídas de la imagen.
A título de ejemplo, más adelante se describe un
algoritmo basado en el análisis de las regiones para la realización
de la fase P3. Se trata de un algoritmo de segmentación y de
caracterización de las regiones de la imagen 56'. Está compuesto
por cuatro grandes etapas descritas a continuación.
La primera etapa 78 debe suministrar rápidamente
una descripción sintética de la escena. Se realiza sobre una imagen
56' de baja resolución. Una primera partición de la imagen se
realiza dividiendo ésta en células cuadradas de un tamaño de 2x2
píxeles. Se definen varias clases analizando los histogramas de los
atributos cromáticos. A cada célula se asocia una clase, sacada de
una división del espacio de los colores. La fusión de las células
elementales se realiza utilizando un grafo de contigüidad (de
conectividad 4). Finalmente, las regiones de tamaño inferior a un
umbral dado se fusionan con la región contigua que tiene el valor
del criterio de homogeneidad más próximo.
Cada región resultante de la primera etapa
(segmentación por color) es a continuación caracterizada por su
color y su textura (etapa 80). Si bien para caracterizar una región
según sus atributos colorimétricos se utiliza la media estadística
de los píxeles que la componen, la medida de los atributos de
textura se basa en los histogramas de suma y de diferencia. Los
atributos generados por estos histogramas son la media, la
varianza, la energía, la entropía, el contraste y finalmente la
homogeneidad.
Se utilizan dos técnicas para identificar (etapa
82) los elementos (regiones) presentes en la imagen: la técnica de
la lógica bayesiana que realiza la clasificación utilizando el
conjunto de los atributos sin efectuar una partición del espacio de
las características, y la técnica jerárquica basada en un algoritmo
que hace una partición eficaz del espacio de las características
(capacidad intrínseca de selección de los atributos). Para esta
identificación se utiliza una base de aprendizaje 84 que está
construida en función de la aplicación del presente algoritmo.
Cada región de la imagen está, en la última
etapa 86, provista de su naturaleza (etiquetaje). Aunque la
segmentación de color suministra grandes regiones, estas últimas no
corresponden obligatoriamente a los principales componentes de la
escena. Por tanto, es necesaria una etapa de fusión para agrupar
todas las regiones conexas de la escena.
Al final de este algoritmo se obtiene un modelo
nominativo 88 de las diferentes regiones que aparecen en la imagen
56'e identificado en el curso de esta fase. Esto permite entonces
determinar la posición del avión con respecto a la pista de
aterrizaje.
El dispositivo y el procedimiento descritos
anteriormente permiten obtener un sistema de guiado en fase final
de aterrizaje de un avión autónomo con respecto a cualquier tipo de
instalación exterior al avión. De manera original, este sistema
mide separaciones con respecto a una trayectoria de aterrizaje ideal
a partir del tratamiento perceptual de imágenes transmitidas por un
sistema de una (o varias) cámaras situadas a bordo del avión.
Anteriormente se han descrito algoritmos de percepción para las
tres fases del algoritmo representado en la figura 1.
Con respecto a la detección de la zona
aeroportuaria, fase P1, se ha expuesto un algoritmo nuevo y original
basado en la extracción de agrupamientos perceptuales. Este
algoritmo también ha sido ensayado y da buenos resultados. Este
algoritmo permite determinar en una imagen 2D de un objeto 3D los
segmentos que corresponden a líneas paralelas en el espacio.
Las fases de seguimiento de pista (fases P2 y
P3) también han sido probadas. En lo relativo a la fase P2, dos
algoritmos probados y descritos a título de ejemplo anteriormente
han dado buenos resultados. Para la última fase del procedimiento
según el invento, la prueba ha sido realizada con una base de
aprendizaje prevista para una aplicacíón diferente. A pesar de
todo, el resultado obtenido es esperanzador. Es preciso resaltar
aquí que el algoritmo utilizado y descrito procede del campo de la
robótica. Otros algoritmos procedentes del campo del seguimiento de
ruta por un vehículo, que ya han realizado su prueba, pueden también
ser utilizados en la etapa P3.
El presente invento no se limita a las diversas
formas de ejecución descritas anteriormente a título de ejemplos no
limitativos, sino que se extiende a todas las variantes de
realización al alcance del experto en la materia, en el marco de
las reivindicaciones que siguen.
Claims (16)
1. Procedimiento de guiado en fase final de
aterrizaje para una aeronave que consta de las etapas
siguientes:
- a)
- toma de vista del suelo a partir de un dispositivo de toma de vista (2) situado a bordo de la aeronave y obtención de una imagen (56, 56'),
- b)
- análisis de la imagen (56) por un calculador (4) con el fin de detectar una zona aeroportuaria,
- c)
- detección por el calculador (4) de una zona aeroportuaria y selección de una pista (18) para el aterrizaje,
- d)
- seguimiento de la pista de aterrizaje (18) seleccionada durante la aproximación de la aeronave, marcando el calculador (4) en las imágenes suministradas por el dispositivo de toma de vista (2) la pista de aterrizaje seleccionada,
- e)
- seguimiento de la pista de aterrizaje cuando la aeronave está muy próxima al suelo, analizando el calculador (4) imágenes (56') suministradas por el dispositivo de toma de vista con el fin de determinar la posición de la aeronave con respecto a la pista de aterrizaje.
2. Procedimiento de guiado según la
reivindicación 1, caracterizado porque si la pista (18) se
pierde en el curso del seguimiento de la etapa d), se realiza una
reiniciación que consiste en volver a la etapa b).
3. Procedimiento de guiado según una de las
reivindicaciones 1 ó 2, caracterizado porque en la etapa b)
el análisis se realiza buscando (58) en la imagen (56) segmentos de
rectas sensiblemente paralelas y porque la detección de una pista
de aterrizaje se realiza emparejando (60) tales segmentos de
recta.
4. Procedimiento de guiado según la
reivindicación 3, caracterizado porque la búsqueda de
segmentos paralelos se efectúa dividiendo de forma regular el
intervalo de las direcciones posibles [-\pi/2; \pi/2] en N
clases y asociando cada segmento a una clase, considerándose
entonces que dos segmentos son paralelos si pertenecen a una
misma
clase.
clase.
5. Procedimiento de guiado según la
reivindicación 4, caracterizado porque dos segmentos
paralelos se seleccionan cuando se cumplen las condiciones
siguientes:
- -
- estos segmentos pertenecen a una misma clase de direcciones,
- -
- cada uno de estos segmentos tiene una longitud mínima,
- -
- estos dos segmentos están enfrente uno de otro con una tasa de recubrimiento mínima,
- -
- la distancia que separa estos dos segmentos es inferior a un valor predeterminado.
6. Procedimiento de guiado según la
reivindicación 5, caracterizado porque para cada par de
segmentos paralelos se determina un punto de fuga como el punto de
intersección teórico de los dos segmentos sensiblemente paralelos y
porque dos pares de segmentos se reagrupan en la medida en que la
distancia entre los dos puntos de fuga correspondientes es inferior
a un umbral predeterminado.
7. Procedimiento de guiado según una de las
reivindicaciones 1 a 6, caracterizado porque para la etapa d)
de seguimiento de la pista de aterrizaje consta de las siguientes
etapas elementales:
d1) iniciación (68): se extrae de la imagen la
pista de aterrizaje seleccionada y se modeliza y se define una
ventana en la que la pista ha sido encontrada,
d2) predicción (70): se predice la posición de
la pista de aterrizaje en la imagen en curso en función de la
posición ocupada en la imagen precedente y se define una ventana
correspondiente,
d3) extracción de características (72): se
suministra una representación adaptada de los contornos y/o puntos
de interés de la ventana,
d4) emparejamiento (74): se busca la pista de
aterrizaje en la ventana en función de la predicción, y
d5) si es necesario, se actualiza (76) la
representación de la pista de aterrizaje y/o la velocidad del
movimiento aparente de esta pista,
siendo iterativas las etapas d2) a d5).
\newpage
8. Procedimiento de guiado según una de las
reivindicaciones 1 a 7, caracterizado porque el seguimiento
de la pista de aterrizaje en la etapa e) se realiza analizando en
la imagen en curso el color y la textura de sus píxeles con el fin
de clasificar estos píxeles como pertenecientes o no a la pista de
aterrizaje.
9. Procedimiento de guiado según una de las
reivindicaciones 1 a 7, caracterizado porque el seguimiento
de la pista de aterrizaje en la etapa e) se realiza buscando en la
imagen el borde de la pista y/o una marca en la pista.
10. Procedimiento de guiado según una de las
reivindicaciones 1 a 9, caracterizado porque la pista de
aterrizaje tiene dos bordes longitudinales (20) paralelos unidos en
un extremo por un umbral (22), y porque el paso de la etapa d) a la
etapa e) se realiza cuando el umbral (22) ya no es visible en las
imágenes.
11. Dispositivo de guiado en fase final de
aterrizaje de un avión o similar, que tiene al menos un calculador
(4) y un vsualizador (6) situado en la cabina, teniendo una cámara
(2) unida a dicho calculador (4) medios para efectuar la toma y el
tratamiento de imágenes de vídeo, así como medios de análisis de
imagen con objeto de identificar allí una eventual zona
aeroportuaria, medios de detección de tal zona, medios de
identificación de una pista de aterrizaje predeterminada y de
seguimiento de esta pista en imágenes sucesivas, y medios de
análisis de imágenes con el fin de realizar un seguimiento de la
pista cuando el avión o similar está próximo al suelo, y porque
dicho calculador (4) está unido al visualizador (6) situado en la
cabina.
12. Dispositivo de guiado según la
reivindicación 11, caracterizado porque la cámara (2) es una
cámara de tipo CCD (Charge Coupled Device o dispositivo de
transferencia de carga).
13. Dispositivo de guiado según una de las
reivindicaciones 11 o 12, caracterizado porque tiene dos
cámaras de vídeo (2).
14. Dispositivo de guiado según una de las
reivindicaciones 11 a 13, caracterizado porque cada cámara
(2) está unida a dicho calculador (4) a través de un enlace de
fibra óptica.
15. Dispositivo de guiado según una de las
reivindicaciones 11 a 14, caracterizado porque el calculador
(4) está unido a un dispositivo de pilotaje automático (8).
16. Aeronave, caracterizada porque tiene
un dispositivo de guiado según una de las reivindicaciones 11 a
15.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0200928 | 2002-01-25 | ||
FR0200928A FR2835314B1 (fr) | 2002-01-25 | 2002-01-25 | Procede de guidage d'un aeronef en phase finale d'atterrissage et dispositif correspondant |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2271508T3 true ES2271508T3 (es) | 2007-04-16 |
Family
ID=27589582
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES03352001T Expired - Lifetime ES2271508T3 (es) | 2002-01-25 | 2003-01-21 | Procedimiento de guiado de una aeronave en fase final de aterrizaje y dispositivo correspondiente. |
Country Status (7)
Country | Link |
---|---|
US (1) | US6952632B2 (es) |
EP (1) | EP1335258B1 (es) |
AT (1) | ATE338296T1 (es) |
CA (1) | CA2418243C (es) |
DE (1) | DE60307911T2 (es) |
ES (1) | ES2271508T3 (es) |
FR (1) | FR2835314B1 (es) |
Families Citing this family (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7587278B2 (en) | 2002-05-15 | 2009-09-08 | Honeywell International Inc. | Ground operations and advanced runway awareness and advisory system |
US7702461B2 (en) | 2001-03-06 | 2010-04-20 | Honeywell International Inc. | Ground operations and imminent landing runway selection |
US8145367B2 (en) | 2001-03-06 | 2012-03-27 | Honeywell International Inc. | Closed airport surface alerting system |
US7089092B1 (en) * | 2002-07-18 | 2006-08-08 | Rockwell Collins, Inc. | Airborne system and method for improving the integrity of electronic landing aids |
US6850185B1 (en) * | 2003-07-31 | 2005-02-01 | Rockwell Collins | Runway obstacle detection system and method |
JP4253239B2 (ja) * | 2003-10-07 | 2009-04-08 | 富士重工業株式会社 | 画像認識を用いた航法装置 |
US8855846B2 (en) | 2005-10-20 | 2014-10-07 | Jason W. Grzywna | System and method for onboard vision processing |
GB2431790B (en) * | 2005-10-27 | 2010-11-10 | Sony Uk Ltd | Data processing apparatus and method |
FR2896071A1 (fr) * | 2006-01-11 | 2007-07-13 | Airbus France Sas | Procede et dispositif d'aide au pilotage d'un aeronef lors d'une approche autonome. |
FR2896073B1 (fr) * | 2006-01-11 | 2008-02-08 | Airbus France Sas | Systeme de pilotage d'un aeronef, au moins pour piloter l'aeronef lors d'une approche autonome en vue d'un atterrissage. |
US20080077284A1 (en) * | 2006-04-19 | 2008-03-27 | Swope John M | System for position and velocity sense of an aircraft |
IL175835A0 (en) * | 2006-05-22 | 2007-07-04 | Rafael Armament Dev Authority | Methods and systems for communicating and displaying points-of-interest |
US7783427B1 (en) | 2006-07-14 | 2010-08-24 | Rockwell Collins, Inc. | Combined runway obstacle detection system and method |
US7576680B1 (en) | 2006-08-09 | 2009-08-18 | Rockwell Collins, Inc. | Pulse pattern for weather phenomenon and incursion detection system and method |
US7693617B2 (en) * | 2006-09-19 | 2010-04-06 | The Boeing Company | Aircraft precision approach control |
US7881497B2 (en) * | 2007-03-08 | 2011-02-01 | Honeywell International Inc. | Vision based navigation and guidance system |
US7876925B2 (en) * | 2007-03-28 | 2011-01-25 | Honeywell International Inc. | Runway segmentation using vertices detection |
US7917254B2 (en) * | 2007-05-22 | 2011-03-29 | The Boeing Company | Aircraft guidance using localizer capture criteria for rectilinear displacement data |
US7941251B2 (en) * | 2007-05-22 | 2011-05-10 | The Boeing Company | Consistent localizer captures |
US8019529B1 (en) | 2007-08-17 | 2011-09-13 | Rockwell Collins, Inc. | Runway and airport incursion alerting system and method |
BRPI0817039A2 (pt) * | 2007-08-24 | 2015-07-21 | Stratech Systems Ltd | Sistema e método de vigilância de pista de pouso e decolagem |
US7948403B2 (en) * | 2007-12-04 | 2011-05-24 | Honeywell International Inc. | Apparatus and method for aligning an aircraft |
US7826666B2 (en) * | 2008-02-27 | 2010-11-02 | Honeywell International Inc. | Methods and apparatus for runway segmentation using sensor analysis |
US7932853B1 (en) | 2008-09-12 | 2011-04-26 | Rockwell Collins, Inc. | System and method for identifying incursion threat levels |
EP2175338A1 (en) * | 2008-10-13 | 2010-04-14 | Université de la Méditerranée | Steering aid method and system for landing on a target of a moving platform, and a 3 d vehicle equipped as such |
US7986249B2 (en) * | 2008-11-24 | 2011-07-26 | Honeywell International Inc. | System and method for displaying graphical departure procedures |
US8284997B2 (en) * | 2009-03-11 | 2012-10-09 | Honeywell International Inc. | Vision-based vehicle navigation system and method |
US8344655B2 (en) * | 2010-01-25 | 2013-01-01 | Altman Stage Lighting Co., Inc. | Power and data track lighting system |
FR2959052B1 (fr) * | 2010-04-16 | 2012-12-28 | Thales Sa | Dispositif d'assistance embarque au suivi d'une route aeroportuaire par un aeronef |
US20110282580A1 (en) * | 2010-05-11 | 2011-11-17 | Honeywell International Inc. | Method of image based navigation for precision guidance and landing |
US8711007B2 (en) * | 2010-06-15 | 2014-04-29 | The Boeing Company | Perspective runway system |
KR101050730B1 (ko) * | 2010-07-30 | 2011-07-20 | 엘아이지넥스원 주식회사 | 활주로 보조선 기반의 무인 항공기 위치 제어장치 및 그 제어방법 |
US8914166B2 (en) | 2010-08-03 | 2014-12-16 | Honeywell International Inc. | Enhanced flight vision system for enhancing approach runway signatures |
US8589071B2 (en) * | 2011-08-15 | 2013-11-19 | Honeywell International Inc. | Aircraft vision system including a runway position indicator |
US8798820B2 (en) * | 2011-09-08 | 2014-08-05 | The Boeing Company | Consistent localizer captures |
US9165366B2 (en) | 2012-01-19 | 2015-10-20 | Honeywell International Inc. | System and method for detecting and displaying airport approach lights |
US9141113B1 (en) * | 2012-04-26 | 2015-09-22 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Probabilistic surface characterization for safe landing hazard detection and avoidance (HDA) |
US8880328B2 (en) * | 2012-11-02 | 2014-11-04 | Ge Aviation Systems Llc | Method of optically locating an aircraft relative to an airport |
US9058742B2 (en) * | 2013-02-12 | 2015-06-16 | Ge Aviation Systems, Llc | Methods for illustrating aircraft situational information |
CN104006790A (zh) * | 2013-02-21 | 2014-08-27 | 成都海存艾匹科技有限公司 | 基于视觉的飞机降落辅助装置 |
FR3009117B1 (fr) * | 2013-07-24 | 2016-11-25 | Airbus Operations Sas | Procede et systeme d'atterrissage automatique autonome |
US20150206412A1 (en) * | 2013-07-29 | 2015-07-23 | Steven Harold Lachance | Scatterbrain |
US9177481B2 (en) | 2013-12-13 | 2015-11-03 | Sikorsky Aircraft Corporation | Semantics based safe landing area detection for an unmanned vehicle |
FR3018383B1 (fr) * | 2014-03-07 | 2017-09-08 | Airbus Operations Sas | Procede et dispositif de determination de parametres de navigation d'un aeronef lors d'une phase d'atterrissage. |
FR3020170B1 (fr) * | 2014-04-22 | 2016-05-06 | Sagem Defense Securite | Procede de guidage d'un aeronef |
FR3023912B1 (fr) * | 2014-07-18 | 2020-05-08 | Thales | Calcul de performance pour aeronef |
FR3024127B1 (fr) * | 2014-07-25 | 2016-08-26 | Airbus Operations Sas | Procede et systeme d'atterrissage automatique autonome |
US20160335901A1 (en) * | 2015-04-07 | 2016-11-17 | Near Earth Autonomy, Inc. | Control of autonomous rotorcraft in limited communication environments |
US10410096B2 (en) * | 2015-07-09 | 2019-09-10 | Qualcomm Incorporated | Context-based priors for object detection in images |
RU2650674C2 (ru) * | 2016-04-12 | 2018-04-17 | Открытое акционерное общество "Научно-производственное предприятие "Конверсия" | Радиолокационный способ определения положения средней линии взлетно-посадочной полосы |
FR3058252B1 (fr) | 2016-11-03 | 2019-01-25 | Airbus Operations | Procede et dispositif d'aide a l'atterrissage d'un aeronef en phase de descente en vue d'un atterrissage sur une piste d'atterrissage. |
IL249870B (en) | 2016-12-29 | 2022-02-01 | Israel Aerospace Ind Ltd | Autonomous landing with the help of an image |
GB2570497B (en) | 2018-01-29 | 2020-07-29 | Ge Aviat Systems Ltd | Aerial vehicles with machine vision |
FR3088908A1 (fr) * | 2018-11-22 | 2020-05-29 | Thales | Dispositif et procede d’aide a l’atterrissage d’un aeronef par conditions de visibilite reduite |
FR3110985A1 (fr) | 2020-05-29 | 2021-12-03 | Airbus | Interface homme-machine d’un aéronef en phase de décollage ou d’atterrissage |
US20220058962A1 (en) * | 2020-08-20 | 2022-02-24 | Aurora Flight Sciences Corporation, a subsidiary of The Boeing Company | Navigation systems and methods for operation |
US11783717B2 (en) | 2020-08-26 | 2023-10-10 | Honeywell International Inc. | Systems and methods for identifying a number of feasible target traffic for a paired approach |
CN112487977B (zh) * | 2020-11-30 | 2024-03-26 | 东南大学 | 一种基于国产gf2遥感影像的机场跑道提取方法 |
US11753181B2 (en) * | 2021-03-30 | 2023-09-12 | Honeywell International Inc. | System and method for visual aided landing |
CN113138382B (zh) * | 2021-04-27 | 2021-11-02 | 中国电子科技集团公司第二十八研究所 | 一种军民航机场全自动进近着陆监视方法 |
US20230282001A1 (en) * | 2022-03-04 | 2023-09-07 | Honeywell International Inc. | Adaptive feature extraction to detect letters and edges on vehicle landing surfaces |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4866626A (en) * | 1987-09-18 | 1989-09-12 | Egli Werner H | Navigation by a video-camera sensed ground array |
IL88263A (en) * | 1988-11-02 | 1993-03-15 | Electro Optics Ind Ltd | Navigation system |
JPH06135392A (ja) * | 1992-10-27 | 1994-05-17 | Mitsubishi Heavy Ind Ltd | グライドスロープからのずれ量算出装置 |
DE19521600A1 (de) * | 1995-06-14 | 1996-12-19 | Bodenseewerk Geraetetech | Landeverfahren für unbemannte Luftfahrzeuge |
US6211809B1 (en) * | 1998-09-01 | 2001-04-03 | Trw Inc. | Surface-based passive millimeter-wave landing aid |
US6157876A (en) * | 1999-10-12 | 2000-12-05 | Honeywell International Inc. | Method and apparatus for navigating an aircraft from an image of the runway |
FR2808588B1 (fr) * | 2000-05-05 | 2002-08-09 | Thomson Csf | Procede et dispositif de determination de la position d'un vehicule par rapport a une trajectoire ideale |
-
2002
- 2002-01-25 FR FR0200928A patent/FR2835314B1/fr not_active Expired - Fee Related
-
2003
- 2003-01-21 DE DE60307911T patent/DE60307911T2/de not_active Expired - Lifetime
- 2003-01-21 EP EP03352001A patent/EP1335258B1/fr not_active Expired - Lifetime
- 2003-01-21 ES ES03352001T patent/ES2271508T3/es not_active Expired - Lifetime
- 2003-01-21 AT AT03352001T patent/ATE338296T1/de not_active IP Right Cessation
- 2003-01-22 CA CA2418243A patent/CA2418243C/fr not_active Expired - Fee Related
- 2003-01-24 US US10/350,663 patent/US6952632B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
ATE338296T1 (de) | 2006-09-15 |
DE60307911D1 (de) | 2006-10-12 |
CA2418243A1 (fr) | 2003-07-25 |
CA2418243C (fr) | 2011-03-15 |
US20030225487A1 (en) | 2003-12-04 |
EP1335258B1 (fr) | 2006-08-30 |
EP1335258A1 (fr) | 2003-08-13 |
DE60307911T2 (de) | 2007-04-12 |
FR2835314A1 (fr) | 2003-08-01 |
US6952632B2 (en) | 2005-10-04 |
FR2835314B1 (fr) | 2004-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2271508T3 (es) | Procedimiento de guiado de una aeronave en fase final de aterrizaje y dispositivo correspondiente. | |
CN116026345B (zh) | 用于车辆导航的系统和方法 | |
US12030502B2 (en) | Road vector fields | |
EP3887762B1 (en) | Lane mapping and navigation | |
US10365658B2 (en) | Systems and methods for aligning crowdsourced sparse map data | |
EP3843001A1 (en) | Crowdsourcing and distributing a sparse map, and lane measurements for autonomous vehicle navigation | |
JP6301828B2 (ja) | 誘導用線路に沿って移動する車両の速度及び位置を測定する装置、並びに対応する方法及びコンピュータプログラム製品 | |
CN117053812A (zh) | 使用电子地平线导航交通工具 | |
Choi et al. | BRM localization: UAV localization in GNSS-denied environments based on matching of numerical map and UAV images | |
US20230195122A1 (en) | Systems and methods for map-based real-world modeling | |
CN113034540A (zh) | 基于摄像机的自动化精密道路地图生成系统及方法 | |
CN114930123A (zh) | 用于检测交通灯的系统和方法 | |
Rosenbaum et al. | Towards automatic near real-time traffic monitoring with an airborne wide angle camera system | |
Yi et al. | Geographical map registration and fusion of lidar-aerial orthoimagery in gis | |
KR20210098534A (ko) | 포지셔닝을 위한 환경 모델을 생성하기 위한 방법 및 시스템 | |
Gong et al. | A survey of techniques for detection and tracking of airport runways | |
Belaroussi et al. | Vehicle attitude estimation in adverse weather conditions using a camera, a GPS and a 3D road map | |
US20230195506A1 (en) | Systems and methods for processing atomic commands | |
US20230127230A1 (en) | Control loop for navigating a vehicle | |
Rajamohan et al. | Extracting Road Features from Aerial Videos of Small Unmanned Aerial Vehicles | |
CN118836885A (en) | System and method for automatically generating a navigation map | |
Vu | Robust Vehicle State Estimation for Improved Traffic Sensing and Management | |
Toth et al. | Moving Toward Real-Time Mobile Mapping: Autonomous Vehicle Navigation |