ES2435541T3 - Sistema y procedimiento de captación sincrónica de luz de fuente pulsada para realizar la monitorización de una operación de vuelo de una aeronave - Google Patents

Sistema y procedimiento de captación sincrónica de luz de fuente pulsada para realizar la monitorización de una operación de vuelo de una aeronave Download PDF

Info

Publication number
ES2435541T3
ES2435541T3 ES07750714T ES07750714T ES2435541T3 ES 2435541 T3 ES2435541 T3 ES 2435541T3 ES 07750714 T ES07750714 T ES 07750714T ES 07750714 T ES07750714 T ES 07750714T ES 2435541 T3 ES2435541 T3 ES 2435541T3
Authority
ES
Spain
Prior art keywords
light
aircraft
emission
target source
modulated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES07750714T
Other languages
English (en)
Inventor
J. Richard Kerr
Gregory A. Zuro
Michael E. Fossey
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Max Viz Inc
Original Assignee
Max Viz Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=38372107&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2435541(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Max Viz Inc filed Critical Max Viz Inc
Application granted granted Critical
Publication of ES2435541T3 publication Critical patent/ES2435541T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/02Automatic approach or landing aids, i.e. systems in which flight data of incoming planes are processed to provide landing data
    • G08G5/025Navigation or guidance aids

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Studio Devices (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

1. Procedimiento para la captación temprana de luz emitida por una fuente objetivo situada a una distancia de unacámara de formación de imágenes que funciona en asociación con un procesador para realizar la monitorización deuna operación de vuelo de una aeronave, caracterizado porque comprende las etapas siguientes: utilizar la cámara de formación de imágenes que funciona en respuesta a una señal de temporización producidapor un sistema de navegación global para captar una secuencia de fotogramas de imágenes de una escena, enla que la fuente objetivo está contenida, emitiendo la fuente objetivo una luz que es modulada en respuesta a laseñal de temporización para producir una emisión de luz de fuente objetivo modulada con una razón demodulación, y permitiendo la señal de temporización la captación de la secuencia de fotogramas de imágenescon una razón que está sincronizada con la razón de modulación y es un múltiplo conocido de la misma;aplicar el múltiplo conocido al cual se establece un valor que hace que la secuencia de fotogramas de imágenesincluya un primer y segundo conjuntos de imágenes que representan, respectivamente, información de la escenade fondo que incluye la emisión de luz de la fuente objetivo modulada e información de escena de fondo que noincluye la emisión de luz de la fuente objetivo modulada; y utilizar una electrónica de lectura para procesar el primer y segundo conjuntos de imágenes para extraer lainformación de escena de fondo a partir de imágenes temporalmente correspondientes del primer y segundoconjuntos y obtener, de este modo, información de imágenes procesadas a partir de la cual la captación de laemisión de luz de la fuente objetivo modulada puede ser llevada a cabo por un procesador para permitir lamonitorización de la operación de vuelo de una aeronave.

Description

Sistema y procedimiento de captación sincrónica de luz de fuente pulsada para realizar la monitorización de una operación de vuelo de una aeronave.
Campo técnico
La presente exposición se refiere a la monitorización de operaciones de vuelo de aeronaves y, en particular, a la captación temprana de luz emitida por una fuente de destino situada a una distancia de una cámara de formación de imágenes para la realización de la monitorización de operaciones de vuelo de aeronaves.
Antecedentes de la técnica
En Estados Unidos, así como en otras partes del mundo, los diodos emisores de luz (LED) se utilizan como sustitutos de las luces de aeropuerto convencionales, que comprenden luces de aproximación, de pista y de calle de rodaje. Las razones de ello es que los LED de color y los LED de color azul intenso con fósforo blanco ("LED blancos") tienen una vida útil prolongada, precisan poco mantenimiento y permiten ahorrar energía. Estos LED de sustitución carecen de signatura infrarroja.
Las luces convencionales tienden a mostrar un máximo rendimiento en las longitudes de onda infrarroja de onda corta (SWIR), comprendidas entre las longitudes de onda de luz visible y de 2 micras o más, y son, por consiguiente, mejores emisores de luz SWIR que de luz visible. El rendimiento de las luces convencionales en las longitudes de onda infrarroja de onda larga (LWIR), (de 8 a 14 micras), es bajo, debido a que las lentes de cristal no transmiten energía LWIR desde dentro de la bombilla y el globo externo no está particularmente caliente con respecto a la temperatura ambiental. Como consecuencia, el sistema EVS de infrarrojos pretende conseguir el rendimiento SWIR. Los modelos de instrumento EVS nº EVS 2000 y nº EVS 2500, fabricados por Max-Viz, Inc., el cesionario de la presente solicitud de patente, se implementan cada uno con una cámara SWIR dedicada separada, que se procesa para las luces, y la información de imagen procesada resultante a su vez se superpone o fusiona con las imágenes de "fondo térmico" LWIR. Los sistemas EVS "All Weather Window" fabricados por Kollsman, Inc. y los sistemas EVS SureSight fabricados por CMC Electronics se implementan cada uno con una cámara combinada SWIR e infrarroja de onda media (MWIR), (de 3 a 5 micras), configurada en un solo conjunto de plano focal (FPA) criorrefrigerado.
Debido a que las luces LED de sustitución carecen de signatura infrarroja, la detección de estas por un sistema EVS precisará el uso de una cámara visible (televisión) separada y la fusión con las imágenes obtenidas mediante termografía IR. Las patentes US nº 6.806.469, nº 6.373.055 y nº 6.232.602 se refieren a la utilización de dicha fusión de la imagen de las luces. La Administración Federal de Aviación (FAA) propone el uso de modulación por anchura de impulso (ciclo de trabajo) para controlar la intensidad media de las luces LED de sustitución (especialmente, LED de luz blanca y brillante). Si se pudiera implementar funcionalmente una cámara visible con dichas luces, su uso redundaría en ventajas significativas. Podría ser preciso aplicar dichos conceptos a los LED de espectro visible y SWIR ubicados en el mismo lugar. Los LED SWIR serían beneficiosos para determinados sistemas EVS de infrarrojos, por las razones explicadas anteriormente. Por otra parte, cuando en lugar de trabajar en las longitudes de onda visibles se trabaja en las SWIR, se obtienen beneficios de rendimiento, tales como la disponibilidad de cámaras sumamente sensibles, determinadas ventajas de penetración en niebla limitadas con respecto a las longitudes de onda de luz visible y una menor reflexión del fondo solar.
El documento GB 2 224 613 A describe un sistema de aterrizaje automático que realiza, mediante un único sensor autónomo, una medición precisa de los seis grados de libertad (posición y orientación) durante el control de una aeronave. Basándose en las mediciones que realiza, el sistema evalúa las influencias perturbadoras del vuelo de la aeronave, tales como las turbulencias atmosféricas o las ráfagas de viento, y las tiene en cuenta para ofrecer una orientación precisa de la aeronave a lo largo de una trayectoria deseada y la toma instantánea de cualquier medida correctiva necesaria.
La patente US nº 6.806.469 describe un sistema de visión que genera una pantalla basada en la fusión de las imágenes de los dos reproductores de imágenes. Uno de los reproductores de imágenes detecta la radiación infrarroja de longitud de onda corta (SWIR) para generar una primera señal que representa las señales de luz eléctrica detectadas, y el otro detecta la radiación infrarroja de longitud de onda larga o mediana (LWIR o MWIR) para generar una segunda señal que representa el fondo detectado. Cada reproductor de imágenes comprende un detector y la electrónica para procesar la señal generada por el detector. El acondicionamiento y el procesamiento de señales por cada reproductor de imágenes genera una primera y una segunda señales acondicionadas y procesadas que se ajustan una en relación con la otra, de tal forma que la imagen de las fuentes de radiación de los dos rangos de longitudes de onda IR detectados se fusionen para la visualización sin pérdida de detalle de la imagen de sendos rangos de longitudes de onda IR.
Sumario de la exposición
Uno de los problemas de interés es el uso de sistemas de visión mejorada (EVS) para la captación temprana de la
iluminación de pista/aproximación en condiciones adversas de atenuación por niebla. Esas condiciones se agravan en horas diurnas debido a la influencia del fondo de niebla iluminado por el sol. En cualquier caso, uno de los objetivos de esta aplicación es sobrepasar con creces el rendimiento del sentido de la vista del piloto de una aeronave ofreciendo instrumentos en los que las luces aparecen en una pantalla (y en otras operaciones de procesamiento informático para la captación/identificación de pista, tales como, por ejemplo, el reconocimiento de patrones de luces de pista y la renderización de una imagen de estos) mucho antes de que el piloto pueda ver las luces "desde su ventanilla".
Una situación relacionada es la captación de aeronaves provistas de balizas pulsadas por cámaras situadas en tierra sincronizadas con las balizas pulsadas. Esta aplicación se plantea en la captación e identificación de aeronaves no tripuladas (UAV) a su regreso a sus controladores.
Otro de los problemas de interés es el uso de tecnología de fuentes y sensores que ofrece la capacidad de ver o la de detectar y evitar para las aeronaves tripuladas o UAV en presencia de un fondo celeste diurno y terrestre. Uno de los objetivos de esta aplicación es permitir a una aeronave que utiliza balizas pulsadas ver en vuelo otra aeronave equipada con cámaras sincronizadas. Esto evita colisiones de aeronaves y se aplica sobre todo a las aeronaves UAV para la detección de otras aeronaves con mucha antelación a fin de superar la deficiente maniobrabilidad de las aeronaves UAV.
Las soluciones a estos problemas conllevan la utilización de equipos de vídeo de espectro visible o infrarrojo cercano controlados en una modalidad de detección sincrónica con emisiones de luz pulsada compatibles, denominadas a veces balizas pulsadas. Las formas de realización preferidas implementan la "apertura" de la cámara sincrónicamente con fuentes de iluminación por diodo moduladas, tales como los impulsos LED de aproximación/aterrizaje visibles propuestos por la FAA, o las emisiones de diodo láser infrarrojo pulsadas para evitar colisiones. Esto se consigue con una razón de fotogramas de la cámara que es dos veces la frecuencia de impulsos del LED o el diodo láser, de tal forma que los fotogramas alternen entre una escena de fondo con luces y una escena de fondo sin luces. A continuación, con ayuda de un procesador de vídeo en tiempo real, cada fotograma alternativo se sustrae de tal forma que la escena de fondo se anula. Las ventajas que se derivan de esta estrategia son la anulación de las luces irrelevantes durante la noche y de la iluminación solar de fondo durante el día.
La diferenciación de los fotogramas de vídeo, por consiguiente, causa la eliminación de la escena de fondo, así como de todas las luces que no sean de interés. Aplicando una operación de umbralización adecuada al patrón de diferencias de píxeles resultante del conjunto de detectores de la cámara, las luces deseadas se captan y representan como símbolos puntuales en una pantalla. En una forma de realización de un sistema de aterrizaje de visión mejorada, las luces deseadas (símbolos) se superponen a una imagen térmica de la escena o se "fusionan" con ésta; como alternativa, los símbolos pueden superponerse a una imagen de una escena visible (TV).
En contextos de luz diurna con altos niveles de fondo celeste y terrestre, el tiempo de integración de fotogramas se reduce automáticamente para prevenir la saturación de los pozos de píxel. Tras la sustracción de fotogramas, los fotoelectrones de la señal compiten solo con el ruido de agitación térmica de fondo, que se obtiene mediante la raíz cuadrada del número de fotoelectrones de fondo de cada pozo de píxel. Como consecuencia, las luces deseadas pueden captarse cuando son de una magnitud muy inferior al fondo. Por la noche, el tiempo de integración de fotogramas se incrementa y el mecanismo de captación está limitado solo por la lectura básica de la cámara y el ruido de la corriente oscura.
Además de la detección sincrónica para la captación de una pista o una aeronave, mediante una técnica de submodulación adecuada, las emisiones de luz pulsada pueden transmitir información que representa, por ejemplo, un identificador de pista o aeronave. Unas de las técnicas de submodulación adecuadas es, por ejemplo, la modulación por posición de impulso o por código de impulso.
Otros aspectos y ventajas se pondrán de manifiesto a partir de la siguiente descripción detallada de las formas de realización preferidas, en la que se hace referencia a los dibujos adjuntos.
Breve descripción de los dibujos
La figura 1 es un diagrama de bloques de una forma de realización de un sistema de formación de imágenes que se implementa para procesar impulsos LED modulados a fin de componer una escena con las luces del sistema de tierra en ausencia de iluminación de fondo.
La figura 2 es un diagrama de bloques de una forma de realización de un sistema de formación de imágenes en el que un sistema de tierra efectúa el seguimiento de una aeronave equipada con una baliza de luz pulsada.
La figura 3 representa una forma de realización de un sistema de formación de imágenes, en el que una aeronave equipada con una baliza de fuente de luz pulsada y una cámara de imágenes controlada efectúa el seguimiento de aeronaves con equipamiento similar para evitar colisiones.
La figura 4 representa una variante de la forma de realización de la figura 3, en la que una de las aeronaves es un vehículo no tripulado equipado con una baliza de fuente de luz pulsada, que permite a las aeronaves tripuladas monitorizar y evitar la aeronave no tripulada, y un procesador de visión y un sistema de guiado de aeronaves no tripuladas, que permiten el repostaje de combustible autónomo.
Descripción detallada de las formas de realización preferidas
La figura 1 representa una forma de realización de un sistema de formación de imágenes 10, en el cual un sistema embarcado en una aeronave extrae información de posición detectando las luces de pista. En esta aplicación airetierra, un sistema de tierra 12 comprende un receptor GPS 14 que facilita una señal de sincronización a un circuito de modulación por anchura de impulso (PWM) 16 que se utiliza para alimentar y ajustar la intensidad de las luces de LED de pista 18. El circuito PWM 16 puede estar equipado para submodular las luces de LED de pista pulsadas 18 a fin de superponer a estas datos de baja velocidad de transferencia de datos que facilitan información de identificación de aeropuerto y pista para el aterrizaje de las aeronaves. Las luces de LED de pista 18 se componen de conjuntos de LED de alta intensidad, por lo general LED blancos para las luces de pista y LED de color para la iluminación de calles de rodaje.
Un sistema de aeronave 30 comprende también un receptor GPS 32. En este caso, el receptor GPS 32 facilita una señal de sincronización y la posición de la aeronave. La señal de sincronización se utiliza para controlar la electrónica de lectura 34 y captar la señal de vídeo de forma sincronizada con el funcionamiento de las luces de LED sometidas a modulación por anchura de impulso 18 del sistema de tierra 12. La información de posición, combinada con la información que se dispone acerca de la posición de la pista, se utiliza para corregir pequeñas diferencias de hora de vuelo entre la temporización PWM y la temporización de la electrónica de lectura.
La electrónica de lectura 34, que lee la información de las imágenes captadas por un conjunto de detectores de una cámara de formación de imágenes 36, están diseñados para captar un fotograma de vídeo (o varios fotogramas de vídeo) durante un intervalo de tiempo en el que se sabe que las luces de LED de pista 18 están encendidas, captar un fotograma de vídeo (o varios fotogramas de vídeo) durante un intervalo de tiempo en el que se sabe que las luces de LED de pista 18 no están encendidas y, a continuación, sustraer los dos fotogramas para obtener una imagen que comprende solo una imagen de las luces de LED de pista 18. En esta imagen, la reflexión del fondo, tal como la del alumbrado público y los faros de los automóviles y el ruido del detector, se ha reducido o eliminado en gran medida.
La imagen se combina con otro tipo de información de los sensores en un procesador de visión 38 y se presenta en una pantalla de la cabina del piloto 40 para que este la vea. El otro tipo de información de los sensores comprende imágenes térmicas, imágenes de radar de ondas milimétricas o ambas cosas. La pantalla de la cabina del piloto 40 es una pantalla de visualización frontal o inferior. Los componentes del sistema contenidos en el recuadro en línea discontinua constituyen un sistema de visión mejorada (EVS) 42.
Para ofrecer la ventaja de relación señal-ruido inherente a la detección sincrónica de las señales de luz de LED, el equipo está configurado para sincronizar el funcionamiento de la cámara con la temporización de modulación por anchura de impulso (PWM) de las luces de LED. En la aplicación de la captación de luces de pista, una primera estrategia preferida consiste en utilizar la modulación PWM de las luces de pista 18 y la cámara de formación de imágenes 36 sincrónicamente con la señal de sincronización obtenida del receptor del sistema de posicionamiento global (GPS) 32. Los receptores que generan una señal de 1 pps junto con impulsos de reloj de frecuencia superior procedentes de las señales de GPS se pueden obtener fácilmente en el mercado a través de varias fuentes. Mediante estas señales, es muy sencillo obtener, en el rango de 50 Hz a 1000 Hz, señales con fase sincrónica que son útiles para los propósitos de sincronización. Una segunda estrategia preferida consiste en utilizar un receptor óptico separado con una apertura bastante grande y un único fotodiodo para detectar la luz de LED y enviar una señal de temporización a la cámara de formación de imágenes 36. La ventaja de esta estrategia es que impone menos limitaciones al diseño del sistema de iluminación de LED. Una tercera estrategia preferida es la de "sincronizarse" con las imágenes de las luces detectadas por la cámara de formación de imágenes 36 y ajustar la temporización de detección para mejorar la relación señal-ruido. Desde el punto de vista de un sistema, esta es la estrategia de coste más bajo, pero tal vez no sea tan sólida como las dos estrategias descritas anteriormente.
Para evitar que el piloto vea luces de pista 18 con una apariencia "pulsante", los LED se modulan a 50 Hz o más.
Si se utiliza radiación SWIR, se dispone de la opción de fusión de cámaras duales de radiación visible/SWIR para ver ambos tipos de LED. Las ventajas y desventajas asociadas a la longitud de onda se resumen a continuación. En las longitudes de onda SWIR (por ejemplo, aproximadamente 1,5 micras), el resplandor del sol a través de la niebla se reduce ventajosamente unas diez veces más que en las longitudes de onda de la luz visible. En comparación con las fuentes de luz de pista operativas en las longitudes de onda de la luz visible, las potentes fuentes de luz de pista SWIR (que quizá necesiten ser láseres diodo en lugar de LED) son más caras. Las cámaras SWIR también son caras. Los láseres poseen una menor anchura espectral (por ejemplo, de 15 nm) que la de los LED, con lo cual los láseres permiten un mayor filtrado espectral del fondo solar. La emisión de las luces de pista en el rango de 1,5 micras experimenta una atenuación en neblina o partículas oscurecedoras finas algo menor que en las longitudes de
onda de luz visible. No hay mucha diferencia en agua y niebla, aunque se experimenta alrededor de un 5% menos de atenuación con respecto a las longitudes de onda de la luz visible. Esto constituye un incremento significativo en el nivel de luz, ya que es una función exponencial de la distancia. En el rango de las 1,5 micras, la FAA carga con la responsabilidad de elegir cuidadosamente la longitud de onda LED o láser precisa para evitar la estructura de los espectros de absorción atmosférica (molecular). Es más fácil encontrar en el mercado cámaras de alta frecuencia de fotogramas en las longitudes de onda de la luz visible.
Aunque la técnica de línea de base de monitorización de las operaciones de vuelo de las aeronaves implica el uso de emisiones de luz intermitente para la captación con diferenciación de fotogramas de vídeo, otras opciones de codificación, aparte de las PWM descritas anteriormente, comprenden modulación por código de impulso, modulación por posición de impulso, codificación pseudoaleatoria y códigos de corrección de errores. La implementación de la tecnología de sistemas de comunicación por fibra óptica puede ofrecer otras técnicas de codificación ventajosas.
En el caso particular de interés, es decir, la niebla, las limitaciones sobre la captación de los LED comprenden el ruido de cámara (lectura de plano focal) y el ruido de agitación térmica de la escena de fondo diurno.
Las cámaras de imágenes sensibles a la luz visible, tales como las cámaras de sensores CCD o CMOS, permiten el funcionamiento a unas frecuencias de fotogramas más altas que las de las cámaras de televisión convencionales (es decir, de 30 Hz a 60 Hz). Por otra parte, los últimos avances en la tecnología de lectura también permiten frecuencias de fotogramas más altas en las cámaras SWIR. Por lo tanto, existe una opción de incrementar la pulsación de las luces a una frecuencia significativamente superior a 50 Hz y añadir las señales de un número N de pares de fotogramas secuenciales sustraídos. Esto provoca un incremento adicional de valor .I en la relación señal-ruido (SNR). Una vez se alcanza el número N de pares, se extraen los píxeles (de imágenes LED) deseados mediante una operación de umbralización o una operación de procesamiento de detección diferente. Aunque los píxeles de la cámara no permiten la resolución geométrica, un LED determinado puede iluminar en realidad varios píxeles, debido a la pérdida de definición o la pérdida de la función de transferencia de modulación (MTF) causadas por la dispersión múltiple en la niebla.
Una estrategia preferida es el uso de una cámara que integra la señal óptica para todos los píxeles a la vez. Los diferentes fabricantes describen con diferentes términos esta capacidad. Algunos fabricantes de cámaras IR se refieren a las cámaras que presentan esta característica como cámaras de "modalidad instantánea". Otros fabricantes de cámaras CCD de luz visible las describen como cámaras de "captura de fotograma completo". La característica común es que todos los píxeles acumulan electrones durante el mismo período de tiempo y, a continuación, los extraen y sincronizan en secuencia como una señal de vídeo tras el período de captación.
Más comúnmente, las cámaras funcionan en "modalidad de barrido lineal". En esta modalidad, cada línea del conjunto comienza a acumular electrones justo después de que se haya leído la línea. La acumulación se detiene cuando llega el momento de leer esa línea otra vez. El uso de este tipo de cámara implica el funcionamiento de la cámara a una frecuencia de fotogramas que es muy superior a la frecuencia del LED PWM. En cada ciclo PWM, se captan muchos fotogramas (del orden de 10 a 20). Los fotogramas se procesan entonces línea por línea en el procesador de visión 38, combinando las líneas que se obtienen cuando se sabe que los LED están encendidos para crear una imagen de "encendido", y combinando las líneas que se obtienen cuando se sabe que los LED están apagados para crear una imagen de "apagado". La diferencia entre estas dos imágenes se utiliza para crear la mejor imagen para cada ciclo PWM. En esta modalidad, la cámara funciona a una frecuencia del rango de 500 a 2000 fotogramas por segundo.
Una vez que se han captado las luces deseadas mediante este sistema, los datos forman, para cada fotograma, un conjunto de puntos (píxeles), cada uno de los cuales representa un LED. Este, a su vez, se transmite al procesador de visión 38, que relaciona las luces con una base de datos de pista y, posteriormente, desempeña funciones de monitorización de integridad y de navegación basada en EVS y, asimismo, genera una pantalla de pista simbólica para el piloto. Esto constituye asimismo una "verificación de la integridad de la pantalla de visión sintética" (fusión de las imágenes de la base de datos con las imágenes en tiempo real).
Las frecuencias de fotogramas más elevadas pueden requerir una menor resolución, es decir, la lectura de un número inferior de píxeles. El uso de solo una parte del conjunto de plano focal limita el campo de visión (FOV), lo cual no es adecuado para la captación de pista, o bien implica menos resolución, es decir, un mayor FOV angular instantáneo (IFOV) con el mismo FOV. Lo último no es deseable, puesto que puede disminuir el rendimiento del subsiguiente procesamiento de correlación con la base de datos, y durante el día implica un recuento de fotones de ruido de fondo superior para cada píxel. Por consiguiente, si es necesario el uso de dicho FPA parcial, pueden ser aconsejables las técnicas de división dinámica de la pantalla en ventanas. Aunque se requiere una resolución reducida, particularmente en las cámaras SWIR, son posibles frecuencias desde cientos de Hz hasta un par de KHz. El modelo anterior presupone que la imagen de un LED determinado se mantendrá en el mismo pixel durante los N impulsos, lo cual, a su vez, presenta dos aspectos. El primero es que la actitud transitoria de la aeronave cambia. Para aeronaves de transporte, esto probablemente no constituya un problema importante, en particular en condiciones de turbulencia ligera, como ocurre en caso de niebla. El segundo es el alcance y la distribución
cambiantes de la imagen de perspectiva de las luces durante la aproximación de aterrizaje. Este es un factor mucho menos importante en los alcances más amplios que se aplican a la fase temprana de aproximación, en la que la captación en la niebla impone una dificultad.
El sistema de sincronización anterior permite la captación de los LED a una distancia que es varias veces el "alcance visual en la pista" (RVR), es decir, muy por encima de la capacidad visual del piloto. A título de ilustración simple, para captar a una distancia de tres veces el RVR, un sistema de LED-cámara funciona con un factor de transmisión (niebla) de (0,05)3 = 1,25 E(-4). En un contexto de día soleado con niebla, el fondo solar que interfiere es un fondo gris indiferenciado.
Si se utilizan tanto LED visibles como SWIR (ubicados en el mismo lugar), se dispone de una opción de aplicar tanto cámaras visibles como SWIR y fusionar los resultados antes de la detección de captación final para el campo de luces. Como se ha descrito anteriormente, las primeras son mucho menos caras, aunque las últimas tienen un rendimiento muy superior.
La determinación definitiva de si una imagen de LED está presente en un píxel determinado puede ser mucho más compleja que la simple detección de umbral y puede comprender el procesamiento en el dominio temporal, el dominio espacial o el dominio espacio-temporal. En el dominio temporal, es aplicable todo el rango de herramientas teóricas de comunicaciones para la detección de impulsos. Pueden utilizarse medios estadísticos, que comprenden, por ejemplo, la estimación del fondo y/o los niveles de ruido de cámara durante los períodos de "LED apagados". En el dominio espacial, en la decisión también pueden intervenir determinaciones locales (máximos) y/o espaciales globales a través del FPA. En el dominio espacio-temporal, se utiliza el seguimiento y la predicción del movimiento.
Otras aplicaciones que amplían la aplicación de luces de pista comprenden la colocación manual de un conjunto de balizas de LED pulsadas o de diodo láser para definir una zona de aterrizaje en una área selvática o táctica de una operación de una fuerza armada especial y el despliegue de balizas pulsadas personales individuales por el personal que ha sido derribado, que facilitan información de posición a los efectos del rescate. Dichas aplicaciones serían más susceptibles de ser utilizadas en aeronaves de ala giratoria.
La figura 2 es una forma de realización de un sistema de formación de imágenes 100, en el que un sistema de tierra efectúa el seguimiento de una aeronave equipada con una baliza de luz pulsada. En esta aplicación tierra-aire, un sistema de tierra 102 comprende un receptor GPS 104 que facilita una señal de sincronización para un circuito PWM 106 utilizada para modular la intensidad de una baliza de LED 108. El circuito PWM 106 puede ser operativo para submodular la baliza de LED pulsada 108 a fin de superponer a esta datos de baja velocidad de transferencia que facilitan información de identificación de aeronave o vuelo que el sistema de control de tráfico aéreo captará automáticamente cuando la aeronave empiece la aproximación final. La baliza de LED 108 se compone de conjuntos de LED de alta intensidad, normalmente LED blancos.
Un sistema de tierra 130 comprende también un receptor GPS 132. En este caso, el receptor GPS 132 facilita una señal de sincronización, que se utiliza para controlar la electrónica de lectura 134 y captar la señal de vídeo de forma sincronizada con el funcionamiento de la baliza de LED con modulación por anchura de impulso 108 del sistema de la aeronave 102. Los datos facilitados por los receptores GPS 104 y 134 de las posiciones relativas entre la aeronave balizada y el sistema de tierra 130 se utilizan para corregir pequeñas diferencias de hora de vuelo entre la temporización PWM y la temporización de la electrónica de lectura.
La electrónica de lectura 134, que lee la información de las imágenes captadas por un conjunto de detectores de una cámara de formación de imágenes 136, están diseñados para captar un fotograma de vídeo (o varios fotogramas de vídeo) durante un intervalo de tiempo en el que se sabe que la baliza de LED 108 está encendida, captar un fotograma de vídeo (o varios fotogramas de vídeo) durante un intervalo de tiempo en el que se sabe que la baliza de LED 108 no está encendida y, a continuación, sustraer los dos fotogramas para obtener una imagen que comprende solo una imagen de la baliza de LED 108. En esta imagen, la reflexión del fondo, tal como la iluminación solar y el ruido del detector, se ha reducido o eliminado en gran medida. Esta imagen se presenta en una pantalla 140 de un observador ubicado en tierra. Después de la captación de la aeronave balizada, puede realizarse la detección sincrónica en la cámara de formación de imágenes 136 para seguir el avión. Para aeronaves UAV balizadas, la cámara de formación de imágenes 136 puede utilizarse para seguir una aeronave UAV que regresa a su controlador.
La figura 3 representa una forma de realización de un sistema de formación de imágenes 200, en el que una aeronave equipada con una baliza de fuente de luz pulsada y una cámara de imagen controlada efectúa el seguimiento de aeronaves con equipamiento similar para evitar colisiones. En esta aplicación aire-aire, cada uno de los dos sistemas de aeronaves pilotadas 2021 y 2022 dispuestos en diferentes aeronaves comprende un receptor GPS 204 que facilita una señal de sincronización para un circuito PWM 206 utilizada para modular la intensidad de una baliza de fuente de diodo láser 208. El circuito PWM 206 puede estar equipado para submodular la baliza de fuente de diodo láser pulsado 208 a fin de superponer a ésta datos de baja velocidad de transferencia que facilitan información de identificación de la aeronave al sistema de la aeronave de destino. Para la presente aplicación aireaire, la longitud de onda SWIR de 1550 nm es particularmente ventajosa en términos de la disponibilidad de fuentes
de diodo láser, el rendimiento de cámaras de formación de imágenes basadas en InGaAs, la reducción de los niveles del fondo ambiental y la seguridad ocular.
El receptor GPS 204 también facilita la señal de sincronización para controlar la electrónica de lectura 234 y captar la señal de vídeo sincrónicamente con el funcionamiento de la baliza de fuente de diodo láser modulada por anchura de impulso 208 del sistema de la aeronave de destino. Los datos facilitados por los dos receptores GPS 204 de las posiciones relativas entre las dos aeronaves balizadas se utilizan para corregir pequeñas diferencias de hora de vuelo entre la temporización PWM y la temporización de la electrónica de lectura.
La electrónica de lectura 234, que lee la información de las imágenes captadas por un conjunto de detectores de una cámara de formación de imágenes 236 del sistema de la aeronave de captación, están diseñados para captar un fotograma de vídeo (o varios fotogramas de vídeo) durante un intervalo de tiempo en el que se sabe que la baliza de fuente de diodo láser 208 del sistema de la aeronave de destino está encendida, captar un fotograma de vídeo (o varios fotogramas de vídeo) durante un intervalo de tiempo en el que se sabe que la baliza de fuente de diodo láser 208 del sistema de la aeronave de destino no está encendida y, a continuación, sustraer los dos fotogramas para obtener una imagen que comprende solo una imagen de la baliza de fuente de diodo láser 208. En esta imagen, la reflexión del fondo, tal como la iluminación solar y el ruido del detector, se ha reducido o eliminado en gran medida. Esta imagen se combina con otro tipo de información de los sensores en un procesador de visión 238 y se visualiza en una pantalla de la cabina del piloto 240 para presentar a éste información de la escena de fondo además de las luces de baliza. Los componentes del sistema contenidos en el recuadro en línea discontinua constituyen un EVS
242. Después de la captación de la aeronave balizada de destino, puede realizarse la detección sincrónica en la cámara de formación de imágenes 236 de la aeronave de captación para seguir el avión de destino.
La figura 4 representa un sistema de formación de imágenes 300 que difiere del sistema de formación de imágenes 200 representado en la figura 3, en la medida en que el primero comprende una aeronave tripulada y una aeronave no tripulada. En esta aplicación aire-aire, la aeronave tripulada de los sistemas de formación de imágenes 200 y 300 está equipada con el mismo sistema de aeronave 2021 descrito anteriormente, pero la aeronave no tripulada está equipada con un sistema de aeronave 3022 que difiere del sistema de aeronave 2022. Las aeronaves están equipadas con balizas de fuente de luz pulsada y cámaras de imágenes controladas para evitar colisiones. La diferencia es que, en el sistema de aeronave 3022, la salida del procesador de visión 238 se transmite a un sistema de guiado de aeronaves no tripuladas 340. Los componentes del sistema contenidos en el recuadro en línea discontinua constituyen un EVS 342. El sistema de aeronaves 3022 equipado con el procesador de visión 238 y el sistema de guiado de aeronaves no tripuladas 340 permite el repostaje autónomo.
Un campo de visión representativo del sensor de cámara de formación de imágenes de la aeronave de captación es de 180 grados de azimut por 96 grados de ángulo vertical. El campo de visión se basa en cálculos de rendimiento heurístico, en los que se presupone una resolución de píxeles de 1,6 milirradianes. Este sensor puede obtenerse con seis cámaras pequeñas de InGaAs no refrigeradas con resoluciones individuales de 640 x 512 píxeles, que están disponibles en el mercado. Las cámaras están distribuidas formando un mosaico de 3 cámaras en sentido horizontal y 2 cámaras en sentido vertical.
Para la captación aire-aire, una baliza de fuente representativa irradia luz a través de un rango angular sólido de 360 grados de azimut por 150 grados de elevación. Una aeronave de destino equipada con un sistema correctamente diseñado e implementado con una unidad muy simple y compacta de diodo láser pulsado puede captarse fácilmente a 5 millas en condiciones de fondo diurno y aire moderadamente claro. El funcionamiento con una atenuación atmosférica significativa entrañaría la provisión de un conjunto de varios emisores de diodo en la aeronave de destino.
La sincronización de las balizas de fuente instaladas en la aeronave 208 y las cámaras de formación de imágenes controladas 236 se obtiene a partir de las señales GPS. Puesto que los tiempos de integración de las cámaras de formación de imágenes comunes son del orden de milisegundos o superiores, la velocidad finita de la luz no crea problemas significativos con respecto a la sincronización fuente-cámara relativa a través de distancias de 5 millas. En distancias extremas superiores a las 5 millas, la información de las posiciones relativas puede utilizarse para corregir pequeñas diferencias de hora de vuelo entre la temporización PWM y la temporización de la electrónica de lectura.
Las características técnicas de los equipos descritos anteriormente hacen hincapié en la importancia de una implementación óptima para la detección aire-aire automática de una aeronave arbitraria, por ejemplo, de una aeronave UAV. Sin embargo, existe la opción de implementar el sistema anterior a las longitudes de onda visibles, utilizando LED como iluminadores de origen y cámaras de televisión adecuadas. Aunque esta opción permite la captación automatizada más allá de la capacidad del ojo humano, particularmente en presencia de un fondo, la alternativa de la combinación LED controlado-cámara ofrece también al piloto visibilidad directa de las balizas de la aeronave de destino en una pantalla 240 de información suministrada por el EVS 238. Las aplicaciones e implementaciones presentadas anteriormente se aplican por igual, tanto si el emisor del diodo es un LED como si es un diodo láser. Los LED se utilizan normalmente en aplicaciones que exigen máximo ahorro en balizas y cámaras o visibilidad directa por el ojo humano o ambas cosas. Los diodos SWIR y láser se utilizan normalmente para obtener el máximo rendimiento operativo.
Como resultará obvio a las personas expertas en la materia, es posible realizar muchos cambios en los detalles de las formas de realización descritas anteriormente sin apartarse de los principios subyacentes a la presente invención. El alcance de la presente invención, por consiguiente, debería determinarse conforme a las reivindicaciones adjuntas.

Claims (11)

  1. REIVINDICACIONES
    1. Procedimiento para la captación temprana de luz emitida por una fuente objetivo situada a una distancia de una
    cámara de formación de imágenes que funciona en asociación con un procesador para realizar la monitorización de 5 una operación de vuelo de una aeronave, caracterizado porque comprende las etapas siguientes:
    utilizar la cámara de formación de imágenes que funciona en respuesta a una señal de temporización producida por un sistema de navegación global para captar una secuencia de fotogramas de imágenes de una escena, en la que la fuente objetivo está contenida, emitiendo la fuente objetivo una luz que es modulada en respuesta a la señal de temporización para producir una emisión de luz de fuente objetivo modulada con una razón de modulación, y permitiendo la señal de temporización la captación de la secuencia de fotogramas de imágenes con una razón que está sincronizada con la razón de modulación y es un múltiplo conocido de la misma;
    aplicar el múltiplo conocido al cual se establece un valor que hace que la secuencia de fotogramas de imágenes
    15 incluya un primer y segundo conjuntos de imágenes que representan, respectivamente, información de la escena de fondo que incluye la emisión de luz de la fuente objetivo modulada e información de escena de fondo que no incluye la emisión de luz de la fuente objetivo modulada; y
    utilizar una electrónica de lectura para procesar el primer y segundo conjuntos de imágenes para extraer la información de escena de fondo a partir de imágenes temporalmente correspondientes del primer y segundo conjuntos y obtener, de este modo, información de imágenes procesadas a partir de la cual la captación de la emisión de luz de la fuente objetivo modulada puede ser llevada a cabo por un procesador para permitir la monitorización de la operación de vuelo de una aeronave.
    25 2. Procedimiento según la reivindicación 1, en el que la emisión de luz de la fuente objetivo modulada:
    a.
    se propaga desde un sistema de tierra, y en el que está incluida la cámara de formación de imágenes y el primer y segundo conjuntos de imágenes son procesados en un sistema embarcado en una aeronave, permitiendo, de este modo, la monitorización de la operación de vuelo de una aeronave por la aeronave, o
    b.
    se propaga desde un sistema embarcado en una aeronave, y en el que está incluida la cámara de formación de imágenes y el primer y segundo conjuntos de imágenes son procesadas en un sistema de tierra, permitiendo de este modo que el sistema de tierra monitorice la operación de vuelo de la aeronave,
    35 c. se propaga desde un primer sistema embarcado en una aeronave, y en el que está incluida la cámara de formación de imágenes y el primer y segundo conjuntos de imágenes son procesados en un segundo sistema embarcado en una aeronave, permitiendo de este modo la monitorización de la operación de vuelo de la primera aeronave por la segunda aeronave, o
    d.
    se propaga desde un LED que emite longitudes de onda de luz visible y la cámara de formación de imágenes es sensible a la luz visible, o
    e.
    se propaga desde una fuente de luz objetivo que emite luz SWIR infrarroja de onda corta, y la cámara de
    formación de imágenes es sensible a la luz SWIR, o 45
    f. incluye una baliza de luz pulsada de tipo portátil.
  2. 3. Procedimiento según la reivindicación 2, en el que cuando la emisión de luz de la fuente objetivo modulada se propaga desde un primer sistema embarcado en una aeronave, uno de entre el primer y segundo sistemas embarcados en una aeronave:
    a. se halla en una aeronave tripulada y el otro de entre el primer y segundo sistemas embarcados en una aeronave, se halla en una aeronave no tripulada, o
    55 b. se halla en aeronaves tripuladas diferentes.
  3. 4.
    Procedimiento según la reivindicación 2, en el que cuando la emisión de luz de la fuente objetivo modulada se propaga desde un sistema de tierra, el sistema de tierra incluye una iluminación de zona de aterrizaje como la emisión de luz de fuente objetivo modulada.
  4. 5.
    Procedimiento según la reivindicación 4, en el que la visión del piloto de la iluminación de la zona de aterrizaje está entorpecida debido a unas condiciones atmosféricas que atenúan la luz visible.
  5. 6. Procedimiento según la reivindicación 4, en el que la iluminación de la zona de aterrizaje incluye: 65
    a.
    un campo de luces de aeropuerto, o
    b.
    una baliza de luz pulsada, o
    c.
    una baliza de luz pulsada de tipo portátil.
  6. 7. Procedimiento según la reivindicación 1, que comprende además la submodulación de la emisión de luz de
    5 fuente objetivo modulada con una razón de submodulación, que facilita información de identificación acerca de la emisión de luz de fuente objetivo modulada.
  7. 8. Procedimiento según la reivindicación 7, en el que la emisión de luz de fuente objetivo modulada es la
    iluminación de una zona de aterrizaje, y la información de identificación identifica un aeropuerto. 10
  8. 9. Procedimiento según la reivindicación 1, en el que los fotogramas de imágenes son captados con una razón que es el doble de la razón de modulación.
  9. 10. Procedimiento según la reivindicación 1, en el que la emisión de luz de fuente destino es modulada mediante 15 modulación por anchura de impulso.
  10. 11. Procedimiento según la reivindicación 1, en el que el procesamiento de imágenes correspondientes incluye la sustracción de imágenes temporalmente correspondientes del primer y segundo conjuntos para proporcionar una escena modificada.
  11. 12. Procedimiento según la reivindicación 1, en el que la emisión de luz de fuente objetivo es modulada haciendo que la emisión de luz de fuente objetivo sea pulsada con una razón de impulsos, y que comprende además las etapas siguientes:
    25 hacer funcionar la cámara de formación de imágenes con una razón de captación para captar la secuencia de fotogramas de imágenes de una escena, sobrepasando las razones de pulsación y captación la razón de fotogramas de una cámara de televisión convencional;
    realizar el procesamiento del primer y segundo conjuntos de imágenes formando un número N de pares de 30 imágenes temporalmente correspondientes del primer y segundo conjuntos; y
    integrar el número N de pares a una frecuencia de integración que sobrepasa la razón de fotogramas de una cámara de televisión convencional para establecer una relación señal-ruido que se incrementa con una frecuencia de integración creciente.
ES07750714T 2006-02-13 2007-02-13 Sistema y procedimiento de captación sincrónica de luz de fuente pulsada para realizar la monitorización de una operación de vuelo de una aeronave Active ES2435541T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US77295606P 2006-02-13 2006-02-13
US772956P 2006-02-13
PCT/US2007/003893 WO2007095282A2 (en) 2006-02-13 2007-02-13 System for and method of synchronous acquisition of pulsed source light in performance of monitoring aircraft flight operation

Publications (1)

Publication Number Publication Date
ES2435541T3 true ES2435541T3 (es) 2013-12-20

Family

ID=38372107

Family Applications (1)

Application Number Title Priority Date Filing Date
ES07750714T Active ES2435541T3 (es) 2006-02-13 2007-02-13 Sistema y procedimiento de captación sincrónica de luz de fuente pulsada para realizar la monitorización de una operación de vuelo de una aeronave

Country Status (4)

Country Link
US (3) USRE45452E1 (es)
EP (1) EP1989681B1 (es)
ES (1) ES2435541T3 (es)
WO (1) WO2007095282A2 (es)

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7442629B2 (en) 2004-09-24 2008-10-28 President & Fellows Of Harvard College Femtosecond laser-induced formation of submicrometer spikes on a semiconductor substrate
US7057256B2 (en) 2001-05-25 2006-06-06 President & Fellows Of Harvard College Silicon-based visible and near-infrared optoelectric devices
US8842186B2 (en) 2004-10-25 2014-09-23 I-Interactive Llc Control system and method employing identification of a displayed image
US8760522B2 (en) 2005-10-21 2014-06-24 I-Interactive Llc Multi-directional remote control system and method
US8456534B2 (en) 2004-10-25 2013-06-04 I-Interactive Llc Multi-directional remote control system and method
US8033686B2 (en) 2006-03-28 2011-10-11 Wireless Environment, Llc Wireless lighting devices and applications
US8669716B2 (en) 2007-08-30 2014-03-11 Wireless Environment, Llc Wireless light bulb
US8519566B2 (en) 2006-03-28 2013-08-27 Wireless Environment, Llc Remote switch sensing in lighting devices
US8203445B2 (en) * 2006-03-28 2012-06-19 Wireless Environment, Llc Wireless lighting
US8013838B2 (en) * 2006-06-30 2011-09-06 Microsoft Corporation Generating position information using a video camera
US8339457B1 (en) 2007-02-28 2012-12-25 Fluke Corporation Systems and methods for time-shared memory access in a thermal imaging device
US8300981B1 (en) * 2007-02-28 2012-10-30 Fluke Corporation System and method for analyzing multiple thermal images
US8237656B2 (en) * 2007-07-06 2012-08-07 Microsoft Corporation Multi-axis motion-based remote control
US8339583B2 (en) * 2009-07-17 2012-12-25 The Boeing Company Visual detection of clear air turbulence
US9911781B2 (en) 2009-09-17 2018-03-06 Sionyx, Llc Photosensitive imaging devices and associated methods
US9673243B2 (en) 2009-09-17 2017-06-06 Sionyx, Llc Photosensitive imaging devices and associated methods
US8692198B2 (en) * 2010-04-21 2014-04-08 Sionyx, Inc. Photosensitive imaging devices and associated methods
CN103081128B (zh) 2010-06-18 2016-11-02 西奥尼克斯公司 高速光敏设备及相关方法
US9496308B2 (en) 2011-06-09 2016-11-15 Sionyx, Llc Process module for increasing the response of backside illuminated photosensitive imagers and associated methods
EP2732402A2 (en) 2011-07-13 2014-05-21 Sionyx, Inc. Biometric imaging devices and associated methods
WO2013104060A1 (en) * 2012-01-11 2013-07-18 Smart Technologies Ulc Interactive input system and method
US9165366B2 (en) * 2012-01-19 2015-10-20 Honeywell International Inc. System and method for detecting and displaying airport approach lights
US9064764B2 (en) 2012-03-22 2015-06-23 Sionyx, Inc. Pixel isolation elements, devices, and associated methods
WO2013171612A1 (en) 2012-05-15 2013-11-21 Koninklijke Philips N.V. Modulated light generation and acquisition for robust object detection
US9000350B1 (en) 2012-09-11 2015-04-07 Rockwell Collins, Inc. Time-domain overlap imagery detecting system and method of using same
EP2920773A4 (en) * 2012-11-16 2016-07-06 Flir Systems SYNCHRONIZED INFRARED BAKE / INFRARED DETECTION SYSTEM
JP6466346B2 (ja) 2013-02-15 2019-02-06 サイオニクス、エルエルシー アンチブルーミング特性を有するハイダイナミックレンジcmos画像センサおよび関連づけられた方法
US9939251B2 (en) 2013-03-15 2018-04-10 Sionyx, Llc Three dimensional imaging utilizing stacked imager devices and associated methods
US9139307B2 (en) 2013-06-28 2015-09-22 Honeywell International Inc. Aircraft systems and methods for displaying runway lighting information
WO2014209421A1 (en) 2013-06-29 2014-12-31 Sionyx, Inc. Shallow trench textured regions and associated methods
US20150015698A1 (en) * 2013-07-10 2015-01-15 Gulfstream Aerospace Corporation Methods and systems for optical aircraft detection
US9346547B2 (en) 2013-08-26 2016-05-24 Google Inc. Mechanisms for lowering a payload to the ground from a UAV
TWM484091U (zh) * 2014-03-31 2014-08-11 Unibase Information Corp 具有稽核及影像同步功能的航空器導引系統、及其稽核與影像同步裝置
US9321531B1 (en) 2014-07-08 2016-04-26 Google Inc. Bystander interaction during delivery from aerial vehicle
US9849981B1 (en) * 2014-08-28 2017-12-26 X Development Llc Payload-release device position tracking
US10171755B2 (en) * 2014-09-17 2019-01-01 Elbit Systems Of America, Llc Systems and methods for detecting light sources
GB2522799B (en) * 2015-03-30 2015-12-30 Vysionics Its Ltd A camera system
CN105067036B (zh) * 2015-08-04 2017-11-17 西安昆仑工业(集团)有限责任公司 火炮流场多参量同步采集装置及方法
US9738401B1 (en) 2016-02-05 2017-08-22 Jordan Holt Visual landing aids for unmanned aerial systems
US10578274B2 (en) 2016-06-10 2020-03-03 General Electric Company Lens array assembly and method for making the same
US10414488B2 (en) * 2016-09-09 2019-09-17 Wing Aviation Llc Methods and systems for damping oscillations of a payload
US10364030B2 (en) 2016-09-09 2019-07-30 Wing Aviation Llc Methods and systems for user interaction and feedback via control of tether
US10232940B2 (en) 2016-09-09 2019-03-19 Wing Aviation Llc Methods and systems for raising and lowering a payload
US11104438B2 (en) 2016-09-09 2021-08-31 Wing Aviation Llc Payload coupling apparatus for UAV and method of delivering a payload
US10000285B2 (en) 2016-09-09 2018-06-19 X Development Llc Methods and systems for detecting and resolving failure events when raising and lowering a payload
US10793272B2 (en) 2016-09-09 2020-10-06 Wing Aviation Llc Unmanned aerial vehicle and techniques for securing a payload to the UAV in a desired orientation
US10793274B2 (en) 2016-09-09 2020-10-06 Wing Aviation Llc Payload coupling apparatus for UAV and method of delivering a payload
WO2018102258A2 (en) 2016-11-29 2018-06-07 Thorne Lawrence R Enhancing contrast of led lighting
US10175030B2 (en) * 2017-03-13 2019-01-08 Sensors Unlimited, Inc. Threat detection
US10689113B2 (en) 2017-12-21 2020-06-23 Wing Aviation Llc Active position control of tethered hook
IT201800002654A1 (it) 2018-02-13 2019-08-13 Thales Alenia Space Italia Spa Con Unico Socio Rilevamento basato su immagini di obiettivi non identificabili rispetto allo sfondo
US11263911B2 (en) * 2018-08-09 2022-03-01 Sensors Unlimited, Inc. Systems and methods for identifying air traffic objects
US12026852B2 (en) 2019-06-25 2024-07-02 Kerr Avionics Llc Instrument qualified visual range (IQVR) image processing artifact mitigation
US11667402B2 (en) 2020-09-08 2023-06-06 Wing Aviation Llc Landing pad with charging and loading functionality for unmanned aerial vehicle
US12002371B2 (en) 2021-05-14 2024-06-04 Rockwell Collins, Inc. Neuromorphic cameras for aircraft

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3631321A1 (de) 1986-09-06 1988-03-17 Herbert Kniep Vorrichtung mit mindestens einem laser zum fuehren von luftfahrzeugen, insbesondere beim landen auf flughaefen
IL88263A (en) 1988-11-02 1993-03-15 Electro Optics Ind Ltd Navigation system
US5303031A (en) 1992-05-08 1994-04-12 The United States Of America As Represented By The Secretary Of The Air Force All optical phase sensitive detector and image demultiplexer
US5654890A (en) * 1994-05-31 1997-08-05 Lockheed Martin High resolution autonomous precision approach and landing system
US5684588A (en) 1996-10-04 1997-11-04 United States Of America As Represented By The Secretary Of The Air Force Homodyne and hetrodyne imaging in a light scattering medium
US5859713A (en) 1996-10-07 1999-01-12 The United States Of America As Represented By The Secretary Of The Air Force Imaging in a scattering medium using photon density waves
DE69805077T2 (de) * 1997-07-30 2002-10-31 Pinotage, Llc Bildaufnahmevorrichtung
US6119055A (en) 1998-01-23 2000-09-12 Mcdonnell Douglas Corporation Real time imaging system and method for use in aiding a landing operation of an aircraft in obscured weather conditions
US6232602B1 (en) * 1999-03-05 2001-05-15 Flir Systems, Inc. Enhanced vision system sensitive to infrared radiation
US6157876A (en) * 1999-10-12 2000-12-05 Honeywell International Inc. Method and apparatus for navigating an aircraft from an image of the runway
US6264135B1 (en) * 2000-02-14 2001-07-24 John Dacosta Inflight aircraft visual monitoring apparatus
US7045783B2 (en) * 2001-06-05 2006-05-16 University Of Florida Research Foundation, Inc. Device and method for object illumination and imaging using light pulses
US7225063B2 (en) 2001-09-20 2007-05-29 Keith R Tart Aircraft control system

Also Published As

Publication number Publication date
EP1989681A2 (en) 2008-11-12
EP1989681B1 (en) 2013-09-25
USRE45452E1 (en) 2015-04-07
US7705879B2 (en) 2010-04-27
US20090009596A1 (en) 2009-01-08
EP1989681A4 (en) 2011-06-01
WO2007095282A2 (en) 2007-08-23
USRE44604E1 (en) 2013-11-19
WO2007095282A3 (en) 2008-10-30

Similar Documents

Publication Publication Date Title
ES2435541T3 (es) Sistema y procedimiento de captación sincrónica de luz de fuente pulsada para realizar la monitorización de una operación de vuelo de una aeronave
US11100809B2 (en) Enhancing contrast of LED lighting
US20190035290A1 (en) Multispectral enhanced vision system and method for aircraft landing in inclement weather conditions
US9904859B2 (en) Object detection enhancement of reflection-based imaging unit
EP3268798B1 (en) Dual-mode illuminator for imaging under different lighting conditions
US10390004B2 (en) Stereo gated imaging system and method
US6119055A (en) Real time imaging system and method for use in aiding a landing operation of an aircraft in obscured weather conditions
US8844896B2 (en) Gimbal system with linear mount
CN103477278A (zh) 用于观察远距离处的对象、尤其是用于在夜晚、烟雾、灰尘或雨中监视目标对象的相机系统和方法
CN106184787B (zh) 具有辅助驾驶系统的飞行器及其起降及避免碰撞的方法
CN102862683A (zh) 飞行器飞行驾驶台的可视显示器
US10353074B2 (en) Agile navigation and guidance enabled by LIDAR (ANGEL)
US20140022388A1 (en) Air Surveillance System for Detecting Missiles Launched from Inside an Area to be Monitored and Air Surveillance Method
CN109660707A (zh) 适用于高速移动目标的图像采集方法与系统
WO2018230203A1 (ja) 撮像装置
US11664896B2 (en) Enhancing contrast of lighting
CN205940282U (zh) 一种短波红外枪瞄装置
CN210871291U (zh) 一种红外成像的vslam导航装置及智能吸尘器
Milton et al. Low-cost sensors for UGVs
CN203181122U (zh) 一种激光夜视仪用激光同步系统
Reese et al. Multispectral image-fused head-tracked vision system (HTVS) for driving applications
ES2314126T3 (es) Dispositivo de adquisicion de blanco, aeronave, sistema de estimacion de trayectoria y sistema de defensa asociados.
Ginat et al. A novel optical gating method for laser gated imaging
Miller et al. Flight test and performance of a nongated active television system
Kerr Enhanced detection of LED runway/approach lights for EVS