ES2286431T3 - Sistema de reconocimiento aereo. - Google Patents

Sistema de reconocimiento aereo. Download PDF

Info

Publication number
ES2286431T3
ES2286431T3 ES03725555T ES03725555T ES2286431T3 ES 2286431 T3 ES2286431 T3 ES 2286431T3 ES 03725555 T ES03725555 T ES 03725555T ES 03725555 T ES03725555 T ES 03725555T ES 2286431 T3 ES2286431 T3 ES 2286431T3
Authority
ES
Spain
Prior art keywords
area
battery
cardan
center
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES03725555T
Other languages
English (en)
Inventor
Israel Greenfeld
Zvi Yavin
Bernd Uhl
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rafael Advanced Defense Systems Ltd
Original Assignee
Rafael Advanced Defense Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=29596295&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2286431(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Rafael Advanced Defense Systems Ltd filed Critical Rafael Advanced Defense Systems Ltd
Application granted granted Critical
Publication of ES2286431T3 publication Critical patent/ES2286431T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G5/00Elevating or traversing control systems for guns
    • F41G5/14Elevating or traversing control systems for guns for vehicle-borne guns
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2213Homing guidance systems maintaining the axis of an orientable seeking head pointed at the target, e.g. target seeking gyro
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2253Passive homing systems, i.e. comprising a receiver and do not requiring an active illumination of the target
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2273Homing guidance systems characterised by the type of waves
    • F41G7/2293Homing guidance systems characterised by the type of waves using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • G01C11/025Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures by scanning the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Sorption Type Refrigeration Machines (AREA)
  • Engine Equipment That Uses Special Cycles (AREA)
  • Special Spraying Apparatus (AREA)
  • Respiratory Apparatuses And Protective Means (AREA)
  • Ventilation (AREA)
  • Image Input (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Medicines Containing Antibodies Or Antigens For Use As Internal Diagnostic Agents (AREA)
  • Medicines That Contain Protein Lipid Enzymes And Other Medicines (AREA)

Abstract

Un sistema de reconocimiento aéreo que comprende: - Cardanes que tienen al menos dos grados de libertad; - Al menos una batería de sensores de luz posicionada sobre los cardanes, para ser dirigida por los mismos dentro al menos dos grados de libertad; - Medios de almacenamiento de mapas para almacenar al menos un Mapa de Elevación Digital (310) de un área de interés, dividido en porciones; - Sistema de Navegación Inercial (303) para proporcionar en tiempo real a la unidad de control de los cardanes datos de orientación y navegación de la nave aérea con respecto a un sistema de ejes global predefinido; - Unidad de selección de la porción (311) para seleccionar, una a la vez, otra porción de área del área de interés; - Unidad de servo-control para: A. Recibir desde dicho Mapa de Elevación Digital (310) uno a la vez, un conjunto de coordenadas de la porción de área selectiva, dicho conjunto comprendiendo las coordenadas x : y de dicha porción de área y la elevación z del centro de esa porción;B. Recibir de forma continua desde dicho sistema de navegación inercial (303) datos de la orientación y localización actual de la nave aérea; C. Calcular de forma repetida y transmitir hacia la servo-unidad de los cardanes en tiempo real y a alta velocidad señales para: a. durante un periodo de dirección, señales para dirigir en correspondencia a los cardanes incluyendo dicha al menos una batería de unidades de detección de la luz hacia dichas coordenadas x : y : z de la porción de área seleccionada, y; b. durante un periodo de integración (507) en el cual los sensores de la batería integran la luz que llega de la porción de área, proporcionar a la unidad de los cardanes señales para compensar el cambio en la dirección hacia las coordenadas x : y : z de la porción seleccionada que evoluciona a partir del movimiento de la nave aérea; - Servo cardanes (308) para efectuar la dirección de los cardanes en al menos dos grados de libertad de acuerdo a las señales proporcionadas desde dicha Unidadde Servo Control; - Medios de muestreo para el muestreo de manera simultánea al final del periodo de integración de los niveles de los píxeles de cada uno de dichos sensores de la batería, un conjunto de todos los dichos niveles de píxeles muestreados forma una imagen de dicha porción de área; y - Medios de almacenamiento (302) para almacenar una pluralidad de las imágenes de la porción de área.

Description

Sistema de reconocimiento aéreo.
Campo de la invención
La presente invención se relaciona con un sistema para llevar a cabo el reconocimiento aéreo. Más particularmente, la presente invención se relaciona con un sistema de reconocimiento aéreo que comprende una o más baterías de sensores sensibles a la luz, tal como iluminación activa, UV, visible, IR o multi/hiper- espectral, cuya línea de mira está dirigida por medio de cardanes que tienen al menos dos grados de libertad, dicho sistema usa adicionalmente un Sistema de Navegación Inercial (INS) para proporcionar un seguimiento y una captura precisos, y para proporcionar una compensación del movimiento en 3D. Los sensores y el INS están preferiblemente montados sobre los cardanes.
Antecedentes de la invención
Los sistemas de reconocimiento aéreo han sido ahora usados por muchos años, particularmente para obtener imágenes desde el aire de áreas de interés.
Originalmente, una cámara de películas fue utilizada a bordo de una nave aérea para capturar las imágenes. El principal problema de los sistemas de reconocimiento aéreo basados en una cámara de películas es el periodo de tiempo requerido para revelar la película, una operación que solo puede llevarse a cabo después del aterrizaje. Este problema ha sido superado en los sistemas más modernos mediante el uso de un vector de una dimensión o una batería de dos dimensiones de sensores sensibles a la luz en la cámara para obtener imágenes electrónicas que son entonces almacenadas de manera electrónica dentro de la nave aérea, y/o transmitidas a una estación de base en tierra. Esto es generalmente realizado en tales sistemas mediante barrido por medio de sensores sensibles a la luz del área de interés en la dirección del vuelo.
Los sistemas de reconocimiento aéreo son generalmente usados para obtener imágenes de áreas hostiles, y por lo tanto la tarea de obtener tales imágenes involucra algunos requerimientos particulares, tales como:
1.
Volar la nave aérea a velocidades y elevaciones altas para reducir el riesgo de ser detectado por las armas enemigas, y para ampliar el área capturada por cada imagen.
2.
Tratar de capturar la mayor cantidad de información de imágenes relevantes posible durante un vuelo lo más corto posible.
3.
Tratar de operar bajo varias condiciones de visibilidad, mientras no se compromete la resolución de las imágenes y su calidad.
4.
Tratar de fotografiar terrenos irregulares (por ejemplo, altas montañas, áreas que tienen variaciones bruscas del terreno), con alta calidad de imagen y resolución.
La necesidad de hacer más seguras las naves aéreas de reconocimiento, mientras vuelan sobre o cerca de áreas hostiles ha incrementado significativamente los riesgos y costos de los vuelos, ya que algunas veces la misión de reconocimiento requiere escoltar la nave aérea por otras naves aéreas de combate. Por lo tanto, la necesidad de lograr una misión confiable y corta es de una importancia muy alta.
Existen otros varios problemas generalmente involucrados en llevar a cabo el reconocimiento aéreo. Por ejemplo, capturar imágenes desde una nave aérea con movimiento rápido introduce la necesidad de la así llamada Compensación del Movimiento Hacia Delante (De aquí en lo adelante el término "Compensación del Movimiento Hacia Delante" será referido brevemente como FMC. El de Compensación del Movimiento en general será referido como MC), para compensar el movimiento de la nave aérea durante la apertura del obturador de la cámara (tanto mecánico como electrónico; en este último caso, la apertura del obturador de la cámara, la abertura del obturador de la cámara para el propósito de la exposición es equivalente a la integración de los protones de la luz mediante los componentes sensibles a la luz).
Cuando los sensores sensibles a la luz son usados en la cámara (de aquí en lo adelante, este tipo de captura de imágenes será referido como "captura electrónica" en contraste a "captura por película", cuando una cámara de películas es usada), tres tipos principales de barrido son usados:
i.
Barrido Longitudinal a la Trayectoria (también conocido como "barrido de escobillón")- En una primera configuración del Barrido Longitudinal a la Trayectoria, los sensores sensibles a la luz están dispuestos en un vector de una dirección (hilera), perpendicular a la dirección del vuelo. El barrido del área explorada es obtenida mediante la progresión de la nave aérea. En una configuración específica del Barrido Longitudinal a la Trayectoria, generalmente llamada configuración TDI (Integración Desplazada en el Tiempo) Longitudinal a la Trayectoria, una pluralidad de tales vectores paralelos de una dimensión (píxeles-hileras) perpendiculares a la dirección del vuelo son proporcionados en el frente de la cámara formando una batería de dos dimensiones. En ese caso, sin embargo, la primera hilera de la batería captura una sección de área, mientras todas las hileras subsiguientes son usadas para capturar la misma sección, pero a un retraso dominado por la progresión de la nave aérea. Luego, para cada hilera de píxeles, una pluralidad de los píxeles correspondientes de todas las hileras de la batería, medidos de manera separadas, son primero añadidos; y luego promediados para determinar el valor de la intensidad de la luz medida en píxeles. Más particularmente, cada píxel en la imagen es medido N veces (N siendo el número de hileras) y luego promediado. Esta configuración TDI Longitudinal a la Trayectoria es encontrada que mejora la proporción de la señal con respecto al ruido, y que mejora la calidad de la imagen y la confiabilidad de la medición.
ii.
Barrido Transversal a la Trayectoria (también conocido como "Barrido de Escobilla") - En el Barrido Transversal a la Trayectoria, un vector de detección de una dimensión de los sensores sensibles a la luz, dispuesto de manera paralela a la dirección del vuelo es usado. El vector de detección es colocado sobre cardanes que tienen un grado de libertad, el cual, durante el vuelo, mueve repetidamente el vector completo a la derecha y a la izquierda en una dirección perpendicular a la dirección del vuelo, mientras siempre mantiene el vector en una orientación paralela a la dirección del vuelo. Otra configuración del Barrido Transversal a la Trayectoria usa un prisma o espejo que se mueve para barrer la línea de mira (de aquí en lo adelante, LOS) de un vector fijo de los sensores Transversal a la Trayectoria, en lugar de mover al propio vector. En tal caso, el Barrido Transversal a la Trayectoria del área por medio del cardán que tiene un grado de libertad, mientras se mantiene el movimiento hacia delante de la nave aérea, amplía el área de captura. Otra configuración del Barrido Transversal a la Trayectoria es la configuración TDI Transversal a la Trayectoria. En esta configuración existe una pluralidad de vectores (columnas) en una dirección paralela a la dirección del vuelo, formando una batería de dos dimensiones. Esta TDI Transversal a la Trayectoria, en similitud con la TDI del Barrido Longitudinal a la Trayectoria, proporciona una confiabilidad mejorada en la medición de los valores de los píxeles, más particularmente, un mejoramiento en la proporción de la señal con respecto al ruido.
iii.
Barrido de Cuadros Digital: En el Barrido de Cuadros Digital, una batería de dos dimensiones de sensores sensibles a la luz es colocada con respecto al escenario. En US 5,155,597 y US 6,256,057 la batería es posicionada de manera tal que sus columnas - vectores (una columna siendo un grupo de columnas de la batería) estén de manera paralela a la dirección del vuelo. La compensación del movimiento hacia delante (FMC) es proporcionada de manera electrónica en un chip (en la batería detectora del plano focal) mediante la transferencia de carga desde un píxel al píxel próximo adyacente en la dirección del vuelo durante el tiempo de exposición del sensor (también llamado "tiempo de integración"). La velocidad de la transferencia de la carga es determinada de manera separada para cada columna (o para la batería completa como en US 6,256,057 donde una ranura es movida en paralelo a la dirección de las columnas), dependiendo de su distancia individual (rango) a partir del escenario capturado, asumiendo que es un terreno plano. En WO 97/42659 este concepto es extendido para manejar la transferencia de carga de manera separada para cada celda en lugar de columna, una celda siendo un grupo rectangular de píxeles. En el sistema de US 5,692,062 la correlación de la imagen digital entre los cuadros sucesivos capturados por cada columna es realizada, para medir la velocidad del escenario con respecto a la batería, y el resultado de la correlación es usado para estimar el rango promedio de cada columna hasta el escenario, para el propósito de la compensación del movimiento en un terreno con grandes variaciones. Este método de compensación requiere capturar tres cuadros sucesivos para cada imagen simple, dos para el proceso de correlación y una para el cuadro compensado con el movimiento. El sistema de US 5,668,593 usa un mecanismo de escalonamiento de la línea de visión de 3 ejes para expandir la cobertura del área de interés, y aplica una técnica de compensación del movimiento por medio de la transferencia de la carga a lo largo de las columnas. La US 6,130,705 usa lentes de aumento que automáticamente varían el campo de vista de la cámara basado en mediciones del rango pasivas obtenidas a partir de la correlación de imágenes digitales como fue descrito anteriormente. El campo de vista es sintonizado de acuerdo con los requerimientos de la misión anterior para la cobertura y la resolución.
Un problema significativo que es característico de los sistemas de reconocimiento del arte anterior, particularmente dichos métodos de barrido electrónico Longitudinal a la Trayectoria y Transversal a la Trayectoria, es la necesidad de predefinir para la nave aérea una etapa de barrido esencialmente recta (y generalmente una pluralidad de tales etapas rectas paralelas), y una vez que tal etapa esté definida, cualquier desviación, particularmente una desviación rápida o grande, a partir de la etapa predefinida, no es tolerada, ya que dichos sistemas del arte anterior no son capaces de mantener una dirección deseada de la línea de mira durante tal desviación rápida y/o grande a partir de la etapa predefinida, resultando en imperfecciones de las imágenes tal como el desgarramiento (dislocación de las líneas de las imágenes), el emborronamiento (alargamiento de los píxeles) o espacios sustánciales en la información de las imágenes. Esto es una desventaja significativa cuando se lleva a cabo una misión de reconocimiento encima o cerca de un área hostil, cuando surge la necesidad de que la nave aérea lleve a cabo maniobras rápidas para escapar del reconocimiento o detección del enemigo. Además, algunas veces, para obtener una buena imagen de un terreno complicado, tal como un cañón curvo, es mejor seguir el curso de los bordes agudamente curvos del cañón. Sin embargo, en la mayoría de los casos, los sistemas de reconocimiento del arte anterior no pueden tolerara llevar acabo tales maniobras curvas de manera brusca, que involucran cambios bruscos en los ángulos de la línea de mira con respecto al escenario fotografiado.
Otra característica desventajosa de los sistemas de reconocimiento del arte anterior, por ejemplo, US 5,155,597, US 5,692,062, WO 97/42659, y US 6,256,057, es su necesidad de manejar vastas cantidades de datos. Los sistemas del arte anterior no permiten una imagen selectiva, fácil de porciones pequeñas de un área de interés. Una vez operados, el sistema barre el área entera a la cual la cámara está dirigida; sin existir de manera esencial ninguna selección de las porciones específicas del total posible. Por lo tanto, incluso para un área pequeña de interés, los sistemas del arte anterior deben manejar una enorme cantidad de datos, es decir, ser capaces de almacenar los datos de las imágenes completos durante la operación de la cámara, y la transmisión de estos a tierra (cuando tal opción es deseada). La transmisión de una enorme cantidad de datos a tierra, algunas veces en tiempo real, requiere el uso de un ancho de banda muy amplio. Otro problema particular que evoluciona a partir de esta limitación es la necesidad para distinguir y descodificar unos datos pequeños de interés dentro de la enorme y total cantidad de datos obtenidos.
Aún otra desventaja de los sistemas de reconocimiento del arte anterior, por ejemplo, US 5,155,597, US 5,692,062, WO 97/42659, US 6,130,705, y 6,256,057 es su capacidad limitada para capturar imágenes en un rango amplio de un campo de visión. De aquí en adelante, el término "campo de visión" se refiere a una sección espacial dentro de la cual la línea de mira de la cámara puede ser dirigida sin obscurecimiento. Los sistemas del arte anterior algunas veces usan sensores dedicados separados para diferentes direcciones de mira (por ejemplo sensores separados para mirada hacia abajo, oblicua lateral u oblicua hacia delante). La presente invención proporciona a la nave aérea la capacidad de capturar imágenes, simultáneamente desde todos los sensores, de las áreas delanteras, traseras, laterales y en cualquier otra dirección arbitraria, y la conmutación rápida entre estas direcciones.
Aún otra desventaja de los sistemas de reconocimiento del arte anterior, por ejemplo, US 5,155,597, US 5,688,593, US 5,692,062, WO 97/42659, US 6,130,705, y 6,256,057 es el uso de baterías de sensores de dos dimensiones de gran tamaño, las cuales se convierten en una necesidad para los sistemas que tienen un control limitado o ningún control sobre su línea de mira. La presente invención permite el uso de baterías de sensores de dos dimensiones, de pequeño o medio tamaño, tomando ventaja de la capacidad para mover de manera rápida y precisa la LOS dentro de un campo grande de visión, para fijar de manera estable la LOS en el escenario del terreno mientras se captura una imagen, y para reunir los datos de imágenes fotográficas mediante una multitud de cuadros pequeños/medios en lugar de un único cuadro grande a la vez. Una batería de pequeño tamaño sería típicamente de hasta 1 megapíxeles (un millón de píxeles), y una batería de medio tamaño sería típicamente de hasta 5 megapíxeles. Por el contrario, las baterías de gran tamaño serían típicamente de hasta 50 megapíxeles e incluso más grandes. Una característica importante de la presente invención es que tanto la batería de pequeño como de medio tamaño están comercialmente disponibles como baterías de sensores universales, no diseñadas específicamente para aplicaciones de reconocimiento sino para aplicaciones comerciales tal como cámaras de videos y fotogramas, y por lo tanto están ampliamente disponibles de varios vendedores a bajos precios. Está tecnología de los sensores también se beneficia de la enorme inversión de los vendedores en tales productos comerciales debido a las demandas del mercado comercial. Por el contrario, las baterías de sensores de reconocimiento de gran tamaño son únicamente desarrolladas por los fabricantes de sistemas de reconocimiento, son complejas debido a la necesidad de una compensación del movimiento en un chip, son caras, y no se encuentran fácilmente disponibles. Las limitaciones de los sistemas del arte anterior son más agudas cuando el sensor es requerido para operar en el rango IR en lugar del rango visible, ya que la tecnología de la batería IR actual no proporciona baterías IR de gran tamaño. Otra desventaja de las baterías de gran tamaño es su velocidad de cuadros inferior con
respecto a las baterías de pequeño/medio tamaño, debido a la gran cantidad de píxeles procesados para cada imagen.
Algunos de los sistemas del arte anterior emplean la compensación del movimiento en un chip, por ejemplo, como es descrito en US 5,155,597, US 5,692,062, y WO 97/42659. Varias desventajas están asociadas con el concepto de compensación del movimiento en un chip. La compensación del movimiento en un chip es realizada transfiriendo las cargas desde una columna/celda hacia una columna/celda adyacente durante el tiempo de integración a una velocidad especificada. Este proceso de transferencia de las cargas induce ruidos electrónicos y crea ambigüedad (que resulta en el emborronamiento o pérdida de píxeles) en los límites entre las columnas/celdas y en los bordes del chip, ya que la velocidad de la transferencia de la carga requerida puede ser diferente entre las columnas/celdas adyacentes. Algunos de los sistemas del arte anterior asumen terrenos horizontales y planos para estimar el rango desde el sensor hasta cada parte del escenario en la imagen capturada (es decir un rango más largo para la porción más lejana del escenario y un rango más corto para la porción más cercana), y calcula la velocidad de la compensación del movimiento basado en la simple información de la orientación y la velocidad de la nave aérea con respecto a la tierra. Cuando el terreno tiene grandes variaciones esto generalmente resulta en un emborronamiento sustancial como es mostrado en el ejemplo 1 de la presente invención. En algunos casos, el sensor debe ser orientado durante la captura de manera que sus columnas estén en forma paralela de manera precisa a la dirección del vuelo sin rotación, donde cualquier desviación de esa orientación resultará en un emborronamiento adicional, limitando seriamente de esta forma la planeación de la misión. Los sistemas más avanzados del arte anterior usan una correlación de imágenes digital entre los cuadros sucesivos para cada celda en el chip, para estimar con mayor precisión el rango hasta el escenario para cada celda. Este proceso requiere tres capturas de imágenes sucesivas para cada imagen que se puede usar, derrochando de esta manera ciclos de trabajo del sistema. La precisión de la correlación está limitada por el emborronamiento de las primeras dos imágenes cuando se toman fotografías de un terreno con grandes variaciones. Otro problema asociado con la correlación es el gran cambio del ángulo de presentación con respecto al escenario entre las dos imágenes sucesivas. Por ejemplo, una nave aérea volando a una velocidad de 250 m/s a un rango de 15 Km hasta el escenario en dirección oblicua lateral, usando un chip con una velocidad de los cuadros de 2 Hz, tendrá una velocidad angular de la LOS (algunas veces llamada V/R) de 250/15 = 16.7 milirad/s, resultando en un ángulo de presentación entre las imágenes sucesivas de 8.3 milirad. Para un FOV Instantáneo (IFOV) de píxeles típico de 30 microrad esto significa un desplazamiento de 277 píxeles en la imagen. Además, debido a que el valor de V/R no es constante en ningún momento durante la misión, especialmente cuando la nave aérea esta maniobrando, el tiempo transcurrido entre las dos imágenes sucesivas inducirá un error adicional.
\global\parskip0.900000\baselineskip
Algunos de los sistemas del arte anterior emplean un método de cuadros por pasos para cubrir grandes áreas, por ejemplo, como es descrito en US 5,668,593. El método de cuadros por pasos no proporciona fijación óptica/mecánica de la LOS en el escenario durante el tiempo de exposición, y tiene un campo de visión limitado. La compensación del movimiento en un chip es usada, pero son inducidas imprecisiones debido a las vibraciones de la nave aérea, y los retrasos en transferir la medición de las vibraciones al sistema de reconocimiento.
Es por lo tanto un objeto de la presente invención proporcionar un sistema de reconocimiento aéreo capaz de tolerar y compensar las maniobras muy bruscas de la nave aérea y las grandes variaciones del terreno, mientras aún proporcione imágenes confiables y de alta resolución del área de interés, dentro de un campo de visión muy amplio.
Es aún otro objeto de la presente invención proporcionar un sistema de reconocimiento aéreo en la cual la cantidad de datos irrelevante está significativamente reducida, reduciendo por lo tanto el trabajo que se necesita para distinguir los datos relevantes de los datos totales obtenidos, y reducir los requerimientos de las comunicaciones y el almacenamiento de imágenes en la tierra y en el aire.
Es aún otro objeto de la presente invención permitir la definición de áreas de interés muy pequeñas dentro de un área grande (es decir, un campo de visión), de la cual pueden obtenerse imágenes.
Es aún otro objeto de la presente invención reducir la carga de las comunicaciones entre la nave aérea y una estación de base en la tierra, cuando se comunican imágenes desde la nave aérea hacia la tierra.
Es aún otro objeto de la presente invención proporcionar un sistema de reconocimiento aéreo con la capacidad para capturar imágenes en un rango amplio del ángulo de mira (es decir, un campo de visión amplio).
Es aún otro objeto de la presente invención proporcionar una nueva y eficiente manera de obtener las imágenes requeridas para crear imágenes de vista estereoscópicas.
Es aún otro objeto de la presente invención proporcionar la capacidad de combinar en la misma misión de reconocimiento tanto la operación en modo manual como la operación en modo automático.
Otros objetos y ventajas de la presente invención serán evidentes cuando la descripción proceda.
Sumario de la invención
La presente invención se relaciona con un sistema de reconocimiento aéreo que comprende: a. Cardanes que tienen al menos dos grados de libertad; b. Al menos una batería de sensores de luz posicionada sobre los cardanes para ser dirigida por los mismos dentro al menos dos grados de libertad; c. Medios de almacenamiento de mapas para almacenar al menos un Mapa de Elevación Digital de un área de interés, dividido en porciones; d. Sistema de Navegación Inercial para proporcionar en tiempo real a la unidad de control de los cardanes datos de orientación y navegación de la nave aérea con respecto a un sistema de ejes global predefinido; e. Unidad de selección de la porción para seleccionar, una a la vez, otra porción de área del área de interés; f. Unidad de servo-control para:
A.
Recibir desde dicho mapa de Elevación Digital uno a la vez, un conjunto de coordenadas de la porción de área selectiva, dicho conjunto comprendiendo las coordenadas x : y de dicha porción de área y la elevación z del centro de esa porción;
B.
Recibir de forma continua desde dicho sistema de navegación inercial datos de la orientación y localización actual de la nave aérea;
C.
Calcular de forma repetida y transmitir hacia la servo-unidad de los cardanes en tiempo real y a alta velocidad señales para:
a.
durante un periodo de dirección, señales para dirigir en correspondencia los cardanes incluyendo dicha LOS de al menos una batería de unidades de detección de la luz hacia dichas coordenadas x : y : z de la porción de área seleccionada, y;
b.
durante un periodo de integración en el cual los sensores de la batería integran la luz que llega de la porción de área, proporcionar a la unidad de los cardanes señales para compensar el cambio en la dirección hacia las coordenadas x:y:z de la porción seleccionada que evoluciona a partir del movimiento de la nave aérea;
g.
Servo cardanes para efectuar la dirección de los cardanes en al menos dos grados de libertad de acuerdo a las señales proporcionadas desde dicha Unidad de Servo Control;
h.
Medios de muestreo para el muestreo de manera simultánea al final del periodo de integración de los niveles de los píxeles de cada uno de dichos sensores de la batería, un conjunto de todos los dichos niveles de píxeles muestreados forma una imagen de dicha porción de área; e
i.
Medios de almacenamiento para almacenar una pluralidad de las imágenes de la porción de área.
\global\parskip1.000000\baselineskip
Preferiblemente, dicha una o varias baterías son seleccionadas de al menos una batería sensible a la luz visual, una batería sensible a la luz UV, una batería sensible a la luz infrarroja, una batería multi/hiper espectral, y una batería de iluminación activa.
Preferiblemente, dichos datos de navegación de la nave aérea comprenden datos relacionados con la localización en 3D de la nave aérea, y sus vectores de aceleración y velocidad con respecto a un sistema de coordenadas predefinidos, y sus datos de orientación relacionados con al orientación de la nave aérea con respecto a dicho sistema de coordenadas predefinido.
Preferiblemente, dicho Sistema de Navegación Inercial comprende sensores de velocidad, aceleración y orientación, al menos algunos de dichos sensores estando posicionados sobre los cardanes.
Preferiblemente, al menos algunas de dichas baterías estando posicionadas sobre los cardanes.
Preferiblemente, el sistema usa dos Sistemas de Navegación Inercial, el primer sistema de navegación inercial siendo el Sistema de Navegación Inercial principal de la nave aérea y sus sensores estando posicionados dentro de la nave aérea, y el segundo Sistema de Navegación Inercial siendo un sistema dedicado del sistema de reconocimiento, al menos algunos de los sensores de dicho segundo Sistema de Navegación Inercial estando posicionados en la unidad de los cardanes, midiendo los datos de navegación y orientación de los cardanes con respecto a dicho sistema de ejes predefinido, para una mejor eliminación de los deslineamientos que ocurren entre los cardanes y la LOS y dicho Sistema de Navegación Inercial principal de la nave aérea debido a las vibraciones y deflexiones aéreo-elásticas de la nave aérea, usando un proceso de alineación de transferencia desde dicho primer INS a dicho segundo INS.
Preferiblemente, el Mapa de Elevación Digital es un mapa que comprende una cuadrícula del área de interés, los valores de las coordenadas x : y : z en cada uno de los puntos nodales en dicha cuadrícula siendo proporcionados por dicho mapa.
Preferiblemente, la unidad de selección de la porción es usada para calcular y determinar un centro de una próxima porción de área de manera tal que proporcione un solapamiento predefinido entre dicha porción de área explorada y la porción de área previamente explorada adyacente.
Preferiblemente, en un modo automático de operación los cardanes son activados para cubrir de una manera secuencial, escalonada, el área de interés, dicha cobertura es hecha a partir una porción de partida predefinida y de acuerdo a un plan almacenado de la misión, barriendo secuencialmente de esta forma una tras otra las porciones de área del área de interés, y muestreando imágenes de cada una de dichas porciones.
Preferiblemente, en un modo manual del sistema el piloto de la nave aérea define un área de interés durante el vuelo, dicha área de interés siendo automáticamente dividida en al menos una porción de área, todas las porciones de área siendo automáticamente barridas una tras la otra por medio de dirigir correspondientemente hacia ellas la batería sobre los cardanes, para capturar las imágenes de dichas porciones barridas.
Preferiblemente, los cardanes comprenden dos mecanismos de cardanes, un mecanismo de cardanes externo y un mecanismo de cardanes interno.
Preferiblemente, el mecanismo de cardanes externo es usado para dirigir de manera burda la batería sobre los cardanes hacia el centro de la porción de área seleccionada.
Preferiblemente, el mecanismo de cardanes externo tiene dos grados de libertad, elevación y balanceo.
Preferiblemente, el mecanismo de cardanes interno es usado para dirigir de manera fina la batería sobre los cardanes hacia el centro de la porción de área seleccionada, particularmente para compensar la dirección de los cardanes por el movimiento de la nave área y el cambio de orientación durante el periodo de integración.
Preferiblemente, el mecanismo de cardanes interno tiene dos grados de libertad, angular y cabeceo.
Preferiblemente, el mecanismo de cardanes externo está esclavizado al mecanismo de cardanes interno.
Preferiblemente, durante el periodo de integración cada uno de los sensores de la batería detecta de manera simultánea la luz desde una sección correspondiente de la porción de área, y al final del periodo de integración los datos de todos los sensores de la batería son leídos de manera simultánea, y almacenados como una imagen de la porción de área.
Preferiblemente, las baterías de sensores de luz son sensibles a la luz en el rango de la luz visual, IR, UV, multi/hiper espectral, y/o iluminación activa.
Preferiblemente, las baterías son baterías de plano focal.
Preferiblemente, el sistema de ejes predefinido es un sistema de ejes global.
En una realización de la invención, el sistema de la invención es ensamblado con una góndola unida a la nave aérea.
En otra realización de la invención, el sistema de la invención es ensamblado con una plataforma instalada dentro de la nave aérea con solamente sus ventanas prolongándose para obtener una Línea de Mira clara, no obstruida.
Preferiblemente, los cardanes están localizados en el frente de la góndola, detrás de una ventana transparente.
En una realización de la invención, el sistema comprende adicionalmente un mecanismo de barrido inverso que comprende un prisma o espejo, posicionado sobre los cardanes y que puede ser rotado con respecto a estos, la luz que llega desde la porción de área primero pasa a través de dicho espejo el cual desvía la misma hacia la batería, y: a. la unidad de servo control aplica a los cardanes un movimiento continuo de barrido a las columnas y/o hileras sin parar, y b. mientras esta siendo establecida la dirección hacia una porción de área, aplicar a dicho espejo del barrido inverso durante el periodo de integración un movimiento en dirección opuesta con respecto a dicho movimiento continuo de barrido a las columnas y/o hileras, compensando de esta forma ese movimiento continuo y asegurando una relación de orientación fija de la batería con respecto a la porción de área explorada.
La invención se relaciona adicionalmente con un método para llevar a cabo el reconocimiento aéreo, el cual comprende: a. Proporcionar al menos una batería de píxeles sensibles a la luz; b. Montar al menos una batería sobre cardanes que tienen al menos dos grados de libertad de manera que los cardanes puedan dirigir la batería hacia una Línea de Mira seleccionada; c. Proporcionar un Mapa de Elevación Digital de un área de interés, obtener imágenes de reconocimiento de dicha área; d. Proporcionar un Sistema de Navegación Inercial para obtener en cualquier momento durante el vuelo las coordenadas x_{a} : y_{a} : z_{a} actualizadas del centro de la batería con respecto a un sistema de coordenadas predefinido; e. Proporcionar una unidad de cálculo para, dadas las coordenadas de localización x_{p} : y_{p} de un centro de la porción de área especifica dentro del área de interés, y la coordenada de elevación z_{p} en dicho centro de la porción obtenida a partir de dicho Mapa de Elevación Digital, y las dichas coordenadas x_{a} : y_{a} : z_{a} del centro de la batería al mismo tiempo específico, determinar los ángulos exactos para establecer una dirección de la línea de mira que se conecta entre el centro de la batería y dichas coordenadas x_{p} : y_{p} : z_{p}; f. Dado el cálculo del paso e, dirigir en correspondencia el centro de la Línea de Mira de la batería hacia el centro de la porción de área; g. Durante un periodo de integración, efectuar la acumulación de la luz de manera separada mediante cualquiera de los sensores de la luz de la batería; h. Durante el periodo de integración, repetir a alta velocidad el cálculo del paso e con las coordenadas x_{a} : y_{a} : z_{a} de la batería actualizadas, y de manera repetida, a continuación de cada cálculo, corregir la dirección como en el paso f; i. Al final del periodo de integración, muestrear todos los sensores de la batería, y guardar en un almacenamiento como imágenes de la porción de la batería; j. Seleccionar nuevas coordenadas x_{p} : y_{p} : z_{p} de porciones dentro del área de interés, y repetir los pasos e a j para estas nuevas coordenadas; y, k. Cuando la cobertura de toda el área de interés es completada, terminar el proceso o comenzar la cobertura de una nueva área de interés.
Preferiblemente, la selección de las coordenadas x_{p} : y_{p} de una nueva porción de área es realizada para garantizar el solapamiento entre las porciones de área adyacentes dentro de un rango predefinido, calculando la huella tridimensional de la nueva porción de área en la tierra, y luego proyectándola sobre la huella de una porción de área anterior.
Preferiblemente, la garantía del solapamiento es obtenida por una selección de ensayo y error, cálculo del solapamiento, y corrección cuando es necesario, o por medio de un cálculo analítico exacto.
Preferiblemente, al menos alguno de los sensores del Sistema de Navegación Inercial están posicionados sobre los cardanes, para mejorar la medición de la orientación de la batería con respecto a la porción de área selectiva.
Preferiblemente, al menos alguno de los sensores sensibles a la luz están posicionados sobre los cardanes, para mejorar la medición de la orientación de la Línea de Mira con respecto a la porción de área selectiva.
Preferiblemente, el Sistema de Navegación Inercial comprende un Sistema de Navegación Inercial dedicado del sistema de reconocimiento y el Sistema de Navegación Inercial principal de la nave aérea, para mejorar la medición de la orientación de la batería con respecto a la porción de área selectiva, usando un proceso de alineación de transferencia desde el Sistema de Navegación Inercial de la nave aérea hacia el Sistema de Navegación Inercial dedicado del sistema de reconocimiento.
La invención se relaciona adicionalmente con un método para proporcionar la compensación del movimiento durante la toma de fotografías aéreas que comprende: a. Proporcionar al menos una batería de píxeles sensibles a la luz; b. Montar al menos una batería sobre cardanes que tienen al menos dos grados de libertad de manera que los cardanes puedan dirigir su Línea de Mira hacia una porción de área selectiva; c. Proporcionar un Mapa de Elevación Digital de un área de interés, obtener imágenes de reconocimiento de dicha área; d. Proporcionar un Sistema de Navegación Inercial para obtener en cualquier momento durante el vuelo las coordenadas x_{a} : y_{a} : z_{a} actualizadas del centro de la batería con respecto a un sistema de coordenadas predefinido; e. Proporcionar una unidad de cálculo para, dadas las coordenadas de localización x_{p} : y_{p} de un centro de la porción de área especifica dentro del área de interés, y la coordenada de elevación z_{p} en dicho centro de la porción obtenida a partir de dicho Mapa de Elevación Digital, y las dichas coordenadas x_{a} : y_{a} : z_{a} del centro de la batería al mismo tiempo específico, determinar los ángulos exactos para establecer una dirección de la línea de mira que se conecta entre el centro de la batería y dichas coordenadas x_{p} : y_{p} : z_{p}; f. Durante un periodo de integración, cuando el centro de la Línea de Mira de la batería es dirigido a un centro de una porción de área, efectuar la acumulación de la luz de manera separada mediante cualquiera de los sensores de la luz de la batería; h. Durante el periodo de integración, repetir a alta velocidad el cálculo del paso e con las coordenadas x_{a} : y_{a} : z_{a} de la batería actualizadas, y de manera repetida, a continuación de cada cálculo, corregir la dirección manteniendo el centro de la batería dirigido al centro de la porción de área seleccionada, compensando de esta forma el movimiento de la nave aérea; y h. Al final del periodo de integración, muestrear todos los sensores de la batería, y guardar en un almacenamiento como imágenes de la porción de la batería.
Preferiblemente, el método antes mencionado para llevar a cabo el reconocimiento aéreo comprende adicionalmente:
a.
Proporcionar dichos cardanes que tienen al menos dos grados de libertad de manera que los cardanes puedan ser dirigidos a una Línea de Mira seleccionada;
b.
Proporcionar dicho Mapa de Elevación Digital de un área de interés, siendo marcados los objetos seleccionados dentro de dicha área;
c.
Proporcionar dicho Sistema de Navegación Inercial para obtener en cualquier momento durante el vuelo las coordenadas x_{a} : y_{a} : z_{a} actualizadas del centro de los cardanes con respecto a un sistema de coordenadas predefinido;
d.
Proporcionar una unidad de cálculo para dadas las coordenadas de localización x_{p} : y_{p} de un centro de un objetivo específico dentro del área de interés, y la coordenada de elevación z_{p} en dicho centro del objetivo obtenida a partir de dicho Mapa de Elevación Digital, y las dichas coordenadas x_{a} : y_{a} : z_{a} del centro de los cardanes al mismo tiempo específico, determinar los ángulos exactos para establecer una Dirección de la Línea de Mira que se conecta entre el centro de los cardanes y dichas coordenadas x_{p} : y_{p} : z_{p};
e.
Dado el cálculo del paso d, dirigir en correspondencia el centro de la Línea de Mira de los cardanes al centro de un objetivo seleccionado;
f.
Durante el periodo efectivo de selección del objetivo, compensar el movimiento en relación con el movimiento de la nave aérea repitiendo a alta velocidad el cálculo del paso d con las coordenadas x_{a} : y_{c} : z_{a} del objetivo actualizadas, y de manera repetida, a continuación de cada cálculo, corregir la dirección como en el paso e.
Breve descripción de los dibujos
En los dibujos:
- La Fig. 1 muestra una estructura general del sistema de reconocimiento, ensamblado con una góndola, de acuerdo a una realización de la invención;
- La Fig. 1A muestra otra realización de la invención. En esta configuración el sistema de reconocimiento es ensamblado como una plataforma en el cuerpo de la nave aérea;
- La Fig. 2 muestra la estructura mecánica de un sistema de cardanes de acuerdo a una realización de la invención;
- La Fig. 3 ilustra varios modos de operación, típico para el sistema de la invención;
- La Fig. 3A muestra un área de interés dividida en una pluralidad de porciones de área, de acuerdo a una realización de la invención;
- La Fig. 3B ilustra varios modos de mira fija que son posibles mediante el sistema de la invención;
- La Fig. 4 es un diagrama en bloque que ilustra la operación del sistema de reconocimiento de la invención;
- La Fig. 5 es un diagrama de flujo que describe los principios de operación del sistema de reconocimiento de la invención;
- La Fig. 6 muestra la estructura del sistema INS de la invención, el cual comprende el INS principal de la nave aérea, y el INS dedicado del sistema de reconocimiento de la invención;
- La Fig. 7 muestra como una imagen estereoscópica es construida por el sistema de la presente invención;
- La Fig. 8 ilustra un caso específico en el cual un sistema del arte anterior es requerido para llevar a cabo una misión de reconocimiento;
- La Fig. 8A ilustra como el sistema de la presente invención lleva a cabo la misma misión de reconocimiento de la Fig. 8A;
- La Fig. 9 ejemplifica el significado del factor de elevación cuando se lleva a cabo la misión de reconocimiento, y más particularmente muestra la importancia de considerar de manera directa y en tiempo real la elevación del terreno explorado;
- La Fig. 10 ilustra el uso de un espejo de barrido inverso de acuerdo con el sistema de la presente invención;
- La Fig. 11 es una ilustración en perspectiva de un terreno accidentado, y su división en porciones de área, incluyendo algún solapamiento entre las porciones de área, como es realizado por el sistema de la presente invención;
- La Fig. 11A muestra una vista superior del terreno de la Fig. 11, y la manera del barrido de dicho terreno por el sistema de reconocimiento aéreo de la presente invención; y
- La Fig. 12 es un ejemplo que ilustra como el sistema de la presente invención puede fotografiar objetivos selectivos, reduciendo significativamente de esta forma la cantidad de datos manejados.
Descripción detallada de las realizaciones preferidas
Una realización preferida del sistema de reconocimiento de la presente invención está particularmente caracterizada por las siguientes características principales:
i.
Una o más baterías de plano focal que son usadas para detectar y capturar imágenes a partir de un área de interés tienen una línea de mira (LOS) que es dirigida por los cardanes que tienen al menos dos grados de libertad. El término "cardanes", cuando es usado aquí, se refiere a cualquier tipo de mecanismo, tanto mecánico, óptico (tal como uno que incluye prismas, espejos, etc.) o una combinación de los mismos, que es capaz de mover una línea de mira de una batería de sensores sensibles a la luz en al menos dos grados de libertad. Un mecanismo mecánico es algunas veces llamado "cardanes de plataforma estabilizada"; un mecanismo óptico algunas veces es llamado "cardanes de espejo estabilizado". Una de dichas baterías puede detectar en el rango visual, y otro puede detectar, por ejemplo, en el rango IR, y/o el rango UV. En otro caso una batería multi/hiper espectral o una batería de iluminación activa pueden ser usadas. De aquí en lo adelante, a través de toda esta solicitud, el término "batería" se refiere a cualquier tipo de batería de medios que detectan la luz para obtener una imagen de un área de interés. Las baterías usadas en la invención pueden ser de tamaño medio o pequeño, en lugar de las baterías grandes que son usadas en los sistemas del arte anterior como las que son usadas en US 5,155,597, WO 97/42659, y US 6,256,057, que toman ventaja de la flexibilidad del sistema para tomar muchos fotos instantánea en la línea arbitraria de las direcciones de mira, y con condiciones del terreno que varían de forma brusca. El montaje preferido de las baterías de sensores y sus medios ópticos, cuando se usan los cardanes de plataforma estabilizada, es sobre los cardanes; en caso de los cardanes de espejo estabilizado, los sensores son montados fuera de los cardanes.
ii.
El sistema de reconocimiento usa un Sistema de Navegación Inercial (INS) para calcular de manera continua la dirección de la línea de mira. En un caso preferido, dos sistemas INS son usados: el primero es el INS principal de la nave aérea, y el segundo INS es un INS interno, dedicado del sistema montado en el sistema de reconocimiento. El sistema de reconocimiento de la invención recibe de manera continua de dichos Sistemas de Navegación Inercial tanto información de navegación concerniente a la localización de la nave aérea con respecto a un sistema global de ejes predefinido fijo, como información de orientación de la nave con respecto a la tierra, para dirigir de manera puntual una o más baterías posicionadas sobre los cardanes hacia cualquier porción de área deseada en la tierra dentro del campo de visión de la nave aérea. El montaje preferido del sistema INS es sobre los cardanes, tanto en los cardanes de plataforma estabilizada como los cardanes de espejo estabilizado.
iii.
Los cardanes que tienen al menos dos grados de libertad, sobre los cuales las baterías están preferiblemente montadas, en un modo de la invención son activados sistemáticamente de una manera escalonada para el barrido secuencial de una tras otra las porciones de área de un área de interés, dentro de un campo de visión muy grande.
iv.
El sistema de la invención captura mediante sus baterías, cuando están activadas, una imagen instantánea de dos dimensiones de una porción de área, permitiendo tiempos largos de exposición debido a la compensación del movimiento de la línea de mira;
v.
Cuando esta dirigido a una porción de área, la compensación del movimiento tridimensional es proporcionada mediante el ajuste de los cardanes para mantener el seguimiento de la porción de área relevante por medio de los datos proporcionados a partir del INS, y de un Mapa de Elevación Digital del área de interés, el cual es pre-almacenado en el sistema de reconocimiento de la invención; y
vi.
En un caso preferido, la división del área de interés en porciones de área es realizada en tiempo real, donde el tamaño de cada porción de área depende de varios parámetros, tal como la forma del terreno, y el rango desde la nave aérea hasta el centro del área de interés, determinado a partir del Mapa de Elevación Digital (DEM), particularmente para garantizar un solapamiento apropiado entre las imágenes de las porciones de área.
Las características principales anteriores, así como otras características estructurales de la invención, serán evidentes cuando la descripción proceda.
Como se dijo, los sistemas de reconocimiento del arte anterior del tipo de barrido Longitudinal a la Trayectoria y Transversal a la Trayectoria, están relacionados con los datos acumulados de una etapa específica como datos esencialmente de una sola pieza. Más particularmente, una vez que una etapa está definida, mientras la nave aérea vuela a lo largo de la etapa, los datos acumulados son esencialmente almacenados como un gran archivo de imágenes. Posteriormente, es un trabajo del operador distinguir los datos relevantes específicos de está imagen. Además, cualquier sistema de reconocimiento aéreo debe tratar con el problema de la compensación del movimiento. Como este último problema es complicado, la solución proporcionada en los sistemas del arte anterior no permite maniobrar de manera brusca la nave aérea durante la misión de reconocimiento. La presente invención proporciona una solución a dichos dos problemas de una manera compacta y eficiente.
El sistema de reconocimiento de la presente invención está particularmente adaptado para ser portado por una nave aérea de combate, donde las condiciones medioambientales, las dinámicas de las maniobras, el tamaño del sistema, las limitaciones aerodinámicas, y los aspectos angulares con respecto a la tierra son extremos; sin embargo, el sistema es también apropiado para otras plataformas aéreas. En un caso preferido, el sistema es ensamblado dentro de una góndola o una plataforma que es generalmente portada debajo del fuselaje o ala de la nave aérea. Debido a las condiciones extremas de operación de una nave aérea de combate, los sistemas del arte anterior, por ejemplo como es descrito en US 5,668,593 algunas veces usan un espejo para dirigir la LOS, una solución que limita el FOR sustancialmente ya que un espejo sustancialmente pliega la LOS hasta un punto en una cierta dirección con variaciones angulares relativamente pequeñas. En la presente invención la LOS es dirigida mediante los cardanes, una solución que permite un campo de visión muy grande ya que los cardanes pueden ser rotados hacia cualquier dirección.
La Fig. 1 muestra la estructura general de un sistema de reconocimiento, ensamblado dentro de una góndola, de acuerdo a una realización de la invención. La góndola 1 comprende en su sección delantera 10 cardanes (no mostrados) que portan las baterías que detectan la luz y los medios ópticos necesarios (no mostrados). Dichos cardanes y medios ópticos están montados detrás de una ventana transparente 12. Al menos una de tales baterías existe, por ejemplo, en una batería tipo CCD, o una batería de plano focal para detectar la luz en el rango visual. Opcionalmente, más baterías pueden ser incluidas, por ejemplo, una batería IR para detectar y capturar una imagen en el rango IR. La pluralidad de baterías, cuando es usada, así como el INS, son posicionados en la misma porción de los cardanes de tal manera que sean dirigidos a, y cubran exactamente la misma porción de área. Opcionalmente, en una realización menos preferida, los sensores y/o el INS pueden estar localizados detrás de los cardanes, mientras los cardanes portan un conjunto de espejos y prismas que pliegan la LOS hacia los sensores. El sistema adicionalmente comprende una Unidad de Manejo de Imágenes (IHU) 2 que procesa la información de la imagen digital desde los sensores, comprime las imágenes, y las combinan con los datos de la misión para facilitar la posterior interpretación en la estación de tierra, un Registrador de Estado Sólido (SSR) 3 o un dispositivo similar de almacenamiento de rápido acceso para almacenar un Mapa de Elevación Digital (DEM) del área de interés y un plan de la misión, y para registrar las imágenes capturadas. El sistema adicionalmente comprende una Servo Unidad (SU) para proporcionar señales de potencia y control a los servo cardanes, y una Unidad de Interfase (IU) para permitir las interfases de potencia con la nave aérea. Otro sistema computarizado y electrónica de control esta incluido dentro de la Unidad de Electrónica del Sistema (SEU). Opcionalmente, un Enlace de Datos (DL) 16 es usado para transmitir las imágenes y los datos de la misión a una estación de tierra para interpretaciones cercanas al tiempo real. La góndola está unida a la nave aérea por medio de pernos 11.
La Fig. 1A muestra otra realización de la invención. En esta configuración el sistema de reconocimiento es ensamblado como una plataforma en el cuerpo de la nave aérea. La Sección Delantera está posicionada verticalmente y está apuntando hacia abajo, con solamente sus ventanas prolongándose fuera del cuerpo de la nave aérea. Las mismas unidades electrónicas que en la configuración con la góndola son instaladas dentro del cuerpo de la nave aérea. Aunque esta solución puede ser usada por una nave aérea rápida a propulsión, su principal objetivo es para otros tipos de naves aéreas tal como helicópteros, RPV (vehículos piloteados de manera remota), y naves aéreas de comando y
control.
La Fig. 2 muestra la estructura mecánica del sistema de cardanes 20, de acuerdo a una realización preferida de la invención. La dirección de la progresión de la nave aérea es indicada por el número 27. Como se dijo, para llevar a cabo el reconocimiento, el sistema de cardanes de acuerdo a la presente invención tiene al menos dos grados de libertad. La dirección de los ejes de los cardanes y el orden de los cardanes no son importantes, a condición de que ellos sean capaces de dirigir la LOS hacia cualquier dirección espacial dentro del campo de visión específico.
De acuerdo a una realización preferida de la invención mostrada en la Fig. 2, el sistema de cardanes 20 comprende dos sub-mecanismos, como sigue:
-
Mecanismo de cardanes interno 36, que tiene dos grados de libertad, Angular (rotación alrededor del eje 22) y Cabeceo (rotación alrededor del eje 21); y
-
Mecanismo de cardanes externo 37, que tiene dos grado de libertad, elevación (rotación alrededor del eje 21) y balanceo (rotación alrededor del eje 23).
Los grados de libertad de Elevación y Cabeceo están relacionados esencialmente con una rotación alrededor del mismo eje 21. Sin embargo el grado de libertad del Cabeceo está relacionado con una rotación fina mediante el mecanismo de cardanes interno 36, mientras el grado de libertad de Elevación se relaciona con una rotación burda del mecanismo de cardanes externo 37. El mecanismo de cardanes externo 37 está preferiblemente esclavizado al mecanismo de cardanes interno 36. El esclavismo es el proceso mediante el cual los cardanes internos son los cardanes primarios a los cuales los comandos de dirección de la LOS están dirigidos, mientras los cardanes externos están compensando la rotación angular limitada de los cardanes internos que siguen el movimiento de los cardanes internos, siempre tratando de minimizar el desplazamiento angular entre los cardanes internos y externos. Aunque el seguimiento hasta un punto específico en frente y debajo de la góndola es posible por medio de dos grados de libertad, la separación en dos sub-mecanismos es hecha para obtener una mejor precisión del seguimiento y un campo de visión más amplio. El mecanismo de cardanes externo es particularmente usado para el seguimiento burdo, por ejemplo, para transferir la dirección de los cardanes desde una porción de área hasta una segunda porción de área, mientras el mecanismo de cardanes interno es particularmente usado para proporcionar compensación de orientación y movimiento, mientras captura una imagen de una porción de área específica. Otros arreglos de los cardanes, con diferentes números de cardanes o diferente dirección de los ejes, pueden también lograr estos objetivos.
Como se dijo, los cardanes externos facilitan la expansión del campo de visión (FOR). Los límites del FOR para una realización con góndola están indicados en la Figura 1. Este FOR es logrado por la capacidad de los cardanes de elevación externos para mirar hacia atrás así como hacia delante, combinado con la capacidad de los cardanes de balanceo para rotar un giro completo de 360 grados. Los límites del FOR para una realización con plataforma están indicados en la Figura 1A. Este FOR es logrado por la capacidad de los cardanes de elevación externos para mirar hacia los lados así como hacia abajo, combinado con la capacidad de los cardanes de balanceo para rotar un giro completo de 360 grados. La única limitación para el FOR en las dos realizaciones son el cuerpo de la góndola y el cuerpo de la nave aérea, los cuales obscurecen la línea de mira en los bordes del límite del FOR.
En la realización preferida de la invención de la Fig. 2, una o más de las baterías están montadas sobre el cardán interno, para proporcionar un ajuste fino de la batería hacia una porción específica de un área de interés. Esto es requerido, por ejemplo, para proporcionar compensación de orientación y movimiento.
Como se dijo, una o más baterías de sensores, conjuntamente con sus medios ópticos asociados, son posicionados sobre los cardanes para mantener al menos dos grados de libertad. En la realización de la Fig. 2, una batería de plano focal ejemplar 24 capaz de capturar imágenes en el rango visual, es indicada simbólicamente. Los límites del campo de vista (FOV) del sensor son simbólicamente indicados con el número 25, y la escena capturada por la batería es simbólicamente indicada con el número 26. De acuerdo a la presente invención, cuando la escena 26 es una porción de área seleccionada, el sistema de cardanes dirige el centro de la batería 24 hacia el centro 29 de la porción de área 26, la línea que conecta el centro de la batería con el centro de la porción de área seleccionada será referida aquí como "línea de mira" (LOS). Los medios ópticos de los sensores pueden ser tanto medios ópticos separados para cada sensor, o medios ópticos compartidos para todos/algunos de los sensores. Los medios ópticos compartidos recogen la luz en un rango multi espectral y luego la dividen para cada uno de los sensores de acuerdo a su única banda de onda espectral. El uso de medios ópticos separados versus los compartidos dependerá de los objetivos específicos del diseño, tomando en consideración los espacios disponibles y la mantenibilidad, modularidad y ejecución requerida.
Los Sistemas de Navegación Inercial son bien conocidos en el arte, y son ampliamente usados en las naves aéreas y los sistemas aéreos para determinar con gran precisión en el vuelo la localización del sistema aéreo o nave aérea, sus vectores de aceleración y velocidad, y su orientación con respecto a un sistema global de ejes estacionario. El Sistema de Navegación Inercial comprende esencialmente dos unidades separadas (es decir funciones), una Unidad de Navegación, para determinar las coordenadas de localización del sistema aéreo o nave aérea, y una Unidad Inercial para determinar, entre otras cosas, la orientación del sistema aéreo o nave aérea con respecto a un sistema de coordenadas generalmente global y fijo, predefinido. El INS puede también proporcionar los vectores de aceleración y velocidad del sistema aéreo o nave aérea. El Sistema de Navegación puede usar, por ejemplo, información de GPS, y la Unidad Inercial generalmente usa sensores inerciales dentro del sistema aéreo o nave aérea. Algunas veces, un INS menos preciso en un sistema aéreo está comunicándose con un INS más preciso en la nave aérea, y se alinea a si mismo de manera continua al INS de la nave aérea usando los datos recibidos de este. El proceso es llamado "alineación de transferencia", y es usado por muchos sistemas para alinear dos INS (por ejemplo para alinear un INS de misiles antes de dejarlos caer desde la nave aérea). Una vez alineados, el INS menos preciso calcula adicionalmente de manera independiente la dirección de la línea de mira (ángulos) con respecto a un sistema global de referencia, hasta que la próxima alineación ocurra.
De acuerdo a una realización preferida de la invención, el sistema de reconocimiento puede tener varios modos de operación, que se derivan de su capacidad para dirigir la LOS hacia una dirección deseada con el campo de visión del sistema. Con referencia a la Fig. 3B, las direcciones de la LOS pueden ser oblicua lateral, oblicua hacia delante, mirando hacia abajo o arbitrarias. Con referencia a la Fig. 3 los siguientes modos de operación pueden se típicamente usados:
i.
Modo de Trayectoria: Las imágenes son capturadas a lo largo de la trayectoria del vuelo de la nave aérea, con la línea de mira dirigida en dirección oblicua hacia delante, mirando hacia abajo u oblicua lateral. La trayectoria del recorrido sigue la trayectoria real del vuelo de la nave aérea.
ii.
Modo de Banda: Una banda lineal posicionada a lo largo de la trayectoria del vuelo, o en un ángulo con respecto a él, es capturada. En este modo la línea de mira es usualmente dirigida en dirección oblicua lateral.
iii.
Modo de Punto: Las imágenes de un área seleccionada son capturadas. En este modo la línea de mira puede ser dirigida en cualquier dirección arbitraria.
iv.
Modo de Mira Fija: Las imágenes de la misma área seleccionada son tomadas de manera sucesiva. En este modo la línea de mira puede ser dirigida en cualquier dirección arbitraria.
En los últimos tres modos, cuando la nave aérea se esta acercando al área seleccionada, el ángulo de observación de entrada puede ser cualquier ángulo (es decir comenzar la captura mucho antes del arribo), y cuando la nave aérea esta dejando el área seleccionada, el ángulo de observación de salida puede ser cualquier ángulo (es decir detener la captura mucho antes de la partida). De esta forma, el sistema de reconocimiento puede perdurar más tiempo en el área seleccionada.
Básicamente, el sistema de reconocimiento puede funcionar tanto en el modo manual como en el modo automático, y combinar ambos en la misma misión. En el modo automático, el sistema de reconocimiento proporciona la adquisición automática de las imágenes del reconocimiento de objetivos pre-planeados y objetivos de oportunidad. Los modos seleccionados para el sistema pueden contener cualquier combinación de los modos de trayectoria, de banda, de punto, y de mira fija. Basado en el plan de la misión, el sistema automáticamente configura los sensores cuando la nave aérea se acerca al área de los objetivos, activa los sensores seleccionados, controla la dirección de los sensores, e inicia/termina el registro y la transmisión de los datos de la imagen. La planificación de la misión es hecha por adelantado en la estación de tierra, y es cargada al sistema antes de la misión. En el modo manual, el operador puede manualmente cambiar el plan de la misión durante el vuelo. El operador puede interrumpir una operación automática y realizar las funciones de reconocimiento de manera manual. Todos los modos de operación pueden estar disponibles en ambos modos el automático y el manual.
Con referencia a la Fig. 3 y 3A, de acuerdo a una realización preferida de la invención, un área de interés es dividida en una matriz de una pluralidad de porciones de área. Por ejemplo, el área 100, la cual está definida por los puntos A, B, C, y D, está dividida en una matriz de una pluralidad de porciones de área, por ejemplo, las porciones P_{1,1}, P_{1,2}, P_{1,3}, P_{2,1}, P_{2,2}, P_{2,3},...... P_{n,m}, donde el primer número subíndice indica la columna de la porción dentro de la matriz, y el segundo número subíndice indica la hilera de la porción dentro del área de la matriz. El área 100 puede asumir cualquier forma cuadrangular arbitraria como sea deseado por el plan de la misión. El tamaño de las porciones de área P_{n,m} varía en correspondencia con el FOV de los sensores y el rango hasta la escena de cada porción de área. En algunos casos, y como será elaborado más tarde, la matriz del área es definida de tal manera que las porciones de área se solapen unas con otras, como es mostrado en la Fig. 11, por ejemplo, por alrededor de 10-20% de su área para garantizar una cobertura completa del área de interés, incluso cuando el área es un terreno que cambia de manera brusca. Cuando es requerida una fotografía estéreo, un solapamiento más grande que alrededor del 56% es requerido. Durante el vuelo de la nave aérea 102, los cardanes del sistema de reconocimiento barren la matriz del área 100 de una manera secuencial, sistemática, escalonada, mediante lo cual los cardanes primero dirigen su batería de procesamiento de imágenes a una primera porción de área y capturan su imagen de manera simultánea en todos los sensores, luego a una segunda porción de área para capturar su imagen, y luego, repitiendo este procedimiento, los cardanes "saltan" de manera secuencial la línea de mira y el campo de vista de la batería a través de todas las otras porciones, hasta capturar completamente las imágenes de todas las porciones del área de interés 100. Por ejemplo, el sistema puede barrer la matriz ejemplar 100 de 9 porciones en el siguiente orden: P_{1,1}, P_{1,2}, P_{1,3}, P_{2,1}, P_{2,2}, P_{2,3}, P_{3,1}, P_{3,2}, P_{3,3}. Cuando los cardanes del sistema dirigen la batería sensible a la luz a una porción de área específica, generalmente dirigiendo el centro de la batería hacia el centro de la porción de área específica y bloqueándolo (es decir fijando la LOS) sobre él, una "foto instantánea" es tomada, capturando la imagen de esta porción de área. Más particularmente, la "foto instantánea" involucra dos etapas, un estado de integración de la luz durante el cual la luz del área de interés es detectada por los componentes de la batería, y una etapa de muestreo durante la cual todos los componentes de la batería son muestreados de manera simultánea al final del periodo de integración. Como se dijo, este procedimiento es repetido de manera secuencial y sistemática para todas las porciones de área del área 100. Cada vez que una imagen de una porción es capturada, es guardada en un almacenamiento en el sistema de reconocimiento (tal como el Registrador de Estado Sólido 3 de la Fig. 1), y opcionalmente también transmitida a una estación de base en tierra (no mostrada) usando un Enlace de Datos (DL). Para proporcionar la captura precisa de la imagen, datos de navegación y localización son proporcionados en tiempo real a la unidad control de cardanes por el
INS.
La Fig. 4 es un diagrama en bloques que ilustra la operación del sistema de reconocimiento de la invención. Como se dijo, la operación del sistema involucra tres fases principales. En la primera fase, la línea de mira de la batería es dirigida hacia una porción de área seleccionada. En la segunda fase, la batería es "expuesta" a la luz que llega desde la porción de área, y la carga es integrada correspondientemente dentro de los componentes de la batería. Durante dicha segunda fase, la compensación del movimiento es provista moviendo la línea de mira con los cardanes, para compensar el movimiento de la nave aérea y el cambio de orientación durante el periodo de exposición (integración), particularmente para eliminar el emborronamiento. Al final del periodo de integración, en la tercera fase, todos los sensores sensibles a la luz de la batería son simultáneamente muestreados, y la imagen es almacenada. Antes del despegue, un Mapa de Elevación Digital 310 de un área, que incluye dentro de ella al menos el área de interés, es almacenado en el sistema de reconocimiento. El Mapa de Elevación Digital 310 es un archivo digital que refleja un mapa dividido en una cuadrícula, donde para cada punto nodal de la cuadrícula, las coordenadas x-y (con respecto a un sistema de coordenadas global predefinido) y la elevación z en ese punto son proporcionadas. El bloque de selección de la porción 311 selecciona una porción del área. Más particularmente, el bloque de selección de la porción 311 indica de manera secuencial un punto nodal un punto nodal que es un centro de una porción de área seleccionada dentro del DEM 310, provocando que el DEM 310 transmita las coordenadas del centro de la porción de área a la unidad de servo control 305. El concepto de encontrar las coordenadas en 3D del centro de un objetivo seleccionado usando un DEM, como es descrito en la presente invención, puede también ser usado en sistemas diferentes a los sistemas de reconocimiento, tal como los sistemas de selección de objetivos, donde algunas veces es deseado medir el rango exacto hasta la escena o un objetivo seleccionado sin emplear buscadores activos de rango. Preferiblemente, y como será elaborado posteriormente, varios modos de selección existen para seleccionar una porción de área, y determinar sus límites, o más particularmente, determinar su punto nodal central. Las coordenadas x_{p} : y_{p} del punto del centro de la porción de área seleccionada, y la coordenada de elevación z_{p} del mismo punto son transmitidas a la unidad de servo control 305. El módulo de dirección de la porción de área 306 de la unidad de servo control también recibe periódicamente del INS 303 las coordenadas x_{a} : y_{a} : z_{a} del centro de la batería sobre los cardanes. Teniendo estos dos conjuntos de coordenadas x-y-z, el módulo de dirección de la porción de área 306 calcula de manera geométrica los ángulos de los cardanes requeridos para establecer una Línea de Mira (LOS) entre el centro de la batería (x_{a} : y_{a} : z_{a}) y el centro de la porción de área seleccionada (x_{p} : y_{p} : z_{p}) y convierte dichos ángulos en las señales analógicas requeridas por la unidad de servo control de los cardanes 308 para establecer dicha dirección de los cardanes 300. Dicho cálculo de la dirección es repetido y actualizado en intervalos cortos de tiempo, para tomar en cuenta el cambio de orientación y localización de la nave aérea. La unidad de servo control 308 recibe una señal 315 desde la unidad de los cardanes que indica el estado de los cardanes con respecto a la dirección de la LOS deseada. Cuando esta determina que la dirección de la LOS ha sido establecida, la servo unidad transmite una señal 321 a la unidad de Integración/Muestreo 304, para iniciar el periodo de integración. La unidad de Integración/Muestreo 304 proporciona una señal 322 de la batería 301, provocando que esta comience la integración de la luz que llega de la porción de área. A partir de este momento, los componentes sensibles a la luz de la batería comienzan a acumular la carga relativa al nivel de luz en cada sección correspondiente de la porción de área. Durante el periodo de integración, la compensación del movimiento es repetidamente calculada por el módulo de compensación del movimiento 307. El módulo de compensación del movimiento 307, en similitud al módulo de dirección de la porción de área 306, también recibe del DEM las coordenadas (x_{p} : y_{p} : z_{p}) del centro de la porción de área seleccionada y del INS las coordenadas (x_{a} : y_{a} : z_{a}) del centro de la batería sobre los cardanes 301. El módulo de compensación del movimiento 307 calcula de manera repetida los ángulos de los cardanes requeridos para establecer la Línea de Mira (LOS) entre las coordenadas actualizadas del centro de la batería (x_{a} : y_{a} : z_{a}) recibidas del INS, y el centro de la porción de área seleccionada (x_{p} : y_{p} : z_{p}) y correspondientemente convierte dichos ángulos calculados en señales analógicas requeridas por la servo unidad de los cardanes 308 para establecer dicha dirección (es decir, dichos ángulos) de los cardanes 300, o en otras palabras, para compensar de manera repetida el movimiento y el cambio de orientación de la nave aérea durante el periodo de integración. La compensación del movimiento para el balanceo de la imagen alrededor de la LOS puede también ser hecho, usando cardanes de balanceo adicionales, pero esto no es típicamente necesario en las baterías de pequeño y medio tamaño debido al pequeño efecto de emborronamiento del balanceo en tales baterías. Al final del periodo de integración una señal de "muestreo" 322 es proporcionada a la batería 301, para muestrear de manera simultánea los niveles de carga acumulados dentro de todos los sensores de la batería, y almacenar en un almacenamiento 302 dichos niveles de carga como una imagen de la porción de área seleccionada. El almacenamiento de la imagen 302 es esencialmente el SSR de la Fig. 1. A continuación, el bloque de selección de la porción 311 selecciona un centro de una próxima porción de área desde el DEM 310, y transmite el mismo al módulo de dirección de la porción de área 306, y el mismo procedimiento descrito anteriormente se repite para esta próxima porción de área. El procedimiento se repite para todas las porciones de área del área de interés. Debe de notarse aquí que existen varios modos opcionales mediante los cuales el bloque de selección de la porción 311 opera. En un caso opcional, el bloque de selección de la porción 311 primero selecciona un centro de una primera porción de área y obtiene su imagen, y luego, para cualquier porción adicional él determina en tiempo real el centro de una próxima porción de área la cual satisface, por ejemplo, un requerimiento del 10% de solapamiento entre la presente porción y la porción previamente explorada. Este caso opcional será descrito en más detalles de aquí en lo adelante. En otro modo de la selección de la porción, el piloto marca el centro de una porción, y la imagen de esa porción es correspondientemente obtenida después de llevar a cabo el procedimiento anterior de compensación del movimiento, dirección, integración y muestreo. En aún otro modo de selección opcional, todas las porciones del área de interés y sus centros son predefinidos, por ejemplo mientras el aeroplano esta en la tierra, y la selección es entonces llevada a cabo de acuerdo a dicho orden predefinido, mientras durante el vuelo las direcciones exactas son automáticamente actualizadas basadas en la orientación y posición real de la nave aérea.
La selección de una porción de área, de manera que exista un solapamiento predefinido entre las imágenes sucesivas, es dependiente del escenario geométrico general incluyendo la posición de la nave aérea con respecto a la escena y las variaciones del terreno de la escena capturada. Con referencia a las Figs. 11 y 11A, para cada foto instantánea, la huella del FOV del sensor sobre el terreno es calculada usando los datos tridimensionales del terreno del DEM. Cada huella es un plano tridimensional, o una superficie de orden superior, inclinada en dos direcciones para ajustar mejor los gradientes del terreno. Después de tomar una foto instantánea, y antes de tomar la próxima foto instantánea, el sistema estima la dirección del centro de la LOS usando la extrapolación desde las fotos instantáneas anteriores u otras técnicas, y calcula la huella estimada del terreno de la próxima foto instantánea. El solapamiento entre esta huella estimada y la huella de la foto instantánea anterior es calculado proyectando el anterior sobre el último, y entonces la dirección del centro de la LOS es modificada para garantizar un solapamiento entre un rango especificado de valores. Este proceso se repite de manera iterativa unas pocas veces hasta que el solapamiento requerido es logrado, y entonces la LOS es físicamente movida a la localización de la nueva foto instantánea. El cálculo puede también ser hecho de manera analítica sin iteración, dependiendo del modelo matemático y de los recursos de computación disponibles para el sistema de reconocimiento. El número de saltos de la LOS Transversal a la Trayectoria (es decir a lo largo de una hilera), el cual determina el ancho de la banda fotografiada, es calculado de manera continua para asegurar el ancho máximo de la banda sin crear una demora excesiva en el salto longitudinal a la trayectoria hacia la próxima hilera para compensar la progresión de la nave aérea.
Los cardanes que tienen al menos dos grados de libertad son bien conocidos en el arte, y son usado, por ejemplo, en algunas naves aéreas para dirigir y seguir de manera inercial el sistema de selección de objetivos hasta un objetivo, el sistema de selección de objetivos siendo un sistema que permita la observación de los objetivos y la dirección de los sistemas de armas hacia ellos. Algunos de dichos sistemas de selección de objetivos también usan datos de orientación y navegación de un Sistema de Navegación Inercial para calibrar el seguimiento en tiempo real. La presente invención usa un sistema de cardanes similar a uno usado en dichos sistemas aéreos de selección de objetivos. El "seguimiento" de los cardanes con la batería hasta las porciones de área relevantes, cada porción en su turno, es realizado de una manera similar de cómo algunos sistemas aéreos de selección de objetivos dirigen y mueven sus armas hacia un objetivo. Sin embargo, en tales sistemas de selección de objetivos el área de interés no está dividida en una pluralidad de porciones tipo matrices, y no hay un barrido sistemático de las porciones de área relevantes dentro de un área de interés de una manera secuencial escalonada. Además, en los sistemas de selección de objetivos, el problema de la compensación de movimientos es resuelto por otros medios, tal como el seguimiento electro-óptico basado en la información de la imagen, una solución que no es práctica para los sistemas de barrido de áreas, tal como el sistema de reconocimiento de la invención. Como se dijo, el problema de la compensación del movimiento es implementado de una forma completamente diferente en algunos de los sistemas de reconocimiento del arte anterior, por ejemplo una compensación de movimiento en un chip es descrita en US 5,155,597, US 5,692,062, y WO 97/42659. La invención usa una combinación de los INS y sistemas de cardanes que tienen al menos dos grados de libertad para (a) llevar a cabo el barrido del área mediante el cual un "salto" entre las porciones de área es realizado de una manera burda, y (b) la compensación del movimiento durante el periodo de integración de una porción de área la cual es realizada de una manera fina. Los hechos de que la elevación (es decir la altitud) en el centro de cada porción seleccionada, obtenida del DEM, y que el sistema de cardanes tiene al menos dos grados de libertad, permite la compensación total y fina del movimiento en todos los ejes. Esta estructura, como será elaborada posteriormente, permite a la nave aérea de llevar a cabo maniobras brusca de una manera superior en comparación con los sistemas de reconocimiento del arte anterior. Además, ha sido encontrado por los inventores que debido al tiempo de exposición más largo de los sensores a la luz (es decir un tiempo de integración más largo) lo que se hace posible en el sistema de la invención debido al uso de las baterías de mira fija, no existe una necesidad esencial de una estructura TDI en la cual un mismo píxel del área sea barrido N veces, y luego promediado. El sistema en su lugar puede usar una captura de "foto instantánea" única de cada porción de área.
La Fig. 5 es un diagrama de flujo que describe los principios de operación del sistema de reconocimiento de la invención. El diagrama de flujo de la Fig. 5 asume que un área de interés ha sido definida, más particularmente, los límites del área de interés. En una realización preferida de la invención, el centro de la primera porción del área de interés a ser explorada es determinado de manera automática. Por ejemplo, si el área de interés es vista como una matriz, la primera porción puede ser la porción más a la izquierda, más lejana, y su centro es seleccionado de manera automática mediante alguna manera predefinida. A continuación, los centros de todas las otras porciones de área son determinados en tiempo real, para satisfacer algún rango predefinido de solapamiento entre las imágenes, como fue explicado anteriormente. La definición de ese rango es necesaria para, por una parte, garantizar que no existan "huecos" en el procesamiento de las imágenes, y por otra parte, que no exista un solapamiento extremo entre las imágenes adyacentes de las porciones, involucrando más imágenes que las necesarias. Como será elaborado de aquí en lo adelante, este procedimiento involucra el uso del DEM 310.
En el bloque 500, las coordenadas del centro x_{1} : y_{1} de la primera porción seleccionada son proporcionadas al DEM 501, el cual a su vez transmite el conjunto x_{1} : y_{1} : z_{1} (z_{1} siendo la elevación a x_{1} : y_{1}) a la unidad de servo control 305. La unidad de servo control 305, la cual también recibe las coordenadas actuales en tiempo real del centro de la batería x_{a} : y_{a} : z_{a} del INS (paso 504), también calcula en el paso 503 los ángulos y las señales requeridas para establecer una línea de mira entre el centro de la batería y el centro de dicha primera porción de área x_{1} : y_{1} : z_{1}. Las señales son transmitidas a la servo unidad de los cardanes, la cual establece la dirección de la LOS deseada en el paso 505. En el paso 506, un chequeo es realizado para determinar si el establecimiento de la dirección apropiada ha sido completado. Por supuesto, esto es una operación dinámica la cual es repetida de una manera muy frecuente y rápida para realizar la corrección de acuerdo a la progresión del aeroplano, y cualquier cambio de orientación, por ejemplo debido a la elasticidad o la maniobrabilidad de las naves aérea, como es reportado por el INS 504, el cual en un caso preferido tiene sus sensores inerciales sobre los cardanes. En el paso 507, la integración de la luz tiene lugar por los componentes de la batería. Simultáneamente, durante el periodo de integración tiene lugar una compensación del movimiento, nuevamente, para tener en cuenta la progresión de la nave aérea y cualquier cambio de la orientación de esta (o más particularmente de la batería de cardanes). Esta operación es también realizada de manera repetida, en tiempo real, con alta frecuencia, típicamente alrededor de 100 Hz, que garantiza una compensación del movimiento altamente precisa durante el tiempo de la integración. En el paso 509, un chequeo es hecho para determinar si el periodo de integración ha concluido. Al final del periodo de integración, la integración de la luz por la batería termina (paso 511) y la compensación del movimiento del paso 508 puede también terminar (paso 510). En el paso 512, todos los sensores de la batería son muestreados al mismo tiempo (mediante una foto instantánea), y la imagen es almacenada. En el paso 513, un chequeo es hecho para verificar si toda el área de interés ha sido cubierta por las imágenes ya tomadas. En el caso afirmativo, el procedimiento termina (paso 514). Si, sin embargo, el área de interés completa no ha sido cubierta aún, la aplicación asume las coordenadas x : y de una próxima porción de área (paso 515), las cuales son transmitidas al DEM para obtener la elevación z en el mismo centro de la porción. La próxima porción de área puede tanto estar localizada transversal a la trayectoria (la misma hilera) como longitudinal a la trayectoria (nueva hilera) desde la porción de área anterior, dependiendo del ancho de la hilera calculado de manera que un ancho de la banda máximo sea logrado mientras no se retarde detrás de la progresión de la nave aérea. A continuación, en un caso preferido (paso 516) una simulación es hecha para determinar si, si una imagen es tomada cuando se dirige a dichas coordenadas x : y : z, el área de solapamiento entre el área de la imagen anterior y el área de dicha nueva imagen satisface un rango de solapamiento predefinido (por ejemplo entre 10%-20% de solapamiento). Si se encuentra que el solapamiento es demasiado grande, este punto del centro es entonces posicionado ligeramente más lejos del centro de la porción anterior. Si, sin embargo, se encuentra que el solapamiento es demasiado bajo, el centro de la porción es posicionado ligeramente más cerca al centro de la porción anterior. Esta simulación usa el DEM, el cual es esencialmente un mapa digital que también incluye elevación en todos los puntos nodales de la cuadrícula. El uso del DEM para ese propósito es ventajoso, ya que la elevación es de gran importancia cuando se verifica el tema del solapamiento. Ha sido encontrado que después de una o dos estimulaciones repetidas, un nuevo centro de la porción puede ser determinado. La alineación del paso 516 como es descrito es preferido, pero no esencial. Desde el paso 516 el procedimiento continua hasta el paso 503 usando las nuevas coordenadas x : y : z del centro de la porción determinadas en el paso 516, y el procedimiento es repetido hasta que la cobertura de todas las porciones del área de interés es completada. Luego, el sistema puede conmutarse para barrer una nueva área de interés si eso es deseado. Debe notarse que aunque es preferible barrer un área de interés en un orden secuencial, ya que simplifica los cálculos del solapamiento de las porciones y mejora la eficiencia del barrido, el barrido puede también ser realizado en cualquier otro orden predefinido (o no).
Como se dijo, cuando se dirige la batería hacia el centro de una porción de área, y para compensar el movimiento de la nave aérea y cambio de orientación, la elevación de la porción de área relevante es de particular importancia para obtener una alta precisión. Por lo tanto, de acuerdo a una realización preferida de la invención, un Mapa de Elevación Digital (DEM), es decir, el mapa de 3D el cual incluye una cuadrícula del área de interés, es usado. Generalmente, no existe problema en obtener tales Mapas de Elevación Digital de casi cualquier área de interés del mundo; esta información está disponible comercialmente, o puede ser extraída de un mapa topográfico del área. El DEM del área de interés es cargado en el sistema de reconocimiento antes de la misión de reconocimiento, generalmente al
SSR 3.
Como se dijo, los sistemas de reconocimiento del arte anterior, por ejemplo, como son descritos en US 5,155,597, US 5,668,593, US 5,692,062, WO 97/42659, US 6,130,705, y US 6,256,057, no consideran de manera directa la elevación del terreno en la porción de área que se procesan las imágenes mientras calculan la Compensación del Movimiento Hacia Delante (FMC), o la Compensación del Movimiento (MC) en general. Algunos de estos sistemas, por ejemplo, como son descritos en US 5,692, 062, US 6,130,705, usan una correlación de imagen a imagen para estimar de manera indirecta los efectos del emborronamiento de las variaciones del terreno y corregirlos usando técnicas en un chip, pero estas técnicas tienen desventajas como las descritas anteriormente, y por lo tanto no son consideradas en la siguiente discusión. Estas desventajas incluyen la necesidad de tres capturas de imágenes sucesivas para cada imagen usable, precisión limitada de la correlación debido al emborronamiento de las primeras dos imágenes, gran desplazamiento de los píxeles entre las imágenes sucesivas, y V/R variable durante el proceso de captura de las 3 imágenes. La Fig. 9 ejemplifica el significado del factor de la elevación (es decir la altitud), y muestra cuan importante es considerar directamente y en tiempo real la elevación del terreno explorado. Generalmente, en los sistemas de reconocimiento del arte anterior, el INS de la nave aérea, cuando es usado, computa la orientación y la posición de la nave aérea con respecto a un sistema global, pero no tiene conocimiento en absoluto de la forma real del terreno 751 que está siendo fotografiado. La nave aérea 750 por lo tanto asume algún nivel fijo del terreno 756, generalmente el nivel del mar, como es representado. Ahora, si el sistema de reconocimiento toma fotografías del área cuyo punto del centro es A, durante el tiempo de exposición, la nave aérea 750 progresa una distancia D. La LOS (Línea de Mira) de reconocimiento se mantendrá apuntando al punto C asumiendo un nivel fijo 756, desplazando de esta forma el punto A hacia el punto B durante el tiempo de exposición, y para la montaña 757, un emborronamiento de magnitud AB, o un ángulo de error 752 es creado.
Ejemplo 1
Lo siguiente es un ejemplo numérico para evaluar el emborronamiento de los píxeles en los sistemas del arte anterior cuando capturan un terreno con grandes variaciones, mostrando un escenario oblicuo hacia delante. La nave aérea vuela a una velocidad de 250 m/s, el rango desde la nave aérea hasta la escena es de 10 km al nivel del terreno, el tiempo de exposición es de 10 ms, y se asume que la montaña 757 está a ½ del rango (es decir 5 km), y la altitud de la nave aérea es de 5 km. Por lo tanto, la velocidad angular de la LOS es aproximadamente 12.5 milirad/s (Velocidad de la nave aérea/Altitud de la nave aérea) x SIN^{2} (Ángulo de Depresión de la LOS), y el viaje angular de la nave aérea durante el tiempo de integración es 12.5 x 0.01 = 125 microrad. El ángulo 752 es por lo tanto de 125 microrad; para un FOV Instantáneo (IFOV) de píxeles típico de 30 microrad, esto significa un emborronamiento de más de 4 píxeles.
La situación es aún peor para un escenario oblicuo lateral, donde, en este ejemplo, la velocidad angular es 250/10.000 = 25 milirad/s, y el emborronamiento resultante es 8 píxeles.
Para el sistema de la invención, el emborronamiento de los píxeles es mucho más pequeño, como es demostrado en el siguiente ejemplo. El error en la velocidad angular de la LOS debido a las imprecisiones del rango R y la velocidad V es calculado mediante la siguiente fórmula:
1
Para una V_{nom} de 200m/s, y un R_{nom} de 15 km, un ángulo de depresión de la LOS de 20 grados, una inclinación del terreno de hasta 15%, un error típico de la velocidad del INS de 0.0 45 m/s, un error angular típico de la LOS de 2 mrad, un error típico de la posición de la nave de 30 m, un error típico de la altitud de la nave de 42 m, y un error típico de la altitud del DEM de 15 m, calculamos (todos los valores 3\sigma) el error del rango como 160 m, y el error de la velocidad angular de la LOS:
2
El emborronamiento de los píxeles durante el tiempo de integración de 10 ms será entonces de 0.14 x 0.01 = 1.4 microrad, lo cual para un IFOV típico de 30 microrad es un emborronamiento de sub-píxeles pequeño, es decir, un emborronamiento de menos de 5% de un píxel.
Varios tipos de barrido pueden ser usados en el sistema de la invención, como sigue:
a.
Barrido secuencial de la matriz: Las porciones del área de interés son capturadas de acuerdo a su orden secuencial dentro de la matriz del área.
b.
Barrido selectivo: Cualquier selección puede ser predefinida, y la captura de la porción es realizada en correspondencia.
c.
Captura manual: la captura de una porción de área es llevada a cabo manualmente, de acuerdo a la selección del piloto.
Ha sido notado que un procesamiento de imágenes estereoscópicas pudiera también ser obtenido por el sistema de la invención. A diferencia de los sistemas del arte anterior, especialmente aquellos descritos en US 5,155,597, US 5,692,062, y 6,256,057, el sistema de la presente invención puede mejorar el efecto estereoscópico "volviendo a visitar" una porción de área después que la nave aérea progresó hasta un desplazamiento angular sustancial con respecto a la porción de área. La Fig. 7 muestra como una imagen estereoscópica puede ser construida por la presente invención. Como es conocido en el arte, una imagen estereoscópica de un área o un objeto puede ser construida usando dos imágenes, cada una cubriendo una porción de solapamiento sustancial del área u objeto, si dichas dos imágenes son tomadas a partir de dos puntos de vista suficientemente remotos de una manera angular uno del otro con respecto al área explorada. En la Fig. 7, la nave de reconocimiento 200 vuela desde la izquierda a la derecha, en la ruta que es mostrada. Cuando pasa, por ejemplo el punto A, la nave aérea captura de manera secuencial las imágenes de la porción 201, 202, y 203, dirigiendo la batería sobre los cardanes a estas porciones correspondientemente. Posteriormente, la nave aérea continua hasta el punto B, en el cual los cardanes son dirigidos nuevamente para capturar correspondientemente las imágenes 201', 202', y 203' de las mismas porciones de área; sin embargo, ahora, desde el punto de vista de B. Si una porción sustancial, por ejemplo, alrededor del 56%, de cada porción de área se solapa en las imágenes tomadas desde los puntos A y B respectivamente, una imagen estereoscópica de la porción de área puede ser construida de una manera conocida. Como es mostrado, la invención proporciona una manera fácil, simple, y compacta de obtener las imágenes requeridas para construir las imágenes estereoscópicas. Cuando se interpretan las fotos de reconocimiento, el efecto estereoscópico puede ser obtenido, por ejemplo, desplegando las dos imágenes de la misma porción de área a diferentes polaridades de luz, y luego viendo la pantalla usando espejuelos polarizados, dirigiendo una imagen al ojo izquierdo y la otra al ojo derecho.
En una realización más preferida de la invención, dos Sistemas de Navegación Inercial son usados por el sistema de reconocimiento de la invención. Más particularmente, y como es mostrado en la Fig. 6, el INS 303 de la Fig. 4 comprende dos Sistemas de Navegación Inercial separados. El primer INS es el INS principal de la nave aérea 604, usualmente combinado con GPS, y el segundo INS es el INS de Reconocimiento Interno 603. Como se dijo, el INS 303 es usado para proporcionar datos de navegación, tal como las coordenadas actuales de la nave aérea con respecto a un sistema de coordenadas preferiblemente global predefinido, y datos de orientación relacionados con la orientación de la nave aérea con respecto a dicho sistema global de coordenadas. Estos datos deben ser muy precisos, y tienen que ser actualizados de manera continua para garantizar la dirección precisa hacia el área capturada, y no menos importante, para garantizar una compensación del movimiento precisa, incluso durante las maniobras bruscas y rápidas de la nave aérea. Esta tarea involucra aún mayor complicación, ya que debido a la elasticidad de la nave aérea las porciones sufren de aceleraciones muy altas, y un flujo de aire muy intenso. Por lo tanto, para dirigir mejor la batería de sensores sensibles a la luz, y para compensar mejor el movimiento de la nave aérea, se ha encontrado por los inventores que es esencial posicionar un INS dentro del sistema de reconocimiento, y preferiblemente sobre los propios cardanes, para medir los datos de orientación y navegación de los cardanes, con respecto a un sistema global de coordenadas predefinido. Por lo tanto, el INS de Reconocimiento Interno está preferiblemente posicionado sobre los cardanes, próximo a la batería que está preferiblemente posicionada sobre los cardanes también, y mide de manera precisa dichos datos. Sin embargo, ya que el INS Interno debe ser limitado en tamaño, y por lo tanto puede sufrir de algunas imprecisiones y derivaciones, de acuerdo a la presente invención el INS Interno 603 está conectado al INS Principal de la Nave Aérea 604. El INS principal de la nave aérea actualiza periódicamente el INS interno con los datos de navegación para alinearlo por posibles derivaciones, usando el proceso de alineación de transferencia del arte anterior descrito antes. De tal manera un ancho de banda más amplio y una mayor precisión de los servo cardanes son obtenidos. Valores típicos para el deslineamiento mecánico entre la LOS del sistema de reconocimiento y la nave aérea son de 10-20 mrad, mientras el INS alineado sobre los cardanes puede medir este deslineamiento con una precisión de 1-2 mrad.
Debe de notarse que las porciones de área son típicamente capturadas por el sistema de la invención en forma de "foto instantánea", típicamente con mucho más tiempo de integración que el vector o la batería en el sistema del arte anterior. Mientras el periodo de integración típico en el sistema de la invención está en el orden de los milisegundos, en los sistemas del arte anterior que usan vectores, tal como, US 5,155,597, US 5,692,062, y 6,256,057, los periodos típicos de integración son de dos o tres ordenes de magnitud más corta (es decir, entre 100 a 1000 veces más corto), resultando en una sensibilidad fotónica a la luz mucho más baja. Esto evoluciona del hecho que la invención usa una batería que tiene varios cientos o miles de hileras y columnas, en las cuales cada píxel esta expuesto a la luz durante todo el tiempo de captura del área. En los sistemas del arte anterior que usan un vector de una dimensión, un mismo periodo de captura es dividido entre los píxeles de un mismo vector, los cuales deben ser expuestos cientos o miles de veces para cubrir una misma porción de área. Además, el hecho de que el sistema de la invención permita una gran flexibilidad en seleccionar áreas y porciones dentro de las áreas de interés permite una reducción significativa en la cantidad de datos con los cuales el sistema tiene que lidiar (es decir, capturara, almacenar, y/o transferir por medios de comunicación). Más particularmente, las imágenes de solamente porciones y áreas de interés son capturadas por el sistema de la invención.
Ejemplo 2
Lo siguiente es un ejemplo que muestra el ahorro en la cantidad de datos que el sistema de la invención maneja (es decir, almacenar, transmitir a la estación de tierra, etc.), en comparación con un sistema de reconocimiento de batería de gran tamaño o de escobillón:
-
Duración de la misión: 2 horas;
-
La Fig. 12 ilustra este escenario. Área de objetivos de alta prioridad con respecto al área fotografiada: 40% para foto instantánea. El término "foto instantánea", se refiere aquí a una manera en la cual todos los píxeles de la batería son expuestos de manera simultánea a la luz desde una porción de área, y los datos de todos los píxeles de la batería son leídos de manera simultánea al final de dicha exposición; 5% para la batería de gran tamaño o de escobillón - debido a la eficiencia de la planeación de la LOS y FOR (esto es una presunción que resulta de la capacidad del sistema de la invención de seleccionar mejor los objetivos de alta prioridad dentro de un área de interés, e ignorar las porciones de área que no son de interés);
-
Velocidad de la transferencia de datos de los sensores no comprimida: 20 Mbites/s
-
Relación de baja compresión: 1:5
-
Relación de alta compresión: 1:10
-
Área de solapamiento para reconocimiento por foto instantánea (de acuerdo a la invención). 40% del total del solapamiento longitudinal a la trayectoria y transversal a la trayectoria;
-
Área de solapamiento para el escobillón: 20%
Registro total
1. Foto instantánea = (2hr x 60 x 60) x 20MB/s x (0.4/5 + 0.6/10) x 1.4 = 28 GB
2. Escobillón = (2hr x 60 x 60) x 20MB/s x (0.05/5 + 0.95/10) x 1.2 = 18 GB
Como se dijo, el número de objetivos de alta prioridad obtenido para el reconocimiento por foto instantánea (de acuerdo a la invención) es 40%/5% = 8 veces más alto que el reconocimiento por baterías de gran tamaño o escobillón, y por lo tanto la eficiencia general de la misión es: 8 x (18/28) = 5.1 a favor de la toma de foto instantánea de acuerdo al sistema de la invención.
Esto es un incremento significativo en la eficiencia.
Debe de notarse aquí que el sistema de reconocimiento de la invención, que dirige la LOS de la(s) batería(s) de sensores sensibles a la luz que usan cardanes con al menos dos grados de libertad, permite la definición de un área de interés de forma arbitraria la cual es dividida, preferiblemente en tiempo real, en una pluralidad de porciones de área que son barridas de manera secuencial de forma precisa, sistemática y escalonada para obtener las imágenes de aquellas porciones hasta cubrir el área total. El sistema de la invención permite no solamente cubrir de manera eficiente un área de interés específico, sino también elimina la necesidad de proporcionar medios dedicados para la compensación del moviendo hacia delante, como es requerido en los sistemas de reconocimiento del arte anterior, por ejemplo en US 5,155,597, US 5,668,593, US 5,692,062, WO 97/42659, US 6,130,705, y US 6,256,057. Dirigiendo la LOS de la batería que usa los cardanes con al menos dos grados de libertad, y mediante la corrección continua de la dirección hacia la porción de área seleccionada durante la "exposición", no solamente es proporcionada la compensación del movimiento hacia delante con respecto al eje delantero, sino también es tomado en cuenta la forma 3D del terreno para proporcionar una compensación de la orientación y el movimiento mejorada con respecto a todos los tres ejes. Este hecho es de particular importancia, ya que permite maniobras amplias y bruscas de la nave aérea. Además, no importa donde la nave aérea este posicionada con respecto al área de interés o cualquier porción dentro de dicha área, y no importa en que orientación, el sistema proporciona medios para obtener imágenes apropiadas de tales porciones de área (asumiendo que no exista obstrucción del cuerpo de la nave aérea).
Ejemplo 3
La invención fue implementada de manera exitosa con los siguientes parámetros:
Configuración de góndola aérea;
Número de píxeles: Batería visual: 2000 x 2000, batería IR 640 x 480;
Tiempos de integración: 1-15 ms;
Rangos operacionales: hasta 30 km y altitud hasta 10 km;
Velocidad de la foto instantánea: 3 por segundo, ambas baterías de sensores operando de manera simultánea;
FOR: cubierta esférica total, excluyendo un cono de mirada hacia atrás de \pm 30 grados;
Ver también las Figs. 11 y 11A que son el resultado de una simulación real de los procesos de barrido y solapamiento.
Como se dijo, en la realización de la invención descrita anteriormente, la operación de barrido del área es realizada por los cardanes que primero dirigen el centro de la LOS de la batería hacia el centro de la porción de área relevante, luego, ocurre una exposición de la batería a la luz que llega desde la porción de área (es decir, la batería comienza la integración de la luz de la porción de área), y al final del periodo de exposición la imagen de la porción de área es capturada. A continuación, la LOS de la batería es dirigida hacia el centro de una próxima porción de área, y el procedimiento de integración y captura se repite. Este procedimiento se repite para todas las porciones de área del área de interés. Más específicamente, en la realización anterior los cardanes operan durante el barrido del área de interés en forma de "saltos", por medio de los cuales los cardanes primero se mueven hasta que una alineación con la porción de área predefinida es obtenida, luego los cardanes están estacionarios durante el periodo de exposición (excepto para el movimiento de compensación del movimiento), y a continuación los cardanes se mueven nuevamente para dirigir la batería hacia el centro de la próxima porción de área, etc. Este tipo de operación está limitado en el número de fotos instantáneas por segundo como es demostrado en el Ejemplo 3, ya que la aceleración-desaceleración y detención de los cardanes relativamente pesados consume mucho tiempo.
De acuerdo a aún otra realización de la invención, la eficiencia del barrido es mejorada usando un mecanismo de barrido inverso, como es mostrado en la Fig. 9. Como se dijo, en el barrido en "saltos", la batería y sus medios ópticos asociados están preferiblemente posicionadas sobre los cardanes internos, y todos estos están estacionarios con respecto a dichos cardanes internos. En la realización de barrido inverso mejorada de la invención un conjunto de baterías de barrido inverso 860 es montado sobre los cardanes internos. El conjunto esencialmente comprende los lentes 861, y 862, el espejo estacionario 864, y un prisma o espejo rotatorio de barrido inverso de uno o dos ejes de poca masa 863. El espejo rotatorio de barrido inverso está montado en un motor dedicado. En el método de barrido inverso, el barrido de las porciones de área es realizado de manera continua, o, en otras palabras, los cardanes barren de manera continua las columnas (o hileras) del área de interés a grandes velocidades angulares de la LOS, y este movimiento de barrido llega a tener el control de la alineación de la dirección y compensación del movimiento, como fue descrito anteriormente. Siempre y cuando una alineación exacta para el centro de una porción de área es obtenida, el periodo de integración de la luz (exposición de la batería) comienza, y el espejo de barrido inverso 863 compensa el movimiento continuo de barrido de los cardanes, solamente durante el periodo de integración manteniendo el movimiento angular hacia la dirección opuesta a la mitad de la velocidad angular. Con referencia a la Fig. 10, si los cardanes mantienen una velocidad inercial angular constante de barrido en la dirección 870, el espejo de barrido inverso 863 rota durante el periodo de integración (solamente) en la dirección opuesta 880, a la mitad de la velocidad angular. De esta manera, la porción de área es mantenida de manera estacionaria en la batería 305. Al final del periodo de integración (exposición), el espejo 863 retorna a su posición inicial, hasta un nuevo periodo de integración, en el cual se repita el mismo movimiento constante del espejo. El barrido inverso permite a los cardanes moverse a velocidades más altas sin tener que detenerse para cada foto instantánea. Detener los cardanes consume la mayoría del tiempo del ciclo de trabajo debido a la alta aceleración/desaceleración y a la gran masa inercial de los cardanes y su plataforma (es decir los sensores). El espejo de barrido inverso puede moverse mucho más rápido gracias a su masa inercial mucho más pequeña.
Ejemplo 4
El rango angular del espejo de barrido inverso es muy pequeño. Por ejemplo, si los cardanes se mueven a 60 deg/s y el tiempo de exposición es 10 ms, el desplazamiento angular del espejo de barrido inverso es 60 x 0.01 = 0.6 deg, lo que es muy pequeño.
Una comparación típica: Usar cardanes sin barrido inverso permite una velocidad de la foto instantánea de 3 cuadros por segundo en una instalación típica (por ejemplo el Ejemplo 3). La velocidad promedio de los cardanes, para un Campo de Vista de 3 grados, sería aproximadamente 3 x 3 = 9 deg/s. Por otra parte, usando el barrido inverso, los cardanes pueden moverse a una velocidad de 60 deg/s, resultando en 60/3 = 20 fotos instantáneas/s, una velocidad que es superior en más de 6 veces. La velocidad máxima permisible está limitada por la velocidad electrónica del cuadro del sensor, lo que es típicamente 30 o 60 Hz, y por lo tanto superior a los 20 Hz.
La Fig. 8 y la Fig. 8A ilustran un caso específico en el cual la presente invención es ventajosa sobre los sistemas de reconocimiento del arte anterior. Supongamos que la nave aérea 700 tiene una misión para obtener imágenes de dos puestos 705, y de una autopista 710 localizada entre las montañas. En un sistema de reconocimiento del arte anterior, en el cual la cámara (es decir el vector de los elementos sensibles a la luz) está esencialmente fijo con un FOR limitado, la nave puede cubrir desde el punto Q (aunque tiene un campo de vista limitado por las líneas 701 y 702) solamente el área entre los puntos B y D de la primera (derecha) montaña y el área entre los puntos A y C de la segunda (izquierda) montaña. Las imágenes de los dos puestos 705 y de la autopista 710 no son obtenidas. En una fotografía oblicua de rango largo (LOROP) la nave aérea volará hacia la página, y la LOS será oblicua lateral con un obscurecimiento sustancial debido al pequeño ángulo de depresión de la LOS. Si la cámara, sin embargo, no está fija, como en el caso de los sistemas de escobilla o escobillón, no habrá tampoco garantía de una cobertura completa de los puestos 705 y la autopista 710, ya que no existe una sincronización entre el movimiento del campo de vista de la cámara y la forma del terreno. De acuerdo a la presente invención, este problema es fácilmente resuelto. Mientras se prepara la misión y la división del área de interés, es posible seleccionar cualquier coordenada para que sea el centro del área de interés, y programar el sistema de reconocimiento para dirigir sus LOS de la(s) batería(s) hacia estas coordenadas seleccionadas desde cualquier localización seleccionada manualmente o predefinida de la nave aérea, mientras que la LOS esté dentro del FOR del sistema. Por lo tanto, como es mostrado en la Fig. 8A, mientras está en la localización R la LOS de la batería puede ser dirigida hacia delante para cubrir el área entre los puntos F y E, y más tarde, mientras llega al punto S, la LOS de la batería puede ser dirigida hacia atrás para cubrir el área entre los puntos G y H. En ese caso, el área completa entre las montañas, incluyendo los dos puestos 705 y la imagen completa de la autopista, puede ser obtenida. Las líneas 711 y 712 indican los límites del campo de visión del sistema de reconocimiento desde el punto R, mientras las líneas 721 y 722 indican los límites del campo de visión del sistema de reconocimiento desde el punto S.
La Fig. 11 es una vista en perspectiva de un terreno accidentado 560, y su división en porciones de áreas, incluyendo algún solapamiento entre las porciones de área. También mostrado en la Fig. 11 encontramos un momento en el cual una porción de área es capturada por la nave aérea 561, y un momento posterior en el cual otra porción de área, 564, es capturada por la misma nave aérea. La Fig. 11A muestra una vista superior del mismo terreno, y la manera de barrer el área de interés por el sistema de reconocimiento, como es indicado por las flechas 565.
Para resumir, la presente invención está caracterizada por las siguientes ventajas principales sobre los sistemas del arte anterior:
-
La capacidad para fotografiar en cualquier dirección de la LOS dentro de un Campo de visión (FOR) grande. Para tener esta capacidad (por ejemplo oblicua hacia delante, oblicua lateral, mirada hacia abajo, y arbitraria) el reconocimiento del arte anterior requiere el uso de unidades que detectan la luz separadas o una pluralidad de góndolas separadas. Esta capacidad de la presente invención permite la cobertura de más objetivos (es decir, porciones de área) durante una misión, con requerimientos de almacenamiento reducidos;
-
La capacidad para fotografiar en cualquier dirección de vuelo de la nave aérea dentro de un FOR grande;
-
La capacidad para enfocar los objetivos de calidad selectiva por una larga duración y obtener muchas fotos con la mejor calidad mientras la nave aérea esta progresando. El área de la misión total no es registrada, sino solamente las porciones selectivas, ahorrando de esta forma el almacenamiento;
-
La capacidad para fotografiar en un terreno con grandes variaciones, dirigiendo la LOS de manera que no ocurra un obscurecimiento;
-
La capacidad para fotografiar mientras la nave aérea está maniobrando, incrementando de esta forma la flexibilidad de la misión y la sobrevivencia de la nave aérea;
-
La capacidad para operar de manera manual o automática en la misma misión.
Mientras algunas realizaciones de la invención han sido descritas a manera de ilustración, será evidente que la invención puede ser llevada a la práctica con muchas modificaciones, variaciones y adaptaciones, y con el uso de numerosas soluciones alternativas o equivalentes que están dentro del alcance de las personas expertas en el arte, sin apartarse del espíritu de la invención o exceder el alcance de las reivindicaciones.

Claims (32)

1. Un sistema de reconocimiento aéreo que comprende:
-
Cardanes que tienen al menos dos grados de libertad;
-
Al menos una batería de sensores de luz posicionada sobre los cardanes, para ser dirigida por los mismos dentro al menos dos grados de libertad;
-
Medios de almacenamiento de mapas para almacenar al menos un Mapa de Elevación Digital (310) de un área de interés, dividido en porciones;
-
Sistema de Navegación Inercial (303) para proporcionar en tiempo real a la unidad de control de los cardanes datos de orientación y navegación de la nave aérea con respecto a un sistema de ejes global predefinido;
-
Unidad de selección de la porción (311) para seleccionar, una a la vez, otra porción de área del área de interés;
-
Unidad de servo-control para:
A.
Recibir desde dicho Mapa de Elevación Digital (310) uno a la vez, un conjunto de coordenadas de la porción de área selectiva, dicho conjunto comprendiendo las coordenadas x : y de dicha porción de área y la elevación z del centro de esa porción;
B.
Recibir de forma continua desde dicho sistema de navegación inercial (303) datos de la orientación y localización actual de la nave aérea;
C.
Calcular de forma repetida y transmitir hacia la servo-unidad de los cardanes en tiempo real y a alta velocidad señales para:
a.
durante un periodo de dirección, señales para dirigir en correspondencia a los cardanes incluyendo dicha al menos una batería de unidades de detección de la luz hacia dichas coordenadas x : y : z de la porción de área seleccionada, y;
b.
durante un periodo de integración (507) en el cual los sensores de la batería integran la luz que llega de la porción de área, proporcionar a la unidad de los cardanes señales para compensar el cambio en la dirección hacia las coordenadas x : y : z de la porción seleccionada que evoluciona a partir del movimiento de la nave aérea;
-
Servo cardanes (308) para efectuar la dirección de los cardanes en al menos dos grados de libertad de acuerdo a las señales proporcionadas desde dicha Unidad de Servo Control;
-
Medios de muestreo para el muestreo de manera simultánea al final del periodo de integración de los niveles de los píxeles de cada uno de dichos sensores de la batería, un conjunto de todos los dichos niveles de píxeles muestreados forma una imagen de dicha porción de área; y
-
Medios de almacenamiento (302) para almacenar una pluralidad de las imágenes de la porción de área.
2. Sistema de acuerdo a la reivindicación 1, donde, dicha una o más baterías son seleccionadas de al menos una batería sensible a la luz visual, una batería sensible a la luz UV, una batería sensible a la luz infrarroja, una batería multi/hiper espectral, y una batería de iluminación activa.
3. Sistema de acuerdo a la reivindicación 1, donde dichos datos de navegación de la nave aérea comprenden datos relacionados con la localización en 3D de la nave aérea, y sus vectores de aceleración y velocidad con respecto a un sistema de coordenadas predefinido, y sus datos de orientación relacionados con al orientación de la nave aérea con respecto a dicho sistema de coordenadas predefinido.
4. Sistema de acuerdo a la reivindicación 1, donde dicho Sistema de Navegación Inercial (303) comprende sensores de velocidad, aceleración y orientación, al menos algunos de dichos sensores estando posicionados sobre los cardanes.
5. Sistema de acuerdo a la reivindicación 1, donde al menos algunas de dichas baterías de sensores están posicionadas sobre los cardanes.
6. Sistema de acuerdo a la reivindicación 1, que comprende dos Sistemas de Navegación Inercial, el primer sistema de navegación inercial siendo el Sistema de Navegación Inercial principal de la nave aérea y sus sensores estando posicionados dentro de la nave aérea, y el segundo Sistema de Navegación Inercial siendo un sistema dedicado del sistema de reconocimiento, al menos algunos de los sensores de dicho segundo Sistema de Navegación Inercial estando posicionados sobre la unidad de los cardanes, midiendo los datos de navegación y orientación de los cardanes con respecto a dicho sistema de ejes predefinido, para una mejor eliminación de los deslineamientos que ocurren entre los cardanes y la LOS y dicho Sistema de Navegación Inercial principal de la nave aérea debido a las vibraciones y deflexiones aéreo-elásticas de la nave aérea, usando un proceso de alineación de transferencia desde dicho primer INS a dicho segundo INS.
7. Sistema de acuerdo a la reivindicación 1, donde el Mapa de Elevación Digital (310) es un mapa que comprende una cuadrícula del área de interés, los valores de las coordenadas x : y : z en cada uno de los puntos nodales en dicha cuadrícula estando provistos por dicho mapa.
8. Sistema de acuerdo a la reivindicación 1, donde la unidad de selección de la porción es usada para calcular y determinar un centro de una próxima porción de área que proporcione un solapamiento predefinido entre dicha porción de área explorada y la porción de área previamente explorada adyacente.
9. Sistema de acuerdo a la reivindicación 1, donde en un modo automático de operación los cardanes son activados para cubrir de una manera secuencial, escalonada, el área de interés, dicha cobertura es hecha a partir una porción de partida predefinida y de acuerdo a un plan almacenado de la misión, barriendo secuencialmente de esta forma una tras otra las porciones de área del área de interés, y muestreando imágenes de cada una de dichas porciones.
10. Sistema de acuerdo a la reivindicación 1, donde en un modo manual del sistema el piloto de la nave aérea define un área de interés durante el vuelo, dicha área de interés siendo automáticamente dividida en al menos una porción de área, todas las porciones de área siendo automáticamente barridas una tras la otra por medio de dirigir correspondientemente hacia ellas la batería sobre los cardanes, para capturar imágenes de dichas porciones barridas.
11. Sistema de acuerdo a la reivindicación 1, donde los cardanes comprenden dos mecanismos de cardanes, un mecanismo de cardanes externo y un mecanismo de cardanes interno.
12. Sistema de acuerdo a la reivindicación 1, donde el mecanismo de cardanes externo es usado para dirigir de manera burda la batería sobre los cardanes hacia el centro de una porción de área seleccionada.
13. Sistema de acuerdo a la reivindicación 11, donde el mecanismo de cardanes externo tiene dos grados de libertad, elevación (21) y balanceo (23).
14. Sistema de acuerdo a la reivindicación 10, donde el mecanismo de cardanes interno es usado para dirigir de manera fina la batería sobre los cardanes hacia el centro de una porción de área seleccionada, particularmente para compensar la dirección de los cardanes por el cambio de orientación y el movimiento de la nave área durante el periodo de integración.
15. Sistema de acuerdo a la reivindicación 11, donde el mecanismo de cardanes interno tiene dos grados de libertad, angular (22) y cabeceo (21).
16. Sistema de acuerdo a la reivindicación 10, donde el mecanismo de cardanes externo está esclavizado al mecanismo de cardanes interno.
17. Sistema de acuerdo a la reivindicación 1, donde durante el periodo de integración cada uno de los sensores de la batería detecta de manera simultánea la luz desde una sección correspondiente de la porción de área, y al final del periodo de integración los datos de todos los sensores de la batería son leídos de manera simultánea, y almacenados como una imagen de la porción de área.
18. Sistema de acuerdo a la reivindicación 1, donde los sensores de luz de la batería son sensibles a la luz en el rango de la luz visual, IR, UV, multi/hiper espectral, e/o iluminación activa.
19. Sistema de acuerdo a la reivindicación 1, donde las baterías son baterías de plano focal.
20. Sistema de acuerdo a la reivindicación 1, donde el sistema de ejes predefinido es un sistema de ejes global.
21. Sistema de acuerdo a la reivindicación 1, ensamblado con una góndola unida a la nave aérea.
22. Sistema de acuerdo a la reivindicación 1, ensamblado con una plataforma (1) instalada dentro de la nave aérea con solamente sus ventanas (12) prolongándose para obtener una Línea de Mira clara, no obstruida.
23. Sistema de acuerdo a la reivindicación 21, donde los cardanes están localizados en el frente de la góndola (1), detrás de una ventana transparente (12).
24. Sistema de acuerdo a la reivindicación 1, que comprende adicionalmente un mecanismo de barrido inverso que comprende un prisma o espejo, posicionado sobre los cardanes y que puede ser rotado con respecto a estos, la luz que llega desde la porción de área primero pasando a través de dicho espejo el cual desvía la misma hacia la batería, y,
a.
la unidad de servo control aplica a los cardanes un movimiento continuo de barrido a las columnas e/o hileras sin parar, y
b.
mientras esta siendo establecida la dirección hacia una porción de área, aplicar a dicho espejo del barrido inverso durante el periodo de integración un movimiento en dirección opuesta con respecto a dicho movimiento continuo de barrido a las columnas e/o hileras, compensando de esta forma ese movimiento continuo y garantizando una relación de orientación fija de la batería con respecto a la porción de área explorada.
25. Un método para llevar a cabo el reconocimiento aéreo, que comprende:
a.
Proporcionar al menos una batería de píxeles sensibles a la luz;
b.
Montar al menos una batería sobre cardanes que tienen al menos dos grados de libertad de manera que los cardanes puedan dirigir la batería hacia una Línea de Mira seleccionada;
c.
Proporcionar un Mapa de Elevación Digital (310) de un área de interés, obtener imágenes de reconocimiento de dicha área;
d.
Proporcionar un Sistema de Navegación Inercial (303) para obtener en cualquier momento durante el vuelo las coordenadas x_{a} : y_{a} : z_{a} actualizadas del centro de la batería con respecto a un sistema de coordenadas predefinido;
e.
Proporcionar una unidad de cálculo para, dadas las coordenadas de localización x_{p} : y_{p} de un centro de la porción de área especifica dentro del área de interés, y la coordenada de elevación z_{p} en dicho centro de la porción obtenida a partir de dicho Mapa de Elevación Digital, y las dichas coordenadas x_{a} : y_{a} : z_{a} del centro de la batería al mismo tiempo específico, determinar, los ángulos exactos para establecer una dirección de la línea de mira que se conecta entre el centro de la batería y dichas coordenadas x_{p} : y_{p} : z_{p};
f.
Dado el cálculo del paso e, dirigir en correspondencia el centro de la Línea de Mira de la batería hacia el centro de la porción de área;
g.
Durante un periodo de integración (507), efectuar la acumulación de la luz de manera separada mediante cualquiera de los sensores de luz de la batería;
h.
Durante el periodo de integración, repetir a alta velocidad el cálculo del paso e con las coordenadas x_{a} : y_{a} : z_{a} de la batería actualizadas, y de manera repetida, a continuación de cada cálculo, corregir la dirección como en el paso f;
i.
Al final del periodo de integración, muestrear todos los sensores de la batería, y guardar en un almacenamiento como imágenes de la porción de la batería;
j.
Seleccionar nuevas coordenadas x_{p} : y_{p} : z_{p} de una porción dentro del área de interés, y repetir los pasos e a j para estas nuevas coordenadas; y,
k.
Cuando la cobertura de toda el área de interés es completada, terminar el proceso, o comenzar la cobertura de una nueva área de interés.
26. Método de acuerdo a la reivindicación 25, donde la selección de las coordenadas x_{p} : y_{p} de una nueva porción de área es realizada para garantizar el solapamiento entre las porciones de áreas adyacentes dentro de un rango predefinido, calculando la huella tridimensional de la nueva porción de área en la tierra, y luego proyectándola sobre la huella de una porción de área anterior.
27. Método de acuerdo a la reivindicación 26, donde la garantía del solapamiento es obtenida por una selección de ensayo y error, cálculo del solapamiento, y corrección cuando es necesario, o por medio de un cálculo analítico exacto.
28. Método de acuerdo a la reivindicación 25, donde al menos alguno de los sensores del Sistema de Navegación Inercial están posicionados sobre los cardanes, para mejorar la medición de la orientación de la batería con respecto a la porción de área selectiva.
29. Método de acuerdo a la reivindicación 25, donde al menos alguno de los sensores sensibles a la luz están posicionados sobre los cardanes, para mejorar la medición de la orientación de la Línea de Mira con respecto a la porción de área selectiva.
30. Método de acuerdo a la reivindicación 25, donde el Sistema de Navegación Inercial (303) comprende un Sistema de Navegación Inercial dedicado del sistema de reconocimiento y el Sistema de Navegación Inercial principal de la nave aérea para mejorar la medición de la orientación de la batería con respecto a la porción de área selectiva, usando un proceso de alineación de transferencia desde el Sistema de Navegación Inercial de la nave aérea hacia el Sistema de Navegación Inercial dedicado del sistema de reconocimiento.
31. Un método para proporcionar la compensación del movimiento durante la toma de fotografías aéreas que comprende:
a.
Proporcionar al menos una batería de píxeles sensibles a la luz;
b.
Montar al menos una batería sobre cardanes que tienen al menos dos grados de libertad (21, 22, 23) de manera que los cardanes puedan dirigir su Línea de Mira (L.O.S.) hacia una porción de área selectiva;
c.
Proporcionar un Mapa de Elevación Digital (310) de un área de interés, obtener imágenes de reconocimiento de dicha área;
d.
Proporcionar un Sistema de Navegación Inercial (303) para obtener en cualquier momento durante el vuelo las coordenadas x_{a} : y_{a} : z_{a} actualizadas del centro de la batería con respecto a un sistema de coordenadas predefinido;
e.
Proporcionar una unidad de cálculo para, dadas las coordenadas de localización x_{p} : y_{p} de un centro de la porción de área especifica dentro del área de interés, y la coordenada de elevación z_{p} en dicho centro de la porción obtenida a partir de dicho Mapa de Elevación Digital, y las dichas coordenadas x_{a} : y_{a} : z_{a} del centro de la batería al mismo tiempo específico, determinar los ángulos exactos para establecer una dirección de la línea de mira que se conecta entre el centro de la batería y dichas coordenadas x_{p} : y_{p} : z_{p};
f.
Durante un periodo de integración (507), cuando el centro de la Línea de Mira de la batería es dirigido a un centro de una porción de área, efectuar la acumulación de la luz de manera separada mediante cualquiera de los sensores de luz de la batería;
g.
Durante el periodo de integración, repetir a alta velocidad el cálculo del paso e con las coordenadas x_{a} : y_{a} : z_{a} de la batería actualizadas, y de manera repetida, a continuación de cada cálculo, corregir la dirección manteniendo el centro de la batería dirigido al centro de la porción de área seleccionada, compensando de esta forma el movimiento de la nave aérea; y
h.
Al final del periodo de integración, muestrear todos los sensores de la batería, y guardar en un almacenamiento como imágenes de la porción de la batería.
32. Método de acuerdo a la reivindicación 25, para llevar a cabo adicionalmente la selección de objetivos aérea, que comprende:
a.
Proporcionar dichos cardanes que tienen al menos dos grados de libertad de manera que los cardanes puedan ser dirigidos a una Línea de Mira seleccionada;
b.
Proporcionar dicho Mapa de Elevación Digital de un área de interés, donde son marcados los objetivos seleccionados dentro de dicha área;
c.
Proporcionar dicho Sistema de Navegación Inercial para obtener en cualquier momento durante el vuelo las coordenadas x_{a} : y_{a} : z_{a} actualizadas del centro de los cardanes con respecto a un sistema de coordenadas predefinido;
d.
Proporcionar dicha unidad de cálculo para dadas las coordenadas de localización x_{p} : y_{p} de un centro de un objetivo específico dentro del área de interés, y la coordenada de elevación z_{p} en dicho centro del objetivo obtenida a partir de dicho Mapa de Elevación Digital, y las dichas coordenadas x_{a} : y_{a} : z_{a} del centro de los cardanes al mismo tiempo específico, determinar los ángulos exactos para establecer una dirección de la Línea de Mira que se conecta entre el centro de los cardanes y dichas coordenadas x_{p} : y_{p} : z_{p};
d.
Dado el cálculo del paso d, dirigir en correspondencia el centro de la Línea de Mira de los cardanes al centro de un objetivo seleccionado;
f.
Durante el periodo efectivo de selección del objetivo, compensar el movimiento en relación con el movimiento de la nave aérea repitiendo a alta velocidad el cálculo del paso d con las coordenadas x_{a} : y_{c} : z_{a} del objetivo actualizadas, y de manera repetida, a continuación de cada cálculo, corregir la dirección como en el paso e.
ES03725555T 2002-05-30 2003-05-22 Sistema de reconocimiento aereo. Expired - Lifetime ES2286431T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IL149934A IL149934A (en) 2002-05-30 2002-05-30 Airborne intelligence photography system
IL149934 2002-05-30

Publications (1)

Publication Number Publication Date
ES2286431T3 true ES2286431T3 (es) 2007-12-01

Family

ID=29596295

Family Applications (1)

Application Number Title Priority Date Filing Date
ES03725555T Expired - Lifetime ES2286431T3 (es) 2002-05-30 2003-05-22 Sistema de reconocimiento aereo.

Country Status (14)

Country Link
US (1) US7136726B2 (es)
EP (2) EP1508020B2 (es)
JP (1) JP4302625B2 (es)
KR (1) KR100965678B1 (es)
AT (1) ATE360190T1 (es)
AU (2) AU2003231341B2 (es)
BR (1) BR0311522A (es)
DE (2) DE03725555T1 (es)
DK (1) DK1508020T3 (es)
ES (1) ES2286431T3 (es)
IL (1) IL149934A (es)
PT (1) PT1508020E (es)
SG (3) SG182034A1 (es)
WO (1) WO2003102505A1 (es)

Families Citing this family (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7415335B2 (en) * 2003-11-21 2008-08-19 Harris Corporation Mobile data collection and processing system and methods
US7183967B1 (en) * 2003-12-15 2007-02-27 Rockwell Collins, Inc. System and method for communicating with airborne weapons platforms
IL160265A (en) 2004-02-05 2010-12-30 Rafael Advanced Defense Sys Airborne long- range laser imaging system
US7343051B1 (en) * 2005-03-07 2008-03-11 Hsu Shin-Yi Method of recognizing an object in an image using multi-sensor integration through conditionally optimal geoscene generation and registration
US7899272B1 (en) * 2005-03-07 2011-03-01 Hsu Shin-Yi Method of recognizing an object in an image using multi-sensor integration through conditionally optimal geoscene generation and registration
FR2884312B1 (fr) * 2005-04-08 2007-06-22 Thales Sa Systeme de designation et/ou d'illumination de cible et de reconnaissance aerienne
US7266477B2 (en) * 2005-06-22 2007-09-04 Deere & Company Method and system for sensor signal fusion
IL169482A (en) 2005-06-30 2012-04-30 Rafael Advanced Defense Sys Method for reducing the number of scanning steps in an airborne reconnaissance system and a reconnaissance system operating according to said method
US7597489B2 (en) * 2005-09-12 2009-10-06 Honeywell International Inc. Apparatus and method for providing pointing capability for a fixed camera
ES2369229T3 (es) * 2005-10-07 2011-11-28 Saab Ab Procedimiento y aparato para generar una ruta.
AT503449B1 (de) * 2006-03-10 2007-10-15 Bewag Geoservice Gmbh Verfahren zur erfassung von topographiedaten
US20100245571A1 (en) * 2006-04-24 2010-09-30 Northrop Grumman Corporation Global hawk image mosaic
US8581981B2 (en) * 2006-04-28 2013-11-12 Southwest Research Institute Optical imaging system for unmanned aerial vehicle
US20080100711A1 (en) * 2006-10-26 2008-05-01 Wisted Jeffrey M Integrated Multiple Imaging Device
DE102006053758A1 (de) * 2006-11-13 2008-05-15 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zur Regelung der Ausrichtung eines Heliostaten auf einen Receiver, Heliostatenvorrichtung und Solarkraftwerk
US10337862B2 (en) * 2006-11-30 2019-07-02 Rafael Advanced Defense Systems Ltd. Digital mapping system based on continuous scanning line of sight
IL180223A0 (en) * 2006-12-20 2007-05-15 Elbit Sys Electro Optics Elop Airborne photogrammetric imaging system and method
FR2912513B1 (fr) * 2007-02-13 2009-04-17 Thales Sa Radar aeroporte notamment pour drone
JP5378660B2 (ja) * 2007-07-19 2013-12-25 日本電気株式会社 ジンバル機構及び赤外線誘導装置並びにジンバル機構の制御方法
PL2208083T3 (pl) * 2007-10-23 2014-08-29 Selex Es Spa System precyzyjnej lokalizacji celu znajdującego się na ziemi przez latającą platformę i związany sposób obsługi
WO2009093276A1 (en) * 2008-01-21 2009-07-30 Galileo Avionica S.P.A. Device and method for planning a surveillance mission on areas of interest that can be performed with a reconnoitring system using a reconnaissance aircraft
US9304305B1 (en) * 2008-04-30 2016-04-05 Arete Associates Electrooptical sensor technology with actively controllable optics, for imaging
IL192601A (en) * 2008-07-03 2014-07-31 Elta Systems Ltd Discovery / Transmission Device, System and Method
US9310191B1 (en) 2008-07-08 2016-04-12 Bae Systems Information And Electronic Systems Integration Inc. Non-adjustable pointer-tracker gimbal used for directed infrared countermeasures systems
US9441922B2 (en) 2008-07-09 2016-09-13 Bae Systems Information And Electronic Systems Integration Inc. Method and apparatus for improving gimbal stability
US8675183B1 (en) * 2009-02-27 2014-03-18 Aai Corporation Method and apparatus for target range determination
US20100228406A1 (en) * 2009-03-03 2010-09-09 Honeywell International Inc. UAV Flight Control Method And System
IL198883A (en) * 2009-05-21 2015-03-31 Israel Aerospace Ind Ltd Method and system for stereoscopic scanning
US9490975B1 (en) * 2009-12-22 2016-11-08 The Boeing Company Information assurance for networked systems
JP2011169658A (ja) * 2010-02-17 2011-09-01 Mitsubishi Electric Corp 撮影位置特定装置および撮影位置特定方法
US8655513B2 (en) * 2010-03-12 2014-02-18 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Methods of real time image enhancement of flash LIDAR data and navigating a vehicle using flash LIDAR data
US8477190B2 (en) 2010-07-07 2013-07-02 Pictometry International Corp. Real-time moving platform management system
US9121818B2 (en) 2010-07-30 2015-09-01 Toyota Jidosha Kabushiki Kaisha Movable body spectrum measuring apparatus and movable body spectrum measuring method
KR101835143B1 (ko) 2011-04-01 2018-03-06 에스케이 주식회사 병렬 처리 기반의 지형모델 생성 방법과 시스템
ITVI20110102A1 (it) * 2011-04-21 2012-10-22 Rta S R L Apparato di rilevamento cartografico
US9482685B1 (en) * 2011-09-13 2016-11-01 BAE Systems Information and Electronic Systems Integreation Inc. On-axis mounting of an inertial measurement unit (IMU) within an optical system
KR101218771B1 (ko) * 2012-05-15 2013-01-09 삼성탈레스 주식회사 조향 거울에 의한 상번짐 방지 항공 촬영 시스템
KR101218768B1 (ko) * 2012-05-15 2013-01-09 삼성탈레스 주식회사 조향 거울 제어에 의한 eo/ir 장비의 los 보상 장치 및 방법
KR101238748B1 (ko) * 2012-08-30 2013-03-04 국방과학연구소 주사구동 적외선센서장치를 이용한 표적거리 측정시스템
GB2506687B (en) * 2012-10-08 2018-02-07 Bae Systems Plc Hyperspectral imaging of a moving scene
US9071732B2 (en) * 2013-03-15 2015-06-30 Tolo, Inc. Distortion correcting sensors for diagonal collection of oblique imagery
KR101329583B1 (ko) * 2013-07-09 2013-11-14 주식회사 두레텍 회전익 구조체를 이용한 공중관측 지형자료 구축 방법 및 그 시스템
US9464938B2 (en) * 2014-02-06 2016-10-11 The Boeing Company Systems and methods for measuring polarization of light in images
US9052571B1 (en) * 2014-06-20 2015-06-09 nearmap australia pty ltd. Wide-area aerial camera systems
IL233684B (en) * 2014-07-17 2018-01-31 Shamir Hanan Stabilizing and displaying remote images
US10303941B2 (en) * 2014-07-30 2019-05-28 The Boeing Company Locating light sources using aircraft
CA3238614A1 (en) * 2014-10-08 2016-04-14 Spookfish Innovations Pty Ltd An aerial camera system
WO2016148619A1 (en) * 2015-03-19 2016-09-22 Vricon Systems Aktiebolag Position determining unit and a method for determining a position of a land or sea based object
CN107735317B (zh) 2015-06-01 2021-01-08 深圳市大疆创新科技有限公司 具有气压传感器的uav和在uav内隔离安置气压传感器的方法
CN105021182B (zh) * 2015-06-03 2018-04-24 北京理工大学 一种重力辅助惯性导航适配区的选择方法
US9947230B2 (en) 2015-08-03 2018-04-17 Amber Garage, Inc. Planning a flight path by identifying key frames
US9928649B2 (en) 2015-08-03 2018-03-27 Amber Garage, Inc. Interface for planning flight path
FR3043471B1 (fr) * 2015-11-06 2018-05-25 Thales Procede d'acquisition d'images par un instrument optique spatial ou aeroporte avec champ de vision etendu
FR3044101B1 (fr) * 2015-11-20 2020-04-24 Thales Procede d'acquisition d'images d'une scene, a partir d'un capteur a bord d'un porteur en deplacement, avec asservissement de sa ligne de visee
DE102016000873A1 (de) 2016-01-27 2017-07-27 Diehl Defence Gmbh & Co. Kg Verfahren zum Erkennen eines Objekts in einem Suchbild
KR102454917B1 (ko) * 2016-02-05 2022-10-17 한화테크윈 주식회사 무인 비행체 제어 방법
JP6200539B1 (ja) * 2016-03-24 2017-09-20 株式会社Subaru 偵察位置算出装置、偵察位置算出方法及び偵察位置算出プログラム
CA3021137A1 (en) * 2016-04-14 2017-10-19 National University Corporation Hokkaido University Spectral camera control device, spectral camera control program, spectral camera control system, aircraft equipped with said system, and spectral image capturing method
FR3051920A1 (fr) * 2016-05-31 2017-12-01 Parrot Drones Drone adapte a la vision d'une scene eloignee
CN107152926B (zh) * 2016-07-18 2018-08-24 哈尔滨工业大学 一种卫星快速旋转超大幅宽摆扫成像方法
WO2018111072A1 (es) * 2016-12-16 2018-06-21 Rodarte Leyva Eduardo Método de captura dinámica de imágenes aéreas para incrementar la resolución
US10392136B2 (en) 2017-09-18 2019-08-27 Raytheon Company Offload adjustment for satellite image diversity
KR101877214B1 (ko) * 2017-10-31 2018-07-12 엘아이지넥스원 주식회사 비행체 탑재용 탐색 장치
JP6649342B2 (ja) * 2017-11-09 2020-02-19 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 無人航空機、及び無人航空機で慣性計測ユニットを分離する方法
EP3724868A4 (en) * 2017-12-14 2021-08-11 Saab Ab VIEWING SYSTEM AND METHOD FOR REPRESENTING IMAGES FROM THE SURROUNDING AREA OF AN AIRCRAFT IN AN VIEWING SYSTEM
JP7478666B2 (ja) * 2018-03-30 2024-05-07 ディーアールエス ネットワーク アンド イメージング システムズ、リミテッド ライアビリティー カンパニー 地球観測イメージング中の焦点面アレイのスキャンのための方法およびシステム
CN108985233B (zh) * 2018-07-19 2021-08-03 常州智行科技有限公司 一种基于数字图像相关的高精度车辆跟踪方法
CN109436356A (zh) * 2018-12-14 2019-03-08 广州建通测绘地理信息技术股份有限公司 五相机倾斜摄影测量系统安装装置
FR3097045B1 (fr) * 2019-06-06 2021-05-14 Safran Electronics & Defense Procédé et dispositif de recalage d’une centrale inertielle d’un moyen de transport à partir d’informations délivrées par un viseur du moyen de transport
IL270565A (en) * 2019-11-11 2021-05-31 Israel Aerospace Ind Ltd Image acquisition methods and systems
CN111348208B (zh) * 2020-03-27 2023-04-07 西安应用光学研究所 面向机载广域侦察监视应用的反扫稳定一体化多环架平台
CN111896972B (zh) * 2020-06-16 2022-10-18 中国工程物理研究院应用电子学研究所 一种机载激光雷达同步控制及数码影像外方位元素列表自动创建方法
US11019265B1 (en) * 2020-11-04 2021-05-25 Bae Systems Information And Electronic Systems Integration Inc. Optimized motion compensation via fast steering mirror and roll axis gimbal
CN112363440A (zh) * 2021-01-13 2021-02-12 湖南高至科技有限公司 一体化制导组合体
US11678056B2 (en) 2021-06-21 2023-06-13 Raytheon Company Torsional flexure for deroll controllers
CN113654526B (zh) * 2021-07-30 2023-11-14 北京控制与电子技术研究所 一种低空快速飞行条件下的光电吊舱扫描方法
US20230115712A1 (en) * 2021-10-07 2023-04-13 L3Harris Technologies, Inc. Estimation of Target Location and Sensor Misalignment Angles
CN117651883A (zh) * 2021-11-15 2024-03-05 深圳市大疆创新科技有限公司 无人飞行器的控制方法、无人飞行器及存储介质
WO2023149963A1 (en) 2022-02-01 2023-08-10 Landscan Llc Systems and methods for multispectral landscape mapping
WO2023166502A1 (en) * 2022-03-01 2023-09-07 Rafael Advanced Defense Systems Ltd. Multispectral step-and-stare imaging with single sensor

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2878356A (en) * 1955-11-16 1959-03-17 Dale Products Inc Hole mounted resistor
US4954837A (en) * 1989-07-20 1990-09-04 Harris Corporation Terrain aided passive range estimation
US5166789A (en) * 1989-08-25 1992-11-24 Space Island Products & Services, Inc. Geographical surveying using cameras in combination with flight computers to obtain images with overlaid geographical coordinates
US5155597A (en) * 1990-11-28 1992-10-13 Recon/Optical, Inc. Electro-optical imaging array with motion compensation
US5504686A (en) 1993-11-30 1996-04-02 Honeywell Inc. Mission planning costing surface
US5787333A (en) 1994-08-26 1998-07-28 Honeywell Inc. Aircraft survivability equipment training method and apparatus for low flyers
US5692062A (en) 1994-10-03 1997-11-25 Recon/Optical, Inc. Electro-optical imaging array with profiled foward motion compensation
US6293488B1 (en) 1994-11-15 2001-09-25 Raytheon Company Coordinate transformation system
US5668593A (en) * 1995-06-07 1997-09-16 Recon/Optical, Inc. Method and camera system for step frame reconnaissance with motion compensation
US5878356A (en) * 1995-06-14 1999-03-02 Agrometrics, Inc. Aircraft based infrared mapping system for earth based resources
EP0750238B1 (en) 1995-06-20 2000-03-01 Honeywell Inc. Integrated ground collision avoidance system
US5672866A (en) * 1996-03-19 1997-09-30 Hughes Electronics System and method for remote image sensing and autocalibration
US5894323A (en) 1996-03-22 1999-04-13 Tasc, Inc, Airborne imaging system using global positioning system (GPS) and inertial measurement unit (IMU) data
IL139980A (en) 1996-04-01 2004-07-25 Lockheed Corp Laser / FLIR integrated optics system
US5726747A (en) 1996-04-22 1998-03-10 The United States Of America As Represented By The Secretary Of The Navy Computer controlled optical tracking system
US5798786A (en) 1996-05-07 1998-08-25 Recon/Optical, Inc. Electro-optical imaging detector array for a moving vehicle which includes two axis image motion compensation and transfers pixels in row directions and column directions
DE69739272D1 (de) * 1996-11-05 2009-04-02 Bae Systems Information Vorrichtung zur elektro-optischen fernerkundung mit bewegungskompensation
US6108032A (en) 1996-11-05 2000-08-22 Lockheed Martin Fairchild Systems System and method for image motion compensation of a CCD image sensor
US6597818B2 (en) * 1997-05-09 2003-07-22 Sarnoff Corporation Method and apparatus for performing geo-spatial registration of imagery
US6281970B1 (en) 1998-03-12 2001-08-28 Synergistix Llc Airborne IR fire surveillance system providing firespot geopositioning
US6181988B1 (en) * 1998-04-07 2001-01-30 Raytheon Company Guidance system having a body fixed seeker with an adjustable look angle
US6130705A (en) * 1998-07-10 2000-10-10 Recon/Optical, Inc. Autonomous electro-optical framing camera system with constant ground resolution, unmanned airborne vehicle therefor, and methods of use
US6201232B1 (en) 1998-11-24 2001-03-13 Massachusetts Institute Of Technology Imaging system with a two-axis-gimbal mirror scan system apparatus and method
FR2798999B1 (fr) * 1999-09-28 2003-06-27 Sagem Procede et dispositif de localisation d'objectifs par un aeronef
US6222464B1 (en) 1999-12-02 2001-04-24 Sikorsky Aircraft Corporation Self compensating target acquisition system for minimizing areas of threat
WO2001069171A2 (en) 2000-03-16 2001-09-20 The Johns Hopkins University Light detection and ranging (lidar) mapping system
US6422508B1 (en) * 2000-04-05 2002-07-23 Galileo Group, Inc. System for robotic control of imaging data having a steerable gimbal mounted spectral sensor and methods
US6366734B1 (en) 2000-08-31 2002-04-02 Recon/Optical, Inc. Method of forward motion compensation in an aerial reconnaissance camera
US6894809B2 (en) * 2002-03-01 2005-05-17 Orasee Corp. Multiple angle display produced from remote optical sensing devices
US20030167962A1 (en) * 2002-03-11 2003-09-11 Trn Business Trust Railcar draftsill and method of forming same
US6694228B2 (en) * 2002-05-09 2004-02-17 Sikorsky Aircraft Corporation Control system for remotely operated vehicles for operational payload employment
US7095488B2 (en) * 2003-01-21 2006-08-22 Rosemount Aerospace Inc. System for profiling objects on terrain forward and below an aircraft utilizing a cross-track laser altimeter

Also Published As

Publication number Publication date
EP1508020B1 (en) 2007-04-18
JP2005528280A (ja) 2005-09-22
SG182034A1 (en) 2012-07-30
US20050177307A1 (en) 2005-08-11
AU2003231341A1 (en) 2003-12-19
EP1508020B2 (en) 2017-03-08
JP4302625B2 (ja) 2009-07-29
EP1783455A2 (en) 2007-05-09
IL149934A (en) 2007-05-15
ATE360190T1 (de) 2007-05-15
BR0311522A (pt) 2005-02-22
DK1508020T3 (da) 2007-08-20
AU2003231341B2 (en) 2008-12-18
EP1783455A3 (en) 2009-05-27
SG2013091780A (en) 2015-05-28
DE03725555T1 (de) 2006-03-09
KR100965678B1 (ko) 2010-06-24
PT1508020E (pt) 2007-07-20
AU2009200781B2 (en) 2011-12-01
WO2003102505A1 (en) 2003-12-11
EP1783455B1 (en) 2014-12-10
EP1508020A1 (en) 2005-02-23
DE60313319T2 (de) 2007-12-20
AU2009200781A1 (en) 2009-03-19
US7136726B2 (en) 2006-11-14
SG143074A1 (en) 2008-06-27
IL149934A0 (en) 2004-02-19
KR20050009725A (ko) 2005-01-25
DE60313319D1 (de) 2007-05-31

Similar Documents

Publication Publication Date Title
ES2286431T3 (es) Sistema de reconocimiento aereo.
US7308342B2 (en) Airborne reconnaissance system
CN108614273B (zh) 一种机载双波段光电广域侦察与跟踪装置及方法
US9503639B2 (en) Distortion correcting sensors for diagonal collection of oblique imagery
CA2952868C (en) Wide-area aerial camera systems
US10337862B2 (en) Digital mapping system based on continuous scanning line of sight
US7417210B2 (en) Multi-spectral sensor system and methods
US9063391B2 (en) Method and system for increasing the size of the area scanned by an airborne electro-optic reconnaissance system in a given time
US20200145568A1 (en) Electro-optical imager field of regard coverage using vehicle motion
PT755407E (pt) Formulações farmacêuticas à base de péptidos para tratamento de alergia aos ácaros do pó
US20240111147A1 (en) High Altitude Aerial Mapping
ES2711004B2 (es) Sistema de inspeccion en vuelo y procedimiento para dicho sistema
IL180478A (en) Airborne intelligence photography system
AU2015203017B2 (en) Systems and Methods of Capturing Large Area Images in Detail Including Cascaded Cameras and/or Calibration Features
KR101429157B1 (ko) 기상관측을 위하여 비행체에 탑재되는 모드 전환이 가능한 촬영시스템