ES2434795T3 - Procedimiento de estimación del movimiento de un instrumento de observación por pasada que sobrevuela un cuerpo celeste - Google Patents

Procedimiento de estimación del movimiento de un instrumento de observación por pasada que sobrevuela un cuerpo celeste Download PDF

Info

Publication number
ES2434795T3
ES2434795T3 ES10777008T ES10777008T ES2434795T3 ES 2434795 T3 ES2434795 T3 ES 2434795T3 ES 10777008 T ES10777008 T ES 10777008T ES 10777008 T ES10777008 T ES 10777008T ES 2434795 T3 ES2434795 T3 ES 2434795T3
Authority
ES
Spain
Prior art keywords
movement
hypothesis
model
similarity
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES10777008T
Other languages
English (en)
Inventor
Régis PERRIER
Mathias Ortner
Elise Arnaud
Peter Sturm
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airbus Defence and Space SAS
Original Assignee
Astrium SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Astrium SAS filed Critical Astrium SAS
Application granted granted Critical
Publication of ES2434795T3 publication Critical patent/ES2434795T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10036Multispectral image; Hyperspectral image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10041Panchromatic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

Procedimiento de estimación del movimiento de un instrumento de observación (10) embarcado en unvehículo que sobrevuela un cuerpo celeste, incluyendo el instrumento de observación (10) al menos dos barras (b1,b2) cuyas líneas de mira son diferentes, incluyendo cada barra unas celdas sensibles y realizando la adquisiciónsucesiva, mediante pasada de su línea de mira sobre el cuerpo celeste, de imágenes línea que forman una imagencompuesta, representando unas partes de las imágenes compuestas sensiblemente una misma escena del cuerpoceleste, caracterizado porque el movimiento estimado se determina mediante optimización de una función global queacumula: - una función de semejanza imagen que asocia, con una hipótesis de movimiento dada, una semejanza entrevalores de píxeles entre los que se establece una correspondencia de al menos un par de imágenes compuestas,siendo unos píxeles entre los que se establece una correspondencia píxeles que representan teóricamente el mismopunto de la escena observada habida cuenta de la hipótesis de movimiento que se considere, - una función de semejanza externa que asocia, con dicha hipótesis de movimiento que se considere, unasemejanza entre dicha hipótesis de movimiento y unas medidas, representativas de movimientos del instrumento deobservación, efectuadas por uno o unos diferentes sensores de las barras del instrumento de observación,incluyendo el procedimiento, para cada hipótesis de movimiento que se considere a lo largo de la optimización de lafunción global, las etapas: - (200) de determinación, en función de la hipótesis de movimiento que se considere y de un modelogeométrico de las direcciones de mira de las celdas sensibles de las barras del instrumento de observación (10), deal menos una transformación de establecimiento de correspondencias entre los píxeles del al menos un par deimágenes compuestas, llamada "transformación espacio-temporal", - (201) de establecimiento de correspondencias entre los píxeles del al menos un par de imágenescompuestas por medio de la al menos una transformación espacio-temporal.

Description

Procedimiento de estimación del movimiento de un instrumento de observación por pasada que sobrevuela un cuerpo celeste
La presente invención pertenece al ámbito de la explotación de imágenes obtenidas mediante al menos dos barras de un instrumento de observación por pasada embarcado a bordo de un vehículo (avión, vehículo aéreo no tripulado, helicóptero, satélite, etc.) que sobrevuela un cuerpo celeste, tal como la Tierra.
Una barra de un instrumento por pasada incluye una pluralidad de celdas sensibles (típicamente de 100 a 100 000) generalmente organizadas en fila, ocasionalmente en varias filas. La línea de mira de la barra está dirigida hacia la superficie terrestre y conforma con la fila de celdas sensibles un plano, llamado «plano de mira».
Se puede definir la línea de mira principal del instrumento, bien como la línea de mira del píxel central de una de las dos barras, o bien como la línea de mira del píxel central de una barra ficticia que estaría ubicada, por ejemplo, a igual distancia de las dos barras.
A lo largo de una fotografía, cada barra adquiere sucesivamente, mediante pasada de su plano de mira sobre la escena observada, unas imágenes línea que representan diferentes porciones lineales de dicha escena. Cada celda sensible de la barra registra en un píxel la intensidad luminosa de una zona de la porción lineal apuntada, en la longitud de onda de interés.
La pasada del plano de mira de cada barra se efectúa por ejemplo por desplazamiento del vehículo. Tal es generalmente el caso para un instrumento embarcado en un satélite ubicado en una órbita baja.
En general, la adquisición de las imágenes línea de una misma barra se realiza durante un período fijo de tiempo (tiempo de adquisición) y con una frecuencia de adquisición sensiblemente constante.
Para una aplicación típica en el campo espacial, un instrumento de observación es embarcado a bordo de un satélite en órbita a entre 500 y 800 kilómetros de altitud, estando dirigida nominalmente su línea de mira hacia el centro de la Tierra; la focal del instrumento es de 0,5 a 15 metros, el campo de visión es de 1 a 20 grados, cada barra incluye una fila de 5000 a 50 000 celdas sensibles, la velocidad de pasada está comprendida entre 6,5 y 6,8 kilómetros por segundo, la frecuencia de adquisición es de 500 a 5000 hercios; el seccionamiento (longitud de la porción lineal abarcada por una imagen línea en la superficie terrestre) es de 10 a 100 kilómetros, la dimensión de una zona cuya imagen es formada por un píxel es de 0,5 a 20 metros en la superficie de la Tierra. Las barras están separadas generalmente de 5 a 50 centímetros en el plano focal; la diferencia de tiempo entre la toma de imagen de un punto de la superficie terrestre por la primera barra y su toma de imagen por la segunda barra es de 0,05 a 5 segundos.
Las sucesivas imágenes línea adquiridas por una misma barra forman una matriz de píxeles llamada «imagen compuesta», que representa la escena observada durante la fotografía. Se comprende que, debido a que las imágenes línea son adquiridas en diferentes instantes y debido a los movimientos de instrumento en el transcurso de la fotografía, la imagen compuesta distribuida en un plano según una cuadrícula regular no representa la escena de manera exacta tal y como la debería de ver idealmente un observador que se hallase suspendido sobre dicha escena. Por ejemplo, debido a esos movimientos, una carretera perfectamente recta podría ser curvilínea en la imagen compuesta.
En el caso más general, en el transcurso de una fotografía, dos barras diferentes formarán dos imágenes compuestas diferentes cuyos píxeles adquiridos en un momento dado representan zonas diferentes de la escena observada. En general, la disposición de las barras, por ejemplo paralelas en el plano focal del instrumento de observación, es tal que estas imágenes compuestas poseen un considerable solapamiento espacial cuando el vehículo progresa por encima de la escena que se ha de observar.
Las diferencias entre las dos imágenes compuestas provienen de que las líneas de mira asociadas a las dos barras son diferentes. En consecuencia, las imágenes compuestas no se solapan del todo al principio y al final de la fotografía. Pero las diferencias entre las dos imágenes compuestas provienen sobre todo de los propios movimientos del instrumento, ya que estos van a afectar en cualquier momento a píxeles diferentes en cada imagen compuesta, justamente debido a la distancia entre las líneas de mira de las dos barras.
Es conocido, por la patente FR 2899344, un procedimiento de reconstrucción de la línea de mira en el que se determinan, por correlación, zonas características homólogas entre las imágenes compuestas de una misma escena adquiridas por dos barras diferentes, y se reconstruyen las variaciones angulares de la línea de mira en función de las distancias geométricas entre las posiciones (es decir, los índices de los píxeles) de las zonas características en cada una de dichas imágenes compuestas.
Sin embargo, este procedimiento cuenta con numerosas limitaciones.
Por ejemplo, la capacidad de poder determinar o no zonas características homólogas en las dos imágenes compuestas depende en gran manera de la naturaleza de la escena observada. Por ejemplo, para escenas de
escasa textura, tales como escenas de mar/océano y/o montaña nevada, será imposible a efectos prácticos determinar zonas características homólogas en número suficiente para tener buenas prestaciones en la reconstrucción de la línea de mira.
Además, el procedimiento de la patente FR 2899344 es sensible a efectos de paralaje y/o a la presencia de nubes, que pueden distorsionar o impedir la correlación de las zonas características homólogas.
En el procedimiento de la patente FR 2899344, los parámetros estimados por correlación entre zonas características homólogas son las variaciones angulares relativas de un instante de muestreo a otro, lo cual precisa de una etapa adicional de filtrado y de integración para reconstruir las variaciones angulares absolutas, etapa que puede mostrarse gravosa en cuanto a complejidad computacional.
Además, el procedimiento de la patente FR 2899344, aplicándose muy bien a un par de imágenes compuestas, no es fácilmente generalizable al procesamiento simultáneo de más de dos imágenes compuestas que poseen diferencias temporales diferentes, e incluso diferentes frecuencias de adquisición.
Son conocidos asimismo otros procedimientos, véase por ejemplo:
-
F. Mueller et al.: «Digital photogrammetric assembly line (DPA) point determination using airborne three-line camera imagery - practical results», Proc. SPIE, vol. 2357, n.º 592, páginas 592-598;
-
Chen et al.: «DEM generation with prism, Alos simulation data», International Conference on Space Information Technology, vol. 5985, páginas 1-7;
-
Szeliski Richard, «Image alignment and stitching: a tutorial», http://pages.cs.wisc.edu/~dyer/ai-qual/szeliskitr06.pdf;
-
Yuji Okochi et al.: «Extrinsic camera parameter estimation based on feature estimation and GPS data», Computer Vision, ACCV 2006 Lecture Notes in Computer Science, páginas 369-378.
La presente invención tiene por finalidad aportar soluciones a todas estas limitaciones, al proponer un procedimiento de estimación del movimiento del instrumento de observación, adaptado a la utilización simultánea de las imágenes línea adquiridas por todas las barras del instrumento de observación, aun cuando el número de dichas barras es igual o mayor que tres.
La presente invención tiene asimismo por finalidad proponer un procedimiento de estimación que sea robusto aun cuando la escena observada incluye una o unas zonas de escasa textura.
La presente invención tiene asimismo por finalidad proponer un procedimiento de estimación adaptado para tomar en cuenta, aparte de imágenes compuestas proporcionadas por las diferentes barras, información proporcionada en particular por los sensores de actitud embarcados en el vehículo y/o tomar en cuenta un conocimiento a priori de algunas características del movimiento del instrumento de observación.
La presente invención concierne a un procedimiento de estimación del movimiento de un instrumento de observación embarcado en un vehículo que sobrevuela un cuerpo celeste, incluyendo el instrumento de observación al menos dos barras cuyas líneas de mira son diferentes, incluyendo cada barra unas celdas sensibles y realizando aquellas la adquisición sucesiva, mediante pasada de su línea de mira sobre el cuerpo celeste, de imágenes línea que forman una imagen compuesta, representando partes de las imágenes compuestas sensiblemente una misma escena del cuerpo celeste. El movimiento estimado se determina mediante optimización de una función global que acumula:
-
una función de semejanza imagen que asocia, con una hipótesis de movimiento dada, una semejanza entre valores de píxeles entre los que se establece una correspondencia de al menos un par de imágenes compuestas, siendo unos píxeles entre los que se establece una correspondencia píxeles que representan teóricamente el mismo punto de la escena observada habida cuenta de la hipótesis de movimiento que se considere,
-
una función de semejanza externa que asocia, con dicha hipótesis de movimiento que se considere, una semejanza entre dicha hipótesis de movimiento y unas medidas, representativas de movimientos del instrumento de observación, efectuadas por uno o unos diferentes sensores de las barras del instrumento de observación.
El procedimiento incluye, para cada hipótesis de movimiento que se considere a lo largo de la optimización de la función global, las etapas:
-
de determinación, en función de la hipótesis de movimiento que se considere y de un modelo geométrico de las direcciones de mira de las celdas sensibles de las barras del instrumento de observación, de al menos una transformación de establecimiento de correspondencias entre los píxeles del al menos un par de imágenes compuestas, llamada «transformación espacio-temporal»,
-
de establecimiento de correspondencias entre los píxeles del al menos un par de imágenes compuestas por medio de la al menos una transformación espacio-temporal.
Preferentemente, la función global se optimiza iterativamente, mediante iteración de las siguientes etapas hasta que se verifique un criterio de parada:
-
determinación de la al menos una transformación espacio-temporal del al menos un par de imágenes compuestas partiendo de la hipótesis de movimiento de la iteración en curso,
-
establecimiento de correspondencias entre los píxeles del al menos un par de imágenes compuestas,
-
cálculo, para la función de semejanza imagen, de unos datos imagen en función de dichos píxeles entre los que se establece una correspondencia, comprendiendo dichos datos imagen al menos un gradiente de la función de semejanza imagen, representativo de la variación, en la proximidad de la hipótesis de movimiento de la iteración en curso, de la semejanza entre los valores de los píxeles entre los que se establece una correspondencia del al menos un par de imágenes compuestas,
-
actualización de la hipótesis de movimiento para la siguiente iteración, en función de los datos imagen.
Preferentemente, la función global se optimiza iterativamente, mediante iteración de las siguientes etapas hasta que se verifique un criterio de parada:
-
cálculo, para la función de semejanza externa, de unos datos externos en función de las medidas del o los sensores y de la hipótesis de movimiento de la iteración en curso, comprendiendo dichos datos externos al menos un gradiente de la función de semejanza externa, representativo de la variación, en la proximidad de esa hipótesis de movimiento, de la semejanza entre la hipótesis de movimiento de la iteración en curso y las medidas del o los sensores,
-
actualización de la hipótesis de movimiento para la siguiente iteración en función de los datos externos.
Preferentemente, al menos un sensor es un giroscopio o un sensor estelar, o un sensor angular de un espejo orientable del instrumento de observación.
Preferentemente, se determina el movimiento estimado en función de un modelo temporal predefinido del movimiento del instrumento de observación.
Preferentemente, el movimiento estimado se determina mediante optimización de una función de semejanza modelo que asocia, con una hipótesis de movimiento dada, una semejanza entre dicha hipótesis de movimiento y el modelo temporal de movimiento.
Preferentemente, el procedimiento incluye una etapa de actualización del modelo temporal de movimiento en función de una hipótesis de movimiento.
Preferentemente, la función de semejanza modelo se optimiza iterativamente, mediante iteración de las siguientes etapas hasta que se verifique un criterio de parada:
-
cálculo, para la función de semejanza modelo, de unos datos modelo en función del modelo temporal de movimiento y de la hipótesis de movimiento de la iteración en curso, comprendiendo dichos datos modelo al menos un gradiente de la función de semejanza modelo, representativo de la variación, en la proximidad de esa hipótesis de movimiento, de la semejanza entre la hipótesis de movimiento de la iteración en curso y el modelo temporal de movimiento,
-
actualización de la hipótesis de movimiento para la siguiente iteración, en función de los datos modelo.
Preferentemente, la función de semejanza imagen, la función de semejanza externa y la función de semejanza modelo son optimizadas conjuntamente, mediante optimización de una función global que acumula dicha función de semejanza imagen, dicha función de semejanza externa y dicha función de semejanza modelo.
Preferentemente, el modelo temporal de movimiento es un modelo de movimiento paramétrico, preferentemente un modelo cuyas funciones base son del tipo polinomios, u ondículas, o sinusoides, o splines.
Preferentemente, el modelo temporal de movimiento es un modelo de movimiento probabilístico, preferentemente un modelo de tipo autorregresivo.
Se comprenderá mejor la invención con la lectura de la siguiente descripción, dada a título de ejemplo sin carácter limitativo alguno y llevada a cabo con referencia a las figuras, que representan:
Figura 1: una representación muy esquemática de un instrumento de observación por pasada que sobrevuela la Tierra, y
Figura 2, 3, 4 y 5: unos diagramas que ilustran formas particulares de puesta en práctica de un procedimiento según la invención.
La presente invención concierne a un procedimiento de estimación del movimiento de un instrumento de observación 10, embarcado en un vehículo (avión, vehículo aéreo no pilotado, helicóptero, satélite, etc.) que sobrevuela un cuerpo celeste, en el transcurso de la fotografía. Más adelante en la descripción, se adopta, sin carácter limitativo, el caso de que el cuerpo celeste sobrevolado es la Tierra.
El encargado de la puesta en práctica de este procedimiento de estimación del movimiento del instrumento de observación 10 es, por ejemplo, un dispositivo de cálculo (microcontrolador, ordenador dotado de al menos un microprocesador, etc.). El dispositivo de cálculo incluye unos medios de memorización (disco duro magnético, memoria flash, disco óptico, etc.) que llevan memorizado un producto programa de ordenador, en forma de un conjunto de instrucciones de código de programa que han de ejecutarse para llevar a la práctica las etapas del procedimiento según la invención, partiendo de las imágenes línea adquiridas por el instrumento de observación 10.
Según algunas formas de realización, el dispositivo de cálculo incluye asimismo uno o unos circuitos integrados, de tipo ASIC, FPGA, etc., adaptados para llevar a la práctica la totalidad o parte de las etapas del procedimiento según la invención.
El dispositivo de cálculo puede ir embarcado con el instrumento de observación 10 en el vehículo que sobrevuela la Tierra en el caso de un procesamiento en tiempo real. En el caso de un procesamiento en diferido, el dispositivo de cálculo se halla indistintamente embarcado con el instrumento de observación 10 en el vehículo, o trasladado, es decir, ubicado en una estación de tierra o en un segundo vehículo que sobrevuela la Tierra.
A) Definiciones y notaciones
A continuación se dan definiciones y notaciones utilizadas más adelante en la descripción. Se comprende que optar por una convención particular no supone limitación de la invención, la cual podría ser descrita de manera equivalente adoptando otras convenciones sin que por ello la invención se vea modificada.
A.1) Instrumento de observación, imágenes línea, imágenes compuestas
Se considera un instrumento de observación 10 que incluye Nb barras bi, 1 ≤ i ≤ Nb. Se asume, para simplificar, que cada barra incluye el mismo número K de celdas sensibles. Se adopta el caso no limitativo de que las barras bi están organizadas de manera sensiblemente paralela en el plano focal del instrumento de observación 10.
La pasada de la línea de mira de cada barra bi permite adquirir sucesivamente imágenes línea correspondientes a porciones lineales diferentes de una escena S observada, es decir, porciones disjuntas o que se solapan como mucho parcialmente.
Más adelante en la descripción, se adopta el caso de que la pasada de la línea de mira de una barra se efectúa por desplazamiento del vehículo con relación a la Tierra (tal instrumento se conoce con el nombre de «push broom» en la bibliografía anglosajona).
Sin embargo, este ejemplo no supone limitación de la invención. Por ejemplo, la pasada de la línea de mira de una barra se puede efectuar por desplazamiento de dicha línea de mira con relación al vehículo, por medio de un mecanismo de exploración que es portador, bien sea de la barra, o bien de un espejo de mira que se encuentre en el camino óptico de la barra. Este puede ser el caso para un satélite de observación en órbita geoestacionaria, estabilizado según tres ejes.
A efectos de simplificación de las ecuaciones y sin carácter limitativo alguno de la invención, se considera que el período de adquisición de imágenes línea, designado por ΔT, es constante a lo largo del tiempo y el mismo para todas las barras bi.
Se hace notar no obstante que, en el caso de aplicación más corriente, en particular para un sistema de observación por satélite, se utiliza una barra que opera en una banda pancromática así como otras barras que operan en bandas espectrales dedicadas (por ejemplo verde, rojo, infrarrojo cercano), siendo generalmente la frecuencia de adquisición de la barra pancromática cuatro veces más elevada que la de las demás barras.
En el transcurso de la fotografía, se adquieren N imágenes línea mediante cada una de las barras bi en los instantes (n−1)·ΔT, 1 ≤ n ≤ N. Cada barra bi adquiere así una imagen compuesta Bi constituida por el conjunto {Bi(k,n), 1 ≤ k ≤ K, 1 ≤ n ≤ N}, donde Bi(k,n) es el valor del píxel de índice (k,n).
El índice k corresponde a una dimensión espacial: la posición de la celda sensible a lo largo de la barra; el índice n representa una dimensión temporal: el instante de la fotografía. De ahí la denominación «cuadrícula espaciotemporal» que se asociará a la imagen compuesta.
Para simplificar las notaciones, se indizarán los instantes de adquisición de modo que el instante de adquisición de
índice n es el instante (n−1)·ΔT.
En el transcurso de una fotografía, dos barras diferentes proporcionarán dos imágenes compuestas diferentes cuyos píxeles adquiridos en un mismo instante dado representan diferentes zonas de la escena observada. La disposición de las barras en el plano focal del instrumento de observación es tal que estas imágenes compuestas poseen un considerable solapamiento espacial cuando el vehículo progresa por encima de la escena que se ha de observar. El procedimiento tan sólo procesará la parte de las imágenes compuestas que corresponde a este solapamiento espacial.
A.2) Punto de referencia instrumento
La figura 1 representa muy esquemáticamente en perspectiva el vuelo por encima de una escena por un instrumento de observación 10 que incluye al menos dos barras b1, b2 que se consideran paralelas en el plano focal del instrumento.
Se asocia al instrumento de observación 10 un punto de referencia instrumento RINSTR cuyo origen M representa la posición del instrumento de observación 10 en el vehículo. El punto de referencia instrumento RINSTR incluye tres ejes XINSTR, YINSTR y ZINSTR, ortogonales entre sí. El eje XINSTR es paralelo a las barras b1 y b2, el eje ZINSTR, correspondiente a la dirección de mira del instrumento 10, está orientado hacia la Tierra, y el eje YINSTR es ortogonal a los ejes XINSTR y ZINSTR y sensiblemente en la dirección de desplazamiento del instrumento de observación 10, por desplazamiento del vehículo.
A.3) Movimiento del instrumento de observación
En el caso de una pasada del plano de mira de una barra, obtenida mediante el desplazamiento del vehículo, los movimientos de traslación del instrumento de observación 10 provienen del vuelo del vehículo por encima de la escena.
Estos movimientos de traslación se efectúan en general a frecuencias relativamente bajas y son poco observables por el procedimiento, especialmente cuando la altitud del vehículo es elevada. Más aún, son difíciles de distinguir de los movimientos de rotación del instrumento de observación 10.
Esta es la razón por la que, para simplificar, se supondrá que los movimientos de traslación del instrumento son conocidos con precisión suficiente y que se pretende reconstruir ante todo los movimientos de rotación del instrumento de observación 10. Sin embargo, es de señalar, tal como se verá en lo sucesivo, que el procedimiento se puede generalizar fácilmente a la estimación del movimiento completo del instrumento, tanto en traslación como en rotación, y puede ampliarse a la estimación de los movimientos de cualquier parte móvil del instrumento, tal como un espejo de mira.
Los movimientos de rotación del instrumento de observación 10 (supuesto fijo con relación al vehículo) provienen en particular de los movimientos de rotación del vehículo portador, llamados «movimientos de conjunto» del instrumento de observación 10. Estos movimientos se estiman en general merced a unos sensores dedicados, embarcados a bordo del vehículo, como por ejemplo giroscopios, y sensores estelares, si el vehículo es un satélite. Sin embargo, esta estimación está viciada con errores, debidos especialmente a los errores de medida.
Otros movimientos del instrumento, y más en particular de su línea de mira, llamados «movimientos parásitos», provienen de desplazamientos relativos de traslación y/o de rotación entre diferentes elementos ópticos del instrumento (plano focal, espejos, etc.), por ejemplo debidos a vibraciones, desplazamientos estos que afectan a la línea de mira del instrumento. Los movimientos parásitos son mucho menos fáciles de medir, ya que para ello haría falta un gran número de acelerómetros y de girómetros distribuidos por toda la estructura del instrumento de observación.
Los movimientos de conjunto y los movimientos parásitos se diferencian en general por su amplitud y su espectro frecuencial. Los movimientos de conjunto son del orden de la centésima de grado a algunos grados y son relativamente de baja frecuencia (de cero a unos hercios). Los movimientos parásitos son un orden de magnitud más pequeños que los movimientos de conjunto y son de más alta frecuencia (de unas decenas a unas centenas de hercios).
Los movimientos de conjunto del instrumento de observación 10 se manifiestan en rotaciones del punto de referencia instrumento RINSTR con relación a una marca de referencia terrestre RT (por ejemplo, la referencia geográfica local al punto de referencia de la escena observada, no representada en las figuras) que traducen la evolución temporal de la actitud del instrumento con relación a dicha marca de referencia RT.
Los movimientos parásitos se manifiestan en pequeñas rotaciones expresadas con relación al punto de referencia instrumento RINSTR, descomponiéndose estas en rotaciones alrededor del eje YINSTR, llamadas «rotaciones de balanceo», alrededor del eje XINSTR, llamadas «rotaciones de cabeceo» y alrededor del eje ZINSTR, llamadas «rotaciones de guiñada».
Es de señalar que, de la misma manera que para los movimientos parásitos, pueden formularse errores de estimación del movimiento de conjunto del instrumento de observación 10 en pequeños ángulos, en términos de errores de balanceo, cabeceo, guiñada. Por lo tanto, el movimiento del instrumento de observación 10 se puede describir como los valores tomados a lo largo del tiempo de ángulos de actitud (ángulos de Euler, por ejemplo) con relación a una marca de referencia. Se pueden utilizar otras formulaciones equivalentes basadas en otros ángulos, en cuaternas o en matrices de rotación, sin que por ello la invención se vea modificada en su fundamento.
Se designa con θR(n), 1 ≤ n ≤ N, el movimiento real del instrumento de observación 10 en el instante de adquisición de índice n, expresado por ejemplo en la marca de referencia terrestre RT. Como hemos visto, este movimiento es la suma de los movimientos de conjunto y de los movimientos parásitos. Es de señalar que, en el caso en que la exploración de la línea de mira se efectúa mediante rotación de un espejo de mira presente en el camino óptico del instrumento, el o los ángulos de rotación del espejo quedan incluidos en el vector θR(n) en todo instante n, 1 ≤ n ≤ N.
Se designa con ΘR el conjunto de todos los θR(n), 1 ≤ n ≤ N, que representa el movimiento real del instrumento en el transcurso de la fotografía.
Se designa con θEST(n), 1 ≤ n ≤ N, el movimiento estimado del instrumento de observación 10 en el instante de adquisición de índice n expresado en la marca de referencia RT. Se designa con ΘEST el conjunto de todos los θEST(n), 1 ≤ n ≤ N, que representa el movimiento estimado del instrumento de observación 10 en el transcurso de la fotografía.
Se designa con Θ = {θ(n), 1 ≤ n ≤ N} una hipótesis de movimiento del instrumento 10 en el transcurso de la fotografía en los instantes de adquisición de índice n, expresada en la marca de referencia RT.
A.4) Modelo geométrico, transformación espacio-temporal y establecimiento de correspondencias entre los píxeles de las imágenes compuestas
Suponemos conocido un modelo geométrico Rimod(k) del instrumento que asocia, con la celda sensible de índice k de la barra bi, su dirección de mira expresada en el punto de referencia instrumento RINSTR. Este modelo geométrico puede modelizar asimismo las distorsiones ópticas introducidas por el instrumento de observación 10, las cuales son estimadas previamente, por ejemplo, por calibración.
Se toma una referencia cartográfica RC = (O,XC,YC,ZC) (no representada en las figuras), por ejemplo tal que (XC,YC) es el plano tangente a la superficie terrestre en un punto de referencia O de la escena observada, en el que podrán proyectarse las imágenes compuestas adquiridas por las barras en vistas a la reconstrucción de la imagen real de la escena sobrevolada. Más adelante en la descripción, se designará al plano (O,XC,YC) como «referencial imagen». Para simplificar las ecuaciones, se adopta el caso no limitativo en el que las referencias RT y RC coinciden.
Se señala no obstante que se podrían considerar otros referenciales imagen, eventualmente no planares, como por ejemplo una proyección sobre la elipsoide terrestre, sobre un modelo conocido de relieve, o también una de las imágenes compuestas adquiridas por una de las barras que están deformadas por el movimiento del instrumento de observación 10.
Partiendo de una hipótesis de movimiento dada Θ del instrumento, cada píxel de índice q = (k,n) de la imagen compuesta, adquirido por la celda sensible de índice k de la barra bi en el instante n, puede ser proyectado en el referencial imagen calculando la intersección de la recta de mira del píxel de índice q = (k,n) con el plano (O,XC,YC).
Para ello, se calcula la dirección de mira di(k,n), de una recta que pasa por la posición M del instrumento 10 y por la celda sensible de índice k en el instante n, en la referencia cartográfica RC a partir de la hipótesis de movimiento θ(n) del instrumento 10 en el instante n y del modelo geométrico del instrumento:
di(k,n) = Rθ(n) ·Rimod(k)
donde Rθ(n) es una rotación que transforma el punto de referencia instrumento RINSTR en la referencia cartográfica RC. El proyectado p = (x,y) del píxel de índice q = (k,n) en el referencial imagen (O,XC,YC) corresponde a la intersección de la recta de dirección di(k,n) con el plano (O,XC,YC). Se obtiene así una transformación Vi que, en función de una hipótesis de movimiento Θ, asocia, con un píxel de índice q = (k,n) de la imagen compuesta, el punto p = (x,y) del referencial imagen, que es el punto efectivamente representado por el píxel Bi(k,n):
p = Vi(q,Θ) (1)
En esta relación (1), las variables son p y q, considerándose la hipótesis de movimiento Θ como un conjunto de parámetros del cual depende la transformación Vi, 1 ≤ i ≤ Nb.
El cálculo de la proyección se puede llevar a cabo analíticamente si el modelo geométrico del instrumento de observación 10 no es demasiado complicado. También se pueden llevar a cabo trazados de radios en el caso de un modelo geométrico de instrumento más complejo. Se puede utilizar igualmente un modelo de relieve de la escena para tener en cuenta los desplazamientos que introduce.
Se designa con pik,n = (Xik,n, Yik,n) la posición del píxel de índice (k,n) así proyectado en el referencial imagen (O,XC,YC), expresada en metros o cualquier otra unidad. Se designa con «cuadrícula espacio-temporal» de la imagen compuesta el conjunto de los puntos pik,n proyectados de los píxeles de la imagen compuesta en el referencial imagen. Se designa con «imagen rectificada por el movimiento» la imagen compuesta que asocia, con la posición pik,n, el valor del píxel Bi(k,n).
Para las necesidades del procedimiento, es necesario calcular las transformaciones geométricas Wi, inversas de Vi, llamadas «transformaciones espacio-temporales».
Supuesta una hipótesis de movimiento Θ dada, las transformaciones espacio-temporales asocian, con un punto p = (x,y) del referencial imagen en la escena cuya imagen forma una barra bi en el transcurso de la fotografía, la posición q del píxel en la imagen compuesta Bi adquirida por la barra bi cuyo proyectado en el referencial imagen es el punto p = (x,y) habida cuenta de la hipótesis de movimiento Θ.
Para ello, hay que considerar que la hipótesis de movimiento Θ = {θ(n), 1 ≤ n ≤ N} está interpolada con valores no enteros del tiempo: Θ = {θ(t), t real en el intervalo [0,(n−1)ΔT]}, y que la imagen compuesta Bi rectificada por el movimiento también está interpolada siguiendo cualquier procedimiento de interpolación conocido por el experto en la materia, tal como una interpolación cúbica, de Shannon truncada, o utilizando splines, de modo que se puede definir el valor de píxeles Bi(α,t) para posiciones continuas α de una celda sensible virtual a lo largo de la barra bi y para un instante de adquisición t continuo. Tomando el punto p = (x,y) del referencial imagen, se puede posicionar este punto con relación a la cuadrícula espacio-temporal de la imagen Bi rectificada por el movimiento, lo cual da una primera aproximación entera (k',n') de la posición del píxel en la imagen compuesta. Se obtienen valores reales (α,t) que afinan esta aproximación, por ejemplo, trabajando sobre pequeñas variaciones y linealizando el problema. De manera más general, se puede utilizar cualquier procedimiento conocido por el experto en la materia para invertir la transformación Vi.
Se denominará Wi a la transformación inversa de Vi que, en todos los puntos p = (x,y) del referencial imagen, asocia la posición q = (α,t) del píxel que forma la imagen de este punto en la imagen compuesta Bi habida cuenta de la hipótesis de movimiento Θ:
q = Wi(p,Θ) (2)
pudiendo ser las variables p y q iguales a un número no entero por interpolación.
Las transformaciones espacio-temporales Wi, 1 ≤ i ≤ Nb, permiten establecer correspondencias entre los píxeles de las imágenes compuestas partiendo de una hipótesis de movimiento Θ, es decir, determinar, para todo punto p que se considere del referencial imagen, los valores de los píxeles Bi(Wi(p,Θ)), 1 ≤ i ≤ Nb, que representan teóricamente ese punto p en las imágenes compuestas.
Por «representan teóricamente ese punto», se entiende que los píxeles entre los que se establece una correspondencia tan sólo representan efectivamente el mismo punto cuando la hipótesis de movimiento Θ que se considere es igual al movimiento real ΘR. Cuando la hipótesis de movimiento Θ que se considere sea muy diferente del movimiento real ΘR, se comprende por tanto que los píxeles entre los que se establece una correspondencia, si bien representan teóricamente el mismo punto, a efectos prácticos representarán diferentes puntos de la escena observada, y que los valores de esos píxeles estarán poco correlacionados.
En el caso en que la hipótesis de movimiento se corresponde con la realidad (Θ = ΘR), deberíamos tener, dentro de los márgenes de los errores de interpolación, para todo punto p en el referencial imagen y cualesquiera que sean i y j, 1 ≤ i,j ≤Nb:
Bi(Wi(p,ΘR)) = Bj(Wj(p,ΘR)) (3)
ya que estos dos píxeles entre los que se establece una correspondencia de las imágenes compuestas interpoladas corresponden al mismo punto p del referencial imagen.
Se comprende por tanto que se puede evaluar la coherencia de una hipótesis de movimiento Θ dada mediante comparación de los píxeles entre los que se establece una correspondencia Bi(Wi(p,Θ)), 1 ≤ i ≤ Nb.
Nótese que el establecimiento de correspondencias entre las imágenes compuestas puede efectuarse partiendo de la transformación espacio-temporal:
Wji = Wj◦ Wi−1 = Wj◦ Vi (4)
la cual hace pasar directamente de una imagen compuesta Bi a otra imagen compuesta Bj. Para calcular Wji, se toma un par de barras bi, bj, y una hipótesis de movimiento Θ. Se toma un píxel q = (k,n) de la imagen compuesta adquirida por la barra bi. Se proyecta ese píxel en el referencial imagen siguiendo la hipótesis de movimiento Θ, lo cual da el punto pi = Vi(q,Θ) y luego se calcula la posición qj = (α,t) de la imagen compuesta Bj que se proyecta en pi:
qj = Wj(Vi(q,Θ)) = Wji(q,Θ) (5)
En todos los casos, hablaremos de una transformación espacio-temporal que establece correspondencias entre los píxeles de las imágenes compuestas Bi, Bj obtenidas por las barras bi, bj. Nótese que esta transformación espaciotemporal depende asimismo del referencial imagen escogido, del modelo geométrico del instrumento y, eventualmente, de un modelo de terreno que se introduce para efectuar el establecimiento de correspondencias.
B) Descripción del procedimiento de estimación
B.1) Principio general del procedimiento de estimación
De acuerdo con la invención, el movimiento estimado se determina mediante optimización de una función, llamada «función F1 de semejanza imagen» que asocia, con una hipótesis de movimiento Θ dada, una semejanza entre los valores de píxeles entre los que se establece una correspondencia de al menos un par de imágenes compuestas. Tal como anteriormente se ha visto, unos píxeles entre los que se establece una correspondencia son píxeles que representan teóricamente el mismo punto de la escena observada habida cuenta de la hipótesis de movimiento que se considere.
Para cada hipótesis de movimiento Θ que se considere en el transcurso de la optimización de la función F1 de semejanza imagen, el procedimiento incluye las etapas:
-
200 de determinación, para el al menos un par de imágenes compuestas, de al menos una transformación espacio-temporal en función de la hipótesis de movimiento Θ que se considere y de un modelo geométrico del instrumento de observación 10,
-
201 de establecimiento de correspondencias entre los píxeles del al menos un par de imágenes compuestas por medio de la al menos una transformación espacio-temporal.
Las operaciones efectuadas a lo largo de las etapas 200 y 201 ya han sido descritas a lo largo de la anterior sección A.4).
La función F1 de semejanza imagen comprende por ejemplo una componente F12 que tiene en cuenta las imágenes compuestas B1, B2 adquiridas por las barras b1, b2. Se establece una correspondencia entre los píxeles de estas imágenes compuestas por medio de las transformaciones espacio-temporales W1 y W2, o de la transformación espacio-temporal única W21 (o W12).
Preferentemente se elige, como componente F12, una función ventajosamente convexa que aumenta cuando disminuye una distancia entre las matrices de los valores de los píxeles entre los que se establece una correspondencia de las dos imágenes compuestas B1 y B2. En este caso, la optimización consiste en determinar una hipótesis de movimiento que tiende a maximizar esa componente F12.
No obstante, se podría elegir de manera equivalente una función cóncava que disminuye cuando disminuye una distancia entre las matrices de los valores de los píxeles entre los que se establece una correspondencia de las dos imágenes compuestas B1 y B2. En este caso, la optimización consiste en determinar la hipótesis de movimiento que tiende a minimizar esa componente F12.
La distancia puede ser cuadrática, lineal, en forma de producto escalar, con o sin ponderación dependiente del píxel, etc. Se señala que, en el presente caso, se trata de una distancia entre los valores de píxeles que representan teóricamente el mismo punto, y no, tal como se describe en la patente FR 2899344, de una distancia geométrica entre las posiciones (índices) de los píxeles que representan efectivamente el mismo punto (zona característica homóloga) en cada una de las imágenes compuestas.
Por ejemplo, se puede adoptar, como función de semejanza imagen, una de las siguientes funciones:
F12(∋)∗ exp &∃∃( +,ij ) h1(B1(W1(p,∋))( B2(W2(p,∋)))#!! (6a) % p∗(i, j) ∀
F12(∋)∗ +,ij ) h1(B1(W1(p,∋))( B2(W2(p,∋))) (6b)
p∗(i, j)
donde p = (i,j) corresponde a una cuadrícula de la totalidad o parte de la zona del referencial imagen cuya imagen es formada por las dos barras b1 y b2, aij son ponderaciones positivas o nulas, h1 es una p-norma.
Los ejemplos dados en las expresiones (6a) y (6b) no son limitativos. Se señala que la optimización de la componente F12 de la expresión (6a) es una maximización, en tanto que la optimización de la componente F12 de la
expresión (6b) es una minimización.
Es de señalar que la cuadrícula p = (i,j) puede ser regular, o más densa en zonas previamente especificadas de la imagen compuesta, cuyas propiedades se han creído más favorables que otras para operaciones de establecimiento de correspondencias y evaluación de semejanza.
Otro ejemplo de función de semejanza imagen puede ser en forma de producto escalar:
F12(∋) ∗ +,ij ) h1(B1(W1(p,∋))) B2(W2(p,∋))) (7)
p∗(i, j)
Tal como se ha indicado anteriormente, el establecimiento de correspondencias podría procesarse directamente de imagen compuesta a imagen compuesta sin pasar por la cuadrícula del referencial imagen. En tal caso, la componente F12 de la expresión (6a) se podría reescribir como sigue:
F12(∋) ∗ exp &∃∃( +,kn ) h1(B1(p)( B2(W21(p,∋)))#!! (8) % p∗(k ,n) ∀
donde, esta vez, p = (k,n) corresponde a la totalidad o parte de los índices de los píxeles de la imagen compuesta B1 en la zona de solapamiento de las imágenes compuestas B1 y B2.
Las ponderaciones aij se pueden ajustar individualmente antes de la optimización de la función de semejanza imagen. Adicionalmente, estas ponderaciones se pueden elegir todas iguales, por ejemplo iguales a la unidad.
Es de señalar que la componente F12 puede presentarse con otras formas. En concreto, se pueden introducir operadores en las imágenes compuestas para tomar en cuenta el hecho de que han sido adquiridas en campos diferentes de longitudes de onda. Tales operadores se dan por conocidos para un experto en la materia y no son tratados en el presente documento, a efectos de simplificación de las expresiones y sin carácter limitativo alguno de la invención.
Una componente F12 según uno cualquiera de los citados ejemplos es particularmente ventajosa porque no precisa de un conocimiento a priori de la escena observada. Al considerar este tipo de semejanza imagen entre imágenes compuestas, se aprovecha un conocimiento a priori del sistema de adquisición que es el de que las imágenes compuestas Bi, 1 ≤ i ≤ Nb, representan sensiblemente la misma escena observada y son teóricamente superponibles (una vez establecida la correspondencia entre ellas) en ausencia de movimientos parásitos del instrumento de observación 10 (dejando a un lado las diferencias relacionadas con los campos de longitudes de onda de adquisición en el caso de un instrumento de observación 10 multiespectral, los errores de interpolación, los ruidos de medida, los defectos de calibración, etc.). Adicionalmente, este tipo de componente es insensible a las texturas ambiguas como son las texturas periódicas o las texturas con fuerte dirección principal (por ejemplo líneas).
Con carácter más general, en el caso en que se tienen en cuenta Nb barras, siendo Nb igual o mayor que tres, la función F1 de semejanza imagen puede tener en cuenta fácilmente la totalidad o parte de los pares de imágenes compuestas disponibles, acumulando las componentes Fij de los diferentes pares de imágenes compuestas que se consideren. Las componentes Fij son acumuladas ventajosamente mediante producto en el caso de componentes del tipo dado en la expresión (6a):
F1(∋) ∗−/ij ) Fij (∋) (9a)
i. j
o mediante suma en el caso de componentes del tipo dado en la expresión (6b):
F1(∋) ∗+/ij ) Fij (∋) (9b)
i. j
En este proceso, se pueden introducir ponderaciones positivas βij para disminuir el peso de pares de imágenes compuestas tomadas en diferentes longitudes de onda y tales que es menos fiable la semejanza entre los valores de los píxeles entre los que se establece una correspondencia de esas imágenes compuestas.
La consideración simultánea de las imágenes línea adquiridas por todas las barras que se consideren permitirá mejorar en general la robustez del procedimiento respecto al estado de la técnica, en presencia de zonas de escasa textura, especialmente si las imágenes línea son adquiridas en diferentes campos de longitudes de onda.
La figura 2 representa esquemáticamente una forma de puesta en práctica preferida del procedimiento de estimación, en la que la optimización de la función F1 de semejanza imagen es iterativa, mediante iteración de las
siguientes etapas hasta que se verifique un criterio de parada:
-
200 determinación de las transformaciones espacio-temporales Wi o Wij, para cada uno de los pares de imágenes compuestas que se consideren, partiendo de la hipótesis de movimiento Θk de la iteración k en curso,
-
201 establecimiento de correspondencias entre los píxeles de los pares de imágenes compuestas que se consideren por medio de las transformaciones espacio-temporales determinadas en la etapa 200,
-
202 cálculo, para la función F1 de semejanza imagen, de unos datos imagen útiles para efectuar la optimización,
-
203 actualización de la hipótesis de movimiento para la siguiente iteración, en función de los datos imagen.
La hipótesis de movimiento Θ1 considerada en la primera iteración corresponde por ejemplo al movimiento ideal del instrumento de observación 10 tal cual debería serlo si se cumplieran perfectamente las órdenes enviadas al sistema de control de actitud del vehículo y en ausencia de movimientos parásitos en el transcurso de la adquisición. Según otro ejemplo no limitativo, la hipótesis de movimiento Θ1 es una primera estimación del movimiento del instrumento de observación 10, determinada por ejemplo en función de diferentes sensores dedicados (sensores de actitud) del instrumento de observación 10.
Las operaciones efectuadas a lo largo de las etapas 200 y 201 ya han sido descritas a lo largo de la anterior sección A.4).
En el transcurso de la etapa 202 de cálculo de los datos imagen, se determina por ejemplo el valor de la función F1 de semejanza imagen partiendo de la hipótesis de movimiento Θk de la iteración k en curso.
Preferentemente, se determinan, en el transcurso de la etapa 202 de cálculo de los datos imagen, uno o varios gradientes de la función F1 de semejanza imagen. Tal gradiente se determina por ejemplo calculando el valor de la función F1 para las hipótesis de movimiento Θk y Θk + δΘk, donde δΘk es una variación de la hipótesis de movimiento de pequeña norma. Estos gradientes dan una información sobre la dirección en la que hacer evolucionar la hipótesis de movimiento Θk para optimizar la función F1 de semejanza imagen.
En el transcurso de la etapa 203 de actualización, la hipótesis de movimiento Θk+1 es determinada por ejemplo en función de la hipótesis de movimiento Θk, a la que se añade un término de actualización ΔΘk que se determina partiendo de los datos imagen. ΔΘk es por ejemplo un gradiente calculado en el transcurso de la etapa 202, que permite optimizar la función F1 de semejanza imagen.
Si se verifica el criterio de parada, el movimiento estimado ΘEST corresponde, bien sea a la hipótesis de movimiento Θk, o bien a la hipótesis de movimiento Θk+1.
Por ejemplo, el criterio de parada se verifica cuando la norma del término de actualización ΔΘk es inferior a un umbral predefinido. Se comprende que este ejemplo no supone limitación de la invención y que en el procedimiento de estimación se puede llevar a la práctica cualquier otro criterio adaptado, conocido por el experto en la materia.
B.2) Descripción de formas particulares de puesta en práctica del procedimiento
Consideración de medidas externas
En una forma particular de puesta en práctica del procedimiento de estimación, compatible con una cualquiera de las realizaciones anteriormente descritas, el movimiento estimado se determina igualmente mediante optimización de una función F2, llamada «de semejanza externa».
La función F2 de semejanza externa asocia, con una hipótesis de movimiento Θ dada, una semejanza entre dicha hipótesis de movimiento y unas medidas representativas de los movimientos del instrumento de observación 10, siendo efectuadas dichas medidas por uno o unos diferentes sensores de las barras de dicho instrumento de observación. Más adelante en la descripción, estos sensores son designados «sensores externos».
Debido a la determinación del movimiento estimado teniendo en cuenta medidas llevadas a cabo por el instrumento de observación 10 (en la función F1 de semejanza imagen) y medidas llevadas a cabo por uno o unos sensores externos (función F2 de semejanza externa), el procedimiento de estimación se vuelve más robusto a la naturaleza de la escena observada, por cuanto que la presencia de una zona de escasa textura (mar/océano, nube, montaña nevada, etc.) tan sólo sería desfavorable, en cuanto a robustez, en la optimización con relación a la función F1 de semejanza imagen.
Preferentemente, al menos un sensor externo es un giroscopio o un sensor estelar (denominado en ocasiones «star tracker» en la bibliografía anglosajona), embarcado en el mismo vehículo que el instrumento de observación 10.
Como complemento o como alternativa, cuando la pasada de la línea de mira es obtenida por medio de espejos de mira, al menos un sensor externo es un sensor angular que mide la oscilación de esos espejos de exploración, quedando incluidos los movimientos de esos espejos en el vector θR(n), para 1 ≤ n ≤ N y formando estos parte de dichos movimientos del instrumento que se han de estimar.
Según otros ejemplos más, es posible utilizar datos procedentes de las imágenes compuestas adquiridas por las barras, como por ejemplo la posición conocida en la referencia cartográfica RC de elementos concretos y destacables en la imagen compuesta, comúnmente denominados marcas o puntos de apoyo en la imagen compuesta.
Más adelante en la descripción, se adopta el caso no limitativo de medidas del movimiento obtenidas mediante un giroscopio y un sensor estelar.
Las medidas efectuadas por un sensor estelar son medidas absolutas que se pueden expresar, por ejemplo, de la forma siguiente:
yST(n) = θR(n) + εST(n), 1 ≤ n ≤ N (10)
donde εST designa un ruido de medida, que generalmente es un ruido coloreado. Se designa con YST el vector que comprende el conjunto {yST(n), 1 ≤ n ≤ N} y, por EST, el vector que comprende el conjunto {εST(n), 1 ≤ n ≤ N}.
La expresión (10) puede expresarse asimismo de la forma:
MSTYST = MST·ΘR + MST·EST (11)
donde MST es un operador de blanqueamiento del ruido de medida EST, de modo que MST·EST posee sensiblemente las características de un ruido blanco.
Las medidas efectuadas por un giroscopio son medidas diferenciales que se pueden expresar, por ejemplo, de la siguiente forma:
yG(n) = θR(n) – θR(n−1) + εG(n), 2 ≤ n ≤ N (12)
donde εG designa un ruido blanco de medida. Se designa con YG el vector que comprende el conjunto {yG(n), 2 ≤ n ≤ N} y, con EG, el vector que comprende el conjunto {εG(n).1 ≤ n ≤ N}.
La expresión (12) puede expresarse asimismo de la forma:
YG = MG·ΘR + EG(n) (13)
donde MG es un operador de convolución asociado al filtro que tiene como respuesta al impulso [1, −1].
La función F2 de semejanza externa, en el caso de un sensor estelar y de un giroscopio, se expresa preferentemente de la forma siguiente:
F2(Θ) = exp(−h2(MST · (YST – Θ)) – h3(YG – MG · Θ)) (14)
donde h2 y h3 son p-normas.
Son posibles otras formas de la función F2 de semejanza externa, y se pueden introducir, por ejemplo, ponderaciones frecuenciales que dan razón del ancho de banda de los diferentes sensores externos.
Preferentemente, la función F1 de semejanza imagen y la función F2 de semejanza externa son optimizadas conjuntamente. Por ejemplo, se optimiza una función global F que acumula dicha función de semejanza imagen y dicha función de semejanza externa.
No obstante, nada se opone a poner en práctica otros esquemas de optimización distintos de una optimización conjunta de las funciones F1 de semejanza imagen y F2 de semejanza externa. Según otro ejemplo, se determina la hipótesis de movimiento Θ que optimiza la función F1 y luego, a partir de esta hipótesis de movimiento, se optimiza la función F2. Esta optimización alternada de las funciones F1 y F2 se puede iterar además varias veces. Según otro ejemplo más, en el transcurso de un proceso iterativo de optimización, por ejemplo por el procedimiento del gradiente, se considera una función F1 o F2 diferente de una iteración a otra, es decir, alternando de una iteración a otra la función F1 o F2 cuyo gradiente se calcula.
Una función global F, para una optimización conjunta, adopta ventajosamente la forma de una suma, eventualmente ponderada, de las funciones F1 y F2. Según otros ejemplos, la función global F podrá adoptar la forma de un producto de las funciones F1 y F2. Se señala que, tomando el opuesto de un logaritmo de un producto de funciones F1 y F2, se obtiene de manera equivalente para la invención una función global en forma de una suma de los logaritmos de las funciones F1 y F2.
Unos ejemplos de funciones globales F que acumulan las funciones F1 y F2 pueden expresarse como sigue:
F (∋) ∗exp∃&(+ +,ij )h1(B1(W1(p,∋))(B2(W2(p,∋)))!# x
∃!(15a)
% i.jp∗(i, j) ∀ exp((h (M )(Y (∋))(h (Y (M )∋))
2 ST ST 3 GG
F (∋) ∗(+ +,ij )h1(B1(W1(p,∋))(B2(W2(p,∋)))0
i.jp∗(i, j) (15b)
h (M )(Y (∋))0h (Y (M )∋))
2 ST ST 3 GG
Si, por ejemplo, las distancias h1, h2 y h3 son las tres en forma del cuadrado de una norma euclidiana, designada por ||·||2, el movimiento estimado ΘEST se puede determinar como sigue:
40 argmin∃∃&++,ij )
∋%i.jp∗(i, j)
∋EST ∗
2 #
(16)
!
B (W (p,∋))(B (W (p,∋))
2 0
M )(Y (∋2 0
YG (MG )∋
11 22
ST ST
!
La figura 3 representa un ejemplo de puesta en práctica en el que el movimiento estimado ΘEST se determina iterativamente teniendo en cuenta las medidas efectuadas por los sensores externos y optimizando a la vez la función F1 de semejanza imagen y la función F2 de semejanza externa.
Este ejemplo incluye, además de las etapas ya descritas con referencia a la figura 2, une etapa 204 de cálculo de datos, llamados «datos externos», en función de las medidas externas realizadas por los sensores externos. En el transcurso de la etapa 203 de actualización de la hipótesis de movimiento, la hipótesis de movimiento Θk+1 para la iteración siguiente (k+1) se determina en función de los datos imagen y de dichos datos externos.
En el transcurso de la etapa 204 de cálculo de los datos externos, se determina por ejemplo el valor de la función F2 de semejanza externa partiendo de la hipótesis de movimiento Θk de la iteración k en curso y partiendo de las medidas efectuadas por los sensores externos.
Preferentemente se determinan, en el transcurso de la etapa 204 de cálculo de los datos externos, uno o varios gradientes de la función F2 de semejanza externa, con el fin de tener una información sobre la dirección en la cual hacer evolucionar la hipótesis de movimiento Θk de la iteración k en curso para optimizar la función F2 de semejanza externa.
En el transcurso de la etapa 203 de actualización del movimiento estimado, se tienen en cuenta los datos imagen y los datos externos, ya sea acumulativamente (teniendo en cuenta el conjunto de los datos imagen y externos en cada iteración k), o bien alternadamente (teniendo en cuenta alternativamente datos imagen en la etapa k del procedimiento y datos externos en la etapa k+1). La hipótesis de movimiento Θk+1 para la iteración (k+1) se determina, por ejemplo, en función de la hipótesis de movimiento Θk, a la que se añade un término de actualización ΔΘk que es determinado partiendo de los datos imagen y de los datos externos.
Preferentemente, en un modo acumulativo, el término de actualización ΔΘk es una suma ponderada de los gradientes calculados en el transcurso de las etapas 202 y 204, siendo ponderados dichos gradientes, por ejemplo, mediante los valores de las funciones F1 de semejanza imagen y F2 de semejanza externa, respectivamente.
En un modo alternado, el término de actualización será alternativamente el término de gradiente correspondiente a la función F1 de semejanza imagen y el término de gradiente correspondiente a la función F2 de semejanza externa.
Consideración de un modelo de movimiento
En una forma particular de puesta en práctica, compatible con una cualquiera de las formas de puesta en práctica anteriormente descritas, se supone que el movimiento del instrumento de observación 10 sigue un modelo, llamado «modelo de movimiento».
El movimiento del instrumento de observación 10 es continuo a lo largo del tiempo, de tipo generalmente vibratorio, de modo que los movimientos θ(n) son correlados de un instante de adquisición a otro.
La utilización de un modelo de movimiento permite restringir la búsqueda del movimiento estimado, de modo que el número de incógnitas que han de determinarse generalmente es inferior al número total de los parámetros θ(n), 1 ≤ n ≤ N, que han de estimarse en ausencia de modelo de movimiento, igual a 3N (balanceo, cabeceo, guiñada).
Otro interés consiste en permitir así restringir el contenido frecuencial del movimiento estimado, en particular si se
pretende estimar más en particular los movimientos parásitos, cuyo espectro se ha visto que generalmente estaba, principalmente, comprendido entre unas decenas de hercios y unas centenas de hercios.
Según un primer ejemplo, el modelo de movimiento es paramétrico, es decir, queda descrito por un conjunto limitado de parámetros.
Preferentemente, el modelo de movimiento paramétrico utiliza combinaciones lineales de funciones base, que pueden ser de tipo polinomios, ondículas, sinusoides, splines, etc. Tal modelo de movimiento se expresa, por ejemplo para los ángulos de balanceo φ(n) de la forma siguiente:
M (1
5(n)∗+4m )3m (n))2m (n), 1 n 1 N (17)
m∗0 1
expresión en la cual los parámetros del modelo de movimiento paramétrico son los siguientes:
-
M es el orden del modelo de movimiento paramétrico,
-
ωm(n), 0 ≤ m ≤ M−1, son las funciones base,
-
μm(n), 0 ≤ m ≤ M−1, son coeficientes que adaptan localmente el modelo de movimiento a lo largo de los instantes de adquisición,
-
λm son coeficientes escalares.
Los modelos de movimiento para los ángulos de cabeceo α(n) y de guiñada ψ(n) siguen el mismo formato que el dado en la expresión (17), siendo eventualmente diferentes los parámetros.
Según otro ejemplo, el modelo de movimiento es probabilístico. Preferentemente, se trata de un modelo de movimiento autorregresivo, que por ejemplo se expresa de la siguiente forma:
L
6(n) ∗+aI )6(n ( I)0 e(n), 1 n 1 N (18)
I ∗1 1
expresión en la cual los parámetros del modelo de movimiento autorregresivo son los siguientes:
-
L es el orden del modelo de movimiento autorregresivo,
-
aI, 1 ≤ I ≤ L, son los coeficientes del modelo de movimiento autorregresivo,
-
e(n) es la realización de un vector de ruidos blancos gaussianos de igual dimensión que θ(n).
La consideración del modelo de movimiento en el procedimiento de estimación puede efectuarse según diferentes procedimientos.
Según un primer ejemplo de puesta en práctica, se sustituye, en la transformación espacio-temporal Wi(p,Θ), el conjunto de los parámetros θ(n) (ángulos de balanceo φ(n), de cabeceo α(n) y de guiñada ψ(n)) por su modelo paramétrico de movimiento del tipo dado en la expresión (17). El movimiento estimado es determinado entonces directamente, ya no calculando el conjunto de los valores angulares θ(n), sino calculando los parámetros λm del modelo de movimiento que optimizan la función F1 de semejanza imagen y, en su caso, la función F2 de semejanza externa.
En una solución alternativa, el movimiento estimado se determina mediante optimización de una función, llamada «función F3 de semejanza modelo». La función F3 de semejanza modelo asocia, con una hipótesis de movimiento dada, una semejanza entre dicha hipótesis de movimiento dada y el modelo de movimiento.
En el caso de un modelo de movimiento paramétrico del tipo dado en la expresión (17), la función F3 de semejanza modelo para el balanceo φ(n) se expresa por ejemplo de la forma:
M (1
& ##
F3(5)∗ exp∃∃(+h ∃5(n)(+4 )3m (n))2 (n)!!! (19)
4 mm % n % m∗0 ∀∀
donde h4 es una p-norma. Las componentes idénticas relacionadas con los otros ángulos de cabeceo y de guiñada se acumulan por multiplicación en este caso.
En el caso de un modelo de movimiento probabilístico del tipo dado en la expresión (18), la función F3 de semejanza
modelo se escribirá por ejemplo:
L(1
& ##
F3(∋) ∗ exp∃∃(+h4∃6 (n)(+aI )6 (n ( I)!!! (20)
% n % I ∗0 ∀∀
donde h4 es una p-norma.
La optimización de la función F3 de semejanza modelo puede llevarse a cabo conjuntamente con la optimización de la función F1 de semejanza imagen, por medio de una función global F que acumula dicha función de semejanza imagen y dicha función de semejanza modelo. Preferentemente la función global F acumula asimismo la función F2 de semejanza externa y la optimización se efectúa conjuntamente para las tres funciones F1, F2 y F3.
Según otro ejemplo, se calcula la hipótesis de movimiento Θ que optimiza la función F1 de semejanza imagen, o una función global F que acumula la función F1 de semejanza imagen y la función F2 de semejanza externa, o una función global F que acumula las tres funciones F1, F2 et F3 (estando fijados los parámetros del modelo) y luego, dada esta hipótesis de movimiento, se calculan los parámetros del modelo (paramétrico o probabilístico) que optimizan la función F3 de semejanza modelo para esta hipótesis de movimiento. Se puede iterar varias veces esta optimización alternada.
La figura 4 representa una forma particular de puesta en práctica del procedimiento, en la que el movimiento estimado ΘEST se determina iterativamente teniendo en cuenta las imágenes compuestas, las medidas efectuadas por los sensores externos y un modelo de movimiento probabilístico.
Aparte de las etapas anteriormente descritas con referencia a la figura 3, el procedimiento de estimación incluye asimismo las etapas:
-
205 de cálculo de datos, llamados «datos modelo», en función del modelo temporal de movimiento y de la hipótesis de movimiento Θk de la iteración k en curso,
-
203 actualización de la hipótesis de movimiento para la siguiente iteración, en función de los datos modelo.
En el transcurso de la etapa 205, se calculan unos datos modelo que corresponden por ejemplo al valor de la función F3 de semejanza modelo. Preferentemente, se determinan, en el transcurso de la etapa 205 de cálculo de los datos modelo, uno o varios gradientes de la función F3 de semejanza modelo, con el fin de tener una información sobre la dirección en la cual hacer evolucionar la hipótesis de movimiento Θk de la iteración k en curso para optimizar la función F3 de semejanza modelo.
Los datos modelo son utilizados preferiblemente en el transcurso de la etapa 203 de actualización de la hipótesis de movimiento, tal como se ha descrito anteriormente para la consideración de los datos externos.
Preferentemente, el procedimiento incluye una etapa 206 de actualización del modelo de movimiento en función de la hipótesis de movimiento Θk+1 para la iteración (k+1) siguiente. En el transcurso de esta etapa 206, se actualiza el modelo de movimiento en función de la hipótesis de movimiento Θk+1 de la iteración (k+1). Esta actualización es una estimación de un nuevo modelo de movimiento, por ejemplo una estimación en el sentido del máximo de verosimilitud, de los mínimos cuadrados, máximo a posteriori, etc.
Enmascaramiento de píxeles entre los que se establecen correspondencias
En una forma particular de puesta en práctica del procedimiento, compatible con una cualquiera de las realizaciones anteriormente descritas, se pone en práctica un enmascaramiento de los píxeles entre los que se establece una correspondencia cuya semejanza evoluciona, a lo largo de la optimización, de manera anormal con relación a la semejanza de los demás píxeles entre los que se establece una correspondencia.
Por «enmascaramiento» se entiende que se reducen las contribuciones de dichos píxeles cuya semejanza evoluciona de manera anormal, en la función F1 de semejanza imagen, con relación a las contribuciones de los demás píxeles.
Los píxeles entre los que se establece una correspondencia cuya semejanza imagen evoluciona de manera anormal son por ejemplo píxeles entre los que se establece una correspondencia cuyos valores son significativamente diferentes, especialmente cuyas diferencias son significativamente mayores que las comprobadas estadísticamente, en promedio, en el conjunto de los píxeles. Dicho de otro modo, los píxeles entre los que se establece una correspondencia cuya semejanza evoluciona de manera anormal corresponden a medidas que se revelan aberrantes, habida cuenta de las medidas disponibles.
Tales medidas aberrantes generalmente están relacionadas con la presencia de nubes, con efectos de paralaje debidos a las incertidumbres acerca del relieve por ser diferentes las líneas de mira de las barras, con las diferencias de campos de longitudes de onda de adquisición, con la consideración incorrecta del relieve, etc.
El enmascaramiento de los píxeles entre los que se establece una correspondencia cuya semejanza imagen evoluciona de manera anormal se efectúa por ejemplo considerando, para la función F1 de semejanza imagen, una función h1 de estimación robusta. Tales funciones de estimación robusta, por ejemplo un M-estimador, son conocidas por el experto en la materia.
Según otro ejemplo no limitativo, se determina una matriz de ponderación MP de los píxeles de las imágenes compuestas. La matriz de ponderación es preferiblemente de igual dimensión que las imágenes compuestas. Algunos elementos de la matriz de ponderación pueden ser de valor nulo (por ejemplo, en zonas sin solapamiento de las imágenes compuestas). Esta se implementa, por ejemplo, como sigue:
F1(∋)∗ exp ∃∃&(++h1(MP (p))(Bi (Wi (p,∋))( Bi (Wi (p,∋))))!!# (21) % i. jp ∀
donde MP(p) es el coeficiente de ponderación asociado al punto p.
La figura 5 representa una forma particular de puesta en práctica del enmascaramiento mediante matriz de ponderación, en el caso en que el movimiento estimado se determina de manera iterativa, tomando en cuenta las imágenes compuestas, las medidas efectuadas por los sensores externos y un modelo de movimiento probabilístico.
Aparte de las etapas descritas con referencia a la figura 4, el procedimiento de estimación incluye asimismo una etapa 207 de actualización de la matriz de ponderación MkP para la iteración k en curso, en función de la hipótesis de movimiento Θk+1, etapa 207 en cuyo transcurso se determina la matriz de ponderación Mk+1P para la iteración (k+1) siguiente.
Preferentemente, los elementos de la matriz de ponderación Mk+1P se calculan partiendo de las diferencias entre el valor de los píxeles entre los que se establece una correspondencia partiendo de la hipótesis de movimiento Θk+1, es decir, partiendo de las diferencias B1(W1(p,Θk+1)) − B2(W2(p,Θk+1)).
Para definir los coeficientes de ponderación, se puede calcular por ejemplo la distribución de las diferencias de píxeles entre los que se establece una correspondencia por intervalos de valor, determinando para cada intervalo el número de pares de píxeles cuya diferencia se halla en ese intervalo y luego se determinan las ponderaciones de la matriz Mk+1P para cada píxel como la relación entre el número de ocurrencias correspondientes al intervalo en el que queda situado el píxel y el número total de píxeles en las imágenes.
Es de señalar que se puede utilizar la misma matriz de ponderación para todos los pares de imágenes compuestas,
o determinar una matriz de ponderación para cada par, en función de las imágenes compuestas del par.
Esquema de optimización multirresolución
En una realización particular más de puesta en práctica del procedimiento de estimación, compatible con una cualquiera de las realizaciones descritas anteriormente, dicho procedimiento de estimación se itera según un esquema de optimización multirresolución.
Dicho de otro modo, en una primera iteración del procedimiento de estimación, se considera un primer subconjunto de píxeles de las imágenes compuestas y se determina un primer movimiento estimado para ese primer subconjunto.
Se considera en una segunda iteración del procedimiento un segundo subconjunto de los píxeles de las imágenes compuestas ajustadas con el primer movimiento estimado, que incluye más píxeles que el primer subconjunto, y se determina un segundo movimiento estimado.
Se itera el procedimiento de estimación aumentando progresivamente el número de píxeles del subconjunto que se considere, hasta llegar al subconjunto final, que puede corresponder a la totalidad de los píxeles de las imágenes compuestas, por lo menos en la zona de solapamiento.
Al iterar el procedimiento de estimación según un esquema de optimización multirresolución, es de esperar que se mejore la precisión del movimiento estimado y/o que se acelere la convergencia del procedimiento de estimación hacia un movimiento estimado que cumpla el criterio de parada.
C) Observaciones complementarias, generalizaciones
De manera más general, el alcance de la presente invención no se limita a las formas de puesta en práctica antes descritas a título de ejemplos no limitativos, sino que, antes bien, se extiende a todas las modificaciones al alcance del experto en la materia.
En particular, la determinación del movimiento estimado ΘEST mediante optimización de la función F1 de semejanza imagen y, en su caso, de la función F2 de semejanza externa y/o de la función F3 de semejanza modelo puede llevar
a la práctica cualquier procedimiento de optimización conocido por el experto en la materia.
El procedimiento puede aplicarse en cualquier forma de barras, eventualmente que no sea lineal, por ejemplo lineal discontinua, en V, o cualquier otra forma geométrica, siempre que exista un solapamiento entre las imágenes compuestas de al menos dos barras durante una fotografía y que sea posible expresar un modelo geométrico del instrumento de observación 10 en el punto de referencia instrumento RINSTR.
Es de señalar que las celdas sensibles de las barras b1 a bNb pueden ir organizadas en varias líneas, siendo no obstante el número de celdas sensibles por línea superior en al menos un factor de diez al número de líneas. Se comprende pues que las imágenes línea adquiridas por las diferentes barras se constituyen asimismo en tal caso a partir de una pluralidad de líneas de píxeles. La presente invención no se ve por ello modificada, por cuanto que las imágenes compuestas se forman a partir de imágenes línea adquiridas en diferentes instantes, representando dichas imágenes línea diferentes porciones de la escena observada en la superficie de la Tierra.
Adicionalmente, nada se opone a que las barras sean líneas de celdas sensibles de un mismo sensor materializadas en una matriz bidimensional de celdas sensibles, en la medida en que realicen la adquisición de un mismo punto de la escena observada en instantes diferentes. Nada se opone tampoco a considerar barras organizadas ya no en el plano focal de un mismo instrumento, sino en el plano focal de al menos dos instrumentos diferentes, cuyas líneas de mira están cercanas. Se señala que todo cuanto se ha descrito sigue siendo válido si se designa por «instrumento», el conjunto de los al menos dos instrumentos y, por «línea de mira del instrumento», una línea de mira eventualmente ficticia con relación a la cual se deducen las líneas de mira de los al menos dos instrumentos a partir de un modelo geométrico del conjunto de los instrumentos.
Se señala asimismo que la utilización de todas las imágenes compuestas, y especialmente de todos los posibles pares de imágenes compuestas, en la función F1 de semejanza imagen, constituye una forma preferida de puesta en práctica sin carácter limitativo alguno de la invención.
Según otro ejemplo, se utilizan únicamente las imágenes línea adquiridas por las barras b1 y bNb, es decir, las más espaciadas en el plano focal del instrumento de observación 10. De existir instantes de adquisición para los cuales no se dispone de imágenes línea adquiridas por una o las dos barras b1 y bNb, el movimiento estimado es por ejemplo interpolado para dichos instantes de adquisición, o inducido por el modelo temporal de movimiento, ya sea paramétrico o probabilístico.
Según otro ejemplo más, se utilizan todas las imágenes compuestas, pero tan sólo se considera un subconjunto de todos los posibles pares de imágenes compuestas, preferentemente un subconjunto en el que cada imagen compuesta es utilizada al menos una vez.
Además de los movimientos de rotación del instrumento, se pueden introducir los movimientos de traslación del instrumento de observación 10 en el movimiento que ha de estimarse. Basta con aumentar el vector Θ de hipótesis de movimientos de rotación del instrumento en un vector (X,Θ), donde X representa la hipótesis de movimiento de traslación a lo largo del tiempo, y expresar las transformaciones espacio-temporales y las funciones de semejanza F1, F2 y F3 en función de (X,Θ), y con calcular luego la hipótesis de movimiento (X,Θ) que maximiza las funciones de semejanza.
En el caso de introducir entre las variables que han de estimarse los movimientos de traslación, es ventajoso considerar medidas externas dadas por un sensor externo tal como un receptor de navegación por satélite, una central inercial o cualquier otro sensor que permita proporcionar una estimación de la posición del vehículo en el referencial terrestre RT y tratar estas medidas externas en la función F2 de semejanza externa tal como se describe para los movimientos de rotación.

Claims (12)

  1. REIVINDICACIONES
    1. Procedimiento de estimación del movimiento de un instrumento de observación (10) embarcado en un vehículo que sobrevuela un cuerpo celeste, incluyendo el instrumento de observación (10) al menos dos barras (b1, b2) cuyas líneas de mira son diferentes, incluyendo cada barra unas celdas sensibles y realizando la adquisición sucesiva, mediante pasada de su línea de mira sobre el cuerpo celeste, de imágenes línea que forman una imagen compuesta, representando unas partes de las imágenes compuestas sensiblemente una misma escena del cuerpo celeste, caracterizado porque el movimiento estimado se determina mediante optimización de una función global que acumula:
    -
    una función de semejanza imagen que asocia, con una hipótesis de movimiento dada, una semejanza entre valores de píxeles entre los que se establece una correspondencia de al menos un par de imágenes compuestas, siendo unos píxeles entre los que se establece una correspondencia píxeles que representan teóricamente el mismo punto de la escena observada habida cuenta de la hipótesis de movimiento que se considere,
    -
    una función de semejanza externa que asocia, con dicha hipótesis de movimiento que se considere, una semejanza entre dicha hipótesis de movimiento y unas medidas, representativas de movimientos del instrumento de observación, efectuadas por uno o unos diferentes sensores de las barras del instrumento de observación,
    incluyendo el procedimiento, para cada hipótesis de movimiento que se considere a lo largo de la optimización de la función global, las etapas:
    -
    (200) de determinación, en función de la hipótesis de movimiento que se considere y de un modelo geométrico de las direcciones de mira de las celdas sensibles de las barras del instrumento de observación (10), de al menos una transformación de establecimiento de correspondencias entre los píxeles del al menos un par de imágenes compuestas, llamada «transformación espacio-temporal»,
    -
    (201) de establecimiento de correspondencias entre los píxeles del al menos un par de imágenes compuestas por medio de la al menos una transformación espacio-temporal.
  2. 2. Procedimiento según la reivindicación 1, en el que la función global se optimiza iterativamente, mediante iteración de las siguientes etapas hasta que se verifique un criterio de parada:
    -
    (200) determinación de la al menos una transformación espacio-temporal del al menos un par de imágenes compuestas partiendo de la hipótesis de movimiento de la iteración en curso,
    -
    (201) establecimiento de correspondencias entre los píxeles del al menos un par de imágenes compuestas,
    -
    (202) cálculo, para la función de semejanza imagen, de unos datos imagen en función de dichos píxeles entre los que se establece una correspondencia, comprendiendo dichos datos imagen al menos un gradiente de la función de semejanza imagen, representativo de la variación, en la proximidad de la hipótesis de movimiento de la iteración en curso, de la semejanza entre los valores de los píxeles entre los que se establece una correspondencia del al menos un par de imágenes compuestas,
    -
    (203) actualización de la hipótesis de movimiento para la siguiente iteración, en función de los datos imagen.
  3. 3. Procedimiento según una de las anteriores reivindicaciones, en el que la función global se optimiza iterativamente, mediante iteración de las siguientes etapas hasta que se verifique un criterio de parada:
    -
    (204) cálculo, para la función de semejanza externa, de unos datos externos en función de las medidas del
    o los sensores y de la hipótesis de movimiento de la iteración en curso, comprendiendo dichos datos externos al menos un gradiente de la función de semejanza externa, representativo de la variación, en la proximidad de esa hipótesis de movimiento, de la semejanza entre la hipótesis de movimiento de la iteración en curso y las medidas del
    o los sensores,
    -
    (203) actualización de la hipótesis de movimiento para la siguiente iteración, en función de los datos externos.
  4. 4. Procedimiento según una de las anteriores reivindicaciones, en el que al menos un sensor es un giroscopio
    o un sensor estelar, o un sensor angular de un espejo orientable del instrumento de observación (10).
  5. 5.
    Procedimiento según una de las anteriores reivindicaciones, en el que se determina el movimiento estimado en función de un modelo temporal predefinido del movimiento del instrumento de observación (10).
  6. 6.
    Procedimiento según la reivindicación 5, en el que el movimiento estimado se determina mediante optimización de una función de semejanza modelo que asocia, con una hipótesis de movimiento dada, una semejanza entre dicha hipótesis de movimiento y el modelo temporal de movimiento.
  7. 7.
    Procedimiento según la reivindicación 6, que incluye una etapa (206) de actualización del modelo temporal de movimiento en función de una hipótesis de movimiento.
  8. 8.
    Procedimiento según una de las reivindicaciones 6 a 7, en el que la función de semejanza modelo se optimiza iterativamente, mediante iteración de las siguientes etapas hasta que se verifique un criterio de parada:
    5 -(205) cálculo, para la función de semejanza modelo, de unos datos modelo en función del modelo temporal de movimiento y de la hipótesis de movimiento de la iteración en curso, comprendiendo dichos datos modelo al menos un gradiente de la función de semejanza modelo, representativo de la variación, en la proximidad de esa hipótesis de movimiento, de la semejanza entre la hipótesis de movimiento de la iteración en curso y el modelo temporal de movimiento,
    10 -(203) actualización de la hipótesis de movimiento para la siguiente iteración, en función de los datos modelo.
  9. 9. Procedimiento según una de las reivindicaciones 6 a 8, en el que la función de semejanza imagen, la función de semejanza externa y la función de semejanza modelo son optimizadas conjuntamente, acumulando la función global dicha función de semejanza imagen, dicha función de semejanza externa y dicha función de
    15 semejanza modelo.
  10. 10.
    Procedimiento según una de las reivindicaciones 5 a 9, en el que el modelo temporal de movimiento es un modelo de movimiento paramétrico.
  11. 11.
    Procedimiento según la reivindicación 10, en el que el modelo de movimiento paramétrico es un modelo cuyas funciones base son del tipo polinomios, u ondículas, o sinusoides, o splines.
    20 12. Procedimiento según una de las reivindicaciones 5 a 9, en el que el modelo temporal de movimiento es un modelo de movimiento probabilístico.
  12. 13. Procedimiento según la reivindicación 12, en el que el modelo de movimiento probabilístico es un modelo de tipo autorregresivo.
ES10777008T 2009-11-19 2010-11-12 Procedimiento de estimación del movimiento de un instrumento de observación por pasada que sobrevuela un cuerpo celeste Active ES2434795T3 (es)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
FR0958195A FR2952743A3 (fr) 2009-11-19 2009-11-19 Procede d'estimation du mouvement d'un instrument d'observation a defilement survolant un corps celeste
FR0958195 2009-11-19
FR1053632 2010-05-10
FR1053632A FR2952744B1 (fr) 2009-11-19 2010-05-10 Procede d'estimation du mouvement d'un instrument d'observation a defilement survolant un corps celeste
PCT/EP2010/067353 WO2011061123A1 (fr) 2009-11-19 2010-11-12 Procede d'estimation du mouvement d'un instrument d'observation à defilement survolant un corps celeste

Publications (1)

Publication Number Publication Date
ES2434795T3 true ES2434795T3 (es) 2013-12-17

Family

ID=42983561

Family Applications (1)

Application Number Title Priority Date Filing Date
ES10777008T Active ES2434795T3 (es) 2009-11-19 2010-11-12 Procedimiento de estimación del movimiento de un instrumento de observación por pasada que sobrevuela un cuerpo celeste

Country Status (5)

Country Link
US (1) US9135716B2 (es)
EP (1) EP2502202B1 (es)
ES (1) ES2434795T3 (es)
FR (2) FR2952743A3 (es)
WO (1) WO2011061123A1 (es)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011004675A1 (de) 2011-02-24 2012-08-30 Evonik Oxeno Gmbh C11 bis C13 Dialkylester der Furandicarbonsäure
US9031354B2 (en) * 2011-03-31 2015-05-12 Raytheon Company System and method for post-detection artifact reduction and removal from images
FR2976699B1 (fr) * 2011-06-15 2013-06-28 Centre Nat Etd Spatiales Procede de restitution d'attitude par l'image exploitant l'inclinaison d'une barrette de detecteurs
FR2998363B1 (fr) * 2012-11-19 2015-01-02 Inria Inst Nat Rech Informatique & Automatique Procede de determination, dans un referentiel fixe 3d, de la localisation d'un engin en mouvement, dispositif et programme d'ordinateur associes
US9903719B2 (en) * 2013-09-03 2018-02-27 Litel Instruments System and method for advanced navigation
CN103871075B (zh) * 2013-12-30 2015-11-18 华中科技大学 一种大椭圆遥感卫星地球背景相对运动估计方法
FR3026591B1 (fr) * 2014-09-25 2016-10-21 Continental Automotive France Procede de calibration extrinseque de cameras d'un systeme de formation d'images stereos embarque
FR3044101B1 (fr) * 2015-11-20 2020-04-24 Thales Procede d'acquisition d'images d'une scene, a partir d'un capteur a bord d'un porteur en deplacement, avec asservissement de sa ligne de visee
FR3107953B1 (fr) * 2020-03-03 2022-03-11 Airbus Defence & Space Sas Procédé d’acquisition d’images d’une zone terrestre par un engin spatial

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008263251A (ja) * 2005-08-05 2008-10-30 Matsushita Electric Ind Co Ltd 監視カメラ装置
FR2899344B1 (fr) * 2006-04-03 2008-08-15 Eads Astrium Sas Soc Par Actio Procede de restitution de mouvements de la ligne de visee d'un instrument optique

Also Published As

Publication number Publication date
US9135716B2 (en) 2015-09-15
US20120308084A1 (en) 2012-12-06
EP2502202B1 (fr) 2013-08-14
FR2952744B1 (fr) 2013-07-05
WO2011061123A1 (fr) 2011-05-26
FR2952743A3 (fr) 2011-05-20
EP2502202A1 (fr) 2012-09-26
FR2952744A1 (fr) 2011-05-20

Similar Documents

Publication Publication Date Title
ES2434795T3 (es) Procedimiento de estimación del movimiento de un instrumento de observación por pasada que sobrevuela un cuerpo celeste
EP3631494B1 (en) Integrated sensor calibration in natural scenes
Grodecki et al. IKONOS geometric accuracy
US10274958B2 (en) Method for vision-aided navigation for unmanned vehicles
US9702702B1 (en) Methods and apparatus for navigational aiding using celestial object tracking
ES2625107T3 (es) Navegación asistida por punto de referencia de precisión
Panahandeh et al. Vision-aided inertial navigation based on ground plane feature detection
US9903719B2 (en) System and method for advanced navigation
ES2834997T3 (es) Un procedimiento y sistema para estimar información relacionada con el ángulo de cabeceo y/o alabeo de un vehículo
ES2731451T3 (es) Método y sistema para la referencia geométrica de datos multi-espectrales
ES2891127T3 (es) Procedimiento de estimación del movimiento de un portador con respecto a un entorno y dispositivo de cálculo para sistema de navegación
Iwasaki et al. ASTER geometric performance
Burman Calibration and orientation of airborne image and laser scanner data using GPS and INS
Caballero et al. Unmanned aerial vehicle localization based on monocular vision and online mosaicking: a new mapping framework
Poli A rigorous model for spaceborne linear array sensors
Johnson et al. Design and analysis of map relative localization for access to hazardous landing sites on mars
CN109596121A (zh) 一种机动站自动目标检测与空间定位方法
US9383210B2 (en) Image navigation and registration (INR) transfer from exquisite systems to hosted space payloads
CN108917753A (zh) 基于从运动恢复结构的飞行器位置确定方法
Dobrinić et al. Horizontal accuracy assessment of PlanetScope, RapidEye and Worldview-2 satellite imagery
GB2527997A (en) Registration of SAR images by mutual information
KR20210034253A (ko) 위치 추정 장치 및 방법
Khlopenkov et al. Achieving subpixel georeferencing accuracy in the Canadian AVHRR processing system
US11530919B1 (en) Methods for navigating aided by artificial stars and devices thereof
Eastman et al. Research issues in image registration for remote sensing