ES2252574T3 - Procedimiento para la deteccion asi como para la estimacion de velocidad y posicion de objetos moviles en imagenes sar. - Google Patents

Procedimiento para la deteccion asi como para la estimacion de velocidad y posicion de objetos moviles en imagenes sar.

Info

Publication number
ES2252574T3
ES2252574T3 ES03008673T ES03008673T ES2252574T3 ES 2252574 T3 ES2252574 T3 ES 2252574T3 ES 03008673 T ES03008673 T ES 03008673T ES 03008673 T ES03008673 T ES 03008673T ES 2252574 T3 ES2252574 T3 ES 2252574T3
Authority
ES
Spain
Prior art keywords
candidate
images
estimated
speed
sar images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES03008673T
Other languages
English (en)
Inventor
Martin Kirscht
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airbus Defence and Space GmbH
Original Assignee
EADS Deutschland GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EADS Deutschland GmbH filed Critical EADS Deutschland GmbH
Application granted granted Critical
Publication of ES2252574T3 publication Critical patent/ES2252574T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9021SAR image post-processing techniques
    • G01S13/9029SAR image post-processing techniques specially adapted for moving target detection within a single SAR image or within multiple SAR images taken at the same time

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Measuring Or Testing Involving Enzymes Or Micro-Organisms (AREA)

Abstract

Procedimiento para la detección así como para la estimación de velocidad y posición de objetos móviles en imágenes SAR, que comprende los siguientes pasos de procedimiento: - generación de una secuencia de imágenes SAR de vista única consecutivas en el tiempo, de igual polarización y de una frecuencia central de vista que varía de imagen a imagen; - detección de candidatos a objetos móviles en las imágenes SAR de vista única de la secuencia mediante búsqueda de regiones con una evolución de la intensidad que se desvía respecto al entorno; - estimación de velocidad de los candidatos detectados mediante estimación de uno o más vectores desplazamiento respectivamente de un candidato empleando la correlación entre imágenes SAR de vista única consecutivas; - verificación de los candidatos detectados como objetos móviles, caracterizado porque la estimación de una o más componentes de velocidad de un candidato detectado se produce conjuntamente con la estimación de una o más componentes de posición del candidato, en que teniendo en cuenta las posiciones del candidato en las distintas imágenes SAR de vista única de la secuencia se establece una función de coste dependiente de las componentes a estimar, la cual es minimizada mediante un método de optimización para el o los parámetros a estimar.

Description

Procedimiento para la detección así como para la estimación de velocidad y posición de objetos móviles en imágenes SAR.
La invención se refiere a un procedimiento para la detección así como para la estimación de velocidad y posición de objetos móviles conforme al preámbulo de la reivindicación 1.
Estado de la técnica
Al obtener imágenes a partir de datos SAR (del inglés "Synthetic Aperture Radar", radar de apertura sintética) en bruto, se producen por principio errores de reproducción, cuando se encuentran objetos móviles (por ejemplo vehículos, también denominados objetivos móviles) en la escena. En función de la dirección de movimiento de los objetos hay tres efectos esenciales [1]:
-
En caso de movimiento del objeto en la dirección azimutal (dirección de vuelo) se modifica la frecuencia Doppler adicional, que resulta en un desplazamiento del objeto en dirección azimutal positiva o negativa, es decir en respectivamente de forma opuesta a la dirección de movimiento de la antena de radar. Este movimiento va acompañado de una componente de velocidad en la dirección en profundidad (también dirección de separación o dirección perpendicular a la trayectoria), de forma que esta componente de velocidad se denomina sencillamente velocidad en profundidad.
-
Para una velocidad en profundidad grande desaparece el objeto en la imagen SAR.
-
En caso de movimiento del objeto en la dirección azimutal (dirección de vuelo) se modifica la frecuencia Dopppler, con lo que el objeto queda formado en la dirección azimutal en la imagen SAR. En este caso existe por lo tanto una componente azimutal (componente a lo largo de la trayectoria) de la velocidad del objeto, que se denomina brevemente velocidad azimutal.
Otros efectos se producen en caso de aceleración del objeto móvil, que sin embargo no serán considerados aquí más detalladamente. Para eliminar los errores de reproducción descritos, es necesario detectar los objetos móviles y estimar su velocidad y posición. Es ventajosa además la estimación de la forma de los objetos.
Para la detección de objetos estáticos en imágenes SAR es conocido a partir de la bibliografía un procedimiento que aprovecha para la detección la matriz de covarianzas entre los puntos de imagen de imágenes de diferente polarización [2]. Imágenes de diferentes polarizaciones no están sin embargo siempre a disposición.
La mayoría de los procedimientos conocidos a partir de la bibliografía para la estimación de movimiento de objetos móviles (MTI, del inglés "Moving Target Indication", indicación de objetivos móviles) trabajan con datos SAR comprimidos en profundidad, que son transformados bien al dominio de frecuencias Doppler (por ejemplo [3], [4]), o a un plano de tiempo-frecuencia [5]. Estos procedimientos no están en disposición de detectar objetos móviles, que se mueven exclusivamente en la dirección azimutal, ya que tales objetos son eliminados por filtrado junto con los datos de fondo (datos de eco parásito). Además se necesita en estos procedimientos una frecuencia de repetición de impulsos (PRF, del inglés "Pulse Repetition Frequency"), que es mucho mayor que la anchura de banda Doppler del fondo inmóvil (anchura de banda de eco parásito) y por ello trae consigo limitaciones con respecto al sistema SAR empleable. Finalmente, con este procedimiento resultan parcialmente imprecisiones de estimación
grandes.
En el documento DE 44 23 899 C1 y [6] se propone además un procedimiento para la detección, localización y estimación de velocidad de objetivos móviles a partir de datos SAR en bruto, que opera en el dominio de frecuencias. Aquí se aprovecha la correlación entre dos espectros azimutales formados de modo inmediatamente consecutivo en el tiempo. Este procedimiento está en disposición de estimar la velocidad azimutal de objetos móviles, pero tiene desventajas con vistas a la representación de las trayectorias de movimiento de los objetos móviles. En particular no es posible una asignación directa de los valores de velocidad obtenidos a los objetos móviles en la imagen SAR. Además se detectan sólo objetos cuya velocidad azimutal sea mayor de 22 km/h. La velocidad en profundidad sólo se estima de forma muy gruesa.
En el documento DE 196 18 155 C2 así como [7] se expone un procedimiento que aprovecha la correlación temporal en una secuencia de imágenes SAR de vista única (imágenes SL, del inglés "Single-Look") para la detección y estimación de velocidad de objetos móviles. Esta secuencia se genera primeramente a partir de datos comprimidos en profundidad empleando el espectro Doppler total que está a disposición. Tras la generación de la secuencia se produce una detección de candidatos para objetos móviles en las imágenes SAR de vista única mediante búsqueda de regiones con una evolución de intensidad que se desvía respecto al entorno. La estimación de velocidad subsiguiente del candidato detectado se produce mediante estimación del vector desplazamiento de un candidato empleando la correlación entre imágenes SAR de vista única consecutivas.
Con el procedimiento conocido a partir del documento DE 196 18 155 C2 sin embargo no es posible detectar objetos que se mueven exclusivamente en la dirección en profundidad. Otra desventaja es que el intervalo de medida de la velocidad en profundidad está limitado por la frecuencia PRF prefijada por el sistema. Más allá de ello, en el documento DE 196 18 155 C2 no se describe ninguna estimación de la posición del objeto móvil.
Constituye con ello la tarea de la invención proporcionar un procedimiento con el que sea posible una detección independiente de la dirección de movimiento de los objetos con un intervalo de medida ampliado de la velocidad, así como una estimación de la posición.
Esta tarea se resuelve con el procedimiento según la reivindicación 1. Realizaciones ventajosas de la invención son objeto de otras reivindicaciones.
Conforme a la invención, la estimación de una o más componentes de velocidad de un candidato detectado se produce conjuntamente con la estimación de una o más componentes de posición del candidato, en que teniendo en cuenta las posiciones del candidato en las distintas imágenes SAR de vista única de la secuencia se establece una función de coste dependiente de los parámetros a estimar, la cual se minimiza mediante un método de optimización.
Para el procedimiento conforme a la invención se presuponen simplemente datos de un sistema SAR convencional, es decir de un sistema con una polarización, una frecuencia de portadora y un canal. Con el procedimiento conforme a la invención pueden detectarse objetos que se mueven arbitrariamente sobre la superficie terrestre y estimarse con buena precisión sus velocidades azimutal y en profundidad así como su posición. Este procedimiento trabaja con una frecuencia PRF que sólo es insignificantemente mayor que la anchura de banda de eco parásito.
Con el procedimiento conforme a la invención es posible una compensación de errores de reproducción, es decir una compensación de todos los tres efectos citados, y con ello es posible una representación sin deformaciones de los objetos móviles. Los resultados del procedimiento conforme a la invención pueden verse mediante representación de las imágenes SL como secuencia de imágenes en movimiento con fondo en reposo y objetos marcados que se mueven.
Ejemplos de realización concretos del procedimiento conforme a la invención se explican a continuación, en parte teniendo en cuenta las figuras 1 hasta 11. Las figuras muestran:
la figura 1 la generación de una secuencia de imágenes SAR de vista única a) con representación de la hipérbola de migración en profundidad de un objeto estático en el plano profundidad-Doppler antes de la corrección de migración en profundidad (abajo) y b) tras la corrección de migración en profundidad
la figura 2 la medida de un vector desplazamiento a partir de una pareja de imágenes de la secuencia (encaje de bloques)
la figura 3 la relación entre la velocidad azimutal v_{Mx,a} a observar en las imágenes SL y la velocidad real v_{Mx} en la dirección azimutal sin tener en cuenta perturbaciones
la figura 4 el modelo de observaciones para la estimación independiente de la velocidad azimutal. Se miden las componentes v_{Mx,m}{}^{(k)} perturbadas por ruido existentes a la salida
la figura 5 un modelo de observación para la estimación independiente de la velocidad en profundidad
la figura 6 espectros Doppler para respectivamente un objeto móvil y uno estático; el movimiento del objeto en la dirección en profundidad y el desplazamiento Doppler f_{M} que resulta de ello es tan grande que se produce solapamiento de frecuencias (en inglés "aliasing") en el espectro Doppler (la frecuencia de exploración es la frecuencia PRF f_{p}); a) Caso a=1 ó 0 (velocidad en profundidad positiva); b) Caso a=-1 ó 0 (velocidad en profundidad negativa);
la figura 7 una comparación de los intervalos de detección y medida de la velocidad de objetos para diversos procedimientos (con relación a parámetros DOSAR, un canal, banda C)
la figura 8 resultados de estimación para velocidad azimutal y en profundidad; está representada respectivamente la desviación estándar del error de estimación
la figura 9 resultados de estimación para posición azimutal y en profundidad; está representada respectivamente la desviación estándar del error de estimación;
la figura 10a) la imagen SAR de vista única nº 17 de una secuencia de imágenes SAR generada, que consta de 30 imágenes; frecuencia central de vista de 75 Hz; los objetos móviles aparecen deformados (sobre todo el objeto inferior) y han desaparecido más allá de la carretera o parcialmente de forma total;
la figura 10b) una imagen SAR de vista única compensada de la secuencia de imágenes SAR compensada. La dirección de movimiento estimada de los objetos móviles detectados está caracterizada por una flecha.
la figura 11a) una imagen de vistas múltiples de un procesador SAR convencional. Los objetos móviles aparecen deformados y desplazados en la dirección azimutal. Parcialmente han desaparecido;
la figura 11b) una imagen de vistas múltiples compensada. Los objetos móviles aparecen sin deformar en la posición de referencia estimada. Se indican respectivamente la dirección de movimiento y las componentes de velocidad estimadas.
Generación de una secuencia de imágenes SAR
La secuencia de imágenes SAR se genera a partir de datos SAR de un sistema SAR convencional (es decir de un canal) y consta de imágenes SAR de vista única (imágenes SL) consecutivas en el tiempo. Por una imagen SL se entiende una imagen que es procesada empleando una banda parcial de un espectro Doppler, es decir una vista de una determinada anchura de banda de vista, sin promediado y por ello con una resolución azimutal máxima -referida a la anchura de banda de vista-. Para la generación de la secuencia de imágenes SL los datos SAR comprimidos en profundidad son transmitidos primeramente con ayuda de una transformada de Fourier en la dirección azimutal al dominio de frecuencias Doppler. El espectro Doppler completo obtenido de este modo es dividido en bandas solapadas con una anchura de banda de vista respectivamente igual, y se genera una imagen SL por banda (véase la figura 1a). En la figura 1, la frecuencia Doppler está designada por f_{D} y la frecuencia PRF por f_{p}. Las imágenes muestran la superficie terrestre entonces desde diferentes ángulos de visión (horizontales)\theta^{(k)}, que a su vez dependen como sigue de las frecuencias centrales de banda o frecuencias centrales de vista f^{(k)}
(1)\theta^{(k)} = -arcsen\frac{f^{(k)}\lambda}{2v_{Ax}}
Aquí, k representa el número de la imagen SL, v_{Ax} la velocidad de la antena, que está orientada exactamente en la dirección azimutal x, y \lambda la longitud de onda de la portadora. Mediante los diferentes ángulos de visión de las distintas imágenes se obtienen al mismo tiempo vistas en momentos diferentes, y por ello las imágenes se pueden unir formando una secuencia. Los instantes t^{(k)}, referidos a objetos estáticos (índice T, del inglés "target") con una posición azimutal en el centro de la escena (x=0), resultan en
(2)t^{(k)}(R_{T,0}) = \frac{R_{T,0} \cdot tan\theta^{(k)}}{v_{Ax}} \approx - \frac{R_{T,0} \ f^{(k)}\lambda}{2v^{2}{}_{Ax}} \ con \ f^{(k)} = \frac{-2v_{Ax} \ sen\theta^{(k)}}{\lambda}
Aquí, R_{T,}_{0} es la distancia más corta entre la antena y el objeto estático. La anchura de banda de vista se ajusta al intervalo de velocidad a medir. Debe tenerse en cuenta que es como máximo tan grande que los objetos más rápidos en la imagen aún puedan reconocerse aproximadamente como puntuales. Además, debe ser como mínimo tan grande que aún se alcance la resolución necesaria.
Las imágenes de la secuencia fueron sometidas a una corrección de profundidad de suelo y una corrección de migración en profundidad. La corrección de migración en profundidad se lleva a cabo aquí mediante un desplazamiento de las imágenes en la dirección en profundidad y correspondientemente a la distancia, dependiente del respectivo ángulo de visión, entre la antena y los objetos sobre la superficie terrestre (véase la figura 1 a)/b)). Las ventajas de este método frente a los usuales [8] consisten en una ganancia de tiempo de cálculo y una mayor facilidad de manejo durante la estimación de la velocidad en profundidad. Mediante este tratamiento se consigue que el fondo en reposo aparezca en las mismas posiciones en las distintas imágenes de la secuencia y simplemente se modifiquen las posiciones de los objetos móviles de imagen SL a imagen SL.
Detección de candidatos a objetos móviles
Tras la generación de la secuencia se produce una selección de candidatos a objetos móviles en cada imagen SL individual de la secuencia. Como criterio para la detección como candidato vale un patrón aproximadamente puntual o elipsoidal (este último aparecería cuando exista velocidad azimutal). La búsqueda de candidatos se empieza en puntos de imagen (píxeles) con máxima intensidad, es decir en puntos con coeficiente de retrodispersión máximo (RCS, del inglés "Radar Cross Section", sección transversal de radar). El píxel de inicio y los píxeles circundantes son escogidos como candidato cuando se satisfacen los siguientes criterios:
-
el píxel más brillante del candidato tiene una intensidad superior a un umbral dependiente de la intensidad global de la imagen,
-
el número de píxeles pertenecientes a un candidato está situado entre un valor mínimo y un valor máximo; el valor máximo depende aquí de la longitud de la forma del objeto visible en la imagen en la dirección azimutal y puede escogerse como consecuencia de ello de forma correspondiente a la velocidad máxima a detectar,
-
la intensidad media de los píxeles de un candidato es considerablemente superior a la intensidad media de las inmediaciones,
-
el píxel de un candidato forma una zona cerrada,
-
ningún píxel del candidato que acaba de ser considerado toca un píxel de otro candidato ya detectado.
Tras la comprobación exitosa de estos criterios, el candidato ha sido detectado exitosamente en la correspondiente imagen SL. Los píxeles del candidato, que satisfacen las condiciones anteriormente citadas, forman en una realización ventajosa de la invención una así denominada forma inicial S^{(k)}_{M,0} (índice M del inglés "Moving target", objetivo móvil) del candidato en la imagen SL k.
Tras la comprobación de estos criterios para un píxel inicial se repiten los mismos pasos para los restantes píxeles de inicio con igual intensidad y a continuación se repiten para aquéllos con menor intensidad, hasta que se alcanza un valor umbral de intensidad.
Tras la evaluación de la primera imagen SL k = 1 se evalúan también las restantes imágenes SL, de forma que se obtienen para cada imagen SL candidatos y formas iniciales asociadas. En el siguiente paso, los candidatos obtenidos en las distintas imágenes SL son asociados entre sí, es decir se intenta seguir a un candidato tras la primera detección en la imagen k_{0}, con ayuda de los vectores desplazamiento estimados en la siguiente sección, a través de las imágenes SL k (en inglés "tracking", seguimiento, véase la siguiente sección). En caso de un seguimiento exitoso también las distintas formas iniciales S^{(k)}_{M,0} de las diferentes imágenes SL k son asociadas al respectivo candidato.
Estimación de velocidad y posición
La estimación de velocidad y posición se produce para cada candidato en varios pasos:
-
Medida de los vectores desplazamiento (en ingles "displacement vectors") entre respectivamente dos imágenes SL consecutivas de la secuencia
-
Estimación independiente de la velocidad azimutal con un modelo de observación para las posiciones azimutales y un estimador de máxima verosimilitud
-
Estimación independiente de la velocidad en profundidad con un modelo de observación para las posiciones en profundidad y un estimador de máxima verosimilitud
-
Estimación conjunta de velocidad y posición mediante un modelo de observación ampliado para posiciones empleando los primeros valores estimados como valores iniciales, en que en una realización ventajosa de la invención se tiene en cuenta otro parámetro para la compensación del solapamiento de frecuencias en el espectro Doppler.
En una realización ventajosa de la invención, en el modelo de observación para la estimación conjunta de velocidad y posición se tienen en cuenta, además de las posiciones de los candidatos en las distintas imágenes SL, también las amplitudes de los candidatos en las respectivas imágenes SL.
Medida de los vectores desplazamiento
Los vectores desplazamiento para un candidato son medidos entre respectivamente dos imágenes consecutivas s_{k} y s_{k+1} de la secuencia. Para ello puede emplearse un algoritmo de encaje de bloques, tal como es conocido por ejemplo a partir de la telefonía con imagen [9]. En este algoritmo, en vez del candidato se coloca una ventana en la imagen s_{k+1}, de forma que el candidato está situado en el punto central (véase la figura 2). Entonces, en la imagen s_{k} y partiendo de la misma posición se desplaza una segunda ventana dentro de una determinada zona de búsqueda hasta el momento en que alcanza la posición, en la que los valores de amplitud de los píxeles en ambas ventanas tienen la máxima correlación. Se supone que la diferencia de posición entre ambas ventanas corresponde al vector desplazamiento del candidato entre ambas imágenes. Este vector desplazamiento se asocia a la imagen s_{k+1}, de forma que para la primera imagen de la secuencia no existe ningún vector desplazamiento. Para la medida de la correlación pueden emplearse diferentes criterios de encaje, tal como por ejemplo el coeficiente de correlación cruzada normalidad (NCCF, del inglés "Normalised Cross Correlation Function"), el error cuadrático medio (MSE, del inglés "Mean Square Error") o la diferencia absoluta media (MAD, del inglés "Mean Absolute Difference"). El criterio NCCF produce los mejores resultados, pero con vistas a un tiempo de cálculo más corto puede emplearse también el criterio MSE, que proporciona resultados casi igual de buenos. El criterio NCCF se define como
(3)C_{Ns_{k+1^{s}k}}(D_{X},D_{y}) = \frac{\sum\limits_{x,y}[s_{k+1}(x,y)\cdot s_{k}(x-D_{x},y-D_{y})]}{\sqrt{\sum\limits_{x,y}s^{2}_{k+1}(x,y)\cdot\sum\limits_{x,y}s^{2}_{k}(x-D_{x},y-D_{y})}}
en que (x, y) es una de las posiciones dentro de la ventana en la imagen s_{k+1}, y D_{x} y D_{y} designan las diferencias de posición entre ambas ventanas. El vector desplazamiento de la primera pareja de imágenes k_{0}, k_{0}+1 se emplea para seguir al candidato en la imagen k_{0}+2, ya que se espera que la dirección de movimiento del candidato sólo se modifique de forma no esencial de imagen a imagen. Así es posible seguir al candidato también a través de las otras imágenes de la secuencia hasta la imagen k_{0}+K_{M}-1, es decir la última imagen en la que el candidato fue detectado sobre la base de sus valores de amplitud. K_{M} es con ello el número total de imágenes en las fue detectado el candidato.
Estimación de la velocidad azimutal
A partir del vector desplazamiento en la unidad [píxel/imagen] \overline{D}^{(k)} = (D_{x},D_{y})^{(k)} puede calcularse la velocidad observada en [m/s], teniendo en cuenta la distancia entre puntos de imagen \deltax (en inglés "pixel spacing"), que se supone igual en la dirección azimutal y en profundidad, y la diferencia de tiempo \Deltat entre dos imágenes consecutivas, como sigue
(4)\overline{v}_{M,m} = \frac{\overline{D}^{(k)}\delta x}{\Delta t}
La diferencia de tiempo \Deltat resulta empleando (2) y la distancia mínima R_{M,0} entre la antena y el candidato móvil considerado
(5)\Delta t \approx \frac{\Delta\theta \ R_{M,0}}{v_{Ax}} \approx - \frac{\Delta f_{k} \ \lambda \ R_{M,0}}{2v^{2}_{Ax}} \ para \ sen\theta \approx \theta \approx tan\theta
en que \Delta \theta es la diferencia de ángulo y \Deltaf_{k} es la diferencia de las frecuencias centrales de vista entre dos imágenes consecutivas. El tiempo t por lo tanto no es igual en todos lados en la imagen, sino que depende de la distancia en profundidad.
La velocidad observada \overline{v}_{M,m} no coincide por diferentes motivos con la verdadera velocidad:
-
en la dirección azimutal por compresión o expansión del espectro, combinada con tiempos de observación de los objetos móviles en las imágenes SL que se apartan de los de los objetos estáticos
-
en la dirección en profundidad por la corrección de migración en profundidad
Más allá de ello hay un desplazamiento en el tiempo de aquellos objetos móviles que se mueven en la dirección en profundidad. Este desplazamiento en el tiempo es debido al desplazamiento Doppler adicional
(6)f_{m} = - \frac{2v_{My} \ sen\eta}{\lambda}
en que \eta es el ángulo de visión (corresponde 90º - ángulo de incidencia) y resulta ser (véase (2))
(7)\Delta t_{M} = - \frac{f_{M} \ \lambda \ R_{M,0}}{2v^{2}_{Ax}} = \frac{v_{My}\ sen\eta\cdot R_{M,0}}{v^{2}_{Ax}}
A partir de este desplazamiento en el tiempo resulta una reproducción de tales objetos en otras imágenes distintas a las imágenes SL esperadas.
En lo que sigue se analizan separadamente en primer lugar ambas componentes de la velocidad a observar y con ello la desviación de las magnitudes observadas respecto a las magnitudes reales.
En la dirección azimutal, los falseamientos de la velocidad se explican mediante el hecho de que las posiciones azimutales de los objetos móviles no coinciden con las posiciones reales. Ouchi [10] ha mostrado que los objetos móviles en las imágenes SL aparecen en posiciones azimutales tales como si tuvieran una velocidad el doble de grande respecto a la real. Ouchi ha empleado aquí sin embargo la aproximación v_{Mx}/v_{Ax} << 1, que no se cumple en el caso de plataformas portadoras lentas y objetos rápidos. Aquí se deriva por ello un factor más preciso m_{v_{Mx}} como cociente entre la componente de velocidad v_{Mx,a} a observar derivada analíticamente y la componente real de velocidad v_{Mx}, que es válido sin esta aproximación y parte de las posiciones azimutales p_{Mx} a observar del objeto móvil:
(8)m_{v_{Mx}} = \frac{v_{Mx,a}}{v_{Mx}} = \frac{p_{Mx}}{v_{Mx}t}
Como el comportamiento de los objetos móviles es prácticamente independiente de la posición azimutal, la posición azimutal puede igualarse sin limitación de generalidad en el instante temporal t=0 a p_{Mx,0}=p_{Mx}(t=0)=0. En (5) puede ponerse entonces \Deltat=t y \Deltaf_{k}=f_{D}, es decir el desplazamiento Doppler resultante. Si se designa la posición azimutal de la antena por p_{Ax}, es válido aplicando (1) y (2)
(9)m_{v_{Mx}} \approx - \frac{1}{v_{Mx}} \cdot \frac{p_{Ax} + R_{M,0} \ tan\left(arcsen\frac{f_{D}\lambda}{2v_{Ax}}\right)}{\frac{f_{D} \ \lambda \ R_{M,0}}{2v^{2}_{Ax}}}
Si se realiza nuevamente la aproximación sen \theta \approx \theta \approx tan\theta, se puede modificar esto con
(10)f_{D} = - \frac{2(v_{Ax} - v_{Mx})}{\lambda}\cdot sen\theta
y p_{Ax} = v_{Ax}t obteniendo
(11)m_{v_{Mx}} = \frac{v_{Mx,a}}{v_{Mx}} \approx - \frac{v_{Ax}}{v_{Mx}} \cdot \left(1 -\frac{v^{2}_{Ax}}{(v_{Ax} - v_{Mx}}^{2}\right)
De ello resulta para la velocidad real subyacente
(12)v_{Mx} = f^{1}(v_{Mx,a}) = v_{Ax} - \sqrt{\frac{v^{3}_{Ax}}{v_{Mx,a}+v_{Ax}}} \ para \ v_{Mx,a}>-v_{Ax}
Esta relación se representa gráficamente en la figura 3 para v_{Ax} = 82,5 m/s = 297 km/h. Se observa que esta relación coincide con el factor 2 hallado por Ouchi para velocidades v_{Mx} pequeñas. Si se supone que los vectores desplazamiento reproducen los desplazamientos reales del candidato de la imagen k-1 a la imagen k, es decir no están perturbados, la inversa de la ecuación (12) representa entonces una relación entre la velocidad v_{Mx} real y la velocidad medida mediante los vectores desplazamiento. Con la ecuación (4) resulta por ello a partir de (12) un primer valor estimado para la velocidad v_{Mx} en la imagen k en función de la componente de vector desplazamiento D^{(k)}_{x}
(13)\hat{v}^{(k)}_{Mx,1} = v_{Ax} \cdot \left[1-\frac{1}{\sqrt{1-\frac{2D^{(k)}_{x} \ \delta xv_{Ax}}{\Delta f_{k} \ \lambda \ R_{M,0}}}}\right] \ para \ v_{Mx,a}>-v_{Ax}
Habitualmente las magnitudes observadas, es decir en este caso los vectores desplazamiento, no están sin embargo sin perturbar. En un modelo de observación puede suponerse que todas las perturbaciones tomadas conjuntamente pueden representarse mediante un ruido n^{(k)} aditivo distribuido normalmente (véase la figura 4). Partiendo de este modelo de observación, es apropiado el denominado procedimiento de estimación de máxima verosimilitud para obtener un valor estimado óptimo. En este procedimiento de estimación no es necesario ningún conocimiento a priori sobre la densidad de probabilidad de la magnitud a estimar [11]. Con la regla de estimación de máxima verosimilitud se obtiene aquel valor v_{Mx} como valor estimado \hat{v}_{Mx,Ml}, del cual han resultado los valores v^{(k)}_{Mx,m} con la máxima probabilidad:
\hskip3.5cm
\hat{v}_{Mx,ML} = arg \ max \left(p_{v_{Mx,m}}|v_{Mx}\left(v_{Mx,m}{}^{(k_0)},...,v_{Mx,m}{}^{(k_0+k_M-1)}|v_{Mx}\right)\right) \hskip3.2cm (14) {}\hskip5.7cm ^{v_{Mx}}
Suponiendo una independencia estadística de las perturbaciones en imágenes contiguas resulta una densidad de probabilidad conjunta condicionada en la ecuación (14) como producto de distribuciones normales. Tras sustituir esta densidad de probabilidad conjunta, debe derivarse e igualarse a cero la ecuación (14) para la obtención del valor estimado. Se puede obtener más fácilmente el valor estimado de máxima verosimilitud mediante la derivación del logaritmo negativo de la densidad de probabilidad conjunta, la denominada función de coste ML (del inglés "Maximum Likelihood", máxima verosimilitud). Con la relación de la ecuación (12) resulta de ello un valor estimado para la velocidad azimutal de
(15)\hat{v}_{Mx,ML} = f^{-1}\left[\frac{1}{K_{M}}\sum\limits^{k_{0}+K_{M}-1}_{k=k_{0}}v^{(k)}_{Mx,m}\right].
Tras sustituir las ecuaciones (4) y (2) resulta finalmente el valor estimado de máxima verosimilitud (ML) en función de las componentes de vector desplazamiento D_{(k)}^{x}
(16)\hat{v}_{Mx,ML} = f^{-1}\left[\frac{1}{K_{M}}\sum\limits^{k_{0}+K_{M}-1}_{k=k_{0}} \frac{2D^{(k)}_{x}\delta xv_{Ax}{}^{2}{}}{\Delta f_{k} \ \lambda R_{m,0}}\right].
Estimación de la velocidad en profundidad
Como ya se ha citado, la componente de velocidad en la dirección en profundidad v_{My,m} obtenida a partir de los vectores desplazamiento está igualmente falseada, pero de modo distinto a la componente azimutal. En la velocidad en profundidad, el falseamiento se basa en que las posiciones en profundidad de aquellos objetos cuya velocidad en profundidad es distinta de cero, están desplazadas por la corrección de migración en profundidad. Aún así, con ayuda de los vectores desplazamiento puede obtenerse un primer valor estimado para la velocidad en profundidad. Aquí, las componentes en profundidad de los vectores desplazamiento deben ser corregidas en cuanto a las diferencias de posición \Deltay^{(k)}_{T} entre respectivamente dos imágenes SL consecutivas provocadas por la corrección de migración en profundidad. Un valor estimado de máxima verosimilitud para la velocidad en profundidad se obtiene con ello análogamente a la velocidad azimutal con el modelo de observación conforme a la figura 5
(17)\hat{v}_{Mx,ML} = \frac{2v^{2}_{Ax}\delta y}{\Delta f_{k} \ \lambda R_{m,0} \ K_{M}}\left[\left(- \sum\limits^{k_{0}+K_{M}-1}_{k=k_{0}} D^{(k)}_{y} \right) + \Delta y_{T}^{(k_{0}-1)}(R_{M,0}) - \Delta y_{T}^{(k_{0}+K_{M}-1)}(R_{M,0})\right],
en que la distancia entre píxeles en la dirección en profundidad se designa por \deltay. Los términos ahí contenidos de la corrección de migración en profundidad resultan en
(18)\Delta y^{(k)}_{T}(R_{m,0}) = \left(\sqrt{(t^{(k)}(R_{M,0}) \cdot v_{Ax})^{2} + R^{2}_{M,0}} - R_{M,0}\right)\cdot\frac{sen\eta}{\delta y}
Aquí, t^{(k)}(R) es el tiempo de la ecuación (2) y \eta es el ángulo de visión (corresponde 90º-ángulo de incidencia).
El valor estimado según la ecuación (17) es relativamente impreciso, ya que los desplazamientos en posición de la corrección de migración en profundidad son casi tan grandes como los del propio movimiento del objeto. Una estimación más precisa de estas componentes se lleva a cabo por ello conjuntamente con la componente azimutal y la posición en un segundo paso. En una realización ventajosa de la invención es posible aumentar aún más la precisión teniendo en cuenta los valores de amplitud en las distintas imágenes SL.
Estimación conjunta de velocidad y posición
La estimación conjunta de velocidad y posición es una novedad esencial respecto al documento DE 196 18 155 C2. Hace posible la detección prácticamente independiente de la dirección de movimiento de los objetos y el aumento de los intervalos de medida para ambas componentes de velocidad. Más allá de ello se realiza de este modo una estimación de posición muy precisa -para sistemas SAR de un canal-, que tampoco está contenida aún en el documento DE 196 18 155 C2.
Como se describe en la primera sección, el efecto esencial de la velocidad de objeto en la dirección en profundidad es un desplazamiento en la dirección azimutal. Existe con ello una ambigüedad entre un objeto móvil reproducido de forma desplazada debido a la velocidad en profundidad y un objeto estático en una posición azimutal que se aparta en este desplazamiento. Aquí se explica por ello un procedimiento para poder eliminar esta ambigüedad mediante valoración de las posiciones en las distintas imágenes de la secuencia o respectivamente poder mejorar la estimación de velocidad y posición al evaluar estas informaciones. Ventajosamente, además de la evaluación de las posiciones puede tenerse en cuenta también la amplitud de señal dependiente del tiempo. Para ello, la velocidad en profundidad y la posición azimutal son estimadas conjuntamente conforme a la invención. Junto a la dependencia de la posición azimutal medida respecto a la velocidad en profundidad existe además una dependencia pequeña de los vectores desplazamiento D^{(k)} medidos respecto a la posición, de forma que en esta sección deben estimarse conjuntamente por ejemplo cuatro parámetros \hat{p}_{Mx,0}, \hat{p}_{My,0} \hat{v}_{Mx} y \hat{v}_{My}, así como un parámetro a introducido adicionalmente para la compensación del solapamiento de frecuencias mediante un modelo de observación conjunto y un procedimiento de optimización. Los valores de entrada para el procedimiento de optimización son los valores estimados de máxima verosimilitud procedentes de la sección previa para la velocidad (ecuaciones (16) y (17)) así como las posiciones individuales promediadas \overline{p}^{(k)}_{M} procedentes de las imágenes SL como valores iniciales para la posición. La componente azimutal de la posición inicial es corregida aquí en un desplazamiento provocado por la velocidad en
profundidad
(19)\Delta X_{M} = - \frac{v_{My} \ sen\eta}{v_{Ax}}\cdot R_{M,0},
en que para v_{My} se emplea en este punto el valor estimado \hat{v}_{My,ML} de la ecuación (17).
\newpage
Para poder llevar a cabo la estimación conjunta de velocidad y posición, se obtienen relaciones analíticas para las componentes azimutal y en profundidad de la posición, dependiente del tiempo y que tiene error, de un objeto que se mueve arbitrariamente. Ventajosamente, esta relación analítica es ampliada mediante la amplitud, dependiente del tiempo, del objeto. En esta tercera relación entra la velocidad en profundidad y el debilitamiento de la señal por el diagrama de antena. Además de ello se tiene en cuenta en las relaciones analíticas el efecto del solapamiento de frecuencias en el espectro Doppler. Este solapamiento de frecuencias es provocado por una velocidad en profundidad grande, que desplaza más allá de la mitad de la frecuencia de exploración f_{p} las partes espectrales de un objeto así movido correspondientemente al desplazamiento Doppler según la ecuación (5) (véase la figura 6). A través de ello, tales objetos son reproducidos en otras imágenes de la secuencia (por ejemplo al final de la secuencia en vez de al principio) y también la variación de la amplitud es desplazada adicionalmente en el tiempo. Mediante las relaciones analíticas obtenidas para las posiciones dependientes del tiempo se establece una función de coste, en la que entran los errores cuadráticos entre las posiciones medidas y las obtenidas analíticamente. Ventajosamente, la función de coste es ampliada mediante la relación obtenida analíticamente para la amplitud dependiente del tiempo, mediante el recurso de que se tienen en cuenta como término de coste adicional los errores cuadráticos entre amplitudes medidas y calculadas analíticamente. Por supuesto pueden tenerse en cuenta también errores de mayor orden y/o errores absolutos en la función de coste. Constituye el objetivo del procedimiento de optimización subsiguiente minimizar los costes por variación de los cinco parámetros, ya que en una función de coste se corresponden costes bajos con una probabilidad elevada de la combinación de parámetros.
La posición azimutal, dependiente del tiempo y que tiene error, de un objeto móvil en las direcciones en profundidad y azimutal para la posición de referencia p_{Mx,0}=p_{Mx}(t=0)=0 resulta analíticamente con la ecuación (1) en
X'^{(k)}_{M,a} = p_{Ax}\left(t^{(k)}_{M}\right) - R'_{M} \ sen\theta\left(t^{(k)}_{M}\right)
(20)X'^{(k)}_{M,a} = v_{Ax}t^{(t)}_{M} + R'_{M}\left(t^{(k)}_{M}\right)\frac{f_{k} \ \lambda}{2v_{Ax}}
en que f_{k} debe corresponder a la frecuencia Doppler del objeto móvil. R'_{M} es la distancia en profundidad variable en el tiempo y falseada por el desplazamiento azimutal. Por t^{(k)}_{M} se designa respectivamente el instante de tiempo en el que se reproduce el objeto móvil en la imagen SL k. Como consecuencia de la velocidad en profundidad v_{My} pueden aparecer frecuencias Doppler situadas en la banda de base del espectro Doppler (a=0) o en caso de aparición de solapamiento de frecuencias fuera (a=-1 ó a=1) (véase la figura 6). Como el parámetro a puede tomar dos valores diferentes para el mismo objeto en el transcurso de la secuencia de imágenes SL, es dotado del superíndice (k). En cualquier caso, en imágenes consecutivas de la secuencia, en las que se detectó un candidato, el parámetro a^{(k)} permanece constante. Con ello, la ecuación (20) se convierte en
(21)X'^{(k)}_{M,a} = v_{Ax}t^{(k)}_{M} + R'_{M}\left(t^{(k)}_{M}\right) \frac{(f_{D}+a^{(k)}\cdot f_{p})\cdot\lambda}{2v_{Ax}}
Tras sustituir la relación
(22)f_{D}(t) = - \frac{2(v_{Ax} - v_{Mx})}{\lambda}\cdot \ sen\theta - \frac{2v_{My}}{\lambda}\cdot \ sen\eta \ cos\theta
resulta finalmente con la ecuación (11)
(23)X'^{(k)}_{M,a}\approx \left(v_{Ax} - \frac{(v_{Ax} - v_{Mx})^{2}}{v_{Ax}}\right) t^{(k)}_{M} + \frac{(v_{Ax} - v_{Mx})}{v_{ax}} \cdot p_{Mx,0} + R'_{M}\left(t^{(k)}_{M}\right)\left(\frac{a^{(k)} \cdot f_{p} \cdot \lambda}{2v_{Ax}} - \frac{v_{My}}{v_{Ax}} \cdot sen\eta \ cos\theta_{k}\right)\hskip1cm
Se reconoce aquí una dependencia de p_{Mx,0}, v_{Mx}, v_{My} y a^{(k)}.
Las posiciones de profundidad de suelo Y'^{(k)}_{M} resultan analíticamente con la ecuación (18) en
(24)Y'^{(k)}_{M,a} = \sqrt{[(v_{Ax} - v_{Mx})t^{(k)}_{M} - p_{Mx,0}]^{2} + [v_{My}t^{(k)}_{M} + p_{My,0}]^{2}} + \Delta y^{(k)}_{T},
es decir dependen de p_{Mx,0}, p_{My,0}, v_{Mx} y v_{My}. Finalmente puede proporcionarse ventajosamente un valor analítico para la amplitud de señal en la imagen k despreciando perturbaciones tales como por ejemplo reflexiones dependientes de la dirección
(25)|u^{(k)}_{a}|=|u_{max}|\cdot si^{2}\left(\pi\frac{1}{\lambda}\cdot sen\theta_{k}\right)
en que u_{max} es el valor máximo de amplitud que surge del respectivo objeto y los efectos de saturación siguen sin tenerse en cuenta. En caso de la aparición de solapamiento de frecuencias se falsea también el desplazamiento en le tiempo según la ecuación (7) quedando
(26)\Delta t_{M}{}^{(k)} = - \frac{f_{D}+a^{(k)}\cdot f_{p})\lambda \ R_{M,0}}{2v^{2}_{Ax}},
de forma que entonces también las amplitudes en las imágenes SL según la ecuación (25) aparecen correspondientemente desplazadas en el tiempo.
Para la estimación común se calculó el error cuadrático entre las posiciones medidas y las obtenidas analíticamente según las ecuaciones (23) y (24) y se introdujo en la función de coste ya citada, que resulta en
(27)\zeta = \frac{1}{k_{M}} \sum\limits^{k_{0}+K_{M}-1}_{k_{0}} (X'^{(k)}_{M} - \hat{X}'^{(k)}_{M})^{2} + (Y'^{(k)}_{M} - \hat{Y}'^{(k)}_{M})^{2}.
En una realización ventajosa de la invención se tienen en cuenta en la función de coste según la ecuación (27) adicionalmente las amplitudes medidas y obtenidas analíticamente según la ecuación (25). La función de coste ampliada resulta con ello en
(28)\zeta = \frac{1}{k_{M}} \sum\limits^{k_{0}+K_{M}-1}_{k_{0}} (X'^{(k)}_{M} - \hat{X}'^{(k)}_{M})^{2} + (Y'^{(k)}_{M} - \hat{Y}'^{(k)}_{M})^{2}+\lambda_{A}\left(\frac{u^{(k)}}{\overline{u}} - \frac{\hat{u}^{(k)}}{\overline{\hat{u}}}\right)^{2}
Como en la ecuación (27) y la ecuación (28) los valores calculados analíticamente según las ecuaciones (23) hasta (25) son sustituidos respectivamente por los valores a estimar para los parámetros, empezando con los valores de las secciones precedentes, el índice a fue sustituido respectivamente por la ^. Las medidas de las amplitudes u^{(k)} y de las posiciones (X'_{M}, Y'_{M})^{(k)} se llevan a cabo en las imágenes SL. Para ello se emplea respectivamente el centro de gravedad del objeto observado. Para conseguir una independencia respecto al coeficiente de retrodispersión, es decir respecto a u_{max}, en el término de amplitud se divide respectivamente por la amplitud media u ó \hat{u}. El promediado se produce aquí sobre todos los valores u^{(k)} o respectivamente \hat{u}^{(k)}, en los que fue detectado el candidato. Además, el error cuadrático de la amplitud es pesado con un parámetro \lambda_{A}, para establecer la relación de los errores cuadrá-
ticos.
En una realización a modo de ejemplo del procedimiento conforme a la invención se minimiza la función de coste establecida para la obtención de los valores estimados mejorados para los cinco parámetros \hat{p}_{Mx,0}, \hat{p}_{My,0}, \hat{v}_{Mx}, \hat{v}_{My} y a por ejemplo con ayuda del método de optimización Downhill-Simplex [12]. Los valores iniciales para la optimización son como se ha indicado los valores estimados obtenidos hasta ahora a partir de las secciones previas. El método de optimización Downhill-Simplex modifica respectivamente uno de los parámetros mientras que disminuyan los costes según la función de coste prefijada o empeoren en como máximo N_{Opt,worse} iteraciones. Luego se modifica el siguiente parámetro, etc. Durante la búsqueda se disminuye el tamaño de paso. Se termina tras un número fijo de iteraciones o cuando ninguna modificación de parámetros tras más de N_{Opt,worse} pasos produce una reducción de costes. El método de optimización Downhill-Simplex es convergente y puede superar mínimos locales.
En una realización ventajosa de la invención, a partir de las componentes azimutales de los vectores desplazamiento D_{x}^{(k)} del candidato se determina un valor estimado \hat{v}_{Mx} para la componente azimutal del vector velocidad del candidato. Este valor estimado se mantiene entonces constante durante el método de optimización para la estimación de los restantes parámetros.
En otra realización ventajosa de la invención, a partir de las diversas posiciones en profundidad Y'^{(k)}_{M} del candidato en las distintas imágenes SAR de vista única se determina un valor estimado para la componente en profundidad \hat{P}_{My,0} del vector posición del candidato, que se mantiene constante durante el método de optimización para la estimación de los restantes parámetros a estimar.
Verificación de los candidatos como objetos móviles
Como se ha explicado ya en la sección "Estimación de velocidad y posición", los candidatos son seguidos (en inglés "tracking") de imagen a imagen correspondientemente a los vectores desplazamiento estimados en las parejas de imágenes precedentes. Se verifica que los candidatos seleccionados son objetos móviles cuando
\newpage
-
es posible el seguimiento de un candidato desde la imagen SL k_{0} a la imagen SL k_{0}+1 y más allá hasta la imagen SL k_{0}+K_{M}-1 con ayuda de los vectores desplazamiento sobre por ejemplo al menos K_{M,min}=4 imágenes SL de la secuencia. Aquí es aceptable una interrupción del seguimiento en una o dos imágenes SL consecutivas. Además debe cumplirse que
-
uno de los dos valores de las componentes de velocidad alcanza los siguientes valores mínimos:
Componente azimutal |\hat{v}_{Mx}|: 5 km/h o componente en profundidad |\hat{v}_{My}|: 20 km/h
Compensación de los errores de reproducción
La compensación de los errores de reproducción con el objetivo de representación correcta de los objetos móviles puede producirse de dos maneras, generando una secuencia de imágenes SAR compensada o una imagen de vistas múltiples compensada. El fondo se conserva en ambos casos.
En el primer caso de la secuencia de imágenes SAR compensada se llevan a cabo los siguientes pasos en las imágenes SL individuales:
-
Extracción de los objetos móviles con las formas iniciales S^{(k)}_{M,0} de las imágenes SL originales
-
Cálculo de las posiciones (X_{M}, Y_{M})^{(k)} en las distintas imágenes SL con ayuda de los valores estimados obtenidos para posición y velocidad y los instantes de las imágenes según la ecuación (2)
-
Introducción de los objetos móviles en las posiciones calculadas (X_{M}, Y_{M})^{(k)} con la forma S_{M}. El desplazamiento en el tiempo según la ecuación (26) se compensa mediante el recurso de que los objetos son extraídos en imágenes correspondientemente distintas a aquéllas en las que son introducidos de nuevo.
Un resultado a modo de ejemplo puede verse en la figura 10b). En comparación con la imagen original en la figura 10a) todos los errores de representación han sido ampliamente compensados.
En el segundo caso de la imagen de vistas múltiples compensada se llevan a cabo los siguientes pasos en las diversas imágenes SL:
-
Extracción de los objetos móviles con las formas iniciales S^{(k)}_{M,0} de las imágenes SL originales
-
Introducción de los objetos móviles en la posición estimada de referencia \hat{P}_{M,0} con la forma S_{M}. Aquí también se compensa el desplazamiento en el tiempo según la ecuación (26) mediante extracción e inserción eventualmente en imágenes eventualmente diferentes.
-
Promediado de vistas múltiples, es decir promediado de los valores de amplitud procedentes de diferentes imágenes SL.
Un resultado a modo de ejemplo puede verse en la figura 11b). En comparación con ella, la figura 11a) muestra una imagen de vistas múltiples de un procesador SAR convencional. Se reconocen claramente los errores de reproducción de los objetos móviles, que están compensados ampliamente en la figura 11b).
Resultados
El procedimiento conforme a la invención fue aplicado a datos SAR en bruto simulados y reales. En el caso de los datos simulados se trató de datos SAR en bruto simulados de objetos móviles, que fueron superpuestos a datos de fondo (datos de eco parásito). Tanto los datos SAR en bruto reales de vehículos móviles como también los datos de fondo empleados para la superposición proceden del sistema DOSAR de la empresa Dornier GmbH en la banda C (5,3 GHz) o la banda X (9,6 GHz). La relación de señal a eco parásito en la imagen SL tuvo un valor de entre 3 y 8 dB. La velocidad de antena fue de aproximadamente 300 km/h o 83 m/s, y se generó y empleó una secuencia de 30 imágenes. La anchura de banda Doppler aquí empleada tuvo un valor de 1500 Hz, que corresponde aproximadamente a 2,5 veces la anchura de banda de eco parásito.
La velocidad azimutal v_{Mx} pudo estimarse en objetos con velocidades azimutales entre +/-5 km/h (+/-1,4 m/s) y +/-120 km/h (+/-33,3 m/s) con una desviación estándar del error de estimación de 2,7 km/h. Para la velocidad en profundidad, el valor correspondiente fue de 8,5 km/h para el intervalo entre +/-20 km/h (+/-5,6 m/s) y +/-120 km/h (+/-33,3 m/s) (véase la figura 8). En comparación con los otros procedimientos conocidos a partir de la bibliografía se amplió el intervalo de medida para ambas componentes de velocidad (véase la figura 7), en que algunos intervalos (para pequeñas velocidades así como el intervalo |v_{Mx}|< 22 km/h y 80 km/h < |v_{My}|< 120 km/h) fueron cubiertos por primera vez por un procedimiento para datos SAR de un canal. El valor superior del intervalo de medida para la velocidad en profundidad fue determinado aquí para la frecuencia PRF de 1500 Hz disponible en el sistema DOSAR para una frecuencia de portadora en la banda C (5,3 GHz).
Para la tasa de detección resulta lo siguiente: En la zona entre +/-10 km/h (+/-2,8 m/s) y +/-80 km/h (+/-22,2 m/s) son detectados el 96% de todos los objetos móviles, para una velocidad superior o inferior al menos el 80%. La tasa de falsa alarma fue de aproximadamente un 2%. Las tasas de detección y de falsa alarma pueden regularse aquí ligeramente a través del número mínimo K_{M,min} de las imágenes, en las que debe detectarse un candidato, así como a través de los valores umbral de velocidad. En los resultados indicados, el número mínimo fue K_{M,min}=4 imágenes.
En la estimación de posición se consiguieron los siguientes resultados (véase la figura 9): La desviación estándar del error estimado es de 28,5 m en azimut y 5,7 m en la dirección en profundidad. En comparación con ello, en [6] se indican aproximadamente 50 m para ambas componentes. Resulta por lo tanto en conjunto tanto para la velocidad estimada como también para la posición una mejora considerable respecto a procedimientos conocidos hasta ahora.
Esto se refleja también en los resultados conseguidos de imágenes. La figura 10 muestra una imagen SL a modo de ejemplo procedente de una secuencia de imágenes SAR (figura 10a, los objetos móviles detectados están marcados con un cuadrado blanco) en comparación con una imagen SL compensada (b). Mientras que en la imagen original los objetos móviles aparecen deformados y fuera de la carretera o parcialmente han desaparecido completamente, estos errores de reproducción han sido compensados ampliamente en la figura 10b). Algo similar se muestra también en el caso de imágenes de vistas múltiples. En la figura 11a) puede verse una imagen de vistas múltiples de un procesador SAR convencional, en el que surgen de forma particularmente clara las deformaciones de los objetos móviles. La figura 11b) muestra en comparación con ello una imagen de vistas múltiples compensada, en la que los objetos son reproducidos nuevamente de forma ampliamente no deformada sobre la carretera.
Bibliografía
[1] R. K. Raney, "Synthetic aperture imaging radar and moving targets", IEEE Trans. Aerospace and Electronic Systems, Volumen AES-7, nº 3, pp. 499-505, Mayo de 1971.
[2] Y. Wang, R. Chellappa y Q. Zheng, "CFAR detection of targets in fully polarimetric SAR images", Technical Report, Department of Computer Science, University of Maryland, College Park, Noviembre de 1993.
[3] A. Freeman y A. Currie, "Synthetic aperture radar (SAR) images of moving targets", GEC Journal of Research, Volumen 5, nº 2, 1987.
[4] E. D'Addio, M. Di Bisceglie y S. Bottalico, "Detection of moving objects with airborne SAR", Signal Processing, Volumen 36, nº 2, pp. 149-162, Marzo de 1994.
[5] S. Barbarossa y A. Farina: "Detection and imaging of moving objects with synthetic aperture radar, Part 2: Joint time-frequency analysis by Wigner-Ville distribution." En IEE Proceedings-F, Volumen 139, nº 1, pp. 89-97, febrero de 1992.
[6] J. R. Moreira y W. Keydel, "A new MTI-SAR approach using the reflectivity displacement method." IEEE Trans. Geoscience and Remote Sensing, Volumen 33, nº 5, pp. 1238-1244, septiembre de 1995.
[7] M. Kirscht, "Detection, velocity estimation and imaging of moving targets with single-channel SAR." En Proc. of European Conference on Synthetic Aperture Radar, EUSAR'98, Friedrichshafen, Alemania, pp. 587-590, Mayo de 1998.
[8] J. C. Curlander y R. N. McDonough: Synthetic Aperture Radar: Systems and Signal Processing, New York: John Wiley & Sons, 1991, pp. 193f.
[9] M. Bierling, "Displacement estimation by hierarchical blockmatching", 3rd SPIE Symposium on Visual Communications and Image Processing, Cambridge, EE.UU., pp. 942-951, 1988.
[10] K. Ouchi, "On the multilook images of moving targets by synthetic aperture radars", IEEE Trans. Antennas and Propagation, Volumen AP-33, nº 8, pp. 823-827, 1985.
[11] J. L. Melsa y D. L. Cohn, Decision and Estimation Theory, Tokyo, Japón: McGraw-Hill, 1978.
[12] J. A. Nelder y R. Mead, A Simplex Method for Function Minimization, Computer Journal, nº 7, pp. 308-317, Julio de 1964.

Claims (8)

1. Procedimiento para la detección así como para la estimación de velocidad y posición de objetos móviles en imágenes SAR, que comprende los siguientes pasos de procedimiento:
- generación de una secuencia de imágenes SAR de vista única consecutivas en el tiempo, de igual polarización y de una frecuencia central de vista que varía de imagen a imagen;
- detección de candidatos a objetos móviles en las imágenes SAR de vista única de la secuencia mediante búsqueda de regiones con una evolución de la intensidad que se desvía respecto al entorno;
- estimación de velocidad de los candidatos detectados mediante estimación de uno o más vectores desplazamiento respectivamente de un candidato empleando la correlación entre imágenes SAR de vista única consecutivas;
- verificación de los candidatos detectados como objetos móviles,
caracterizado porque la estimación de una o más componentes de velocidad de un candidato detectado se produce conjuntamente con la estimación de una o más componentes de posición del candidato, en que teniendo en cuenta las posiciones del candidato en las distintas imágenes SAR de vista única de la secuencia se establece una función de coste dependiente de las componentes a estimar, la cual es minimizada mediante un método de optimización para el o los parámetros a estimar.
2. Procedimiento según la reivindicación 1, caracterizado porque para el establecimiento de la función de coste se tienen en cuenta adicionalmente las amplitudes de los candidatos en las distintas imágenes SAR de vista única de la secuencia.
3. Procedimiento según la reivindicación 1 ó 2, caracterizado porque en la minimización de la función de coste se tiene en cuenta otro parámetro a estimar para la compensación del solapamiento de frecuencias en el espectro Doppler.
4. Procedimiento según una de las reivindicaciones precedentes, caracterizado porque a partir de las componentes azimutales de los vectores desplazamiento de un candidato se determina un valor estimado para la componente azimutal del vector velocidad del respectivo candidato, cuyo valor se mantiene constante durante el método de optimización para la estimación conjunta de posición y velocidad de los restantes parámetros a estimar.
5. Procedimiento según una de las reivindicaciones precedentes, caracterizado porque a partir de las distintas posiciones en profundidad de un candidato en las distintas imágenes SAR de vista única se determina un valor estimado para la componente en profundidad del vector posición del respectivo candidato, cuyo valor se mantiene constante durante el método de optimización para la estimación conjunta de posición y velocidad de los restantes parámetros a estimar.
6. Procedimiento según una de las reivindicaciones precedentes, caracterizado porque en la detección de los candidatos se asocian a cada candidato hallado las correspondientes regiones en las respectivas imágenes SAR de vista única como formas iniciales individuales.
7. Procedimiento según una de las reivindicaciones precedentes, caracterizado porque correspondientemente a la velocidad estimada de un candidato la forma de un candidato se estima por corrección de las respectivas formas iniciales.
8. Procedimiento según la reivindicación 6 ó 7, caracterizado porque los errores de representación de los objetos móviles dentro de una secuencia de las imágenes SAR de vista única se compensan mediante el recurso de que los objetos móviles con las formas iniciales correspondientes se extraen de las imágenes SAR de vista única y se vuelven a introducir en las imágenes SAR de vista única en las posiciones estimadas o calculadas mediante las formas iniciales o las formas estimadas.
ES03008673T 2002-06-14 2003-04-16 Procedimiento para la deteccion asi como para la estimacion de velocidad y posicion de objetos moviles en imagenes sar. Expired - Lifetime ES2252574T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10226508A DE10226508A1 (de) 2002-06-14 2002-06-14 Verfahren zur Detektion sowie Geschwindigkeits- und Positionsschätzung von bewegten Objekten in SAR-Bildern
DE10226508 2002-06-14

Publications (1)

Publication Number Publication Date
ES2252574T3 true ES2252574T3 (es) 2006-05-16

Family

ID=29557819

Family Applications (1)

Application Number Title Priority Date Filing Date
ES03008673T Expired - Lifetime ES2252574T3 (es) 2002-06-14 2003-04-16 Procedimiento para la deteccion asi como para la estimacion de velocidad y posicion de objetos moviles en imagenes sar.

Country Status (5)

Country Link
US (1) US6952178B2 (es)
EP (1) EP1372000B1 (es)
AT (1) ATE315238T1 (es)
DE (2) DE10226508A1 (es)
ES (1) ES2252574T3 (es)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4278507B2 (ja) * 2003-12-26 2009-06-17 富士通テン株式会社 Fm−cwレーダ装置
DE102004061538A1 (de) * 2004-12-21 2006-06-29 Siemens Ag Verfahren zur Schätzung der Bewegung von Mobilfunkkunden
US7548637B2 (en) * 2005-04-07 2009-06-16 The Board Of Trustees Of The University Of Illinois Method for detecting objects in an image using pair-wise pixel discriminative features
FR2886020B1 (fr) * 2005-05-19 2007-10-19 Eurocopter France Systeme d'estimation de la vitesse d'un aeronef et son application a la detection d'obstacles
US7498968B1 (en) * 2006-05-22 2009-03-03 Sandia Corporation Synthetic aperture design for increased SAR image rate
DE602006013113D1 (de) * 2006-07-07 2010-05-06 Selex Galileo Spa Verfahren und Vorrichtung zur Detektion von bewegten Objekten mittels SAR Bildern
US8125370B1 (en) 2007-04-16 2012-02-28 The United States Of America As Represented By The Secretary Of The Navy Polarimetric synthetic aperture radar signature detector
US8116522B1 (en) 2008-08-25 2012-02-14 The United States Of America As Represented By The Secretary Of The Navy Ship detection system and method from overhead images
US8698668B2 (en) * 2008-11-11 2014-04-15 Saab Ab SAR radar system
KR101006080B1 (ko) 2009-03-26 2011-01-06 한국해양연구원 합성개구레이더를 이용한 이동체 속도 측정 방법
US8326081B1 (en) * 2009-05-18 2012-12-04 The United States Of America As Represented By The Secretary Of The Navy Correlation image detector
EP2278355A1 (en) * 2009-06-30 2011-01-26 Mitsubishi Electric R & D Centre Europe B.V. Radar system
FR2972266B1 (fr) * 2011-03-03 2013-04-26 Thales Sa Procede de detection et de caracterisation d'une cible mobile sur une image radar
US9035774B2 (en) 2011-04-11 2015-05-19 Lone Star Ip Holdings, Lp Interrogator and system employing the same
RU2474881C1 (ru) * 2011-08-12 2013-02-10 Открытое акционерное общество "Дальприбор" Интерференционный обнаружитель движущегося подводного объекта
CN102650689A (zh) * 2012-05-17 2012-08-29 中国路桥工程有限责任公司 一种步进频率脉冲雷达位移测量方法
CN102914776B (zh) * 2012-10-15 2014-07-23 西安电子科技大学 基于模糊c均值算法的多通道SAR动目标定位方法
US9297886B1 (en) * 2013-03-12 2016-03-29 Lockheed Martin Corporation Space time adaptive technique for suppression of spaceborne clutter
US9261593B1 (en) * 2013-03-13 2016-02-16 Lockheed Martin Corporation Higher order processing for synthetic aperture radar (SAR)
DE102013107402B3 (de) * 2013-07-12 2014-11-20 Deutsches Zentrum für Luft- und Raumfahrt e.V. Schiffsdetektion in Interferometrie-Radardaten
CN103454634B (zh) * 2013-08-08 2015-07-08 上海交通大学 基于多普勒谱分析的sar运动目标检测方法
CN103728619B (zh) * 2014-01-16 2016-02-17 北京航空航天大学 基于变重频技术的机载大斜视条带sar成像方法
RU2563140C1 (ru) * 2014-03-25 2015-09-20 Степан Анатольевич Шпак Интерференционный обнаружитель движущегося морского объекта
JP6349938B2 (ja) * 2014-05-09 2018-07-04 日本電気株式会社 測定点情報提供装置、変動検出装置、方法およびプログラム
US10436897B2 (en) * 2014-12-08 2019-10-08 The United States Of America As Represented By The Secretary Of The Army System for detecting man-made objects using polarimetric synthetic aperture radar imagery with error reduction and method of use
WO2016097890A1 (en) * 2014-12-15 2016-06-23 Airbus Group Singapore Pte. Ltd. Automated method for selecting training areas of sea clutter and detecting ship targets in polarimetric synthetic aperture radar imagery
CN104569954B (zh) * 2015-01-21 2017-01-18 中国科学院上海技术物理研究所 一种评价合成孔径雷达成像方位向压缩质量的方法
EP3320368A4 (en) * 2015-07-08 2018-07-25 Conoco Phillips Company Terrestrial imaging using multi-polarization synthetic aperture radar
US10445885B1 (en) * 2015-10-01 2019-10-15 Intellivision Technologies Corp Methods and systems for tracking objects in videos and images using a cost matrix
US10534080B2 (en) * 2016-03-28 2020-01-14 The Boeing Company Radar image formation within a distributed network
CN106125075B (zh) * 2016-08-31 2019-04-09 电子科技大学 一种双基地前视合成孔径雷达的运动误差估计方法
RU2668570C1 (ru) * 2017-06-27 2018-10-02 Федеральное государственное бюджетное учреждение науки институт океанологии им. П.П. Ширшова Российской академии наук Способ измерения вектора скорости локальных отражателей в космическом рса
KR102399539B1 (ko) * 2017-08-28 2022-05-19 삼성전자주식회사 오브젝트 식별 방법 및 장치
WO2019220574A1 (ja) * 2018-05-16 2019-11-21 日本電気株式会社 合成開口レーダ信号解析装置、合成開口レーダ信号解析方法および合成開口レーダ信号解析プログラム
US10921416B1 (en) * 2018-09-04 2021-02-16 L3 Technologies, Inc. Multivariate position estimation
CN109991595B (zh) * 2019-05-21 2023-02-07 广东工业大学 一种基于毫米波雷达的距离测量方法及相关装置
JP7351706B2 (ja) * 2019-10-15 2023-09-27 株式会社Soken 物体追跡装置
CN112162281B (zh) * 2020-08-28 2022-11-25 西安电子科技大学 一种多通道sar-gmti图像域两步处理方法
JP2022161115A (ja) * 2021-04-08 2022-10-21 日本電気株式会社 レーダ装置、イメージング方法およびイメージングプログラム
CN113447925B (zh) * 2021-05-12 2022-10-11 北京理工大学 一种基于图像域偏移特征的地面运动目标参数估计方法
US20230129025A1 (en) * 2021-10-27 2023-04-27 Mitsubishi Electric Research Laboratories, Inc. System and Method for Generating a Radar Image of a Scene

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5058024A (en) * 1989-01-23 1991-10-15 International Business Machines Corporation Conflict detection and resolution between moving objects
US5170440A (en) * 1991-01-30 1992-12-08 Nec Research Institute, Inc. Perceptual grouping by multiple hypothesis probabilistic data association
US5138321A (en) * 1991-10-15 1992-08-11 International Business Machines Corporation Method for distributed data association and multi-target tracking
US5406289A (en) * 1993-05-18 1995-04-11 International Business Machines Corporation Method and system for tracking multiple regional objects
US5959574A (en) * 1993-12-21 1999-09-28 Colorado State University Research Foundation Method and system for tracking multiple regional objects by multi-dimensional relaxation
US5537119A (en) * 1993-12-21 1996-07-16 Colorado State University Research Foundation Method and system for tracking multiple regional objects by multi-dimensional relaxation
DE19618155C2 (de) * 1996-05-07 1999-04-22 Dornier Gmbh Verfahren zur Detektion und Geschwindigkeitsschätzung von bewegten Objekten in SAR-Bildern
FR2763134B1 (fr) * 1997-05-07 1999-07-30 Thomson Csf Procede de traitement du signal de reception d'un radar sar a rampes de frequence

Also Published As

Publication number Publication date
DE50302096D1 (de) 2006-03-30
DE10226508A1 (de) 2004-01-08
ATE315238T1 (de) 2006-02-15
US6952178B2 (en) 2005-10-04
EP1372000B1 (de) 2006-01-04
EP1372000A3 (de) 2005-01-05
EP1372000A2 (de) 2003-12-17
US20040032361A1 (en) 2004-02-19

Similar Documents

Publication Publication Date Title
ES2252574T3 (es) Procedimiento para la deteccion asi como para la estimacion de velocidad y posicion de objetos moviles en imagenes sar.
US10175348B2 (en) Use of range-rate measurements in a fusion tracking system via projections
Kirscht Detection and imaging of arbitrarily moving targets with single-channel SAR
US20170192088A1 (en) Least squares fit classifier for improved sensor performance
US20200319300A1 (en) Method to determine the suitablility of a radar target as a positional landmark
Meyer et al. Performance analysis of the TerraSAR-X traffic monitoring concept
JPH044557B2 (es)
US9846229B1 (en) Radar velocity determination using direction of arrival measurements
CN109298418B (zh) 基于建筑物内部结构特征的雷达检测虚警抑制方法及装置
EP3156818A1 (en) Automatic three-dimensional geolocation of sar targets and simultaneous estimation of tropospheric propagation delays using two long-aperture sar images
JPWO2007015288A1 (ja) 軸ずれ量推定方法及び軸ずれ量推定装置
KR20170134092A (ko) 고해상도 거리 프로파일을 이용한 다중 물체 판단 장치 및 방법
CN108107432A (zh) 基于时域扰动的高低轨双基sar保相成像方法
Dungan et al. Wide-area wide-angle SAR focusing
JP5737831B2 (ja) 移動目標検出装置
US10989805B2 (en) Acquiring information regarding a volume using wireless networks
JP6324108B2 (ja) 合成開口レーダ装置
CN105572648B (zh) 一种合成孔径雷达回波数据距离徙动校正方法和装置
US20130127656A1 (en) Radar filter
CN114265065A (zh) 一种融合多极化图像的多通道sar动目标检测方法
Zhu et al. Estimating ambiguity-free motion parameters of ground moving targets from dual-channel SAR sensors
Di Bella et al. Uncertainty reduction of Arctic sea ice freeboard from CryoSat-2 interferometric mode
Pastina et al. Change detection based GMTI on single channel SAR images
Wang et al. High-coherence oriented image formation algorithm based on adaptive elevation ramp fitting for GNSS-based InBSAR systems
US10970861B2 (en) Method of determining a transformation matrix