ES2252574T3 - Procedimiento para la deteccion asi como para la estimacion de velocidad y posicion de objetos moviles en imagenes sar. - Google Patents
Procedimiento para la deteccion asi como para la estimacion de velocidad y posicion de objetos moviles en imagenes sar.Info
- Publication number
- ES2252574T3 ES2252574T3 ES03008673T ES03008673T ES2252574T3 ES 2252574 T3 ES2252574 T3 ES 2252574T3 ES 03008673 T ES03008673 T ES 03008673T ES 03008673 T ES03008673 T ES 03008673T ES 2252574 T3 ES2252574 T3 ES 2252574T3
- Authority
- ES
- Spain
- Prior art keywords
- candidate
- images
- estimated
- speed
- sar images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
- G01S13/90—Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
- G01S13/9021—SAR image post-processing techniques
- G01S13/9029—SAR image post-processing techniques specially adapted for moving target detection within a single SAR image or within multiple SAR images taken at the same time
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar Systems Or Details Thereof (AREA)
- Measuring Or Testing Involving Enzymes Or Micro-Organisms (AREA)
Abstract
Procedimiento para la detección así como para la estimación de velocidad y posición de objetos móviles en imágenes SAR, que comprende los siguientes pasos de procedimiento: - generación de una secuencia de imágenes SAR de vista única consecutivas en el tiempo, de igual polarización y de una frecuencia central de vista que varía de imagen a imagen; - detección de candidatos a objetos móviles en las imágenes SAR de vista única de la secuencia mediante búsqueda de regiones con una evolución de la intensidad que se desvía respecto al entorno; - estimación de velocidad de los candidatos detectados mediante estimación de uno o más vectores desplazamiento respectivamente de un candidato empleando la correlación entre imágenes SAR de vista única consecutivas; - verificación de los candidatos detectados como objetos móviles, caracterizado porque la estimación de una o más componentes de velocidad de un candidato detectado se produce conjuntamente con la estimación de una o más componentes de posición del candidato, en que teniendo en cuenta las posiciones del candidato en las distintas imágenes SAR de vista única de la secuencia se establece una función de coste dependiente de las componentes a estimar, la cual es minimizada mediante un método de optimización para el o los parámetros a estimar.
Description
Procedimiento para la detección así como para la
estimación de velocidad y posición de objetos móviles en imágenes
SAR.
La invención se refiere a un procedimiento para
la detección así como para la estimación de velocidad y posición de
objetos móviles conforme al preámbulo de la reivindicación 1.
Al obtener imágenes a partir de datos SAR (del
inglés "Synthetic Aperture Radar", radar de apertura sintética)
en bruto, se producen por principio errores de reproducción, cuando
se encuentran objetos móviles (por ejemplo vehículos, también
denominados objetivos móviles) en la escena. En función de la
dirección de movimiento de los objetos hay tres efectos esenciales
[1]:
- -
- En caso de movimiento del objeto en la dirección azimutal (dirección de vuelo) se modifica la frecuencia Doppler adicional, que resulta en un desplazamiento del objeto en dirección azimutal positiva o negativa, es decir en respectivamente de forma opuesta a la dirección de movimiento de la antena de radar. Este movimiento va acompañado de una componente de velocidad en la dirección en profundidad (también dirección de separación o dirección perpendicular a la trayectoria), de forma que esta componente de velocidad se denomina sencillamente velocidad en profundidad.
- -
- Para una velocidad en profundidad grande desaparece el objeto en la imagen SAR.
- -
- En caso de movimiento del objeto en la dirección azimutal (dirección de vuelo) se modifica la frecuencia Dopppler, con lo que el objeto queda formado en la dirección azimutal en la imagen SAR. En este caso existe por lo tanto una componente azimutal (componente a lo largo de la trayectoria) de la velocidad del objeto, que se denomina brevemente velocidad azimutal.
Otros efectos se producen en caso de aceleración
del objeto móvil, que sin embargo no serán considerados aquí más
detalladamente. Para eliminar los errores de reproducción descritos,
es necesario detectar los objetos móviles y estimar su velocidad y
posición. Es ventajosa además la estimación de la forma de los
objetos.
Para la detección de objetos estáticos en
imágenes SAR es conocido a partir de la bibliografía un
procedimiento que aprovecha para la detección la matriz de
covarianzas entre los puntos de imagen de imágenes de diferente
polarización [2]. Imágenes de diferentes polarizaciones no están sin
embargo siempre a disposición.
La mayoría de los procedimientos conocidos a
partir de la bibliografía para la estimación de movimiento de
objetos móviles (MTI, del inglés "Moving Target Indication",
indicación de objetivos móviles) trabajan con datos SAR comprimidos
en profundidad, que son transformados bien al dominio de frecuencias
Doppler (por ejemplo [3], [4]), o a un plano de
tiempo-frecuencia [5]. Estos procedimientos no están
en disposición de detectar objetos móviles, que se mueven
exclusivamente en la dirección azimutal, ya que tales objetos son
eliminados por filtrado junto con los datos de fondo (datos de eco
parásito). Además se necesita en estos procedimientos una
frecuencia de repetición de impulsos (PRF, del inglés "Pulse
Repetition Frequency"), que es mucho mayor que la anchura de
banda Doppler del fondo inmóvil (anchura de banda de eco parásito) y
por ello trae consigo limitaciones con respecto al sistema SAR
empleable. Finalmente, con este procedimiento resultan parcialmente
imprecisiones de estimación
grandes.
grandes.
En el documento DE 44 23 899 C1 y [6] se propone
además un procedimiento para la detección, localización y
estimación de velocidad de objetivos móviles a partir de datos SAR
en bruto, que opera en el dominio de frecuencias. Aquí se aprovecha
la correlación entre dos espectros azimutales formados de modo
inmediatamente consecutivo en el tiempo. Este procedimiento está en
disposición de estimar la velocidad azimutal de objetos móviles,
pero tiene desventajas con vistas a la representación de las
trayectorias de movimiento de los objetos móviles. En particular no
es posible una asignación directa de los valores de velocidad
obtenidos a los objetos móviles en la imagen SAR. Además se
detectan sólo objetos cuya velocidad azimutal sea mayor de 22 km/h.
La velocidad en profundidad sólo se estima de forma muy gruesa.
En el documento DE 196 18 155 C2 así como [7] se
expone un procedimiento que aprovecha la correlación temporal en
una secuencia de imágenes SAR de vista única (imágenes SL, del
inglés "Single-Look") para la detección y
estimación de velocidad de objetos móviles. Esta secuencia se genera
primeramente a partir de datos comprimidos en profundidad empleando
el espectro Doppler total que está a disposición. Tras la generación
de la secuencia se produce una detección de candidatos para objetos
móviles en las imágenes SAR de vista única mediante búsqueda de
regiones con una evolución de intensidad que se desvía respecto al
entorno. La estimación de velocidad subsiguiente del candidato
detectado se produce mediante estimación del vector desplazamiento
de un candidato empleando la correlación entre imágenes SAR de
vista única consecutivas.
Con el procedimiento conocido a partir del
documento DE 196 18 155 C2 sin embargo no es posible detectar
objetos que se mueven exclusivamente en la dirección en
profundidad. Otra desventaja es que el intervalo de medida de la
velocidad en profundidad está limitado por la frecuencia PRF
prefijada por el sistema. Más allá de ello, en el documento DE 196
18 155 C2 no se describe ninguna estimación de la posición del
objeto móvil.
Constituye con ello la tarea de la invención
proporcionar un procedimiento con el que sea posible una detección
independiente de la dirección de movimiento de los objetos con un
intervalo de medida ampliado de la velocidad, así como una
estimación de la posición.
Esta tarea se resuelve con el procedimiento según
la reivindicación 1. Realizaciones ventajosas de la invención son
objeto de otras reivindicaciones.
Conforme a la invención, la estimación de una o
más componentes de velocidad de un candidato detectado se produce
conjuntamente con la estimación de una o más componentes de posición
del candidato, en que teniendo en cuenta las posiciones del
candidato en las distintas imágenes SAR de vista única de la
secuencia se establece una función de coste dependiente de los
parámetros a estimar, la cual se minimiza mediante un método de
optimización.
Para el procedimiento conforme a la invención se
presuponen simplemente datos de un sistema SAR convencional, es
decir de un sistema con una polarización, una frecuencia de
portadora y un canal. Con el procedimiento conforme a la invención
pueden detectarse objetos que se mueven arbitrariamente sobre la
superficie terrestre y estimarse con buena precisión sus
velocidades azimutal y en profundidad así como su posición. Este
procedimiento trabaja con una frecuencia PRF que sólo es
insignificantemente mayor que la anchura de banda de eco
parásito.
Con el procedimiento conforme a la invención es
posible una compensación de errores de reproducción, es decir una
compensación de todos los tres efectos citados, y con ello es
posible una representación sin deformaciones de los objetos
móviles. Los resultados del procedimiento conforme a la invención
pueden verse mediante representación de las imágenes SL como
secuencia de imágenes en movimiento con fondo en reposo y objetos
marcados que se mueven.
Ejemplos de realización concretos del
procedimiento conforme a la invención se explican a continuación, en
parte teniendo en cuenta las figuras 1 hasta 11. Las figuras
muestran:
la figura 1 la generación de una secuencia de
imágenes SAR de vista única a) con representación de la hipérbola
de migración en profundidad de un objeto estático en el plano
profundidad-Doppler antes de la corrección de
migración en profundidad (abajo) y b) tras la corrección de
migración en profundidad
la figura 2 la medida de un vector
desplazamiento a partir de una pareja de imágenes de la secuencia
(encaje de bloques)
la figura 3 la relación entre la velocidad
azimutal v_{Mx,a} a observar en las imágenes SL y la velocidad
real v_{Mx} en la dirección azimutal sin tener en cuenta
perturbaciones
la figura 4 el modelo de observaciones para la
estimación independiente de la velocidad azimutal. Se miden las
componentes v_{Mx,m}{}^{(k)} perturbadas por ruido existentes a la
salida
la figura 5 un modelo de observación para la
estimación independiente de la velocidad en profundidad
la figura 6 espectros Doppler para
respectivamente un objeto móvil y uno estático; el movimiento del
objeto en la dirección en profundidad y el desplazamiento Doppler
f_{M} que resulta de ello es tan grande que se produce
solapamiento de frecuencias (en inglés "aliasing") en el
espectro Doppler (la frecuencia de exploración es la frecuencia PRF
f_{p}); a) Caso a=1 ó 0 (velocidad en profundidad positiva); b)
Caso a=-1 ó 0 (velocidad en profundidad negativa);
la figura 7 una comparación de los intervalos de
detección y medida de la velocidad de objetos para diversos
procedimientos (con relación a parámetros DOSAR, un canal, banda
C)
la figura 8 resultados de estimación para
velocidad azimutal y en profundidad; está representada
respectivamente la desviación estándar del error de estimación
la figura 9 resultados de estimación para
posición azimutal y en profundidad; está representada
respectivamente la desviación estándar del error de estimación;
la figura 10a) la imagen SAR de vista única nº
17 de una secuencia de imágenes SAR generada, que consta de 30
imágenes; frecuencia central de vista de 75 Hz; los objetos móviles
aparecen deformados (sobre todo el objeto inferior) y han
desaparecido más allá de la carretera o parcialmente de forma
total;
la figura 10b) una imagen SAR de vista única
compensada de la secuencia de imágenes SAR compensada. La dirección
de movimiento estimada de los objetos móviles detectados está
caracterizada por una flecha.
la figura 11a) una imagen de vistas múltiples de
un procesador SAR convencional. Los objetos móviles aparecen
deformados y desplazados en la dirección azimutal. Parcialmente han
desaparecido;
la figura 11b) una imagen de vistas múltiples
compensada. Los objetos móviles aparecen sin deformar en la
posición de referencia estimada. Se indican respectivamente la
dirección de movimiento y las componentes de velocidad
estimadas.
La secuencia de imágenes SAR se genera a partir
de datos SAR de un sistema SAR convencional (es decir de un canal) y
consta de imágenes SAR de vista única (imágenes SL) consecutivas en
el tiempo. Por una imagen SL se entiende una imagen que es
procesada empleando una banda parcial de un espectro Doppler, es
decir una vista de una determinada anchura de banda de vista, sin
promediado y por ello con una resolución azimutal máxima -referida
a la anchura de banda de vista-. Para la generación de la secuencia
de imágenes SL los datos SAR comprimidos en profundidad son
transmitidos primeramente con ayuda de una transformada de Fourier
en la dirección azimutal al dominio de frecuencias Doppler. El
espectro Doppler completo obtenido de este modo es dividido en
bandas solapadas con una anchura de banda de vista respectivamente
igual, y se genera una imagen SL por banda (véase la figura 1a). En
la figura 1, la frecuencia Doppler está designada por f_{D} y la
frecuencia PRF por f_{p}. Las imágenes muestran la superficie
terrestre entonces desde diferentes ángulos de visión
(horizontales)\theta^{(k)}, que a su vez dependen como
sigue de las frecuencias centrales de banda o frecuencias centrales
de vista f^{(k)}
(1)\theta^{(k)} =
-arcsen\frac{f^{(k)}\lambda}{2v_{Ax}}
Aquí, k representa el número de la imagen SL,
v_{Ax} la velocidad de la antena, que está orientada exactamente
en la dirección azimutal x, y \lambda la longitud de onda de la
portadora. Mediante los diferentes ángulos de visión de las
distintas imágenes se obtienen al mismo tiempo vistas en momentos
diferentes, y por ello las imágenes se pueden unir formando una
secuencia. Los instantes t^{(k)}, referidos a objetos estáticos
(índice T, del inglés "target") con una posición
azimutal en el centro de la escena (x=0), resultan en
(2)t^{(k)}(R_{T,0}) =
\frac{R_{T,0} \cdot tan\theta^{(k)}}{v_{Ax}} \approx - \frac{R_{T,0}
\ f^{(k)}\lambda}{2v^{2}{}_{Ax}} \ con \ f^{(k)} = \frac{-2v_{Ax} \
sen\theta^{(k)}}{\lambda}
Aquí, R_{T,}_{0} es la distancia más corta
entre la antena y el objeto estático. La anchura de banda de vista
se ajusta al intervalo de velocidad a medir. Debe tenerse en cuenta
que es como máximo tan grande que los objetos más rápidos en la
imagen aún puedan reconocerse aproximadamente como puntuales.
Además, debe ser como mínimo tan grande que aún se alcance la
resolución necesaria.
Las imágenes de la secuencia fueron sometidas a
una corrección de profundidad de suelo y una corrección de
migración en profundidad. La corrección de migración en profundidad
se lleva a cabo aquí mediante un desplazamiento de las imágenes en
la dirección en profundidad y correspondientemente a la distancia,
dependiente del respectivo ángulo de visión, entre la antena y los
objetos sobre la superficie terrestre (véase la figura 1 a)/b)).
Las ventajas de este método frente a los usuales [8] consisten en
una ganancia de tiempo de cálculo y una mayor facilidad de manejo
durante la estimación de la velocidad en profundidad. Mediante este
tratamiento se consigue que el fondo en reposo aparezca en las
mismas posiciones en las distintas imágenes de la secuencia y
simplemente se modifiquen las posiciones de los objetos móviles de
imagen SL a imagen SL.
Tras la generación de la secuencia se produce una
selección de candidatos a objetos móviles en cada imagen SL
individual de la secuencia. Como criterio para la detección como
candidato vale un patrón aproximadamente puntual o elipsoidal (este
último aparecería cuando exista velocidad azimutal). La búsqueda de
candidatos se empieza en puntos de imagen (píxeles) con máxima
intensidad, es decir en puntos con coeficiente de retrodispersión
máximo (RCS, del inglés "Radar Cross Section", sección
transversal de radar). El píxel de inicio y los píxeles
circundantes son escogidos como candidato cuando se satisfacen los
siguientes criterios:
- -
- el píxel más brillante del candidato tiene una intensidad superior a un umbral dependiente de la intensidad global de la imagen,
- -
- el número de píxeles pertenecientes a un candidato está situado entre un valor mínimo y un valor máximo; el valor máximo depende aquí de la longitud de la forma del objeto visible en la imagen en la dirección azimutal y puede escogerse como consecuencia de ello de forma correspondiente a la velocidad máxima a detectar,
- -
- la intensidad media de los píxeles de un candidato es considerablemente superior a la intensidad media de las inmediaciones,
- -
- el píxel de un candidato forma una zona cerrada,
- -
- ningún píxel del candidato que acaba de ser considerado toca un píxel de otro candidato ya detectado.
Tras la comprobación exitosa de estos criterios,
el candidato ha sido detectado exitosamente en la correspondiente
imagen SL. Los píxeles del candidato, que satisfacen las condiciones
anteriormente citadas, forman en una realización ventajosa de la
invención una así denominada forma inicial S^{(k)}_{M,0} (índice M
del inglés "Moving target", objetivo móvil) del candidato en la
imagen SL k.
Tras la comprobación de estos criterios para un
píxel inicial se repiten los mismos pasos para los restantes píxeles
de inicio con igual intensidad y a continuación se repiten para
aquéllos con menor intensidad, hasta que se alcanza un valor umbral
de intensidad.
Tras la evaluación de la primera imagen SL
k = 1 se evalúan también las restantes imágenes SL, de forma
que se obtienen para cada imagen SL candidatos y formas iniciales
asociadas. En el siguiente paso, los candidatos obtenidos en las
distintas imágenes SL son asociados entre sí, es decir se intenta
seguir a un candidato tras la primera detección en la imagen
k_{0}, con ayuda de los vectores desplazamiento estimados en la
siguiente sección, a través de las imágenes SL k (en inglés
"tracking", seguimiento, véase la siguiente sección). En caso
de un seguimiento exitoso también las distintas formas iniciales
S^{(k)}_{M,0} de las diferentes imágenes SL k son asociadas
al respectivo candidato.
La estimación de velocidad y posición se produce
para cada candidato en varios pasos:
- -
- Medida de los vectores desplazamiento (en ingles "displacement vectors") entre respectivamente dos imágenes SL consecutivas de la secuencia
- -
- Estimación independiente de la velocidad azimutal con un modelo de observación para las posiciones azimutales y un estimador de máxima verosimilitud
- -
- Estimación independiente de la velocidad en profundidad con un modelo de observación para las posiciones en profundidad y un estimador de máxima verosimilitud
- -
- Estimación conjunta de velocidad y posición mediante un modelo de observación ampliado para posiciones empleando los primeros valores estimados como valores iniciales, en que en una realización ventajosa de la invención se tiene en cuenta otro parámetro para la compensación del solapamiento de frecuencias en el espectro Doppler.
En una realización ventajosa de la invención, en
el modelo de observación para la estimación conjunta de velocidad y
posición se tienen en cuenta, además de las posiciones de los
candidatos en las distintas imágenes SL, también las amplitudes de
los candidatos en las respectivas imágenes SL.
Los vectores desplazamiento para un candidato son
medidos entre respectivamente dos imágenes consecutivas s_{k} y
s_{k+1} de la secuencia. Para ello puede emplearse un algoritmo de
encaje de bloques, tal como es conocido por ejemplo a partir de la
telefonía con imagen [9]. En este algoritmo, en vez del candidato
se coloca una ventana en la imagen s_{k+1}, de forma que el
candidato está situado en el punto central (véase la figura 2).
Entonces, en la imagen s_{k} y partiendo de la misma posición se
desplaza una segunda ventana dentro de una determinada zona de
búsqueda hasta el momento en que alcanza la posición, en la que los
valores de amplitud de los píxeles en ambas ventanas tienen la
máxima correlación. Se supone que la diferencia de posición entre
ambas ventanas corresponde al vector desplazamiento del candidato
entre ambas imágenes. Este vector desplazamiento se asocia a la
imagen s_{k+1}, de forma que para la primera imagen de la
secuencia no existe ningún vector desplazamiento. Para la medida de
la correlación pueden emplearse diferentes criterios de encaje, tal
como por ejemplo el coeficiente de correlación cruzada normalidad
(NCCF, del inglés "Normalised Cross Correlation Function"), el
error cuadrático medio (MSE, del inglés "Mean Square Error") o
la diferencia absoluta media (MAD, del inglés "Mean Absolute
Difference"). El criterio NCCF produce los mejores resultados,
pero con vistas a un tiempo de cálculo más corto puede emplearse
también el criterio MSE, que proporciona resultados casi igual de
buenos. El criterio NCCF se define como
(3)C_{Ns_{k+1^{s}k}}(D_{X},D_{y})
= \frac{\sum\limits_{x,y}[s_{k+1}(x,y)\cdot
s_{k}(x-D_{x},y-D_{y})]}{\sqrt{\sum\limits_{x,y}s^{2}_{k+1}(x,y)\cdot\sum\limits_{x,y}s^{2}_{k}(x-D_{x},y-D_{y})}}
en que (x, y) es una de las
posiciones dentro de la ventana en la imagen s_{k+1}, y D_{x} y
D_{y} designan las diferencias de posición entre ambas ventanas.
El vector desplazamiento de la primera pareja de imágenes k_{0},
k_{0}+1 se emplea para seguir al candidato en la imagen k_{0}+2,
ya que se espera que la dirección de movimiento del candidato sólo
se modifique de forma no esencial de imagen a imagen. Así es
posible seguir al candidato también a través de las otras imágenes
de la secuencia hasta la imagen k_{0}+K_{M}-1,
es decir la última imagen en la que el candidato fue detectado sobre
la base de sus valores de amplitud. K_{M} es con ello el número
total de imágenes en las fue detectado el
candidato.
A partir del vector desplazamiento en la unidad
[píxel/imagen] \overline{D}^{(k)} =
(D_{x},D_{y})^{(k)} puede calcularse la velocidad
observada en [m/s], teniendo en cuenta la distancia entre puntos de
imagen \deltax (en inglés "pixel spacing"), que se supone
igual en la dirección azimutal y en profundidad, y la diferencia de
tiempo \Deltat entre dos imágenes consecutivas, como sigue
(4)\overline{v}_{M,m} =
\frac{\overline{D}^{(k)}\delta x}{\Delta
t}
La diferencia de tiempo \Deltat resulta
empleando (2) y la distancia mínima R_{M,0} entre la antena y el
candidato móvil considerado
(5)\Delta t
\approx \frac{\Delta\theta \ R_{M,0}}{v_{Ax}} \approx - \frac{\Delta
f_{k} \ \lambda \ R_{M,0}}{2v^{2}_{Ax}} \ para \ sen\theta \approx
\theta \approx
tan\theta
en que \Delta \theta es la
diferencia de ángulo y \Deltaf_{k} es la diferencia de las
frecuencias centrales de vista entre dos imágenes consecutivas. El
tiempo t por lo tanto no es igual en todos lados en la imagen, sino
que depende de la distancia en
profundidad.
La velocidad observada \overline{v}_{M,m} no
coincide por diferentes motivos con la verdadera velocidad:
- -
- en la dirección azimutal por compresión o expansión del espectro, combinada con tiempos de observación de los objetos móviles en las imágenes SL que se apartan de los de los objetos estáticos
- -
- en la dirección en profundidad por la corrección de migración en profundidad
Más allá de ello hay un desplazamiento en el
tiempo de aquellos objetos móviles que se mueven en la dirección en
profundidad. Este desplazamiento en el tiempo es debido al
desplazamiento Doppler adicional
(6)f_{m} = -
\frac{2v_{My} \
sen\eta}{\lambda}
en que \eta es el ángulo de
visión (corresponde 90º - ángulo de incidencia) y resulta ser (véase
(2))
(7)\Delta
t_{M} = - \frac{f_{M} \ \lambda \ R_{M,0}}{2v^{2}_{Ax}} =
\frac{v_{My}\ sen\eta\cdot
R_{M,0}}{v^{2}_{Ax}}
A partir de este desplazamiento en el tiempo
resulta una reproducción de tales objetos en otras imágenes
distintas a las imágenes SL esperadas.
En lo que sigue se analizan separadamente en
primer lugar ambas componentes de la velocidad a observar y con ello
la desviación de las magnitudes observadas respecto a las magnitudes
reales.
En la dirección azimutal, los falseamientos de la
velocidad se explican mediante el hecho de que las posiciones
azimutales de los objetos móviles no coinciden con las posiciones
reales. Ouchi [10] ha mostrado que los objetos móviles en las
imágenes SL aparecen en posiciones azimutales tales como si tuvieran
una velocidad el doble de grande respecto a la real. Ouchi ha
empleado aquí sin embargo la aproximación v_{Mx}/v_{Ax} <<
1, que no se cumple en el caso de plataformas portadoras lentas y
objetos rápidos. Aquí se deriva por ello un factor más preciso
m_{v_{Mx}} como cociente entre la componente de velocidad
v_{Mx,a} a observar derivada analíticamente y la componente real
de velocidad v_{Mx}, que es válido sin esta aproximación y parte
de las posiciones azimutales p_{Mx} a observar del objeto
móvil:
(8)m_{v_{Mx}}
= \frac{v_{Mx,a}}{v_{Mx}} =
\frac{p_{Mx}}{v_{Mx}t}
Como el comportamiento de los objetos móviles es
prácticamente independiente de la posición azimutal, la posición
azimutal puede igualarse sin limitación de generalidad en el
instante temporal t=0 a p_{Mx,0}=p_{Mx}(t=0)=0. En (5)
puede ponerse entonces \Deltat=t y \Deltaf_{k}=f_{D}, es
decir el desplazamiento Doppler resultante. Si se designa la
posición azimutal de la antena por p_{Ax}, es válido aplicando (1)
y (2)
(9)m_{v_{Mx}}
\approx - \frac{1}{v_{Mx}} \cdot \frac{p_{Ax} + R_{M,0} \
tan\left(arcsen\frac{f_{D}\lambda}{2v_{Ax}}\right)}{\frac{f_{D}
\ \lambda \
R_{M,0}}{2v^{2}_{Ax}}}
Si se realiza nuevamente la aproximación sen
\theta \approx \theta \approx tan\theta, se puede
modificar esto con
(10)f_{D} = -
\frac{2(v_{Ax} - v_{Mx})}{\lambda}\cdot
sen\theta
y p_{Ax} = v_{Ax}t
obteniendo
(11)m_{v_{Mx}}
= \frac{v_{Mx,a}}{v_{Mx}} \approx - \frac{v_{Ax}}{v_{Mx}} \cdot
\left(1 -\frac{v^{2}_{Ax}}{(v_{Ax} -
v_{Mx}}^{2}\right)
De ello resulta para la velocidad real
subyacente
(12)v_{Mx} =
f^{1}(v_{Mx,a}) = v_{Ax} - \sqrt{\frac{v^{3}_{Ax}}{v_{Mx,a}+v_{Ax}}}
\ para \
v_{Mx,a}>-v_{Ax}
Esta relación se representa gráficamente en la
figura 3 para v_{Ax} = 82,5 m/s = 297 km/h. Se observa que esta
relación coincide con el factor 2 hallado por Ouchi para velocidades
v_{Mx} pequeñas. Si se supone que los vectores desplazamiento
reproducen los desplazamientos reales del candidato de la imagen
k-1 a la imagen k, es decir no están perturbados, la
inversa de la ecuación (12) representa entonces una relación entre
la velocidad v_{Mx} real y la velocidad medida mediante los
vectores desplazamiento. Con la ecuación (4) resulta por ello a
partir de (12) un primer valor estimado para la velocidad v_{Mx}
en la imagen k en función de la componente de vector desplazamiento
D^{(k)}_{x}
(13)\hat{v}^{(k)}_{Mx,1} = v_{Ax}
\cdot \left[1-\frac{1}{\sqrt{1-\frac{2D^{(k)}_{x} \ \delta
xv_{Ax}}{\Delta f_{k} \ \lambda \ R_{M,0}}}}\right] \ para \
v_{Mx,a}>-v_{Ax}
Habitualmente las magnitudes observadas, es decir
en este caso los vectores desplazamiento, no están sin embargo sin
perturbar. En un modelo de observación puede suponerse que todas las
perturbaciones tomadas conjuntamente pueden representarse mediante
un ruido n^{(k)} aditivo distribuido normalmente (véase la figura
4). Partiendo de este modelo de observación, es apropiado el
denominado procedimiento de estimación de máxima verosimilitud para
obtener un valor estimado óptimo. En este procedimiento de
estimación no es necesario ningún conocimiento a priori sobre
la densidad de probabilidad de la magnitud a estimar [11]. Con la
regla de estimación de máxima verosimilitud se obtiene aquel valor
v_{Mx} como valor estimado \hat{v}_{Mx,Ml}, del cual han
resultado los valores v^{(k)}_{Mx,m} con la máxima
probabilidad:
\hskip3.5cm\hat{v}_{Mx,ML} = arg \ max \left(p_{v_{Mx,m}}|v_{Mx}\left(v_{Mx,m}{}^{(k_0)},...,v_{Mx,m}{}^{(k_0+k_M-1)}|v_{Mx}\right)\right) \hskip3.2cm (14) {}\hskip5.7cm ^{v_{Mx}}
Suponiendo una independencia estadística de las
perturbaciones en imágenes contiguas resulta una densidad de
probabilidad conjunta condicionada en la ecuación (14) como producto
de distribuciones normales. Tras sustituir esta densidad de
probabilidad conjunta, debe derivarse e igualarse a cero la ecuación
(14) para la obtención del valor estimado. Se puede obtener más
fácilmente el valor estimado de máxima verosimilitud mediante la
derivación del logaritmo negativo de la densidad de probabilidad
conjunta, la denominada función de coste ML (del inglés "Maximum
Likelihood", máxima verosimilitud). Con la relación de la
ecuación (12) resulta de ello un valor estimado para la velocidad
azimutal de
(15)\hat{v}_{Mx,ML} =
f^{-1}\left[\frac{1}{K_{M}}\sum\limits^{k_{0}+K_{M}-1}_{k=k_{0}}v^{(k)}_{Mx,m}\right].
Tras sustituir las ecuaciones (4) y (2) resulta
finalmente el valor estimado de máxima verosimilitud (ML) en función
de las componentes de vector desplazamiento D_{(k)}^{x}
(16)\hat{v}_{Mx,ML} =
f^{-1}\left[\frac{1}{K_{M}}\sum\limits^{k_{0}+K_{M}-1}_{k=k_{0}}
\frac{2D^{(k)}_{x}\delta xv_{Ax}{}^{2}{}}{\Delta f_{k} \ \lambda
R_{m,0}}\right].
Como ya se ha citado, la componente de velocidad
en la dirección en profundidad v_{My,m} obtenida a partir de los
vectores desplazamiento está igualmente falseada, pero de modo
distinto a la componente azimutal. En la velocidad en profundidad,
el falseamiento se basa en que las posiciones en profundidad de
aquellos objetos cuya velocidad en profundidad es distinta de cero,
están desplazadas por la corrección de migración en profundidad. Aún
así, con ayuda de los vectores desplazamiento puede obtenerse un
primer valor estimado para la velocidad en profundidad. Aquí, las
componentes en profundidad de los vectores desplazamiento deben ser
corregidas en cuanto a las diferencias de posición
\Deltay^{(k)}_{T} entre respectivamente dos imágenes SL
consecutivas provocadas por la corrección de migración en
profundidad. Un valor estimado de máxima verosimilitud para la
velocidad en profundidad se obtiene con ello análogamente a la
velocidad azimutal con el modelo de observación conforme a la figura
5
(17)\hat{v}_{Mx,ML} =
\frac{2v^{2}_{Ax}\delta y}{\Delta f_{k} \ \lambda R_{m,0} \
K_{M}}\left[\left(- \sum\limits^{k_{0}+K_{M}-1}_{k=k_{0}}
D^{(k)}_{y} \right) + \Delta y_{T}^{(k_{0}-1)}(R_{M,0}) - \Delta
y_{T}^{(k_{0}+K_{M}-1)}(R_{M,0})\right],
en que la distancia entre píxeles
en la dirección en profundidad se designa por \deltay. Los
términos ahí contenidos de la corrección de migración en profundidad
resultan
en
(18)\Delta
y^{(k)}_{T}(R_{m,0}) = \left(\sqrt{(t^{(k)}(R_{M,0}) \cdot
v_{Ax})^{2} + R^{2}_{M,0}} -
R_{M,0}\right)\cdot\frac{sen\eta}{\delta
y}
Aquí, t^{(k)}(R) es el tiempo de la
ecuación (2) y \eta es el ángulo de visión (corresponde 90º-ángulo
de incidencia).
El valor estimado según la ecuación (17) es
relativamente impreciso, ya que los desplazamientos en posición de
la corrección de migración en profundidad son casi tan grandes como
los del propio movimiento del objeto. Una estimación más precisa de
estas componentes se lleva a cabo por ello conjuntamente con la
componente azimutal y la posición en un segundo paso. En una
realización ventajosa de la invención es posible aumentar aún más la
precisión teniendo en cuenta los valores de amplitud en las
distintas imágenes SL.
La estimación conjunta de velocidad y posición es
una novedad esencial respecto al documento DE 196 18 155 C2. Hace
posible la detección prácticamente independiente de la dirección de
movimiento de los objetos y el aumento de los intervalos de medida
para ambas componentes de velocidad. Más allá de ello se realiza de
este modo una estimación de posición muy precisa -para sistemas SAR
de un canal-, que tampoco está contenida aún en el documento DE 196
18 155 C2.
Como se describe en la primera sección, el efecto
esencial de la velocidad de objeto en la dirección en profundidad es
un desplazamiento en la dirección azimutal. Existe con ello una
ambigüedad entre un objeto móvil reproducido de forma desplazada
debido a la velocidad en profundidad y un objeto estático en una
posición azimutal que se aparta en este desplazamiento. Aquí se
explica por ello un procedimiento para poder eliminar esta
ambigüedad mediante valoración de las posiciones en las distintas
imágenes de la secuencia o respectivamente poder mejorar la
estimación de velocidad y posición al evaluar estas informaciones.
Ventajosamente, además de la evaluación de las posiciones puede
tenerse en cuenta también la amplitud de señal dependiente del
tiempo. Para ello, la velocidad en profundidad y la posición
azimutal son estimadas conjuntamente conforme a la invención. Junto
a la dependencia de la posición azimutal medida respecto a la
velocidad en profundidad existe además una dependencia pequeña de
los vectores desplazamiento D^{(k)} medidos respecto a la
posición, de forma que en esta sección deben estimarse conjuntamente
por ejemplo cuatro parámetros \hat{p}_{Mx,0}, \hat{p}_{My,0}
\hat{v}_{Mx} y \hat{v}_{My}, así como un parámetro a introducido
adicionalmente para la compensación del solapamiento de frecuencias
mediante un modelo de observación conjunto y un procedimiento de
optimización. Los valores de entrada para el procedimiento de
optimización son los valores estimados de máxima verosimilitud
procedentes de la sección previa para la velocidad (ecuaciones (16)
y (17)) así como las posiciones individuales promediadas
\overline{p}^{(k)}_{M} procedentes de las imágenes SL como valores
iniciales para la posición. La componente azimutal de la posición
inicial es corregida aquí en un desplazamiento provocado por la
velocidad en
profundidad
profundidad
(19)\Delta
X_{M} = - \frac{v_{My} \ sen\eta}{v_{Ax}}\cdot
R_{M,0},
en que para v_{My} se emplea en
este punto el valor estimado \hat{v}_{My,ML} de la ecuación
(17).
\newpage
Para poder llevar a cabo la estimación conjunta
de velocidad y posición, se obtienen relaciones analíticas para las
componentes azimutal y en profundidad de la posición, dependiente
del tiempo y que tiene error, de un objeto que se mueve
arbitrariamente. Ventajosamente, esta relación analítica es ampliada
mediante la amplitud, dependiente del tiempo, del objeto. En esta
tercera relación entra la velocidad en profundidad y el
debilitamiento de la señal por el diagrama de antena. Además de
ello se tiene en cuenta en las relaciones analíticas el efecto del
solapamiento de frecuencias en el espectro Doppler. Este
solapamiento de frecuencias es provocado por una velocidad en
profundidad grande, que desplaza más allá de la mitad de la
frecuencia de exploración f_{p} las partes espectrales de
un objeto así movido correspondientemente al desplazamiento Doppler
según la ecuación (5) (véase la figura 6). A través de ello, tales
objetos son reproducidos en otras imágenes de la secuencia (por
ejemplo al final de la secuencia en vez de al principio) y también
la variación de la amplitud es desplazada adicionalmente en el
tiempo. Mediante las relaciones analíticas obtenidas para las
posiciones dependientes del tiempo se establece una función de
coste, en la que entran los errores cuadráticos entre las posiciones
medidas y las obtenidas analíticamente. Ventajosamente, la función
de coste es ampliada mediante la relación obtenida analíticamente
para la amplitud dependiente del tiempo, mediante el recurso de que
se tienen en cuenta como término de coste adicional los errores
cuadráticos entre amplitudes medidas y calculadas analíticamente.
Por supuesto pueden tenerse en cuenta también errores de mayor orden
y/o errores absolutos en la función de coste. Constituye el
objetivo del procedimiento de optimización subsiguiente minimizar
los costes por variación de los cinco parámetros, ya que en una
función de coste se corresponden costes bajos con una probabilidad
elevada de la combinación de parámetros.
La posición azimutal, dependiente del tiempo y
que tiene error, de un objeto móvil en las direcciones en
profundidad y azimutal para la posición de referencia
p_{Mx,0}=p_{Mx}(t=0)=0 resulta analíticamente con la
ecuación (1) en
X'^{(k)}_{M,a}
= p_{Ax}\left(t^{(k)}_{M}\right) - R'_{M} \
sen\theta\left(t^{(k)}_{M}\right)
(20)X'^{(k)}_{M,a} =
v_{Ax}t^{(t)}_{M} +
R'_{M}\left(t^{(k)}_{M}\right)\frac{f_{k} \
\lambda}{2v_{Ax}}
en que f_{k} debe
corresponder a la frecuencia Doppler del objeto móvil. R'_{M} es
la distancia en profundidad variable en el tiempo y falseada por el
desplazamiento azimutal. Por t^{(k)}_{M} se designa
respectivamente el instante de tiempo en el que se reproduce el
objeto móvil en la imagen SL k. Como consecuencia de la
velocidad en profundidad v_{My} pueden aparecer frecuencias
Doppler situadas en la banda de base del espectro Doppler (a=0) o en
caso de aparición de solapamiento de frecuencias fuera (a=-1 ó a=1)
(véase la figura 6). Como el parámetro a puede tomar dos valores
diferentes para el mismo objeto en el transcurso de la secuencia de
imágenes SL, es dotado del superíndice (k). En cualquier caso, en
imágenes consecutivas de la secuencia, en las que se detectó un
candidato, el parámetro a^{(k)} permanece constante. Con ello, la
ecuación (20) se convierte
en
(21)X'^{(k)}_{M,a} =
v_{Ax}t^{(k)}_{M} + R'_{M}\left(t^{(k)}_{M}\right)
\frac{(f_{D}+a^{(k)}\cdot
f_{p})\cdot\lambda}{2v_{Ax}}
Tras sustituir la relación
(22)f_{D}(t) =
- \frac{2(v_{Ax} - v_{Mx})}{\lambda}\cdot \ sen\theta -
\frac{2v_{My}}{\lambda}\cdot \ sen\eta \
cos\theta
resulta finalmente con la ecuación
(11)
(23)X'^{(k)}_{M,a}\approx
\left(v_{Ax} - \frac{(v_{Ax} - v_{Mx})^{2}}{v_{Ax}}\right)
t^{(k)}_{M} + \frac{(v_{Ax} - v_{Mx})}{v_{ax}} \cdot p_{Mx,0} +
R'_{M}\left(t^{(k)}_{M}\right)\left(\frac{a^{(k)} \cdot
f_{p} \cdot \lambda}{2v_{Ax}} - \frac{v_{My}}{v_{Ax}} \cdot sen\eta
\
cos\theta_{k}\right)\hskip1cm
Se reconoce aquí una dependencia de p_{Mx,0},
v_{Mx}, v_{My} y a^{(k)}.
Las posiciones de profundidad de suelo
Y'^{(k)}_{M} resultan analíticamente con la ecuación (18) en
(24)Y'^{(k)}_{M,a} =
\sqrt{[(v_{Ax} - v_{Mx})t^{(k)}_{M} - p_{Mx,0}]^{2} +
[v_{My}t^{(k)}_{M} + p_{My,0}]^{2}} + \Delta
y^{(k)}_{T},
es decir dependen de p_{Mx,0},
p_{My,0}, v_{Mx} y v_{My}. Finalmente puede proporcionarse
ventajosamente un valor analítico para la amplitud de señal en la
imagen k despreciando perturbaciones tales como por ejemplo
reflexiones dependientes de la
dirección
(25)|u^{(k)}_{a}|=|u_{max}|\cdot
si^{2}\left(\pi\frac{1}{\lambda}\cdot
sen\theta_{k}\right)
en que u_{max} es el valor máximo
de amplitud que surge del respectivo objeto y los efectos de
saturación siguen sin tenerse en cuenta. En caso de la aparición de
solapamiento de frecuencias se falsea también el desplazamiento en
le tiempo según la ecuación (7)
quedando
(26)\Delta
t_{M}{}^{(k)} = - \frac{f_{D}+a^{(k)}\cdot f_{p})\lambda \
R_{M,0}}{2v^{2}_{Ax}},
de forma que entonces también las
amplitudes en las imágenes SL según la ecuación (25) aparecen
correspondientemente desplazadas en el
tiempo.
Para la estimación común se calculó el error
cuadrático entre las posiciones medidas y las obtenidas
analíticamente según las ecuaciones (23) y (24) y se introdujo en la
función de coste ya citada, que resulta en
(27)\zeta =
\frac{1}{k_{M}} \sum\limits^{k_{0}+K_{M}-1}_{k_{0}} (X'^{(k)}_{M}
- \hat{X}'^{(k)}_{M})^{2} + (Y'^{(k)}_{M} -
\hat{Y}'^{(k)}_{M})^{2}.
En una realización ventajosa de la invención se
tienen en cuenta en la función de coste según la ecuación (27)
adicionalmente las amplitudes medidas y obtenidas analíticamente
según la ecuación (25). La función de coste ampliada resulta con
ello en
(28)\zeta =
\frac{1}{k_{M}} \sum\limits^{k_{0}+K_{M}-1}_{k_{0}} (X'^{(k)}_{M}
- \hat{X}'^{(k)}_{M})^{2} + (Y'^{(k)}_{M} -
\hat{Y}'^{(k)}_{M})^{2}+\lambda_{A}\left(\frac{u^{(k)}}{\overline{u}}
-
\frac{\hat{u}^{(k)}}{\overline{\hat{u}}}\right)^{2}
Como en la ecuación (27) y la ecuación (28) los
valores calculados analíticamente según las ecuaciones (23) hasta
(25) son sustituidos respectivamente por los valores a estimar para
los parámetros, empezando con los valores de las secciones
precedentes, el índice a fue sustituido respectivamente por la ^.
Las medidas de las amplitudes u^{(k)} y de las posiciones
(X'_{M}, Y'_{M})^{(k)} se llevan a cabo en las imágenes
SL. Para ello se emplea respectivamente el centro de gravedad del
objeto observado. Para conseguir una independencia respecto al
coeficiente de retrodispersión, es decir respecto a u_{max}, en el
término de amplitud se divide respectivamente por la amplitud media
u ó \hat{u}. El promediado se produce aquí sobre todos los valores
u^{(k)} o respectivamente \hat{u}^{(k)}, en los que fue
detectado el candidato. Además, el error cuadrático de la amplitud
es pesado con un parámetro \lambda_{A}, para establecer la
relación de los errores cuadrá-
ticos.
ticos.
En una realización a modo de ejemplo del
procedimiento conforme a la invención se minimiza la función de
coste establecida para la obtención de los valores estimados
mejorados para los cinco parámetros \hat{p}_{Mx,0},
\hat{p}_{My,0}, \hat{v}_{Mx}, \hat{v}_{My} y a por ejemplo con
ayuda del método de optimización
Downhill-Simplex [12]. Los valores iniciales
para la optimización son como se ha indicado los valores estimados
obtenidos hasta ahora a partir de las secciones previas. El método
de optimización Downhill-Simplex modifica
respectivamente uno de los parámetros mientras que disminuyan los
costes según la función de coste prefijada o empeoren en como máximo
N_{Opt,worse} iteraciones. Luego se modifica el siguiente
parámetro, etc. Durante la búsqueda se disminuye el tamaño de paso.
Se termina tras un número fijo de iteraciones o cuando ninguna
modificación de parámetros tras más de N_{Opt,worse} pasos produce
una reducción de costes. El método de optimización
Downhill-Simplex es convergente y puede
superar mínimos locales.
En una realización ventajosa de la invención, a
partir de las componentes azimutales de los vectores desplazamiento
D_{x}^{(k)} del candidato se determina un valor estimado
\hat{v}_{Mx} para la componente azimutal del vector velocidad
del candidato. Este valor estimado se mantiene entonces constante
durante el método de optimización para la estimación de los
restantes parámetros.
En otra realización ventajosa de la invención, a
partir de las diversas posiciones en profundidad Y'^{(k)}_{M} del
candidato en las distintas imágenes SAR de vista única se determina
un valor estimado para la componente en profundidad \hat{P}_{My,0}
del vector posición del candidato, que se mantiene constante durante
el método de optimización para la estimación de los restantes
parámetros a estimar.
Como se ha explicado ya en la sección
"Estimación de velocidad y posición", los candidatos son
seguidos (en inglés "tracking") de imagen a imagen
correspondientemente a los vectores desplazamiento estimados en las
parejas de imágenes precedentes. Se verifica que los candidatos
seleccionados son objetos móviles cuando
\newpage
- -
- es posible el seguimiento de un candidato desde la imagen SL k_{0} a la imagen SL k_{0}+1 y más allá hasta la imagen SL k_{0}+K_{M}-1 con ayuda de los vectores desplazamiento sobre por ejemplo al menos K_{M,min}=4 imágenes SL de la secuencia. Aquí es aceptable una interrupción del seguimiento en una o dos imágenes SL consecutivas. Además debe cumplirse que
- -
- uno de los dos valores de las componentes de velocidad alcanza los siguientes valores mínimos:
- Componente azimutal |\hat{v}_{Mx}|: 5 km/h o componente en profundidad |\hat{v}_{My}|: 20 km/h
La compensación de los errores de reproducción
con el objetivo de representación correcta de los objetos móviles
puede producirse de dos maneras, generando una secuencia de imágenes
SAR compensada o una imagen de vistas múltiples compensada. El fondo
se conserva en ambos casos.
En el primer caso de la secuencia de imágenes SAR
compensada se llevan a cabo los siguientes pasos en las imágenes SL
individuales:
- -
- Extracción de los objetos móviles con las formas iniciales S^{(k)}_{M,0} de las imágenes SL originales
- -
- Cálculo de las posiciones (X_{M}, Y_{M})^{(k)} en las distintas imágenes SL con ayuda de los valores estimados obtenidos para posición y velocidad y los instantes de las imágenes según la ecuación (2)
- -
- Introducción de los objetos móviles en las posiciones calculadas (X_{M}, Y_{M})^{(k)} con la forma S_{M}. El desplazamiento en el tiempo según la ecuación (26) se compensa mediante el recurso de que los objetos son extraídos en imágenes correspondientemente distintas a aquéllas en las que son introducidos de nuevo.
Un resultado a modo de ejemplo puede verse en la
figura 10b). En comparación con la imagen original en la figura 10a)
todos los errores de representación han sido ampliamente
compensados.
En el segundo caso de la imagen de vistas
múltiples compensada se llevan a cabo los siguientes pasos en las
diversas imágenes SL:
- -
- Extracción de los objetos móviles con las formas iniciales S^{(k)}_{M,0} de las imágenes SL originales
- -
- Introducción de los objetos móviles en la posición estimada de referencia \hat{P}_{M,0} con la forma S_{M}. Aquí también se compensa el desplazamiento en el tiempo según la ecuación (26) mediante extracción e inserción eventualmente en imágenes eventualmente diferentes.
- -
- Promediado de vistas múltiples, es decir promediado de los valores de amplitud procedentes de diferentes imágenes SL.
Un resultado a modo de ejemplo puede verse en la
figura 11b). En comparación con ella, la figura 11a) muestra una
imagen de vistas múltiples de un procesador SAR convencional. Se
reconocen claramente los errores de reproducción de los objetos
móviles, que están compensados ampliamente en la figura 11b).
El procedimiento conforme a la invención fue
aplicado a datos SAR en bruto simulados y reales. En el caso de los
datos simulados se trató de datos SAR en bruto simulados de objetos
móviles, que fueron superpuestos a datos de fondo (datos de eco
parásito). Tanto los datos SAR en bruto reales de vehículos móviles
como también los datos de fondo empleados para la superposición
proceden del sistema DOSAR de la empresa Dornier GmbH en la banda C
(5,3 GHz) o la banda X (9,6 GHz). La relación de señal a eco
parásito en la imagen SL tuvo un valor de entre 3 y 8 dB. La
velocidad de antena fue de aproximadamente 300 km/h o 83 m/s, y se
generó y empleó una secuencia de 30 imágenes. La anchura de banda
Doppler aquí empleada tuvo un valor de 1500 Hz, que corresponde
aproximadamente a 2,5 veces la anchura de banda de eco parásito.
La velocidad azimutal v_{Mx} pudo estimarse en
objetos con velocidades azimutales entre +/-5 km/h (+/-1,4 m/s) y
+/-120 km/h (+/-33,3 m/s) con una desviación estándar del error de
estimación de 2,7 km/h. Para la velocidad en profundidad, el valor
correspondiente fue de 8,5 km/h para el intervalo entre +/-20 km/h
(+/-5,6 m/s) y +/-120 km/h (+/-33,3 m/s) (véase la figura 8). En
comparación con los otros procedimientos conocidos a partir de la
bibliografía se amplió el intervalo de medida para ambas componentes
de velocidad (véase la figura 7), en que algunos intervalos (para
pequeñas velocidades así como el intervalo |v_{Mx}|< 22 km/h y
80 km/h < |v_{My}|< 120 km/h) fueron cubiertos por primera
vez por un procedimiento para datos SAR de un canal. El valor
superior del intervalo de medida para la velocidad en profundidad
fue determinado aquí para la frecuencia PRF de 1500 Hz disponible en
el sistema DOSAR para una frecuencia de portadora en la banda C (5,3
GHz).
Para la tasa de detección resulta lo siguiente:
En la zona entre +/-10 km/h (+/-2,8 m/s) y +/-80 km/h (+/-22,2 m/s)
son detectados el 96% de todos los objetos móviles, para una
velocidad superior o inferior al menos el 80%. La tasa de falsa
alarma fue de aproximadamente un 2%. Las tasas de detección y de
falsa alarma pueden regularse aquí ligeramente a través del número
mínimo K_{M,min} de las imágenes, en las que debe detectarse un
candidato, así como a través de los valores umbral de velocidad. En
los resultados indicados, el número mínimo fue K_{M,min}=4
imágenes.
En la estimación de posición se consiguieron los
siguientes resultados (véase la figura 9): La desviación estándar
del error estimado es de 28,5 m en azimut y 5,7 m en la dirección en
profundidad. En comparación con ello, en [6] se indican
aproximadamente 50 m para ambas componentes. Resulta por lo tanto en
conjunto tanto para la velocidad estimada como también para la
posición una mejora considerable respecto a procedimientos
conocidos hasta ahora.
Esto se refleja también en los resultados
conseguidos de imágenes. La figura 10 muestra una imagen SL a modo
de ejemplo procedente de una secuencia de imágenes SAR (figura 10a,
los objetos móviles detectados están marcados con un cuadrado
blanco) en comparación con una imagen SL compensada (b). Mientras
que en la imagen original los objetos móviles aparecen deformados y
fuera de la carretera o parcialmente han desaparecido completamente,
estos errores de reproducción han sido compensados ampliamente en la
figura 10b). Algo similar se muestra también en el caso de imágenes
de vistas múltiples. En la figura 11a) puede verse una imagen de
vistas múltiples de un procesador SAR convencional, en el que surgen
de forma particularmente clara las deformaciones de los objetos
móviles. La figura 11b) muestra en comparación con ello una imagen
de vistas múltiples compensada, en la que los objetos son
reproducidos nuevamente de forma ampliamente no deformada sobre la
carretera.
[1] R. K. Raney, "Synthetic aperture
imaging radar and moving targets", IEEE Trans. Aerospace and
Electronic Systems, Volumen AES-7, nº 3, pp.
499-505, Mayo de 1971.
[2] Y. Wang, R. Chellappa y Q.
Zheng, "CFAR detection of targets in fully polarimetric SAR
images", Technical Report, Department of Computer Science,
University of Maryland, College Park, Noviembre de 1993.
[3] A. Freeman y A. Currie,
"Synthetic aperture radar (SAR) images of moving targets",
GEC Journal of Research, Volumen 5, nº 2, 1987.
[4] E. D'Addio, M. Di Bisceglie y
S. Bottalico, "Detection of moving objects with airborne
SAR", Signal Processing, Volumen 36, nº 2, pp.
149-162, Marzo de 1994.
[5] S. Barbarossa y A. Farina:
"Detection and imaging of moving objects with synthetic aperture
radar, Part 2: Joint time-frequency analysis by
Wigner-Ville distribution." En IEE
Proceedings-F, Volumen 139, nº 1, pp.
89-97, febrero de 1992.
[6] J. R. Moreira y W. Keydel,
"A new MTI-SAR approach using the reflectivity
displacement method." IEEE Trans. Geoscience and Remote
Sensing, Volumen 33, nº 5, pp. 1238-1244,
septiembre de 1995.
[7] M. Kirscht, "Detection, velocity
estimation and imaging of moving targets with
single-channel SAR." En Proc. of European
Conference on Synthetic Aperture Radar, EUSAR'98, Friedrichshafen,
Alemania, pp. 587-590, Mayo de 1998.
[8] J. C. Curlander y R. N.
McDonough: Synthetic Aperture Radar: Systems and Signal
Processing, New York: John Wiley & Sons, 1991, pp.
193f.
[9] M. Bierling, "Displacement
estimation by hierarchical blockmatching", 3rd SPIE Symposium on
Visual Communications and Image Processing, Cambridge, EE.UU., pp.
942-951, 1988.
[10] K. Ouchi, "On the multilook images
of moving targets by synthetic aperture radars", IEEE Trans.
Antennas and Propagation, Volumen AP-33, nº 8,
pp. 823-827, 1985.
[11] J. L. Melsa y D. L. Cohn,
Decision and Estimation Theory, Tokyo, Japón:
McGraw-Hill, 1978.
[12] J. A. Nelder y R. Mead, A
Simplex Method for Function Minimization, Computer Journal,
nº 7, pp. 308-317, Julio de 1964.
Claims (8)
1. Procedimiento para la detección así como para
la estimación de velocidad y posición de objetos móviles en
imágenes SAR, que comprende los siguientes pasos de
procedimiento:
- generación de una secuencia de imágenes SAR de
vista única consecutivas en el tiempo, de igual polarización y de
una frecuencia central de vista que varía de imagen a imagen;
- detección de candidatos a objetos móviles en
las imágenes SAR de vista única de la secuencia mediante búsqueda
de regiones con una evolución de la intensidad que se desvía
respecto al entorno;
- estimación de velocidad de los candidatos
detectados mediante estimación de uno o más vectores desplazamiento
respectivamente de un candidato empleando la correlación entre
imágenes SAR de vista única consecutivas;
- verificación de los candidatos detectados como
objetos móviles,
caracterizado porque la
estimación de una o más componentes de velocidad de un candidato
detectado se produce conjuntamente con la estimación de una o más
componentes de posición del candidato, en que teniendo en cuenta
las posiciones del candidato en las distintas imágenes SAR de vista
única de la secuencia se establece una función de coste dependiente
de las componentes a estimar, la cual es minimizada mediante un
método de optimización para el o los parámetros a
estimar.
2. Procedimiento según la reivindicación 1,
caracterizado porque para el establecimiento de la función de
coste se tienen en cuenta adicionalmente las amplitudes de los
candidatos en las distintas imágenes SAR de vista única de la
secuencia.
3. Procedimiento según la reivindicación 1 ó 2,
caracterizado porque en la minimización de la función de
coste se tiene en cuenta otro parámetro a estimar para la
compensación del solapamiento de frecuencias en el espectro
Doppler.
4. Procedimiento según una de las
reivindicaciones precedentes, caracterizado porque a partir
de las componentes azimutales de los vectores desplazamiento de un
candidato se determina un valor estimado para la componente
azimutal del vector velocidad del respectivo candidato, cuyo valor
se mantiene constante durante el método de optimización para la
estimación conjunta de posición y velocidad de los restantes
parámetros a estimar.
5. Procedimiento según una de las
reivindicaciones precedentes, caracterizado porque a partir
de las distintas posiciones en profundidad de un candidato en las
distintas imágenes SAR de vista única se determina un valor
estimado para la componente en profundidad del vector posición del
respectivo candidato, cuyo valor se mantiene constante durante el
método de optimización para la estimación conjunta de posición y
velocidad de los restantes parámetros a estimar.
6. Procedimiento según una de las
reivindicaciones precedentes, caracterizado porque en la
detección de los candidatos se asocian a cada candidato hallado las
correspondientes regiones en las respectivas imágenes SAR de vista
única como formas iniciales individuales.
7. Procedimiento según una de las
reivindicaciones precedentes, caracterizado porque
correspondientemente a la velocidad estimada de un candidato la
forma de un candidato se estima por corrección de las respectivas
formas iniciales.
8. Procedimiento según la reivindicación 6 ó 7,
caracterizado porque los errores de representación de los
objetos móviles dentro de una secuencia de las imágenes SAR de vista
única se compensan mediante el recurso de que los objetos móviles
con las formas iniciales correspondientes se extraen de las imágenes
SAR de vista única y se vuelven a introducir en las imágenes SAR de
vista única en las posiciones estimadas o calculadas mediante las
formas iniciales o las formas estimadas.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10226508A DE10226508A1 (de) | 2002-06-14 | 2002-06-14 | Verfahren zur Detektion sowie Geschwindigkeits- und Positionsschätzung von bewegten Objekten in SAR-Bildern |
DE10226508 | 2002-06-14 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2252574T3 true ES2252574T3 (es) | 2006-05-16 |
Family
ID=29557819
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES03008673T Expired - Lifetime ES2252574T3 (es) | 2002-06-14 | 2003-04-16 | Procedimiento para la deteccion asi como para la estimacion de velocidad y posicion de objetos moviles en imagenes sar. |
Country Status (5)
Country | Link |
---|---|
US (1) | US6952178B2 (es) |
EP (1) | EP1372000B1 (es) |
AT (1) | ATE315238T1 (es) |
DE (2) | DE10226508A1 (es) |
ES (1) | ES2252574T3 (es) |
Families Citing this family (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4278507B2 (ja) * | 2003-12-26 | 2009-06-17 | 富士通テン株式会社 | Fm−cwレーダ装置 |
DE102004061538A1 (de) * | 2004-12-21 | 2006-06-29 | Siemens Ag | Verfahren zur Schätzung der Bewegung von Mobilfunkkunden |
US7548637B2 (en) * | 2005-04-07 | 2009-06-16 | The Board Of Trustees Of The University Of Illinois | Method for detecting objects in an image using pair-wise pixel discriminative features |
FR2886020B1 (fr) * | 2005-05-19 | 2007-10-19 | Eurocopter France | Systeme d'estimation de la vitesse d'un aeronef et son application a la detection d'obstacles |
US7498968B1 (en) * | 2006-05-22 | 2009-03-03 | Sandia Corporation | Synthetic aperture design for increased SAR image rate |
DE602006013113D1 (de) * | 2006-07-07 | 2010-05-06 | Selex Galileo Spa | Verfahren und Vorrichtung zur Detektion von bewegten Objekten mittels SAR Bildern |
US8125370B1 (en) | 2007-04-16 | 2012-02-28 | The United States Of America As Represented By The Secretary Of The Navy | Polarimetric synthetic aperture radar signature detector |
US8116522B1 (en) | 2008-08-25 | 2012-02-14 | The United States Of America As Represented By The Secretary Of The Navy | Ship detection system and method from overhead images |
US8698668B2 (en) * | 2008-11-11 | 2014-04-15 | Saab Ab | SAR radar system |
KR101006080B1 (ko) | 2009-03-26 | 2011-01-06 | 한국해양연구원 | 합성개구레이더를 이용한 이동체 속도 측정 방법 |
US8326081B1 (en) * | 2009-05-18 | 2012-12-04 | The United States Of America As Represented By The Secretary Of The Navy | Correlation image detector |
EP2278355A1 (en) * | 2009-06-30 | 2011-01-26 | Mitsubishi Electric R & D Centre Europe B.V. | Radar system |
FR2972266B1 (fr) * | 2011-03-03 | 2013-04-26 | Thales Sa | Procede de detection et de caracterisation d'une cible mobile sur une image radar |
US9035774B2 (en) | 2011-04-11 | 2015-05-19 | Lone Star Ip Holdings, Lp | Interrogator and system employing the same |
RU2474881C1 (ru) * | 2011-08-12 | 2013-02-10 | Открытое акционерное общество "Дальприбор" | Интерференционный обнаружитель движущегося подводного объекта |
CN102650689A (zh) * | 2012-05-17 | 2012-08-29 | 中国路桥工程有限责任公司 | 一种步进频率脉冲雷达位移测量方法 |
CN102914776B (zh) * | 2012-10-15 | 2014-07-23 | 西安电子科技大学 | 基于模糊c均值算法的多通道SAR动目标定位方法 |
US9297886B1 (en) * | 2013-03-12 | 2016-03-29 | Lockheed Martin Corporation | Space time adaptive technique for suppression of spaceborne clutter |
US9261593B1 (en) * | 2013-03-13 | 2016-02-16 | Lockheed Martin Corporation | Higher order processing for synthetic aperture radar (SAR) |
DE102013107402B3 (de) * | 2013-07-12 | 2014-11-20 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Schiffsdetektion in Interferometrie-Radardaten |
CN103454634B (zh) * | 2013-08-08 | 2015-07-08 | 上海交通大学 | 基于多普勒谱分析的sar运动目标检测方法 |
CN103728619B (zh) * | 2014-01-16 | 2016-02-17 | 北京航空航天大学 | 基于变重频技术的机载大斜视条带sar成像方法 |
RU2563140C1 (ru) * | 2014-03-25 | 2015-09-20 | Степан Анатольевич Шпак | Интерференционный обнаружитель движущегося морского объекта |
JP6349938B2 (ja) * | 2014-05-09 | 2018-07-04 | 日本電気株式会社 | 測定点情報提供装置、変動検出装置、方法およびプログラム |
US10436897B2 (en) * | 2014-12-08 | 2019-10-08 | The United States Of America As Represented By The Secretary Of The Army | System for detecting man-made objects using polarimetric synthetic aperture radar imagery with error reduction and method of use |
WO2016097890A1 (en) * | 2014-12-15 | 2016-06-23 | Airbus Group Singapore Pte. Ltd. | Automated method for selecting training areas of sea clutter and detecting ship targets in polarimetric synthetic aperture radar imagery |
CN104569954B (zh) * | 2015-01-21 | 2017-01-18 | 中国科学院上海技术物理研究所 | 一种评价合成孔径雷达成像方位向压缩质量的方法 |
EP3320368A4 (en) * | 2015-07-08 | 2018-07-25 | Conoco Phillips Company | Terrestrial imaging using multi-polarization synthetic aperture radar |
US10445885B1 (en) * | 2015-10-01 | 2019-10-15 | Intellivision Technologies Corp | Methods and systems for tracking objects in videos and images using a cost matrix |
US10534080B2 (en) * | 2016-03-28 | 2020-01-14 | The Boeing Company | Radar image formation within a distributed network |
CN106125075B (zh) * | 2016-08-31 | 2019-04-09 | 电子科技大学 | 一种双基地前视合成孔径雷达的运动误差估计方法 |
RU2668570C1 (ru) * | 2017-06-27 | 2018-10-02 | Федеральное государственное бюджетное учреждение науки институт океанологии им. П.П. Ширшова Российской академии наук | Способ измерения вектора скорости локальных отражателей в космическом рса |
KR102399539B1 (ko) * | 2017-08-28 | 2022-05-19 | 삼성전자주식회사 | 오브젝트 식별 방법 및 장치 |
WO2019220574A1 (ja) * | 2018-05-16 | 2019-11-21 | 日本電気株式会社 | 合成開口レーダ信号解析装置、合成開口レーダ信号解析方法および合成開口レーダ信号解析プログラム |
US10921416B1 (en) * | 2018-09-04 | 2021-02-16 | L3 Technologies, Inc. | Multivariate position estimation |
CN109991595B (zh) * | 2019-05-21 | 2023-02-07 | 广东工业大学 | 一种基于毫米波雷达的距离测量方法及相关装置 |
JP7351706B2 (ja) * | 2019-10-15 | 2023-09-27 | 株式会社Soken | 物体追跡装置 |
CN112162281B (zh) * | 2020-08-28 | 2022-11-25 | 西安电子科技大学 | 一种多通道sar-gmti图像域两步处理方法 |
JP2022161115A (ja) * | 2021-04-08 | 2022-10-21 | 日本電気株式会社 | レーダ装置、イメージング方法およびイメージングプログラム |
CN113447925B (zh) * | 2021-05-12 | 2022-10-11 | 北京理工大学 | 一种基于图像域偏移特征的地面运动目标参数估计方法 |
US20230129025A1 (en) * | 2021-10-27 | 2023-04-27 | Mitsubishi Electric Research Laboratories, Inc. | System and Method for Generating a Radar Image of a Scene |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5058024A (en) * | 1989-01-23 | 1991-10-15 | International Business Machines Corporation | Conflict detection and resolution between moving objects |
US5170440A (en) * | 1991-01-30 | 1992-12-08 | Nec Research Institute, Inc. | Perceptual grouping by multiple hypothesis probabilistic data association |
US5138321A (en) * | 1991-10-15 | 1992-08-11 | International Business Machines Corporation | Method for distributed data association and multi-target tracking |
US5406289A (en) * | 1993-05-18 | 1995-04-11 | International Business Machines Corporation | Method and system for tracking multiple regional objects |
US5959574A (en) * | 1993-12-21 | 1999-09-28 | Colorado State University Research Foundation | Method and system for tracking multiple regional objects by multi-dimensional relaxation |
US5537119A (en) * | 1993-12-21 | 1996-07-16 | Colorado State University Research Foundation | Method and system for tracking multiple regional objects by multi-dimensional relaxation |
DE19618155C2 (de) * | 1996-05-07 | 1999-04-22 | Dornier Gmbh | Verfahren zur Detektion und Geschwindigkeitsschätzung von bewegten Objekten in SAR-Bildern |
FR2763134B1 (fr) * | 1997-05-07 | 1999-07-30 | Thomson Csf | Procede de traitement du signal de reception d'un radar sar a rampes de frequence |
-
2002
- 2002-06-14 DE DE10226508A patent/DE10226508A1/de not_active Withdrawn
-
2003
- 2003-04-16 ES ES03008673T patent/ES2252574T3/es not_active Expired - Lifetime
- 2003-04-16 DE DE50302096T patent/DE50302096D1/de not_active Expired - Lifetime
- 2003-04-16 EP EP03008673A patent/EP1372000B1/de not_active Expired - Lifetime
- 2003-04-16 AT AT03008673T patent/ATE315238T1/de not_active IP Right Cessation
- 2003-06-13 US US10/460,647 patent/US6952178B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
DE50302096D1 (de) | 2006-03-30 |
DE10226508A1 (de) | 2004-01-08 |
ATE315238T1 (de) | 2006-02-15 |
US6952178B2 (en) | 2005-10-04 |
EP1372000B1 (de) | 2006-01-04 |
EP1372000A3 (de) | 2005-01-05 |
EP1372000A2 (de) | 2003-12-17 |
US20040032361A1 (en) | 2004-02-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2252574T3 (es) | Procedimiento para la deteccion asi como para la estimacion de velocidad y posicion de objetos moviles en imagenes sar. | |
US10175348B2 (en) | Use of range-rate measurements in a fusion tracking system via projections | |
Kirscht | Detection and imaging of arbitrarily moving targets with single-channel SAR | |
US20170192088A1 (en) | Least squares fit classifier for improved sensor performance | |
US20200319300A1 (en) | Method to determine the suitablility of a radar target as a positional landmark | |
Meyer et al. | Performance analysis of the TerraSAR-X traffic monitoring concept | |
JPH044557B2 (es) | ||
US9846229B1 (en) | Radar velocity determination using direction of arrival measurements | |
CN109298418B (zh) | 基于建筑物内部结构特征的雷达检测虚警抑制方法及装置 | |
EP3156818A1 (en) | Automatic three-dimensional geolocation of sar targets and simultaneous estimation of tropospheric propagation delays using two long-aperture sar images | |
JPWO2007015288A1 (ja) | 軸ずれ量推定方法及び軸ずれ量推定装置 | |
KR20170134092A (ko) | 고해상도 거리 프로파일을 이용한 다중 물체 판단 장치 및 방법 | |
CN108107432A (zh) | 基于时域扰动的高低轨双基sar保相成像方法 | |
Dungan et al. | Wide-area wide-angle SAR focusing | |
JP5737831B2 (ja) | 移動目標検出装置 | |
US10989805B2 (en) | Acquiring information regarding a volume using wireless networks | |
JP6324108B2 (ja) | 合成開口レーダ装置 | |
CN105572648B (zh) | 一种合成孔径雷达回波数据距离徙动校正方法和装置 | |
US20130127656A1 (en) | Radar filter | |
CN114265065A (zh) | 一种融合多极化图像的多通道sar动目标检测方法 | |
Zhu et al. | Estimating ambiguity-free motion parameters of ground moving targets from dual-channel SAR sensors | |
Di Bella et al. | Uncertainty reduction of Arctic sea ice freeboard from CryoSat-2 interferometric mode | |
Pastina et al. | Change detection based GMTI on single channel SAR images | |
Wang et al. | High-coherence oriented image formation algorithm based on adaptive elevation ramp fitting for GNSS-based InBSAR systems | |
US10970861B2 (en) | Method of determining a transformation matrix |