ES2240058T3 - Videoseguimiento retardado. - Google Patents
Videoseguimiento retardado.Info
- Publication number
- ES2240058T3 ES2240058T3 ES00901879T ES00901879T ES2240058T3 ES 2240058 T3 ES2240058 T3 ES 2240058T3 ES 00901879 T ES00901879 T ES 00901879T ES 00901879 T ES00901879 T ES 00901879T ES 2240058 T3 ES2240058 T3 ES 2240058T3
- Authority
- ES
- Spain
- Prior art keywords
- image
- images
- detection unit
- control
- series
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/78—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
- G01S3/782—Systems for determining direction or deviation from predetermined direction
- G01S3/785—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
- G01S3/786—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
- G01S3/7864—T.V. type tracking systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30236—Traffic on road, railway or crossing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- Closed-Circuit Television Systems (AREA)
- Holo Graphy (AREA)
- Vending Machines For Individual Products (AREA)
- Color Television Image Signal Generators (AREA)
- Transition And Organic Metals Composition Catalysts For Addition Polymerization (AREA)
Abstract
Un aparato de seguimiento para seguir un objeto dentro de unas imágenes, comprendiendo el aparato de seguimiento: una estación (52) de control, dicha estación (52) de control selecciona un objeto a seguir en una imagen y determina la información del objeto, y una unidad (70) de detección que tiene un sensor (32) de imágenes, dicha unidad (70) de detección captura una serie de imágenes de una escena que tiene al menos un objeto en un periodo de tiempo, y sigue dicho objeto basado en dicha información del objeto, estando dicha unidad (70) de detección situada remotamente desde dicha estación (52) de control y comunicándose con ella por medio de un enlace de comunicaciones, donde dicha unidad (70) de detección retiene en memoria y transmite una serie de imágenes a dicha estación (52) de control, donde dicha estación (52) de control proporciona dicha información del objeto a dicha unidad (70) de detección, de acuerdo con una imagen anterior de dicha serie de imágenes, y donde dicha unidad (70)de detección identifica y localiza dicho objeto en dicha imagen anterior utilizando dicha información del objeto, explora a través de imágenes posteriores de dicha serie de imágenes retenidas en memoria, y localiza dicho objeto en cada una de dichas imágenes posteriores, localiza dicho objeto en la última imagen disponible y dirige a dicho sensor (32) de imagen de acuerdo con la situación de dicho objeto en dicha última imagen disponible.
Description
Videoseguimiento retardado.
La presente invención está relacionada con
sistemas de seguimiento en general, y con sistemas de seguimiento
retardado en particular.
En muchas aplicaciones, un operador controla un
sensor remoto de imágenes a través de un enlace de comunicaciones.
Las aplicaciones típicamente controladas por el operador son el
control de tráfico, el control de fronteras, las operaciones de
búsqueda y rescate, prospecciones de terrenos, vigilancia policial,
etc. Los operadores pueden requerir adicionalmente mediciones del
objeto remoto perseguido, tal como las mediciones de parámetros del
movimiento y similares.
Se hace referencia ahora a la figura 1, la cual
ilustra un sistema 10 de vigilancia/seguimiento de la técnica
anterior, que comprende una unidad remota 20 de detección de
imágenes y un centro 22 de control, que están conectados a través de
un enlace 25 de comunicaciones.
La unidad 20 de detección comprende una unidad 28
de comunicaciones del sensor, un seguidor remoto 32, un sensor 32 de
imágenes y una unidad 34 de control del puntero. Los métodos de
funcionamiento de estos elementos son bien conocidos en la técnica.
La unidad 20 de detección localiza y hace un seguimiento de un
objeto divisado, y transfiere los datos 24 del sensor, tales como
fotografías de imágenes, situación del seguimiento, datos de
apuntamiento y similares, hacia el centro 22 de control. Los datos
24 del sensor viajan en la dirección representada por la flecha
A.
El centro 22 de control comprende una unidad 36
de comunicaciones de control, una pantalla 38 y una palanca 40 de
control. Los métodos de funcionamiento de estos elementos son
también muy conocidos en la técnica. El centro 22 de control
proporciona datos 26 de control, tales como instrucciones de
apuntamiento, instrucciones de centrado, órdenes de seguimiento,
correcciones del seguimiento y similares, a la unidad 20 de
detección. Los datos 26 de control viajan en la dirección
representada por la flecha B.
El enlace 25 de comunicaciones puede conectarse a
una unidad 20 de detección y al centro 22 de control a través de una
unidad 28 de comunicaciones del sensor y de una unidad 36 de
comunicaciones de control, respectivamente. Además, el enlace 25 de
comunicaciones transfiere los datos 24 del sensor y los datos 26 de
control, a través de la unidad 28 de comunicaciones del sensor y de
la unidad 36 de comunicaciones de control, respectivamente.
Generalmente, el sensor 32 de imágenes vigila un
objeto, y transmite fotos de imágenes (datos 24 del sensor) a la
pantalla 38, la cual presenta las imágenes para la observación de un
operador 42.
Si el operador 42 decide que es deseable seguir
un objeto, envía instrucciones manuales aproximadas de apuntamiento
(datos 26 de control) por medio de la palanca 40, tales como
"desplazarse hacia arriba", "desplazarse hacia la
derecha", "acercar o alejar (zoom)" y similares, a la unidad
34 de control del puntero. La unidad 34 de control del puntero actúa
con estas instrucciones y dirige el sensor de imágenes en la
dirección instruida.
El operador 42 envía entonces por medio de la
palanca 40 instrucciones de centrado a la unidad 34 de control del
puntero. La unidad 34 de control del puntero dirige el sensor 32 de
imágenes en la dirección instruida, centrando así el objeto en el
centro del campo de visión (FOV) de la pantalla 38. Una vez que el
objeto, según lo ha detectado el sensor 32 de imágenes, está
centrado en el FOV, el operador 42 envía electrónicamente por medio
de la palanca 40 instrucciones de enclavamiento al seguidor remoto
30. El seguidor remoto 30 recibe las instrucciones e intenta
enclavarse en el objeto en el centro del FOV de la pantalla 38.
Una vez que el objeto ha sido enclavado, el
seguidor remoto 30 toma el control de las órdenes y de la generación
de la operación de seguimiento. La unidad 34 de control del puntero
deja de recibir órdenes a través de la palanca 40 y comienza a
recibir órdenes en su lugar desde el seguidor 30. Al recibir las
instrucciones, la unidad 34 de control del puntero las transmite al
sensor 32 de imágenes. El sensor 32 de imágenes hace un seguimiento
del objeto móvil y lo mantiene en el centro del FOV de la pantalla
38, aún cuando el objeto se desplace con relación a la unidad 20 de
detección.
Debe observarse que hay diversos métodos y
aparatos conocidos en la técnica para identificar y seguir a un
objeto. Entre estos métodos están la identificación del centro de
gravedad, la detección de bordes, la correlación y otros métodos
conocidos en la técnica.
En muchas aplicaciones, hay un considerable
retardo de tiempo entre el tiempo en que la unidad 20 de detección
adquiere la imagen de un objeto, el tiempo en que la imagen es
presentada en la pantalla 38 y, finalmente, el tiempo en que se
reciben las instrucciones de respuesta en la unidad 20 de detección.
Generalmente, los principales factores que contribuyen al retardo
son el tratamiento de la señal, la compresión/descompresión de la
imagen y/o las limitaciones de anchura de banda del enlace.
Consecuentemente, cuando se tiene en cuenta el tiempo de reacción
retardada del operador, el retardo de tiempo acumulado puede ser
desde centésimas de segundo hasta varios segundos.
Debido al retardo de tiempo, la situación de la
imagen presentada en la pantalla 38 no es, generalmente, la
situación actual del objeto. La situación presentada en la pantalla
es el lugar del objeto antes de transferir los datos 24 de los
sensores (por ejemplo, hace A segundos). Adicionalmente, cuando la
unidad de control 34 del puntero recibe las instrucciones (datos 26
de control), ha transcurrido un tiempo adicional (por ejemplo B
segundos adicionales). Posteriormente, cuando el sensor 32 de imagen
recibe instrucciones para localizar el objeto, éste puede no estar
ya en el mismo lugar que estaba cuando la imagen fue tomada hace A+B
segundos.
Claramente, este retardo de tiempo complica los
esfuerzos para enclavar el seguidor remoto 30 en el objeto. El
operador 42 ha de calcular y estimar con precisión el lugar esperado
del objeto en el momento futuro en que las instrucciones de
seguimiento llegan a la unidad 20 de detección. Solamente entonces
es cuando el control 34 de apuntamiento está señalando la situación
estimada calculada, y el seguidor remoto 30 es instruido para
enclavarse e iniciar el seguimiento.
Si el cálculo de la situación estimada no es
suficientemente preciso, el seguidor remoto 30 se enclavará en algún
otro objeto del fondo de la imagen y toda la estimación, el cálculo
y el proceso de enclavamiento ha de ser repetido. Así, el efecto es
un bucle de control de realimentación continua con retardo, una
situación que es propensa a sufrir picos de regulación e
inestabilidad.
El proceso de enclavamiento se complica aún más
con la entrada de actividad humana en el bucle de control. Las
reacciones e instrucciones humanas son menos precisas, por ejemplo,
que las instrucciones generadas con un ordenador o un procesador.
Los seres humanos no trabajan bien en bucles de realimentación con
retardo de tiempo, siendo un ejemplo de esto el de la experiencia
diaria típica de ajustar la temperatura del agua caliente de un
grifo con un tiempo de reacción lento.
Una solución al problema del retardo de tiempo es
hacer mínimo el retardo y/o optimizar la anchura de banda de los
circuitos de control, de manera que los picos de regulación y las
oscilaciones sean mínimas. Otra solución es utilizar un cursor de
predicción que mida la dinámica del sensor, y calcule su posición
prevista en el momento de la recepción de la instrucción de
enclavamiento. Además, los operadores pueden ser entrenados para
estimar de manera óptima la situación del objeto en el momento de
ejecución de la instrucción de enclavamiento.
En el documento US 4405940 se divulga otro
aparato de seguimiento de la técnica anterior.
El objeto de esta invención es proporcionar un
aparato mejorado para el seguimiento y el enclavamiento de objetos
móviles remotos.
Por tanto, de acuerdo con la presente invención,
la presente invención proporciona un aparato de seguimiento como se
establece en la reivindicación 1 y un método correspondiente como se
establece en la reivindicación 6.
La presente invención será comprendida y
apreciada mejor a partir de la descripción detallada siguiente,
tomada conjuntamente con los dibujos anexos, en los cuales:
La figura 1 es una ilustración esquemática de un
sistema de seguimiento de la técnica anterior;
La figura 2 es una ilustración esquemática de un
sistema de seguimiento construido y funcionando de acuerdo con un
modo de realización preferido de la presente invención;
La figura 3A es una ilustración esquemática del
flujo de datos construido y funcionando de acuerdo con un modo de
realización preferido de la presente invención; y
La figura 3B es una ilustración esquemática del
flujo de datos construido y funcionando de acuerdo con un modo de
realización preferido alternativo de la presente invención.
Se hace referencia ahora a la figura 2, que es
una ilustración del sistema 50 de seguimiento construido y
funcionando de acuerdo con un modo de realización preferido de la
presente invención. El sistema 50 proporciona un retardo de tiempo
reducido al proporcionar las instrucciones de enclavamiento
directamente desde la palanca 40 a un seguidor 60 de control local,
como contraste con la técnica anterior que proporcionaba las
instrucciones de enclavamiento al seguidor remoto 30. El sistema 50
proporciona adicionalmente una capacidad mejorada de seguimiento al
suministrar las instrucciones de seguimiento directamente desde el
seguidor 60 de control hacia el seguidor remoto 30 del sensor, y
proporcionando así instrucciones de seguimiento/enclavamiento más
exactas que las experimentadas por los sistemas de seguimiento de la
técnica anterior.
Los elementos similares al sistema 10 están
numerados de forma similar y tienen funciones similares, y no serán
descritos con más detalle en esta memoria.
En un modo de realización preferido, el sistema
50 comprende una unidad 70 de detección de imágenes y una estación
52 de control, que están conectadas a través de un enlace 55 de
comunicaciones. La unidad 70 de detección localiza un objeto deseado
y envía datos 24 del sensor a la estación 52 de control. La estación
52 de control envía datos 56 de control, tales como instrucciones de
apuntamiento y de seguimiento a la unidad 70 de detección de
imágenes. Los datos 56 de control viajan en la dirección
representada por la flecha B.
El enlace 55 de comunicaciones puede conectarse a
la unidad 70 de detección y a la estación 52 de control a través de
la unidad 28 de comunicaciones del sensor y de la unidad 36 de
comunicaciones de control, respectivamente.
En oposición a la técnica anterior, la estación
52 de control comprende adicionalmente un seguidor 60 de control. En
un modo de realización preferido de seguimiento y enclavamiento, la
palanca 40 transfiere instrucciones aproximadas de seguimiento al
control 34 de apuntamiento, y el seguidor 60 de control transfiere
instrucciones directas de seguimiento y enclavamiento al seguidor
remoto 30 del sensor.
Además, la unidad 70 de detección comprende un
procesador 62 y una memoria 64. Además, preferiblemente, el sensor
32 de imágenes transfiere datos de imagen generalmente idénticos a
los del seguidor remoto 30 y del seguidor 60 de control. Por tanto,
el seguidor 60 de control y el seguidor remoto 30 funcionan con los
mismos datos, y las instrucciones de seguimiento desde el seguidor
60 de control son más directas y precisas que las instrucciones de
seguimiento de la técnica anterior.
Las instrucciones directas desde el seguidor 60
de control al seguidor remoto 30 es una ventaja útil con respecto al
sistema 10 de la técnica anterior, donde las instrucciones de
enclavamiento estaban determinadas por el operador según las captaba
desde una imagen vista en la pantalla 38 y después eran estimadas y
transferidas desde la palanca 40 al seguidor 30. Los cálculos
directos de la presente invención son más efectivos porque ahora se
mide realmente la dinámica del objeto, en oposición a las
estimaciones del operador en la técnica anterior. Las mediciones de
la presente invención son alimentadas después en un dispositivo
matemático de predicción, como es sobradamente conocido en la
técnica, el cual puede predecir con precisión la situación del
objeto. De esta manera, el sistema 50 está libre de errores
inducidos por el operador en relación con la coordinación aproximada
del ojo y la mano.
Se hace referencia ahora a la figura 3A, que es
un ejemplo ilustrativo del flujo de imágenes de datos, designados en
general como I (datos 24 del sensor), hacia la estación 52 de
control y específicamente hacia el seguidor 60 de control. Con fines
de claridad, solamente se muestran el seguidor 60 de control y el
seguidor remoto 30; sin embargo, la estación 52 de control y la
unidad 70 de detección comprenden todos los demás elementos
ilustrados en la figura 2.
Debe observarse que la imagen I_{1} es tomada
en el instante T_{1} (no ilustrado en la figura 3A) y la imagen
I_{n} es tomada en el instante T_{n} que es posterior al
instante T_{1}. La figura 3A ilustra además el flujo de una imagen
de una orden de seguimiento/enclavamiento, generalmente designada
como CI (datos 56 de control) hacia la unidad 70 de detección, y
específicamente al seguidor remoto 30.
Como se ha indicado previamente con relación a la
técnica anterior, la transferencia de datos 24 del sensor tarda una
cantidad de tiempo considerable. Por tanto, aunque la unidad 70 de
detección adquiere una imagen de datos I_{1} en el instante
T_{1}, la imagen de datos I_{1} no se recibe en la estación 52
hasta el instante T_{n}, que es relativamente el mismo instante en
que la unidad 70 de detección adquiere la imagen de datos I_{n}.
Como se muestra en el ejemplo de situación ilustrado en la figura
3A, aunque la unidad 70 de detección está adquiriendo y enviando los
datos de imagen I_{n}, la estación 52 de control está recibiendo
justamente la imagen de datos I_{1}.
Debe observarse que las imágenes I de datos
incluyen un objeto 66 detectado. Debe observarse también que la
situación del objeto 66, según la detecta la unidad 70 de detección,
se desplaza desde la imagen de datos I_{1} a la imagen de datos
I_{n}.
Por tanto, en un modo de realización preferido de
la presente invención, una vez que se ha tomado la decisión de
enclavarse o hacer un seguimiento sobre un objeto 66, el seguidor 60
de control transfiere la imagen CI_{n} de la orden de
seguimiento/enclavamiento al seguidor remoto 30. Preferiblemente, la
imagen CI_{n} de la orden es una imagen I_{n} de datos asociados
a la que está unida la orden apropiada, por ejemplo, una imagen
C_{1} de una orden está asociada con la imagen I_{1} de datos
asociados que tiene unida una orden de enclavamiento. De esta
manera, el seguidor 60 de control establece una imagen de referencia
coordinada con el seguidor remoto 30. Consecuentemente, tanto el
seguidor remoto 30 como el seguidor 60 de control se refieren a la
misma imagen (imagen I_{1} de datos) y el lugar del objeto 66 es
conocido y referenciado a partir de la imagen I_{1} de datos.
Así, aunque en el instante T_{n} la unidad 70
de detección esté actualmente detectando la imagen I_{n}, al
recibir la imagen CI_{1} de una orden, el seguidor remoto 30 se
refiere a la imagen I_{1} y es capaz de efectuar una
identificación positiva.
En un modo de realización preferido de la
presente invención, la unidad 70 de detección almacena en memoria 64
los registros anteriores de imágenes I de datos. Al recibir la
imagen IC_{1} de la orden, que hace referencia al objeto 66 en la
imagen I1 de datos, el seguidor 30 busca en los registros de la
memoria 64 la imagen apropiada, e identifica apropiadamente el
objeto 66 a partir de esos registros. El seguidor remoto 30
identifica el objeto 66 como el designado en la imagen I_{1} de
datos por medio de los métodos de la técnica anterior citados
anteriormente. El seguidor remoto 30 explora entonces la imagen
I_{1} de datos, a través de la imagen I_{n} de datos, haciendo
un seguimiento del objeto 66 desde una imagen de datos a otra imagen
de datos.
Alternativamente, el seguidor remoto 30 utiliza
el procesador 62 para facilitar una rápida exploración de las
imágenes. También alternativamente, el seguidor remoto 30
"hojea" las imágenes históricas a saltos predeterminados de x
registros a la vez.
Se hace referencia ahora a la figura 3B, que es
una ilustración de un modo de realización preferido alternativo de
la presente invención. En la figura 3B, el seguidor 60 de control
transfiere una orden C_{n} de seguimiento/enclavamiento. La orden
C_{n} incluye alternativamente instrucciones que hacen referencia
a una imagen, en lugar de incluir una imagen. Este modo de
realización alternativo requiere menos tiempo de compresión porque
la señal no incluye la compresión de imágenes.
Preferiblemente, al recibir la imagen I_{1} de
datos, el seguidor 60 de control mide la situación de un objeto 66
en la imagen I_{1} de datos y calcula la dinámica del objeto 66,
tal como las coordenadas x e y, la velocidad, la aceleración y
similares. El seguidor 60 de control predice entonces la situación
del objeto y transfiere la orden C_{1} que incluye la dinámica
calculada y la situación prevista del objeto 66. El seguidor 30
utiliza entonces la dinámica para asegurarse de la situación del
objeto y mejorar la precisión del enclavamiento.
Esto es un contraste con la técnica anterior, la
cual predice la situación de la unidad 20 de detección; sin embargo,
no predice la situación del objeto 66. Debe observarse que como el
sistema 10 de la técnica anterior no tiene un seguidor 60 de
control, el cual recibe y compila la imagen I_{1} de datos, el
sistema 10 no incluye la facilidad de calcular la situación prevista
del objeto 66.
Alternativamente, además de la situación y la
dinámica del objeto, el seguidor 60 de control mide también los
parámetros de imagen del objeto 66, tal como el tamaño, la forma, el
color y similares, e incluye esos atributos en la orden C_{1}.
Así, aunque el seguidor remoto 30 lleva a cabo la orden C_{1} de
seguimiento, es capaz adicionalmente de referirse a los parámetros
de la imagen con el fin de verificar que el objeto pretendido es en
realidad el objeto 66.
Alternativamente también, la orden C_{n}
incluye además la referencia a una imagen I_{n} de datos
asociados, de manera similar a la que la orden C_{n} hace
referencia a una imagen I_{1} de datos asociados. Así, aunque la
orden C_{n} no incluye una imagen, el seguidor remoto 30 sigue
siendo capaz de hacer referencia a una imagen para una mejor
verificación de la imagen.
Por tanto, al identificar un objeto 66 en la
imagen I_{1}, el seguidor remoto 30 utiliza la dinámica anterior
del objeto según es medida y enviada por el seguidor 60 de control
y, a través del procesador 62, calcula la estimación actual de la
situación del objeto 66. Aún cuando el enclavamiento no sea
perfecto, el seguidor 60 de control puede corregir el enclavamiento
del seguidor remoto 30 enviando instrucciones de corrección de
última hora.
Así, como el seguidor 60 de control tiene la
imagen I_{1} de datos, el funcionamiento con la predicción tiene
menos errores. Además, el seguidor 60 de control es capaz de medir
con precisión la dinámica del objeto, en forma de velocidad y
aceleración en dos dimensiones de la imagen.
En un modo de realización preferido, como el
seguidor 60 de control está situado en la estación 52, cuando se
transfiere la orden de enclavamiento se efectúa el enclavamiento en
el seguidor 60 de control, virtualmente sin ningún retardo de
tiempo. El seguidor 60 de control hace referencia por tanto de
manera relativamente inmediata a los datos 24 recogidos del sensor,
y efectúa el enclavamiento de forma relativamente inmediata. Los
datos 56 del sensor que contienen los datos I_{n} de la imagen o
la orden C_{n}, son transferidos con datos que son relativamente
coincidentes con el mismo instante de la decisión de enclavamiento.
Este retardo de tiempo acortado simplifica así los esfuerzos de
enclavar y seguir la imagen observada desde la estación 52 de
control.
Se podrá apreciar por las personas expertas en la
técnica que la presente invención no está limitada por lo que ha
sido particularmente ilustrado y descrito anteriormente en esta
memoria. En lugar de eso, el alcance de la invención está definido
por las reivindicaciones que siguen.
Claims (6)
1. Un aparato de seguimiento para seguir un
objeto dentro de unas imágenes, comprendiendo el aparato de
seguimiento:
- una estación (52) de control, dicha estación (52) de control selecciona un objeto a seguir en una imagen y determina la información del objeto, y
- una unidad (70) de detección que tiene un sensor (32) de imágenes, dicha unidad (70) de detección captura una serie de imágenes de una escena que tiene al menos un objeto en un periodo de tiempo, y sigue dicho objeto basado en dicha información del objeto, estando dicha unidad (70) de detección situada remotamente desde dicha estación (52) de control y comunicándose con ella por medio de un enlace de comunicaciones,
- donde dicha unidad (70) de detección retiene en memoria y transmite una serie de imágenes a dicha estación (52) de control,
- donde dicha estación (52) de control proporciona dicha información del objeto a dicha unidad (70) de detección, de acuerdo con una imagen anterior de dicha serie de imágenes, y
- donde dicha unidad (70) de detección identifica y localiza dicho objeto en dicha imagen anterior utilizando dicha información del objeto, explora a través de imágenes posteriores de dicha serie de imágenes retenidas en memoria, y localiza dicho objeto en cada una de dichas imágenes posteriores, localiza dicho objeto en la última imagen disponible y dirige a dicho sensor (32) de imagen de acuerdo con la situación de dicho objeto en dicha última imagen disponible.
2. Aparato según la reivindicación 1, y en el que
dicha información del objeto comprende al menos uno de los
siguientes elementos: situación del objeto, dinámica del objeto,
atributos del objeto, parámetros del objeto, velocidad del objeto,
aceleración del objeto, tamaño del objeto y forma del objeto.
3. Aparato según la reivindicación 2, y en el que
dicha estación (52) de control incluye medios de tratamiento de la
imagen para generar dicha información del objeto a partir de dichas
imágenes.
4. Aparato según la reivindicación 2, y en el que
dicha información del objeto incluye para una imagen seleccionada,
dicha imagen seleccionada con la información del objeto asociada a
ella.
5. Aparato según la reivindicación 2, y en el que
dicha información del objeto incluye por una imagen seleccionada,
una referencia a una copia de dicha imagen seleccionada con la
información del objeto asociada a ella.
6. Un método para hacer un seguimiento de un
objeto dentro de las imágenes, que comprende los pasos de:
generar, por medio de un sensor de imágenes de
una unidad de detección, una serie de imágenes de una escena que
contenga al menos un objeto en un periodo de tiempo;
transmitir dicha serie de imágenes desde dicha
unidad de detección a una estación de control y retener dicha serie
de imágenes en una memoria de dicha unidad de detección, estando
dicha unidad de detección situada remotamente desde dicha estación
de control y comunicándose con ella por medio de un enlace de
comunicaciones;
seleccionar en dicha estación de control un
objeto a seguir en una imagen anterior de dicha serie de imágenes, y
determinar en dicha estación de control información de dicho objeto
con respecto a dicha imagen anterior;
transmitir dicha información del objeto desde
dicha estación de control hasta dicha unidad de detección;
identificar y localizar dicho objeto en dicha
imagen anterior utilizando dicha información del objeto en dicha
unidad de detección;
explorar a través de las imágenes posteriores de
dicha serie de imágenes retenidas en dicha memoria, y localizar
dicho objeto en cada una de dichas imágenes posteriores en dicha
unidad de detección;
localizar dicho objeto en una última imagen
disponible en dicha unidad de detección; y
dirigir dicho sensor de imágenes de acuerdo con
la situación de dicho objeto en dicha última imagen disponible.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IL12836899A IL128368A0 (en) | 1999-02-03 | 1999-02-03 | Delayed video tracking |
IL13420600 | 2000-01-24 | ||
PCT/IL2000/000065 WO2000046985A1 (en) | 1999-02-03 | 2000-01-31 | Delayed video tracking |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2240058T3 true ES2240058T3 (es) | 2005-10-16 |
Family
ID=26323789
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES00901879T Expired - Lifetime ES2240058T3 (es) | 1999-02-03 | 2000-01-31 | Videoseguimiento retardado. |
Country Status (7)
Country | Link |
---|---|
US (1) | US7184574B1 (es) |
EP (1) | EP1252761B1 (es) |
AT (1) | ATE293336T1 (es) |
AU (2) | AU2000223172B8 (es) |
DE (1) | DE60019464T2 (es) |
ES (1) | ES2240058T3 (es) |
WO (1) | WO2000046985A1 (es) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL147370A (en) † | 2001-12-27 | 2007-07-24 | Itzhak Florentin | Method and system for guiding a remote vehicle via a retarded communication channel |
KR100469727B1 (ko) * | 2003-03-07 | 2005-02-02 | 삼성전자주식회사 | 통화자의 얼굴을 화면 가운데에 위치시킬 수 있는화상통신용 통신단말기 및 방법 |
EP2479990A3 (en) | 2005-06-23 | 2013-01-23 | Israel Aerospace Industries Ltd. | A system and method for tracking moving objects |
US8416298B2 (en) | 2007-08-07 | 2013-04-09 | Visionmap Ltd. | Method and system to perform optical moving object detection and tracking over a wide area |
SG150414A1 (en) * | 2007-09-05 | 2009-03-30 | Creative Tech Ltd | Methods for processing a composite video image with feature indication |
IL196923A (en) * | 2009-02-05 | 2014-01-30 | Elbit Systems Ltd | Driving an imaging device on a suspended communication channel |
TWI514324B (zh) * | 2010-11-30 | 2015-12-21 | Ind Tech Res Inst | 影像目標區域追蹤系統與方法及電腦程式產品 |
IL213506A (en) | 2011-06-13 | 2016-04-21 | Israel Aerospace Ind Ltd | Pursuing a goal |
IL219639A (en) | 2012-05-08 | 2016-04-21 | Israel Aerospace Ind Ltd | Remote object tracking |
US10212396B2 (en) | 2013-01-15 | 2019-02-19 | Israel Aerospace Industries Ltd | Remote tracking of objects |
IL224273B (en) * | 2013-01-17 | 2018-05-31 | Cohen Yossi | Delay compensation during remote sensor control |
US9933921B2 (en) | 2013-03-13 | 2018-04-03 | Google Technology Holdings LLC | System and method for navigating a field of view within an interactive media-content item |
EP3022941A1 (en) | 2013-07-19 | 2016-05-25 | Google Technology Holdings LLC | Visual storytelling on a mobile media-consumption device |
US9779480B2 (en) | 2013-07-19 | 2017-10-03 | Google Technology Holdings LLC | View-driven consumption of frameless media |
EP3022934A1 (en) | 2013-07-19 | 2016-05-25 | Google Technology Holdings LLC | Small-screen movie-watching using a viewport |
CA2976744C (en) | 2015-03-02 | 2023-05-23 | Israel Aerospace Industries Ltd. | Remote detecting and tracking of objects |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB1568058A (en) * | 1975-11-21 | 1980-05-21 | Emi Ltd | Tracking and/or huidance systems |
US4405940A (en) * | 1977-05-31 | 1983-09-20 | Westinghouse Electric Corp. | Apparatus and method for preprocessing video frame signals |
US5062056A (en) | 1989-10-18 | 1991-10-29 | Hughes Aircraft Company | Apparatus and method for tracking a target |
US5845009A (en) | 1997-03-21 | 1998-12-01 | Autodesk, Inc. | Object tracking system using statistical modeling and geometric relationship |
US6061055A (en) * | 1997-03-21 | 2000-05-09 | Autodesk, Inc. | Method of tracking objects with an imaging device |
US6185314B1 (en) * | 1997-06-19 | 2001-02-06 | Ncr Corporation | System and method for matching image information to object model information |
US6697103B1 (en) * | 1998-03-19 | 2004-02-24 | Dennis Sunga Fernandez | Integrated network for monitoring remote objects |
-
2000
- 2000-01-31 ES ES00901879T patent/ES2240058T3/es not_active Expired - Lifetime
- 2000-01-31 WO PCT/IL2000/000065 patent/WO2000046985A1/en active IP Right Grant
- 2000-01-31 AT AT00901879T patent/ATE293336T1/de not_active IP Right Cessation
- 2000-01-31 US US10/182,555 patent/US7184574B1/en not_active Expired - Fee Related
- 2000-01-31 AU AU2000223172A patent/AU2000223172B8/en not_active Ceased
- 2000-01-31 DE DE60019464T patent/DE60019464T2/de not_active Expired - Lifetime
- 2000-01-31 AU AU2317200A patent/AU2317200A/xx not_active Withdrawn
- 2000-01-31 EP EP00901879A patent/EP1252761B1/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
WO2000046985A1 (en) | 2000-08-10 |
AU2000223172B8 (en) | 2004-04-01 |
EP1252761B1 (en) | 2005-04-13 |
EP1252761A1 (en) | 2002-10-30 |
ATE293336T1 (de) | 2005-04-15 |
AU2000223172B2 (en) | 2004-03-11 |
DE60019464D1 (de) | 2005-05-19 |
EP1252761A4 (en) | 2004-03-24 |
DE60019464T2 (de) | 2006-01-26 |
AU2317200A (en) | 2000-08-25 |
US7184574B1 (en) | 2007-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2240058T3 (es) | Videoseguimiento retardado. | |
US8406464B2 (en) | System and method for tracking moving objects | |
EP2847739B1 (en) | Remote tracking of objects | |
CN106094875B (zh) | 一种移动机器人的目标跟随控制方法 | |
EP2549753B1 (en) | Surveillance camera terminal | |
EP2286397B1 (en) | Controlling an imaging apparatus over a delayed communication link | |
US20110205367A1 (en) | MMW Enhanced Infrared Concealed Object Detection with Closed-Loop Control of Illumination Energy | |
EP2946361B1 (en) | Remote tracking of objects | |
US10551474B2 (en) | Delay compensation while controlling a remote sensor | |
KR102141647B1 (ko) | 회전형 라이다와 다중 카메라간의 센서 동기화 방법 및 그 장치 | |
KR101211366B1 (ko) | 전자발찌 착용자에 대한 영상 감시 시스템 및 방법 | |
JP6482855B2 (ja) | 監視システム | |
JP6482856B2 (ja) | 監視システム | |
JP3686333B2 (ja) | 動画像処理カメラ及びこれを用いた画像処理システム | |
JP3592962B2 (ja) | 異常物体監視装置 | |
JP2019134389A (ja) | 撮影制御装置、撮影制御方法および撮影制御システム | |
IL134206A (en) | Delayed video tracking | |
JP6725041B2 (ja) | 追跡システム、追跡方法および追跡プログラム | |
JP2005016964A (ja) | 磁界補正データ生成装置 | |
JP6903451B2 (ja) | 監視システム、及び監視方法 | |
JP2020141426A (ja) | 追跡システム、追跡方法および追跡プログラム | |
CN118138723A (zh) | 模拟动物视觉的低空目标光学探测系统 | |
JP2001162572A (ja) | 歩行ロボットの教示システム | |
CN108322665A (zh) | 一种望远镜智能拍摄系统及智能拍摄方法 |