ES2240058T3 - Videoseguimiento retardado. - Google Patents

Videoseguimiento retardado.

Info

Publication number
ES2240058T3
ES2240058T3 ES00901879T ES00901879T ES2240058T3 ES 2240058 T3 ES2240058 T3 ES 2240058T3 ES 00901879 T ES00901879 T ES 00901879T ES 00901879 T ES00901879 T ES 00901879T ES 2240058 T3 ES2240058 T3 ES 2240058T3
Authority
ES
Spain
Prior art keywords
image
images
detection unit
control
series
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES00901879T
Other languages
English (en)
Inventor
Dov Zahavi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Elbit Systems Ltd
Original Assignee
Elbit Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from IL12836899A external-priority patent/IL128368A0/xx
Application filed by Elbit Systems Ltd filed Critical Elbit Systems Ltd
Application granted granted Critical
Publication of ES2240058T3 publication Critical patent/ES2240058T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Holo Graphy (AREA)
  • Vending Machines For Individual Products (AREA)
  • Color Television Image Signal Generators (AREA)
  • Transition And Organic Metals Composition Catalysts For Addition Polymerization (AREA)

Abstract

Un aparato de seguimiento para seguir un objeto dentro de unas imágenes, comprendiendo el aparato de seguimiento: una estación (52) de control, dicha estación (52) de control selecciona un objeto a seguir en una imagen y determina la información del objeto, y una unidad (70) de detección que tiene un sensor (32) de imágenes, dicha unidad (70) de detección captura una serie de imágenes de una escena que tiene al menos un objeto en un periodo de tiempo, y sigue dicho objeto basado en dicha información del objeto, estando dicha unidad (70) de detección situada remotamente desde dicha estación (52) de control y comunicándose con ella por medio de un enlace de comunicaciones, donde dicha unidad (70) de detección retiene en memoria y transmite una serie de imágenes a dicha estación (52) de control, donde dicha estación (52) de control proporciona dicha información del objeto a dicha unidad (70) de detección, de acuerdo con una imagen anterior de dicha serie de imágenes, y donde dicha unidad (70)de detección identifica y localiza dicho objeto en dicha imagen anterior utilizando dicha información del objeto, explora a través de imágenes posteriores de dicha serie de imágenes retenidas en memoria, y localiza dicho objeto en cada una de dichas imágenes posteriores, localiza dicho objeto en la última imagen disponible y dirige a dicho sensor (32) de imagen de acuerdo con la situación de dicho objeto en dicha última imagen disponible.

Description

Videoseguimiento retardado.
Campo de la invención
La presente invención está relacionada con sistemas de seguimiento en general, y con sistemas de seguimiento retardado en particular.
Antecedentes de la invención
En muchas aplicaciones, un operador controla un sensor remoto de imágenes a través de un enlace de comunicaciones. Las aplicaciones típicamente controladas por el operador son el control de tráfico, el control de fronteras, las operaciones de búsqueda y rescate, prospecciones de terrenos, vigilancia policial, etc. Los operadores pueden requerir adicionalmente mediciones del objeto remoto perseguido, tal como las mediciones de parámetros del movimiento y similares.
Se hace referencia ahora a la figura 1, la cual ilustra un sistema 10 de vigilancia/seguimiento de la técnica anterior, que comprende una unidad remota 20 de detección de imágenes y un centro 22 de control, que están conectados a través de un enlace 25 de comunicaciones.
La unidad 20 de detección comprende una unidad 28 de comunicaciones del sensor, un seguidor remoto 32, un sensor 32 de imágenes y una unidad 34 de control del puntero. Los métodos de funcionamiento de estos elementos son bien conocidos en la técnica. La unidad 20 de detección localiza y hace un seguimiento de un objeto divisado, y transfiere los datos 24 del sensor, tales como fotografías de imágenes, situación del seguimiento, datos de apuntamiento y similares, hacia el centro 22 de control. Los datos 24 del sensor viajan en la dirección representada por la flecha A.
El centro 22 de control comprende una unidad 36 de comunicaciones de control, una pantalla 38 y una palanca 40 de control. Los métodos de funcionamiento de estos elementos son también muy conocidos en la técnica. El centro 22 de control proporciona datos 26 de control, tales como instrucciones de apuntamiento, instrucciones de centrado, órdenes de seguimiento, correcciones del seguimiento y similares, a la unidad 20 de detección. Los datos 26 de control viajan en la dirección representada por la flecha B.
El enlace 25 de comunicaciones puede conectarse a una unidad 20 de detección y al centro 22 de control a través de una unidad 28 de comunicaciones del sensor y de una unidad 36 de comunicaciones de control, respectivamente. Además, el enlace 25 de comunicaciones transfiere los datos 24 del sensor y los datos 26 de control, a través de la unidad 28 de comunicaciones del sensor y de la unidad 36 de comunicaciones de control, respectivamente.
Generalmente, el sensor 32 de imágenes vigila un objeto, y transmite fotos de imágenes (datos 24 del sensor) a la pantalla 38, la cual presenta las imágenes para la observación de un operador 42.
Si el operador 42 decide que es deseable seguir un objeto, envía instrucciones manuales aproximadas de apuntamiento (datos 26 de control) por medio de la palanca 40, tales como "desplazarse hacia arriba", "desplazarse hacia la derecha", "acercar o alejar (zoom)" y similares, a la unidad 34 de control del puntero. La unidad 34 de control del puntero actúa con estas instrucciones y dirige el sensor de imágenes en la dirección instruida.
El operador 42 envía entonces por medio de la palanca 40 instrucciones de centrado a la unidad 34 de control del puntero. La unidad 34 de control del puntero dirige el sensor 32 de imágenes en la dirección instruida, centrando así el objeto en el centro del campo de visión (FOV) de la pantalla 38. Una vez que el objeto, según lo ha detectado el sensor 32 de imágenes, está centrado en el FOV, el operador 42 envía electrónicamente por medio de la palanca 40 instrucciones de enclavamiento al seguidor remoto 30. El seguidor remoto 30 recibe las instrucciones e intenta enclavarse en el objeto en el centro del FOV de la pantalla 38.
Una vez que el objeto ha sido enclavado, el seguidor remoto 30 toma el control de las órdenes y de la generación de la operación de seguimiento. La unidad 34 de control del puntero deja de recibir órdenes a través de la palanca 40 y comienza a recibir órdenes en su lugar desde el seguidor 30. Al recibir las instrucciones, la unidad 34 de control del puntero las transmite al sensor 32 de imágenes. El sensor 32 de imágenes hace un seguimiento del objeto móvil y lo mantiene en el centro del FOV de la pantalla 38, aún cuando el objeto se desplace con relación a la unidad 20 de detección.
Debe observarse que hay diversos métodos y aparatos conocidos en la técnica para identificar y seguir a un objeto. Entre estos métodos están la identificación del centro de gravedad, la detección de bordes, la correlación y otros métodos conocidos en la técnica.
En muchas aplicaciones, hay un considerable retardo de tiempo entre el tiempo en que la unidad 20 de detección adquiere la imagen de un objeto, el tiempo en que la imagen es presentada en la pantalla 38 y, finalmente, el tiempo en que se reciben las instrucciones de respuesta en la unidad 20 de detección. Generalmente, los principales factores que contribuyen al retardo son el tratamiento de la señal, la compresión/descompresión de la imagen y/o las limitaciones de anchura de banda del enlace. Consecuentemente, cuando se tiene en cuenta el tiempo de reacción retardada del operador, el retardo de tiempo acumulado puede ser desde centésimas de segundo hasta varios segundos.
Debido al retardo de tiempo, la situación de la imagen presentada en la pantalla 38 no es, generalmente, la situación actual del objeto. La situación presentada en la pantalla es el lugar del objeto antes de transferir los datos 24 de los sensores (por ejemplo, hace A segundos). Adicionalmente, cuando la unidad de control 34 del puntero recibe las instrucciones (datos 26 de control), ha transcurrido un tiempo adicional (por ejemplo B segundos adicionales). Posteriormente, cuando el sensor 32 de imagen recibe instrucciones para localizar el objeto, éste puede no estar ya en el mismo lugar que estaba cuando la imagen fue tomada hace A+B segundos.
Claramente, este retardo de tiempo complica los esfuerzos para enclavar el seguidor remoto 30 en el objeto. El operador 42 ha de calcular y estimar con precisión el lugar esperado del objeto en el momento futuro en que las instrucciones de seguimiento llegan a la unidad 20 de detección. Solamente entonces es cuando el control 34 de apuntamiento está señalando la situación estimada calculada, y el seguidor remoto 30 es instruido para enclavarse e iniciar el seguimiento.
Si el cálculo de la situación estimada no es suficientemente preciso, el seguidor remoto 30 se enclavará en algún otro objeto del fondo de la imagen y toda la estimación, el cálculo y el proceso de enclavamiento ha de ser repetido. Así, el efecto es un bucle de control de realimentación continua con retardo, una situación que es propensa a sufrir picos de regulación e inestabilidad.
El proceso de enclavamiento se complica aún más con la entrada de actividad humana en el bucle de control. Las reacciones e instrucciones humanas son menos precisas, por ejemplo, que las instrucciones generadas con un ordenador o un procesador. Los seres humanos no trabajan bien en bucles de realimentación con retardo de tiempo, siendo un ejemplo de esto el de la experiencia diaria típica de ajustar la temperatura del agua caliente de un grifo con un tiempo de reacción lento.
Una solución al problema del retardo de tiempo es hacer mínimo el retardo y/o optimizar la anchura de banda de los circuitos de control, de manera que los picos de regulación y las oscilaciones sean mínimas. Otra solución es utilizar un cursor de predicción que mida la dinámica del sensor, y calcule su posición prevista en el momento de la recepción de la instrucción de enclavamiento. Además, los operadores pueden ser entrenados para estimar de manera óptima la situación del objeto en el momento de ejecución de la instrucción de enclavamiento.
En el documento US 4405940 se divulga otro aparato de seguimiento de la técnica anterior.
Sumario de la invención
El objeto de esta invención es proporcionar un aparato mejorado para el seguimiento y el enclavamiento de objetos móviles remotos.
Por tanto, de acuerdo con la presente invención, la presente invención proporciona un aparato de seguimiento como se establece en la reivindicación 1 y un método correspondiente como se establece en la reivindicación 6.
Breve descripción de los dibujos
La presente invención será comprendida y apreciada mejor a partir de la descripción detallada siguiente, tomada conjuntamente con los dibujos anexos, en los cuales:
La figura 1 es una ilustración esquemática de un sistema de seguimiento de la técnica anterior;
La figura 2 es una ilustración esquemática de un sistema de seguimiento construido y funcionando de acuerdo con un modo de realización preferido de la presente invención;
La figura 3A es una ilustración esquemática del flujo de datos construido y funcionando de acuerdo con un modo de realización preferido de la presente invención; y
La figura 3B es una ilustración esquemática del flujo de datos construido y funcionando de acuerdo con un modo de realización preferido alternativo de la presente invención.
Descripción detallada de la presente invención
Se hace referencia ahora a la figura 2, que es una ilustración del sistema 50 de seguimiento construido y funcionando de acuerdo con un modo de realización preferido de la presente invención. El sistema 50 proporciona un retardo de tiempo reducido al proporcionar las instrucciones de enclavamiento directamente desde la palanca 40 a un seguidor 60 de control local, como contraste con la técnica anterior que proporcionaba las instrucciones de enclavamiento al seguidor remoto 30. El sistema 50 proporciona adicionalmente una capacidad mejorada de seguimiento al suministrar las instrucciones de seguimiento directamente desde el seguidor 60 de control hacia el seguidor remoto 30 del sensor, y proporcionando así instrucciones de seguimiento/enclavamiento más exactas que las experimentadas por los sistemas de seguimiento de la técnica anterior.
Los elementos similares al sistema 10 están numerados de forma similar y tienen funciones similares, y no serán descritos con más detalle en esta memoria.
En un modo de realización preferido, el sistema 50 comprende una unidad 70 de detección de imágenes y una estación 52 de control, que están conectadas a través de un enlace 55 de comunicaciones. La unidad 70 de detección localiza un objeto deseado y envía datos 24 del sensor a la estación 52 de control. La estación 52 de control envía datos 56 de control, tales como instrucciones de apuntamiento y de seguimiento a la unidad 70 de detección de imágenes. Los datos 56 de control viajan en la dirección representada por la flecha B.
El enlace 55 de comunicaciones puede conectarse a la unidad 70 de detección y a la estación 52 de control a través de la unidad 28 de comunicaciones del sensor y de la unidad 36 de comunicaciones de control, respectivamente.
En oposición a la técnica anterior, la estación 52 de control comprende adicionalmente un seguidor 60 de control. En un modo de realización preferido de seguimiento y enclavamiento, la palanca 40 transfiere instrucciones aproximadas de seguimiento al control 34 de apuntamiento, y el seguidor 60 de control transfiere instrucciones directas de seguimiento y enclavamiento al seguidor remoto 30 del sensor.
Además, la unidad 70 de detección comprende un procesador 62 y una memoria 64. Además, preferiblemente, el sensor 32 de imágenes transfiere datos de imagen generalmente idénticos a los del seguidor remoto 30 y del seguidor 60 de control. Por tanto, el seguidor 60 de control y el seguidor remoto 30 funcionan con los mismos datos, y las instrucciones de seguimiento desde el seguidor 60 de control son más directas y precisas que las instrucciones de seguimiento de la técnica anterior.
Las instrucciones directas desde el seguidor 60 de control al seguidor remoto 30 es una ventaja útil con respecto al sistema 10 de la técnica anterior, donde las instrucciones de enclavamiento estaban determinadas por el operador según las captaba desde una imagen vista en la pantalla 38 y después eran estimadas y transferidas desde la palanca 40 al seguidor 30. Los cálculos directos de la presente invención son más efectivos porque ahora se mide realmente la dinámica del objeto, en oposición a las estimaciones del operador en la técnica anterior. Las mediciones de la presente invención son alimentadas después en un dispositivo matemático de predicción, como es sobradamente conocido en la técnica, el cual puede predecir con precisión la situación del objeto. De esta manera, el sistema 50 está libre de errores inducidos por el operador en relación con la coordinación aproximada del ojo y la mano.
Se hace referencia ahora a la figura 3A, que es un ejemplo ilustrativo del flujo de imágenes de datos, designados en general como I (datos 24 del sensor), hacia la estación 52 de control y específicamente hacia el seguidor 60 de control. Con fines de claridad, solamente se muestran el seguidor 60 de control y el seguidor remoto 30; sin embargo, la estación 52 de control y la unidad 70 de detección comprenden todos los demás elementos ilustrados en la figura 2.
Debe observarse que la imagen I_{1} es tomada en el instante T_{1} (no ilustrado en la figura 3A) y la imagen I_{n} es tomada en el instante T_{n} que es posterior al instante T_{1}. La figura 3A ilustra además el flujo de una imagen de una orden de seguimiento/enclavamiento, generalmente designada como CI (datos 56 de control) hacia la unidad 70 de detección, y específicamente al seguidor remoto 30.
Como se ha indicado previamente con relación a la técnica anterior, la transferencia de datos 24 del sensor tarda una cantidad de tiempo considerable. Por tanto, aunque la unidad 70 de detección adquiere una imagen de datos I_{1} en el instante T_{1}, la imagen de datos I_{1} no se recibe en la estación 52 hasta el instante T_{n}, que es relativamente el mismo instante en que la unidad 70 de detección adquiere la imagen de datos I_{n}. Como se muestra en el ejemplo de situación ilustrado en la figura 3A, aunque la unidad 70 de detección está adquiriendo y enviando los datos de imagen I_{n}, la estación 52 de control está recibiendo justamente la imagen de datos I_{1}.
Debe observarse que las imágenes I de datos incluyen un objeto 66 detectado. Debe observarse también que la situación del objeto 66, según la detecta la unidad 70 de detección, se desplaza desde la imagen de datos I_{1} a la imagen de datos I_{n}.
Por tanto, en un modo de realización preferido de la presente invención, una vez que se ha tomado la decisión de enclavarse o hacer un seguimiento sobre un objeto 66, el seguidor 60 de control transfiere la imagen CI_{n} de la orden de seguimiento/enclavamiento al seguidor remoto 30. Preferiblemente, la imagen CI_{n} de la orden es una imagen I_{n} de datos asociados a la que está unida la orden apropiada, por ejemplo, una imagen C_{1} de una orden está asociada con la imagen I_{1} de datos asociados que tiene unida una orden de enclavamiento. De esta manera, el seguidor 60 de control establece una imagen de referencia coordinada con el seguidor remoto 30. Consecuentemente, tanto el seguidor remoto 30 como el seguidor 60 de control se refieren a la misma imagen (imagen I_{1} de datos) y el lugar del objeto 66 es conocido y referenciado a partir de la imagen I_{1} de datos.
Así, aunque en el instante T_{n} la unidad 70 de detección esté actualmente detectando la imagen I_{n}, al recibir la imagen CI_{1} de una orden, el seguidor remoto 30 se refiere a la imagen I_{1} y es capaz de efectuar una identificación positiva.
En un modo de realización preferido de la presente invención, la unidad 70 de detección almacena en memoria 64 los registros anteriores de imágenes I de datos. Al recibir la imagen IC_{1} de la orden, que hace referencia al objeto 66 en la imagen I1 de datos, el seguidor 30 busca en los registros de la memoria 64 la imagen apropiada, e identifica apropiadamente el objeto 66 a partir de esos registros. El seguidor remoto 30 identifica el objeto 66 como el designado en la imagen I_{1} de datos por medio de los métodos de la técnica anterior citados anteriormente. El seguidor remoto 30 explora entonces la imagen I_{1} de datos, a través de la imagen I_{n} de datos, haciendo un seguimiento del objeto 66 desde una imagen de datos a otra imagen de datos.
Alternativamente, el seguidor remoto 30 utiliza el procesador 62 para facilitar una rápida exploración de las imágenes. También alternativamente, el seguidor remoto 30 "hojea" las imágenes históricas a saltos predeterminados de x registros a la vez.
Se hace referencia ahora a la figura 3B, que es una ilustración de un modo de realización preferido alternativo de la presente invención. En la figura 3B, el seguidor 60 de control transfiere una orden C_{n} de seguimiento/enclavamiento. La orden C_{n} incluye alternativamente instrucciones que hacen referencia a una imagen, en lugar de incluir una imagen. Este modo de realización alternativo requiere menos tiempo de compresión porque la señal no incluye la compresión de imágenes.
Preferiblemente, al recibir la imagen I_{1} de datos, el seguidor 60 de control mide la situación de un objeto 66 en la imagen I_{1} de datos y calcula la dinámica del objeto 66, tal como las coordenadas x e y, la velocidad, la aceleración y similares. El seguidor 60 de control predice entonces la situación del objeto y transfiere la orden C_{1} que incluye la dinámica calculada y la situación prevista del objeto 66. El seguidor 30 utiliza entonces la dinámica para asegurarse de la situación del objeto y mejorar la precisión del enclavamiento.
Esto es un contraste con la técnica anterior, la cual predice la situación de la unidad 20 de detección; sin embargo, no predice la situación del objeto 66. Debe observarse que como el sistema 10 de la técnica anterior no tiene un seguidor 60 de control, el cual recibe y compila la imagen I_{1} de datos, el sistema 10 no incluye la facilidad de calcular la situación prevista del objeto 66.
Alternativamente, además de la situación y la dinámica del objeto, el seguidor 60 de control mide también los parámetros de imagen del objeto 66, tal como el tamaño, la forma, el color y similares, e incluye esos atributos en la orden C_{1}. Así, aunque el seguidor remoto 30 lleva a cabo la orden C_{1} de seguimiento, es capaz adicionalmente de referirse a los parámetros de la imagen con el fin de verificar que el objeto pretendido es en realidad el objeto 66.
Alternativamente también, la orden C_{n} incluye además la referencia a una imagen I_{n} de datos asociados, de manera similar a la que la orden C_{n} hace referencia a una imagen I_{1} de datos asociados. Así, aunque la orden C_{n} no incluye una imagen, el seguidor remoto 30 sigue siendo capaz de hacer referencia a una imagen para una mejor verificación de la imagen.
Por tanto, al identificar un objeto 66 en la imagen I_{1}, el seguidor remoto 30 utiliza la dinámica anterior del objeto según es medida y enviada por el seguidor 60 de control y, a través del procesador 62, calcula la estimación actual de la situación del objeto 66. Aún cuando el enclavamiento no sea perfecto, el seguidor 60 de control puede corregir el enclavamiento del seguidor remoto 30 enviando instrucciones de corrección de última hora.
Así, como el seguidor 60 de control tiene la imagen I_{1} de datos, el funcionamiento con la predicción tiene menos errores. Además, el seguidor 60 de control es capaz de medir con precisión la dinámica del objeto, en forma de velocidad y aceleración en dos dimensiones de la imagen.
En un modo de realización preferido, como el seguidor 60 de control está situado en la estación 52, cuando se transfiere la orden de enclavamiento se efectúa el enclavamiento en el seguidor 60 de control, virtualmente sin ningún retardo de tiempo. El seguidor 60 de control hace referencia por tanto de manera relativamente inmediata a los datos 24 recogidos del sensor, y efectúa el enclavamiento de forma relativamente inmediata. Los datos 56 del sensor que contienen los datos I_{n} de la imagen o la orden C_{n}, son transferidos con datos que son relativamente coincidentes con el mismo instante de la decisión de enclavamiento. Este retardo de tiempo acortado simplifica así los esfuerzos de enclavar y seguir la imagen observada desde la estación 52 de control.
Se podrá apreciar por las personas expertas en la técnica que la presente invención no está limitada por lo que ha sido particularmente ilustrado y descrito anteriormente en esta memoria. En lugar de eso, el alcance de la invención está definido por las reivindicaciones que siguen.

Claims (6)

1. Un aparato de seguimiento para seguir un objeto dentro de unas imágenes, comprendiendo el aparato de seguimiento:
una estación (52) de control, dicha estación (52) de control selecciona un objeto a seguir en una imagen y determina la información del objeto, y
una unidad (70) de detección que tiene un sensor (32) de imágenes, dicha unidad (70) de detección captura una serie de imágenes de una escena que tiene al menos un objeto en un periodo de tiempo, y sigue dicho objeto basado en dicha información del objeto, estando dicha unidad (70) de detección situada remotamente desde dicha estación (52) de control y comunicándose con ella por medio de un enlace de comunicaciones,
donde dicha unidad (70) de detección retiene en memoria y transmite una serie de imágenes a dicha estación (52) de control,
donde dicha estación (52) de control proporciona dicha información del objeto a dicha unidad (70) de detección, de acuerdo con una imagen anterior de dicha serie de imágenes, y
donde dicha unidad (70) de detección identifica y localiza dicho objeto en dicha imagen anterior utilizando dicha información del objeto, explora a través de imágenes posteriores de dicha serie de imágenes retenidas en memoria, y localiza dicho objeto en cada una de dichas imágenes posteriores, localiza dicho objeto en la última imagen disponible y dirige a dicho sensor (32) de imagen de acuerdo con la situación de dicho objeto en dicha última imagen disponible.
2. Aparato según la reivindicación 1, y en el que dicha información del objeto comprende al menos uno de los siguientes elementos: situación del objeto, dinámica del objeto, atributos del objeto, parámetros del objeto, velocidad del objeto, aceleración del objeto, tamaño del objeto y forma del objeto.
3. Aparato según la reivindicación 2, y en el que dicha estación (52) de control incluye medios de tratamiento de la imagen para generar dicha información del objeto a partir de dichas imágenes.
4. Aparato según la reivindicación 2, y en el que dicha información del objeto incluye para una imagen seleccionada, dicha imagen seleccionada con la información del objeto asociada a ella.
5. Aparato según la reivindicación 2, y en el que dicha información del objeto incluye por una imagen seleccionada, una referencia a una copia de dicha imagen seleccionada con la información del objeto asociada a ella.
6. Un método para hacer un seguimiento de un objeto dentro de las imágenes, que comprende los pasos de:
generar, por medio de un sensor de imágenes de una unidad de detección, una serie de imágenes de una escena que contenga al menos un objeto en un periodo de tiempo;
transmitir dicha serie de imágenes desde dicha unidad de detección a una estación de control y retener dicha serie de imágenes en una memoria de dicha unidad de detección, estando dicha unidad de detección situada remotamente desde dicha estación de control y comunicándose con ella por medio de un enlace de comunicaciones;
seleccionar en dicha estación de control un objeto a seguir en una imagen anterior de dicha serie de imágenes, y determinar en dicha estación de control información de dicho objeto con respecto a dicha imagen anterior;
transmitir dicha información del objeto desde dicha estación de control hasta dicha unidad de detección;
identificar y localizar dicho objeto en dicha imagen anterior utilizando dicha información del objeto en dicha unidad de detección;
explorar a través de las imágenes posteriores de dicha serie de imágenes retenidas en dicha memoria, y localizar dicho objeto en cada una de dichas imágenes posteriores en dicha unidad de detección;
localizar dicho objeto en una última imagen disponible en dicha unidad de detección; y
dirigir dicho sensor de imágenes de acuerdo con la situación de dicho objeto en dicha última imagen disponible.
ES00901879T 1999-02-03 2000-01-31 Videoseguimiento retardado. Expired - Lifetime ES2240058T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
IL12836899A IL128368A0 (en) 1999-02-03 1999-02-03 Delayed video tracking
IL13420600 2000-01-24
PCT/IL2000/000065 WO2000046985A1 (en) 1999-02-03 2000-01-31 Delayed video tracking

Publications (1)

Publication Number Publication Date
ES2240058T3 true ES2240058T3 (es) 2005-10-16

Family

ID=26323789

Family Applications (1)

Application Number Title Priority Date Filing Date
ES00901879T Expired - Lifetime ES2240058T3 (es) 1999-02-03 2000-01-31 Videoseguimiento retardado.

Country Status (7)

Country Link
US (1) US7184574B1 (es)
EP (1) EP1252761B1 (es)
AT (1) ATE293336T1 (es)
AU (2) AU2000223172B8 (es)
DE (1) DE60019464T2 (es)
ES (1) ES2240058T3 (es)
WO (1) WO2000046985A1 (es)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL147370A (en) 2001-12-27 2007-07-24 Itzhak Florentin Method and system for guiding a remote vehicle via a retarded communication channel
KR100469727B1 (ko) * 2003-03-07 2005-02-02 삼성전자주식회사 통화자의 얼굴을 화면 가운데에 위치시킬 수 있는화상통신용 통신단말기 및 방법
EP2479990A3 (en) 2005-06-23 2013-01-23 Israel Aerospace Industries Ltd. A system and method for tracking moving objects
US8416298B2 (en) 2007-08-07 2013-04-09 Visionmap Ltd. Method and system to perform optical moving object detection and tracking over a wide area
SG150414A1 (en) * 2007-09-05 2009-03-30 Creative Tech Ltd Methods for processing a composite video image with feature indication
IL196923A (en) * 2009-02-05 2014-01-30 Elbit Systems Ltd Driving an imaging device on a suspended communication channel
TWI514324B (zh) * 2010-11-30 2015-12-21 Ind Tech Res Inst 影像目標區域追蹤系統與方法及電腦程式產品
IL213506A (en) 2011-06-13 2016-04-21 Israel Aerospace Ind Ltd Pursuing a goal
IL219639A (en) 2012-05-08 2016-04-21 Israel Aerospace Ind Ltd Remote object tracking
US10212396B2 (en) 2013-01-15 2019-02-19 Israel Aerospace Industries Ltd Remote tracking of objects
IL224273B (en) * 2013-01-17 2018-05-31 Cohen Yossi Delay compensation during remote sensor control
US9933921B2 (en) 2013-03-13 2018-04-03 Google Technology Holdings LLC System and method for navigating a field of view within an interactive media-content item
EP3022941A1 (en) 2013-07-19 2016-05-25 Google Technology Holdings LLC Visual storytelling on a mobile media-consumption device
US9779480B2 (en) 2013-07-19 2017-10-03 Google Technology Holdings LLC View-driven consumption of frameless media
EP3022934A1 (en) 2013-07-19 2016-05-25 Google Technology Holdings LLC Small-screen movie-watching using a viewport
CA2976744C (en) 2015-03-02 2023-05-23 Israel Aerospace Industries Ltd. Remote detecting and tracking of objects

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1568058A (en) * 1975-11-21 1980-05-21 Emi Ltd Tracking and/or huidance systems
US4405940A (en) * 1977-05-31 1983-09-20 Westinghouse Electric Corp. Apparatus and method for preprocessing video frame signals
US5062056A (en) 1989-10-18 1991-10-29 Hughes Aircraft Company Apparatus and method for tracking a target
US5845009A (en) 1997-03-21 1998-12-01 Autodesk, Inc. Object tracking system using statistical modeling and geometric relationship
US6061055A (en) * 1997-03-21 2000-05-09 Autodesk, Inc. Method of tracking objects with an imaging device
US6185314B1 (en) * 1997-06-19 2001-02-06 Ncr Corporation System and method for matching image information to object model information
US6697103B1 (en) * 1998-03-19 2004-02-24 Dennis Sunga Fernandez Integrated network for monitoring remote objects

Also Published As

Publication number Publication date
WO2000046985A1 (en) 2000-08-10
AU2000223172B8 (en) 2004-04-01
EP1252761B1 (en) 2005-04-13
EP1252761A1 (en) 2002-10-30
ATE293336T1 (de) 2005-04-15
AU2000223172B2 (en) 2004-03-11
DE60019464D1 (de) 2005-05-19
EP1252761A4 (en) 2004-03-24
DE60019464T2 (de) 2006-01-26
AU2317200A (en) 2000-08-25
US7184574B1 (en) 2007-02-27

Similar Documents

Publication Publication Date Title
ES2240058T3 (es) Videoseguimiento retardado.
US8406464B2 (en) System and method for tracking moving objects
EP2847739B1 (en) Remote tracking of objects
CN106094875B (zh) 一种移动机器人的目标跟随控制方法
EP2549753B1 (en) Surveillance camera terminal
EP2286397B1 (en) Controlling an imaging apparatus over a delayed communication link
US20110205367A1 (en) MMW Enhanced Infrared Concealed Object Detection with Closed-Loop Control of Illumination Energy
EP2946361B1 (en) Remote tracking of objects
US10551474B2 (en) Delay compensation while controlling a remote sensor
KR102141647B1 (ko) 회전형 라이다와 다중 카메라간의 센서 동기화 방법 및 그 장치
KR101211366B1 (ko) 전자발찌 착용자에 대한 영상 감시 시스템 및 방법
JP6482855B2 (ja) 監視システム
JP6482856B2 (ja) 監視システム
JP3686333B2 (ja) 動画像処理カメラ及びこれを用いた画像処理システム
JP3592962B2 (ja) 異常物体監視装置
JP2019134389A (ja) 撮影制御装置、撮影制御方法および撮影制御システム
IL134206A (en) Delayed video tracking
JP6725041B2 (ja) 追跡システム、追跡方法および追跡プログラム
JP2005016964A (ja) 磁界補正データ生成装置
JP6903451B2 (ja) 監視システム、及び監視方法
JP2020141426A (ja) 追跡システム、追跡方法および追跡プログラム
CN118138723A (zh) 模拟动物视觉的低空目标光学探测系统
JP2001162572A (ja) 歩行ロボットの教示システム
CN108322665A (zh) 一种望远镜智能拍摄系统及智能拍摄方法