ES2717186T3 - Procedimiento y dispositivo para la detección de objetos en movimiento en una secuencia de imágenes de vídeo - Google Patents

Procedimiento y dispositivo para la detección de objetos en movimiento en una secuencia de imágenes de vídeo Download PDF

Info

Publication number
ES2717186T3
ES2717186T3 ES12007342T ES12007342T ES2717186T3 ES 2717186 T3 ES2717186 T3 ES 2717186T3 ES 12007342 T ES12007342 T ES 12007342T ES 12007342 T ES12007342 T ES 12007342T ES 2717186 T3 ES2717186 T3 ES 2717186T3
Authority
ES
Spain
Prior art keywords
image
images
points
determined
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES12007342T
Other languages
English (en)
Inventor
Holger Leuck
Christoph Stahl
Heiko Seidel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airbus Defence and Space GmbH
Original Assignee
Airbus Defence and Space GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Airbus Defence and Space GmbH filed Critical Airbus Defence and Space GmbH
Application granted granted Critical
Publication of ES2717186T3 publication Critical patent/ES2717186T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

DESCRIPCIÓN
Procedimiento y dispositivo para la detección de objetos en movimiento en una secuencia de imágenes de vídeo La presente invención se refiere a la detección de objetos en movimiento en una secuencia de imágenes de vídeo, especialmente a un procedimiento que comprende los pasos de:
a) determinación de puntos característicos destacados en una imagen de un par de imágenes sucesivas de la secuencia de imágenes de vídeo;
b) determinación de una transformación matemática para la reproducción de una de las dos imágenes del par de imágenes sobre la otra de las dos imágenes del par de imágenes mediante la utilización de los puntos característicos destacados determinados en el paso a);
c) determinación de una imagen de diferencia como diferencia entre las imágenes del par de imágenes transformadas una sobre otra por medio de la transformación determinada en el paso b);
d) determinación de puntos de cambio de imagen destacados en la imagen diferencial determinada en el paso c);
e) determinación de puntos de objetivo a partir de los puntos de cambio de imagen destacados determinados en el punto d).
Estos procedimientos se conocen, por ejemplo, del estado de la técnica para la detección de objetos en movimiento en secuencias de imágenes de cámara de una cámara giratoria e inclinable instalada a bordo de un avión. La detección se produce con ayuda de una así llamada detección de cambio (“change detection”), en la que las imágenes de vídeo sucesivas de la secuencia de imágenes de la cámara se comparan entre sí, determinando los cambios que se han producido en la imagen. A partir de los cambios de imagen encontrados se pueden determinar después, en tiempo real, el o los objetos en movimiento en el escenario grabado.
Con vistas a la fiabilidad y calidad de los procedimientos de detección conocidos, surgen especialmente los siguientes problemas:
Si en el transcurso de la secuencia de imágenes de vídeo en cuestión la “sección de imagen” grabada cambia como tal, como suele ser el caso, por ejemplo, en una cámara que se mueve y/o que gira y/o se inclina como consecuencia con las consiguientes variaciones del ángulo visual y/o de la distancia de observación (p. ej. al utilizar un dispositivo de sensor de imagen a bordo de un vehículo, especialmente de una aeronave), es preciso que en primer lugar los cambios de imagen resultantes se compensen, lo que también se define como “registro de imágenes”. Sin embargo, en este registro de imágenes se pueden producir imprecisiones considerables en los procedimientos conocidos. Este problema afecta sobre todo a los pasos a) a c) arriba indicados.
Además, las variaciones temporales de las condiciones de grabación (p.ej. iluminación) al igual que las imprecisiones de grabación, que en la práctica tampoco se pueden evitar del todo (p. ej. a causa de ruidos de captura de imagen, compensación de contraste, etc.), pueden empeorar la fiabilidad y la calidad del procedimiento de detección de objetos. Como consecuencia se pueden producir “falsas alarmas”, es decir, detecciones de objetos erróneas.
El documento DE 102009 017135 A1 describe la determinación de vectores de flujo ópticos de una secuencia de vídeo de imágenes, compensándose el movimiento propio de la cámara por medio de una correlación cruzada. A continuación, se establecen los píxeles pertenecientes a objetos en movimiento, determinando imágenes de diferencia entre imágenes sucesivas y comparándolas con un valor umbral.
A. Bugeau y otros: "Detección y segmentación de objetos en movimiento en escenas complejas", COMPUTER VISION AND IMAGE UNDERSTANDING, ACADEMIC PRESS, US, vol. 113, no. 4, 1 de abril de 2009, páginas 459­ 476, se refiere a la detección y segmentación de objetos en primer plano en movimiento en escenas de vídeo complejas.
Por lo tanto, el objetivo de la presente invención consiste en diseñar una detección de objeto del tipo antes mencionado lo más resistente posible frente a influencias perturbadoras y en hacer posible que el índice de falsas alarmas sea bajo.
De acuerdo con un primer aspecto de la presente invención, esta tarea se resuelve mediante un procedimiento de detección de objetos según la reivindicación 1. Las reivindicaciones dependientes se centran en formas de realización ventajosas. Según este aspecto de la invención el paso d), o sea la determinación de "puntos de cambio de imagen destacados" en la imagen de diferencia antes determinada, comprende los pasos siguientes:
d1) Definición de un valor umbral de cambio de imagen y determinación de los puntos de cambio de imagen como los puntos en la imagen de diferencia determinada en el paso c), cuyo valor absoluto de brillo de imagen supera el valor umbral de cambio de imagen.
d2) Análisis de la calidad de los puntos de cambio de imagen determinados en el paso d1), utilizando al menos un criterio de calidad predeterminado,
d3) si se cumple el criterio de calidad, definición de los puntos de cambio de imagen determinados en el paso d1) como los puntos de cambio de imagen destacados determinados en el paso d), en caso contrario repetición de los pasos d1) y d2) con un valor umbral de cambio de imagen determinado modificado.
La idea básica de este diseño de proceso consiste en prever durante la determinación de puntos de cambio de imagen destacados, un valor umbral de cambio de imagen "adaptativo" en la imagen de cambio de imagen previamente determinada, que en principio se establece de cualquier manera, a fin de determinar sobre esta "base experimental" unos puntos de cambio de imagen, revisando después esta determinación inicial en caso de necesidad y repitiendo una nueva determinación de los puntos de cambio de imagen sobre la base de un valor umbral de cambio de imagen determinado modificado (si no se ha cumplido un criterio predeterminado). Una o más de estas repeticiones de los pasos d1) y d2), según proceda, con el fin de cumplir (o al menos "cumplir mejor") el criterio de calidad, permiten ventajosamente una mejora de la robustez y una reducción del índice de falsas alarmas en la detección de objetos.
De acuerdo con una forma de realización, para la que la solicitante se reserva la reivindicación de protección independiente (en el sentido de un segundo aspecto de invención independiente), se prevé que el paso a) comprenda los siguientes pasos:
a1) detección de puntos característicos en una de las dos imágenes del par de imágenes, en cada caso cerca de puntos de cuadrícula de una cuadrícula predeterminada colocada sobre esta imagen,
a2) detección de puntos característicos destacados como una selección de entre los puntos característicos detectados en el paso a1), utilizando al menos un criterio de selección predeterminado.
De acuerdo con una forma de realización, para la que la solicitante se reserva la reivindicación de protección independiente (en el sentido de un tercer aspecto de invención independiente), se prevé que el paso b) comprenda los siguientes pasos:
b1) determinación de vectores de desplazamiento para cada uno de los puntos característicos destacados determinados en el paso a) mediante la determinación de los puntos característicos destacados correspondientes en la otra de las dos imágenes del par de imágenes,
b2) determinación de vectores de desplazamiento a utilizar posteriormente como una selección de entre los vectores de desplazamiento determinados en el paso b1) por medio de al menos un criterio de selección predeterminado, b3) cálculo de la transformación matemática sobre la base de los vectores de desplazamiento seleccionados en el paso b2).
En una forma de realización se prevé que el paso c) comprenda los siguientes pasos:
c1) aplicación de la transformación matemática para la transformación superpuesta las dos imágenes del par de imágenes,
c2) determinación de la imagen de diferencia por sustracción píxel a píxel de los valores de brillo de la imagen de las dos imágenes.
En una forma de realización se prevé que el valor umbral de cambio de imagen determinado inicialmente en el paso d1) se calcule en función de los valores de brillo de la imagen que se observan (realmente) en la imagen de diferencia.
En una forma de realización se prevé que en el paso d2) se utilice como criterio de calidad que el número de puntos de cambio de imagen en forma de píxeles aislados y/o áreas de píxeles unidas relativamente pequeñas aisladas en la imagen de diferencia, no exceda de un número máximo predeterminado.
En una forma de realización se prevé que uno o varios criterios utilizados en el contexto del procedimiento de detección de objetos, en particular, por ejemplo, el criterio de calidad utilizado en el paso d2), puedan ser modificados por medio de una entrada por parte del usuario.
En una forma de realización se prevé que en el paso e) los puntos del objeto se determinen respectivamente como áreas de imagen de puntos de cambio de imagen determinados en el paso d) que se encuentran cerca los unos de los otros.
Según otro aspecto de la invención se prevé un dispositivo que comprenda elementos para la realización de un procedimiento del tipo antes descrito, especialmente un dispositivo de sensor de imagen para la generación de la secuencia de imágenes de vídeo y un ordenador controlado por medio de un programa para la puesta en práctica de los pasos a) a e).
Un uso preferido de un dispositivo como éste o del procedimiento de detección de objetos llevado a cabo con el mismo resultado para misiles tripulados o no tripulados, y en este caso especialmente en el marco de una llamada detección de objetivos o de un seguimiento de objetivos.
La invención se describe a continuación con mayor detalle a la vista de un ejemplo con referencia a los dibujos adjuntos. Se representa en la:
Figura 1 un diagrama de flujo total de un procedimiento de detección según un ejemplo de realización;
Figura 2 una "primera imagen" a modo de ejemplo de un par de imágenes sucesivas de una secuencia de imágenes de vídeo grabadas por medio de una cámara, en la que también se dibujan las posiciones de "puntos característicos" determinados;
Figura 3 la "primera imagen" y una "segunda imagen" del par de imágenes en una representación combinada, en la que también se dibujan los "vectores de desplazamiento" determinados a partir de puntos característicos destacados asignables entre sí por pares;
Figura 4 una "imagen de diferencia" determinada por la sustracción pixelada de los valores grises (de las imágenes previamente transformadas unas sobre otras);
Figura 5 una "imagen de cambio de imagen" binaria para ilustrar una determinación de puntos de cambio de imagen en la imagen de diferencia, no cumpliéndose un criterio de calidad predeterminado para la determinación de cambio de imagen;
Figura 6 una "imagen de cambio de imagen" similar a la de la figura 5, cumpliéndose sin embargo en este caso (después de un ajuste adecuado de un umbral de cambio de imagen utilizado en la determinación de los cambios de imagen) el criterio de calidad especificado y
Figura 7 la "segunda imagen" del par de imágenes con un área de imagen destacada como "objeto en movimiento" detectado, cuya posición y tamaño se han determinado a partir de los puntos de cambio de imagen destacados de la "imagen de cambio de imagen" optimizados según la figura 6.
La figura 1 muestra un organigrama de un procedimiento para la detección de objetos en movimiento según un ejemplo de realización de la invención.
Los pasos realizados en este procedimiento se identifican en la figura con a1), a2), b1), b2), b3), c1), c2), d1), d2), d3) y e) y se explican detalladamente a continuación.
Los pasos a1) y a2) juntos forman un "paso a)" para la determinación de puntos característicos destacados en una imagen de un par de imágenes sucesivas de una secuencia de imágenes de vídeo.
Paso a1): Detección de puntos característicos en una de las dos imágenes del par de imágenes, cada una en las proximidades de puntos de cuadrícula de una cuadrícula predeterminada colocada sobre esa imagen.
El término de "puntos de carácter" define las áreas de imagen limitadas localmente que contienen cualquier estructura de imagen, es decir, diferencias en el brillo de la imagen.
La figura 2 ilustra la detección de puntos característicos en una imagen de vídeo capturada con una cámara basada en el avión. En el marco de la invención, se pueden procesar principalmente imágenes de cualquier sensor de imagen, entre otros, pero no limitados a ellos, sensores electro-ópticos de luz en el rango espectral visible o infrarrojo.
Para poder detectar cambios temporales en las imágenes de una secuencia de imágenes de vídeo, se necesitan al menos dos imágenes temporales (con preferencia directamente) sucesivas. Además, estas imágenes se denominan como "primera imagen" (o imagen "anterior") y como "segunda imagen" (o imagen "actual") de un par de imágenes para las que se ejecuta el procedimiento de detección según la invención. La secuencia ilustrada en el organigrama de la figura 1 se ejecuta respectivamente una vez para cada uno de los varios pares de imágenes de la secuencia de imágenes de vídeo.
En este sentido, la imagen mostrada en la figura 2 es la "primera imagen" de un par de imágenes directamente consecutivas de la secuencia de imágenes de vídeo en cuestión.
En el ejemplo de realización aquí descrito, las imágenes de la secuencia de imágenes de vídeo tienen respectivamente una resolución de aproximadamente 700 x 500 píxeles, asignando el sensor de imagen en cuestión el brillo de la imagen para cada píxel a uno de un total de 256 valores de brillo de imagen de diferencias (imágenes en escala de grises con una profundidad de color de 8 bits). En el ejemplo de realización descrito hay, por ejemplo, valores de luminosidad de imagen de "0" a "255".
En la figura 2, las posiciones de los puntos característicos destacados en el paso a1) se marcan por medio de círculos (blancos y negros). La determinación de los puntos característicos se puede llevar a cabo directamente en la imagen de valor de color o gris o también en imágenes derivadas como, por ejemplo, imágenes de gradiente, imágenes de borde, etc.. En esta determinación se debería cubrir la mayor parte posible de la imagen. Por lo tanto, en el ejemplo mostrado, se procesa una especie de "cuadrícula" sobre toda la imagen. En el ejemplo de la figura 2 se trata de una cuadrícula cuadrada de 11x8. En general, se prefiere una cuadrícula con al menos 30, especialmente al menos 60 puntos de cuadrícula.
Partiendo de los puntos de cuadrícula "ideales", un algoritmo de software busca en las proximidades de estos puntos de cuadrícula puntos característicos, en los que existe un contraste relativamente fuerte. Como “contraste” se puede emplear, por ejemplo, la diferencia entre el valor gris más grande y el más pequeño en el área del punto característico. En el ejemplo representado, los puntos característicos se determinan en forma de regiones de imagen de 31x31 píxeles. Como resultado del paso a1), se almacenan, además de los puntos característicos, las respectivas posiciones de estos puntos característicos (en coordenadas de imagen).
Paso a2): Determinación de los puntos característicos destacados como una selección de entre los puntos característicos detectados en el paso a1), utilizando al menos un criterio de selección predefinido.
En este paso, se procede a una selección de entre los puntos característicos situados respectivamente en las proximidades de un punto de cuadrícula. En el ejemplo ilustrado, se selecciona por medio de un criterio adecuado para la determinación de cierta calidad de los puntos característicos, la parte de puntos característicos que mejor cumple este criterio.
Un posible criterio de calidad es, por ejemplo, una medida cuantitativa del contraste presente en cada punto característico calculada en el paso a1). El resultado de la aplicación de este criterio de calidad se muestra igualmente en la figura 2. Los círculos negros dibujados en la misma marcan las posiciones de los "puntos característicos destacados" seleccionados en el paso a2) (mientras que los círculos blancos marcan los puntos característicos no seleccionados que ya no se utilizan para el tratamiento posterior (puntos característicos menos destacados).
En el caso más simple, en el paso a2) se selecciona una parte fija de los puntos característicos determinados en el paso a1), que puede ser, por ejemplo, del orden del 10% al 50%. En el ejemplo mostrado, de los 88 puntos característicos determinados en el paso a1), se seleccionan 27 puntos característicos destacados en el paso a2), lo que corresponde a una proporción del 30%.
A diferencia del ejemplo representado, también se puede considerar como un criterio de calidad adicional (preferiblemente subordinado) en el paso a2) el hecho de que, después de la selección, la mayor parte posible de la imagen está cubierta por los puntos característicos seleccionados y/o que los puntos característicos seleccionados cubren toda la imagen de forma más o menos uniforme para evitar una fuerte "reponderación excesiva" de un área de imagen parcial.
Una distribución más uniforme se obtiene, por ejemplo, si se exige que en cada una de las diferentes partes predeterminadas de la imagen (por ejemplo, cuadrantes de imagen) se seleccione respectivamente una proporción determinada (por ejemplo, del orden del 10% al 50%, por ejemplo, alrededor del 30%) de los puntos característicos más destacados.
Si se utilizara este último criterio de calidad adicional en el ejemplo de la figura 2, se seleccionarían más puntos característicos en la parte inferior derecha de la imagen (por ejemplo, en el cuadrante inferior derecho) que en la figura 2 (en negro).
La aplicación del paso a2) mejora considerablemente la calidad de la detección de objetos. Otra ventaja consiste en que el esfuerzo computacional requerido para el procedimiento se reduce en los siguientes pasos de procesamiento. Los pasos b1), b2) y b3) juntos forman un "paso b)", que sirve para determinar una transformación matemática (a calcular a modo de estimación), que permite reproducir las dos imágenes del par de imágenes una encima de otra, es decir, determinar una transformación de coordenadas de imagen correspondiente o sus parámetros.
Paso b1): Determinación de vectores de desplazamiento para cada uno de los puntos característicos destacados determinados en el paso a) mediante la determinación de los puntos característicos destacados correspondientes en la otra de las dos imágenes del par de imágenes.
En este paso, se determina para cada "punto característico destacado", con ayuda de un método apropiado y por medio de un algoritmo de software, la posición asociada en la "segunda imagen" del par de imágenes (en coordenadas de imagen). Para este propósito, por ejemplo, se puede explorar la segunda imagen para encontrar puntos característicos coincidentes (es decir, muy similares) en un radio determinado alrededor de las posiciones de los puntos característicos destacados previamente determinados en la primera imagen. Cada posición determinada de esta manera en la segunda imagen y la posición correspondiente en la primera imagen definen un "vector de desplazamiento" para cada punto característico destacado. La posición característica correspondiente en la segunda imagen se puede definir, por ejemplo, como la posición del área de imagen de 31x31 en el radio de búsqueda para la que resulta una correlación máxima (con el punto característico destacado determinado en la primera imagen). Por ejemplo, el radio de búsqueda se puede predeterminar. Si el procedimiento de detección de objetos se lleva a cabo en el marco de un llamado seguimiento de objetivos, se puede recurrir, en su caso, a esta información, si se dispone de información procedente de una detección de objetos realizada previamente para otro par de imágenes. Así se puede limitar, por ejemplo, ventajosamente el radio de búsqueda o el área a explorar a fin de acelerar este paso. En especial, esta restricción de búsqueda se puede llevar a cabo sobre la base de vectores de desplazamiento resultantes de la determinación previamente realizada en otro par de imágenes.
Cada "vector de desplazamiento" caracteriza así el desplazamiento traslacional que experimenta un punto característico desde una primera imagen hasta la segunda imagen que le sigue en el tiempo.
Estos vectores de desplazamiento determinados en el paso b1) se dibujan como flechas negras en la representación combinada de la primera imagen y la segunda imagen según la figura 3. Los mismos se desarrollan respectivamente entre un par de posiciones asignadas entre sí (círculos blancos y círculos negros en la figura 3) de los puntos característicos destacados.
Paso b2): determinación de los vectores de desplazamiento a utilizar posteriormente como una selección entre los vectores de desplazamiento determinados en el paso b1) sobre la base de al menos un criterio de selección predeterminado.
En este paso, los vectores de desplazamiento que se utilizan para su posterior procesamiento se seleccionan a partir de los vectores de desplazamiento determinados en el paso b1) sobre la base de criterios de calidad adecuados por medio de un algoritmo de software.
Un criterio de calidad utilizado con preferencia se selecciona de manera que se eliminen los "valores atípicos", es decir, los vectores de desplazamiento cuya magnitud y/o dirección no son consistentes con respecto al campo vectorial restante. En el ejemplo de la figura 3, se elimina (es decir, no selecciona) con el uso de este criterio de calidad especialmente el vector de desplazamiento (dibujado con una línea delgada en la figura 3), cuya dirección y sobre todo cuya magnitud no es consistente respecto al resto del campo vectorial.
En el ejemplo representado, estos vectores de desplazamiento restantes son prácticamente idénticos, como se aprecia en la figura 3. Este caso especial del campo vectorial se da, por ejemplo, cuando el avión que lleva la cámara de vídeo vuela sobre el paisaje grabado a gran altitud, por lo que la distancia de observación cambia sólo de forma insignificante a lo largo de la secuencia de imagen de vídeo.
Se obtendría un tipo de campo vectorial completamente diferente, por ejemplo, en el caso de una coincidencia entre la dirección de vuelo y el eje de la cámara (dirección de observación). En este caso, podrían resultar, por ejemplo, vectores de desplazamiento orientados desde o hacia el centro de la imagen en dirección radial con respecto al centro de la imagen.
Para la ejecución del paso b1), se puede considerar, por ejemplo, cuál es el caso especial existente, por ejemplo mediante el uso adecuado o la evaluación de los datos de navegación aérea (y, si procede, de los datos relativos a un movimiento horizontal y/o inclinación actual de la cámara). Alternativa o adicionalmente se considera someter, en principio, todo el campo vectorial (totalidad de los vectores de desplazamiento determinados en el paso b1) a una evaluación, con el fin de especificar el criterio de selección utilizado en el paso b2) en función del resultado de esta evaluación anterior, para la determinación de los vectores de desplazamiento que se utilizarán posteriormente en el paso b2).
Si de esta evaluación resulta, por ejemplo, el campo vectorial antes mencionado con "vectores de desplazamiento radial", se puede prever para la eliminación de los "valores atípicos" mencionados, que cada vector de desplazamiento determinado en el paso b1) se compare con un vector de desplazamiento a esperar para la respectiva posición (en base a la evaluación) y se elimine, en caso necesario (si la desviación es demasiado grande) como valor atípico.
Paso b3): Cálculo de la transformación matemática en base a los vectores de desplazamiento seleccionados en el paso b2).
Utilizando los vectores de desplazamiento previamente seleccionados, se calcula una transformación matemática de las coordenadas de imagen de la primera imagen en coordenadas de imagen de la segunda imagen.
Con este fin se puede estimar, por ejemplo, una homografía completa o se pueden determinar solamente los parámetros individuales de una transformación (sólo la traslación en dirección horizontal y/o vertical de la imagen). Para ello, se pueden utilizar, por ejemplo, algoritmos de software en sí conocidos por el estado de la técnica. Se calcula preferiblemente una transformación fiel a la longitud.
Los pasos c1) y c2) sirven para determinar una "imagen de diferencia" como diferencia entre las imágenes transformadas del par de imágenes determinado en el paso b).
Paso c1): Aplicación de la transformación matemática para la transformación de las dos imágenes del par de imágenes una sobre la otra.
En este paso, la primera imagen se transforma en las coordenadas de la segunda imagen utilizando la transformación matemática calculada previamente. Se obtiene un área de coordenadas en la que las dos imágenes se superponen. En la figura 3, los bordes de las dos imágenes se trazan respectivamente como líneas negras. Paso c2): Determinación de la imagen de diferencia por sustracción píxel a píxel de los valores de luminosidad de la imagen de las dos imágenes.
En este paso, por ejemplo, la primera imagen transformada en el área de superposición se resta de la segunda imagen. Como resultado se obtiene en el ejemplo de realización representado una imagen que, en función de la medida del desplazamiento de las dos imágenes individuales entre sí, presenta menos píxeles que cada una de las dos imágenes individuales. Sin embargo, la profundidad de color de la imagen de diferencia aumenta en comparación con la profundidad de color de las dos imágenes individuales. Para el ejemplo de una profundidad de color de las imágenes individuales de 8 bits, la imagen de diferencia se produce con una profundidad de color de unos 9 bits.
La imagen de diferencia así calculada se guarda.
La imagen de diferencia resultante en este ejemplo se ilustra en la figura 4. En la figura 4, los píxeles con valores de brillo de imagen en el rango alrededor de 0 son grises, los píxeles con valores de brillo de imagen más positivos son más brillantes (hasta el blanco) y los píxeles con valores de brillo de imagen más negativos son más oscuros (hasta el negro).
Los pasos d1), d2), y d3) sirven para determinar "puntos de cambio de imagen destacados" a partir de la diferencia de imagen determinada en el paso c).
Paso d1): determinación de un valor umbral de cambio de imagen y determinación de puntos de cambio de imagen como aquellas zonas en la imagen de diferencia determinada en el paso c), cuyo valor absoluto de brillo de imagen exceda del valor umbral de cambio de imagen.
En el ejemplo representado, las distintas imágenes de la secuencia de imágenes de vídeo se graban con una profundidad de color de 8 bits, lo que corresponde a 256 posibles valores de gris diferentes. En caso de una codificación de estos valores de gris con valores de "0" a "255", una simple resta matemática para determinar la imagen de diferencia en el paso c2) en la imagen de diferencia da como resultado una escala de valores de gris con posibles valores de gris de "-255" a "+255". Al ejecutar el paso d1) por primera vez, el valor umbral de cambio de imagen se puede seleccionar, por ejemplo, como situado cerca del centro de la escala de grises de las imágenes individuales del par de imágenes, es decir, en el ejemplo descrito se puede predeterminar con un valor de aproximadamente 128.
Alternativamente se considera, por ejemplo, calcular el valor umbral de cambio de imagen inicial definido en el paso d1) como una función de los valores de brillo de la imagen que se producen (realmente) en la imagen de diferencia. A continuación, los valores absolutos de los valores de luminosidad de la imagen de diferencia se comparan píxel por píxel con este umbral de cambio de imagen. Para todas las posiciones de la imagen (píxeles) en la imagen de diferencia cuyo valor absoluto de brillo de imagen no sea mayor que el valor umbral de brillo de imagen, se introduce, por ejemplo, un "0" y para todas las posiciones de la imagen cuyo valor absoluto de brillo de imagen exceda el valor umbral de brillo de imagen se introduce un "1" en una "imagen de cambio de imagen" (imagen binaria) generada en el paso d1). En esta imagen de cambio de imagen, las áreas marcadas con "1" corresponden, por lo tanto, a los puntos de cambio de imagen determinados en el paso d1).
La imagen del cambio de imagen que resulta en este ejemplo después de la primera ejecución del paso d1) se representa en la figura 5. Los cambios de imagen, es decir, las áreas de imagen con valor de píxel "1", se muestran en la figura 5 en blanco y las áreas de imagen con valor de píxel "0" se muestran en negro.
Paso d2): Análisis de la calidad de los puntos de cambio de imagen determinados en el paso d1) utilizando al menos un criterio de calidad predefinido.
En este paso, determinadas características de los cambios de imagen contenidos en la imagen de cambio de imagen se "miden" y evalúan por medio de al menos un criterio de calidad predefinido.
Con vistas a la intención de evitar falsas alarmas en el procedimiento de detección según la invención, se considera, por ejemplo, un análisis en el sentido de determinar el número de cambios de imagen "aislados" en la imagen de cambio de imagen, es decir, de píxeles con el valor "1". El término "aislado" puede referirse en particular al caso en el que los 8 píxeles directamente contiguos en la imagen de cambio de imagen tienen el valor "0". Dado que estos cambios aislados de imagen han de considerarse generalmente como artefactos (por ejemplo, causados por ruido de imagen, etc.), un criterio de calidad utilizado en el paso d2) puede prever especialmente que cuanto menor sea el número de cambios aislados de imagen, tanto mejor será la calidad de los puntos de cambio de imagen determinados (o se cumplirá un criterio de calidad correspondiente).
Alternativa o adicionalmente, también se puede utilizar un criterio de calidad, que evalúe la calidad de imagen de cambio de imagen como peor incluso en el caso de que existan más "áreas de imagen con un valor de brillo de 1, formadas por muy pocos píxeles unidos (por ejemplo, hasta un número máximo)". Estos cambios de imagen también deben considerarse normalmente como artefactos. Se puede seleccionar un número máximo adecuado, por ejemplo, en dependencia del número total de píxeles de las distintas imágenes. El número máximo se puede elegir, por ejemplo, como un porcentaje determinado del número total de píxeles.
Además, los dos criterios de calidad antes mencionados también se pueden modificar en el sentido de que la presencia de un "aislamiento" no presuponga el valor 0 para todos los píxeles directamente contiguos, sino que un número mínimo predeterminado de píxeles directamente contiguos sea suficiente (por ejemplo, al menos 4, 5 ó 6 píxeles contiguos).
Paso d3): si se cumple el criterio de calidad, determinación de los puntos de cambio de imagen determinados en el paso d1) como puntos de cambio de imagen destacados determinados en el paso d), en caso contrario repetición de los pasos d1) y d2) con un umbral de cambio de imagen determinado modificado.
Si se cumplen el o los criterios de calidad utilizados en el paso d2), el procesamiento avanza al paso e). De lo contrario, es decir, si no se cumplen el o los criterios de calidad, siendo también posible que algunos de estos criterios o todos se prevean como modificables por medio de una entrada de usuario, el procesamiento retrocede al paso d1), utilizándose en esta repetición del paso d1), sin embargo, un valor umbral de cambio de imagen especificado de manera distinta. El valor umbral de cambio de imagen utilizado en el cálculo de los cambios de imagen, que se realiza de nuevo en la imagen de diferencia (no cambiada), se establece por lo tanto de nuevo de acuerdo con el resultado del análisis del paso d2). Así se procede con el objetivo de cumplir los criterios de calidad (o al menos con el objetivo de un "mejor cumplimiento" de estos criterios) durante la ejecución repetida de los pasos d1) y d2).
Si, por ejemplo, el análisis de calidad del paso anterior d2) ha mostrado que la calidad está por debajo de un límite de aceptación predeterminado, se aumenta en la repetición de los pasos d1) y d2) el umbral de cambio de imagen (de modo que la sensibilidad de la determinación de los puntos de cambio de imagen en el paso d1) se reduce en consecuencia). Por el contrario, si la evaluación de la calidad conduce a un resultado que supera el límite de aceptación especificado en una cantidad determinada (por ejemplo, especificada de forma fija o variable), se pueden repetir los pasos d1) y d2) con un umbral de cambio de imagen reducido (es decir, con una sensibilidad mayor para la determinación de los puntos de cambio de imagen).
El uso de los pasos d1), d2) y d3) permite así ventajosamente una mejora iterativa de la calidad de los puntos de cambio de imagen determinados en el paso d1) o de la imagen de cambio de imagen determinada en esta operación.
Después de completar esta optimización, el procesamiento avanza al paso e). En el supuesto de que dicha optimización iterativa falle, lo que puede suponerse, por ejemplo, en el caso de que se haya alcanzado un número máximo predeterminado de repeticiones de los pasos d1) y d2) (sin una mejora de la calidad aceptable), se puede abortar también como carente de resultado la parte de procesamiento que consiste en los pasos d1), d2) y d3), lo que a su vez conduce a una interrupción sin resultados de todo el procedimiento de detección de objetos para el par de imágenes en cuestión.
En el ejemplo aquí descrito, se obtiene como resultado de esta mejora iterativa de la calidad la imagen de cambio de imagen mostrada en la figura 6. Como se puede apreciar en la figura 6, la misma contiene ahora cambios de imagen unidos relativamente grandes y muy cercanos los unos de los otros, provocados obviamente por un objeto en movimiento ubicado en este punto de la imagen.
Paso e): Determinación de los puntos de objeto a partir de los puntos de cambio de imagen determinados en el paso d).
En este paso se determinan, con ayuda de un método apropiado controlado por el programa, a partir de los cambios de imagen restantes, es decir, los de la última imagen de cambio de imagen calculada (figura 6), los objetos en movimiento.
En este paso, los cambios de imagen que están relativamente cerca unos de otros (por ejemplo, más cerca que una distancia máxima fija o que una distancia máxima definible por el usuario) y que presentan respectivamente un tamaño mínimo determinado (por ejemplo, mayor que un tamaño mínimo fijo o un tamaño mínimo definible por el usuario), se pueden considerar asignados a un objeto específico (en movimiento). Por consiguiente, esta determinación del punto de objeto del paso e) en el ejemplo mostrado lleva al resultado de que un objeto en movimiento (reconocible en las figuras aproximadamente en el centro de la imagen) es detectado sobre la base del par de imágenes en cuestión.
La figura 7 muestra la "segunda imagen" de este par de imágenes, en la que un marco de posición basado en el resultado del paso e) marca la posición y el tamaño del objeto en movimiento detectado.
Se entiende que el procedimiento descrito anteriormente puede aplicarse a otros pares de imágenes de la secuencia de imágenes de vídeo, siendo posible que la "primera imagen" de dicho par de imágenes a procesar posteriormente sea la "segunda imagen" del par de imágenes previamente procesado.
El procedimiento de detección de objetos descrito se puede utilizar de forma especialmente ventajosa en el marco de la captación o del seguimiento de objetivos asignándose preferiblemente una identificación determinada a cada objeto en caso la captura de varios objetos en movimiento.

Claims (9)

REIVINDICACIONES
1. Procedimiento para la detección de objetos en movimiento en una secuencia de imágenes de vídeo que comprende los pasos de:
a) determinación de puntos característicos destacados en una imagen de un par de imágenes sucesivas de la secuencia de imágenes de vídeo,
b) determinación de una transformación matemática para la reproducción de una de las dos imágenes del par de imágenes sobre la otra de las dos imágenes del par de imágenes mediante la utilización de los puntos característicos destacados determinados en el paso a),
c) determinación de una imagen de diferencia como diferencia entre las imágenes del par de imágenes transformadas una sobre otra por medio de la transformación determinada en el paso b),
d) determinación de puntos de cambio de imagen destacados en la imagen diferencial determinada en el paso c),
e) determinación de puntos de objetivo a partir de los puntos de cambio de imagen destacados determinados en el punto d),
comprendiendo el paso d) los siguientes pasos:
d1) Definición de un valor umbral de cambio de imagen y determinación de los puntos de cambio de imagen como los puntos en la imagen de diferencia determinada en el paso c), cuyo valor absoluto de brillo de imagen supera el valor umbral de cambio de imagen.
d2) Análisis de la calidad de los puntos de cambio de imagen determinados en el paso d1), utilizando al menos un criterio de calidad predeterminado,
d3) si se cumple el criterio de calidad, definición de los puntos de cambio de imagen determinados en el paso d1) como los puntos de cambio de imagen destacados determinados en el paso d), en caso contrario repetición de los pasos d1) y d2) con un valor umbral de cambio de imagen determinado modificado.
2. Procedimiento según la reivindicación 1, comprendiendo el paso a) los siguientes pasos:
a1) detección de puntos característicos en una de las dos imágenes del par de imágenes, en cada caso cerca de puntos de cuadrícula de una cuadrícula predeterminada colocada sobre esta imagen,
a2) detección de puntos característicos destacados como una selección de entre los puntos característicos detectados en el paso a1), utilizando al menos un criterio de selección predeterminado.
3. Procedimiento según una de las reivindicaciones anteriores, comprendiendo el paso b) los siguientes pasos: b1) determinación de vectores de desplazamiento para cada uno de los puntos característicos destacados determinados en el paso a) mediante la determinación de los puntos característicos destacados correspondientes en la otra de las dos imágenes del par de imágenes,
b2) determinación de vectores de desplazamiento a utilizar posteriormente como una selección de entre los vectores de desplazamiento determinados en el paso b1) por medio de al menos un criterio de selección predeterminado,
b3) cálculo de la transformación matemática sobre la base de los vectores de desplazamiento seleccionados en el paso b2).
4. Procedimiento según una de las reivindicaciones anteriores, comprendiendo el paso c) los siguientes pasos: c1) aplicación de la transformación matemática para la transformación superpuesta las dos imágenes del par de imágenes,
c2) determinación de la imagen de diferencia por sustracción píxel a píxel de los valores de brillo de la imagen de las dos imágenes.
5. Procedimiento según una de las reivindicaciones anteriores, calculándose el valor umbral de cambio de imagen fijado inicialmente en el paso d1) en dependencia de los valores de brillo de imagen existentes en la imagen de diferencia.
6. Procedimiento según una de las reivindicaciones anteriores, empleándose en el paso d2), como criterio de calidad, el hecho de que el número de puntos de cambio de imagen en forma de píxeles aislados no supera un número máximo preestablecido en la imagen de diferencia.
7. Procedimiento según una de las reivindicaciones anteriores, pudiéndose cambiar el criterio de calidad empleado en el paso d2) por medio de una entrada del usuario.
8. Procedimiento según una de las reivindicaciones anteriores, determinándose en el paso e) los puntos de objetivo respectivamente como áreas de imagen de los puntos de cambio de imagen situados cerca los unos de los otros determinados en el paso d).
9. Dispositivo para la realización de un procedimiento según una de las reivindicaciones anteriores, que comprende un dispositivo de sensor para la generación de la secuencia de imágenes de vídeo y un ordenador controlado por un programa para la ejecución de los pasos a) a e).
ES12007342T 2011-11-02 2012-10-26 Procedimiento y dispositivo para la detección de objetos en movimiento en una secuencia de imágenes de vídeo Active ES2717186T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011117408 2011-11-02

Publications (1)

Publication Number Publication Date
ES2717186T3 true ES2717186T3 (es) 2019-06-19

Family

ID=47227395

Family Applications (1)

Application Number Title Priority Date Filing Date
ES12007342T Active ES2717186T3 (es) 2011-11-02 2012-10-26 Procedimiento y dispositivo para la detección de objetos en movimiento en una secuencia de imágenes de vídeo

Country Status (6)

Country Link
US (1) US9014426B2 (es)
EP (1) EP2590141B1 (es)
JP (1) JP6199022B2 (es)
CA (1) CA2793180A1 (es)
ES (1) ES2717186T3 (es)
RU (1) RU2615063C2 (es)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US9948914B1 (en) * 2015-05-06 2018-04-17 The United States Of America As Represented By The Secretary Of The Air Force Orthoscopic fusion platform
DE102015010919A1 (de) 2015-08-20 2017-02-23 Diehl Bgt Defence Gmbh & Co. Kg Verfahren zum Bestimmen einer Ausrichtung eines Objekts
JP6496323B2 (ja) * 2015-09-11 2019-04-03 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 可動物体を検出し、追跡するシステム及び方法
DE102017123228A1 (de) * 2017-10-06 2019-04-11 Connaught Electronics Ltd. Verfahren zum Klassifizieren eines Objektpunkts als statisch oder dynamisch, Fahrerassistenzsystem und Kraftfahrzeug

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5109435A (en) * 1988-08-08 1992-04-28 Hughes Aircraft Company Segmentation method for use against moving objects
EP0514390B1 (de) * 1990-02-09 1994-02-16 Siemens Aktiengesellschaft Verfahren zur bestimmung der momentanen lage und form von bewegten objekten und zu deren anzeige als binärbild
FR2734911B1 (fr) * 1995-06-01 1997-08-01 Aerospatiale Procede et dispositif pour detecter le mouvement d'une cible et leurs applications
DE19601005A1 (de) * 1996-01-15 1997-07-17 Bosch Gmbh Robert Verfahren zur Erkennung bewegter Objekte in zeitlich aufeinanderfolgenden Bildern
US5982909A (en) * 1996-04-23 1999-11-09 Eastman Kodak Company Method for region tracking in an image sequence using a two-dimensional mesh
JPH1091795A (ja) * 1996-09-12 1998-04-10 Toshiba Corp 移動物体検出装置及び移動物体検出方法
US6298143B1 (en) * 1997-04-03 2001-10-02 Kabushiki Kaisha Toshiba Moving target detecting system and moving target detecting method
JP3481430B2 (ja) * 1997-09-11 2003-12-22 富士通株式会社 移動体追跡装置
JP3880759B2 (ja) * 1999-12-20 2007-02-14 富士通株式会社 移動物体検出方法
JP3625442B2 (ja) * 2000-10-31 2005-03-02 株式会社日立国際電気 物体検出方法及び物体検出装置並びに物体検出プログラム
JP4223233B2 (ja) * 2002-05-29 2009-02-12 パナソニック株式会社 移動物体検出装置および移動物体検出方法
JP3961344B2 (ja) * 2002-05-31 2007-08-22 株式会社東芝 画像処理システム、画像処理方法、画像処理プログラム
US7149356B2 (en) * 2002-07-10 2006-12-12 Northrop Grumman Corporation System and method for template matching of candidates within a two-dimensional image
RU2315357C2 (ru) * 2003-11-27 2008-01-20 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Способ детектирования объекта
EP1766581A4 (en) * 2004-06-14 2010-11-03 Agency Science Tech & Res DETECTION METHOD BY A DESIRED OBJECT OBSERVATION SYSTEM IN A VERY DYNAMIC ENVIRONMENT
US7650016B2 (en) * 2004-07-30 2010-01-19 Lockheed Martin Corporation System and method for tracking motion of an object image
US8050453B2 (en) * 2006-06-15 2011-11-01 Omron Corporation Robust object tracking system
DE102009017135A1 (de) * 2009-04-15 2010-11-11 Syperion Gmbh & Co. Kg Verfahren, Vorrichtung und Computerprogramm zur Videodatenanalyse
RU2009130289A (ru) * 2009-08-07 2011-02-20 Общество с ограниченной ответственностью "ССТ-Технология хаоса" (RU) Способ и система детектирования объектов на визуальных изображениях
US8116527B2 (en) * 2009-10-07 2012-02-14 The United States Of America As Represented By The Secretary Of The Army Using video-based imagery for automated detection, tracking, and counting of moving objects, in particular those objects having image characteristics similar to background

Also Published As

Publication number Publication date
US9014426B2 (en) 2015-04-21
JP6199022B2 (ja) 2017-09-20
CA2793180A1 (en) 2013-05-02
JP2013101612A (ja) 2013-05-23
EP2590141A1 (de) 2013-05-08
RU2013109127A (ru) 2014-09-10
RU2615063C2 (ru) 2017-04-03
US20130108109A1 (en) 2013-05-02
EP2590141B1 (de) 2019-01-02

Similar Documents

Publication Publication Date Title
ES2717186T3 (es) Procedimiento y dispositivo para la detección de objetos en movimiento en una secuencia de imágenes de vídeo
US10234873B2 (en) Flight device, flight control system and method
US11006104B2 (en) Collaborative sighting
US10033924B2 (en) Panoramic view imaging system
US20170293796A1 (en) Flight device and flight control method
US10165254B2 (en) Method for obtaining light-field data using a non-light-field imaging device, corresponding device, computer program product and non-transitory computer-readable carrier medium
US9619708B2 (en) Method of detecting a main subject in an image
CN113099198B (zh) 投影图像调整方法、装置、存储介质及电子设备
KR20150096922A (ko) 카메라 포즈 추정 장치 및 카메라 포즈 추정 방법
CN111383252B (zh) 多相机目标追踪方法、系统、装置及存储介质
JP6494418B2 (ja) 画像解析装置、画像解析方法、およびプログラム
EP2479537A2 (en) Vision based zero velocity and zero attitude rate update
CN109496326B (zh) 一种图像处理方法、设备及系统
JP2017092839A5 (es)
KR101705330B1 (ko) 스테레오 카메라 이미지에서 물체의 기울어진 각도를 찾기 위한 특징점 선택 방법
JPWO2017029784A1 (ja) 画像位置合わせシステム、方法および記録媒体
US9842406B2 (en) System and method for determining colors of foreground, and computer readable recording medium therefor
JP2013114381A (ja) 対象物識別装置および対象物識別方法
KR101463906B1 (ko) 영상 부가정보를 이용한 위치보정 방법
CN107093193B (zh) 用于借助摄像机构建深度图的方法
US9992398B2 (en) Optical sighting
WO2018087545A1 (en) Object location technique
Żak et al. Moving object detection, localization and tracking using stereo vison system
WO2013144447A1 (en) A method, an apparatus and a computer program for tracking an object in images
KR101813371B1 (ko) 영상 처리 장치 및 영상 처리 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체