ES2383174T3 - Mantenimiento de fondo de escena de video utilizando detección y clasificación de cambios - Google Patents

Mantenimiento de fondo de escena de video utilizando detección y clasificación de cambios Download PDF

Info

Publication number
ES2383174T3
ES2383174T3 ES03815787T ES03815787T ES2383174T3 ES 2383174 T3 ES2383174 T3 ES 2383174T3 ES 03815787 T ES03815787 T ES 03815787T ES 03815787 T ES03815787 T ES 03815787T ES 2383174 T3 ES2383174 T3 ES 2383174T3
Authority
ES
Spain
Prior art keywords
target
background model
stationary
video
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES03815787T
Other languages
English (en)
Inventor
Peter L. Venetianer
Alan J. Lipton
Andrew J. Chosak
Niels Haering
Zhong Zhang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Objectvideo Inc
Original Assignee
Objectvideo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Objectvideo Inc filed Critical Objectvideo Inc
Application granted granted Critical
Publication of ES2383174T3 publication Critical patent/ES2383174T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

Un método para el procesamiento de vídeo, que comprende las etapas de: mantener un modelo de fondo para dicho vídeo; detectar una diana en tal vídeo; detectar si dicha diana es una diana estacionaria, que comprende las etapas de: determinar propiedades de movimiento general y de cambio de tamaño de dicha diana; caracterizado por determinar propiedades de movimiento independiente de dicha diana, en el que tal movimiento independiente es un movimiento de fotograma a fotograma en el que la determinación de las propiedades de movimiento independiente de dicha diana comprende además: determinar una proporción media del número de píxeles en movimiento de dicha diana con respecto al área de píxeles de la diana; y determinar una desviación estándar de la proporción del número de tales píxeles en movimiento de dicha diana con respecto al área de píxeles de la diana, en el que tales píxeles en movimiento experimentan un movimiento independiente, y determinar si dicha diana es estacionaria en base a tales propiedades de movimiento general y cambio de tamaño y tales propiedades de movimiento independiente; y clasificar dicha diana estacionaria como una inserción en tal modelo de fondo o eliminación de tal modelo de fondo.

Description

Mantenimiento de fondo de escena de vídeo utilizando detección y clasificación de cambios.
Campo de la invención
La presente invención se dirige al campo general del procesamiento de vídeo y al campo más específico del procesamiento de vídeo segmentado. En particular, la invención se refiere al mantenimiento de modelos de fondo en vídeo segmentado y a la clasificación de cambios del modelo de fondo.
Técnica relacionada
Muchas aplicaciones de procesamiento de vídeo requieren segmentación de objetos de vídeo (es decir, la diferenciación de objetos que realmente se mueven de la escena de fondo estática representada en una secuencia de vídeo). Tales aplicaciones incluyen, por ejemplo, construcción de mosaico de vídeo, compresión de vídeo basada en objetos, edición de vídeo basada en objetos y vigilancia automatizada de vídeo. Muchos algoritmos de segmentación de objetos de vídeo utilizan modelos de fondo de escena de vídeo (los cuales pueden denominarse simplemente como “modelos de fondo”) como una ayuda. La idea general es que cada fotograma de una secuencia de vídeo puede registrarse con el modelo de fondo y compararse, píxel por píxel, con el modelo de fondo. Los píxeles que muestran una diferencia suficiente se consideran píxeles de primer plano o móviles. Sin embargo, existen una amplia gama de fenómenos que pueden causar cambios a nivel de píxel, tales como: fondos inestables (por ejemplo, agua con ondas, hojas agitadas por el viento, etc.); fenómenos de iluminación (por ejemplo, nubes moviéndose por delante del sol, sombras, etc.); y fenómenos de cámara (por ejemplo, control automático de ganancia (AGC), iris automático, autoenfoque, etc.).
Utilizando segmentación de objetos de vídeo (o una variación de la misma), habitualmente pueden detectarse objetos, o partes de objetos, los cuales muestran un movimiento independiente. La patente US 6.424.370 describe un método para proporcionar indexado automático de vídeo en base al contenido a partir del movimiento del objeto. Los objetos en movimiento en un vídeo de una cámara de vigilancia son detectados en la secuencia de vídeo utilizando métodos de segmentación del movimiento mediante un segmentador de movimiento. Los objetos son rastreados mediante datos segmentados en un rastreador de objetos y se genera una representación simbólica del vídeo en forma de un gráfico anotado que describe los objetos y su movimiento. Un analizador del movimiento analiza los resultados del rastreo de objetos y anota el movimiento del gráfico con índices que describen varios eventos. El gráfico se indexa a continuación utilizando un esquema de clasificación basado en normas para identificar eventos de interés, tales como aparición/desaparición. Hay dos problemas básicos que surgen cuando los objetos en una escena permanecen estacionarios durante un largo periodo de tiempo, y cualquiera de estos dos fenómenos puede degradar el rendimiento de la segmentación de objetos de vídeo para cualquier aplicación.
En primer lugar, si un objeto permanece estacionario durante un largo periodo de tiempo, el objeto podría ser detectado “permanentemente” como un objeto de primer plano. Sin embargo, a todos los efectos prácticos, el objeto se ha convertido en parte del fondo. En la figura 1A, este problema se ilustra para un coche 11 que entra en la secuencia de vídeo y aparca en ella. El coche es monitorizado de forma continua como un objeto de primer plano 12 pero realmente se ha convertido en parte del fondo (es decir, segmentación “permanente”).
En segundo lugar, si un objeto, inicialmente estacionario, es parte del modelo de fondo (por ejemplo, se “incrusta”) y a continuación se mueve, el objeto deja expuesta una región del modelo de fondo (por ejemplo, fondo estático) que no ha sido modelada. La región expuesta del modelo de fondo es detectada erróneamente como un objeto de primer plano. En la figura 1B, este problema se ilustra para un coche aparcado 13 que sale de la secuencia de vídeo. El coche 13 deja un “agujero” en forma de coche 14 segmentado en el modelo de fondo.
Tal como se ha descrito, por ejemplo, en la Solicitud de Patente de Estados Unidos Nº de Serie 09/472.162, titulada “Method, Apparatus, and System for Compressing/Decompressing Digital Video Data”, presentada el 27 de diciembre 1999, y la Patente de Estados Unidos Nº 6738424, titulada “Scene Model Generation from Video for Use in Video Processing”, presentada el 3 de julio de 2000 (ambas de asignación común), cuando se construyen mosaicos de fotografías, mosaicos de vídeo o modelos de escena de vídeo, a menudo es deseable extraer aquellas partes de las imágenes fuente que representan fondo “verdadero”. Por ejemplo, un coche aparcado en una secuencia de vídeo (o cualquier otra colección de imágenes) que permanece aparcado durante la duración de la secuencia de vídeo puede considerarse fondo verdadero. Sin embargo, un coche en una secuencia de vídeo que inicialmente está aparcado y después se aleja en algún punto en la secuencia de vídeo debe considerarse apropiadamente “no fondo”.
Si no se tiene cuidado para identificar regiones de fondo verdadero, se producirán aberraciones. Si el objetivo es producir un mosaico o imagen de fondo, los objetos de primer plano pueden “incrustarse” y el modelo de fondo daría como resultado imágenes de aspecto innatural. Si el objetivo es construir un modelo de escena como base para segmentación de vídeo, los resultados pueden ser segmentaciones malas, donde partes de objetos de primer plano no se detectan, y donde algunas regiones de fondo expuestas se detectan como objetos de primer plano.
La figura 2 ilustra un ejemplo de la técnica anterior de permitir que objetos de primer plano corrompan un modelo de fondo. La secuencia de vídeo representa a un golfista preparado para dar el golpe inicial. Un subconjunto 21 de las imágenes fuente de la secuencia de vídeo representa una parte de esta secuencia de vídeo. Las imágenes fuente se utilizan para generar un modelo de fondo 22 y objetos de primer plano 23. Sin embargo, el modelo de fondo 22 contiene objetos de primer plano 23 (por ejemplo, el golfista a la izquierda y parte de la camiseta del golfista a la derecha) incrustados en el modelo de fondo 22, y los objetos de primer plano 23 están segmentados de forma incompleta (por ejemplo, parte del torso del golfista y parte del palo de golf).
Resumen de la invención
La invención emplea la detección y clasificación de cambios para mantener un modelo de fondo de una secuencia de vídeo. Además, la invención mantiene un modelo de fondo de una secuencia de vídeo y clasifica cambios en el modelo de fondo.
La invención incluye un método según la reivindicación 1.
La invención incluye un sistema informático para llevar a cabo el método anterior. Un sistema para la invención incluye un sistema informático que incluye un medio legible por ordenador que presenta software para hacer funcionar un ordenador de acuerdo con la invención.
Según un aspecto adicional de la invención, se proporciona un sistema informático para procesar vídeo según la reivindicación 12.
Características y ventajas adicionales de la invención, así como la estructura y el funcionamiento de diversas realizaciones de la invención, se describen con detalle a continuación con referencia a los dibujos adjuntos.
Definiciones
Un “ordenador” se refiere a cualquier aparato que es capaz de aceptar una entrada estructurada, procesar la entrada estructurada según normas prescritas, y producir resultados del procesamiento como una salida. Los ejemplos de un ordenador incluyen: un ordenador; un ordenador de utilización general; un superordenador; una unidad principal; un super mini-ordenador; un mini-ordenador; una estación de trabajo; un micro-ordenador; un servidor; una televisión interactiva; un dispositivo de Web; un dispositivo de telecomunicaciones con acceso a Internet; una combinación híbrida de un ordenador y una televisión interactiva; y hardware específico de aplicación para emular a un ordenador y/o software. Un ordenador puede ser fijo o portátil. Un ordenador puede presentar un único procesador o múltiples procesadores, los cuales pueden funcionar en paralelo y/o no en paralelo. Un ordenador también se refiere a dos o más ordenadores conectados juntos mediante una red para transmitir o recibir información entre los ordenadores. Un ejemplo de tal ordenador incluye un sistema informático distribuido para procesar información mediante ordenadores enlazados mediante una red.
Un “medio legible por ordenador” se refiere a cualquier dispositivo de almacenamiento utilizado para almacenar datos, al que puede acceder un ordenador. Los ejemplos de un medio legible por ordenador incluyen: un disco duro magnético; un disco flexible; un disco óptico, tal como un CD-ROM y un DVD; una cinta magnética; un chip de memoria; y una onda portadora utilizada para portar datos electrónicos legibles por ordenador, tales como los utilizados para transmitir y recibir un e-mail o para acceder a una red.
“Software” se refiere a las normas prescritas para hacer funcionar un ordenador. Los ejemplos de software incluyen: software; segmentos de código; instrucciones; programas informáticos; y lógica programada.
Un “sistema informático” se refiere a un sistema que presenta un ordenador, en el cual el ordenador comprende un medio legible por ordenador que incorpora software para hacer funcionar al ordenador
Una “red” se refiere a una serie de ordenadores y dispositivos asociados que están conectados mediante instalaciones de comunicación. Una red implica conexiones permanentes tales como cables o conexiones temporales tales como las establecidas a través del teléfono, inalámbricas u otros enlaces de comunicación. Los ejemplos de una red incluyen: una internet, tal como Internet; una red interna; una red de área local (LAN); una red de área amplia (WAN); y una combinación de redes, tales como una internet y una red interna.
“Vídeo” se refiere a imágenes en movimiento representadas en forma analógica y/o digital. Los ejemplos de vídeo incluyen televisión, películas, secuencias de imágenes de una cámara u otro observador, y secuencias deimágenes generadas por ordenador. Éstas pueden obtenerse, por ejemplo, de una señal en directo, un dispositivo de almacenamiento, una interfaz basada en IEEE 1394, un digitalizador de vídeo, un motor gráfico de un ordenador o una conexión de red.
“Procesamiento de vídeo” se refiere a cualquier manipulación de vídeo, incluyendo, por ejemplo, compresión y edición.
Un “fotograma” se refiere a una imagen particular u otra unidad discreta en un vídeo.
Breve descripción de los dibujos
Las anteriores y otras características y ventajas de la invención serán evidentes a partir de la siguiente y más particular descripción de una realización preferida de la invención, tal como se ilustra en los dibujos adjuntos. Los dígitos más a la izquierda en el número de referencia correspondiente indican el dibujo en el el cual un elemento aparece en primer lugar.
Las figuras 1A y 1B ilustran problemas de la técnica anterior con la utilización de segmentación de
objetos de vídeo para detectar objetos, o partes de objetos, los cuales muestran movimiento independiente;
La figura 2 ilustra un ejemplo de la técnica anterior de permitir
queobjetos de primer plano corrompan un modelo de fondo;
La figura 3 ilustra un diagrama de flujo para una primera
realizaciónde la invención;
La figura 4 ilustra modelización de fondo estadística de píxeles para detectar píxeles de primer plano;
La figura 5 ilustra modelización de fondo estadística de píxeles para manejar
cambios de iluminación;
La figura 6 ilustra la utilización de diferenciación de tres fotogramas para la
detección del movimiento;
La figura 7 ilustra la detección de píxeles en movimiento y píxeles
cambiados;
La figura 8 ilustra un diagrama de flujo para la detección y clasificación de
una diana estacionaria;
La figura 9 ilustra detección de cambios de fondo;
La figura 10 ilustra la inserción de un objeto de primer plano;
La figura 11 ilustra la eliminación de una parte del fondo;
La figura 12 ilustra un diagrama de flujo para detectar bordes intensos;
La figura 13 ilustra otro diagrama de flujo para detectar bordes intensos;
La figura 14 ilustra un diagrama de flujo para determinar la intensidad de un
borde;
La figura 15 ilustra la determinación de la intensidad de un borde;
La figura 16 ilustra un diagrama de flujo para una segunda realización de la
invención. Descripción detallada de las realizaciones ejemplares de la invención
Un ejemplo de realización de la invención se describe en detalle a continuación. Aunque se describen realizaciones ejemplares específicas, debe entenderse que esto se realiza sólo con fines de ilustración. Un experto en la materia reconocerá que pueden utilizarse otros componentes y configuraciones sin alejarse del espíritu y alcance de la invención. Las realizaciones y ejemplos descritos en esta patente son ejemplos no limitativos.
La invención emplea detección y clasificación de cambios para mantener un modelo de fondo de una secuencia de vídeo. La invención puede utilizarse para aplicaciones de procesamiento de vídeo en tiempo real (por ejemplo, compresión basada en objetos en tiempo real, o vigilancia de vídeo), en las cuales la secuencia de vídeo no puede estar disponible en su totalidad en cualquier momento, y podrían requerirse cambios progresivos del modelo de fondo para mantener su utilidad. La invención también puede utilizarse para aplicaciones de procesamiento de vídeo no en tiempo real. Una secuencia de vídeo se refiere a parte o todo de un vídeo.
Con la invención, en primer lugar, cambios locales en el modelo de fondo son detectados y pueden utilizarse para mantener el modelo de fondo y, en segundo lugar; tales cambios detectados se clasifican y pueden procesarse adicionalmente. Los cambios detectados se clasifican en dos categorías principales: primera, un objeto que está situado en la escena y permanece estático durante un periodo de tiempo (es decir, una inserción); y segunda, un objeto que se mueve saliendo de la escena y deja expuesta una sección del modelo de fondo (por ejemplo, el fondo estático) (es decir, una eliminación). El aspecto común de estas dos categorías es que hay un cambio local permanente en el modelo de fondo.
La clasificación de los cambios en estas dos categorías puede ser muy importante en una amplia gama de aplicaciones, tales como, por ejemplo, aplicaciones de vigilancia de vídeo. Los ejemplos de la primera categoría (es decir, una inserción) para aplicaciones de vigilancia de vídeo incluyen: monitorizar zonas de estacionamiento prohibido (y, por ejemplo, activar una alarma si un coche pasa más de cierta cantidad de tiempo en las zonas de estacionamiento prohibido); detectar bolsas abandonadas en aeropuertos; y detectar objetos abandonados cerca de zonas sensibles, tales como instalaciones militares y centrales energéticas. Los ejemplos de la segunda categoría (es decir, una eliminación) para aplicaciones de vigilancia de vídeo incluyen: detectar la eliminación de un artículo de gran valor, tal como una aberración de un museo, una cara pieza de hardware o un coche de un parking.
La figura 3 ilustra un diagrama de flujo para una primera realización de la invención en un posible contexto de un sistema de procesamiento de vídeo general. Una secuencia de vídeo es introducida en el sistema, y se genera y se mantiene un modelo de fondo 31, 32 y 33. El vídeo de entrada es procesado mediante dos técnicas diferentes de clasificación de píxeles de nivel bajo: clasificación de píxeles basada en un modelo de fondo 31 y clasificación de píxeles basada en el movimiento 34. Estas dos técnicas producen máscaras de píxeles (por fotograma) que representan píxeles de interés. La clasificación de píxeles basada en un modelo de fondo 31 produce una máscara de cambio e imágenes, y la clasificación de píxeles basada en el movimiento 34 produce una máscara de movimiento. La máscara de cambio y la máscara de movimiento se proporcionan para la generación de blobs (objetos binarios grandes) 35, que convierte las máscaras en un conjunto de uno o más blobs individuales que representan el aspecto de cada objeto de primer plano visible en cada fotograma. En general, si no hay objetos de primer plano visibles, no se generan blobs. Los blobs se rastrean utilizando rastreo de blobs 36, el cual conecta los blobs de un fotograma con aquellos de otros fotogramas para generar una “diana” que representa cada objeto en la escena. Una diana es una descripción espaciotemporal de un objeto de vídeo en el tiempo. Las dianas se analizan mediante detección y clasificación de una diana estacionaria 37, la cual determina si cualquiera de las dianas representa un cambio “permanente” del modelo de fondo 33 y si ese cambio representa una “inserción” (por ejemplo, un objeto que entra en la escena) o una “eliminación” (por ejemplo, un objeto que sale y deja expuesta una sección del modelo de fondo). Finalmente, cualesquiera dianas estacionarias detectadas se insertan en el modelo de fondo 33 mediante la actualización local del modelo de fondo 38.
La generación y el mantenimiento de un modelo de fondo incluyen la clasificación de píxeles basada en un modelo de fondo 31, la actualización del modelo de fondo 32, y el modelo de fondo 33. Una opción para la estrategia basada en el modelo de fondo 31, 32 y 33 emplea modelización de píxeles estadística dinámica. La modelización de píxeles estadística dinámica mantiene una precisa representación del fondo de la imagen y diferencia píxeles de fondo de píxeles de primer plano. En un ejemplo de realización, la modelización de píxeles estadística dinámica se implementa con las técnicas descritas en la Patente de Estados Unidos de asignación común Nº 6625310, titulada “Video Segmentation Using Statistical Pixel Modeling”, presentada el 23 de marzo de 2001. La idea general de la técnica ejemplar es que se mantiene un historial de todos los píxeles durante varios fotogramas, incluyendo valores cromáticos (o de intensidad) de píxeles y sus estadísticas. Un píxel estable, sin cambios es tratado como fondo. Si las estadísticas de un píxel cambian de forma significativa, puede considerarse que el píxel es de primer plano. Si el píxel vuelve a su estado original, el píxel puede volver a ser considerado un píxel de fondo. Esta técnica sirve para aliviar el ruido del sensor y para dirigir automáticamente cambios lentos en el fondo debidos a condiciones de iluminación y al control automático de ganancia de la cámara (AGC). En lugar de modelización de píxeles estadística dinámica, la clasificación de píxeles basada en un modelo de fondo 31 puede implementarse utilizando modelos de fondo estadísticos, una mezcla de modelos de fondo gausianos o mezcla adaptativa de forma dinámica de modelos gausianos.
El modelo de fondo 33 es la representación interna de la escena estática representada en el vídeo en cualquier momento dado. Cada vez que se analiza un nuevo fotograma, el modelo de fondo 33 puede actualizarse de forma progresiva mediante la actualización del modelo de fondo 32. Además de las actualizaciones progresivas, es necesario actualizar el modelo de fondo 33 cuando se detecta un cambio de fondo. Por ejemplo, la información cromática que representa la nueva región de fondo estático local debe “incrustarse” en el modelo de fondo 33, lo que puede conseguirse con la actualización local del modelo de fondo 38.
Las figuras 4 y 5 ilustran la utilización de la modelización de píxeles para generar y mantener un modelo de fondo. En la figura 4, se ilustra la modelización de fondo estadística de píxeles para detectar píxeles de primer plano. El fotograma 41 es un fotograma actual de un vídeo de un hombre que camina delante de sillas apiladas y que deja caer una maleta. En el fotograma 41, el hombre ha dejado caer la maleta y sigue adelante. Tal como se ilustra con el gráfico 42 que representa la intensidad y el tiempo para un píxel en el vídeo, La media y desviación estándar de la intensidad para cada píxel 43 se utilizan para modelizar el fondo 44. El modelo de fondo 33 contiene una media y desviación estándar para cada píxel. El algoritmo de clasificación de píxeles 31 compara cada píxel del fotograma actual 41 con el píxel correspondiente del modelo de fondo 33. Cuando un objeto se mueve “a través de” un píxel en el fotograma actual 41, su valor no se adaptará a las estadísticas capturadas en el modelo de fondo 33 y se considera primer plano 45. Una máscara de cambio de píxeles de primer plano se crea mediante la clasificación basada en el modelo de fondo 31 y se envía a la generación de blobs 35. Esta máscara de cambio y el fotograma actual 41 son enviados ambos a la actualización del modelo de fondo 32, ya que las estadísticas de píxeles que comprenden el modelo de fondo 33 pueden actualizarse.
En la figura 5, se ilustra la modelización de fondo estadística de píxeles para manejar cambios de iluminación. El fotograma 51 ilustra un cambio de iluminación lento en un vídeo. Tal como se ilustra con el gráfico 52 que representa la intensidad y el tiempo para un píxel en el vídeo, la media y la desviación estándar de intensidad para cada píxel 53 se utilizan para modelizar el fondo. Dado que la media y la desviación estándar para cada píxel se calcula a partir de sólo los últimos fotogramas, el modelo de fondo 33 está adaptado para seguir la intensidad de píxeles que cambia lentamente 54.
La clasificación de píxeles basada en el movimiento 34 determina si un píxel está experimentando realmente un movimiento independiente de fotograma a fotograma. Una realización potencial para la clasificación de píxeles basada en el movimiento 34 es la diferenciación de tres fotogramas, tal como se describe en la Patente de Estados Unidos de asignación común Nº 6954498, presentada el 24 de octubre de 2000. Otras realizaciones potenciales para la clasificación de píxeles en movimiento 34 incluyen diferenciación de dos fotogramas y flujo óptico.
La figura 6 ilustra la utilización de diferenciación de tres fotogramas para la detección de movimiento en la clasificación de píxeles basada en el movimiento 34. Los fotogramas 61, 62 y 63 son fotogramas del pasado, actual y del futuro, respectivamente, de un vídeo de un hombre que camina delante de sillas apiladas y que deja caer una maleta. La máscara de diferencia 64 se obtiene comparando los fotogramas 61 y 62, y la máscara de diferencia 65 se obtiene comparando los fotogramas 62 y 63. La máscara de movimiento 66 se obtiene comparando las máscaras de diferencia 64 y 65 utilizando una conjunción lógica AND. La máscara de movimiento 66 es enviada a la generación de blobs 35.
Las salidas de la clasificación de píxeles basada en un modelo de fondo 31 y la clasificación de píxeles basada en el movimiento 34 pueden no detectar concurrentemente un nuevo objeto de primer plano. Por ejemplo, un coche recién aparcado puede aparecer como un objeto de primer plano según la clasificación de píxeles basada en un modelo de fondo 31. Sin embargo, dado que el coche aparcado no muestra ningún movimiento independiente real, la clasificación de píxeles basada en el movimiento 34 no puede detectar ningún objeto de primer plano.
Otro ejemplo de esta diferencia entre píxeles cambiados y píxeles en movimiento se ilustra en la figura 7. El fotograma 71 es un fotograma de un vídeo de un hombre que camina por delante de sillas apiladas y que deja caer una maleta. La máscara de movimiento 72 resulta de la clasificación de píxeles basada en el movimiento 34, la cual detecta al hombre pero no a la maleta. La máscara de cambio 73 resulta de la clasificación basada en el modelo de fondo 31, la cual detecta tanto al hombre como a la maleta. En este ejemplo, un objeto de primer plano recientemente insertado (es decir, la maleta) es detectado por la clasificación de píxeles basada en un modelo de fondo 31 pero no por la clasificación de píxeles basada en el movimiento 34.
La generación de blobs 35 y el rastreo de blobs 36 integran la máscara de movimiento y la máscara de cambio de píxeles por fotograma en dianas (descripciones espacio-temporales de objetos de vídeo). Para la generación de blobs 35, existen muchas técnicas convencionales para aglomerar píxeles en blobs, por ejemplo: componentes conectados, tal como se describe en D. Ballard y C. Brown, “Computer Vision”, Prentice-Hall, Mayo de 1982; y componente cuasi-conectados, como se describe en T.E. Boult, R.J. Micheals, X. Gao, P. Lewis, C. Power, W. Yin y A. Erkan, “Frame-Rate Omnidirectional Surveillance and Tracking of Camouflaged and Occluded Targets”, Proc. of the IEEE Workshop on Visual Surveillance, junio de 1999. Para el rastreo de blobs 36, existen muchas técnicas convencionales para rastrear blobs a lo largo del tiempo para formar dianas. Ejemplos de técnicas de rastreo se describen en la siguiente Patente de Estados Unidos de asignación común Nº 6954498, titulada “Interactive Video Manipulation”, presentada el 24 de octubre de 2000; los documentos Wren, C.R. et al., “Pfinder: Real-Time Tracking of the Human Body”, IEEE Trans. on Pattern Matching and Machine Intelligence, Vol. 19, págs. 780-784, 1997; Grimson,
W.E.L. et al., “Using Adaptive Tracking to Classify and Monitor Activities in a Site”, CVPR, págs. 22-29, junio de 1998; y Olson, T.J. y Brill, F.Z., “Moving Object Detection and Event Recognition Algorithm for Smart Cameras, IUW, págs. 159175, mayo de 1997.
La detección y clasificación de una diana estacionaria 37 analiza dianas generadas mediante el rastreo de blobs 36 para determinar si cada diana es estacionaria. Puede determinarse que una diana es estacionaria si la diana representa un cambio local en el modelo de fondo 33. Una diana puede representar un cambio en el modelo de fondo 33 si, por ejemplo, un objeto de vídeo ha dejado de moverse (es decir, una inserción) o un objeto de vídeo previamente estacionario ha dejado expuesta una sección de fondo estático que aparece como una diana (es decir, una eliminación).
Una vez que se ha detectado una diana estacionaria, esta información puede devolverse a la actualización local del modelo de fondo 38 para actualizar el modelo de fondo 33. Con esta retroalimentación, el modelo de fondo 33 puede mantenerse actualizado respecto a lo que constituye fondo estático y actividad de primer plano legítima.
La detección y clasificación de una diana estacionaria 37 determina si una diana es estacionaria y, si es así, si debe etiquetarse como una inserción, una eliminación o desconocida, si no es posible determinar la diferencia. A la hora de distinguir entre una inserción y una eliminación, la relación entre las escalas temporales para una inserción y una eliminación es importante. Una inserción puede implicar una escala temporal diferente de la de una eliminación, y estas escalas temporales pueden ser dependientes de la aplicación. Por ejemplo, una aplicación puede requerir que un objeto permanezca en su sitio durante una gran cantidad de tiempo antes de que se considere una inserción pero solamente una pequeña cantidad de tiempo antes de que se considere una eliminación. Como ejemplo específico, un coche aparcado en un bordillo en un aeropuerto durante cinco minutos puede no ser un asunto de preocupación y puede no considerarse una inserción, pero un coche aparcado en el bordillo durante quince minutos puede ser un asunto de preocupación y considerarse una inserción. Además, el mismo coche, tan pronto como se aleje del bordillo puede considerarse una eliminación. En este ejemplo, la escala temporal para una inserción es mayor que la escala temporal para una eliminación. Para otra aplicación, las escalas temporales relativas para una inserción y una eliminación pueden invertirse a partir del ejemplo anterior, de modo que la escala temporal para una eliminación es mayor que la escala temporal para una inserción. Además, las escalas temporales para una inserción y una eliminación pueden ser configuradas por un usuario.
La figura 8 ilustra un diagrama de flujo para la detección y clasificación de una diana estacionaria 37. Un pseudo-código ejemplar para implementar la detección y clasificación de una diana estacionaria 37 es el siguiente:
En el bloque 81, cada diana proporcionada por la generación de blobs 35 es examinada para determinar si la diana es potencialmente estacionaria. Este bloque corresponde a la primera condición “si” en el pseudo-código anterior (es decir, if (target is POTENTIALLY_STATIONARY) [si la diana es POTENCIALMENTE_ESTACIONARIA]). Si la diana
5 no es potencialmente estacionaria, el flujo avanza al bloque 82 y finaliza.
Una técnica ejemplar para determinar si una diana es potencialmente estacionaria utiliza diversas propiedades y características espacio-temporales de la diana. Si una diana no ha cambiado radicalmente su forma y tamaño durante un periodo de tiempo, la diana puede ser una diana estacionaria. Además, si una diana muestra una gran cantidad de cambio respecto al fondo (según lo determinado mediante detección de cambios 31, 32, 33), pero muy poco movimiento
10 independiente (según lo determinado mediante detección de movimiento 34), la diana es casi con seguridad una diana estacionaria.
Dos ejemplos de una diana potencialmente estacionaria se ilustran en la figura 9. La imagen 91 es un fotograma actual de un vídeo de un hombre que camina por delante de sillas apiladas y que deja caer una maleta, y la imagen 94 es un fotograma actual de un vídeo de un hombre que retira una obra de arte de una habitación. Las máscaras de movimiento 92 y 95 resultan de la clasificación de píxeles basada en el movimiento 34 e ilustran máscaras
5 de píxeles de píxeles “en movimiento” (es decir, píxeles que muestran movimiento). La máscara de movimiento 92 detecta al hombre pero no a la maleta en el fotograma 91, y la máscara de movimiento 95 detecta al hombre que camina con la obra de arte, pero no su ausencia de la pared. La máscaras de cambio 93 y 96 resultan de la clasificación de píxeles basada en un modelo de fondo 31 e ilustran máscaras de píxeles, de píxeles “cambiados” (es decir, píxeles que difieren del modelo de fondo 33). La máscara de cambio 93 detecta tanto al hombre como a la maleta, y la máscara
10 de cambio 96 detecta tanto al hombre que camina con la obra de arte como la ausencia en la pared. Tal como se indica con los cuadrados superpuestos en las máscaras de cambio 93 y 96, hay zonas que han cambiado claramente con respecto al modelo de fondo 33, pero no muestran ningún movimiento independiente. En la máscara de cambio 93, la inserción de la maleta no muestra ningún movimiento independiente, y en la máscara de cambio 96, la eliminación de la obra de arte de la pared no muestra ningún movimiento independiente. Estas zonas se determinan mediante la
15 detección y clasificación de una diana estacionaria 37 como dianas potencialmente estacionarias.
En una realización de la invención para determinar una diana estacionaria, se determinan propiedades de diana cuantificables. Por ejemplo, ΔC pueden representar propiedades estadísticas de una trayectoria centroidal de la diana. Específicamente, ΔC puede representar la media (a lo largo del tiempo) de la diferencia en la posición del centroide (en píxeles) entre fotogramas consecutivos, y ΔC puede representar la desviación estándar (a lo largo del
20 tiempo) de la diferencia de la posición del centroide (en píxeles) entre fotogramas consecutivos. En general, representan propiedades estadísticas de una trayectoria centroidal de la diana estacionaria.
Además,
R representan propiedades estadísticas del área de píxeles de la diana. Específicamente, puede representar la media (a lo largo de algún periodo de tiempo reciente) de la proporción del área de la diana (en píxeles) entre fotogramas consecutivos, y R puede representar la desviación estándar (a lo largo de algún periodo de
25 tiempo reciente) de la proporción del área de la diana (en píxeles) entre fotogramas consecutivos. Estas cuatro propiedades de la diana ejemplares (es decir,
R) capturan el movimiento general y el cambio de tamaño de una diana a lo largo del tiempo.
Además, M representan propiedades estadísticas de píxeles en movimiento de la diana estacionaria. Específicamente, M puede representar la media (a lo largo de algún periodo de tiempo reciente) de la proporción del
30 número de píxeles “en movimiento” con respecto al área de la diana (en píxeles), y M puede representar la desviación estándar (a lo largo de algún periodo de tiempo reciente) de la proporción del número de píxeles “en movimiento” con respecto al área de la diana (en píxeles). Estas dos propiedades de la diana ejemplares (es decir,
M) capturan el grado en el cual una diana está mostrando movimiento independiente, tal como según la descripción anterior.
Utilizando estas seis propiedades de la diana ejemplares, una posible técnica para determinar si una diana es 35 potencialmente estacionaria se basa en el siguiente pseudo-código:
En el pseudo-código, seis umbrales (es decir, THRESHOLD1, THRESHOLD2, THRESHOLD3, THRESHOLD4,
THRESHOLD5 y THRESHOLD6) se utilizan para realizar comparaciones de umbral con las propiedades de la diana
ejemplares. Los seis umbrales pueden estar preestablecidos y/o establecidos arbitrariamente como parámetros del
40 usuario.
Aunque se describen cuatro propiedades de la diana ejemplares (es decir,
y
como
representando el movimiento general y el cambio de tamaño de una diana a lo largo del tiempo, pueden utilizarse otras
propiedades, tal como será evidente para los expertos en la materia.
Aunque dos propiedades de la diana ejemplares (es decir, M) se describen como representando que se
45 muestra movimiento independiente, pueden utilizarse otras propiedades, tal como será evidente para los expertos en la materia.
Aunque se describen las seis propiedades estadísticas anteriores (es decir, ΔC, ΔC, R, R, M y M), pueden utilizarse otras combinaciones de estas propiedades estadísticas, otras propiedades estadísticas, y/o otras propiedades tal como será evidente para los expertos en la materia.
En el bloque 83, se determinan las relaciones entre un umbral de inserción y un umbral de eliminación. Este bloque corresponde al bloque de la segunda condición “si” en el pseudo-código anterior (es decir, “if (insertion_time_threshold < removal_time_threshold)” [si (umbral_de tiempo_de inserción < umbral_de tiempo_de retirada)]). El pseudo-código para clasificar las dianas detectadas depende de la relación entre el umbral de tiempo de inserción y el umbral de tiempo de eliminación. Esta relación determina cuál de las dos pruebas, concretamente una prueba de inserción o una prueba de eliminación, se realiza en primer lugar. El umbral de tiempo de inserción y el umbral de tiempo de eliminación son puntos en el tiempo basados en las escalas temporales establecidas para una inserción y una eliminación, tal como se ha descrito anteriormente. En el pseudo-código, el umbral de tiempo de inserción y el umbral de tiempo de eliminación se comparan con la edad de la diana.
En el bloque 84, se aplica la prueba de inserción y/o la prueba de eliminación. Si la aplicación de estas pruebas determina que la diana es una inserción, el flujo avanza hasta el bloque 85, y la diana se clasifica como una inserción. Si la aplicación de estas pruebas determina que la diana es una eliminación, el flujo avanza hasta el bloque 86, y la diana se clasifica como una eliminación. Si la aplicación de estas pruebas es inconcluyente en cuanto a si la diana es una inserción o una eliminación, el flujo avanza hasta el bloque 87, y la diana se clasifica como desconocida. Los bloques 84-86 corresponden al bloque de la tercera condición “si” en el pseudo-código anterior (es decir, “if (target_age > 1st_time_threshold)” [si (edad_de la diana > 1º_umbral_de tiempo)]). Una vez que se considera que una diana potencialmente estacionaria es estacionaria al pasar la prueba de inserción y/o la prueba de eliminación, su descripción es enviada a la actualización local del modelo de fondo 38, el cual modifica el modelo de fondo 33 en la ubicación de la diana potencialmente estacionaria. Este proceso implica sustituir las estadísticas del modelo de fondo (media y variable) de los píxeles que representan la diana potencialmente estacionaria. Los valores de la media y la variable de los píxeles que representan la diana estacionaria se modificarán para representar la media y la variable de los píxeles de fotogramas más recientes que representan la diana potencialmente estacionaria.
La prueba de inserción y la prueba de eliminación se ilustran con las figuras 10 y 11. La teoría detrás de la técnica de clasificación ejemplar de la invención es que una inserción puede caracterizarse como una región que muestra bordes intensos alrededor de su periferia en una imagen actual pero no muestra bordes intensos alrededor de la periferia de la misma región en el modelo de fondo. A la inversa, una eliminación puede caracterizarse como una región que muestra bordes intensos alrededor de su periferia en el modelo de fondo pero no muestra bordes intensos alrededor de su periferia en una imagen actual.
La figura 10 ilustra la clasificación de una inserción. El vídeo en este ejemplo es de un hombre que camina por delante de sillas apiladas y deja caer una maleta. La imagen 101 ilustra una imagen del modelo de fondo, y la imagen del borde de fondo 102 ilustra los bordes correspondientes de la imagen 101 determinados utilizando un detector de bordes Sobel. La imagen 103 ilustra una imagen del fotograma actual, y la imagen del borde del fotograma actual 104 ilustra los bordes correspondientes de la imagen 103 determinados utilizando un detector de bordes Sobel. Tal como puede verse, la maleta muestra bordes muy intensos en el fotograma actual (es decir, la imagen del borde del fotograma actual 104), pero no en el modelo de fondo (es decir, imagen del borde de fondo 102). La máscara de cambio 105 muestra los píxeles cambiados detectados, incluyendo el objeto estacionario (es decir, la maleta). La imagen 106 es un primer plano de la región de la maleta en la máscara de cambio 105, y la imagen 107 es un primer plano de una sección en la periferia de la región de la maleta en la imagen 106. Las imágenes 108 y 109 muestran los bordes correspondientes a la sección de la imagen 107 tanto para la imagen del borde de fondo 102 como la imagen del borde del fotograma actual 104, respectivamente. Tal como puede verse, la intensidad del borde en la imagen 109 para el fotograma actual es mayor que la intensidad del borde en la imagen 108 para el modelo de fondo. Por lo tanto, la diana (es decir, la maleta) se clasifica como una inserción.
La figura 11 ilustra la clasificación de una eliminación. El vídeo en este ejemplo es de un hombre que retira una obra de arte de una habitación. La imagen 111 ilustra una imagen del modelo de fondo, y la imagen del borde de fondo 112 ilustra los bordes correspondientes de la imagen 111 determinados utilizando un detector de bordes Sobel. La imagen 113 ilustra una imagen del fotograma actual, y la imagen del borde del fotograma actual 114 ilustra los bordes correspondientes de la imagen 113 determinados utilizando un detector de bordes Sobel. Tal como puede verse, la obra de arte muestra bordes muy intensos en el modelo de fondo (es decir, imagen del borde del modelo de fondo 112), pero no en el fotograma actual (es decir, imagen del fotograma actual 114). La máscara de cambio 115 muestra los píxeles cambiados detectados, incluyendo el objeto estacionario (es decir, la obra de arte). La imagen 116 es un primer plano de la región de la obra de arte en la máscara de cambio 115, y la imagen 117 es un primer plano de una sección en la periferia de la región de la obra de arte en la imagen 116. Las imágenes 118 y 119 muestran los bordes correspondientes a la sección de la imagen 117 tanto para la imagen del borde de fondo 112 como la imagen del borde del fotograma actual 114, respectivamente. Tal como puede verse, la intensidad del borde en la imagen 118 para el modelo de fondo es mayor que la intensidad del borde en la imagen 119 para el fotograma actual. Por lo tanto, la diana (es decir, la obra de arte) se clasifica como una eliminación.
Las figuras 12 y 13 ilustran dos realizaciones para los bloques 84-87 en la figura 8. La figura 12 ilustra la realización para el caso en el que el umbral de tiempo de inserción es menor que el umbral de tiempo de eliminación, y la figura 13 ilustra el otro caso correspondiente en el que el umbral de tiempo de inserción no es menor que el umbral de tiempo de eliminación.
En la figura 12, para el bloque 1201, la intensidad del borde EB del fondo se determina a lo largo de el límite de la diana potencialmente estacionaria (es decir, el cambio detectado).
En el bloque 1202, la intensidad del borde EF del fotograma actual se determina a lo largo del límite de la diana estacionaria.
En el bloque 1203, se determina la diferencia entre la intensidad del borde EB del fondo y la intensidad del borde EF del fotograma actual (es decir, ΔE = EB - EF).
En el bloque 1204, la edad de la diana se compara con el umbral de tiempo de inserción. Si la edad de la diana es mayor que el umbral de tiempo de inserción, el flujo avanza hasta el bloque 1205. En caso contrario, el flujo avanza hasta el bloque 1211 y finaliza.
En el bloque 1205, la diferencia ΔE se compara con un umbral de inserción THI. Para la formulación en este caso, si ΔE < THI (donde THI < 0), la diana estacionaria es una inserción, y el flujo avanza hasta el bloque 1206. En caso contrario, el flujo avanza hasta el bloque 1207.
En el bloque 1206, la diana estacionaria se clasifica como una inserción.
En el bloque 1207, la edad de la diana se compara con el umbral de tiempo de eliminación. Si la edad de la diana es mayor que el umbral de tiempo de eliminación, el flujo avanza hasta el bloque 1208. En caso contrario, el flujo avanza hasta el bloque 1211 y finaliza.
En el bloque 1208, la diferencia ΔE se compara con un umbral de eliminación THR. Para la formulación en este caso, si ΔE > THR, la diana estacionaria es una eliminación, y el flujo avanza hasta el bloque 1209. En caso contrario, el flujo avanza hasta el bloque 1210.
En el bloque 1209, la diana estacionaria se clasifica como una eliminación.
En el bloque 1210, la diana estacionaria no puede clasificarse como una inserción o una eliminación y, en su lugar, se clasifica como desconocida.
Después de los bloques 1206, 1208 y 1210, la descripción de la diana estacionaria es enviada a la actualización local del modelo de fondo 38, el cual modifica el modelo de fondo 33 para reflejar el cambio causado por la diana estacionaria detectada. Incluso aunque la diana estacionaria no pueda clasificarse como inserción o eliminación (bloque 1210), el modelo de fondo sigue estando actualizado.
Para aumentar la robustez, las intensidades de los bordes EB y EF pueden determinarse en los bloques 1201 y 1202 a lo largo de una serie de fotogramas y promediarse a lo largo del tiempo.
La figura 13 es igual que la figura 12, excepto por el cambio de lugares en el diagrama de flujo para los bloques 1204-1206 y los bloques 1207-1209.
La figura 14 ilustra un diagrama de flujo para un ejemplo técnico para determinar las intensidades de los bordes EB y EF para los bloques 1201 y 1202. Otras técnicas están disponibles, tal como será evidente para los expertos en la materia. La figura 14 se describe en relación con la figura 15, la cual ilustra un ejemplo de diana estacionaria en la cual se determinan las intensidades de los bordes. Con el ejemplo técnico de la figura 14, se da cabida a cierta incertidumbre en el límite del cambio detectado, y se ignoran agujeros y lagunas en el objeto.
En el bloque 141, se selecciona una banda de la imagen. Por ejemplo, la banda Y se selecciona en una imagen YCrCb. Otras bandas, aparte de la banda Y, pueden seleccionarse. También, como una opción, pueden seleccionarse múltiples bandas. Además, también se puede dar cabida a otros tipos de imágenes con la invención, tales como una imagen RGB o CMYK.
En el bloque 142, se selecciona una línea a lo largo de un píxel del perímetro Pp y el centroide Pc de la diana. En la figura 15, el centroide Pc de la diana 151 se designa con una estrella, y los píxeles del perímetro ejemplares 152, 153 y 154 se designan con círculos claros a lo largo del perímetro de la diana 151. Tres píxeles del perímetro ejemplares se identifican en la figura 15, y para cada píxel del perímetro, se elige una línea a través del píxel del perímetro Pp y el centroide Pc,
En el bloque 143, dos píxeles P1 y P2 en la línea se seleccionan a una distancia +/- equivalente del píxel del perímetro Pp. En la figura 15, los dos píxeles para cada línea se designan con círculos oscuros.
En el bloque 144, si ambos píxeles a distancia están dentro o fuera de la diana, el flujo avanza hasta el bloque
145. En caso contrario, si un píxel a distancia está dentro de la diana y el otro píxel a distancia está fuera de la diana, el flujo avanza hasta el bloque 146. En la figura 15, los píxeles del perímetro 152 y 153 presentan ambos píxeles a distancia dentro de la diana 151, y el píxel del perímetro 154 presenta un píxel a distancia dentro de la diana y el otro píxel a distancia fuera de la diana.
En el bloque 145, si ambos píxeles a distancia están dentro o fuera de la diana, se ignora el píxel del perímetro, y el flujo avanza hasta el bloque 147. En la figura 15, se ignoran los píxeles del perímetro 152 y 153.
En el bloque 146, un contraste Cp del píxel del perímetro que presenta un píxel a distancia dentro de la diana y el otro píxel a distancia fuera de la diana se determina en base a la intensidad de los dos píxeles a distancia Ip1 e Ip2 de la siguiente manera: Cp = |Ip1 - Ip2|.
En el bloque 147, si se comprobaron todos los píxeles del perímetro, el flujo avanza hasta el bloque 148. En caso contrario, el flujo avanza hasta el bloque 142 para seguir comprobando los píxeles del perímetro.
En el bloque 148, el contraste promedio se determina en todos píxeles del perímetro para los cuales se determinó un contraste Cp en el bloque 146. Este contraste promedio puede utilizarse como las intensidades de los bordes EB y EF en los bloques 1201 y 1202, respectivamente.
La descripción anterior para la figura 15 abordaba los tres píxeles del perímetro ejemplares 151, 152 y 153 de modo concurrente. Sin embargo, en el examen de los píxeles del perímetro según la figura 14, cada píxel del perímetro es examinado individualmente hasta que todos los píxeles del perímetro se hayan examinado, como mediante el bucle de vuelta del bloque 147 al bloque 142.
Además, con el ejemplo técnico de la figura 14, se ignoran los agujeros y pequeñas lagunas en la diana 151 en la figura 15, aumentando, de este modo, la robustez de la técnica.
En otra realización de la invención, las dianas detectadas se monitorizan adicionalmente para determinar si una diana nuevamente detectada se había detectado previamente mediante la detección y clasificación de una diana estacionaria 37 como un cambio en el modelo de fondo. Por ejemplo, en una aplicación de vigilancia, puede ser de interés detectar cuándo una diana entró en una escena y cuándo dejó de moverse (por ejemplo, un coche aparcando) y seguidamente monitorizar la diana (o el área de la escena donde la diana dejó de moverse) para determinar si, y cuándo, vuelve a moverse la diana (por ejemplo, un coche aparcado que sale).
La figura 16 ilustra un diagrama de flujo para la segunda realización de la invención. La figura 16 es igual que la figura 3, excepto por la adición de un monitor de la diana estacionaria 161. El monitor de la diana estacionaria 161 recibe descripciones de la diana estacionaria de la detección y clasificación de una diana estacionaria 37 y proporciona una reactivación de la diana al rastreo de blobs 36. Si la diana estacionaria se clasifica como una inserción, el monitor de la diana estacionaria 161 registra la diana (por ejemplo, tiempo, tamaño, color y ubicación) y monitoriza la diana para cualquier actividad adicional. En este punto, la diana es “olvidada” por el resto del sistema como si estuviera integrada en el modelo de fondo 33 y, en efecto, pasa a hibernación. Si, en cualquier momento posterior, una diana estacionaria se detecta como una eliminación y es descrita por la detección y clasificación de una diana estacionaria 37 en las proximidades de la inserción anterior, el monitor de la diana estacionaria 161 registra la eliminación con la diana estacionaria en hibernación y ordena al rastreo de blobs 36 para reactivar esa diana.
Las realizaciones de la invención pueden implementarse con un sistema informático. Un ejemplo de sistema informático incluye un ordenador y un medio legible por ordenador. En referencia a las figuras 3 y 16, los bloques 31-38 y 161 pueden implementarse con software que reside en uno o más medios legibles por ordenador del sistema informático. El vídeo y/o las imágenes que se procesarán con la invención pueden residir en uno o más medios legibles por ordenador o proporcionarse, por ejemplo, mediante una entrada de vídeo o imágenes o una red.
Aunque anteriormente se han descrito diversas realizaciones de la presente invención, debe entenderse que éstas se han presentado sólo a modo de ejemplo, y no de limitación. Por lo tanto, la amplitud y alcance de la presente invención no deben estar limitados por ninguno de los ejemplos de las realizaciones anteriormente descritas, sino que, en su lugar, deben definirse sólo de acuerdo con las siguientes reivindicaciones y sus equivalentes.

Claims (14)

  1. REIVINDICACIONES
    1. Un método para el procesamiento de vídeo, que comprende las etapas de:
    mantener un modelo de fondo para dicho vídeo;
    detectar una diana en tal vídeo; detectar si dicha diana es una diana estacionaria, que comprende las etapas de:
    determinar propiedades de movimiento general y de cambio de tamaño de dicha diana;
    caracterizado por
    determinar propiedades de movimiento independiente de dicha diana, en el que tal movimiento independiente es un movimiento de fotograma a fotograma en el que la determinación de las propiedades de movimiento independiente de dicha diana comprende además:
    determinar una proporción media del número de píxeles en movimiento de dicha diana con respecto al área de píxeles de la diana; y
    determinar una desviación estándar de la proporción del número de tales píxeles en movimiento de dicha diana con respecto al área de píxeles de la diana,
    en el que tales píxeles en movimiento experimentan un movimiento independiente, y
    determinar si dicha diana es estacionaria en base a tales propiedades de movimiento general y cambio de tamaño y tales propiedades de movimiento independiente; y
    clasificar dicha diana estacionaria como una inserción en tal modelo de fondo o eliminación de tal modelo de fondo.
  2. 2.
    Un método según la reivindicación 1, en el que tales propiedades de movimiento general y cambio de tamaño comprenden propiedades estadísticas de una trayectoria centroidal de dicha diana y propiedades estadísticas de un área de dicha diana.
  3. 3.
    Un método según la reivindicación 1, en el que tal movimiento independiente comprende propiedades estadísticas de píxeles en movimiento de dicha diana.
  4. 4.
    Un método según la reivindicación 1, en el que la determinación de si dicha diana es estacionaria se basa, además, en el envejecimiento de dicha diana.
  5. 5.
    Un método según la reivindicación 1, en el que la clasificación de dicha diana estacionaria comprende las etapas de:
    determinar una intensidad del borde en tal modelo de fondo a lo largo de un límite de dicha diana estacionaria;
    determinar una intensidad del borde en un fotograma actual de la secuencia de vídeo a lo largo de tal límite de dicha diana estacionaria; y
    determinar si dicha diana estacionaria es tal inserción o tal eliminación en base a tal intensidad del borde en tal modelo de fondo y tal intensidad del borde en tal fotograma actual.
  6. 6.
    Un método según la reivindicación 5, en el que la determinación de tal intensidad del borde en tal modelo de fondo se basa en un píxel centroide de dicha diana estacionaria y píxeles del perímetro a lo largo de tal límite de dicha diana estacionaria.
  7. 7.
    Un método según la reivindicación 5, en el que la determinación de tal intensidad del borde en tal fotograma actual se basa en un píxel centroide de dicha diana estacionaria y píxeles del perímetro a lo largo de tal límite de dicha diana estacionaria.
  8. 8.
    Un método según la reivindicación 1, en el que la clasificación de dicha diana estacionaria comprende, además, clasificar dicha diana estacionaria como una inserción en tal modelo de fondo, una eliminación de tal modelo de fondo, o como inidentificable como tal inserción o tal eliminación.
  9. 9.
    Un método según la reivindicación 1, que comprende además la etapa de:
    determinar si dicha diana se detectó previamente como una diana estacionaria.
  10. 10.
    Un sistema informático que comprende un medio legible por ordenador que presenta un software para hacer funcionar un ordenador según el método de la reivindicación 1.
  11. 11.
    Un medio legible por ordenador que presenta software para hacer funcionar un ordenador según el método de la reivindicación 1.
  12. 12.
    Un sistema informático para el procesamiento de vídeo, que comprende:
    un modelo de fondo de tal vídeo;
    una unidad de clasificación de píxeles basada en un modelo de fondo adaptada para producir una máscara de cambio e imágenes en base a tal vídeo y tal modelo de fondo;
    una unidad de actualización del modelo de fondo adaptada para actualizar tal modelo de fondo en base a tal máscara de cambio y tales imágenes;
    una unidad de clasificación de píxeles basada en el movimiento adaptada para producir una máscara de movimiento;
    una unidad de generación de blobs adaptada para producir al menos un blob en base a tal máscara de cambio y tal máscara de movimiento;
    una unidad de rastreo de blobs adaptada para producir al menos una diana en base a tales blobs;
    una unidad de detección y clasificación de una diana estacionaria para producir una descripción de la diana estacionaria en base a cada diana, tal descripción de la diana estacionaria para identificar a cada diana como una inserción en tal modelo de fondo o una eliminación de tal modelo de fondo; y
    una unidad de actualización local del modelo de fondo adaptada para actualizar tal modelo de fondo en base a cada descripción de dicha diana estacionaria;
    caracterizado porque tal unidad de clasificación de píxeles basada en el movimiento está adaptada para determinar propiedades de movimiento independiente de dicha diana, en el que tal movimiento independiente es un movimiento de fotograma a fotograma y en el que tal unidad de clasificación de píxeles basada en el movimiento está adaptada para determinar propiedades de movimiento independiente de dicha diana, determinando una proporción media del número de píxeles en movimiento de dicha diana con respecto al área de píxeles de la diana y determinar una desviación estándar de la proporción del número de tales píxeles en movimiento de dicha diana con respecto al área del píxel, en el que tales píxeles en movimiento experimentan un movimiento independiente, estando tal unidad de clasificación de píxeles basada en el movimiento adaptada, además, para producir tal máscara de movimiento en base a tal vídeo y tales propiedades de movimiento independiente.
  13. 13.
    Un sistema informático según la reivindicación 12, en el que tales descripciones de la diana estacionaria identifican, además, a cada una de dichas dianas como una inserción en tal modelo de fondo, una eliminación de tal modelo de fondo o como inidentificable como tal inserción o tal eliminación.
  14. 14.
    Un sistema informático según la reivindicación 12, que comprende, además, una unidad monitora de la diana estacionaria adaptada para ordenar a tal unidad de rastreo de blobs que rastree una diana que fue detectada como una inserción y a continuación detectada como una eliminación.
    DOCUMENTOS INDICADOS EN LA DESCRIPCIÓN
    En la lista de documentos indicados por el solicitante se ha recogido exclusivamente para información del lector, y no es parte constituyente del documento de patente europeo. Ha sido recopilada con el mayor cuidado; sin embargo, la EPA no asume 5 ninguna responsabilidad por posibles errores u omisiones.
    Documentos de patente indicados en la descripción
    ● US 6424370 B [ 0003] ● US 6625310 B [ 0028] 10 ● US 47216299 A [ 0006] ● US 6954498 B [ 0032] [ 0036]
    ● US 6738424 B [ 0006]
    LITERATURA NO CITADA EN LA DESCRIPCION
ES03815787T 2003-01-30 2003-12-23 Mantenimiento de fondo de escena de video utilizando detección y clasificación de cambios Expired - Lifetime ES2383174T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US10/354,096 US6999600B2 (en) 2003-01-30 2003-01-30 Video scene background maintenance using change detection and classification
US354096 2003-01-30
PCT/US2003/041159 WO2004070649A1 (en) 2003-01-30 2003-12-23 Video scene background maintenance using change detection and classification

Publications (1)

Publication Number Publication Date
ES2383174T3 true ES2383174T3 (es) 2012-06-18

Family

ID=32770313

Family Applications (1)

Application Number Title Priority Date Filing Date
ES03815787T Expired - Lifetime ES2383174T3 (es) 2003-01-30 2003-12-23 Mantenimiento de fondo de escena de video utilizando detección y clasificación de cambios

Country Status (13)

Country Link
US (1) US6999600B2 (es)
EP (1) EP1588317B1 (es)
JP (1) JP2006514363A (es)
KR (1) KR20060012570A (es)
CN (1) CN100386771C (es)
AT (1) ATE548706T1 (es)
AU (1) AU2003300337A1 (es)
CA (1) CA2514826A1 (es)
DK (1) DK1588317T3 (es)
ES (1) ES2383174T3 (es)
HK (1) HK1088968A1 (es)
MX (1) MXPA05008201A (es)
WO (1) WO2004070649A1 (es)

Families Citing this family (186)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6738066B1 (en) * 1999-07-30 2004-05-18 Electric Plant, Inc. System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display
US6701005B1 (en) 2000-04-29 2004-03-02 Cognex Corporation Method and apparatus for three-dimensional object segmentation
US8035612B2 (en) * 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US8300042B2 (en) * 2001-06-05 2012-10-30 Microsoft Corporation Interactive video display system using strobed light
AUPR899401A0 (en) * 2001-11-21 2001-12-13 Cea Technologies Pty Limited Method and apparatus for non-motion detection
US7215827B2 (en) * 2002-03-15 2007-05-08 Hitachi Kokusai Electric Inc. Object detection method using an image-pickup device with easy detection masking region setting and object detection apparatus using the method
US7710391B2 (en) * 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7920718B2 (en) * 2002-09-05 2011-04-05 Cognex Corporation Multi-zone passageway monitoring system and method
AU2003301043A1 (en) 2002-12-13 2004-07-09 Reactrix Systems Interactive directed light/sound system
US20050078873A1 (en) * 2003-01-31 2005-04-14 Cetin Ahmet Enis Movement detection and estimation in wavelet compressed video
US20040223652A1 (en) * 2003-05-07 2004-11-11 Cetin Ahmet Enis Characterization of motion of moving objects in video
WO2005041579A2 (en) * 2003-10-24 2005-05-06 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
EP1676442A2 (en) * 2003-10-24 2006-07-05 Reactrix Systems, Inc. Method and system for managing an interactive video display system
US7623674B2 (en) * 2003-11-05 2009-11-24 Cognex Technology And Investment Corporation Method and system for enhanced portal security through stereoscopy
US8326084B1 (en) 2003-11-05 2012-12-04 Cognex Technology And Investment Corporation System and method of auto-exposure control for image acquisition hardware using three dimensional information
US7463754B2 (en) * 2003-11-13 2008-12-09 Honda Motor Co. Adaptive probabilistic visual tracking with incremental subspace update
KR100601933B1 (ko) * 2003-11-18 2006-07-14 삼성전자주식회사 사람검출방법 및 장치와 이를 이용한 사생활 보호방법 및 시스템
US7664292B2 (en) * 2003-12-03 2010-02-16 Safehouse International, Inc. Monitoring an output from a camera
US8558892B2 (en) * 2004-01-20 2013-10-15 Honeywell International Inc. Object blocking zones to reduce false alarms in video surveillance systems
KR100568237B1 (ko) * 2004-06-10 2006-04-07 삼성전자주식회사 비디오 영상으로부터 이동 물체를 추출하는 장치 및 방법
US7382898B2 (en) * 2004-06-15 2008-06-03 Sarnoff Corporation Method and apparatus for detecting left objects
US7650011B2 (en) * 2004-07-09 2010-01-19 Honda Motor Co., Inc. Visual tracking using incremental fisher discriminant analysis
US7391907B1 (en) * 2004-10-01 2008-06-24 Objectvideo, Inc. Spurious object detection in a video surveillance system
US7577252B2 (en) * 2004-12-06 2009-08-18 Mitsubishi Electric Research Laboratories, Inc. Method for secure object detection in images
US7372975B2 (en) * 2004-12-06 2008-05-13 Mitsubishi Electric Research Laboratory, Inc. Method for secure background modeling in images
US7391905B2 (en) * 2004-12-06 2008-06-24 Mitsubishi Electric Research Laboratories Method for secure component labeling in images
US7688999B2 (en) * 2004-12-08 2010-03-30 Electronics And Telecommunications Research Institute Target detecting system and method
US7639841B2 (en) * 2004-12-20 2009-12-29 Siemens Corporation System and method for on-road detection of a vehicle using knowledge fusion
US20060153448A1 (en) * 2005-01-13 2006-07-13 International Business Machines Corporation System and method for adaptively separating foreground from arbitrary background in presentations
US7801328B2 (en) * 2005-03-31 2010-09-21 Honeywell International Inc. Methods for defining, detecting, analyzing, indexing and retrieving events using video image processing
US9128519B1 (en) 2005-04-15 2015-09-08 Intellectual Ventures Holding 67 Llc Method and system for state-based control of objects
US7412089B2 (en) * 2005-05-23 2008-08-12 Nextcode Corporation Efficient finder patterns and methods for application to 2D machine vision problems
US20070122000A1 (en) * 2005-11-29 2007-05-31 Objectvideo, Inc. Detection of stationary objects in video
US8081822B1 (en) 2005-05-31 2011-12-20 Intellectual Ventures Holding 67 Llc System and method for sensing a feature of an object in an interactive video display
US7825954B2 (en) * 2005-05-31 2010-11-02 Objectvideo, Inc. Multi-state target tracking
US7801330B2 (en) * 2005-06-24 2010-09-21 Objectvideo, Inc. Target detection and tracking from video streams
US7796780B2 (en) * 2005-06-24 2010-09-14 Objectvideo, Inc. Target detection and tracking from overhead video streams
JP4947936B2 (ja) * 2005-08-11 2012-06-06 ソニー株式会社 モニタリングシステムおよび管理装置
US7787011B2 (en) * 2005-09-07 2010-08-31 Fuji Xerox Co., Ltd. System and method for analyzing and monitoring 3-D video streams from multiple cameras
US8111904B2 (en) 2005-10-07 2012-02-07 Cognex Technology And Investment Corp. Methods and apparatus for practical 3D vision system
US8098277B1 (en) 2005-12-02 2012-01-17 Intellectual Ventures Holding 67 Llc Systems and methods for communication between a reactive video system and a mobile communication device
US8565525B2 (en) * 2005-12-30 2013-10-22 Telecom Italia S.P.A. Edge comparison in segmentation of video sequences
US8265349B2 (en) * 2006-02-07 2012-09-11 Qualcomm Incorporated Intra-mode region-of-interest video object segmentation
US8265392B2 (en) * 2006-02-07 2012-09-11 Qualcomm Incorporated Inter-mode region-of-interest video object segmentation
US8150155B2 (en) * 2006-02-07 2012-04-03 Qualcomm Incorporated Multi-mode region-of-interest video object segmentation
US8848053B2 (en) * 2006-03-28 2014-09-30 Objectvideo, Inc. Automatic extraction of secondary video streams
US20070250898A1 (en) * 2006-03-28 2007-10-25 Object Video, Inc. Automatic extraction of secondary video streams
EP2013817A2 (en) * 2006-04-17 2009-01-14 Objectvideo, Inc. Video segmentation using statistical pixel modeling
TW200745996A (en) 2006-05-24 2007-12-16 Objectvideo Inc Intelligent imagery-based sensor
NO327576B1 (no) * 2006-06-01 2009-08-17 Ana Tec As Framgangsmate og apparat for analyse av objekter
JP4631806B2 (ja) * 2006-06-05 2011-02-16 日本電気株式会社 物体検出装置、物体検出方法および物体検出プログラム
DE102007024868A1 (de) * 2006-07-21 2008-01-24 Robert Bosch Gmbh Bildverarbeitungsvorrichtung, Überwachungssystem, Verfahren zur Erzeugung eines Szenenreferenzbildes sowie Computerprogramm
KR100793837B1 (ko) * 2006-09-13 2008-01-11 한국전자통신연구원 조명의 변화와 학습자 인터랙션을 고려한 마커 인식 장치및 마커 인식 방법
US8045783B2 (en) * 2006-11-09 2011-10-25 Drvision Technologies Llc Method for moving cell detection from temporal image sequence model estimation
US8300890B1 (en) * 2007-01-29 2012-10-30 Intellivision Technologies Corporation Person/object image and screening
US20080181457A1 (en) * 2007-01-31 2008-07-31 Siemens Aktiengesellschaft Video based monitoring system and method
US8131012B2 (en) 2007-02-08 2012-03-06 Behavioral Recognition Systems, Inc. Behavioral recognition system
US8456528B2 (en) * 2007-03-20 2013-06-04 International Business Machines Corporation System and method for managing the interaction of object detection and tracking systems in video surveillance
US7949150B2 (en) * 2007-04-02 2011-05-24 Objectvideo, Inc. Automatic camera calibration and geo-registration using objects that provide positional information
WO2008124820A1 (en) * 2007-04-10 2008-10-16 Reactrix Systems, Inc. Display using a three dimensional vision system
US20080273754A1 (en) * 2007-05-04 2008-11-06 Leviton Manufacturing Co., Inc. Apparatus and method for defining an area of interest for image sensing
US8126260B2 (en) 2007-05-29 2012-02-28 Cognex Corporation System and method for locating a three-dimensional object using machine vision
US7822275B2 (en) * 2007-06-04 2010-10-26 Objectvideo, Inc. Method for detecting water regions in video
US8542872B2 (en) 2007-07-03 2013-09-24 Pivotal Vision, Llc Motion-validating remote monitoring system
US8411935B2 (en) 2007-07-11 2013-04-02 Behavioral Recognition Systems, Inc. Semantic representation module of a machine-learning engine in a video analysis system
TW200926011A (en) * 2007-09-04 2009-06-16 Objectvideo Inc Background modeling with feature blocks
KR101141087B1 (ko) 2007-09-14 2012-07-12 인텔렉츄얼 벤처스 홀딩 67 엘엘씨 제스처-기반 사용자 상호작용의 프로세싱
US8200011B2 (en) 2007-09-27 2012-06-12 Behavioral Recognition Systems, Inc. Context processor for video analysis system
US8175333B2 (en) * 2007-09-27 2012-05-08 Behavioral Recognition Systems, Inc. Estimator identifier component for behavioral recognition system
US8300924B2 (en) * 2007-09-27 2012-10-30 Behavioral Recognition Systems, Inc. Tracker component for behavioral recognition system
US8086071B2 (en) * 2007-10-30 2011-12-27 Navteq North America, Llc System and method for revealing occluded objects in an image dataset
US8159682B2 (en) 2007-11-12 2012-04-17 Intellectual Ventures Holding 67 Llc Lens system
MY143022A (en) * 2007-11-23 2011-02-14 Mimos Berhad Method for detecting unattended object and removal of static object
GB2446293A (en) * 2008-01-31 2008-08-06 Siemens Ag Video based monitoring system and method
AU2008200966B2 (en) * 2008-02-28 2012-03-15 Canon Kabushiki Kaisha Stationary object detection using multi-mode background modelling
US8259163B2 (en) 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing
US8107678B2 (en) * 2008-03-24 2012-01-31 International Business Machines Corporation Detection of abandoned and removed objects in a video stream
US8284249B2 (en) * 2008-03-25 2012-10-09 International Business Machines Corporation Real time processing of video frames for triggering an alert
TWI381717B (zh) * 2008-03-31 2013-01-01 Univ Nat Taiwan 數位視訊動態目標物體分割處理方法及系統
US9019381B2 (en) * 2008-05-09 2015-04-28 Intuvision Inc. Video tracking systems and methods employing cognitive vision
JP4507129B2 (ja) * 2008-06-06 2010-07-21 ソニー株式会社 追尾点検出装置および方法、プログラム、並びに記録媒体
US8595218B2 (en) * 2008-06-12 2013-11-26 Intellectual Ventures Holding 67 Llc Interactive display management systems and methods
US8243991B2 (en) * 2008-06-17 2012-08-14 Sri International Method and apparatus for detecting targets through temporal scene changes
US9633275B2 (en) * 2008-09-11 2017-04-25 Wesley Kenneth Cobb Pixel-level based micro-feature extraction
US8121424B2 (en) * 2008-09-26 2012-02-21 Axis Ab System, computer program product and associated methodology for video motion detection using spatio-temporal slice processing
AU2008264228B2 (en) * 2008-11-24 2010-11-25 Canon Kabushiki Kaisha Detection of abandoned and vanished objects
US9373055B2 (en) * 2008-12-16 2016-06-21 Behavioral Recognition Systems, Inc. Hierarchical sudden illumination change detection using radiance consistency within a spatial neighborhood
US8285046B2 (en) * 2009-02-18 2012-10-09 Behavioral Recognition Systems, Inc. Adaptive update of background pixel thresholds using sudden illumination change detection
TWI376648B (en) * 2009-02-25 2012-11-11 Micro Star Int Co Ltd Method and device for keeping image background by multiple gauss models
US8416296B2 (en) * 2009-04-14 2013-04-09 Behavioral Recognition Systems, Inc. Mapper component for multiple art networks in a video analysis system
JP5305520B2 (ja) * 2009-05-19 2013-10-02 パナソニック株式会社 監視カメラシステム
US8280153B2 (en) * 2009-08-18 2012-10-02 Behavioral Recognition Systems Visualizing and updating learned trajectories in video surveillance systems
US9805271B2 (en) * 2009-08-18 2017-10-31 Omni Ai, Inc. Scene preset identification using quadtree decomposition analysis
US8493409B2 (en) * 2009-08-18 2013-07-23 Behavioral Recognition Systems, Inc. Visualizing and updating sequences and segments in a video surveillance system
US8358834B2 (en) 2009-08-18 2013-01-22 Behavioral Recognition Systems Background model for complex and dynamic scenes
US20110043689A1 (en) * 2009-08-18 2011-02-24 Wesley Kenneth Cobb Field-of-view change detection
US8295591B2 (en) * 2009-08-18 2012-10-23 Behavioral Recognition Systems, Inc. Adaptive voting experts for incremental segmentation of sequences with prediction in a video surveillance system
US8340352B2 (en) * 2009-08-18 2012-12-25 Behavioral Recognition Systems, Inc. Inter-trajectory anomaly detection using adaptive voting experts in a video surveillance system
US8625884B2 (en) * 2009-08-18 2014-01-07 Behavioral Recognition Systems, Inc. Visualizing and updating learned event maps in surveillance systems
US8379085B2 (en) * 2009-08-18 2013-02-19 Behavioral Recognition Systems, Inc. Intra-trajectory anomaly detection using adaptive voting experts in a video surveillance system
US8744168B2 (en) * 2009-08-24 2014-06-03 Samsung Electronics Co., Ltd. Target analysis apparatus, method and computer-readable medium
US8270732B2 (en) * 2009-08-31 2012-09-18 Behavioral Recognition Systems, Inc. Clustering nodes in a self-organizing map using an adaptive resonance theory network
US8797405B2 (en) * 2009-08-31 2014-08-05 Behavioral Recognition Systems, Inc. Visualizing and updating classifications in a video surveillance system
US8270733B2 (en) * 2009-08-31 2012-09-18 Behavioral Recognition Systems, Inc. Identifying anomalous object types during classification
US8285060B2 (en) * 2009-08-31 2012-10-09 Behavioral Recognition Systems, Inc. Detecting anomalous trajectories in a video surveillance system
US8167430B2 (en) * 2009-08-31 2012-05-01 Behavioral Recognition Systems, Inc. Unsupervised learning of temporal anomalies for a video surveillance system
US8786702B2 (en) 2009-08-31 2014-07-22 Behavioral Recognition Systems, Inc. Visualizing and updating long-term memory percepts in a video surveillance system
US8218819B2 (en) * 2009-09-01 2012-07-10 Behavioral Recognition Systems, Inc. Foreground object detection in a video surveillance system
US8218818B2 (en) * 2009-09-01 2012-07-10 Behavioral Recognition Systems, Inc. Foreground object tracking
US8180105B2 (en) 2009-09-17 2012-05-15 Behavioral Recognition Systems, Inc. Classifier anomalies for observed behaviors in a video surveillance system
US8170283B2 (en) * 2009-09-17 2012-05-01 Behavioral Recognition Systems Inc. Video surveillance system configured to analyze complex behaviors using alternating layers of clustering and sequencing
JP5570176B2 (ja) * 2009-10-19 2014-08-13 キヤノン株式会社 画像処理システム及び情報処理方法
JP5495930B2 (ja) * 2010-05-10 2014-05-21 キヤノン株式会社 画像処理装置、方法、およびプログラム
TWI408623B (zh) * 2010-08-03 2013-09-11 Wistron Corp 監視系統及其監視影像錄製方法,及其機器可讀取媒體
CN102377984A (zh) * 2010-08-09 2012-03-14 纬创资通股份有限公司 监视影像录制方法和监视系统以及计算机程序产品
JP5704863B2 (ja) * 2010-08-26 2015-04-22 キヤノン株式会社 画像処理装置、画像処理方法及び記憶媒体
JP2012212373A (ja) * 2011-03-31 2012-11-01 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
DE102011075412A1 (de) * 2011-05-06 2012-11-08 Deutsche Telekom Ag Verfahren und System zum Erfassen einer statischen Szene, zum Bestimmen von Rohereignissen und zum Erkennen von freien Flächen in einem Beobachtungsgebiet
WO2012170898A2 (en) * 2011-06-09 2012-12-13 Utah State University Research Foundation Systems and methods for sensing occupancy
US11025865B1 (en) * 2011-06-17 2021-06-01 Hrl Laboratories, Llc Contextual visual dataspaces
WO2013013082A1 (en) * 2011-07-19 2013-01-24 Utah State University Research Foundation Systems, devices, and methods for multi-occupant tracking
US20140226867A1 (en) * 2011-07-19 2014-08-14 Utah State University Systems, devices, and methods for monitoring and controlling a controlled space
CN103020980A (zh) * 2011-09-20 2013-04-03 佳都新太科技股份有限公司 一种基于改进双层码本模型的运动目标检测方法
US8873852B2 (en) * 2011-09-29 2014-10-28 Mediatek Singapore Pte. Ltd Method and apparatus for foreground object detection
KR101870902B1 (ko) * 2011-12-12 2018-06-26 삼성전자주식회사 영상 처리 장치 및 영상 처리 방법
AU2011265429B2 (en) * 2011-12-21 2015-08-13 Canon Kabushiki Kaisha Method and system for robust scene modelling in an image sequence
US9349275B2 (en) 2012-03-15 2016-05-24 Behavorial Recognition Systems, Inc. Alert volume normalization in a video surveillance system
US9185456B2 (en) 2012-03-27 2015-11-10 The Nielsen Company (Us), Llc Hybrid active and passive people metering for audience measurement
US8737745B2 (en) 2012-03-27 2014-05-27 The Nielsen Company (Us), Llc Scene-based people metering for audience measurement
US8682036B2 (en) 2012-04-06 2014-03-25 Xerox Corporation System and method for street-parking-vehicle identification through license plate capturing
US9367966B2 (en) 2012-04-06 2016-06-14 Xerox Corporation Smartphone augmented video-based on-street parking management system
US20130265423A1 (en) * 2012-04-06 2013-10-10 Xerox Corporation Video-based detector and notifier for short-term parking violation enforcement
US9113143B2 (en) 2012-06-29 2015-08-18 Behavioral Recognition Systems, Inc. Detecting and responding to an out-of-focus camera in a video analytics system
US9317908B2 (en) 2012-06-29 2016-04-19 Behavioral Recognition System, Inc. Automatic gain control filter in a video analysis system
US9723271B2 (en) 2012-06-29 2017-08-01 Omni Ai, Inc. Anomalous stationary object detection and reporting
WO2014004901A1 (en) 2012-06-29 2014-01-03 Behavioral Recognition Systems, Inc. Unsupervised learning of feature anomalies for a video surveillance system
US9911043B2 (en) 2012-06-29 2018-03-06 Omni Ai, Inc. Anomalous object interaction detection and reporting
US9111353B2 (en) 2012-06-29 2015-08-18 Behavioral Recognition Systems, Inc. Adaptive illuminance filter in a video analysis system
BR112015003444A2 (pt) * 2012-08-20 2017-07-04 Behavioral Recognition Sys Inc método e sistema para detectar óleo em superfície de mar
US10678259B1 (en) * 2012-09-13 2020-06-09 Waymo Llc Use of a reference image to detect a road obstacle
US9213781B1 (en) 2012-09-19 2015-12-15 Placemeter LLC System and method for processing image data
AU2012227263A1 (en) * 2012-09-21 2014-04-10 Canon Kabushiki Kaisha Differentiating abandoned and removed object using temporal edge information
BR112015010384A2 (pt) 2012-11-12 2017-07-11 Behavioral Recognition Sys Inc técnicas de estabilização de imagem para sistemas de vigilância por vídeo
CN103034997B (zh) * 2012-11-30 2017-04-19 北京博创天盛科技有限公司 一种适用于监控视频前/背景分离的前景检测方法
US9020190B2 (en) * 2013-01-31 2015-04-28 International Business Machines Corporation Attribute-based alert ranking for alert adjudication
EP3031004A4 (en) 2013-08-09 2016-08-24 Behavioral Recognition Sys Inc SECURITY OF COGNITIVE INFORMATION USING BEHAVIOR RECOGNITION SYSTEM
CN103473547A (zh) * 2013-09-23 2013-12-25 百年金海科技有限公司 一种用于智能交通检测系统的车辆目标物识别算法
AU2013273784B2 (en) * 2013-12-20 2016-06-02 Canon Kabushiki Kaisha Method, system and apparatus for updating a scene model
US20150189191A1 (en) * 2013-12-27 2015-07-02 Telemetrio LLC Process and system for video production and tracking of objects
EP3149909A4 (en) 2014-05-30 2018-03-07 Placemeter Inc. System and method for activity monitoring using video data
US9245187B1 (en) 2014-07-07 2016-01-26 Geo Semiconductor Inc. System and method for robust motion detection
CN104574351B (zh) * 2014-08-06 2017-07-11 深圳市捷顺科技实业股份有限公司 一种基于视频处理的车位检测方法
US9460522B2 (en) * 2014-10-29 2016-10-04 Behavioral Recognition Systems, Inc. Incremental update for background model thresholds
US9471844B2 (en) * 2014-10-29 2016-10-18 Behavioral Recognition Systems, Inc. Dynamic absorption window for foreground background detector
US9349054B1 (en) 2014-10-29 2016-05-24 Behavioral Recognition Systems, Inc. Foreground detector for video analytics system
CN104378593A (zh) * 2014-11-17 2015-02-25 苏州立瓷电子技术有限公司 基于数据预处理和轮换存储的监控系统的智能控制方法
US10110856B2 (en) 2014-12-05 2018-10-23 Avigilon Fortress Corporation Systems and methods for video analysis rules based on map data
US10409909B2 (en) 2014-12-12 2019-09-10 Omni Ai, Inc. Lexical analyzer for a neuro-linguistic behavior recognition system
US10409910B2 (en) 2014-12-12 2019-09-10 Omni Ai, Inc. Perceptual associative memory for a neuro-linguistic behavior recognition system
AU2014280948A1 (en) 2014-12-24 2016-07-14 Canon Kabushiki Kaisha Video segmentation method
US9922271B2 (en) 2015-03-20 2018-03-20 Netra, Inc. Object detection and classification
US9760792B2 (en) 2015-03-20 2017-09-12 Netra, Inc. Object detection and classification
US10380430B2 (en) 2015-04-17 2019-08-13 Current Lighting Solutions, Llc User interfaces for parking zone creation
EP3283972A4 (en) * 2015-04-17 2018-08-29 General Electric Company Identifying and tracking vehicles in motion
US10043307B2 (en) 2015-04-17 2018-08-07 General Electric Company Monitoring parking rule violations
US10043078B2 (en) 2015-04-21 2018-08-07 Placemeter LLC Virtual turnstile system and method
US11334751B2 (en) 2015-04-21 2022-05-17 Placemeter Inc. Systems and methods for processing video data for activity monitoring
US10997428B2 (en) 2015-06-01 2021-05-04 Placemeter Inc. Automated detection of building entrances
US10468065B2 (en) 2015-10-28 2019-11-05 Ustudio, Inc. Video frame difference engine
KR101866660B1 (ko) * 2016-10-19 2018-06-12 한국과학기술원 동적인 환경에서 배경모델에 기반한 rgb-d 시각 주행 거리 측정 방법 및 장치
CN107066929B (zh) * 2017-01-06 2021-06-08 重庆大学 一种融合多种特征的高速公路隧道停车事件分级识别方法
US10755419B2 (en) * 2017-01-30 2020-08-25 Nec Corporation Moving object detection apparatus, moving object detection method and program
US10049308B1 (en) * 2017-02-21 2018-08-14 A9.Com, Inc. Synthesizing training data
US10438072B2 (en) 2017-02-27 2019-10-08 Echelon Corporation Video data background tracking and subtraction with multiple layers of stationary foreground and background regions
CN107220653B (zh) * 2017-04-11 2020-11-06 中国海洋大学 基于逻辑随机共振的水下弱目标检测系统的检测方法
US10373316B2 (en) * 2017-04-20 2019-08-06 Ford Global Technologies, Llc Images background subtraction for dynamic lighting scenarios
CA3114721A1 (en) 2018-09-28 2020-04-02 I.D. Systems, Inc. Cargo sensors, cargo-sensing units, cargo-sensing systems, and methods of using the same
US11312594B2 (en) 2018-11-09 2022-04-26 Otis Elevator Company Conveyance system video analytics
CN109697725B (zh) * 2018-12-03 2020-10-02 浙江大华技术股份有限公司 一种背景过滤方法、装置及计算机可读存储介质
WO2020118430A1 (en) 2018-12-12 2020-06-18 Avigilon Corporation Object left behind detection
US11126861B1 (en) 2018-12-14 2021-09-21 Digimarc Corporation Ambient inventorying arrangements
CN111665522B (zh) * 2020-05-19 2022-12-16 上海有个机器人有限公司 过滤激光扫描图中静止物体的方法、介质、终端和装置
EP3985957B1 (en) * 2020-10-14 2022-11-30 Axis AB Method and system for motion segmentation
CN112819843B (zh) * 2021-01-20 2022-08-26 上海大学 一种夜间电力线的提取方法及系统
DE102022202942A1 (de) 2022-03-25 2023-09-28 Robert Bosch Gesellschaft mit beschränkter Haftung Überwachungsvorrichtung, Überwachungsanordnungen, Verfahren, Computerprogramm und Speichermedium

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05266198A (ja) * 1992-03-24 1993-10-15 N T T Data Tsushin Kk 物体検出装置
US5812787A (en) * 1995-06-30 1998-09-22 Intel Corporation Video coding scheme with foreground/background separation
US6078619A (en) * 1996-09-12 2000-06-20 University Of Bath Object-oriented video system
US5764306A (en) * 1997-03-18 1998-06-09 The Metaphor Group Real-time method of digitally altering a video data stream to remove portions of the original image and substitute elements to create a new image
KR100224752B1 (ko) * 1997-06-11 1999-10-15 윤종용 표적 추적 방법 및 장치
US6211913B1 (en) * 1998-03-23 2001-04-03 Sarnoff Corporation Apparatus and method for removing blank areas from real-time stabilized images by inserting background information
US6292575B1 (en) * 1998-07-20 2001-09-18 Lau Technologies Real-time facial recognition and verification system
US6542621B1 (en) * 1998-08-31 2003-04-01 Texas Instruments Incorporated Method of dealing with occlusion when tracking multiple objects and people in video sequences
US6570608B1 (en) * 1998-09-30 2003-05-27 Texas Instruments Incorporated System and method for detecting interactions of people and vehicles
WO2000034919A1 (en) * 1998-12-04 2000-06-15 Interval Research Corporation Background estimation and segmentation based on range and color
US6424370B1 (en) * 1999-10-08 2002-07-23 Texas Instruments Incorporated Motion based event detection system and method
JP3966673B2 (ja) * 1999-10-26 2007-08-29 本田技研工業株式会社 物体検知装置および車両の走行安全装置
US6674877B1 (en) * 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
US6731799B1 (en) * 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
US7215795B2 (en) * 2000-09-28 2007-05-08 Hitachi Kokusai Electric Inc. Intruding object detecting method and intruding object monitoring apparatus employing the method
JP2002150295A (ja) * 2000-11-09 2002-05-24 Oki Electric Ind Co Ltd 物体検出方法及び物体検出装置
US6731805B2 (en) * 2001-03-28 2004-05-04 Koninklijke Philips Electronics N.V. Method and apparatus to distinguish deposit and removal in surveillance video
JP2002329196A (ja) * 2001-04-27 2002-11-15 Ntt Power & Building Facilities Inc 待ち時間検出システム

Also Published As

Publication number Publication date
WO2004070649A1 (en) 2004-08-19
KR20060012570A (ko) 2006-02-08
AU2003300337A1 (en) 2004-08-30
CA2514826A1 (en) 2004-08-19
US20040151342A1 (en) 2004-08-05
DK1588317T3 (da) 2012-04-30
HK1088968A1 (en) 2006-11-17
EP1588317A4 (en) 2009-05-06
JP2006514363A (ja) 2006-04-27
US6999600B2 (en) 2006-02-14
ATE548706T1 (de) 2012-03-15
EP1588317A1 (en) 2005-10-26
CN100386771C (zh) 2008-05-07
MXPA05008201A (es) 2006-03-30
EP1588317B1 (en) 2012-03-07
CN1757037A (zh) 2006-04-05

Similar Documents

Publication Publication Date Title
ES2383174T3 (es) Mantenimiento de fondo de escena de video utilizando detección y clasificación de cambios
TWI362016B (en) Method for detecting desired objects in a highly dynamic environment by a monitoring system and the monitoring system thereof
Piccinini et al. Reliable smoke detection in the domains of image energy and color
Haritaoglu et al. A fast background scene modeling and maintenance for outdoor surveillance
Mishra et al. A study on video surveillance system for object detection and tracking
Davis et al. Background-subtraction in thermal imagery using contour saliency
US20150015787A1 (en) Automatic extraction of secondary video streams
Ferone et al. Neural background subtraction for pan-tilt-zoom cameras
WO2012022744A2 (en) Multi-mode video event indexing
Xu et al. Segmentation and tracking of multiple moving objects for intelligent video analysis
Ng et al. Background subtraction using a pixel-wise adaptive learning rate for object tracking initialization
Jeyabharathi et al. Vehicle Tracking and Speed Measurement system (VTSM) based on novel feature descriptor: Diagonal Hexadecimal Pattern (DHP)
Lou et al. An illumination invariant change detection algorithm
Lalonde et al. A system to automatically track humans and vehicles with a PTZ camera
Almomani et al. Segtrack: A novel tracking system with improved object segmentation
Hati et al. LOBS: Local background subtracter for video surveillance
Buch et al. Local feature saliency classifier for real-time intrusion monitoring
Doulamis et al. Self Adaptive background modeling for identifying persons' falls
Colombari et al. Exemplar-based background model initialization
Senior An introduction to automatic video surveillance
Kaur Background subtraction in video surveillance
Mahajan et al. 3D Object 360-Degree Motion Detection Using Ultra-Frequency PIR Sensor
Bou et al. Reviewing ViBe, a popular background subtraction algorithm for real-time applications
Iosifidis et al. Real-time video surveillance by a hybrid static/active camera mechatronic system
AU2017265110A1 (en) Method for segmenting video using background model learned with pixelwise adaptive learning rate