ES2383174T3 - Mantenimiento de fondo de escena de video utilizando detección y clasificación de cambios - Google Patents
Mantenimiento de fondo de escena de video utilizando detección y clasificación de cambios Download PDFInfo
- Publication number
- ES2383174T3 ES2383174T3 ES03815787T ES03815787T ES2383174T3 ES 2383174 T3 ES2383174 T3 ES 2383174T3 ES 03815787 T ES03815787 T ES 03815787T ES 03815787 T ES03815787 T ES 03815787T ES 2383174 T3 ES2383174 T3 ES 2383174T3
- Authority
- ES
- Spain
- Prior art keywords
- target
- background model
- stationary
- video
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000001514 detection method Methods 0.000 title claims description 21
- 238000012423 maintenance Methods 0.000 title description 4
- 238000000034 method Methods 0.000 claims abstract description 30
- 230000008030 elimination Effects 0.000 claims abstract description 25
- 238000003379 elimination reaction Methods 0.000 claims abstract description 25
- 238000012545 processing Methods 0.000 claims abstract description 15
- 238000003780 insertion Methods 0.000 claims description 33
- 230000037431 insertion Effects 0.000 claims description 33
- 230000008859 change Effects 0.000 claims description 32
- 238000012217 deletion Methods 0.000 claims description 15
- 230000037430 deletion Effects 0.000 claims description 15
- 238000012544 monitoring process Methods 0.000 claims description 2
- 230000032683 aging Effects 0.000 claims 1
- 239000000470 constituent Substances 0.000 claims 1
- 238000012360 testing method Methods 0.000 description 12
- 230000011218 segmentation Effects 0.000 description 10
- 230000003068 static effect Effects 0.000 description 8
- 230000002123 temporal effect Effects 0.000 description 6
- 230000004069 differentiation Effects 0.000 description 5
- 238000007906 compression Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000009472 formulation Methods 0.000 description 2
- 230000006266 hibernation Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000750 progressive effect Effects 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000007420 reactivation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/143—Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Burglar Alarm Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Studio Circuits (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
Un método para el procesamiento de vídeo, que comprende las etapas de: mantener un modelo de fondo para dicho vídeo; detectar una diana en tal vídeo; detectar si dicha diana es una diana estacionaria, que comprende las etapas de: determinar propiedades de movimiento general y de cambio de tamaño de dicha diana; caracterizado por determinar propiedades de movimiento independiente de dicha diana, en el que tal movimiento independiente es un movimiento de fotograma a fotograma en el que la determinación de las propiedades de movimiento independiente de dicha diana comprende además: determinar una proporción media del número de píxeles en movimiento de dicha diana con respecto al área de píxeles de la diana; y determinar una desviación estándar de la proporción del número de tales píxeles en movimiento de dicha diana con respecto al área de píxeles de la diana, en el que tales píxeles en movimiento experimentan un movimiento independiente, y determinar si dicha diana es estacionaria en base a tales propiedades de movimiento general y cambio de tamaño y tales propiedades de movimiento independiente; y clasificar dicha diana estacionaria como una inserción en tal modelo de fondo o eliminación de tal modelo de fondo.
Description
Mantenimiento de fondo de escena de vídeo utilizando detección y clasificación de cambios.
Campo de la invención
La presente invención se dirige al campo general del procesamiento de vídeo y al campo más específico del procesamiento de vídeo segmentado. En particular, la invención se refiere al mantenimiento de modelos de fondo en vídeo segmentado y a la clasificación de cambios del modelo de fondo.
Muchas aplicaciones de procesamiento de vídeo requieren segmentación de objetos de vídeo (es decir, la diferenciación de objetos que realmente se mueven de la escena de fondo estática representada en una secuencia de vídeo). Tales aplicaciones incluyen, por ejemplo, construcción de mosaico de vídeo, compresión de vídeo basada en objetos, edición de vídeo basada en objetos y vigilancia automatizada de vídeo. Muchos algoritmos de segmentación de objetos de vídeo utilizan modelos de fondo de escena de vídeo (los cuales pueden denominarse simplemente como “modelos de fondo”) como una ayuda. La idea general es que cada fotograma de una secuencia de vídeo puede registrarse con el modelo de fondo y compararse, píxel por píxel, con el modelo de fondo. Los píxeles que muestran una diferencia suficiente se consideran píxeles de primer plano o móviles. Sin embargo, existen una amplia gama de fenómenos que pueden causar cambios a nivel de píxel, tales como: fondos inestables (por ejemplo, agua con ondas, hojas agitadas por el viento, etc.); fenómenos de iluminación (por ejemplo, nubes moviéndose por delante del sol, sombras, etc.); y fenómenos de cámara (por ejemplo, control automático de ganancia (AGC), iris automático, autoenfoque, etc.).
Utilizando segmentación de objetos de vídeo (o una variación de la misma), habitualmente pueden detectarse objetos, o partes de objetos, los cuales muestran un movimiento independiente. La patente US 6.424.370 describe un método para proporcionar indexado automático de vídeo en base al contenido a partir del movimiento del objeto. Los objetos en movimiento en un vídeo de una cámara de vigilancia son detectados en la secuencia de vídeo utilizando métodos de segmentación del movimiento mediante un segmentador de movimiento. Los objetos son rastreados mediante datos segmentados en un rastreador de objetos y se genera una representación simbólica del vídeo en forma de un gráfico anotado que describe los objetos y su movimiento. Un analizador del movimiento analiza los resultados del rastreo de objetos y anota el movimiento del gráfico con índices que describen varios eventos. El gráfico se indexa a continuación utilizando un esquema de clasificación basado en normas para identificar eventos de interés, tales como aparición/desaparición. Hay dos problemas básicos que surgen cuando los objetos en una escena permanecen estacionarios durante un largo periodo de tiempo, y cualquiera de estos dos fenómenos puede degradar el rendimiento de la segmentación de objetos de vídeo para cualquier aplicación.
En primer lugar, si un objeto permanece estacionario durante un largo periodo de tiempo, el objeto podría ser detectado “permanentemente” como un objeto de primer plano. Sin embargo, a todos los efectos prácticos, el objeto se ha convertido en parte del fondo. En la figura 1A, este problema se ilustra para un coche 11 que entra en la secuencia de vídeo y aparca en ella. El coche es monitorizado de forma continua como un objeto de primer plano 12 pero realmente se ha convertido en parte del fondo (es decir, segmentación “permanente”).
En segundo lugar, si un objeto, inicialmente estacionario, es parte del modelo de fondo (por ejemplo, se “incrusta”) y a continuación se mueve, el objeto deja expuesta una región del modelo de fondo (por ejemplo, fondo estático) que no ha sido modelada. La región expuesta del modelo de fondo es detectada erróneamente como un objeto de primer plano. En la figura 1B, este problema se ilustra para un coche aparcado 13 que sale de la secuencia de vídeo. El coche 13 deja un “agujero” en forma de coche 14 segmentado en el modelo de fondo.
Tal como se ha descrito, por ejemplo, en la Solicitud de Patente de Estados Unidos Nº de Serie 09/472.162, titulada “Method, Apparatus, and System for Compressing/Decompressing Digital Video Data”, presentada el 27 de diciembre 1999, y la Patente de Estados Unidos Nº 6738424, titulada “Scene Model Generation from Video for Use in Video Processing”, presentada el 3 de julio de 2000 (ambas de asignación común), cuando se construyen mosaicos de fotografías, mosaicos de vídeo o modelos de escena de vídeo, a menudo es deseable extraer aquellas partes de las imágenes fuente que representan fondo “verdadero”. Por ejemplo, un coche aparcado en una secuencia de vídeo (o cualquier otra colección de imágenes) que permanece aparcado durante la duración de la secuencia de vídeo puede considerarse fondo verdadero. Sin embargo, un coche en una secuencia de vídeo que inicialmente está aparcado y después se aleja en algún punto en la secuencia de vídeo debe considerarse apropiadamente “no fondo”.
Si no se tiene cuidado para identificar regiones de fondo verdadero, se producirán aberraciones. Si el objetivo es producir un mosaico o imagen de fondo, los objetos de primer plano pueden “incrustarse” y el modelo de fondo daría como resultado imágenes de aspecto innatural. Si el objetivo es construir un modelo de escena como base para segmentación de vídeo, los resultados pueden ser segmentaciones malas, donde partes de objetos de primer plano no se detectan, y donde algunas regiones de fondo expuestas se detectan como objetos de primer plano.
La figura 2 ilustra un ejemplo de la técnica anterior de permitir que objetos de primer plano corrompan un modelo de fondo. La secuencia de vídeo representa a un golfista preparado para dar el golpe inicial. Un subconjunto 21 de las imágenes fuente de la secuencia de vídeo representa una parte de esta secuencia de vídeo. Las imágenes fuente se utilizan para generar un modelo de fondo 22 y objetos de primer plano 23. Sin embargo, el modelo de fondo 22 contiene objetos de primer plano 23 (por ejemplo, el golfista a la izquierda y parte de la camiseta del golfista a la derecha) incrustados en el modelo de fondo 22, y los objetos de primer plano 23 están segmentados de forma incompleta (por ejemplo, parte del torso del golfista y parte del palo de golf).
La invención emplea la detección y clasificación de cambios para mantener un modelo de fondo de una secuencia de vídeo. Además, la invención mantiene un modelo de fondo de una secuencia de vídeo y clasifica cambios en el modelo de fondo.
La invención incluye un método según la reivindicación 1.
La invención incluye un sistema informático para llevar a cabo el método anterior. Un sistema para la invención incluye un sistema informático que incluye un medio legible por ordenador que presenta software para hacer funcionar un ordenador de acuerdo con la invención.
Según un aspecto adicional de la invención, se proporciona un sistema informático para procesar vídeo según la reivindicación 12.
Características y ventajas adicionales de la invención, así como la estructura y el funcionamiento de diversas realizaciones de la invención, se describen con detalle a continuación con referencia a los dibujos adjuntos.
Definiciones
Un “ordenador” se refiere a cualquier aparato que es capaz de aceptar una entrada estructurada, procesar la entrada estructurada según normas prescritas, y producir resultados del procesamiento como una salida. Los ejemplos de un ordenador incluyen: un ordenador; un ordenador de utilización general; un superordenador; una unidad principal; un super mini-ordenador; un mini-ordenador; una estación de trabajo; un micro-ordenador; un servidor; una televisión interactiva; un dispositivo de Web; un dispositivo de telecomunicaciones con acceso a Internet; una combinación híbrida de un ordenador y una televisión interactiva; y hardware específico de aplicación para emular a un ordenador y/o software. Un ordenador puede ser fijo o portátil. Un ordenador puede presentar un único procesador o múltiples procesadores, los cuales pueden funcionar en paralelo y/o no en paralelo. Un ordenador también se refiere a dos o más ordenadores conectados juntos mediante una red para transmitir o recibir información entre los ordenadores. Un ejemplo de tal ordenador incluye un sistema informático distribuido para procesar información mediante ordenadores enlazados mediante una red.
Un “medio legible por ordenador” se refiere a cualquier dispositivo de almacenamiento utilizado para almacenar datos, al que puede acceder un ordenador. Los ejemplos de un medio legible por ordenador incluyen: un disco duro magnético; un disco flexible; un disco óptico, tal como un CD-ROM y un DVD; una cinta magnética; un chip de memoria; y una onda portadora utilizada para portar datos electrónicos legibles por ordenador, tales como los utilizados para transmitir y recibir un e-mail o para acceder a una red.
“Software” se refiere a las normas prescritas para hacer funcionar un ordenador. Los ejemplos de software incluyen: software; segmentos de código; instrucciones; programas informáticos; y lógica programada.
Un “sistema informático” se refiere a un sistema que presenta un ordenador, en el cual el ordenador comprende un medio legible por ordenador que incorpora software para hacer funcionar al ordenador
Una “red” se refiere a una serie de ordenadores y dispositivos asociados que están conectados mediante instalaciones de comunicación. Una red implica conexiones permanentes tales como cables o conexiones temporales tales como las establecidas a través del teléfono, inalámbricas u otros enlaces de comunicación. Los ejemplos de una red incluyen: una internet, tal como Internet; una red interna; una red de área local (LAN); una red de área amplia (WAN); y una combinación de redes, tales como una internet y una red interna.
“Vídeo” se refiere a imágenes en movimiento representadas en forma analógica y/o digital. Los ejemplos de vídeo incluyen televisión, películas, secuencias de imágenes de una cámara u otro observador, y secuencias deimágenes generadas por ordenador. Éstas pueden obtenerse, por ejemplo, de una señal en directo, un dispositivo de almacenamiento, una interfaz basada en IEEE 1394, un digitalizador de vídeo, un motor gráfico de un ordenador o una conexión de red.
“Procesamiento de vídeo” se refiere a cualquier manipulación de vídeo, incluyendo, por ejemplo, compresión y edición.
Un “fotograma” se refiere a una imagen particular u otra unidad discreta en un vídeo.
Breve descripción de los dibujos
Las anteriores y otras características y ventajas de la invención serán evidentes a partir de la siguiente y más particular descripción de una realización preferida de la invención, tal como se ilustra en los dibujos adjuntos. Los dígitos más a la izquierda en el número de referencia correspondiente indican el dibujo en el el cual un elemento aparece en primer lugar.
Las figuras 1A y 1B ilustran problemas de la técnica anterior con la utilización de segmentación de
objetos de vídeo para detectar objetos, o partes de objetos, los cuales muestran movimiento independiente;
La figura 2 ilustra un ejemplo de la técnica anterior de permitir
queobjetos de primer plano corrompan un modelo de fondo;
La figura 3 ilustra un diagrama de flujo para una primera
realizaciónde la invención;
La figura 4 ilustra modelización de fondo estadística de píxeles para detectar píxeles de primer plano;
La figura 5 ilustra modelización de fondo estadística de píxeles para manejar
cambios de iluminación;
La figura 6 ilustra la utilización de diferenciación de tres fotogramas para la
detección del movimiento;
La figura 7 ilustra la detección de píxeles en movimiento y píxeles
cambiados;
La figura 8 ilustra un diagrama de flujo para la detección y clasificación de
una diana estacionaria;
La figura 9 ilustra detección de cambios de fondo;
La figura 10 ilustra la inserción de un objeto de primer plano;
La figura 11 ilustra la eliminación de una parte del fondo;
La figura 12 ilustra un diagrama de flujo para detectar bordes intensos;
La figura 13 ilustra otro diagrama de flujo para detectar bordes intensos;
La figura 14 ilustra un diagrama de flujo para determinar la intensidad de un
borde;
La figura 15 ilustra la determinación de la intensidad de un borde;
La figura 16 ilustra un diagrama de flujo para una segunda realización de la
invención. Descripción detallada de las realizaciones ejemplares de la invención
Un ejemplo de realización de la invención se describe en detalle a continuación. Aunque se describen realizaciones ejemplares específicas, debe entenderse que esto se realiza sólo con fines de ilustración. Un experto en la materia reconocerá que pueden utilizarse otros componentes y configuraciones sin alejarse del espíritu y alcance de la invención. Las realizaciones y ejemplos descritos en esta patente son ejemplos no limitativos.
La invención emplea detección y clasificación de cambios para mantener un modelo de fondo de una secuencia de vídeo. La invención puede utilizarse para aplicaciones de procesamiento de vídeo en tiempo real (por ejemplo, compresión basada en objetos en tiempo real, o vigilancia de vídeo), en las cuales la secuencia de vídeo no puede estar disponible en su totalidad en cualquier momento, y podrían requerirse cambios progresivos del modelo de fondo para mantener su utilidad. La invención también puede utilizarse para aplicaciones de procesamiento de vídeo no en tiempo real. Una secuencia de vídeo se refiere a parte o todo de un vídeo.
Con la invención, en primer lugar, cambios locales en el modelo de fondo son detectados y pueden utilizarse para mantener el modelo de fondo y, en segundo lugar; tales cambios detectados se clasifican y pueden procesarse adicionalmente. Los cambios detectados se clasifican en dos categorías principales: primera, un objeto que está situado en la escena y permanece estático durante un periodo de tiempo (es decir, una inserción); y segunda, un objeto que se mueve saliendo de la escena y deja expuesta una sección del modelo de fondo (por ejemplo, el fondo estático) (es decir, una eliminación). El aspecto común de estas dos categorías es que hay un cambio local permanente en el modelo de fondo.
La clasificación de los cambios en estas dos categorías puede ser muy importante en una amplia gama de aplicaciones, tales como, por ejemplo, aplicaciones de vigilancia de vídeo. Los ejemplos de la primera categoría (es decir, una inserción) para aplicaciones de vigilancia de vídeo incluyen: monitorizar zonas de estacionamiento prohibido (y, por ejemplo, activar una alarma si un coche pasa más de cierta cantidad de tiempo en las zonas de estacionamiento prohibido); detectar bolsas abandonadas en aeropuertos; y detectar objetos abandonados cerca de zonas sensibles, tales como instalaciones militares y centrales energéticas. Los ejemplos de la segunda categoría (es decir, una eliminación) para aplicaciones de vigilancia de vídeo incluyen: detectar la eliminación de un artículo de gran valor, tal como una aberración de un museo, una cara pieza de hardware o un coche de un parking.
La figura 3 ilustra un diagrama de flujo para una primera realización de la invención en un posible contexto de un sistema de procesamiento de vídeo general. Una secuencia de vídeo es introducida en el sistema, y se genera y se mantiene un modelo de fondo 31, 32 y 33. El vídeo de entrada es procesado mediante dos técnicas diferentes de clasificación de píxeles de nivel bajo: clasificación de píxeles basada en un modelo de fondo 31 y clasificación de píxeles basada en el movimiento 34. Estas dos técnicas producen máscaras de píxeles (por fotograma) que representan píxeles de interés. La clasificación de píxeles basada en un modelo de fondo 31 produce una máscara de cambio e imágenes, y la clasificación de píxeles basada en el movimiento 34 produce una máscara de movimiento. La máscara de cambio y la máscara de movimiento se proporcionan para la generación de blobs (objetos binarios grandes) 35, que convierte las máscaras en un conjunto de uno o más blobs individuales que representan el aspecto de cada objeto de primer plano visible en cada fotograma. En general, si no hay objetos de primer plano visibles, no se generan blobs. Los blobs se rastrean utilizando rastreo de blobs 36, el cual conecta los blobs de un fotograma con aquellos de otros fotogramas para generar una “diana” que representa cada objeto en la escena. Una diana es una descripción espaciotemporal de un objeto de vídeo en el tiempo. Las dianas se analizan mediante detección y clasificación de una diana estacionaria 37, la cual determina si cualquiera de las dianas representa un cambio “permanente” del modelo de fondo 33 y si ese cambio representa una “inserción” (por ejemplo, un objeto que entra en la escena) o una “eliminación” (por ejemplo, un objeto que sale y deja expuesta una sección del modelo de fondo). Finalmente, cualesquiera dianas estacionarias detectadas se insertan en el modelo de fondo 33 mediante la actualización local del modelo de fondo 38.
La generación y el mantenimiento de un modelo de fondo incluyen la clasificación de píxeles basada en un modelo de fondo 31, la actualización del modelo de fondo 32, y el modelo de fondo 33. Una opción para la estrategia basada en el modelo de fondo 31, 32 y 33 emplea modelización de píxeles estadística dinámica. La modelización de píxeles estadística dinámica mantiene una precisa representación del fondo de la imagen y diferencia píxeles de fondo de píxeles de primer plano. En un ejemplo de realización, la modelización de píxeles estadística dinámica se implementa con las técnicas descritas en la Patente de Estados Unidos de asignación común Nº 6625310, titulada “Video Segmentation Using Statistical Pixel Modeling”, presentada el 23 de marzo de 2001. La idea general de la técnica ejemplar es que se mantiene un historial de todos los píxeles durante varios fotogramas, incluyendo valores cromáticos (o de intensidad) de píxeles y sus estadísticas. Un píxel estable, sin cambios es tratado como fondo. Si las estadísticas de un píxel cambian de forma significativa, puede considerarse que el píxel es de primer plano. Si el píxel vuelve a su estado original, el píxel puede volver a ser considerado un píxel de fondo. Esta técnica sirve para aliviar el ruido del sensor y para dirigir automáticamente cambios lentos en el fondo debidos a condiciones de iluminación y al control automático de ganancia de la cámara (AGC). En lugar de modelización de píxeles estadística dinámica, la clasificación de píxeles basada en un modelo de fondo 31 puede implementarse utilizando modelos de fondo estadísticos, una mezcla de modelos de fondo gausianos o mezcla adaptativa de forma dinámica de modelos gausianos.
El modelo de fondo 33 es la representación interna de la escena estática representada en el vídeo en cualquier momento dado. Cada vez que se analiza un nuevo fotograma, el modelo de fondo 33 puede actualizarse de forma progresiva mediante la actualización del modelo de fondo 32. Además de las actualizaciones progresivas, es necesario actualizar el modelo de fondo 33 cuando se detecta un cambio de fondo. Por ejemplo, la información cromática que representa la nueva región de fondo estático local debe “incrustarse” en el modelo de fondo 33, lo que puede conseguirse con la actualización local del modelo de fondo 38.
Las figuras 4 y 5 ilustran la utilización de la modelización de píxeles para generar y mantener un modelo de fondo. En la figura 4, se ilustra la modelización de fondo estadística de píxeles para detectar píxeles de primer plano. El fotograma 41 es un fotograma actual de un vídeo de un hombre que camina delante de sillas apiladas y que deja caer una maleta. En el fotograma 41, el hombre ha dejado caer la maleta y sigue adelante. Tal como se ilustra con el gráfico 42 que representa la intensidad y el tiempo para un píxel en el vídeo, La media y desviación estándar de la intensidad para cada píxel 43 se utilizan para modelizar el fondo 44. El modelo de fondo 33 contiene una media y desviación estándar para cada píxel. El algoritmo de clasificación de píxeles 31 compara cada píxel del fotograma actual 41 con el píxel correspondiente del modelo de fondo 33. Cuando un objeto se mueve “a través de” un píxel en el fotograma actual 41, su valor no se adaptará a las estadísticas capturadas en el modelo de fondo 33 y se considera primer plano 45. Una máscara de cambio de píxeles de primer plano se crea mediante la clasificación basada en el modelo de fondo 31 y se envía a la generación de blobs 35. Esta máscara de cambio y el fotograma actual 41 son enviados ambos a la actualización del modelo de fondo 32, ya que las estadísticas de píxeles que comprenden el modelo de fondo 33 pueden actualizarse.
En la figura 5, se ilustra la modelización de fondo estadística de píxeles para manejar cambios de iluminación. El fotograma 51 ilustra un cambio de iluminación lento en un vídeo. Tal como se ilustra con el gráfico 52 que representa la intensidad y el tiempo para un píxel en el vídeo, la media y la desviación estándar de intensidad para cada píxel 53 se utilizan para modelizar el fondo. Dado que la media y la desviación estándar para cada píxel se calcula a partir de sólo los últimos fotogramas, el modelo de fondo 33 está adaptado para seguir la intensidad de píxeles que cambia lentamente 54.
La clasificación de píxeles basada en el movimiento 34 determina si un píxel está experimentando realmente un movimiento independiente de fotograma a fotograma. Una realización potencial para la clasificación de píxeles basada en el movimiento 34 es la diferenciación de tres fotogramas, tal como se describe en la Patente de Estados Unidos de asignación común Nº 6954498, presentada el 24 de octubre de 2000. Otras realizaciones potenciales para la clasificación de píxeles en movimiento 34 incluyen diferenciación de dos fotogramas y flujo óptico.
La figura 6 ilustra la utilización de diferenciación de tres fotogramas para la detección de movimiento en la clasificación de píxeles basada en el movimiento 34. Los fotogramas 61, 62 y 63 son fotogramas del pasado, actual y del futuro, respectivamente, de un vídeo de un hombre que camina delante de sillas apiladas y que deja caer una maleta. La máscara de diferencia 64 se obtiene comparando los fotogramas 61 y 62, y la máscara de diferencia 65 se obtiene comparando los fotogramas 62 y 63. La máscara de movimiento 66 se obtiene comparando las máscaras de diferencia 64 y 65 utilizando una conjunción lógica AND. La máscara de movimiento 66 es enviada a la generación de blobs 35.
Las salidas de la clasificación de píxeles basada en un modelo de fondo 31 y la clasificación de píxeles basada en el movimiento 34 pueden no detectar concurrentemente un nuevo objeto de primer plano. Por ejemplo, un coche recién aparcado puede aparecer como un objeto de primer plano según la clasificación de píxeles basada en un modelo de fondo 31. Sin embargo, dado que el coche aparcado no muestra ningún movimiento independiente real, la clasificación de píxeles basada en el movimiento 34 no puede detectar ningún objeto de primer plano.
Otro ejemplo de esta diferencia entre píxeles cambiados y píxeles en movimiento se ilustra en la figura 7. El fotograma 71 es un fotograma de un vídeo de un hombre que camina por delante de sillas apiladas y que deja caer una maleta. La máscara de movimiento 72 resulta de la clasificación de píxeles basada en el movimiento 34, la cual detecta al hombre pero no a la maleta. La máscara de cambio 73 resulta de la clasificación basada en el modelo de fondo 31, la cual detecta tanto al hombre como a la maleta. En este ejemplo, un objeto de primer plano recientemente insertado (es decir, la maleta) es detectado por la clasificación de píxeles basada en un modelo de fondo 31 pero no por la clasificación de píxeles basada en el movimiento 34.
La generación de blobs 35 y el rastreo de blobs 36 integran la máscara de movimiento y la máscara de cambio de píxeles por fotograma en dianas (descripciones espacio-temporales de objetos de vídeo). Para la generación de blobs 35, existen muchas técnicas convencionales para aglomerar píxeles en blobs, por ejemplo: componentes conectados, tal como se describe en D. Ballard y C. Brown, “Computer Vision”, Prentice-Hall, Mayo de 1982; y componente cuasi-conectados, como se describe en T.E. Boult, R.J. Micheals, X. Gao, P. Lewis, C. Power, W. Yin y A. Erkan, “Frame-Rate Omnidirectional Surveillance and Tracking of Camouflaged and Occluded Targets”, Proc. of the IEEE Workshop on Visual Surveillance, junio de 1999. Para el rastreo de blobs 36, existen muchas técnicas convencionales para rastrear blobs a lo largo del tiempo para formar dianas. Ejemplos de técnicas de rastreo se describen en la siguiente Patente de Estados Unidos de asignación común Nº 6954498, titulada “Interactive Video Manipulation”, presentada el 24 de octubre de 2000; los documentos Wren, C.R. et al., “Pfinder: Real-Time Tracking of the Human Body”, IEEE Trans. on Pattern Matching and Machine Intelligence, Vol. 19, págs. 780-784, 1997; Grimson,
W.E.L. et al., “Using Adaptive Tracking to Classify and Monitor Activities in a Site”, CVPR, págs. 22-29, junio de 1998; y Olson, T.J. y Brill, F.Z., “Moving Object Detection and Event Recognition Algorithm for Smart Cameras, IUW, págs. 159175, mayo de 1997.
La detección y clasificación de una diana estacionaria 37 analiza dianas generadas mediante el rastreo de blobs 36 para determinar si cada diana es estacionaria. Puede determinarse que una diana es estacionaria si la diana representa un cambio local en el modelo de fondo 33. Una diana puede representar un cambio en el modelo de fondo 33 si, por ejemplo, un objeto de vídeo ha dejado de moverse (es decir, una inserción) o un objeto de vídeo previamente estacionario ha dejado expuesta una sección de fondo estático que aparece como una diana (es decir, una eliminación).
Una vez que se ha detectado una diana estacionaria, esta información puede devolverse a la actualización local del modelo de fondo 38 para actualizar el modelo de fondo 33. Con esta retroalimentación, el modelo de fondo 33 puede mantenerse actualizado respecto a lo que constituye fondo estático y actividad de primer plano legítima.
La detección y clasificación de una diana estacionaria 37 determina si una diana es estacionaria y, si es así, si debe etiquetarse como una inserción, una eliminación o desconocida, si no es posible determinar la diferencia. A la hora de distinguir entre una inserción y una eliminación, la relación entre las escalas temporales para una inserción y una eliminación es importante. Una inserción puede implicar una escala temporal diferente de la de una eliminación, y estas escalas temporales pueden ser dependientes de la aplicación. Por ejemplo, una aplicación puede requerir que un objeto permanezca en su sitio durante una gran cantidad de tiempo antes de que se considere una inserción pero solamente una pequeña cantidad de tiempo antes de que se considere una eliminación. Como ejemplo específico, un coche aparcado en un bordillo en un aeropuerto durante cinco minutos puede no ser un asunto de preocupación y puede no considerarse una inserción, pero un coche aparcado en el bordillo durante quince minutos puede ser un asunto de preocupación y considerarse una inserción. Además, el mismo coche, tan pronto como se aleje del bordillo puede considerarse una eliminación. En este ejemplo, la escala temporal para una inserción es mayor que la escala temporal para una eliminación. Para otra aplicación, las escalas temporales relativas para una inserción y una eliminación pueden invertirse a partir del ejemplo anterior, de modo que la escala temporal para una eliminación es mayor que la escala temporal para una inserción. Además, las escalas temporales para una inserción y una eliminación pueden ser configuradas por un usuario.
La figura 8 ilustra un diagrama de flujo para la detección y clasificación de una diana estacionaria 37. Un pseudo-código ejemplar para implementar la detección y clasificación de una diana estacionaria 37 es el siguiente:
En el bloque 81, cada diana proporcionada por la generación de blobs 35 es examinada para determinar si la diana es potencialmente estacionaria. Este bloque corresponde a la primera condición “si” en el pseudo-código anterior (es decir, if (target is POTENTIALLY_STATIONARY) [si la diana es POTENCIALMENTE_ESTACIONARIA]). Si la diana
5 no es potencialmente estacionaria, el flujo avanza al bloque 82 y finaliza.
Una técnica ejemplar para determinar si una diana es potencialmente estacionaria utiliza diversas propiedades y características espacio-temporales de la diana. Si una diana no ha cambiado radicalmente su forma y tamaño durante un periodo de tiempo, la diana puede ser una diana estacionaria. Además, si una diana muestra una gran cantidad de cambio respecto al fondo (según lo determinado mediante detección de cambios 31, 32, 33), pero muy poco movimiento
10 independiente (según lo determinado mediante detección de movimiento 34), la diana es casi con seguridad una diana estacionaria.
Dos ejemplos de una diana potencialmente estacionaria se ilustran en la figura 9. La imagen 91 es un fotograma actual de un vídeo de un hombre que camina por delante de sillas apiladas y que deja caer una maleta, y la imagen 94 es un fotograma actual de un vídeo de un hombre que retira una obra de arte de una habitación. Las máscaras de movimiento 92 y 95 resultan de la clasificación de píxeles basada en el movimiento 34 e ilustran máscaras
5 de píxeles de píxeles “en movimiento” (es decir, píxeles que muestran movimiento). La máscara de movimiento 92 detecta al hombre pero no a la maleta en el fotograma 91, y la máscara de movimiento 95 detecta al hombre que camina con la obra de arte, pero no su ausencia de la pared. La máscaras de cambio 93 y 96 resultan de la clasificación de píxeles basada en un modelo de fondo 31 e ilustran máscaras de píxeles, de píxeles “cambiados” (es decir, píxeles que difieren del modelo de fondo 33). La máscara de cambio 93 detecta tanto al hombre como a la maleta, y la máscara
10 de cambio 96 detecta tanto al hombre que camina con la obra de arte como la ausencia en la pared. Tal como se indica con los cuadrados superpuestos en las máscaras de cambio 93 y 96, hay zonas que han cambiado claramente con respecto al modelo de fondo 33, pero no muestran ningún movimiento independiente. En la máscara de cambio 93, la inserción de la maleta no muestra ningún movimiento independiente, y en la máscara de cambio 96, la eliminación de la obra de arte de la pared no muestra ningún movimiento independiente. Estas zonas se determinan mediante la
15 detección y clasificación de una diana estacionaria 37 como dianas potencialmente estacionarias.
En una realización de la invención para determinar una diana estacionaria, se determinan propiedades de
diana cuantificables. Por ejemplo, ΔC pueden representar propiedades estadísticas de una trayectoria centroidal de la diana. Específicamente, ΔC puede representar la media (a lo largo del tiempo) de la diferencia en la posición del centroide (en píxeles) entre fotogramas consecutivos, y ΔC puede representar la desviación estándar (a lo largo del
20 tiempo) de la diferencia de la posición del centroide (en píxeles) entre fotogramas consecutivos. En general, representan propiedades estadísticas de una trayectoria centroidal de la diana estacionaria.
Además,
R representan propiedades estadísticas del área de píxeles de la diana. Específicamente, puede representar la media (a lo largo de algún periodo de tiempo reciente) de la proporción del área de la diana (en
píxeles) entre fotogramas consecutivos, y R puede representar la desviación estándar (a lo largo de algún periodo de
25 tiempo reciente) de la proporción del área de la diana
(en píxeles) entre fotogramas consecutivos. Estas cuatro propiedades de la diana ejemplares (es decir,
R) capturan el movimiento general y el cambio de tamaño de una diana a lo largo del tiempo.
Además,
M representan propiedades estadísticas de píxeles en movimiento de la diana estacionaria.
Específicamente, M puede representar la media (a lo largo de algún periodo de tiempo reciente) de la proporción del
30 número de píxeles “en movimiento” con respecto al área de la diana (en píxeles), y M puede representar la desviación estándar (a lo largo de algún periodo de tiempo reciente) de la proporción del número de píxeles “en movimiento”
con respecto al área de la diana (en píxeles). Estas dos propiedades de la diana ejemplares (es decir,
M) capturan el grado en el cual una diana está mostrando movimiento independiente, tal como según la descripción anterior.
Utilizando estas seis propiedades de la diana ejemplares, una posible técnica para determinar si una diana es 35 potencialmente estacionaria se basa en el siguiente pseudo-código:
En el pseudo-código, seis umbrales (es decir, THRESHOLD1, THRESHOLD2, THRESHOLD3, THRESHOLD4,
THRESHOLD5 y THRESHOLD6) se utilizan para realizar comparaciones de umbral con las propiedades de la diana
ejemplares. Los seis umbrales pueden estar preestablecidos y/o establecidos arbitrariamente como parámetros del
40 usuario.
Aunque se describen cuatro propiedades de la diana ejemplares (es decir,
y
como
representando el movimiento general y el cambio de tamaño de una diana a lo largo del tiempo, pueden utilizarse otras
propiedades, tal como será evidente para los expertos en la materia.
Aunque dos propiedades de la diana ejemplares (es decir,
M) se describen como representando que se
45 muestra movimiento independiente, pueden utilizarse otras propiedades, tal como será evidente para los expertos en la
materia.
Aunque se describen las seis propiedades estadísticas anteriores (es decir,
ΔC,
ΔC,
R,
R,
M y
M), pueden utilizarse otras combinaciones de estas propiedades estadísticas, otras propiedades estadísticas, y/o otras propiedades tal como será evidente para los expertos en la materia.
En el bloque 83, se determinan las relaciones entre un umbral de inserción y un umbral de eliminación. Este bloque corresponde al bloque de la segunda condición “si” en el pseudo-código anterior (es decir, “if (insertion_time_threshold < removal_time_threshold)” [si (umbral_de tiempo_de inserción < umbral_de tiempo_de retirada)]). El pseudo-código para clasificar las dianas detectadas depende de la relación entre el umbral de tiempo de inserción y el umbral de tiempo de eliminación. Esta relación determina cuál de las dos pruebas, concretamente una prueba de inserción o una prueba de eliminación, se realiza en primer lugar. El umbral de tiempo de inserción y el umbral de tiempo de eliminación son puntos en el tiempo basados en las escalas temporales establecidas para una inserción y una eliminación, tal como se ha descrito anteriormente. En el pseudo-código, el umbral de tiempo de inserción y el umbral de tiempo de eliminación se comparan con la edad de la diana.
En el bloque 84, se aplica la prueba de inserción y/o la prueba de eliminación. Si la aplicación de estas pruebas determina que la diana es una inserción, el flujo avanza hasta el bloque 85, y la diana se clasifica como una inserción. Si la aplicación de estas pruebas determina que la diana es una eliminación, el flujo avanza hasta el bloque 86, y la diana se clasifica como una eliminación. Si la aplicación de estas pruebas es inconcluyente en cuanto a si la diana es una inserción o una eliminación, el flujo avanza hasta el bloque 87, y la diana se clasifica como desconocida. Los bloques 84-86 corresponden al bloque de la tercera condición “si” en el pseudo-código anterior (es decir, “if (target_age > 1st_time_threshold)” [si (edad_de la diana > 1º_umbral_de tiempo)]). Una vez que se considera que una diana potencialmente estacionaria es estacionaria al pasar la prueba de inserción y/o la prueba de eliminación, su descripción es enviada a la actualización local del modelo de fondo 38, el cual modifica el modelo de fondo 33 en la ubicación de la diana potencialmente estacionaria. Este proceso implica sustituir las estadísticas del modelo de fondo (media y variable) de los píxeles que representan la diana potencialmente estacionaria. Los valores de la media y la variable de los píxeles que representan la diana estacionaria se modificarán para representar la media y la variable de los píxeles de fotogramas más recientes que representan la diana potencialmente estacionaria.
La prueba de inserción y la prueba de eliminación se ilustran con las figuras 10 y 11. La teoría detrás de la técnica de clasificación ejemplar de la invención es que una inserción puede caracterizarse como una región que muestra bordes intensos alrededor de su periferia en una imagen actual pero no muestra bordes intensos alrededor de la periferia de la misma región en el modelo de fondo. A la inversa, una eliminación puede caracterizarse como una región que muestra bordes intensos alrededor de su periferia en el modelo de fondo pero no muestra bordes intensos alrededor de su periferia en una imagen actual.
La figura 10 ilustra la clasificación de una inserción. El vídeo en este ejemplo es de un hombre que camina por delante de sillas apiladas y deja caer una maleta. La imagen 101 ilustra una imagen del modelo de fondo, y la imagen del borde de fondo 102 ilustra los bordes correspondientes de la imagen 101 determinados utilizando un detector de bordes Sobel. La imagen 103 ilustra una imagen del fotograma actual, y la imagen del borde del fotograma actual 104 ilustra los bordes correspondientes de la imagen 103 determinados utilizando un detector de bordes Sobel. Tal como puede verse, la maleta muestra bordes muy intensos en el fotograma actual (es decir, la imagen del borde del fotograma actual 104), pero no en el modelo de fondo (es decir, imagen del borde de fondo 102). La máscara de cambio 105 muestra los píxeles cambiados detectados, incluyendo el objeto estacionario (es decir, la maleta). La imagen 106 es un primer plano de la región de la maleta en la máscara de cambio 105, y la imagen 107 es un primer plano de una sección en la periferia de la región de la maleta en la imagen 106. Las imágenes 108 y 109 muestran los bordes correspondientes a la sección de la imagen 107 tanto para la imagen del borde de fondo 102 como la imagen del borde del fotograma actual 104, respectivamente. Tal como puede verse, la intensidad del borde en la imagen 109 para el fotograma actual es mayor que la intensidad del borde en la imagen 108 para el modelo de fondo. Por lo tanto, la diana (es decir, la maleta) se clasifica como una inserción.
La figura 11 ilustra la clasificación de una eliminación. El vídeo en este ejemplo es de un hombre que retira una obra de arte de una habitación. La imagen 111 ilustra una imagen del modelo de fondo, y la imagen del borde de fondo 112 ilustra los bordes correspondientes de la imagen 111 determinados utilizando un detector de bordes Sobel. La imagen 113 ilustra una imagen del fotograma actual, y la imagen del borde del fotograma actual 114 ilustra los bordes correspondientes de la imagen 113 determinados utilizando un detector de bordes Sobel. Tal como puede verse, la obra de arte muestra bordes muy intensos en el modelo de fondo (es decir, imagen del borde del modelo de fondo 112), pero no en el fotograma actual (es decir, imagen del fotograma actual 114). La máscara de cambio 115 muestra los píxeles cambiados detectados, incluyendo el objeto estacionario (es decir, la obra de arte). La imagen 116 es un primer plano de la región de la obra de arte en la máscara de cambio 115, y la imagen 117 es un primer plano de una sección en la periferia de la región de la obra de arte en la imagen 116. Las imágenes 118 y 119 muestran los bordes correspondientes a la sección de la imagen 117 tanto para la imagen del borde de fondo 112 como la imagen del borde del fotograma actual 114, respectivamente. Tal como puede verse, la intensidad del borde en la imagen 118 para el modelo de fondo es mayor que la intensidad del borde en la imagen 119 para el fotograma actual. Por lo tanto, la diana (es decir, la obra de arte) se clasifica como una eliminación.
Las figuras 12 y 13 ilustran dos realizaciones para los bloques 84-87 en la figura 8. La figura 12 ilustra la realización para el caso en el que el umbral de tiempo de inserción es menor que el umbral de tiempo de eliminación, y la figura 13 ilustra el otro caso correspondiente en el que el umbral de tiempo de inserción no es menor que el umbral de tiempo de eliminación.
En la figura 12, para el bloque 1201, la intensidad del borde EB del fondo se determina a lo largo de el límite de la diana potencialmente estacionaria (es decir, el cambio detectado).
En el bloque 1202, la intensidad del borde EF del fotograma actual se determina a lo largo del límite de la diana estacionaria.
En el bloque 1203, se determina la diferencia entre la intensidad del borde EB del fondo y la intensidad del borde EF del fotograma actual (es decir, ΔE = EB - EF).
En el bloque 1204, la edad de la diana se compara con el umbral de tiempo de inserción. Si la edad de la diana es mayor que el umbral de tiempo de inserción, el flujo avanza hasta el bloque 1205. En caso contrario, el flujo avanza hasta el bloque 1211 y finaliza.
En el bloque 1205, la diferencia ΔE se compara con un umbral de inserción THI. Para la formulación en este caso, si ΔE < THI (donde THI < 0), la diana estacionaria es una inserción, y el flujo avanza hasta el bloque 1206. En caso contrario, el flujo avanza hasta el bloque 1207.
En el bloque 1206, la diana estacionaria se clasifica como una inserción.
En el bloque 1207, la edad de la diana se compara con el umbral de tiempo de eliminación. Si la edad de la diana es mayor que el umbral de tiempo de eliminación, el flujo avanza hasta el bloque 1208. En caso contrario, el flujo avanza hasta el bloque 1211 y finaliza.
En el bloque 1208, la diferencia ΔE se compara con un umbral de eliminación THR. Para la formulación en este caso, si ΔE > THR, la diana estacionaria es una eliminación, y el flujo avanza hasta el bloque 1209. En caso contrario, el flujo avanza hasta el bloque 1210.
En el bloque 1209, la diana estacionaria se clasifica como una eliminación.
En el bloque 1210, la diana estacionaria no puede clasificarse como una inserción o una eliminación y, en su lugar, se clasifica como desconocida.
Después de los bloques 1206, 1208 y 1210, la descripción de la diana estacionaria es enviada a la actualización local del modelo de fondo 38, el cual modifica el modelo de fondo 33 para reflejar el cambio causado por la diana estacionaria detectada. Incluso aunque la diana estacionaria no pueda clasificarse como inserción o eliminación (bloque 1210), el modelo de fondo sigue estando actualizado.
Para aumentar la robustez, las intensidades de los bordes EB y EF pueden determinarse en los bloques 1201 y 1202 a lo largo de una serie de fotogramas y promediarse a lo largo del tiempo.
La figura 13 es igual que la figura 12, excepto por el cambio de lugares en el diagrama de flujo para los bloques 1204-1206 y los bloques 1207-1209.
La figura 14 ilustra un diagrama de flujo para un ejemplo técnico para determinar las intensidades de los bordes EB y EF para los bloques 1201 y 1202. Otras técnicas están disponibles, tal como será evidente para los expertos en la materia. La figura 14 se describe en relación con la figura 15, la cual ilustra un ejemplo de diana estacionaria en la cual se determinan las intensidades de los bordes. Con el ejemplo técnico de la figura 14, se da cabida a cierta incertidumbre en el límite del cambio detectado, y se ignoran agujeros y lagunas en el objeto.
En el bloque 141, se selecciona una banda de la imagen. Por ejemplo, la banda Y se selecciona en una imagen YCrCb. Otras bandas, aparte de la banda Y, pueden seleccionarse. También, como una opción, pueden seleccionarse múltiples bandas. Además, también se puede dar cabida a otros tipos de imágenes con la invención, tales como una imagen RGB o CMYK.
En el bloque 142, se selecciona una línea a lo largo de un píxel del perímetro Pp y el centroide Pc de la diana. En la figura 15, el centroide Pc de la diana 151 se designa con una estrella, y los píxeles del perímetro ejemplares 152, 153 y 154 se designan con círculos claros a lo largo del perímetro de la diana 151. Tres píxeles del perímetro ejemplares se identifican en la figura 15, y para cada píxel del perímetro, se elige una línea a través del píxel del perímetro Pp y el centroide Pc,
En el bloque 143, dos píxeles P1 y P2 en la línea se seleccionan a una distancia +/- equivalente del píxel del perímetro Pp. En la figura 15, los dos píxeles para cada línea se designan con círculos oscuros.
En el bloque 144, si ambos píxeles a distancia están dentro o fuera de la diana, el flujo avanza hasta el bloque
145. En caso contrario, si un píxel a distancia está dentro de la diana y el otro píxel a distancia está fuera de la diana, el flujo avanza hasta el bloque 146. En la figura 15, los píxeles del perímetro 152 y 153 presentan ambos píxeles a distancia dentro de la diana 151, y el píxel del perímetro 154 presenta un píxel a distancia dentro de la diana y el otro píxel a distancia fuera de la diana.
En el bloque 145, si ambos píxeles a distancia están dentro o fuera de la diana, se ignora el píxel del perímetro, y el flujo avanza hasta el bloque 147. En la figura 15, se ignoran los píxeles del perímetro 152 y 153.
En el bloque 146, un contraste Cp del píxel del perímetro que presenta un píxel a distancia dentro de la diana y el otro píxel a distancia fuera de la diana se determina en base a la intensidad de los dos píxeles a distancia Ip1 e Ip2 de la siguiente manera: Cp = |Ip1 - Ip2|.
En el bloque 147, si se comprobaron todos los píxeles del perímetro, el flujo avanza hasta el bloque 148. En caso contrario, el flujo avanza hasta el bloque 142 para seguir comprobando los píxeles del perímetro.
En el bloque 148, el contraste promedio se determina en todos píxeles del perímetro para los cuales se determinó un contraste Cp en el bloque 146. Este contraste promedio puede utilizarse como las intensidades de los bordes EB y EF en los bloques 1201 y 1202, respectivamente.
La descripción anterior para la figura 15 abordaba los tres píxeles del perímetro ejemplares 151, 152 y 153 de modo concurrente. Sin embargo, en el examen de los píxeles del perímetro según la figura 14, cada píxel del perímetro es examinado individualmente hasta que todos los píxeles del perímetro se hayan examinado, como mediante el bucle de vuelta del bloque 147 al bloque 142.
Además, con el ejemplo técnico de la figura 14, se ignoran los agujeros y pequeñas lagunas en la diana 151 en la figura 15, aumentando, de este modo, la robustez de la técnica.
En otra realización de la invención, las dianas detectadas se monitorizan adicionalmente para determinar si una diana nuevamente detectada se había detectado previamente mediante la detección y clasificación de una diana estacionaria 37 como un cambio en el modelo de fondo. Por ejemplo, en una aplicación de vigilancia, puede ser de interés detectar cuándo una diana entró en una escena y cuándo dejó de moverse (por ejemplo, un coche aparcando) y seguidamente monitorizar la diana (o el área de la escena donde la diana dejó de moverse) para determinar si, y cuándo, vuelve a moverse la diana (por ejemplo, un coche aparcado que sale).
La figura 16 ilustra un diagrama de flujo para la segunda realización de la invención. La figura 16 es igual que la figura 3, excepto por la adición de un monitor de la diana estacionaria 161. El monitor de la diana estacionaria 161 recibe descripciones de la diana estacionaria de la detección y clasificación de una diana estacionaria 37 y proporciona una reactivación de la diana al rastreo de blobs 36. Si la diana estacionaria se clasifica como una inserción, el monitor de la diana estacionaria 161 registra la diana (por ejemplo, tiempo, tamaño, color y ubicación) y monitoriza la diana para cualquier actividad adicional. En este punto, la diana es “olvidada” por el resto del sistema como si estuviera integrada en el modelo de fondo 33 y, en efecto, pasa a hibernación. Si, en cualquier momento posterior, una diana estacionaria se detecta como una eliminación y es descrita por la detección y clasificación de una diana estacionaria 37 en las proximidades de la inserción anterior, el monitor de la diana estacionaria 161 registra la eliminación con la diana estacionaria en hibernación y ordena al rastreo de blobs 36 para reactivar esa diana.
Las realizaciones de la invención pueden implementarse con un sistema informático. Un ejemplo de sistema informático incluye un ordenador y un medio legible por ordenador. En referencia a las figuras 3 y 16, los bloques 31-38 y 161 pueden implementarse con software que reside en uno o más medios legibles por ordenador del sistema informático. El vídeo y/o las imágenes que se procesarán con la invención pueden residir en uno o más medios legibles por ordenador o proporcionarse, por ejemplo, mediante una entrada de vídeo o imágenes o una red.
Aunque anteriormente se han descrito diversas realizaciones de la presente invención, debe entenderse que éstas se han presentado sólo a modo de ejemplo, y no de limitación. Por lo tanto, la amplitud y alcance de la presente invención no deben estar limitados por ninguno de los ejemplos de las realizaciones anteriormente descritas, sino que, en su lugar, deben definirse sólo de acuerdo con las siguientes reivindicaciones y sus equivalentes.
Claims (14)
- REIVINDICACIONES1. Un método para el procesamiento de vídeo, que comprende las etapas de:mantener un modelo de fondo para dicho vídeo;detectar una diana en tal vídeo; detectar si dicha diana es una diana estacionaria, que comprende las etapas de:determinar propiedades de movimiento general y de cambio de tamaño de dicha diana;caracterizado pordeterminar propiedades de movimiento independiente de dicha diana, en el que tal movimiento independiente es un movimiento de fotograma a fotograma en el que la determinación de las propiedades de movimiento independiente de dicha diana comprende además:determinar una proporción media del número de píxeles en movimiento de dicha diana con respecto al área de píxeles de la diana; ydeterminar una desviación estándar de la proporción del número de tales píxeles en movimiento de dicha diana con respecto al área de píxeles de la diana,en el que tales píxeles en movimiento experimentan un movimiento independiente, ydeterminar si dicha diana es estacionaria en base a tales propiedades de movimiento general y cambio de tamaño y tales propiedades de movimiento independiente; yclasificar dicha diana estacionaria como una inserción en tal modelo de fondo o eliminación de tal modelo de fondo.
-
- 2.
- Un método según la reivindicación 1, en el que tales propiedades de movimiento general y cambio de tamaño comprenden propiedades estadísticas de una trayectoria centroidal de dicha diana y propiedades estadísticas de un área de dicha diana.
-
- 3.
- Un método según la reivindicación 1, en el que tal movimiento independiente comprende propiedades estadísticas de píxeles en movimiento de dicha diana.
-
- 4.
- Un método según la reivindicación 1, en el que la determinación de si dicha diana es estacionaria se basa, además, en el envejecimiento de dicha diana.
-
- 5.
- Un método según la reivindicación 1, en el que la clasificación de dicha diana estacionaria comprende las etapas de:
determinar una intensidad del borde en tal modelo de fondo a lo largo de un límite de dicha diana estacionaria;determinar una intensidad del borde en un fotograma actual de la secuencia de vídeo a lo largo de tal límite de dicha diana estacionaria; ydeterminar si dicha diana estacionaria es tal inserción o tal eliminación en base a tal intensidad del borde en tal modelo de fondo y tal intensidad del borde en tal fotograma actual. -
- 6.
- Un método según la reivindicación 5, en el que la determinación de tal intensidad del borde en tal modelo de fondo se basa en un píxel centroide de dicha diana estacionaria y píxeles del perímetro a lo largo de tal límite de dicha diana estacionaria.
-
- 7.
- Un método según la reivindicación 5, en el que la determinación de tal intensidad del borde en tal fotograma actual se basa en un píxel centroide de dicha diana estacionaria y píxeles del perímetro a lo largo de tal límite de dicha diana estacionaria.
-
- 8.
- Un método según la reivindicación 1, en el que la clasificación de dicha diana estacionaria comprende, además, clasificar dicha diana estacionaria como una inserción en tal modelo de fondo, una eliminación de tal modelo de fondo, o como inidentificable como tal inserción o tal eliminación.
-
- 9.
- Un método según la reivindicación 1, que comprende además la etapa de:
determinar si dicha diana se detectó previamente como una diana estacionaria. -
- 10.
- Un sistema informático que comprende un medio legible por ordenador que presenta un software para hacer funcionar un ordenador según el método de la reivindicación 1.
-
- 11.
- Un medio legible por ordenador que presenta software para hacer funcionar un ordenador según el método de la reivindicación 1.
-
- 12.
- Un sistema informático para el procesamiento de vídeo, que comprende:
un modelo de fondo de tal vídeo;una unidad de clasificación de píxeles basada en un modelo de fondo adaptada para producir una máscara de cambio e imágenes en base a tal vídeo y tal modelo de fondo;una unidad de actualización del modelo de fondo adaptada para actualizar tal modelo de fondo en base a tal máscara de cambio y tales imágenes;una unidad de clasificación de píxeles basada en el movimiento adaptada para producir una máscara de movimiento;una unidad de generación de blobs adaptada para producir al menos un blob en base a tal máscara de cambio y tal máscara de movimiento;una unidad de rastreo de blobs adaptada para producir al menos una diana en base a tales blobs;una unidad de detección y clasificación de una diana estacionaria para producir una descripción de la diana estacionaria en base a cada diana, tal descripción de la diana estacionaria para identificar a cada diana como una inserción en tal modelo de fondo o una eliminación de tal modelo de fondo; yuna unidad de actualización local del modelo de fondo adaptada para actualizar tal modelo de fondo en base a cada descripción de dicha diana estacionaria;caracterizado porque tal unidad de clasificación de píxeles basada en el movimiento está adaptada para determinar propiedades de movimiento independiente de dicha diana, en el que tal movimiento independiente es un movimiento de fotograma a fotograma y en el que tal unidad de clasificación de píxeles basada en el movimiento está adaptada para determinar propiedades de movimiento independiente de dicha diana, determinando una proporción media del número de píxeles en movimiento de dicha diana con respecto al área de píxeles de la diana y determinar una desviación estándar de la proporción del número de tales píxeles en movimiento de dicha diana con respecto al área del píxel, en el que tales píxeles en movimiento experimentan un movimiento independiente, estando tal unidad de clasificación de píxeles basada en el movimiento adaptada, además, para producir tal máscara de movimiento en base a tal vídeo y tales propiedades de movimiento independiente. -
- 13.
- Un sistema informático según la reivindicación 12, en el que tales descripciones de la diana estacionaria identifican, además, a cada una de dichas dianas como una inserción en tal modelo de fondo, una eliminación de tal modelo de fondo o como inidentificable como tal inserción o tal eliminación.
-
- 14.
- Un sistema informático según la reivindicación 12, que comprende, además, una unidad monitora de la diana estacionaria adaptada para ordenar a tal unidad de rastreo de blobs que rastree una diana que fue detectada como una inserción y a continuación detectada como una eliminación.
DOCUMENTOS INDICADOS EN LA DESCRIPCIÓNEn la lista de documentos indicados por el solicitante se ha recogido exclusivamente para información del lector, y no es parte constituyente del documento de patente europeo. Ha sido recopilada con el mayor cuidado; sin embargo, la EPA no asume 5 ninguna responsabilidad por posibles errores u omisiones.Documentos de patente indicados en la descripción● US 6424370 B [ 0003] ● US 6625310 B [ 0028] 10 ● US 47216299 A [ 0006] ● US 6954498 B [ 0032] [ 0036]● US 6738424 B [ 0006]LITERATURA NO CITADA EN LA DESCRIPCION
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/354,096 US6999600B2 (en) | 2003-01-30 | 2003-01-30 | Video scene background maintenance using change detection and classification |
US354096 | 2003-01-30 | ||
PCT/US2003/041159 WO2004070649A1 (en) | 2003-01-30 | 2003-12-23 | Video scene background maintenance using change detection and classification |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2383174T3 true ES2383174T3 (es) | 2012-06-18 |
Family
ID=32770313
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES03815787T Expired - Lifetime ES2383174T3 (es) | 2003-01-30 | 2003-12-23 | Mantenimiento de fondo de escena de video utilizando detección y clasificación de cambios |
Country Status (13)
Country | Link |
---|---|
US (1) | US6999600B2 (es) |
EP (1) | EP1588317B1 (es) |
JP (1) | JP2006514363A (es) |
KR (1) | KR20060012570A (es) |
CN (1) | CN100386771C (es) |
AT (1) | ATE548706T1 (es) |
AU (1) | AU2003300337A1 (es) |
CA (1) | CA2514826A1 (es) |
DK (1) | DK1588317T3 (es) |
ES (1) | ES2383174T3 (es) |
HK (1) | HK1088968A1 (es) |
MX (1) | MXPA05008201A (es) |
WO (1) | WO2004070649A1 (es) |
Families Citing this family (186)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6738066B1 (en) * | 1999-07-30 | 2004-05-18 | Electric Plant, Inc. | System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display |
US6701005B1 (en) | 2000-04-29 | 2004-03-02 | Cognex Corporation | Method and apparatus for three-dimensional object segmentation |
US8035612B2 (en) * | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
US7259747B2 (en) | 2001-06-05 | 2007-08-21 | Reactrix Systems, Inc. | Interactive video display system |
US8300042B2 (en) * | 2001-06-05 | 2012-10-30 | Microsoft Corporation | Interactive video display system using strobed light |
AUPR899401A0 (en) * | 2001-11-21 | 2001-12-13 | Cea Technologies Pty Limited | Method and apparatus for non-motion detection |
US7215827B2 (en) * | 2002-03-15 | 2007-05-08 | Hitachi Kokusai Electric Inc. | Object detection method using an image-pickup device with easy detection masking region setting and object detection apparatus using the method |
US7710391B2 (en) * | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
US7920718B2 (en) * | 2002-09-05 | 2011-04-05 | Cognex Corporation | Multi-zone passageway monitoring system and method |
AU2003301043A1 (en) | 2002-12-13 | 2004-07-09 | Reactrix Systems | Interactive directed light/sound system |
US20050078873A1 (en) * | 2003-01-31 | 2005-04-14 | Cetin Ahmet Enis | Movement detection and estimation in wavelet compressed video |
US20040223652A1 (en) * | 2003-05-07 | 2004-11-11 | Cetin Ahmet Enis | Characterization of motion of moving objects in video |
WO2005041579A2 (en) * | 2003-10-24 | 2005-05-06 | Reactrix Systems, Inc. | Method and system for processing captured image information in an interactive video display system |
EP1676442A2 (en) * | 2003-10-24 | 2006-07-05 | Reactrix Systems, Inc. | Method and system for managing an interactive video display system |
US7623674B2 (en) * | 2003-11-05 | 2009-11-24 | Cognex Technology And Investment Corporation | Method and system for enhanced portal security through stereoscopy |
US8326084B1 (en) | 2003-11-05 | 2012-12-04 | Cognex Technology And Investment Corporation | System and method of auto-exposure control for image acquisition hardware using three dimensional information |
US7463754B2 (en) * | 2003-11-13 | 2008-12-09 | Honda Motor Co. | Adaptive probabilistic visual tracking with incremental subspace update |
KR100601933B1 (ko) * | 2003-11-18 | 2006-07-14 | 삼성전자주식회사 | 사람검출방법 및 장치와 이를 이용한 사생활 보호방법 및 시스템 |
US7664292B2 (en) * | 2003-12-03 | 2010-02-16 | Safehouse International, Inc. | Monitoring an output from a camera |
US8558892B2 (en) * | 2004-01-20 | 2013-10-15 | Honeywell International Inc. | Object blocking zones to reduce false alarms in video surveillance systems |
KR100568237B1 (ko) * | 2004-06-10 | 2006-04-07 | 삼성전자주식회사 | 비디오 영상으로부터 이동 물체를 추출하는 장치 및 방법 |
US7382898B2 (en) * | 2004-06-15 | 2008-06-03 | Sarnoff Corporation | Method and apparatus for detecting left objects |
US7650011B2 (en) * | 2004-07-09 | 2010-01-19 | Honda Motor Co., Inc. | Visual tracking using incremental fisher discriminant analysis |
US7391907B1 (en) * | 2004-10-01 | 2008-06-24 | Objectvideo, Inc. | Spurious object detection in a video surveillance system |
US7577252B2 (en) * | 2004-12-06 | 2009-08-18 | Mitsubishi Electric Research Laboratories, Inc. | Method for secure object detection in images |
US7372975B2 (en) * | 2004-12-06 | 2008-05-13 | Mitsubishi Electric Research Laboratory, Inc. | Method for secure background modeling in images |
US7391905B2 (en) * | 2004-12-06 | 2008-06-24 | Mitsubishi Electric Research Laboratories | Method for secure component labeling in images |
US7688999B2 (en) * | 2004-12-08 | 2010-03-30 | Electronics And Telecommunications Research Institute | Target detecting system and method |
US7639841B2 (en) * | 2004-12-20 | 2009-12-29 | Siemens Corporation | System and method for on-road detection of a vehicle using knowledge fusion |
US20060153448A1 (en) * | 2005-01-13 | 2006-07-13 | International Business Machines Corporation | System and method for adaptively separating foreground from arbitrary background in presentations |
US7801328B2 (en) * | 2005-03-31 | 2010-09-21 | Honeywell International Inc. | Methods for defining, detecting, analyzing, indexing and retrieving events using video image processing |
US9128519B1 (en) | 2005-04-15 | 2015-09-08 | Intellectual Ventures Holding 67 Llc | Method and system for state-based control of objects |
US7412089B2 (en) * | 2005-05-23 | 2008-08-12 | Nextcode Corporation | Efficient finder patterns and methods for application to 2D machine vision problems |
US20070122000A1 (en) * | 2005-11-29 | 2007-05-31 | Objectvideo, Inc. | Detection of stationary objects in video |
US8081822B1 (en) | 2005-05-31 | 2011-12-20 | Intellectual Ventures Holding 67 Llc | System and method for sensing a feature of an object in an interactive video display |
US7825954B2 (en) * | 2005-05-31 | 2010-11-02 | Objectvideo, Inc. | Multi-state target tracking |
US7801330B2 (en) * | 2005-06-24 | 2010-09-21 | Objectvideo, Inc. | Target detection and tracking from video streams |
US7796780B2 (en) * | 2005-06-24 | 2010-09-14 | Objectvideo, Inc. | Target detection and tracking from overhead video streams |
JP4947936B2 (ja) * | 2005-08-11 | 2012-06-06 | ソニー株式会社 | モニタリングシステムおよび管理装置 |
US7787011B2 (en) * | 2005-09-07 | 2010-08-31 | Fuji Xerox Co., Ltd. | System and method for analyzing and monitoring 3-D video streams from multiple cameras |
US8111904B2 (en) | 2005-10-07 | 2012-02-07 | Cognex Technology And Investment Corp. | Methods and apparatus for practical 3D vision system |
US8098277B1 (en) | 2005-12-02 | 2012-01-17 | Intellectual Ventures Holding 67 Llc | Systems and methods for communication between a reactive video system and a mobile communication device |
US8565525B2 (en) * | 2005-12-30 | 2013-10-22 | Telecom Italia S.P.A. | Edge comparison in segmentation of video sequences |
US8265349B2 (en) * | 2006-02-07 | 2012-09-11 | Qualcomm Incorporated | Intra-mode region-of-interest video object segmentation |
US8265392B2 (en) * | 2006-02-07 | 2012-09-11 | Qualcomm Incorporated | Inter-mode region-of-interest video object segmentation |
US8150155B2 (en) * | 2006-02-07 | 2012-04-03 | Qualcomm Incorporated | Multi-mode region-of-interest video object segmentation |
US8848053B2 (en) * | 2006-03-28 | 2014-09-30 | Objectvideo, Inc. | Automatic extraction of secondary video streams |
US20070250898A1 (en) * | 2006-03-28 | 2007-10-25 | Object Video, Inc. | Automatic extraction of secondary video streams |
EP2013817A2 (en) * | 2006-04-17 | 2009-01-14 | Objectvideo, Inc. | Video segmentation using statistical pixel modeling |
TW200745996A (en) | 2006-05-24 | 2007-12-16 | Objectvideo Inc | Intelligent imagery-based sensor |
NO327576B1 (no) * | 2006-06-01 | 2009-08-17 | Ana Tec As | Framgangsmate og apparat for analyse av objekter |
JP4631806B2 (ja) * | 2006-06-05 | 2011-02-16 | 日本電気株式会社 | 物体検出装置、物体検出方法および物体検出プログラム |
DE102007024868A1 (de) * | 2006-07-21 | 2008-01-24 | Robert Bosch Gmbh | Bildverarbeitungsvorrichtung, Überwachungssystem, Verfahren zur Erzeugung eines Szenenreferenzbildes sowie Computerprogramm |
KR100793837B1 (ko) * | 2006-09-13 | 2008-01-11 | 한국전자통신연구원 | 조명의 변화와 학습자 인터랙션을 고려한 마커 인식 장치및 마커 인식 방법 |
US8045783B2 (en) * | 2006-11-09 | 2011-10-25 | Drvision Technologies Llc | Method for moving cell detection from temporal image sequence model estimation |
US8300890B1 (en) * | 2007-01-29 | 2012-10-30 | Intellivision Technologies Corporation | Person/object image and screening |
US20080181457A1 (en) * | 2007-01-31 | 2008-07-31 | Siemens Aktiengesellschaft | Video based monitoring system and method |
US8131012B2 (en) | 2007-02-08 | 2012-03-06 | Behavioral Recognition Systems, Inc. | Behavioral recognition system |
US8456528B2 (en) * | 2007-03-20 | 2013-06-04 | International Business Machines Corporation | System and method for managing the interaction of object detection and tracking systems in video surveillance |
US7949150B2 (en) * | 2007-04-02 | 2011-05-24 | Objectvideo, Inc. | Automatic camera calibration and geo-registration using objects that provide positional information |
WO2008124820A1 (en) * | 2007-04-10 | 2008-10-16 | Reactrix Systems, Inc. | Display using a three dimensional vision system |
US20080273754A1 (en) * | 2007-05-04 | 2008-11-06 | Leviton Manufacturing Co., Inc. | Apparatus and method for defining an area of interest for image sensing |
US8126260B2 (en) | 2007-05-29 | 2012-02-28 | Cognex Corporation | System and method for locating a three-dimensional object using machine vision |
US7822275B2 (en) * | 2007-06-04 | 2010-10-26 | Objectvideo, Inc. | Method for detecting water regions in video |
US8542872B2 (en) | 2007-07-03 | 2013-09-24 | Pivotal Vision, Llc | Motion-validating remote monitoring system |
US8411935B2 (en) | 2007-07-11 | 2013-04-02 | Behavioral Recognition Systems, Inc. | Semantic representation module of a machine-learning engine in a video analysis system |
TW200926011A (en) * | 2007-09-04 | 2009-06-16 | Objectvideo Inc | Background modeling with feature blocks |
KR101141087B1 (ko) | 2007-09-14 | 2012-07-12 | 인텔렉츄얼 벤처스 홀딩 67 엘엘씨 | 제스처-기반 사용자 상호작용의 프로세싱 |
US8200011B2 (en) | 2007-09-27 | 2012-06-12 | Behavioral Recognition Systems, Inc. | Context processor for video analysis system |
US8175333B2 (en) * | 2007-09-27 | 2012-05-08 | Behavioral Recognition Systems, Inc. | Estimator identifier component for behavioral recognition system |
US8300924B2 (en) * | 2007-09-27 | 2012-10-30 | Behavioral Recognition Systems, Inc. | Tracker component for behavioral recognition system |
US8086071B2 (en) * | 2007-10-30 | 2011-12-27 | Navteq North America, Llc | System and method for revealing occluded objects in an image dataset |
US8159682B2 (en) | 2007-11-12 | 2012-04-17 | Intellectual Ventures Holding 67 Llc | Lens system |
MY143022A (en) * | 2007-11-23 | 2011-02-14 | Mimos Berhad | Method for detecting unattended object and removal of static object |
GB2446293A (en) * | 2008-01-31 | 2008-08-06 | Siemens Ag | Video based monitoring system and method |
AU2008200966B2 (en) * | 2008-02-28 | 2012-03-15 | Canon Kabushiki Kaisha | Stationary object detection using multi-mode background modelling |
US8259163B2 (en) | 2008-03-07 | 2012-09-04 | Intellectual Ventures Holding 67 Llc | Display with built in 3D sensing |
US8107678B2 (en) * | 2008-03-24 | 2012-01-31 | International Business Machines Corporation | Detection of abandoned and removed objects in a video stream |
US8284249B2 (en) * | 2008-03-25 | 2012-10-09 | International Business Machines Corporation | Real time processing of video frames for triggering an alert |
TWI381717B (zh) * | 2008-03-31 | 2013-01-01 | Univ Nat Taiwan | 數位視訊動態目標物體分割處理方法及系統 |
US9019381B2 (en) * | 2008-05-09 | 2015-04-28 | Intuvision Inc. | Video tracking systems and methods employing cognitive vision |
JP4507129B2 (ja) * | 2008-06-06 | 2010-07-21 | ソニー株式会社 | 追尾点検出装置および方法、プログラム、並びに記録媒体 |
US8595218B2 (en) * | 2008-06-12 | 2013-11-26 | Intellectual Ventures Holding 67 Llc | Interactive display management systems and methods |
US8243991B2 (en) * | 2008-06-17 | 2012-08-14 | Sri International | Method and apparatus for detecting targets through temporal scene changes |
US9633275B2 (en) * | 2008-09-11 | 2017-04-25 | Wesley Kenneth Cobb | Pixel-level based micro-feature extraction |
US8121424B2 (en) * | 2008-09-26 | 2012-02-21 | Axis Ab | System, computer program product and associated methodology for video motion detection using spatio-temporal slice processing |
AU2008264228B2 (en) * | 2008-11-24 | 2010-11-25 | Canon Kabushiki Kaisha | Detection of abandoned and vanished objects |
US9373055B2 (en) * | 2008-12-16 | 2016-06-21 | Behavioral Recognition Systems, Inc. | Hierarchical sudden illumination change detection using radiance consistency within a spatial neighborhood |
US8285046B2 (en) * | 2009-02-18 | 2012-10-09 | Behavioral Recognition Systems, Inc. | Adaptive update of background pixel thresholds using sudden illumination change detection |
TWI376648B (en) * | 2009-02-25 | 2012-11-11 | Micro Star Int Co Ltd | Method and device for keeping image background by multiple gauss models |
US8416296B2 (en) * | 2009-04-14 | 2013-04-09 | Behavioral Recognition Systems, Inc. | Mapper component for multiple art networks in a video analysis system |
JP5305520B2 (ja) * | 2009-05-19 | 2013-10-02 | パナソニック株式会社 | 監視カメラシステム |
US8280153B2 (en) * | 2009-08-18 | 2012-10-02 | Behavioral Recognition Systems | Visualizing and updating learned trajectories in video surveillance systems |
US9805271B2 (en) * | 2009-08-18 | 2017-10-31 | Omni Ai, Inc. | Scene preset identification using quadtree decomposition analysis |
US8493409B2 (en) * | 2009-08-18 | 2013-07-23 | Behavioral Recognition Systems, Inc. | Visualizing and updating sequences and segments in a video surveillance system |
US8358834B2 (en) | 2009-08-18 | 2013-01-22 | Behavioral Recognition Systems | Background model for complex and dynamic scenes |
US20110043689A1 (en) * | 2009-08-18 | 2011-02-24 | Wesley Kenneth Cobb | Field-of-view change detection |
US8295591B2 (en) * | 2009-08-18 | 2012-10-23 | Behavioral Recognition Systems, Inc. | Adaptive voting experts for incremental segmentation of sequences with prediction in a video surveillance system |
US8340352B2 (en) * | 2009-08-18 | 2012-12-25 | Behavioral Recognition Systems, Inc. | Inter-trajectory anomaly detection using adaptive voting experts in a video surveillance system |
US8625884B2 (en) * | 2009-08-18 | 2014-01-07 | Behavioral Recognition Systems, Inc. | Visualizing and updating learned event maps in surveillance systems |
US8379085B2 (en) * | 2009-08-18 | 2013-02-19 | Behavioral Recognition Systems, Inc. | Intra-trajectory anomaly detection using adaptive voting experts in a video surveillance system |
US8744168B2 (en) * | 2009-08-24 | 2014-06-03 | Samsung Electronics Co., Ltd. | Target analysis apparatus, method and computer-readable medium |
US8270732B2 (en) * | 2009-08-31 | 2012-09-18 | Behavioral Recognition Systems, Inc. | Clustering nodes in a self-organizing map using an adaptive resonance theory network |
US8797405B2 (en) * | 2009-08-31 | 2014-08-05 | Behavioral Recognition Systems, Inc. | Visualizing and updating classifications in a video surveillance system |
US8270733B2 (en) * | 2009-08-31 | 2012-09-18 | Behavioral Recognition Systems, Inc. | Identifying anomalous object types during classification |
US8285060B2 (en) * | 2009-08-31 | 2012-10-09 | Behavioral Recognition Systems, Inc. | Detecting anomalous trajectories in a video surveillance system |
US8167430B2 (en) * | 2009-08-31 | 2012-05-01 | Behavioral Recognition Systems, Inc. | Unsupervised learning of temporal anomalies for a video surveillance system |
US8786702B2 (en) | 2009-08-31 | 2014-07-22 | Behavioral Recognition Systems, Inc. | Visualizing and updating long-term memory percepts in a video surveillance system |
US8218819B2 (en) * | 2009-09-01 | 2012-07-10 | Behavioral Recognition Systems, Inc. | Foreground object detection in a video surveillance system |
US8218818B2 (en) * | 2009-09-01 | 2012-07-10 | Behavioral Recognition Systems, Inc. | Foreground object tracking |
US8180105B2 (en) | 2009-09-17 | 2012-05-15 | Behavioral Recognition Systems, Inc. | Classifier anomalies for observed behaviors in a video surveillance system |
US8170283B2 (en) * | 2009-09-17 | 2012-05-01 | Behavioral Recognition Systems Inc. | Video surveillance system configured to analyze complex behaviors using alternating layers of clustering and sequencing |
JP5570176B2 (ja) * | 2009-10-19 | 2014-08-13 | キヤノン株式会社 | 画像処理システム及び情報処理方法 |
JP5495930B2 (ja) * | 2010-05-10 | 2014-05-21 | キヤノン株式会社 | 画像処理装置、方法、およびプログラム |
TWI408623B (zh) * | 2010-08-03 | 2013-09-11 | Wistron Corp | 監視系統及其監視影像錄製方法,及其機器可讀取媒體 |
CN102377984A (zh) * | 2010-08-09 | 2012-03-14 | 纬创资通股份有限公司 | 监视影像录制方法和监视系统以及计算机程序产品 |
JP5704863B2 (ja) * | 2010-08-26 | 2015-04-22 | キヤノン株式会社 | 画像処理装置、画像処理方法及び記憶媒体 |
JP2012212373A (ja) * | 2011-03-31 | 2012-11-01 | Casio Comput Co Ltd | 画像処理装置、画像処理方法及びプログラム |
DE102011075412A1 (de) * | 2011-05-06 | 2012-11-08 | Deutsche Telekom Ag | Verfahren und System zum Erfassen einer statischen Szene, zum Bestimmen von Rohereignissen und zum Erkennen von freien Flächen in einem Beobachtungsgebiet |
WO2012170898A2 (en) * | 2011-06-09 | 2012-12-13 | Utah State University Research Foundation | Systems and methods for sensing occupancy |
US11025865B1 (en) * | 2011-06-17 | 2021-06-01 | Hrl Laboratories, Llc | Contextual visual dataspaces |
WO2013013082A1 (en) * | 2011-07-19 | 2013-01-24 | Utah State University Research Foundation | Systems, devices, and methods for multi-occupant tracking |
US20140226867A1 (en) * | 2011-07-19 | 2014-08-14 | Utah State University | Systems, devices, and methods for monitoring and controlling a controlled space |
CN103020980A (zh) * | 2011-09-20 | 2013-04-03 | 佳都新太科技股份有限公司 | 一种基于改进双层码本模型的运动目标检测方法 |
US8873852B2 (en) * | 2011-09-29 | 2014-10-28 | Mediatek Singapore Pte. Ltd | Method and apparatus for foreground object detection |
KR101870902B1 (ko) * | 2011-12-12 | 2018-06-26 | 삼성전자주식회사 | 영상 처리 장치 및 영상 처리 방법 |
AU2011265429B2 (en) * | 2011-12-21 | 2015-08-13 | Canon Kabushiki Kaisha | Method and system for robust scene modelling in an image sequence |
US9349275B2 (en) | 2012-03-15 | 2016-05-24 | Behavorial Recognition Systems, Inc. | Alert volume normalization in a video surveillance system |
US9185456B2 (en) | 2012-03-27 | 2015-11-10 | The Nielsen Company (Us), Llc | Hybrid active and passive people metering for audience measurement |
US8737745B2 (en) | 2012-03-27 | 2014-05-27 | The Nielsen Company (Us), Llc | Scene-based people metering for audience measurement |
US8682036B2 (en) | 2012-04-06 | 2014-03-25 | Xerox Corporation | System and method for street-parking-vehicle identification through license plate capturing |
US9367966B2 (en) | 2012-04-06 | 2016-06-14 | Xerox Corporation | Smartphone augmented video-based on-street parking management system |
US20130265423A1 (en) * | 2012-04-06 | 2013-10-10 | Xerox Corporation | Video-based detector and notifier for short-term parking violation enforcement |
US9113143B2 (en) | 2012-06-29 | 2015-08-18 | Behavioral Recognition Systems, Inc. | Detecting and responding to an out-of-focus camera in a video analytics system |
US9317908B2 (en) | 2012-06-29 | 2016-04-19 | Behavioral Recognition System, Inc. | Automatic gain control filter in a video analysis system |
US9723271B2 (en) | 2012-06-29 | 2017-08-01 | Omni Ai, Inc. | Anomalous stationary object detection and reporting |
WO2014004901A1 (en) | 2012-06-29 | 2014-01-03 | Behavioral Recognition Systems, Inc. | Unsupervised learning of feature anomalies for a video surveillance system |
US9911043B2 (en) | 2012-06-29 | 2018-03-06 | Omni Ai, Inc. | Anomalous object interaction detection and reporting |
US9111353B2 (en) | 2012-06-29 | 2015-08-18 | Behavioral Recognition Systems, Inc. | Adaptive illuminance filter in a video analysis system |
BR112015003444A2 (pt) * | 2012-08-20 | 2017-07-04 | Behavioral Recognition Sys Inc | método e sistema para detectar óleo em superfície de mar |
US10678259B1 (en) * | 2012-09-13 | 2020-06-09 | Waymo Llc | Use of a reference image to detect a road obstacle |
US9213781B1 (en) | 2012-09-19 | 2015-12-15 | Placemeter LLC | System and method for processing image data |
AU2012227263A1 (en) * | 2012-09-21 | 2014-04-10 | Canon Kabushiki Kaisha | Differentiating abandoned and removed object using temporal edge information |
BR112015010384A2 (pt) | 2012-11-12 | 2017-07-11 | Behavioral Recognition Sys Inc | técnicas de estabilização de imagem para sistemas de vigilância por vídeo |
CN103034997B (zh) * | 2012-11-30 | 2017-04-19 | 北京博创天盛科技有限公司 | 一种适用于监控视频前/背景分离的前景检测方法 |
US9020190B2 (en) * | 2013-01-31 | 2015-04-28 | International Business Machines Corporation | Attribute-based alert ranking for alert adjudication |
EP3031004A4 (en) | 2013-08-09 | 2016-08-24 | Behavioral Recognition Sys Inc | SECURITY OF COGNITIVE INFORMATION USING BEHAVIOR RECOGNITION SYSTEM |
CN103473547A (zh) * | 2013-09-23 | 2013-12-25 | 百年金海科技有限公司 | 一种用于智能交通检测系统的车辆目标物识别算法 |
AU2013273784B2 (en) * | 2013-12-20 | 2016-06-02 | Canon Kabushiki Kaisha | Method, system and apparatus for updating a scene model |
US20150189191A1 (en) * | 2013-12-27 | 2015-07-02 | Telemetrio LLC | Process and system for video production and tracking of objects |
EP3149909A4 (en) | 2014-05-30 | 2018-03-07 | Placemeter Inc. | System and method for activity monitoring using video data |
US9245187B1 (en) | 2014-07-07 | 2016-01-26 | Geo Semiconductor Inc. | System and method for robust motion detection |
CN104574351B (zh) * | 2014-08-06 | 2017-07-11 | 深圳市捷顺科技实业股份有限公司 | 一种基于视频处理的车位检测方法 |
US9460522B2 (en) * | 2014-10-29 | 2016-10-04 | Behavioral Recognition Systems, Inc. | Incremental update for background model thresholds |
US9471844B2 (en) * | 2014-10-29 | 2016-10-18 | Behavioral Recognition Systems, Inc. | Dynamic absorption window for foreground background detector |
US9349054B1 (en) | 2014-10-29 | 2016-05-24 | Behavioral Recognition Systems, Inc. | Foreground detector for video analytics system |
CN104378593A (zh) * | 2014-11-17 | 2015-02-25 | 苏州立瓷电子技术有限公司 | 基于数据预处理和轮换存储的监控系统的智能控制方法 |
US10110856B2 (en) | 2014-12-05 | 2018-10-23 | Avigilon Fortress Corporation | Systems and methods for video analysis rules based on map data |
US10409909B2 (en) | 2014-12-12 | 2019-09-10 | Omni Ai, Inc. | Lexical analyzer for a neuro-linguistic behavior recognition system |
US10409910B2 (en) | 2014-12-12 | 2019-09-10 | Omni Ai, Inc. | Perceptual associative memory for a neuro-linguistic behavior recognition system |
AU2014280948A1 (en) | 2014-12-24 | 2016-07-14 | Canon Kabushiki Kaisha | Video segmentation method |
US9922271B2 (en) | 2015-03-20 | 2018-03-20 | Netra, Inc. | Object detection and classification |
US9760792B2 (en) | 2015-03-20 | 2017-09-12 | Netra, Inc. | Object detection and classification |
US10380430B2 (en) | 2015-04-17 | 2019-08-13 | Current Lighting Solutions, Llc | User interfaces for parking zone creation |
EP3283972A4 (en) * | 2015-04-17 | 2018-08-29 | General Electric Company | Identifying and tracking vehicles in motion |
US10043307B2 (en) | 2015-04-17 | 2018-08-07 | General Electric Company | Monitoring parking rule violations |
US10043078B2 (en) | 2015-04-21 | 2018-08-07 | Placemeter LLC | Virtual turnstile system and method |
US11334751B2 (en) | 2015-04-21 | 2022-05-17 | Placemeter Inc. | Systems and methods for processing video data for activity monitoring |
US10997428B2 (en) | 2015-06-01 | 2021-05-04 | Placemeter Inc. | Automated detection of building entrances |
US10468065B2 (en) | 2015-10-28 | 2019-11-05 | Ustudio, Inc. | Video frame difference engine |
KR101866660B1 (ko) * | 2016-10-19 | 2018-06-12 | 한국과학기술원 | 동적인 환경에서 배경모델에 기반한 rgb-d 시각 주행 거리 측정 방법 및 장치 |
CN107066929B (zh) * | 2017-01-06 | 2021-06-08 | 重庆大学 | 一种融合多种特征的高速公路隧道停车事件分级识别方法 |
US10755419B2 (en) * | 2017-01-30 | 2020-08-25 | Nec Corporation | Moving object detection apparatus, moving object detection method and program |
US10049308B1 (en) * | 2017-02-21 | 2018-08-14 | A9.Com, Inc. | Synthesizing training data |
US10438072B2 (en) | 2017-02-27 | 2019-10-08 | Echelon Corporation | Video data background tracking and subtraction with multiple layers of stationary foreground and background regions |
CN107220653B (zh) * | 2017-04-11 | 2020-11-06 | 中国海洋大学 | 基于逻辑随机共振的水下弱目标检测系统的检测方法 |
US10373316B2 (en) * | 2017-04-20 | 2019-08-06 | Ford Global Technologies, Llc | Images background subtraction for dynamic lighting scenarios |
CA3114721A1 (en) | 2018-09-28 | 2020-04-02 | I.D. Systems, Inc. | Cargo sensors, cargo-sensing units, cargo-sensing systems, and methods of using the same |
US11312594B2 (en) | 2018-11-09 | 2022-04-26 | Otis Elevator Company | Conveyance system video analytics |
CN109697725B (zh) * | 2018-12-03 | 2020-10-02 | 浙江大华技术股份有限公司 | 一种背景过滤方法、装置及计算机可读存储介质 |
WO2020118430A1 (en) | 2018-12-12 | 2020-06-18 | Avigilon Corporation | Object left behind detection |
US11126861B1 (en) | 2018-12-14 | 2021-09-21 | Digimarc Corporation | Ambient inventorying arrangements |
CN111665522B (zh) * | 2020-05-19 | 2022-12-16 | 上海有个机器人有限公司 | 过滤激光扫描图中静止物体的方法、介质、终端和装置 |
EP3985957B1 (en) * | 2020-10-14 | 2022-11-30 | Axis AB | Method and system for motion segmentation |
CN112819843B (zh) * | 2021-01-20 | 2022-08-26 | 上海大学 | 一种夜间电力线的提取方法及系统 |
DE102022202942A1 (de) | 2022-03-25 | 2023-09-28 | Robert Bosch Gesellschaft mit beschränkter Haftung | Überwachungsvorrichtung, Überwachungsanordnungen, Verfahren, Computerprogramm und Speichermedium |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05266198A (ja) * | 1992-03-24 | 1993-10-15 | N T T Data Tsushin Kk | 物体検出装置 |
US5812787A (en) * | 1995-06-30 | 1998-09-22 | Intel Corporation | Video coding scheme with foreground/background separation |
US6078619A (en) * | 1996-09-12 | 2000-06-20 | University Of Bath | Object-oriented video system |
US5764306A (en) * | 1997-03-18 | 1998-06-09 | The Metaphor Group | Real-time method of digitally altering a video data stream to remove portions of the original image and substitute elements to create a new image |
KR100224752B1 (ko) * | 1997-06-11 | 1999-10-15 | 윤종용 | 표적 추적 방법 및 장치 |
US6211913B1 (en) * | 1998-03-23 | 2001-04-03 | Sarnoff Corporation | Apparatus and method for removing blank areas from real-time stabilized images by inserting background information |
US6292575B1 (en) * | 1998-07-20 | 2001-09-18 | Lau Technologies | Real-time facial recognition and verification system |
US6542621B1 (en) * | 1998-08-31 | 2003-04-01 | Texas Instruments Incorporated | Method of dealing with occlusion when tracking multiple objects and people in video sequences |
US6570608B1 (en) * | 1998-09-30 | 2003-05-27 | Texas Instruments Incorporated | System and method for detecting interactions of people and vehicles |
WO2000034919A1 (en) * | 1998-12-04 | 2000-06-15 | Interval Research Corporation | Background estimation and segmentation based on range and color |
US6424370B1 (en) * | 1999-10-08 | 2002-07-23 | Texas Instruments Incorporated | Motion based event detection system and method |
JP3966673B2 (ja) * | 1999-10-26 | 2007-08-29 | 本田技研工業株式会社 | 物体検知装置および車両の走行安全装置 |
US6674877B1 (en) * | 2000-02-03 | 2004-01-06 | Microsoft Corporation | System and method for visually tracking occluded objects in real time |
US6731799B1 (en) * | 2000-06-01 | 2004-05-04 | University Of Washington | Object segmentation with background extraction and moving boundary techniques |
US7215795B2 (en) * | 2000-09-28 | 2007-05-08 | Hitachi Kokusai Electric Inc. | Intruding object detecting method and intruding object monitoring apparatus employing the method |
JP2002150295A (ja) * | 2000-11-09 | 2002-05-24 | Oki Electric Ind Co Ltd | 物体検出方法及び物体検出装置 |
US6731805B2 (en) * | 2001-03-28 | 2004-05-04 | Koninklijke Philips Electronics N.V. | Method and apparatus to distinguish deposit and removal in surveillance video |
JP2002329196A (ja) * | 2001-04-27 | 2002-11-15 | Ntt Power & Building Facilities Inc | 待ち時間検出システム |
-
2003
- 2003-01-30 US US10/354,096 patent/US6999600B2/en not_active Expired - Lifetime
- 2003-12-23 CN CNB2003801101194A patent/CN100386771C/zh not_active Expired - Lifetime
- 2003-12-23 AT AT03815787T patent/ATE548706T1/de active
- 2003-12-23 ES ES03815787T patent/ES2383174T3/es not_active Expired - Lifetime
- 2003-12-23 KR KR1020057014103A patent/KR20060012570A/ko not_active Application Discontinuation
- 2003-12-23 EP EP03815787A patent/EP1588317B1/en not_active Expired - Lifetime
- 2003-12-23 DK DK03815787.1T patent/DK1588317T3/da active
- 2003-12-23 AU AU2003300337A patent/AU2003300337A1/en not_active Abandoned
- 2003-12-23 MX MXPA05008201A patent/MXPA05008201A/es active IP Right Grant
- 2003-12-23 JP JP2004568046A patent/JP2006514363A/ja active Pending
- 2003-12-23 WO PCT/US2003/041159 patent/WO2004070649A1/en active Application Filing
- 2003-12-23 CA CA002514826A patent/CA2514826A1/en not_active Abandoned
-
2006
- 2006-10-03 HK HK06110931A patent/HK1088968A1/xx not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
WO2004070649A1 (en) | 2004-08-19 |
KR20060012570A (ko) | 2006-02-08 |
AU2003300337A1 (en) | 2004-08-30 |
CA2514826A1 (en) | 2004-08-19 |
US20040151342A1 (en) | 2004-08-05 |
DK1588317T3 (da) | 2012-04-30 |
HK1088968A1 (en) | 2006-11-17 |
EP1588317A4 (en) | 2009-05-06 |
JP2006514363A (ja) | 2006-04-27 |
US6999600B2 (en) | 2006-02-14 |
ATE548706T1 (de) | 2012-03-15 |
EP1588317A1 (en) | 2005-10-26 |
CN100386771C (zh) | 2008-05-07 |
MXPA05008201A (es) | 2006-03-30 |
EP1588317B1 (en) | 2012-03-07 |
CN1757037A (zh) | 2006-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2383174T3 (es) | Mantenimiento de fondo de escena de video utilizando detección y clasificación de cambios | |
TWI362016B (en) | Method for detecting desired objects in a highly dynamic environment by a monitoring system and the monitoring system thereof | |
Piccinini et al. | Reliable smoke detection in the domains of image energy and color | |
Haritaoglu et al. | A fast background scene modeling and maintenance for outdoor surveillance | |
Mishra et al. | A study on video surveillance system for object detection and tracking | |
Davis et al. | Background-subtraction in thermal imagery using contour saliency | |
US20150015787A1 (en) | Automatic extraction of secondary video streams | |
Ferone et al. | Neural background subtraction for pan-tilt-zoom cameras | |
WO2012022744A2 (en) | Multi-mode video event indexing | |
Xu et al. | Segmentation and tracking of multiple moving objects for intelligent video analysis | |
Ng et al. | Background subtraction using a pixel-wise adaptive learning rate for object tracking initialization | |
Jeyabharathi et al. | Vehicle Tracking and Speed Measurement system (VTSM) based on novel feature descriptor: Diagonal Hexadecimal Pattern (DHP) | |
Lou et al. | An illumination invariant change detection algorithm | |
Lalonde et al. | A system to automatically track humans and vehicles with a PTZ camera | |
Almomani et al. | Segtrack: A novel tracking system with improved object segmentation | |
Hati et al. | LOBS: Local background subtracter for video surveillance | |
Buch et al. | Local feature saliency classifier for real-time intrusion monitoring | |
Doulamis et al. | Self Adaptive background modeling for identifying persons' falls | |
Colombari et al. | Exemplar-based background model initialization | |
Senior | An introduction to automatic video surveillance | |
Kaur | Background subtraction in video surveillance | |
Mahajan et al. | 3D Object 360-Degree Motion Detection Using Ultra-Frequency PIR Sensor | |
Bou et al. | Reviewing ViBe, a popular background subtraction algorithm for real-time applications | |
Iosifidis et al. | Real-time video surveillance by a hybrid static/active camera mechatronic system | |
AU2017265110A1 (en) | Method for segmenting video using background model learned with pixelwise adaptive learning rate |