ES2321403T3 - Analizador de contenido de video con detector de cambio de escena. - Google Patents

Analizador de contenido de video con detector de cambio de escena. Download PDF

Info

Publication number
ES2321403T3
ES2321403T3 ES04704415T ES04704415T ES2321403T3 ES 2321403 T3 ES2321403 T3 ES 2321403T3 ES 04704415 T ES04704415 T ES 04704415T ES 04704415 T ES04704415 T ES 04704415T ES 2321403 T3 ES2321403 T3 ES 2321403T3
Authority
ES
Spain
Prior art keywords
video
image
channel
images
video image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES04704415T
Other languages
English (en)
Inventor
Therman Ward Mckay, Iii
Gene Arthur Grindstaff
Susan Heath Calvin Fletcher
Sheila G. Whitaker
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intergraph Corp
Original Assignee
Intergraph Software Technologies Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intergraph Software Technologies Co filed Critical Intergraph Software Technologies Co
Application granted granted Critical
Publication of ES2321403T3 publication Critical patent/ES2321403T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/12Systems in which the television signal is transmitted via one channel or a plurality of parallel channels, the bandwidth of each channel being less than the bandwidth of the television signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Glass Compositions (AREA)
  • Spectrometry And Color Measurement (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

Un procedimiento para demultiplexar imágenes de vídeo de un flujo de vídeo multiplexado por división de tiempo, estando producidas las imágenes de vídeo por una pluralidad de cámaras, comprendiendo el procedimiento: recibir al menos una parte del flujo de vídeo multiplexado por división de tiempo compuesto por una pluralidad de imágenes de vídeo en un procesador; analizar una primera imagen de vídeo del flujo de vídeo multiplexado por división de tiempo; analizar una segunda imagen de vídeo del flujo de vídeo multiplexado por división de tiempo; y determinar una cantidad de no correspondencia entre las imágenes de vídeo primera y segunda y caracterizado por la etapa de, si la no correspondencia es inferior a un umbral de no correspondencia, asignar las imágenes de vídeo primera y segunda a un primer canal, en el que la segunda imagen se convierte en una imagen de referencia para el primer canal, y porque las imágenes de vídeo primera y segunda se analizan sin referencia a una fuente.

Description

Analizador de contenido de vídeo con detector de cambio de escena.
En general, los sistemas de vigilancia por cámara analógica producen una salida multiplexada por división de tiempo que se almacena en una cinta. Las cámaras se acoplan a un multiplexor que conmuta a intervalos predeterminados entre las cámaras. Tales sistemas tienen una primera cámara que emite una imagen en T0 y una segunda cámara que emite una imagen en T1, etc. Como tal, la cinta de salida contiene imágenes de cada una de las cámaras en secuencia. La multiplexación por división de tiempo permite que grandes cantidades de información se almacenen. Sin embargo, si se produce un evento que requiere que la cinta de vídeo se revise, encontrar un incidente particular y demultiplexar la cinta se convierte en una tarea difícil y que lleva mucho tiempo.
Incluso si se usan cámaras digitales y se produce una salida digital, el flujo digital multiplexado requiere mucha intervención humana para identificar un evento. Por tanto, hay necesidad de un sistema automático para demultiplexar un flujo de vídeo.
Un procedimiento y dispositivo para captura de vídeo digital se da a conocer por Hsiao y Yang en la solicitud de patente estadounidense número US 2002/0168181. Este procedimiento y dispositivo pueden partir datos de vídeo en varios archivos de vídeo completos y almacenan tramas de la misma escena en el mismo archivo de vídeo.
Sumario de la invención
Según un aspecto de la invención, un flujo de película multiplexado (por ejemplo, vídeo) se demultiplexa en tiempo real usando técnicas de reconocimiento de imagen. En algunas realizaciones, imágenes de película almacenadas de canales diferentes pueden verse simultáneamente en la misma imagen avanzando hasta una imagen dada de sólo un canal
almacenado. El flujo de película contiene una o más imágenes de cada una de una pluralidad de fuentes de cámara.
Realizaciones ilustrativas de la invención se implementan como un producto de programa informático que tiene un medio utilizable por ordenador con código de programa legible por ordenador en el mismo. El código legible por ordenador puede leerse y utilizarse por un sistema informático según procesos convencionales.
Según un primer aspecto de la invención, se proporciona un procedimiento según la reivindicación 1, en el que el procedimiento es para demultiplexar imágenes de vídeo en un flujo de vídeo.
Según un segundo aspecto de la invención, se proporciona un producto de programa informático según la reivindicación 19.
Breve descripción de los dibujos
Las características de la invención se entenderán más fácilmente por referencia a la siguiente descripción detallada, tomada con referencia a los dibujos adjuntos, en los que:
la figura 1 muestra un entorno para implementar una primera realización para demultiplexar imágenes de vídeo;
la figura 1A es un diagrama de flujo que ilustra la demultiplexación de imágenes de vídeo de una pluralidad de cámaras en un flujo de imágenes de vídeo;
la figura 1B es un diagrama de flujo que ilustra aspectos adicionales de demultiplexación de imágenes de vídeo en el que las imágenes se submuestrean;
la figura 1C es un diagrama de flujo que ilustra aspectos adicionales de demultiplexación de imágenes de vídeo en el que se comparan subsecciones de las imágenes;
la figura 1D es una captura de pantalla que muestra una pantalla gráfica de vistas de múltiples cámaras;
la figura 2A representa una imagen de referencia según se visualiza sobre un dispositivo de pantalla y la caja destacada indica la zona definida por el usuario;
la figura 2B representa la imagen actual según se visualiza sobre un dispositivo de pantalla y muestra que la misma zona definida por el usuario que la de la figura 2A se usa para su comparación;
la figura 3 muestra tres cámaras (cámara 1, cámara 2, y cámara 3) que producen una secuencia de imágenes de vídeo multiplexadas en las que una imagen de cada cámara se añade a la secuencia con el tiempo;
la figura 3A muestra una representación temporal de imágenes de las cámaras 1-3;
la figura 3B muestra temporalmente el desplazamiento en píxeles para la cámara 1 desde el tiempo T0 hasta el tiempo T3;
la figura 4 muestra una región de interés seleccionada por el usuario en la que la región contiene un fecha y hora visualizada; y
la figura 5 es una realización de la invención en la que se construyen módulos en hardware para realizar las funciones del procedimiento dado a conocer.
Descripción detallada de realizaciones específicas
Como se usa en el siguiente texto, el término "vídeo digital" implica una representación digital de una secuencia de imágenes que puede visualizarse temporalmente sobre un dispositivo de pantalla. Normalmente, el vídeo digital contiene una pluralidad de tramas en la que cada trama representa una imagen separada. Las tramas pueden subdividirse además de modo que las tramas están constituidas por una serie de píxeles. Como se usa en la siguiente descripción, el término "píxel" significa un único punto de una imagen. A mayor número de píxeles que están contenidos en una imagen, mayor la resolución del vídeo. Se hace referencia a las resoluciones de forma convencional mediante medidas de longitud y ancho del número de píxeles, por ejemplo, en una resolución de 800x600, hay 800 píxeles a lo largo de la longitud de una imagen por 600 píxeles a lo largo del ancho de la imagen.
Un "canal" según se define en el presente documento es o bien una separación física o bien virtual de información que permite que la información se almacene y recupere de la memoria. Por ejemplo, un canal puede ser una ubicación de almacenamiento designada en la memoria que está asociada con una cámara particular. De forma similar, un canal puede simplemente ser la asociación de información con un trazador, tal como un número o nombre de cámara.
En una realización de la presente invención, imágenes de vídeo en un flujo de imágenes formadas de una pluralidad de fuentes de vídeo se demultiplexan de modo que las imágenes de una fuente dada pueden recopilarse, analizarse y verse.
La figura 1 muestra un entorno para implementar una realización de la invención. En la figura 1 se muestra una pluralidad de cámaras (Cámara A, Cámara B, y Cámara C). Cada cámara produce una señal de vídeo que contiene información de vídeo que se multiplexa junta y se almacena o bien en un formato digital en la memoria asociada con un procesador 20 o en formato digital o analógico en una cinta 25. La información multiplexada puede contener información de cabecera para identificar la fuente, pero la presente invención no necesita información de cabecera para demultiplexar la información. De hecho, si existe información de cabecera, la presente invención según se describe o bien eliminará la información de cabecera o bien omitirá la información de cabecera y sólo procesará la información que forma una imagen. La información multiplexada se demultiplexa a continuación por el procesador. Si la información de vídeo está en un formato analógico, la información primero se digitaliza en un proceso de conversión analógico a digital que es bien conocido por los expertos en la técnica. Después de digitalizar la información de vídeo, la secuencia de datos digitales se transfiere a un procesador. Las imágenes pueden estar comprimidas o descomprimidas o en formato de campo o trama. Si la información está comprimida el procesador descomprimirá las imágenes antes de demultiplexar el flujo de imagen de vídeo. De forma similar, el vídeo digital puede estar en cualquiera de un número de representaciones de espacio de color incluyendo RGB y YUV. El procesador puede demultiplexar la información en tiempo real, de modo que a medida que la información se captura de las cámaras y se multiplexa junta, la información puede proporcionarse en flujo continuo al procesador y demultiplexarse. De forma similar, el flujo de información puede en primer lugar almacenarse en memoria y entonces proporcionarse al procesador.
El procesador realiza la operación según se describe con respecto a los diagramas de flujo de la figura 1A para demultiplexar el flujo de imagen de vídeo. El flujo de imagen de vídeo puede demultiplexarse sin intervención del usuario y bajo control total del procesador. En ciertas realizaciones, un usuario puede cambiar parámetros o reiniciar el sistema o seleccionar manualmente imágenes que van a asociarse con un canal separado. Sin embargo, incluso en este tipo de una realización, el sistema puede procesar automáticamente el flujo de imagen.
Debería entenderse que dentro de esta descripción el término trama se usará para referirse a una imagen de vídeo que va a visualizarse durante un periodo de tiempo designado. La descripción es igualmente aplicable a campos de vídeo que normalmente se producen para dispositivos de pantalla que visualizan imágenes entrelazadas.
Según se muestra en la figura 1A, se identifica una primera imagen de vídeo en un flujo de vídeo 110. Según se planteó previamente, el flujo de vídeo puede provenir directamente de una pluralidad de cámaras después de que las imágenes de las cámaras se han multiplexado o el flujo de vídeo puede provenir de la memoria que se incorpora en el procesador. La primera imagen de vídeo en el flujo de vídeo se analiza y se almacena en una ubicación de memoria asociada con el procesador. El procesador asocia la primera imagen de vídeo con una primera cámara y la imagen se marca como una imagen de referencia para la primera cámara 120. Como una imagen de referencia para una cámara, la imagen se usa para comparaciones con imágenes en el flujo de vídeo según se expone a continuación.
La siguiente imagen ("imagen actual") se identifica en el flujo de vídeo 130. Los datos de imagen se analizan y se almacenan en la memoria asociada con el procesador. El procesador entonces recuerda todas las imágenes de referencia y la imagen actual y compara los datos de imagen 140. Durante esta comparación se calcula un valor de no correspondencia. El valor de no correspondencia puede ser el porcentaje de error entre píxeles de una imagen de referencia y la imagen actual. El valor de no correspondencia puede calcularse en cualquier número de formas siempre que sea una comparación entre la cantidad de información compartida entre la imagen de referencia y la imagen actual. Por ejemplo, pueden calcularse proporciones de diferencia entre la imagen actual y cada imagen de referencia de una fuente identificada (cámara). La suma del valor absoluto de la diferencia entre los píxeles de la imagen actual y los píxeles de la imagen de referencia se calcula y entonces se divide por la suma de los valores de intensidad de los píxeles de la imagen actual. Esta proporción representa la diferencia entre la imagen actual y una imagen de referencia de cámara dada.
Para cada imagen de referencia y la imagen actual se calcula un valor de no correspondencia separado. En el diagrama de flujo, en esta fase, sólo hay una única imagen de referencia, puesto que sólo se ha identificado una cámara, pero al identificarse más imágenes como provenientes de cámaras de referencia diferentes, se asociará una trama de referencia con cada cámara.
El procesador identifica entonces automáticamente si cualquiera de los valores de no correspondencia determinados es inferior a un umbral de no correspondencia 145. Aunque el término inferior se usa, el término igual a o inferior puede sustituirse sin apartarse del ámbito de la invención. Además, el proceso de comparación supone que los valores de no correspondencia se proporcionan en una escala en la que un valor inferior indica que la imagen representativa y la imagen actual comparten más información en común que si el valor de no correspondencia fuera superior. Debería entenderse que podría implementarse una escala inversa en la que a mayor el valor de no correspondencia, más información que se comparte entre la imagen actual y la imagen representativa. En una situación de este tipo todas las comparaciones se invertirían.
Si los valores de no correspondencia son inferiores a un umbral de no correspondencia, la imagen actual está asociada con la cámara (imagen de referencia) que tiene el valor de no correspondencia más bajo 157. La imagen actual se convierte entonces en la imagen de referencia para la cámara y reemplaza a la imagen de referencia previa 160. Si ninguno de los valores de no correspondencia es inferior al umbral de no correspondencia, entonces el procesador compara los valores de no correspondencia con un umbral de descarte 147. El umbral de descarte se usa sólo para fines de comparación una vez que una imagen se ha asociado con todos los canales/cámaras.
Si todos los valores de no correspondencia no son superiores a un umbral de descarte, el procesador asigna la imagen de vídeo actual a una nueva cámara 150. Por ejemplo, la imagen actual se asociaría con la cámara número dos, como la primera imagen de referencia se asoció con la cámara número uno. En el proceso de asignar la imagen de vídeo actual a una nueva cámara, la imagen actual puede dotarse de una cabecera que indica que la imagen actual es de la segunda cámara. El procesador puede también almacenar la imagen actual en una ubicación de memoria asociada con la segunda imagen. La ubicación de memoria puede ser memoria compartida con las otras cámaras o puede ser memoria separada que se usa exclusivamente para la cámara dos. Si la memoria es memoria compartida, el procesador construirá una LUT (tabla de consulta) para asociar los datos de imagen con una cámara particular de modo que las imágenes para la cámara pueden recuperarse y visualizarse. Si todos los valores de no correspondencia son superiores al umbral de descarte, el sistema puede entonces descartar automáticamente la imagen de vídeo actual 155. La imagen puede almacenarse y guardarse en una ubicación de memoria separada para revisión adicional. En otras realizaciones, la imagen se descarta y no se almacena.
Si la imagen de vídeo actual se asigna a una nueva cámara, el procesador identifica la imagen actual como la imagen de referencia para la nueva cámara 160.
El procesador comprueba entonces si hay alguna imagen más y si no hay ninguna, el proceso finaliza 165. Si hay imágenes adicionales, se recupera una nueva imagen y el proceso continúa. Al continuar el proceso, más imágenes actuales se asignan a nuevas cámaras, hasta que todas las cámaras en el sistema tienen una imagen de referencia asociada. El procesador puede o bien programarse con el número total de cámara o el procesador puede determinar automáticamente el número total de cámaras. En la industria de vigilancia, el vídeo multiplexado se multiplexa de modo que una imagen o múltiples imágenes de cada cámara se almacenan de manera secuencial (cámara 1, cámara 2, etc.) dentro del flujo de vídeo. Por ejemplo, si hay tres cámaras, una imagen de cada cámara puede almacenarse en el flujo, de modo que la primera imagen se toma en T0 y la segunda imagen en T1 y la tercera en T2. En otras realizaciones, ciertas cámaras pueden añadir más de una imagen al flujo de vídeo antes de que otras cámaras añadan imágenes. Por ejemplo, la cámara 1 puede proporcionar 3 imágenes tomadas en T0, T1 y T2 al flujo de vídeo y entonces la cámara 2 proporciona una imagen en T3 y la cámara 3 en T4. Como resultado, después de que el procesador procese las primeras pocas imágenes usando el procedimiento según se describe anteriormente para demultiplexar el flujo de vídeo, todas las cámaras se identifican normalmente. Si una cámara, tal como la primera cámara tiene un número predeterminado de imágenes asociadas con ella, por ejemplo, 10 imágenes, el procesador puede entonces contar el número total de cámaras que tienen imágenes asignadas. Puesto que múltiples imágenes se han asociado con una cámara (la primera cámara), es muy probable que se hayan procesado las imágenes para todas las cámaras y que el flujo de vídeo multiplexado haya hecho un bucle y vuelto a la primera cámara.
Para aumentar la velocidad de procesamiento del flujo de vídeo, las imágenes pueden submuestrearse. Las imágenes pueden submuestrearse tanto en las direcciones horizontal como vertical antes de que las imágenes se comparen. En una realización, la imagen que puede ser una trama NTSC se reduce en tamaño, por ejemplo a 1/8 del tamaño original antes de su almacenamiento. La reducción del tamaño de imagen puede conseguirse simplemente eliminando píxeles. Por ejemplo, para reducir el número de píxeles en un factor de 4 para una imagen de 800 x 600 píxeles, podrían eliminarse uno de cada dos píxeles de modo que hubiere 400 x 300 píxeles. En un ejemplo adicional, la imagen puede codificarse mediante transformada, usando una transformada de Fourier u otras y entonces submuestrearse en el dominio de la frecuencia. En otra realización, los datos pueden reducirse a través de cálculo de promedio. Por ejemplo, cada ocho columnas de ocho píxeles podrían promediarse de modo que 64 píxeles se reducen a un píxel.
Este submuestreo se muestra en la figura 1B. Tanto la imagen de referencia como la imagen actual se submuestrean antes de su comparación 125B, 135B. Las imágenes de vídeo pueden almacenarse en su totalidad con toda su información de píxeles para fines de visualización, pero las imágenes se submuestrean para aumentar la velocidad del proceso de comparación. Adicionalmente la figura 1C muestra que una sección de los datos de imagen puede usarse para el proceso de comparación en vez de usar todos los datos de imagen visualizables 125C, 135C. Un usuario del sistema puede preseleccionar, o el sistema puede preseleccionar, una sección de los datos de imagen que va a compararse. Cuando se usa el término sección en esta solicitud, el término implica que los datos de imagen se visualizan sobre un dispositivo de pantalla y se selecciona un bloque u otra forma de modo que se seleccionan menos que todos los datos de imagen. Si la sección está predeterminada, los datos de imagen no necesitan visualizarse sobre un dispositivo de pantalla. Los datos de imagen se seleccionarán basándose en la ubicación de dirección que está asociada con la sección del dispositivo de pantalla que el usuario desea que se compare.
Un experto en la técnica debería entender que tanto el submuestreo como también la selección de una subsección de una imagen pueden usarse en combinación para aumentar adicionalmente la velocidad para comparar imágenes y demultiplexar el flujo de imagen.
En ciertas realizaciones, antes de la comparación entre las imágenes de referencia y la imagen actual, la zona seleccionada de las imágenes se normaliza para eliminar cualquier cambio en brillo/intensidad de la comparación. Por ejemplo, se calculan el valor de intensidad promedio para los píxeles en la zona seleccionada por el usuario en la imagen de referencia y la misma zona en la imagen actual. El valor de intensidad promedio se resta de cada uno de los valores de intensidad de píxel. Esta etapa normaliza los valores teniendo en cuenta cualquier cambio en brillo, tal como destellos repentinos de luz. Por tanto, sólo se compara el valor absoluto de la variación alrededor de la media de las dos imágenes. Por ejemplo, si una cámara está monitorizando un cajero automático y un coche se aproxima a la máquina en la que los faros del coche repentinamente iluminan la zona de visión, este cambio de iluminación se tendrá en cuenta. Esta normalización puede también realizarse de cualquiera de un número de formas conocidas en la técnica, incluyendo usar el valor RMS como opuesto a la intensidad promedio para la zona seleccionada por el usuario.
Durante el curso de la demultiplexación de las imágenes, el proceso de demultiplexación puede visualizarse sobre un dispositivo 800 de pantalla. Las imágenes que están asociadas con una cámara se visualizan en ventanas 810 separadas. La imagen de referencia se visualiza en la ventana para cada una de las cámaras según se muestra en la figura 1D. Visualizando continuamente y volviendo a guardar la imagen de referencia para cada cámara, se mantiene la sincronización temporal entre cada una de las diversas cámaras. Por ejemplo para cada ciclo a través de un sistema de vigilancia por división de tiempo de cuatro cámaras en el que la cámara uno captura tres imágenes antes de que la cámara dos tome una imagen, y ambas cámaras tres y cuatro toman una imagen cada una, cada canal asociado con una cámara tendrá seis imágenes guardadas. La cámara uno tendrá las imágenes visualizadas en T0, T1, y T2 seguidas por la imagen de T2 repetida tres veces adicionales. La cámara 2 tendrá tres imágenes en blanco y entonces su imagen en T3 que se repite dos veces adicionales. La cámara tres tendría cuatro imágenes en blanco almacenadas seguidas por la imagen en T4 que se repite dos veces y la cámara cuatro tendría cinco imágenes en blanco seguidas por la imagen tomada en T5. Esto tiene en cuenta el primer ciclo a través de las cámaras. En ciclos subsiguientes, la trama de referencia se repetiría hasta que una nueva trama actual se asocie con la cámara y la trama de referencia se actualice. Como tal, aparecerían imágenes para todas las cámaras en el dispositivo de pantalla.
Puesto que cada canal para una cámara almacena un número igual de imágenes, las imágenes pueden verse de forma sincronizada. Como tal, un usuario del sistema, o bien durante el proceso de demultiplexación o bien después de que todas las imágenes se hayan demultiplexado, puede acceder a un punto en el tiempo y entonces ver todas las imágenes capturadas por todas las cámaras durante ese periodo de tiempo. Por ejemplo, un usuario del sistema puede seleccionar rebobinar o avanzar a través de un único conjunto de imágenes para una cámara particular, el sistema puede entonces visualizar las imágenes para todas las cámaras que se producen a la vez como la de la cámara seleccionada.
El sistema y procedimiento según se define anteriormente operará para demultiplexar un flujo de vídeo sin intervención del usuario. Sin embargo, un usuario puede anular el sistema y cambiar la configuración dentro del sistema. Por ejemplo, un usuario puede cambiar el umbral 820 de desecho o el umbral 830 de no correspondencia según se muestra en la figura 1D. Un usuario puede asignar una imagen a una cámara incluso aunque el sistema indique que la imagen debería descartarse o asignarse a una cámara diferente. Como tal, el sistema y procedimiento proporcionan al usuario una interfaz gráfica de usuario que proporciona controles para cambiar los diversos parámetros del sistema y anular el sistema.
El proceso de reemplazar la imagen de referencia con la imagen actual ayuda en la identificación de la fuente, puesto que el efecto de cambios que se producen gradualmente, tales como cambios de iluminación entre día y noche y el movimiento gradual de la cámara se minimizan.
En una realización de la invención las cámaras filman una zona barriendo de extremo a extremo la zona. Las imágenes capturadas por las cámaras que realizan el barrido que se multiplexan juntas a continuación se demultiplexan según se muestra en la figura 3. En esta realización, cuando el umbral de no correspondencia se ajusta para asociar una imagen con una cámara, se tiene en cuenta el cambio temporal de imagen a imagen al barrer la cámara. Por ejemplo, la figura 3 muestra tres cámaras (cámara 1, cámara 2, y cámara 3) que producen una secuencia de imágenes 320 de vídeo multiplexadas en las que una imagen de cada cámara se añade a la secuencia con el tiempo. Después de una imagen de todas las tres cámaras se haya guardado en la secuencia, el proceso se repite. En la figura 3A las imágenes de la cámara 1 se producen en T0 y T3. Según se muestra en la figura 3B, si la imagen de T0 se desplaza tres píxeles lo que tiene en cuenta el movimiento de la cámara entre T0 y T3 y las imágenes se superponen la mayoría de los píxeles de la imagen en T0 se traslaparán con la imagen en T3. Reemplazando la imagen de referencia con la imagen actual y usando la imagen de referencia actualizada durante la comparación, la cantidad de movimiento entre la imagen de referencia y la imagen actual se minimiza de modo que no se necesita emplear técnicas de seguimiento y comparación más elaboradas. Si el movimiento de la cámara es lento en comparación con el tiempo entre imágenes guardadas, el umbral puede ajustarse para dar cabida a movimiento.
En otras realizaciones, los píxeles de la imagen de referencia se desplazan en posición antes de su comparación con la imagen actual para tener en cuenta el barrido de la cámara. Adicionalmente, en el proceso de comparación, la imagen actual puede desplazarse varias veces en varias direcciones para calcular una proporción de diferencias y comparar la proporción con el umbral. Además, la dirección de movimiento puede anticiparse a través de análisis de tendencias en el que se basa la dirección de movimiento en función de movimiento previo para la misma fuente. Por tanto, realizando un seguimiento de la dirección de movimiento, se reduce el número de desplazamientos de las comparaciones y ubicaciones de datos.
En todavía otra realización, después de que todas las cámaras en el sistema de vigilancia tengan una imagen asociada dentro del sistema, el procesador tiene suficiente información para identificar el orden en que las imágenes están asociadas con las cámaras. Una vez que se conoce el orden, o bien el sistema o bien el usuario puede incrementar el umbral de no correspondencia y asignar un umbral de no correspondencia separado para cada una de la cámara de modo que sólo se identifican cambios significativos en las imágenes. Por ejemplo, si hay movimiento o cambios sustanciales en la iluminación, entonces el sistema puede identificar estas imágenes y asignar una etiqueta a los datos digitales de modo que pueden encontrarse por un usuario en un tiempo subsiguiente al revisar las imágenes. En otra realización, para conservar espacio de memoria, sólo las imágenes de vídeo que tienen movimiento pueden grabarse y guardarse en el canal asociado con la cámara.
En ciertos casos, las imágenes de vídeo pueden separarse por hora y/o fecha. En ciertos sistemas de multiplexación en los que las cámaras son cámaras digitales tales como las que incluyen CCD (dispositivos de cargas acopladas), el flujo de datos digitales que contiene las imágenes digitales puede incluir una marca de fecha y hora que precede a la imagen de vídeo digital. En tal caso, las imágenes pueden almacenarse y diferenciarse según fecha y hora. En otros sistemas de multiplexación, en los que las cámaras producen una señal analógica con una fecha y hora superpuestas o en los que las cámaras digitales incluyen fecha y hora dentro de la imagen digital, las imágenes de vídeo pueden subdividirse por hora y fecha. En esta realización, después de que la señal de vídeo se digitalice, la región de interés seleccionada por el usuario se selecciona como la hora o fecha visualizada. Si las imágenes de vídeo van a diferenciarse por tiempo, la región seleccionada por el usuario podría seleccionarse como la hora 400A según se muestra en la figura 4A y en cualquier momento en el que haya un cambio en esa zona de la imagen de vídeo los datos de la imagen de vídeo podrían guardarse en una ubicación de memoria diferente que está asociada con esa hora. De forma similar, en la figura 4B se muestra una pantalla 410 de vídeo de datos de imagen digital en la que la fecha del mes es la región 400B definida por el usuario seleccionada. El sistema puede entonces buscar continuamente cambios en datos dentro de la zona definida por el usuario seleccionada que sean superiores a un umbral para identificar imágenes que provienen de diferentes fechas del mes.
La figura 5 es otra realización de la invención en la que la invención está en una forma 500 de dispositivo. El dispositivo 500 puede ser un dispositivo electrónico tal como un módulo de FPGA programado o un chip ASIC. El dispositivo 500 incluye un módulo 501 de recuperación que recupera o recibe datos 550 de imagen digital. Los datos de imagen digital incluyen imágenes de datos de vídeo de múltiples fuentes. El módulo 501 de recuperación recupera un primer conjunto de datos de vídeo digital representativos de una primera imagen y también recupera un conjunto actual de datos de vídeo digital representativos de una imagen actual. El módulo 501 de recuperación pasa el primer conjunto de datos digitales a un módulo 502 de almacenamiento. El módulo 502 de almacenamiento almacena en la memoria 560 el primer conjunto de datos de vídeo digital en una ubicación de memoria asociada con una primera fuente 561. Los datos se identifican también como los datos de vídeo representativos de la primera fuente. El módulo 501 de recuperación pasa el primer conjunto de datos de vídeo digital a un módulo 503 de cálculo junto con el conjunto actual de datos de vídeo digital.
El módulo 503 de cálculo calcula una proporción de diferencias usando el primer conjunto de datos de vídeo digital y el conjunto actual de datos de vídeo digital según se explicó anteriormente. Si ya se ha identificado más de una fuente, se recuperan los datos de vídeo digital de cada imagen representativa para una fuente y para cada una se calcula una proporción de diferencias. La(s) proporción (proporciones) de diferencias ("valores de no correspondencia") se retransmite(n) a un módulo 504 de consulta. El módulo 504 de consulta compara la(s) proporción (proporciones) de diferencias con un umbral de no correspondencia. Si una proporción de diferencias para una imagen representativa de una fuente de cámara es inferior al umbral entonces la imagen actual se asocia con esa cámara.
Los datos de vídeo digital se almacenan entonces en la memoria asociada con la cámara 562 identificada. Por ejemplo, si el valor de no correspondencia para la imagen representativa de la 4''' cámara es inferior al umbral de no correspondencia, los datos de vídeo digital actuales se asociarán con esa cámara. Además, la imagen actual se convertirá en la imagen representativa de la 4ª cámara. La memoria que está asociada con una cámara puede ser o bien memoria compartida, en la que un identificador está asociado con los datos de imagen para identificar los datos de imagen como que están asociados con la cámara o la memoria puede ser memoria separada o segmentada. Si la memoria está completamente separada el procesador enviará los datos de imagen asociados a un fragmento de memoria físico particular tal como un chip de RAM. Si la memoria es segmentada, diversas direcciones de memoria se asociarán con una cámara particular y el procesador tendrá una LUT y asignará los datos de imagen digital al segmento de memoria que está asociado con la cámara.
Si todas las proporciones de diferencia son superiores al umbral de no correspondencia el módulo 504 de consulta compara los valores de no correspondencia con un umbral de descarte. El sistema puede entonces descartar automáticamente los datos de imagen sin la intervención de un usuario si los valores de no correspondencia son todos superiores al umbral de descarte. Si los valores de no correspondencia no son superiores al umbral de descarte, entonces el módulo de consulta asignará los datos de imagen a una nueva fuente de cámara automáticamente. En otras realizaciones, un usuario recibe un mensaje en el dispositivo 510 de pantalla de que la imagen actual de datos de vídeo no puede asociarse fácilmente con una fuente particular puesto que los valores de no correspondencia son superiores a un umbral. El usuario puede entonces enviar una respuesta a través de un dispositivo 511 de entrada, tal como un teclado o un ratón que están acoplados en conexión con el dispositivo que indica que la imagen actual es o bien de la primera fuente o de otra fuente previamente identificada, debería asociarse con una nueva fuente o debería descartarse. El módulo 504 de consulta recibe esta información y ordena al módulo 502 de almacenamiento que almacene los datos de vídeo digital actuales para la imagen actual de vídeo en una ubicación de memoria con la fuente identificada. Se proporciona al usuario del sistema una visualización de la imagen actual, así como cada imagen representativa para cada cámara. Esto permite al usuario realizar una comparación visual que ayuda en el proceso de identificación.
Debería entenderse que si el usuario identifica los datos de vídeo digital actuales como provenientes de una nueva fuente, los datos de vídeo digital actuales se asociarán con una ubicación de memoria asociada con una nueva fuente de cámara. Puede también incluirse un módulo 505 de normalización en el dispositivo. El módulo de normalización normaliza los datos de vídeo digital de la imagen de vídeo actual en comparación con las imágenes de vídeo representativas. Como se expresó anteriormente, la normalización de los datos de vídeo digital puede tener en cuenta cambios en la iluminación tales como los cambios que se producen del día a la noche. La normalización se produce antes del cálculo de la proporción de diferencias.
Debería observarse que los diagramas de flujo se usan en el presente documento para manifestar diversos aspectos de la invención, y no deberían interpretarse como que limitan la presente invención a ningún flujo lógico o implementación lógica particular. La lógica descrita puede fragmentarse en diferentes bloques lógicos (por ejemplo, programas, módulos, funciones, o subrutinas) sin cambiar los resultados globales o apartarse de otro modo del verdadero ámbito de la invención. Con frecuencia, los elementos lógicos pueden añadirse, modificarse, omitirse, realizarse en un orden diferente, o implementarse usando elementos constructivos lógicos diferentes (por ejemplo, puertas lógicas, bucles primitivos, lógica condicional, y otros elementos constructivos lógicos) sin cambiar los resultados globales o apartarse de otro modo del verdadero ámbito de la invención.
La presente invención puede realizarse de muchas formas diferentes, incluyendo, pero de ninguna forma limitándose a, lógica de programa informático para su uso con un procesador (por ejemplo, un microprocesador, microcontrolador, procesador de señal digital, u ordenador de propósito general), lógica programable para su uso con un dispositivo de lógica programable (por ejemplo, una disposición de puertas programable en campo (FPGA) u otro PLD), componentes discretos, sistemas de circuitos integrados (por ejemplo, un circuito integrado de aplicación específica (ASIC)), o cualquier otro medio que incluya cualquier combinación de los mismos.
Puede realizarse lógica de programa informático que implementa toda o parte de la funcionalidad descrita previamente en el presente documento de diversas formas, incluyendo, pero de ninguna forma limitándose a, una forma de código fuente, un forma ejecutable por ordenador, y diversas formas intermedias (por ejemplo, formas generadas por un ensamblador, compilador, enlazador, o localizador.) El código fuente puede incluir una serie de instrucciones de programa informático implementadas en cualquiera de diversos lenguajes de programación (por ejemplo, un código objeto, un lenguaje ensamblador, o un lenguaje de alto nivel tal como Fortran, C, C++, JAVA, o HTML) para su uso con diversos sistemas operativos o entornos operativos. El código fuente puede definir y usar diversos mensajes de comunicación y estructuras de datos. El código fuente puede estar en una forma ejecutable por ordenador (por ejemplo, a través de un intérprete), o el código fuente puede convertirse (por ejemplo, a través de un traductor, ensamblador, o compilador) en una forma ejecutable por ordenador.
El programa informático puede fijarse de cualquier forma (por ejemplo, forma de código fuente, forma ejecutable por ordenador, o una forma intermedia) o bien de forma permanente o bien de forma transitoria en un medio de almacenamiento tangible, tal como un dispositivo de memoria semiconductor (por ejemplo, una RAM, ROM, PROM, EEPROM, o una RAM flash-programable), un dispositivo de memoria magnético (por ejemplo, un disquete o disco fijo), un dispositivo de memoria óptico (por ejemplo, un CD-ROM), una tarjeta de PC (por ejemplo, tarjeta PCMCIA), u otro dispositivo de memoria. El programa informático puede fijarse de cualquier forma en una señal que puede transmitirse a un ordenador usando cualquiera de diversas tecnologías de comunicación, incluyendo, pero de ninguna forma limitándose a, tecnologías analógicas, tecnologías digitales, tecnologías ópticas, tecnologías inalámbricas, tecnologías de red, y tecnologías de interconexión. El programa informático puede distribuirse de cualquier forma como un medio de almacenamiento extraíble con documentación impresa o electrónica adjunta (por ejemplo, software con licencia de uso no personalizada o una cinta magnética), precargado con un sistema informático (por ejemplo, en ROM de sistema o disco fijo), o distribuido desde un servidor o un tablón de anuncios electrónico por el sistema de comunicación (por ejemplo, Internet o World Wide Web.)
La lógica de hardware (incluyendo lógica programable para su uso con un dispositivo de lógica programable) que implementa toda o parte de la funcionalidad previamente descrita en el presente documento puede diseñarse usando procedimientos manuales tradicionales, o puede diseñarse, capturarse, simularse, o documentarse electrónicamente, usando diversas herramientas, tal como diseño asistido por ordenador (CAD), un lenguaje de descripción de hardware (por ejemplo, VHDL o AHDL), o un lenguaje de programación de PLD (por ejemplo, PALASM, ABEL, o CUPL.)
La presente invención puede realizarse en otras formas específicas sin apartarse del verdadero ámbito de la invención. Las realizaciones descritas han de considerarse en todos los aspectos sólo como ilustrativas y no como restrictivas.

Claims (36)

1. Un procedimiento para demultiplexar imágenes de vídeo de un flujo de vídeo multiplexado por división de tiempo, estando producidas las imágenes de vídeo por una pluralidad de cámaras, comprendiendo el procedimiento:
recibir al menos una parte del flujo de vídeo multiplexado por división de tiempo compuesto por una pluralidad de imágenes de vídeo en un procesador;
analizar una primera imagen de vídeo del flujo de vídeo multiplexado por división de tiempo;
analizar una segunda imagen de vídeo del flujo de vídeo multiplexado por división de tiempo; y
determinar una cantidad de no correspondencia entre las imágenes de vídeo primera y segunda y caracterizado por la etapa de,
si la no correspondencia es inferior a un umbral de no correspondencia, asignar las imágenes de vídeo primera y segunda a un primer canal, en el que la segunda imagen se convierte en una imagen de referencia para el primer canal, y porque las imágenes de vídeo primera y segunda se analizan sin referencia a una fuente.
2. El procedimiento según la reivindicación 1, en el que el primer canal incluye una ubicación de almacenamiento de memoria para almacenar imágenes de vídeo.
3. El procedimiento según la reivindicación 1 ó 2, en el que el primer canal está asociado con una primera
cámara.
4. El procedimiento según cualquier reivindicación anterior, en el que si la no correspondencia es superior a un umbral de no correspondencia, se asigna la primera imagen de vídeo a un primer canal y la segunda imagen de vídeo a un segundo canal, en el que la primera imagen de vídeo se convierte en una imagen de referencia para el primer canal y la segunda imagen de vídeo se convierte en una imagen de referencia para el segundo canal.
5. El procedimiento según la reivindicación 4, en el que el segundo canal está asociado con una segunda
cámara.
6. El procedimiento según la reivindicación 4 ó 5, en el que después de que se ha asignado una imagen de vídeo de referencia a cada canal asociado con una cámara,
se compara una nueva imagen de vídeo del flujo de vídeo multiplexado por división de tiempo con las imágenes de vídeo de referencia de cada canal;
se determina una cantidad de no correspondencia entre la nueva imagen de vídeo y las imágenes de vídeo de referencia de cada canal; y
se asigna la nueva imagen de vídeo a un canal que tiene la no correspondencia más baja, en el que la nueva imagen de vídeo se convierte en la imagen de vídeo de referencia para ese canal.
7. El procedimiento según la reivindicación 6, en el que si la no correspondencia más baja es superior a un umbral de descarte, entonces se descarta la nueva imagen de vídeo en vez de asignar la nueva imagen de vídeo a un canal.
8. El procedimiento según la reivindicación 4 ó 5, que comprende además:
comparar una tercera imagen de vídeo con las imágenes de vídeo de referencia de los canales primero y segundo para determinar unas no correspondencias primera y segunda;
si las no correspondencias primera y segunda son superiores a un umbral de no correspondencia, asignar la tercera imagen de vídeo a un tercer canal, en el que la tercera imagen de vídeo se convierte en la imagen de referencia para el tercer canal.
9. El procedimiento según la reivindicación 4, que comprende además:
comparar una tercera imagen de vídeo con las imágenes de vídeo de referencia para los canales primero y segundo para determinar unas no correspondencias primera y segunda;
si la primera no correspondencia y las segundas no correspondencias son inferiores a un umbral de no correspondencia, asignar la tercera imagen de vídeo al canal asociado con la no correspondencia inferior, en el que la tercera imagen de vídeo se convierte en la imagen de vídeo de referencia para ese canal.
10. El procedimiento según la reivindicación 4 ó 5, que comprende además:
comparar una tercera imagen de vídeo con las imágenes de vídeo de referencia para los canales primero y segundo para determinar unas no correspondencias primera y segunda;
si ambas no correspondencias primera y segunda son superiores a un umbral de descarte, descartar la tercera imagen de vídeo.
11. El procedimiento según cualquiera de las reivindicaciones 4 a 10, en el que cada canal está asociado con una cámara.
12. El procedimiento según cualquier reivindicación anterior, que comprende además:
proporcionar el número de cámaras al procesador.
13. El procedimiento según cualquier reivindicación anterior, en el que la asignación de canal se realiza en tiempo real.
14. El procedimiento según cualquier reivindicación anterior, en el que se analiza el flujo de imagen multiplexado por división de tiempo y las imágenes de vídeo se asignan a un canal en tiempo real.
15. El procedimiento según cualquier reivindicación anterior, en el que la primera imagen de vídeo y la segunda imagen de vídeo se submuestrean antes de la comparación.
16. El procedimiento según cualquier reivindicación anterior, en el que si el flujo de imagen de vídeo multiplexado por división de tiempo contiene información de cabecera, se descarta la información de cabecera.
17. El procedimiento según cualquier reivindicación anterior, que comprende además:
proporcionar una interfaz de usuario para ajustar el nivel de no correspondencia;
recibir una entrada de usuario del nivel de no correspondencia.
\vskip1.000000\baselineskip
18. El procedimiento según cualquier reivindicación anterior, que comprende además:
proporcionar una interfaz de usuario para ajustar el nivel de descarte;
recibir una entrada de usuario del nivel de descarte.
\vskip1.000000\baselineskip
19. Un producto de programa informático que contiene un código informático en el mismo legible por un ordenador para demultiplexar imágenes de vídeo en un flujo de vídeo multiplexado por división de tiempo, estando producidas las imágenes de vídeo por una pluralidad de cámaras, comprendiendo el código informático:
un código informático para recibir secuencialmente el flujo de vídeo multiplexado por división de tiempo compuesto por una pluralidad de imágenes de vídeo en un procesador;
un código informático para analizar una primera imagen de vídeo del flujo de vídeo multiplexado por división de tiempo;
un código informático que analiza una segunda imagen de vídeo del flujo de vídeo multiplexado por división de tiempo; y
un código informático para determinar una cantidad de no correspondencia entre las imágenes de vídeo primera y segunda,
y caracterizado por un código informático para asignar las imágenes de vídeo primera y segunda a un primer canal si la no correspondencia es inferior a un umbral de no correspondencia, en el que la segunda imagen de vídeo se convierte en una imagen de referencia para el primer canal, y las imágenes de vídeo primera y segunda se analizan sin referencia a la fuente.
20. El producto de programa informático según la reivindicación 19, en el que en el código informático para asignar, el código informático asigna las imágenes de vídeo primera y segunda a una ubicación de almacenamiento de memoria.
21. El producto de programa informático según la reivindicación 19 ó 20, en el que el primer canal está asociado con una primera cámara.
22. El producto de programa informático según la reivindicación 19, 20 ó 21, que comprende además:
un código informático para asignar la primera imagen de vídeo a un primer canal y la segunda imagen de vídeo a un segundo canal si la no correspondencia es superior a un umbral de no correspondencia, en el que la primera imagen de vídeo se convierte en la imagen de referencia para el primer canal y la segunda imagen de vídeo se convierte en la imagen de referencia para el segundo canal.
23. El producto de programa informático según la reivindicación 22, en el que el segundo canal está asociado con una segunda cámara.
24. El producto de programa informático según la reivindicación 22 ó 23, que comprende además:
un código informático para comparar una nueva imagen de vídeo del flujo de vídeo multiplexado por división de tiempo con las imágenes de referencia de cada canal después de que se ha asignado una imagen de vídeo de referencia a cada canal asociado con una cámara;
un código informático para determinar una cantidad de no correspondencia entre la nueva imagen de vídeo y las imágenes de referencia de cada canal; y
un código informático para asignar la nueva imagen de vídeo a un canal que tiene la no correspondencia más baja, en el que la nueva imagen de vídeo se convierte en la imagen de vídeo de referencia para ese canal.
25. El producto de programa informático según la reivindicación 24, que comprende además:
un código informático para descartar la nueva imagen de vídeo si la no correspondencia más baja es superior a un umbral de descarte en vez de asignar la nueva imagen de vídeo a un canal.
26. El producto de programa informático según la reivindicación 22 ó 23, que comprende además:
un código informático para comparar una tercera imagen de vídeo con las imágenes de referencia de los canales primero y segundo para determinar unas no correspondencias primera y segunda;
un código informático para asignar la tercera imagen de vídeo a un tercer canal si las no correspondencias primera y segunda son superiores a un umbral de no correspondencia, en el que la tercera imagen de vídeo se convierte en la imagen de referencia para el tercer canal.
27. El producto de programa informático según la reivindicación 22 ó 23, que comprende además:
un código informático para comparar una tercera imagen de vídeo con las imágenes de referencia de los canales primero y segundo para determinar unas no correspondencias primera y segunda;
un código informático para asignar la tercera imagen de vídeo al canal asociado con la no correspondencia inferior si la primera no correspondencia y segundas no correspondencias son inferiores a un umbral de no correspondencia, en el que la tercera imagen de vídeo se convierte en la imagen de referencia para ese canal.
28. El producto de programa informático según la reivindicación 22 ó 23, que comprende además:
un código informático para comparar una tercera imagen de vídeo con las imágenes de vídeo de referencia para los canales primero y segundo para determinar unas no correspondencias primera y segunda;
un código informático para descartar la tercera imagen de vídeo si ambas no correspondencias primera y segunda son superiores a un umbral de descarte.
29. El producto de programa informático según cualquiera de las reivindicaciones 22 a 28, en el que cada canal está asociado con una cámara.
30. El producto de programa informático según cualquiera de las reivindicaciones 19 a 29, que comprende además:
un código informático que proporciona una interfaz de usuario para introducir el número de cámaras.
31. El producto de programa informático según cualquiera de las reivindicaciones 19 a 30, en el que la asignación de canal se realiza en tiempo real.
32. El producto de programa informático según cualquiera de las reivindicaciones 19 a 31, en el que el programa informático analiza el flujo de imagen multiplexado por división de tiempo y las imágenes de vídeo se asignan a un canal en tiempo real.
33. El producto de programa informático según cualquiera de las reivindicaciones 19 a 32, que comprende además un código informático para submuestrear la primera imagen de vídeo y la segunda imagen de vídeo antes de la comparación.
34. El producto de programa informático según cualquiera de las reivindicaciones 19 a 33, que comprende además un código informático para identificar la información de cabecera asociada con imágenes de vídeo y descartar la información de cabecera.
35. El producto de programa informático según cualquiera de las reivindicaciones 19 a 34, que comprende además:
un código informático para proporcionar una interfaz de usuario para ajustar el nivel de no correspondencia;
un código informático para recibir una entrada de usuario del nivel de no correspondencia.
\vskip1.000000\baselineskip
36. El producto de programa informático según cualquiera de las reivindicaciones 19 a 35, que comprende además:
un código informático para proporcionar una interfaz de usuario para ajustar el nivel de descarte;
un código informático para recibir una entrada de usuario del nivel de descarte.
ES04704415T 2003-01-23 2004-01-22 Analizador de contenido de video con detector de cambio de escena. Expired - Lifetime ES2321403T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US44241203P 2003-01-23 2003-01-23
US442412P 2003-01-23

Publications (1)

Publication Number Publication Date
ES2321403T3 true ES2321403T3 (es) 2009-06-05

Family

ID=32772042

Family Applications (1)

Application Number Title Priority Date Filing Date
ES04704415T Expired - Lifetime ES2321403T3 (es) 2003-01-23 2004-01-22 Analizador de contenido de video con detector de cambio de escena.

Country Status (16)

Country Link
EP (1) EP1586202B1 (es)
JP (1) JP2006517366A (es)
KR (1) KR20050092444A (es)
CN (1) CN1742490A (es)
AT (1) ATE426301T1 (es)
AU (1) AU2004206413A1 (es)
BR (1) BRPI0406971A (es)
CA (1) CA2513762A1 (es)
CO (1) CO5650195A2 (es)
DE (1) DE602004020053D1 (es)
ES (1) ES2321403T3 (es)
MX (1) MXPA05007824A (es)
NZ (1) NZ541384A (es)
RU (1) RU2005126623A (es)
WO (1) WO2004066609A2 (es)
ZA (1) ZA200506054B (es)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BRPI0212375B1 (pt) 2001-09-07 2016-05-24 Intergraph Hardware Tech Co método para estabilizar uma imagem
KR100883066B1 (ko) * 2007-08-29 2009-02-10 엘지전자 주식회사 텍스트를 이용한 피사체 이동 경로 표시장치 및 방법
US20130265490A1 (en) * 2011-11-14 2013-10-10 Scott A. Krig Video Analytic Encoding
CN103388746B (zh) * 2012-05-08 2015-11-25 上海化学工业区公共管廊有限公司 视频监控系统
JP6497002B2 (ja) * 2013-09-06 2019-04-10 株式会社リコー ジェスチャを使用して複数ビュー間で画面表示を切り換えるためのシステムおよび方法
US20170285931A1 (en) 2016-03-29 2017-10-05 Microsoft Technology Licensing, Llc Operating visual user interface controls with ink commands
CN111382627B (zh) * 2018-12-28 2024-03-26 成都云天励飞技术有限公司 同行判定方法及相关产品
CN110995999A (zh) * 2019-12-12 2020-04-10 北京小米智能科技有限公司 动态照片拍摄方法及装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5635982A (en) * 1994-06-27 1997-06-03 Zhang; Hong J. System for automatic video segmentation and key frame extraction for video sequences having both sharp and gradual transitions
US5751378A (en) * 1996-09-27 1998-05-12 General Instrument Corporation Scene change detector for digital video
US6363380B1 (en) * 1998-01-13 2002-03-26 U.S. Philips Corporation Multimedia computer system with story segmentation capability and operating program therefor including finite automation video parser
DE60037485T2 (de) * 1999-01-29 2008-12-04 Sony Corp. Signalverarbeitungsverfahren und Videosignalprozessor zum Ermitteln und Analysieren eines Bild- und/oder Audiomusters
US20040125877A1 (en) * 2000-07-17 2004-07-01 Shin-Fu Chang Method and system for indexing and content-based adaptive streaming of digital video content
TWI236294B (en) * 2001-05-11 2005-07-11 Ulead Systems Inc Method and device for capturing digital video

Also Published As

Publication number Publication date
EP1586202B1 (en) 2009-03-18
ZA200506054B (en) 2006-05-31
DE602004020053D1 (es) 2009-04-30
KR20050092444A (ko) 2005-09-21
JP2006517366A (ja) 2006-07-20
RU2005126623A (ru) 2006-01-27
BRPI0406971A (pt) 2006-01-10
ATE426301T1 (de) 2009-04-15
MXPA05007824A (es) 2005-10-18
WO2004066609A3 (en) 2004-09-23
CN1742490A (zh) 2006-03-01
WO2004066609A2 (en) 2004-08-05
NZ541384A (en) 2007-04-27
CO5650195A2 (es) 2006-06-30
EP1586202A2 (en) 2005-10-19
AU2004206413A1 (en) 2004-08-05
CA2513762A1 (en) 2004-08-05

Similar Documents

Publication Publication Date Title
AU2002327612B2 (en) Method, device and computer program product for demultiplexing of video images
AU2002327612A1 (en) Method, device and computer program product for demultiplexing of video images
US8004542B2 (en) Video composition apparatus, video composition method and video composition program
US7899259B2 (en) Image processing method and image processing apparatus for images decodable at multiple resolutions
ES2321403T3 (es) Analizador de contenido de video con detector de cambio de escena.
KR20150056381A (ko) 영상 처리 장치 및 방법
ES2265504T3 (es) Procedimiento para la compresion y la descompresion de datos de video.
KR101778744B1 (ko) 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템
CN105578129A (zh) 一种多路多画面视频拼接装置
ES2342636T3 (es) Descodificador de imagenes en movimiento.
US8255802B2 (en) Method for enabling efficient navigation of video
JP2006129152A (ja) 撮像装置および画像配信システム
JP4692889B2 (ja) 映像監視装置
JP4628348B2 (ja) デジタル統合型マルチビジョンプロセッサ装置
JP2003009143A (ja) 画像処理装置およびこれを用いた監視システム
US20210297649A1 (en) Image data output device, content creation device, content reproduction device, image data output method, content creation method, and content reproduction method
JP6128664B2 (ja) パノラマ画像作成プログラム
JP2016103808A (ja) 画像処理装置、画像処理方法及びプログラム
JP2004194309A (ja) 表示方法および表示装置
JP2006165666A (ja) 監視カメラ、監視画像モニタ装置、監視画像蓄積装置及び監視システム
TW200526043A (en) Video analyzer
JP2023068537A (ja) 画像処理装置、撮像装置、制御方法及びプログラム
McSheery Enhanced optical tracking
WO2011142204A1 (ja) 画像符号化装置、画像復号装置及び画像復号方法
JP2001331246A (ja) 画像関連データ表示装置