ES2321403T3 - Analizador de contenido de video con detector de cambio de escena. - Google Patents
Analizador de contenido de video con detector de cambio de escena. Download PDFInfo
- Publication number
- ES2321403T3 ES2321403T3 ES04704415T ES04704415T ES2321403T3 ES 2321403 T3 ES2321403 T3 ES 2321403T3 ES 04704415 T ES04704415 T ES 04704415T ES 04704415 T ES04704415 T ES 04704415T ES 2321403 T3 ES2321403 T3 ES 2321403T3
- Authority
- ES
- Spain
- Prior art keywords
- video
- image
- channel
- images
- video image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 230000008859 change Effects 0.000 title description 10
- 238000000034 method Methods 0.000 claims abstract description 50
- 238000004590 computer program Methods 0.000 claims description 9
- 230000005055 memory storage Effects 0.000 claims 1
- 230000008569 process Effects 0.000 abstract description 19
- 238000005516 engineering process Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 238000011084 recovery Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000011960 computer-aided design Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000010408 sweeping Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000005549 size reduction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/12—Systems in which the television signal is transmitted via one channel or a plurality of parallel channels, the bandwidth of each channel being less than the bandwidth of the television signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
- Glass Compositions (AREA)
- Spectrometry And Color Measurement (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
Abstract
Un procedimiento para demultiplexar imágenes de vídeo de un flujo de vídeo multiplexado por división de tiempo, estando producidas las imágenes de vídeo por una pluralidad de cámaras, comprendiendo el procedimiento: recibir al menos una parte del flujo de vídeo multiplexado por división de tiempo compuesto por una pluralidad de imágenes de vídeo en un procesador; analizar una primera imagen de vídeo del flujo de vídeo multiplexado por división de tiempo; analizar una segunda imagen de vídeo del flujo de vídeo multiplexado por división de tiempo; y determinar una cantidad de no correspondencia entre las imágenes de vídeo primera y segunda y caracterizado por la etapa de, si la no correspondencia es inferior a un umbral de no correspondencia, asignar las imágenes de vídeo primera y segunda a un primer canal, en el que la segunda imagen se convierte en una imagen de referencia para el primer canal, y porque las imágenes de vídeo primera y segunda se analizan sin referencia a una fuente.
Description
Analizador de contenido de vídeo con detector de
cambio de escena.
En general, los sistemas de vigilancia por
cámara analógica producen una salida multiplexada por división de
tiempo que se almacena en una cinta. Las cámaras se acoplan a un
multiplexor que conmuta a intervalos predeterminados entre las
cámaras. Tales sistemas tienen una primera cámara que emite una
imagen en T0 y una segunda cámara que emite una imagen en T1, etc.
Como tal, la cinta de salida contiene imágenes de cada una de las
cámaras en secuencia. La multiplexación por división de tiempo
permite que grandes cantidades de información se almacenen. Sin
embargo, si se produce un evento que requiere que la cinta de vídeo
se revise, encontrar un incidente particular y demultiplexar la
cinta se convierte en una tarea difícil y que lleva mucho
tiempo.
Incluso si se usan cámaras digitales y se
produce una salida digital, el flujo digital multiplexado requiere
mucha intervención humana para identificar un evento. Por tanto, hay
necesidad de un sistema automático para demultiplexar un flujo de
vídeo.
Un procedimiento y dispositivo para captura de
vídeo digital se da a conocer por Hsiao y Yang en la solicitud de
patente estadounidense número US 2002/0168181. Este procedimiento y
dispositivo pueden partir datos de vídeo en varios archivos de
vídeo completos y almacenan tramas de la misma escena en el mismo
archivo de vídeo.
Según un aspecto de la invención, un flujo de
película multiplexado (por ejemplo, vídeo) se demultiplexa en
tiempo real usando técnicas de reconocimiento de imagen. En algunas
realizaciones, imágenes de película almacenadas de canales
diferentes pueden verse simultáneamente en la misma imagen avanzando
hasta una imagen dada de sólo un canal
almacenado. El flujo de película contiene una o más imágenes de cada una de una pluralidad de fuentes de cámara.
almacenado. El flujo de película contiene una o más imágenes de cada una de una pluralidad de fuentes de cámara.
Realizaciones ilustrativas de la invención se
implementan como un producto de programa informático que tiene un
medio utilizable por ordenador con código de programa legible por
ordenador en el mismo. El código legible por ordenador puede leerse
y utilizarse por un sistema informático según procesos
convencionales.
Según un primer aspecto de la invención, se
proporciona un procedimiento según la reivindicación 1, en el que
el procedimiento es para demultiplexar imágenes de vídeo en un flujo
de vídeo.
Según un segundo aspecto de la invención, se
proporciona un producto de programa informático según la
reivindicación 19.
Las características de la invención se
entenderán más fácilmente por referencia a la siguiente descripción
detallada, tomada con referencia a los dibujos adjuntos, en los
que:
la figura 1 muestra un entorno para implementar
una primera realización para demultiplexar imágenes de vídeo;
la figura 1A es un diagrama de flujo que ilustra
la demultiplexación de imágenes de vídeo de una pluralidad de
cámaras en un flujo de imágenes de vídeo;
la figura 1B es un diagrama de flujo que ilustra
aspectos adicionales de demultiplexación de imágenes de vídeo en el
que las imágenes se submuestrean;
la figura 1C es un diagrama de flujo que ilustra
aspectos adicionales de demultiplexación de imágenes de vídeo en el
que se comparan subsecciones de las imágenes;
la figura 1D es una captura de pantalla que
muestra una pantalla gráfica de vistas de múltiples cámaras;
la figura 2A representa una imagen de referencia
según se visualiza sobre un dispositivo de pantalla y la caja
destacada indica la zona definida por el usuario;
la figura 2B representa la imagen actual según
se visualiza sobre un dispositivo de pantalla y muestra que la
misma zona definida por el usuario que la de la figura 2A se usa
para su comparación;
la figura 3 muestra tres cámaras (cámara 1,
cámara 2, y cámara 3) que producen una secuencia de imágenes de
vídeo multiplexadas en las que una imagen de cada cámara se añade a
la secuencia con el tiempo;
la figura 3A muestra una representación temporal
de imágenes de las cámaras 1-3;
la figura 3B muestra temporalmente el
desplazamiento en píxeles para la cámara 1 desde el tiempo T0 hasta
el tiempo T3;
la figura 4 muestra una región de interés
seleccionada por el usuario en la que la región contiene un fecha y
hora visualizada; y
la figura 5 es una realización de la invención
en la que se construyen módulos en hardware para realizar las
funciones del procedimiento dado a conocer.
Como se usa en el siguiente texto, el término
"vídeo digital" implica una representación digital de una
secuencia de imágenes que puede visualizarse temporalmente sobre un
dispositivo de pantalla. Normalmente, el vídeo digital contiene una
pluralidad de tramas en la que cada trama representa una imagen
separada. Las tramas pueden subdividirse además de modo que las
tramas están constituidas por una serie de píxeles. Como se usa en
la siguiente descripción, el término "píxel" significa un
único punto de una imagen. A mayor número de píxeles que están
contenidos en una imagen, mayor la resolución del vídeo. Se hace
referencia a las resoluciones de forma convencional mediante
medidas de longitud y ancho del número de píxeles, por ejemplo, en
una resolución de 800x600, hay 800 píxeles a lo largo de la
longitud de una imagen por 600 píxeles a lo largo del ancho de la
imagen.
Un "canal" según se define en el presente
documento es o bien una separación física o bien virtual de
información que permite que la información se almacene y recupere
de la memoria. Por ejemplo, un canal puede ser una ubicación de
almacenamiento designada en la memoria que está asociada con una
cámara particular. De forma similar, un canal puede simplemente ser
la asociación de información con un trazador, tal como un número o
nombre de cámara.
En una realización de la presente invención,
imágenes de vídeo en un flujo de imágenes formadas de una pluralidad
de fuentes de vídeo se demultiplexan de modo que las imágenes de una
fuente dada pueden recopilarse, analizarse y verse.
La figura 1 muestra un entorno para implementar
una realización de la invención. En la figura 1 se muestra una
pluralidad de cámaras (Cámara A, Cámara B, y Cámara C). Cada cámara
produce una señal de vídeo que contiene información de vídeo que se
multiplexa junta y se almacena o bien en un formato digital en la
memoria asociada con un procesador 20 o en formato digital o
analógico en una cinta 25. La información multiplexada puede
contener información de cabecera para identificar la fuente, pero
la presente invención no necesita información de cabecera para
demultiplexar la información. De hecho, si existe información de
cabecera, la presente invención según se describe o bien eliminará
la información de cabecera o bien omitirá la información de cabecera
y sólo procesará la información que forma una imagen. La
información multiplexada se demultiplexa a continuación por el
procesador. Si la información de vídeo está en un formato analógico,
la información primero se digitaliza en un proceso de conversión
analógico a digital que es bien conocido por los expertos en la
técnica. Después de digitalizar la información de vídeo, la
secuencia de datos digitales se transfiere a un procesador. Las
imágenes pueden estar comprimidas o descomprimidas o en formato de
campo o trama. Si la información está comprimida el procesador
descomprimirá las imágenes antes de demultiplexar el flujo de imagen
de vídeo. De forma similar, el vídeo digital puede estar en
cualquiera de un número de representaciones de espacio de color
incluyendo RGB y YUV. El procesador puede demultiplexar la
información en tiempo real, de modo que a medida que la información
se captura de las cámaras y se multiplexa junta, la información
puede proporcionarse en flujo continuo al procesador y
demultiplexarse. De forma similar, el flujo de información puede en
primer lugar almacenarse en memoria y entonces proporcionarse al
procesador.
El procesador realiza la operación según se
describe con respecto a los diagramas de flujo de la figura 1A para
demultiplexar el flujo de imagen de vídeo. El flujo de imagen de
vídeo puede demultiplexarse sin intervención del usuario y bajo
control total del procesador. En ciertas realizaciones, un usuario
puede cambiar parámetros o reiniciar el sistema o seleccionar
manualmente imágenes que van a asociarse con un canal separado. Sin
embargo, incluso en este tipo de una realización, el sistema puede
procesar automáticamente el flujo de imagen.
Debería entenderse que dentro de esta
descripción el término trama se usará para referirse a una imagen de
vídeo que va a visualizarse durante un periodo de tiempo designado.
La descripción es igualmente aplicable a campos de vídeo que
normalmente se producen para dispositivos de pantalla que visualizan
imágenes entrelazadas.
Según se muestra en la figura 1A, se identifica
una primera imagen de vídeo en un flujo de vídeo 110. Según se
planteó previamente, el flujo de vídeo puede provenir directamente
de una pluralidad de cámaras después de que las imágenes de las
cámaras se han multiplexado o el flujo de vídeo puede provenir de la
memoria que se incorpora en el procesador. La primera imagen de
vídeo en el flujo de vídeo se analiza y se almacena en una
ubicación de memoria asociada con el procesador. El procesador
asocia la primera imagen de vídeo con una primera cámara y la
imagen se marca como una imagen de referencia para la primera cámara
120. Como una imagen de referencia para una cámara, la imagen se
usa para comparaciones con imágenes en el flujo de vídeo según se
expone a continuación.
La siguiente imagen ("imagen actual") se
identifica en el flujo de vídeo 130. Los datos de imagen se analizan
y se almacenan en la memoria asociada con el procesador. El
procesador entonces recuerda todas las imágenes de referencia y la
imagen actual y compara los datos de imagen 140. Durante esta
comparación se calcula un valor de no correspondencia. El valor de
no correspondencia puede ser el porcentaje de error entre píxeles
de una imagen de referencia y la imagen actual. El valor de no
correspondencia puede calcularse en cualquier número de formas
siempre que sea una comparación entre la cantidad de información
compartida entre la imagen de referencia y la imagen actual. Por
ejemplo, pueden calcularse proporciones de diferencia entre la
imagen actual y cada imagen de referencia de una fuente
identificada (cámara). La suma del valor absoluto de la diferencia
entre los píxeles de la imagen actual y los píxeles de la imagen de
referencia se calcula y entonces se divide por la suma de los
valores de intensidad de los píxeles de la imagen actual. Esta
proporción representa la diferencia entre la imagen actual y una
imagen de referencia de cámara dada.
Para cada imagen de referencia y la imagen
actual se calcula un valor de no correspondencia separado. En el
diagrama de flujo, en esta fase, sólo hay una única imagen de
referencia, puesto que sólo se ha identificado una cámara, pero al
identificarse más imágenes como provenientes de cámaras de
referencia diferentes, se asociará una trama de referencia con cada
cámara.
El procesador identifica entonces
automáticamente si cualquiera de los valores de no correspondencia
determinados es inferior a un umbral de no correspondencia 145.
Aunque el término inferior se usa, el término igual a o inferior
puede sustituirse sin apartarse del ámbito de la invención. Además,
el proceso de comparación supone que los valores de no
correspondencia se proporcionan en una escala en la que un valor
inferior indica que la imagen representativa y la imagen actual
comparten más información en común que si el valor de no
correspondencia fuera superior. Debería entenderse que podría
implementarse una escala inversa en la que a mayor el valor de no
correspondencia, más información que se comparte entre la imagen
actual y la imagen representativa. En una situación de este tipo
todas las comparaciones se invertirían.
Si los valores de no correspondencia son
inferiores a un umbral de no correspondencia, la imagen actual está
asociada con la cámara (imagen de referencia) que tiene el valor de
no correspondencia más bajo 157. La imagen actual se convierte
entonces en la imagen de referencia para la cámara y reemplaza a la
imagen de referencia previa 160. Si ninguno de los valores de no
correspondencia es inferior al umbral de no correspondencia,
entonces el procesador compara los valores de no correspondencia
con un umbral de descarte 147. El umbral de descarte se usa sólo
para fines de comparación una vez que una imagen se ha asociado con
todos los canales/cámaras.
Si todos los valores de no correspondencia no
son superiores a un umbral de descarte, el procesador asigna la
imagen de vídeo actual a una nueva cámara 150. Por ejemplo, la
imagen actual se asociaría con la cámara número dos, como la
primera imagen de referencia se asoció con la cámara número uno. En
el proceso de asignar la imagen de vídeo actual a una nueva cámara,
la imagen actual puede dotarse de una cabecera que indica que la
imagen actual es de la segunda cámara. El procesador puede también
almacenar la imagen actual en una ubicación de memoria asociada con
la segunda imagen. La ubicación de memoria puede ser memoria
compartida con las otras cámaras o puede ser memoria separada que
se usa exclusivamente para la cámara dos. Si la memoria es memoria
compartida, el procesador construirá una LUT (tabla de consulta)
para asociar los datos de imagen con una cámara particular de modo
que las imágenes para la cámara pueden recuperarse y visualizarse.
Si todos los valores de no correspondencia son superiores al umbral
de descarte, el sistema puede entonces descartar automáticamente la
imagen de vídeo actual 155. La imagen puede almacenarse y guardarse
en una ubicación de memoria separada para revisión adicional. En
otras realizaciones, la imagen se descarta y no se almacena.
Si la imagen de vídeo actual se asigna a una
nueva cámara, el procesador identifica la imagen actual como la
imagen de referencia para la nueva cámara 160.
El procesador comprueba entonces si hay alguna
imagen más y si no hay ninguna, el proceso finaliza 165. Si hay
imágenes adicionales, se recupera una nueva imagen y el proceso
continúa. Al continuar el proceso, más imágenes actuales se asignan
a nuevas cámaras, hasta que todas las cámaras en el sistema tienen
una imagen de referencia asociada. El procesador puede o bien
programarse con el número total de cámara o el procesador puede
determinar automáticamente el número total de cámaras. En la
industria de vigilancia, el vídeo multiplexado se multiplexa de
modo que una imagen o múltiples imágenes de cada cámara se almacenan
de manera secuencial (cámara 1, cámara 2, etc.) dentro del flujo de
vídeo. Por ejemplo, si hay tres cámaras, una imagen de cada cámara
puede almacenarse en el flujo, de modo que la primera imagen se toma
en T0 y la segunda imagen en T1 y la tercera en T2. En otras
realizaciones, ciertas cámaras pueden añadir más de una imagen al
flujo de vídeo antes de que otras cámaras añadan imágenes. Por
ejemplo, la cámara 1 puede proporcionar 3 imágenes tomadas en T0,
T1 y T2 al flujo de vídeo y entonces la cámara 2 proporciona una
imagen en T3 y la cámara 3 en T4. Como resultado, después de que el
procesador procese las primeras pocas imágenes usando el
procedimiento según se describe anteriormente para demultiplexar el
flujo de vídeo, todas las cámaras se identifican normalmente. Si
una cámara, tal como la primera cámara tiene un número
predeterminado de imágenes asociadas con ella, por ejemplo, 10
imágenes, el procesador puede entonces contar el número total de
cámaras que tienen imágenes asignadas. Puesto que múltiples
imágenes se han asociado con una cámara (la primera cámara), es muy
probable que se hayan procesado las imágenes para todas las cámaras
y que el flujo de vídeo multiplexado haya hecho un bucle y vuelto a
la primera cámara.
Para aumentar la velocidad de procesamiento del
flujo de vídeo, las imágenes pueden submuestrearse. Las imágenes
pueden submuestrearse tanto en las direcciones horizontal como
vertical antes de que las imágenes se comparen. En una realización,
la imagen que puede ser una trama NTSC se reduce en tamaño, por
ejemplo a 1/8 del tamaño original antes de su almacenamiento. La
reducción del tamaño de imagen puede conseguirse simplemente
eliminando píxeles. Por ejemplo, para reducir el número de píxeles
en un factor de 4 para una imagen de 800 x 600 píxeles, podrían
eliminarse uno de cada dos píxeles de modo que hubiere 400 x 300
píxeles. En un ejemplo adicional, la imagen puede codificarse
mediante transformada, usando una transformada de Fourier u otras y
entonces submuestrearse en el dominio de la frecuencia. En otra
realización, los datos pueden reducirse a través de cálculo de
promedio. Por ejemplo, cada ocho columnas de ocho píxeles podrían
promediarse de modo que 64 píxeles se reducen a un píxel.
Este submuestreo se muestra en la figura 1B.
Tanto la imagen de referencia como la imagen actual se submuestrean
antes de su comparación 125B, 135B. Las imágenes de vídeo pueden
almacenarse en su totalidad con toda su información de píxeles para
fines de visualización, pero las imágenes se submuestrean para
aumentar la velocidad del proceso de comparación. Adicionalmente la
figura 1C muestra que una sección de los datos de imagen puede
usarse para el proceso de comparación en vez de usar todos los
datos de imagen visualizables 125C, 135C. Un usuario del sistema
puede preseleccionar, o el sistema puede preseleccionar, una sección
de los datos de imagen que va a compararse. Cuando se usa el
término sección en esta solicitud, el término implica que los datos
de imagen se visualizan sobre un dispositivo de pantalla y se
selecciona un bloque u otra forma de modo que se seleccionan menos
que todos los datos de imagen. Si la sección está predeterminada,
los datos de imagen no necesitan visualizarse sobre un dispositivo
de pantalla. Los datos de imagen se seleccionarán basándose en la
ubicación de dirección que está asociada con la sección del
dispositivo de pantalla que el usuario desea que se compare.
Un experto en la técnica debería entender que
tanto el submuestreo como también la selección de una subsección de
una imagen pueden usarse en combinación para aumentar adicionalmente
la velocidad para comparar imágenes y demultiplexar el flujo de
imagen.
En ciertas realizaciones, antes de la
comparación entre las imágenes de referencia y la imagen actual, la
zona seleccionada de las imágenes se normaliza para eliminar
cualquier cambio en brillo/intensidad de la comparación. Por
ejemplo, se calculan el valor de intensidad promedio para los
píxeles en la zona seleccionada por el usuario en la imagen de
referencia y la misma zona en la imagen actual. El valor de
intensidad promedio se resta de cada uno de los valores de
intensidad de píxel. Esta etapa normaliza los valores teniendo en
cuenta cualquier cambio en brillo, tal como destellos repentinos de
luz. Por tanto, sólo se compara el valor absoluto de la variación
alrededor de la media de las dos imágenes. Por ejemplo, si una
cámara está monitorizando un cajero automático y un coche se
aproxima a la máquina en la que los faros del coche repentinamente
iluminan la zona de visión, este cambio de iluminación se tendrá en
cuenta. Esta normalización puede también realizarse de cualquiera
de un número de formas conocidas en la técnica, incluyendo usar el
valor RMS como opuesto a la intensidad promedio para la zona
seleccionada por el usuario.
Durante el curso de la demultiplexación de las
imágenes, el proceso de demultiplexación puede visualizarse sobre
un dispositivo 800 de pantalla. Las imágenes que están asociadas con
una cámara se visualizan en ventanas 810 separadas. La imagen de
referencia se visualiza en la ventana para cada una de las cámaras
según se muestra en la figura 1D. Visualizando continuamente y
volviendo a guardar la imagen de referencia para cada cámara, se
mantiene la sincronización temporal entre cada una de las diversas
cámaras. Por ejemplo para cada ciclo a través de un sistema de
vigilancia por división de tiempo de cuatro cámaras en el que la
cámara uno captura tres imágenes antes de que la cámara dos tome
una imagen, y ambas cámaras tres y cuatro toman una imagen cada
una, cada canal asociado con una cámara tendrá seis imágenes
guardadas. La cámara uno tendrá las imágenes visualizadas en T0,
T1, y T2 seguidas por la imagen de T2 repetida tres veces
adicionales. La cámara 2 tendrá tres imágenes en blanco y entonces
su imagen en T3 que se repite dos veces adicionales. La cámara tres
tendría cuatro imágenes en blanco almacenadas seguidas por la
imagen en T4 que se repite dos veces y la cámara cuatro tendría
cinco imágenes en blanco seguidas por la imagen tomada en T5. Esto
tiene en cuenta el primer ciclo a través de las cámaras. En ciclos
subsiguientes, la trama de referencia se repetiría hasta que una
nueva trama actual se asocie con la cámara y la trama de referencia
se actualice. Como tal, aparecerían imágenes para todas las cámaras
en el dispositivo de pantalla.
Puesto que cada canal para una cámara almacena
un número igual de imágenes, las imágenes pueden verse de forma
sincronizada. Como tal, un usuario del sistema, o bien durante el
proceso de demultiplexación o bien después de que todas las
imágenes se hayan demultiplexado, puede acceder a un punto en el
tiempo y entonces ver todas las imágenes capturadas por todas las
cámaras durante ese periodo de tiempo. Por ejemplo, un usuario del
sistema puede seleccionar rebobinar o avanzar a través de un único
conjunto de imágenes para una cámara particular, el sistema puede
entonces visualizar las imágenes para todas las cámaras que se
producen a la vez como la de la cámara seleccionada.
El sistema y procedimiento según se define
anteriormente operará para demultiplexar un flujo de vídeo sin
intervención del usuario. Sin embargo, un usuario puede anular el
sistema y cambiar la configuración dentro del sistema. Por ejemplo,
un usuario puede cambiar el umbral 820 de desecho o el umbral 830 de
no correspondencia según se muestra en la figura 1D. Un usuario
puede asignar una imagen a una cámara incluso aunque el sistema
indique que la imagen debería descartarse o asignarse a una cámara
diferente. Como tal, el sistema y procedimiento proporcionan al
usuario una interfaz gráfica de usuario que proporciona controles
para cambiar los diversos parámetros del sistema y anular el
sistema.
El proceso de reemplazar la imagen de referencia
con la imagen actual ayuda en la identificación de la fuente,
puesto que el efecto de cambios que se producen gradualmente, tales
como cambios de iluminación entre día y noche y el movimiento
gradual de la cámara se minimizan.
En una realización de la invención las cámaras
filman una zona barriendo de extremo a extremo la zona. Las
imágenes capturadas por las cámaras que realizan el barrido que se
multiplexan juntas a continuación se demultiplexan según se muestra
en la figura 3. En esta realización, cuando el umbral de no
correspondencia se ajusta para asociar una imagen con una cámara,
se tiene en cuenta el cambio temporal de imagen a imagen al barrer
la cámara. Por ejemplo, la figura 3 muestra tres cámaras (cámara 1,
cámara 2, y cámara 3) que producen una secuencia de imágenes 320 de
vídeo multiplexadas en las que una imagen de cada cámara se añade a
la secuencia con el tiempo. Después de una imagen de todas las tres
cámaras se haya guardado en la secuencia, el proceso se repite. En
la figura 3A las imágenes de la cámara 1 se producen en T0 y T3.
Según se muestra en la figura 3B, si la imagen de T0 se desplaza
tres píxeles lo que tiene en cuenta el movimiento de la cámara entre
T0 y T3 y las imágenes se superponen la mayoría de los píxeles de
la imagen en T0 se traslaparán con la imagen en T3. Reemplazando la
imagen de referencia con la imagen actual y usando la imagen de
referencia actualizada durante la comparación, la cantidad de
movimiento entre la imagen de referencia y la imagen actual se
minimiza de modo que no se necesita emplear técnicas de seguimiento
y comparación más elaboradas. Si el movimiento de la cámara es lento
en comparación con el tiempo entre imágenes guardadas, el umbral
puede ajustarse para dar cabida a movimiento.
En otras realizaciones, los píxeles de la imagen
de referencia se desplazan en posición antes de su comparación con
la imagen actual para tener en cuenta el barrido de la cámara.
Adicionalmente, en el proceso de comparación, la imagen actual
puede desplazarse varias veces en varias direcciones para calcular
una proporción de diferencias y comparar la proporción con el
umbral. Además, la dirección de movimiento puede anticiparse a
través de análisis de tendencias en el que se basa la dirección de
movimiento en función de movimiento previo para la misma fuente. Por
tanto, realizando un seguimiento de la dirección de movimiento, se
reduce el número de desplazamientos de las comparaciones y
ubicaciones de datos.
En todavía otra realización, después de que
todas las cámaras en el sistema de vigilancia tengan una imagen
asociada dentro del sistema, el procesador tiene suficiente
información para identificar el orden en que las imágenes están
asociadas con las cámaras. Una vez que se conoce el orden, o bien el
sistema o bien el usuario puede incrementar el umbral de no
correspondencia y asignar un umbral de no correspondencia separado
para cada una de la cámara de modo que sólo se identifican cambios
significativos en las imágenes. Por ejemplo, si hay movimiento o
cambios sustanciales en la iluminación, entonces el sistema puede
identificar estas imágenes y asignar una etiqueta a los datos
digitales de modo que pueden encontrarse por un usuario en un tiempo
subsiguiente al revisar las imágenes. En otra realización, para
conservar espacio de memoria, sólo las imágenes de vídeo que tienen
movimiento pueden grabarse y guardarse en el canal asociado con la
cámara.
En ciertos casos, las imágenes de vídeo pueden
separarse por hora y/o fecha. En ciertos sistemas de multiplexación
en los que las cámaras son cámaras digitales tales como las que
incluyen CCD (dispositivos de cargas acopladas), el flujo de datos
digitales que contiene las imágenes digitales puede incluir una
marca de fecha y hora que precede a la imagen de vídeo digital. En
tal caso, las imágenes pueden almacenarse y diferenciarse según
fecha y hora. En otros sistemas de multiplexación, en los que las
cámaras producen una señal analógica con una fecha y hora
superpuestas o en los que las cámaras digitales incluyen fecha y
hora dentro de la imagen digital, las imágenes de vídeo pueden
subdividirse por hora y fecha. En esta realización, después de que
la señal de vídeo se digitalice, la región de interés seleccionada
por el usuario se selecciona como la hora o fecha visualizada. Si
las imágenes de vídeo van a diferenciarse por tiempo, la región
seleccionada por el usuario podría seleccionarse como la hora 400A
según se muestra en la figura 4A y en cualquier momento en el que
haya un cambio en esa zona de la imagen de vídeo los datos de la
imagen de vídeo podrían guardarse en una ubicación de memoria
diferente que está asociada con esa hora. De forma similar, en la
figura 4B se muestra una pantalla 410 de vídeo de datos de imagen
digital en la que la fecha del mes es la región 400B definida por el
usuario seleccionada. El sistema puede entonces buscar
continuamente cambios en datos dentro de la zona definida por el
usuario seleccionada que sean superiores a un umbral para
identificar imágenes que provienen de diferentes fechas del
mes.
La figura 5 es otra realización de la invención
en la que la invención está en una forma 500 de dispositivo. El
dispositivo 500 puede ser un dispositivo electrónico tal como un
módulo de FPGA programado o un chip ASIC. El dispositivo 500
incluye un módulo 501 de recuperación que recupera o recibe datos
550 de imagen digital. Los datos de imagen digital incluyen
imágenes de datos de vídeo de múltiples fuentes. El módulo 501 de
recuperación recupera un primer conjunto de datos de vídeo digital
representativos de una primera imagen y también recupera un
conjunto actual de datos de vídeo digital representativos de una
imagen actual. El módulo 501 de recuperación pasa el primer
conjunto de datos digitales a un módulo 502 de almacenamiento. El
módulo 502 de almacenamiento almacena en la memoria 560 el primer
conjunto de datos de vídeo digital en una ubicación de memoria
asociada con una primera fuente 561. Los datos se identifican
también como los datos de vídeo representativos de la primera
fuente. El módulo 501 de recuperación pasa el primer conjunto de
datos de vídeo digital a un módulo 503 de cálculo junto con el
conjunto actual de datos de vídeo digital.
El módulo 503 de cálculo calcula una proporción
de diferencias usando el primer conjunto de datos de vídeo digital
y el conjunto actual de datos de vídeo digital según se explicó
anteriormente. Si ya se ha identificado más de una fuente, se
recuperan los datos de vídeo digital de cada imagen representativa
para una fuente y para cada una se calcula una proporción de
diferencias. La(s) proporción (proporciones) de diferencias
("valores de no correspondencia") se retransmite(n) a
un módulo 504 de consulta. El módulo 504 de consulta compara
la(s) proporción (proporciones) de diferencias con un umbral
de no correspondencia. Si una proporción de diferencias para una
imagen representativa de una fuente de cámara es inferior al umbral
entonces la imagen actual se asocia con esa cámara.
Los datos de vídeo digital se almacenan entonces
en la memoria asociada con la cámara 562 identificada. Por ejemplo,
si el valor de no correspondencia para la imagen representativa de
la 4''' cámara es inferior al umbral de no correspondencia, los
datos de vídeo digital actuales se asociarán con esa cámara. Además,
la imagen actual se convertirá en la imagen representativa de la 4ª
cámara. La memoria que está asociada con una cámara puede ser o
bien memoria compartida, en la que un identificador está asociado
con los datos de imagen para identificar los datos de imagen como
que están asociados con la cámara o la memoria puede ser memoria
separada o segmentada. Si la memoria está completamente separada el
procesador enviará los datos de imagen asociados a un fragmento de
memoria físico particular tal como un chip de RAM. Si la memoria es
segmentada, diversas direcciones de memoria se asociarán con una
cámara particular y el procesador tendrá una LUT y asignará los
datos de imagen digital al segmento de memoria que está asociado con
la cámara.
Si todas las proporciones de diferencia son
superiores al umbral de no correspondencia el módulo 504 de consulta
compara los valores de no correspondencia con un umbral de
descarte. El sistema puede entonces descartar automáticamente los
datos de imagen sin la intervención de un usuario si los valores de
no correspondencia son todos superiores al umbral de descarte. Si
los valores de no correspondencia no son superiores al umbral de
descarte, entonces el módulo de consulta asignará los datos de
imagen a una nueva fuente de cámara automáticamente. En otras
realizaciones, un usuario recibe un mensaje en el dispositivo 510 de
pantalla de que la imagen actual de datos de vídeo no puede
asociarse fácilmente con una fuente particular puesto que los
valores de no correspondencia son superiores a un umbral. El
usuario puede entonces enviar una respuesta a través de un
dispositivo 511 de entrada, tal como un teclado o un ratón que
están acoplados en conexión con el dispositivo que indica que la
imagen actual es o bien de la primera fuente o de otra fuente
previamente identificada, debería asociarse con una nueva fuente o
debería descartarse. El módulo 504 de consulta recibe esta
información y ordena al módulo 502 de almacenamiento que almacene
los datos de vídeo digital actuales para la imagen actual de vídeo
en una ubicación de memoria con la fuente identificada. Se
proporciona al usuario del sistema una visualización de la imagen
actual, así como cada imagen representativa para cada cámara. Esto
permite al usuario realizar una comparación visual que ayuda en el
proceso de identificación.
Debería entenderse que si el usuario identifica
los datos de vídeo digital actuales como provenientes de una nueva
fuente, los datos de vídeo digital actuales se asociarán con una
ubicación de memoria asociada con una nueva fuente de cámara. Puede
también incluirse un módulo 505 de normalización en el dispositivo.
El módulo de normalización normaliza los datos de vídeo digital de
la imagen de vídeo actual en comparación con las imágenes de vídeo
representativas. Como se expresó anteriormente, la normalización de
los datos de vídeo digital puede tener en cuenta cambios en la
iluminación tales como los cambios que se producen del día a la
noche. La normalización se produce antes del cálculo de la
proporción de diferencias.
Debería observarse que los diagramas de flujo se
usan en el presente documento para manifestar diversos aspectos de
la invención, y no deberían interpretarse como que limitan la
presente invención a ningún flujo lógico o implementación lógica
particular. La lógica descrita puede fragmentarse en diferentes
bloques lógicos (por ejemplo, programas, módulos, funciones, o
subrutinas) sin cambiar los resultados globales o apartarse de otro
modo del verdadero ámbito de la invención. Con frecuencia, los
elementos lógicos pueden añadirse, modificarse, omitirse,
realizarse en un orden diferente, o implementarse usando elementos
constructivos lógicos diferentes (por ejemplo, puertas lógicas,
bucles primitivos, lógica condicional, y otros elementos
constructivos lógicos) sin cambiar los resultados globales o
apartarse de otro modo del verdadero ámbito de la invención.
La presente invención puede realizarse de muchas
formas diferentes, incluyendo, pero de ninguna forma limitándose a,
lógica de programa informático para su uso con un procesador (por
ejemplo, un microprocesador, microcontrolador, procesador de señal
digital, u ordenador de propósito general), lógica programable para
su uso con un dispositivo de lógica programable (por ejemplo, una
disposición de puertas programable en campo (FPGA) u otro PLD),
componentes discretos, sistemas de circuitos integrados (por
ejemplo, un circuito integrado de aplicación específica (ASIC)), o
cualquier otro medio que incluya cualquier combinación de los
mismos.
Puede realizarse lógica de programa informático
que implementa toda o parte de la funcionalidad descrita previamente
en el presente documento de diversas formas, incluyendo, pero de
ninguna forma limitándose a, una forma de código fuente, un forma
ejecutable por ordenador, y diversas formas intermedias (por
ejemplo, formas generadas por un ensamblador, compilador,
enlazador, o localizador.) El código fuente puede incluir una serie
de instrucciones de programa informático implementadas en
cualquiera de diversos lenguajes de programación (por ejemplo, un
código objeto, un lenguaje ensamblador, o un lenguaje de alto nivel
tal como Fortran, C, C++, JAVA, o HTML) para su uso con diversos
sistemas operativos o entornos operativos. El código fuente puede
definir y usar diversos mensajes de comunicación y estructuras de
datos. El código fuente puede estar en una forma ejecutable por
ordenador (por ejemplo, a través de un intérprete), o el código
fuente puede convertirse (por ejemplo, a través de un traductor,
ensamblador, o compilador) en una forma ejecutable por
ordenador.
El programa informático puede fijarse de
cualquier forma (por ejemplo, forma de código fuente, forma
ejecutable por ordenador, o una forma intermedia) o bien de forma
permanente o bien de forma transitoria en un medio de
almacenamiento tangible, tal como un dispositivo de memoria
semiconductor (por ejemplo, una RAM, ROM, PROM, EEPROM, o una RAM
flash-programable), un dispositivo de memoria
magnético (por ejemplo, un disquete o disco fijo), un dispositivo
de memoria óptico (por ejemplo, un CD-ROM), una
tarjeta de PC (por ejemplo, tarjeta PCMCIA), u otro dispositivo de
memoria. El programa informático puede fijarse de cualquier forma en
una señal que puede transmitirse a un ordenador usando cualquiera
de diversas tecnologías de comunicación, incluyendo, pero de
ninguna forma limitándose a, tecnologías analógicas, tecnologías
digitales, tecnologías ópticas, tecnologías inalámbricas,
tecnologías de red, y tecnologías de interconexión. El programa
informático puede distribuirse de cualquier forma como un medio de
almacenamiento extraíble con documentación impresa o electrónica
adjunta (por ejemplo, software con licencia de uso no personalizada
o una cinta magnética), precargado con un sistema informático (por
ejemplo, en ROM de sistema o disco fijo), o distribuido desde un
servidor o un tablón de anuncios electrónico por el sistema de
comunicación (por ejemplo, Internet o World Wide Web.)
La lógica de hardware (incluyendo lógica
programable para su uso con un dispositivo de lógica programable)
que implementa toda o parte de la funcionalidad previamente descrita
en el presente documento puede diseñarse usando procedimientos
manuales tradicionales, o puede diseñarse, capturarse, simularse, o
documentarse electrónicamente, usando diversas herramientas, tal
como diseño asistido por ordenador (CAD), un lenguaje de descripción
de hardware (por ejemplo, VHDL o AHDL), o un lenguaje de
programación de PLD (por ejemplo, PALASM, ABEL, o CUPL.)
La presente invención puede realizarse en otras
formas específicas sin apartarse del verdadero ámbito de la
invención. Las realizaciones descritas han de considerarse en todos
los aspectos sólo como ilustrativas y no como restrictivas.
Claims (36)
1. Un procedimiento para demultiplexar imágenes
de vídeo de un flujo de vídeo multiplexado por división de tiempo,
estando producidas las imágenes de vídeo por una pluralidad de
cámaras, comprendiendo el procedimiento:
- recibir al menos una parte del flujo de vídeo multiplexado por división de tiempo compuesto por una pluralidad de imágenes de vídeo en un procesador;
- analizar una primera imagen de vídeo del flujo de vídeo multiplexado por división de tiempo;
- analizar una segunda imagen de vídeo del flujo de vídeo multiplexado por división de tiempo; y
- determinar una cantidad de no correspondencia entre las imágenes de vídeo primera y segunda y caracterizado por la etapa de,
- si la no correspondencia es inferior a un umbral de no correspondencia, asignar las imágenes de vídeo primera y segunda a un primer canal, en el que la segunda imagen se convierte en una imagen de referencia para el primer canal, y porque las imágenes de vídeo primera y segunda se analizan sin referencia a una fuente.
2. El procedimiento según la reivindicación 1,
en el que el primer canal incluye una ubicación de almacenamiento de
memoria para almacenar imágenes de vídeo.
3. El procedimiento según la reivindicación 1 ó
2, en el que el primer canal está asociado con una primera
cámara.
cámara.
4. El procedimiento según cualquier
reivindicación anterior, en el que si la no correspondencia es
superior a un umbral de no correspondencia, se asigna la primera
imagen de vídeo a un primer canal y la segunda imagen de vídeo a un
segundo canal, en el que la primera imagen de vídeo se convierte en
una imagen de referencia para el primer canal y la segunda imagen
de vídeo se convierte en una imagen de referencia para el segundo
canal.
5. El procedimiento según la reivindicación 4,
en el que el segundo canal está asociado con una segunda
cámara.
cámara.
6. El procedimiento según la reivindicación 4 ó
5, en el que después de que se ha asignado una imagen de vídeo de
referencia a cada canal asociado con una cámara,
- se compara una nueva imagen de vídeo del flujo de vídeo multiplexado por división de tiempo con las imágenes de vídeo de referencia de cada canal;
- se determina una cantidad de no correspondencia entre la nueva imagen de vídeo y las imágenes de vídeo de referencia de cada canal; y
- se asigna la nueva imagen de vídeo a un canal que tiene la no correspondencia más baja, en el que la nueva imagen de vídeo se convierte en la imagen de vídeo de referencia para ese canal.
7. El procedimiento según la reivindicación 6,
en el que si la no correspondencia más baja es superior a un umbral
de descarte, entonces se descarta la nueva imagen de vídeo en vez de
asignar la nueva imagen de vídeo a un canal.
8. El procedimiento según la reivindicación 4 ó
5, que comprende además:
- comparar una tercera imagen de vídeo con las imágenes de vídeo de referencia de los canales primero y segundo para determinar unas no correspondencias primera y segunda;
- si las no correspondencias primera y segunda son superiores a un umbral de no correspondencia, asignar la tercera imagen de vídeo a un tercer canal, en el que la tercera imagen de vídeo se convierte en la imagen de referencia para el tercer canal.
9. El procedimiento según la reivindicación 4,
que comprende además:
- comparar una tercera imagen de vídeo con las imágenes de vídeo de referencia para los canales primero y segundo para determinar unas no correspondencias primera y segunda;
- si la primera no correspondencia y las segundas no correspondencias son inferiores a un umbral de no correspondencia, asignar la tercera imagen de vídeo al canal asociado con la no correspondencia inferior, en el que la tercera imagen de vídeo se convierte en la imagen de vídeo de referencia para ese canal.
10. El procedimiento según la reivindicación 4 ó
5, que comprende además:
- comparar una tercera imagen de vídeo con las imágenes de vídeo de referencia para los canales primero y segundo para determinar unas no correspondencias primera y segunda;
- si ambas no correspondencias primera y segunda son superiores a un umbral de descarte, descartar la tercera imagen de vídeo.
11. El procedimiento según cualquiera de las
reivindicaciones 4 a 10, en el que cada canal está asociado con una
cámara.
12. El procedimiento según cualquier
reivindicación anterior, que comprende además:
- proporcionar el número de cámaras al procesador.
13. El procedimiento según cualquier
reivindicación anterior, en el que la asignación de canal se realiza
en tiempo real.
14. El procedimiento según cualquier
reivindicación anterior, en el que se analiza el flujo de imagen
multiplexado por división de tiempo y las imágenes de vídeo se
asignan a un canal en tiempo real.
15. El procedimiento según cualquier
reivindicación anterior, en el que la primera imagen de vídeo y la
segunda imagen de vídeo se submuestrean antes de la comparación.
16. El procedimiento según cualquier
reivindicación anterior, en el que si el flujo de imagen de vídeo
multiplexado por división de tiempo contiene información de
cabecera, se descarta la información de cabecera.
17. El procedimiento según cualquier
reivindicación anterior, que comprende además:
- proporcionar una interfaz de usuario para ajustar el nivel de no correspondencia;
- recibir una entrada de usuario del nivel de no correspondencia.
\vskip1.000000\baselineskip
18. El procedimiento según cualquier
reivindicación anterior, que comprende además:
- proporcionar una interfaz de usuario para ajustar el nivel de descarte;
- recibir una entrada de usuario del nivel de descarte.
\vskip1.000000\baselineskip
19. Un producto de programa informático que
contiene un código informático en el mismo legible por un ordenador
para demultiplexar imágenes de vídeo en un flujo de vídeo
multiplexado por división de tiempo, estando producidas las imágenes
de vídeo por una pluralidad de cámaras, comprendiendo el código
informático:
- un código informático para recibir secuencialmente el flujo de vídeo multiplexado por división de tiempo compuesto por una pluralidad de imágenes de vídeo en un procesador;
- un código informático para analizar una primera imagen de vídeo del flujo de vídeo multiplexado por división de tiempo;
- un código informático que analiza una segunda imagen de vídeo del flujo de vídeo multiplexado por división de tiempo; y
- un código informático para determinar una cantidad de no correspondencia entre las imágenes de vídeo primera y segunda,
- y caracterizado por un código informático para asignar las imágenes de vídeo primera y segunda a un primer canal si la no correspondencia es inferior a un umbral de no correspondencia, en el que la segunda imagen de vídeo se convierte en una imagen de referencia para el primer canal, y las imágenes de vídeo primera y segunda se analizan sin referencia a la fuente.
20. El producto de programa informático según la
reivindicación 19, en el que en el código informático para asignar,
el código informático asigna las imágenes de vídeo primera y segunda
a una ubicación de almacenamiento de memoria.
21. El producto de programa informático según la
reivindicación 19 ó 20, en el que el primer canal está asociado con
una primera cámara.
22. El producto de programa informático según la
reivindicación 19, 20 ó 21, que comprende además:
- un código informático para asignar la primera imagen de vídeo a un primer canal y la segunda imagen de vídeo a un segundo canal si la no correspondencia es superior a un umbral de no correspondencia, en el que la primera imagen de vídeo se convierte en la imagen de referencia para el primer canal y la segunda imagen de vídeo se convierte en la imagen de referencia para el segundo canal.
23. El producto de programa informático según la
reivindicación 22, en el que el segundo canal está asociado con una
segunda cámara.
24. El producto de programa informático según la
reivindicación 22 ó 23, que comprende además:
- un código informático para comparar una nueva imagen de vídeo del flujo de vídeo multiplexado por división de tiempo con las imágenes de referencia de cada canal después de que se ha asignado una imagen de vídeo de referencia a cada canal asociado con una cámara;
- un código informático para determinar una cantidad de no correspondencia entre la nueva imagen de vídeo y las imágenes de referencia de cada canal; y
- un código informático para asignar la nueva imagen de vídeo a un canal que tiene la no correspondencia más baja, en el que la nueva imagen de vídeo se convierte en la imagen de vídeo de referencia para ese canal.
25. El producto de programa informático según la
reivindicación 24, que comprende además:
- un código informático para descartar la nueva imagen de vídeo si la no correspondencia más baja es superior a un umbral de descarte en vez de asignar la nueva imagen de vídeo a un canal.
26. El producto de programa informático según la
reivindicación 22 ó 23, que comprende además:
- un código informático para comparar una tercera imagen de vídeo con las imágenes de referencia de los canales primero y segundo para determinar unas no correspondencias primera y segunda;
- un código informático para asignar la tercera imagen de vídeo a un tercer canal si las no correspondencias primera y segunda son superiores a un umbral de no correspondencia, en el que la tercera imagen de vídeo se convierte en la imagen de referencia para el tercer canal.
27. El producto de programa informático según la
reivindicación 22 ó 23, que comprende además:
- un código informático para comparar una tercera imagen de vídeo con las imágenes de referencia de los canales primero y segundo para determinar unas no correspondencias primera y segunda;
- un código informático para asignar la tercera imagen de vídeo al canal asociado con la no correspondencia inferior si la primera no correspondencia y segundas no correspondencias son inferiores a un umbral de no correspondencia, en el que la tercera imagen de vídeo se convierte en la imagen de referencia para ese canal.
28. El producto de programa informático según la
reivindicación 22 ó 23, que comprende además:
- un código informático para comparar una tercera imagen de vídeo con las imágenes de vídeo de referencia para los canales primero y segundo para determinar unas no correspondencias primera y segunda;
- un código informático para descartar la tercera imagen de vídeo si ambas no correspondencias primera y segunda son superiores a un umbral de descarte.
29. El producto de programa informático según
cualquiera de las reivindicaciones 22 a 28, en el que cada canal
está asociado con una cámara.
30. El producto de programa informático según
cualquiera de las reivindicaciones 19 a 29, que comprende
además:
- un código informático que proporciona una interfaz de usuario para introducir el número de cámaras.
31. El producto de programa informático según
cualquiera de las reivindicaciones 19 a 30, en el que la asignación
de canal se realiza en tiempo real.
32. El producto de programa informático según
cualquiera de las reivindicaciones 19 a 31, en el que el programa
informático analiza el flujo de imagen multiplexado por división de
tiempo y las imágenes de vídeo se asignan a un canal en tiempo
real.
33. El producto de programa informático según
cualquiera de las reivindicaciones 19 a 32, que comprende además un
código informático para submuestrear la primera imagen de vídeo y la
segunda imagen de vídeo antes de la comparación.
34. El producto de programa informático según
cualquiera de las reivindicaciones 19 a 33, que comprende además un
código informático para identificar la información de cabecera
asociada con imágenes de vídeo y descartar la información de
cabecera.
35. El producto de programa informático según
cualquiera de las reivindicaciones 19 a 34, que comprende
además:
- un código informático para proporcionar una interfaz de usuario para ajustar el nivel de no correspondencia;
- un código informático para recibir una entrada de usuario del nivel de no correspondencia.
\vskip1.000000\baselineskip
36. El producto de programa informático según
cualquiera de las reivindicaciones 19 a 35, que comprende
además:
- un código informático para proporcionar una interfaz de usuario para ajustar el nivel de descarte;
- un código informático para recibir una entrada de usuario del nivel de descarte.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US44241203P | 2003-01-23 | 2003-01-23 | |
US442412P | 2003-01-23 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2321403T3 true ES2321403T3 (es) | 2009-06-05 |
Family
ID=32772042
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES04704415T Expired - Lifetime ES2321403T3 (es) | 2003-01-23 | 2004-01-22 | Analizador de contenido de video con detector de cambio de escena. |
Country Status (16)
Country | Link |
---|---|
EP (1) | EP1586202B1 (es) |
JP (1) | JP2006517366A (es) |
KR (1) | KR20050092444A (es) |
CN (1) | CN1742490A (es) |
AT (1) | ATE426301T1 (es) |
AU (1) | AU2004206413A1 (es) |
BR (1) | BRPI0406971A (es) |
CA (1) | CA2513762A1 (es) |
CO (1) | CO5650195A2 (es) |
DE (1) | DE602004020053D1 (es) |
ES (1) | ES2321403T3 (es) |
MX (1) | MXPA05007824A (es) |
NZ (1) | NZ541384A (es) |
RU (1) | RU2005126623A (es) |
WO (1) | WO2004066609A2 (es) |
ZA (1) | ZA200506054B (es) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BRPI0212375B1 (pt) | 2001-09-07 | 2016-05-24 | Intergraph Hardware Tech Co | método para estabilizar uma imagem |
KR100883066B1 (ko) * | 2007-08-29 | 2009-02-10 | 엘지전자 주식회사 | 텍스트를 이용한 피사체 이동 경로 표시장치 및 방법 |
US20130265490A1 (en) * | 2011-11-14 | 2013-10-10 | Scott A. Krig | Video Analytic Encoding |
CN103388746B (zh) * | 2012-05-08 | 2015-11-25 | 上海化学工业区公共管廊有限公司 | 视频监控系统 |
JP6497002B2 (ja) * | 2013-09-06 | 2019-04-10 | 株式会社リコー | ジェスチャを使用して複数ビュー間で画面表示を切り換えるためのシステムおよび方法 |
US20170285931A1 (en) | 2016-03-29 | 2017-10-05 | Microsoft Technology Licensing, Llc | Operating visual user interface controls with ink commands |
CN111382627B (zh) * | 2018-12-28 | 2024-03-26 | 成都云天励飞技术有限公司 | 同行判定方法及相关产品 |
CN110995999A (zh) * | 2019-12-12 | 2020-04-10 | 北京小米智能科技有限公司 | 动态照片拍摄方法及装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5635982A (en) * | 1994-06-27 | 1997-06-03 | Zhang; Hong J. | System for automatic video segmentation and key frame extraction for video sequences having both sharp and gradual transitions |
US5751378A (en) * | 1996-09-27 | 1998-05-12 | General Instrument Corporation | Scene change detector for digital video |
US6363380B1 (en) * | 1998-01-13 | 2002-03-26 | U.S. Philips Corporation | Multimedia computer system with story segmentation capability and operating program therefor including finite automation video parser |
DE60037485T2 (de) * | 1999-01-29 | 2008-12-04 | Sony Corp. | Signalverarbeitungsverfahren und Videosignalprozessor zum Ermitteln und Analysieren eines Bild- und/oder Audiomusters |
US20040125877A1 (en) * | 2000-07-17 | 2004-07-01 | Shin-Fu Chang | Method and system for indexing and content-based adaptive streaming of digital video content |
TWI236294B (en) * | 2001-05-11 | 2005-07-11 | Ulead Systems Inc | Method and device for capturing digital video |
-
2004
- 2004-01-22 BR BR0406971-4A patent/BRPI0406971A/pt not_active IP Right Cessation
- 2004-01-22 JP JP2006501094A patent/JP2006517366A/ja active Pending
- 2004-01-22 AT AT04704415T patent/ATE426301T1/de active
- 2004-01-22 ES ES04704415T patent/ES2321403T3/es not_active Expired - Lifetime
- 2004-01-22 CA CA002513762A patent/CA2513762A1/en not_active Abandoned
- 2004-01-22 EP EP04704415A patent/EP1586202B1/en not_active Expired - Lifetime
- 2004-01-22 WO PCT/US2004/001674 patent/WO2004066609A2/en active Application Filing
- 2004-01-22 KR KR1020057013537A patent/KR20050092444A/ko not_active Application Discontinuation
- 2004-01-22 DE DE602004020053T patent/DE602004020053D1/de not_active Expired - Lifetime
- 2004-01-22 MX MXPA05007824A patent/MXPA05007824A/es not_active Application Discontinuation
- 2004-01-22 CN CNA2004800027583A patent/CN1742490A/zh active Pending
- 2004-01-22 AU AU2004206413A patent/AU2004206413A1/en not_active Abandoned
- 2004-01-22 RU RU2005126623/09A patent/RU2005126623A/ru not_active Application Discontinuation
- 2004-01-22 NZ NZ541384A patent/NZ541384A/en unknown
-
2005
- 2005-07-28 ZA ZA200506054A patent/ZA200506054B/en unknown
- 2005-08-16 CO CO05080811A patent/CO5650195A2/es not_active Application Discontinuation
Also Published As
Publication number | Publication date |
---|---|
EP1586202B1 (en) | 2009-03-18 |
ZA200506054B (en) | 2006-05-31 |
DE602004020053D1 (es) | 2009-04-30 |
KR20050092444A (ko) | 2005-09-21 |
JP2006517366A (ja) | 2006-07-20 |
RU2005126623A (ru) | 2006-01-27 |
BRPI0406971A (pt) | 2006-01-10 |
ATE426301T1 (de) | 2009-04-15 |
MXPA05007824A (es) | 2005-10-18 |
WO2004066609A3 (en) | 2004-09-23 |
CN1742490A (zh) | 2006-03-01 |
WO2004066609A2 (en) | 2004-08-05 |
NZ541384A (en) | 2007-04-27 |
CO5650195A2 (es) | 2006-06-30 |
EP1586202A2 (en) | 2005-10-19 |
AU2004206413A1 (en) | 2004-08-05 |
CA2513762A1 (en) | 2004-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2002327612B2 (en) | Method, device and computer program product for demultiplexing of video images | |
AU2002327612A1 (en) | Method, device and computer program product for demultiplexing of video images | |
US8004542B2 (en) | Video composition apparatus, video composition method and video composition program | |
US7899259B2 (en) | Image processing method and image processing apparatus for images decodable at multiple resolutions | |
ES2321403T3 (es) | Analizador de contenido de video con detector de cambio de escena. | |
KR20150056381A (ko) | 영상 처리 장치 및 방법 | |
ES2265504T3 (es) | Procedimiento para la compresion y la descompresion de datos de video. | |
KR101778744B1 (ko) | 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템 | |
CN105578129A (zh) | 一种多路多画面视频拼接装置 | |
ES2342636T3 (es) | Descodificador de imagenes en movimiento. | |
US8255802B2 (en) | Method for enabling efficient navigation of video | |
JP2006129152A (ja) | 撮像装置および画像配信システム | |
JP4692889B2 (ja) | 映像監視装置 | |
JP4628348B2 (ja) | デジタル統合型マルチビジョンプロセッサ装置 | |
JP2003009143A (ja) | 画像処理装置およびこれを用いた監視システム | |
US20210297649A1 (en) | Image data output device, content creation device, content reproduction device, image data output method, content creation method, and content reproduction method | |
JP6128664B2 (ja) | パノラマ画像作成プログラム | |
JP2016103808A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2004194309A (ja) | 表示方法および表示装置 | |
JP2006165666A (ja) | 監視カメラ、監視画像モニタ装置、監視画像蓄積装置及び監視システム | |
TW200526043A (en) | Video analyzer | |
JP2023068537A (ja) | 画像処理装置、撮像装置、制御方法及びプログラム | |
McSheery | Enhanced optical tracking | |
WO2011142204A1 (ja) | 画像符号化装置、画像復号装置及び画像復号方法 | |
JP2001331246A (ja) | 画像関連データ表示装置 |