MXPA04002211A - Metodo, dispositivo y producto de programa de computadora para desmultiplexar imagenes de video. - Google Patents

Metodo, dispositivo y producto de programa de computadora para desmultiplexar imagenes de video.

Info

Publication number
MXPA04002211A
MXPA04002211A MXPA04002211A MXPA04002211A MXPA04002211A MX PA04002211 A MXPA04002211 A MX PA04002211A MX PA04002211 A MXPA04002211 A MX PA04002211A MX PA04002211 A MXPA04002211 A MX PA04002211A MX PA04002211 A MXPA04002211 A MX PA04002211A
Authority
MX
Mexico
Prior art keywords
digital video
video data
source
group
current
Prior art date
Application number
MXPA04002211A
Other languages
English (en)
Inventor
Ward Iii Mckay Therman
Original Assignee
Intergraph Hardware Tech Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intergraph Hardware Tech Co filed Critical Intergraph Hardware Tech Co
Publication of MXPA04002211A publication Critical patent/MXPA04002211A/es

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Processing Of Color Television Signals (AREA)
  • Studio Circuits (AREA)
  • Studio Devices (AREA)
  • Color Television Image Signal Generators (AREA)
  • Spectrometry And Color Measurement (AREA)

Abstract

Un metodo para desmultiplexar datos de video digitales que se originan desde multiples fuentes en donde no se indexan imagenes multiplexadas ni existe informacion de identificacion provista a diferentes fuentes; las fuentes generalmente son camaras que pueden ser camaras estacionarias o camaras moviles que giran como se utiliza comunmente en la industria de la vigilancia; un primer grupo de datos de video digitales representativos de una primera imagen se recupera de una fuente de memoria o de una cinta de video; el primer grupo de datos de video digitales se almacena en una ubicacion de memoria relacionada con una primera fuente; el primer grupo de datos de video tambien se identifica como datos de video representativos de la primera fuente; un segundo grupo de datos de video digitales representativos de una imagen actual entonces se recupera; una relacion de diferencia se calcula utilizando los datos de video digitales representativos y el grupo actual de datos de video digitales; si la relacion de diferencia se encuentra por arriba de un umbral, una consulta de despliegue que requiere respuesta para clasificar los datos de video digital actuales que pertenece a una fuente identificada o que se origina de una nueva fuente se presenta al usuario del sistema; si una respuesta es recuperada indicando que el grupo actual de los datos de video digitales se relacionan con una nueva fuente, el grupo actual de los datos de video digitales se almacena en una segunda ubicacion de memoria relacionada con la segunda fuente; este grupo actual de datos de video digitales entonces se identifica como los datos de video representativos para la segunda fuente.

Description

METODO. DISPOSITIVO Y PRODUCTO DE PROGRAMA DE COMPUTO PARA DEMULTIPLEXAR IMAGENES DE VIDEO CAMPO DE LA INVENCION La presente invención se refiere al análisis de imágenes de video. Más específicamente, la presente invención se refiere a demultiplexar una corriente de imagen de video no indexada.
ANTECEDENTES DE LA INVENCION En la técnica anterior, se sabe que tener la salida de cámaras de vigilancia múltiples muitiplexadas juntas para producir una señal de video, la cual es una señal compuesta de todas las señales de salida de las cámaras. Normalmente, las imágenes son combinadas en una forma secuencial en la cual, uno o más cuadros para una cámara determinada, son agregados a la secuencia de video, y entonces el multiplexor agrega uno o más cuadros de la siguiente cámara. El número de cuadros que es agregado por cámara depende de la señal del temporizador para el multiplexor, el número de cámaras y el índice de grabación. En la materia, también es conocida la técnica de tomar una representación digital de la señal de video y de identificar las imágenes que fueron originadas por cada cámara en la señal de video multiplexada. Sin embargo, en la técnica anterior, el procedimiento es realizado en forma serial en aquellas imágenes producidas por una sola cámara son identificadas a través de la comparación de la representación digital en su totalidad de la señal de video. Explicado de otra forma, con el objeto de obtener señales de salida para todo el número de cámaras, N, debe ocurrir que N pase a través de la señal de video. Además, dichos sistemas únicamente se proporcionan para imágenes de comparaciones directas. Por ejemplo, una vez que la primera imagen es identificada y asociada con la primera cámara, se hace una comparación con todas y cada una de las otras imágenes en la señal de video. Si ocurre un cambio dentro de la vista de la primera cámara durante la grabación y los datos resultantes son diferentes de manera significativa de la primera imagen, el sistema desecharía la imagen debido a que no concuerda, incluso si la imagen debiera ser asociada con la cámara. Por lo tanto, los sistemas de la técnica anterior no representarán fácilmente el movimiento que ocurre al frente de una cámara. Adicionalmente, dichos sistemas son inadecuados para cámara, las cuales hacen movimientos de cámara panorámicos, en las cuales la vista, como es observada por la cámara que cambia con el tiempo. Por lo tanto, sería deseable tener un sistema al cual se le permite el procesamiento paralelo de todas las cámaras en un paso a través de la representación digital de la señal de video. Es adicionalmente deseable tener un método y un sistema para acomodar las cámaras que hacen movimientos de cámaras panorámicas. Además, es deseable tener un sistema, el cual no deseche cuadros durante el procedimiento de demultiplexión y permitan la identificación de movimiento en la vista de una cámara.
BREVE DESCRIPCION DE LA INVENCION Una modalidad de la presente invención es un método para demuitiplexar datos de video digitales, los cuales se originan a partir de fuentes múltiples, en las cuales las imágenes multiplexadas no están indexadas ni se proporciona información de identificación para diferenciar las fuentes. Las fuentes son generalmente cámaras, las cuales pueden ser cámaras estacionarias o cámaras con movimiento que giran, como las que son utilizadas comúnmente en la industria de vigilancia. Un primer grupo de datos de video digitales representativos de una primera imagen es recuperado desde una fuente de memoria o desde una cinta de video. El primer grupo de datos de video digitales es almacenado en una memoria de ubicación asociada con una primera fuente. El primer grupo de datos de video, también es identificado como datos de video representativos de la primera fuente. Entonces es recuperado un segundo grupo de datos de video digitales representativos de una imagen actual. Un índice de diferencia es calculado utilizando los datos de video digitales representativos y el grupo actual de datos de video digitales. Si el índice de diferencia está por encima de un umbral, un despliegue de búsqueda requiere una respuesta para clasificar los datos de video digitales actuales como pertenecientes a una fuente identificada o que son originados desde una fuente nueva que es presentada a un usuario del sistema. Si una respuesta es recibida indicando que el grupo actual de datos de video digitales está asociado con una fuente nueva, el grupo actual de datos de video digitales es almacenado en una segunda ubicación de memoria asociada con la segunda fuente. Este grupo actual de datos de video digitales son entonces identificados como datos de video digitales representativos para la segunda fuente. Si el índice diferente está por debajo del umbral, los datos de video digitales actuales son almacenados a la memoria de ubicación asociada con la primera fuente, de tal manera que el grupo de datos de video digitales actual ahora se vuelven los datos de video digitales representativos para la primera fuente. En ciertas modalidades, los datos de video digitales son normalizados para compensar las diferencias de brillo antes de calcular un índice de diferencia. Si existen fuentes múltiples y las fuentes son identificadas y tienen cuadros representativos asociados, un índice de diferencia es calculado para cada cuadro representativo y cada índice de diferencia es comparado con el umbral. Si un índice de diferencia asociado con un cuadro representativo de una fuente esta por debajo del umbral, el cuadro actual de datos de video digitales se vuelve el nuevo cuadro representativo para esa fuente. En ciertas modalidades, los datos de video digitales que son almacenados como el cuadro representativo, son reducidos de tamaño antes de ser almacenados. En dicha modalidad, los datos de video digitales actuales que representan el cuadro actual de video, también son reducidos de tamaño antes de calcular el índice de diferencia. En otras modalidades de la presente invención, un usuario puede enviar una señal que contiene información representativa de una sección de la imagen. Los datos que residen dentro de esa sección de la imagen son los datos que son utilizados para comparación y en dónde la misma sección del cuadro actual y la misma sección de cada cuadro representativo, son usados para calcular el índice de diferencia. La metodología definida anteriormente es de tal manera que todos los cuadros de datos pueden ser identificados desde una fuente con un solo paso a través de los datos. La metodología, como se describió puede estar incorporada en un producto de programa de cómputo que tiene un código de cómputo en el mismo, el cual se puede leer por computadora. El método también puede ser ¡mplementado en un dispositivo que comprende módulos. El dispositivo puede ser parte de un sistema que incluye una cámara y un procesador para recibir cada señal de video y multiplexar la señal en una señal de video multiplexada. El sistema puede incluir adicionalmente memoria para almacenar la señal de video multiplexada y demultiplexada. En el sistema, el procesador recibe un requerimiento para demultiplexar y el procesador demultiplexa la señal de video multiplexado en un solo paso a través de la señal de video multiplexada. El sistema puede incluir un módulo de recuperación para recuperar un primer grupo de datos de video digitales representativos de una primera imagen y recuperar un grupo actual de datos de video digitales representativos de una imagen actual. El sistema podría tener adicionalmente un módulo de almacenaje, un módulo de cálculo y un módulo de búsqueda. El módulo de cálculo, calcula un índice de diferencia utilizando el primer grupo de datos de video digitales y el grupo actual de datos de video digitales y el módulo de almacenaje, almacena el primer grupo de datos de video digitales en una ubicación de memoria asociada con una primera fuente. El módulo de búsqueda produce un despliegue de búsqueda que requiere respuesta para clasificar los datos de video digitales como pertenecientes a una fuente identificada o que se originan desde una fuente nueva si el índice de diferencia está por encima del umbral. El módulo de almacenaje también almacena el grupo actual de datos de video digitales en una segunda memoria asociada con la segunda fuente de acuerdo con una respuesta recibida que indica que el grupo actual de datos de video digitales está asociado con una fuente nueva. Si el índice de diferencia está por debajo del umbral, el módulo de almacenaje almacena los datos de video digitales actuales en la ubicación de memoria asociada con la primera fuente. El sistema también puede incluir un módulo de normalización para normalizar los datos de video digitales para compensar las diferencias de brillo antes de proporcionar los datos de video digitales al módulo de cálculo para calcular un índice de diferencia. En el sistema, el módulo de cálculo, calcula un índice de diferencia para cada grupo de datos de video digitales representativos de una fuente y el grupo actual de datos de video digitales y el módulo de búsqueda compara cada índice de diferencia con el umbral.
BREVE DESCRIPCION DE LOS DIBUJOS Las características de la presente invención se entenderán más fácilmente al hacer referencia a la siguiente descripción detallada, tomadas haciendo referencia a los dibujos que la acompañan, en los cuales: La Figura 1 , muestra un ambiente para implementar una primera modalidad para demultiplexar imágenes de video; La Figura 1A, es un diagrama de flujo que ilustra la forma de demultiplexar los cuadros de video a partir de una pluralidad de cámaras en una corriente de cuadros de imagen de video; La Figura 1 B, es un diagrama de flujo que ilustra aspectos adicionales para multiplexar cuadros de video; La Figura 2A, representa un cuadro de referencia como es desplegado en un dispositivo de despliegue y el cuadro con líneas punteadas indica el área definida por el usuario; La Figura 2B, representa el cuadro actual como es desplegado en un dispositivo de despliegue y muestra la misma área definida por el usuario como aquella de la Figura 2A, que es utilizada para hacer una comparación; La Figura 3, muestra tres cámaras (cámara 1 , cámara 2 y cámara 3) que producen una secuencia de cuadros de video multiplexados en la cual, una imagen de cada cámara es agregada a la secuencia con el paso del tiempo; Las Figuras 4A y 4B muestran una región de interés seleccionada por el usuario, en la cual, la región contiene una fecha y hora desplegadas; y La Figura 5, es una modalidad de la presente invención en la cual, los módulos son estructurados en el hardware para realizar las funciones del método descrito.
DESCRIPCION DETALLADA DE LAS MODALIDADES ESPECIFICAS Como se utiliza en el siguiente texto, el término "video digital", significa una representación digital de una secuencia de imágenes, las cuales pueden ser desplegadas en forma temporal en un dispositivo de despliegue. Normalmente, el video digital contiene una pluralidad de cuadros en donde cada cuadro representa una imagen separada. Los cuadros pueden ser subdivididos adicionalmente de tal manera que los cuadros son elaborados a partir de una serie de pixeles. Como se utiliza en la siguiente descripción, el término "píxel" significará un punto individual de una imagen. A mayor es el número de pixeles que están contenidos en una imagen, mayor es la resolución del video. Las resoluciones convencionalmente son indicadas por las medidas de longitud y ancho del número de pixeies, por ejemplo, en una resolución de 800 x 600, existen 800 pixeies a lo largo de la longitud de una imagen por 600 pixeies a lo largo del ancho de la imagen. En una modalidad de la presente invención, las imágenes de video en una corriente de imágenes formadas a partir de una pluralidad de fuentes de video son demuitiplexadas, de tal manera que las imágenes de una fuente determinada pueden ser recolectadas, analizadas y vistas. La Figura 1 , muestra un ambiente para implementar una modalidad de la presente invención. En la Figura 1 , se muestra una pluralidad de cámaras (Cámara A, Cámara B y Cámara C). Cada cámara produce una señal de video que contiene información de video, la cual es multiplexada en conjunto y almacenada, ya sea en un formato digital en la memoria asociada con un procesador 20 ó en formato digital o análogo en una cinta 25. La información multiplexada no contiene la información principal para identificar la fuente, ni se encuentra su información indexada proporcionada para identificar la fuente. La información multiplexada es subsecuentemente demultiplexada por el procesador. Si la información de video está en un formato análogo, la información primero es digitalizada en un proceso de conversión de análogo a digital, el cual es bien conocido por aquellos ordinariamente expertos en la materia. Después de que la información de video es digitalizada, la secuencia de datos digital es transferida a un procesador. Las imágenes pueden estar comprimidas o descomprimidas o en un formato de campo o cuadro. De manera similar, el video digital puede estar en cualquier número de representaciones de espacio de color, incluyendo RGB y YUV. El procesador realiza la operación como se describió al hacer referencia a los diagramas de flujo de las Figuras 1A y 1 B, para demultiplexar el video digital, Se debe entender que dentro de esta descripción, el término cuadro se utilizará para referirse a una imagen de video, la cual será desplegada durante un período de tiempo designado. La descripción se puede aplicar de la misma manera a los campos de video, los cuales normalmente san producidos para dispositivos de despliegue que despliegan imágenes intercaladas. En las Figuras 1A y 1 B, se muestra la operación para demultiplexar un video a partir de una pluralidad de fuentes 100. El primer cuadro de video en el video digital es descompuesto y almacenado en una ubicación de memoria 110. El cuadro por defecto es marcado como el cuadro de referencia para una primera fuente, la cual en esta modalidad, es la cámara 1. Un cuadro de referencia designa el cuadro con el cual será comparado el cuadro actual. En una modalidad, el cuadro, el cual puede ser un cuadro NTSC, es reducido de tamaño antes de la comparación, por ejemplo, a 1/8 del tamaño original antes del almacenaje. La reducción del tamaño del cuadro puede ser lograda de una manera simple, removiendo píxeles. Por ejemplo, para reducir el número de píxeles por un factor de 4 para una imagen de 800 x 600 píxeles, todos los demás píxeles podrían ser removidos, de tal manera que fueran 400 x 300 píxeles. En otra modalidad, los datos pueden ser reducidos promediándolos. Por ejemplo, cada ocho columnas de ocho píxeles podrían ser promediadas, de tal manera que esos 64 píxeles son reducidos a un píxel. El siguiente cuadro ("el cuadro actual") es entonces descompuesto a partir del video digital 120. Un área seleccionada por el usuario es entonces elegida para el cuadro de referencia. Esta área seleccionada, es utilizada para comparar el área seleccionada del cuadro de referencia y la misma área seleccionada del cuadro actual. En ciertas modalidades, el área seleccionada será un valor por defecto para el cuadro en su totalidad y no requiere interacción del usuario del sistema. Antes de la comparación de los cuadros de referencia y actual, el área seleccionada de los cuadros es normalizada de manera tal que remueve cualquier cambio en el brillo/intensidad de la comparación. Por ejemplo, es calculado el valor de intensidad promedio para los píxeles en el área seleccionada por el usuario en el cuadro de referencia y la misma área en el cuadro actual. Cada valor de intensidad es entonces dividido entre el valor de intensidad promedio para el área definida por el usuario respectivo. Este paso, normaliza la representación de valores para cualesquiera cambios en el brillo, tal como destellos de luz repentinos. Por ejemplo, si una cámara está monitoreando un cajero automático automatizado y un automóvil se acerca a la máquina, en el momento en que las luces del automóvil iluminan repentinamente el área de visibilidad, este cambio de iluminación será representado. Esta normalización también puede ser realizada en cualquiera de un número de formas conocidas en la materia que incluyen utilizar el valor RMS como opuesto a la intensidad promedio para el área seleccionada por el usuario.
Con base en el área seleccionada por el usuario, el cuadro actual es entonces comparado en el paso 130 con la misma área del cuadro de referencia. Por ejemplo, se deben observar las Figuras 2A y 2B, en donde la Figura 2A representa el cuadro de referencia 220 como es desplegado en un dispositivo de despliegue 250 y el cuadro con la línea punteada indica el área definida por el usuario 275A. La Figura 2B, representa el cuadro actual 201 como es desplegado en un dispositivo de despliegue 250 y muestra que la mismas áreas definidas por el usuario 275B de la pantalla de despliegue, como la de la Figura 2A, es utilizada para la comparación. En la modalidad en la cual, el cuadro de referencia es reducido de tamaño antes de su almacenaje, el cuadro actual es reducido de tamaño antes de su comparación. Reduciendo el tamaño de los cuadros de video, el espacio de almacenaje es reducido y el índice de error promedio es disminuido, reduciendo de esta manera la oscilación. Los índices de diferencia son calculados en el paso 130 entre el cuadro actual y cada cuadro de referencia de una fuente identificada (cámara). La suma del valor absoluto de la diferencia entre los píxeles del cuadro actual y los píxeles del cuadro de referencia en el área seleccionada por el usuario es entonces calculada y posteriormente dividida entre la suma de los valores de intensidad de los píxeles del cuadro actual. Este índice representa la diferencia entre el cuadro actual y un cuadro de referencia de una cámara determinada. A través de la primera repetición, debido a que únicamente existe una fuente identificada, el índice de diferencia es calculado únicamente para el cuadro representativo de la cámara 1. El índice de referencia más pequeño es comparado con un valor de umbral definido por el usuario. Si el índice de diferencia más pequeño está debajo de un valor de umbral definido por el usuario en el paso 140, el cuadro actual es identificado como entrante desde la fuente asociada con el índice de diferencia más bajo. En una modalidad de la presente invención, el cuadro actual que es identificado con una fuente, es entonces copiado al cuadro de referencia de la cámara correspondiente y el cuadro es escrito en el paso 150 a la memoria. El procedimiento para reemplazar el cuadro de referencia con el cuadro actual ayuda en la identificación de la fuente, debido al efecto de los cambios, los cuales ocurren en forma gradual, tales como los cambios de luz entre el día y la noche y las tomas de movimiento de la cámara son minimizadas. Si el índice de referencia más bajo es igual o está debajo del valor de umbral definido por el usuario, el usuario es advertido para identificar el cuadro. El cuadro actual y el último cuadro de referencia de cada cámara son desplegados en un dispositivo de despliegue para el usuario en el paso 170, de tal manera que el usuario puede comparar los cuadros visualmente. El cuadro actual puede ser un cuadro de una fuente nueva o un cuadro de una fuente que ya ha sido identificada o los datos invalidados que serán ignorados. Si el usuario identifica el cuadro como un cuadro de una fuente nueva en el paso 210, es decir, una cámara que aún no ha sido identificada, entonces el cuadro es copiado como una nueva fuente de cuadro de referencia, y el cuadro es escrito en la memoria como el primer cuadro de la cámara nueva. Si el usuario identifica el cuadro como una concordancia para una fuente existente en el paso 180, entonces el cuadro es copiado al cuadro referencia de fuente correspondiente, y entonces la salida 150 como la fuente correspondiente. Si el usuario identifica el cuadro como datos inválidos que serán ignorados en el paso 190, el cuadro es descartado en el paso 200 y el procesamiento prosigue. El procedimiento es repetido en el paso 160 hasta que todos los cuadros son procesados y la operación para demultiplexar se completa en el paso 250. Se debe observar que después de que cada cámara es identificada y un cuadro de referencia es asociado con la cámara fuente, las comparaciones serán realizadas entre el cuadro actual y cada cuadro de referencia de la fuente. En la industria de la vigilancia, el video multiplexado es multiplexado de tal manera que un cuadro o los cuadros múltiples de cada cámara son almacenados en una forma secuencial (cámara 1 , cámara 2, etc.). Como resultado, después del procesamiento de los primeros cuadros, todas las cámaras son normalmente identificadas. El usuario es entonces advertido, únicamente cuando un cuadro no concuerda con ninguna fuente existente. Una falta de concordancia se puede deber al ruido o al daño del cuadro de video y los datos pueden ser omitidos, o puede ser identificada una fuente, la cual almacena todos los cuadros dañados o ruidosos. Una falta de concordancia, también puede ocurrir cuando sucede un cambio significativo en el cuadro, de tal manera que un objeto grande se mueve a través del área seleccionada. En una modalidad específica de la presente invención, el usuario puede cambiar el umbral. Por ejemplo, elevar el umbral puede ser ventajoso si ocurre una advertencia innecesaria cuando las imágenes de una fuente común no son identificadas de manera adecuada. En dicha modalidad, el umbral actual junto con los Indices de diferencia actuales son desplegados al usuario en un dispositivo de despliegue y el usuario puede, ya sea seleccionar uno de una pluralidad de umbrales previamente determinados o el usuario puede ingresar de manera manual un umbral. En otra modalidad, existen dos umbrales separados que son utilizados para compararse con los índices de diferencia. El primer umbral, como se describió anteriormente, es utilizado para determinar si la imagen actual concuerda con cualquiera de las cámaras. El segundo umbral proporciona un nivel por encima del cual deben ser descartados los cuadros. Si el segundo umbral es excedido, los datos asociados con la imagen son descartados de manera automática. El segundo umbral tiene un valor, el cual es mayor que el primer umbral y puede ser determinado a través del análisis histórico o la experimentación. En una modalidad de la presente invención, el video de las cámaras 300, 301 , 302 que graban un área haciendo un barrido a través del área que es demultiplexada, como se muestra en la Figura 3. En esta modalidad, cuando el umbral es ajustado para asociar una imagen con una cámara, es tomado en cuenta el cambio temporal de imagen a imagen, conforme la cámara hace un barrido. Por ejemplo, la Figura 3 muestra tres cámaras (cámara 1 , cámara 2 y cámara 3) que producen una secuencia de cuadros de video multiplexados 320 en la cual, una imagen de cada cámara es agregada a la secuencia con el paso del tiempo. Después de que un cuadro de las tres cámaras ha sido guardado en la secuencia, el procedimiento se repite. En la Figura 3, las imágenes de la cámara 1 pueden ocurrir en T0 y T3. Como se muestra en dicha Figura 3, si la imagen de T0 es cambiada por tres píxeles, los cuales representan el movimiento de la cámara entre T0 y T3 y las imágenes recubren la mayoría de los píxeles de la imagen en T0 se traslaparán con la imagen en T3. Reemplazando el cuadro de referencia con el cuadro actual y utilizando el cuadro de referencia actualizado durante la comparación, la cantidad de movimiento entre el cuadro de referencia y el cuadro actual es minimizada, de tal manera que el rastreo más elaborado y las técnicas de comparación no necesitan ser empleadas. Si el movimiento de la cámara es lento en comparación con el tiempo entre las imágenes guardadas, el umbral puede ser ajustado para acomodar el movimiento. En otras modalidades, los píxeles del cuadro de referencia son cambiados de posición antes de la comparación con el cuadro actual para representarlos para el barrido de la cámara. Adicionalmente, en el procedimiento de comparación, la imagen actual puede ser cambiada varias veces en diversas direcciones para calcular un índice de diferencia y comparar el índice para el umbral. Adicionalmente, la dirección de movimiento puede ser anticipada a través del análisis de tendencia, en donde la dirección del movimiento se basa en el movimiento previo para la misma fuente. Por consiguiente, al rastrear la dirección del movimiento, el número de cambios en las localizaciones y comparaciones de datos, es reducido. En una modalidad específica adicional, el umbral es ajustado a una cámara individual, de tal manera que el movimiento o los cambios que son identificados en el cuadro tienen lugar en la vista de la cámara, de tal manera que, únicamente aquellos cuadros son guardados en el área de almacenaje de la imagen de video. En dicha modalidad, ocurre el mismo método de comparación, pero el cuadro actual y los cuadros de referencia únicamente son mantenidos en la memoria volátil y los cuadros que exceden el umbral son almacenados en la memoria no volátil asociada con el sistema. En otra variación, una vez que el umbral es excedido, el usuario del sistema se muestra en la imagen que excede el umbral y es advertido en un dispositivo de despliegue para indicar si el cuadro debe ser almacenado en una memoria no volátil. Bajo ciertas circunstancias, los cuadros de video pueden ser separados por hora y/o fecha. En ciertos sistemas multiplexores en los cuales, las cámaras son cámaras digitales, talque como aquellas que incluyen a los CCD (dispositivos de carga acoplados), la corriente de datos digitales que contienen los cuadros digitales pueden incluir un sello de fecha y hora precediendo el cuadro de imagen digital. En tal caso, los cuadros pueden ser almacenados y separados de acuerdo con la fecha y la hora. En otros sistemas de multiplexión, en los cuales las cámaras producen una señal análoga con una fecha y hora sobrepuestas o en los cuales, las cámaras digitales incluyen fecha y hora dentro del cuadro digital, los cuadros de video pueden ser subdivididos por hora y fecha. En esta modalidad, después de que es digitalizada la señal de video, la región de interés seleccionada por el usuario es seleccionada como la fecha y hora desplegadas. Si los cuadros de video serán separados por hora, la región seleccionada por el usuario podría ser seleccionada para ser la hora 400A, como se muestra en la Figura 4A y en cualquier momento existe un cambio en esa área del cuadro de video, en donde los datos del cuadro de video podrían ser guardados en una ubicación diferente de memoria, la cual está asociada con esa hora. De manera similar, en la Figura 4B, se muestra un despliegue de video 410 de los datos de imagen digital, en el cual, el día del mes es la región definida por el usuario seleccionada 400B. El sistema entonces puede buscar de manera continua los cambios en los datos dentro del área definida por el usuario seleccionada que están por encima de un umbral con el objeto de identificar los cuadros que provienen de diferentes días del mes. La Figura 5, es otra modalidad de la presente invención, en la cual, la presente invención está en la forma del dispositivo 500. El dispositivo 500 puede ser un dispositivo electrónico, tal como un módulo FPGA programado o un circuito integrado ASIC. El dispositivo 500 incluye un módulo de recuperación 501 , el cual recupera o recibe los datos de imagen digital 550. Los datos de imagen digital incluyen cuadros de datos de video de fuentes múltiples. El módulo de recuperación 501 recupera un primer grupo de datos de video digitales representativos de una primera imagen y también recupera un grupo actual de datos de video digitales representativos de una imagen actual. El módulo de recuperación 501 , pasa el primer grupo de datos digitales a un módulo de almacenaje 502. El módulo de almacenaje 502 almacena en la memoria 650, el primer grupo de datos de video digitales a una ubicación de memoria asociada con una primera fuente 561. Los datos también son identificados como los datos de video representativos de la primera fuente. El módulo de recuperación 501 pasa el primer grupo de datos de video digitales a un módulo de cálculo 503 junto con el grupo actual de datos de video digitales. El módulo de cálculo 503, calcula un índice de diferencia utilizando un primer grupo de datos de video digitales y el grupo actual de datos de video digitales como se explicó anteriormente. Si se ha identificado más de una fuente, los datos de video digitales de cada cuadro representativo para una fuente son recuperados y un índice de diferencia es calculado para cada uno. El índice(s) de diferencia es enviado a un módulo de búsqueda 504. El módulo de búsqueda 504 compara el índice(s) de diferencia con un umbral. Si un índice de diferencia para un cuadro representativo de una fuente está debajo del umbral, entonces el cuadro actual es asociado con esta fuente. Los datos de video digitales son entonces almacenados en la memoria asociada con la fuente identificada 562. Por ejemplo, si el índice de diferencia para el cuadro representativo de la cuarta fuente está debajo del umbral, los datos de video digitales actuales serán asociados con esa fuente. Adicionalmente, el cuadro actual se convertirá en el cuadro representativo de la cuarta fuente. Si todos los índices de diferencia están por encima del umbral, el módulo de búsqueda 504 produce un despliegue de búsqueda en un dispositivo de despliegue 510 que requiere una respuesta de un usuario del dispositivo para clasificar los datos de video digitales actuales como pertenecientes a una fuente identificada u originándose desde una fuente nueva. De esta manera, un usuario recibe un mensaje en el dispositivo de despliegue 510 de que el cuadro actual de los datos de video no pueden ser asociados fácilmente con una fuente en particular debido a que el índice de diferencia está por encima de un umbral. El usuario entonces puede enviar una respuesta a través de un dispositivo de entrada 51 1 , tal como un teclado o un ratón, el cual es acoplado de manera conectiva con el dispositivo, el cual indica que el cuadro actual proviene, ya sea de la primera fuente o de otra fuente identificada previamente, debe ser asociada con una fuente nueva o debe ser descartada. El módulo de búsqueda 504 recibe esta información e instruye al módulo de almacenaje 502 para almacenar los datos de video digitales actuales para el cuadro actual de video en una ubicación de memoria con la fuente identificada. Al usuario del sistema se le proporciona un despliegue de la imagen actual, así como también, cada cuadro representativo para una fuente. Esto permite al usuario hacer una comparación visual que ayuda al procedimiento de identificación. Se debe entender que si el usuario identifica los datos de video digitales actuales conforme llega desde una fuente nueva, los datos de video digitales actuales serán asociados con una ubicación de memoria asociada con una fuente nueva. Un módulo de normalización 505, también puede estar incluido en el dispositivo. El módulo de normalización normaliza los datos de video digitales del cuadro de video actual conforme son comparados con los cuadros de video representativos. Como se expresó anteriormente, la normalización de los datos de video digitales pueden representar los cambios en la iluminación, tales como los cambios que ocurren entre el día y la noche. La normalización ocurre antes del cálculo del índice de diferencia. Se debe observar que los diagramas de flujo son utilizados en la presente descripción para demostrar diversos aspectos de la presente invención, y no deben ser interpretados como para limitar la presente invención a cualquier flujo lógico particular o ¡mplementación lógica. La lógica descrita puede ser separada en diferentes bloques lógicos (por ejemplo, programas, módulos, funciones o subrutinas) sin cambiar los resultados en conjunto o de lo contrario alejarse del alcance real de la presente invención. Con frecuencia, los elementos lógicos pueden ser agregados, modificados, omitidos, realizados en un orden diferente, o ser implementados utilizando interpretaciones lógicas diferentes (por ejemplo, portales lógicos, circuitos básicos, lógica condicional, y otras interpretaciones lógicas) sin cambiar los resultados en conjunto, o de lo contrario, alejarse del alcance real de la presente invención. La presente invención puede ser incorporada en muchas formas diferentes, incluyendo, pero sin limitación alguna para la lógica del programa de cómputo para ser utilizada con un procesador (por ejemplo, un microprocesador, microcontrolador, procesador de señal digital o computadora de propósito general), lógica programable para ser utilizada con un dispositivo de lógica programable (por ejemplo, una Serie de puertos de campo programable (FPGA) u otro PLD); componentes discretos, sistemas de circuitos integrados (por ejemplo, un Circuito integrado de aplicación específica (ASIC)), o cualesquiera otros medios que incluyen cualquier combinación de los mismos. La lógica del programa de cómputo que ¡mplementa toda o parte de la funcionalidad descrita anteriormente en la presente descripción puede ser incorporada en diversas formas, incluyendo, pero sin limitarse en forma alguna a, una forma de código fuente, una forma ejecutable de cómputo y diversas formas intermedias (por ejemplo, formas generadas por un ensamblador, compilador, enlazador o localizador). El código fuente puede incluir una serie de instrucciones de programa de cómputo implementadas en cualquiera de los diversos lenguajes de programación (por ejemplo, un código de objeto, un lenguaje de ensamble, o un lenguaje de alto nivel, tal como Fortran, C, C++, JAVA, ó HTML) para ser utilizado con diversos sistemas operativos o ambientes operativos. El código fuente puede definir y utilizar diversas estructuras de datos y mensajes de comunicación. El código fuente puede estar en una forma ejecutable en computadora (por ejemplo, por medio de un intérprete), o el código fuente puede ser convertido (por ejemplo, mediante un traductor, ensamblador o compilador) en una forma ejecutable en computadora. El programa de cómputo puede fijarse en cualquier forma (por ejemplo, en forma de código fuente, en forma que se puede ejecutar en computadora, o en una forma intermedia) ya sea de manera permanente o transitoria en un medio de almacenaje tangible, tal como un dispositivo de memoria de semiconductor (por ejemplo, una RAM, una ROM, una PROM, una EEPROM ó una RAM de programación instantánea) un dispositivo de memoria magnética (por ejemplo, un disco flexible o un disco fijo), un dispositivo de memoria óptica (por ejemplo, un CD-ROM) una tarjeta de PC (por ejemplo, una tarjeta PCMCIA), u otro dispositivo de memoria. El programa de cómputo puede fijarse en cualquier forma en una señal que se puede transmitir a una computadora utilizando cualquiera de diversas tecnologías de comunicación que incluyen, pero de ninguna manera se limitan a, tecnologías análogas, tecnologías digitales, tecnologías ópticas, tecnologías inalámbricas, tecnologías de red, y tecnologías que trabajan a través de la Internet. El programa de cómputo puede ser distribuido en cualquier forma como un medio de almacenaje removible acompañado de documentación impresa o electrónica (por ejemplo, software con licencia de uso o una cinta magnética), puede estar cargado previamente con un sistema de cómputo (por ejemplo sobre un sistema ROM ó de disco fijo), o ser distribuido desde un servidor o tablero de anuncios electrónico en un sistema de comunicaciones (por ejemplo, la Internet o la Red Mundial). La lógica de hardware (que incluye lógica programable para ser utilizada con un dispositivo lógico programable) implementa toda o parte de la funcionalidad descrita anteriormente en la presente descripción, puede ser diseñada utilizando métodos manuales tradicionales, o puede ser diseñada, capturada, simulada o documentada en forma electrónica utilizando diversas herramientas, tal como el Diseño asistido por computadora (CAD), un lenguaje de descripción de hardware (por ejemplo VHDL ó AHDL) o un lenguaje de programación PLD (por ejemplo, PALAS M, ABEL ó CUPL). La presente invención puede ser incorporada en otras formas específicas sin alejarse del alcance real de la presente invención. Las modalidades descritas serán consideradas en todos sus aspectos, únicamente como ilustrativas, más no como restrictivas.

Claims (58)

NOVEDAD DE LA INVENCION REIVINDICACIONES
1.- Un método para demultiplexar datos de video digitales, el cual se origina desde fuentes múltiples, el método comprende: recuperar un primer grupo de datos de video digitales representativos de una primera imagen; almacenar el primer grupo de datos de video digitales en una ubicación de memoria asociada con una primera fuente, de tal manera que el primer grupo de datos de video digitales que es representativos de los datos de video digitales de la primera fuente; recuperar un grupo actual de datos de video digitales representativos de una imagen actual; calcular un índice de diferencia utilizando los datos de video digitales representativos y el grupo actual de datos de video digitales; y si el índice de diferencia está por encima de un umbral, producir un despliegue de búsqueda que requiere respuesta para clasificar los datos de video digitales actuales como pertenecientes a una fuente identificada o son originados desde una fuente nueva, en donde la primera fuente es una fuente identificada.
2.- El método de conformidad con la Reivindicación 1 , caracterizado además porque comprende adicionalmente: almacenar el grupo actual de datos de video digitales en una segunda ubicación de memoria asociada con la segunda fuente de acuerdo con una respuesta recibida que indica que el grupo actual de datos de video digitales es asociado con una fuente nueva, de tal manera que el grupo actual de datos de video digitales son los datos de video digitales representativos de la segunda fuente.
3. - El método de conformidad con la Reivindicación 1 , caracterizado además porque comprende adicionalmente: si el índice de diferencia está por debajo del umbral, almacena los datos de video digitales actuales en la ubicación de memoria asociada con la primera fuente, de tal manera que el grupo de datos de video digitales actuales son los datos de video digitales representativos para la primera fuente.
4. - El método de conformidad con la Reivindicación 1 , caracterizado además porque comprende adicionalmente: normalizar los datos de video digitales para compensar las diferencias de brillo antes de calcular un índice de diferencia.
5. - El método de conformidad con la Reivindicación 1 , caracterizado además porque los pasos de cálculo y producción comprenden adicionalmente: calcular un índice de diferencia para cada grupo de datos de video digitales representativos desde una fuente y un grupo actual de datos de video digitales; y comparar cada índice de diferencia con el umbral.
6. - El método de conformidad con la Reivindicación 5, caracterizado además porque comprende adicionalmente identificar una fuente para la cual, el índice de diferencia está por debajo del umbral; y asociar el grupo actual de datos de video digitales con la fuente identificada.
7. - El método de conformidad con la Reivindicación 1 , caracterizado además porque asociar el grupo actual de datos de video digitales con la fuente identificada comprende adicionalmente: identificar el grupo actual de datos de video digitales como un grupo de datos de video digitales representativos.
8.- El método de conformidad con la Reivindicación 1 , caracterizado además porque el primer grupo de datos de video digitales es reducido en el tamaño de los datos antes de ser almacenado; y en donde es creada una representación de un grupo actual de datos de video digitales, la cual tiene un tamaño reducido y la cual es utilizada para determinar el índice de diferencia.
9.- El método de conformidad con la Reivindicación 1 , caracterizado además porque comprende adicionalmente: recibir una señal que contiene información representativa de una sección de la imagen para utilizarla para hacer una comparación en el cálculo del índice de diferencia, en donde la misma sección del cuadro actual y la misma sección de cada cuadro representativo son utilizadas en el cálculo del índice de diferencia.
10. - El método de conformidad con la Reivindicación 1 , caracterizado además porque comprende adicionalmente: si el índice de diferencia está debajo del umbral, identificar el cuadro actual como un cuadro representativo de una fuente, en donde el grupo de datos para el cuadro representativo es utilizado para hacer las comparaciones con un grupo de datos para los cuadros subsecuentes.
11. - El método de conformidad con la Reivindicación 1 , caracterizado además porque cada fuente de origen diferente es identificada, en donde el grupo de datos que es representativo del cuadro actual es almacenado como el cuadro representativo para esa fuente.
12. - El método de conformidad con la Reivindicación 1 , caracterizado además porque las fuentes son cámaras de vigilancia estacionarias.
13. - El método de conformidad con la Reivindicación 1 , caracterizado además porque las fuentes son cámaras de vigilancia giratorias.
14. - Un método para demultiplexar datos de video digitales, los cuales se originan desde fuentes múltiples, el método comprende: recuperar un primer grupo de datos de video digitales representativos de una imagen; almacenar el primer grupo de datos de video digitales en una ubicación de memoria asociados con una primera fuente, de tal manera que el primer grupo de video digital es el video digital representativo de la primera fuente; recuperar un grupo actual de datos de video digitales representativos de una imagen; seleccionar un subgrupo del primer grupo de datos de video digitales; seleccionar un subgrupo del grupo actual de datos de video digitales, de tal manera que el subgrupo del primer grupo y el subgrupo del grupo actual contienen localizaciones de píxel idénticas; calcular una medición de diferencia entre el subgrupo del primer grupo y el subgrupo del grupo actual; calcular un índice de diferencia con base en la medición de diferencia; y si el índice de diferencia está por encima de un umbral, producir un despliegue de búsqueda que requiere respuesta para clasificar los datos de video digitales como pertenecientes a una fuente identificada o que se origina desde una fuente nueva.
15.- El método de conformidad con la Reivindicación 14, caracterizado además porque comprende adicionalmente: almacenar el grupo actual de datos de video digitales en una segunda ubicación de memoria asociada con la segunda fuente de acuerdo con una respuesta recibida que indica que el grupo actual de los datos de video digitales están asociados con una fuente nueva, de tal manera que el grupo actual de datos de video digitales son los datos de video digitales representativos de una fuente nueva.
16.- El método de conformidad con la Reivindicación 14, caracterizado además porque comprende adicionalmente: si el índice de diferencia está por debajo del umbral, almacenar los datos de video digitales actuales con la ubicación de memoria asociada con la primera fuente, de tal manera que el grupo de datos de video digitales actuales es representativo de los datos de video digitales para la primera fuente.
17.- El método de conformidad con la Reivindicación 14, caracterizado además porque comprende adicionalmente: normalizar los datos de video digitales actuales para compensar las diferencias en el brillo antes de calcular un índice de diferencia.
18.- El método de conformidad con la Reivindicación 14, caracterizado además porque los pasos para calcular y producir comprenden adicionalmente: calcular un índice de diferencia para cada grupo de datos de video digitales representativos de una fuente y el grupo actual de datos de video digitales; y comparar cada índice de diferencia con el umbral.
19. - El método de conformidad con la Reivindicación 18, caracterizado además porque comprende adicionalmente identificar una fuente para la cual, el ¡ndice de diferencia está debajo del umbral; y asociar el grupo actual de datos de video digitales con la fuente identificada.
20. - El método de conformidad con la Reivindicación 14, caracterizado además porque asociar el grupo actual de datos de video digitales con la fuente identificada comprende adicionalmente: identificar el grupo actual de datos de video digitales como un grupo de datos de video digitales representativos para una fuente.
21. - El método de conformidad con la Reivindicación 14, caracterizado además porque el primer grupo de datos de video digitales es reducido en el tamaño de los datos antes de ser almacenado; y en donde una representación del grupo actual de los datos de video digitales es creada, la cual tiene un tamaño reducido y la cual es utilizada para determinar el (ndice de diferencia.
22. - El método de conformidad con la Reivindicación 14, caracterizado además porque comprende adicionalmente: si el índice de diferencia se encuentra debajo del umbral, identificar el cuadro actual como un cuadro representativo de una fuente, en donde el grupo de datos para el cuadro representativo es utilizado para hacer comparaciones con un grupo de datos para los cuadros subsecuentes.
23.- El método de conformidad con la Reivindicación 14, caracterizado además porque cada fuente de origen diferente es identificada, en donde el grupo de datos que es representativo del cuadro actual es almacenado como el cuadro representativo para esa fuente.
24.- El método de conformidad con la Reivindicación 14, caracterizado además porque las fuentes son cámaras de vigilancia estacionarias.
25.- El método de conformidad con la Reivindicación 14, caracterizado además porque las fuentes son cámaras de vigilancia giratorias.
26.- Un método para demultiplexar datos de video digitales, los cuales se originan desde fuentes múltiples, el método comprende: recibir una secuencia de video digital multiplexada; y comparar los datos digitales desde los cuadros descompuestos a partir de la secuencia de video digital multiplexada, de tal manera que cada cuadro es identificado con una fuente en un solo paso a través de la secuencia de video digital multiplexada.
27.- El método de conformidad con la Reivindicación 26, caracterizado además porque en la comparación de datos digitales de los cuadros descompuestos, un primer cuadro descompuesto es comparado con un segundo cuadro descompuesto y si el segundo cuadro descompuesto es identificado como proveniente de la misma fuente como el primer cuadro descompuesto, el segundo cuadro descompuesto es identificado como un cuadro de referencia para la fuente.
28.- El método de conformidad con la Reivindicación 27, caracterizado además porque el cuadro de referencia es utilizado para comparar un tercer cuadro descompuesto para identificar si el tercer cuadro descompuesto es originado desde la fuente.
29.- El método de conformidad con la Reivindicación 1 , caracterizado además porque comprende adicionalmente: recibir una señal que contiene información representativa de un umbral.
30. - El método de conformidad con la Reivindicación 14, caracterizado además porque comprende adicionalmente: recibir una señal que contiene información representativa de un umbral.
31. - Un producto de programa de cómputo para utilizar con una computadora para demultiplexar datos de video digitales, los cuales se originan a partir de fuentes múltiples, en donde el producto de programa de cómputo tiene un código que se puede leer por computadora en el mismo que forma un programa de cómputo, el programa de cómputo comprende: un código de cómputo para recuperar un primer grupo de datos de video digitales representativos de una primera imagen; un código de cómputo para almacenar el primer grupo de datos de video digitales a una ubicación de memoria asociada con una primera fuente; un código de cómputo para recuperar un grupo actual de datos de video digitales representativos de una imagen actual; un código de cómputo para calcular un índice de diferencia que utiliza el primer grupo de datos de video digitales y el grupo actual de datos de video digitales; y un código de cómputo para producir un despliegue de búsqueda que requiere respuesta para clasificar los datos de video digitales como pertenecientes a una fuente identificada o que es originada desde una fuente nueva si el índice de diferencia está por encima de un umbral, en donde la primera fuente es una fuente identificada.
32.- El producto de programa de cómputo de conformidad con la Reivindicación 31 , caracterizado además porque comprende adicionalmente: un código de cómputo para almacenar el grupo actual de datos de video digitales en una segunda ubicación de memoria asociada con la segunda fuente de acuerdo con una respuesta recibida que indica que el grupo actual de datos de video digitales está asociada con una fuente nueva.
33. - El producto de programa de cómputo de conformidad con la Reivindicación 31 , caracterizado además porque comprende adicionalmente: un código de cómputo para almacenar los datos de video digitales actuales en la ubicación de memoria asociada con la primera fuente si el índice de diferencia está debajo del umbral.
34. - El producto de programa de cómputo de conformidad con la Reivindicación 31 , caracterizado además porque comprende adicionalmente: un código de cómputo para normalizar los datos de video digitales para compensar las diferencias de brillo antes de calcular un índice de diferencia.
35.- El producto de programa de cómputo de conformidad con la Reivindicación 31 , caracterizado además porque el código de cómputo para calcular y producir comprende adicionalmente: un código de cómputo para calcular un índice de diferencia para cada grupo de datos de video digitales representativos a partir de una fuente y el grupo actual de datos de video digitales; y un código de cómputo para comparar cada índice de diferencia con el umbral.
36. - El producto de programa de cómputo de conformidad con la Reivindicación 35, caracterizado además porque comprende adicionalmente: un código de cómputo para identificar una fuente para la cual el índice de diferencia está debajo del umbral; y un código de cómputo para asociar el grupo actual de datos de video digitales con la fuente identificada.
37. - El producto de programa de cómputo de conformidad con la Reivindicación 31 , caracterizado además porque el código de cómputo para asociar el grupo actual de datos de video digitales con la fuente identificada comprende adicionalmente un código de cómputo para identificar el grupo actual de datos de video digitales como un grupo de datos de video digitales para una fuente.
38.- El producto de programa de cómputo de conformidad con la Reivindicación 31 , caracterizado además porque comprende adicionalmente un código de cómputo para reducir el primer grupo de datos de video digitales en el tamaño de datos antes de ser almacenado; y un código de cómputo para reducir el grupo actual de datos de video digitales en el tamaño de datos antes de utilizar el grupo actual de datos digitales para determinar el índice de diferencia.
39.- El producto de programa de cómputo de conformidad con la Reivindicación 31 , caracterizado además porque comprende adicionalmente: un código de cómputo para recibir una señal que contiene información representativa de una sección de la imagen que se utilizará para hacer una comparación en el cálculo del índice de diferencia, en donde la misma sección del cuadro actual y la misma sección de cada cuadro representativo son utilizadas en el cálculo del índice de diferencia.
40. - El producto de programa de cómputo de conformidad con la Reivindicación 31 , caracterizado además porque comprende adicionalmente: un código de cómputo para identificar el cuadro actual como un cuadro representativo de una fuente si el índice de diferencia está por debajo del umbral, en donde el grupo de datos para el cuadro representativo es utilizado para hacer comparaciones con el grupo de datos para los cuadros subsecuentes.
41. - El producto de programa de cómputo de conformidad con la Reivindicación 31 , caracterizado además porque cada fuente de origen diferente es identificada, el grupo de datos que es representativo del cuadro actual es almacenado como el cuadro representativo para esa fuente por el código de cómputo a identificar.
42. - Un producto de programa de cómputo para ser utilizado con una computadora para demultiplexar datos de video digitales, los cuales se originan desde fuentes múltiples, en donde el producto de programa de cómputo que tiene un código que se puede leer por computadora en el mismo, forma un programa de cómputo, el programa de cómputo comprende: un código de cómputo para recuperar un primer grupo de datos de video digitales representativos de una imagen; un código de cómputo para almacenar el primer grupo de datos de video digitales en una ubicación de memoria asociada con una primera fuente, de tal manera que el primer grupo de video digital es video digital representativo de la primera fuente; un código de cómputo para recuperar un grupo actual de datos de video digitales representativos de una imagen; un código de cómputo para seleccionar un subgrupo del primer grupo de datos de video digitales; un código de cómputo para seleccionar un subgrupo del grupo actual de datos de video digitales, de tal manera que el subgrupo del primer grupo y el subgrupo del grupo actual contienen localizaciones de píxel idénticas; un código de cómputo para calcular una medición de diferencia entre el subgrupo del primer grupo y el subgrupo del grupo actual; un código de cómputo para calcular un índice de diferencia con base en la medición de diferencia; y un código de cómputo para producir un despliegue de búsqueda que requiere respuesta para clasificar los datos de video digitales como pertenecientes a una fuente identificada o que son originados desde una fuente nueva, si el índice de diferencia está por encima de un umbral.
43.- El producto de programa de cómputo de conformidad con la Reivindicación 42, caracterizado además porque comprende adicionalmente: un código de cómputo para almacenar el grupo actual de datos de video digitales en una segunda ubicación de memoria asociada con la segunda fuente, de acuerdo con una respuesta recibida que indica que el grupo actual de datos de video digitales está asociado con una fuente nueva, de tal manera que el grupo actual de datos de video digitales son datos de video digitales representativos de la fuente nueva.
44.- El producto de programa de cómputo de conformidad con la Reivindicación 42, caracterizado además porque comprende adicionalmente: un código de cómputo para almacenar los datos de video digitales actuales en la ubicación de memoria asociada con la primera fuente, de tal manera que el grupo de datos de video digitales actual es representativo de los datos de video digitales representativos para la primera fuente si el índice de diferencia está por debajo del umbral.
45.- El producto de programa de cómputo de conformidad con la Reivindicación 42, caracterizado además porque comprende adicionalmente: un código de cómputo para normalizar los datos de video digitales actuales para compensar las diferencias en el brillo antes de calcular un índice de diferencia.
46.- El producto de programa de cómputo de conformidad con la Reivindicación 42, caracterizado además porque el código de cómputo para el cálculo incluye: un código de cómputo para calcular un índice de diferencia para cada grupo de datos de video digitales representativo desde una fuente y el grupo actual de datos de video digitales; y en donde el código de cómputo para producir incluye un código de cómputo para comparar cada índice de diferencia con el umbral.
47.- El producto de programa de cómputo de conformidad con la Reivindicación 46, caracterizado además porque comprende adicionalmente un código de cómputo para identificar una fuente para la cual, el índice de diferencia se encuentra debajo del umbral; y un código de cómputo para asociar el grupo actual de datos de video digitales con la fuente identificada.
48.- El producto de programa de cómputo de conformidad con la Reivindicación 42, caracterizado además porque el código de cómputo para asociar el grupo actual de datos de video digitales con la fuente identificada comprende adicionalmente: un código de cómputo para identificar el grupo actual de datos de video digitales como un grupo de datos de video digitales representativos para una fuente. 49.- El producto de programa de cómputo de conformidad con la
Reivindicación 42, caracterizado además porque comprende adicionalmente un código de cómputo para crear una representación del primer grupo de datos de video digitales que es reducido en el tamaño de los datos; y un código de cómputo para crear una representación del grupo actual de datos de video digitales el cual tiene un tamaño reducido; en donde el primer grupo reducido de datos de video digitales y el grupo actual reducido de datos de video digitales son utilizados para determinar el índice de diferencia.
50.- El producto de programa de cómputo de conformidad con la Reivindicación 42, caracterizado además porque comprende adicionalmente: un código de cómputo para identificar el cuadro actual como un cuadro representativo de una fuente si el índice de diferencia se encuentra debajo del umbral, en donde el grupo de datos para el cuadro representativo es utilizado para hacer comparaciones con un grupo de datos para cuadros subsecuentes.
51. - El producto de programa de cómputo de conformidad con la Reivindicación 42, caracterizado además porque comprende adicionalmente un código de cómputo para almacenar el grupo de datos que es representativo del cuadro actual que es almacenado como el cuadro representativo para esa fuente, conforme cada fuente de origen diferente es identificada por el código de cómputo para la producción.
52. - Un sistema de vigilancia en video que comprende: una pluralidad de cámaras en donde cada cámara genera la salida de una señal de video; un procesador para recibir cada señal de video y multiplexar la señal en señales de video multiplexadas; y memoria para almacenar la señal de video multiplexada; en donde, cuando el procesador recibe una solicitud para demultiplexar, el procesador demultiplexa la señal de video multiplexada en un solo paso a través de la señal de video multiplexada.
53. - Un dispositivo para demultiplexar datos de video digitales, los cuales se originan desde fuentes múltiples, el dispositivo comprende: un módulo de recuperación para recuperar un primer grupo de datos de video digitales representativos de una primera imagen y recuperar un grupo actual de datos de video digitales representativos de una imagen actual; un módulo de almacenaje para almacenar el primer grupo de datos de video digitales para una ubicación de memoria asociada con una primera fuente; un módulo de cálculo para calcular un índice de diferencia utilizando el primer grupo de datos de video digitales y el grupo actual de datos de video digitales; y un módulo de búsqueda para producir un despliegue de búsqueda que requiere respuesta para clasificar los datos de video digitales como pertenecientes a una fuente identificada o que son originados desde una fuente nueva, si el índice de diferencia está por encima de un umbral, en donde la primera fuente es una fuente identificada.
54.- El dispositivo de conformidad con la Reivindicación 53, caracterizado además porque el módulo de almacenaje almacena el grupo actual de datos de video digitales en una segunda ubicación de memoria asociada con la segunda fuente de acuerdo con una respuesta recibida que indica que el grupo actual de datos de video digitales está asociado con una fuente nueva.
55.- El dispositivo de conformidad con la Reivindicación 53, caracterizado además porque el módulo de almacenaje almacena los datos de video digitales actuales en la ubicación de memoria asociada con la primera fuente si el índice de diferencia está debajo del umbral.
56.- El dispositivo de conformidad con la Reivindicación 53, caracterizado además porque comprende adicionalmente: un módulo de normalización para normalizar los datos de video digitales para compensar las diferencias en brillo antes de proporcionar los datos de video digitales al módulo de cálculo para calcular un índice de diferencia.
57.- El dispositivo de conformidad con la Reivindicación 53, caracterizado además porque el módulo de cálculo calcula un índice de diferencia para cada grupo de datos de video digitales representativos de una fuente y el grupo actual de datos de video digitales; y en donde el módulo de búsqueda compara cada índice de diferencia con el umbral.
58.- El dispositivo de conformidad con la Reivindicación 5, caracterizado además porque el módulo de búsqueda identifica una fuente para la cual, en donde el índice de diferencia se encuentra debajo del umbral; y en donde el módulo de memoria asocia el grupo actual de datos de video digitales con la fuente identificada. RESUMEN DE LA INVENCION Un método para demultiplexar datos de video digitales los cuales se originan a partir de fuentes múltiples en las cuales las imágenes multiplexadas no están indexadas ni se proporciona información de identificación para diferenciar las fuentes; las fuentes son generalmente cámaras, las cuales pueden ser cámaras estacionarias o cámaras en movimiento que giran en la forma en que son utilizadas comúnmente en la industria de la vigilancia; un primer grupo de datos de video digitales representativos de una primera imagen es recuperado de una fuente de memoria o desde una cinta de video; el primer grupo de datos de video digitales es almacenado en una ubicación de memoria asociada con una primera fuente; el primer grupo de datos de video también es identificado como datos de video representativos de la primera fuente; un segundo grupo de datos de video representativos de una imagen actual es entonces recuperada; un índice de diferencia es calculado utilizando los datos de video digitales representativos y el grupo actual de datos de video digitales; si el índice de diferencia está por encima del umbral, un despliegue de búsqueda que requiere respuesta para clasificar los datos de video digitales actuales como pertenecientes a una fuente identificada o que son originados desde una fuente nueva es presentado al usuario del sistemas; si se recibe una respuesta indicando que el grupo actual de datos de video digitales es asociado con una fuente nueva, el grupo actual de datos de video digitales es almacenado en una segunda ubicación de memoria asociada con la segunda fuente; este grupo actual de datos de video digitales es entonces identificado como datos de video representativos para la segunda fuente. 24B/cgt* P04/335F
MXPA04002211A 2001-09-07 2002-09-06 Metodo, dispositivo y producto de programa de computadora para desmultiplexar imagenes de video. MXPA04002211A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US31816401P 2001-09-07 2001-09-07
PCT/US2002/028514 WO2003024112A1 (en) 2001-09-07 2002-09-06 Method, device and computer program product for demultiplexing of video images

Publications (1)

Publication Number Publication Date
MXPA04002211A true MXPA04002211A (es) 2005-02-17

Family

ID=23236945

Family Applications (3)

Application Number Title Priority Date Filing Date
MXPA04002210A MXPA04002210A (es) 2001-09-07 2002-09-06 Estabilidad de imagenes usando igualacion de colores.
MXPA04002209A MXPA04002209A (es) 2001-09-07 2002-09-06 Reconocimiento de objeto oculto.
MXPA04002211A MXPA04002211A (es) 2001-09-07 2002-09-06 Metodo, dispositivo y producto de programa de computadora para desmultiplexar imagenes de video.

Family Applications Before (2)

Application Number Title Priority Date Filing Date
MXPA04002210A MXPA04002210A (es) 2001-09-07 2002-09-06 Estabilidad de imagenes usando igualacion de colores.
MXPA04002209A MXPA04002209A (es) 2001-09-07 2002-09-06 Reconocimiento de objeto oculto.

Country Status (15)

Country Link
US (6) US7079701B2 (es)
EP (3) EP1430444B1 (es)
KR (3) KR100927918B1 (es)
CN (4) CN100559873C (es)
AU (3) AU2002336445B2 (es)
BR (3) BRPI0212377B1 (es)
CA (3) CA2459823C (es)
CO (3) CO5650190A2 (es)
HK (3) HK1069470A1 (es)
IL (4) IL160758A0 (es)
MX (3) MXPA04002210A (es)
NZ (3) NZ531974A (es)
RU (3) RU2308761C2 (es)
WO (3) WO2003030103A1 (es)
ZA (2) ZA200401972B (es)

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7079701B2 (en) * 2001-09-07 2006-07-18 Intergraph Software Technologies Concealed object recognition
US7489802B2 (en) * 2002-09-10 2009-02-10 Zeev Smilansky Miniature autonomous agents for scene interpretation
JP4307910B2 (ja) * 2003-03-07 2009-08-05 富士フイルム株式会社 動画像切り出し装置および方法並びにプログラム
JP3768968B2 (ja) 2003-03-28 2006-04-19 株式会社エヌ・ティ・ティ・ドコモ 通信端末及びプログラム
JP4017578B2 (ja) * 2003-09-19 2007-12-05 三洋電機株式会社 手ぶれ補正装置、手ぶれ補正方法および手ぶれ補正プログラムを記録した記録媒体
US7840067B2 (en) * 2003-10-24 2010-11-23 Arcsoft, Inc. Color matching and color correction for images forming a panoramic image
US7616220B2 (en) * 2003-12-23 2009-11-10 Intel Corporation Spatio-temporal generation of motion blur
US7506267B2 (en) * 2003-12-23 2009-03-17 Intel Corporation Compose rate reduction for displays
KR100562119B1 (ko) * 2004-04-29 2006-03-21 삼성탈레스 주식회사 동영상의 특성을 이용한 이미지의 정렬 방법
US7671916B2 (en) * 2004-06-04 2010-03-02 Electronic Arts Inc. Motion sensor using dual camera inputs
BRPI0514613A8 (pt) 2004-08-23 2018-06-12 Intergraph Software Tech Company Estabilização de imagem em tempo real
US20060120615A1 (en) * 2004-12-06 2006-06-08 Huiqiong Wang Frame compensation for moving imaging devices
US8245313B2 (en) * 2005-03-31 2012-08-14 Honda Motor Co., Ltd Document management system, document management program, document management system configuration method, and server computer
US7952612B2 (en) * 2006-06-22 2011-05-31 Nokia Corporation Method and system for image construction using multiple exposures
US20090010617A1 (en) * 2007-07-05 2009-01-08 International Business Machines Corporation Method and Apparatus for Optimizing Space Allocations for Digital Video Recordings
KR101392732B1 (ko) 2007-08-20 2014-05-08 삼성전자주식회사 손떨림에 의한 움직임 추정 장치 및 방법, 그를 이용한영상 촬상 장치
KR101268987B1 (ko) * 2007-09-11 2013-05-29 삼성전자주식회사 메타데이터를 자동적으로 생성/갱신하는 멀티미디어 데이터기록 방법 및 장치
US7800652B2 (en) * 2007-12-12 2010-09-21 Cyberlink Corp. Reducing video shaking
US8503863B2 (en) * 2007-12-18 2013-08-06 Panasonic Corporation Image reproduction device, image reproduction method, and image reproduction program
US8493313B2 (en) 2008-02-13 2013-07-23 Dolby Laboratories Licensing Corporation Temporal filtering of video signals
US8260395B2 (en) * 2008-04-18 2012-09-04 Medtronic, Inc. Method and apparatus for mapping a structure
US8164655B2 (en) * 2008-05-19 2012-04-24 Spatial Cam Llc Systems and methods for concurrently playing multiple images from a storage medium
US20100026822A1 (en) * 2008-07-31 2010-02-04 Itt Manufacturing Enterprises, Inc. Multiplexing Imaging System for Area Coverage and Point Targets
JP5233708B2 (ja) * 2009-02-04 2013-07-10 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US20100235314A1 (en) * 2009-02-12 2010-09-16 Decisive Analytics Corporation Method and apparatus for analyzing and interrelating video data
US8458105B2 (en) * 2009-02-12 2013-06-04 Decisive Analytics Corporation Method and apparatus for analyzing and interrelating data
EP2355037A1 (en) * 2009-12-18 2011-08-10 Nxp B.V. Method of and system for determining an average colour value for pixels
US9183560B2 (en) 2010-05-28 2015-11-10 Daniel H. Abelow Reality alternate
CN102457701B (zh) * 2010-11-02 2014-03-12 华为终端有限公司 图像显示处理方法及装置
JP4932027B1 (ja) * 2010-11-15 2012-05-16 株式会社ナナオ 映像表示方法およびそれを用いた液晶表示装置
JP6122269B2 (ja) * 2011-12-16 2017-04-26 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US10715817B2 (en) 2012-12-19 2020-07-14 Nvidia Corporation Apparatus and method for enhancing motion estimation based on user input
US9530310B2 (en) 2013-11-01 2016-12-27 Xerox Corporation Method and system for detecting and tracking a vehicle of interest utilizing a network of traffic image-capturing units
US10572758B1 (en) 2014-06-27 2020-02-25 Blinker, Inc. Method and apparatus for receiving a financing offer from an image
US9607236B1 (en) 2014-06-27 2017-03-28 Blinker, Inc. Method and apparatus for providing loan verification from an image
US10733471B1 (en) 2014-06-27 2020-08-04 Blinker, Inc. Method and apparatus for receiving recall information from an image
US10515285B2 (en) 2014-06-27 2019-12-24 Blinker, Inc. Method and apparatus for blocking information from an image
US9754171B1 (en) 2014-06-27 2017-09-05 Blinker, Inc. Method and apparatus for receiving vehicle information from an image and posting the vehicle information to a website
US10540564B2 (en) 2014-06-27 2020-01-21 Blinker, Inc. Method and apparatus for identifying vehicle information from an image
US9558419B1 (en) 2014-06-27 2017-01-31 Blinker, Inc. Method and apparatus for receiving a location of a vehicle service center from an image
US9589201B1 (en) 2014-06-27 2017-03-07 Blinker, Inc. Method and apparatus for recovering a vehicle value from an image
US9892337B1 (en) 2014-06-27 2018-02-13 Blinker, Inc. Method and apparatus for receiving a refinancing offer from an image
US9779318B1 (en) 2014-06-27 2017-10-03 Blinker, Inc. Method and apparatus for verifying vehicle ownership from an image
US9600733B1 (en) 2014-06-27 2017-03-21 Blinker, Inc. Method and apparatus for receiving car parts data from an image
US9773184B1 (en) 2014-06-27 2017-09-26 Blinker, Inc. Method and apparatus for receiving a broadcast radio service offer from an image
US9589202B1 (en) 2014-06-27 2017-03-07 Blinker, Inc. Method and apparatus for receiving an insurance quote from an image
US9818154B1 (en) 2014-06-27 2017-11-14 Blinker, Inc. System and method for electronic processing of vehicle transactions based on image detection of vehicle license plate
US9760776B1 (en) 2014-06-27 2017-09-12 Blinker, Inc. Method and apparatus for obtaining a vehicle history report from an image
US9563814B1 (en) 2014-06-27 2017-02-07 Blinker, Inc. Method and apparatus for recovering a vehicle identification number from an image
US10579892B1 (en) 2014-06-27 2020-03-03 Blinker, Inc. Method and apparatus for recovering license plate information from an image
US9594971B1 (en) 2014-06-27 2017-03-14 Blinker, Inc. Method and apparatus for receiving listings of similar vehicles from an image
US10867327B1 (en) 2014-06-27 2020-12-15 Blinker, Inc. System and method for electronic processing of vehicle transactions based on image detection of vehicle license plate
CN104599226B (zh) * 2015-02-14 2017-05-10 安徽大学 一种大容量隐写方法
US10019737B2 (en) * 2015-04-06 2018-07-10 Lewis Beach Image processing device and method
US10033926B2 (en) 2015-11-06 2018-07-24 Google Llc Depth camera based image stabilization
CN105282400B (zh) * 2015-11-20 2018-07-13 北京理工大学 一种基于几何插值的高效视频稳定方法
US10679477B2 (en) 2016-05-09 2020-06-09 Herbert S Kobayashi Multicamera video alarm system for remote monitoring and method
US11386759B2 (en) 2016-05-09 2022-07-12 Herbert S Kobayashi Three level detector signal for multicamera video alarm system for remote monitoring and method
KR101818129B1 (ko) * 2017-04-25 2018-01-12 동국대학교 산학협력단 나선 신경망 기법을 이용한 보행자 인식 장치 및 방법
KR102363499B1 (ko) 2017-10-09 2022-02-15 후아웨이 테크놀러지 컴퍼니 리미티드 디스플레이 처리 방법 및 전자 디바이스
US11526970B2 (en) * 2019-09-04 2022-12-13 Samsung Electronics Co., Ltd System and method for video processing with enhanced temporal consistency
JP7209653B2 (ja) * 2020-02-05 2023-01-20 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、及びプログラム
CN111312127B (zh) * 2020-02-24 2023-07-28 北京京东方光电科技有限公司 旋转显示屏的显示画面调整方法及装置、旋转显示屏
US11620967B2 (en) * 2020-03-16 2023-04-04 Lewis S. Beach Image processing device and method
CN113534281A (zh) * 2020-04-14 2021-10-22 深圳市博利凌科技有限公司 用于感测物体表面之后隐藏物位置的扫描仪及方法

Family Cites Families (108)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3652790A (en) * 1970-01-28 1972-03-28 Itt Search and tracking television system and method
US3891798A (en) * 1971-03-19 1975-06-24 Rockwell International Corp Tracker unit
US3952151A (en) 1973-08-13 1976-04-20 Trw Inc. Method and apparatus for stabilized reproduction of remotely-sensed images
FR2302004A5 (fr) * 1973-08-31 1976-09-17 Thomson Csf Systeme de poursuite automatique d'une cible, procedant par analyse de contraste video
US3988533A (en) * 1974-09-30 1976-10-26 Video Tek, Inc. Video-type universal motion and intrusion detection system
US4120004A (en) * 1976-01-26 1978-10-10 Coutta John M Surveillance system
US4405940A (en) * 1977-05-31 1983-09-20 Westinghouse Electric Corp. Apparatus and method for preprocessing video frame signals
NL7801727A (nl) * 1978-02-16 1979-08-20 Hollandse Signaalapparaten Bv Drempelspanningsselectieschakeling.
EP0028933A3 (en) 1979-11-09 1981-06-03 Ascotts Ltd. Surveillance system
US4603430A (en) * 1984-09-21 1986-07-29 Hughes Aircraft Company Target discrimination utilizing median filters
JPS61166289A (ja) * 1985-01-18 1986-07-26 Hitachi Ltd 画像伝送システム
JP2528789B2 (ja) * 1985-06-26 1996-08-28 中央電子 株式会社 映像情報管理装置
DE3750703T2 (de) * 1986-03-25 1995-03-30 Nippon Oils & Fats Co Ltd Transparenter optischer Gegenstand und Verfahren zu seiner Herstellung.
DE3634414C2 (de) * 1986-10-09 1994-12-08 Thomson Brandt Gmbh Fernsehkamera mit einem Target
JPH0695008B2 (ja) 1987-12-11 1994-11-24 株式会社東芝 監視装置
KR920010034B1 (en) * 1988-03-31 1992-11-13 Toshiba Co Ltd Image track display apparatus
GB2220319B (en) 1988-07-01 1992-11-04 Plessey Co Plc Improvements in or relating to image stabilisation
JP2563567B2 (ja) * 1989-03-20 1996-12-11 松下電器産業株式会社 揺れ補正装置
KR910004009A (ko) * 1989-07-27 1991-02-28 강진구 비디오 카메라의 자동촬영장치
US5175694A (en) * 1990-02-08 1992-12-29 The United States Of America As Represented By The Secretary Of The Navy Centroid target tracking system utilizing parallel processing of digital data patterns
KR100204101B1 (ko) * 1990-03-02 1999-06-15 가나이 쓰도무 화상처리장치
US5030984A (en) 1990-07-19 1991-07-09 Eastman Kodak Company Method and associated apparatus for minimizing the effects of motion in the recording of an image
JP2863818B2 (ja) * 1990-08-31 1999-03-03 工業技術院長 動画像の変化点検出方法
US5243418A (en) * 1990-11-27 1993-09-07 Kabushiki Kaisha Toshiba Display monitoring system for detecting and tracking an intruder in a monitor area
DE69215733T2 (de) * 1991-04-12 1997-04-10 Victor Company Of Japan Vorrichtung zur Detektion der relativen Bewegung zwischen Inhalten von aufeinanderfolgenden Halbbildern eines Videosignals
EP0520765B1 (en) * 1991-06-25 1999-05-12 Canon Kabushiki Kaisha Movement vector detecting method/apparatus and encoding method/apparatus using such method/apparatus
US5164827A (en) * 1991-08-22 1992-11-17 Sensormatic Electronics Corporation Surveillance system with master camera control of slave cameras
US5657402A (en) * 1991-11-01 1997-08-12 Massachusetts Institute Of Technology Method of creating a high resolution still image using a plurality of images and apparatus for practice of the method
US6469746B1 (en) * 1992-12-28 2002-10-22 Sanyo Electric Co., Ltd. Multi-vision screen adapter
WO1994017636A1 (en) 1993-01-29 1994-08-04 Bell Communications Research, Inc. Automatic tracking camera control system
US5473369A (en) * 1993-02-25 1995-12-05 Sony Corporation Object tracking apparatus
DE69426232T2 (de) * 1993-06-04 2001-05-17 Sarnoff Corp System und verfahren zur elektronischen bildstabilisierung
JPH0773308A (ja) * 1993-09-03 1995-03-17 Matsushita Electric Ind Co Ltd デジタル画像処理装置
JP3123587B2 (ja) 1994-03-09 2001-01-15 日本電信電話株式会社 背景差分による動物体領域抽出方法
CA2125300C (en) * 1994-05-11 1999-10-12 Douglas J. Ballantyne Method and apparatus for the electronic distribution of medical information and patient services
DE4417128A1 (de) 1994-05-16 1995-12-14 Elnic Gmbh Bilderfassungs- und -verarbeitungsverfahren insbesondere zur Steuerung von Vorrichtungen sowie zugehöriges Bilderfassungs- und -verarbeitungssystem
US5635982A (en) 1994-06-27 1997-06-03 Zhang; Hong J. System for automatic video segmentation and key frame extraction for video sequences having both sharp and gradual transitions
US20020186874A1 (en) * 1994-09-07 2002-12-12 Jeffrey H. Price Method and means for image segmentation in fluorescence scanning cytometry
JP2902966B2 (ja) * 1994-12-16 1999-06-07 三洋電機株式会社 手振れ補正装置およびそれを用いたビデオカメラ
KR960028217A (ko) 1994-12-22 1996-07-22 엘리 웨이스 움직임 검출 카메라 시스템 및 방법
JPH08186760A (ja) * 1994-12-28 1996-07-16 Philips Japan Ltd 画揺れ補正装置
JP3268953B2 (ja) 1995-02-27 2002-03-25 三洋電機株式会社 追尾領域設定装置,動きベクトル検出回路およびそれを用いた被写体追尾装置
US5821985A (en) * 1995-02-28 1998-10-13 Nec Corporation Multi-point videoconference system having a fixed control station for data transfer
JP3892059B2 (ja) 1995-03-07 2007-03-14 松下電器産業株式会社 動物体追跡装置
US5973733A (en) * 1995-05-31 1999-10-26 Texas Instruments Incorporated Video stabilization system and method
DE69628282T2 (de) * 1995-09-15 2004-03-11 Interval Research Corp., Palo Alto Verfahren zur kompression mehrerer videobilder
US6018562A (en) * 1995-11-13 2000-01-25 The United States Of America As Represented By The Secretary Of The Army Apparatus and method for automatic recognition of concealed objects using multiple energy computed tomography
KR100188116B1 (ko) * 1995-12-28 1999-06-01 김광호 손떨림 영상 안정화 회로
US6108576A (en) * 1996-03-18 2000-08-22 The Research Foundation Of City College Of New York Time-resolved diffusion tomographic 2D and 3D imaging in highly scattering turbid media
CA2173677C (en) 1996-04-09 2001-02-20 Benoit Sevigny Processing image data
US5940139A (en) * 1996-08-07 1999-08-17 Bell Communications Research, Inc. Background extraction in a video picture
US5953055A (en) 1996-08-08 1999-09-14 Ncr Corporation System and method for detecting and analyzing a queue
US5915038A (en) * 1996-08-26 1999-06-22 Philips Electronics North America Corporation Using index keys extracted from JPEG-compressed images for image retrieval
US5974111A (en) * 1996-09-24 1999-10-26 Vivid Technologies, Inc. Identifying explosives or other contraband by employing transmitted or scattered X-rays
US5751378A (en) 1996-09-27 1998-05-12 General Instrument Corporation Scene change detector for digital video
US5822542A (en) 1996-10-31 1998-10-13 Sensormatic Electronics Corporation Electronic and structural components of an intelligent video information management apparatus
GB2321358A (en) 1997-01-20 1998-07-22 O E M Project Management Ltd Video security system coupled to a fax modem
JP3317176B2 (ja) * 1997-02-06 2002-08-26 松下電器産業株式会社 映像伝送装置
US6360022B1 (en) * 1997-04-04 2002-03-19 Sarnoff Corporation Method and apparatus for assessing the visibility of differences between two signal sequences
DE69837463T2 (de) * 1997-06-03 2008-01-10 Koninklijke Philips Electronics N.V. Navigation durch fernsehprogramme
JP4240554B2 (ja) * 1997-07-11 2009-03-18 ソニー株式会社 画像符号化装置および画像符号化方法、並びに画像復号化装置および画像復号化方法
US6128108A (en) * 1997-09-03 2000-10-03 Mgi Software Corporation Method and system for compositing images
JPH1185654A (ja) * 1997-09-12 1999-03-30 Matsushita Electric Ind Co Ltd 仮想wwwサーバ装置およびカメラ制御可能なwwwサーバ装置
GB2329541B (en) * 1997-09-17 2002-05-29 Sony Uk Ltd Security control system
US5973723A (en) * 1997-12-12 1999-10-26 Deluca; Michael Joseph Selective commercial detector and eliminator apparatus and method
US6363380B1 (en) * 1998-01-13 2002-03-26 U.S. Philips Corporation Multimedia computer system with story segmentation capability and operating program therefor including finite automation video parser
US6151336A (en) * 1998-02-11 2000-11-21 Sorrento Networks, Inc. Time division multiplexing expansion subsystem
US6847737B1 (en) * 1998-03-13 2005-01-25 University Of Houston System Methods for performing DAF data filtering and padding
US6795112B1 (en) * 1998-03-13 2004-09-21 General Instrument Corp. Composite video multiplexing scheme
US6211913B1 (en) * 1998-03-23 2001-04-03 Sarnoff Corporation Apparatus and method for removing blank areas from real-time stabilized images by inserting background information
GB9813632D0 (en) 1998-06-24 1998-08-26 Robinson Alan W Outside televised broadcast shadow compensator
US6493041B1 (en) * 1998-06-30 2002-12-10 Sun Microsystems, Inc. Method and apparatus for the detection of motion in video
US6714909B1 (en) * 1998-08-13 2004-03-30 At&T Corp. System and method for automated multimedia content indexing and retrieval
US6459822B1 (en) * 1998-08-26 2002-10-01 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Video image stabilization and registration
US6741656B1 (en) * 1998-12-16 2004-05-25 Matsushita Electric Industrial Co., Ltd. Image communication apparatus
WO2000039707A1 (en) * 1998-12-23 2000-07-06 Koninklijke Philips Electronics N.V. Personalized video classification and retrieval system
EP1081960B1 (en) 1999-01-29 2007-12-19 Sony Corporation Signal processing method and video/voice processing device
WO2000045600A1 (en) * 1999-01-29 2000-08-03 Mitsubishi Denki Kabushiki Kaisha Method of image feature encoding and method of image search
KR100442991B1 (ko) * 1999-02-01 2004-08-04 주식회사 팬택앤큐리텔 트리구조의 동영상 색인 기술자를 이용한 검색장치 및 그 방법
EP1161837A1 (en) 1999-03-16 2001-12-12 Central Research Laboratories Limited Closed circuit television (cctv) camera and system
FR2794880B1 (fr) * 1999-06-10 2001-12-14 Philippe Crochat Procede automatique de suivi d'une cible en mouvement par une camera electronique et dispositif pour sa mise en oeuvre
US6476858B1 (en) * 1999-08-12 2002-11-05 Innovation Institute Video monitoring and security system
US6694064B1 (en) * 1999-11-19 2004-02-17 Positive Systems, Inc. Digital aerial image mosaic method and apparatus
US6683995B2 (en) * 1999-12-23 2004-01-27 Eastman Kodak Company Method and apparatus for correcting large defects in digital images
AU2742701A (en) * 1999-12-30 2001-07-16 Applied Science Fiction, Inc. Improved system and method for digital film development using visible light
WO2001095028A2 (en) * 2000-02-03 2001-12-13 Applied Science Fiction Method and system for self-service film processing
WO2001057796A2 (en) * 2000-02-03 2001-08-09 Applied Science Fiction Method, system, and software for signal processing using pyramidal decomposition
JP2004514156A (ja) * 2000-02-03 2004-05-13 アプライド・サイエンス・フィクション フィルム処理液カートリッジ、および、フィルムを現像しかつディジタル化するための方法
JP2001243477A (ja) * 2000-02-29 2001-09-07 Toshiba Corp 動画像による交通量解析装置
ATE423392T1 (de) 2000-03-10 2009-03-15 Infotech Ag Verfahren und vorrichtung zum justieren eines bauelementes auf einem substrat unter verwendung von digitaler merkmaltrennung
US20040125877A1 (en) 2000-07-17 2004-07-01 Shin-Fu Chang Method and system for indexing and content-based adaptive streaming of digital video content
DE20104329U1 (de) 2001-03-14 2001-05-31 Vtq Videotronik Gmbh Überwachungseinrichtung mit Sensoren
US20020168091A1 (en) * 2001-05-11 2002-11-14 Miroslav Trajkovic Motion detection via image alignment
TWI236294B (en) * 2001-05-11 2005-07-11 Ulead Systems Inc Method and device for capturing digital video
US6525658B2 (en) * 2001-06-11 2003-02-25 Ensco, Inc. Method and device for event detection utilizing data from a multiplicity of sensor sources
US6805501B2 (en) * 2001-07-16 2004-10-19 Eastman Kodak Company System and method for digital film development using visible light
US7079701B2 (en) * 2001-09-07 2006-07-18 Intergraph Software Technologies Concealed object recognition
US20050007452A1 (en) * 2001-09-07 2005-01-13 Mckay Therman Ward Video analyzer
US6831590B1 (en) * 2001-09-12 2004-12-14 Cyterra Corporation Concealed object detection
US6816622B2 (en) * 2001-10-18 2004-11-09 Microsoft Corporation Generating resized images using ripple free image filtering
US6944331B2 (en) * 2001-10-26 2005-09-13 National Instruments Corporation Locating regions in a target image using color matching, luminance pattern matching and hue plane pattern matching
DE60213746T2 (de) 2001-11-28 2007-08-16 Matsushita Electric Industrial Co., Ltd., Kadoma Sicherheitssystem für ein Haus
US6999613B2 (en) 2001-12-28 2006-02-14 Koninklijke Philips Electronics N.V. Video monitoring and surveillance systems capable of handling asynchronously multiplexed video
MXPA05007824A (es) 2003-01-23 2005-10-18 Intergraph Hardware Tech Co Analizador de video.
CN101431685B (zh) * 2003-06-23 2011-05-25 索尼株式会社 处理图像的方法和设备
US7840067B2 (en) * 2003-10-24 2010-11-23 Arcsoft, Inc. Color matching and color correction for images forming a panoramic image
US7587086B2 (en) * 2004-06-04 2009-09-08 Microsoft Corporation Identifying selected pixels in a digital image
BRPI0514613A8 (pt) * 2004-08-23 2018-06-12 Intergraph Software Tech Company Estabilização de imagem em tempo real

Also Published As

Publication number Publication date
CA2459821A1 (en) 2003-03-20
CN1593061A (zh) 2005-03-09
US20060215926A1 (en) 2006-09-28
RU2004110723A (ru) 2005-09-27
WO2003024112A1 (en) 2003-03-20
IL160760A0 (en) 2004-08-31
EP1430444B1 (en) 2013-05-08
RU2004110724A (ru) 2005-09-27
EP1430444A1 (en) 2004-06-23
CN100359923C (zh) 2008-01-02
WO2003024095A1 (en) 2003-03-20
AU2002327612B2 (en) 2008-01-17
CN101072364B (zh) 2012-05-09
CN1554184A (zh) 2004-12-08
RU2308761C2 (ru) 2007-10-20
CA2459823A1 (en) 2003-03-20
CO5650190A2 (es) 2006-06-30
RU2308816C2 (ru) 2007-10-20
IL160758A0 (en) 2004-08-31
MXPA04002209A (es) 2005-02-17
HK1074726A1 (en) 2005-11-18
IL160759A0 (en) 2004-08-31
CN1299240C (zh) 2007-02-07
NZ531974A (en) 2005-08-26
CO5570718A2 (es) 2005-10-31
RU2310289C2 (ru) 2007-11-10
CO5580855A2 (es) 2005-11-30
BR0212377A (pt) 2006-10-03
BR0212375A (pt) 2006-03-01
ZA200401972B (en) 2004-09-15
RU2004110722A (ru) 2005-09-27
US20030048947A1 (en) 2003-03-13
US20040061786A1 (en) 2004-04-01
BRPI0212375B1 (pt) 2016-05-24
IL160759A (en) 2010-04-15
HK1073038A1 (en) 2005-09-16
HK1069470A1 (en) 2005-05-20
AU2002335713B2 (en) 2008-08-28
US7436437B2 (en) 2008-10-14
BR0212546A (pt) 2006-05-23
CN1554073A (zh) 2004-12-08
KR100919340B1 (ko) 2009-09-25
US20030048359A1 (en) 2003-03-13
AU2002336445B2 (en) 2007-11-01
ZA200401970B (en) 2007-01-31
US7477797B2 (en) 2009-01-13
KR20040048408A (ko) 2004-06-09
EP1428378B1 (en) 2013-03-20
CA2459732C (en) 2017-07-11
CN100559873C (zh) 2009-11-11
KR20040054679A (ko) 2004-06-25
EP1428378A1 (en) 2004-06-16
KR20040047814A (ko) 2004-06-05
US7310110B2 (en) 2007-12-18
US20030048282A1 (en) 2003-03-13
US8233044B2 (en) 2012-07-31
CA2459821C (en) 2011-01-11
WO2003030103A8 (en) 2005-01-06
KR100888095B1 (ko) 2009-03-11
EP1428389A1 (en) 2004-06-16
NZ531976A (en) 2007-07-27
WO2003030103A1 (en) 2003-04-10
NZ531975A (en) 2007-11-30
CN101072364A (zh) 2007-11-14
KR100927918B1 (ko) 2009-11-19
CA2459732A1 (en) 2003-04-10
CA2459823C (en) 2012-04-03
US20080095437A1 (en) 2008-04-24
MXPA04002210A (es) 2005-02-17
BRPI0212377B1 (pt) 2015-10-27
US6654049B2 (en) 2003-11-25
US7079701B2 (en) 2006-07-18

Similar Documents

Publication Publication Date Title
MXPA04002211A (es) Metodo, dispositivo y producto de programa de computadora para desmultiplexar imagenes de video.
AU2002327612A1 (en) Method, device and computer program product for demultiplexing of video images
CA2284032C (en) Real-time method of digitally altering a video data stream to remove portions of the original image and substitute elements to create a new image
KR100355382B1 (ko) 영상 시퀀스에서의 객체 레이블 영상 생성장치 및 그 방법
US10057591B2 (en) Method and device for processing a video stream in a video camera
EP2549759A1 (en) Method and system for facilitating color balance synchronization between a plurality of video cameras as well as method and system for obtaining object tracking between two or more video cameras
ZA200506054B (en) Video analyzer
JP2006319879A (ja) 集積回路装置、マイクロコンピュータ及び監視カメラシステム
JP2019050553A (ja) 画像処理装置、画像提供装置、それらの制御方法及びプログラム
DE60038326D1 (de) Prozessüberwachungssystem
JP2009147479A (ja) 監視カメラおよび監視カメラシステム
JPH10210340A (ja) 画像撮像装置および画像合成装置
KR100537028B1 (ko) 실시간 물체추출 시스템 및 방법
JP6942752B2 (ja) 情報処理装置、情報処理方法およびプログラム
TW200526043A (en) Video analyzer
KR20040086932A (ko) 아이투씨 버스를 이용한 피씨환경 디브알 시스템의 입출력인터페이스 설계방법

Legal Events

Date Code Title Description
FG Grant or registration
GB Transfer or rights