MXPA06002837A - Aparato de firma de video digital y metodos para usarlo con sistemas de identificacion de programas de video. - Google Patents
Aparato de firma de video digital y metodos para usarlo con sistemas de identificacion de programas de video.Info
- Publication number
- MXPA06002837A MXPA06002837A MXPA06002837A MXPA06002837A MXPA06002837A MX PA06002837 A MXPA06002837 A MX PA06002837A MX PA06002837 A MXPA06002837 A MX PA06002837A MX PA06002837 A MXPA06002837 A MX PA06002837A MX PA06002837 A MXPA06002837 A MX PA06002837A
- Authority
- MX
- Mexico
- Prior art keywords
- information
- image
- video
- signature
- signatures
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 88
- 238000007906 compression Methods 0.000 claims description 35
- 230000006835 compression Effects 0.000 claims description 25
- 230000015654 memory Effects 0.000 claims description 19
- 239000000284 extract Substances 0.000 claims description 10
- 230000004044 response Effects 0.000 claims 7
- 238000012545 processing Methods 0.000 description 39
- 238000004891 communication Methods 0.000 description 26
- 230000008569 process Effects 0.000 description 22
- 238000009826 distribution Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 12
- 238000006243 chemical reaction Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 8
- 230000033001 locomotion Effects 0.000 description 8
- 238000003860 storage Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000009825 accumulation Methods 0.000 description 4
- 239000003086 colorant Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000002411 adverse Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000003116 impacting effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 238000009966 trimming Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000010267 cellular communication Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000945 filler Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/467—Embedding additional information in the video signal during the compression process characterised by the embedded information being invisible, e.g. watermarking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7847—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/56—Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
- H04H60/59—Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/004—Diagnosis, testing or measuring for television systems or their details for digital television systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/254—Management at additional data server, e.g. shopping server, rights management server
- H04N21/2543—Billing, e.g. for subscription services
- H04N21/2547—Third Party Billing, e.g. billing of advertiser
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/258—Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
- H04N21/25866—Management of end-user data
- H04N21/25891—Management of end-user data being end-user preferences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/835—Generation of protective data, e.g. certificates
- H04N21/8352—Generation of protective data, e.g. certificates involving content or source identification data, e.g. Unique Material Identifier [UMID]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/16—Analogue secrecy systems; Analogue subscription systems
- H04N7/173—Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H20/00—Arrangements for broadcast or for distribution combined with broadcast
- H04H20/12—Arrangements for observation, testing or troubleshooting
- H04H20/14—Arrangements for observation, testing or troubleshooting for monitoring programmes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H2201/00—Aspects of broadcast communication
- H04H2201/90—Aspects of broadcast communication characterised by the use of signatures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/35—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
- H04H60/37—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- Library & Information Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- Computer Graphics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Se describe un aparato para la firma de video digital y los metodos para su uso con sistemas de identificacion de programas de video. El aparato y los metodos descritos identifican un programa de video utilizando una secuencia de firmas (100). Cada una de las firmas incluye una serie de centroides que corresponden a uno de una pluralidad de cuadros del programa de video. El aparato y los metodos comparan la secuencia de las firmas con una serie de secuencias de referencia de las firmas e identificacion el programa de video basandose en la comparacion de la secuencia de las firmas con la serie de secuencias de firmas de referencia.
Description
APARATO DE FIRMA DE VIDEO DIGITAL Y MÉTODOS PARA USARLO CON SISTEMAS DE IDENTIFICACIÓN DE PROGRAMAS DE VIDEO
CAMPO DE LA DESCRIPCIÓN La presente descripción se relaciona generalmente a la identificación de información de un video digital y, más específicamente, a, un aparato de firma de video digital y los métodos para usarlo con los sistemas de identificación de un programa de video .
ANTECEDENTES Los sistemas que identifican imágenes de video y/o secuencias de imágenes de video (por ejemplo, comerciales de programas de televisión) que se transmiten y/o se ven en un dispositivo de salida (por ejemplo, una televisión o un monitor de video) a menudo se utilizan para verificar que ciertos contenidos o programas de audio y/o video (por ejemplo, programas de televisión, anuncios publicitarios, etc.) que se han transmitido en regiones geográficas particulares en momentos particulares. Por supuesto, tal sistema de identificación de video puede adicional o alternativamente utilizarse para facilitar el análisis de comportamientos de observación de grupos de espectadores seleccionados. Algunos sistemas de identificación de video identifican programas al extraer información de audio y/o
video asociada con un programa que se está siendo transmitido y/o visto y que procesa la información extraida para generar firmas de audio y/o video. Típicamente, las firmas de audio y/o video son secuencias digitales o códigos que, en un determinado instante de tiempo, son secuencialmente únicas para cada porción de contenido o programa de audio/video. De esta manera, un programa de video no identificado puede confiablemente identificarse al encontrar una firma de correspondencia dentro de una base de datos o biblioteca que contenga las firmas de programas disponibles conocidos. Cuando se encuentra una firma de correspondencia, el contenido de audio/video previamente no identificado (por ejemplo, programa de televisión, anuncio publicitario, etc.) se identifica como el o los programas disponibles conocidos que corresponden a la firma de la base de datos de correspondencia . Las firmas de video pueden generarse para programas de video análogos y/o digitales. Algunas técnicas de generación de firmas de video conocidas para utilizarlas con información de programa de video digital procesan parte o todos los datos de imagen no comprimidos para una o más tramas de video para generar una o más firmas para el programa asociado con las tramas de video. Sin embargo, utilizar datos de video no comprimidos para generar información de firma usualmente requiere un hardware o un
conjunto de circuitos para generación de firma de alta velocidad costosos, o técnicas de generación de firma con base en software/procesador que resultan en velocidades de generación de firma relativamente lentas. Para algunas aplicaciones, tales como por ejemplo, el análisis de comportamiento de observación de una audiencia televisiva u otros sistemas de verificación o identificación de programa que utilizan adquisición de datos y dispositivos de generación de firma, los sistemas de generación de firma de video con base en un hardware de alta velocidad son carísimos. Además, muchos sistemas de generación de firma con base en un software son demasiado lentos y pueden perder información de verificación importante, tal como por ejemplo, comerciales de televisión relativamente cortos o similares. En algunos sistemas con base en software, la velocidad a la cual se generan las firmas de video puede incrementarse al utilizar menos información de video (por ejemplo, menos tramas, porciones de cada trama más pequeñas, etc.) para generar la información de la firma. Sin embargo, el uso de menos información usualmente da por resultado una firma que es menos probable que represente en forma única el contenido de video asociado, dando por resultado una velocidad de correspondencia falsa incrementada (es decir, identificar incorrectamente un programa de video) y una falla incrementada para encontrar una correspondencia cuando existe
una correspondencia (es decir, la falla para identificar un programa de video conocido) . Aún adicionalmente, los sistemas de generación de firma de video utilizados con muchos sistemas de identificación de un programa de video no son independientes del formato de imagen o la operación del codificador. Por ejemplo, cambiar la proporción de aspecto de la pantalla (de 4:3 a 16:9) para un programa de video puede significativamente cambiar la información de firma de video generada a partir del mismo. Como resultado, aunque esos sistemas conocidos pueden ser capaces de identificar en forma confiable un grupo de imágenes/tramas conocidas y, por lo tanto, programas conocidos cuando se formatean para una pantalla de una proporción de aspecto de 4:3, estos mismos sistemas pueden fallar para identificar cualesquiera de aquellos programas conocidos cuando se formatean utilizando una proporción de aspecto diferente. De modo similar, muchos de esos sistemas conocidos también son sensibles a la velocidad de trama de programa de video (por ejemplo, el número de tramas por segundo que componen un programa de video) . Por ejemplo, aunque muchos sistemas conocidos pueden ser capaces de identificar confiablemente programas de video que se componen de tramas o imágenes que se van a desplegar en una velocidad de treinta tramas por segundo, esos mismos sistemas pueden no estar en posibilidad de identificar
aquellos mismos programas cuando se componen de más de unas cuantas tramas o imágenes por segundo.
BREVE DESCRIPCIÓN DE LOS DIBUJOS La Figura 1 representa una secuencia ejemplar de imágenes o tramas de video digitales comprimidas que pueden asociarse con un programa de televisión digital. La Figura 2 es un diagrama en bloque de un sistema ejemplar que puede emplear el aparato de generación de las firmas de video digital ejemplar y los métodos descritos en la presente para identificar programas de video. La Figura 3 es un diagrama en .^bloque más detallada de una manera ejemplar en la cual la unidad de adquisición de datos mostrada en la Figura 2 puede implementarse. La Figura 4 es un sistema basado en un procesador ejemplar que ejecuta un software o las instrucciones almacenadas en un medio leíble en máquina para implementar la unidad de adquisición de datos ejemplar mostrada en la Figura 2 con los bloques mostrados en la Figura 3. La Figura 5 es un diagrama de flujo que representa una manera en la cual el sistema basado en un procesador mostrado en la Figura 4 puede programarse para implementar la unidad de adquisición de datos ejemplar mostrada en la Figura 3. La Figura 6 es un ejemplo de una imagen o trama
para la cual se puede generar una firma utilizando un centro de masa o cálculo del centroide. La Figura 7 representa una imagen o trama ejemplar en la cual los componentes de la imagen se distribuyen de una manera no uniforme. La Figura 8 representa una imagen ejemplar en la cual un centroide se ubica dentro de un limite de forma. Las Figuras 9 y 10 representan imágenes o tramas ejemplares en las cuales no se ubican los centroides dentro del limite de las formas de las mismas. Las Figuras 11 y 12 son imágenes o tramas ejemplares que contienen distribuciones relativamente simétricas de un componente de imagen particular. La Figura 13 representa una trama o imagen ejemplar que contiene tres forma elípticas idénticas compuestas del mismo componente de imagen. Las Figuras 14 y 15 representan un método ejemplar que puede implementarse mediante el sistema mostrado en la Figura 2 para identificar programas de video.
DESCRIPCIÓN DETALLADA Los métodos y el aparato para la firma de video ejemplares descritos en la presente pueden utilizarse para generar información de firma para una secuencia de imágenes o tramas compuestas de información de video digital comprimida.
La información de firma generada puede subsecuentemente compararse con la información de la firma de referencia para identificar un programa de video a partir del cual se originan las imágenes o las tramas de la secuencia. Sin embargo, antes de discutir el aparato y los métodos de la firma de video ejemplar con detalle, se proporciona a continuación una breve discusión con relación a la compresión de una señal de video digital. La siguiente discusión se basa primordialmente en la norma de compresión de video del Grupo de Expertos de Imágenes en Movimiento (MPEG) . La norma MPEG es una norma de compresión de video digital particularmente bien conocida que puede utilizarse junto con los métodos y el aparato de generación de firma ejemplares descritos en la presente. Sin embargo, las técnicas de compresión de video MPEG son solamente una manera particular en la cual puede comprimirse información de video digital antes de su uso con los métodos y el aparato de generación de la firma ejemplares descritos en la presente. Aquellos con experiencia ordinaria en la técnica apreciarán que el aparato y los métodos de firma de video ejemplares descritos en la presente pueden de manera similar aplicarse junto con otros esquemas de video digital. En general, los esquemas de compresión de video operan con base en la suposición de que las secuencias o programas de video típicamente contienen una cantidad
relativamente grande de información temporal y/o espacialmente redundante. La redundancia temporal ocurre entre tramas o imágenes sucesivas que conforman una secuencia de video debido a que existen relativamente pocos cambios para el color y el brillo de grandes porciones de imágenes o tramas sucesivas que conforman la secuencia de video. Por otro lado, la redundancia espacial ocurre dentro de una trama o imagen de video determinada debido a que los pixeles o áreas adyacentes dentro de una imagen o trama son a menudo del mismo color e intensidad o brillo similares. De ese modo, al eliminar la información de video temporal y espacialmente redundante de un programa de video antes de su transmisión, la cantidad del ancho de bando requerido para transmitir el programa de video puede reducirse dramáticamente. La reducción de datos alcanzada mediante un esquema de compresión comúnmente se expresa como una proporción de compresión. Las proporciones de compresión usualmente se calculan mediante la división de la cantidad de datos de video que conforman una secuencia de imágenes de video original por la cantidad de datos comprimidos utilizados para transmitir esos datos de video. Las proporciones de compresión de entre aproximadamente 8:1 y aproximadamente 30:1 comúnmente se alcanzan utilizando un esquema de compresión de video basada en el MPEG. Los esquemas de compresión de video típicamente
también eliminan ciertos tipos de cantidades de información de video que no son necesariamente redundantes y que pueden eliminarse sin ser perceptiblemente notables u ofensivas al ojo humano. Por ejemplo, el ojo humano es significativamente más sensible a las variaciones de brillo que a las variaciones de color o matiz. Como resultado, como se describe más adelante, los esquemas de compresión de video a menudo reducen la cantidad de información digital que pertenece al color o al matiz sin impactar adversamente la cantidad percibida de una imagen extraída de una información de imagen comprimida. Además, el ojo humano tiene una mayor dificultad al percibir variaciones rápidas de brillo y/o color, sombra o matiz a través de una imagen (es decir, los componentes de frecuencia más elevada que componen una imagen) . Como resultado, como se describe a continuación, los esquemas de compresión de video anulan y/o eliminan la transmisión o el procesamiento de los componentes de frecuencia más elevada de una imagen sin impactar adversamente la calidad percibida de la imagen. La Figura 1 representa un ejemplo de secuencia 100 de imágenes o tramas 102, 104, 106 y 108 de video digital que pueden asociarse con un programa de televisión digital o uno similar. Las imágenes o tramas 102-108 pueden conformar un grupo de películas (GOP) para propósitos de codificar el MPEG (es decir, la compresión) que se va a transmitir, almacenar o
transferir de otra manera para utilizarla mediante un descodificador MPEG asociado con un dispositivo de salida (por ejemplo, una televisión, un monitor de video, una pantalla de computadora, etc.). Inicialmente, cada una de las imágenes o tramas
102-108 está compuesta de información digital no comprimida que representa pixeles de visualización dispuestos en una pluralidad de filas y columnas que se van a desplegar en un dispositivo de salida en un formato particular a una velocidad particular. Por ejemplo, cada una de las tramas 102-108 puede contener información de pixel suficiente para desplegar imágenes o tramas en una pantalla 480 con base en un barrido de trama que tiene filas o líneas de 720 pixeles (es decir, columnas) a una velocidad de 30 tramas por segundo. Por supuesto, podrían utilizarse en vez de ésta muchos otros formatos y velocidades de pantalla. La cantidad de datos digitales requeridos para representar cada pixel dentro de cada una de las tramas o imágenes 102-108 depende del modelo de color utilizado para crear las imágenes 102-108. Por ejemplo, en el caso en donde se utiliza un modelo de color bien conocido Rojo, Verde, Azul (RGB) , se utilizan ocho bits para representar la cantidad de cada componente de imagen o color que se utiliza para cada pixel. De ese modo, para una imagen digital generada utilizando el modelo de color RGB, se requiere un total de
veinticuatro bits de datos para representar cada pixel. Durante los procesos de compresión del MPEG, cada una de las imágenes o tramas 102-108 se subdivide finalmente en una secuencia de macro-bloques, cada una de las cuales se compone de 16x16 pixeles (es decir, 16 filas de 16 pixeles) . Las secuencias resultantes de los macro-bloques se mantienen en un orden de barrido de trama. A modo de ejemplo, la imagen o trama 104 se subdivide en una secuencia de macro-bloques 110 que se componen de al menos macro-bloques 112, 114, 116 y 118, cada uno de los cuales incluye datos RGB para 16x16 ó 256 pixeles. El proceso de conversión MPEG convierte los datos RGB (es decir, los veinticuatro bits de información) para cada pixel dentro de los macro-bloques 112-118 en el modelo de color YÜV bien conocido. En general, el modelo de color YÜV representa cada pixel utilizando un valor de luminancia indicado como Y y dos valores de crominancia indicados como Cr y Cb. Sin embargo, debido a que el ojo humano es significativamente menos sensible a los cambios de color, los procesos de compresión MPEG diezman la información de crominancia para cada uno de los macro-bloques a través de un proceso de sub-muestreo horizontal y vertical (es decir, fila y columna) . En particular, el proceso de diezmado promedia la información de crominancia (es decir, los valores Cr y Cb) para grupos de cuatro pixeles dispuestos en dos filas y dos
columnas descarta los valores de crominancia individual que conforma los promedios y retiene los valores promedio. De esta manera, el proceso de compresión MPEG comprime la información de crominancia requerida para desplegar una imagen mediante un factor de cuatro sin afectar adversamente la calidad perceptible de la imagen cuando se despliega a un humano . A modo de ejemplo, la siguiente conversión del modelo del color y los procesos de diezmado de crominancia, el macro-bloque 118 incluye cuatro bloques 120, 122, 124 y 126 de luminancia de 8x8 y dos bloques 128 y 138 de crominancia de 8x8, representando juntos la intensidad el color y la intensidad de un grupo de 16x16 pixeles asociados con el macro-bloque 118. Cada uno de los bloques 120-130 se compone de ocho filas y ocho columnas de ocho valores de bits (es decir, bytes) . Por ejemplo, el bloque 126 de luminancia se compone de una cuadricula 132 en donde cada uno de los cuadros de las cuadricula 132 representa un valor de luminancia de ochos bits asociado con un pixel particular dentro del macro-bloque 118. Por supuesto, debido a que la información de crominancia se ha diezmado como se describió anteriormente, cada uno de los valores de ocho bits dentro de los bloques 128 y 130 de crominancia de 8x8 representa la información del color promedio de un grupo de cuatro pixeles asociados con el macro-bloque 118.
Después de convertir el modelo de color y de diezmar la información de crominancia, el esquema de compresión MPEG procesa las imágenes o tramas 102-108, las cuales están ahora representadas utilizando los datos YUV diezmados, para eliminar o reducir la redundancia temporal. El esquema de compresión MPEG utiliza predicción inter-trama de movimiento compensado para reducir la cantidad de datos que se requiere para volver a generar una secuencia de tramas de video. En general, el esquema de compresión MPEG periódicamente genera tramas de referencia (conocidas como Intra-tramas o tramas-I) que esencialmente pausan imágenes de video que pueden volver a generarse (es decir, desplegarse) sin hacer referencia a ninguna de las otras tramas o imágenes. Una serie de tramas de video precedentes y/o posteriores a una trama de referencia o una trama-I son ya sea tramas Predictivas (comúnmente conocidas como tramas-P) o tramas predictivas Bidireccionalmente (comúnmente conocidas como tramas-B) . Las tramas-P contienen vectores de movimiento e información de error que se relacionan con la trama-P para una trama-I o para una trama-P precedente, mientras que las tramas-B contienen vectores de movimiento en información de error que se relacionan con tramas-I o tramas-P precedentes y/o subsecuentes. Debido a que las porciones sustanciales (por ejemplo, un fondo) de una imagen de video típicamente no cambian significativamente (o del todo) a partir de una trama
hacia la siguiente (es decir, existe una cantidad significativa de redundancia temporal) , la cantidad de información necesaria para cada trama-P y cada trama-B puede ser significativamente menor que la cantidad de información necesaria para representar una trama-I. Durante un proceso de compresión MPEG, cada una de las tramas o imágenes 102-108 que conforman la secuencia 100 de video se indican mediante el codificador MPEG como una de una trama-I, una trama-P, o una trama-B. La manera relativamente compleja en la cual el proceso de compresión MPEG designa las tramas como tramas-I, tramas-P y tramas-B se conoce bien en la técnica y no se describe con mayor detalle en la presente. Sin embargo, para propósitos de comprender el ejemplo del aparato de generación de video y los métodos descritos en la presente, se debe reconocer que la creación de las tramas-P y tramas-B ocurre en una base de bloque por bloque (es decir, un macro-bloque a la vez) . Como resultado, si durante el proceso de compresión MPEG se reconoce que predecir un macro-bloque particular dentro de una trama-P o una trama-B no mejorará la compresión, ese macro-bloque particular se intra-codificará (es decir, no se predice, sino en vez de ello, se describe completamente utilizando datos de luminancia y crominancia reales que pueden convertirse directamente para propósitos de visualización) . Una vez que el proceso de compresión MPEG ha
reducido o eliminado temporalmente la información inter-trama redundante al convertir una secuencia de imágenes de video en una secuencia de tramas-I, tramas-P y tramas-B, el esquema de compresión MPEG procesa esas tramas para retirar la redundancia espacial. El esquema de compresión MPEG reconoce que dentro de un macro-bloque de pixel 16x16 determinado existe típicamente un patrón repetible de información de pixel y/o la información de pixel no varía significativamente (por ejemplo, percertiblemente) a través del macro-bloque. Para eliminar la información espacialmente redundante, el esquema de compresión MPEG utiliza una transformación de coseno discreta (DCT) para convertir cada uno de los bloques 8x8 que conforman los macro-bloques de tramas-I, tramas-P y tramas-B del dominio espacial hacia el dominio de frecuencia. En el dominio espacial, cada cuadro (es decir, byte) dentro de un bloque 8x8 corresponde a una ubicación de pixel física, mientras que en el dominio de frecuencia, cada cuadro dentro de un bloque 8x8 producido por la conversión DCT corresponde a una frecuencia de una forma de onda de coseno. Debido que existe típicamente muy poca variación en la intensidad y el color a través de un macro-bloque de 16x16 pixeles, la mayoría los macro-bloques pueden representarse en el dominio de frecuencia utilizando un componente de corriente directa (DC) (es decir, un componente o desplazamiento de frecuencia de cero) y pocos, si los hay,
componentes de baja frecuencia. Como se conoce bien, la DCT de la información de pixel de un bloque espacial 8x8 (por ejemplo, un bloque 8x8 de información de luminancia en donde cada cuadro dentro del bloque representa un valor de ocho bits asociado con una ubicación de pixel física) da por resultado un bloque 8x8 de información de dominio de frecuencia, en donde cada cuadro contiene un coeficiente de amplitud para una forma de onda de coseno de una frecuencia particular. La esquina izquierda superior del bloque de dominio de frecuencia es un valor DC (por ejemplo, la luminancia promedio para el bloque del dominio espacial 8x8) y la frecuencia horizontal incrementa el movimiento a través de las flechas hacia la derecha de la esquina superior izquierda y la frecuencia vertical incrementa el movimiento en las columnas hacia abajo. Como se describe con mayor detalle a continuación, la esquina superior izquierda del bloque de dominio de frecuencia (es decir, el valor del coeficiente DC) también representa el valor asociado con el pixel en la esquina superior izquierda del bloque en el dominio espacial. Sin embargo, los coeficientes de frecuencia dentro del bloque del dominio de frecuencia distinto al coeficiente DC no corresponden idénticamente a los valores de pixel en el dominio espacial. De ese modo, en general, si una información espacial o de pixel es necesaria para un bloque determinado, se requiere una conversión del bloque de dominio
de frecuencia para el dominio espacial. En la práctica, al llevar a cabo una DCT y una cuantificación de cada uno de los bloques 8x8 da por resultado que los bloques del dominio de frecuencia que tienen relativamente pocos valores de coeficiente cerca de la esquina superior izquierda de los bloques del dominio de frecuencia 8x8 y un número relativamente grande de valor cero o coeficientes de un mismo valor en la mayoría de los cuadros que conforman los bloques restantes. Al utilizar un esquema de codificación por longitud de serie y no transmitir individualmente los coeficientes que tienen el mismo valor (por ejemplo, coeficientes que tienen un valor de cero) , el proceso de compresión MPEG puede sustancialmente reducir la cantidad de datos necesarios para reconstruir la imagen comprimida sin perceptiblemente degradar la calidad de la imagen. Para ilustrar la manera en la cual la información espacialmente redundante puede eliminarse, considérese una información de luminancia de pixel de un bloque 8x8 tal como, por ejemplo el bloque 126 de la Figura 1. Si la luminancia es constante (es decir, el valor digital de 128) a través del bloque 126, cada uno de los valores de luminancia asociados con los 64 cuadros que conforman la cuadricula 132 contendrán el valor 128. Al llevar a cabo una DCT en un bloque 8x8 como ese dará por resultado un bloque 8x8 en el cual el cuadro de
la esquina superior izquierda contiene el valor 128 de DC y todos los otros cuadros o coeficientes del dominio de frecuencia son iguales a cero. De ese modo, en el dominio de frecuencia, solamente se necesita un solo valor que se va a utilizar (y transmitir) para representar los valores de luminancia para todos los pixeles con el original bloque de dominio espacial 8x8. En otras palabras, los 63 valores de luminancia de ocho bits no tienen que transmitirse y procesarse mediante un descodificador MPEG. Más bien, utilizando un esquema de codificación por longitud de serie, puede transmitirse un solo valor (es decir, 128) y una longitud de serie de 63, (que indica 63 ceros) , puede transmitirse al descodificador MPEG. En general, el proceso de compresión MPEG alcanza proporciones de compresión relativamente altas al emplear técnicas tales como, por ejemplo, cuantificación de coeficiente de frecuencia (por ejemplo, reducir el número de bits necesarios o destinados para cada coeficiente de dominio de frecuencia) , y la codificación de secuencia en zigzag junto con la codificación por longitud de serie para eliminar la transmisión individual de coeficientes que tienen el mismo valor. Sin embargo, tales técnicas se conocen bien en la técnica, y por lo tanto, no se discuten adicionalmente en la presente . La Figura 2 es un diagrama en bloque de un sistema
200 ejemplar que puede emplear el aparato de generación de firma de video digital ejemplar y los métodos descritos en la presente para identificar programas de video. El sistema 200 incluye un desmodulador 202 que recibe una corriente 204 de datos de programa digital. La corriente 204 de datos del programa digital puede ser una corriente de datos de múltiples programas que se transmiten a través de cualquier método deseado. Por ejemplo, la corriente 204 de datos de programa digital puede ser una corriente de datos de televisión digitales de múltiples programas que se transmiten utilizando cualquier combinación deseada de enlaces de comunicación inalámbrica tales como, por ejemplo, enlaces de comunicación satelital, enlaces de comunicación celular u otros enlaces de comunicación terrestre inalámbrica. Alternativa o adicionalmente, la corriente 204 de datos de programa digital puede transmitirse a través de cualquier combinación deseada de trayectorias de comunicación cableadas que incluyen cables, lineas telefónicas, etc. Para propósitos de la siguiente discusión, la corriente 204 de datos de programa digital ejemplar se considera que incluye uno o más programas de video digitales que se han comprimido y formateado de acuerdo con la norma MPEG como describe a modo de ejemplo en conexión con la Figura 1. Los paquetes MPEG que conforman la trama o la información de la imagen de video para cada uno de los
programas de video digitales pueden encapsularse utilizando cualquier protocolo de transporte deseado. El desmodulador 202 pude extraer una señal de banda base que contiene una corriente de datos digitales de múltiples programas y un circuito de transporte para reconstruir paquetes de datos asociados con un programa deseado a partir de la corriente 204 de datos de programa digital. Cuando el desmodulador 202 se sintoniza en un canal particular, se reconstruyen los paquetes de datos MPEG de la corriente 204 de datos de programa digital que corresponde al programa seleccionado. El sistema 200 también incluye una unidad 206 de adquisición de datos que se acopla al desmodulador 202. La unidad 206 de adquisición de datos selecciona información 208 de video digital comprimida (por ejemplo, tramas-I, tramas-P y tramas-B MPEG) asociadas con un programa de video actualmente transmitido por el desmodulador 202. Como se describe con mayor detalle a continuación, la unidad 206 de adquisición de datos selecciona tramas o imágenes de la información 208 de video digital comprimida que están sustancialmente intra-codificadas (es decir, tramas o imágenes que contienen un porcentaje sustancial de macro-bloques intra-codificados ) y genera la información de la firma para el programa de video con base en esas tramas o imágenes sustancialmente intra-codificadas . Más
específicamente, la unidad 206 de adquisición de datos extrae información de una imagen escalada (por ejemplo, al extraer la información del coeficiente de DC) de los bloques de dominio de frecuencia sustancialmente intra-codificados seleccionados y utiliza la información de la imagen escalada para calcular el centro de masa o la información del centroide para cada uno de los componentes de brillo y color para cada una de una serie de tramas o imágenes sustancialmente intra-codificadas . Cada una de las imágenes o tramas también puede subdividirse recursivamente en una pluralidad de sub-regiones o áreas y la información del centro de masa puede de modo similar generarse para cada una de las sub-regiones o áreas. En cualquier caso, cada trama o imagen intra-codificada puede sustancialmente representarse en forma única mediante una firma compuesta de una pluralidad de centros de masa o valores de centroide asociados con los componentes (por ejemplo, colores, brillo, etc.) de la imagen o trama en general o cualesquiera sub-regiones o áreas definidas de la imagen o trama. La unidad 206 de adquisición de datos se acopla comunicativamente a una unidad 210 central de proceso a través de un enlace 212 de comunicación. El enlace 212 de comunicación puede implementarse utilizando cualquier combinación deseada de enlaces de comunicación cableados e inalámbricos, y cualquier comunicación deseada de protocolos
o esquemas de comunicación. Por ejemplo, el enlace 212 de comunicación puede implementarse como una red de área local, o cualquier otra red, y/o puede incluir el uso de lineas telefónicas, una red conmutada en paquete tal como, por ejemplo, la Internet, o cualesquier otros tipos de enlaces de comunicación . La unidad 210 central de proceso también incluye una memoria no volátil o dispositivo 214 de almacenamiento de masa. El dispositivo 214 de almacenamiento de memoria o masa puede implementarse utilizando, por ejemplo, una unidad de disco que almacena información digital utilizando medios magnéticos u ópticos. Adicional o alternativamente, el dispositivo 214 de almacenamiento de memoria o masa puede implementarse utilizando una memoria de sólo lectura programable eléctricamente borrable (EEPROM) o similar. Aunque no se muestra en la Figura 2, las unidades de adquisición de datos adicionales similares o idénticas a la unidad 206 de adquisición de datos pueden acoplarse comunicativamente a la unidad 210 central de proceso. La unidad 206 de adquisición de datos envía las firmas generadas (generalmente como se establece anteriormente) en conexión con una secuencia de imágenes o tramas de video asociadas con un programa de video actualmente seleccionado a la unidad 210 central de proceso a través del enlace 212 de comunicación. La unidad 210 central
de proceso se configura para comparar la secuencia de firmas recibidas desde la unidad 206 de adquisición de datos a una pluralidad de firmas conocidas o de referencia que se asocian con programas de video conocidos y los cuales se almacenan dentro de una estructura de datos (por ejemplo, una tabla) dentro de una memoria 214 no volátil. En el caso de que la unidad 210 central de proceso determine que una secuencia de firma recibida desde la unidad 206 de adquisición de datos corresponde o sustancialmente corresponde a una secuencia de firma de referencia asociada con un programa de video conocido, la unidad 210 central de proceso identifica el programa de video seleccionado mediante el desmodulador 202. El desmodulador 202 y la unidad 206 de adquisición de datos pueden ubicarse dentro de un domicilio privado u otra residencia o, alternativamente pueden ubicarse dentro de una instalación de negocios o cualquier otra estructura. De preferencia, el sistema 200 se ubica de modo tal que las señales de la transmisión que se van a consumir y/o verificar pueden fácilmente detectarse y recibirse. Por supuesto, pueden de modo similar ubicarse otros descodificadores como tales y unidades de adquisición de datos (ninguna de las cuales se muestra) dentro de otras ubicaciones y acoplarse comunicativamente a la unidad 210 central de proceso a través del enlace 212 de comunicación /o a través de otros enlaces de comunicación (ninguno de los cuales se muestra) . De esta
manera, puede averiguarse estadísticamente la conducta de observación significativa y/o la información de verificación del programa para una población de personas designada o área geográfica mediante la unidad 210 central de proceso. El sistema 200 puede además incluir una instalación
216 central que se comunica con la unidad 210 central de proceso a través de un enlace 218 de comunicación, el cual puede implementarse utilizando una red de área amplia que incluya líneas telefónicas, comunicaciones inalámbricas y/o cualesquiera otros medios y/o protocolos de comunicación deseados. El enlace 218 puede implementarse utilizando una red de área amplia que incluya líneas telefónicas, comunicaciones inalámbricas y/o cualesquiera otros medios ylo protocolos de comunicación deseados. La instalación 216 central puede procesar la información de la firma y/u otra información relacionada con el programa recibida desde la unidad 210 central de proceso y/u otras unidades de procesamiento (ninguna de las cuales se muestra) . Por ejemplo, en caso de que la unidad 210 central de proceso falle en identificar un programa, video clip, etc., utilizando la información de la firma, esa información de la firma y el video clip asociado pueden transferirse a la instalación 216 central a través del enlace 218. En la instalación 216 central la información de la firma puede compararse con firmas almacenadas dentro de una biblioteca de
firmas dentro (o al menos accesible a) la instalación 216 central. Tal biblioteca de firmas puede accederse al recibir la información de la firma de una variedad de fuentes tales como, por ejemplo, otras unidades centrales de proceso (no mostradas) yl unidades de adquisición de datos (no mostradas) . Adicional o alternativamente, si la información de la firma recibida por la instalación 216 central no corresponde con ninguna información de firma ya presente en la biblioteca accesible para o dentro de la instalación 216 central, el programa, video clip, etc., asociado con la información de la firma es visto e identificado por un operador humano. El operador humano puede entonces agregar una firma a ese programa, video clip, etc., para la biblioteca de la firma. Aunque la unidad 206 de adquisición de datos se muestra en la Figura 2 como una estructura separada, las funciones de la unidad 206 de adquisición de datos pueden en vez de ello integrarse dentro del desmodulador 202 o la unidad 210 central de procesamiento de datos. Alternativamente, las funciones de la unidad 206 de adquisición de datos podrían distribuirse entre el desmodulador 202, la unidad 210 central de proceso y/u otras unidades similares o idénticas dentro de o al menos accesibles por el sistema 200. La Figura 3 es un diagrama en bloque más detallado
de una manera ejemplar en la cual la unidad 206 de adquisición de datos mostrada en la Figura 2 puede implementarse . Como se muestra en la Figura 3, el ejemplo de la unidad 206 de adquisición de datos ejemplar incluye explorador 300 de trama que recibe información 208 de video digital comprimida la cual contiene información de imagen de dominio de frecuencia, y explora las imágenes o tramas individuales (es decir, tramas-I, tramas-P, tramas-B, etc.) en las mismas para determinar, para cada imagen o trama, si esa imagen o trama contiene una cantidad suficiente de macro-bloques intra-codificados para un procesamiento posterior mediante los bloques funcionales restantes de la unidad 206 de adquisición de datos. Como se describe con mayor detalle en conexión con la Figura 4 a continuación, el explorador 300 de tramas selecciona las tramas o imágenes que tienen un porcentaje relativamente elevado de macro-bloques intra-codificados para permitir a la unidad 206 de adquisición de datos generar la información de la firma para esas imágenes o tramas seleccionadas utilizando una cantidad de tiempo de procesador relativamente pequeña (es decir, costo de procesamiento o costos operativos) . Como se hizo notar anteriormente, en contraste con los macro-bloques predictivos (por ejemplo, los bloques-P y los bloques-B) los macro-bloques intra-codificados pueden convertirse a información de imagen sin tener que llevar a cabo cálculos que consumen
tiempo complicado que implican información de macro-bloque de tramas o imágenes futuras o subsecuentes. Consecuentemente, al seleccionar las imágenes o tramas que tienen un porcentaje relativamente alto de bloques intra-codificados, la unidad 206 de adquisición de datos puede generar firmas rápidamente y con un mínimo de error para esas imágenes o tramas seleccionadas utilizando solamente bloques intra-codificados . Ignorar los bloques no intra-codificados no afecta significativamente la firma para una imagen o trama que está compuesta de un porcentaje relativamente grande de macro-bloques intra-codificados . Las tramas-I siempre están lo suficientemente intra-codificadas y las tramas-P y las tramas-B pueden intra-codificarse suficientemente dependiendo de la cantidad de macro-bloques intra-codificados que se utilizan para generar esas tramas. Las tramas que tienen un porcentaje suficiente de macro-bloques intra-codificados se pasan hacia un extractor 302 de bloque intra-codificado . El extractor 302 de bloque intra-codificado extrae macro-bloques intra-codificados de una trama o imagen seleccionada, la cual puede ser una trama-I o una trama predictiva (por ejemplo, una trama-P o una trama-B) que tiene un porcentaje relativamente elevado de macro-bloques intra-codificados . Un extractor 304 de imagen escalada recibe los bloques intra-codificados extraídos de una trama o imagen
seleccionada y extrae una imagen reducida, por ejemplo, al extraer los coeficientes DC (es decir, los valores de la esquina superior izquierda) de bloques intra-codificados . Como se hizo notar anteriormente, cuando se transportan utilizando el proceso de compresión MPEG, los macro-bloques que conforman una imagen o trama se pasan a través de una conversión DCT y la cuantificación que proporciona la información del macro-bloque de dominio de frecuencia espacialmente comprimido. Por supuesto, una imagen reducida a escala puede formarse utilizando otras combinaciones de coeficientes de frecuencia. Por ejemplo los coeficientes DC y los coeficientes asociados con uno o más de los otros componentes de frecuencia, tales como coeficientes en la esquina superior izquierda de macro-bloques, pueden extraerse. Sin embargo, en contraste con el caso en donde solamente se extraen coeficientes DC, el extractor 304 de imagen escalada genera la imagen reducida a escala al convertir los bloques de dominio de frecuencia en información de pixel de dominio espacial. De esa manera, en general, el extractor 304 de imagen escalada extrae imágenes reducidas a escala al extraer un subconjunto de coeficientes de frecuencia disponibles en cada trama intra-codificada que se proporciona mediante el extractor 302 de bloque intra-codificado, reduciendo de esa manera en forma sustancial la cantidad de información que tiene que procesarse para generar
la información de la firma, y convertir esa información de dominio de frecuencia en información del pixel de dominio espacial. Por supuesto, en el caso en donde se extraen solamente los coeficientes DC, la conversión de la información de dominio de frecuencia en información de dominio espacial no es necesaria (y puede eliminarse) debido a que los coeficientes DC en el dominio de frecuencia también corresponden a valores de pixel (es decir, los pixeles superiores izquierdos en los bloques) en el dominio espacial. En cualquier caso, el extractor 304 de imágenes escaladas extrae la información de imagen reducida a escala (por ejemplo, los valores de luminancia y crominancia promedio en el caso donde se extraigan los coeficientes DC) de macro-bloques intra-codificados y pasa esas imágenes reducidas a escala a un removedor 306 de relleno. El número de coeficientes de frecuencia utilizados para formar la imagen reducida a escala puede basarse en la resolución de la imagen que se está rebajando. En particular, las imágenes de alta resolución pueden rebajarse utilizando solamente coeficientes DC, mientras que, las imágenes de baja resolución pueden requerir la extracción de una pluralidad de coeficientes de frecuencia de cada bloque de dominio de frecuencia para formar la imagen reducida a escala. En general, mientras más alta la resolución de la imagen que se rebaja, menor número de coeficientes de frecuencia que se requieren para formar
una imagen reducida a escala adecuada para los propósitos de generación de firma. El removedor 306 de relleno remueve coeficientes que se asocian con las áreas de imagen o trama rellenadas. Como se sabe, las imágenes o tramas de video digitales pueden rellenarse (es decir, llenarse con información de video conocida) para llenar completamente el área de visualización de una trama o imagen de video. De esta manera, las áreas limítrofes de una imagen o trama desplegadas para las cuales puede no existir información de imagen, pueden llenarse con un color consistente y/o intensidad para proporcionar un límite visualmente aceptable. Por ejemplo, las áreas de visualización para las cuales la información de la imagen no está disponible pueden llenarse con un límite oscuro o gris en lugar de permitir que el ruido u otra información del video aleatoria se despliegue en esas áreas de visualización. En particular, si una imagen de proporción de aspecto 4:3 que se va a desplegar sin cambiar el tamaño o haciendo un acercamiento en una unidad de transmisión de proporción de aspecto 16:9, se agrega un relleno a la imagen para que los lados izquierdo y derecho de la imagen desplegada estén flanqueados por límites o bandas sólidas coloreadas. En cualquier caso, tal relleno no es parte de la imagen original y típicamente es una función del codificador particular. Después de que se ha retirado el relleno de la
información de la imagen reducida a escala, la información de la imagen en escala se proporciona a un generador 308 de firma. Como se describe con mayor detalle a continuación, el generador 308 de firma utiliza la información de la imagen en escala extraída para generar firmas de imagen con base en los centros de masa o centroides de diversos componentes de color y brillo de una imagen global y sub-imágenes o áreas definidas dentro de esa imagen global. De esta manera, cada imagen puede describirse por una firma compuesta de un conjunto coordinado de centroide que es una característica sustancialmente única de la distribución del color y el brillo dentro de esa imagen. Además, puede utilizarse una serie de tales firmas asociadas con una serie o secuencias de tramas o imágenes de video para representar en forma única y/o identificar un programa de video de las tramas o imágenes de video que se extrajeron. La información 310 de la firma, que es una secuencia de las firmas de las tramas o imágenes asociadas con un representativo único de un programa de video seleccionado, se transfiere hacia, por ejemplo, la unidad 210 central de proceso (Figura 2) . Como se describe con mayor detalle a continuación, la unidad 210 central de proceso se configura para comparar la información 310 de la firma recibida con una información de la firma de referencia (por ejemplo, conjunto de secuencias de firma que son
representativas de programas de video conocidos) para determinar la identidad de un programa de video actualmente seleccionado por el desmodulador 202 (Figura 2) . La Figura 4 es un sistema 400 con base en un procesador ejemplar que ejecuta el software o las instrucciones del firmware almacenado en un medio leíble en máquina para implementar la unidad 206 de adquisición de datos (Figura 2) . El sistema 400 con base en el procesador ejemplar incluye un procesador 402, que puede ser cualquier microprocesador adecuado tal como, por ejemplo, un procesador de la familia de microprocesadores Intel Pentium®. El procesador 402 puede acoplarse comunicativamente con una memoria 404 no volátil y una memoria 406 volátil. La memoria 404 no volátil puede implementarse utilizando, por ejemplo, una memoria de solo lectura programable eléctricamente borrable (EEPROM) , una memoria de solo lectura (ROM), etc. La memoria 406 volátil puede implementarse utilizando, por ejemplo, una memoria de acceso aleatorio estática (SRAM) , una memoria de acceso aleatorio dinámica (DRAM) , etc. El procesador 402 también puede acoplarse a un dispositivo 408 de almacenamiento de masa, el cual puede implementarse utilizando, por ejemplo, una unidad de disco que almacena información digital utilizando un medio magnético u óptico. El procesador 402 puede recuperar y ejecutar
instrucciones leíbles en máquina o programas de software que están almacenados en una o más de las memorias 404 y 406 y/o el dispositivo 408 de almacenamiento de masa para llevar a cabo las funciones de la unidad 206 de adquisición de datos (Figura 2) y, particular, las funciones de los bloques 300-308 mostrados en la Figura 3. El procesador 402 también está en comunicación con una unidad 410 de entrada/salida (I/O), que posibilita al sistema 400 comunicarse con, por ejemplo, el desmodulador 202 (Figura 2) y/o la unidad 210 central de proceso (Figura 2) . La unidad 410 I/O puede incluir circuitos para llevar a cabo funciones de comunicación de red (por ejemplo, funciones de comunicación de Ethernet) , funciones de comunicación de línea telefónica (por ejemplo, funciones de módem) , funciones de comunicación de un dispositivo periférico (por ejemplo, comunicaciones de un bus en serie universal, comunicaciones de un puerto en paralelo, etc.) para permitir al. sistema 400 comunicarse con uno o más dispositivos de entrada tales como, por ejemplo, un ratón, teclado, etc. y/o uno o más dispositivos de salida tales como, por ejemplo, una pantalla de video, una impresora, etc. La Figura 5 es un diagrama de flujo que representa una manera en la cual el sistema 400 basado en un procesador mostrado en la Figura 4 puede programarse para implementar la unidad 206 de adquisición de datos ejemplar (Figura 2) . Sin
embargo, las personas con una habilidad ordinaria en la técnica apreciarán que los bloques 300-308 (Figura 3) de la unidad 206 de adquisición de datos ejemplar (Figura 2) puede implementarse utilizando cualquier combinación deseada de hardware y software. Por ejemplo, la unidad 206 de adquisición de datos puede incluir uno o más circuitos integrados de aplicación especifica, microprocesadores que ejecutan instrucciones leíbles en máquina, componentes lógicos digitales, circuitos análogos, etc. configurados para operar como bloques 300-308. La unidad 206 de adquisición de datos (Figura 2) recibe una trama o imagen de video digital comprimida del desmodulador 202 (bloque 500) . Como se describió anteriormente, las tramas o imágenes de video comprimidas recibidas por la unidad 208 de adquisición de datos se comprimen utilizando la norma MPEG bien conocida. Sin embargo, podrían utilizarse en su lugar cualesquiera otras normas o técnicas de compresión que produzcan información de imagen a escala (por ejemplo, imágenes reducidas a escala) de las tramas o imágenes. La trama o imagen de video digital comprimida recibida se explora para determinar el número de porcentaje de macro-bloques intra-codificados de los cuales está compuesta la trama o imagen (bloque 502) . El procesador 402 entonces determina si la trama o imagen incluye un porcentaje
lo suficientemente alto de macro-bloques intra-codificados (bloque 504). El porcentaje que constituye un porcentaje suficiente puede variar dependiendo de la aplicación particular. Por ejemplo, si es aceptable una velocidad de falla de identificación de programa muy bajo, puede ser deseable generar firmas solamente para tramas completamente intra-codificadas (tramas-I u otras tramas que contengan el 100% de los bloques intra-codificados ) para maximizar la cantidad de información de la imagen que puede utilizarse para generar la información de la firma para las tramas o imágenes. Por otro lado, si es aceptable una velocidad de falla de identificación de programa más elevada, las tramas que tengan un menor porcentaje de bloques intra-codificados pueden estar suficientemente intra-codificados . Si una trama explorada no está lo suficientemente intra-codificada (bloque 504) , el procesador 402 espera otra trama o imagen en el bloque 500. Por otro lado, si se determina en el bloque 504 que una imagen o trama explorada está lo suficientemente intra-codificada, el procesador 402 extrae la información de la imagen reducida en escala (por ejemplo, los valores de los coeficientes DC) de los macro-bloques del dominio de la frecuencia que conforman la imagen o trama (bloque 506) . La extracción de la imagen reducida a escala en escala en el bloque 506 puede también incluir una conversión a información de pixel de dominio espacial en el
caso en donde los coeficientes del dominio de la frecuencia aparte de solamente los valores del coeficiente DC se extraigan de cada bloque del dominio de la frecuencia. El procesador 402 remueve entonces la información de la imagen o las áreas de imagen asociadas con el relleno tales como, por ejemplo, bordes u otras porciones de imagen insertadas para permitir que una imagen que pueda no apropiadamente llenar un área de visualización que se va a desplegar de una manera incuestionable (bloque 508) . De esta manera, el procesador 402 puede generar información de firma para la trama o imagen de una manera que no incluya ninguna información de video que no se aparte de la imagen original. La información representativa de la imagen (es decir, la imagen reducida en escala que contenga la información del pixel seleccionado) , de la cual se ha retirado el relleno, puede opcionalmente cargarse (bloque 510) . El procesador 402 puede cargar la información de la imagen reducida en escala (por ejemplo, al multiplicar cada uno de los valores de pixel por un número que fluctúa desde cero hasta uno) para mejorar la robustez del proceso de generación de la firma. Por ejemplo, el procesador 402 puede cargar los valores de pixel asociados con las porciones centrales de una imagen o trama más pesadamente (por ejemplo, utilizando un multiplicador más cercano a uno) que con aquellas porciones de la imagen o trama que están más cerca
de la periferia de la imagen o trama. Cargar la porción central de una imagen más pesadamente que las porciones periféricas de una imagen, puede significativamente reducir o eliminar los errores de generación de firma que de otra manera podrían resultar en caso de que una imagen haya sido recortada en su periferia desde su forma original. En otras palabras, recortar una porción de una imagen a la que se le ha dado poca, si la hay, carga durante el proceso de generación de la firma, tendrá poco efecto, si lo hay, sobre la precisión del proceso de generación de la firma. El procesador 402 genera entonces la información de la firma utilizando la información reducida a escala de esas tramas o imágenes que están lo suficientemente intra-codificadas (bloque 512) . Como se describió anteriormente, ciertas áreas de imagen pueden retirarse antes del proceso de generación de la firma (bloque 512) tales como, por ejemplo, aquellas áreas asociadas con el relleno (bloque 508) . Además, algunas o todas de cualquiera de las áreas restantes pueden cargarse (bloque 510) antes del proceso de generación de la firma (bloque 512) . Tras la generación de una firma para una trama o imagen seleccionada, el procesador 402 puede en forma local almacenar la firma del dispositivo 408 de almacenamiento de masa y/o la memoria 406 volátil (bloque 504) . El procesador 402 puede entonces enviar las firmas y la información de la
imagen reducida a escala conforme se genera (bloque 512) y se almacena (bloque 514) o, alternativamente, periódicamente en conjuntos o grupos de firmas, hacia la unidad 212 central de proceso (bloque 516) para el análisis de correspondencia e identificación del programa. Después de generar cada firma (bloque 512) y cualesquiera actividades de almacenamiento y envió (bloques 512 y 516) , el procesador 402 espera por otra imagen o trama (bloque 500) . Un proceso de generación de firma ejemplar que puede utilizarse para implementar el bloque 512 de la Figura 5 se discute a continuación en conexión con las Figuras 6-13. En general, la unidad 206 de adquisición de datos (Figura 2) genera firmas de video al calcular los centroides o centros de masa para cada uno de los componentes de color de la imagen (por ejemplo, Rojo, Verde, Azul, Amarillo, etc.) y los componentes de brillo (por ejemplo Negro/Blanco) . En particular, cada centro de masa o centroide se calcula utilizando una imagen reducida a escala (por ejemplo, un subconjunto de coeficientes de frecuencia y, de ese modo, un subconjunto de valores de pixel de dominio espacial) extraída de cada uno de los macro-bloques de dominio de frecuencia que conforma una imagen o trama. Por supuesto, como se hizo notar anteriormente, ciertas áreas pueden eliminarse si se asocian con el relleno y/o pueden cargarse para reducir o eliminar los efectos del recorte de la imagen.
El centro de los cálculos de masa o los cálculos del centroide suman los momentos de los valores de pixel de la imagen reducida en escala. En particular, para calcular la posición horizontal (por ejemplo, eje-x) dentro de la trama o imagen para el centro de masa o centroide del componente de la imagen, el valor para cada pixel se multiplica por su número de columna dentro de su trama o imagen asociada, los momentos individuales se suman, y la suma se divide por un valor de momento de columna máximo para proporcionar una posición horizontal normalizada para el centro de masa o centroide para ese componente de imagen. De modo similar, para calcular la posición vertical (por ejemplo, eje-y) dentro de la trama o imagen para el centro de masa o centroide, el valor para cada pixel se multiplica por su número de fila dentro de la trama, los momentos individuales se suman, y la suma se divide por un valor de momento de fila máximo para proporcionar una posición vertical normalizada para el centro de masa o centroide para ese componente de la imagen. Matemáticamente, las posiciones horizontal y vertical normalizadas del centroide de un componente de imagen (es decir, un color o brillo particular) ???" puede expresarse como un porcentaje utilizando las Ecuaciones 1 y 2 a continuación. En las Ecuaciones 1 y 2, el valor "C" es el número total de columnas (por ejemplo, el número de pixeles por linea) dentro de la imagen o trama para
la cual se está calculando la firma, el valor "R" es el número total de filas (por ejemplo, lineas) , y los valores I [r] [c] son los valores para el pixel en la fila "r" y la columna "c" para el componente "I" (por ejemplo, Rojo, Verde, Azul, Amarillo, brillo, etc.)
Ecuación 1 centroide
J c=C-l 100? ? r «/[r][c] Ecuación 2 centroide y c-1 r=ü r.-O Por supuesto, como se hizo notar anteriormente, las imágenes o tramas pueden cargarse para eliminar o reducir los efectos del recorte y similares. Como resultado, los valores I[r][c] (es decir, los valores de pixel de imagen reducidos en escala) pueden ser diferentes de la imagen o trama original. Además, los cálculos del centroide o centro de masa anteriores se normalizan. Utilizando esta información de centroide normalizada para generar las firmas para imágenes o tramas o secuencias de firmas para una secuencia de video puede reducir o eliminar los efectos del escalado de la imagen, el desplazamiento, etc. La Figura 6 es un ejemplo de una imagen o trama 600
para la cual se puede calcular una firma utilizando el método descrito anteriormente en conexión con las Ecuaciones 1 y 2. Para ilustrar claramente la manera en la cual se genera la información de la firma utilizando las Ecuaciones 1 y 2, la imagen o trama 600 incluye cuatro circuios 602, 604, 606 y 608, cada uno de los cuales es un color puro dentro de un modelo de color particular. Por ejemplo, los circuios 602-608 pueden ser rojo, verde, azul y amarillo, respectivamente. Además, para mantener este simple ejemplo, los circuios 602-608 coloreados son iguales y uniformes en brillo. Al utilizar las Ecuaciones 1 y 2 anteriores para generar las coordenadas horizontal y vertical normalizadas para los centroides o centros de masa para cada uno de los componentes de los colores y brillos de la imagen 600 da por resultado el conjunto de pares de coordenadas (??,??), (Xi,Y3), (X2,Y2), (X3,Yi), y (X3 Y3) . El par (??,??) es el centroide del componente de color asociado con el circulo 608, (Xi,Y3) es el centroide del componente del color asociado con el círculo 606, ( 21?2) es el centroide del componente del brillo asociado con la imagen 600, (X3,Ya) es el centroide del componente de color asociado con el círculo 602, y (X3,Y3) es el centroide del componentes de color asociado con el círculo 604. El conjunto de pares de coordenadas normalizado para los centroides o centros de masa de los diversos
componentes de color y brillo que se combinan para componer la imagen o trama 600 son sustancialmente únicos representativos de la imagen 600. Por ejemplo, al mover solamente el circulo 602 horizontalmente en dirección a la derecha de la imagen 600 se afectará significativamente el componente horizontal del centroide del circulo 602 (por ejemplo, el valor X3 se moverá consecuentemente) . El conjunto de pares de coordenadas normalizadas para la imagen 600 puede utilizarse de diversas maneras para definir una firma para la imagen 600. Por ejemplo, la firma para la imagen 600 puede definirse como una colección o conjunto de pares de coordenadas de centroide para cada componente de color y/o brillo que conforman una imagen. En particular, una firma "S" para una imagen podría definirse como S = (Rojox, Rojoy, Verdex, Verdey, Azulx, Azuly, Amarillo*, Amarilloy, Brillox, Brilloy) , en donde Rojox es la posición horizontal del centroide para el color rojo, Rojoy es la posición vertical del centroide para el color rojo, etc. Consecuentemente la firma para la imagen 600 ejemplar calculada utilizando tal colección o conjunto es S = (X3, Ylr
Alternativamente, una firma basada en las coordenadas normalizadas del color y el brillo de los componentes de la imagen pueden formarse utilizando información de posición relativa entre dos o más componentes
de la imagen. Por ejemplo, una firma puede formarse utilizando vectores o movimiento relativo o información de ubicación para diversos componentes de imagen con base en las coordenadas normalizadas absolutas para un componente de la imagen. En el caso de la imagen 600 ejemplar, si las coordenadas absolutas para el centroide del componente de color rojo se utilizan (por ejemplo, X3,Yi), las posiciones de los componentes restantes (es decir, verde, azul, amarillo y brillo) se describen con relación al rojo y a cada uno de los otros y sigue una trayectoria 610 dentro de la imagen 600. De este modo, la posición del centroide para el componente verde puede definirse con relación al componente rojo, la posición del centroide para el componente azul con relación al componente verde, la posición del centroide para el componente amarillo con relación al componente azul y la posición del componente de brillo con relación al componente amarillo. Tal firma puede expresarse matemáticamente como se muestra en la Ecuación 3 a continuación. Ecuación 3 S = (AXg, AYgr AXb, AYbr AXy, AYy, AXbght, Abght) Los valores delta X y Y representan desplazamientos horizontal y vertical de las posiciones horizontal y vertical del centroide anterior dentro del conjunto de posiciones del centroide que conforman la firma "S". De ese modo, los valor AXg, y AYg representan la diferencia entre las coordenadas
del centroide del componente verde y el componente rojo (es decir, AXg = X3-X3 = 0 y AYg = Y3-Y1) , los valores AXb y AYb representan la diferencia entre las coordenadas para el centroide del componente azul y el componente verde (es decir, AXb = X1-X3 y AYb = Y3-Y3 = 0), etc. Como se muestra en la Ecuación 3 anterior, las coordenadas absolutas para la posición del centroide del componente rojo no se incluyen para proporcionar una firma que no es sensible al desplazamiento o movimiento de una imagen entera dentro de la trama 600. Por ejemplo, cuando se utiliza una técnica de generación de firma con base en posiciones de centroide relativas (tales como las que proporcionan mediante la Ecuación 3 anterior) , un desplazamiento de todos los cuatro circuios 602-608 mediante las mismas distancias horizontal y vertical dentro de la trama 600 no afectará la firma generada (es decir, las coordenadas o posiciones del centroide relativo no cambiarán) . Alternativa o adicionalmente, las posiciones de uno o más de los componentes de la firma de la firma pueden generarse con base en la posición del centroide del componente de la imagen con respecto a un punto de referencia predeterminado o fijo. Aunque la imagen 600 del ejemplo de la Figura 6 se describe como si estuviera basada en un modelo de color, que tiene componentes, rojo, verde, azul, amarillo y brillo,
pueden utilizarse en vez de estos otros modelos de color y, por lo tanto componentes de imagen. Por ejemplo, modelos de color bien conocidos incluyendo, por ejemplo RGB, HIS, YÜV, YCrCb, CIELAB y similares pueden utilizarse junto con los métodos ejemplares y el aparato descritos en la presente. Además, la formación de la imagen puede recibirse mediante la unidad 206 de adquisición de datos (Figura 2) en una forma basada en un modelo de color y convertirse en otro modelo de color para facilitar y/o mejorar el proceso de generación de firma. Por ejemplo, la unidad 206 de adquisición de datos puede recibir información de una imagen MPEG desde el desmodulador 202. Como se describió anteriormente, las imágenes o tramas de MPEG se forman utilizando un modelo de color YCrCb o YUV. Durante la generación de la firma (bloque 512 de la Figura 5), la unidad 206 de adquisición de datos puede convertir la información de luminancia y crominancia proporcionada por los modelos YCrCb o YUV para proporcionar información de color para los componentes, rojo, verde, azul, amarillo y brillo. Debido a que las relaciones entre los diferentes modelos de color son bien conocidas, no se proporciona una descripción detallada de tal proceso de conversión en la presente. Aunque los anteriores ejemplos y, particularmente, las Ecuaciones 1 y 2, representan el uso de coordenadas de centroide normalizadas, puede no utilizarse información de
centroide no normalizada. Sin embargo, como se describe a continuación, el uso de información de centroide no normalizada puede dar por resultado una sensibilidad incrementada para la formación a escala de la imagen y similares, lo cual puede dar por resultado una probabilidad más alta de falla para identificar o identificar en forma falsa una imagen o secuencia de imágenes (por ejemplo, un programa de video) . Para propósitos de claridad, la distribución de los componentes (por ejemplo, colores, brillo, etc.) dentro de la trama o imagen 600 se simplifica enormemente. Es decir, los componentes de color que componen la trama 600 se representan como circuios simétricamente distribuidos que no se sobreponen. Por supuesto, la mayoría de las imágenes o tramas que conforman un programa de video están compuestas de una distribución de los componentes de color y brillo significativamente más complejos que el caso simplificado que se muestra en la Figura 6. La Figura 7 representa una imagen o trama 700 ejemplar en la cual se distribuyen tres componentes de imagen (por ejemplo, tres colores de un modelo de color) de una manera no uniforme más compleja. Para claridad, la imagen 700 se muestra como tres capas 702, 704 y 706 de componentes en las cuales cada componente de la imagen está distribuido de una manera no uniforme. Por ejemplo, la capa 702 puede ser
una capa roja, la capa 704 puede ser una capa verde y la capa 706 puede ser una capa azul que tienen centroides o centros de masa respectivos (??,??), (X2/Y2)/ y ( 3,?3) · Alguien con experiencia ordinaria en la técnica fácilmente apreciará que la técnica de generación de firma descrita anteriormente en conexión con la Figura 6 y las Ecuaciones 1, 2 y 3 puede en forma similar aplicarse a las imágenes que tienen distribuciones de componentes más complejas tales como la imagen 700 de la Figura 7. Aunque la técnica de generación de firma descrita en conexión con la Figura 6 anterior proporciona juegos sustancialmente únicos de centroides de componentes normalizados (es decir, pares de coordenadas vertical y horizontal) ciertas distribuciones de componente pueden dar por resultado exclusividades de firma significativamente reducidas. Por ejemplo, la Figura 8 representa una trama o imagen 800 que tiene un circulo 802 de un componente de color puro (por ejemplo, rojo, verde, azul, etc.). El circulo 802 tiene un centroide 804 ubicado en el en el centro del circulo 802. La Figura 9 representa una trama o imagen 900 ejemplar que tiene dos circuios 902 y 904 de un componente de color puro el mismo que el que compone al circulo 802 de la imagen 800. Un centroide 906 para este componente de color de la imagen 900 se ubica en el "+". La Figura 10 representa otro ejemplo de trama o imagen 1000 que tiene un objeto 1002
en forma de anillo compuesto del mismo componente de color que el que compone a los circuios 802, 902 y 904 de las Figuras 8 y 9. ün centroide 1004 para este componente de color de la imagen 1000 se coloca idénticamente dentro de la imagen 1000 como los centroides 804 y 906 se colocan dentro de las imágenes 800 y 900. De ese modo, en este ejemplo, los centroides para un componente de color particular para tres distribuciones sustancialmente diferentes de ese componente de color son todas idénticas colocadas dentro de sus respectivas imágenes o tramas y, de ese modo, no pueden utilizarse para distinguir en forma única entre las imágenes 800, 900 y 1000. Otra dificultad que puede surgir cuando se intenta generar firmas únicas para imágenes de video ocurre con las imágenes que tienen distribuciones de componente sustancialmente simétricas. Las Figuras 11 y 12 son tramas o imágenes 1100 y 1200 ejemplares que contienen distribuciones relativamente simétricas de un componente particular. En particular, la trama 1100 contiene tres formas 1102, 1104 y 1106 elípticas idénticas, cada una de las cuales está compuesta de un solo componente (por ejemplo, un solo componente de color) . Al utilizar las Ecuaciones 1 y 2 anteriores, el centro de masa o centroide de la distribución de componente mostrado en la Figura 11 se ubica en (??,??) , el cual se designa con la imagen 1100 utilizando un signo en
el numeral 1108 de referencia. La Figura 12 también contiene tres formas 1202, 1204 y 1206 elípticas que se componen del mismo componente y son de la misma forma y tamaño que las formas 1102, 1104 y 1106 de la Figura 11. Aunque las formas 1202, 1204 y 1206 se distribuyen dentro de la imagen o trama 1200 de una manera sustancialmente diferente que las formas 1102, 1104 y 1106 se distribuyen dentro de la trama 1100, utilizando las Ecuaciones 1 y 2 anteriores para generar un centroide para la distribución de componente dentro de la trama 1200 produce una ubicación 1208 de centroide que es idéntica a la ubicación 1108 de centroide de la distribución de componente de la Figura 11 (es decir, ??,??) . Aquellos con experiencia ordinaria en la técnica, por supuesto, reconocerán que en la práctica, la mayoría de las imágenes (por ejemplo, imágenes de color) incluyen más de un componente (por ejemplo, rojo, verde, azul, etc.). Como resultado, incluso si el centroide de uno de los componentes de la imagen falla al asociarse en forma única con esa imagen, los componentes restantes pueden, sin embargo, proporcionar un conjunto de centroides que es sustancialmente único para propósitos de identificar esa imagen. Sin embargo, las firmas compuestas de unos cuantos centroides de componente- sustancialmente únicos (es decir, el conjunto de ubicaciones de centroide es menos único) puede
significativamente reducir la conflabilidad de las identificaciones de imagen (por ejemplo, pueden ocurrir identificaciones erróneas) con base en esos conjuntos de centroides . Como se describe con mayor detalle en conexión con la Figura 13 a continuación, una firma para una trama o imagen puede hacerse más única al sub-dividir la imagen o trama en una pluralidad de regiones o áreas, calculando los centroides del componente para estas regiones o áreas sub-divididas y formar una firma para la trama o imagen que incluye centroides de componente para la imagen en forma global y los centroides de componente para las regiones o áreas sub-divididas . De ese modo, una firma generada de esta manera es menos sensible a los problemas anteriormente mencionados que se discuten en conexión con las Figuras 8-12 anteriores . La Figura 13 representa un ejemplo de trama o imagen 1300 que contiene tres formas 1302, 1304 y 1306 elípticas idénticas, todas de las cuales están compuestas del mismo componente (por ejemplo, un solo color) . Como se describe mediante las líneas punteadas, la imagen 1300 ha sido sub-dividida en cuatro cuadrantes marcados como Q0, Ql, Q2 y Q . El centroide para la imagen 1300 global se ubica en el designado para el numeral 1306 de referencia y los centroides para los cuadrantes Q0, Ql, Q2 y Q3 se designan mediante los
signos de designados mediante numerales 1308, 1310, 1312 y
1314 de referencia respectivos, respectivamente. De ese modo, cuando una imagen dividida en o sub-dividida en cuatro sub-imágenes, regiones o áreas, cada componente de la imagen (por ejemplo, un componente de color o brillo) puede estar representado utilizando cinco centroides (es decir, cinco pares de coordenadas horizontales y verticales o diez valores) , uno de los cuales corresponde a la imagen global y los cuatro restantes corresponden a las cuatros sub-imágenes o regiones. Para una imagen que contiene componentes, rojo, verde, azul, amarillo y brillo, el conjunto que contiene un total de veinticinco centroides (es decir, veinticinco pares de coordenadas horizontales y verticales o cincuenta valores) puede utilizarse para formar una sola firma para la imagen o trama. Un ejemplo de una firma como esa puede representarse como se describe en la Tabla 4 a continuación.
ROJO VERDE AZUL AMARILLO BRILLO
IMAGEN Xi, Yi ¾r 2 3/ Y3 X4, Y 5 Y5 GLOBAL Q0 X6r ß X?, Xg, Y9 ??? YIO
Ql Xiir Yn l2r Yl2 l3í l3 ?4? Yl ?5? Yl5 Q2 Xl7, Y17 Xl8f Yl8 Xl9j l9 20? Y20 Q3 ¾1? ?l 22/ Y22 ?23? 23 X24 2 X25/ Y25
TABLA 4 Por supuesto, si se desea puede utilizarse más o unos cuantos componentes de imagen. Adicionalmente, pueden utilizarse unas cuantas o más divisiones, sub-imágenes o regiones o áreas. Por ejemplo, las sub-regiones pueden además sub-dividirse en una manera recursiva para alcanzar cualquier nivel deseado de exclusividad de firma. En otras palabras, un número mayor de sub-imágenes o áreas sub-divididas puede definirse dentro de una imagen o trama para generar una firma que tiene una mayor cantidad de información distintiva. Además, las áreas o regiones de sub-imagen no tienen que ser de la forma y del tamaño idéntico. Por ejemplo, pueden utilizarse sub-divisiones o sub-imágenes relativamente más pequeñas dentro de la región central de una imagen global y pueden utilizarse sub-divisiones relativamente más grandes dentro de las regiones periféricas de una imagen. Aún además, aunque el ejemplo de la generación de firma que se da en conexión con la Figura 13 utiliza coordenadas o ubicaciones de centroide no relativas normalizadas, ubicaciones de centroide relativas, como se discutió anteriormente puede utilizarse en su lugar. Las técnicas de generación de firma anteriormente descritas emplean sub-imágenes o regiones dentro de imágenes o tramas para incrementar la exclusividad de firma pueden utilizarse para mejorar la confiabilidad de un proceso de
identificación de imagen, particularmente en casos en donde existe una cantidad significativa de simetría entre las imágenes que se están identificando. Sin embargo, existen aún problemas adicionales que pueden encontrarse para ciertos tipos de imágenes o tramas. Por ejemplo, las imágenes que tienen una distribución relativamente constante de componentes a través de toda la imagen tienden a producir centroides que se ubican dentro del centro de la imagen o trama, sin considerar el color, el tinte y/o brillo de la imagen. Los centroides calculados para tramas o imágenes que tienen un valor constante que es sustancialmente mayor a cero serán todos relativamente estables y centrados dentro de las imágenes. De ese modo, una imagen de un medio en su totalidad gris y una imagen gris enteramente oscura tendrán ambas por resultado centroides que se centran dentro de la imagen, haciendo de esa manera imposible distinguir esas dos imágenes con base en sus centroides componentes de imagen. En general, esos tipos de imágenes contienen poca información, si la hay, y pueden, por ejemplo, percibirse como imágenes en blanco . Para tramas o imágenes que tienen un valor constante que es cercano a cero, el ruido de la señal de video puede provocar que el centroide varié de trama a trama, incluso si las imágenes son perceptivamente idénticas (por
ejemplo, todas las imágenes están en blanco) . En tal caso, calcular el centroide con base en las Ecuaciones 1 y 2 anteriores produce resultados inestables (es decir, valores de firma) que pueden significativamente reducir la conflabilidad con la cual la programación del video asociada con esas imágenes puede identificarse. Una técnica de generación de firma alternativa puede emplearse para las imágenes o tramas que contienen información relativamente constante (por ejemplo, la distribución de uno o más componentes de imagen es relativamente uniforme dentro de las tramas o imágenes) , tal como aquéllas descritas anteriormente. En particular, si durante la ejecución del método del ejemplo mostrado en la Figura 5 se determina que la mayoría de los valores del dominio espacial (por ejemplo, la imagen rebajada) son todos aproximadamente del mismo valor, el bloque 512 puede generar la firma para la trama o imagen que se está procesando utilizando tal técnica de generación de firma alternativa. Una técnica de generación de firma alternativa como tal puede basarse en el cálculo de coordenadas de componente utilizando la Ecuación 4 a continuación. Ecuación 4 X = -100 Ecuación 5 Y = 100* /- Los valores X y Y son las coordenadas horizontal y vertical representativas de un sustituto o pseudo-centroide,
el valor "K" es un valor constante estimado tal como, por ejemplo, una tendencia o un valor o valores de pixel promedio para un componente de la imagen que se está procesando, y el valor Kmax es un valor de pixel promedio máximo posible para el componente. Como se hizo notar anteriormente, la Ecuación 4 no proporciona un centroide geométrico real sino más bien, pueden utilizarse un par de coordenadas que sirven para la función de un par de coordenadas sustancialmente únicas para una imagen relativamente en blanco o uniforme. De ese modo, al utilizar la Ecuación 4 para calcular las coordenadas representativas de una imagen rellenada en su totalidad con un medio gris y otra imagen rellenada en su totalidad con un gris oscuro producirá diferentes pseudo-centroides o pares de coordenadas que posibilitan firmas sustancialmente únicas para esas imágenes que se van a formar. Aún otra dificultad en la generación de firmas sustancialmente únicas ocurre para imágenes que están compuestas primordialmente de un primer plano oscuro (por ejemplo, texto oscuro) en un fondo sustancialmente blanco. En esos casos, los valores del fondo relativamente alto (y la constante) asociados con las porciones blancas de la imagen tienen un efecto mucho mayor sobre el centro de masa o centroide que los valores del primer plano relativamente bajo asociado con el primer plano más oscuro. Como resultado, las firmas que se forman utilizando
los centroides de esos tipos de imágenes típicamente no serán lo suficientemente únicas para identificar las diferencias entre, por ejemplo, una imagen que contiene un bloque de texto en una ubicación determinada y otra imagen que contiene un bloque de texto diferente en la misma o una diferente ubicación. En esos casos, los valores de la imagen pueden invertirse (es decir, la imagen puede invertirse de modo que el primer plano (por ejemplo, la información textual) sea relativamente clara y el fondo sea relativamente oscuro) de modo que el primer plano tenga un efecto mucho más significativo en el centroide de la imagen. Los valores de pixel asociados con la imagen invertida se utilizan entonces para generar el o los centroides y, de este modo, la firma de la o las imágenes. Sin embargo, cuando se utilizan las Ecuaciones 1 y 2 anteriormente descritas para los valores del centroide calculados, los valores del centroide pueden negarse (es decir, multiplicarse por -1) para indicar que los valores del centroide corresponden a una imagen invertida. Como se discutió anteriormente, la unidad 206 de adquisición de datos (Figura 2) recibe las tramas o imágenes de video (por ejemplo, video comprimido o tramas MPEG) del desmodulador 202 (Figura 2) y genera las firmas y las imágenes reducidas en escala para algunas o todas esas tramas o imágenes recibidas utilizando, por ejemplo, los métodos descritos anteriormente. Como se describe con mayor detalle
en conexión con las Figuras 14 y 15 a continuación, la unidad 210 central de proceso (Figura 2) se configura para comparar las secuencias de firmas recibidas desde la unidad 206 de adquisición de datos (Figura 2) para las secuencias de referencia de las firmas asociadas con los programas de video conocidos (por ejemplo, comerciales de televisión, espectáculos de televisión, etc.) para identificar uno o más programas seleccionados y volver a enviar el segmento de video no identificado a la instalación 216 central. Inicialmente, la unidad 210 central de proceso
(Figura 2) recibe la información de la firma de la unidad 206 de adquisición de datos (Figura 2) (bloque 1400) . La unidad 210 central de proceso determina entonces si la información de la firma recibida es el inicio o principio de una secuencia (bloque 1402) . Si la información de la firma recibida es el inicio de una secuencia en el bloque 1402, la unidad 210 central de proceso selecciona una o más secuencias de firma de referencia de una base de datos o biblioteca de secuencias de firma (bloque 1404), las cuales pueden almacenarse dentro de la memoria o el dispositivo 214 de almacenamiento de masa (Figura 2) , y anexa las secuencias de firma seleccionadas a una tabla de acumulación dinámica o tabla de resultados intermedia. Por otro lado, si la unidad 210 central de proceso determina en el bloque 1402 que la información de la firma recibida no es el inicio de una
secuencia, entonces el control se pasa al bloque 1406. Las firmas de referencia acumuladas en el bloque 1404 (secuencias de firma candidatas) se van a comparar con las secuencias de firmas que actualmente se están recibiendo (secuencia de firma supuesta) para determinar si existe una correspondencia exacta o sustancial y, si existe tal correspondencia, identificar el programa de video asociado con la secuencia, de firma supuesta. En general, las secuencias de firma pueden representarse como [S¾] [SB] [Sc] [SD] ... , en donde Sa es una primera firma (por ejemplo, un conjunto de centroides de componente de imagen generado como un conjunto anteriormente establecido) para una trama o imagen, SB es otra firma (por ejemplo, otro conjunto de centroides de componente de imagen) asociada con una trama o imagen subsecuente, etc. Consecuentemente, una manera útil de seleccionar secuencias de firma candidatas o de referencia (bloque 1404) en un caso en el que se recibe una firma inicial en el bloque 1400 es S¾ se van a seleccionar todas las secuencias de firma de la base de datos o la biblioteca de las secuencias de firma conocidas que incluyan la firma SA dentro de un número de firmas predeterminado a partir del inicio de la secuencia. Por ejemplo, las secuencias de firma enumeradas a continuación en la Tabla 2, si están en la base de datos o en la biblioteca pueden seleccionarse en el bloque 1400 y anexarse para la tabla de resultados de acumulación o
intermedia. Como puede reconocerse a partir de la Tabla 2 a continuación, las secuencias de la firma seleccionadas no necesariamente empiezan con la firma SA pero, en su lugar, incluyen la firma SA. A partir del ejemplo del grupo de secuencias de firma seleccionadas mostrado en la Tabla 2, se pueden seleccionar solamente secuencias de firma que incluyan la firma SA dentro de las primeras tres firmas, por ejemplo.
SECUENCIAS DE FIRMA DE # de Secuencia REFERENCIA 1 [Sa] [SF] [SK] [SN] [Sz] 2 [SA] [SH] [SL] [SN] [Sv] 3 [SA] [SF] [SK] [Sp] [SQ] 4 [SA] [SF] [SG] [SP] [SJ] 5 [Sx] [S¾] [SF] [SG] [SN] 6 [Sx] [Sy] [SA] [SG] [SN]
TABLA 2 Tras la comparación en el bloque 1406, la unidad 210 central de proceso actualiza los resultados comparados para cada una de las secuencias de firma de referencia (bloque 1408) en una tabla de resultados de acumulación o intermedios. En general, para cada una de las secuencias de firmas de referencia, los resultados de la comparación siguen su trayectoria si las firmas individuales dentro de una
secuencia de firmas generada por la unidad 206 de adquisición de datos (Figura 2) coincide con las firmas correspondientes dentro de las secuencias de firmas de referencia. De ese modo, los resultados de la comparación pueden representarse dentro de una tabla en la cual cada fila de la tabla corresponde a una secuencia de firmas de referencia diferente y cada columna de la tabla corresponde a una posición temporal relativa dentro de las secuencias. La Tabla 3 a continuación es una tabla ejemplar que representa los resultados de la comparación después de que se han recibido las firmas SA y SF. El valor "1" indica una comparación ocurrida en el bloque 1406, el valor "0" indica una comparación que no ocurrió y la "X" indica una posición dentro de la secuencia que no se ha probado aún (es decir, comparada con una firma recibida desde la unidad 206 de adquisición de datos) .
# de RESULTADOS DE LA Secuencia COMPARACIÓN
1 1 1 X X X 2 1 0 X X X 3 1 1 X X X 4 1 1 X X X 5 0 1 1 X X
TABLA 3 La unidad 210 de proceso elimina entonces las secuencias de las firmas de referencia que no correspondan a partir de la acumulación de la tabla de resultados intermedia
(por ejemplo, a partir de la Tabla 2). Por ejemplo, un número de secuencia 2 puede eliminarse por tener al menos una firma de no correspondencia. Sin embargo, en algunos casos puede ser deseable eliminar solamente las secuencias que tengan dos firmas de no correspondencia o un número mayor de firma de no correspondencia. Para este ejemplo, solamente las secuencias que tienen tres o más firmas de no correspondencia se eliminan en el bloque 1410. Como resultado, solamente se elimina la secuencia de firma seis tras la recepción y el procesamiento de la segunda firma SF. Continuando con el anterior ejemplo, tras la recepción de la firma SF, cada una de las secuencias de firma restantes tiene al menos dos posiciones que no se han probado. Como resultado, la unidad 210 de proceso mantendrá un ciclo a través de los bloques 1400-1420 al menos dos veces más . Si las firmas SG y SK se reciben como la tercera y cuarta firmas, respectivamente, no se requerirán comparaciones adicionales en el bloque 1406 después de recibir la firma SN
(es decir, no existen posiciones de secuencia no probadas en ese punto) . De ese modo, el estado de los resultados de la
comparación para el ejemplo anterior se representa en la Tabla 4 a continuación.
TABLA 4 Como puede verse a partir de la Tabla 4 anterior, las secuencias de firma uno, dos, tres y seis se han eliminado tras la recepción de la firma SN debido a que esas secuencias contenían al menos tres de las firmas de no correspondencia durante la recepción de la firma SN. La unidad 210 central de proceso examina los resultados de la comparación para determinar si existe una secuencia de comparación (bloque 1414). En el caso del ejemplo anterior, la secuencia de la firma cinco, es una correspondencia idéntica, de ese modo, es una secuencia de correspondencia. Sin embargo, en algunos casos la unidad 210 de proceso puede considerar una suficiente correspondencia sustancial (es decir, una correspondencia no idéntica) . Por
ejemplo, la unidad 210 de proceso puede considerar tres de cuatro comparaciones para una secuencia de firma para que sea una secuencia de correspondencia. Adicional o alternativamente, la unidad 210 central de proceso puede considerar la secuencia de la firma de referencia que tiene el número mayor de firmas de correspondencia para que sea una secuencia de correspondencia, sin considerar el porcentaje de firmas de correspondencia. Aún además, si dos o más secuencias de la firma de referencia dan por resultado el mismo porcentaje o número de correspondencias, la unidad 210 central de proceso puede, con base en información histórica, identificar la secuencia de firmas de referencia de correspondencia como la secuencia que ocurre más frecuentemente (es decir, la secuencia de firmas más probable) . Más generalmente, el número de porcentaje de las firmas de correspondencia que se requieren para satisfacer una condición de correspondencia depende de que el nivel de precisión de identificación del programa de video sea aceptable para una aplicación particular. En otras palabras, si es aceptable un nivel relativamente bajo de precisión de la identificación del programa de video, entonces puede ser aceptable un porcentaje más bajo o número de firmas de correspondencia para satisfacer una condición de correspondencia. Por otro lado, si es aceptable un nivel relativamente alto de precisión de identificación del
programa de video, entonces puede ser aceptable un porcentaje más alto o el número de firmas de correspondencia para satisfacer una condición de correspondencia. En cualquier caso, si la unidad 210 central de proceso determina que una correspondencia de secuencia de firma se ha encontrado en el bloque 1414, la unidad 210 central de proceso identifica entonces la secuencia o programa de video asociado con la secuencia de la firma de referencia de correspondencia (bloque 1416) . Se pueden utilizar cualesquiera estructuras de datos deseados y/o técnicas de búsqueda en base de datos. Por ejemplo, una vez que una secuencia de correspondencia de firmas ha sido identificada, el número de la secuencia o el identificador asociado con la secuencia de firmas de correspondencia puede utilizarse para tener acceso a la información textual (por ejemplo, a través de un método de indexación o de búsqueda) asociada con el programa de audio y/o video que corresponde al identificador o al número de la secuencia. Alternativamente, puede utilizarse un conjunto de tablas organizado en una estructura de datos enlazados en forma semejante a un árbol. En particular, cada una de las tablas puede indexarse utilizando centroides o pares de coordenadas (por ejemplo, coordenadas horizontales y verticales) . De esta manera, se utiliza un primer par de coordenadas o centroides asociado con la firma para indexarlo a un enlace para una
tabla posterior. El siguiente par de coordenadas de la firma se utiliza entonces para indexarlo dentro de la tabla subsecuente a otra tabla. Este proceso continúa hasta que todos los pares de coordenadas asociados con todas las firmas dentro de una secuencia de firma se han agotado en una tabla final. El último par de coordenadas se utiliza entonces para indexarlo a la información textual (por ejemplo, en forma de metadatos) que describen al programa de video asociado con la información de la secuencia de firmas (es decir, la secuencia de centroides o los pares de coordenadas utilizados para indexarlos a través de las tablas relacionadas) . Una estructura de datos similar a un árbol en la cual se puede hacer una búsqueda tal como la que se describe anteriormente proporciona un tiempo de búsqueda relativamente corto. En el caso donde los programas de video que se identifican son comerciales de televisión, puede ser altamente ventajosa una técnica de búsqueda relativamente más rápida debido al relativamente enorme número de comerciales (por ejemplo, 1,000,000 o más) pueden estar contenidos dentro de la base de datos en la que se va a hacer la búsqueda. Por otro lado, si en el bloque 1414 la unidad 210 de proceso determina que no se puede encontrar una secuencia de correspondencia, la unidad 210 de proceso determina si se requiere o es deseable una identificación manual (bloque 1417) . Si, se requiere en el bloque 1414 una identificación
manual, un operador humano puede intervenir e identificar manualmente el programa de video (bloque 1418). Por ejemplo, el operador humano puede ver la secuencia de video para determinar la identidad de la secuencia. Si el programa de video identificado por el operador humano en el bloque 1418 no estaba contenido previamente dentro de la base de datos, la secuencia puede agregarse a la base datos. Por otro lado, si el programa de video ya fue almacenado en la base de datos pero estaba asociado con una secuencia diferente, el operador puede actualizar la información de referencia para incluir secuencias de firma posibles para ese programa de video. En algunos casos, pueden ser necesarias secuencias de firma múltiples para representar un solo programa de video que puede ser transferido al desmodulador 202 utilizando una codificación un tanto diferente en una estación de transmisión (no mostrada) . Una manera eficiente para almacenar y buscar secuencias de firma múltiples para un solo programa de video es representar las posiciones de la secuencia de la firma para la cual las secuencias múltiples son posibles utilizando una estructura de datos OR lógicas. Por ejemplo, una secuencia de firmas de referencia puede expresarse como [SA] [SB] [SN] [SG] [SF|SK], en donde " \" significa OR. De ese modo, continuando con el ejemplo, las secuencias de firma [Sa] [SB]
[sG] [sF] , [sA] [s„] [sG] [sK] , [sA] [sB] [sG] [sK] y [sa] [s„] [sG] [SF] son todas correspondencias para las secuencias de firmas de
referencia y de ese modo, se asocian todas con el mismo programa de video. Almacenar la información de la firma de referencia utilizando la estructura de datos con base en la OR anteriormente descrita puede significativamente reducir la cantidad de memoria necesaria para mantener una biblioteca de firmas de referencia y puede sustancialmente reducir la cantidad de tiempo necesaria para buscar tal biblioteca de firmas de referencia para firmas de correspondencia. Las actividades asociadas con los bloques 1418 y 1420 pueden llevarse a cabo, por ejemplo, en la instalación 216 central (Figura 2) . Aunque el método ejemplar descrito en conexión con las Figuras 14 y 15 se describe como si se estuviera ejecutando dentro de la unidad 210 central de proceso, parte o todas las funciones asociadas con el método ejemplar pueden llevarse a cabo dentro de la unidad 206 de adquisición de datos o en cualquier otro dispositivo asociado con el sistema 200 mostrado en la Figura 2. Aunque ciertos métodos, aparatos y artículos de fabricación se han descrito en la presente, el alcance que cubre esta patente no se limita a los mismos. Por el contrario, esta patente cubre todos los métodos, aparatos, y artículos de fabricación que con justicia caen dentro del alcance de las reivindicaciones anexas ya sea literalmente o bajo la doctrina de los equivalentes.
Claims (67)
- REIVINDICACIONES 1. Un método para generar una firma de video, que comprende : recibir información de video comprimida; extraer información del coeficiente de frecuencia de la información de video comprimida; calcular la información del centroide del componente de imagen con base en la información del coeficiente de frecuencia extraída; y generar la firma de video utilizando la información del centroide del componente de imagen.
- 2. Un método como se define en la reivindicación 1, que además comprende convertir la información del coeficiente de frecuencia en información de dominio espacial y utilizar la información de dominio espacial para calcular la información del centroide del componente de imagen calculada.
- 3. Un método como se define en la reivindicación 1, en donde la información de video comprimida incluye al menos una trama MPEG.
- 4. Un método como se define en la reivindicación 1, en donde la información de video comprimida incluye al menos una trama sustancialmente intra-codificada .
- 5. Un método como se define en la reivindicación 1, en donde la información del coeficiente de frecuencia incluye coeficientes DC extraídos de macro-bloques que componen al menos una porción de la información de video comprimida.
- 6. Un método como se define en la reivindicación 1, en donde la información del centroide del componente de imagen incluye datos del centroide normalizados.
- 7. Un método como se define en la reivindicación 1, en donde la información del centroide del componente de imagen incluye información del centroide asociada con una pluralidad de componentes de imagen.
- 8. Un método como se define en la reivindicación 7, en donde la pluralidad de componentes de imagen incluye componentes de imagen asociados con un modelo de color.
- 9. Un método como se define ¦ en la reivindicación 1, en donde generar la firma de video utilizando la información del centroide del componente de imagen incluye generar un conjunto de centroides del componente de imagen asociados con una pluralidad de componentes de imagen.
- 10. Un método como se define en la reivindicación 1, en donde generar la firma de video utilizando la información del centroide del componente de imagen incluye generar un conjunto de centroides del componente de imagen asociados con una pluralidad de áreas dentro de la imagen asociada con la información de video comprimida.
- 11. Un método como se define en la reivindicación 1, que además comprende invertir al menos parte de la información de imagen comprimida en respuesta a una determinación de que al menos parte de la información de imagen comprimida corresponde a información de primer plano relativamente oscura en un fondo relativamente claro.
- 12. Un método como se define en la reivindicación 1, que además comprende determinar que al menos una porción de la información de video comprimida sea sustancialmente uniforme y genere la firma de video utilizando una constante asociada con un valor del componente de imagen en lugar de información del centroide de imagen.
- 13. Un método como se define en la reivindicación 12, en donde la constante es una de un promedio y un valor de tendencia asociada con una pluralidad de imágenes.
- 14. Un método como se define en la reivindicación 1, que además comprende cargar la información del coeficiente de frecuencia extraída antes de generar la firma de video.
- 15. Un sistema para generar una firma de video, que comprende : una memoria; y un procesador acoplado a la memoria y programado para: recibir información de video comprimida; extraer información del coeficiente de frecuencia de la información de video comprimida; calcular la información del centroide del componente de imagen con base en la información del coeficiente de frecuencia extraída; y generar la firma de video utilizando la información del centroide del componente de imagen.
- 16. Un sistema como se define en la reivindicación 15, en donde el procesador se programa para convertir la información del coeficiente de frecuencia en información de dominio espacial y para calcular la información del centroide del componente de imagen utilizando la información de dominio espacial .
- 17. Un sistema como se define en la reivindicación 15, en donde la información de video comprimida incluye al menos una trama MPEG.
- 18. Un sistema como se define en la reivindicación 15, en donde la información de video comprimida incluye al menos una trama sustancialmente intra-codificada .
- 19. Un sistema como se define en la reivindicación 15, en donde la información del coeficiente de frecuencia incluye coeficientes DC extraídos de macro-bloques que componen al menos una porción de la información de video comprimida.
- 20. Un sistema como se define en la reivindicación 15, en donde la información del centroide del componente de imagen incluye datos del centroide normalizados.
- 21. Un sistema como se define en la reivindicación 15, en donde la información del centroide del componente de imagen incluye información del centroide asociada con una pluralidad de componentes de imagen.
- 22. ün sistema como se define en la reivindicación 21, en donde la pluralidad de componentes de imagen incluye componentes de imagen asociados con un modelo de color.
- 23. ün sistema como se define en la reivindicación 15, en donde el procesador se programa para generar la firma de video utilizando la información del centroide del componente de imagen mediante la generación de un conjunto de centroides del componente de Imagen asociados con una pluralidad de componentes de imagen.
- 24. ün sistema como se define en la reivindicación 15, en donde el procesador se programa para generar la firma de video utilizando la información del centroide del componente de imagen mediante la generación de un conjunto de centroides del componente de imagen asociados con una pluralidad de áreas dentro de una imagen asociada con la información de video comprimida.
- 25. Un sistema como se define en la reivindicación 15, en donde el procesador se programa para invertir al menos parte de la información de imagen comprimida en respuesta a una determinación de que al menos parte de la información de imagen comprimida corresponde a información de primer plano relativamente oscura sobre un fondo relativamente claro.
- 26. ün sistema como se define en la reivindicación 15, en donde el procesador se programa para determinar que al menos una porción de la información de video comprimida sea sustancialmente uniforme y genere la firma de video utilizando una constante asociada con un valor del componente de imagen en lugar de información del centroide de imagen.
- 27. Dn sistema como se define en la reivindicación 26, en donde la constante es una de un promedio y un valor de tendencia asociada con una pluralidad de imágenes.
- 28. Un sistema como se define en la reivindicación 15, en donde el procesador se programa para cargar la información del coeficiente de frecuencia extraida antes de generar la firma de video.
- 29. Un medio legible por computadora que tiene instrucciones almacenadas en el mismo que, cuando se ejecutan, provocan que la máquina: reciba información de video comprimida; extraiga información del coeficiente de frecuencia de la información de video comprimida; calcule la información del centroide del componente de imagen con bas en la información del coeficiente de frecuencia extraida; y genere una firma de video utilizando la información del centroide del componente de imagen.
- 30. Un medio legible por computadora que tiene instrucciones almacenadas en el mismo que, cuando se ejecuta provoca que la máquina convierta la información del coeficiente de frecuencia en información de dominio espacial y que calcule la información del centroide del componente de imagen con base en la información de dominio espacial.
- 31. Un medio legible por computadora como se define en la reivindicación 29, en donde la información de video comprimida incluye al menos una trama MPEG.
- 32. Un medio legible por computadora como se define en la reivindicación 29, en donde la información de video comprimida incluye al menos una trama sustancialmente intra-codificada.
- 33. Un medio legible por computadora como se define en la reivindicación 29, en donde la información del coeficiente de frecuencia incluye coeficientes DC extraídos de macro-bloques que componen al menos una porción de la información de video comprimida.
- 34. Un medio legible por computadora como se define en la reivindicación 29, en donde la información del centroide del componente de imagen incluye información del centroide asociada con una pluralidad de componentes de imagen .
- 35. Un medio legible por computadora como se define en la reivindicación 29, que tiene instrucciones almacenadas en el mismo que, cuando se ejecutan, provocan que la máquina genere la firma de video utilizando la información del centroide del componente de imagen al generar un conjunto de centroides del componente de imagen asociados con una pluralidad de componentes de imagen.
- 36. Un medio legible por computadora como se define en la reivindicación 29, que tiene instrucciones almacenadas en el mismo que, cuando se ejecutan, provocan que la máquina genere la firma de video utilizando la información del centroide del componente de imagen al generar un conjunto de centroides del componente de imagen asociados con una pluralidad de áreas dentro de una imagen asociada con la información de video comprimida.
- 37. Un medio legible por computadora como se define en la reivindicación 29, que tiene instrucciones almacenadas en el mismo que, cuando se ejecutan, provocan que la máquina invierta al menos parte de la información de imagen comprimida en respuesta a una determinación de que al menos parte de la información de imagen comprimida corresponde a información de primer plano relativamente oscuro sobre un fondo relativamente claro.
- 38. Un medio legible por computadora como se define en la reivindicación 29, que tiene instrucciones almacenadas en el mismo que, cuando se ejecutan, provocan que la máquina determine que al menos una porción de la información de video comprimida sea sustancialmente uniforme y genere la firma de video utilizando una constante asociada con un valor del componente de imagen en lugar de información del centroide de imagen .
- 39. Un sistema para generar una firma asociada con un programa de video, el sistema comprende: un explorador de trama que explora una trama de video asociada con el programa de video; un extractor de macro-bloque intra-codificado para extraer macro-bloques intra-codificados de una trama de video; un extractor de coeficiente para extraer coeficientes DC de los macro-bloques intra-codificados; y un generador de firma para calcular una pluralidad de centroides asociados con una trama de video con base en los coeficientes DC extraídos y para formar la firma con base en la pluralidad de centroides.
- 40. Un sistema como se define en la reivindicación 39, en donde el explorador de trama se adapta para selectivamente enviar tramas de video sustancialmente intra-codificadas hacia el extractor de macro-bloques intra-codificados.
- 41. Un sistema como se define en la reivindicación 39, en donde el programa de video incluye uno de un comercial de televisión y un espectáculo de televisión.
- 42. Un sistema como se define en la reivindicación 39, en donde la trama de video está compuesta de acuerdo a una norma de compresión de video digital.
- 43. Un sistema como se define en la reivindicación 42, en donde la norma de compresión de video digital es la norma MPEG. 5
- 44. Un sistema como se define en la reivindicación 39, en donde la pluralidad de centroides se asocia con una pluralidad de componentes de imagen.
- 45. Un sistema como se define en la reivindicación 44, en donde la pluralidad de componentes de imagen se asocia 0 con un modelo de color.
- 46. Un sistema como se define en la reivindicación 39, en donde la pluralidad de centroides se asocia con una pluralidad de áreas dentro de la trama de video.
- 47. Un método para identificar un programa de 5 video, que comprende: recibir una secuencia de firmas, en donde cada una de las firmas incluye un conjunto de centroides que corresponde a una de una pluralidad de tramas del programa de videO-O comparar la secuencia de firmas para un conjunto de secuencias de referencia de las firmas; y identificar el programa de video con base en la comparación de la secuencia de firmas para el conjunto de secuencias de firmas de referencia. 5
- 48. Un método como se define en la reivindicación 46, en donde cada uno del conjunto de centroides incluye centroides asociados con componentes de imagen.
- 49. Un método como se define en la reivindicación 48, en donde los componentes de imagen se asocian con un modelo de color.
- 50. Un método como se define en la reivindicación 46, en donde cada uno del conjunto de centroides incluye centroides asociados con una pluralidad de áreas dentro de su correspondiente de una pluralidad de tramas.
- 51. Un método como se define en la reivindicación 46, en donde comparar la secuencia de firmas para el conjunto de secuencias de firmas de referencia incluye comparar la secuencia de las firmas de cada secuencia de firmas de referencia .
- 52. Un método como se define en la reivindicación 51, en donde comparar la secuencia de firmas para cada secuencia de firmas de referencia incluye comparar secuencialmente cada firma con la secuencia de firmas para cada una de las firmas dentro de al menos una de las secuencias de firmas de referencia.
- 53. Un método como se define en la reivindicación 46, en donde identificar el programa de video con base en la comparación de la secuencia de firmas con el conjunto de secuencias de firmas de referencia incluye identificar el programa de video en respuesta a la identificación de una secuencia de correspondencia dentro del conjunto de secuencias de firmas de referencia.
- 54. Un método como se define en la reivindicación 46, en donde identificar el programa de video con base en la comparación de la secuencia de firmas para el conjunto de secuencias de firmas de referencia incluye proporcionar información textual que describe el programa de video.
- 55. ün método como se define en la reivindicación 46, en donde identificar el programa de video con base en la comparación de la secuencia de firmas para la secuencia de firmas de referencia incluye identificar manualmente el programa de video en respuesta a una falla para identificar una secuencia de correspondencia dentro del conjunto de secuencias de firmas de referencia.
- 56. Un método como se define en la reivindicación 55, además comprende ajustar al menos una secuencia de firmas de referencia a partir del conjunto de secuencias de firmas de referencia en respuesta a métodos de codificación diferentes .
- 57. Un método como se define en la reivindicación 46, en donde el programa de video es uno de un comercial de televisión y un espectáculo de televisión.
- 58. Un sistema para identificar un programa de video, que comprende: una memoria; y un procesador acoplado a la memoria y programado para : recibir una secuencia de firmas, en donde cada una de las firmas incluye un conjunto de centroides que corresponde a una de una pluralidad de tramas del programa de video; comparar la secuencia de firmas con un conjunto de secuencias de firmas de referencia; y identificar el programa de video con base en la comparación de la secuencia de firmas para el conjunto de secuencias de firmas de referencia.
- 59. Un sistema como se definió en la reivindicación 58, en donde cada uno de los conjuntos de centroides incluye centroides asociados con los componentes de imagen.
- 60. Un sistema como se definió en la reivindicación 59, en donde los componentes de imagen se asocian con un modelo de color.
- 61. Un sistema como se definió en la reivindicación 58, en donde cada uno de los conjuntos de centroides incluye centroides asociados con una pluralidad de áreas dentro de una correspondiente de la pluralidad de tramas.
- 62. Un sistema como se definió en la reivindicación 58, en donde el procesador se programa para comparar la secuencia de firmas para el conjunto de secuencias de firmas de referencia al comparar la secuencia de firmas con cada secuencia de firmas de referencia.
- 63. Un sistema como se definió en la reivindicación 62, en donde el procesador se programa para comparar la secuencia de firmas con cada secuencia de firmas de referencia al comparar secuencialmente cada firma dentro de la secuencia de firmas con cada una de las firmas dentro de al menos una de las secuencias de firmas de referencia.
- 64. Un sistema como se definió en la reivindicación 58, en donde el procesador se programa para identificar un programa de video con base en la comparación de la secuencia de firmas con el conjunto de secuencias de firmas de referencia al identificar un programa de video en respuesta a la identificación de una secuencia de correspondencia dentro del conjunto de secuencias de firmas de referencia.
- 65. Un medio legible por computadora que tiene instrucciones almacenadas en el mismo que, cuando se ejecutan, provocan que la máquina: reciba una secuencia de firmas, en donde cada una de las firmas incluye un conjunto de centroides que corresponden a una de una pluralidad de tramas de un programa de video; compara la secuencia de firmas con un conjunto de secuencias de firmas; y identifique el programa de video con base en la comparación de la secuencia de firmas con el conjunto de secuencias de firmas de referencia.
- 66. Un medio legible por computadora como se definió en la reivindicación 65, en donde cada uno de los conjuntos de centroides incluye centroides asociados con los componentes de imagen.
- 67. Un medio legible por computadora como se definió en la reivindicación 65, en donde cada uno de los conjuntos de centroides incluye centroides asociados con una pluralidad de áreas dentro de una correspondiente de una pluralidad de tramas.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2003/029219 WO2005036877A1 (en) | 2003-09-12 | 2003-09-12 | Digital video signature apparatus and methods for use with video program identification systems |
Publications (1)
Publication Number | Publication Date |
---|---|
MXPA06002837A true MXPA06002837A (es) | 2006-06-14 |
Family
ID=34434200
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
MXPA06002837A MXPA06002837A (es) | 2003-09-12 | 2003-09-12 | Aparato de firma de video digital y metodos para usarlo con sistemas de identificacion de programas de video. |
Country Status (7)
Country | Link |
---|---|
US (4) | US7793318B2 (es) |
EP (1) | EP1668903A4 (es) |
AR (1) | AR042250A1 (es) |
AU (1) | AU2003272483A1 (es) |
CA (1) | CA2540575C (es) |
MX (1) | MXPA06002837A (es) |
WO (1) | WO2005036877A1 (es) |
Families Citing this family (190)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8204353B2 (en) | 2002-11-27 | 2012-06-19 | The Nielsen Company (Us), Llc | Apparatus and methods for tracking and analyzing digital recording device event sequences |
MXPA06002837A (es) | 2003-09-12 | 2006-06-14 | Nielsen Media Res Inc | Aparato de firma de video digital y metodos para usarlo con sistemas de identificacion de programas de video. |
US7706483B2 (en) * | 2004-05-12 | 2010-04-27 | Thomson Licensing | Carrier phase ambiguity correction |
US7706489B2 (en) * | 2004-05-12 | 2010-04-27 | Thomson Licensing | Symbol timing ambiguity correction |
EP1745586B1 (en) | 2004-05-12 | 2010-01-20 | Thomson Licensing S.A. | Carrier phase ambiguity correction |
US20150051967A1 (en) | 2004-05-27 | 2015-02-19 | Anonymous Media Research, Llc | Media usage monitoring and measurment system and method |
US20050267750A1 (en) | 2004-05-27 | 2005-12-01 | Anonymous Media, Llc | Media usage monitoring and measurement system and method |
CN1993909A (zh) | 2004-07-02 | 2007-07-04 | 尼尔逊媒介研究股份有限公司 | 用于识别与数字媒体设备相关联的收视信息的方法和装置 |
CN2792450Y (zh) * | 2005-02-18 | 2006-07-05 | 冯锦满 | 聚能保健仪 |
US8179575B2 (en) | 2005-06-14 | 2012-05-15 | Carl Zeiss Microimaging Gmbh | Chromatic registration for biological sample imaging |
US20070091109A1 (en) | 2005-09-13 | 2007-04-26 | Roscoe Atkinson | Image quality |
US9256668B2 (en) | 2005-10-26 | 2016-02-09 | Cortica, Ltd. | System and method of detecting common patterns within unstructured data elements retrieved from big data sources |
US10848590B2 (en) | 2005-10-26 | 2020-11-24 | Cortica Ltd | System and method for determining a contextual insight and providing recommendations based thereon |
US10742340B2 (en) | 2005-10-26 | 2020-08-11 | Cortica Ltd. | System and method for identifying the context of multimedia content elements displayed in a web-page and providing contextual filters respective thereto |
US10585934B2 (en) | 2005-10-26 | 2020-03-10 | Cortica Ltd. | Method and system for populating a concept database with respect to user identifiers |
US10535192B2 (en) | 2005-10-26 | 2020-01-14 | Cortica Ltd. | System and method for generating a customized augmented reality environment to a user |
US9767143B2 (en) | 2005-10-26 | 2017-09-19 | Cortica, Ltd. | System and method for caching of concept structures |
US10180942B2 (en) | 2005-10-26 | 2019-01-15 | Cortica Ltd. | System and method for generation of concept structures based on sub-concepts |
US10380623B2 (en) | 2005-10-26 | 2019-08-13 | Cortica, Ltd. | System and method for generating an advertisement effectiveness performance score |
US10607355B2 (en) | 2005-10-26 | 2020-03-31 | Cortica, Ltd. | Method and system for determining the dimensions of an object shown in a multimedia content item |
US11620327B2 (en) | 2005-10-26 | 2023-04-04 | Cortica Ltd | System and method for determining a contextual insight and generating an interface with recommendations based thereon |
US10360253B2 (en) | 2005-10-26 | 2019-07-23 | Cortica, Ltd. | Systems and methods for generation of searchable structures respective of multimedia data content |
US11032017B2 (en) | 2005-10-26 | 2021-06-08 | Cortica, Ltd. | System and method for identifying the context of multimedia content elements |
US11003706B2 (en) | 2005-10-26 | 2021-05-11 | Cortica Ltd | System and methods for determining access permissions on personalized clusters of multimedia content elements |
US9372940B2 (en) | 2005-10-26 | 2016-06-21 | Cortica, Ltd. | Apparatus and method for determining user attention using a deep-content-classification (DCC) system |
US9747420B2 (en) | 2005-10-26 | 2017-08-29 | Cortica, Ltd. | System and method for diagnosing a patient based on an analysis of multimedia content |
US9031999B2 (en) | 2005-10-26 | 2015-05-12 | Cortica, Ltd. | System and methods for generation of a concept based database |
US10380267B2 (en) | 2005-10-26 | 2019-08-13 | Cortica, Ltd. | System and method for tagging multimedia content elements |
US10698939B2 (en) | 2005-10-26 | 2020-06-30 | Cortica Ltd | System and method for customizing images |
US9191626B2 (en) | 2005-10-26 | 2015-11-17 | Cortica, Ltd. | System and methods thereof for visual analysis of an image on a web-page and matching an advertisement thereto |
US11403336B2 (en) | 2005-10-26 | 2022-08-02 | Cortica Ltd. | System and method for removing contextually identical multimedia content elements |
US10614626B2 (en) | 2005-10-26 | 2020-04-07 | Cortica Ltd. | System and method for providing augmented reality challenges |
US10380164B2 (en) | 2005-10-26 | 2019-08-13 | Cortica, Ltd. | System and method for using on-image gestures and multimedia content elements as search queries |
US9646005B2 (en) | 2005-10-26 | 2017-05-09 | Cortica, Ltd. | System and method for creating a database of multimedia content elements assigned to users |
US9953032B2 (en) | 2005-10-26 | 2018-04-24 | Cortica, Ltd. | System and method for characterization of multimedia content signals using cores of a natural liquid architecture system |
US10193990B2 (en) | 2005-10-26 | 2019-01-29 | Cortica Ltd. | System and method for creating user profiles based on multimedia content |
US9466068B2 (en) | 2005-10-26 | 2016-10-11 | Cortica, Ltd. | System and method for determining a pupillary response to a multimedia data element |
US9558449B2 (en) | 2005-10-26 | 2017-01-31 | Cortica, Ltd. | System and method for identifying a target area in a multimedia content element |
US9286623B2 (en) | 2005-10-26 | 2016-03-15 | Cortica, Ltd. | Method for determining an area within a multimedia content element over which an advertisement can be displayed |
US8266185B2 (en) | 2005-10-26 | 2012-09-11 | Cortica Ltd. | System and methods thereof for generation of searchable structures respective of multimedia data content |
US10635640B2 (en) | 2005-10-26 | 2020-04-28 | Cortica, Ltd. | System and method for enriching a concept database |
US8326775B2 (en) | 2005-10-26 | 2012-12-04 | Cortica Ltd. | Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof |
US10372746B2 (en) | 2005-10-26 | 2019-08-06 | Cortica, Ltd. | System and method for searching applications using multimedia content elements |
US10621988B2 (en) | 2005-10-26 | 2020-04-14 | Cortica Ltd | System and method for speech to text translation using cores of a natural liquid architecture system |
US8818916B2 (en) | 2005-10-26 | 2014-08-26 | Cortica, Ltd. | System and method for linking multimedia data elements to web pages |
US9639532B2 (en) | 2005-10-26 | 2017-05-02 | Cortica, Ltd. | Context-based analysis of multimedia content items using signatures of multimedia elements and matching concepts |
US9087049B2 (en) | 2005-10-26 | 2015-07-21 | Cortica, Ltd. | System and method for context translation of natural language |
US11386139B2 (en) | 2005-10-26 | 2022-07-12 | Cortica Ltd. | System and method for generating analytics for entities depicted in multimedia content |
US9489431B2 (en) | 2005-10-26 | 2016-11-08 | Cortica, Ltd. | System and method for distributed search-by-content |
US11361014B2 (en) | 2005-10-26 | 2022-06-14 | Cortica Ltd. | System and method for completing a user profile |
US11019161B2 (en) | 2005-10-26 | 2021-05-25 | Cortica, Ltd. | System and method for profiling users interest based on multimedia content analysis |
US9477658B2 (en) | 2005-10-26 | 2016-10-25 | Cortica, Ltd. | Systems and method for speech to speech translation using cores of a natural liquid architecture system |
US9529984B2 (en) | 2005-10-26 | 2016-12-27 | Cortica, Ltd. | System and method for verification of user identification based on multimedia content elements |
US9384196B2 (en) | 2005-10-26 | 2016-07-05 | Cortica, Ltd. | Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof |
US9235557B2 (en) | 2005-10-26 | 2016-01-12 | Cortica, Ltd. | System and method thereof for dynamically associating a link to an information resource with a multimedia content displayed in a web-page |
US9218606B2 (en) | 2005-10-26 | 2015-12-22 | Cortica, Ltd. | System and method for brand monitoring and trend analysis based on deep-content-classification |
US11604847B2 (en) | 2005-10-26 | 2023-03-14 | Cortica Ltd. | System and method for overlaying content on a multimedia content element based on user interest |
US9330189B2 (en) | 2005-10-26 | 2016-05-03 | Cortica, Ltd. | System and method for capturing a multimedia content item by a mobile device and matching sequentially relevant content to the multimedia content item |
US11216498B2 (en) | 2005-10-26 | 2022-01-04 | Cortica, Ltd. | System and method for generating signatures to three-dimensional multimedia data elements |
US10387914B2 (en) | 2005-10-26 | 2019-08-20 | Cortica, Ltd. | Method for identification of multimedia content elements and adding advertising content respective thereof |
US8312031B2 (en) | 2005-10-26 | 2012-11-13 | Cortica Ltd. | System and method for generation of complex signatures for multimedia data content |
US10191976B2 (en) | 2005-10-26 | 2019-01-29 | Cortica, Ltd. | System and method of detecting common patterns within unstructured data elements retrieved from big data sources |
US10691642B2 (en) | 2005-10-26 | 2020-06-23 | Cortica Ltd | System and method for enriching a concept database with homogenous concepts |
US9396435B2 (en) | 2005-10-26 | 2016-07-19 | Cortica, Ltd. | System and method for identification of deviations from periodic behavior patterns in multimedia content |
US10949773B2 (en) | 2005-10-26 | 2021-03-16 | Cortica, Ltd. | System and methods thereof for recommending tags for multimedia content elements based on context |
US7715587B2 (en) * | 2005-10-28 | 2010-05-11 | Lawrence N. Ginsberg | Correlation-based system for watermarking continuous digital media |
EP1890475A1 (en) * | 2006-08-15 | 2008-02-20 | STMicroelectronics (Research & Development) Limited | Video frame buffer |
WO2008034001A1 (en) * | 2006-09-15 | 2008-03-20 | Nielsen Media Research, Inc. | Methods and apparatus to identify images in print advertisements |
US10733326B2 (en) | 2006-10-26 | 2020-08-04 | Cortica Ltd. | System and method for identification of inappropriate multimedia content |
EP2126833A2 (en) | 2006-11-30 | 2009-12-02 | Dolby Laboratories Licensing Corporation | Extracting features of video&audio signal content to provide reliable identification of the signals |
US8312558B2 (en) * | 2007-01-03 | 2012-11-13 | At&T Intellectual Property I, L.P. | System and method of managing protected video content |
US7953895B1 (en) | 2007-03-07 | 2011-05-31 | Juniper Networks, Inc. | Application identification |
US8559516B2 (en) * | 2007-06-14 | 2013-10-15 | Sony Corporation | Video sequence ID by decimated scene signature |
US8171030B2 (en) | 2007-06-18 | 2012-05-01 | Zeitera, Llc | Method and apparatus for multi-dimensional content search and video identification |
EP2186331A4 (en) | 2007-07-27 | 2010-12-29 | Synergy Sports Technology Llc | SYSTEMS AND METHODS FOR GENERATING SIGNET VIDEO IMPRESSIONS |
WO2009026803A1 (en) * | 2007-08-27 | 2009-03-05 | Yuvad Technologies Co., Ltd. | A method for identifying motion video content |
US8365214B2 (en) | 2007-11-15 | 2013-01-29 | At&T Intellectual Property I, Lp | Systems and method for determining visual media information |
US8566860B2 (en) * | 2007-11-15 | 2013-10-22 | At&T Intellectual Property I, Lp | System and methods for advanced parental control |
US8165226B2 (en) * | 2007-12-06 | 2012-04-24 | The Boeing Company | Imaging frame freeze detection |
US9984369B2 (en) | 2007-12-19 | 2018-05-29 | At&T Intellectual Property I, L.P. | Systems and methods to identify target video content |
US8037256B2 (en) * | 2007-12-20 | 2011-10-11 | Advanced Micro Devices, Inc. | Programmable address processor for graphics applications |
US8280905B2 (en) * | 2007-12-21 | 2012-10-02 | Georgetown University | Automated forensic document signatures |
US8312023B2 (en) * | 2007-12-21 | 2012-11-13 | Georgetown University | Automated forensic document signatures |
TW200937313A (en) * | 2008-02-18 | 2009-09-01 | Univ Nat Chiao Tung | Method and system for increasing license plate detection efficiency in successively inputting image |
GB2457694B (en) * | 2008-02-21 | 2012-09-26 | Snell Ltd | Method of Deriving an Audio-Visual Signature |
EP2109047A1 (en) * | 2008-04-07 | 2009-10-14 | Global Digital Technologies SA | Video characterization, identification and search system |
US8255948B1 (en) * | 2008-04-23 | 2012-08-28 | Google Inc. | Demographic classifiers from media content |
US8611701B2 (en) * | 2008-05-21 | 2013-12-17 | Yuvad Technologies Co., Ltd. | System for facilitating the search of video content |
US8370382B2 (en) | 2008-05-21 | 2013-02-05 | Ji Zhang | Method for facilitating the search of video content |
WO2009140820A1 (en) * | 2008-05-21 | 2009-11-26 | Yuvad Technologies Co., Ltd. | A system for extracting a finger print data from video/audio signals |
US20100215211A1 (en) * | 2008-05-21 | 2010-08-26 | Ji Zhang | System for Facilitating the Archiving of Video Content |
US8577077B2 (en) * | 2008-05-22 | 2013-11-05 | Yuvad Technologies Co., Ltd. | System for identifying motion video/audio content |
US8548192B2 (en) * | 2008-05-22 | 2013-10-01 | Yuvad Technologies Co., Ltd. | Method for extracting a fingerprint data from video/audio signals |
WO2009143667A1 (en) * | 2008-05-26 | 2009-12-03 | Yuvad Technologies Co., Ltd. | A system for automatically monitoring viewing activities of television signals |
WO2010022303A1 (en) * | 2008-08-22 | 2010-02-25 | Dolby Laboratories Licensing Corporation | Content identification and quality monitoring |
US8538062B1 (en) * | 2008-08-28 | 2013-09-17 | Nvidia Corporation | System, method, and computer program product for validating an aspect of media data processing utilizing a signature |
US10334324B2 (en) | 2008-11-26 | 2019-06-25 | Free Stream Media Corp. | Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device |
US10880340B2 (en) | 2008-11-26 | 2020-12-29 | Free Stream Media Corp. | Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device |
US9961388B2 (en) | 2008-11-26 | 2018-05-01 | David Harrison | Exposure of public internet protocol addresses in an advertising exchange server to improve relevancy of advertisements |
US10567823B2 (en) | 2008-11-26 | 2020-02-18 | Free Stream Media Corp. | Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device |
US9386356B2 (en) | 2008-11-26 | 2016-07-05 | Free Stream Media Corp. | Targeting with television audience data across multiple screens |
US9026668B2 (en) | 2012-05-26 | 2015-05-05 | Free Stream Media Corp. | Real-time and retargeted advertising on multiple screens of a user watching television |
US10631068B2 (en) | 2008-11-26 | 2020-04-21 | Free Stream Media Corp. | Content exposure attribution based on renderings of related content across multiple devices |
US9154942B2 (en) | 2008-11-26 | 2015-10-06 | Free Stream Media Corp. | Zero configuration communication between a browser and a networked media device |
US9986279B2 (en) | 2008-11-26 | 2018-05-29 | Free Stream Media Corp. | Discovery, access control, and communication with networked services |
US8180891B1 (en) | 2008-11-26 | 2012-05-15 | Free Stream Media Corp. | Discovery, access control, and communication with networked services from within a security sandbox |
US10419541B2 (en) | 2008-11-26 | 2019-09-17 | Free Stream Media Corp. | Remotely control devices over a network without authentication or registration |
US10977693B2 (en) | 2008-11-26 | 2021-04-13 | Free Stream Media Corp. | Association of content identifier of audio-visual data with additional data through capture infrastructure |
US9519772B2 (en) | 2008-11-26 | 2016-12-13 | Free Stream Media Corp. | Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device |
US8247990B1 (en) | 2008-12-05 | 2012-08-21 | Musco Corporation | Apparatus, method, and system for improved switching methods for power adjustments in light sources |
US8934545B2 (en) * | 2009-02-13 | 2015-01-13 | Yahoo! Inc. | Extraction of video fingerprints and identification of multimedia using video fingerprinting |
US10375451B2 (en) | 2009-05-29 | 2019-08-06 | Inscape Data, Inc. | Detection of common media segments |
US9055335B2 (en) * | 2009-05-29 | 2015-06-09 | Cognitive Networks, Inc. | Systems and methods for addressing a media database using distance associative hashing |
US9449090B2 (en) | 2009-05-29 | 2016-09-20 | Vizio Inscape Technologies, Llc | Systems and methods for addressing a media database using distance associative hashing |
US8595781B2 (en) | 2009-05-29 | 2013-11-26 | Cognitive Media Networks, Inc. | Methods for identifying video segments and displaying contextual targeted content on a connected television |
US10949458B2 (en) | 2009-05-29 | 2021-03-16 | Inscape Data, Inc. | System and method for improving work load management in ACR television monitoring system |
US10116972B2 (en) | 2009-05-29 | 2018-10-30 | Inscape Data, Inc. | Methods for identifying video segments and displaying option to view from an alternative source and/or on an alternative device |
CN102822864B (zh) | 2009-06-16 | 2016-01-13 | 日本电气株式会社 | 图像签名匹配设备 |
US8325280B2 (en) * | 2009-08-06 | 2012-12-04 | Freescale Semiconductor, Inc. | Dynamic compensation of display backlight by adaptively adjusting a scaling factor based on motion |
US8245249B2 (en) * | 2009-10-09 | 2012-08-14 | The Nielson Company (Us), Llc | Methods and apparatus to adjust signature matching results for audience measurement |
KR20110063004A (ko) * | 2009-12-04 | 2011-06-10 | 삼성전자주식회사 | 키 프레임 추출 장치 및 방법과 이를 이용한 방송 녹화 장치 및 방법 |
JP5428835B2 (ja) * | 2009-12-21 | 2014-02-26 | 富士通株式会社 | 署名装置、署名方法、および署名プログラム |
WO2011090541A2 (en) * | 2009-12-29 | 2011-07-28 | Tv Interactive Systems, Inc. | Methods for displaying contextually targeted content on a connected television |
US8433142B2 (en) | 2010-04-05 | 2013-04-30 | The Nielsen Company (Us), Llc | Methods and apparatus to detect differences between images |
US9838753B2 (en) | 2013-12-23 | 2017-12-05 | Inscape Data, Inc. | Monitoring individual viewing of television events using tracking pixels and cookies |
US10192138B2 (en) | 2010-05-27 | 2019-01-29 | Inscape Data, Inc. | Systems and methods for reducing data density in large datasets |
US8863165B2 (en) * | 2010-11-01 | 2014-10-14 | Gracenote, Inc. | Method and system for presenting additional content at a media system |
US10142687B2 (en) | 2010-11-07 | 2018-11-27 | Symphony Advanced Media, Inc. | Audience content exposure monitoring apparatuses, methods and systems |
US9237377B2 (en) | 2011-07-06 | 2016-01-12 | Symphony Advanced Media | Media content synchronized advertising platform apparatuses and systems |
CN102611932B (zh) * | 2011-01-25 | 2014-09-17 | 国基电子(上海)有限公司 | 机顶盒及其录制电视节目的方法 |
US8823726B2 (en) * | 2011-02-16 | 2014-09-02 | Apple Inc. | Color balance |
EP2509332B1 (en) | 2011-04-04 | 2015-12-30 | AGUSTAWESTLAND S.p.A. | Automatic test system for digital display systems |
US8786785B2 (en) | 2011-04-05 | 2014-07-22 | Microsoft Corporation | Video signature |
US8908903B2 (en) | 2011-08-31 | 2014-12-09 | The Nielsen Company (Us), Llc | Image recognition to support shelf auditing for consumer research |
US8768003B2 (en) | 2012-03-26 | 2014-07-01 | The Nielsen Company (Us), Llc | Media monitoring using multiple types of signatures |
US9185456B2 (en) | 2012-03-27 | 2015-11-10 | The Nielsen Company (Us), Llc | Hybrid active and passive people metering for audience measurement |
US8737745B2 (en) | 2012-03-27 | 2014-05-27 | The Nielsen Company (Us), Llc | Scene-based people metering for audience measurement |
US9628829B2 (en) | 2012-06-26 | 2017-04-18 | Google Technology Holdings LLC | Identifying media on a mobile device |
US9118951B2 (en) | 2012-06-26 | 2015-08-25 | Arris Technology, Inc. | Time-synchronizing a parallel feed of secondary content with primary media content |
US9106953B2 (en) | 2012-11-28 | 2015-08-11 | The Nielsen Company (Us), Llc | Media monitoring based on predictive signature caching |
US9351011B2 (en) * | 2012-11-28 | 2016-05-24 | Intel Corporation | Video pipeline with direct linkage between decoding and post processing |
KR101264667B1 (ko) * | 2012-12-28 | 2013-05-15 | (주)지란지교소프트 | 비디오 파일의 썸네일 이미지 생성 방법 및 그 방법이 기록된 기록매체 |
US9301070B2 (en) | 2013-03-11 | 2016-03-29 | Arris Enterprises, Inc. | Signature matching of corrupted audio signal |
US9307337B2 (en) | 2013-03-11 | 2016-04-05 | Arris Enterprises, Inc. | Systems and methods for interactive broadcast content |
WO2014144589A1 (en) | 2013-03-15 | 2014-09-18 | The Nielsen Company (Us), Llc | Systems, methods, and apparatus to identify linear and non-linear media presentations |
US9294815B2 (en) | 2013-03-15 | 2016-03-22 | The Nielsen Company (Us), Llc | Methods and apparatus to discriminate between linear and non-linear media |
FR3008841B1 (fr) * | 2013-07-19 | 2016-12-09 | Musiciens Artistes Interpretes Associes - M A I A | Systeme d'analyse d'un programme audiovisuel compose d'une sequence de programmes audiovisuels elementaires |
US9465995B2 (en) | 2013-10-23 | 2016-10-11 | Gracenote, Inc. | Identifying video content via color-based fingerprint matching |
US9955192B2 (en) | 2013-12-23 | 2018-04-24 | Inscape Data, Inc. | Monitoring individual viewing of television events using tracking pixels and cookies |
US9668020B2 (en) * | 2014-04-07 | 2017-05-30 | The Nielsen Company (Us), Llc | Signature retrieval and matching for media monitoring |
US9369780B2 (en) * | 2014-07-31 | 2016-06-14 | Verizon Patent And Licensing Inc. | Methods and systems for detecting one or more advertisement breaks in a media content stream |
US9497505B2 (en) | 2014-09-30 | 2016-11-15 | The Nielsen Company (Us), Llc | Systems and methods to verify and/or correct media lineup information |
US9747906B2 (en) | 2014-11-14 | 2017-08-29 | The Nielson Company (Us), Llc | Determining media device activation based on frequency response analysis |
US9628830B1 (en) | 2014-12-22 | 2017-04-18 | Sorenson Media, Inc. | Automatic content recognition (ACR) fingerprinting and video encoding |
AU2016211254B2 (en) | 2015-01-30 | 2019-09-19 | Inscape Data, Inc. | Methods for identifying video segments and displaying option to view from an alternative source and/or on an alternative device |
US9680583B2 (en) | 2015-03-30 | 2017-06-13 | The Nielsen Company (Us), Llc | Methods and apparatus to report reference media data to multiple data collection facilities |
CA2982797C (en) | 2015-04-17 | 2023-03-14 | Inscape Data, Inc. | Systems and methods for reducing data density in large datasets |
US9832484B2 (en) * | 2015-05-20 | 2017-11-28 | Texas Instruments Incorporated | Still block detection in a video sequence |
CN108351879B (zh) | 2015-07-16 | 2022-02-18 | 构造数据有限责任公司 | 用于提高识别媒体段的效率的划分搜索索引的系统和方法 |
BR112018000716B1 (pt) | 2015-07-16 | 2023-03-28 | Inscape Data, Inc | Método e dispositivo de computação para detecção de segmentos de mídia comuns |
US10080062B2 (en) | 2015-07-16 | 2018-09-18 | Inscape Data, Inc. | Optimizing media fingerprint retention to improve system resource utilization |
KR102531622B1 (ko) | 2015-07-16 | 2023-05-10 | 인스케이프 데이터, 인코포레이티드 | 시스템 자원 활용 최적화를 위한 비디오 세그먼트의 미래 시청 예측 |
US10452707B2 (en) | 2015-08-31 | 2019-10-22 | The Nielsen Company (Us), Llc | Product auditing in point-of-sale images |
US10366404B2 (en) | 2015-09-10 | 2019-07-30 | The Nielsen Company (Us), Llc | Methods and apparatus to group advertisements by advertisement campaign |
US11074885B2 (en) * | 2015-09-25 | 2021-07-27 | Intel Corporation | Facilitating efficient detection of patterns in graphics display streams prior to their display at computing devices |
WO2017055890A1 (en) | 2015-09-30 | 2017-04-06 | The Nielsen Company (Us), Llc | Interactive product auditing with a mobile device |
US11204991B1 (en) | 2015-10-29 | 2021-12-21 | Omnivu, Inc. | Identity verification system and method for gathering, identifying, authenticating, registering, monitoring, tracking, analyzing, storing, and commercially distributing dynamic markers and personal data via electronic means |
US11019385B2 (en) * | 2016-01-20 | 2021-05-25 | Samsung Electronics Co., Ltd. | Content selection for networked media devices |
US11727141B2 (en) | 2016-06-10 | 2023-08-15 | OneTrust, LLC | Data processing systems and methods for synching privacy-related user consent across multiple computing devices |
US10909265B2 (en) * | 2016-06-10 | 2021-02-02 | OneTrust, LLC | Application privacy scanning systems and related methods |
US10685140B2 (en) | 2016-06-10 | 2020-06-16 | OneTrust, LLC | Consent receipt management systems and related methods |
US11586700B2 (en) | 2016-06-10 | 2023-02-21 | OneTrust, LLC | Data processing systems and methods for automatically blocking the use of tracking tools |
US12118121B2 (en) | 2016-06-10 | 2024-10-15 | OneTrust, LLC | Data subject access request processing systems and related methods |
US11675929B2 (en) | 2016-06-10 | 2023-06-13 | OneTrust, LLC | Data processing consent sharing systems and related methods |
CN110546932B (zh) | 2017-04-06 | 2022-06-10 | 构造数据有限责任公司 | 使用媒体查看数据提高设备映射图准确度的系统和方法 |
US10694248B2 (en) | 2018-06-12 | 2020-06-23 | The Nielsen Company (Us), Llc | Methods and apparatus to increase a match rate for media identification |
US11023618B2 (en) | 2018-08-21 | 2021-06-01 | Paypal, Inc. | Systems and methods for detecting modifications in a video clip |
US10911824B2 (en) * | 2018-11-05 | 2021-02-02 | The Nielsen Company (Us), Llc | Methods and apparatus to generate reference signatures |
CN111372038B (zh) * | 2018-12-26 | 2021-06-18 | 厦门星宸科技有限公司 | 多串流影像处理装置及方法 |
US11695975B1 (en) | 2020-03-07 | 2023-07-04 | Stephen G. Giraud | System and method for live web camera feed and streaming transmission with definitive online identity verification for prevention of synthetic video and photographic images |
US11252460B2 (en) | 2020-03-27 | 2022-02-15 | The Nielsen Company (Us), Llc | Signature matching with meter data aggregation for media identification |
US11088772B1 (en) * | 2020-05-29 | 2021-08-10 | The Nielsen Company (Us), Llc | Methods and apparatus to reduce false positive signature matches due to similar media segments in different reference media assets |
US11736765B2 (en) | 2020-05-29 | 2023-08-22 | The Nielsen Company (Us), Llc | Methods and apparatus to credit media segments shared among multiple media assets |
EP4189569A1 (en) | 2020-07-28 | 2023-06-07 | OneTrust LLC | Systems and methods for automatically blocking the use of tracking tools |
US11523175B2 (en) | 2021-03-30 | 2022-12-06 | The Nielsen Company (Us), Llc | Methods and apparatus to validate reference media assets in media identification system |
US11894915B2 (en) | 2021-05-17 | 2024-02-06 | The Nielsen Company (Us), Llc | Methods and apparatus to credit media based on presentation rate |
US11463787B1 (en) | 2021-05-26 | 2022-10-04 | The Nielsen Company (Us), Llc | Methods and apparatus to generate a signature based on signature candidates |
US11363332B1 (en) | 2021-08-27 | 2022-06-14 | The Nielsen Company (Us), Llc | Methods and apparatus to identify an episode number based on fingerprint and matched viewing information |
US12190335B2 (en) | 2021-10-29 | 2025-01-07 | The Nielsen Company (Us), Llc | Methods and apparatus to generate reference signature assets from meter signatures |
US11689764B2 (en) | 2021-11-30 | 2023-06-27 | The Nielsen Company (Us), Llc | Methods and apparatus for loading and roll-off of reference media assets |
Family Cites Families (62)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4697209A (en) | 1984-04-26 | 1987-09-29 | A. C. Nielsen Company | Methods and apparatus for automatically identifying programs viewed or recorded |
US5019899A (en) * | 1988-11-01 | 1991-05-28 | Control Data Corporation | Electronic data encoding and recognition system |
US5319453A (en) * | 1989-06-22 | 1994-06-07 | Airtrax | Method and apparatus for video signal encoding, decoding and monitoring |
CA2036205C (en) * | 1990-06-01 | 1996-11-19 | Russell J. Welsh | Program monitoring unit |
FR2681997A1 (fr) * | 1991-09-30 | 1993-04-02 | Arbitron Cy | Procede et dispositif d'identification automatique d'un programme comportant un signal sonore. |
US5436653A (en) * | 1992-04-30 | 1995-07-25 | The Arbitron Company | Method and system for recognition of broadcast segments |
US5583950A (en) * | 1992-09-16 | 1996-12-10 | Mikos, Ltd. | Method and apparatus for flash correlation |
GB9221678D0 (en) * | 1992-10-15 | 1992-11-25 | Taylor Nelson Group Limited | Identifying a received programme stream |
US5437050A (en) * | 1992-11-09 | 1995-07-25 | Lamb; Robert G. | Method and apparatus for recognizing broadcast information using multi-frequency magnitude detection |
US5481294A (en) * | 1993-10-27 | 1996-01-02 | A. C. Nielsen Company | Audience measurement system utilizing ancillary codes and passive signatures |
US5822436A (en) * | 1996-04-25 | 1998-10-13 | Digimarc Corporation | Photographic products and methods employing embedded information |
US5748763A (en) * | 1993-11-18 | 1998-05-05 | Digimarc Corporation | Image steganography system featuring perceptually adaptive and globally scalable signal embedding |
US5768426A (en) * | 1993-11-18 | 1998-06-16 | Digimarc Corporation | Graphics processing system employing embedded code signals |
US5594934A (en) * | 1994-09-21 | 1997-01-14 | A.C. Nielsen Company | Real time correlation meter |
US6560349B1 (en) * | 1994-10-21 | 2003-05-06 | Digimarc Corporation | Audio monitoring using steganographic information |
US5758257A (en) * | 1994-11-29 | 1998-05-26 | Herz; Frederick | System and method for scheduling broadcast of and access to video programs and other data using customer profiles |
US5710833A (en) * | 1995-04-20 | 1998-01-20 | Massachusetts Institute Of Technology | Detection, recognition and coding of complex objects using probabilistic eigenspace analysis |
US5767893A (en) * | 1995-10-11 | 1998-06-16 | International Business Machines Corporation | Method and apparatus for content based downloading of video programs |
US5872588A (en) * | 1995-12-06 | 1999-02-16 | International Business Machines Corporation | Method and apparatus for monitoring audio-visual materials presented to a subscriber |
US5767922A (en) * | 1996-04-05 | 1998-06-16 | Cornell Research Foundation, Inc. | Apparatus and process for detecting scene breaks in a sequence of video frames |
US5870754A (en) * | 1996-04-25 | 1999-02-09 | Philips Electronics North America Corporation | Video retrieval of MPEG compressed sequences using DC and motion signatures |
US5864837A (en) * | 1996-06-12 | 1999-01-26 | Unisys Corporation | Methods and apparatus for efficient caching in a distributed environment |
US6513014B1 (en) | 1996-07-24 | 2003-01-28 | Walker Digital, Llc | Method and apparatus for administering a survey via a television transmission network |
US5856973A (en) * | 1996-09-10 | 1999-01-05 | Thompson; Kenneth M. | Data multiplexing in MPEG server to decoder systems |
US20020120925A1 (en) * | 2000-03-28 | 2002-08-29 | Logan James D. | Audio and video program recording, editing and playback systems using metadata |
US5978842A (en) * | 1997-01-14 | 1999-11-02 | Netmind Technologies, Inc. | Distributed-client change-detection tool with change-detection augmented by multiple clients |
US6675383B1 (en) * | 1997-01-22 | 2004-01-06 | Nielsen Media Research, Inc. | Source detection apparatus and method for audience measurement |
CA2196930C (en) * | 1997-02-06 | 2005-06-21 | Nael Hirzalla | Video sequence recognition |
US6496228B1 (en) * | 1997-06-02 | 2002-12-17 | Koninklijke Philips Electronics N.V. | Significant scene detection and frame filtering for a visual indexing system using dynamic thresholds |
US6137544A (en) | 1997-06-02 | 2000-10-24 | Philips Electronics North America Corporation | Significant scene detection and frame filtering for a visual indexing system |
US6353929B1 (en) * | 1997-06-23 | 2002-03-05 | One River Worldtrek, Inc. | Cooperative system for measuring electronic media |
US6184918B1 (en) * | 1997-09-30 | 2001-02-06 | Intel Corporation | Method and apparatus for monitoring viewing of broadcast data |
US6467089B1 (en) | 1997-12-23 | 2002-10-15 | Nielsen Media Research, Inc. | Audience measurement system incorporating a mobile handset |
CN1139208C (zh) * | 1998-05-12 | 2004-02-18 | 尼尔逊媒介研究股份有限公司 | 数字电视的观众测定系统 |
IL124595A (en) | 1998-05-21 | 2009-09-01 | Yossef Tsuria | Anti-piracy system |
US6272176B1 (en) * | 1998-07-16 | 2001-08-07 | Nielsen Media Research, Inc. | Broadcast encoding system and method |
US6100941A (en) * | 1998-07-28 | 2000-08-08 | U.S. Philips Corporation | Apparatus and method for locating a commercial disposed within a video data stream |
US7260823B2 (en) * | 2001-01-11 | 2007-08-21 | Prime Research Alliance E., Inc. | Profiling and identification of television viewers |
JP2000286836A (ja) | 1999-03-30 | 2000-10-13 | Fujitsu Ltd | 認証装置および記録媒体 |
US6523175B1 (en) * | 1999-08-02 | 2003-02-18 | Nielsen Media Research, Inc. | Methods and apparatus for identifying the source of a user selected signal via an intermediate frequency probe |
US6480539B1 (en) * | 1999-09-10 | 2002-11-12 | Thomson Licensing S.A. | Video encoding method and apparatus |
US6469749B1 (en) * | 1999-10-13 | 2002-10-22 | Koninklijke Philips Electronics N.V. | Automatic signature-based spotting, learning and extracting of commercials and other video content |
ATE504063T1 (de) * | 1999-12-24 | 2011-04-15 | Ibm | Verfahren und system zur erkennung von identischen digitalen daten |
WO2001050737A2 (en) * | 1999-12-30 | 2001-07-12 | Koninklijke Philips Electronics N.V. | Method and apparatus for reducing false positives in cut detection |
US6593976B1 (en) * | 2000-02-14 | 2003-07-15 | Koninklijke Philips Electronics N.V. | Automatic return to input source when user-selected content reappears in input source |
BR0108443A (pt) | 2000-02-18 | 2003-01-07 | Acnielsen Corp | Sistema de medição de audiência e método para transmissões digitais |
US6990453B2 (en) * | 2000-07-31 | 2006-01-24 | Landmark Digital Services Llc | System and methods for recognizing sound and music signals in high noise and distortion |
US6574594B2 (en) * | 2000-11-03 | 2003-06-03 | International Business Machines Corporation | System for monitoring broadcast audio content |
US7562012B1 (en) | 2000-11-03 | 2009-07-14 | Audible Magic Corporation | Method and apparatus for creating a unique audio signature |
US6604072B2 (en) * | 2000-11-03 | 2003-08-05 | International Business Machines Corporation | Feature-based audio content identification |
US20020114299A1 (en) | 2000-12-27 | 2002-08-22 | Daozheng Lu | Apparatus and method for measuring tuning of a digital broadcast receiver |
US20020087969A1 (en) * | 2000-12-28 | 2002-07-04 | International Business Machines Corporation | Interactive TV audience estimation and program rating in real-time using multi level tracking methods, systems and program products |
ATE321422T1 (de) * | 2001-01-09 | 2006-04-15 | Metabyte Networks Inc | System, verfahren und software für die bereitstellung einer gezielten werbung durch benutzerprofildatenstruktur basierend auf benutzerpräferenzen |
JP4723171B2 (ja) * | 2001-02-12 | 2011-07-13 | グレースノート インク | マルチメディア・コンテンツのハッシュの生成および突合せ |
US20020133499A1 (en) * | 2001-03-13 | 2002-09-19 | Sean Ward | System and method for acoustic fingerprinting |
US8572640B2 (en) * | 2001-06-29 | 2013-10-29 | Arbitron Inc. | Media data use measurement with remote decoding/pattern matching |
US6968337B2 (en) | 2001-07-10 | 2005-11-22 | Audible Magic Corporation | Method and apparatus for identifying an unknown work |
US20030018970A1 (en) * | 2001-07-19 | 2003-01-23 | Digeo, Inc. | Object representation of television programs within an interactive television system |
DE60236161D1 (de) * | 2001-07-20 | 2010-06-10 | Gracenote Inc | Automatische identifizierung von klangaufzeichnungen |
JP4125232B2 (ja) * | 2001-09-10 | 2008-07-30 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 条件付アクセスを与える方法及び装置 |
US20030131350A1 (en) * | 2002-01-08 | 2003-07-10 | Peiffer John C. | Method and apparatus for identifying a digital audio signal |
MXPA06002837A (es) * | 2003-09-12 | 2006-06-14 | Nielsen Media Res Inc | Aparato de firma de video digital y metodos para usarlo con sistemas de identificacion de programas de video. |
-
2003
- 2003-09-12 MX MXPA06002837A patent/MXPA06002837A/es not_active Application Discontinuation
- 2003-09-12 CA CA 2540575 patent/CA2540575C/en not_active Expired - Lifetime
- 2003-09-12 EP EP03754665A patent/EP1668903A4/en not_active Ceased
- 2003-09-12 AU AU2003272483A patent/AU2003272483A1/en not_active Abandoned
- 2003-09-12 WO PCT/US2003/029219 patent/WO2005036877A1/en active Application Filing
- 2003-11-28 AR ARP030104407 patent/AR042250A1/es unknown
-
2006
- 2006-03-10 US US11/372,582 patent/US7793318B2/en active Active
-
2010
- 2010-07-28 US US12/845,660 patent/US8020180B2/en not_active Expired - Fee Related
-
2011
- 2011-08-17 US US13/211,906 patent/US8683503B2/en not_active Expired - Lifetime
-
2013
- 2013-12-27 US US14/141,716 patent/US9015742B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
EP1668903A1 (en) | 2006-06-14 |
US8020180B2 (en) | 2011-09-13 |
CA2540575C (en) | 2013-12-17 |
US9015742B2 (en) | 2015-04-21 |
US7793318B2 (en) | 2010-09-07 |
US20100306791A1 (en) | 2010-12-02 |
AR042250A1 (es) | 2005-06-15 |
US20110302597A1 (en) | 2011-12-08 |
WO2005036877A1 (en) | 2005-04-21 |
US8683503B2 (en) | 2014-03-25 |
US20140115619A1 (en) | 2014-04-24 |
US20060153296A1 (en) | 2006-07-13 |
CA2540575A1 (en) | 2005-04-21 |
AU2003272483A1 (en) | 2005-04-27 |
EP1668903A4 (en) | 2011-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
MXPA06002837A (es) | Aparato de firma de video digital y metodos para usarlo con sistemas de identificacion de programas de video. | |
JP6788699B2 (ja) | 高い分割自由度を伴う効果的なパーティション符号化 | |
JP6884598B2 (ja) | パーティション符号化を用いた有効な予測 | |
KR100714355B1 (ko) | 이미지 부호화 방법 및 이미지 부호기 | |
RU2369039C1 (ru) | Устройство для кодирования изображений, устройство для декодирования изображений, способ кодирования изображений и способ декодирования изображений | |
US5751378A (en) | Scene change detector for digital video | |
DE112018005250T5 (de) | Punktwolkenkomprimierung | |
JPH0670301A (ja) | 画像セグメント化装置 | |
EP1998570A2 (en) | Method and apparatus for replacing a portion of a first digital signal with a second digital signal | |
CN1166211C (zh) | 根据有效参考运动矢量数对一运动矢量进行编码的方法和装置 | |
CN111434115A (zh) | 视频编码中纹理合成的聚类修正 | |
CN112995664B (zh) | 图像采样格式转换方法、计算机可读存储介质和编码器 | |
CN1874509B (zh) | 基于上下文的自适应二进制算术编码的方法和系统 | |
WO2003084235A1 (en) | Video pre-processing | |
JPH1051783A (ja) | 最適サーチグリッド決定方法及びその装置 | |
JP3478836B2 (ja) | デジタル画像シーケンスの符号化方法および符号化装置 | |
WO2009152536A1 (en) | Method for processing sport video sequences | |
Sowmyayani et al. | Frame differencing-based segmentation for low bit rate video codec using H. 264 | |
CN116347084A (zh) | 图像的编码/解码方法、电子设备和计算机可读存储介质 | |
JP2002320229A (ja) | 動画符号通信画質評価方法及び評価システム | |
vd Schaar-Mitrea et al. | Hybrid compression of video with graphics in DTV communication systems | |
van der Schaar | Hybrid compression of video with graphics in DTV communication systems | |
JP2014509481A (ja) | シーケンス内の画像の圧縮 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FA | Abandonment or withdrawal |