ES2284777T3 - Metodo y sistema para el reconocimiento de segmentos de audio de difusion. - Google Patents

Metodo y sistema para el reconocimiento de segmentos de audio de difusion. Download PDF

Info

Publication number
ES2284777T3
ES2284777T3 ES02076018T ES02076018T ES2284777T3 ES 2284777 T3 ES2284777 T3 ES 2284777T3 ES 02076018 T ES02076018 T ES 02076018T ES 02076018 T ES02076018 T ES 02076018T ES 2284777 T3 ES2284777 T3 ES 2284777T3
Authority
ES
Spain
Prior art keywords
segment
signature
values
broadcast
segments
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES02076018T
Other languages
English (en)
Inventor
Michael D. Ellis
Fancy B. Younglove
David L. Clifton
Michael W. Fellinger
Stephen M. Dunn
David M. James
Richard S. Land
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nielsen Audio Inc
Original Assignee
Arbitron Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=25368063&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2284777(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Arbitron Inc filed Critical Arbitron Inc
Application granted granted Critical
Publication of ES2284777T3 publication Critical patent/ES2284777T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/37Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
    • H04H60/372Programme
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/785Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using colour or luminescence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/56Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/58Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of audio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/56Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/59Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H2201/00Aspects of broadcast communication
    • H04H2201/90Aspects of broadcast communication characterised by the use of signatures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Television Systems (AREA)
  • Image Analysis (AREA)
  • Circuits Of Receivers In General (AREA)
  • Stereo-Broadcasting Methods (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Input Circuits Of Receivers And Coupling Of Receivers And Audio Equipment (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

Un método (300 - 312) de producir una firma de una señal de difusión de audio para su uso en el reconocimiento de señales de difusión que comprende las etapas de: formar un primer grupo de una pluralidad de valores de bandas de frecuencias, derivado cada valor de un segmento de dicha señal de difusión de audio dentro de una banda de frecuencias predeterminada respectiva; formar un segundo grupo de una pluralidad de valores de bandas de frecuencias, derivado cada valor de un segmento de dicha señal de difusión de audio dentro de una banda de frecuencias predeterminada respectiva, en el que los valores del segundo grupo representan segmentos de dicha señal de difusión de audio dentro de las mismas bandas de frecuencias predeterminadas respectivas que los valores del primer grupo; y caracterizado por: comparar cada valor del primer grupo de dicha pluralidad de valores de bandas de frecuencias con el valor respectivo del segundo grupo de dicha pluralidad de valores de bandas de frecuencias querepresentan un segmento de dicha señal de difusión de audio dentro de la misma banda de frecuencias predeterminada respectiva, representando cada valor respectivo del segundo grupo de dicha pluralidad de valores de bandas de frecuencias un segmento de dicha señal de difusión de audio al menos una parte de la cual se difundió antes que el segmento de dicha señal de difusión de audio representada por el valor correspondiente de dicho primer grupo de dicha pluralidad de valores de bandas de frecuencias; y formar dicha firma en base a las comparaciones de los grupos primero y segundo de dicha pluralidad de valores de bandas de frecuencias.

Description

Método y sistema para el reconocimiento de segmentos de audio de difusión.
Antecedentes de la invención
La presente invención se refiere al reconocimiento automático de señales ampliamente diseminadas, tales como las difusiones de radio y televisión, y similares.
Los anunciantes de difusión necesitan confirmar que sus anuncios se han emitido en su totalidad por las estaciones de difusión designadas y en los instantes programados. Además, puede ser deseable para los anunciantes saber qué anuncios emiten sus competidores. Una técnica convencional para monitorizar los anuncios que se han emitido involucra el empleo de una gran cantidad de personas que miran los canales de difusión designados a lo largo del día para registrar esta información en un diario escrito. Se apreciará que esta técnica convencional involucra la necesidad de emplear un gran número de personas así como la necesidad de acumular sus registros escritos y de introducir sus contenidos en un sistema de procesamiento de datos automático para producir informes de interés para sus anunciantes particulares. Tal técnica convencional tiene un coste recurrente relativamente alto. En un intento de reducir tales costes, se ha desarrollado un sistema de reconocimiento de plantilla automático como, por ejemplo, se describe en la Patente de Estados Unidos Nº 4.739.398.
En la técnica de reconocimiento continuo de plantilla descrito en la Patente de Estados Unidos Nº 4.739.398, puede identificarse un segmento o porción de la señal por el reconocimiento continuo de una plantilla sobre la base de tiempo real. La señal puede transmitirse, por ejemplo, sobre el aire, vía satélite, por cable, fibra óptica o por cualquier otro medio que efectúe la amplia diseminación de la misma.
Por ejemplo, en el caso de una señal de difusión de televisión la señal de vídeo está parametrizada de modo que se produce un flujo de datos digital que tiene una palabra digital de 16 bits para cada trama de vídeo que, en el sistema NTSC, ocurre cada 1/30 de segundo. Se apreciará que intervalos de señal diferentes, tales como los campos de vídeo, pueden en cambio ponerse en parámetros de esta forma. Estas palabras digitales se comparan con las palabras digitales que representan anuncios u otros segmentos de interés que se almacenan en un dispositivo de almacenamiento. La información relativa a cada coincidencia que se detecta entre los mismos se recoge (lo cual indica que se ha difundido un segmento de interés).
Más específicamente, se genera una firma de clave digital para cada segmento conocido (por ejemplo, un anuncio) que se debe reconocer o comparar. La firma de clave incluye ventajosamente ocho palabras de 16 bits o palabras de comparación que se derivan de ocho tramas de información de difusión que se seleccionan de entre las tramas contenidas dentro del segmento deseado de acuerdo con un conjunto de reglas predeterminado, junto con información de desviación indicando el espaciamiento (medido, por ejemplo en tramas o campos) entre la localización de la trama representada por cada palabra de la firma y la representada por la primera palabra del mismo. En el caso de una señal de vídeo, que comprende treinta y dos áreas predeterminadas del mismo se seleccionan, por ejemplo, ocho por dos puntos de imagen desde cada trama (o un campo seleccionado del mismo representando cada trama), por ejemplo. Se produce un valor de luminancia media para los puntos de imagen de cada área y se compara con el valor de la luminancia media de un área emparejada con la misma. El resultado de tal comparación se normaliza a un valor de bit de uno o cero en base a la determinación de si el valor de luminancia media de la primera de las áreas es o (i) mayor o igual que, o (ii) es menor que, el valor de la luminancia media de la segunda de las áreas. De esta forma, se produce una firma de trama de dieciséis bits para cada trama de la señal de vídeo.
También se produce una palabra de máscara de dieciséis bits para cada firma de trama de dieciséis bits. Cada bit de la palabra de máscara representa la susceptibilidad del bit correspondiente de la firma de trama al ruido, y se produce sobre la base de la diferencia entre los valores de luminancia media de las áreas respectivas usadas para producir el bit correspondiente de la firma de trama. Esto es, si el valor absoluto de la diferencia entre tales valores de luminancia media es menor que un valor de banda de guarda, el bit correspondiente de la máscara se pone a uno, indicando susceptibilidad al ruido.
Las ocho palabras de coincidencia se seleccionan desde las firmas de trama que se han descrito anteriormente de cada segmento y se almacenan, junto con sus palabras de máscara y su información de desviación, como parte de la firma de clave para ese segmento.
La señal recibida a reconocer se digitaliza y se produce una firma de trama de 16 bits del modo descrito anteriormente para cada trama (o campo seleccionado) de datos. Después de que se reciben y se procesan las señales entrantes, se leen dentro de un almacenamiento que mantiene una cantidad predeterminada de datos. Se asume que cada firma de trama de 16 bits de la señal entrante corresponde con la primera palabra de una de las ocho firmas de clave de ocho palabras almacenadas previamente. Como tal, cada palabra recibida se compara con todas las firmas que comienzan con esa palabra. Usando la información de desplazamiento almacenada con las firmas, las firmas de trama recibidas posteriormente (que están ya en el almacenamiento) se comparan con las palabras de coincidencia correspondientes en la firma de clave para determinar si existe coincidencia o no.
\newpage
Más específicamente, cada palabra de coincidencia de la firma de clave se empareja con una firma de trama respectiva de la señal recibida en base a la información de desplazamiento y a los bits correspondientes de las palabras de coincidencia emparejadas y se comparan las firmas de trama. Se produce una cuenta del total de errores en base a esta comparación como sigue. Si los bits correspondientes de la palabra de coincidencia y la firma de trama están sin enmascarar, entonces se acumula una cuenta de error de cero cuando estos bits son iguales en valor y se acumula una cuenta de error de uno si estos bits difieren en valor. Si los bits están enmascarados, entonces se acumula una cuenta de error de un medio independientemente de los valores de los bits. Se acumula una cuenta total de errores para todas las palabras de coincidencia y las firmas de trama correspondientes y, si la cuenta total de errores es menor que un valor por defecto predeterminado o umbral de error se encuentra una coincidencia. De lo contrario, no se encuentra coincidencia.
Como se apreciará, para realizar el procesamiento del ejemplo anterior en tiempo real, deben completarse todas las comparaciones dentro del tiempo asociado con cada trama de datos, esto es, dentro de 1/30 de segundo. Típicamente la velocidad de procesamiento, asociada con los dispositivos de procesamiento normal permitirá almacenar y usar para la comparación sólo un número limitado de firmas de segmentos.
La velocidad con la que puede compararse una firma de clave con una firma de segmento para una difusión recibida de nuevo puede incrementarse sustancialmente utilizando un método para la reducción de datos de búsqueda de la palabra de clave. En este método, se selecciona una trama de las tramas contenidas dentro del segmento correspondiente a la firma de clave, de acuerdo con un conjunto de criterios predeterminados. Tal trama seleccionada es una trama de clave y la firma de trama asociada con la misma es la palabra de clave. La firma de clave tiene a pesar de eso preferiblemente ocho palabras de dieciséis bits, no obstante, la información de desplazamiento relativa a la misma representa ahora el espaciamiento desde la palabra clave, en lugar del espaciamiento desde la primera palabra en la firma de clave.
La palabra clave puede ser una de las palabras de firma de clave dentro de la firma de clave, en cuya situación la desviación para esa palabra tiene un valor de 0, o puede ser la palabra novena. La localización de la trama de la palabra clave no necesita preceder temporalmente las localizaciones de trama de todas demás palabras de coincidencia dentro de la firma de clave.
Puede haber múltiples firmas de clave asociadas con cada palabra de clave. Como ejemplo, si se utilizan palabras de 16 bits y si se asocian cuatro firmas de clave con cada palabra clave, entonces las cuatro comparaciones de firma completa serían el número máximo que habría que realizar dentro de un límite de tiempo de 1/30 de segundo (asumiendo que no hay errores de datos). Tal número de comparaciones se realiza fácilmente dentro del límite de tiempo.
Se desea conseguir la más alta precisión posible en el reconocimiento del segmento de difusión, así como la mayor eficacia posible. No obstante, se encuentran varios problemas en la realización de tal técnica. Por ejemplo, las señales de difusión están sujetas a desplazamientos de tiempo tales como un desplazamiento en el borde de un cuadro de vídeo que ocurre de vez en cuando. Las señales de vídeo están también sujetas a oscilaciones rápidas. Cada uno de estos efectos impactará adversamente en la técnica de reconocimiento de segmentos que se basan en muestrear porciones predeterminadas de la señal de vídeo, a menos que estos efectos se compensen de alguna manera.
Una dificultad adicional encontrada en la realización del reconocimiento de segmentos de difusión basado sobre las señales de vídeo es que las firmas que generan tienden a distribuirse desigualmente en valor debido a las diferencias entre las señales de vídeo de diferentes segmentos. Consecuentemente, las firmas de vídeo tienden a distribuirse desigualmente de modo que números relativamente elevados de firmas tienden a tener valores similares y son, por lo tanto, proclives a una falsa coincidencia (esto es, indicar una coincidencia entre firmas que representan segmentos diferentes).
Hasta ahora, se ha pensado que es impractico realizar un reconocimiento de plantilla de segmentos de difusión de audio debido a las dificultades encontradas en extraer suficiente información de las señales de audio. Por ejemplo, las señales de audio de televisión son predominantemente señales de voz que están concentradas aproximadamente por debajo de 3000 Hz y poseen un espectro de frecuencia muy similar de un segmento con el siguiente.
Debido a los efectos anteriores, así como el ruido de la señal, es difícil implementar una técnica de reconocimiento de plantilla para la identificación de segmentos de difusión que posea alta precisión. Esto es, las posibilidades de que las firmas de segmentos o coincidan falsamente o falle para proporcionar una coincidencia completamente confiable tiende a limitar la precisión de tal técnica. Cuando, por ejemplo, no se identifican segmentos conocidos por el sistema de reconocimiento de plantillas, pueden transmitirse a un operario de una estación de trabajo para identificación como potenciales nuevos segmentos, cuando de hecho no lo son. El resultado es que se malgasta el tiempo del operario de la estación de trabajo y la eficacia del sistema se degrada. Por el contrario, si se identifican nuevos segmentos cuando de hecho no son segmentos de interés, el tiempo del operario de la estación de trabajo puede malgastarse también en un intento inútil de identificar tales segmentos. Por ejemplo, en un sistema de reconocimiento de anuncios de televisión, es necesario distinguir anuncios de televisión de la programación normal, interrupciones para noticias, anuncios de servicios públicos, etc. Es deseable por lo tanto asegurar que el mayor número de nuevos segmentos proporcionados a los operarios de las estaciones de trabajo para identificación sean en efecto segmentos de interés. Se encuentra una dificultad adicional cuando los nuevos segmentos de interés se dividen incorrectamente, de modo que sólo se reporten porciones de nuevos segmentos a los operarios de las estaciones de trabajo lo cual puede impedir la identificación correcta del segmento que también malgasta el tiempo del operario.
El documento US 3919479 describe un sistema de identificación de señal de difusión. El documento FR 2559002 describe un método y un aparato para identificar información audiovisual de difusión sobre radio o TV. El documento WO88/10540 describe un sistema de clasificación de información de Difusión y un método que genera espectrogramas para su comparación con espectrogramas de referencia. El documento US 4.230.990 describe un método para identificación de programas de difusión que usa la difusión de señales de disparo con programas, y/o extrae firmas analizando la composición espectral de porciones de audio de la señal del programa.
Objetos y sumario de la invención
Es un objeto de la presente invención proporcionar métodos y aparatos para su uso en el reconocimiento de segmentos de difusión y similares proporcionando una precisión de reconocimiento mejorada y eficacia del sistema.
La presente invención proporciona un método y un sistema para producir una firma de una señal de difusión de audio como se expone en las reivindicaciones 1 a 7.
El método puede comprender producir una firma de una señal de difusión de audio para su uso en el reconocimiento de la señal de difusión, que comprende la etapas de: formar una pluralidad de valores de bandas de frecuencias representando cada uno porciones de dicha señal de difusión de audio dentro de las bandas de frecuencias predeterminadas respectivas; comparar cada valor de un primer grupo de dicha pluralidad de valores de bandas de frecuencias con el valor respectivo de un segundo grupo de dicha pluralidad de valores de bandas de frecuencias que representan porciones de dicha señal de difusión de audio dentro de la misma banda de frecuencias predeterminada respectiva, cada valor respectivo del segundo grupo de dicha pluralidad de valores de bandas de frecuencias que representa porciones de dicha señal de difusión de audio al menos una parte de la cual se difundió antes que las porciones de dicha señal de difusión de audio representada por el valor correspondiente de dicho primer grupo de dicha pluralidad de valores de bandas de frecuencias; y formar dicha firma en base a las comparaciones del primer y el segundo grupos de dicha pluralidad de valores de banda de frecuencias.
Al realizar el método se prefiere que las etapas de formar una pluralidad de valores de bandas de frecuencias comprendan formar las primeras señales de banda de frecuencias representando cada una, una característica de dicha señal de difusión de audio dentro de la respectiva de dichas bandas de frecuencias predeterminadas, y transformando cada una de dichas primeras señales de banda de frecuencias en el valor correspondiente de dicha pluralidad de valores de bandas de frecuencias en base a, al menos otra señal de bandas de frecuencias primera. Preferiblemente también, la etapa de formar dichas señales de banda de frecuencias primera comprende forma una pluralidad de señales de nivel de potencia representando cada una, un nivel de potencia de dicha señal de difusión dentro de la respectiva de dichas bandas de frecuencias predeterminadas, y la etapa de transformar dichas señales de bandas de frecuencias primeras comprende dividir cada una de dicha pluralidad de señales de nivel de potencia por una combinación lineal de otras de dichas señales de bandas de frecuencias primeras.
También se proporciona un sistema para producir una firma que caracteriza una señal de difusión de audio para su uso en el reconocimiento de una señal de difusión, que comprende: un medio para formar una pluralidad de valores de bandas de frecuencias representando cada uno porciones de dicha señal de difusión de audio dentro de las respectivas bandas de frecuencias predeterminadas; un medio para comparar cada valor del primer grupo de dicha pluralidad de señales de bandas de frecuencias con el valor correspondiente de un segundo grupo de dicha pluralidad de valores de bandas de frecuencias representando porciones de dicha señal de difusión de audio dentro de la misma banda de frecuencias predeterminada respectiva, representando cada uno de los respectivos valores del segundo grupo de dicha pluralidad de valores de bandas de frecuencias porciones de dicha señal de difusión de audio al menos una parte de la cual se difundió antes que las porciones de dicha señal de difusión de audio representada por el correspondiente valor de dicho primer grupo de dicha pluralidad de valores de bandas de frecuencias; y un medio para formar dicha firma en base a las comparaciones del primer y el segundo grupos de dicha pluralidad de valores de bandas de frecuencias.
Se proporciona además un método para producir una firma caracterizando un intervalo de una señal de vídeo que representa un cuadro para su uso en el reconocimiento de segmentos de difusión, en el que la firma se produce en base a porciones de la señal de vídeo que representan las regiones correspondientes del cuadro espaciadas cada una, una cantidad predeterminada respectiva desde el borde nominal del cuadro, comprendiendo las etapas de: detectar un desplazamiento en la señal de vídeo correspondiente con un desplazamiento en el borde del cuadro desde el borde nominal del mismo; ajustar las porciones de la señal de vídeo a compensar para dicho desplazamiento en el borde del cuadro; y producir la firma basada en las porciones ajustadas de la señal de vídeo.
Al realizar el método como se ha mostrado en el último párrafo precedente, se prefiere que la etapa de detectar un desplazamiento en la señal de vídeo comprenda muestrear una porción predeterminada de la señal de vídeo correspondiente con el borde nominal del cuadro y al menos una región adyacente del mismo; detectar una diferencia entre valores de la señal de vídeo espaciados dentro de la porción predeterminada de la señal de vídeo a lo largo de una dirección generalmente transversal a la dirección del borde nominal del cuadro para detectar el borde actual del cuadro; y determinar el desplazamiento en el borde del cuadro basado en el borde actual detectado del mismo. Preferiblemente, las etapas de detectar un desplazamiento en la señal de vídeo comprenden muestrear una pluralidad de porciones predeterminadas de la señal de vídeo correspondientes con el borde nominal del cuadro y al menos una región adyacente del mismo; detectar las diferencias respectivas entre los valores de la señal de vídeo espaciados dentro de cada porción de la pluralidad de porciones predeterminadas a lo largo de una dirección generalmente transversal a la dirección del borde nominal del cuadro; y utilizar cada una de las diferencias respectivas para detectar el borde actual del cuadro. La etapa de detectar un desplazamiento en la señal de vídeo puede comprender muestrear dicha porción predeterminada de la señal de vídeo para producir una pluralidad de valores de puntos de imagen cada uno de los cuales está espaciado del otro correspondiente al mismo a lo largo de una dirección generalmente transversal al borde nominal del cuadro; detectar una diferencia en valor entre al menos uno de los valores de puntos de imagen y el correspondiente del mismo para detectar el borde real del cuadro; y determinar el desplazamiento del borde del cuadro en base al borde real detectado del mismo.
Al realizar el método como se ha mostrado en el último párrafo precedente, al menos uno de los valores de los puntos de imagen y el correspondiente del mismo pueden estar espaciados a lo largo de la dirección generalmente transversal en al menos dos intervalos de puntos de imagen.
Se proporciona también un sistema para producir una firma caracterizando un intervalo de la señal de vídeo que representa un cuadro para su uso en el reconocimiento de segmentos de difusión en el que se produce la firma en base a porciones de la señal de vídeo que representan regiones correspondientes del cuadro espaciadas cada una, una cantidad predeterminada respectiva desde el borde nominal del cuadro, comprendiendo; un medio para detectar un desplazamiento en la señal de vídeo correspondiente con un desplazamiento en el borde del cuadro desde el borde nominal del mismo; un medio para ajustar las porciones de la señal de vídeo para compensar dicho desplazamiento en el borde del cuadro; y un medio para producir la firma en base a las porciones ajustadas de la señal de vídeo.
Se proporciona además un método para producir firmas caracterizando los intervalos respectivos de una señal de difusión exhibiendo una correlación entre al menos algunos de dichos intervalos respectivos para su uso en el reconocimiento de segmentos de difusión, comprendiendo las etapas de: producir un vector diferencia para cada intervalo respectivo de dicha señal de difusión que tiene una pluralidad de elementos representando cada uno diferencias entre porciones predeterminadas respectivas de cada uno de dichos intervalos respectivos y exhibir la correlación entre los mismos; realizar una transformación vectorial de dicho vector diferencia de cada uno de los intervalos respectivos para producir un vector diferencia transformado que tiene una pluralidad de elementos para cada intervalo respectivo de dicha señal de difusión de modo que la correlación ente la pluralidad de elementos del mismo es menor que la correlación entre la pluralidad de elementos de dicho vector diferencia; y producir una firma para cada intervalo respectivo de dicha señal de difusión en base al vector diferencia transformado correspondiente.
Al realizar el método como se ha mostrado en el último párrafo precedente, la etapa de realizar la transformación vectorial de dicho vector diferencia puede comprender realizar una transformación Hotelling del mismo.
Adicionalmente el método puede comprender la etapa de formar un primer y un segundo grupos de vectores diferencia, comprendiendo el primer grupo los vectores diferencia formando firmas que tienen valores que ocurren relativamente frecuentemente y comprendiendo el segundo grupo vectores diferencia formando firmas que tienen valores que ocurren menos frecuentemente que el primer grupo, y en el que la etapa de realizar dicha transformación vectorial comprende realizar una primera transformación vectorial para los vectores diferencia de dicho grupo y una segunda transformación para los vectores diferencia de dicho segundo grupo. Las etapas de realizar la primera y segunda transformaciones puede comprender realizar las transformaciones Hotelling respectivas utilizando los valores de transformación correspondientes basados sobre los vectores diferencia recibidos previamente que caen dentro de los grupos sometidos a las transformaciones Hotelling respectivas. Además, la etapa de producir un vector diferencia para cada intervalo respectivo de dichas señales de difusión puede comprender formar un vector diferencia para cada uno de una pluralidad de intervalos de una señal de vídeo de difusión en base a las porciones de la señal de vídeo que representan regiones correspondientes de un cuadro.
Se proporciona además un sistema para producir firmas caracterizando intervalos respectivos de una señal de difusión exhibiendo la correlación entre al menos algunos de dichos intervalos respectivos para su uso en el reconocimiento de segmentos de difusión comprendiendo; un medio para producir un vector diferencia para cada intervalo respectivo de dicha señal de difusión que tiene una pluralidad de elementos representando cada uno diferencias entre porciones predeterminadas respectivas de cada uno de dichos intervalos respectivos y exhibir una correlación entre los mismos; un medio para realizar una transformación vectorial de dicho vector diferencia de cada intervalo respectivo para producir un vector diferencia transformado que tiene una pluralidad de elementos para cada intervalo respectivo de dicha señal de difusión de modo que la correlación entre la pluralidad de elementos del mismo es menor que la correlación entre la pluralidad de elementos de dicho vector diferencia; y un medio para producir una firma para cada uno de los intervalos respectivos de dicha señal de difusión en base a los correspondientes vectores diferencia transformados.
Adicionalmente, se proporciona un método para producir una firma caracterizando un intervalo de una señal de vídeo que representa un cuadro para su uso en el reconocimiento de segmentos de difusión, en el que la firma se produce en base a porciones de la señal de vídeo que representan regiones correspondientes del cuadro, y para producir una palabra de máscara correspondiente incluyendo una pluralidad de valores de bit que representan cada uno una fiabilidad del valor correspondiente de la firma, comprendiendo las etapas de: formar una primera firma que tiene una pluralidad de valores basado cada uno sobre las respectivas de dichas porciones de la señal de vídeo; formar una segunda firma que tiene una pluralidad de valores basado cada uno en las porciones respectivas de una pluralidad de porciones desplazadas de la señal de vídeo correspondiendo cada uno con la respectiva de dichas porciones y teniendo una posición desplazada de la posición de dicha porción respectiva de dichas porciones en una cantidad predeterminada, de modo que cada valor de dicha firma primera corresponde a un valor de la segunda firma; comparar los valores respectivos de dicha primera y segunda firmas; establecer dichos valores de bits de dicha palabra de máscara en base a la comparación del valor respectivo de dicha firma primera con el valor correspondiente de las firmas segundas. La etapa de establecer dichos valores de bit de dicha palabra de máscara puede comprender también establecer un primer valor binario del mismo si el valor correspondiente de dicha primera firma es sustancialmente igual al valor respectivo de la segunda firma, y establecer un segundo valor binario para la misma si el valor correspondiente de dicha primera firma no es sustancialmente igual al valor respectivo de la segunda firma
Se proporciona también un sistema para producir una firma caracterizando un intervalo de una señal de vídeo que representa a un cuadro para su uso en el reconocimiento de segmentos de difusión, en el que la firma se produce en base a porciones de la señal de vídeo representando cada una, una región correspondiente del cuadro, y para producir la palabra de máscara correspondiente que incluye una pluralidad de valores de bits representando cada uno la fiabilidad del valor correspondiente de la firma, comprendiendo un medio para formar una primera firma que tiene una pluralidad de valores basado cada uno sobre las respectivas de dichas porciones de la señal de vídeo; un medio para formar una segunda firma que tiene una pluralidad de valores basado cada uno sobre las correspondientes de una pluralidad de porciones desplazadas de la señal de vídeo correspondiendo cada una a la porción respectiva de dichas porciones y teniendo una posición desplazada de la posición de dicha porción respectiva de dichas porciones en una cantidad predeterminada, de modo que cada valor de dicha firma primera corresponde a un valor de la segunda firma; un medio para comparar los valores respectivos de dichas primera y segunda firmas; y un medio para establecer dichos valores de bit de dicha palabra de máscara en base a la comparación del valor respectivo de dicha primera firma con el valor correspondiente de dicha segunda firma.
Se proporciona un método para producir una firma caracterizando un intervalo de la señal de difusión para su uso en el reconocimiento de segmentos de difusión que tiene una base de datos de firmas, incluyendo la firma una pluralidad de palabras digitales caracterizando cada una un respectivo sub-intervalo de dicho intervalo de la señal de difusión, comprendiendo las etapas de: dividir el intervalo de la señal de difusión en una pluralidad de sub-intervalos; formar una pluralidad de palabras digitales caracterizando cada uno de dicha pluralidad de sub-intervalos; y seleccionar al menos una de la pluralidad de palabras digitales que caracterizan cada uno de los intervalos en base a, al menos uno de los siguientes factores: (a) una distribución de las palabras digitales generadas previamente caracterizando las señales de difusión; (b) una distribución de palabras digitales de firmas generadas previamente almacenadas en la base de datos de firmas; (c) una probabilidad de que al menos una de la pluralidad de palabras digitales coincida con una palabra digital que caracteriza el sub-intervalo correspondiente sobre la redifusión del sub-intervalo; y (d) un grado de diferencia de señal entre el sub-intervalo correspondiente con al menos una de la pluralidad de palabras digitales y las porciones adyacentes del intervalo de señal de difusión. La etapa de seleccionar al menos una de la pluralidad de palabras digitales puede comprender seleccionar dicha, al menos una, de la pluralidad de palabras digitales en base a (a) dicha distribución de palabras digitales generadas previamente caracterizando señales de difusión, y/o (b) dicha distribución de palabras digitales de las firmas generadas previamente almacenadas en la base de datos de firmas, y/o (c) dicha probabilidad de que al menos una de la pluralidad de palabras digitales coincida con una palabra digital caracterizando un sub-intervalo correspondiente bajo la redifusión del sub-intervalo, y/o (d) dicho grado de diferencia de señal entre el sub-intervalo correspondiente con al menos una de la pluralidad de palabras digitales y porciones adyacentes del intervalo de la señal de difusión. La etapa de seleccionar al menos una de la pluralidad de palabras digitales comprende asignar valores respectivos a, al menos dos de dichos factores, formando una combinación lineal de dichos valores respectivos para producir un valor combinado, y seleccionar dicha palabra, al menos una, de la pluralidad de palabras digitales en base a dicho valor combinado.
Además, se proporciona una sistema para producir una firma caracterizando a un intervalo de señal de difusión para su uso en el reconocimiento de segmentos de difusión que tiene una base de datos de firmas, incluyendo la firma una pluralidad de palabras digitales caracterizando cada una de ellas un sub-intervalo respectivo de dicho intervalo de señal de difusión, comprendiendo: un medio para dividir el intervalo de la señal de difusión en una pluralidad de sub-intervalos; un medio para formar una pluralidad de palabras digitales caracterizando cada uno de dicha pluralidad de sub-intervalos; y un medio para seleccionar al menos una de la pluralidad de palabras digitales que caracterizan cada sub-intervalo en base a, al menos uno de los siguientes factores: (a) una distribución de palabras digitales generadas previamente caracterizando señales de difusión; (b) una distribución de palabras digitales de firmas generadas previamente almacenadas en la base de datos de firmas; (c) una probabilidad de que al menos una de la pluralidad de palabras digitales coincida con una palabra digital que caracteriza un intervalo correspondiente sobre la redifusión del sub-intervalo; y (d) un grado de diferencia de señal entre el sub-intervalo correspondiente con al menos una de la pluralidad de palabras digitales y porciones adyacentes del intervalo de señal de difusión.
Consecuentemente, puede proporcionarse un sistema de reconocimiento de segmentos de difusión y un método que comprende los medios para, y las etapas de, respectivamente, producir una firma para cada uno de una pluralidad de segmentos de difusión a reconocer; almacenar cada una de dichas firmas para formar una base de datos de las firmas de los segmentos de difusión; monitorizar un segmento de difusión, formando una firma que representa el segmento de difusión monitorizado; comparar la firma que representa el segmento de difusión monitorizado con al menos una de las firmas de segmentos de difusión de la base de datos para determinar si existe una coincidencia entre los mismos; y evaluar la validez de una coincidencia de un segmento de difusión monitorizado realizando al menos uno de (a) determinar si el segmento de difusión monitorizado esta delimitado temporalmente por eventos de señal predeterminados; (b) determinar si el segmento de difusión monitorizado solapa con otro segmento de difusión monitorizado para el cual se ha aceptado una coincidencia de acuerdo con criterios predeterminados; y (c) determinar si la coincidencia se adapta con un perfil predeterminado de segmentos de falsa coincidencia.
Se proporciona un sistema y un método para el reconocimiento de segmentos de difusión que comprende los medios para y las etapas de, respectivamente, producir una firma para cada uno de la pluralidad de segmentos de difusión a reconocer; almacenar cada una de dichas firmas para formar una base de datos de firmas de segmentos de difusión; monitorizar un segmento de difusión; formar una firma que representa el segmento de difusión monitorizado; comparar la firma que representa el segmento de difusión monitorizado con cada una, de una pluralidad de firmas de segmentos de difusión de la base de datos para determinar si existe una coincidencia entre los mismos de acuerdo con un primer nivel de tolerancia de error; evaluar si la coincidencia cae dentro de una dicha clase de coincidencias de aceptación cuestionable en base a criterios de evaluación predeterminados; y, si la coincidencia cae dentro de dicha clase de coincidencias de aceptación cuestionable, comparar la firma que representa el segmento de difusión monitorizado con la firma del segmento de difusión coincidente de la base de datos utilizando un segundo nivel de tolerancia de error que acepta coincidencias que tienen niveles de error relativamente más altos que las coincidencias aceptables de acuerdo con el primer nivel de tolerancia de error.
Un sistema y un método para producir una firma que caracteriza una señal de difusión de audio para su uso en el reconocimiento de señales de difusión, comprende los medios para y las etapas de, respectivamente, formar una pluralidad de valores de bandas de frecuencias representando cada uno porciones de dicha señal de difusión de audio dentro de las bandas de frecuencias predeterminadas respectivas; comparar cada valor del primer grupo de dicha pluralidad de valores de bandas de frecuencias con el valor respectivo de un segundo grupo de dicha pluralidad de valores de bandas de frecuencias que representan porciones de dicha señal de difusión de audio dentro de la misma banda de frecuencias predeterminada respectiva, cada valor respectivo del segundo grupo de dicha pluralidad de valores de bandas de frecuencias que representan porciones de dicha señal de difusión de audio al menos una parte de la cual se difundió antes que las porciones de dicha señal de difusión de audio representada por el valor correspondiente de dicho primer grupo de dicha pluralidad de valores de bandas de frecuencias; y formar dicha firma en base a las comparaciones de los grupos primero y segundo de dicha pluralidad de valores de bandas de frecuencias.
Se proporcionan un sistema y un método para producir una firma caracterizando un intervalo de señal de vídeo que representa un cuadro para su uso en el reconocimiento de segmentos de difusión, en el que la firma se produce en base a porciones de la señal de vídeo que representan las regiones correspondientes del cuadro espaciados cada uno una cantidad predeterminada respectiva del borde nominal del cuadro, comprendiendo los medios para y las etapas de, respectivamente, detectar un desplazamiento en la señal de vídeo correspondiendo con un desplazamiento en el borde del cuadro desde el borde nominal del mismo; ajustar las porciones de la señal de vídeo para compensar dicho desplazamiento en el borde del cuadro; y producir la firma en base a porciones ajustadas de la señal de vídeo.
Se proporcionan un sistema y un método para producir firmas que caracterizan intervalos respectivos de una señal de difusión exhibiendo la correlación entre al menos algunos de dichos intervalos respectivos para su uso en el reconocimiento de segmentos de difusión, comprendiendo los medios para y las etapas de, respectivamente, producir un vector diferencia para cada intervalo respectivo de dicha señal de difusión que tiene una pluralidad de elementos representando cada uno de ellos diferencias entre porciones predeterminadas respectivas de cada uno de dichos intervalos respectivos y que exhiben correlación entre los mismos; realizar una transformación vectorial de dicho vector diferencia de cada intervalo respectivo para producir un vector diferencia transformado que tiene una pluralidad de elementos para cada intervalo respectivo de dicha señal de difusión de modo que la correlación entre la pluralidad de elementos del mismo es menor que la correlación entre la pluralidad de elementos de dicho vector diferencia; y producir una firma por cada intervalo respectivo de dicha señal de difusión en base al correspondiente vector diferencia transformado.
Se proporcionan un sistema y un método para producir una firma que caracteriza un intervalo de señal de vídeo que representa un cuadro para su uso en el reconocimiento de segmentos de difusión, en el que la firma se produce en base a porciones de la señal de vídeo que representan regiones correspondientes del cuadro, y producir la correspondiente palabra de máscara que incluye una pluralidad de valores de bits representando cada uno la fiabilidad del valor correspondiente de la firma, comprendiendo los medios para y las etapas de, respectivamente, formar una primera firma que tiene una pluralidad de valores basados cada uno en las porciones respectivas de dichas porciones de la señal de vídeo; formar una segunda firma que tiene una pluralidad de valores basado cada uno en las respectivas porciones de una pluralidad de porciones desplazadas de la señal de vídeo correspondiendo cada una a la respectiva de dichas porciones y que tiene una posición desplazada de la posición de dicha porción respectiva de dichas porciones en una cantidad predeterminada, de modo que cada valor de dicha firma primera corresponde a un valor de la segunda firma; comparar los valores respectivos de dichas firmas primera y segunda; establecer dichos valores de bit de dicha palabra de máscara en base a la comparación del valor respectivo de dicha primera firma con el valor correspondiente de la segunda firma.
Se proporciona un sistema y un método para actualizar una base de datos de reconocimiento de segmentos de difusión que almacena firmas para su uso en el reconocimiento de segmentos de difusión de interés, comprendiendo los medios para y las etapas de, respectivamente, monitorizar una señal de difusión para detectar eventos de señal predeterminados indicando posibles segmentos de difusión de interés que corresponden con los intervalos de señal de difusión monitorizados respectivos; determinar si se detectan al menos dos segmentos de difusión posibles alternativos de interés para el intervalo de señal de difusión monitorizado; asignar prioridad a uno de dichos, al menos dos posibles segmentos de difusión alternativos de interés en base a criterios predeterminados; y almacenar una firma en la base de datos correspondiente con el segmento que se asigne prioridad de dichos, al menos dos, segmentos de difusión posibles alternativos de interés.
Se proporciona un sistema y un método para actualizar una base de datos de reconocimiento de segmentos de difusión que almacena firmas para su uso en el reconocimiento de segmentos de difusión de interés, comprendiendo los medios para y las etapas de, respectivamente, monitorizar una señal de difusión para detectar eventos de señal predeterminados indicando posibles segmentos de difusión de interés que corresponden con los intervalos de señal de difusión monitorizados respectivos; determinar la extensión a la que se desvían los intervalos de señal de difusión monitorizados respectivos desde los intervalos de señal de difusión predeterminados de posibles segmentos difusión de interés; seleccionar unos de dichos intervalos de señal de difusión monitorizados respectivos como nuevos segmentos de interés en base a la extensión determinada de la desviación de los mismos desde dichas longitudes normalizadas de los segmentos de difusión de interés; y almacenar una firma en la base de datos correspondiendo con los intervalos seleccionados de los respectivos intervalos de señal de difusión monitorizados.
Se proporcionan un método y un sistema para capturar selectivamente al menos una señal de audio de difusión y una señal de vídeo de para su uso en la actualización de la base de datos de reconocimiento de segmentos de difusión que almacena firmas para su uso en el reconocimiento de segmentos de difusión de interés, que comprende los medios para y las etapas de, respectivamente, almacenar temporalmente al menos una de las señales de audio de difusión y de las señales de vídeo de difusión de una difusión monitorizada; detectar eventos de señal predeterminados indicando posibles nuevos segmentos de difusión de interés de la difusión monitorizada; seleccionar intervalos de la difusión monitorizada como posibles nuevos segmentos de difusión de interés en base a dichos eventos de señal predeterminados; asignar un primer nivel de captura a un primer intervalo seleccionado en base a características predeterminadas del mismo indicando que dicho primer intervalo seleccionado es probablemente un nuevo segmento de interés; asignar un segundo nivel de captura para un segundo intervalo seleccionado en base a características predeterminadas del mismo indicando que el segundo intervalo seleccionado es relativamente menos probable que el primer intervalo seleccionado de que sea un nuevo segmento de interés; almacenar una firma correspondiente con el primer intervalo seleccionado en la base de datos y capturar al menos una de las señales de audio y vídeo de difusión almacenadas temporalmente correspondiendo con el primer intervalo seleccionado para su transmisión a un operario de la estación de trabajo para identificación de segmentos; almacenar una firma correspondiente con el segundo intervalo seleccionado en la base de datos; y borrar la almacenada temporalmente de las señales de audio y vídeo de difusión correspondiente con el segundo intervalo seleccionado.
Se proporcionan un sistema y un método para producir una firma que caracteriza un intervalo de señal de difusión para su uso en el reconocimiento de segmentos de difusión que tiene una base de datos de firmas, incluyendo la firma una pluralidad de palabras digitales caracterizando cada una un sub-intervalo respectivo de dicho intervalo de señal de difusión, comprendiendo los medios para y las etapas de, respectivamente, dividir el intervalo de la señal de difusión en una pluralidad de sub-intervalos; formar una pluralidad de palabras digitales caracterizando cada uno de dicha pluralidad de sub-intervalos; y seleccionar al menos una de la pluralidad de palabras digitales que caracteriza cada sub-intervalo en base a al menos uno de los siguientes factores: (a) una distribución de palabras digitales generadas previamente que caracterizan las señales de difusión; (b) una distribución de palabras digitales de firmas generadas previamente almacenadas en la base de datos de firmas; (c) una probabilidad de que al menos una de la pluralidad de palabras digitales que coincida con una palabra digital que caracteriza el sub-intervalo correspondiente bajo la redifusión del sub-intervalo; y (d) un grado de diferencia de señal entre el sub-intervalo correspondiente con al menos una de la pluralidad de palabras digitales y porciones adyacentes del intervalo de señal de difusión.
Se proporciona un sistema y un método para el reconocimiento de segmentos de difusión, que comprende los medios para y las etapas de, respectivamente, producir una firma para cada uno de la pluralidad de segmentos de difusión a reconocer; determinar una probabilidad, para cada firma producida de que tal firma producida coincida con una firma producida bajo la redifusión del segmento de difusión correspondiente y producir una probabilidad correspondiente en base a criterios para su uso en evaluar una coincidencia de la firma producida; almacenar cada firma producida y su probabilidad correspondiente en base a criterios para formar una base de datos; monitorizar un segmento de difusión; formar una firma que represente el segmento de difusión monitorizado; comparar la firma que representa el segmento de difusión monitorizado con al menos una firma almacenada en la base de datos para determinar una coincidencia de las mismas; y determinar si aceptar dicha coincidencia en base al criterio basado en la probabilidad correspondiente.
Se proporcionan un método y un sistema para el reconocimiento de segmentos de difusión, comprendiendo los medios para y las etapas de, respectivamente, producir una firma digital para cada uno de la pluralidad de segmentos de difusión a reconocer, incluyendo cada una de dichas firmas digitales una pluralidad de valores de bits que caracterizan el correspondiente de dicha pluralidad de segmentos de difusión; para cada firma digital producida, determinando un número probable de valores de bits de la misma que coincidirán con los valores de bit de una firma digital producida bajo la redifusión del correspondiente segmento de difusión y producir una probabilidad correspondiente en base al valor de coincidencia para su uso en determinar si cada una de dichas firmas digitales producidas coincide con una firma digital de un segmento de difusión recibido posteriormente; almacenar cada una de las firmas producidas y su probabilidad correspondiente en base al valor de coincidencia para formar una base de datos; monitorizar un segmento de difusión; formar una firma digital que tiene una pluralidad de valores de bit que representan el segmento de difusión monitorizado; comparar la firma digital que representa el segmento de difusión monitorizado con al menos una firma digital almacenada en la base de datos; y determinar si la firma digital que representa el segmento de difusión monitorizado coincide con al menos una firma digital utilizando la correspondiente probabilidad basada en el valor de coincidencia.
Finalmente, se proporcionan un sistema y un método para el reconocimiento de segmentos de difusión, que comprende los medios para y las etapas de, respectivamente, producir una firma para cada uno de la pluralidad de segmentos de difusión a reconocer; determinar una probabilidad, para cada una de las firmas producidas, de que tal firma producida coincida con una firma producida bajo la redifusión del correspondiente segmento de difusión; producir una firma adicional para cada uno de dicha pluralidad de segmentos de difusión a reconocer cuando dicha probabilidad de que dicha firma producida coincida con una firma producida bajo la redifusión del correspondiente segmento de difusión es menor de un valor predeterminado; almacenar cada firma producida para formar una base de datos; monitorizar un segmento de difusión; formar una firma que represente el segmento de difusión monitorizado; y comparar la firma que representa el segmento de difusión monitorizado con al menos una firma almacenada en la base de datos.
Otros objetos, características y ventajas de la presente invención se harán evidentes a partir de la siguiente descripción detallada de las realizaciones ilustrativas cuando se leen junto con los dibujos adjuntos en los que los componentes correspondientes se identifican con las mismas referencias numéricas.
Breve descripción de los dibujos
La Fig. 1 ilustra un sistema para monitorizar un flujo continuo de señales de difusión;
La Fig. 2 es un diagrama de uno de los sitios locales del sistema mostrado en la Fig. 1;
La Fig. 3 es un diagrama que ilustra los flujos de señal en el sitio local de la Fig. 2 durante una operación de emparejamiento;
La Fig. 4 es un diagrama usado para explicar un método para formar una firma de trama de vídeo;
La Fig. 5A y la Fig. 5B ilustran una porción de una trama de vídeo que tiene una condición de borde normal y una condición de borde desplazado, respectivamente;
La Fig. 6 es un diagrama al que se hace referencia en la explicación de la técnica de enmascaramiento anti-oscilación rápida;
Las Fig. 7A y 7B son diagramas de bloques que ilustran un sistema de generación de firmas de audio;
La Fig. 8 es un diagrama al que se hace referencia en la explicación del funcionamiento del conjunto de generación de firma de audio de las Fig. 7A y 7B;
La Fig. 9 es un diagrama de flujo para explicar una técnica de filtrado de ocurrencias;
La Fig. 10 es un diagrama para explicar una técnica de confirmación de emparejamiento.
La Fig. 11 es un diagrama que ilustra el flujo de señales en el sitio local de la Fig. 2 cuando se detecta un nuevo segmento de interés;
La Fig. 12 ilustra una secuencia de etapas realizadas en la detección de nuevos segmentos de interés de acuerdo con un primer modo de funcionamiento;
La Fig. 13 ilustra una secuencia de etapas realizadas en la detección de nuevos segmentos de interés de acuerdo con un segundo modo de funcionamiento;
La Fig. 14 ilustra una secuencia de etapas realizadas en la detección de nuevos segmentos de interés de acuerdo con un tercer modo de funcionamiento;
La Fig. 15 es un diagrama de árbol usado para describir el proceso ilustrado en la Fig. 14;
La Fig. 16 es un diagrama que ilustra los flujos de señales en el sitio local de la Fig. 2 durante la captura de los datos de audio y vídeo;
La Fig. 17 es un diagrama que ilustra los flujos de señales en el sitio local de la Fig. 2 durante la generación de firmas de claves; y
La Fig. 18 es un diagrama de flujo que ilustra las etapas realizadas en la generación de las firmas de clave.
Descripción detallada de las realizaciones preferidas
La Fig. 1 ilustra un sistema 10 para la monitorización de un flujo continuo de señales de difusión de televisión y proporcionan una información de reconocimiento a la que pueden aplicarse las realizaciones de la presente invención. Como se muestra en la misma, el sistema 10 generalmente comprende una sitio central 12, una o mas estaciones de trabajo 14 localizadas en el sitio central 12, y una o más sitios locales 16. Cada uno de los sitios locales 16 monitoriza la difusión en la región geográfica correspondiente.
El sitio central 12 comunica con cada uno de los sitios locales 16, por ejemplo, vía líneas telefónicas, para recibir los datos relativos a la detección de segmentos de difusión conocidos y los potencialmente nuevos, segmentos desconocidos, y para proporcionar firma de segmentos e información de detección correspondiente a los nuevos segmentos de difusión. El sitio central 12 compila los datos recibidos y formula los mismos dentro de un informe 13 que por ejemplo puede suministrarse a los anunciantes de difusión.
El sitio central 12 también suministra datos de difusión, por ejemplo, audio y vídeo, a las estaciones de trabajo 14 donde se identifican los segmentos nuevos y los desconocidos por operarios humanos y se asocian con un código de identificación. Si un sitio identifica una porción de una difusión como un nuevo segmento de interés (tal como un anuncio), cuando es de hecho alguna otra cosa (tal como un programa normal), se malgasta el tiempo del operario de la estación de trabajo para identificar los segmentos no deseados. También, si un segmento ya conocido no puede identificarse correctamente por el sistema 10, puede reportarse incorrectamente por el sitio central 12 a la estación de trabajo 14 como un segmento nuevo, malgastando además de este modo el tiempo del operario. El coste de emplear operarios es gasto corriente significativo. Consecuentemente, es deseable minimizar este gasto detectando con precisión nuevos segmentos de interés e identificando segmentos conocidos. La presente invención proporciona métodos mejorados y un aparato para el reconocimiento de la señal que consiguen una capacidad potenciada para identificar con precisión segmentos conocidos de interés así como la minimización de la necesidad de identificar potencialmente nuevos segmentos con la asistencia de los operarios de la estación de trabajo. De acuerdo con las realizaciones descritas de
la invención tales métodos mejorados y aparato se implementan en los lugares sitios locales 16 del sistema 10.
Cada sitio local 16 está adaptado para recibir una señal de difusión de radiofrecuencia desde, por ejemplo una antena 18 o una estación de fin de cabecera de un cable de televisión (no mostrado por motivos de simplicidad y claridad) y es capaz de reconocer e identificar los segmentos de difusión conocidos por fecha, hora, duración, canal y otras informaciones deseables. Los lugares locales 16 son también capaces de reconocer la ocurrencia de segmentos desconocidos, potencialmente nuevos, y de generar firmas de clave temporales para los mismos de modo que puede mantenerse un registro de tales ocurrencias pendientes de identificación del segmento por un operario de una estación de trabajo en el sitio central. Aunque el sistema 10 sólo ilustra tres sitios locales 16, el sistema no está limitado y puede utilizarse cualquier número de sitios locales. Similarmente el sistema 10 no está limitado a sólo dos estaciones de trabajo 14 como se muestra en la Fig. 1.
La Fig. 2 ilustra uno de los sitios locales 16 en forma de bloque. Como se muestra en la misma, cada sitio local 16 generalmente comprende una porción de extremo frontal 20 y una porción de extremo posterior 22. La porción de extremo frontal 20 incluye una o más convertidores de difusión de radiofrecuencia 24, un reconocedor de segmentos sobre el subsistema 26, un sensor 27 y un subsistema de captura de datos 28. El extremo posterior 22 incluye una computadora de control 30 y al menos un controlador de disco 32.
Cada uno de los convertidores de difusión de radiofrecuencia 24 recibe las señales de difusión de televisión sobre el canal respectivo y demodula las señales recibidas para proporcionar las señales de vídeo y audio banda base. Las señales de vídeo y audio se suministran más tarde al subsistema de reconocimiento de segmentos 26, en el que se generan las firmas de trama para cada una de las señales de vídeo y audio que se comparan más tarde con las firmas de clave almacenadas para determinar si existe una coincidencia. Por motivos de claridad, las firmas de vídeo y audio se denominan separadamente "sub-firmas" en este documento. El subsistema de reconocimiento de segmentos también produce también produce indicios que representan eventos de señal, tales como un desvanecimiento al negro del vídeo o un silenciamiento del audio. Las indicios así como la información de coincidencia se suministran a la computadora de control 30 para su uso en determinar si la señal recibida representa un nuevo segmento o anuncio de interés, determinando si capturar la información de vídeo o audio para su uso en el sitio central en la identificación de un nuevo segmento de interés, evaluando la validez de las coincidencias cuestionables, y para agrupar la información de coincidencia para su almacenamiento en una base de datos.
El sensor 27 está adaptado para monitorizar la temperatura de funcionamiento del extremo frontal 20 y, en el caso de que la temperatura de funcionamiento exceda una temperatura de funcionamiento máxima predeterminada, suministrar una señal de modo que se indica a la computadora de control 30. Más específicamente, el sensor 27 recibe la información de la temperatura relativa a los subsistemas 26 y 28 desde uno o más termopares 29 y procesa tal información de temperatura recibida para suministrar a la computadora 30, de modo que si se encuentran temperaturas excesivas, los subsistemas 26 y 28 se apagan.
El subsistema de captura de datos 28 recibe las señales de difusión de audio y vídeo desde los convertidores 24 por medio del subsistema de reconocimiento de segmentos 26 y comprimen y digitalizan los mismos. Las señales digitalizadas se almacenan en un almacenamiento contenido dentro del subsistema 28 durante un periodo de tiempo predeterminado, y se suministran a petición de la computadora de control 30.
La computadora de control 30 está adaptada para seleccionar firmas de clave, proporcionar información de coincidencia, procesar nuevos datos de segmentos y comunicar con el sitio central 12. El controlador de disco 32 proporciona una capacidad de almacenamiento masivo de datos para la información de ocurrencia de coincidencia, nueva información de anuncios y datos de audio/vídeo para su transmisión al sitio central 12.
La Fig. 3 ilustra el flujo de datos para una operación típica de emparejamiento. Como se muestra en la misma, uno de los convertidores 24 recibe un canal deseado de señales de difusión que se suministra como señales vídeo y audio banda base al subsistema de reconocimiento de segmentos 26. El subsistema 26 incluye una pluralidad de tarjetas de canal 402, uno por cada canal monitorizado por el sitio local 16, que sirve cada uno para generar la sub-firma de trama correspondiente y la palabra de máscara para cada trama de la señal de vídeo banda base. Además, cada tarjeta de canal genera una sub-firma de trama y una palabra de máscara para cada intervalo de la señal de vídeo correspondiente con una trama de la señal de vídeo y que tiene el mismo formato que las sub-firmas de vídeo y las palabras de máscara. Se aprecia que el uso de los correspondientes intervalos y formatos de datos para las sub-firmas de vídeo y audio facilita ventajosamente el procesamiento de los mismos. También se aprecia que las sub-firmas pueden producirse desde intervalos diferentes, tales como campos de vídeo o combinaciones de campos o tramas o de otra manera, y que las sub-firmas de vídeo y audio y las palabras de máscara no necesitan seguir el mismo formato. Las tarjetas de canal 402 también sirven para detectar señales de vídeo en base al desvanecimiento al negro en la recepción de al menos una trama o campo sustancialmente negro de la señal de vídeo banda base recibida, así como en los silenciamientos de audio, una reducción del nivel de la señal de audio banda base que representa silencio. Las tarjetas de canal 402 también sirven para detectar cambios de escenas de vídeo indicados por un cambio rápido en la señal de vídeo. Estos eventos de señalización, así como las sub-firmas de vídeo y audio y las palabras de máscara, producidas por la tarjeta de canal 402 se reciben por el controlador de reconocimiento de segmentos 404. Cada sitio local 16 está provisto con al menos un convertidor auxiliar 24 y una tarjeta de canal 402, de modo que si uno de los convertidores 24 y tarjetas de canal 402 fallaran en su funcionamiento, el controlador de reconocimiento de segmentos 404 genera un comando a una tarjeta de canal auxiliar y el convertidor asume a continuación las funciones del equipo no
operativo.
El controlador de reconocimiento de segmentos 404 comunica con el almacenamiento de anillo de firmas de segmento 406 para almacenar las firmas de segmentos recibidos nuevamente, esto es, las firmas de tramas dispuestas en secuencia y las palabras de máscara para cada canal, por un periodo de tiempo predeterminado que precede el instante actual. El controlador de reconocimiento de segmentos también comunica con un correlacionador 420 para suministrar comandos de coincidencia al mismo. El correlacionador 420 se alimenta también con las firmas de segmento apropiadas desde el almacenamiento de anillo de firmas de segmento 406 y las firmas de clave desde la base de datos de firmas de clave 408. El correlacionador 420 realiza la operación de emparejamiento solicitada y suministra los resultados de la coincidencia, junto con la información relevante (por ejemplo, la cuenta de errores correspondiente), al controlador de reconocimiento de segmentos 404. El controlador de reconocimiento de segmentos 404 suministra un informe de coincidencia por cada sub-firma de audio y vídeo y eventos de señalización al módulo de sistema experto 414 implementado por la computadora de control 30.
El sistema experto 414 evalúa cada informe de coincidencia recibido para decidir si es erróneo. En ciertas situaciones, el sistema experto 414 utiliza un proceso de confirmación de coincidencia en la evaluación del informe de coincidencia. En tal caso, el sistema experto suministra una solicitud de confirmación de coincidencia al módulo de confirmación de coincidencia 422 implementado también por la computadora 30 que, en respuesta al mismo, suministra una señal al controlador de reconocimiento de segmentos 404 solicitando la firma del segmento apropiada. En respuesta a tal petición, el controlador de reconocimiento de segmentos suministra la firma de segmento apropiada al módulo de confirmación de coincidencia 422. Además, el módulo de confirmación de coincidencia recibe la firma de clave apropiada desde la base de datos 412, mantenida por el módulo de control de la base de datos 416 del computador 30 bajo el control del sistema experto 414. Una vez completado el proceso de confirmación de coincidencia, el módulo de confirmación de coincidencia 422 suministra una señal de confirmación de coincidencia al sistema experto 414. En respuesta al mismo, el sistema experto 414 suministra información de emparejamiento, por ejemplo, datos de ocurrencia, a través del módulo de control de la base de datos 416 a la base de datos 412.
En ciertas situaciones, el sistema experto 414 puede suministrar datos de ocurrencia antes de recibir la respuesta de confirmación de coincidencia. Si en estas situaciones, el módulo de confirmación de coincidencias 422 determina que no existe una coincidencia aceptable, el sistema experto 414 suministra un señal de rescisión de coincidencia a través del control de la base de datos 416 a la base de datos 412 con lo cual la ocurrencia suministrada previamente se rescinde.
Generación de firmas de vídeo
Cada tarjeta de canal 402 produce firmas de trama de vídeo produciendo en primer lugar un vector diferencia 150 en la forma de una secuencia ordenada de elementos x_{1}, x_{2}, ...x_{16} por cada trama de vídeo de acuerdo la técnica ilustrada en la Fig. 4. Como se muestra en la Fig. 4 una trama 140 de una señal de vídeo incluye un región de pórtico posterior 141, una región de cuadro 142 y una región de pórtico frontal 143. El extremo izquierdo 146 de la región del cuadro 142 está definido por el borde derecho de la región de pórtico posterior 141, mientras que el borde derecho 147 de la región de cuadro 142 está definido por el borde izquierdo de la región del pórtico frontal 143.
\newpage
Se definen treinta y dos áreas predeterminadas de superpuntos de imagen 144 para cada trama, de los que se ilustran en la Fig. 4 dieciséis superpuntos de imagen de ejemplo. Cada área de superpunto de imagen 144 es rectangular e incluye, por ejemplo, entre 18 y 21 puntos de imagen en cada una de las 4 líneas horizontales adyacentes verticalmente del área del cuadro 142. Se selecciona una porción 144, como se describe con mayor más adelante en este documento, y se produce un valor de la luminancia media del mismo. Cada área de superpunto de imagen 144 está emparejada con otra área respectiva 144 como se indica por las líneas discontinuas 148 en la Fig. 4 para comparar los valores de luminancia media respectiva de los mismos. Cada uno de tales pares de valores de luminancia media respectiva se usan para producir el valor de un elemento correspondiente x_{n} del vector diferencia 150. Por ejemplo, el valor de luminancia media de la porción seleccionada del área del superpunto de imagen 144a se sustrae de la del área del superpunto emparejado 144b para producir el valor de un elemento correspondiente x_{n} del vector diferencia 150.
Después de esto, cada vector diferencia 150 está sujeto a una secuencia de transformaciones vectoriales descritas en este documento mas adelante que producen el vector transformado correspondiente de dieciséis elementos o vector resultante. A continuación se produce la firma de trama de dieciséis bits en la que cada bit es puesto a uno o a cero dependiendo del signo del elemento correspondiente del vector resultante. Además, el valor de cada elemento del vector resultante se examina para determinar si (1) su valor absoluto es menor que un valor de la banda de guarda, o (2) es susceptible a oscilación rápida (como se explica más adelante). Si se obtiene cualquiera de las condiciones (1) o (2), entonces el bit de máscara correspondiente de la palabra de máscara de 16 bits respectiva se pone a uno.
Detección del Borde de Vídeo
Con referencia de nuevo a la Fig. 4, se apreciará que las posiciones de las áreas de superpuntos de imagen 144 deben determinarse con precisión con respecto al borde de la región de cuadro 142 de modo que los puntos de imagen de cada porción usados para producir los valores de luminancia media respectiva corresponden de trama a trama. Las señales de vídeo de anuncios de televisión se reciben a menudo con un desplazamiento horizontal respecto a su posición normal o normalizada. El desplazamiento horizontal encontrado más frecuentemente es un desplazamiento a la derecha como se determina viendo un receptor de televisión que resultaría en un desplazamiento a la derecha del borde 146 del área del cuadro 142 en la Fig. 4. Aunque pueden ocurrir los desplazamientos horizontales a la izquierda, tales desplazamientos, ocurren significativamente menos frecuentemente que los desplazamientos a la derecha. Aunque la mayoría de los desplazamientos horizontales o desviaciones no son típicamente lo suficientemente grandes para detectarse por el espectador, estos desplazamientos pueden afectar a la generación de firmas de trama desplazando el borde de cada área del cuadro de la trama de vídeo 142, desplazando por lo tanto las porciones de los superpuntos de imagen usados en la generación de firmas. Si no se compensa, este efecto degradará la capacidad del sistema 10 de producir firmas de trama con fiabilidad y, de este modo, afectar adversamente la precisión global del sistema.
Se proporciona un módulo de detección de borde de vídeo, implementado por cada una de las tarjetas de canal 402 de la Fig. 3, para detectar un desplazamiento en el borde de la región del cuadro 142 de la señal de vídeo recibida. Como se ha mencionado previamente, se ha observado que los desplazamientos horizontales a la derecha ocurren más frecuentemente, al describir el módulo de detección del borde del vídeo, se asumirá que ha ocurrido un desplazamiento horizontal a la derecha. No obstante, la presente invención no está limitada y puede utilizarse para desplazamientos horizontales a la izquierda.
La Fig. 5A ilustra una trama de vídeo que tiene una posición del borde normal o estándar. Como se muestra en la misma la trama de vídeo incluye una porción de pórtico posterior, una porción de cuadro y una porción de pórtico frontal. La Fig. 5B ilustra una trama de vídeo que tiene un desplazamiento horizontal a la derecha, en la que tal desplazamiento incrementa el tamaño de la porción del pórtico posterior y disminuya el área del cuadro en la cantidad correspondiente.
El módulo de detección del borde de vídeo sitúa al menos un superpunto de imagen de detección de borde 100, que es un área de muestreo rectangular, a través de la frontera entre el área de cuadro y el área del pórtico posterior, como se muestra en las Fig. 5A y 5B de modo que el superpunto de imagen 100 incluye la posición del borde normal así como las regiones de cuadro adyacentes a las que puede desplazarse el borde. Se procesan los datos de vídeo desde dentro de tales superpuntos de imagen de detección de bordes 100 para determinar la posición del borde izquierdo del área del cuadro. Cada superpunto de imagen de detección de borde 100 tiene ventajosamente el mismo área que cada una de las áreas de superpuntos de imagen 104, que preferiblemente tiene un tamaño d aproximadamente18 a 21 puntos de imagen de longitud por 4 puntos de imagen de altura. Como tal, cada superpunto de imagen de detección de borde 100 contiene porciones de más de una línea de vídeo. Cada una de estas líneas de vídeo dentro del superpunto de imagen 100 proporciona datos sobre la posición del borde izquierdo del cuadro. En una realización ventajosa, las posiciones del borde izquierdo obtenidas de cada línea en todas las áreas de superpuntos de imagen de detección de borde 100 se combinan para producir una posición estimada para el borde izquierdo del área de cuadro. De modo que combinando todos los datos de posición del borde izquierdo, se obtiene una estimación más fiable del borde izquierdo en comparación con la derivada de usar sólo una única línea de información de posición del borde que puede estar influenciada adversamente por ruido en la señal de vídeo.
De este modo, el borde izquierdo del cuadro se obtiene combinando los valores del borde izquierdo obtenidos para cada una de las líneas de datos de vídeo en todas las áreas de superpuntos de imagen de detección de borde 100. Al determinar el borde izquierdo del cuadro de este modo, es preferible descartan los valores extremos obtenidos de las líneas de datos de vídeo y promediar los valores restantes. En una realización preferida, los dos valores más bajos así como el valor más alto para el borde izquierdo del cuadro se consideran extremos y, como tal, se descartan. Como el ruido de la señal es más propenso para que resulte un valor bajo, se descartan más valores bajos para el borde izquierdo.
Como se ha mencionado previamente, hay 32 áreas de superpuntos de imagen 144 asociados con cada trama de la señal de vídeo. Dentro de cada una de estas áreas de superpuntos de imagen 144 hay un área de muestreo 102. Esta área de muestreo, 102 es el área desde el que se extraen los datos de vídeo para su uso en la generación de la firma de trama respectiva. Por ejemplo, la Fig. 5A ilustra la posición del área de muestreo 102 dentro del área del superpunto de imagen 144 para una trama que tiene una condición de borde normalizado. Cuando el área del superpunto de imagen 144 mide entre 18 y 21 puntos de imagen por cuatro líneas, las áreas de muestreo se seleccionan ventajosamente para que midan 4 puntos de imagen por 4 líneas. Cuando se detecta un desplazamiento horizontal en el borde izquierdo del cuadro como se ha tratado previamente, los efectos de tal desplazamiento sobre el área de muestreo 102 pueden compensarse cambiando el área de muestreo 102 de acuerdo con el desplazamiento horizontal detectado como se muestra en la Fig. 5B. Esto es, si el borde izquierdo del cuadro se determina que está desplazado hacia la derecha en N puntos de imagen desde la posición normal, entonces el área de muestreo 102 se desplaza también a la derecha en N puntos de imagen.
En una realización preferida, el módulo de detección del borde de vídeo usa preferiblemente un número mínimo predeterminado de líneas de datos de vídeo (por ejemplo, aproximadamente 6-8) de las áreas de superpuntos de imagen de detección de borde 100 para localizar del borde izquierdo del área del cuadro. No obstante, cuando la porción del área del cuadro adyacente al pórtico posterior es relativamente oscuro, puede se difícil localizar con precisión el borde izquierdo del área del cuadro de cualquiera de las líneas de los datos de vídeo contenidos dentro de todas las áreas de superpuntos de imagen de detección de borde 100. En esta situación, se usa un valor por defecto predeterminado para el borde izquierdo del área del cuadro.
Si la desviación horizontal se extiende más allá de las áreas de superpuntos de imagen de detección de borde 100 de modo que el borde izquierdo del cuadro queda fuera de las áreas 100, entonces el módulo de detección de borde del vídeo considera que el borde izquierdo no se ha encontrado. En esta situación, se usa el valor por defecto predeterminado que se ha mencionado anteriormente. Además, en algunos casos, puede detectarse un desplazamiento horizontal que es mayor que el que puede compensarse, esto es, el área de muestreo 102 no puede desplazarse una cantidad correspondiente a la desviación horizontal. En esta situación, el área de muestreo 102 se desplaza la máxima cantidad posible.
Para determinar el borde izquierdo del borde del área del cuadro para cada línea de vídeo, el módulo de detección del borde de vídeo explora las muestras de los puntos de imagen de izquierda a derecha buscando un salto o incremento en el valor de la luminancia de más de una cantidad predeterminada entre un punto de imagen respectivo y el punto de imagen que está localizado dos puntos de imagen a la derecha del punto de imagen respectivo. Si se detecta tal salto, se determina entonces la diferencia en los valores de luminancia entre el punto de imagen que se está testando actualmente y el punto de imagen tres puntos de imagen a la derecha para asegurar que el incremento en el valor de luminancia es de nuevo igual al valor predeterminado para filtrar los picos de ruido. Además, examinando puntos de imagen que están localizados dos puntos de imagen a la derecha del punto de imagen que se está testando, en lugar de testear puntos de imagen adyacentes, puede detectarse un borde que de lo contrario sería indetectable cuando se testean puntos de imagen adyacentes. Esto es, en escenas de vídeo relativamente oscuras, la pendiente (diferencia) de los valores del borde del cuadro es menor que en escenas relativamente brillantes.
El módulo de detección de borde de vídeo puede situar el borde izquierdo del cuadro uno o dos puntos de imagen antes de que el borde realmente ocurra. Esto no presenta problema ya que el módulo de detección de borde de vídeo corrige diferencias entre posiciones del borde izquierdo para diferentes difusiones y no necesita detectar una posición de borde absoluta.
De este modo, el módulo de detección de borde de vídeo mejora la precisión del sistema posibilitando obtener firmas de trama de vídeo fiables de la señal de vídeo recibida. Además, el módulo de detección de borde de vídeo compensa las desviaciones horizontales sin requerir ningún hardware adicional en el sitio local 16.
Preprocesamiento del Vídeo
Se ha observado que ciertos valores de las firmas de trama de vídeo ocurren mas frecuentemente que otros valores de firmas de trama de vídeo de modo que las firmas de trama de vídeo tienden a concentrarse juntas en ciertos valores (a veces denominados como "aglutinaciones" en este documento). Tales aglutinaciones de las firmas de trama de vídeo pueden presentar varios problemas. En primer lugar, una firma de trama de vídeo que se produce frecuentemente, denominada "firma de aglutinación", es probable que se seleccione como palabra clave. Como resultado, esta palabra clave o firma de aglutinación puede tener un gran número de firmas de clave asociadas con ella. Como el correlacionador 420 del sistema de reconocimiento de segmentos 26 busca todas las firmas de clave que corresponden a una palabra clave respectiva, las firmas de aglutinación pueden incrementar enormemente el tiempo de procesamiento del correlacionador. Como resultado, esto puede limitar la cantidad de datos que pueden almacenarse dentro de la base de datos del sitio local 16 y/o el número de canales de difusión que pueden procesarse. En segundo lugar, el aglutinamiento puede causar un incremento en falsos emparejamientos. Esto es, como el número de firmas que están asociadas con una palabra clave de firma de aglutinamiento incrementa, más próximos pueden venir entre sí los patrones de bits de estas firmas. Como resultado, si ocurre un ligero cambio en una firma de segmento debido, por ejemplo, al ruido de la señal o una oscilación rápida, el correlacionador 420 puede reportar una coincidencia de modo impreciso.
El aglutinamiento puede considerarse que causa una reducción en la cantidad real de información en una firma. Por ejemplo, en la situación en la que todas las firmas de trama de vídeo son iguales, el valor de cada firma se conoce de antemano. Por lo tanto, en esta situación, el valor de la firma de la trama de vídeo próxima puede describirse por cero bits. En el otro extremo, esto es, cuando las firmas de trama de vídeo son completamente aleatorias de modo que tienen una distribución uniforme de valores, se necesitan todos los bits dentro de la firma para identificar la firma respectiva.
Tal aglutinamiento puede reducirse o minimizarse incrementando la uniformidad de la distribución de las firmas de trama. Por ejemplo, si las firmas de trama de vídeo estuviesen distribuidas uniformemente, cada firma ocurriría con igual frecuencia. Cada una de las tarjetas de canal 402 del subsistema de reconocimiento de segmentos 26 (Fig. 15) preprocesa la señal de vídeo de entrada para producir firmas de trama de vídeo que están distribuidas más uniformemente. Esto es, la tarjeta de canal 402 transforma la señal de vídeo de entrada utilizando una transformación vectorial que, a su vez, utiliza datos estadísticos pertenecientes a información relevante de aglutinamiento para reducir o minimizar el aglutinamiento de las firmas de las tramas de vídeo reduciendo la correlación entre las bits de cada trama, lo que resulta en una distribución más uniforme de firmas. El procesamiento de transformación vectorial realizado por las tarjetas de canal 402 se describirá ahora con más detalle.
En una realización ventajosa de la invención, se emplea la transformación Hotelling para realizar una transformación vectorial del vector diferencia 150 de la Fig. 4 que se denomina x en este documento en adelante y que incluye dieciséis elementos ordenados (x_{1}, x_{2}, ... x_{16}) que resulta en una reducción de la covarianza entre los elementos x_{1}, x_{2}, ... x_{16} de x. La transformada Hotelling puede expresarse como sigue:
y = A(x - m)
en donde x representa el vector diferencia 150, m es un vector que representa los valores medios de los elementos de x, A representa una matriz de transformación e y es un vector que representa el vector transformado de x. Una vez que se ha producido el vector transformado y, se obtiene del mismo la firma de trama convirtiendo el signo de cada elemento del vector y en el respectivo valor de bit de la firma de trama. Esto es, a los elementos positivos del vector y se asigna un valor binario uno, mientras que a los elementos negativos se asigna el otro valor binario.
Cada elemento en el vector transformado y puede expresarse como sigue:
y (i) = S[A(i, j)*(x(j) - m(j))],
\hskip0.5cm
j = 0 a 15
La covarianza de y puede expresarse como sigue:
[C_{y}] = yy'
\quad
= [A(x - m)] [A(x - m)]'
\quad
= A(x - m) (x - m)'A'
\quad
= A(C_{x})A'
en donde (') representa el transpuesto del vector respectivo. Si las filas de la matriz A se seleccionan como vectores característicos de la matriz C_{x} (la covarianza de x) la matriz C_{y} es diagonal. Como resultado de tal selección, los bits de la firma de trama formada de nuevo (Fig. 10), que se deriva de y, no están correlacionados. No obstante, aunque los bits contenidos dentro de la firma de trama no están correlacionados, pueden no ser estadísticamente independientes. No obstante, su interdependencia entre sí se reduce.
En una realización preferida de la presente invención, se asume que la matriz de transformación A es constante. Esta suposición implica que la señal de vídeo de entrada es un proceso estacionario en el sentido amplio de modo que los valores para C_{x} y m son constantes.
Para determinar el valor de la matriz de transformación A, se utilizan los valores para los vectores m y [C_{x}]. Estos valores pueden obtenerse como sigue:
(4)m = (1/N) S(x),
\hskip0.5cm
j = 1 a N
y
j = N
(5)[C_{x}] = [1/N)S(xx')] - mm'
j = 1
en donde N representa el número de muestras de x que se emplean para determinar los valores de m y de [C_{x}]. Una vez determinado el valor de [C_{x}], puede obtenerse la matriz de transformación A determinando los vectores característicos de [C_{x}].
Para minimizar la susceptibilidad a la oscilación rápida de las tramas, se calcula la firma de trama un número predeterminado de veces y se comparan las firmas obtenidas por las diferencias entre ellas. Esto es, en una realización preferida, la firma de trama se determina como si hubiesen ocurrido los desplazamientos horizontales en la trama de vídeo asociada de -1, 0 y +1puntos de imagen. Si un bit o bits en estas tres palabras de firma varían entre sí, entonces el bit o bits de la máscara correspondiente se ponen a uno. Además, si el valor de la diferencia transformada está relativamente próximo a cero, el bit de máscara correspondiente al mismo se pone a uno.
Si se aplica el proceso de transformación Hoteling a la señal de vídeo como se ha descrito anteriormente, puede que las firmas de aglutinación relativamente grandes no se disgreguen tan finamente como se desea. Esto es, como la covarianza usada en este proceso se basa en los datos de vídeo de todas las tramas de vídeo de entrada, mientras que las tramas que tienen firmas de aglutinación cuentan para sólo un porcentaje relativamente pequeño de todas las tramas, la contribución efectiva a la covarianza de las tramas que tienen firmas de aglomeración puede ser pequeña. Una aproximación a una disgregación mas efectiva de estas concentraciones relativamente grandes de firmas de trama es utilizar transformaciones separadas para los grupos de tramas que tienen valores de firmas similares y que ocurren con una frecuencia mayor que la frecuencia media que se denominan en lo sucesivo en este documento como "aglutinaciones". Tal transformación también disgregará eficazmente las aglutinaciones asociadas con firmas que tienen valores que son de bits opuestos a las asociadas con la aglutinación original.
El uso de un proceso de transformación único incrementa la uniformidad de la distribución de firmas de trama y, como resultado, el número de tramas de vídeo asociadas con los valores de firmas de tramas respectivas están más próximos al número medio de firmas de trama obtenidas utilizando el proceso de transformación y tienen una tasa de coincidencia aceptable más alta asociada con las mismas en comparación con las firmas obtenidas sin transformación.
Por el contrario, el uso de transformaciones diferentes para valores de firmas diferentes o rangos de valores de firmas puede incrementar la uniformidad la distribución de firmas de tramas incluso sobre las obtenidas usando una transformación única. Más específicamente, cuando se usan tales transformaciones múltiples, las palabras de firmas entrantes se clasifican por tipos como pertenecientes a una aglutinación o no pertenecientes a una aglutinación, esto es, una concentración de ocurrencias de firmas de trama (o mayor frecuencia de ocurrencias) en cierto valor de firma o rango de valores. Esta clasificación por tipos se realiza determinando la distancia, por ejemplo, la distancia Hamming, de una firma de trama entrante desde una plantilla modelo. La distancia Hamming se refiere al número de bits que son diferentes entre dos palabras binarias y la plantilla modelo contiene la firma de trama o firmas que representan el centro de una aglutinación. Si la firma de trama entrante queda dentro de una distancia Hamming predeterminada o número de bits de las firmas de tramas de la plantilla modelo, la firma respectiva se transforma usando una transformación apropiada de la pluralidad de transformaciones. Una distancia Hamming de uno o de dos bits respecto a la plantilla modelo proporciona una distribución de firmas mejorada, prefiriéndose con una distancia de dos bits.
Cuando una trama recibida produciría una firma que tiene un valor que queda en la frontera de valores producidos por las diferentes transformaciones, es importante que la transformación empleada obtenga una firma que coincida con la de la misma trama si se recibe posteriormente. Para evitar susceptibilidades a la influencia del ruido que podría resultar en la producción de diferentes firmas para la misma trama recibida en momentos diferentes, en tales casos límite las firmas de trama se producen usando ambas transformaciones con lo cual los bits de máscara se ponen a uno en cada palabra de máscara correspondiente para cualesquiera bits correspondientes en las firmas producidas por las diferentes transformaciones que difieren entre sí. Consecuentemente realizando una transformación vectorial del vector diferencia que representa la información del contenido de una trama, es posible reducir la correlación entre los elementos del mismo mejorando la uniformidad de la distribución de firmas de tramas que por el contrario se concentrarían alrededor de ciertos valores. Una técnica particularmente ventajosa emplea una transformación Hotelling para reducir la covarianza entre los elementos del vector, de modo que se reduce por lo tanto su
correlación.
Enmascaramiento Anti-Oscilaciones Rápidas
Se implementa un módulo de enmascaramiento anti-oscilaciones rápidas por cada tarjeta de canal 402 y se adapta para producir firmas de trama de vídeo menos sensibles a los desplazamientos horizontales y verticales en el cuadro de vídeo que puede variar de difusión a difusión. Tales desplazamientos horizontales y verticales pueden deberse a inestabilidades de temporizaciones hardware o la inestabilidad en la señal de vídeo transmitida.
Más específicamente, el módulo de enmascaramiento anti-oscilaciones rápidas compensa desplazamientos de periodos cortos tanto horizontales como verticales conocidos como oscilaciones rápidas y/o desplazamientos sistemáticos que pueden estar causados por el hardware de transmisión o por el hardware de recepción. Como se aprecia, los desplazamientos sistemáticos pueden compensarse también por el módulo de detección de borde, como se ha descrito previamente.
Como se ha descrito previamente, se generan para cada trama de vídeo tanto una palabra de firma de 16 bits como la correspondiente palabra de máscara de 16 bits. Cada bit en la palabra de máscara corresponde a un bit en la palabra de firma. Poniendo a uno un bit en la palabra de máscara, las porciones del sistema 10 (Fig. 1) que utilizan la firma de trama de vídeo están advertidas eficazmente de que el bit correspondiente en la firma de la trama de vídeo no debe considerarse fiable. Por ejemplo, esta advertencia se usa al seleccionar la palabra clave y palabras de coincidencia para una firma de clave y fijando el umbral de error para encontrar una coincidencia usando una firma de clave determinada. Además, como se espera que los errores que ocurran en los bits en una palabra de firma de trama que corresponden a los bits puestos a uno en la palabra de máscara, esta advertencia también se utiliza en el correlacionador 420 del subsistema de reconocimiento de segmentos 26 para determinar las cuentas de errores n en el proceso de coincidencia.
El módulo de enmascaramiento anti-oscilación rápida produce sumas respectivas de los valores de luminancia de los puntos de imagen de cada área de superpunto de imagen y un número predeterminado de áreas de superpuntos de imagen adyacentes (por ejemplo cuatro). En una realización ventajosa, las áreas de superpuntos de imagen adyacentes incluyen un área que está desplazada hacia arriba y hacia izquierda del área del superpunto de imagen respectivo, un área que está desplazada hacia arriba y hacia la derecha del área del superpunto de imagen respectivo, un área que está desplazada hacia abajo y hacia la izquierda del área del superpunto de imagen respectivo, y un área que está desplazada hacia abajo y hacia la derecha del área del superpunto de imagen respectivo. Desde cada uno de estas cinco áreas de superpunto de imagen, esto es, el área de superpunto de imagen respectivo y las cuatro áreas de superpuntos de imagen desplazados, se producen las sumas de los valores de luminancia de los puntos de imagen contenidos dentro de las áreas. Se obtienen valores similares para las otras 31 áreas de superpuntos de imagen contenidas dentro de cada trama de vídeo para producir cuatro conjuntos de treinta y dos valores cada uno para el correspondiente grupo desplazado de áreas de superpuntos de imagen. Posteriormente, se generan cinco firmas de trama de vídeo, esto es, una utilizando los 32 superpuntos de imagen no desplazados y cuatro utilizando cada uno de los cuatro conjuntos de las 32 superpuntos de imagen desplazados. La Fig. 6 ilustra este proceso de ejemplo realizado para un superpunto de imagen. En la Fig. 6, el superpunto de imagen principal 120, que tiene un tamaño de cuatro puntos de imagen de anchura por cuatro puntos de imagen de altura, se desplaza en el modo descrito anteriormente en dos puntos de imagen en dirección vertical y dos puntos de imagen en dirección horizontal. Esto es, el área del superpunto de imagen 122 está localizada desplazando un área de muestreo dos puntos de imagen hacia arriba y dos puntos de imagen hacia la izquierda desde el superpunto de imagen principal 120. Similarmente, las áreas de superpuntos de imagen 124, 126 y 128 se obtienen también desplazando el área de muestreo en dos puntos de imagen hacia abajo y hacia la izquierda, en dos puntos de imagen hacia abajo y hacia la derecha y en dos puntos de imagen hacia arriba y hacia
la derecha.
Si cualquier bit en las firmas de trama de vídeo correspondientes a las cuatro áreas de superpuntos de imagen desplazadas difiere de la firma de trama de vídeo obtenida del área de superpunto de imagen no desplazado (principal), entonces ese bit se considera que es sensible a la oscilación rápida con lo cual el bit de máscara que corresponde que corresponde a ese bit se pone a uno. Se aprecia que, examinando de este modo cada uno de estas áreas de superpuntos respectivas, el módulo de enmascaramiento anti-oscilación rápida determina si el valor de un bit particular contenido dentro de la palabra de firma de la trama de vídeo cambiaría si hubiese un desplazamiento en el cuadro de vídeo que correspondiese al desplazamiento usado para obtener el superpunto de imagen desplazado.
La cantidad en la que se desplaza el superpunto de imagen 120 de la Fig. 6 en las direcciones vertical y horizontal puede variarse. Para algunas extensiones, cuanto más grande es el desplazamiento en las direcciones vertical y horizontal del superpunto de imagen 120, mayor es el desplazamiento en las direcciones vertical y horizontal de la señal de vídeo que puede compensarse por el módulo anti-oscilación rápida. No obstante, un desplazamiento relativamente grande de un área de superpunto principal 120 en las direcciones vertical y/o vertical puede resultar en un número de bits relativamente grande a poner a uno en la palabra de bits de máscara. Se aprecia que, si se fija a uno un número de bits demasiado grande en la palabra de máscara, la firma de trama correspondiente contiene información casi sin sentido. Por ejemplo, si el superpunto de imagen principal 120 está desplazado una cantidad relativamente grande en las direcciones horizontal y/o vertical, los resultados obtenidos del mismo indicarían que la mayor parte sino todos los bits son sensibles a la oscilación rápida. Como se ha descrito previamente, en una realización de la presente invención cada superpunto de imagen principal 120 se desplaza dos puntos de imagen en dirección horizontal y dos puntos de imagen en dirección vertical. En otra realización ventajosa de la presente invención, cada superpunto de imagen 120 está desplazado un punto de imagen hacia la derecha y hacia la izquierda en la dirección horizontal pero sin desplazamiento vertical.
De este modo, el módulo de enmascaramiento anti- oscilación rápida pone a uno los bits dentro de la palabra de bits de máscara para los bits correspondientes contenidos dentro de cada firma de trama de vídeo que puede ser sensible a la oscilación rápida o desviaciones. Además, el módulo de enmascaramiento anti-oscilación rápida, como el módulo de detección de borde, se incluye en primer lugar en el programa de software del subsistema de reconocimiento de segmentos 26 y, como tal, requiere un costo mínimo para implementar en cada uno de los sitios locales 16.
La técnica de enmascaramiento anti-oscilación rápida se realiza preferiblemente en combinación con una técnica de enmascaramiento de banda de guarda en la que el bit de máscara para un bit de firma de trama determinado se enmascara si el valor absoluto de la diferencia entre los valores de la luminancia media de las dos áreas de superpuntos de imagen correspondientes es menor que un valor de banda de guarda predeterminado. Por ejemplo, si los valores de la luminancia para una señal de vídeo determinada están digitalizados dentro de una escala de cero a 256, puede seleccionarse como ejemplo un valor de banda de guarda 64. Si el bit de máscara de un elemento del vector correspondiente se pone a uno, el bit de máscara del bit de la firma respectiva se pone a uno. Esto es, el bit de máscara de cualquier bit de firma determinado se pone a uno si el enmascaramiento de banda de guarda o el enmascaramiento anti-oscilación rápida ponen a uno tal bit de la máscara.
Generación de firmas de audio
Con referencia a la Fig. 7A, las firmas de audio se generan por el conjunto de generación de firmas de audio 250 ilustrado en la misma incorporado en cada una de los tarjetas de canal 402 (Fig. 3) para cada canal de difusión de los datos de audio que se van a monitorizar. El conjunto de generación de firmas de audio 250 generalmente comprende un acondicionador de señal de audio y circuito de muestreo 202, una conversión A/D y un circuito de almacenamiento de entrada 204, un módulo de transformación y extracción de firmas 206 y un circuito de salida 208. Más específicamente, se suministra al circuito 202 la señal de audio banda base de un canal de difusión. En una realización preferida, la señal de audio banda base se filtra en paso bajo por el circuito 202 para satisfacer el criterio de Nyquist y para enfatizar el contenido de la seña de voz sobre la música y otros sonidos, lo que simplifica el procesamiento y los requisitos de memoria sin sacrificar el contenido de información necesario, ya que la abrumadora mayoría de señales de audio de televisión contiene voz humana. La señal limitada en banda se suministra desde el circuito 202 al circuito 204 para su conversión en formato digital. El audio digitalizado se suministra desde el circuito 204 al módulo de transformación y extracción de firma 206 que utiliza un proceso de Transformada de Fourier Rápida (FFT) para generar firmas de trama de audio y las correspondientes palabras de máscaras. La firmas de audio y las palabras de máscara se suministran al circuito de salida 208 para su conversión a una forma adecuada para la salida desde el subsistema de reconocimiento de segmentos 26. En la Fig. 7B se muestra con más detalle el conjunto de generación de firmas de audio 250 que se describirá a continuación.
Como se muestra en la Fig. 7B, el conjunto de generación de firma de audio 250 incluye una porción analógica (que contiene el acondicionador de la señal de audio y el circuito de muestreo 202) y una porción digital (que contiene los circuitos 204 y 208 y el módulo 206). El circuito 202 comprende un circuito de control de ganancia automático (AGC) 254, un filtro de conmutación de condensadores 256 y un circuito de muestreo y retención 258. Más específicamente, se suministra la señal de audio banda base desde un canal de difusión al circuito de control de ganancia automático 254 (AGC) para mantener un nivel de potencia de audio relativamente uniforme. Esto es, como el procesamiento de la Transformada Rápida de Fourier (FFT) acumula potencia de audio durante el normal procesamiento, es deseable impedir que la potencia de entrada del audio se haga relativamente grande para impedir el recorte de la señal procesada FFT de salida. La señal de salida del circuito AGC 254 se suministra al filtro de conmutación de condensadores 256 que, en una realización preferida, es un filtro paso bajo que tiene una caída de 3 dB a la frecuencia de aproximadamente 3200 Hz, ya que el espectro de densidad de potencia para la voz cae rápidamente a frecuencias por encima de 3 kHz. La señal de salida del filtro de conmutación de condensadores 256 se suministra para la captura de la señal de audio (descrita en este documento más adelante) y se suministra además a través del circuito de muestreo y retención 258 a la conversión A/D y el circuito de almacenamiento de entrada 204. Se aprecia que en la alternativa, pueden suministrarse las señales de audio sin filtrar para la captura de la señal de audio.
El circuito 204 comprende un convertidor analógico-digital 260 y un almacenamiento de primero en entrar primero en salir (FIFO) 262. La señal de salida del circuito de muestreo y retención 258 se suministra al convertidor analógico-digital 260 que recibe una señal de temporización o señal de muestreo, que se deriva de una señal de pulso de sincronización horizontal de vídeo, desde el circuito de temporización 266. En una realización preferida, la señal de muestreo tiene una frecuencia de aproximadamente 15.260 Hz. Como resultado, el convertidor 260 muestrea los datos de audio recibidos con una tasa de muestreo de aproximadamente 15.260 Hz. La salida del convertidor 260 se suministra al circuito de almacenamiento FIFO 256. La salida del circuito FIFO 262 se suministra al procesador de señal digital de audio 264 incluido en el módulo de transformación y extracción de firma 206. El procesador de señal digital 264 sirve para procesar los datos de audio recibidos para crear firmas de audio y las firmas de máscaras correspondientes cuyo formato de datos y temporización corresponde con el de las firmas de trama de vídeo y las palabras de máscara para simplificación del procesamiento adicional. Las señales de temporización para el procesador de señal digital 264 se suministran desde el circuito de temporización 266. La señal de salida desde el procesador de señal digital 264, que incluye las firmas de audio y las correspondientes palabras de máscara, se suministran al circuito de salida 208.
El circuito de salida 208 comprende un circuito de almacenamiento primero en entrar primero en salir (FIFO) 268, un microprocesador 270, una RAM de doble puerto 272 y un circuito de interfaz 274. La señal de salida del procesador de señal digital 264 se suministra a través del almacenamiento primero en entrar primero en salir (FIFO) 268 al microprocesador 270. Como las tasas de procesamiento asociadas con el procesador de señal digital 264 y el microprocesador 270 pueden diferir, el circuito FIFO 268 almacena los datos del procesador de señal digital para suministrarlos al microprocesador. El microprocesador 270, que puede ser un Intel 80188, sirve para extraer los datos de la firma de audio y de la palabra de máscara recibidos del circuito FIFO 268 en intervalos predeterminados. Estos datos extraídos se suministran después a través del circuito RAM de doble puerto 272 al circuito de interfaz 274. Como la señal de datos de salida desde la microprocesador 80188 270 tiene un formato de 8 bits mientras que el circuito de interfaz 274 está diseñado para transferir señales de datos que tienen un formato de 16 bits, el circuito RAM de doble puerto 272 almacena los datos recibidos de 8 bits para sacar datos de 16 bits de los mismos.
A continuación se describirá más enteramente el procesamiento realizado por el procesador de señal digital 264 para crear las firmas de audio y las firmas de máscara correspondientes.
El procesamiento realizado por el procesador de señal digital 264 está sincronizado con los campos de vídeo correspondientes de modo que se repite una secuencia de procesamiento completa cada trama de vídeo. Más específicamente, el procesador de señal 264 transforma 256 palabras de datos de audio recibidos desde el circuito FIFO 262 en 128 puntos de datos complejos promediando las palabras adyacentes de las 256 palabras y fijando las palabras imaginarias a cero. Esto reduce la tasa de datos a aproximadamente 7.600 muestras digitales por segundo. Se apreciará que la tasa de datos de entrada para el procesamiento FFT satisface el requisito de la frecuencia mínima de muestreo de modo que se evita el solapamiento. Se obtiene un 50% de solapamiento en la Transformada Rápida de Fourier usando 128 puntos de datos complejos que se generaron para el campo previo junto con los nuevos 128 puntos de datos complejos para el campo actual. Este solapamiento de datos tiene el efecto de permitir una contribución aceptable de todos los puntos de datos dentro de la ventana incluyendo los puntos de la frontera.
Con referencia a la Fig. 8, que ilustra en general la secuencia de etapas del procesamiento realizadas por el microprocesador 264, los puntos de datos complejos anteriores se generan por un módulo de entrada 300 y después el módulo de ventana 302 multiplica los puntos de datos complejos por los coeficientes de ventana, que en una realización preferida efectúa un proceso de ventanas Hannig o coseno al cuadrado. En tal proceso de ventanas de coseno al cuadrado, la amplitud de las muestras de señal de audio se multiplica por un factor que es proporcional al cuadrado del coseno del ángulo que corresponde con una posición en el tiempo de la muestra respectiva dentro del intervalo de trama correspondiente. Tal multiplicación reduce la presencia de picos de señal en ambos extremos del intervalo de trama e inyecta un grado de periodicidad dentro de la señal de audio para mejorar los resultados del procesamiento FFT. Más específicamente, como el procesamiento de la Transformada Rápida de Fourier está diseñado en primer lugar para su uso con señales periódicas, si la señal que se está transformando no es sustancialmente periódica, la señal transformada puede diseminarse incorrectamente a través de varias bandas de frecuencias. El procesamiento de los puntos de datos complejos con coeficientes de ventana, tales como los asociados con una ventana de coseno al cuadrado, minimiza la tendencia de la señal a tal diseminación. El proceso de promediado de datos que se ha descrito previamente y el proceso de solapamiento, junto con el proceso de ventanas de coseno al cuadrado, proporciona una base de procesamiento que minimiza las diferencias de temporización trama a trama en la señal de audio recibida y permite igualar las contribuciones de frecuencia para cada porción del espectro de audio de interés.
Los datos multiplicados producidos por el módulo de ventana 302 se procesan por un módulo FFT 304 que realiza una transformación racix-2 DIP (decimación en frecuencia) de los 256 puntos complejos usando la ponderación adecuada o factores de manipulación, que pueden almacenarse en una tabla de búsqueda que se descarga al procesador de señal digital 264 desde la computadora de control 30 (Fig. 2) durante un protocolo de inicio. El módulo de FFT 304 implementa eficazmente 256 filtros diferentes paso banda. La salida producida por el módulo de FFT, que representa información tanto de magnitud como de fase de la señal de audio en cada banda, se suministra al módulo de cuadrado de magnitudes 306 para obtener un valor de potencia o magnitud al cuadrado para cada una de las bandas dentro del espectro de frecuencias. Como resultado, la información de fase del módulo FFT 304, que no es necesaria en el procesamiento posterior, se descarta efectivamente por el módulo 306 y no se suministra desde el mismo.
El módulo del cuadrado de las magnitudes 306 produce los valores del cuadrado de la magnitud que representan la potencia de los puntos espectrales complejos entregados por el módulo FFT 304. Debido a la simetría, sólo se calcula la primera mitad del espectro de potencia. El resultado de la operación de elevar al cuadrado es un número de 30 bits más 2 bits de signo, de los cuales sólo se almacenan 16 bits. Generalmente, los valores son pequeños, de modo que se emplea un proceso de escalamiento de saturación por el cual se salvan los 16 bits superiores después de desplazar cada una de las palabras de datos hacia la izquierda en número predeterminado de número de lugares de bit (por ejemplo, 6 lugares). Si el desplazamiento produce un desbordamiento, la palabra resultante se fija al valor de saturación de FFFF (Hex).
Los valores producidos por el módulo de cuadrado de magnitudes 306 se procesan por el módulo de selección de banda 308 para seleccionar los valores de bandas de frecuencias para un número de bandas predeterminado. La selección de banda se realiza de acuerdo con instrucciones predeterminadas almacenadas en una tabla de búsqueda que se descarga al procesador de señal digital 264 durante el protocolo de inicio. En una realización preferida, se seleccionan los valores de bandas de frecuencias de 16 bandas y se procesan por el módulo de filtro de respuesta de impulso finita (FIR) 310. El filtro FIR 310 realiza una operación de filtrado de respuesta de impulso finita de 15 etapas sobre cada uno de los 16 valores de bandas de frecuencias recibidos. Los coeficientes para el filtro FIR 310, que en una realización preferida son coeficientes de ventana Hamming seleccionados para realizar una operación de filtrado paso bajo, se suministran desde la tabla de búsqueda que se descarga al procesador de seña digital 264 durante el protocolo de inicio.
Los desplazamientos de la temporización de la señal de audio con respecto al vídeo de transmisión simultánea se encuentran comúnmente en la televisión de difusión y, si se ignora en el proceso de generación de firmas de audio, pueden resultar firmas de audio que están desfasadas con respecto a las firmas de vídeo correspondientes. Esto degradará probablemente la capacidad del sistema 10 para hacer coincidir con precisión los segmentos entrantes. El módulo FIR 310 sirve para mejorar la estabilidad de la firma promediando los datos espectrales de audio sobre varias tramas de televisión, de modo que mejora la probabilidad de obtener coincidencias de firmas correctas.
Promediando los valores de las bandas de frecuencias sobre varias tramas, el procesamiento realizado por el módulo 310 también sirve para maximizar la correlación trama a trama. Esto tiende a crear grupos de firmas similares que tienen una duración de varias tramas y se denominan carreras. La presencia de longitudes de carreras permite la generación de firmas de claves de audio que son más probablemente coincidentes cuando el mismo segmento de audio se recibe de nuevo por el sistema 10, promoviendo de este modo la precisión y eficacia del sistema. Otra ventaja es que los errores resultantes del ruido, cuantificación y redondeo son menos críticos ya que estos tienden a promediarse.
Las señales de salida filtradas del filtro FIR 310 se procesan a continuación por el módulo de recorte 311 que está adaptado para recortar las señales de salida filtradas entre valores alto y bajo predeterminados. El recorte de las señales filtradas a un valor alto predeterminado impide los desbordamientos que de lo contrario podrían ocurrir en el procesamiento posterior, mientras que el recorte de las señales filtradas a un valor bajo predeterminado impide una posible división por cero y los valores de recorte predeterminados se seleccionan consecuentemente. Por ejemplo, donde los valores de las bandas de frecuencias promediados a recortar se proporcionan como palabras de 16 bits que varían en los valores de 0 - FFFF (Hex.), puede emplearse un valor de recorte bajo de F (Hex.), mientras puede emplearse un valor de recorte alto de 3FFF (Hex.).
La salida producida por el módulo de recorte 311 se procesa a continuación por el módulo de normalización 313, en el cual se normalizan de un modo determinado cada uno de los valores obtenidos por el modulo de recorte. Esta normalización puede realizarse para varios de los 16 valores de banda recortados dividiendo el valor respectivo de cada banda por la suma de los valores en las bandas tanto superior como inferior de la banda de frecuencias respectiva. En el borde del espectro de frecuencia, no obstante, se utilizan los valores de las bandas por encima o debajo de la banda de borde (o de otra manera sólo se emplea un valor único de banda adyacente). En otras situaciones, no obstante, pueden utilizarse los valores de las tres bandas al determinar el valor normalizado para una banda respectiva. Este proceso de normalización puede representarse como sigue:
(6)Bn normal = \frac{B_{n}}{B_{ady}}
en donde B_{n} representa el valor recortado para la banda n respectiva, B_{ady} representa los valores para las bandas adyacentes. La Tabla I a continuación ilustra las bandas adyacentes utilizadas al determinar el valor normalizado de acuerdo con una realización preferida. Utilizando números variables de bandas para producir B_{ady} para diferentes bandas de frecuencias en el proceso de normalización, la distribución estadística de firmas de audio entre las palabras clave puede hacerse más uniforme. Como resultado, se reduce el aglutinamiento de las firmas de audio alrededor de ciertas palabras clave.
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
(Tabla pasa a página siguiente)
TABLA I
1
La tabla I resume una selección ventajosa de bandas de frecuencias para una técnica de generación de firmas basada en primer lugar en el contenido de voz de la señal de audio de televisión. Las bandas de 1 a 16 tienen cada una un ancho de banda de 30 Hz. Se aprecia, no obstante, que puede adoptarse una diferente selección de bandas y/o anchos de banda. Al producir B_{ady} para cada banda B_{n}, es preferible emplear valores de bandas adyacentes ya que esto minimiza cualesquiera distorsiones debidas a las diferencias en el retardo temporal a diferentes frecuencias. Esto es, las señales de frecuencias relativamente próximas están retardadas en un grado similar, aunque las señales de frecuencias sustancialmente diferentes pueden experimentar retardos de frecuencias sustancialmente diferentes.
Los valores de bandas normalizadas producidas por el módulo de normalización 313 se procesan a continuación por el módulo de generación de firmas 312. Específicamente, para cada intervalo de trama de vídeo correspondiente, se suministran dieciséis de tales valores de banda normalizados al módulo de generación de firmas 312, uno para cada una de las dieciséis bandas de frecuencias. El módulo de generación de firmas 312 utiliza una técnica de procesamiento AHORA-ENTONCES para producir firmas de audio de dieciséis bits de modo que cada bit de la firma se obtiene en base al valor actual (o valor AHORA) de la banda de frecuencias correspondiente y el valor obtenido previamente (valor ENTONCES) de la misma banda de frecuencias producido de una trama que precede la trama actual en una desplazamiento de trama predeterminado. Más específicamente, los valores de bandas de frecuencias normalizados recibidos se escriben dentro de un almacenamiento circular AHORA-ENTONCES y los valores de ENTONCES se obtienen utilizando los desplazamientos de trama predeterminados. Los desplazamientos de trama pueden variar de una banda a otra. No obstante, de acuerdo con una realización ventajosa, se utiliza un desplazamiento de trama de 8 para obtener los valores ENTONCES para cada una de las dieciséis bandas de frecuencias. El módulo de generación de firmas 312 produce un valor DVAL para cada banda de frecuencias de acuerdo con la siguiente relación:
DVAL = (AHORA - ENTONCES) / (AHORA + ENTONCES)
El valor de cada uno de los 16 bits en la firma de audio para la trama actual y los valores de los bits de la palabra de máscara correspondiente se determinan de acuerdo con el valor de DVAL. Esto es, un bit de la firmas se pone a 0 si DVAL para la banda correspondiente es mayor que cero, de lo contrario se fija la valor 1. De modo similar, cada bit de la máscara se fija al valor 0 si el valor absoluto de DVAL para la banda correspondiente es mayor que un valor de banda de guarda predeterminado GRDVAL. Por ejemplo si DVAL de tiene un rango de 0 - 7FFF (Hex.), puede emplearse el valor de la banda de guarda de 600 (Hex.), aunque valores diferentes de GRDVAL pueden obtener resultados aceptables. La firma de audio producida y su correspondiente palabra de máscara para cada intervalo de trama se suministran más tarde desde el procesador de señal digital de audio 264 como se ha descrito anteriormente en este documento.
Se aprecia que la técnica anterior para producir firmas de audio que compara los valores de banda de frecuencias correspondientes desplazadas en el tiempo para cada una de una pluralidad de bandas de frecuencias puede proporcionar ventajas sobre la técnica que está basada sólo en valores de frecuencia o de tiempo desplazados, ya que la técnica descrita incluye relativamente más información en una firma determinada y proporciona un mejor equilibrio de los tipos de información incluidos en la firma.
Sistema experto
El sistema experto es un módulo software que está almacenado dentro de la computadora de control 30 y que incluye varios "sub-módulos" o programas identificados como los sub-módulos de un filtro de ocurrencias, una detección de nuevos segmentos y un nivel de captura selectiva. Ahora se describirán con detalle cada uno de estos sub-módulos contenidos dentro del Sistema Experto.
Filtro de Ocurrencias
Como se ha mencionado previamente, los datos de ocurrencias de coincidencia se suministran desde cada sitio local 16 al sitio central 12 para su compilación en el informe 13 como se ilustra en Fig. 1. De este modo, es deseable reducir la cantidad de datos de falsas coincidencias suministrados desde el sitio local 16 al sitio central 12 para mejorar la precisión global de sistema 10 y minimizar el tiempo empleado por los operarios de la estación de trabajo en el sitio central 12.
Básicamente, el sub-módulo de filtro de ocurrencias recibe informes de coincidencia desde el subsistema de reconocimiento de segmentos 26 y evalúa, si cualquiera, de estos informes de coincidencia recibidos es un informe erróneo o de falsa coincidencia. Estos informes de falsa coincidencia detectada se excluyen a continuación de la base de datos de la computadora de control 30 para evitar la transmisión de informes de falsa coincidencia al sitio central 12.
Para evaluar si un informe de coincidencia es erróneo, el filtro de ocurrencias examina cada informe de coincidencia recibido desde el subsistema de reconocimiento de segmentos 26 de acuerdo con una pluralidad de reglas predeterminadas. A continuación se describirá un conjunto preferido de estas reglas predeterminadas con referencia al diagrama de flujo ilustrado en la Fig. 9.
Como se muestra en la etapa S10 de la Fig. 9, se realiza la determinación de si la coincidencia recibida es definitivamente aceptable. Se determina que una coincidencia es definitivamente aceptable si satisface la menos una de las dos condiciones, que es (1) una coincidencia es definitivamente aceptable si tanto la firma de audio como la firma de vídeo para el segmento respectivo han coincidido, o (2) si tanto el comienzo como el final del segmento respectivo están temporalmente alineados con "fuertes indicios". Un indicio, como se emplea en el filtro de ocurrencias, es una característica de la señal recibida distinta que la coincidencia particular que se evalúa por el filtro de ocurrencias. Ejemplos de fuertes indicios, como se emplea por el filtro de ocurrencias, son el desvanecimiento al negro (especialmente un desvanecimiento al negro de la señal de vídeo), así como una coincidencia del segmento de señal que precede o sucede inmediatamente. Si la coincidencia recibida se encuentra definitivamente aceptable en la etapa S10, esto es, la coincidencia satisface una de las condiciones descritas previamente, el resultado de coincidencia se almacena dentro de la base de datos de la computadora de control 30, como se indica en la etapa S20.
Si por el contrario, la coincidencia no se encuentra definitivamente aceptable, como se indica por el NO en la etapa S10, a continuación se realiza una determinación de si la coincidencia es "definitivamente" inaceptable, como se indica en la etapa S30. Se determina que una coincidencia es definitivamente inaceptable si la coincidencia no es definitivamente aceptable (como se determina en la etapa S10), si no hay un fuerte indicio sobre cualquier extremo de los segmentos correspondientes, y si su segmento correspondiente solapa sustancialmente con otro segmento que tiene una coincidencia que se ha encontrado definitivamente aceptable. Si se determina que la coincidencia ha sido definitivamente inaceptable, entonces se rechaza la coincidencia como se indica en la etapa S40 y, como resultado, la información concerniente a la coincidencia no se almacena dentro de la base de datos de la computadora de control 30.
No obstante, si la coincidencia no es definitivamente inaceptable, como se indica por el NO en la etapa S30, se realiza una determinación en la etapa S50 de si el segmento respectivo tiene un fuerte indicio sobre un extremo. Si se determina que el segmento respectivo tiene un fuerte indicio sobre un extremo del mismo, entonces la coincidencia recibida está sujeta a la confirmación de emparejamiento como se indica en la etapa S60, que se describe con mayor detalle más adelante. En esta situación, se utiliza una tolerancia menos rigurosa durante la confirmación de coincidencia comparado con la empleada en la etapa S90, como se describe en este documento más adelante. Esto es el proceso de confirmación de coincidencia de la etapa S60 encontrará una coincidencia entre firmas que tienen errores de coincidencia relativamente más altos que en el caso de la etapa S90 de modo que una coincidencia se acepta con más probabilidad en la etapa S60. El resultado del proceso de confirmación de emparejamiento determinará si la coincidencia se rechaza o se acepta.
Si, por el contrario, el segmento respectivo no tiene un fuerte indicio sobre un extremo como se indica por el NO en la etapa S50, entonces se realiza una determinación, en la etapa S70, si el segmento respectivo se ajusta a un perfil de segmentos de típicamente falsa coincidencia. Si el segmento respectivo se ajusta a tal perfil de segmentos que coincide falsamente, entonces, como se indica en la etapa S80, se rechaza la coincidencia y la información concerniente a la coincidencia no se almacena dentro de la base de datos de la computadora de control 30.
Para determinar si un segmento respectivo se ajusta a un perfil de segmentos que coincide falsamente, se determina una calificación de falsa coincidencia R para el segmento respectivo. Tal calificación de falsa coincidencia se determina combinando numéricamente calificaciones numéricas asociadas con las respectivas de una pluralidad de características de modo lineal. Estas características preferiblemente incluyen lo siguiente:
1.
la longitud L del segmento respectivo: segmentos que tienen una longitud relativamente corta son probablemente de falsa coincidencia;
2.
la entropía de la firma de clave E: la entropía de una firma de clave es una medida de la desigualdad entre las palabras de coincidencia dentro de la firma de clave y esta inversamente relacionada con la correlación entre las mismas. La entropía de la firma de clave se determina por el generador de firmas de clave, que se describe en este documento más adelante y se suministra más tarde desde el subsistema de reconocimiento de segmentos 26 junto con el correspondiente informe de coincidencia. Las firmas de clave que tiene una entropía relativamente baja son más probablemente falsas coincidencias que las que tienen una entropía relativamente alta;
3.
El umbral de error del correlacionador T: los segmentos que tienen un umbral de error relativamente alto son probablemente de falsa coincidencia;
4.
la distancia D desde la pérdida de coincidencia: las coincidencias con cuentas de errores del correlacionador real que están próximas al umbral de error del correlacionador son probablemente falsas coincidencias; y
5.
si la coincidencia que se está evaluando (M) estaba basada en una señal de audio o de vídeo: una coincidencia basada en la señal de vídeo es más probablemente una falsa coincidencia que una basada en el audio sobre una señal de audio.
De acuerdo con una realización de un método para producir una calificación de falsa coincidencia, se asignan valores numéricos entre cero y uno a las características L, E, T y D (la característica M no se utiliza en este ejemplo) y se forma una combinación lineal de los valores asignados para producir la calificación de falsa coincidencia R, como sigue:
R = w_{1}L + w_{2}E + w_{3}T + w_{4}D
en la que w_{1} hasta w_{4} son ponderaciones numéricas respectivas asignadas a cada una de las características para determinar su importancia relativa en la determinación de la calificación de falsa coincidencia R, y los valores de las características L, E, T y D se han convertido a una escala normalizada de cero a uno. En el caso de un sistema de reconocimiento de anuncios de televisión, en el que mayores valores de R representan una probabilidad relativamente más baja de falsa coincidencia, pueden asignarse los valores de ejemplo a la característica L como se ilustra en la Tabla II siguiente.
\vskip1.000000\baselineskip
TABLA II
2
\newpage
En este ejemplo, la entropía E se mide sobre una escala de cero a 256, en la que 256 representa la máxima entropía. Los valores normalizados de ejemplo para E se ilustran en al Tabla III siguiente
\vskip1.000000\baselineskip
TABLA III
3
Consecuentemente, cuanto mayor es el valor de la entropía, mayor es el valor asignado a E, reflejando la reducida probabilidad de una falsa coincidencia para valores de entropía mas altos.
Además, en este ejemplo, la característica T que representa el umbral de error varía en un rango desde 20 a 60 y se asignan los valores de cero a uno de acuerdo con la Tabla IV siguiente.
\vskip1.000000\baselineskip
TABLA IV
4
Como se refleja por la Tabla IV, a valores más altos del umbral de error se asignan valores relativamente más bajos del valor de T, reflejando la probabilidad relativamente más baja de una falsa coincidencia para umbrales de error más altos.
Los valores de ejemplo para la característica D que representa la diferencia entre la cuente de errores del correlacionador real y el umbral de errores son valores asignados de acuerdo con la Tabla V siguiente.
TABLA V
5
Esto es, cuanto mayor es la diferencia entre la cuenta de errores del correlacionador real y el umbral de errores, más pequeña es la probabilidad de una falsa coincidencia
Finalmente, en este ejemplo, a las ponderaciones w_{1}, hasta w_{4} se asignan los valores listados en la tabla VI siguiente
TABLA VI
6
Se verá que la suma de las ponderaciones se selecciona como 1,00. Por lo tanto, como los valores de L, E, T, y D se han normalizado cada uno de modo que cada uno cae dentro de un rango entre cero y uno, la calificación de falsa coincidencia R variará asimismo desde un valor bajo de cero (que representa una probabilidad alta de una falsa coincidencia) a un valor alto de uno (que representa una baja probabilidad de falsa coincidencia).
En la etapa S70, si el segmento respectivo no se ajusta el perfil de segmentos que coincide falsamente, como se indica por el NO en al etapa S70, entonces la correspondiente coincidencia esta sujeta a la confirmación de coincidencia como está indicado en la etapa S90. Las tolerancias utilizadas para la confirmación de coincidencia en la etapa S90 son más estrechas que las utilizadas en la etapa S60, como se ha observado previamente. Además, como en la etapa S60, los resultados del proceso de confirmación emparejamiento en la etapa S90 determinarán si la respectiva coincidencia es aceptable y, de este modo, se almacena dentro de la base de datos de la computadora de control 30, o si es rechazable.
Otra función del filtro de ocurrencias es determinar si la coincidencia recibida se usa como un indicio para localizar nuevos segmentos o alinear otras coincidencias. Básicamente, el proceso usado para decidir si una coincidencia se usa como un indicio es sustancialmente la misma que se ha descrito anteriormente al determinar si es aceptable una coincidencia. No obstante, hay dos excepciones. Esto es, (1) una coincidencia que parece ser inaceptable y no está cerca de cualesquiera fuertes indicios puede usarse como un indicio, en el caso de que las siguientes coincidencias puedan estar alineadas con ella o de otro modo encontrar un nuevo segmento basado sobre la siguiente coincidencia y, (2) segmentos que tienen un fuerte indicio sobre un extremo pero tienen una calificación alta de falsa coincidencia, como se ha descrito anteriormente, no se usan como indicios. No obstante, en el caso de excepción (2), si la confirmación de coincidencia
indica más tarde una coincidencia aceptable, entonces la coincidencia puede informarse a la base de datos.
La memoria de almacenamiento contenida dentro del subsistema de captura 28, retiene sólo una cantidad limitada predeterminada de datos. Consecuentemente, el filtro de ocurrencias preferiblemente funciona o reacciona en un modo puntual de modo que posibilita los datos de audio y vídeo a recoger por un segmento que requiere tal recogida, por ejemplo, un nuevo segmento que tiene un nivel de captura 1 como se describe en este documento mas adelante.
En algunos casos, por ejemplo, cuando se requiere una confirmación de coincidencia (que es relativamente consumidora de tiempo), la información necesaria para decidir si una coincidencia es aceptable o inaceptable no está a menudo disponible dentro de la restricción de tiempo impuesta por el filtro de ocurrencias. Esto es, toda la información necesaria para determinar si aceptar o no una coincidencia puede que no esté disponible en el instante que se suministra el informe de coincidencia a la computadora de control 30. Para aliviar este problema, el filtro de ocurrencias hace una decisión preliminar de si la coincidencia correspondiente al segmento respectivo se aceptará en el instante en el que se reporta la coincidencia. Si se determina una coincidencia preliminarmente como aceptable (o finalmente se determina como aceptable), se reporta a la base de datos, mientras que si la coincidencia es inaceptable, se niega de la base de datos. Los resultados de las decisiones preliminares se revisan después de un periodo de tiempo predeterminado, por ejemplo, aproximadamente varios minutos. Durante este periodo de tiempo predeterminado, se completa el procesamiento de confirmación de coincidencia. En base a los resultados de la confirmación de coincidencia, si una coincidencia que no se suministró previamente a la base de datos de la computadora de control 30 se encuentra ahora aceptable, se suministrará a la base de datos como coincidencia aceptable. Por el contrario, si una coincidencia que previamente se encontró aceptable y, como tal, se reportó a la base de datos se determina ahora como inaceptable, se produce una señal de rescisión de coincidencia para borrar la correspondiente coincidencia. En general, las coincidencias que se determinan inicialmente para que sean definitivamente aceptables o inaceptables no se revisan un tiempo predeterminado más tarde ya que su determinación no está en duda. No obstante, cuando se encuentra una coincidencia de una firma de audio o vídeo que es definitivamente inaceptable antes de que se encuentre una coincidencia para la otra firma correspondiente de vídeo o audio, la coincidencia de la primera firma se aceptará no obstante ya que tanto la firma del vídeo correspondiente como la firma de audio han coincidido.
De este modo, con referencia de nuevo a la Fig. 3, el filtro de ocurrencias del sistema experto 414 recibe informes de coincidencia desde el subsistema de reconocimiento de segmentos 26 y determina si tales informes son informes de falsas coincidencias. En ciertas situaciones, como la tratada anteriormente, puede solicitarse una confirmación de coincidencia, con lo cual el módulo de confirmación de emparejamientos 422, determina si la coincidencia es o no aceptable utilizando el subsistema de reconocimiento de segmentos 26 así como las firmas de clave de la base de datos 412. Los resultados de la confirmación de emparejamiento se suministran, dentro de un periodo de tiempo predeterminado, al filtro de ocurrencias. El filtro de ocurrencias suministra coincidencias que se determinan como aceptables a la base de datos 412. Si el filtro de ocurrencias ha suministrado previamente una coincidencia a la base de datos que más tarde se encuentra inaceptable, el filtro de ocurrencias suministra una señal de rescisión de coincidencia al control de la base de datos 416 para borrar la coincidencia respectiva de la misma.
Confirmación de Coincidencia
El módulo de confirmación de coincidencia se localiza dentro de la computadora de control 30 (Fig. 2) y se utiliza para evaluar coincidencias de aceptabilidad cuestionable a petición del filtro de ocurrencias bajo las condiciones descritas anteriormente. Como ejemplo, en ciertas situaciones, las sub-firmas de audio y vídeo pero no ambas, pueden coincidir. En este ejemplo, el filtro de ocurrencias puede solicitar una confirmación de emparejamiento para decidir si la sub-firma que no coincidió inicialmente en el controlador de reconocimiento se estimaría no obstante como coincidencia a una firma de clave determinada cuando se comparan las mismas bajo normativas que son más tolerantes de errores de coincidencias.
El módulo de confirmación de emparejamientos realiza un proceso de emparejamiento que es similar al utilizado por el correlacionador 420 (Fig. 3) en el subsistema de reconocimiento de segmentos 26. No obstante, a diferencia del correlacionador que está intentando emparejar palabras clave frente a un flujo continuo de firmas de vídeo y audio, el módulo de confirmación de emparejamientos está intentando coincidir sólo una longitud corta de un segmento de difusión frente a una firma de clave. Como resultado, es menos probable que ocurran falsas coincidencias con la confirmación de emparejamiento que con el proceso de emparejamiento realizado por el correlacionador. Consecuentemente, las tolerancias de error para el proceso de confirmación de emparejamiento pueden ser considerablemente reducidas o relajadas comparadas con las empleadas en el proceso de emparejamiento del correlacionador, sin que resulte una tasa de falsas coincidencias inaceptable. Esta relajación de las tolerancias de error posibilita al módulo de confirmación de emparejamiento determinar si una firma o una sub-firma habrán coincidido incluso aunque el correlacionador fuese incapaz de determinarlo.
Refiriéndonos de nuevo a la Fig. 3, puede suministrarse una petición de confirmación de coincidencia desde el módulo del filtro de ocurrencias del sistema experto 414 al módulo de confirmación de emparejamiento 422. Tal petición puede incluir el número de identificación del segmento, tiempos de comienzo y fin del segmento, el canal de difusión y la tolerancia de la confirmación de coincidencia deseada. Una vez recibida tal señal de solicitud de coincidencia, el módulo de confirmación de emparejamientos solicita los datos de la firma del segmento para los tiempos solicitados del subsistema de reconocimiento de segmentos 26 y la firma de clave relevante desde la base de datos 412. Después de la recepción de la información solicitada, el módulo de confirmación de emparejamientos 422 compara a continuación la firma de clave única con la porción solicitada o segmento de la señal de difusión de acuerdo con la tolerancia de la confirmación de coincidencia deseada y, una vez completada la comparación, suministra el resultado (es decir coincidencia o no coincidencia) al módulo de filtro de ocurrencias.
El módulo de confirmación de emparejamientos realiza la comparación moviendo eficazmente la firma de clave a lo largo de la firma de segmento como se muestra en la Fig. 10. Esencialmente, la firma de clave está alineada con la firma de segmento en una posición inicial dentro de la zona de coincidencia esperada y se intenta una coincidencia de acuerdo con el proceso de confirmación de coincidencias descrito más adelante. Cada una de las múltiples confirmaciones de coincidencia se intenta también alineando la firma de clave a los desplazamientos de posiciones correspondientes desde la posición original, respectivamente, en \pm 1, 2, 3, ..., N tramas. Esto es, en la Fig. 10, N representa el número de tramas que se comprueban a cada lado de la posición dentro de la zona esperada de coincidencia, m(0) representa la palabra clave respectiva (que se trata en la confirmación de emparejamiento simplemente como otra palabra de coincidencia), y m(x) representa la palabra de coincidencia de orden x siendo 1 \leq x \leq 8. Generalmente, el módulo de confirmación de emparejamiento computa una cuenta de errores total mínima entre todos los 2N + 1 intentos de coincidencia que compara con la suma de los umbrales de error asignados permanentemente a la firma de clave y una tolerancia de la confirmación de coincidencia para realizar la decisión de si existe una coincidencia.
Más específicamente, mientras que el algoritmo utilizado por el módulo de confirmación de coincidencia corresponde con el utilizado por el correlacionador 420 en la mayor parte de las consideraciones, existen ciertas diferencias. Estas diferencias se describirán ahora con referencia a la Fig. 10.
Por cada confirmación de coincidencia intentada, se produce una cuenta de errores parcial respectiva p para cada palabra de coincidencia de la firma de clave, comparando la palabra de coincidencia con la firma de trama correspondiente de la firma de segmento. A continuación se determina una cuenta de errores total sumando el número R (que en el ejemplo tiene un valor de 8) de la cuentas de error parcial más baja para cada una de las coincidencias intentadas. En la realización preferida, como la palabra clave se considera simplemente como otra palabra de coincidencia, la firma de clave respectiva contiene nueve palabras de coincidencia. De este modo, al calcular la cuenta de errores total por cada coincidencia intentada, la cuenta de errores parcial que tiene la cuenta de error más alta (o peor) no se utiliza. La cuenta de errores total para cada coincidencia intentada se calcula para las N tramas tanto antes como después de la posición original como se muestra en al Fig. 7. El valor de N se seleccionara cuidadosamente, ya que si N es demasiado alto pueden resultar falsos emparejamientos y, por el contrario si un valor de N que es demasiado pequeño puede que no detecte coincidencias aceptables. En la realización preferida, N tiene un valor de 60. Se selecciona como cuenta de errores final la cuenta de errores total que tiene el valor más bajo. La cuenta de errores final se ajusta a continuación para considerar cualquiera de las cuentas de errores parciales desechadas. En una realización ventajosa, este ajuste se realiza usando la siguiente relación:
Cuenta de Errores Final Ajustada = (Cuenta de Errores Final) (8/R)
El módulo de confirmación de emparejamientos incrementa la cuenta de errores o el umbral de error asociado con la firma de clave por la cuenta de errores especificada por la tolerancia de la confirmación de coincidencias para obtener un valor del umbral de errores. A continuación el módulo de confirmación de coincidencias compara la cuenta de errores ajustada final con el valor umbral de errores. Si la cuenta de errores ajustada final es menor o igual que el valor del umbral de errores, se encuentra que existe una coincidencia, con lo cual se dirige una señal indicándolo desde el módulo de confirmación de emparejamientos al módulo de filtro de ocurrencias. Si, por el contrario, la cuenta de error ajustada total es mayor que el valor umbral de error, entonces no se encuentra que exista una coincidencia, con lo cual se suministra una señal indicándolo al módulo de filtro de ocurrencias.
Detección de Nuevos Segmentos
La decisión de si se ha recibido un nuevo segmento de interés (por ejemplo, un anuncio) se usa para determinar la información proporcionada a los operarios de la estación de trabajo para la identificación de tales nuevos segmentos. Refiriéndonos de nuevo a la Fig. 1, si el sitio local 16 identifica segmentos como nuevos segmento completos de interés, cuando de hecho no lo son (en cuyo caso no se denominan como "paja"), el tiempo del operario de la estación de trabajo se malgasta intentando identificar estos segmentos. Si el sitio local 16 no describe correctamente el segmento, de modo que, por ejemplo, sólo se proporciona al operario una porción de la información del audio y del vídeo para el nuevo segmento de interés, el tiempo del operario puede también malgastarse y la precisión del sistema se reduce.
La detección de nuevos segmentos se realiza por el sistema experto y se basa en primer lugar en varios indicios explícitos e implícitos. Los indicios explícitos se reciben normalmente desde el subsistema de reconocimiento de segmentos 26 y puede incluir, por ejemplo, un desvanecimiento al negro del vídeo, informes de sub-coincidencia, silenciamiento del sonido y cambios de escena. Por el contrario, un ejemplo de un indicio implícito es la duración del segmento. Ahora se describirá con más detalle cada una de estos indicios seguido de una discusión del funcionamiento del módulo de detección de nuevos segmentos.
Típicamente, los anuncios se difunden con al menos un campo de vídeo que tiene sustancialmente un nivel de negro en cada extremo. Como los anuncios pueden tener sólo un campo de negro sobre cada extremo del anuncio, se informa de un desvanecimiento al negro sobre cualquier campo de la señal de vídeo por la tarjeta de canal respectiva al módulo de detección de nuevos segmentos a través del controlador de reconocimiento de segmentos. De este modo, una frontera de un anuncio puede indicarse por un desvanecimiento al negro, en el cual la frontera está normalmente en el comienzo y en el final de tal desvanecimiento al negro. No obstante, en algunos casos, la frontera de los anuncios real puede localizarse en la mitad del desvanecimiento a negro. Esto puede ocurrir si se detectan como negras escenas casi negras o si durante un desvanecimiento al negro real, la señal de vídeo comienza a desvanecerse para el anuncio próximo antes de permitir que se complete el desvanecimiento al negro. Aunque tales desvanecimientos al negro ocurren ocasionalmente lo cual no corresponde con las fronteras de anuncios y que pueden detectarse por el módulo de detección de nuevos segmentos, el número de tales desvanecimientos a negro espurios es relativamente bajo comparado con el número de tales silenciamientos de audio o cambios de escenas, que se describen en este documento más adelante.
Una coincidencia que se ha aceptado por el filtro de ocurrencias del sistema experto se utiliza como indicio. Como previamente se ha mencionado, aunque el subsistema de reconocimiento de segmentos 26 puede producir informes de falsas coincidencias, el filtro de ocurrencias sirve para identificar y eliminar un número sustancial de informes de falsas coincidencias. Como resultado, una coincidencia que se determina como aceptable por el filtro de ocurrencias es un indicio fiable. Tal coincidencia se considera también un indicio relativamente muy fuerte bien solo o especialmente en combinación con un desvanecimiento a negro sobre cualquiera o ambos extremos del segmento bajo consideración. Por ejemplo, como los anuncios se difunden típicamente en grupos, o cápsulas, de modo que el final de un anuncio corresponde con el comienzo del anuncio posterior, la determinación de una coincidencia aceptable es una fuerte indicación de que sigue un anuncio. Una coincidencia que se determina como aceptable es también un importante indicio para informar al sistema experto de donde no encontrar un nuevo segmento de interés. Como ejemplo, el módulo de detección de nuevos segmentos no busca nuevos segmentos en segmentos que han tenido ya una coincidencia aceptable. Esto es, a diferencia de un segmento nuevo, un segmento que ya ha tenido una coincidencia aceptable asociada con el mismo por el sistema experto, no necesita dirigirse a una de las estaciones de trabajo 14 para su clasificación por un operario como se ha descrito previamente (ya que tal clasificación se ha realizado ya obviamente por una la coincidencia que se ha detectado).
Aunque el final de una coincidencia aceptable normalmente representa o el comienzo de un segmento posterior o el comienzo de un desvanecimiento al negro representando la frontera verdadera, el indicio de coincidencia puede que no se conozca precisamente a tiempo. Como las coincidencias pueden ocurrir sobre varias tramas consecutivas, cada trama (de audio o vídeo) tiene un ancho de pico asociado con la misma que es proporcional a la incertidumbre en el tiempo para la coincidencia respectiva. Para compensar tal incertidumbre, el módulo de detección de nuevos segmentos intenta alinear la coincidencia respectiva usando otros indicios fuertes, tales como otra coincidencia aceptable o un desvanecimiento a negro, en cualquier momento que sea posible.
Las coincidencias basadas en números de identificación temporales (ID) pueden representar segmentos que pueden diferir de los segmentos representados por coincidencias que están basadas en ID permanentes. Esto es, las coincidencias basadas en ID temporales (que no se han clasificado por un operario de una estación de trabajo) pueden representar sólo una porción de un segmento, mientras que las coincidencias basadas sobre ID permanentes se ha visto y juzgado correctamente por un operario en una de las estaciones de trabajo 14. El módulo de detección de nuevos segmentos del sistema experto preferiblemente diferencia entre coincidencias obtenidas con firmas que tienen diferente tipos de ID para aplicar pesos más elevados a las coincidencias obtenidas con firmas de ID permanentes.
Un silenciamiento de audio que representa una reducción sustancial de la señal de audio a un nivel que representa el silencio, ocurre típicamente en las fronteras de los anuncios. No obstante, como los silenciamientos de audio son muy comunes a través de los segmentos comerciales así como en los segmentos no comerciales tales como en la programación normal, un gran número de silenciamientos de audio no indican una frontera de anuncio. Consecuentemente, fiarse de los silenciamientos del audio para detectar ambos extremos de un segmento puede conducir a la selección de cantidades significantes de programación normal como segmentos de interés, o de otro modo dividir incorrectamente un anuncio en dos segmentos parciales, ninguno de los cuales coincidirá correctamente en el futuro ya que su longitud se registra incorrectamente. De este modo, un silenciamiento del audio se considera un indicio relativamente más débil que el descrito previamente desvanecimiento al negro o un indicio de coincidencia aceptable. Como resultado, se necesita restringir los silenciamientos de audio como indicios, o de otro modo se generarán excesivas pajas. Además, cuando un silenciamiento de audio indica una frontera de anuncio, la frontera puede que no caiga exactamente al comienzo o al final del silenciamiento de audio, sino que en cambio puede caer en alguna posición indefinida dentro del silenciamiento de audio. Como resultado, largos silenciamientos de audio son típicamente inutilizables como indicios debido a la incertidumbre de la posición exacta del comienzo o el final del anuncio.
Un cambio de escena es un cambio abrupto en el cuadro de vídeo que ocurre entre tramas. Como los cambios de escena dentro de segmentos son comunes, además de los que ocurren en las fronteras de los anuncios, un cambio de escena se considera un indicio relativamente débil. No obstante, los cambios de escena pueden ser muy útiles. Por ejemplo, muchos anuncios que no tienen un desvanecimiento al negro en una frontera tienen un cambio de escena en ese punto. Aunque el cambio de escena por si mismo es un indicio débil como se ha mencionado previamente, el cambio de escena puede combinarse con un silenciamiento de audio para formar un indicio más fuerte. Por ejemplo, el cambio de escena puede utilizarse para localizar la frontera del anuncio dentro del silenciamiento del audio.
Indicios Implícitos
Uno de los más importantes indicios es la duración del segmento. Típicamente, los anuncios se difunden en longitudes normalizadas o nominales. Por ejemplo, longitudes de 10, 15, 20, 30, 45, 60, 90 ó 120 segundos. Algunas de estas longitudes de anuncios ocurren más frecuentemente que otras. En particular, se cree que los anuncios de 30 segundos ocurren más frecuentemente. Se cree que la frecuencia de ocurrencia de las diversas longitudes de anuncios se representa como sigue, en el que la frecuencia de ocurrencia de anuncios de duración t (en segundos) se representa como CL_{t}:
CL_{30} >> CL_{15} >> CL_{10} >CL_{60} > [CL_{20}, CL_{120}, CL_{90}, CL_{45}]
Esto es, como ejemplo, los anuncios que tienen una longitud de 10 segundos se cree que ocurren más frecuentemente que los anuncios que tienen una longitud de 60 segundos. Los intervalos de longitudes que ocurren más frecuentemente se considera que proporcionan indicios más fuertes que los asociados a longitudes que ocurren menos frecuentemente.
La desviación de la longitud nominal de segmento es también parte del indicio de duración del segmento. Más específicamente, los anuncios o segmentos de interés raras veces se conforman con las longitudes nominales de tales segmentos (por ejemplo, 30 segundos, 15 segundos, etc.) Más bien, son normalmente ligeramente más cortos o más largos que la longitud nominal correspondiente. Típicamente, un segmento es más bien más corto que más largo que la longitud nominal correspondiente. Esto es, como cada anuncio o segmento de interés se produce para adaptarse a un bloque predeterminado de tiempo, es considerablemente menos engorroso tener el segmento de interés ligeramente más pequeño que la longitud nominal con lo cual pueden añadirse tramas (tales como tramas de desvanecimiento al negro), en lugar de editar el segmento de interés para adaptarse dentro de la longitud de bloque predeterminada. Segmentos que son más largos que la longitud nominal correspondiente normalmente son el resultado de errores que ocurren bien en la estación de difusión o en la estación que recibe. Por ejemplo, se cree que la desviación de longitud más probable para un nuevo segmento de interés está entre aproximadamente 0,0 a -0,2 segundos con un pico localizado aproximadamente en -0,13 segundos. Típicamente, para un segmento respectivo, cuanta más se desvía la longitud añadida de un segmento del pico de longitud nominal, menos probablemente el segmento es un segmento de interés. Como se aprecia, la probabilidad de que un segmento sea un segmento de interés decrece rápidamente a medida que la longitud del segmento aumenta sobre la longitud nominal.
Como se ha mencionado previamente, como los anuncios o segmentos de interés se difunden típicamente en grupos o cápsulas, cuando se detecta un nuevo segmento, esto indica que puede haber otros nuevos segmentos adyacentes al mismo. Por lo tanto, un nuevo segmento detentado es un indicio para detectar otros nuevos segmentos. No obstante, la fuerza de un nuevo segmento como indicio depende de la probabilidad de que el nuevo segmento sea un nuevo segmento de interés que, a su vez, depende de los indicios sobre los que esté basado el nuevo segmento.
Se asume que la probabilidad de detectar un nuevo segmento que tiene una longitud predeterminada, con ciertas evidencias, que no corresponde a un segmento de interés (o en otras palabras un segmento paja) es relativamente independiente de la longitud seleccionada. Como se ha mencionado previamente, interpretar segmentos paja como nuevos segmentos de interés incrementa el tiempo de procesamiento del sistema 10 (Fig. 1) y por lo tanto incrementa el costo global del funcionamiento del sistema. De este modo, es deseable seleccionar segmentos como posibles nuevos segmentos de interés que tienen intervalos de tiempo o longitudes de segmento que probablemente correspondan a nuevos segmentos de interés.
Se considera, por lo tanto, que es más productivo invertir el tiempo del operario buscando segmentos que tienen una longitud de 30 segundos que, como se ha mencionado previamente, se consideran comunes, que invertir el tiempo del operario buscando segmentos que tienen una longitud de 45 segundos que no se consideran que ocurran frecuentemente. Mientras que esta asignación del tiempo del operario significa que un nuevo segmento de 45 segundos es menos probable que se detecte que un nuevo segmento de 30 segundos, el resultado es una precisión del sistema global relativamente alta con minimización de los costes de operación.
La Fig. 11 ilustra el flujo de la señal al realizar el proceso de detección. Se recibe una señal de difusión deseada en un canal determinado por el convertidor respectivo de los convertidores 24 y se convierte en señales banda base de vídeo y audio que se suministran la tarjeta de canal 402. La tarjeta de canal 402, suministra indicios relativos al nuevo segmento de interés al controlador de reconocimiento de segmentos 404 que también recibe información de coincidencia desde el correlacionador 420. Los indicios junto con los informes de coincidencia se suministran desde el controlador de reconocimiento de segmentos 404 al sistema experto 414. El sistema experto 414 examina la información recibida para determinar si los posibles nuevos segmentos indicados por los indicios son nuevos segmentos de interés. Si cualquiera de los segmentos indicados se encuentra que es un nuevo segmento de interés, el sistema experto 414 suministra una señal al controlador de reconocimiento de segmentos 404 solicitando la firma del segmento respectivo que se recoge a continuación y se suministra al sistema experto. Una vez recibido por el sistema experto, tal firma del nuevo segmento se suministra a través del control de la base de datos 416 a la base de datos 412. Señales adicionales asociadas suministradas por el sistema experto a la base de datos 412 incluyen el instante de ocurrencia, el canal, el numero de identificación de segmento, la firma de clave y los valores umbrales de audio y vídeo. Además, en ciertas situaciones, como se ha descrito previamente, el sistema experto 414 puede suministrar una captura A/V inicial o señal del valor de umbral al control de la base de datos 416 antes de determinar el valor umbral final. Si, en estas situaciones, se determina más tarde que el valor umbral inicial fue incorrecto, el sistema experto 414 suministrará una señal de cambio del valor umbral o de rescisión al control de la base de datos 416 para corregir la entrada en la base de datos 412.
A continuación se tratará el funcionamiento del módulo de detección nuevos segmentos.
De acuerdo con un modo de operación, el módulo de detección de nuevos segmentos explora los indicios en la señal recibida para detectar un segmento que tiene una longitud normalizada para un segmento de interés. El primer segmento detectado que tiene tal intervalo y satisface los criterios predeterminados descritos en este documento más adelante se acepta como un nuevo segmento de interés. Como el primer intervalo que satisface tales requerimientos se acepta, posteriores nuevos segmentos que pueden entrar en conflicto con el mismo (es decir, otro segmento que ocurre durante el mismo periodo de tiempo) no se consideran. Por lo tanto, el segmento que se detecta y se acepta es dependiente del orden en el que se exploran los indicios como se describe en este documento más adelante.
Los indicios se almacenan en una estructura de doble extremo (deque) de indicios en el que se establece un nodo cada vez que hay una transición presente-ausente de cualquiera de los indicios. Estos nodos se clasifican por tiempo. Las coincidencias se suministran a la estructura de doble extremo por el filtro de ocurrencias cuando se determina que son aceptables para su uso como indicios. Estos indicios se exploran a continuación bien especificando su posición de comienzo en la estructura de doble extremo o especificando el tiempo deseado. Si se suministra el tiempo, el último punto en la estructura de doble puerto que ocurrió después de un tiempo de retardo predeterminado fijo (por ejemplo, aproximadamente 80 segundos) se usa como el tiempo de exploración inicial para compensar el retardo en el reporte de coincidencias comparado con los informes de indicios.
Los indicios pueden explorarse por más de un pase, en una realización preferida se utilizan dos pases. El primer pase explora todos los indicios excepto los silenciamientos de audio, y el segundo pase explora los indicios para los segmentos basados en los silenciamientos de audio. Este proceso de exploración se describirá a continuación más completamente.
Los indicios se exploran hacia atrás en el tiempo utilizando dos bucles anidados. En el bucle exterior, se explora la estructura de doble extremo hacia atrás buscando indicios apropiados para la cola (o fin) de un segmento y en el bucle interior se explora hacia atrás la estructura de doble extremo desde la posición de cola actual en búsqueda de indicios apropiados para la cabecera de un nuevo segmento. De este modo, se detectan todos los posibles nuevos segmentos que contienen un indicio plausible sobre cada extremo. Cada uno de los intervalos de tiempo se evalúa para determinar si, dada la longitud respectiva y los tipos de indicios asociados, representa un nuevo segmento aceptable de interés. Esto es, el módulo de detección de nuevos segmentos determina, para un segmento respectivo, si los tipos de evidencias son aceptables y a continuación determina si la longitud del segmento en combinación con estas evidencias indica un nuevo segmento aceptable de interés.
Si se indica que un intervalo es un nuevo segmento de interés, se asigna un número de identificación de segmento y se almacena en la estructura de doble extremo de indicios como una ocurrencia. Posteriormente, se utiliza un módulo de nivel de captura selectivo para determinar un valor del nivel de captura de audio/vídeo apropiado, como se explica en este documento más adelante. Además, la firma de segmento se obtiene desde el subsistema de reconocimiento de segmentos 26 y la firma respectiva se suministra a continuación a la base de datos 412 de la computadora de control 30.
La Fig. 12 ilustra las etapas descritas anteriormente realizadas por el módulo de detección de nuevos segmentos. Como se muestra en la misma, el procesamiento comienza en al etapa S100 en la que se examina la porción deseada de la difusión recibida para localizar todos los intervalos entre indicios. Posteriormente, como se muestra en la etapa S110, cada uno de los intervalos localizados en la etapa S100 se examina de modo que se determina si los indicios de comienzo y fin respectivos son plausibles. Después de esto, como se muestra en la etapa S120, la aceptabilidad de cada intervalo que tiene indicios plausibles sobre sus extremos respectivos se determina en base a la longitud nominal respectiva del intervalo, la desviación desde esta longitud nominal y la combinación de los indicios de comienzo y final. Si se determina que el intervalo es aceptable, entonces como se indica en la etapa S130, el nivel de captura de audio/vídeo se determina por el módulo de nivel de captura selectiva. A continuación, el segmento de interés aceptado de nuevo se suministra a la base de datos 412 de la computadora de control 30 como se muestra en la etapa 140. Si, por el contrario, en la etapa S120, se rechaza el intervalo o segmento respectivo, entonces no se realiza el procesamiento adicional para este segmento.
Después de localizar un nuevo segmento, el bucle exterior se resetea de modo que continua desde el comienzo del segmento detectado de nuevo. El bucle exterior termina una vez que encuentra un indicio que se ha comprobado como posible indicio de cola. Esto puede determinarse examinando los indicadores de indicio examinado. Esto es, cada nodo en la estructura de doble extremo que se ha comprobado ya como posible indicio de cola tiene un indicador de indicio examinado puesto a uno. Como, en la realización preferida, hay dos pases de exploración, hay dos indicadores de cola examinada. Por el contrario, el bucle interior termina cuando localiza un indicio separado en el tiempo desde el indicio de cola actual en una cantidad mayor que la de cualquier segmento normalizado (por ejemplo, 120
segundos).
Los dos pases se utilizan de modo que puede darse una prioridad más baja a los segmentos basados en un silenciamiento de audio que a otros segmentos. Más específicamente, en una realización preferida, el segundo pase es en un punto de exploración 30 segundos más tarde que el primer pase. Eso posibilita al primer pase localizar todos los segmentos de hasta 30 segundos de longitud que no están basados en indicios de silenciamiento de audio antes de comprobar segmentos basados en silenciamientos de audio en el segundo pase. Como resultado, la probabilidad más baja (o menos probabilidad de que sea aceptable) de los segmentos basados en el silenciamiento de audio no se detectará antes de la detección de segmentos de interés que tienen una probabilidad más alta de ocurrencia, por ejemplo, los basados en coincidencias y desvanecimientos al negro que tienen longitudes de hasta 30 segundos. Como se ha mencionado previamente, el primer segmento detectado puede utilizarse sin considerar cualesquiera posibles segmentos en conflicto (aunque es preferible resolver tales conflictos, como se describe en este documento más adelante). En tal situación, es deseable utilizar los dos pases como se ha descrito anteriormente en este documento. Además, como todos los segmentos basados en silenciamiento de audio se dan en el nivel de captura 2 por el módulo de nivel de captura selectiva como se indica en este documento más adelante, de modo que los datos de audio y vídeo respectivo no se recogen cuando tales segmento no se han encontrado previamente, el retardo en la exploración puede fijarse a un valor incluso mayor. Esto minimizaría además el bloqueo de segmentos basados en una probabilidad más alta por un segmento basado en un silenciamiento de audio.
Determinar si un indicio es apropiado para el comienzo o final de un segmento involucra una consideración cuidadosa. Por ejemplo, en el caso de un indicio de ocurrencia, puede ser necesario asegurar que el indicio de ocurrencia de comienzo que puede ser útil como indicio de cola no es, al mismo tiempo, el final de otra ocurrencia. Esto puede determinarse comprobando que los indicadores de ocurrencias de comienzo y fin no están ambos puestos a uno. Como otro ejemplo, puede ser necesario determinar si un desvanecimiento al negro está asociado con una ocurrencia, con lo cual puede usarse esta ocurrencia para aumentar la fuerza del indicio. Esto es, si el comienzo del desvanecimiento al negro está bajo consideración como un posible indicio de cola de segmento, entonces el final del desvanecimiento al negro se examinaría para determinar si es el comienzo de una ocurrencia asociada. Si es así, la fuerza del indicio puede incrementarse.
Las características utilizadas en el módulo de detección de nuevos segmentos descrito anteriormente para determinar la aceptabilidad de un segmento como un nuevo segmento de interés se describirá a continuación más completamente.
Se determina la máxima desviación permisible desde la longitud nominal. No obstante, en tal determinación, se favorecen las longitudes nominales que ocurren más frecuentemente, proporcionándolas con tolerancias de desviación relativamente grandes, para incrementar las oportunidades de detectar un nuevo segmento de interés. Se utilizan preferiblemente tolerancias separadas para desviaciones más pequeñas y más grandes que la longitud nominal, en que la tolerancia para la desviación más corta que la longitud nominal es típicamente mayor que para la desviación mayor que la longitud nominal.
Los indicios para cada intervalo se usan para ajustar la desviación máxima permisible desde la longitud nominal para el segmento bajo consideración. Esto se hace analizando los indicios de los extremos de los respectivos segmentos para determinar cual de los indicios en cada extremo es el más fuerte. Los indicios de ocurrencia se consideran los más fuertes, seguidos a su vez por los desvanecimientos al negro y los silenciamientos de audio. Esto es, la tolerancia se ajusta de acuerdo con la fuerza de los indicios sobre ambos extremos del segmento.
El uso no crítico de los silenciamientos de audio como indicios puede generar un número relativamente grande de segmentos paja. No obstante, los segmentos basados en silenciamientos de audio pueden ser aceptables con un silenciamiento de audio como indicio sobre un extremo cuando un indicio relativamente fuerte está presente sobre el otro extremo. Además, como los silenciamientos de audio que tienen una longitud relativamente corta ocurren frecuentemente y los silenciamientos de audio que tienen una longitud relativamente larga no permiten una determinación precisa de extremos de segmento, sólo se utilizan los silenciamientos de audio que tienen una longitud que queda dentro de un rango predeterminado. No obstante, a tales segmentos basados en silenciamientos de audio se da un nivel de captura 2 por el módulo de captura selectiva. Para limitar adicionalmente el número de segmentos paja detectados, sólo se permiten segmentos que tienen una longitud nominal que ocurre más frecuentemente para basarse en los silenciamientos de audio como indicios. Además, mientras que los segmentos con una coincidencia sobre un extremo y un silenciamiento de audio sobre el otro serán normalmente aceptables, los segmentos que tienen un segmento detectado de nuevo sobre un extremo y una coincidencia sobre el otro no son aceptables porque los segmentos detectados de nuevo pueden basarse sobre un indicio de silenciamiento de audio. En esta situación, pueden detectarse una pluralidad de segmentos como nuevos segmentos que están basados en indicios de silenciamientos de audio sobre ambos extremos. Por lo tanto, los segmentos basados en indicios de ocurrencias sobre un extremo sin un fuerte indicio adicional asociado, por ejemplo, un indicio de desvanecimiento al negro, y un indicio de silenciamiento de audio sobre el otro extremo no pueden utilizarse.
El silenciamiento de audio puede utilizarse en la división de segmentos. Como los anuncios que tienen una longitud de 30 segundos ocurren más frecuentemente, en un sistema de reconocimiento de anuncios de televisión, los segmentos que tienen longitudes iguales a múltiplos del mismo, por ejemplo 60, 90, ó 120 segundos, pueden dividirse en una pluralidad de segmentos que tienen una longitud de 30 segundos. Estos segmentos pueden dividirse utilizando el silenciamiento de audio además de un cambio de escena como indicios de división. Esto es, el segmento se examina cada intervalo de 30 segundos para determinar si están presentes un silenciamiento de audio y un cambio de escena, con lo cual el segmento se divide. La división de segmentos de esta forma es diferente de la realizada sobre segmentos largos, en la que los nuevos segmentos que tienen una longitud por encima de un valor predeterminado, por ejemplo 60 segundos se dividen en dos en una posición arbitraria incluso si no estén presentes los indicios del silenciamiento de audio y de cambio de escena mencionados anteriormente.
Cuando ocurre un número relativamente alto de desvanecimientos al negro, o cuando se detecta un desvanecimiento al negro durante un periodo de tiempo relativamente largo, esto normalmente indica que se está detectando una señal que tiene una calidad relativamente pobre.
Excesivos desvanecimientos al negro pueden ser el resultado de una señal pobre o ruido en la entrada. Intentando detectar nuevos segmentos desde una señal de calidad pobre resulta en una detección de segmentos paja. Para corregir tal situación no se aceptan indicios de una porción de señal que se determina que tiene tal ocurrencia relativamente alta de desvanecimientos al negro. Los indicios que no se aceptan de este modo no pueden usarse para un indicio de comienzo o final de un nuevo segmento.
El rechazo de indicio descrito anteriormente se realiza utilizando varios factores, por ejemplo, la cantidad de tiempo del desvanecimiento al negro, el número de transiciones activado/desactivado de desvanecimientos al negro como se describe más adelante en este documento, y la cantidad de tiempo de no desvanecimiento al negro que ocurren durante el bucle interior descrito previamente. Las variables correspondientes a cada uno de estos factores se inicializan una vez que se detecta un indicio adecuado de cola adecuado (antes de comenzar la exploración del bucle interior). Después de esto, como el bucle interior está explorando en busca de un indicio principal la señal se monitoriza para detectar los factores anteriores. Si se detecta un posible nuevo segmento, el segmento respectivo se examina en busca de la presencia de los factores anteriores. Si el número de ocurrencias de estos factores en un segmento excede un valor máximo predeterminado (por ejemplo, una cantidad máxima de tiempo predeterminada de desvanecimiento al negro y/o un número máximo predeterminado de transiciones activo/desactivo de desvanecimientos al negro), entonces el segmento no se acepta como un nuevo segmento.
De acuerdo con un segundo modo de funcionamiento, el módulo de detección de nuevos segmentos realiza el proceso ilustrado en la Fig. 13 para detectar nuevos segmentos de interés. En la primera etapa S400, el módulo de detección de nuevos segmentos explora los indicios y selecciona todos los intervalos que tienen posibilidades razonables para nuevos segmentos y sitúa tales intervalos en una lista de posibles segmentos para su re-examen posterior. Posteriormente, el procesamiento se retarda en la etapa S410 durante un intervalo predeterminado seleccionado para maximizar la posibilidad de que los segmentos que pueden solapar los segmento posibles ya listados se detecten antes de determinar cuáles de los segmento conflictivos se aceptarán y cuales se rechazarán. El intervalo de retardo puede ser, por ejemplo, al menos 35 segundos de modo que no se pierdan los segmentos de 30 segundos (que ocurren más frecuentemente) debido a información insuficiente sobre segmentos potencialmente solapados.
Después del retardo de decisión, el procesamiento continúa en la etapa S420 en la que se compara cada posible segmento con los demás segmentos en la lista para determinar si se presentan conflictos. Si así es, se aplica un heurístico para decidir qué segmento estará de acuerdo con una prioridad mayor en base a una combinación lineal de factores relevantes. Tales factores incluyen la longitud nominal, indicios asociados, y desviación de la longitud nominal. De este modo una vez que se han priorizado los segmentos conflictivos, el segmento de prioridad más elevada se reporta a la base de datos (con posible recogida de audio/vídeo para su observación en la estación de trabajo del sitio central) y los segmentos de menor prioridad se marcan como segmentos descartados. No obstante, después de un retardo adicional, representado por la etapa S430, los segmentos descartados se re-examinan para determinar si aún existe conflicto con un segmento aceptado. Si no es así, el segmento descartado previamente pero no conflictivo se reporta a la base de datos como un segmento de umbral 2 como se explicará más adelante en este documento).
El modo en el cual la valoración del conflicto en el proceso de priorizar de la etapa S420 puede resultar en una aceptación posterior de un segmento previamente desechado se ilustra por el siguiente ejemplo. En un posible escenario, se asume que un segmento A solapa y ocurre más tarde que un segmento B, mientras que el segmento B solapa y se asume que ocurre más tarde que un segmento C. Se asume además que los segmentos A y C no solapan. Si el segmento B se compara primero con el segmento A, de modo que al segmento B se da prioridad sobre A, entonces el segmento A se rechaza. No obstante, el segmento B se comparará con el segmento C, y si se prefiere el segmento C entonces el segmento B se rechazará también. Una vez que el segmento B se ha rechazado, el segmento A no está ya en conflicto, y puede, por lo tanto, aceptarse incluso después de un rechazo anterior.
De acuerdo con un tercer modo de operación del módulo de detección de nuevos segmentos, como se ilustra en la Fig. 14, en la etapa S500 se exploran los indicios para localizar posibles segmentos que serían aceptables como nuevos segmentos de interés de acuerdo con los criterios descritos anteriormente en este documento. En la etapa siguiente S510, el procesamiento se retarda, por ejemplo, durante cinco minutos para asegurar que todos los segmentos posibles relacionados se han detectado también. A partir de entonces, en al etapa S520 adjunta, los segmentos que solapan y conflictivos se sitúan en los grupos respectivos de segmentos relacionados para un procesamiento adicional, por ejemplo, marcando un nodo establecido para cada uno de tales segmentos en una estructura de doble extremo apropiado con un número arbitrario que identifica su grupo respectivo.
A partir de entonces, se realiza un heurístico de dos etapas en secuencia en las etapas S530 y S540. En la etapa S530, el módulo de detección de nuevos segmentos determina las divisiones aceptables junto con los diversos segmentos bajo consideración. Una división es una posible subdivisión o agrupamiento de segmentos identificados basados sobre longitudes nominales aceptadas para segmentos de interés. Por ejemplo, con referencia a la Fig. 15, se ilustra un árbol de división para un segmento de 120 segundos con una frontera de desvanecimiento al negro cada 30 segundos en el mismo. En la Fig. 15, las posibilidades para dividir los segmentos de 120 segundos se disponen en una estructura de árbol donde cada camino desde la raíz 600 a una hoja nodo (por ejemplo las hojas nodo 602 y 604) representan un modo respectivo para dividir el segmento de 120 segundos. Los números 30, 60, 90 y 120 representan la duración en segundos, o longitud del segmento, de un segmento posible formado desde el segmento principal de 120 segundos. Se ve que puede aparecer un segmento más de una vez sobre el diagrama.
Una vez que se ha definido los posibles modos de dividir un segmento determinado de acuerdo con el árbol de división, el árbol se atraviesa y cada camino (esto es, las posibles combinaciones de segmentos) se evalúan de acuerdo con un conjunto de reglas predeterminadas para determinar divisiones aceptables.
Las reglas predeterminadas que se emplean en evaluar la aceptabilidad de las posibles divisiones se basa en la longitud nominal del segmento principal y de los posibles sub-segmentos, así como los umbrales de audio/vídeo (A/V) determinados para los mismos como se explica más adelante en este documento en conexión con la determinación del nivel de captura selectiva. Esencialmente, las reglas se diseñan para impedir las divisiones de umbrales A/V, esto es, una división de un segmento de interés en sub-segmentos que tienen umbrales A/V diferentes. Las reglas se diseñan también para favorecer divisiones en longitudes encontradas frecuentemente tales como los segmentos de 30 segundos. Por ejemplo, un segmento de umbral A/V 2 se divide en una pluralidad de sub-segmentos si todos los sub-segmentos tienen un umbral A/V de 1. Además, un segmento de 45 segundos se dividirá en segmentos encontrados con mayor frecuencia, tales como los segmentos de 15 segundos y los segmentos de 30 segundos. Las diversas reglas se almacenan ellas mismas en una tabla que permite futuras modificaciones.
Si la aplicación de las reglas anteriores resulta en varias divisiones aceptables, las divisiones aún conflictivas se priorizan de acuerdo con las siguientes reglas adicionales. En primer lugar, las divisiones que obtienen la mayor duración de segmentos de umbral A/V 1 se favorecen respecto a las otras. Si hay entonces más de una división restante, las divisiones se evalúan sobre una escala de puntuación basada en longitudes nominales de cada segmento en la división, de modo que se favorecen las longitudes de segmentos de que ocurren comúnmente. Esto es, se asigna un valor de puntos por segundo para cada longitud nominal y a continuación se multiplica por la longitud del segmento para acumular una puntuación total para cada longitud nominal. Por ejemplo, si los segmentos de 30 segundos son de acuerdo con 3 puntos por segundo, mientras que los segmentos de 15 segundos y 45 segundos son cada uno de acuerdo con 2 y 1 punto por segundo respectivamente, el segmento de 45 segundos obtendría un total de 45 puntos, mientras que la división 30/15 obtendría un total de 120 puntos, lo cual favorece de este modo la división. Consecuentemente, la escala se construye para favorecer las divisiones que obtienen segmentos de las longitudes que ocurren más comúnmente. Si después de la aplicación de las reglas anteriores, queda más de una división, se eligen entonces una arbitrariamente.
Una vez que se ha realizado el análisis de división en la etapa S530, se realiza el análisis de conflictos en la etapa S540 de acuerdo con el cual se da prioridad a los segmentos más probables de entre una pluralidad de segmentos que solapan en el tiempo (que son, mutuamente excluyentes). Los segmentos que son parte de una división se consideran ahora individualmente. Cada par de segmentos en conflicto se consideran de acuerdo con un heurístico explicado más adelante y se elije el mejor. Se elige el segmento único más preferido, por comparación en parejas. Si después de realizar esta elección, hay menos segmentos preferidos que no están en conflicto con esta elección, se aceptan también.
El heurístico es un sistema de calificación que genera una función lineal de las propiedades de cada segmento, concretamente, la longitud nominal, los indicios y la desviación de la longitud nominal. Se asigna una puntuación para cada valor de una propiedad determinada en base a los siguientes principios. Los indicios de ocurrencias se consideran más fuertes que los indicios de nuevos segmentos que a su vez se consideran más fuertes que un único desvanecimiento al negro. Con respecto a la desviación de la longitud nominal, es más probable que los segmentos sean más cortos que la longitud nominal que más largos, y cuanto más se desvía su longitud de la longitud nominal, menos probable es que se haya detectado un segmento de interés. La desviación más probable es entre 0 -0,2 segundos. En el caso de la longitud nominal, como se ha observado anteriormente, los segmentos de 30 segundos son los que se encuentran más frecuentemente, seguidos por los segmentos de15 segundos, 10 segundos y 60 segundos, en este orden, mientras que los elementos de 20, 45, 90 y 120 segundos se considera que son bastante escasos. En conjunto, los indicios se ponderan más fuertemente que las otras dos propiedades. No obstante, cuando la frecuencia de la propiedad de longitud nominal es la única consideración, se presenta un caso especial. Concretamente, si ambos segmentos bajo consideración tienen un umbral A/V de 1 y un segmento está contenido en el otro, generalmente el segmento de más longitud se preferirá y el valor de puntos adecuado se asignaría entonces dependiendo de las longitudes nominales de los dos segmentos.
Nivel de Captura Selectiva
El módulo del nivel de captura selectiva sirve para reducir el procesamiento de los segmentos paja en los sitios locales 16 para impedir reportar éstos al sitio central 12 que malgastaría el tiempo del operario de la estación de trabajo. Un segmento paja es un segmento que se ha encontrado por el sistema experto como un segmento de interés, cuando de hecho no lo es. Por ejemplo, un elemento paja puede ser unas noticias breves o una porción de programación normal delimitada por indicios y que tienen la misma longitud que un segmento de interés.
El procesamiento de los segmentos paja incrementa el tiempo de procesamiento del sistema 10 (Fig. 1) y sus costes de operación. Esto es, un segmento que se encuentra como un nuevo segmento de interés, pero que es realmente un segmento paja, se transmite desde el sitio local 16 a través del sitio central 12 a una de las estaciones de trabajo 14 para su procesamiento por un operario, de modo que un tasa elevada de paja elevada incrementa sustancialmente el tiempo que los operarios deben invertir en intentar clasificar los nuevos segmentos. De este modo, el trato de segmentos paja como segmento de interés incrementa desventajosamente la comunicación entre los sitios locales 16 y el sitio central 12, incrementa la carga de trabajo del operario en las estaciones de trabajo 14 e incrementa el procesamiento que debe realizarse en el sitio local 16.
El módulo de nivel de captura selectiva divide los segmentos encontrados como nuevos segmentos de interés potenciales en dos grupos, concretamente, segmentos que son más probablemente segmentos de interés (no paja) y segmentos que son menos probablemente segmentos de interés. A los segmentos que son más probablemente segmentos de interés se asigna un nivel de captura de vídeo (A/V) 1, mientras que a los segmentos que son menos probablemente segmentos de interés se asigna un nivel de captura (A/V) 2. Una vez detectado un posible nuevo segmento de interés, tanto si se ha asignado nivel de captura de 1 ó 2, se produce una firma de clave para el mismo y se almacena, como se explica más tarde en este documento. Los datos de audio y vídeo (A/V) para un segmento que tiene un nivel de captura (A/V) 1 se recogen inmediatamente para su transmisión al sitio central bajo la detección de un segmento de interés. Por el contrario, los datos A/V para un segmento que tiene un nivel de A/V de 2 se recogen sólo después de que su firma de clave previamente almacenada ha tenido al menos una coincidencia. Esto es, un segmento con un nivel 2 de captura de A/V asignado se difundirá y se detectará al menos dos veces (una vez para detectar el segmento como un nuevo segmento y otra vez de nuevo debido a una coincidencia sobre su firma de clave) antes de que se recojan los datos A/V asociados con el mismo. Si su firma de clave no produce una coincidencia dentro de un periodo predeterminado, se purga desde el sistema.
Sólo segmentos que tienen sus datos A/V recogidos se suministran desde el sitio local respectivo 16 a través del sitio central 12 a una de las estaciones de trabajo 14 (Fig. 1). La mayoría de los segmentos de interés se difunden más de una vez, mientras que los segmentos paja sólo se ven una única vez. Consecuentemente asignando un nivel de captura A/V 2 a segmentos que son menos probablemente segmentos de interés, de modo que sus datos A/V no se recogen hasta una coincidencia posterior sobre tales firmas de claves de los segmentos, puede conseguirse ahorrar costos de operación sustanciales.
De acuerdo con una técnica para asignar niveles de captura en un sistema de reconocimiento de anuncios de televisión, se asigna un nivel de captura 2 a un nuevo segmento si satisface una de las siguientes condiciones:
1.
Si la única evidencia en cualquiera de los extremos del nuevo segmento es una evidencia de silenciamiento de audio. Como se ha tratado previamente, los silenciamientos de audio ocurren frecuentemente tanto en las fronteras de segmentos como dentro de los segmentos, los nuevos segmentos basados en indicios de silenciamientos de audio son probablemente segmentos paja.
2.
Si el nuevo segmento no está junto o próximo a un grupo o cápsula de anuncios. Como la mayor parte de anuncios se difunden en grupos o cápsulas, un nuevo segmento está probablemente junto a tal cápsula. La proximidad a una cápsula se valora ventajosamente determinando la proximidad en el tiempo del nuevo segmento a otro nuevo segmento o un segmento que tiene una coincidencia aceptada. Como la proximidad de un segmento que tiene una coincidencia aceptada al nuevo segmento a valorar proporciona una indicación más fiable de proximidad de cápsula que la proximidad de otro nuevo segmento del mismo, se considera que otro nuevo segmento próximo sólo si viene dentro de un rango de proximidad que es más estrecho que el rango de proximidad establecido para segmentos que tienen coincidencias aceptadas.
3.
Si la longitud nominal o duración del nuevo segmento es una longitud de anuncio que ocurre infrecuentemente, por ejemplo, longitudes nominales de 20, 45, 90 o 120 segundos. Como los anuncios raramente tienen estas longitudes, un nuevo segmento que tiene tal longitud es probablemente un segmento paja.
4.
Si el nuevo segmento se desvía de la longitud nominal en una cantidad próxima al límite predeterminado de desviación de longitud adoptado para determinar la aceptabilidad del segmento como un nuevo segmento de interés. Por ejemplo, si el límite de desviación de longitud más bajo para un anuncio de 30 segundos es un segundo de modo que se estima que los segmentos que tienen una duración menor que 29 segundos no son nuevos segmentos de interés, un segmento que tiene una duración de aproximadamente 29,1 segundos se le dará un nivel de captura (A/V) de 2. Cuanto más se desvía un nuevo segmento de la longitud nominal, más probablemente es un segmento paja.
Por el contrario, a un potencial nuevo segmento se asigna un nivel de captura 1 si no tiene asignado un nivel de captura 2.
Se aprecia que las condiciones 1, 3 y 4 son fácilmente verificables en el instante que se encuentra un nuevo segmento de interés. No obstante, la verificación de si un nuevo segmento está próximo a una cápsula de acuerdo con la condición 2 requiere una valoración de las señales recibidas posteriormente para coincidencias y otros nuevos segmentos. Por lo tanto, como ejemplo, si el nuevo segmento a valorar es el primer segmento de una cápsula, no se sabe inmediatamente si el nuevo segmento está próximo a la cápsula. De acuerdo con una realización ventajosa, los nuevos segmentos que satisfacen todas las condiciones para un nivel de captura 1 excepto la condición 2 están de acuerdo inicialmente con un nivel de captura A/V 1 de modo que los datos A/V correspondientes se almacenan en la base de datos para permitir su transmisión posterior al sitio de control. Esta determinación se revisa de nuevo después de un tiempo predeterminado de, por ejemplo, varios minutos, en cuyo momento si el segmento no se encuentra aún próximo a una cápsula, el nivel de captura A/V de este segmento se cambia a nivel de captura 2. Este procedimiento posibilita la retención de los datos A/V del segmento pendientes de una valoración completa de toda la información necesaria a determinar cuando se obtiene la condición 2. Si esta valoración retardada establecía entonces que se asignaría al segmento un nivel de captura A/V 1, los datos A/V del mismo están aún disponibles para su transmisión al sitio central. De lo contrario, se borran de la base de datos.
El uso de la técnica del nivel de captura selectiva descrita anteriormente permite al sistema experto relajar su criterio para determinar qué segmentos son probablemente segmentos de interés mientras mantiene una carga de procesamiento aceptable sobre el sistema 10 (Fig. 1). Consecuentemente, el sistema experto es capaz por lo tanto de emplear criterios de nuevos segmentos que permiten la aceptación de relativamente más segmentos como nuevos segmentos de interés, por ejemplo, adoptando tolerancias de longitud relativamente más amplias. Consecuentemente, cualesquiera nuevos segmentos de interés que satisficieran sólo el criterio relajado pueden detectarse cuando de otro modo se perderían. Como resultado, la precisión de coincidencia del sistema global puede mejorarse.
La Fig. 16 ilustra el flujo de la señal para capturar datos de audio y vídeo. Como se muestra en la misma, las señales banda base de audio y vídeo se suministran desde los tarjetas de canal 402 del subsistema de reconocimiento de segmentos a través de los cables 431 y 439, respectivamente, al subsistema de captura de datos 28. El subsistema de captura de datos 28 incluye una tarjeta de captura de vídeo 432, un almacenamiento de anillo de vídeo comprimido 430, un controlador de captura de datos 434, un almacenamiento de anillo de audio comprimido 436 y una tarjeta de captura de audio 438. La señal de vídeo banda base recibida desde el cable 431 se suministra a la tarjeta de captura de vídeo 432 que proporciona continuamente señales de vídeo recibidas nuevamente en forma comprimida al almacenamiento de anillo de vídeo comprimido 430 que mantiene un registro actual de las señales de vídeo comprimido recibidas más recientemente, por ejemplo, las recibidas durante los últimos 3 a 7 minutos. Similarmente, las señales banda base de audio desde el cable 439 se suministran a la tarjeta de captura de audio 438 que proporciona continuamente señales de audio recibidas nuevamente en una forma comprimida al almacenamiento de anillo de audio comprimido 436 que asimismo mantiene un registro actual de las mismas.
El subsistema de captura de datos 28 comunica con la computadora de control 30 que, a su vez, utiliza el sistema experto 414, el control de la base de datos 416, la base de datos 412, el control de recogida de A/V 440 y el disco 442. Como ejemplo, si se ha detectado un nuevo anuncio que tiene un valor del umbral de captura de 1, el sistema experto 414 suministra una señal indicándolo al control de la base de datos 416. Una vez recibida tal señal, el control de la base de datos 416 suministra una señal de comando solicitando que los datos respectivos de audio y vídeo se transfieran al control de recogida de A/V 440 que, a su vez, suministra una señal de petición correspondiente al controlador de captura de datos 434. Una vez recibida tal señal, el controlador de captura de datos 434 suministra señales de control respectivas al almacenamiento de anillo de vídeo 430 y al almacenamiento de anillo de audio 436, con lo cual se suministran las señales de vídeo y audio solicitadas al controlador de captura de datos 434. Las señales de audio y vídeo solicitadas se suministran después de esto desde el controlador de captura de datos 434 al control de recogida de A/V 440 que, a su vez, suministra las mismas al disco 442 para su almacenamiento. Además, el control de recogida de A/V 440 suministra el número de identificación del segmento junto con una señal que indica si los datos de audio y vídeo se han recogido para el respectivo segmento en la base de datos 412. Además, en ciertas circunstancias como se ha descrito previamente, el sistema experto 414 puede suministrar una señal de rescisión al control de la base de datos 416. Tal señal se suministra después de esto al control de A/V 440 con lo cual se borra el fichero de datos A/V apropiado. En estas situaciones, el control de A/V 440 suministra una señal de confirmación al control de la base de datos 416 que confirma el borrado de tales ficheros.
Generación de firma de clave
Una vez detectado un nuevo segmento de interés, como se ha observado anteriormente, el sistema 10 produce una firma de clave para el segmento que se usa más tarde para reconocer una redifusión del mismo segmento comparando o emparejando la palabra clave y ocho palabras de coincidencia de la firma de clave con las correspondientes firmas de trama de una firma de segmento producida por el segmento de redifusión. Con referencia a la Fig. 17, la computadora de control 30 implementa un módulo generador de firmas de clave 410 que recibe las firmas de trama secuenciales para el segmento de interés, denominado como firma de segmento, para producir un firma de clave del mismo. Esta firma de clave se suministra a continuación al subsistema de reconocimiento de segmentos 26 para su uso en operaciones de emparejamiento posteriores.
Se aprecia que un número relativamente grande de segmentos de interés (por ejemplo anuncios) se recibirá de cada uno de los sitios locales 16 (Fig. 2) y es deseable que cada una de tales firmas de clave tenga un tamaño relativamente pequeño para minimizar la cantidad de memoria necesaria. Es deseable además que las firmas de clave coincidan fácilmente bajo la redifusión del segmento respectivo t, mientras que se impiden las falsas coincidencias. Consecuentemente, el módulo generador de firmas de clave 410 produce firmas de clave que son ventajosamente pequeñas en tamaño y que se seleccionan y estructuran para maximizar la probabilidad de coincidencia sobre una redifusión del segmento respectivo, mientras que se reduce el potencial de falsas coincidencias.
Se recibe una firma de segmento para la generación de firma de clave para su procesamiento por el módulo 410 en la forma de firmas de trama combinadas de vídeo y audio. El módulo 410 separa a continuación la firma del segmento recibida en las firmas del segmento de audio y de vídeo que procesan separadamente. Por ejemplo, el módulo de generación de firmas de clave puede realizar dos ciclos de procesamiento separados, esto es, uno para la firma del segmento de vídeo y otro para la firma del segmento de audio. Como resultado, se produce típicamente al menos una firma de clave de audio (o sub-firma) y una firma de clave de vídeo (o sub-firma) por cada firma de segmento, teniendo cada una el mismo formato de datos.
Cada firma de clave incluye preferiblemente 16 elementos que se describirán a continuación con detalle.
1.
Número de identificación de segmento (ID de Segmento) - este número de identificación identifica unívocamente el segmento identificado por la firma de clave y, por ejemplo, en un sistema de reconocimiento de anuncios de televisión puede usarse para asociar más fácilmente anuncios con sus firmas de clave respectivas. Como se describe más adelante en este documento, el módulo 410 genera bajo ciertas circunstancias hasta cuatro firmas de clave de vídeo y cuatro firmas de clave de audio para un segmento determinado. Consecuentemente, el segmento ID se comprende de un número divisible por cinco junto con un número de 1 a 4 que indica el número de firmas de clave de vídeo y audio producidas por el segmento.
2.
Palabra clave - se selecciona una palabra clave de 16 bits para cada segmento de entre las firmas de trama del mismo que comprende su firma de segmento. Como se ha descrito anteriormente, las palabras clave se usan por el subsistema de reconocimiento de segmentos 26 como un índice para la base de datos de las firmas de clave para minimizar el tiempo requerido en detectar una coincidencia.
3.
Desplazamiento de la palabra clave - esto representa la distancia desde el comienzo de segmento respectivo a la palabra clave. Este desplazamiento puede expresarse, por ejemplo, como el número de tramas desde el comienzo del segmento o en términos de tiempo desde el comienzo de tal segmento.
4.
Palabras de coincidencia - estas son una pluralidad de palabras de coincidencia de 16 bits (por ejemplo, 8) en cada firma de clave. Las palabras de coincidencia de una firma de clave determinada se usan por el subsistema de reconocimiento de segmentos 26 durante la operación de emparejamiento después de que la palabra clave asociada ha emparejado una trama entrante. Esto es, como se ha descrito previamente, cada firma de trama recibida se compara con todas las palabras clave almacenadas. Bajo la detección de una coincidencia entre una firma de trama entrante y una palabra clave (por ejemplo, en base a una coincidencia de al menos quince valores de bit correspondientes de la firma de trama y la palabra clave), todas las palabras de coincidencia asociadas con esta palabra clave se comparan entonces con las tramas entrantes apropiadas como se determina por los desplazamientos de las palabras de de coincidencia, descritas más adelante. Si el número total de bits no enmascarados que no coinciden en valor combinado con la mitad del número de bits de las firmas de trama comparadas que están enmascaradas, no excede una cuenta de errores predeterminada o umbral (descrito más adelante), entonces se encuentra una coincidencia. El criterio para seleccionar la palabra clave y las palabras de coincidencia para las firmas de clave se describen más tarde en este documento.
5.
Desplazamiento de la palabra de coincidencia - hay un desplazamiento de la palabra de coincidencia para cada una de las palabras de coincidencia. Cada desplazamiento de la palabra de coincidencia indica la posición de la palabra de coincidencia respectiva respecto a su palabra clave. Como con los desplazamientos de palabras clave descritos anteriormente, los desplazamientos de las palabras de coincidencia pueden expresarse en términos de diferencias de tiempo o número de tramas. Estos desplazamientos de las palabras de coincidencia se usan para indicar cuál de las firmas de trama entrantes del segmento de difusión se usarán para la comparación con las palabras de coincidencia en la firma de clave cuando se ha detectado una coincidencia de la palabra de clave.
6.
Tipo de firma - el tipo de firma identifica si la firma es una sub-firma de audio o una sub-firma de vídeo. Como las sub-firmas de clave de audio y vídeo tienen el mismo formato, se usa este elemento para distinguirlas.
7.
Cuenta de errores - la cuenta de errores o umbral de error se genera por el módulo de generación de firmas de clave para cada firma de clave generada e indica el máximo número de errores que pueden permitirse durante el proceso de emparejamiento antes de que una coincidencia que se está considerando se rechace como inaceptable. La cuenta de errores puede estar basada sobre características específicas de la firma de clave generada, por ejemplo, la confiabilidad esperada del segmento correspondiente y la probabilidad de un emparejamiento falso de la firma de clave. Una técnica ventajosa para determinar la cuenta de errores utiliza el número probable de coincidencias de bit para las palabras de coincidencia, como se describe más adelante, redondeando este número hacia abajo y restando el número resultante del número total de posibles coincidencias. La cuenta de errores resultante se hace más baja en el caso de segmentos más cortos que son más probablemente coincidencias falsas. Se aprecia que, bajo ciertas condiciones (por ejemplo debido al ruido), la firma de clave puede que no coincida perfectamente con una redifusión del segmento correspondiente. La cuenta de errores compensa tales discrepancias anticipadas para posibilitar la detección del segmento de redifusión.
8.
Cuenta de tramas - la cuenta de tramas indica el número de tramas contenidas con la firma de clave que, en la realización preferida tiene un valor de 8.
9.
Longitud - esta se refiere al número de tramas en el segmento respectivo.
10.
Reglas de coincidencia - Las reglas de coincidencia se generan por el módulo generador de firmas de clave para cada segmento representado por una o más firmas de clave en la base de datos y son líneas directivas utilizadas por el subsistema experto 414 para determinar si aceptar o no una coincidencia de las firmas de clave para tal segmento. Si hay una probabilidad relativamente alta de que ambas sub-firmas de audio y vídeo coincidan falsamente, las reglas de coincidencia requieren que ambas sub-firmas de clave de audio y vídeo coincidan para aceptar una coincidencia. Si, por el contrario, se determina que ni la sub-firma de clave de audio ni la de vídeo son probablemente de falsa coincidencia y, en efecto, pueden tener dificultades en emparejarse, las reglas de coincidencia aceptan una coincidencia si coinciden cualquiera de las sub-firmas de audio o de vídeo.
Las reglas de coincidencia se basan en la probabilidad de que las sub-firmas coincidan correctamente con una redifusión del segmento correspondiente, así como las probabilidades de que las sub-firmas coincidan falsamente. El modo en que la probabilidad de una correcta coincidencia se valore se discute mas adelante en este documento. El cociente de la probabilidad de un falso emparejamiento o falsa coincidencia se determina como la media de un primer valor inversamente proporcional a la cantidad de información en la firma (esto es, cuanto mayor número de bits que son iguales, más alto se hace el primer valor) y un segundo valor que es un valor de aglutinación normalizado para la firma. El valor de aglutinación normalizado se obtiene multiplicando el número de firmas de clave en la base de datos que tienen la misma palabra clave como la firma bajo consideración, por la probabilidad a priori de que se produzca la firma de trama (o cualquier permutación de un único bit de la misma) correspondiente con esa palabra clave. El valor de aglutinación normalizado representa la tendencia de las firmas de clave a concentrarse (o aglutinarse) bajo una determinada palabra clave.
11.
Número de bits de máscara fijado - este número representa la suma total de todos los bits de máscara que se fijan para la palabra clave y las todas las palabras de coincidencia asociadas.
12.
Cociente de falsa coincidencia - este representa la probabilidad de que la firma de clave respectiva proporcione una falsa coincidencia cuando se compara frente a una firma de segmento y se determina en la manera tratada anteriormente en conexión con las reglas de coincidencia.
13.
Nitidez - a menudo hay múltiples tramas consecutivas en un segmento que son sustancialmente idénticas, por ejemplo, tramas de la señal de vídeo correspondientes a una única escena. Tales grupos de tramas consecutivas sustancialmente idénticas se llaman carreras. La nitidez representa la tasa de cambio en los bits de las firmas de trama en los extremos de las carreras de las cuales se derivó la firma de clave y se usa para delinear los bordes de las carreras.
14.
Probabilidad de coincidencia de otras sub-firmas de clave correspondientes - como se ha mencionado previamente, las firmas de clave puede dividirse en dos sub-firmas, esto es, una para audio y otra para vídeo. La probabilidad de coincidencia se denomina en este documento a la probabilidad de que la otra sub-firma correspondiente coincida para el segmento respectivo. Por ejemplo, consideremos la situación en la que el subsistema de reconocimiento de segmentos 26 detecta una coincidencia de audio, pero no una coincidencia de vídeo, para un segmento en particular. Esta información de coincidencia se suministra posteriormente al sistema experto con lo cual, si la sub-firma de clave de audio ha indicado en la misma que hay una probabilidad de coincidencia relativamente alta de que la otra sub-firma (es decir, la sub-firma de vídeo) coincida, el sistema experto probablemente no aceptará esta como una coincidencia, ya que la sub-firma de clave de vídeo también habrá coincidido. La probabilidad de coincidencia se determina en el curso de la palabra de clave de y la selección de la palabra de coincidencia, como se describe más adelante.
15.
Número de sub-firmas - este número representa el número de sub-firmas que ha generado el módulo de generación de firmas de clave para un respectivo segmento. En ciertas situaciones, como se ha mencionado previamente, el módulo de generación de firmas de clave puede generar múltiples firmas (o sub-firmas) para un segmento particular si esto incrementa la probabilidad de obtener más coincidencias aceptables. Por ejemplo, si la primera sub-firma de clave producida tiene una probabilidad de falsa coincidencia baja, así como una baja probabilidad de coincidencia verdadera, el módulo 410 puede generar sub-firmas adicionales para el segmento para incrementar la probabilidad de una coincidencia verdadera. Si es así, al generar cada sub-firma adicional el módulo 410 excluye firmas de trama de las carreras usadas previamente para generar sub-firmas de clave. No obstante, si la probabilidad de falsa coincidencia de la primera sub-firma de clave es comparativamente alta, no se generan sub-firmas adicionales ya que incrementaría las posibilidades de una falsa coincidencia. Además, si el módulo 410 determina que la probabilidad de falsa coincidencia para una sub-firma de vídeo es muy alta, puede elegir no generar ninguna sub-firma de vídeo. En una realización preferida, el módulo de generación de firmas de clave puede generar hasta cuatro sub-firmas de clave de audio y vídeo.
16.
Ancho de pico esperado - típicamente, tanto las palabras clave como las palabras de coincidencia se seleccionan del medio de las carreras de firmas de trama. Consecuentemente, el subsistema de reconocimiento de segmentos 26 puede detectar múltiples coincidencias sobre una firma de clave determinada para tramas consecutivas. El número de tales coincidencias detectadas consecutivamente se denomina como ancho de pico. El módulo de generación de firmas de clave examina la estructura de la carrera en la firma de segmento y genera un valor de ancho de pico anticipado del mismo.
Como se ha descrito previamente, cada trama de un segmento entrante tiene una firma de trama asociada con el mismo. El módulo de generación de firmas de clave examina cada una de estas firmas de trama para seleccionar una palabra clave aceptable y ocho palabras de coincidencia para la firma de clave respectiva. Al realizar tal selección, el módulo generador de firmas de clave 410 emplea los siguientes criterios:
1.
Distribución de las firmas de trama seleccionadas - las palabras de coincidencia se seleccionarán de entre las firmas de trama que se distribuyen uniformemente a través de la firma de segmento. Tal selección reduce la probabilidad de falso emparejamiento. Por ejemplo, si dos o más anuncios tienen escenas similares, seleccionado palabras de coincidencia de entre las firmas de trama distribuidas uniformemente tiende a causar que al menos varias de las palabras de coincidencia a seleccionar de las firmas de trama queden fuera de las escenas similares. La distribución de las palabras de coincidencia se cuantifica como una separación normalizada en tiempo o intervalos de trama entre las mismas. No obstante, las firmas de tramas próximas a los extremos del segmento evitarán asegurar que las carreras de las que se han seleccionado están contenidas dentro del segmento respectivo, así como evitar utilizar señales que son más propensas a variaciones en el nivel de la señal (por ejemplo, debido a los retardos inherentes en el control automático de ganancia). Además, las palabras clave se seleccionan preferiblemente de tramas próximas al comienzo del segmento, para maximizar el tiempo disponible para el sistema experto para evaluar una coincidencia sobre la firma de clave correspondiente. Tanto las palabras clave como las palabras de coincidencia se seleccionarán de firmas en el centro de las carreras o cerca; esta consideración se implementa por el criterio de probabilidad de coincidencia en el modo descrito más adelante.
2.
La probabilidad de que se genere un valor de firma de trama particular - las firmas de trama generadas por el subsistema de reconocimiento de segmentos 26 puede no estén distribuidas uniformemente de entre todos los valores posibles de las firmas de trama, pero en cambio puede aglutinarse con otras firmas de trama similares. Esto corresponde con la distribución a priori de las firmas de trama tratadas anteriormente en conexión con las reglas de coincidencia y se determina recogiendo estadísticamente grandes cantidades de firmas de trama y determinando su distribución global para determinar una probabilidad normalizada de generación para cada firma de trama potencial. El aglutinamiento de firmas de trama puede causar que ocurran falsas coincidencias y aumente significativamente la carga de procesamiento del correlacionador. Como resultado, al seleccionar las firmas de trama, el módulo de generación de firmas de clave favorece las firmas de trama que no están tan aglutinadas en comparación con una firma de trama de aglutinación, minimizando por lo tanto el número de firmas de clave que tienen palabras de coincidencia con valores similares.
3.
La distribución de las palabras clave establecidas previamente - el módulo generador de firmas de clave 410 considera la distribución de palabras clave que se han generado previamente y se han almacenado en una base de datos del subsistema de reconocimiento de segmentos 26. Como ejemplo, para una palabra clave particular, el módulo de generación de firmas de clave considera el número de firmas de clave generadas que están asociadas con esta palabra clave. Si tal palabra clave está ya asociada con un gran número de firmas de clave, tal palabra clave es menos probable que se seleccione comparada con una palabra clave asociada con un menor número de firmas de clave. De este modo, se utiliza este factor, como el factor 2 anterior para minimizar el aglutinamiento para reducir el número de falsas coincidencias que ocurren y para reducir la carga de procesamiento del correlacionador. No obstante, a diferencia del factor 2 anterior, este factor es dependiente de las señales de difusión. Por ejemplo, si se reciben varios anuncios que tienen contenidos de datos similares, entonces pueden generarse varias firmas de clave que tienen idénticas palabras clave. Esto no es debido al subsistema de reconocimiento de segmentos 26, a diferencia del factor 2 anterior, pero es una función de los datos de difusión y se determina como una frecuencia normalizada de ocurrencia. Los factores 2 y 3 se multiplican para obtener un factor único indicando la falta de deseo de una palabra clave determinada debido al agrupamiento.
4.
Longitud de la carrera - se ha observado que carreras relativamente cortas, por ejemplo, las que tienen longitudes menores que aproximadamente cinco tramas, son menos probablemente coincidentes comparadas con las carreras más largas. Además, también se observa que la probabilidad de tener una coincidencia aceptable no aumenta significativamente para carreras relativamente largas, por ejemplo, aquellas que tienen una longitud más larga que aproximadamente diez tramas. No obstante, tales carreras relativamente largas pueden producir firmas de clave que tienen una entropía relativamente baja. De este modo, es deseable utilizar longitudes de carrera que no son relativamente cortas ni relativamente largas. En el entorno preferido, el módulo de generación de firmas de clave utiliza carreras que tienen una longitud aproximada de cinco a diez tramas. Consecuentemente, se asigna una figura normalizada de mérito para cada longitud de carrera en base a los criterios anteriores.
5.
Probabilidad de coincidencia - una vez que se han definido las carreras de longitud aceptable, el módulo generador de firmas de clave 410 evalúa la probabilidad de que las firmas de trama coincidan satisfactoriamente cada una durante una redifusión del correspondiente segmento de acuerdo con el proceso de coincidencia de la palabra clave. Más específicamente, la palabra clave se selecciona como la firma de trama a un desplazamiento n del segmento más probablemente coincidente bajo la redifusión del segmento dentro de una banda de guarda predeterminada de \pm g firmas de trama. Si la probabilidad de una coincidencia con una firma de trama a un desplazamiento m de acuerdo con el procedimiento de coincidencia de palabras clave (esto es, una coincidencia de todos los 16 bits o de al menos 15 de los 16 bits) se denomina pk(m, n), entonces la probabilidad pk(m, n) puede determinarse como sigue:
pk (m, n) = 15*PM + S[PM/P(i)],
\hskip0.5cm
i = 0 a 15
donde PM es la probabilidad de una coincidencia sobre todos los bits determinada como sigue:
PM = producto de [P(i)],
\hskip0.5cm
i = 0 a 15
y P(i) es la probabilidad de una coincidencia de los bits (i) de una palabra clave potencial y la firma de trama, donde i = 0 a 15. Se apreciará que P(i) se determina sobre la base de los bits de máscara respectivos de la palabra clave potencial y comparándose con la firma de trama.
Se aprecia además que la probabilidad de que una palabra clave potencial con un desplazamiento n coincida con una o más firmas de tramas junto con un intervalo determinado desde un desplazamiento a un desplazamiento b, denominado pk(a:b, n) puede deducirse a partir de la relación:
pk(a:a+1, n) = pk(a,n) + pk(a+1, n) = [pk(a,n) *pk(a+1, n)].
Por inducción, se ve que:
pk(a:b, n) = pk(a:b-1, n) + pk(b, n) - [pk(a:b-1, n) * pk(b, n)],
que permite fácilmente una determinación de la probabilidad que una palabra clave potencial determinada en el desplazamiento n coincida con al menos una firma de trama sobre el intervalo \pm g, denominada pk(n-g:n+g, n). Una técnica ventajosa para determinar la banda de guarda \pm g calcula pk(n-g:n+g, n) para valores de g que aumentan desde cero hasta pk(n-g, n) o bien pk(n+g, n) está por debajo de un umbral predeterminado, lo cual asegura que las palabras clave potenciales cerca de los centros de carreras están ventajosamente acordes con probabilidades más altas que las más próximas a los extremos de las carreras. Determinando tales probabilidades respectivas para todas las palabras clave potenciales de entre las carreras aceptables de la firma de segmento, a cada palabra clave potencial se asigna una figura de mérito basada en la probabilidad de coincidencia determinada en el modo anterior.
Las figuras relativas de mérito se asignan también a palabras de coincidencia potenciales que pueden seleccionarse de las firmas de trama de carreras aceptables. La figura de mérito se determina de acuerdo con el modo en el que se utilizan las palabras de coincidencia en el proceso de coincidencia, concretamente, el número de bits de cada palabra de coincidencia potencial a un desplazamiento n que se esperan que coincidan con las firmas de trama a los desplazamientos respectivos m dentro de la carrera correspondiente se determinan y se promedian sobre la carrera para deducir un número medio de bits que se espera que coincidan sobre la carrera como figura de mérito. El número de bits que se espera que coincidan entre una palabra de coincidencia potencial a un desplazamiento n y una firma de trama a un desplazamiento m, denominado bm(m, n) se determina como sigue:
bm(m, n) = S[P(i)],
\hskip0.5cm
i = 0 a 15
donde P(i) es la probabilidad de una coincidencia de los bits (i), obtenida de la misma forma que en el caso de la determinación de la probabilidad de coincidencia de la palabra clave. A continuación se determina la media del número de bits que se espera que coincidan bm(m, n), sobre una longitud de carrera desde la desviación a hasta la desviación b como sigue:
bm(a: b, n) = S[bm(m, n)] / (b-a+1),
\hskip0.5cm
m = a hasta b.
Las fronteras de a y de b de la carrera se determinan de la misma forma que en el caso de la determinación de la probabilidad de coincidencia de la palabra clave.
6.
Entropía - el módulo de generación de firmas de clave prefiere palabras de coincidencia de las firmas de segmento que tienen una entropía relativamente alta, esto es, las palabras de coincidencia que tienen cada una un contenido de datos respectivo que es diferente que el de otras palabras de coincidencia seleccionadas. La selección de palabras de coincidencia de entropía elevada minimiza la correlación entre palabras de coincidencia y, consecuentemente reduce la probabilidad de falsos emparejamientos. Una diferencia normalizada en el contenido de datos entre las palabras de coincidencia puede determinarse contando el número de bits que son diferentes entre las palabras de coincidencia.
7.
Nitidez de la carrera - el módulo de generación de firmas de clave selecciona preferiblemente una palabra clave y ocho palabras de coincidencia desde dentro de las carreras de tramas que están delimitadas por firmas de trama que tienen valores de firma que son sustancialmente diferentes que los de las tramas adyacentes dentro de la carrera. La diferencia en los valores de bits entre la firma de la trama de frontera y las firmas adyacentes dentro de la carrera se usan para deducir una figura de mérito normalizada para la nitidez de la carrera.
Se aprecia que puede que no siempre sea posible optimizar cada uno de los siete factores anteriores seleccionando una palabra clave y/o palabras de coincidencia. Consecuentemente, para cada palabra clave y/o cada palabra de coincidencia a considerar, el módulo de generación de firma de clave asigna un valor de mérito normalizado para cada uno de los siete factores descritos anteriormente como se ha descrito anteriormente. Para la selección de la palabra clave, se obtienen los factores de ponderación de la palabra clave respectiva desde un fichero de parámetros y se multiplican por los valores de mérito normalizados correspondientes. Los productos se suman a continuación para obtener un valor de mérito global para cada palabra de clave posible. Para la selección de la palabra de coincidencia, se emplea el mismo proceso de ponderación y combinación de los factores de mérito normalizados, utilizando los diferentes factores de ponderación respectivos del fichero de parámetros.
Los ficheros de parámetros se deducen empíricamente. De acuerdo con una técnica para hacerlo, todos los factores de ponderación se fijan inicialmente al mismo valor y las firmas de clave se generan a continuación para evaluar la importancia relativa de cada criterio en la generación de la firma de clave. Este proceso se repite hasta que se averigua por acumulación y evaluación de resultados, los factores de ponderación más ventajosos. Se mantienen diferentes ficheros de parámetros para las firmas de audio y vídeo en reconocimiento de sus características diferentes. Los ficheros de parámetros también incluyen valores permisibles máximos para los umbrales de error como una función de la longitud del segmento, ya que se ha observado que los segmentos relativamente cortos, por ejemplo, aquellos más cortos de aproximadamente 10 segundos, son más propensos a falsas coincidencias que los segmentos relativamente mas largos, por ejemplo aquellos de 30 segundos o más.
Las etapas básicas utilizadas por el módulo de generación de firmas de clave se ilustran en la Fig. 18. Como se muestra en la misma, las firmas de trama de carreras definidas que están bajo consideración para su uso como palabras clave y palabras de coincidencia se obtienen como se muestra en las etapas S200 y S210, respectivamente. Posteriormente, en S220, se seleccionan la palabra clave más aceptable y las palabras de coincidencia comparando los valores de mérito total para cada una de las palabras clave y palabras de coincidencia candidatas, como se ha descrito anteriormente junto con criterios absolutos tales como la observación de los umbrales de error permisibles máximos. En la etapa S230 se crea como se indica la firma de clave correspondiente de la palabra clave seleccionada y las palabras de coincidencia. Posteriormente, en la etapa S240, se hace la determinación de si se producirán más firmas de clave para incrementar la probabilidad de coincidencia. Si la determinación en al etapa S240 se afirmativa, se producen firmas de clave adicionales repitiendo las etapas S200-S230, utilizando, no obstante, diferentes carreras. Si, por el contrario, no se requieren firmas de clave adicionales, como se indica por el NO en la etapa S240, entonces se formulan las reglas de coincidencia para la firma de clave generada en la etapa S230 y se combinan con la firma de clave, como se indica en la etapa S250.
Refiriéndonos de nuevo a la Fig. 17, se ilustran en la misma los flujos de datos de señal típicos en la generación de una firma de clave. El flujo de los datos de señal es principalmente entre el subsistema de reconocimiento de segmentos 26 y la computadora de control 30. Más específicamente, se recibe una señal de difusión deseada por el convertidor respectivo de los convertidores 24, que está sintonizado al canal deseado. Las señales banda base de vídeo y audio se suministran desde el sintonizador 24 a la correspondiente de las tarjetas de canal 402 del subsistema de reconocimiento de segmentos 26 que está adaptado para generar firmas de trama y las correspondientes palabras de máscara para cada una de las tramas de las señales banda base recibidas. Estas firmas de trama y palabras de máscara se suministran al controlador de reconocimiento de segmentos 404 del subsistema de reconocimiento de segmentos 26.
Antes de que pueda determinarse que se ha recibido un nuevo segmento de interés de modo que deba producirse una firma de clave, el controlador de reconocimiento de segmentos 404 intenta emparejar las firmas de trama recibidas con las firmas de clave existentes, como se ha descrito previamente. El controlador de reconocimiento de segmentos 404 suministra indicios (incluyendo información de coincidencia) al módulo del sistema experto 414 contenido dentro de la computadora de control 30 que usa el sistema experto para detectar nuevos segmentos de interés. Posteriormente, el sistema experto 414 suministra una señal de petición al controlador de reconocimiento de segmentos 404 para la firma de segmento del segmento que no coincidía y que puede ser un nuevo segmento de interés. En respuesta a la misma, el controlador de reconocimiento de segmentos 404 recupera la firma de segmento respectiva desde el almacenamiento de anillo de firmas de segmento 406 y suministra la misma al módulo del sistema experto. Si el sistema experto 414 determina que el segmento respectivo es un segmento de interés, el sistema experto suministra una señal, que incluye toda la información necesaria pertinente al mismo (por ejemplo, la firma de segmento, un número de identificación, el canal y la hora del día), a través del módulo de control de la base de datos 416 al generador de firmas de clave 410 implementado por la computadora de control 30. El generador de firmas de clave 410 genera una nueva firma de clave para el segmento recibido del modo descrito previamente y suministra la nueva firma de clave a través del módulo de control de la base de datos 416 al controlador de reconocimiento de segmentos 404 que, a su vez, suministra la misma a la base de datos de firmas de clave 408. Además la información relativa al nuevo segmento de interés se suministra desde el módulo de control de la base de datos 416 a la base de datos 412.
El término "probabilidad" como se usa a lo largo de esta especificación se refiere tanto a la probabilidad relativa o frecuencia de ocurrencia de un evento o eventos como a la probabilidad absoluta de un evento o eventos que ocurren, y puede expresarse como un valor normalizado o de otro modo, por ejemplo, una expresión sin cuantificar de la probabilidad relativa de dos o más eventos. El término "difusión" como se usa en este documento se refiere a los diversos modos para la amplia diseminación de información, tales como la difusión de radio y televisión, tanto si se distribuye sobre el aire, por cable, CATV, satélite o de otro manera, así como otros modos para la diseminación amplia de datos e información.
Se apreciará que, mientras que en la realización descrita se utilizan las tramas de vídeo o los intervalos de campo para la generación de firmas así como para otros propósitos en conexión con un sistema de reconocimiento de anuncios de televisión, el uso de intervalos de campos o tramas se emplea por mera conveniencia, y se entiende que pueden seleccionarse diferentes intervalos para la generación de firmas o tales otros propósitos. Como ejemplo, las firmas pueden producirse a partir de combinaciones de campos o tramas o a partir de subconjuntos de información de tramas o campos en señales de vídeo, y que los intervalos de audio no necesitan corresponderse con intervalos de vídeo, sino que pueden elegirse arbitrariamente. De acuerdo con un sistema para el reconocimiento de segmentos de difusión de radio, puede utilizarse cualquier intervalo arbitrario para la generación de firma y otros propósitos, a condición de que se incluya suficiente información en el intervalo seleccionado.
Aunque que se ha descrito una realización de la presente invención para el reconocimiento de anuncios de difusión en televisión, se entenderá que los sistemas y métodos para el reconocimiento de patrones continuo de segmentos de difusión de acuerdo con la presente invención puede utilizarse para otros propósitos, tales como determinar qué programas, canciones u otros trabajos se ha difundido, por ejemplo, para determinar el pago de derechos de autor, o de otro modo para determinar los programas, anuncios u otros segmentos que se han recibido por miembros de la audiencia que participan en un una encuesta de medición de audiencia.
Se apreciará que los sistemas y métodos de la presente invención pueden implementarse en todo o en parte usando circuitería analógica o digital, o ambas, y que los elementos y etapas de mismo pueden implementarse o realizarse utilizando cualquier configuración de las variedades de sistemas y subsistemas y de dispositivos, y que las diversas etapas y elementos pueden realizarse e implementarse bien con el uso de hardware o software basado en procesadores.
Aunque se han descrito en detalle las realizaciones específicas de la invención en este documento con referencia a los dibujos que se acompañan, se entiende que la invención no está limitada a esas precisas realizaciones, y que pueden efectuarse diversos cambios y modificaciones en las mismas por un especialista en la técnica sin apartarse del alcance de la invención como se define en las reivindicaciones adjuntas.
Se apreciará de la descripción anterior que la presente aplicación proporciona un método para el reconocimiento de segmentos de difusión, que comprende las etapas de: producir una firma para cada uno de una pluralidad de segmentos de difusión a reconocer; almacenar cada una de dichas firmas para formar una base de datos de firmas de segmentos de difusión; monitorizar un segmento de difusión; formar una firma que represente el segmento de difusión monitorizado; comparar la firma que representa el segmento de difusión monitorizado con al menos una de las firmas de segmentos de difusión de la base de datos para determinar si existe una coincidencia entre las mismas; y evaluar la validez de una coincidencia de un segmento de difusión monitorizado realizando al menos uno de: (a) determinar si el segmento de difusión monitorizado está delimitado temporalmente por eventos de señal predeterminados; (b) determinar si el segmento de difusión monitorizado solapa otro segmento de difusión monitorizado para el cual se ha aceptado una coincidencia de acuerdo con criterios predeterminados; y (c) determinar si la coincidencia se conforma con un perfil predeterminado de segmentos de falsa coincidencia. En tal método la etapa de evaluar la validez de una coincidencia comprende determinar si el segmento de difusión monitorizado está delimitado temporalmente por eventos de señal predeterminados; además, la etapa de determinar si el segmento de difusión monitorizado está delimitado temporalmente por eventos de señal predeterminados comprende determinar si la firma de un segmento de difusión monitorizado adyacente coincide con una firma en dicha base de datos. Adicionalmente, la etapa de formar una firma que representa el segmento de difusión monitorizado comprende formar una firma de una señal de vídeo de dicho segmento de difusión monitorizado, y la etapa de determinar si el segmento de difusión monitorizado está delimitado temporalmente por eventos de señal predeterminados comprende determinar si la señal de vídeo del segmento de difusión monitorizado incluye un desvanecimiento al negro en al menos un extremo del mismo. La etapa de evaluar la validez de una coincidencia puede comprender determinar si el segmento de difusión monitorizado solapa otro segmento de difusión monitorizado para el cual se ha aceptado una coincidencia de acuerdo con criterios predeterminados, y/o determinar si la coincidencia se conforma con un perfil predeterminado o segmentos de falso emparejamiento; la etapa de determinar si la coincidencia se conforma con un perfil predeterminado de segmentos de falso emparejamiento puede comprender formar dicho perfil de segmentos de falso emparejamiento basado en al menos uno de (1) la longitud del segmento de difusión monitorizado, (2) la diferencia de dicha, al menos una, firma de segmento de difusión de la base de datos de otras firmas en la base de datos y (3) la frecuencia de ocurrencia de al menos porciones de dicha, al menos una de las firmas de segmentos de difusión como se producen. La etapa de comparar las firmas puede comprender determinar una diferencia entre la firma que representa el segmento de difusión monitorizado y la, al menos una, de las firmas de segmentos de difusión de la base de datos y comparar la diferencia determinada con un valor umbral de error predeterminado correspondiente con la, al menos una, firma de segmento de difusión, y en el que la etapa de determinar si al coincidencia se conforma con un perfil predeterminado de segmentos de falso emparejamiento comprende formar dicho perfil de segmentos de falsa emparejamiento en base a uno de (1) dicho valor umbral de errores predeterminado, y (2) la diferencia entre dicho valor umbral de errores predeterminado y dicha diferencia predeterminada. La etapa de formas dicho perfil de segmentos de falsa coincidencia puede comprender formar una combinación lineal de valores representando (1) dicho valor umbral de errores predeterminado, (2) dicha diferencia entre dicho valor umbral de errores predeterminado y dicha diferencia determinada, (3) la longitud del segmento de difusión monitorizado, (4) las diferencia de dichas, al menos una, firmas de segmentos de difusión de la base de datos de otras firmas en la base de datos, y (5) la frecuencia de ocurrencia de al menos porciones de dichas, al menos una, firmas de segmento de difusión como se producen.
Se apreciará además de la descripción anterior que se ha descrito un sistema de reconocimiento de segmentos de difusión, que comprende; un medio para producir una firma para cada uno de una pluralidad de segmentos de difusión a reconocer; un medio para almacenar cada una de dichas firmas para formar una base de datos de firmas de segmentos de difusión; un medio para monitorizar un segmento de difusión; un medio para formar una firma que represente el segmento de difusión monitorizado; un medio para comparar la firma que representa el segmento de difusión monitorizado con al menos una de las firmas de segmento de difusión de la base de datos para determinar si existe una coincidencia entre las mismas; y un medio para evaluar la validez de una coincidencia de un segmento de difusión monitorizado realizando al menos uno de: (a) determinar si el segmento de difusión monitorizado está delimitado temporalmente por eventos de señal predeterminados; (b) determinar si el segmento de difusión monitorizado solapa otro segmento de difusión monitorizado para el que se ha aceptado una coincidencia de acuerdo con criterios predeterminados; y (c) determinar si la coincidencia es conforme con un perfil predeterminado de segmentos de falso emparejamiento.
Se apreciará además de la descripción anterior que se ha descrito un método para el reconocimiento de segmentos de difusión comprendiendo las etapas de: producir una firma para cada uno de una pluralidad de segmentos de difusión a reconocer; almacenar cada una de dichas firmas para formar una base de datos de firmas de segmentos de difusión; monitorizar un segmento de difusión; formar una firma que representa el segmento de difusión monitorizado; comparar la firma que representa el segmento de difusión monitorizado con cada firma de una pluralidad de firmas de segmentos de difusión de la base de datos para determinar si existe una coincidencia entre las mismas de acuerdo con un primer nivel de tolerancia de error; evaluar si la coincidencia cae dentro de una clase de coincidencias de aceptación cuestionable en base a criterios de evaluación predeterminados, y si la coincidencia cae dentro de dicha clase de coincidencias de aceptación cuestionable, comparar la firma que representa el segmento de difusión monitorizado con la firma del segmento de difusión de emparejamiento de la base de datos utilizando una segundo nivel de de tolerancia de errores aceptando coincidencias que tienen niveles de error relativamente más altos que las coincidencias aceptables de acuerdo con el primer nivel de tolerancia de errores. La etapa de evaluar si la coincidencia cae dentro de una clase de coincidencias de aceptación cuestionable comprende al menos uno de determinar si el segmento de difusión monitorizado está delimitado temporalmente en sólo un extremo del mismo por al menos un evento de una pluralidad de eventos de señal predeterminados y determinar para un segmento de difusión monitorizado que no está delimitado en ningún extremo por dicho, al menos uno, de una pluralidad de eventos de señal predeterminados, si dicho segmento de difusión monitorizado se adapta a un perfil predeterminado de segmentos de falso emparejamiento. La etapa de determinar si el segmento de difusión monitorizado está delimitado temporalmente en sólo un extremo del mismo por al menos un evento de una pluralidad de eventos de señal predeterminados comprende determinar si el segmento de difusión monitorizado está delimitado temporalmente sobre sólo un extremo por otro segmento de difusión monitorizado que empareja con una firma en dicha base de datos. La etapa de formar una firma que represente el segmento de difusión monitorizado comprende formar una firma de la señal de vídeo de dicho segmento de difusión monitorizado y la etapa de determinar si el segmento de difusión monitorizado está delimitado temporalmente sobre sólo un extremo del mismo por al menos un evento de una pluralidad de eventos de señal predeterminados comprende determinar si el segmento de difusión monitorizado está delimitado en sólo un extremo del mismo por al menos uno de (1) otro segmento de difusión monitorizado que empareja con una firma en dicha base de datos, y (2) un desvanecimiento al negro de dicha señal de vídeo. La etapa de producir una firma para cada uno de una pluralidad de segmentos de difusión a reconocer comprende formar una primera y una segunda firmas de las señales de audio y vídeo, respectivamente, de cada uno de dicha pluralidad de segmentos de difusión a reconocer; la etapa de formar una firma que represente el segmento de difusión monitorizado comprende formar una tercera y cuarta firmas de las señales de audio y vídeo, respectivamente, del segmento de difusión monitorizado; la etapa de comparar las firmas comprende comparar las firmas tercera y cuarta con cada una de una pluralidad de firmas primera y segunda, respectivamente, de la base de datos; y la etapa de evaluar si la coincidencia cae dentro de una clase de coincidencias de aceptación cuestionable comprende determinar que una de las coincidencias de la firma tercera con respecto a una de una pluralidad de las firmas primeras y una coincidencia de la cuarta firma con la respectiva de la pluralidad de segundas firmas cae dentro de dicha clase de coincidencias de aceptación cuestionable cuando la otra firma correspondiente no empareja con la respectiva de la pluralidad de firmas primera y segunda.
Se apreciará también de la descripción anterior que se ha descrito un sistema de reconocimiento de segmentos de difusión, que comprende: un medio para producir una firma para cada uno de una pluralidad de segmentos de difusión a reconocer; un medio para almacenar cada una de dichas firmas para formar una base de datos de firmas de segmentos de difusión; un medio para monitorizar un segmento de difusión; un medio para formar una firma que represente el segmento de difusión monitorizado; un medio para comparar la firma que representa el segmento de difusión monitorizado con cada una de una pluralidad de firmas de segmento de difusión de la base de datos para determinar si existe una coincidencia entre las mismas de acuerdo con un primer nivel de tolerancia de error, y un medio para evaluar si la coincidencia cae dentro de una clase de coincidencias de aceptación cuestionable en base a criterios de evaluación predeterminados, y si es así, para comparar la firma que representa el segmento de difusión monitorizado con la firma del segmento de difusión de emparejamiento de la base de datos utilizando un segundo nivel de tolerancia de error aceptando coincidencias que tienen niveles de error relativamente más altos que las coincidencias aceptables de acuerdo con el primer nivel de tolerancia de error.
Se apreciará también de la descripción anterior que la aplicación también se refiere a un método para actualizar una base de datos de reconocimiento de segmentos de difusión que almacena firmas para su uso en el reconocimiento de segmentos de difusión de interés, que comprende las etapas de: monitorizar una señal de difusión para detectar eventos de señal predeterminados que indican posibles segmentos de difusión de interés correspondiendo con intervalos de señal de difusión monitorizados respectivos; determinar si se detectan al menos dos segmentos de difusión posibles alternativos de interés para un intervalo de señal de difusión monitorizada; asignar prioridad a uno de dichos, al menos dos, segmentos de difusión posibles alternativos de interés en base a criterios predeterminados; y almacenar una firma en la base de datos correspondiente con uno de dichos, al menos dos, segmentos de difusión posibles alternativos de prioridad asignada.
Se apreciará además de la descripción anterior que la aplicación también se refiere a un sistema para actualizar una base de datos del reconocimiento de segmentos de difusión que almacena firmas para su uso en el reconocimiento de segmentos de difusión de interés, que comprende: un medio para monitorizar una señal de difusión para detectar eventos de señal predeterminados que indican posibles segmentos de difusión de interés que corresponden con intervalos de señal de difusión monitorizados respectivos; determinar si se detectan al menos dos posibles segmentos de difusión alternativos de interés para un intervalo de señal de difusión monitorizado; un medio para asignar prioridad a uno de dichos, al menos dos, segmentos de difusión de interés posibles alternativos bajo criterios predeterminados; y un medio para almacenar una firma en la base de datos correspondiente con uno de dichos, al menos dos, segmentos de difusión posibles alternativos de interés de prioridad asignada.
Se apreciará además a partir de la descripción anterior que la aplicación también se refiere a un método para capturar selectivamente al menos una señal de audio de difusión y una señal de vídeo de difusión para su uso en la actualización de la base de datos del reconocimiento de segmentos de difusión que almacena firmas para su uso en el reconocimiento de segmentos de difusión de interés, que comprende las etapas de almacenar temporalmente al menos una señal de audio de difusión y una señal de vídeo de difusión de una difusión monitorizada; detectar eventos de señal predeterminados indicando posibles nuevos segmentos de difusión de interés de la difusión monitorizada; seleccionar intervalos de la difusión monitorizada como posibles nuevos segmentos de difusión de interés en base a dichos eventos de señal predeterminados; asignar un primer nivel de captura para un primer intervalo seleccionado en base a características predeterminadas del mismo indicando que dicho primer intervalo seleccionado es probablemente un nuevo segmento de interés; asignar un segundo nivel de captura a un segundo intervalo seleccionado en base a características predeterminadas del mismo indicando que el segundo intervalo seleccionado es relativamente menos probable que el primer intervalo seleccionado para que sea un nuevo segmento de interés; almacenar una segunda firma que corresponde con el primer elemento seleccionado en la base de datos y capturar al menos una de las señales de audio y vídeo de difusión almacenadas temporalmente que corresponden con el primer intervalo seleccionado para su transmisión a un operario de una estación de trabajo para identificación de segmentos; almacenar una firma correspondiente con el segundo intervalo seleccionado en el base de datos; y borrar la señal almacenada temporalmente de las señales de difusión de audio y vídeo correspondientes con el segundo intervalo seleccionado. El método puede comprender además las etapas de detectar una coincidencia de la firma almacenada que representa el segundo intervalo seleccionado con una firma que representa un segmento recibido posteriormente, y capturar al menos uno de los datos de audio y vídeo de los segmentos recibidos posteriormente para su transmisión a un operario de una estación de trabajo para el reconocimiento del nuevo intervalo.
Se apreciará además de la descripción anterior que la aplicación se refiere también a un sistema para capturar selectivamente al menos una señal de audio de difusión y una señal de vídeo de difusión para su uso en la actualización de la base de datos de reconocimiento de segmentos de difusión que almacena firmas para su uso en el reconocimiento de segmentos de interés de difusión, comprendiendo; un medio para almacenar temporalmente al menos una de la señal de audio de difusión y la señal de vídeo de una difusión monitorizada; un medio para detectar eventos de señal predeterminados indicando posibles nuevos segmentos de difusión de interés de la difusión monitorizada; un medio para seleccionar intervalos de la difusión monitorizada como posibles nuevos segmentos de difusión de interés en base a dichos eventos de señal predeterminados; un medio para asignar un primer nivel de captura a un primer intervalo seleccionado en base a características predeterminadas del mismo indicando que dicho primer intervalo seleccionado es probablemente un nuevo segmento de interés; un medio para asignar un segundo nivel de captura a un segundo intervalo seleccionado en base a características predeterminadas del mismo indicando que el segundo intervalo seleccionado es relativamente menos probable que el primer intervalo seleccionado para que sea un nuevo segmento de interés; un medio para almacenar una firma correspondiente con el primer intervalo seleccionado en la base de datos y capturar al menos una de las señales de difusión de audio y vídeo almacenadas temporalmente que corresponden con el primer intervalo seleccionado para su transmisión a un operario de una estación de trabajo para identificación de segmentos; un medio para almacenar una firma correspondiente con el segundo intervalo seleccionado en la base de datos; y un medio para borrar la señal almacenada temporalmente de las señales de difusión de audio y vídeo correspondientes con el segundo intervalo seleccionado.
Se apreciará además a partir de la descripción anterior que la aplicación también se refiere a un método para el reconocimiento de segmentos de difusión que comprende las etapas de: producir una firma para cada uno de la pluralidad de segmentos de difusión a reconocer; determinar, para cada firma producida una probabilidad de que tal firma producida coincida con una firma producida bajo la redifusión del segmento de difusión correspondiente; producir una firma adicional para cada segmento de dicha pluralidad de segmentos de difusión a reconocer cuando dicha probabilidad de que dicha firma producida coincida con una firma producida bajo redifusión del segmento de difusión correspondiente es menor que un valor predeterminado; almacenar dicha firma producida para formar una base de datos; monitorizar un segmento de difusión; formar una firma que representa el segmento de difusión monitorizado; y comparar la firma que representa el segmento de difusión monitorizado con al menos una firma almacenada en la base de datos. La etapa de producir una firma para cada segmento de una pluralidad de segmentos de difusión a reconocer puede comprender formar una primera y una segunda firmas para una difusión que incluye una señal de vídeo y una señal de audio, caracterizando la primera firma la señal de vídeo y caracterizando la segunda firma la señal de audio, la etapa de formar una firma que representa el segmento de difusión monitorizado comprende formar una tercera y una cuarta firmas que representan respectivamente las señales de audio y vídeo incluidas en el segmento de difusión monitorizado, y la etapa de comparar la firma que representa el segmento de difusión monitorizado con al menos una firma comprende comparar la tercera y cuarta firmas con la primera y segunda firmas, respectivamente, para determinar las coincidencias correspondientes de las mismas. La etapa de producir una probabilidad correspondiente en base a criterios puede comprender formar una probabilidad correspondiente en base a criterios para al menos una de las firmas primera y segunda, y la etapa de determinar si aceptar dicha coincidencia comprende determinar cuál de la firmas primera y segunda no coincide con la correspondiente de las firmas tercera y cuarta cuando (1) la probabilidad correspondiente en base a criterios de al menos una de las firmas primera y segunda indica que se habrá emparejado la otra de las firmas tercera y cuarta correspondientes, y (2) la comparación de al menos una de las firmas primera y segunda con la firma que corresponda de las firmas tercera y cuarta produce una determinación de que la coincidencia de las mismas no ha ocurrido. El método puede comprender también las etapas de determinar las probabilidades respectivas de falso emparejamiento en las firmas primera y segunda que pueden emparejar firmas de los segmentos de difusión monitorizados que no corresponden con el segmento de difusión del cual se produjeron las firmas primera y segunda, y determinar si aceptar al menos una de dichas coincidencias correspondientes en base a dichas probabilidades de falso emparejamiento respectivas.
La etapa de determinar si aceptar al menos uno de dichos emparejamientos correspondientes puede comprender determinar no aceptar ninguno de dichos emparejamientos correspondientes cuando (1) no se ha determinado un emparejamiento de ambos y (2) ambas de dichas probabilidades de falso emparejamiento respectivo exceden un nivel predeterminado, o determinar aceptar cualquiera de dichos emparejamientos correspondientes cuando ambas de dichas probabilidades de falso emparejamiento respectivo son menores que un nivel predeterminado. La etapa de determinar las probabilidades de falso emparejamiento respectivo puede comprender determinar dichas probabilidades de falso emparejamiento respectivo en base a (1) la cantidad de información en la firma correspondiente de las firmas primera y segunda y (2) al menos una distribución de los valores de la firmas de los segmentos de difusión.
Se apreciará además de la descripción anterior que la aplicación se refiere también a un sistema de reconocimiento de segmentos, que comprende: un medio para producir una firma para cada uno de una pluralidad de segmentos de difusión a reconocer; un medio para determinar una probabilidad de que cada firma producida coincida con la firma producida bajo la redifusión del segmento de difusión correspondiente; un medio para producir una firma adicional para cada uno de dicha pluralidad de segmentos de difusión a reconocer cuando dicha probabilidad de que dicha firma producida coincida con la firma producida bajo la redifusión del segmento de difusión correspondiente es menor de un valor predeterminado; un medio para almacenar cada firma producida para formar una base de datos; un medio para monitorizar un segmento de difusión; un medio para formar una firma que represente el segmento de difusión monitorizado; y un medio para comparar la firma que representa el segmento de difusión monitorizado con al menos una firma almacenada en la base de datos.
Se apreciará además de la descripción anterior que la aplicación también se refiere a un método para el reconocimiento de segmentos de difusión, que comprende las etapas de: producir una firma digital para cada uno de una pluralidad de segmentos de difusión a reconocer, incluyendo cada una de dichas firmas digitales una pluralidad de valores de bit que caracterizan el correspondiente de dicha pluralidad de segmentos de difusión; para cada firma digital producida, determinar un número probable de valores de bit de la misma que coincidirán con las valores de bit de la firma digital producida bajo la redifusión del segmento de difusión correspondiente y producir una probabilidad correspondiente en base a valores de coincidencia para su uso en determinar si cada una de dichas firmas digitales producidas coincide con una firma digital del segmento de difusión recibido posteriormente; almacenar cada firma producida y su probabilidad correspondiente en base al valor de coincidencia para formar una base de datos; monitorizar un segmento de difusión; formar una firma digital que tiene una pluralidad de valores de bit que representan el segmento de difusión monitorizado; comparar la firma digital que representa el segmento de difusión monitorizado con al menos una firma digital almacenada en la base de dato; y determinar si la firma digital que representa el segmento de difusión monitorizado coincide con al menos una firma digital utilizando la probabilidad correspondiente basada en el valor de coincidencia. La etapa de producir una probabilidad correspondiente en base al valor de coincidencia puede comprender producir un valor umbral de error que representa un número máximo de bits correspondientes de dicha firma digital que representan dicho segmento de difusión monitorizado y un emparejamiento de dicha, al menos una, firma digital que puede diferir.
Se apreciará además de la descripción anterior que la aplicación se refiere también a un sistema de reconocimiento de segmentos, que comprende: un medio para producir una firma digital para cada uno de una pluralidad de segmentos a reconocer, incluyendo cada una de dichas firmas digitales una pluralidad de valores de bit que caracterizan el correspondiente de dicha pluralidad de segmentos de difusión; un medio para determinar un número probable de valores de bit de cada una de las firmas digitales producidas que coincidirá con los valores de bit de una firma digital producida bajo la redifusión del segmento de difusión correspondiente y producir la probabilidad correspondiente en base al valor de coincidencia para su uso en determinar si cada una de dichas firmas digitales producidas coincide con la firma digital de un segmento de difusión recibido posteriormente; un medio para almacenar cada firma producida y su correspondiente probabilidad en base al valor de coincidencia para formar una base de datos; un medio para monitorizar un segmento de difusión; un medio para formar una firma digital que tiene una pluralidad de valores de bit que representan el segmento de difusión monitorizado; un medio de comparar la firma digital que representa al segmento de difusión monitorizado con al menos una firma digital almacenada en la base de datos; y un medio para determinar si la firma digital que representa el segmento de difusión monitorizado coincide con al menos una firma digital utilizando la probabilidad correspondiente en base el valor de coincidencia.
Se apreciará además a partir de la descripción anterior que la aplicación también se refiere a un método para el reconocimiento de segmentos de difusión, que comprende las etapas de: producir una firma para cada uno de una pluralidad de segmentos de difusión a reconocer; determinar para cada firma producida una probabilidad de que tal firma producida coincida con la firma producida bajo la redifusión del segmento de difusión correspondiente; producir una firma adicional para cada uno de dicha pluralidad de segmentos de difusión a reconocer cuando dicha probabilidad de que dicha firma producida coincida con la firma producida bajo la redifusión del segmento de difusión correspondiente es menor que un valor predeterminado; almacenar cada firma producida para formar una base de datos; monitorizar un segmento de difusión; formar un firma que represente el segmento de difusión monitorizado; y comparar la firma que representa el segmento de difusión monitorizado con al menos una firma almacenada en la base de datos.
Se apreciará además de la descripción anterior que la aplicación se refiere también a un sistema de reconocimiento de segmentos, que comprende; un medio para producir una firma para cada uno de una pluralidad de segmentos de difusión a reconocer; un medio para determinar una probabilidad de que cada firma producida coincida con la firma producida bajo la redifusión del correspondiente segmento de difusión; un medio para producir una firma adicional para cada uno de dicha pluralidad de segmentos de difusión a reconocer cuando dicha probabilidad de que dicha firma producida coincida con una firma producida bajo la redifusión del segmento de difusión correspondiente es menor de un valor predeterminado; un medio para almacenar cada firma producida para formar una base de datos; un medio para monitorizar un segmento de difusión; un medio para formar una firma que represente el segmento de difusión monitorizado; un medio para comparar la firma que representa el segmento de difusión monitorizado con al menos una firma almacenada en la base de datos.

Claims (10)

1. Un método (300-312) de producir una firma de una señal de difusión de audio para su uso en el reconocimiento de señales de difusión que comprende las etapas de:
formar un primer grupo de una pluralidad de valores de bandas de frecuencias, derivado cada valor de un segmento de dicha señal de difusión de audio dentro de una banda de frecuencias predeterminada respectiva;
formar un segundo grupo de una pluralidad de valores de bandas de frecuencias, derivado cada valor de un segmento de dicha señal de difusión de audio dentro de una banda de frecuencias predeterminada respectiva, en el que los valores del segundo grupo representan segmentos de dicha señal de difusión de audio dentro de las mismas bandas de frecuencias predeterminadas respectivas que los valores del primer grupo; y
caracterizado por:
comparar cada valor del primer grupo de dicha pluralidad de valores de bandas de frecuencias con el valor respectivo del segundo grupo de dicha pluralidad de valores de bandas de frecuencias que representan un segmento de dicha señal de difusión de audio dentro de la misma banda de frecuencias predeterminada respectiva, representando cada valor respectivo del segundo grupo de dicha pluralidad de valores de bandas de frecuencias un segmento de dicha señal de difusión de audio al menos una parte de la cual se difundió antes que el segmento de dicha señal de difusión de audio representada por el valor correspondiente de dicho primer grupo de dicha pluralidad de valores de bandas de frecuencias; y
formar dicha firma en base a las comparaciones de los grupos primero y segundo de dicha pluralidad de valores de bandas de frecuencias.
2. El método de la Reivindicación 1, en el que formar dicho primer grupo de valores de bandas de frecuencias comprende formar una pluralidad de señales de nivel de potencia (306) representando cada una el nivel de potencia de dicha señal de difusión de audio dentro de la banda respectiva de dichas bandas de frecuencias predeterminadas.
3. El método de la Reivindicación 2, en el que formar el primer grupo de una pluralidad valores de bandas de frecuencias comprende formar las señales de bandas de frecuencias primeras representando cada una, una característica de dicha señal de difusión de audio dentro de la banda respectiva de dichas bandas de frecuencias predeterminadas, y transformar cada una de dichas señales de bandas de frecuencias primeras dividiendo cada una de dicha pluralidad de señales de nivel de potencia por una combinación lineal de otras de dichas señales de banda de frecuencias primeras.
4. El método de la Reivindicación 1, en el que formar dicha firma comprende incluir en la firma los datos de producidos de las comparaciones de los grupos primero y segundo de dicha pluralidad de valores de bandas de frecuencias.
5. El método de la Reivindicación 1, en el que comparar los grupos primero y segundo de valores de bandas de frecuencias comprende producir valores de diferencia que representan diferencias entre los valores de las bandas de frecuencias primera y segunda.
6. El método de la Reivindicación 5, en el que formar dicha firma comprende incluir en la firma los datos producidos de los valores diferencia.
7. Un sistema (250) para producir una firma de una señal de difusión de audio para su uso en el reconocimiento de señales de difusión que comprende:
un medio para formar un primer grupo de una pluralidad de valores de bandas de frecuencias, derivado cada valor de un segmento de dicha señal de difusión de audio dentro de la banda de frecuencias predeterminada respectiva;
un medio para formar un segundo grupo de una pluralidad de valores de bandas de frecuencias, derivado cada valor de un segmento de la señal de difusión de audio dentro de una banda de frecuencias predeterminada respectiva, en el que los valores del segundo grupo representan segmentos de dicha señal de difusión de audio dentro de las mismas bandas de frecuencias predeterminadas respectivas como valores del primer grupo, y
caracterizado por:
un medio para comparar cada valor del primer grupo de dicha pluralidad de valores de bandas de frecuencias con el valor respectivo del segundo grupo de dicha pluralidad de valores de bandas de frecuencias que representan un segmento de dicha señal de difusión de audio dentro de la misma banda de frecuencias predeterminada respectiva, representando cada valor respectivo del segundo grupo de dicha pluralidad de valores de bandas de frecuencias un segmento de dicha señal de difusión de audio al menos una parte de la cual se difundió antes que el segmento de dicha señal de difusión de audio representada por el valor correspondiente de dicho primer grupo de dicha pluralidad de valores de bandas de frecuencias; y
un medio para formar dicha firma en base a las comparaciones de los grupos primero y segundo de dicha pluralidad de valores de bandas de frecuencias.
8. El sistema (250) de la Reivindicación 7, en el que el medio para formar dicha firma es operativo para incluir en la firma los datos producidos de las comparaciones de los grupos primero y segundo de dicha pluralidad de valores de bandas de frecuencias.
9. El sistema (250) de la Reivindicación 7, en el que el medio para comparar los grupos primero y segundo de los valores de bandas de frecuencias es operativo para producir valores diferencia que representan diferencias entre los valores de las bandas de frecuencias primera y segunda.
10. El sistema (250) de la Reivindicación 9, en el que el medio para formar dicha firma es operativo para incluir en la firma los datos producidos de los valores diferencia.
ES02076018T 1992-04-30 1993-04-30 Metodo y sistema para el reconocimiento de segmentos de audio de difusion. Expired - Lifetime ES2284777T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US876578 1992-04-30
US07/876,578 US5436653A (en) 1992-04-30 1992-04-30 Method and system for recognition of broadcast segments

Publications (1)

Publication Number Publication Date
ES2284777T3 true ES2284777T3 (es) 2007-11-16

Family

ID=25368063

Family Applications (1)

Application Number Title Priority Date Filing Date
ES02076018T Expired - Lifetime ES2284777T3 (es) 1992-04-30 1993-04-30 Metodo y sistema para el reconocimiento de segmentos de audio de difusion.

Country Status (12)

Country Link
US (5) US5436653A (es)
EP (2) EP0748563B1 (es)
JP (1) JPH08500471A (es)
AT (2) ATE358366T1 (es)
AU (3) AU678163B2 (es)
CA (2) CA2134748C (es)
DE (2) DE69334130T2 (es)
DK (1) DK1261155T3 (es)
ES (1) ES2284777T3 (es)
HK (1) HK1051938A1 (es)
PT (1) PT1261155E (es)
WO (1) WO1993022875A1 (es)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8060372B2 (en) 2007-02-20 2011-11-15 The Nielsen Company (Us), Llc Methods and appratus for characterizing media
US8369972B2 (en) 2007-11-12 2013-02-05 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US8458737B2 (en) 2007-05-02 2013-06-04 The Nielsen Company (Us), Llc Methods and apparatus for generating signatures
US8457951B2 (en) 2008-01-29 2013-06-04 The Nielsen Company (Us), Llc Methods and apparatus for performing variable black length watermarking of media
US8600531B2 (en) 2008-03-05 2013-12-03 The Nielsen Company (Us), Llc Methods and apparatus for generating signatures

Families Citing this family (562)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE46310E1 (en) 1991-12-23 2017-02-14 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US6081750A (en) * 1991-12-23 2000-06-27 Hoffberg; Steven Mark Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
USRE47908E1 (en) 1991-12-23 2020-03-17 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US5903454A (en) * 1991-12-23 1999-05-11 Hoffberg; Linda Irene Human-factored interface corporating adaptive pattern recognition based controller apparatus
US6418424B1 (en) 1991-12-23 2002-07-09 Steven M. Hoffberg Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US6850252B1 (en) 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
US10361802B1 (en) 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
USRE48056E1 (en) 1991-12-23 2020-06-16 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US6400996B1 (en) 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US5436653A (en) * 1992-04-30 1995-07-25 The Arbitron Company Method and system for recognition of broadcast segments
US6301369B2 (en) 1992-07-31 2001-10-09 Digimarc Corporation Image marking to permit later identification
US5721788A (en) 1992-07-31 1998-02-24 Corbis Corporation Method and system for digital image signatures
US5903317A (en) * 1993-02-14 1999-05-11 Orad Hi-Tech Systems Ltd. Apparatus and method for detecting, identifying and incorporating advertisements in a video
US5870151A (en) * 1993-08-31 1999-02-09 Koerber; Matthias Method and equipment for the detection of undesired video scenes
US5841978A (en) 1993-11-18 1998-11-24 Digimarc Corporation Network linking method using steganographically embedded data objects
US6983051B1 (en) 1993-11-18 2006-01-03 Digimarc Corporation Methods for audio watermarking and decoding
US5748763A (en) 1993-11-18 1998-05-05 Digimarc Corporation Image steganography system featuring perceptually adaptive and globally scalable signal embedding
US6757406B2 (en) 1993-11-18 2004-06-29 Digimarc Corporation Steganographic image processing
US6614914B1 (en) 1995-05-08 2003-09-02 Digimarc Corporation Watermark embedder and reader
US7171016B1 (en) 1993-11-18 2007-01-30 Digimarc Corporation Method for monitoring internet dissemination of image, video and/or audio files
US6122403A (en) 1995-07-27 2000-09-19 Digimarc Corporation Computer system linked by using information in data objects
US6944298B1 (en) 1993-11-18 2005-09-13 Digimare Corporation Steganographic encoding and decoding of auxiliary codes in media signals
US5822436A (en) * 1996-04-25 1998-10-13 Digimarc Corporation Photographic products and methods employing embedded information
US7313251B2 (en) 1993-11-18 2007-12-25 Digimarc Corporation Method and system for managing and controlling electronic media
US6449377B1 (en) 1995-05-08 2002-09-10 Digimarc Corporation Methods and systems for watermark processing of line art images
US6516079B1 (en) 2000-02-14 2003-02-04 Digimarc Corporation Digital watermark screening and detecting strategies
US6345104B1 (en) 1994-03-17 2002-02-05 Digimarc Corporation Digital watermarks and methods for security documents
US5768426A (en) 1993-11-18 1998-06-16 Digimarc Corporation Graphics processing system employing embedded code signals
US6611607B1 (en) 1993-11-18 2003-08-26 Digimarc Corporation Integrating digital watermarks in multimedia content
US6560349B1 (en) 1994-10-21 2003-05-06 Digimarc Corporation Audio monitoring using steganographic information
US8094949B1 (en) 1994-10-21 2012-01-10 Digimarc Corporation Music methods and systems
US7724919B2 (en) * 1994-10-21 2010-05-25 Digimarc Corporation Methods and systems for steganographic processing
US20030213001A1 (en) 1994-11-07 2003-11-13 Index Systems, Inc. Method and apparatus for transmitting and downloading setup information
US6583825B1 (en) * 1994-11-07 2003-06-24 Index Systems, Inc. Method and apparatus for transmitting and downloading setup information
US5708477A (en) * 1994-12-01 1998-01-13 Forbes; Scott Jared Video signal identifier for controlling a VCR and television based on the occurrence of commercials
EP0872120A1 (en) 1995-03-07 1998-10-21 Interval Research Corporation System and method for selective recording of information
US7224819B2 (en) 1995-05-08 2007-05-29 Digimarc Corporation Integrating digital watermarks in multimedia content
US7805500B2 (en) 1995-05-08 2010-09-28 Digimarc Corporation Network linking methods and apparatus
US6760463B2 (en) 1995-05-08 2004-07-06 Digimarc Corporation Watermarking methods and media
US7486799B2 (en) * 1995-05-08 2009-02-03 Digimarc Corporation Methods for monitoring audio and images on the internet
US5864358A (en) * 1995-06-26 1999-01-26 Matsushita Electric Industrial Co., Ltd. Method for switching programs in digital broadcasting and digital broadcast receiving apparatus
US6829368B2 (en) 2000-01-26 2004-12-07 Digimarc Corporation Establishing and interacting with on-line media collections using identifiers in media signals
US6577746B1 (en) 1999-12-28 2003-06-10 Digimarc Corporation Watermark-based object linking and embedding
US6505160B1 (en) 1995-07-27 2003-01-07 Digimarc Corporation Connected audio and other media objects
US7711564B2 (en) 1995-07-27 2010-05-04 Digimarc Corporation Connected audio and other media objects
US7562392B1 (en) 1999-05-19 2009-07-14 Digimarc Corporation Methods of interacting with audio and ambient music
US6411725B1 (en) 1995-07-27 2002-06-25 Digimarc Corporation Watermark enabled video objects
US5905522A (en) * 1995-08-31 1999-05-18 Microsoft Corporation Resource allocation method for interactive televideo system
GB9519087D0 (en) 1995-09-19 1995-11-22 Cursor Positioning Sys Ltd Navigation and tracking system
US5767893A (en) * 1995-10-11 1998-06-16 International Business Machines Corporation Method and apparatus for content based downloading of video programs
AU1690597A (en) * 1996-01-11 1997-08-01 Mitre Corporation, The System for controlling access and distribution of digital property
US20030056103A1 (en) 2000-12-18 2003-03-20 Levy Kenneth L. Audio/video commerce application architectural framework
US5870754A (en) * 1996-04-25 1999-02-09 Philips Electronics North America Corporation Video retrieval of MPEG compressed sequences using DC and motion signatures
US7505605B2 (en) * 1996-04-25 2009-03-17 Digimarc Corporation Portable devices and methods employing digital watermarking
US8180844B1 (en) 2000-03-18 2012-05-15 Digimarc Corporation System for linking from objects to remote resources
JP3625344B2 (ja) * 1996-11-05 2005-03-02 株式会社ビデオリサーチ 視聴チャンネル検出装置
US6381341B1 (en) 1996-05-16 2002-04-30 Digimarc Corporation Watermark encoding method exploiting biases inherent in original signal
US8306811B2 (en) * 1996-08-30 2012-11-06 Digimarc Corporation Embedding data in audio and detecting embedded data in audio
US5987150A (en) * 1996-08-30 1999-11-16 Intel Corporation Video capturing using on-screen graphics
US20020120925A1 (en) * 2000-03-28 2002-08-29 Logan James D. Audio and video program recording, editing and playback systems using metadata
US20060280437A1 (en) * 1999-01-27 2006-12-14 Gotuit Media Corp Methods and apparatus for vending and delivering the content of disk recordings
US20030093790A1 (en) * 2000-03-28 2003-05-15 Logan James D. Audio and video program recording, editing and playback systems using metadata
US7055166B1 (en) * 1996-10-03 2006-05-30 Gotuit Media Corp. Apparatus and methods for broadcast monitoring
US6088455A (en) * 1997-01-07 2000-07-11 Logan; James D. Methods and apparatus for selectively reproducing segments of broadcast programming
US6771316B1 (en) * 1996-11-01 2004-08-03 Jerry Iggulden Method and apparatus for selectively altering a televised video signal in real-time
WO1998020675A1 (en) * 1996-11-01 1998-05-14 Jerry Iggulden Method and apparatus for automatically identifying and selectively altering segments of a television broadcast signal in real-time
US6002443A (en) * 1996-11-01 1999-12-14 Iggulden; Jerry Method and apparatus for automatically identifying and selectively altering segments of a television broadcast signal in real-time
US7269330B1 (en) 1996-11-01 2007-09-11 Televentions, Llc Method and apparatus for controlling a video recorder/player to selectively alter a video signal
US5999689A (en) * 1996-11-01 1999-12-07 Iggulden; Jerry Method and apparatus for controlling a videotape recorder in real-time to automatically identify and selectively skip segments of a television broadcast signal during recording of the television signal
US6263507B1 (en) 1996-12-05 2001-07-17 Interval Research Corporation Browser for use in navigating a body of information, with particular application to browsing information represented by audiovisual data
US5893062A (en) 1996-12-05 1999-04-06 Interval Research Corporation Variable rate video playback with synchronized audio
US7587323B2 (en) 2001-12-14 2009-09-08 At&T Intellectual Property I, L.P. System and method for developing tailored content
US8677384B2 (en) 2003-12-12 2014-03-18 At&T Intellectual Property I, L.P. Methods and systems for network based capture of television viewer generated clickstreams
US8640160B2 (en) * 1997-01-06 2014-01-28 At&T Intellectual Property I, L.P. Method and system for providing targeted advertisements
US6675383B1 (en) * 1997-01-22 2004-01-06 Nielsen Media Research, Inc. Source detection apparatus and method for audience measurement
CA2196930C (en) * 1997-02-06 2005-06-21 Nael Hirzalla Video sequence recognition
GB9705999D0 (en) * 1997-03-22 1997-05-07 Philips Electronics Nv Video signal analysis and storage
US5940135A (en) * 1997-05-19 1999-08-17 Aris Technologies, Inc. Apparatus and method for encoding and decoding information in analog signals
US6427012B1 (en) * 1997-05-19 2002-07-30 Verance Corporation Apparatus and method for embedding and extracting information in analog signals using replica modulation
ES2190578T3 (es) * 1997-06-23 2003-08-01 Liechti Ag Metodo para la compresion de grabaciones de ruido ambiental, metodo para la deteccion de los elementos de programa de las mismas, dispositivo y programa de ordenador para su aplicacion.
US5959683A (en) * 1997-06-26 1999-09-28 Xerox Corporation System to remove artifacts in a digital image derived from a television signal
US6031581A (en) * 1997-06-26 2000-02-29 Xerox Corporation System for removing color bleed in a television image adapted for digital printing
GB2327167A (en) * 1997-07-09 1999-01-13 Register Group Limited The Identification of television commercials
US6112053A (en) * 1997-07-14 2000-08-29 General Electric Company Television viewership monitoring system employing audio channel and synchronization information
US20060020614A1 (en) * 1997-08-08 2006-01-26 Kolawa Adam K Method and apparatus for automated selection, organization, and recommendation of items based on user preference topography
GB9722324D0 (en) 1997-10-22 1997-12-17 Cambridge Positioning Sys Ltd Positioning system for digital telephone networks
US6961954B1 (en) 1997-10-27 2005-11-01 The Mitre Corporation Automated segmentation, information extraction, summarization, and presentation of broadcast news
US6173271B1 (en) * 1997-11-26 2001-01-09 California Institute Of Technology Television advertising automated billing system
IL122498A0 (en) * 1997-12-07 1998-06-15 Contentwise Ltd Apparatus and methods for manipulating sequences of images
US5973723A (en) * 1997-12-12 1999-10-26 Deluca; Michael Joseph Selective commercial detector and eliminator apparatus and method
US20050028194A1 (en) * 1998-01-13 2005-02-03 Elenbaas Jan Hermanus Personalized news retrieval system
ES2141039B1 (es) * 1998-01-30 2000-10-16 Mayo Audiovisual S A Sistema automatico de deteccion y reconocimiento de anuncios televisados.
DE19810114A1 (de) * 1998-03-09 1999-09-16 Stefan Weigelt Suchverfahren für Musikstücke, insbesondere für Rundfunkempfangsgeräte
JPH11298795A (ja) * 1998-04-14 1999-10-29 Sony Corp 制御信号発生回路
US7689532B1 (en) 2000-07-20 2010-03-30 Digimarc Corporation Using embedded data with file sharing
DE69838956T2 (de) 1998-05-12 2009-04-09 Nielsen Media Research, Inc. Vorrichtung für die Erfassung der Einschaltquoten für das digitale Fernsehen
US7644282B2 (en) 1998-05-28 2010-01-05 Verance Corporation Pre-processed information embedding system
US6163510A (en) * 1998-06-30 2000-12-19 International Business Machines Corporation Multimedia search and indexing system and method of operation using audio cues with signal thresholds
US6100941A (en) * 1998-07-28 2000-08-08 U.S. Philips Corporation Apparatus and method for locating a commercial disposed within a video data stream
JP2000101439A (ja) * 1998-09-24 2000-04-07 Sony Corp 情報処理装置および方法、情報記録装置および方法、記録媒体、並びに提供媒体
US6320623B1 (en) * 1998-11-13 2001-11-20 Philips Electronics North America Corporation Method and device for detecting an event in a program of a video and/ or audio signal and for providing the program to a display upon detection of the event
JP2000165806A (ja) * 1998-11-30 2000-06-16 Sony Corp 情報処理装置および方法、並びに提供媒体
JP4026100B2 (ja) * 1998-11-30 2007-12-26 ソニー株式会社 情報処理装置および方法、並びに記録媒体
US6934461B1 (en) * 1999-01-05 2005-08-23 Interval Research Corporation Low attention recording, with particular application to social recording
US7421723B2 (en) 1999-01-07 2008-09-02 Nielsen Media Research, Inc. Detection of media links in broadcast signals
US6906743B1 (en) * 1999-01-13 2005-06-14 Tektronix, Inc. Detecting content based defects in a video stream
US6185527B1 (en) 1999-01-19 2001-02-06 International Business Machines Corporation System and method for automatic audio content analysis for word spotting, indexing, classification and retrieval
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US20040255336A1 (en) * 1999-03-30 2004-12-16 Gotuit Video, Inc. Methods and apparatus for simultaneous program viewing
US7362946B1 (en) * 1999-04-12 2008-04-22 Canon Kabushiki Kaisha Automated visual image editing system
US6332120B1 (en) * 1999-04-20 2001-12-18 Solana Technology Development Corporation Broadcast speech recognition system for keyword monitoring
US7565294B2 (en) 1999-05-19 2009-07-21 Digimarc Corporation Methods and systems employing digital content
US8095796B2 (en) 1999-05-19 2012-01-10 Digimarc Corporation Content identifiers
US7406214B2 (en) 1999-05-19 2008-07-29 Digimarc Corporation Methods and devices employing optical sensors and/or steganography
US20070100757A1 (en) * 1999-05-19 2007-05-03 Rhoads Geoffrey B Content Protection Arrangements
US7302574B2 (en) * 1999-05-19 2007-11-27 Digimarc Corporation Content identifiers triggering corresponding responses through collaborative processing
US6871180B1 (en) 1999-05-25 2005-03-22 Arbitron Inc. Decoding of information in audio signals
GB9912724D0 (en) 1999-06-01 1999-08-04 Cambridge Positioning Sys Ltd Radio positioning system
US7013301B2 (en) * 2003-09-23 2006-03-14 Predixis Corporation Audio fingerprinting system and method
US20050038819A1 (en) * 2000-04-21 2005-02-17 Hicken Wendell T. Music Recommendation system and method
US6519564B1 (en) * 1999-07-01 2003-02-11 Koninklijke Philips Electronics N.V. Content-driven speech-or audio-browser
US8326584B1 (en) 1999-09-14 2012-12-04 Gracenote, Inc. Music searching methods based on human perception
US7194752B1 (en) 1999-10-19 2007-03-20 Iceberg Industries, Llc Method and apparatus for automatically recognizing input audio and/or video streams
US7174293B2 (en) * 1999-09-21 2007-02-06 Iceberg Industries Llc Audio identification system and method
US6941275B1 (en) * 1999-10-07 2005-09-06 Remi Swierczek Music identification system
US7155735B1 (en) 1999-10-08 2006-12-26 Vulcan Patents Llc System and method for the broadcast dissemination of time-ordered data
US6469749B1 (en) * 1999-10-13 2002-10-22 Koninklijke Philips Electronics N.V. Automatic signature-based spotting, learning and extracting of commercials and other video content
CA2310769C (en) * 1999-10-27 2013-05-28 Nielsen Media Research, Inc. Audio signature extraction and correlation
AU1173701A (en) * 1999-11-11 2001-06-06 Contentwise Ltd., Method and system for global broadcast monitoring
JP4618868B2 (ja) * 1999-11-15 2011-01-26 富士通テン株式会社 ディジタル放送受信機及びセグメント数検出装置
US6993245B1 (en) * 1999-11-18 2006-01-31 Vulcan Patents Llc Iterative, maximally probable, batch-mode commercial detection for audiovisual content
US6721488B1 (en) * 1999-11-30 2004-04-13 Koninklijke Philips Electronics N.V. Method and apparatus to identify sequential content stored on a storage medium
WO2001045103A1 (en) * 1999-12-14 2001-06-21 Koninklijke Philips Electronics N.V. Method and apparatus to identify content stored on a storage medium
US6397041B1 (en) 1999-12-22 2002-05-28 Radio Propagation Services, Inc. Broadcast monitoring and control system
US6757682B1 (en) 2000-01-28 2004-06-29 Interval Research Corporation Alerting users to items of current interest
US6675174B1 (en) 2000-02-02 2004-01-06 International Business Machines Corp. System and method for measuring similarity between a set of known temporal media segments and a one or more temporal media streams
US6593976B1 (en) * 2000-02-14 2003-07-15 Koninklijke Philips Electronics N.V. Automatic return to input source when user-selected content reappears in input source
US6737957B1 (en) 2000-02-16 2004-05-18 Verance Corporation Remote control signaling using audio watermarks
US6834308B1 (en) 2000-02-17 2004-12-21 Audible Magic Corporation Method and apparatus for identifying media content presented on a media playing device
AU2001249994A1 (en) 2000-02-25 2001-09-03 Interval Research Corporation Method and system for selecting advertisements
US7661116B2 (en) 2000-02-25 2010-02-09 Vulcan Patents Llc Auction for targeted content
US8910199B2 (en) * 2000-02-25 2014-12-09 Interval Licensing Llc Targeted television content display
GB2360581A (en) * 2000-03-15 2001-09-26 Television Monitoring Services Quantification of brand exposure on screen
US20060015925A1 (en) * 2000-03-28 2006-01-19 Gotuit Media Corp Sales presentation video on demand system
US20040255334A1 (en) * 2000-03-28 2004-12-16 Gotuit Audio, Inc. Methods and apparatus for seamlessly changing volumes during playback using a compact disk changer
US6968564B1 (en) * 2000-04-06 2005-11-22 Nielsen Media Research, Inc. Multi-band spectral audio encoding
WO2001077864A1 (en) * 2000-04-10 2001-10-18 Contentwise Ltd Method and system for managing multimedia databases
US7305104B2 (en) * 2000-04-21 2007-12-04 Digimarc Corporation Authentication of identification documents using digital watermarks
US20060217828A1 (en) * 2002-10-23 2006-09-28 Hicken Wendell T Music searching system and method
JP4300697B2 (ja) * 2000-04-24 2009-07-22 ソニー株式会社 信号処理装置及び方法
JP4507351B2 (ja) * 2000-04-27 2010-07-21 ソニー株式会社 信号処理装置及び方法
US8121843B2 (en) 2000-05-02 2012-02-21 Digimarc Corporation Fingerprint methods and systems for media signals
US7617509B1 (en) 2000-06-23 2009-11-10 International Business Machines Corporation Method and system for automated monitoring of quality of service of digital video material distribution and play-out
US6757828B1 (en) * 2000-07-27 2004-06-29 Jonathan E. Jaffe Indigenous authentication for sensor-recorders and other information capture devices
US8219545B2 (en) * 2000-07-27 2012-07-10 Goldhar/Jaffe Technology Development Corporation Indigenous authentication and searching system and method
US7853664B1 (en) 2000-07-31 2010-12-14 Landmark Digital Services Llc Method and system for purchasing pre-recorded music
JP3775186B2 (ja) 2000-08-10 2006-05-17 日本電気株式会社 放送確認システム、放送確認装置および方法、放送確認プログラムを記録した記録媒体
US20020059629A1 (en) * 2000-08-21 2002-05-16 Markel Steven O. Detection and recognition of data receiver to facilitate proper transmission of enhanced data
EP2136306B1 (en) 2000-08-23 2013-03-20 Gracenote, Inc. Method and system for obtaining information
US20020057286A1 (en) * 2000-08-25 2002-05-16 Markel Steven O. Device independent video enhancement scripting language
JP2004509490A (ja) * 2000-08-25 2004-03-25 インテロシティー ユーエスエイ,アイエヌシー. パーソナルリモートコントロール
US8205237B2 (en) 2000-09-14 2012-06-19 Cox Ingemar J Identifying works, using a sub-linear time search, such as an approximate nearest neighbor search, for initiating a work-based action, such as an action on the internet
AU2001295989A1 (en) * 2000-10-23 2002-05-06 Ntt Communications Corporation Musical composition recognition method and system, storage medium where musical composition program is stored, commercial recognition method and system, and storage medium where commercial recognition program is stored
US7277766B1 (en) * 2000-10-24 2007-10-02 Moodlogic, Inc. Method and system for analyzing digital audio files
US7562012B1 (en) 2000-11-03 2009-07-14 Audible Magic Corporation Method and apparatus for creating a unique audio signature
US7085613B2 (en) * 2000-11-03 2006-08-01 International Business Machines Corporation System for monitoring audio content in a video broadcast
US6748360B2 (en) 2000-11-03 2004-06-08 International Business Machines Corporation System for selling a product utilizing audio content identification
US7031921B2 (en) * 2000-11-03 2006-04-18 International Business Machines Corporation System for monitoring audio content available over a network
US6604072B2 (en) 2000-11-03 2003-08-05 International Business Machines Corporation Feature-based audio content identification
US6574594B2 (en) 2000-11-03 2003-06-03 International Business Machines Corporation System for monitoring broadcast audio content
US6999715B2 (en) * 2000-12-11 2006-02-14 Gary Alan Hayter Broadcast audience surveillance using intercepted audio
US20020072982A1 (en) * 2000-12-12 2002-06-13 Shazam Entertainment Ltd. Method and system for interacting with a user in an experiential environment
US20020080976A1 (en) * 2000-12-14 2002-06-27 Schreer Scott P. System and method for accessing authorized recordings
US7266704B2 (en) 2000-12-18 2007-09-04 Digimarc Corporation User-friendly rights management systems and methods
AU2002232817A1 (en) 2000-12-21 2002-07-01 Digimarc Corporation Methods, apparatus and programs for generating and utilizing content signatures
US20020114299A1 (en) * 2000-12-27 2002-08-22 Daozheng Lu Apparatus and method for measuring tuning of a digital broadcast receiver
US8458754B2 (en) * 2001-01-22 2013-06-04 Sony Computer Entertainment Inc. Method and system for providing instant start multimedia content
US20070300258A1 (en) * 2001-01-29 2007-12-27 O'connor Daniel Methods and systems for providing media assets over a network
EP1362485B1 (en) * 2001-02-12 2008-08-13 Gracenote, Inc. Generating and matching hashes of multimedia content
US8909128B2 (en) * 2008-04-09 2014-12-09 3D Radio Llc Radio device with virtually infinite simultaneous inputs
US8868023B2 (en) 2008-01-04 2014-10-21 3D Radio Llc Digital radio systems and methods
US8706023B2 (en) * 2008-01-04 2014-04-22 3D Radio Llc Multi-tuner radio systems and methods
US8699995B2 (en) * 2008-04-09 2014-04-15 3D Radio Llc Alternate user interfaces for multi tuner radio device
AU2002247173A1 (en) * 2001-02-20 2002-09-04 Caron S. Ellis Enhanced radio systems and methods
US7359889B2 (en) 2001-03-02 2008-04-15 Landmark Digital Services Llc Method and apparatus for automatically creating database for use in automated media recognition system
CN1504048A (zh) * 2001-03-22 2004-06-09 联合视频制品公司 个人视频记录器系统和方法
US8949878B2 (en) * 2001-03-30 2015-02-03 Funai Electric Co., Ltd. System for parental control in video programs based on multimedia content information
US7363278B2 (en) * 2001-04-05 2008-04-22 Audible Magic Corporation Copyright detection and protection system and method
US7248715B2 (en) * 2001-04-06 2007-07-24 Digimarc Corporation Digitally watermarking physical media
US7039585B2 (en) 2001-04-10 2006-05-02 International Business Machines Corporation Method and system for searching recorded speech and retrieving relevant segments
US7046819B2 (en) 2001-04-25 2006-05-16 Digimarc Corporation Encoded reference signal for digital watermarks
US7325249B2 (en) 2001-04-30 2008-01-29 Aol Llc Identifying unwanted electronic messages
US6785656B2 (en) * 2001-06-05 2004-08-31 Xm Satellite Radio, Inc. Method and apparatus for digital audio playback using local stored content
US20050005308A1 (en) * 2002-01-29 2005-01-06 Gotuit Video, Inc. Methods and apparatus for recording and replaying sports broadcasts
US8572640B2 (en) * 2001-06-29 2013-10-29 Arbitron Inc. Media data use measurement with remote decoding/pattern matching
US6963543B2 (en) 2001-06-29 2005-11-08 Qualcomm Incorporated Method and system for group call service
US7529659B2 (en) 2005-09-28 2009-05-05 Audible Magic Corporation Method and apparatus for identifying an unknown work
US6968337B2 (en) * 2001-07-10 2005-11-22 Audible Magic Corporation Method and apparatus for identifying an unknown work
US7328153B2 (en) * 2001-07-20 2008-02-05 Gracenote, Inc. Automatic identification of sound recordings
US8972481B2 (en) 2001-07-20 2015-03-03 Audible Magic, Inc. Playlist generation method and apparatus
US7877438B2 (en) * 2001-07-20 2011-01-25 Audible Magic Corporation Method and apparatus for identifying new media content
US20030054757A1 (en) * 2001-09-19 2003-03-20 Kolessar Ronald S. Monitoring usage of media data with non-program data elimination
US20030070179A1 (en) * 2001-10-04 2003-04-10 Ritz Peter B. System and method for connecting end user with application based on broadcast code
US6961467B2 (en) * 2001-10-17 2005-11-01 Intel Corporation Identifying image content
US20030135623A1 (en) * 2001-10-23 2003-07-17 Audible Magic, Inc. Method and apparatus for cache promotion
US7012653B1 (en) * 2001-11-30 2006-03-14 Bellsouth Intellectual Property Corporation Program restart and commercial ending notification method and system
US7870089B1 (en) * 2001-12-03 2011-01-11 Aol Inc. Reducing duplication of embedded resources on a network
US7496604B2 (en) 2001-12-03 2009-02-24 Aol Llc Reducing duplication of files on a network
US20030110500A1 (en) * 2001-12-06 2003-06-12 Rodriguez Arturo A. Prediction-based adaptative control of television viewing functionality
US7120922B2 (en) * 2001-12-11 2006-10-10 Scientific-Atlanta, Inc. Time-adaptive control of television viewing functionality
US9967633B1 (en) 2001-12-14 2018-05-08 At&T Intellectual Property I, L.P. System and method for utilizing television viewing patterns
US7212979B1 (en) 2001-12-14 2007-05-01 Bellsouth Intellectuall Property Corporation System and method for identifying desirable subscribers
US20110178877A1 (en) 2001-12-14 2011-07-21 Swix Scott R Advertising and content management systems and methods
US7086075B2 (en) 2001-12-21 2006-08-01 Bellsouth Intellectual Property Corporation Method and system for managing timed responses to A/V events in television programming
US7064796B2 (en) * 2001-12-21 2006-06-20 Eloda Inc. Method and system for re-identifying broadcast segments using statistical profiles
US8086491B1 (en) 2001-12-31 2011-12-27 At&T Intellectual Property I, L. P. Method and system for targeted content distribution using tagged data streams
US7337455B2 (en) * 2001-12-31 2008-02-26 Koninklijke Philips Electronics N.V. Method, apparatus, and program for evolving algorithms for detecting content in information streams
US20030131350A1 (en) * 2002-01-08 2003-07-10 Peiffer John C. Method and apparatus for identifying a digital audio signal
US7020304B2 (en) 2002-01-22 2006-03-28 Digimarc Corporation Digital watermarking and fingerprinting including synchronization, layering, version control, and compressed embedding
US20070113250A1 (en) * 2002-01-29 2007-05-17 Logan James D On demand fantasy sports systems and methods
CN1628302A (zh) 2002-02-05 2005-06-15 皇家飞利浦电子股份有限公司 指纹的有效存储器
US8150235B2 (en) 2002-02-08 2012-04-03 Intel Corporation Method of home media server control
US20030154493A1 (en) * 2002-02-14 2003-08-14 Kagle Jonathan C. Identifying unique broadcasts
US7461392B2 (en) * 2002-07-01 2008-12-02 Microsoft Corporation System and method for identifying and segmenting repeating media objects embedded in a stream
US6766523B2 (en) 2002-05-31 2004-07-20 Microsoft Corporation System and method for identifying and segmenting repeating media objects embedded in a stream
US8601504B2 (en) * 2002-06-20 2013-12-03 Verance Corporation Secure tracking system and method for video program content
WO2004004351A1 (en) * 2002-07-01 2004-01-08 Microsoft Corporation A system and method for providing user control over repeating objects embedded in a stream
US20040091111A1 (en) * 2002-07-16 2004-05-13 Levy Kenneth L. Digital watermarking and fingerprinting applications
US20040013405A1 (en) * 2002-07-18 2004-01-22 Christiansen Robert D Method for preparing/printing video scene indices
US8176508B2 (en) * 2002-08-02 2012-05-08 Time Warner Cable Method and apparatus to provide verification of data using a fingerprint
SE524162C2 (sv) * 2002-08-23 2004-07-06 Rickard Berg Förfarande för att behandla signaler
JP2005536794A (ja) * 2002-08-26 2005-12-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ コンテンツ識別の方法、装置、及びソフトウエア
EP1403783A3 (en) * 2002-09-24 2005-01-19 Matsushita Electric Industrial Co., Ltd. Audio signal feature extraction
US20040062520A1 (en) * 2002-09-27 2004-04-01 Koninklijke Philips Electronics N.V. Enhanced commercial detection through fusion of video and audio signatures
FR2845179B1 (fr) * 2002-09-27 2004-11-05 Thomson Licensing Sa Procede de regroupement d'images d'une sequence video
US9711153B2 (en) * 2002-09-27 2017-07-18 The Nielsen Company (Us), Llc Activating functions in processing devices using encoded audio and detecting audio signatures
US8959016B2 (en) 2002-09-27 2015-02-17 The Nielsen Company (Us), Llc Activating functions in processing devices using start codes embedded in audio
US7222071B2 (en) * 2002-09-27 2007-05-22 Arbitron Inc. Audio data receipt/exposure measurement with code monitoring and signature extraction
ATE426297T1 (de) * 2002-09-30 2009-04-15 Gracenote Inc Fingerabdruckextraktion
CA2499967A1 (en) 2002-10-15 2004-04-29 Verance Corporation Media monitoring, management and information system
CA2503340A1 (en) 2002-10-23 2004-05-06 Arun Ramaswamy Digital data insertion apparatus and methods for use with compressed audio/video data
CN1711531A (zh) * 2002-11-12 2005-12-21 皇家飞利浦电子股份有限公司 采指纹多媒体内容
JP4218319B2 (ja) * 2002-11-19 2009-02-04 日本電気株式会社 映像閲覧システムおよび方法
JP4228662B2 (ja) * 2002-11-19 2009-02-25 日本電気株式会社 映像閲覧システムおよび方法
US8204353B2 (en) 2002-11-27 2012-06-19 The Nielsen Company (Us), Llc Apparatus and methods for tracking and analyzing digital recording device event sequences
WO2005041455A1 (en) * 2002-12-20 2005-05-06 Koninklijke Philips Electronics N.V. Video content detection
US7483835B2 (en) * 2002-12-23 2009-01-27 Arbitron, Inc. AD detection using ID code and extracted signature
AU2003288643A1 (en) * 2003-01-06 2004-07-29 Koninklijke Philips Electronics N.V. Method and apparatus for similar video content hopping
US20040153647A1 (en) * 2003-01-31 2004-08-05 Rotholtz Ben Aaron Method and process for transmitting video content
US8332326B2 (en) 2003-02-01 2012-12-11 Audible Magic Corporation Method and apparatus to identify a work received by a processing system
WO2004073217A1 (en) 2003-02-10 2004-08-26 Nielsen Media Research, Inc. Methods and apparatus to adaptively gather audience information data
US7509550B2 (en) * 2003-02-13 2009-03-24 Janusz Rajski Fault diagnosis of compressed test responses
US7437640B2 (en) * 2003-02-13 2008-10-14 Janusz Rajski Fault diagnosis of compressed test responses having one or more unknown states
EP1595211B1 (en) * 2003-02-13 2008-07-09 Mentor Graphics Corporation Compressing test responses using a compactor
JP3901106B2 (ja) * 2003-02-19 2007-04-04 ソニー株式会社 受信装置およびその設定方法
US7738704B2 (en) * 2003-03-07 2010-06-15 Technology, Patents And Licensing, Inc. Detecting known video entities utilizing fingerprints
US20040237102A1 (en) * 2003-03-07 2004-11-25 Richard Konig Advertisement substitution
US7809154B2 (en) 2003-03-07 2010-10-05 Technology, Patents & Licensing, Inc. Video entity recognition in compressed digital video streams
US20050177847A1 (en) * 2003-03-07 2005-08-11 Richard Konig Determining channel associated with video stream
US20050149968A1 (en) * 2003-03-07 2005-07-07 Richard Konig Ending advertisement insertion
US7694318B2 (en) * 2003-03-07 2010-04-06 Technology, Patents & Licensing, Inc. Video detection and insertion
US7320009B1 (en) 2003-03-28 2008-01-15 Novell, Inc. Methods and systems for file replication utilizing differences between versions of files
US20040226035A1 (en) * 2003-05-05 2004-11-11 Hauser David L. Method and apparatus for detecting media content
US7590695B2 (en) 2003-05-09 2009-09-15 Aol Llc Managing electronic messages
US7509180B2 (en) * 2003-05-23 2009-03-24 Microsoft Corporation Extending digital rights management and authentication to audio speakers
US7289533B2 (en) * 2003-06-06 2007-10-30 Quake Global, Inc. Universal subscriber communicator module
US20040260682A1 (en) * 2003-06-19 2004-12-23 Microsoft Corporation System and method for identifying content and managing information corresponding to objects in a signal
CA2530012C (en) * 2003-06-20 2012-04-03 Nielsen Media Research, Inc. Signature-based program identification apparatus and methods for use with digital broadcast systems
US7739602B2 (en) 2003-06-24 2010-06-15 Aol Inc. System and method for community centric resource sharing based on a publishing subscription model
US7386047B2 (en) * 2003-08-19 2008-06-10 Radio Computing Services, Inc. Method for determining the likelihood of a match between source data and reference data
CA2540575C (en) 2003-09-12 2013-12-17 Kevin Deng Digital video signature apparatus and methods for use with video program identification systems
JP3885786B2 (ja) * 2003-09-12 2007-02-28 ソニー株式会社 情報信号の処理装置および処理方法、並びにその処理方法を実行させるためのプログラム
WO2005032128A1 (en) * 2003-09-25 2005-04-07 Koninklijke Philips Electronics, N.V. Simple program guide
US20070039018A1 (en) * 2005-08-09 2007-02-15 Verance Corporation Apparatus, systems and methods for broadcast advertising stewardship
US9055239B2 (en) 2003-10-08 2015-06-09 Verance Corporation Signal continuity assessment using embedded watermarks
US20060239501A1 (en) 2005-04-26 2006-10-26 Verance Corporation Security enhancements of digital watermarks for multi-media content
US7369677B2 (en) 2005-04-26 2008-05-06 Verance Corporation System reactions to the detection of embedded watermarks in a digital host content
US7788696B2 (en) * 2003-10-15 2010-08-31 Microsoft Corporation Inferring information about media stream objects
WO2005041109A2 (en) * 2003-10-17 2005-05-06 Nielsen Media Research, Inc. Methods and apparatus for identifiying audio/video content using temporal signal characteristics
US20050108754A1 (en) * 2003-11-19 2005-05-19 Serenade Systems Personalized content application
US8239446B2 (en) * 2003-11-19 2012-08-07 Sony Computer Entertainment America Llc Content distribution architecture
AU2005215786A1 (en) 2004-02-17 2005-09-01 Nielsen Media Research, Inc. Et Al. Methods and apparatus for monitoring video games
JP2007534008A (ja) 2004-02-26 2007-11-22 メディアガイド・インコーポレイテッド 放送音声またはビデオプログラム信号の自動検出及び識別のための方法及び装置
US8229751B2 (en) * 2004-02-26 2012-07-24 Mediaguide, Inc. Method and apparatus for automatic detection and identification of unidentified Broadcast audio or video signals
US20050193426A1 (en) * 2004-02-27 2005-09-01 Raja Neogi System and method to control fingerprint processing in a media network
US8738763B2 (en) 2004-03-26 2014-05-27 The Nielsen Company (Us), Llc Research data gathering with a portable monitor and a stationary device
US7483975B2 (en) 2004-03-26 2009-01-27 Arbitron, Inc. Systems and methods for gathering data concerning usage of media data
US8688248B2 (en) * 2004-04-19 2014-04-01 Shazam Investments Limited Method and system for content sampling and identification
US7793319B2 (en) * 2004-04-27 2010-09-07 Gateway, Inc. System and method for improved channel surfing
US20150051967A1 (en) 2004-05-27 2015-02-19 Anonymous Media Research, Llc Media usage monitoring and measurment system and method
US20050267750A1 (en) * 2004-05-27 2005-12-01 Anonymous Media, Llc Media usage monitoring and measurement system and method
US20070179786A1 (en) * 2004-06-18 2007-08-02 Meiko Masaki Av content processing device, av content processing method, av content processing program, and integrated circuit used in av content processing device
AU2005269957B2 (en) * 2004-07-02 2011-09-22 The Nielsen Company (Us), Llc Methods and apparatus for identifying viewing information associated with a digital media device
US8130746B2 (en) * 2004-07-28 2012-03-06 Audible Magic Corporation System for distributing decoy content in a peer to peer network
US9704502B2 (en) * 2004-07-30 2017-07-11 Invention Science Fund I, Llc Cue-aware privacy filter for participants in persistent communications
US9779750B2 (en) * 2004-07-30 2017-10-03 Invention Science Fund I, Llc Cue-aware privacy filter for participants in persistent communications
US8521828B2 (en) * 2004-07-30 2013-08-27 The Invention Science Fund I, Llc Themes indicative of participants in persistent communication
US8977250B2 (en) * 2004-08-27 2015-03-10 The Invention Science Fund I, Llc Context-aware filter for participants in persistent communication
US20080092031A1 (en) * 2004-07-30 2008-04-17 Steven John Simske Rich media printer
US20060212149A1 (en) * 2004-08-13 2006-09-21 Hicken Wendell T Distributed system and method for intelligent data analysis
MX2007002071A (es) * 2004-08-18 2007-04-24 Nielsen Media Res Inc Metodos y aparatos para generar firmas.
US7386542B2 (en) * 2004-08-30 2008-06-10 The Mitre Corporation Personalized broadcast news navigator
US7826708B2 (en) * 2004-11-02 2010-11-02 Microsoft Corporation System and method for automatically customizing a buffered media stream
CA2588217C (en) * 2004-11-22 2014-04-22 Nielsen Media Research, Inc. Methods and apparatus for media source identification and time shifted media consumption measurements
US20060155754A1 (en) * 2004-12-08 2006-07-13 Steven Lubin Playlist driven automated content transmission and delivery system
US7567899B2 (en) * 2004-12-30 2009-07-28 All Media Guide, Llc Methods and apparatus for audio recognition
US20060167458A1 (en) * 2005-01-25 2006-07-27 Lorenz Gabele Lock and release mechanism for a sternal clamp
GB0502844D0 (en) 2005-02-11 2005-03-16 Univ Edinburgh Storing digital content for access using a captured image
US20060195860A1 (en) * 2005-02-25 2006-08-31 Eldering Charles A Acting on known video entities detected utilizing fingerprinting
GB2423882A (en) * 2005-03-01 2006-09-06 Half Minute Media Ltd Acting on known video entities detected utilizing fingerprinting
GB2423881B (en) * 2005-03-01 2011-03-09 Half Minute Media Ltd Detecting known video entities taking into account regions of disinterest
AU2006220720A1 (en) * 2005-03-04 2006-09-14 Resonance Media Services, Inc. Scan shuffle for building playlists
US20060242667A1 (en) * 2005-04-22 2006-10-26 Petersen Erin L Ad monitoring and indication
US7690011B2 (en) 2005-05-02 2010-03-30 Technology, Patents & Licensing, Inc. Video stream modification to defeat detection
US20060271947A1 (en) * 2005-05-23 2006-11-30 Lienhart Rainer W Creating fingerprints
US7613736B2 (en) * 2005-05-23 2009-11-03 Resonance Media Services, Inc. Sharing music essence in a recommendation system
US8020004B2 (en) 2005-07-01 2011-09-13 Verance Corporation Forensic marking using a common customization function
US8781967B2 (en) 2005-07-07 2014-07-15 Verance Corporation Watermarking in an encrypted domain
US8577684B2 (en) 2005-07-13 2013-11-05 Intellisist, Inc. Selective security masking within recorded speech utilizing speech recognition techniques
US8346918B2 (en) * 2005-08-19 2013-01-01 Cpacket Networks, Inc. Apparatus and method for biased and weighted sampling of network traffic to facilitate network monitoring
US7890991B2 (en) 2005-08-19 2011-02-15 Cpacket Networks, Inc. Apparatus and method for providing security and monitoring in a networking architecture
US8024799B2 (en) * 2005-08-19 2011-09-20 Cpacket Networks, Inc. Apparatus and method for facilitating network security with granular traffic modifications
US8296846B2 (en) * 2005-08-19 2012-10-23 Cpacket Networks, Inc. Apparatus and method for associating categorization information with network traffic to facilitate application level processing
US7937756B2 (en) * 2005-08-19 2011-05-03 Cpacket Networks, Inc. Apparatus and method for facilitating network security
US7882554B2 (en) * 2005-08-19 2011-02-01 Cpacket Networks, Inc. Apparatus and method for selective mirroring
US20070106405A1 (en) * 2005-08-19 2007-05-10 Gracenote, Inc. Method and system to provide reference data for identification of digital content
US8665868B2 (en) * 2005-08-19 2014-03-04 Cpacket Networks, Inc. Apparatus and method for enhancing forwarding and classification of network traffic with prioritized matching and categorization
US7698008B2 (en) 2005-09-08 2010-04-13 Apple Inc. Content-based audio comparisons
US8594429B2 (en) * 2005-10-11 2013-11-26 Hewlett-Packard Development Company, L.P. Method and apparatus for processing a video stream
WO2007056624A2 (en) * 2005-10-21 2007-05-18 Nielsen Media Research, Inc. Methods and apparatus for metering portable media players
US10742340B2 (en) 2005-10-26 2020-08-11 Cortica Ltd. System and method for identifying the context of multimedia content elements displayed in a web-page and providing contextual filters respective thereto
US10691642B2 (en) 2005-10-26 2020-06-23 Cortica Ltd System and method for enriching a concept database with homogenous concepts
US10585934B2 (en) 2005-10-26 2020-03-10 Cortica Ltd. Method and system for populating a concept database with respect to user identifiers
US11403336B2 (en) 2005-10-26 2022-08-02 Cortica Ltd. System and method for removing contextually identical multimedia content elements
US10614626B2 (en) 2005-10-26 2020-04-07 Cortica Ltd. System and method for providing augmented reality challenges
US11032017B2 (en) 2005-10-26 2021-06-08 Cortica, Ltd. System and method for identifying the context of multimedia content elements
US10621988B2 (en) 2005-10-26 2020-04-14 Cortica Ltd System and method for speech to text translation using cores of a natural liquid architecture system
US11019161B2 (en) 2005-10-26 2021-05-25 Cortica, Ltd. System and method for profiling users interest based on multimedia content analysis
US11003706B2 (en) 2005-10-26 2021-05-11 Cortica Ltd System and methods for determining access permissions on personalized clusters of multimedia content elements
US8326775B2 (en) 2005-10-26 2012-12-04 Cortica Ltd. Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof
US8818916B2 (en) 2005-10-26 2014-08-26 Cortica, Ltd. System and method for linking multimedia data elements to web pages
US11216498B2 (en) 2005-10-26 2022-01-04 Cortica, Ltd. System and method for generating signatures to three-dimensional multimedia data elements
US10776585B2 (en) 2005-10-26 2020-09-15 Cortica, Ltd. System and method for recognizing characters in multimedia content
US10372746B2 (en) 2005-10-26 2019-08-06 Cortica, Ltd. System and method for searching applications using multimedia content elements
US10607355B2 (en) * 2005-10-26 2020-03-31 Cortica, Ltd. Method and system for determining the dimensions of an object shown in a multimedia content item
EP1955458B1 (en) * 2005-11-29 2012-07-11 Google Inc. Social and interactive applications for mass media
CN106877957B (zh) * 2005-12-12 2019-08-27 尼尔逊媒介研究股份有限公司 在家庭中收集媒体的方法、设备和系统
US9015740B2 (en) 2005-12-12 2015-04-21 The Nielsen Company (Us), Llc Systems and methods to wirelessly meter audio/visual devices
EP1977359A4 (en) 2005-12-20 2010-08-25 Arbitron Inc METHOD AND SYSTEMS FOR LEADING RESEARCH OPERATIONS
US7627878B2 (en) * 2005-12-23 2009-12-01 Eloda Inc. Method and System for automated auditing of advertising
US20070149114A1 (en) * 2005-12-28 2007-06-28 Andrey Danilenko Capture, storage and retrieval of broadcast information while on-the-go
US20090006337A1 (en) * 2005-12-30 2009-01-01 Mediaguide, Inc. Method and apparatus for automatic detection and identification of unidentified video signals
EP1826932B1 (en) * 2006-02-22 2011-07-06 Media Evolution Technologies Inc. Method and apparatus for generating digital audio signatures
CA2841017C (en) 2006-03-27 2016-12-20 The Nielsen Company (Us), Llc Methods and systems to meter media content presented on a wireless communication device
US7735101B2 (en) 2006-03-28 2010-06-08 Cisco Technology, Inc. System allowing users to embed comments at specific points in time into media presentation
MX2007015979A (es) 2006-03-31 2009-04-07 Nielsen Media Res Inc Metodos, sistemas y aparato para medicion de multiples fines.
US20080036917A1 (en) * 2006-04-07 2008-02-14 Mark Pascarella Methods and systems for generating and delivering navigatable composite videos
CN101536503B (zh) 2006-06-15 2012-09-26 尼尔森(美国)有限公司 利用隐藏字幕信息来计量内容曝光的方法和装置
US8019162B2 (en) * 2006-06-20 2011-09-13 The Nielsen Company (Us), Llc Methods and apparatus for detecting on-screen media sources
WO2007148264A1 (en) * 2006-06-20 2007-12-27 Koninklijke Philips Electronics N.V. Generating fingerprints of video signals
US8433915B2 (en) * 2006-06-28 2013-04-30 Intellisist, Inc. Selective security masking within recorded speech
US9489640B2 (en) 2006-07-12 2016-11-08 The Nielsen Company (Us), Llc Methods and systems for compliance confirmation and incentives
DE102006032543A1 (de) * 2006-07-13 2008-01-17 Nokia Siemens Networks Gmbh & Co.Kg Verfahren und System zur Reduzierung des Empfangs unerwünschter Nachrichten
US7881547B2 (en) * 2006-07-28 2011-02-01 Genesis Microchip Inc. Video window detector
US8745684B1 (en) 2006-08-08 2014-06-03 CastTV Inc. Facilitating video search
US9398350B1 (en) * 2006-08-08 2016-07-19 CastTV Inc. Video matching service to offline counterpart
US7693872B2 (en) * 2006-08-17 2010-04-06 Anchorfree, Inc. Software web crowler and method therefor
US20080051029A1 (en) * 2006-08-25 2008-02-28 Bradley James Witteman Phone-based broadcast audio identification
EP2126833A2 (en) 2006-11-30 2009-12-02 Dolby Laboratories Licensing Corporation Extracting features of video&audio signal content to provide reliable identification of the signals
US20080155627A1 (en) * 2006-12-04 2008-06-26 O'connor Daniel Systems and methods of searching for and presenting video and audio
US20080147497A1 (en) * 2006-12-13 2008-06-19 Tischer Steven N Advertising and content management systems and methods
US10885543B1 (en) 2006-12-29 2021-01-05 The Nielsen Company (Us), Llc Systems and methods to pre-scale media content to facilitate audience measurement
CN101627422B (zh) * 2007-01-25 2013-01-02 奥比融公司 研究数据收集
US8453170B2 (en) 2007-02-27 2013-05-28 Landmark Digital Services Llc System and method for monitoring and recognizing broadcast data
US8645987B2 (en) * 2007-04-13 2014-02-04 Power-Link Software Systems, Inc. Advertisement airing audit system and associated methods
US10489795B2 (en) * 2007-04-23 2019-11-26 The Nielsen Company (Us), Llc Determining relative effectiveness of media content items
US20080274687A1 (en) * 2007-05-02 2008-11-06 Roberts Dale T Dynamic mixed media package
US7912894B2 (en) * 2007-05-15 2011-03-22 Adams Phillip M Computerized, copy-detection and discrimination apparatus and method
US8849432B2 (en) * 2007-05-31 2014-09-30 Adobe Systems Incorporated Acoustic pattern identification using spectral characteristics to synchronize audio and/or video
JP2008306549A (ja) * 2007-06-08 2008-12-18 Canon Inc 無線制御局、及び無線端末局の制御方法、当該制御方法をコンピュータに実行させるためのコンピュータプログラム
US8559516B2 (en) * 2007-06-14 2013-10-15 Sony Corporation Video sequence ID by decimated scene signature
US8006314B2 (en) * 2007-07-27 2011-08-23 Audible Magic Corporation System for identifying content of digital data
US9483405B2 (en) 2007-09-20 2016-11-01 Sony Interactive Entertainment Inc. Simplified run-time program translation for emulating complex processor pipelines
EP2073460A1 (en) * 2007-12-17 2009-06-24 Alcatel Lucent Method for forwarding packets, a related packet forwarding system, a related classification device and a related popularity monitoring device
US20090165049A1 (en) 2007-12-19 2009-06-25 United Video Properties, Inc. Methods and devices for presenting and interactive media guidance application
US8285718B1 (en) * 2007-12-21 2012-10-09 CastTV Inc. Clustering multimedia search
AU2008347134A1 (en) 2007-12-31 2009-07-16 Arbitron, Inc. Survey data acquisition
US8930003B2 (en) 2007-12-31 2015-01-06 The Nielsen Company (Us), Llc Data capture bridge
CA2660674A1 (en) * 2008-03-27 2009-09-27 Crim (Centre De Recherche Informatique De Montreal) Media detection using acoustic recognition
US8503991B2 (en) * 2008-04-03 2013-08-06 The Nielsen Company (Us), Llc Methods and apparatus to monitor mobile devices
US8245262B2 (en) * 2008-04-07 2012-08-14 Samsung Electronics Co., Ltd. System and method for synchronization of television signals associated with multiple broadcast networks
US8805689B2 (en) * 2008-04-11 2014-08-12 The Nielsen Company (Us), Llc Methods and apparatus to generate and use content-aware watermarks
US8947207B2 (en) 2008-04-29 2015-02-03 Quake Global, Inc. Method and apparatus for a deployable radio-frequency identification portal system
US8259938B2 (en) 2008-06-24 2012-09-04 Verance Corporation Efficient and secure forensic marking in compressed
US8428301B2 (en) 2008-08-22 2013-04-23 Dolby Laboratories Licensing Corporation Content identification and quality monitoring
CN102132341B (zh) * 2008-08-26 2014-11-26 杜比实验室特许公司 鲁棒的媒体指纹
US7730061B2 (en) * 2008-09-12 2010-06-01 International Business Machines Corporation Fast-approximate TFIDF
US8108887B2 (en) * 2008-10-30 2012-01-31 The Nielsen Company (Us), Llc Methods and apparatus for identifying media content using temporal signal characteristics
US9124769B2 (en) 2008-10-31 2015-09-01 The Nielsen Company (Us), Llc Methods and apparatus to verify presentation of media content
US10631068B2 (en) 2008-11-26 2020-04-21 Free Stream Media Corp. Content exposure attribution based on renderings of related content across multiple devices
US10977693B2 (en) 2008-11-26 2021-04-13 Free Stream Media Corp. Association of content identifier of audio-visual data with additional data through capture infrastructure
US10880340B2 (en) 2008-11-26 2020-12-29 Free Stream Media Corp. Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device
US9986279B2 (en) 2008-11-26 2018-05-29 Free Stream Media Corp. Discovery, access control, and communication with networked services
US9026668B2 (en) 2012-05-26 2015-05-05 Free Stream Media Corp. Real-time and retargeted advertising on multiple screens of a user watching television
US10419541B2 (en) 2008-11-26 2019-09-17 Free Stream Media Corp. Remotely control devices over a network without authentication or registration
US8180891B1 (en) 2008-11-26 2012-05-15 Free Stream Media Corp. Discovery, access control, and communication with networked services from within a security sandbox
US10567823B2 (en) 2008-11-26 2020-02-18 Free Stream Media Corp. Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device
US9961388B2 (en) 2008-11-26 2018-05-01 David Harrison Exposure of public internet protocol addresses in an advertising exchange server to improve relevancy of advertisements
US10334324B2 (en) 2008-11-26 2019-06-25 Free Stream Media Corp. Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device
US9154942B2 (en) 2008-11-26 2015-10-06 Free Stream Media Corp. Zero configuration communication between a browser and a networked media device
US9519772B2 (en) 2008-11-26 2016-12-13 Free Stream Media Corp. Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device
US9386356B2 (en) 2008-11-26 2016-07-05 Free Stream Media Corp. Targeting with television audience data across multiple screens
US9390167B2 (en) 2010-07-29 2016-07-12 Soundhound, Inc. System and methods for continuous audio matching
NO331287B1 (no) * 2008-12-15 2011-11-14 Cisco Systems Int Sarl Fremgangsmate og anordning for gjenkjenning av ansikter i en videostrom
JP4831255B2 (ja) 2009-01-23 2011-12-07 日本電気株式会社 画像識別子抽出装置
US9042656B2 (en) 2009-01-23 2015-05-26 Nec Corporation Image signature extraction device
US20110066437A1 (en) * 2009-01-26 2011-03-17 Robert Luff Methods and apparatus to monitor media exposure using content-aware watermarks
EP2333718B1 (en) 2009-01-29 2013-08-28 Nec Corporation Feature amount selecting device
CA2754170A1 (en) 2009-03-11 2010-09-16 Paymaan Behrouzi Digital signatures
KR101344627B1 (ko) 2009-03-13 2013-12-26 닛본 덴끼 가부시끼가이샤 화상 식별자 추출 장치
CN102349091B (zh) 2009-03-13 2014-08-06 日本电气株式会社 图像签名匹配设备
CN102349093B (zh) * 2009-03-13 2014-10-22 日本电气株式会社 图像签名提取设备
US8199651B1 (en) 2009-03-16 2012-06-12 Audible Magic Corporation Method and system for modifying communication flows at a port level
WO2010119657A1 (ja) 2009-04-14 2010-10-21 日本電気株式会社 画像識別子抽出装置
US10116972B2 (en) 2009-05-29 2018-10-30 Inscape Data, Inc. Methods for identifying video segments and displaying option to view from an alternative source and/or on an alternative device
US9449090B2 (en) 2009-05-29 2016-09-20 Vizio Inscape Technologies, Llc Systems and methods for addressing a media database using distance associative hashing
US10375451B2 (en) 2009-05-29 2019-08-06 Inscape Data, Inc. Detection of common media segments
US10949458B2 (en) 2009-05-29 2021-03-16 Inscape Data, Inc. System and method for improving work load management in ACR television monitoring system
US9055309B2 (en) 2009-05-29 2015-06-09 Cognitive Networks, Inc. Systems and methods for identifying video segments for displaying contextually relevant content
US8769584B2 (en) 2009-05-29 2014-07-01 TVI Interactive Systems, Inc. Methods for displaying contextually targeted content on a connected television
US8620967B2 (en) * 2009-06-11 2013-12-31 Rovi Technologies Corporation Managing metadata for occurrences of a recording
US8200021B2 (en) * 2009-06-16 2012-06-12 Nec Corporation Image signature matching device
US20110041154A1 (en) * 2009-08-14 2011-02-17 All Media Guide, Llc Content Recognition and Synchronization on a Television or Consumer Electronics Device
US20110066942A1 (en) 2009-09-14 2011-03-17 Barton James M Multifunction Multimedia Device
US8677400B2 (en) * 2009-09-30 2014-03-18 United Video Properties, Inc. Systems and methods for identifying audio content using an interactive media guidance application
US20110078020A1 (en) * 2009-09-30 2011-03-31 Lajoie Dan Systems and methods for identifying popular audio assets
US8161071B2 (en) 2009-09-30 2012-04-17 United Video Properties, Inc. Systems and methods for audio asset storage and management
US8245249B2 (en) * 2009-10-09 2012-08-14 The Nielson Company (Us), Llc Methods and apparatus to adjust signature matching results for audience measurement
JP4786739B2 (ja) * 2009-10-21 2011-10-05 株式会社東芝 情報処理装置および映像コンテンツデータ再生方法
US20110137976A1 (en) * 2009-12-04 2011-06-09 Bob Poniatowski Multifunction Multimedia Device
US8682145B2 (en) * 2009-12-04 2014-03-25 Tivo Inc. Recording system based on multimedia content fingerprints
US20110173185A1 (en) * 2010-01-13 2011-07-14 Rovi Technologies Corporation Multi-stage lookup for rolling audio recognition
US8886531B2 (en) * 2010-01-13 2014-11-11 Rovi Technologies Corporation Apparatus and method for generating an audio fingerprint and using a two-stage query
US9134875B2 (en) 2010-03-23 2015-09-15 VoteBlast, Inc. Enhancing public opinion gathering and dissemination
US8732605B1 (en) 2010-03-23 2014-05-20 VoteBlast, Inc. Various methods and apparatuses for enhancing public opinion gathering and dissemination
US9026034B2 (en) 2010-05-04 2015-05-05 Project Oda, Inc. Automatic detection of broadcast programming
EP3418917B1 (en) * 2010-05-04 2022-08-17 Apple Inc. Methods and systems for synchronizing media
US8433759B2 (en) 2010-05-24 2013-04-30 Sony Computer Entertainment America Llc Direction-conscious information sharing
US10192138B2 (en) 2010-05-27 2019-01-29 Inscape Data, Inc. Systems and methods for reducing data density in large datasets
US9838753B2 (en) 2013-12-23 2017-12-05 Inscape Data, Inc. Monitoring individual viewing of television events using tracking pixels and cookies
US9047371B2 (en) 2010-07-29 2015-06-02 Soundhound, Inc. System and method for matching a query against a broadcast stream
US10210160B2 (en) 2010-09-07 2019-02-19 Opentv, Inc. Collecting data from different sources
US9699503B2 (en) 2010-09-07 2017-07-04 Opentv, Inc. Smart playlist
US8949871B2 (en) 2010-09-08 2015-02-03 Opentv, Inc. Smart media selection based on viewer user presence
US8838977B2 (en) 2010-09-16 2014-09-16 Verance Corporation Watermark extraction and content screening in a networked environment
US20120084435A1 (en) * 2010-10-04 2012-04-05 International Business Machines Corporation Smart Real-time Content Delivery
US8631473B2 (en) 2011-07-06 2014-01-14 Symphony Advanced Media Social content monitoring platform apparatuses and systems
US10142687B2 (en) 2010-11-07 2018-11-27 Symphony Advanced Media, Inc. Audience content exposure monitoring apparatuses, methods and systems
US9027051B2 (en) 2010-12-31 2015-05-05 Accenture Global Services Limited Determining whether an advertisement aired in accordance with predefined airing specifications
US9424469B2 (en) * 2011-02-10 2016-08-23 Nec Corporation Differing region detection system and differing region detection method
CN103797494A (zh) 2011-03-31 2014-05-14 维塔克公司 使用可拍照设备检测、索引和比较显示在背景场景中的视频信号的设备、系统、方法和介质
WO2012137654A1 (ja) * 2011-04-05 2012-10-11 ヤマハ株式会社 情報提供システム、識別情報解決サーバおよび携帯端末装置
US9035163B1 (en) 2011-05-10 2015-05-19 Soundbound, Inc. System and method for targeting content based on identified audio and multimedia
US8732739B2 (en) 2011-07-18 2014-05-20 Viggle Inc. System and method for tracking and rewarding media and entertainment usage including substantially real time rewards
US8861937B2 (en) 2011-08-31 2014-10-14 The Nielsen Company (Us), Llc Methods and apparatus to access media
US20130097007A1 (en) * 2011-10-12 2013-04-18 Joseph Brewer Media posting system and method
US9973398B1 (en) 2011-10-31 2018-05-15 Reality Analytics, Inc. System and method for discriminating remote site origination of communication signals transmitted through a network based on envelope characteristics
US9813310B1 (en) 2011-10-31 2017-11-07 Reality Analytics, Inc. System and method for discriminating nature of communication traffic transmitted through network based on envelope characteristics
US8923548B2 (en) 2011-11-03 2014-12-30 Verance Corporation Extraction of embedded watermarks from a host content using a plurality of tentative watermarks
US8533481B2 (en) 2011-11-03 2013-09-10 Verance Corporation Extraction of embedded watermarks from a host content based on extrapolation techniques
US8682026B2 (en) 2011-11-03 2014-03-25 Verance Corporation Efficient extraction of embedded watermarks in the presence of host content distortions
US8615104B2 (en) 2011-11-03 2013-12-24 Verance Corporation Watermark extraction based on tentative watermarks
US8745403B2 (en) 2011-11-23 2014-06-03 Verance Corporation Enhanced content management based on watermark extraction records
US9696336B2 (en) 2011-11-30 2017-07-04 The Nielsen Company (Us), Llc Multiple meter detection and processing using motion data
US9547753B2 (en) 2011-12-13 2017-01-17 Verance Corporation Coordinated watermarking
US9323902B2 (en) 2011-12-13 2016-04-26 Verance Corporation Conditional access using embedded watermarks
US8977194B2 (en) 2011-12-16 2015-03-10 The Nielsen Company (Us), Llc Media exposure and verification utilizing inductive coupling
US8538333B2 (en) 2011-12-16 2013-09-17 Arbitron Inc. Media exposure linking utilizing bluetooth signal characteristics
US20130262184A1 (en) * 2012-03-30 2013-10-03 Arbitron Inc. Systems and Methods for Presence Detection and Linking to Media Exposure Data
WO2013184520A1 (en) 2012-06-04 2013-12-12 Stone Troy Christopher Methods and systems for identifying content types
US9118951B2 (en) 2012-06-26 2015-08-25 Arris Technology, Inc. Time-synchronizing a parallel feed of secondary content with primary media content
US9628829B2 (en) 2012-06-26 2017-04-18 Google Technology Holdings LLC Identifying media on a mobile device
US10957310B1 (en) 2012-07-23 2021-03-23 Soundhound, Inc. Integrated programming framework for speech and text understanding with meaning parsing
US8989503B2 (en) * 2012-08-03 2015-03-24 Kodak Alaris Inc. Identifying scene boundaries using group sparsity analysis
US9282366B2 (en) 2012-08-13 2016-03-08 The Nielsen Company (Us), Llc Methods and apparatus to communicate audience measurement information
US9571606B2 (en) 2012-08-31 2017-02-14 Verance Corporation Social media viewing system
US9058806B2 (en) 2012-09-10 2015-06-16 Cisco Technology, Inc. Speaker segmentation and recognition based on list of speakers
US20140075469A1 (en) 2012-09-13 2014-03-13 Verance Corporation Content distribution including advertisements
US8726304B2 (en) 2012-09-13 2014-05-13 Verance Corporation Time varying evaluation of multimedia content
US8869222B2 (en) 2012-09-13 2014-10-21 Verance Corporation Second screen content
US9081778B2 (en) 2012-09-25 2015-07-14 Audible Magic Corporation Using digital fingerprints to associate data with a work
US9992729B2 (en) 2012-10-22 2018-06-05 The Nielsen Company (Us), Llc Systems and methods for wirelessly modifying detection characteristics of portable devices
US9106953B2 (en) 2012-11-28 2015-08-11 The Nielsen Company (Us), Llc Media monitoring based on predictive signature caching
EP2926148B1 (en) 2012-11-30 2019-07-31 The Nielsen Company (US), LLC Multiple meter detection and processing using motion data
US8886011B2 (en) 2012-12-07 2014-11-11 Cisco Technology, Inc. System and method for question detection based video segmentation, search and collaboration in a video processing environment
US9158760B2 (en) 2012-12-21 2015-10-13 The Nielsen Company (Us), Llc Audio decoding with supplemental semantic audio recognition and report generation
US9183849B2 (en) 2012-12-21 2015-11-10 The Nielsen Company (Us), Llc Audio matching with semantic audio recognition and report generation
US9195649B2 (en) 2012-12-21 2015-11-24 The Nielsen Company (Us), Llc Audio processing techniques for semantic audio recognition and report generation
US20140187268A1 (en) * 2012-12-28 2014-07-03 Arbitron Inc. Apparatus, System and Method for Location Detection and User Identification for Media Exposure Data
US9841492B2 (en) 2013-02-25 2017-12-12 Quake Global, Inc. Ceiling-mounted RFID-enabled tracking
CA2902912C (en) 2013-02-26 2022-02-01 Quake Global, Inc. Methods and apparatus for automatic identification wristband
US9819798B2 (en) 2013-03-14 2017-11-14 Intellisist, Inc. Computer-implemented system and method for efficiently facilitating appointments within a call center via an automatic call distributor
US9262793B2 (en) 2013-03-14 2016-02-16 Verance Corporation Transactional video marking system
US9325381B2 (en) 2013-03-15 2016-04-26 The Nielsen Company (Us), Llc Methods, apparatus and articles of manufacture to monitor mobile devices
US9251549B2 (en) 2013-07-23 2016-02-02 Verance Corporation Watermark extractor enhancements based on payload ranking
US9208334B2 (en) 2013-10-25 2015-12-08 Verance Corporation Content management using multiple abstraction layers
US9300991B2 (en) 2013-11-13 2016-03-29 International Business Machines Corporation Use of simultaneously received videos by a system to generate a quality of experience value
US9507849B2 (en) 2013-11-28 2016-11-29 Soundhound, Inc. Method for combining a query and a communication command in a natural language computer system
US9955192B2 (en) 2013-12-23 2018-04-24 Inscape Data, Inc. Monitoring individual viewing of television events using tracking pixels and cookies
US9426525B2 (en) 2013-12-31 2016-08-23 The Nielsen Company (Us), Llc. Methods and apparatus to count people in an audience
US9292488B2 (en) 2014-02-01 2016-03-22 Soundhound, Inc. Method for embedding voice mail in a spoken utterance using a natural language processing computer system
US11295730B1 (en) 2014-02-27 2022-04-05 Soundhound, Inc. Using phonetic variants in a local context to improve natural language understanding
CN106170988A (zh) 2014-03-13 2016-11-30 凡瑞斯公司 使用嵌入式代码的交互式内容获取
US9699499B2 (en) 2014-04-30 2017-07-04 The Nielsen Company (Us), Llc Methods and apparatus to measure exposure to streaming media
US9564123B1 (en) 2014-05-12 2017-02-07 Soundhound, Inc. Method and system for building an integrated user profile
US9179184B1 (en) * 2014-06-20 2015-11-03 Google Inc. Methods, systems, and media for detecting a presentation of media content on a display device
US9641892B2 (en) 2014-07-15 2017-05-02 The Nielsen Company (Us), Llc Frequency band selection and processing techniques for media source detection
US9369780B2 (en) * 2014-07-31 2016-06-14 Verizon Patent And Licensing Inc. Methods and systems for detecting one or more advertisement breaks in a media content stream
US9729912B2 (en) * 2014-09-22 2017-08-08 Sony Corporation Method, computer program, electronic device, and system
CA2973740C (en) 2015-01-30 2021-06-08 Inscape Data, Inc. Methods for identifying video segments and displaying option to view from an alternative source and/or on an alternative device
EP4375952A3 (en) 2015-04-17 2024-06-19 Inscape Data, Inc. Systems and methods for reducing data density in large datasets
EP3286757B1 (en) 2015-04-24 2019-10-23 Cyber Resonance Corporation Methods and systems for performing signal analysis to identify content types
US10080062B2 (en) 2015-07-16 2018-09-18 Inscape Data, Inc. Optimizing media fingerprint retention to improve system resource utilization
AU2016291690B2 (en) 2015-07-16 2020-08-27 Inscape Data, Inc. Prediction of future views of video segments to optimize system resource utilization
BR112018000716B1 (pt) 2015-07-16 2023-03-28 Inscape Data, Inc Método e dispositivo de computação para detecção de segmentos de mídia comuns
AU2016291674B2 (en) 2015-07-16 2021-08-26 Inscape Data, Inc. Systems and methods for partitioning search indexes for improved efficiency in identifying media segments
US10271107B2 (en) 2015-11-26 2019-04-23 The Nielsen Company (Us), Llc Accelerated television advertisement identification
US11195043B2 (en) 2015-12-15 2021-12-07 Cortica, Ltd. System and method for determining common patterns in multimedia content elements based on key points
WO2017105641A1 (en) 2015-12-15 2017-06-22 Cortica, Ltd. Identification of key points in multimedia data elements
DE102016204055B4 (de) * 2016-03-11 2019-04-04 Universität Ulm Verfahren und Vorrichtung zur Erzeugung einer digitalen Signatur
US10754978B2 (en) 2016-07-29 2020-08-25 Intellisist Inc. Computer-implemented system and method for storing and retrieving sensitive information
WO2018187592A1 (en) 2017-04-06 2018-10-11 Inscape Data, Inc. Systems and methods for improving accuracy of device maps using media viewing data
WO2019008581A1 (en) 2017-07-05 2019-01-10 Cortica Ltd. DETERMINATION OF DRIVING POLICIES
US11899707B2 (en) 2017-07-09 2024-02-13 Cortica Ltd. Driving policies determination
FR3072807B1 (fr) 2017-10-23 2021-05-07 Hl2 Group Procede et equipement de reconnaissance de detonation par filtrage selectif
US10891971B2 (en) 2018-06-04 2021-01-12 The Nielsen Company (Us), Llc Methods and apparatus to dynamically generate audio signatures adaptive to circumstances associated with media being monitored
US10846544B2 (en) 2018-07-16 2020-11-24 Cartica Ai Ltd. Transportation prediction system and method
US10887031B2 (en) 2018-08-03 2021-01-05 Gracenote, Inc. Vehicle-based media system with audio ad and navigation-related action synchronization feature
US11275933B2 (en) * 2018-08-24 2022-03-15 Genpact Luxembourg S.Á R.L Systems and methods for segmentation of report corpus using visual signatures
US11181911B2 (en) 2018-10-18 2021-11-23 Cartica Ai Ltd Control transfer of a vehicle
US11126870B2 (en) 2018-10-18 2021-09-21 Cartica Ai Ltd. Method and system for obstacle detection
US20200133308A1 (en) 2018-10-18 2020-04-30 Cartica Ai Ltd Vehicle to vehicle (v2v) communication less truck platooning
US10839694B2 (en) 2018-10-18 2020-11-17 Cartica Ai Ltd Blind spot alert
US11126869B2 (en) 2018-10-26 2021-09-21 Cartica Ai Ltd. Tracking after objects
US10789535B2 (en) 2018-11-26 2020-09-29 Cartica Ai Ltd Detection of road elements
US11643005B2 (en) 2019-02-27 2023-05-09 Autobrains Technologies Ltd Adjusting adjustable headlights of a vehicle
US11285963B2 (en) 2019-03-10 2022-03-29 Cartica Ai Ltd. Driver-based prediction of dangerous events
US11694088B2 (en) 2019-03-13 2023-07-04 Cortica Ltd. Method for object detection using knowledge distillation
US11132548B2 (en) 2019-03-20 2021-09-28 Cortica Ltd. Determining object information that does not explicitly appear in a media unit signature
US11222069B2 (en) 2019-03-31 2022-01-11 Cortica Ltd. Low-power calculation of a signature of a media unit
US10776669B1 (en) 2019-03-31 2020-09-15 Cortica Ltd. Signature generation and object detection that refer to rare scenes
US11488290B2 (en) 2019-03-31 2022-11-01 Cortica Ltd. Hybrid representation of a media unit
US10789527B1 (en) 2019-03-31 2020-09-29 Cortica Ltd. Method for object detection using shallow neural networks
US10796444B1 (en) 2019-03-31 2020-10-06 Cortica Ltd Configuring spanning elements of a signature generator
CA3157553A1 (en) * 2019-10-17 2021-04-22 D-Box Technologies Inc. Method and system for synchronizing a viewer-effect signal of a media content with a media signal of the media content
US11593662B2 (en) 2019-12-12 2023-02-28 Autobrains Technologies Ltd Unsupervised cluster generation
US10748022B1 (en) 2019-12-12 2020-08-18 Cartica Ai Ltd Crowd separation
US11590988B2 (en) 2020-03-19 2023-02-28 Autobrains Technologies Ltd Predictive turning assistant
US11827215B2 (en) 2020-03-31 2023-11-28 AutoBrains Technologies Ltd. Method for training a driving related object detector
US11756424B2 (en) 2020-07-24 2023-09-12 AutoBrains Technologies Ltd. Parking assist
US20230206256A1 (en) * 2021-12-29 2023-06-29 The Nielsen Company (Us), Llc Methods, systems, apparatus, and articles of manufacture to modify audience estimates to preserve logical consistency

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2766374A (en) * 1951-07-25 1956-10-09 Internat Telementer Corp System and apparatus for determining popularity ratings of different transmitted programs
US3919479A (en) * 1972-09-21 1975-11-11 First National Bank Of Boston Broadcast signal identification system
US4025851A (en) * 1975-11-28 1977-05-24 A.C. Nielsen Company Automatic monitor for programs broadcast
US4230990C1 (en) * 1979-03-16 2002-04-09 John G Lert Jr Broadcast program identification method and system
JPS58175157A (ja) * 1982-04-06 1983-10-14 Mitsubishi Electric Corp 音声始端検出装置
US4450531A (en) * 1982-09-10 1984-05-22 Ensco, Inc. Broadcast signal recognition system and method
US4547804A (en) * 1983-03-21 1985-10-15 Greenberg Burton L Method and apparatus for the automatic identification and verification of commercial broadcast programs
US4967273A (en) * 1983-03-21 1990-10-30 Vidcode, Inc. Television program transmission verification method and apparatus
DE3318919C2 (de) * 1983-05-25 1985-03-21 TeleMetric S.A., Internationale Gesellschaft für Fernsehzuschauerforschung, Zug Verfahren und Vorrichtung zum Erfassen von Daten über das Fernseheinschaltverhalten von Fernsehzuschauern
JPS6085753U (ja) * 1983-11-18 1985-06-13 日本ビクター株式会社 磁気テ−プ記録再生装置
FR2559002B1 (fr) * 1984-01-27 1986-09-05 Gam Steffen Procede et dispositif de detection d'une information audiovisuelle diffusee par un emetteur
JPS60224341A (ja) * 1984-04-20 1985-11-08 Nippon Telegr & Teleph Corp <Ntt> 音声符号化方法
US4697209A (en) * 1984-04-26 1987-09-29 A. C. Nielsen Company Methods and apparatus for automatically identifying programs viewed or recorded
JPS6136797A (ja) * 1984-07-30 1986-02-21 松下電器産業株式会社 音声セグメンテ−シヨン法
US4677466A (en) * 1985-07-29 1987-06-30 A. C. Nielsen Company Broadcast program identification method and apparatus
US4697207A (en) * 1985-09-30 1987-09-29 Ampex Corporation System for generating a synchronizing signal in response to two timing reference signals
US4739398A (en) * 1986-05-02 1988-04-19 Control Data Corporation Method, apparatus and system for recognizing broadcast segments
US4718106A (en) * 1986-05-12 1988-01-05 Weinblatt Lee S Survey of radio audience
JPS6356091A (ja) * 1986-08-26 1988-03-10 Video Res:Kk テレビ・コマーシャル放送確認方法
JPS6384396A (ja) * 1986-09-29 1988-04-14 Video Res:Kk 視聴率測定用テレビ・センサ
US4750034A (en) * 1987-01-21 1988-06-07 Cloeck En Moedigh Bioscoopreclame B.V. Apparatus for monitoring the replay of audio/video information carriers
US4843562A (en) * 1987-06-24 1989-06-27 Broadcast Data Systems Limited Partnership Broadcast information classification system and method
DE3720882A1 (de) * 1987-06-24 1989-01-05 Media Control Musik Medien Verfahren und schaltungsanordnung zum automatischen wiedererkennen von signalfolgen
JP2585041B2 (ja) * 1988-01-08 1997-02-26 株式会社ビデオ・リサーチ テレビ放送同一性判別方式
US4931871A (en) * 1988-06-14 1990-06-05 Kramer Robert A Method of and system for identification and verification of broadcasted program segments
US4945412A (en) * 1988-06-14 1990-07-31 Kramer Robert A Method of and system for identification and verification of broadcasting television and radio program segments
US4955070A (en) * 1988-06-29 1990-09-04 Viewfacts, Inc. Apparatus and method for automatically monitoring broadcast band listening habits
US5023929A (en) * 1988-09-15 1991-06-11 Npd Research, Inc. Audio frequency based market survey method
US5019899A (en) * 1988-11-01 1991-05-28 Control Data Corporation Electronic data encoding and recognition system
US4857999A (en) * 1988-12-20 1989-08-15 Peac Media Research, Inc. Video monitoring system
JPH03173291A (ja) * 1989-11-15 1991-07-26 Control Data Corp <Cdc> ビデオ信号もしくはtv送信フレームからデジタルサインを生成する方法及び放送ビデオセグメントの連続パターン認識装置
JPH0666738B2 (ja) * 1990-04-06 1994-08-24 株式会社ビデオ・リサーチ Cm自動確認装置
JPH04355800A (ja) * 1991-06-04 1992-12-09 Sharp Corp 音声認識装置
US5436653A (en) * 1992-04-30 1995-07-25 The Arbitron Company Method and system for recognition of broadcast segments

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8364491B2 (en) 2007-02-20 2013-01-29 The Nielsen Company (Us), Llc Methods and apparatus for characterizing media
US8060372B2 (en) 2007-02-20 2011-11-15 The Nielsen Company (Us), Llc Methods and appratus for characterizing media
US8457972B2 (en) 2007-02-20 2013-06-04 The Nielsen Company (Us), Llc Methods and apparatus for characterizing media
US8458737B2 (en) 2007-05-02 2013-06-04 The Nielsen Company (Us), Llc Methods and apparatus for generating signatures
US9136965B2 (en) 2007-05-02 2015-09-15 The Nielsen Company (Us), Llc Methods and apparatus for generating signatures
US10580421B2 (en) 2007-11-12 2020-03-03 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US8369972B2 (en) 2007-11-12 2013-02-05 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US11961527B2 (en) 2007-11-12 2024-04-16 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US11562752B2 (en) 2007-11-12 2023-01-24 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US9460730B2 (en) 2007-11-12 2016-10-04 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US10964333B2 (en) 2007-11-12 2021-03-30 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US9972332B2 (en) 2007-11-12 2018-05-15 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US8457951B2 (en) 2008-01-29 2013-06-04 The Nielsen Company (Us), Llc Methods and apparatus for performing variable black length watermarking of media
US10741190B2 (en) 2008-01-29 2020-08-11 The Nielsen Company (Us), Llc Methods and apparatus for performing variable block length watermarking of media
US9947327B2 (en) 2008-01-29 2018-04-17 The Nielsen Company (Us), Llc Methods and apparatus for performing variable block length watermarking of media
US11557304B2 (en) 2008-01-29 2023-01-17 The Nielsen Company (Us), Llc Methods and apparatus for performing variable block length watermarking of media
US9326044B2 (en) 2008-03-05 2016-04-26 The Nielsen Company (Us), Llc Methods and apparatus for generating signatures
US8600531B2 (en) 2008-03-05 2013-12-03 The Nielsen Company (Us), Llc Methods and apparatus for generating signatures

Also Published As

Publication number Publication date
AU747044C (en) 2004-05-06
EP0748563A1 (en) 1996-12-18
AU678163B2 (en) 1997-05-22
WO1993022875A1 (en) 1993-11-11
US5572246A (en) 1996-11-05
AU3427297A (en) 1997-11-06
ATE232036T1 (de) 2003-02-15
DE69334130D1 (de) 2007-05-10
HK1051938A1 (en) 2003-08-22
AU747044B2 (en) 2002-05-09
CA2134748C (en) 2005-07-26
DE69332671D1 (de) 2003-03-06
EP0748563B1 (en) 2003-01-29
JPH08500471A (ja) 1996-01-16
DE69334130T2 (de) 2007-12-13
DK1261155T3 (da) 2007-08-06
US5504518A (en) 1996-04-02
CA2134748A1 (en) 1993-11-11
AU4226093A (en) 1993-11-29
CA2504552A1 (en) 1993-11-11
EP1261155B1 (en) 2007-03-28
US5621454A (en) 1997-04-15
ATE358366T1 (de) 2007-04-15
PT1261155E (pt) 2007-07-03
US5436653A (en) 1995-07-25
US5612729A (en) 1997-03-18
EP1261155A2 (en) 2002-11-27
EP1261155A3 (en) 2003-09-10
AU4716100A (en) 2000-09-14
AU718227B2 (en) 2000-04-13
CA2504552C (en) 2009-01-20
EP0748563A4 (es) 1996-12-27

Similar Documents

Publication Publication Date Title
ES2284777T3 (es) Metodo y sistema para el reconocimiento de segmentos de audio de difusion.
CA1121914A (en) Identification system
KR101492180B1 (ko) 비디오 분석
CN111695540B (zh) 视频边框识别方法及裁剪方法、装置、电子设备及介质
JP2010537585A (ja) 時間ベースメディア間の一致の検出と分類
CN112115904A (zh) 车牌检测识别方法、装置及计算机可读存储介质
JPH11502680A (ja) 遠隔式聴取者調査システム及びそのための方法
CN110516170B (zh) 一种检查异常web访问的方法及装置
CN113869230A (zh) 足球进球类型识别方法、装置、系统及存储介质
CA2628654C (en) Method and system for updating a broadcast segment recognition database
WO2002015596A1 (fr) Systeme, dispositif et procede de confirmation de diffusion, support d&#39;enregistrement enregistrant ce programme de confirmation de diffusion
CN110956800A (zh) 一种路段交通数据预处理方法、装置及电子设备
CN112235589B (zh) 网络直播识别方法、边缘服务器、计算机设备及存储介质
JP6336807B2 (ja) 情報処理装置およびグルーピング方法
CN112530040A (zh) 一种打卡方法、装置、设备及计算机存储介质
US6577964B1 (en) Apparatus and method for determining compliance margin of a waveform relative to a standard
CN113268482B (zh) 数据关联方法、装置和电子设备
CN111708769B (zh) 一种实现信息处理的方法、系统、计算机存储介质及终端
CN110705332B (zh) 一种人脸追踪方法及装置
CN115346144A (zh) 一种多视频关联播放的方法、设备及存储介质
CN116503621A (zh) 异常轨迹识别方法和装置、电子设备及存储介质
CN114743142A (zh) 一种跨域事件的确定方法、人次统计方法及装置
KR100301108B1 (ko) 비디오샷경계검출방법
CN114519934A (zh) 一种交通事件监测方法、装置、存储介质及电子装置
KR20050051122A (ko) 차량 영상 정보 조회 서비스 시스템 및 그 방법