ES2284777T3 - Metodo y sistema para el reconocimiento de segmentos de audio de difusion. - Google Patents
Metodo y sistema para el reconocimiento de segmentos de audio de difusion. Download PDFInfo
- Publication number
- ES2284777T3 ES2284777T3 ES02076018T ES02076018T ES2284777T3 ES 2284777 T3 ES2284777 T3 ES 2284777T3 ES 02076018 T ES02076018 T ES 02076018T ES 02076018 T ES02076018 T ES 02076018T ES 2284777 T3 ES2284777 T3 ES 2284777T3
- Authority
- ES
- Spain
- Prior art keywords
- segment
- signature
- values
- broadcast
- segments
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/35—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
- H04H60/37—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
- H04H60/372—Programme
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7847—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
- G06F16/785—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using colour or luminescence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/56—Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
- H04H60/58—Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of audio
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/56—Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
- H04H60/59—Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H2201/00—Aspects of broadcast communication
- H04H2201/90—Aspects of broadcast communication characterised by the use of signatures
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Library & Information Science (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Television Systems (AREA)
- Image Analysis (AREA)
- Circuits Of Receivers In General (AREA)
- Stereo-Broadcasting Methods (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Input Circuits Of Receivers And Coupling Of Receivers And Audio Equipment (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Abstract
Un método (300 - 312) de producir una firma de una señal de difusión de audio para su uso en el reconocimiento de señales de difusión que comprende las etapas de: formar un primer grupo de una pluralidad de valores de bandas de frecuencias, derivado cada valor de un segmento de dicha señal de difusión de audio dentro de una banda de frecuencias predeterminada respectiva; formar un segundo grupo de una pluralidad de valores de bandas de frecuencias, derivado cada valor de un segmento de dicha señal de difusión de audio dentro de una banda de frecuencias predeterminada respectiva, en el que los valores del segundo grupo representan segmentos de dicha señal de difusión de audio dentro de las mismas bandas de frecuencias predeterminadas respectivas que los valores del primer grupo; y caracterizado por: comparar cada valor del primer grupo de dicha pluralidad de valores de bandas de frecuencias con el valor respectivo del segundo grupo de dicha pluralidad de valores de bandas de frecuencias querepresentan un segmento de dicha señal de difusión de audio dentro de la misma banda de frecuencias predeterminada respectiva, representando cada valor respectivo del segundo grupo de dicha pluralidad de valores de bandas de frecuencias un segmento de dicha señal de difusión de audio al menos una parte de la cual se difundió antes que el segmento de dicha señal de difusión de audio representada por el valor correspondiente de dicho primer grupo de dicha pluralidad de valores de bandas de frecuencias; y formar dicha firma en base a las comparaciones de los grupos primero y segundo de dicha pluralidad de valores de bandas de frecuencias.
Description
Método y sistema para el reconocimiento de
segmentos de audio de difusión.
La presente invención se refiere al
reconocimiento automático de señales ampliamente diseminadas, tales
como las difusiones de radio y televisión, y similares.
Los anunciantes de difusión necesitan confirmar
que sus anuncios se han emitido en su totalidad por las estaciones
de difusión designadas y en los instantes programados. Además, puede
ser deseable para los anunciantes saber qué anuncios emiten sus
competidores. Una técnica convencional para monitorizar los anuncios
que se han emitido involucra el empleo de una gran cantidad de
personas que miran los canales de difusión designados a lo largo
del día para registrar esta información en un diario escrito. Se
apreciará que esta técnica convencional involucra la necesidad de
emplear un gran número de personas así como la necesidad de acumular
sus registros escritos y de introducir sus contenidos en un sistema
de procesamiento de datos automático para producir informes de
interés para sus anunciantes particulares. Tal técnica convencional
tiene un coste recurrente relativamente alto. En un intento de
reducir tales costes, se ha desarrollado un sistema de
reconocimiento de plantilla automático como, por ejemplo, se
describe en la Patente de Estados Unidos Nº 4.739.398.
En la técnica de reconocimiento continuo de
plantilla descrito en la Patente de Estados Unidos Nº 4.739.398,
puede identificarse un segmento o porción de la señal por el
reconocimiento continuo de una plantilla sobre la base de tiempo
real. La señal puede transmitirse, por ejemplo, sobre el aire, vía
satélite, por cable, fibra óptica o por cualquier otro medio que
efectúe la amplia diseminación de la misma.
Por ejemplo, en el caso de una señal de difusión
de televisión la señal de vídeo está parametrizada de modo que se
produce un flujo de datos digital que tiene una palabra digital de
16 bits para cada trama de vídeo que, en el sistema NTSC, ocurre
cada 1/30 de segundo. Se apreciará que intervalos de señal
diferentes, tales como los campos de vídeo, pueden en cambio
ponerse en parámetros de esta forma. Estas palabras digitales se
comparan con las palabras digitales que representan anuncios u otros
segmentos de interés que se almacenan en un dispositivo de
almacenamiento. La información relativa a cada coincidencia que se
detecta entre los mismos se recoge (lo cual indica que se ha
difundido un segmento de interés).
Más específicamente, se genera una firma de
clave digital para cada segmento conocido (por ejemplo, un anuncio)
que se debe reconocer o comparar. La firma de clave incluye
ventajosamente ocho palabras de 16 bits o palabras de comparación
que se derivan de ocho tramas de información de difusión que se
seleccionan de entre las tramas contenidas dentro del segmento
deseado de acuerdo con un conjunto de reglas predeterminado, junto
con información de desviación indicando el espaciamiento (medido,
por ejemplo en tramas o campos) entre la localización de la trama
representada por cada palabra de la firma y la representada por la
primera palabra del mismo. En el caso de una señal de vídeo, que
comprende treinta y dos áreas predeterminadas del mismo se
seleccionan, por ejemplo, ocho por dos puntos de imagen desde cada
trama (o un campo seleccionado del mismo representando cada trama),
por ejemplo. Se produce un valor de luminancia media para los puntos
de imagen de cada área y se compara con el valor de la luminancia
media de un área emparejada con la misma. El resultado de tal
comparación se normaliza a un valor de bit de uno o cero en base a
la determinación de si el valor de luminancia media de la primera
de las áreas es o (i) mayor o igual que, o (ii) es menor que, el
valor de la luminancia media de la segunda de las áreas. De esta
forma, se produce una firma de trama de dieciséis bits para cada
trama de la señal de vídeo.
También se produce una palabra de máscara de
dieciséis bits para cada firma de trama de dieciséis bits. Cada bit
de la palabra de máscara representa la susceptibilidad del bit
correspondiente de la firma de trama al ruido, y se produce sobre
la base de la diferencia entre los valores de luminancia media de
las áreas respectivas usadas para producir el bit correspondiente
de la firma de trama. Esto es, si el valor absoluto de la diferencia
entre tales valores de luminancia media es menor que un valor de
banda de guarda, el bit correspondiente de la máscara se pone a uno,
indicando susceptibilidad al ruido.
Las ocho palabras de coincidencia se seleccionan
desde las firmas de trama que se han descrito anteriormente de cada
segmento y se almacenan, junto con sus palabras de máscara y su
información de desviación, como parte de la firma de clave para ese
segmento.
La señal recibida a reconocer se digitaliza y se
produce una firma de trama de 16 bits del modo descrito
anteriormente para cada trama (o campo seleccionado) de datos.
Después de que se reciben y se procesan las señales entrantes, se
leen dentro de un almacenamiento que mantiene una cantidad
predeterminada de datos. Se asume que cada firma de trama de 16
bits de la señal entrante corresponde con la primera palabra de una
de las ocho firmas de clave de ocho palabras almacenadas
previamente. Como tal, cada palabra recibida se compara con todas
las firmas que comienzan con esa palabra. Usando la información de
desplazamiento almacenada con las firmas, las firmas de trama
recibidas posteriormente (que están ya en el almacenamiento) se
comparan con las palabras de coincidencia correspondientes en la
firma de clave para determinar si existe coincidencia o no.
\newpage
Más específicamente, cada palabra de
coincidencia de la firma de clave se empareja con una firma de trama
respectiva de la señal recibida en base a la información de
desplazamiento y a los bits correspondientes de las palabras de
coincidencia emparejadas y se comparan las firmas de trama. Se
produce una cuenta del total de errores en base a esta comparación
como sigue. Si los bits correspondientes de la palabra de
coincidencia y la firma de trama están sin enmascarar, entonces se
acumula una cuenta de error de cero cuando estos bits son iguales
en valor y se acumula una cuenta de error de uno si estos bits
difieren en valor. Si los bits están enmascarados, entonces se
acumula una cuenta de error de un medio independientemente de los
valores de los bits. Se acumula una cuenta total de errores para
todas las palabras de coincidencia y las firmas de trama
correspondientes y, si la cuenta total de errores es menor que un
valor por defecto predeterminado o umbral de error se encuentra una
coincidencia. De lo contrario, no se encuentra coincidencia.
Como se apreciará, para realizar el
procesamiento del ejemplo anterior en tiempo real, deben completarse
todas las comparaciones dentro del tiempo asociado con cada trama
de datos, esto es, dentro de 1/30 de segundo. Típicamente la
velocidad de procesamiento, asociada con los dispositivos de
procesamiento normal permitirá almacenar y usar para la comparación
sólo un número limitado de firmas de segmentos.
La velocidad con la que puede compararse una
firma de clave con una firma de segmento para una difusión recibida
de nuevo puede incrementarse sustancialmente utilizando un método
para la reducción de datos de búsqueda de la palabra de clave. En
este método, se selecciona una trama de las tramas contenidas dentro
del segmento correspondiente a la firma de clave, de acuerdo con un
conjunto de criterios predeterminados. Tal trama seleccionada es
una trama de clave y la firma de trama asociada con la misma es la
palabra de clave. La firma de clave tiene a pesar de eso
preferiblemente ocho palabras de dieciséis bits, no obstante, la
información de desplazamiento relativa a la misma representa ahora
el espaciamiento desde la palabra clave, en lugar del espaciamiento
desde la primera palabra en la firma de clave.
La palabra clave puede ser una de las palabras
de firma de clave dentro de la firma de clave, en cuya situación la
desviación para esa palabra tiene un valor de 0, o puede ser la
palabra novena. La localización de la trama de la palabra clave no
necesita preceder temporalmente las localizaciones de trama de todas
demás palabras de coincidencia dentro de la firma de clave.
Puede haber múltiples firmas de clave asociadas
con cada palabra de clave. Como ejemplo, si se utilizan palabras de
16 bits y si se asocian cuatro firmas de clave con cada palabra
clave, entonces las cuatro comparaciones de firma completa serían
el número máximo que habría que realizar dentro de un límite de
tiempo de 1/30 de segundo (asumiendo que no hay errores de datos).
Tal número de comparaciones se realiza fácilmente dentro del límite
de tiempo.
Se desea conseguir la más alta precisión posible
en el reconocimiento del segmento de difusión, así como la mayor
eficacia posible. No obstante, se encuentran varios problemas en la
realización de tal técnica. Por ejemplo, las señales de difusión
están sujetas a desplazamientos de tiempo tales como un
desplazamiento en el borde de un cuadro de vídeo que ocurre de vez
en cuando. Las señales de vídeo están también sujetas a oscilaciones
rápidas. Cada uno de estos efectos impactará adversamente en la
técnica de reconocimiento de segmentos que se basan en muestrear
porciones predeterminadas de la señal de vídeo, a menos que estos
efectos se compensen de alguna manera.
Una dificultad adicional encontrada en la
realización del reconocimiento de segmentos de difusión basado sobre
las señales de vídeo es que las firmas que generan tienden a
distribuirse desigualmente en valor debido a las diferencias entre
las señales de vídeo de diferentes segmentos. Consecuentemente, las
firmas de vídeo tienden a distribuirse desigualmente de modo que
números relativamente elevados de firmas tienden a tener valores
similares y son, por lo tanto, proclives a una falsa coincidencia
(esto es, indicar una coincidencia entre firmas que representan
segmentos diferentes).
Hasta ahora, se ha pensado que es impractico
realizar un reconocimiento de plantilla de segmentos de difusión de
audio debido a las dificultades encontradas en extraer suficiente
información de las señales de audio. Por ejemplo, las señales de
audio de televisión son predominantemente señales de voz que están
concentradas aproximadamente por debajo de 3000 Hz y poseen un
espectro de frecuencia muy similar de un segmento con el
siguiente.
Debido a los efectos anteriores, así como el
ruido de la señal, es difícil implementar una técnica de
reconocimiento de plantilla para la identificación de segmentos de
difusión que posea alta precisión. Esto es, las posibilidades de
que las firmas de segmentos o coincidan falsamente o falle para
proporcionar una coincidencia completamente confiable tiende a
limitar la precisión de tal técnica. Cuando, por ejemplo, no se
identifican segmentos conocidos por el sistema de reconocimiento de
plantillas, pueden transmitirse a un operario de una estación de
trabajo para identificación como potenciales nuevos segmentos,
cuando de hecho no lo son. El resultado es que se malgasta el
tiempo del operario de la estación de trabajo y la eficacia del
sistema se degrada. Por el contrario, si se identifican nuevos
segmentos cuando de hecho no son segmentos de interés, el tiempo del
operario de la estación de trabajo puede malgastarse también en un
intento inútil de identificar tales segmentos. Por ejemplo, en un
sistema de reconocimiento de anuncios de televisión, es necesario
distinguir anuncios de televisión de la programación normal,
interrupciones para noticias, anuncios de servicios públicos, etc.
Es deseable por lo tanto asegurar que el mayor número de nuevos
segmentos proporcionados a los operarios de las estaciones de
trabajo para identificación sean en efecto segmentos de interés. Se
encuentra una dificultad adicional cuando los nuevos segmentos de
interés se dividen incorrectamente, de modo que sólo se reporten
porciones de nuevos segmentos a los operarios de las estaciones de
trabajo lo cual puede impedir la identificación correcta del
segmento que también malgasta el tiempo del operario.
El documento US 3919479 describe un sistema de
identificación de señal de difusión. El documento FR 2559002
describe un método y un aparato para identificar información
audiovisual de difusión sobre radio o TV. El documento WO88/10540
describe un sistema de clasificación de información de Difusión y un
método que genera espectrogramas para su comparación con
espectrogramas de referencia. El documento US 4.230.990 describe un
método para identificación de programas de difusión que usa la
difusión de señales de disparo con programas, y/o extrae firmas
analizando la composición espectral de porciones de audio de la
señal del programa.
Es un objeto de la presente invención
proporcionar métodos y aparatos para su uso en el reconocimiento de
segmentos de difusión y similares proporcionando una precisión de
reconocimiento mejorada y eficacia del sistema.
La presente invención proporciona un método y un
sistema para producir una firma de una señal de difusión de audio
como se expone en las reivindicaciones 1 a 7.
El método puede comprender producir una firma de
una señal de difusión de audio para su uso en el reconocimiento de
la señal de difusión, que comprende la etapas de: formar una
pluralidad de valores de bandas de frecuencias representando cada
uno porciones de dicha señal de difusión de audio dentro de las
bandas de frecuencias predeterminadas respectivas; comparar cada
valor de un primer grupo de dicha pluralidad de valores de bandas de
frecuencias con el valor respectivo de un segundo grupo de dicha
pluralidad de valores de bandas de frecuencias que representan
porciones de dicha señal de difusión de audio dentro de la misma
banda de frecuencias predeterminada respectiva, cada valor
respectivo del segundo grupo de dicha pluralidad de valores de
bandas de frecuencias que representa porciones de dicha señal de
difusión de audio al menos una parte de la cual se difundió antes
que las porciones de dicha señal de difusión de audio representada
por el valor correspondiente de dicho primer grupo de dicha
pluralidad de valores de bandas de frecuencias; y formar dicha firma
en base a las comparaciones del primer y el segundo grupos de dicha
pluralidad de valores de banda de frecuencias.
Al realizar el método se prefiere que las etapas
de formar una pluralidad de valores de bandas de frecuencias
comprendan formar las primeras señales de banda de frecuencias
representando cada una, una característica de dicha señal de
difusión de audio dentro de la respectiva de dichas bandas de
frecuencias predeterminadas, y transformando cada una de dichas
primeras señales de banda de frecuencias en el valor correspondiente
de dicha pluralidad de valores de bandas de frecuencias en base a,
al menos otra señal de bandas de frecuencias primera.
Preferiblemente también, la etapa de formar dichas señales de banda
de frecuencias primera comprende forma una pluralidad de señales de
nivel de potencia representando cada una, un nivel de potencia de
dicha señal de difusión dentro de la respectiva de dichas bandas de
frecuencias predeterminadas, y la etapa de transformar dichas
señales de bandas de frecuencias primeras comprende dividir cada una
de dicha pluralidad de señales de nivel de potencia por una
combinación lineal de otras de dichas señales de bandas de
frecuencias primeras.
También se proporciona un sistema para producir
una firma que caracteriza una señal de difusión de audio para su
uso en el reconocimiento de una señal de difusión, que comprende: un
medio para formar una pluralidad de valores de bandas de
frecuencias representando cada uno porciones de dicha señal de
difusión de audio dentro de las respectivas bandas de frecuencias
predeterminadas; un medio para comparar cada valor del primer grupo
de dicha pluralidad de señales de bandas de frecuencias con el valor
correspondiente de un segundo grupo de dicha pluralidad de valores
de bandas de frecuencias representando porciones de dicha señal de
difusión de audio dentro de la misma banda de frecuencias
predeterminada respectiva, representando cada uno de los respectivos
valores del segundo grupo de dicha pluralidad de valores de bandas
de frecuencias porciones de dicha señal de difusión de audio al
menos una parte de la cual se difundió antes que las porciones de
dicha señal de difusión de audio representada por el
correspondiente valor de dicho primer grupo de dicha pluralidad de
valores de bandas de frecuencias; y un medio para formar dicha
firma en base a las comparaciones del primer y el segundo grupos de
dicha pluralidad de valores de bandas de frecuencias.
Se proporciona además un método para producir
una firma caracterizando un intervalo de una señal de vídeo que
representa un cuadro para su uso en el reconocimiento de segmentos
de difusión, en el que la firma se produce en base a porciones de
la señal de vídeo que representan las regiones correspondientes del
cuadro espaciadas cada una, una cantidad predeterminada respectiva
desde el borde nominal del cuadro, comprendiendo las etapas de:
detectar un desplazamiento en la señal de vídeo correspondiente con
un desplazamiento en el borde del cuadro desde el borde nominal del
mismo; ajustar las porciones de la señal de vídeo a compensar para
dicho desplazamiento en el borde del cuadro; y producir la firma
basada en las porciones ajustadas de la señal de vídeo.
Al realizar el método como se ha mostrado en el
último párrafo precedente, se prefiere que la etapa de detectar un
desplazamiento en la señal de vídeo comprenda muestrear una porción
predeterminada de la señal de vídeo correspondiente con el borde
nominal del cuadro y al menos una región adyacente del mismo;
detectar una diferencia entre valores de la señal de vídeo
espaciados dentro de la porción predeterminada de la señal de vídeo
a lo largo de una dirección generalmente transversal a la dirección
del borde nominal del cuadro para detectar el borde actual del
cuadro; y determinar el desplazamiento en el borde del cuadro basado
en el borde actual detectado del mismo. Preferiblemente, las etapas
de detectar un desplazamiento en la señal de vídeo comprenden
muestrear una pluralidad de porciones predeterminadas de la señal de
vídeo correspondientes con el borde nominal del cuadro y al menos
una región adyacente del mismo; detectar las diferencias respectivas
entre los valores de la señal de vídeo espaciados dentro de cada
porción de la pluralidad de porciones predeterminadas a lo largo de
una dirección generalmente transversal a la dirección del borde
nominal del cuadro; y utilizar cada una de las diferencias
respectivas para detectar el borde actual del cuadro. La etapa de
detectar un desplazamiento en la señal de vídeo puede comprender
muestrear dicha porción predeterminada de la señal de vídeo para
producir una pluralidad de valores de puntos de imagen cada uno de
los cuales está espaciado del otro correspondiente al mismo a lo
largo de una dirección generalmente transversal al borde nominal del
cuadro; detectar una diferencia en valor entre al menos uno de los
valores de puntos de imagen y el correspondiente del mismo para
detectar el borde real del cuadro; y determinar el desplazamiento
del borde del cuadro en base al borde real detectado del mismo.
Al realizar el método como se ha mostrado en el
último párrafo precedente, al menos uno de los valores de los
puntos de imagen y el correspondiente del mismo pueden estar
espaciados a lo largo de la dirección generalmente transversal en al
menos dos intervalos de puntos de imagen.
Se proporciona también un sistema para producir
una firma caracterizando un intervalo de la señal de vídeo que
representa un cuadro para su uso en el reconocimiento de segmentos
de difusión en el que se produce la firma en base a porciones de la
señal de vídeo que representan regiones correspondientes del cuadro
espaciadas cada una, una cantidad predeterminada respectiva desde
el borde nominal del cuadro, comprendiendo; un medio para detectar
un desplazamiento en la señal de vídeo correspondiente con un
desplazamiento en el borde del cuadro desde el borde nominal del
mismo; un medio para ajustar las porciones de la señal de vídeo para
compensar dicho desplazamiento en el borde del cuadro; y un medio
para producir la firma en base a las porciones ajustadas de la señal
de vídeo.
Se proporciona además un método para producir
firmas caracterizando los intervalos respectivos de una señal de
difusión exhibiendo una correlación entre al menos algunos de dichos
intervalos respectivos para su uso en el reconocimiento de
segmentos de difusión, comprendiendo las etapas de: producir un
vector diferencia para cada intervalo respectivo de dicha señal de
difusión que tiene una pluralidad de elementos representando cada
uno diferencias entre porciones predeterminadas respectivas de cada
uno de dichos intervalos respectivos y exhibir la correlación entre
los mismos; realizar una transformación vectorial de dicho vector
diferencia de cada uno de los intervalos respectivos para producir
un vector diferencia transformado que tiene una pluralidad de
elementos para cada intervalo respectivo de dicha señal de difusión
de modo que la correlación ente la pluralidad de elementos del
mismo es menor que la correlación entre la pluralidad de elementos
de dicho vector diferencia; y producir una firma para cada
intervalo respectivo de dicha señal de difusión en base al vector
diferencia transformado correspondiente.
Al realizar el método como se ha mostrado en el
último párrafo precedente, la etapa de realizar la transformación
vectorial de dicho vector diferencia puede comprender realizar una
transformación Hotelling del mismo.
Adicionalmente el método puede comprender la
etapa de formar un primer y un segundo grupos de vectores
diferencia, comprendiendo el primer grupo los vectores diferencia
formando firmas que tienen valores que ocurren relativamente
frecuentemente y comprendiendo el segundo grupo vectores diferencia
formando firmas que tienen valores que ocurren menos frecuentemente
que el primer grupo, y en el que la etapa de realizar dicha
transformación vectorial comprende realizar una primera
transformación vectorial para los vectores diferencia de dicho grupo
y una segunda transformación para los vectores diferencia de dicho
segundo grupo. Las etapas de realizar la primera y segunda
transformaciones puede comprender realizar las transformaciones
Hotelling respectivas utilizando los valores de transformación
correspondientes basados sobre los vectores diferencia recibidos
previamente que caen dentro de los grupos sometidos a las
transformaciones Hotelling respectivas. Además, la etapa de
producir un vector diferencia para cada intervalo respectivo de
dichas señales de difusión puede comprender formar un vector
diferencia para cada uno de una pluralidad de intervalos de una
señal de vídeo de difusión en base a las porciones de la señal de
vídeo que representan regiones correspondientes de un cuadro.
Se proporciona además un sistema para producir
firmas caracterizando intervalos respectivos de una señal de
difusión exhibiendo la correlación entre al menos algunos de dichos
intervalos respectivos para su uso en el reconocimiento de
segmentos de difusión comprendiendo; un medio para producir un
vector diferencia para cada intervalo respectivo de dicha señal de
difusión que tiene una pluralidad de elementos representando cada
uno diferencias entre porciones predeterminadas respectivas de cada
uno de dichos intervalos respectivos y exhibir una correlación
entre los mismos; un medio para realizar una transformación
vectorial de dicho vector diferencia de cada intervalo respectivo
para producir un vector diferencia transformado que tiene una
pluralidad de elementos para cada intervalo respectivo de dicha
señal de difusión de modo que la correlación entre la pluralidad de
elementos del mismo es menor que la correlación entre la pluralidad
de elementos de dicho vector diferencia; y un medio para producir
una firma para cada uno de los intervalos respectivos de dicha señal
de difusión en base a los correspondientes vectores diferencia
transformados.
Adicionalmente, se proporciona un método para
producir una firma caracterizando un intervalo de una señal de
vídeo que representa un cuadro para su uso en el reconocimiento de
segmentos de difusión, en el que la firma se produce en base a
porciones de la señal de vídeo que representan regiones
correspondientes del cuadro, y para producir una palabra de máscara
correspondiente incluyendo una pluralidad de valores de bit que
representan cada uno una fiabilidad del valor correspondiente de la
firma, comprendiendo las etapas de: formar una primera firma que
tiene una pluralidad de valores basado cada uno sobre las
respectivas de dichas porciones de la señal de vídeo; formar una
segunda firma que tiene una pluralidad de valores basado cada uno en
las porciones respectivas de una pluralidad de porciones
desplazadas de la señal de vídeo correspondiendo cada uno con la
respectiva de dichas porciones y teniendo una posición desplazada de
la posición de dicha porción respectiva de dichas porciones en una
cantidad predeterminada, de modo que cada valor de dicha firma
primera corresponde a un valor de la segunda firma; comparar los
valores respectivos de dicha primera y segunda firmas; establecer
dichos valores de bits de dicha palabra de máscara en base a la
comparación del valor respectivo de dicha firma primera con el
valor correspondiente de las firmas segundas. La etapa de establecer
dichos valores de bit de dicha palabra de máscara puede comprender
también establecer un primer valor binario del mismo si el valor
correspondiente de dicha primera firma es sustancialmente igual al
valor respectivo de la segunda firma, y establecer un segundo valor
binario para la misma si el valor correspondiente de dicha primera
firma no es sustancialmente igual al valor respectivo de la segunda
firma
Se proporciona también un sistema para producir
una firma caracterizando un intervalo de una señal de vídeo que
representa a un cuadro para su uso en el reconocimiento de segmentos
de difusión, en el que la firma se produce en base a porciones de
la señal de vídeo representando cada una, una región correspondiente
del cuadro, y para producir la palabra de máscara correspondiente
que incluye una pluralidad de valores de bits representando cada
uno la fiabilidad del valor correspondiente de la firma,
comprendiendo un medio para formar una primera firma que tiene una
pluralidad de valores basado cada uno sobre las respectivas de
dichas porciones de la señal de vídeo; un medio para formar una
segunda firma que tiene una pluralidad de valores basado cada uno
sobre las correspondientes de una pluralidad de porciones
desplazadas de la señal de vídeo correspondiendo cada una a la
porción respectiva de dichas porciones y teniendo una posición
desplazada de la posición de dicha porción respectiva de dichas
porciones en una cantidad predeterminada, de modo que cada valor de
dicha firma primera corresponde a un valor de la segunda firma; un
medio para comparar los valores respectivos de dichas primera y
segunda firmas; y un medio para establecer dichos valores de bit de
dicha palabra de máscara en base a la comparación del valor
respectivo de dicha primera firma con el valor correspondiente de
dicha segunda firma.
Se proporciona un método para producir una firma
caracterizando un intervalo de la señal de difusión para su uso en
el reconocimiento de segmentos de difusión que tiene una base de
datos de firmas, incluyendo la firma una pluralidad de palabras
digitales caracterizando cada una un respectivo
sub-intervalo de dicho intervalo de la señal de
difusión, comprendiendo las etapas de: dividir el intervalo de la
señal de difusión en una pluralidad de
sub-intervalos; formar una pluralidad de palabras
digitales caracterizando cada uno de dicha pluralidad de
sub-intervalos; y seleccionar al menos una de la
pluralidad de palabras digitales que caracterizan cada uno de los
intervalos en base a, al menos uno de los siguientes factores: (a)
una distribución de las palabras digitales generadas previamente
caracterizando las señales de difusión; (b) una distribución de
palabras digitales de firmas generadas previamente almacenadas en
la base de datos de firmas; (c) una probabilidad de que al menos
una de la pluralidad de palabras digitales coincida con una palabra
digital que caracteriza el sub-intervalo
correspondiente sobre la redifusión del
sub-intervalo; y (d) un grado de diferencia de señal
entre el sub-intervalo correspondiente con al menos
una de la pluralidad de palabras digitales y las porciones
adyacentes del intervalo de señal de difusión. La etapa de
seleccionar al menos una de la pluralidad de palabras digitales
puede comprender seleccionar dicha, al menos una, de la pluralidad
de palabras digitales en base a (a) dicha distribución de palabras
digitales generadas previamente caracterizando señales de difusión,
y/o (b) dicha distribución de palabras digitales de las firmas
generadas previamente almacenadas en la base de datos de firmas,
y/o (c) dicha probabilidad de que al menos una de la pluralidad de
palabras digitales coincida con una palabra digital caracterizando
un sub-intervalo correspondiente bajo la redifusión
del sub-intervalo, y/o (d) dicho grado de
diferencia de señal entre el sub-intervalo
correspondiente con al menos una de la pluralidad de palabras
digitales y porciones adyacentes del intervalo de la señal de
difusión. La etapa de seleccionar al menos una de la pluralidad de
palabras digitales comprende asignar valores respectivos a, al menos
dos de dichos factores, formando una combinación lineal de dichos
valores respectivos para producir un valor combinado, y seleccionar
dicha palabra, al menos una, de la pluralidad de palabras digitales
en base a dicho valor combinado.
Además, se proporciona una sistema para producir
una firma caracterizando a un intervalo de señal de difusión para
su uso en el reconocimiento de segmentos de difusión que tiene una
base de datos de firmas, incluyendo la firma una pluralidad de
palabras digitales caracterizando cada una de ellas un
sub-intervalo respectivo de dicho intervalo de
señal de difusión, comprendiendo: un medio para dividir el intervalo
de la señal de difusión en una pluralidad de
sub-intervalos; un medio para formar una pluralidad
de palabras digitales caracterizando cada uno de dicha pluralidad
de sub-intervalos; y un medio para seleccionar al
menos una de la pluralidad de palabras digitales que caracterizan
cada sub-intervalo en base a, al menos uno de los
siguientes factores: (a) una distribución de palabras digitales
generadas previamente caracterizando señales de difusión; (b) una
distribución de palabras digitales de firmas generadas previamente
almacenadas en la base de datos de firmas; (c) una probabilidad de
que al menos una de la pluralidad de palabras digitales coincida con
una palabra digital que caracteriza un intervalo correspondiente
sobre la redifusión del sub-intervalo; y (d) un
grado de diferencia de señal entre el sub-intervalo
correspondiente con al menos una de la pluralidad de palabras
digitales y porciones adyacentes del intervalo de señal de
difusión.
Consecuentemente, puede proporcionarse un
sistema de reconocimiento de segmentos de difusión y un método que
comprende los medios para, y las etapas de, respectivamente,
producir una firma para cada uno de una pluralidad de segmentos de
difusión a reconocer; almacenar cada una de dichas firmas para
formar una base de datos de las firmas de los segmentos de
difusión; monitorizar un segmento de difusión, formando una firma
que representa el segmento de difusión monitorizado; comparar la
firma que representa el segmento de difusión monitorizado con al
menos una de las firmas de segmentos de difusión de la base de datos
para determinar si existe una coincidencia entre los mismos; y
evaluar la validez de una coincidencia de un segmento de difusión
monitorizado realizando al menos uno de (a) determinar si el
segmento de difusión monitorizado esta delimitado temporalmente por
eventos de señal predeterminados; (b) determinar si el segmento de
difusión monitorizado solapa con otro segmento de difusión
monitorizado para el cual se ha aceptado una coincidencia de acuerdo
con criterios predeterminados; y (c) determinar si la coincidencia
se adapta con un perfil predeterminado de segmentos de falsa
coincidencia.
Se proporciona un sistema y un método para el
reconocimiento de segmentos de difusión que comprende los medios
para y las etapas de, respectivamente, producir una firma para cada
uno de la pluralidad de segmentos de difusión a reconocer;
almacenar cada una de dichas firmas para formar una base de datos de
firmas de segmentos de difusión; monitorizar un segmento de
difusión; formar una firma que representa el segmento de difusión
monitorizado; comparar la firma que representa el segmento de
difusión monitorizado con cada una, de una pluralidad de firmas de
segmentos de difusión de la base de datos para determinar si existe
una coincidencia entre los mismos de acuerdo con un primer nivel de
tolerancia de error; evaluar si la coincidencia cae dentro de una
dicha clase de coincidencias de aceptación cuestionable en base a
criterios de evaluación predeterminados; y, si la coincidencia cae
dentro de dicha clase de coincidencias de aceptación cuestionable,
comparar la firma que representa el segmento de difusión
monitorizado con la firma del segmento de difusión coincidente de la
base de datos utilizando un segundo nivel de tolerancia de error
que acepta coincidencias que tienen niveles de error relativamente
más altos que las coincidencias aceptables de acuerdo con el primer
nivel de tolerancia de error.
Un sistema y un método para producir una firma
que caracteriza una señal de difusión de audio para su uso en el
reconocimiento de señales de difusión, comprende los medios para y
las etapas de, respectivamente, formar una pluralidad de valores de
bandas de frecuencias representando cada uno porciones de dicha
señal de difusión de audio dentro de las bandas de frecuencias
predeterminadas respectivas; comparar cada valor del primer grupo
de dicha pluralidad de valores de bandas de frecuencias con el valor
respectivo de un segundo grupo de dicha pluralidad de valores de
bandas de frecuencias que representan porciones de dicha señal de
difusión de audio dentro de la misma banda de frecuencias
predeterminada respectiva, cada valor respectivo del segundo grupo
de dicha pluralidad de valores de bandas de frecuencias que
representan porciones de dicha señal de difusión de audio al menos
una parte de la cual se difundió antes que las porciones de dicha
señal de difusión de audio representada por el valor
correspondiente de dicho primer grupo de dicha pluralidad de valores
de bandas de frecuencias; y formar dicha firma en base a las
comparaciones de los grupos primero y segundo de dicha pluralidad de
valores de bandas de frecuencias.
Se proporcionan un sistema y un método para
producir una firma caracterizando un intervalo de señal de vídeo
que representa un cuadro para su uso en el reconocimiento de
segmentos de difusión, en el que la firma se produce en base a
porciones de la señal de vídeo que representan las regiones
correspondientes del cuadro espaciados cada uno una cantidad
predeterminada respectiva del borde nominal del cuadro,
comprendiendo los medios para y las etapas de, respectivamente,
detectar un desplazamiento en la señal de vídeo correspondiendo con
un desplazamiento en el borde del cuadro desde el borde nominal del
mismo; ajustar las porciones de la señal de vídeo para compensar
dicho desplazamiento en el borde del cuadro; y producir la firma en
base a porciones ajustadas de la señal de vídeo.
Se proporcionan un sistema y un método para
producir firmas que caracterizan intervalos respectivos de una
señal de difusión exhibiendo la correlación entre al menos algunos
de dichos intervalos respectivos para su uso en el reconocimiento
de segmentos de difusión, comprendiendo los medios para y las etapas
de, respectivamente, producir un vector diferencia para cada
intervalo respectivo de dicha señal de difusión que tiene una
pluralidad de elementos representando cada uno de ellos diferencias
entre porciones predeterminadas respectivas de cada uno de dichos
intervalos respectivos y que exhiben correlación entre los mismos;
realizar una transformación vectorial de dicho vector diferencia de
cada intervalo respectivo para producir un vector diferencia
transformado que tiene una pluralidad de elementos para cada
intervalo respectivo de dicha señal de difusión de modo que la
correlación entre la pluralidad de elementos del mismo es menor que
la correlación entre la pluralidad de elementos de dicho vector
diferencia; y producir una firma por cada intervalo respectivo de
dicha señal de difusión en base al correspondiente vector diferencia
transformado.
Se proporcionan un sistema y un método para
producir una firma que caracteriza un intervalo de señal de vídeo
que representa un cuadro para su uso en el reconocimiento de
segmentos de difusión, en el que la firma se produce en base a
porciones de la señal de vídeo que representan regiones
correspondientes del cuadro, y producir la correspondiente palabra
de máscara que incluye una pluralidad de valores de bits
representando cada uno la fiabilidad del valor correspondiente de
la firma, comprendiendo los medios para y las etapas de,
respectivamente, formar una primera firma que tiene una pluralidad
de valores basados cada uno en las porciones respectivas de dichas
porciones de la señal de vídeo; formar una segunda firma que tiene
una pluralidad de valores basado cada uno en las respectivas
porciones de una pluralidad de porciones desplazadas de la señal de
vídeo correspondiendo cada una a la respectiva de dichas porciones
y que tiene una posición desplazada de la posición de dicha porción
respectiva de dichas porciones en una cantidad predeterminada, de
modo que cada valor de dicha firma primera corresponde a un valor
de la segunda firma; comparar los valores respectivos de dichas
firmas primera y segunda; establecer dichos valores de bit de dicha
palabra de máscara en base a la comparación del valor respectivo de
dicha primera firma con el valor correspondiente de la segunda
firma.
Se proporciona un sistema y un método para
actualizar una base de datos de reconocimiento de segmentos de
difusión que almacena firmas para su uso en el reconocimiento de
segmentos de difusión de interés, comprendiendo los medios para y
las etapas de, respectivamente, monitorizar una señal de difusión
para detectar eventos de señal predeterminados indicando posibles
segmentos de difusión de interés que corresponden con los intervalos
de señal de difusión monitorizados respectivos; determinar si se
detectan al menos dos segmentos de difusión posibles alternativos
de interés para el intervalo de señal de difusión monitorizado;
asignar prioridad a uno de dichos, al menos dos posibles segmentos
de difusión alternativos de interés en base a criterios
predeterminados; y almacenar una firma en la base de datos
correspondiente con el segmento que se asigne prioridad de dichos,
al menos dos, segmentos de difusión posibles alternativos de
interés.
Se proporciona un sistema y un método para
actualizar una base de datos de reconocimiento de segmentos de
difusión que almacena firmas para su uso en el reconocimiento de
segmentos de difusión de interés, comprendiendo los medios para y
las etapas de, respectivamente, monitorizar una señal de difusión
para detectar eventos de señal predeterminados indicando posibles
segmentos de difusión de interés que corresponden con los intervalos
de señal de difusión monitorizados respectivos; determinar la
extensión a la que se desvían los intervalos de señal de difusión
monitorizados respectivos desde los intervalos de señal de difusión
predeterminados de posibles segmentos difusión de interés;
seleccionar unos de dichos intervalos de señal de difusión
monitorizados respectivos como nuevos segmentos de interés en base
a la extensión determinada de la desviación de los mismos desde
dichas longitudes normalizadas de los segmentos de difusión de
interés; y almacenar una firma en la base de datos correspondiendo
con los intervalos seleccionados de los respectivos intervalos de
señal de difusión monitorizados.
Se proporcionan un método y un sistema para
capturar selectivamente al menos una señal de audio de difusión y
una señal de vídeo de para su uso en la actualización de la base de
datos de reconocimiento de segmentos de difusión que almacena
firmas para su uso en el reconocimiento de segmentos de difusión de
interés, que comprende los medios para y las etapas de,
respectivamente, almacenar temporalmente al menos una de las señales
de audio de difusión y de las señales de vídeo de difusión de una
difusión monitorizada; detectar eventos de señal predeterminados
indicando posibles nuevos segmentos de difusión de interés de la
difusión monitorizada; seleccionar intervalos de la difusión
monitorizada como posibles nuevos segmentos de difusión de interés
en base a dichos eventos de señal predeterminados; asignar un
primer nivel de captura a un primer intervalo seleccionado en base
a características predeterminadas del mismo indicando que dicho
primer intervalo seleccionado es probablemente un nuevo segmento de
interés; asignar un segundo nivel de captura para un segundo
intervalo seleccionado en base a características predeterminadas
del mismo indicando que el segundo intervalo seleccionado es
relativamente menos probable que el primer intervalo seleccionado
de que sea un nuevo segmento de interés; almacenar una firma
correspondiente con el primer intervalo seleccionado en la base de
datos y capturar al menos una de las señales de audio y vídeo de
difusión almacenadas temporalmente correspondiendo con el primer
intervalo seleccionado para su transmisión a un operario de la
estación de trabajo para identificación de segmentos; almacenar una
firma correspondiente con el segundo intervalo seleccionado en la
base de datos; y borrar la almacenada temporalmente de las señales
de audio y vídeo de difusión correspondiente con el segundo
intervalo seleccionado.
Se proporcionan un sistema y un método para
producir una firma que caracteriza un intervalo de señal de difusión
para su uso en el reconocimiento de segmentos de difusión que tiene
una base de datos de firmas, incluyendo la firma una pluralidad de
palabras digitales caracterizando cada una un
sub-intervalo respectivo de dicho intervalo de
señal de difusión, comprendiendo los medios para y las etapas de,
respectivamente, dividir el intervalo de la señal de difusión en
una pluralidad de sub-intervalos; formar una
pluralidad de palabras digitales caracterizando cada uno de dicha
pluralidad de sub-intervalos; y seleccionar al menos
una de la pluralidad de palabras digitales que caracteriza cada
sub-intervalo en base a al menos uno de los
siguientes factores: (a) una distribución de palabras digitales
generadas previamente que caracterizan las señales de difusión; (b)
una distribución de palabras digitales de firmas generadas
previamente almacenadas en la base de datos de firmas; (c) una
probabilidad de que al menos una de la pluralidad de palabras
digitales que coincida con una palabra digital que caracteriza el
sub-intervalo correspondiente bajo la redifusión del
sub-intervalo; y (d) un grado de diferencia de
señal entre el sub-intervalo correspondiente con al
menos una de la pluralidad de palabras digitales y porciones
adyacentes del intervalo de señal de difusión.
Se proporciona un sistema y un método para el
reconocimiento de segmentos de difusión, que comprende los medios
para y las etapas de, respectivamente, producir una firma para cada
uno de la pluralidad de segmentos de difusión a reconocer;
determinar una probabilidad, para cada firma producida de que tal
firma producida coincida con una firma producida bajo la redifusión
del segmento de difusión correspondiente y producir una probabilidad
correspondiente en base a criterios para su uso en evaluar una
coincidencia de la firma producida; almacenar cada firma producida
y su probabilidad correspondiente en base a criterios para formar
una base de datos; monitorizar un segmento de difusión; formar una
firma que represente el segmento de difusión monitorizado; comparar
la firma que representa el segmento de difusión monitorizado con al
menos una firma almacenada en la base de datos para determinar una
coincidencia de las mismas; y determinar si aceptar dicha
coincidencia en base al criterio basado en la probabilidad
correspondiente.
Se proporcionan un método y un sistema para el
reconocimiento de segmentos de difusión, comprendiendo los medios
para y las etapas de, respectivamente, producir una firma digital
para cada uno de la pluralidad de segmentos de difusión a
reconocer, incluyendo cada una de dichas firmas digitales una
pluralidad de valores de bits que caracterizan el correspondiente
de dicha pluralidad de segmentos de difusión; para cada firma
digital producida, determinando un número probable de valores de
bits de la misma que coincidirán con los valores de bit de una
firma digital producida bajo la redifusión del correspondiente
segmento de difusión y producir una probabilidad correspondiente en
base al valor de coincidencia para su uso en determinar si cada una
de dichas firmas digitales producidas coincide con una firma digital
de un segmento de difusión recibido posteriormente; almacenar cada
una de las firmas producidas y su probabilidad correspondiente en
base al valor de coincidencia para formar una base de datos;
monitorizar un segmento de difusión; formar una firma digital que
tiene una pluralidad de valores de bit que representan el segmento
de difusión monitorizado; comparar la firma digital que representa
el segmento de difusión monitorizado con al menos una firma digital
almacenada en la base de datos; y determinar si la firma digital
que representa el segmento de difusión monitorizado coincide con al
menos una firma digital utilizando la correspondiente probabilidad
basada en el valor de coincidencia.
Finalmente, se proporcionan un sistema y un
método para el reconocimiento de segmentos de difusión, que
comprende los medios para y las etapas de, respectivamente,
producir una firma para cada uno de la pluralidad de segmentos de
difusión a reconocer; determinar una probabilidad, para cada una de
las firmas producidas, de que tal firma producida coincida con una
firma producida bajo la redifusión del correspondiente segmento de
difusión; producir una firma adicional para cada uno de dicha
pluralidad de segmentos de difusión a reconocer cuando dicha
probabilidad de que dicha firma producida coincida con una firma
producida bajo la redifusión del correspondiente segmento de
difusión es menor de un valor predeterminado; almacenar cada firma
producida para formar una base de datos; monitorizar un segmento de
difusión; formar una firma que represente el segmento de difusión
monitorizado; y comparar la firma que representa el segmento de
difusión monitorizado con al menos una firma almacenada en la base
de datos.
Otros objetos, características y ventajas de la
presente invención se harán evidentes a partir de la siguiente
descripción detallada de las realizaciones ilustrativas cuando se
leen junto con los dibujos adjuntos en los que los componentes
correspondientes se identifican con las mismas referencias
numéricas.
La Fig. 1 ilustra un sistema para monitorizar un
flujo continuo de señales de difusión;
La Fig. 2 es un diagrama de uno de los sitios
locales del sistema mostrado en la Fig. 1;
La Fig. 3 es un diagrama que ilustra los flujos
de señal en el sitio local de la Fig. 2 durante una operación de
emparejamiento;
La Fig. 4 es un diagrama usado para explicar un
método para formar una firma de trama de vídeo;
La Fig. 5A y la Fig. 5B ilustran una porción de
una trama de vídeo que tiene una condición de borde normal y una
condición de borde desplazado, respectivamente;
La Fig. 6 es un diagrama al que se hace
referencia en la explicación de la técnica de enmascaramiento
anti-oscilación rápida;
Las Fig. 7A y 7B son diagramas de bloques que
ilustran un sistema de generación de firmas de audio;
La Fig. 8 es un diagrama al que se hace
referencia en la explicación del funcionamiento del conjunto de
generación de firma de audio de las Fig. 7A y 7B;
La Fig. 9 es un diagrama de flujo para explicar
una técnica de filtrado de ocurrencias;
La Fig. 10 es un diagrama para explicar una
técnica de confirmación de emparejamiento.
La Fig. 11 es un diagrama que ilustra el flujo
de señales en el sitio local de la Fig. 2 cuando se detecta un nuevo
segmento de interés;
La Fig. 12 ilustra una secuencia de etapas
realizadas en la detección de nuevos segmentos de interés de acuerdo
con un primer modo de funcionamiento;
La Fig. 13 ilustra una secuencia de etapas
realizadas en la detección de nuevos segmentos de interés de acuerdo
con un segundo modo de funcionamiento;
La Fig. 14 ilustra una secuencia de etapas
realizadas en la detección de nuevos segmentos de interés de acuerdo
con un tercer modo de funcionamiento;
La Fig. 15 es un diagrama de árbol usado para
describir el proceso ilustrado en la Fig. 14;
La Fig. 16 es un diagrama que ilustra los flujos
de señales en el sitio local de la Fig. 2 durante la captura de los
datos de audio y vídeo;
La Fig. 17 es un diagrama que ilustra los flujos
de señales en el sitio local de la Fig. 2 durante la generación de
firmas de claves; y
La Fig. 18 es un diagrama de flujo que ilustra
las etapas realizadas en la generación de las firmas de clave.
La Fig. 1 ilustra un sistema 10 para la
monitorización de un flujo continuo de señales de difusión de
televisión y proporcionan una información de reconocimiento a la
que pueden aplicarse las realizaciones de la presente invención.
Como se muestra en la misma, el sistema 10 generalmente comprende
una sitio central 12, una o mas estaciones de trabajo 14
localizadas en el sitio central 12, y una o más sitios locales 16.
Cada uno de los sitios locales 16 monitoriza la difusión en la
región geográfica correspondiente.
El sitio central 12 comunica con cada uno de los
sitios locales 16, por ejemplo, vía líneas telefónicas, para
recibir los datos relativos a la detección de segmentos de difusión
conocidos y los potencialmente nuevos, segmentos desconocidos, y
para proporcionar firma de segmentos e información de detección
correspondiente a los nuevos segmentos de difusión. El sitio
central 12 compila los datos recibidos y formula los mismos dentro
de un informe 13 que por ejemplo puede suministrarse a los
anunciantes de difusión.
El sitio central 12 también suministra datos de
difusión, por ejemplo, audio y vídeo, a las estaciones de trabajo
14 donde se identifican los segmentos nuevos y los desconocidos por
operarios humanos y se asocian con un código de identificación. Si
un sitio identifica una porción de una difusión como un nuevo
segmento de interés (tal como un anuncio), cuando es de hecho
alguna otra cosa (tal como un programa normal), se malgasta el
tiempo del operario de la estación de trabajo para identificar los
segmentos no deseados. También, si un segmento ya conocido no puede
identificarse correctamente por el sistema 10, puede reportarse
incorrectamente por el sitio central 12 a la estación de trabajo 14
como un segmento nuevo, malgastando además de este modo el tiempo
del operario. El coste de emplear operarios es gasto corriente
significativo. Consecuentemente, es deseable minimizar este gasto
detectando con precisión nuevos segmentos de interés e identificando
segmentos conocidos. La presente invención proporciona métodos
mejorados y un aparato para el reconocimiento de la señal que
consiguen una capacidad potenciada para identificar con precisión
segmentos conocidos de interés así como la minimización de la
necesidad de identificar potencialmente nuevos segmentos con la
asistencia de los operarios de la estación de trabajo. De acuerdo
con las realizaciones descritas de
la invención tales métodos mejorados y aparato se implementan en los lugares sitios locales 16 del sistema 10.
la invención tales métodos mejorados y aparato se implementan en los lugares sitios locales 16 del sistema 10.
Cada sitio local 16 está adaptado para recibir
una señal de difusión de radiofrecuencia desde, por ejemplo una
antena 18 o una estación de fin de cabecera de un cable de
televisión (no mostrado por motivos de simplicidad y claridad) y es
capaz de reconocer e identificar los segmentos de difusión conocidos
por fecha, hora, duración, canal y otras informaciones deseables.
Los lugares locales 16 son también capaces de reconocer la
ocurrencia de segmentos desconocidos, potencialmente nuevos, y de
generar firmas de clave temporales para los mismos de modo que
puede mantenerse un registro de tales ocurrencias pendientes de
identificación del segmento por un operario de una estación de
trabajo en el sitio central. Aunque el sistema 10 sólo ilustra tres
sitios locales 16, el sistema no está limitado y puede utilizarse
cualquier número de sitios locales. Similarmente el sistema 10 no
está limitado a sólo dos estaciones de trabajo 14 como se muestra en
la Fig. 1.
La Fig. 2 ilustra uno de los sitios locales 16
en forma de bloque. Como se muestra en la misma, cada sitio local
16 generalmente comprende una porción de extremo frontal 20 y una
porción de extremo posterior 22. La porción de extremo frontal 20
incluye una o más convertidores de difusión de radiofrecuencia 24,
un reconocedor de segmentos sobre el subsistema 26, un sensor 27 y
un subsistema de captura de datos 28. El extremo posterior 22
incluye una computadora de control 30 y al menos un controlador de
disco 32.
Cada uno de los convertidores de difusión de
radiofrecuencia 24 recibe las señales de difusión de televisión
sobre el canal respectivo y demodula las señales recibidas para
proporcionar las señales de vídeo y audio banda base. Las señales
de vídeo y audio se suministran más tarde al subsistema de
reconocimiento de segmentos 26, en el que se generan las firmas de
trama para cada una de las señales de vídeo y audio que se comparan
más tarde con las firmas de clave almacenadas para determinar si
existe una coincidencia. Por motivos de claridad, las firmas de
vídeo y audio se denominan separadamente
"sub-firmas" en este documento. El subsistema
de reconocimiento de segmentos también produce también produce
indicios que representan eventos de señal, tales como un
desvanecimiento al negro del vídeo o un silenciamiento del audio.
Las indicios así como la información de coincidencia se suministran
a la computadora de control 30 para su uso en determinar si la señal
recibida representa un nuevo segmento o anuncio de interés,
determinando si capturar la información de vídeo o audio para su uso
en el sitio central en la identificación de un nuevo segmento de
interés, evaluando la validez de las coincidencias cuestionables, y
para agrupar la información de coincidencia para su almacenamiento
en una base de datos.
El sensor 27 está adaptado para monitorizar la
temperatura de funcionamiento del extremo frontal 20 y, en el caso
de que la temperatura de funcionamiento exceda una temperatura de
funcionamiento máxima predeterminada, suministrar una señal de modo
que se indica a la computadora de control 30. Más específicamente,
el sensor 27 recibe la información de la temperatura relativa a los
subsistemas 26 y 28 desde uno o más termopares 29 y procesa tal
información de temperatura recibida para suministrar a la
computadora 30, de modo que si se encuentran temperaturas excesivas,
los subsistemas 26 y 28 se apagan.
El subsistema de captura de datos 28 recibe las
señales de difusión de audio y vídeo desde los convertidores 24 por
medio del subsistema de reconocimiento de segmentos 26 y comprimen y
digitalizan los mismos. Las señales digitalizadas se almacenan en
un almacenamiento contenido dentro del subsistema 28 durante un
periodo de tiempo predeterminado, y se suministran a petición de la
computadora de control 30.
La computadora de control 30 está adaptada para
seleccionar firmas de clave, proporcionar información de
coincidencia, procesar nuevos datos de segmentos y comunicar con el
sitio central 12. El controlador de disco 32 proporciona una
capacidad de almacenamiento masivo de datos para la información de
ocurrencia de coincidencia, nueva información de anuncios y datos
de audio/vídeo para su transmisión al sitio central 12.
La Fig. 3 ilustra el flujo de datos para una
operación típica de emparejamiento. Como se muestra en la misma,
uno de los convertidores 24 recibe un canal deseado de señales de
difusión que se suministra como señales vídeo y audio banda base al
subsistema de reconocimiento de segmentos 26. El subsistema 26
incluye una pluralidad de tarjetas de canal 402, uno por cada canal
monitorizado por el sitio local 16, que sirve cada uno para generar
la sub-firma de trama correspondiente y la palabra
de máscara para cada trama de la señal de vídeo banda base. Además,
cada tarjeta de canal genera una sub-firma de trama
y una palabra de máscara para cada intervalo de la señal de vídeo
correspondiente con una trama de la señal de vídeo y que tiene el
mismo formato que las sub-firmas de vídeo y las
palabras de máscara. Se aprecia que el uso de los correspondientes
intervalos y formatos de datos para las sub-firmas
de vídeo y audio facilita ventajosamente el procesamiento de los
mismos. También se aprecia que las sub-firmas
pueden producirse desde intervalos diferentes, tales como campos de
vídeo o combinaciones de campos o tramas o de otra manera, y que las
sub-firmas de vídeo y audio y las palabras de
máscara no necesitan seguir el mismo formato. Las tarjetas de canal
402 también sirven para detectar señales de vídeo en base al
desvanecimiento al negro en la recepción de al menos una trama o
campo sustancialmente negro de la señal de vídeo banda base
recibida, así como en los silenciamientos de audio, una reducción
del nivel de la señal de audio banda base que representa silencio.
Las tarjetas de canal 402 también sirven para detectar cambios de
escenas de vídeo indicados por un cambio rápido en la señal de
vídeo. Estos eventos de señalización, así como las
sub-firmas de vídeo y audio y las palabras de
máscara, producidas por la tarjeta de canal 402 se reciben por el
controlador de reconocimiento de segmentos 404. Cada sitio local 16
está provisto con al menos un convertidor auxiliar 24 y una tarjeta
de canal 402, de modo que si uno de los convertidores 24 y tarjetas
de canal 402 fallaran en su funcionamiento, el controlador de
reconocimiento de segmentos 404 genera un comando a una tarjeta de
canal auxiliar y el convertidor asume a continuación las funciones
del equipo no
operativo.
operativo.
El controlador de reconocimiento de segmentos
404 comunica con el almacenamiento de anillo de firmas de segmento
406 para almacenar las firmas de segmentos recibidos nuevamente,
esto es, las firmas de tramas dispuestas en secuencia y las
palabras de máscara para cada canal, por un periodo de tiempo
predeterminado que precede el instante actual. El controlador de
reconocimiento de segmentos también comunica con un correlacionador
420 para suministrar comandos de coincidencia al mismo. El
correlacionador 420 se alimenta también con las firmas de segmento
apropiadas desde el almacenamiento de anillo de firmas de segmento
406 y las firmas de clave desde la base de datos de firmas de clave
408. El correlacionador 420 realiza la operación de emparejamiento
solicitada y suministra los resultados de la coincidencia, junto con
la información relevante (por ejemplo, la cuenta de errores
correspondiente), al controlador de reconocimiento de segmentos 404.
El controlador de reconocimiento de segmentos 404 suministra un
informe de coincidencia por cada sub-firma de audio
y vídeo y eventos de señalización al módulo de sistema experto 414
implementado por la computadora de control 30.
El sistema experto 414 evalúa cada informe de
coincidencia recibido para decidir si es erróneo. En ciertas
situaciones, el sistema experto 414 utiliza un proceso de
confirmación de coincidencia en la evaluación del informe de
coincidencia. En tal caso, el sistema experto suministra una
solicitud de confirmación de coincidencia al módulo de confirmación
de coincidencia 422 implementado también por la computadora 30 que,
en respuesta al mismo, suministra una señal al controlador de
reconocimiento de segmentos 404 solicitando la firma del segmento
apropiada. En respuesta a tal petición, el controlador de
reconocimiento de segmentos suministra la firma de segmento
apropiada al módulo de confirmación de coincidencia 422. Además, el
módulo de confirmación de coincidencia recibe la firma de clave
apropiada desde la base de datos 412, mantenida por el módulo de
control de la base de datos 416 del computador 30 bajo el control
del sistema experto 414. Una vez completado el proceso de
confirmación de coincidencia, el módulo de confirmación de
coincidencia 422 suministra una señal de confirmación de
coincidencia al sistema experto 414. En respuesta al mismo, el
sistema experto 414 suministra información de emparejamiento, por
ejemplo, datos de ocurrencia, a través del módulo de control de la
base de datos 416 a la base de datos 412.
En ciertas situaciones, el sistema experto 414
puede suministrar datos de ocurrencia antes de recibir la respuesta
de confirmación de coincidencia. Si en estas situaciones, el módulo
de confirmación de coincidencias 422 determina que no existe una
coincidencia aceptable, el sistema experto 414 suministra un señal
de rescisión de coincidencia a través del control de la base de
datos 416 a la base de datos 412 con lo cual la ocurrencia
suministrada previamente se rescinde.
Cada tarjeta de canal 402 produce firmas de
trama de vídeo produciendo en primer lugar un vector diferencia 150
en la forma de una secuencia ordenada de elementos x_{1}, x_{2},
...x_{16} por cada trama de vídeo de acuerdo la técnica ilustrada
en la Fig. 4. Como se muestra en la Fig. 4 una trama 140 de una
señal de vídeo incluye un región de pórtico posterior 141, una
región de cuadro 142 y una región de pórtico frontal 143. El
extremo izquierdo 146 de la región del cuadro 142 está definido por
el borde derecho de la región de pórtico posterior 141, mientras
que el borde derecho 147 de la región de cuadro 142 está definido
por el borde izquierdo de la región del pórtico frontal 143.
\newpage
Se definen treinta y dos áreas predeterminadas
de superpuntos de imagen 144 para cada trama, de los que se
ilustran en la Fig. 4 dieciséis superpuntos de imagen de ejemplo.
Cada área de superpunto de imagen 144 es rectangular e incluye, por
ejemplo, entre 18 y 21 puntos de imagen en cada una de las 4 líneas
horizontales adyacentes verticalmente del área del cuadro 142. Se
selecciona una porción 144, como se describe con mayor más adelante
en este documento, y se produce un valor de la luminancia media del
mismo. Cada área de superpunto de imagen 144 está emparejada con
otra área respectiva 144 como se indica por las líneas discontinuas
148 en la Fig. 4 para comparar los valores de luminancia media
respectiva de los mismos. Cada uno de tales pares de valores de
luminancia media respectiva se usan para producir el valor de un
elemento correspondiente x_{n} del vector diferencia 150. Por
ejemplo, el valor de luminancia media de la porción seleccionada del
área del superpunto de imagen 144a se sustrae de la del área del
superpunto emparejado 144b para producir el valor de un elemento
correspondiente x_{n} del vector diferencia 150.
Después de esto, cada vector diferencia 150 está
sujeto a una secuencia de transformaciones vectoriales descritas en
este documento mas adelante que producen el vector transformado
correspondiente de dieciséis elementos o vector resultante. A
continuación se produce la firma de trama de dieciséis bits en la
que cada bit es puesto a uno o a cero dependiendo del signo del
elemento correspondiente del vector resultante. Además, el valor de
cada elemento del vector resultante se examina para determinar si
(1) su valor absoluto es menor que un valor de la banda de guarda,
o (2) es susceptible a oscilación rápida (como se explica más
adelante). Si se obtiene cualquiera de las condiciones (1) o (2),
entonces el bit de máscara correspondiente de la palabra de máscara
de 16 bits respectiva se pone a uno.
Con referencia de nuevo a la Fig. 4, se
apreciará que las posiciones de las áreas de superpuntos de imagen
144 deben determinarse con precisión con respecto al borde de la
región de cuadro 142 de modo que los puntos de imagen de cada
porción usados para producir los valores de luminancia media
respectiva corresponden de trama a trama. Las señales de vídeo de
anuncios de televisión se reciben a menudo con un desplazamiento
horizontal respecto a su posición normal o normalizada. El
desplazamiento horizontal encontrado más frecuentemente es un
desplazamiento a la derecha como se determina viendo un receptor de
televisión que resultaría en un desplazamiento a la derecha del
borde 146 del área del cuadro 142 en la Fig. 4. Aunque pueden
ocurrir los desplazamientos horizontales a la izquierda, tales
desplazamientos, ocurren significativamente menos frecuentemente que
los desplazamientos a la derecha. Aunque la mayoría de los
desplazamientos horizontales o desviaciones no son típicamente lo
suficientemente grandes para detectarse por el espectador, estos
desplazamientos pueden afectar a la generación de firmas de trama
desplazando el borde de cada área del cuadro de la trama de vídeo
142, desplazando por lo tanto las porciones de los superpuntos de
imagen usados en la generación de firmas. Si no se compensa, este
efecto degradará la capacidad del sistema 10 de producir firmas de
trama con fiabilidad y, de este modo, afectar adversamente la
precisión global del sistema.
Se proporciona un módulo de detección de borde
de vídeo, implementado por cada una de las tarjetas de canal 402 de
la Fig. 3, para detectar un desplazamiento en el borde de la región
del cuadro 142 de la señal de vídeo recibida. Como se ha mencionado
previamente, se ha observado que los desplazamientos horizontales a
la derecha ocurren más frecuentemente, al describir el módulo de
detección del borde del vídeo, se asumirá que ha ocurrido un
desplazamiento horizontal a la derecha. No obstante, la presente
invención no está limitada y puede utilizarse para desplazamientos
horizontales a la izquierda.
La Fig. 5A ilustra una trama de vídeo que tiene
una posición del borde normal o estándar. Como se muestra en la
misma la trama de vídeo incluye una porción de pórtico posterior,
una porción de cuadro y una porción de pórtico frontal. La Fig. 5B
ilustra una trama de vídeo que tiene un desplazamiento horizontal a
la derecha, en la que tal desplazamiento incrementa el tamaño de la
porción del pórtico posterior y disminuya el área del cuadro en la
cantidad correspondiente.
El módulo de detección del borde de vídeo sitúa
al menos un superpunto de imagen de detección de borde 100, que es
un área de muestreo rectangular, a través de la frontera entre el
área de cuadro y el área del pórtico posterior, como se muestra en
las Fig. 5A y 5B de modo que el superpunto de imagen 100 incluye la
posición del borde normal así como las regiones de cuadro
adyacentes a las que puede desplazarse el borde. Se procesan los
datos de vídeo desde dentro de tales superpuntos de imagen de
detección de bordes 100 para determinar la posición del borde
izquierdo del área del cuadro. Cada superpunto de imagen de
detección de borde 100 tiene ventajosamente el mismo área que cada
una de las áreas de superpuntos de imagen 104, que preferiblemente
tiene un tamaño d aproximadamente18 a 21 puntos de imagen de
longitud por 4 puntos de imagen de altura. Como tal, cada
superpunto de imagen de detección de borde 100 contiene porciones de
más de una línea de vídeo. Cada una de estas líneas de vídeo dentro
del superpunto de imagen 100 proporciona datos sobre la posición del
borde izquierdo del cuadro. En una realización ventajosa, las
posiciones del borde izquierdo obtenidas de cada línea en todas las
áreas de superpuntos de imagen de detección de borde 100 se combinan
para producir una posición estimada para el borde izquierdo del
área de cuadro. De modo que combinando todos los datos de posición
del borde izquierdo, se obtiene una estimación más fiable del borde
izquierdo en comparación con la derivada de usar sólo una única
línea de información de posición del borde que puede estar
influenciada adversamente por ruido en la señal de vídeo.
De este modo, el borde izquierdo del cuadro se
obtiene combinando los valores del borde izquierdo obtenidos para
cada una de las líneas de datos de vídeo en todas las áreas de
superpuntos de imagen de detección de borde 100. Al determinar el
borde izquierdo del cuadro de este modo, es preferible descartan los
valores extremos obtenidos de las líneas de datos de vídeo y
promediar los valores restantes. En una realización preferida, los
dos valores más bajos así como el valor más alto para el borde
izquierdo del cuadro se consideran extremos y, como tal, se
descartan. Como el ruido de la señal es más propenso para que
resulte un valor bajo, se descartan más valores bajos para el borde
izquierdo.
Como se ha mencionado previamente, hay 32 áreas
de superpuntos de imagen 144 asociados con cada trama de la señal
de vídeo. Dentro de cada una de estas áreas de superpuntos de imagen
144 hay un área de muestreo 102. Esta área de muestreo, 102 es el
área desde el que se extraen los datos de vídeo para su uso en la
generación de la firma de trama respectiva. Por ejemplo, la Fig. 5A
ilustra la posición del área de muestreo 102 dentro del área del
superpunto de imagen 144 para una trama que tiene una condición de
borde normalizado. Cuando el área del superpunto de imagen 144 mide
entre 18 y 21 puntos de imagen por cuatro líneas, las áreas de
muestreo se seleccionan ventajosamente para que midan 4 puntos de
imagen por 4 líneas. Cuando se detecta un desplazamiento horizontal
en el borde izquierdo del cuadro como se ha tratado previamente, los
efectos de tal desplazamiento sobre el área de muestreo 102 pueden
compensarse cambiando el área de muestreo 102 de acuerdo con el
desplazamiento horizontal detectado como se muestra en la Fig. 5B.
Esto es, si el borde izquierdo del cuadro se determina que está
desplazado hacia la derecha en N puntos de imagen desde la posición
normal, entonces el área de muestreo 102 se desplaza también a la
derecha en N puntos de imagen.
En una realización preferida, el módulo de
detección del borde de vídeo usa preferiblemente un número mínimo
predeterminado de líneas de datos de vídeo (por ejemplo,
aproximadamente 6-8) de las áreas de superpuntos de
imagen de detección de borde 100 para localizar del borde izquierdo
del área del cuadro. No obstante, cuando la porción del área del
cuadro adyacente al pórtico posterior es relativamente oscuro, puede
se difícil localizar con precisión el borde izquierdo del área del
cuadro de cualquiera de las líneas de los datos de vídeo contenidos
dentro de todas las áreas de superpuntos de imagen de detección de
borde 100. En esta situación, se usa un valor por defecto
predeterminado para el borde izquierdo del área del cuadro.
Si la desviación horizontal se extiende más allá
de las áreas de superpuntos de imagen de detección de borde 100 de
modo que el borde izquierdo del cuadro queda fuera de las áreas 100,
entonces el módulo de detección de borde del vídeo considera que el
borde izquierdo no se ha encontrado. En esta situación, se usa el
valor por defecto predeterminado que se ha mencionado
anteriormente. Además, en algunos casos, puede detectarse un
desplazamiento horizontal que es mayor que el que puede compensarse,
esto es, el área de muestreo 102 no puede desplazarse una cantidad
correspondiente a la desviación horizontal. En esta situación, el
área de muestreo 102 se desplaza la máxima cantidad posible.
Para determinar el borde izquierdo del borde del
área del cuadro para cada línea de vídeo, el módulo de detección
del borde de vídeo explora las muestras de los puntos de imagen de
izquierda a derecha buscando un salto o incremento en el valor de
la luminancia de más de una cantidad predeterminada entre un punto
de imagen respectivo y el punto de imagen que está localizado dos
puntos de imagen a la derecha del punto de imagen respectivo. Si se
detecta tal salto, se determina entonces la diferencia en los
valores de luminancia entre el punto de imagen que se está testando
actualmente y el punto de imagen tres puntos de imagen a la derecha
para asegurar que el incremento en el valor de luminancia es de
nuevo igual al valor predeterminado para filtrar los picos de
ruido. Además, examinando puntos de imagen que están localizados dos
puntos de imagen a la derecha del punto de imagen que se está
testando, en lugar de testear puntos de imagen adyacentes, puede
detectarse un borde que de lo contrario sería indetectable cuando
se testean puntos de imagen adyacentes. Esto es, en escenas de
vídeo relativamente oscuras, la pendiente (diferencia) de los
valores del borde del cuadro es menor que en escenas relativamente
brillantes.
El módulo de detección de borde de vídeo puede
situar el borde izquierdo del cuadro uno o dos puntos de imagen
antes de que el borde realmente ocurra. Esto no presenta problema ya
que el módulo de detección de borde de vídeo corrige diferencias
entre posiciones del borde izquierdo para diferentes difusiones y no
necesita detectar una posición de borde absoluta.
De este modo, el módulo de detección de borde de
vídeo mejora la precisión del sistema posibilitando obtener firmas
de trama de vídeo fiables de la señal de vídeo recibida. Además, el
módulo de detección de borde de vídeo compensa las desviaciones
horizontales sin requerir ningún hardware adicional en el sitio
local 16.
Se ha observado que ciertos valores de las
firmas de trama de vídeo ocurren mas frecuentemente que otros
valores de firmas de trama de vídeo de modo que las firmas de trama
de vídeo tienden a concentrarse juntas en ciertos valores (a veces
denominados como "aglutinaciones" en este documento). Tales
aglutinaciones de las firmas de trama de vídeo pueden presentar
varios problemas. En primer lugar, una firma de trama de vídeo que
se produce frecuentemente, denominada "firma de aglutinación",
es probable que se seleccione como palabra clave. Como resultado,
esta palabra clave o firma de aglutinación puede tener un gran
número de firmas de clave asociadas con ella. Como el
correlacionador 420 del sistema de reconocimiento de segmentos 26
busca todas las firmas de clave que corresponden a una palabra
clave respectiva, las firmas de aglutinación pueden incrementar
enormemente el tiempo de procesamiento del correlacionador. Como
resultado, esto puede limitar la cantidad de datos que pueden
almacenarse dentro de la base de datos del sitio local 16 y/o el
número de canales de difusión que pueden procesarse. En segundo
lugar, el aglutinamiento puede causar un incremento en falsos
emparejamientos. Esto es, como el número de firmas que están
asociadas con una palabra clave de firma de aglutinamiento
incrementa, más próximos pueden venir entre sí los patrones de bits
de estas firmas. Como resultado, si ocurre un ligero cambio en una
firma de segmento debido, por ejemplo, al ruido de la señal o una
oscilación rápida, el correlacionador 420 puede reportar una
coincidencia de modo impreciso.
El aglutinamiento puede considerarse que causa
una reducción en la cantidad real de información en una firma. Por
ejemplo, en la situación en la que todas las firmas de trama de
vídeo son iguales, el valor de cada firma se conoce de antemano.
Por lo tanto, en esta situación, el valor de la firma de la trama de
vídeo próxima puede describirse por cero bits. En el otro extremo,
esto es, cuando las firmas de trama de vídeo son completamente
aleatorias de modo que tienen una distribución uniforme de valores,
se necesitan todos los bits dentro de la firma para identificar la
firma respectiva.
Tal aglutinamiento puede reducirse o minimizarse
incrementando la uniformidad de la distribución de las firmas de
trama. Por ejemplo, si las firmas de trama de vídeo estuviesen
distribuidas uniformemente, cada firma ocurriría con igual
frecuencia. Cada una de las tarjetas de canal 402 del subsistema de
reconocimiento de segmentos 26 (Fig. 15) preprocesa la señal de
vídeo de entrada para producir firmas de trama de vídeo que están
distribuidas más uniformemente. Esto es, la tarjeta de canal 402
transforma la señal de vídeo de entrada utilizando una
transformación vectorial que, a su vez, utiliza datos estadísticos
pertenecientes a información relevante de aglutinamiento para
reducir o minimizar el aglutinamiento de las firmas de las tramas de
vídeo reduciendo la correlación entre las bits de cada trama, lo
que resulta en una distribución más uniforme de firmas. El
procesamiento de transformación vectorial realizado por las tarjetas
de canal 402 se describirá ahora con más detalle.
En una realización ventajosa de la invención, se
emplea la transformación Hotelling para realizar una transformación
vectorial del vector diferencia 150 de la Fig. 4 que se denomina x
en este documento en adelante y que incluye dieciséis elementos
ordenados (x_{1}, x_{2}, ... x_{16}) que resulta en una
reducción de la covarianza entre los elementos x_{1}, x_{2},
... x_{16} de x. La transformada Hotelling puede expresarse como
sigue:
y = A(x
-
m)
en donde x representa el vector
diferencia 150, m es un vector que representa los valores medios de
los elementos de x, A representa una matriz de transformación e y
es un vector que representa el vector transformado de x. Una vez
que se ha producido el vector transformado y, se obtiene del mismo
la firma de trama convirtiendo el signo de cada elemento del vector
y en el respectivo valor de bit de la firma de trama. Esto es, a los
elementos positivos del vector y se asigna un valor binario uno,
mientras que a los elementos negativos se asigna el otro valor
binario.
Cada elemento en el vector transformado y puede
expresarse como sigue:
y (i) =
S[A(i, j)*(x(j) - m(j))],
\hskip0.5cmj = 0 a 15
La covarianza de y puede expresarse como
sigue:
[C_{y}] =
yy'
- \quad
- = [A(x - m)] [A(x - m)]'
- \quad
- = A(x - m) (x - m)'A'
- \quad
- = A(C_{x})A'
en donde (') representa el
transpuesto del vector respectivo. Si las filas de la matriz A se
seleccionan como vectores característicos de la matriz C_{x} (la
covarianza de x) la matriz C_{y} es diagonal. Como resultado de
tal selección, los bits de la firma de trama formada de nuevo (Fig.
10), que se deriva de y, no están correlacionados. No obstante,
aunque los bits contenidos dentro de la firma de trama no están
correlacionados, pueden no ser estadísticamente independientes. No
obstante, su interdependencia entre sí se
reduce.
En una realización preferida de la presente
invención, se asume que la matriz de transformación A es constante.
Esta suposición implica que la señal de vídeo de entrada es un
proceso estacionario en el sentido amplio de modo que los valores
para C_{x} y m son constantes.
Para determinar el valor de la matriz de
transformación A, se utilizan los valores para los vectores m y
[C_{x}]. Estos valores pueden obtenerse como sigue:
(4)m = (1/N)
S(x),
\hskip0.5cmj = 1 a N
y
j =
N
(5)[C_{x}] =
[1/N)S(xx')] -
mm'
j =
1
en donde N representa el número de
muestras de x que se emplean para determinar los valores de m y de
[C_{x}]. Una vez determinado el valor de [C_{x}], puede
obtenerse la matriz de transformación A determinando los vectores
característicos de
[C_{x}].
Para minimizar la susceptibilidad a la
oscilación rápida de las tramas, se calcula la firma de trama un
número predeterminado de veces y se comparan las firmas obtenidas
por las diferencias entre ellas. Esto es, en una realización
preferida, la firma de trama se determina como si hubiesen ocurrido
los desplazamientos horizontales en la trama de vídeo asociada de
-1, 0 y +1puntos de imagen. Si un bit o bits en estas tres palabras
de firma varían entre sí, entonces el bit o bits de la máscara
correspondiente se ponen a uno. Además, si el valor de la
diferencia transformada está relativamente próximo a cero, el bit de
máscara correspondiente al mismo se pone a uno.
Si se aplica el proceso de transformación
Hoteling a la señal de vídeo como se ha descrito anteriormente,
puede que las firmas de aglutinación relativamente grandes no se
disgreguen tan finamente como se desea. Esto es, como la covarianza
usada en este proceso se basa en los datos de vídeo de todas las
tramas de vídeo de entrada, mientras que las tramas que tienen
firmas de aglutinación cuentan para sólo un porcentaje relativamente
pequeño de todas las tramas, la contribución efectiva a la
covarianza de las tramas que tienen firmas de aglomeración puede
ser pequeña. Una aproximación a una disgregación mas efectiva de
estas concentraciones relativamente grandes de firmas de trama es
utilizar transformaciones separadas para los grupos de tramas que
tienen valores de firmas similares y que ocurren con una frecuencia
mayor que la frecuencia media que se denominan en lo sucesivo en
este documento como "aglutinaciones". Tal transformación
también disgregará eficazmente las aglutinaciones asociadas con
firmas que tienen valores que son de bits opuestos a las asociadas
con la aglutinación original.
El uso de un proceso de transformación único
incrementa la uniformidad de la distribución de firmas de trama y,
como resultado, el número de tramas de vídeo asociadas con los
valores de firmas de tramas respectivas están más próximos al
número medio de firmas de trama obtenidas utilizando el proceso de
transformación y tienen una tasa de coincidencia aceptable más alta
asociada con las mismas en comparación con las firmas obtenidas sin
transformación.
Por el contrario, el uso de transformaciones
diferentes para valores de firmas diferentes o rangos de valores de
firmas puede incrementar la uniformidad la distribución de firmas de
tramas incluso sobre las obtenidas usando una transformación única.
Más específicamente, cuando se usan tales transformaciones
múltiples, las palabras de firmas entrantes se clasifican por tipos
como pertenecientes a una aglutinación o no pertenecientes a una
aglutinación, esto es, una concentración de ocurrencias de firmas de
trama (o mayor frecuencia de ocurrencias) en cierto valor de firma
o rango de valores. Esta clasificación por tipos se realiza
determinando la distancia, por ejemplo, la distancia Hamming, de
una firma de trama entrante desde una plantilla modelo. La distancia
Hamming se refiere al número de bits que son diferentes entre dos
palabras binarias y la plantilla modelo contiene la firma de trama
o firmas que representan el centro de una aglutinación. Si la firma
de trama entrante queda dentro de una distancia Hamming
predeterminada o número de bits de las firmas de tramas de la
plantilla modelo, la firma respectiva se transforma usando una
transformación apropiada de la pluralidad de transformaciones. Una
distancia Hamming de uno o de dos bits respecto a la plantilla
modelo proporciona una distribución de firmas mejorada,
prefiriéndose con una distancia de dos bits.
Cuando una trama recibida produciría una firma
que tiene un valor que queda en la frontera de valores producidos
por las diferentes transformaciones, es importante que la
transformación empleada obtenga una firma que coincida con la de la
misma trama si se recibe posteriormente. Para evitar
susceptibilidades a la influencia del ruido que podría resultar en
la producción de diferentes firmas para la misma trama recibida en
momentos diferentes, en tales casos límite las firmas de trama se
producen usando ambas transformaciones con lo cual los bits de
máscara se ponen a uno en cada palabra de máscara correspondiente
para cualesquiera bits correspondientes en las firmas producidas
por las diferentes transformaciones que difieren entre sí.
Consecuentemente realizando una transformación vectorial del vector
diferencia que representa la información del contenido de una trama,
es posible reducir la correlación entre los elementos del mismo
mejorando la uniformidad de la distribución de firmas de tramas que
por el contrario se concentrarían alrededor de ciertos valores. Una
técnica particularmente ventajosa emplea una transformación
Hotelling para reducir la covarianza entre los elementos del vector,
de modo que se reduce por lo tanto su
correlación.
correlación.
Se implementa un módulo de enmascaramiento
anti-oscilaciones rápidas por cada tarjeta de canal
402 y se adapta para producir firmas de trama de vídeo menos
sensibles a los desplazamientos horizontales y verticales en el
cuadro de vídeo que puede variar de difusión a difusión. Tales
desplazamientos horizontales y verticales pueden deberse a
inestabilidades de temporizaciones hardware o la inestabilidad en la
señal de vídeo transmitida.
Más específicamente, el módulo de
enmascaramiento anti-oscilaciones rápidas compensa
desplazamientos de periodos cortos tanto horizontales como
verticales conocidos como oscilaciones rápidas y/o desplazamientos
sistemáticos que pueden estar causados por el hardware de
transmisión o por el hardware de recepción. Como se aprecia, los
desplazamientos sistemáticos pueden compensarse también por el
módulo de detección de borde, como se ha descrito previamente.
Como se ha descrito previamente, se generan para
cada trama de vídeo tanto una palabra de firma de 16 bits como la
correspondiente palabra de máscara de 16 bits. Cada bit en la
palabra de máscara corresponde a un bit en la palabra de firma.
Poniendo a uno un bit en la palabra de máscara, las porciones del
sistema 10 (Fig. 1) que utilizan la firma de trama de vídeo están
advertidas eficazmente de que el bit correspondiente en la firma de
la trama de vídeo no debe considerarse fiable. Por ejemplo, esta
advertencia se usa al seleccionar la palabra clave y palabras de
coincidencia para una firma de clave y fijando el umbral de error
para encontrar una coincidencia usando una firma de clave
determinada. Además, como se espera que los errores que ocurran en
los bits en una palabra de firma de trama que corresponden a los
bits puestos a uno en la palabra de máscara, esta advertencia
también se utiliza en el correlacionador 420 del subsistema de
reconocimiento de segmentos 26 para determinar las cuentas de
errores n en el proceso de coincidencia.
El módulo de enmascaramiento
anti-oscilación rápida produce sumas respectivas de
los valores de luminancia de los puntos de imagen de cada área de
superpunto de imagen y un número predeterminado de áreas de
superpuntos de imagen adyacentes (por ejemplo cuatro). En una
realización ventajosa, las áreas de superpuntos de imagen
adyacentes incluyen un área que está desplazada hacia arriba y hacia
izquierda del área del superpunto de imagen respectivo, un área que
está desplazada hacia arriba y hacia la derecha del área del
superpunto de imagen respectivo, un área que está desplazada hacia
abajo y hacia la izquierda del área del superpunto de imagen
respectivo, y un área que está desplazada hacia abajo y hacia la
derecha del área del superpunto de imagen respectivo. Desde cada
uno de estas cinco áreas de superpunto de imagen, esto es, el área
de superpunto de imagen respectivo y las cuatro áreas de
superpuntos de imagen desplazados, se producen las sumas de los
valores de luminancia de los puntos de imagen contenidos dentro de
las áreas. Se obtienen valores similares para las otras 31 áreas de
superpuntos de imagen contenidas dentro de cada trama de vídeo para
producir cuatro conjuntos de treinta y dos valores cada uno para el
correspondiente grupo desplazado de áreas de superpuntos de imagen.
Posteriormente, se generan cinco firmas de trama de vídeo, esto es,
una utilizando los 32 superpuntos de imagen no desplazados y cuatro
utilizando cada uno de los cuatro conjuntos de las 32 superpuntos de
imagen desplazados. La Fig. 6 ilustra este proceso de ejemplo
realizado para un superpunto de imagen. En la Fig. 6, el superpunto
de imagen principal 120, que tiene un tamaño de cuatro puntos de
imagen de anchura por cuatro puntos de imagen de altura, se
desplaza en el modo descrito anteriormente en dos puntos de imagen
en dirección vertical y dos puntos de imagen en dirección
horizontal. Esto es, el área del superpunto de imagen 122 está
localizada desplazando un área de muestreo dos puntos de imagen
hacia arriba y dos puntos de imagen hacia la izquierda desde el
superpunto de imagen principal 120. Similarmente, las áreas de
superpuntos de imagen 124, 126 y 128 se obtienen también
desplazando el área de muestreo en dos puntos de imagen hacia abajo
y hacia la izquierda, en dos puntos de imagen hacia abajo y hacia
la derecha y en dos puntos de imagen hacia arriba y hacia
la derecha.
la derecha.
Si cualquier bit en las firmas de trama de vídeo
correspondientes a las cuatro áreas de superpuntos de imagen
desplazadas difiere de la firma de trama de vídeo obtenida del área
de superpunto de imagen no desplazado (principal), entonces ese bit
se considera que es sensible a la oscilación rápida con lo cual el
bit de máscara que corresponde que corresponde a ese bit se pone a
uno. Se aprecia que, examinando de este modo cada uno de estas
áreas de superpuntos respectivas, el módulo de enmascaramiento
anti-oscilación rápida determina si el valor de un
bit particular contenido dentro de la palabra de firma de la trama
de vídeo cambiaría si hubiese un desplazamiento en el cuadro de
vídeo que correspondiese al desplazamiento usado para obtener el
superpunto de imagen desplazado.
La cantidad en la que se desplaza el superpunto
de imagen 120 de la Fig. 6 en las direcciones vertical y horizontal
puede variarse. Para algunas extensiones, cuanto más grande es el
desplazamiento en las direcciones vertical y horizontal del
superpunto de imagen 120, mayor es el desplazamiento en las
direcciones vertical y horizontal de la señal de vídeo que puede
compensarse por el módulo anti-oscilación rápida. No
obstante, un desplazamiento relativamente grande de un área de
superpunto principal 120 en las direcciones vertical y/o vertical
puede resultar en un número de bits relativamente grande a poner a
uno en la palabra de bits de máscara. Se aprecia que, si se fija a
uno un número de bits demasiado grande en la palabra de máscara, la
firma de trama correspondiente contiene información casi sin
sentido. Por ejemplo, si el superpunto de imagen principal 120 está
desplazado una cantidad relativamente grande en las direcciones
horizontal y/o vertical, los resultados obtenidos del mismo
indicarían que la mayor parte sino todos los bits son sensibles a la
oscilación rápida. Como se ha descrito previamente, en una
realización de la presente invención cada superpunto de imagen
principal 120 se desplaza dos puntos de imagen en dirección
horizontal y dos puntos de imagen en dirección vertical. En otra
realización ventajosa de la presente invención, cada superpunto de
imagen 120 está desplazado un punto de imagen hacia la derecha y
hacia la izquierda en la dirección horizontal pero sin
desplazamiento vertical.
De este modo, el módulo de enmascaramiento anti-
oscilación rápida pone a uno los bits dentro de la palabra de bits
de máscara para los bits correspondientes contenidos dentro de cada
firma de trama de vídeo que puede ser sensible a la oscilación
rápida o desviaciones. Además, el módulo de enmascaramiento
anti-oscilación rápida, como el módulo de detección
de borde, se incluye en primer lugar en el programa de software del
subsistema de reconocimiento de segmentos 26 y, como tal, requiere
un costo mínimo para implementar en cada uno de los sitios locales
16.
La técnica de enmascaramiento
anti-oscilación rápida se realiza preferiblemente en
combinación con una técnica de enmascaramiento de banda de guarda
en la que el bit de máscara para un bit de firma de trama
determinado se enmascara si el valor absoluto de la diferencia
entre los valores de la luminancia media de las dos áreas de
superpuntos de imagen correspondientes es menor que un valor de
banda de guarda predeterminado. Por ejemplo, si los valores de la
luminancia para una señal de vídeo determinada están digitalizados
dentro de una escala de cero a 256, puede seleccionarse como
ejemplo un valor de banda de guarda 64. Si el bit de máscara de un
elemento del vector correspondiente se pone a uno, el bit de máscara
del bit de la firma respectiva se pone a uno. Esto es, el bit de
máscara de cualquier bit de firma determinado se pone a uno si el
enmascaramiento de banda de guarda o el enmascaramiento
anti-oscilación rápida ponen a uno tal bit de la
máscara.
Con referencia a la Fig. 7A, las firmas de audio
se generan por el conjunto de generación de firmas de audio 250
ilustrado en la misma incorporado en cada una de los tarjetas de
canal 402 (Fig. 3) para cada canal de difusión de los datos de
audio que se van a monitorizar. El conjunto de generación de firmas
de audio 250 generalmente comprende un acondicionador de señal de
audio y circuito de muestreo 202, una conversión A/D y un circuito
de almacenamiento de entrada 204, un módulo de transformación y
extracción de firmas 206 y un circuito de salida 208. Más
específicamente, se suministra al circuito 202 la señal de audio
banda base de un canal de difusión. En una realización preferida,
la señal de audio banda base se filtra en paso bajo por el circuito
202 para satisfacer el criterio de Nyquist y para enfatizar el
contenido de la seña de voz sobre la música y otros sonidos, lo que
simplifica el procesamiento y los requisitos de memoria sin
sacrificar el contenido de información necesario, ya que la
abrumadora mayoría de señales de audio de televisión contiene voz
humana. La señal limitada en banda se suministra desde el circuito
202 al circuito 204 para su conversión en formato digital. El audio
digitalizado se suministra desde el circuito 204 al módulo de
transformación y extracción de firma 206 que utiliza un proceso de
Transformada de Fourier Rápida (FFT) para generar firmas de trama
de audio y las correspondientes palabras de máscaras. La firmas de
audio y las palabras de máscara se suministran al circuito de
salida 208 para su conversión a una forma adecuada para la salida
desde el subsistema de reconocimiento de segmentos 26. En la Fig.
7B se muestra con más detalle el conjunto de generación de firmas de
audio 250 que se describirá a continuación.
Como se muestra en la Fig. 7B, el conjunto de
generación de firma de audio 250 incluye una porción analógica (que
contiene el acondicionador de la señal de audio y el circuito de
muestreo 202) y una porción digital (que contiene los circuitos 204
y 208 y el módulo 206). El circuito 202 comprende un circuito de
control de ganancia automático (AGC) 254, un filtro de conmutación
de condensadores 256 y un circuito de muestreo y retención 258. Más
específicamente, se suministra la señal de audio banda base desde un
canal de difusión al circuito de control de ganancia automático 254
(AGC) para mantener un nivel de potencia de audio relativamente
uniforme. Esto es, como el procesamiento de la Transformada Rápida
de Fourier (FFT) acumula potencia de audio durante el normal
procesamiento, es deseable impedir que la potencia de entrada del
audio se haga relativamente grande para impedir el recorte de la
señal procesada FFT de salida. La señal de salida del circuito AGC
254 se suministra al filtro de conmutación de condensadores 256
que, en una realización preferida, es un filtro paso bajo que tiene
una caída de 3 dB a la frecuencia de aproximadamente 3200 Hz, ya que
el espectro de densidad de potencia para la voz cae rápidamente a
frecuencias por encima de 3 kHz. La señal de salida del filtro de
conmutación de condensadores 256 se suministra para la captura de
la señal de audio (descrita en este documento más adelante) y se
suministra además a través del circuito de muestreo y retención 258
a la conversión A/D y el circuito de almacenamiento de entrada 204.
Se aprecia que en la alternativa, pueden suministrarse las señales
de audio sin filtrar para la captura de la señal de audio.
El circuito 204 comprende un convertidor
analógico-digital 260 y un almacenamiento de primero
en entrar primero en salir (FIFO) 262. La señal de salida del
circuito de muestreo y retención 258 se suministra al convertidor
analógico-digital 260 que recibe una señal de
temporización o señal de muestreo, que se deriva de una señal de
pulso de sincronización horizontal de vídeo, desde el circuito de
temporización 266. En una realización preferida, la señal de
muestreo tiene una frecuencia de aproximadamente 15.260 Hz. Como
resultado, el convertidor 260 muestrea los datos de audio recibidos
con una tasa de muestreo de aproximadamente 15.260 Hz. La salida
del convertidor 260 se suministra al circuito de almacenamiento FIFO
256. La salida del circuito FIFO 262 se suministra al procesador de
señal digital de audio 264 incluido en el módulo de transformación y
extracción de firma 206. El procesador de señal digital 264 sirve
para procesar los datos de audio recibidos para crear firmas de
audio y las firmas de máscaras correspondientes cuyo formato de
datos y temporización corresponde con el de las firmas de trama de
vídeo y las palabras de máscara para simplificación del
procesamiento adicional. Las señales de temporización para el
procesador de señal digital 264 se suministran desde el circuito de
temporización 266. La señal de salida desde el procesador de señal
digital 264, que incluye las firmas de audio y las correspondientes
palabras de máscara, se suministran al circuito de salida 208.
El circuito de salida 208 comprende un circuito
de almacenamiento primero en entrar primero en salir (FIFO) 268, un
microprocesador 270, una RAM de doble puerto 272 y un circuito de
interfaz 274. La señal de salida del procesador de señal digital
264 se suministra a través del almacenamiento primero en entrar
primero en salir (FIFO) 268 al microprocesador 270. Como las tasas
de procesamiento asociadas con el procesador de señal digital 264 y
el microprocesador 270 pueden diferir, el circuito FIFO 268 almacena
los datos del procesador de señal digital para suministrarlos al
microprocesador. El microprocesador 270, que puede ser un Intel
80188, sirve para extraer los datos de la firma de audio y de la
palabra de máscara recibidos del circuito FIFO 268 en intervalos
predeterminados. Estos datos extraídos se suministran después a
través del circuito RAM de doble puerto 272 al circuito de interfaz
274. Como la señal de datos de salida desde la microprocesador 80188
270 tiene un formato de 8 bits mientras que el circuito de interfaz
274 está diseñado para transferir señales de datos que tienen un
formato de 16 bits, el circuito RAM de doble puerto 272 almacena los
datos recibidos de 8 bits para sacar datos de 16 bits de los
mismos.
A continuación se describirá más enteramente el
procesamiento realizado por el procesador de señal digital 264 para
crear las firmas de audio y las firmas de máscara
correspondientes.
El procesamiento realizado por el procesador de
señal digital 264 está sincronizado con los campos de vídeo
correspondientes de modo que se repite una secuencia de
procesamiento completa cada trama de vídeo. Más específicamente, el
procesador de señal 264 transforma 256 palabras de datos de audio
recibidos desde el circuito FIFO 262 en 128 puntos de datos
complejos promediando las palabras adyacentes de las 256 palabras y
fijando las palabras imaginarias a cero. Esto reduce la tasa de
datos a aproximadamente 7.600 muestras digitales por segundo. Se
apreciará que la tasa de datos de entrada para el procesamiento FFT
satisface el requisito de la frecuencia mínima de muestreo de modo
que se evita el solapamiento. Se obtiene un 50% de solapamiento en
la Transformada Rápida de Fourier usando 128 puntos de datos
complejos que se generaron para el campo previo junto con los
nuevos 128 puntos de datos complejos para el campo actual. Este
solapamiento de datos tiene el efecto de permitir una contribución
aceptable de todos los puntos de datos dentro de la ventana
incluyendo los puntos de la frontera.
Con referencia a la Fig. 8, que ilustra en
general la secuencia de etapas del procesamiento realizadas por el
microprocesador 264, los puntos de datos complejos anteriores se
generan por un módulo de entrada 300 y después el módulo de ventana
302 multiplica los puntos de datos complejos por los coeficientes de
ventana, que en una realización preferida efectúa un proceso de
ventanas Hannig o coseno al cuadrado. En tal proceso de ventanas de
coseno al cuadrado, la amplitud de las muestras de señal de audio se
multiplica por un factor que es proporcional al cuadrado del coseno
del ángulo que corresponde con una posición en el tiempo de la
muestra respectiva dentro del intervalo de trama correspondiente.
Tal multiplicación reduce la presencia de picos de señal en ambos
extremos del intervalo de trama e inyecta un grado de periodicidad
dentro de la señal de audio para mejorar los resultados del
procesamiento FFT. Más específicamente, como el procesamiento de la
Transformada Rápida de Fourier está diseñado en primer lugar para su
uso con señales periódicas, si la señal que se está transformando
no es sustancialmente periódica, la señal transformada puede
diseminarse incorrectamente a través de varias bandas de
frecuencias. El procesamiento de los puntos de datos complejos con
coeficientes de ventana, tales como los asociados con una ventana
de coseno al cuadrado, minimiza la tendencia de la señal a tal
diseminación. El proceso de promediado de datos que se ha descrito
previamente y el proceso de solapamiento, junto con el proceso de
ventanas de coseno al cuadrado, proporciona una base de
procesamiento que minimiza las diferencias de temporización trama a
trama en la señal de audio recibida y permite igualar las
contribuciones de frecuencia para cada porción del espectro de audio
de interés.
Los datos multiplicados producidos por el módulo
de ventana 302 se procesan por un módulo FFT 304 que realiza una
transformación racix-2 DIP (decimación en
frecuencia) de los 256 puntos complejos usando la ponderación
adecuada o factores de manipulación, que pueden almacenarse en una
tabla de búsqueda que se descarga al procesador de señal digital
264 desde la computadora de control 30 (Fig. 2) durante un protocolo
de inicio. El módulo de FFT 304 implementa eficazmente 256 filtros
diferentes paso banda. La salida producida por el módulo de FFT,
que representa información tanto de magnitud como de fase de la
señal de audio en cada banda, se suministra al módulo de cuadrado
de magnitudes 306 para obtener un valor de potencia o magnitud al
cuadrado para cada una de las bandas dentro del espectro de
frecuencias. Como resultado, la información de fase del módulo FFT
304, que no es necesaria en el procesamiento posterior, se descarta
efectivamente por el módulo 306 y no se suministra desde el
mismo.
El módulo del cuadrado de las magnitudes 306
produce los valores del cuadrado de la magnitud que representan la
potencia de los puntos espectrales complejos entregados por el
módulo FFT 304. Debido a la simetría, sólo se calcula la primera
mitad del espectro de potencia. El resultado de la operación de
elevar al cuadrado es un número de 30 bits más 2 bits de signo, de
los cuales sólo se almacenan 16 bits. Generalmente, los valores son
pequeños, de modo que se emplea un proceso de escalamiento de
saturación por el cual se salvan los 16 bits superiores después de
desplazar cada una de las palabras de datos hacia la izquierda en
número predeterminado de número de lugares de bit (por ejemplo, 6
lugares). Si el desplazamiento produce un desbordamiento, la palabra
resultante se fija al valor de saturación de FFFF (Hex).
Los valores producidos por el módulo de cuadrado
de magnitudes 306 se procesan por el módulo de selección de banda
308 para seleccionar los valores de bandas de frecuencias para un
número de bandas predeterminado. La selección de banda se realiza
de acuerdo con instrucciones predeterminadas almacenadas en una
tabla de búsqueda que se descarga al procesador de señal digital
264 durante el protocolo de inicio. En una realización preferida,
se seleccionan los valores de bandas de frecuencias de 16 bandas y
se procesan por el módulo de filtro de respuesta de impulso finita
(FIR) 310. El filtro FIR 310 realiza una operación de filtrado de
respuesta de impulso finita de 15 etapas sobre cada uno de los 16
valores de bandas de frecuencias recibidos. Los coeficientes para
el filtro FIR 310, que en una realización preferida son coeficientes
de ventana Hamming seleccionados para realizar una operación de
filtrado paso bajo, se suministran desde la tabla de búsqueda que se
descarga al procesador de seña digital 264 durante el protocolo de
inicio.
Los desplazamientos de la temporización de la
señal de audio con respecto al vídeo de transmisión simultánea se
encuentran comúnmente en la televisión de difusión y, si se ignora
en el proceso de generación de firmas de audio, pueden resultar
firmas de audio que están desfasadas con respecto a las firmas de
vídeo correspondientes. Esto degradará probablemente la capacidad
del sistema 10 para hacer coincidir con precisión los segmentos
entrantes. El módulo FIR 310 sirve para mejorar la estabilidad de la
firma promediando los datos espectrales de audio sobre varias
tramas de televisión, de modo que mejora la probabilidad de obtener
coincidencias de firmas correctas.
Promediando los valores de las bandas de
frecuencias sobre varias tramas, el procesamiento realizado por el
módulo 310 también sirve para maximizar la correlación trama a
trama. Esto tiende a crear grupos de firmas similares que tienen
una duración de varias tramas y se denominan carreras. La presencia
de longitudes de carreras permite la generación de firmas de claves
de audio que son más probablemente coincidentes cuando el mismo
segmento de audio se recibe de nuevo por el sistema 10, promoviendo
de este modo la precisión y eficacia del sistema. Otra ventaja es
que los errores resultantes del ruido, cuantificación y redondeo son
menos críticos ya que estos tienden a promediarse.
Las señales de salida filtradas del filtro FIR
310 se procesan a continuación por el módulo de recorte 311 que
está adaptado para recortar las señales de salida filtradas entre
valores alto y bajo predeterminados. El recorte de las señales
filtradas a un valor alto predeterminado impide los desbordamientos
que de lo contrario podrían ocurrir en el procesamiento posterior,
mientras que el recorte de las señales filtradas a un valor bajo
predeterminado impide una posible división por cero y los valores de
recorte predeterminados se seleccionan consecuentemente. Por
ejemplo, donde los valores de las bandas de frecuencias promediados
a recortar se proporcionan como palabras de 16 bits que varían en
los valores de 0 - FFFF (Hex.), puede emplearse un valor de recorte
bajo de F (Hex.), mientras puede emplearse un valor de recorte alto
de 3FFF (Hex.).
La salida producida por el módulo de recorte 311
se procesa a continuación por el módulo de normalización 313, en el
cual se normalizan de un modo determinado cada uno de los valores
obtenidos por el modulo de recorte. Esta normalización puede
realizarse para varios de los 16 valores de banda recortados
dividiendo el valor respectivo de cada banda por la suma de los
valores en las bandas tanto superior como inferior de la banda de
frecuencias respectiva. En el borde del espectro de frecuencia, no
obstante, se utilizan los valores de las bandas por encima o debajo
de la banda de borde (o de otra manera sólo se emplea un valor único
de banda adyacente). En otras situaciones, no obstante, pueden
utilizarse los valores de las tres bandas al determinar el valor
normalizado para una banda respectiva. Este proceso de normalización
puede representarse como sigue:
(6)Bn normal =
\frac{B_{n}}{B_{ady}}
en donde B_{n} representa el
valor recortado para la banda n respectiva, B_{ady} representa los
valores para las bandas adyacentes. La Tabla I a continuación
ilustra las bandas adyacentes utilizadas al determinar el valor
normalizado de acuerdo con una realización preferida. Utilizando
números variables de bandas para producir B_{ady} para diferentes
bandas de frecuencias en el proceso de normalización, la
distribución estadística de firmas de audio entre las palabras
clave puede hacerse más uniforme. Como resultado, se reduce el
aglutinamiento de las firmas de audio alrededor de ciertas palabras
clave.
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
(Tabla pasa a página
siguiente)
La tabla I resume una selección ventajosa de
bandas de frecuencias para una técnica de generación de firmas
basada en primer lugar en el contenido de voz de la señal de audio
de televisión. Las bandas de 1 a 16 tienen cada una un ancho de
banda de 30 Hz. Se aprecia, no obstante, que puede adoptarse una
diferente selección de bandas y/o anchos de banda. Al producir
B_{ady} para cada banda B_{n}, es preferible emplear valores de
bandas adyacentes ya que esto minimiza cualesquiera distorsiones
debidas a las diferencias en el retardo temporal a diferentes
frecuencias. Esto es, las señales de frecuencias relativamente
próximas están retardadas en un grado similar, aunque las señales
de frecuencias sustancialmente diferentes pueden experimentar
retardos de frecuencias sustancialmente diferentes.
Los valores de bandas normalizadas producidas
por el módulo de normalización 313 se procesan a continuación por
el módulo de generación de firmas 312. Específicamente, para cada
intervalo de trama de vídeo correspondiente, se suministran
dieciséis de tales valores de banda normalizados al módulo de
generación de firmas 312, uno para cada una de las dieciséis bandas
de frecuencias. El módulo de generación de firmas 312 utiliza una
técnica de procesamiento AHORA-ENTONCES para
producir firmas de audio de dieciséis bits de modo que cada bit de
la firma se obtiene en base al valor actual (o valor AHORA) de la
banda de frecuencias correspondiente y el valor obtenido
previamente (valor ENTONCES) de la misma banda de frecuencias
producido de una trama que precede la trama actual en una
desplazamiento de trama predeterminado. Más específicamente, los
valores de bandas de frecuencias normalizados recibidos se escriben
dentro de un almacenamiento circular AHORA-ENTONCES
y los valores de ENTONCES se obtienen utilizando los
desplazamientos de trama predeterminados. Los desplazamientos de
trama pueden variar de una banda a otra. No obstante, de acuerdo con
una realización ventajosa, se utiliza un desplazamiento de trama de
8 para obtener los valores ENTONCES para cada una de las dieciséis
bandas de frecuencias. El módulo de generación de firmas 312
produce un valor DVAL para cada banda de frecuencias de acuerdo con
la siguiente relación:
DVAL = (AHORA -
ENTONCES) / (AHORA +
ENTONCES)
El valor de cada uno de los 16 bits en la firma
de audio para la trama actual y los valores de los bits de la
palabra de máscara correspondiente se determinan de acuerdo con el
valor de DVAL. Esto es, un bit de la firmas se pone a 0 si DVAL
para la banda correspondiente es mayor que cero, de lo contrario se
fija la valor 1. De modo similar, cada bit de la máscara se fija al
valor 0 si el valor absoluto de DVAL para la banda correspondiente
es mayor que un valor de banda de guarda predeterminado GRDVAL. Por
ejemplo si DVAL de tiene un rango de 0 - 7FFF (Hex.), puede
emplearse el valor de la banda de guarda de 600 (Hex.), aunque
valores diferentes de GRDVAL pueden obtener resultados aceptables.
La firma de audio producida y su correspondiente palabra de máscara
para cada intervalo de trama se suministran más tarde desde el
procesador de señal digital de audio 264 como se ha descrito
anteriormente en este documento.
Se aprecia que la técnica anterior para producir
firmas de audio que compara los valores de banda de frecuencias
correspondientes desplazadas en el tiempo para cada una de una
pluralidad de bandas de frecuencias puede proporcionar ventajas
sobre la técnica que está basada sólo en valores de frecuencia o de
tiempo desplazados, ya que la técnica descrita incluye
relativamente más información en una firma determinada y proporciona
un mejor equilibrio de los tipos de información incluidos en la
firma.
El sistema experto es un módulo software que
está almacenado dentro de la computadora de control 30 y que
incluye varios "sub-módulos" o programas
identificados como los sub-módulos de un filtro de
ocurrencias, una detección de nuevos segmentos y un nivel de
captura selectiva. Ahora se describirán con detalle cada uno de
estos sub-módulos contenidos dentro del Sistema
Experto.
Como se ha mencionado previamente, los datos de
ocurrencias de coincidencia se suministran desde cada sitio local
16 al sitio central 12 para su compilación en el informe 13 como se
ilustra en Fig. 1. De este modo, es deseable reducir la cantidad de
datos de falsas coincidencias suministrados desde el sitio local 16
al sitio central 12 para mejorar la precisión global de sistema 10
y minimizar el tiempo empleado por los operarios de la estación de
trabajo en el sitio central 12.
Básicamente, el sub-módulo de
filtro de ocurrencias recibe informes de coincidencia desde el
subsistema de reconocimiento de segmentos 26 y evalúa, si
cualquiera, de estos informes de coincidencia recibidos es un
informe erróneo o de falsa coincidencia. Estos informes de falsa
coincidencia detectada se excluyen a continuación de la base de
datos de la computadora de control 30 para evitar la transmisión de
informes de falsa coincidencia al sitio central 12.
Para evaluar si un informe de coincidencia es
erróneo, el filtro de ocurrencias examina cada informe de
coincidencia recibido desde el subsistema de reconocimiento de
segmentos 26 de acuerdo con una pluralidad de reglas
predeterminadas. A continuación se describirá un conjunto preferido
de estas reglas predeterminadas con referencia al diagrama de flujo
ilustrado en la Fig. 9.
Como se muestra en la etapa S10 de la Fig. 9, se
realiza la determinación de si la coincidencia recibida es
definitivamente aceptable. Se determina que una coincidencia es
definitivamente aceptable si satisface la menos una de las dos
condiciones, que es (1) una coincidencia es definitivamente
aceptable si tanto la firma de audio como la firma de vídeo para el
segmento respectivo han coincidido, o (2) si tanto el comienzo como
el final del segmento respectivo están temporalmente alineados con
"fuertes indicios". Un indicio, como se emplea en el filtro de
ocurrencias, es una característica de la señal recibida distinta que
la coincidencia particular que se evalúa por el filtro de
ocurrencias. Ejemplos de fuertes indicios, como se emplea por el
filtro de ocurrencias, son el desvanecimiento al negro
(especialmente un desvanecimiento al negro de la señal de vídeo),
así como una coincidencia del segmento de señal que precede o sucede
inmediatamente. Si la coincidencia recibida se encuentra
definitivamente aceptable en la etapa S10, esto es, la coincidencia
satisface una de las condiciones descritas previamente, el
resultado de coincidencia se almacena dentro de la base de datos de
la computadora de control 30, como se indica en la etapa S20.
Si por el contrario, la coincidencia no se
encuentra definitivamente aceptable, como se indica por el NO en la
etapa S10, a continuación se realiza una determinación de si la
coincidencia es "definitivamente" inaceptable, como se indica
en la etapa S30. Se determina que una coincidencia es
definitivamente inaceptable si la coincidencia no es
definitivamente aceptable (como se determina en la etapa S10), si no
hay un fuerte indicio sobre cualquier extremo de los segmentos
correspondientes, y si su segmento correspondiente solapa
sustancialmente con otro segmento que tiene una coincidencia que se
ha encontrado definitivamente aceptable. Si se determina que la
coincidencia ha sido definitivamente inaceptable, entonces se
rechaza la coincidencia como se indica en la etapa S40 y, como
resultado, la información concerniente a la coincidencia no se
almacena dentro de la base de datos de la computadora de control
30.
No obstante, si la coincidencia no es
definitivamente inaceptable, como se indica por el NO en la etapa
S30, se realiza una determinación en la etapa S50 de si el segmento
respectivo tiene un fuerte indicio sobre un extremo. Si se
determina que el segmento respectivo tiene un fuerte indicio sobre
un extremo del mismo, entonces la coincidencia recibida está sujeta
a la confirmación de emparejamiento como se indica en la etapa S60,
que se describe con mayor detalle más adelante. En esta situación,
se utiliza una tolerancia menos rigurosa durante la confirmación de
coincidencia comparado con la empleada en la etapa S90, como se
describe en este documento más adelante. Esto es el proceso de
confirmación de coincidencia de la etapa S60 encontrará una
coincidencia entre firmas que tienen errores de coincidencia
relativamente más altos que en el caso de la etapa S90 de modo que
una coincidencia se acepta con más probabilidad en la etapa S60. El
resultado del proceso de confirmación de emparejamiento determinará
si la coincidencia se rechaza o se acepta.
Si, por el contrario, el segmento respectivo no
tiene un fuerte indicio sobre un extremo como se indica por el NO
en la etapa S50, entonces se realiza una determinación, en la etapa
S70, si el segmento respectivo se ajusta a un perfil de segmentos
de típicamente falsa coincidencia. Si el segmento respectivo se
ajusta a tal perfil de segmentos que coincide falsamente, entonces,
como se indica en la etapa S80, se rechaza la coincidencia y la
información concerniente a la coincidencia no se almacena dentro de
la base de datos de la computadora de control 30.
Para determinar si un segmento respectivo se
ajusta a un perfil de segmentos que coincide falsamente, se
determina una calificación de falsa coincidencia R para el segmento
respectivo. Tal calificación de falsa coincidencia se determina
combinando numéricamente calificaciones numéricas asociadas con las
respectivas de una pluralidad de características de modo lineal.
Estas características preferiblemente incluyen lo siguiente:
- 1.
- la longitud L del segmento respectivo: segmentos que tienen una longitud relativamente corta son probablemente de falsa coincidencia;
- 2.
- la entropía de la firma de clave E: la entropía de una firma de clave es una medida de la desigualdad entre las palabras de coincidencia dentro de la firma de clave y esta inversamente relacionada con la correlación entre las mismas. La entropía de la firma de clave se determina por el generador de firmas de clave, que se describe en este documento más adelante y se suministra más tarde desde el subsistema de reconocimiento de segmentos 26 junto con el correspondiente informe de coincidencia. Las firmas de clave que tiene una entropía relativamente baja son más probablemente falsas coincidencias que las que tienen una entropía relativamente alta;
- 3.
- El umbral de error del correlacionador T: los segmentos que tienen un umbral de error relativamente alto son probablemente de falsa coincidencia;
- 4.
- la distancia D desde la pérdida de coincidencia: las coincidencias con cuentas de errores del correlacionador real que están próximas al umbral de error del correlacionador son probablemente falsas coincidencias; y
- 5.
- si la coincidencia que se está evaluando (M) estaba basada en una señal de audio o de vídeo: una coincidencia basada en la señal de vídeo es más probablemente una falsa coincidencia que una basada en el audio sobre una señal de audio.
De acuerdo con una realización de un método para
producir una calificación de falsa coincidencia, se asignan valores
numéricos entre cero y uno a las características L, E, T y D (la
característica M no se utiliza en este ejemplo) y se forma una
combinación lineal de los valores asignados para producir la
calificación de falsa coincidencia R, como sigue:
R = w_{1}L +
w_{2}E + w_{3}T +
w_{4}D
en la que w_{1} hasta w_{4} son
ponderaciones numéricas respectivas asignadas a cada una de las
características para determinar su importancia relativa en la
determinación de la calificación de falsa coincidencia R, y los
valores de las características L, E, T y D se han convertido a una
escala normalizada de cero a uno. En el caso de un sistema de
reconocimiento de anuncios de televisión, en el que mayores valores
de R representan una probabilidad relativamente más baja de falsa
coincidencia, pueden asignarse los valores de ejemplo a la
característica L como se ilustra en la Tabla II
siguiente.
\vskip1.000000\baselineskip
\newpage
En este ejemplo, la entropía E se mide sobre una
escala de cero a 256, en la que 256 representa la máxima entropía.
Los valores normalizados de ejemplo para E se ilustran en al Tabla
III siguiente
\vskip1.000000\baselineskip
Consecuentemente, cuanto mayor es el valor de la
entropía, mayor es el valor asignado a E, reflejando la reducida
probabilidad de una falsa coincidencia para valores de entropía mas
altos.
Además, en este ejemplo, la característica T que
representa el umbral de error varía en un rango desde 20 a 60 y se
asignan los valores de cero a uno de acuerdo con la Tabla IV
siguiente.
\vskip1.000000\baselineskip
Como se refleja por la Tabla IV, a valores más
altos del umbral de error se asignan valores relativamente más
bajos del valor de T, reflejando la probabilidad relativamente más
baja de una falsa coincidencia para umbrales de error más altos.
Los valores de ejemplo para la característica D
que representa la diferencia entre la cuente de errores del
correlacionador real y el umbral de errores son valores asignados de
acuerdo con la Tabla V siguiente.
Esto es, cuanto mayor es la diferencia entre la
cuenta de errores del correlacionador real y el umbral de errores,
más pequeña es la probabilidad de una falsa coincidencia
Finalmente, en este ejemplo, a las ponderaciones
w_{1}, hasta w_{4} se asignan los valores listados en la tabla
VI siguiente
Se verá que la suma de las ponderaciones se
selecciona como 1,00. Por lo tanto, como los valores de L, E, T, y
D se han normalizado cada uno de modo que cada uno cae dentro de un
rango entre cero y uno, la calificación de falsa coincidencia R
variará asimismo desde un valor bajo de cero (que representa una
probabilidad alta de una falsa coincidencia) a un valor alto de uno
(que representa una baja probabilidad de falsa coincidencia).
En la etapa S70, si el segmento respectivo no se
ajusta el perfil de segmentos que coincide falsamente, como se
indica por el NO en al etapa S70, entonces la correspondiente
coincidencia esta sujeta a la confirmación de coincidencia como
está indicado en la etapa S90. Las tolerancias utilizadas para la
confirmación de coincidencia en la etapa S90 son más estrechas que
las utilizadas en la etapa S60, como se ha observado previamente.
Además, como en la etapa S60, los resultados del proceso de
confirmación emparejamiento en la etapa S90 determinarán si la
respectiva coincidencia es aceptable y, de este modo, se almacena
dentro de la base de datos de la computadora de control 30, o si es
rechazable.
Otra función del filtro de ocurrencias es
determinar si la coincidencia recibida se usa como un indicio para
localizar nuevos segmentos o alinear otras coincidencias.
Básicamente, el proceso usado para decidir si una coincidencia se
usa como un indicio es sustancialmente la misma que se ha descrito
anteriormente al determinar si es aceptable una coincidencia. No
obstante, hay dos excepciones. Esto es, (1) una coincidencia que
parece ser inaceptable y no está cerca de cualesquiera fuertes
indicios puede usarse como un indicio, en el caso de que las
siguientes coincidencias puedan estar alineadas con ella o de otro
modo encontrar un nuevo segmento basado sobre la siguiente
coincidencia y, (2) segmentos que tienen un fuerte indicio sobre un
extremo pero tienen una calificación alta de falsa coincidencia,
como se ha descrito anteriormente, no se usan como indicios. No
obstante, en el caso de excepción (2), si la confirmación de
coincidencia
indica más tarde una coincidencia aceptable, entonces la coincidencia puede informarse a la base de datos.
indica más tarde una coincidencia aceptable, entonces la coincidencia puede informarse a la base de datos.
La memoria de almacenamiento contenida dentro
del subsistema de captura 28, retiene sólo una cantidad limitada
predeterminada de datos. Consecuentemente, el filtro de ocurrencias
preferiblemente funciona o reacciona en un modo puntual de modo que
posibilita los datos de audio y vídeo a recoger por un segmento que
requiere tal recogida, por ejemplo, un nuevo segmento que tiene un
nivel de captura 1 como se describe en este documento mas
adelante.
En algunos casos, por ejemplo, cuando se
requiere una confirmación de coincidencia (que es relativamente
consumidora de tiempo), la información necesaria para decidir si
una coincidencia es aceptable o inaceptable no está a menudo
disponible dentro de la restricción de tiempo impuesta por el filtro
de ocurrencias. Esto es, toda la información necesaria para
determinar si aceptar o no una coincidencia puede que no esté
disponible en el instante que se suministra el informe de
coincidencia a la computadora de control 30. Para aliviar este
problema, el filtro de ocurrencias hace una decisión preliminar de
si la coincidencia correspondiente al segmento respectivo se
aceptará en el instante en el que se reporta la coincidencia. Si se
determina una coincidencia preliminarmente como aceptable (o
finalmente se determina como aceptable), se reporta a la base de
datos, mientras que si la coincidencia es inaceptable, se niega de
la base de datos. Los resultados de las decisiones preliminares se
revisan después de un periodo de tiempo predeterminado, por ejemplo,
aproximadamente varios minutos. Durante este periodo de tiempo
predeterminado, se completa el procesamiento de confirmación de
coincidencia. En base a los resultados de la confirmación de
coincidencia, si una coincidencia que no se suministró previamente
a la base de datos de la computadora de control 30 se encuentra
ahora aceptable, se suministrará a la base de datos como
coincidencia aceptable. Por el contrario, si una coincidencia que
previamente se encontró aceptable y, como tal, se reportó a la base
de datos se determina ahora como inaceptable, se produce una señal
de rescisión de coincidencia para borrar la correspondiente
coincidencia. En general, las coincidencias que se determinan
inicialmente para que sean definitivamente aceptables o inaceptables
no se revisan un tiempo predeterminado más tarde ya que su
determinación no está en duda. No obstante, cuando se encuentra una
coincidencia de una firma de audio o vídeo que es definitivamente
inaceptable antes de que se encuentre una coincidencia para la otra
firma correspondiente de vídeo o audio, la coincidencia de la
primera firma se aceptará no obstante ya que tanto la firma del
vídeo correspondiente como la firma de audio han coincidido.
De este modo, con referencia de nuevo a la Fig.
3, el filtro de ocurrencias del sistema experto 414 recibe informes
de coincidencia desde el subsistema de reconocimiento de segmentos
26 y determina si tales informes son informes de falsas
coincidencias. En ciertas situaciones, como la tratada
anteriormente, puede solicitarse una confirmación de coincidencia,
con lo cual el módulo de confirmación de emparejamientos 422,
determina si la coincidencia es o no aceptable utilizando el
subsistema de reconocimiento de segmentos 26 así como las firmas de
clave de la base de datos 412. Los resultados de la confirmación de
emparejamiento se suministran, dentro de un periodo de tiempo
predeterminado, al filtro de ocurrencias. El filtro de ocurrencias
suministra coincidencias que se determinan como aceptables a la
base de datos 412. Si el filtro de ocurrencias ha suministrado
previamente una coincidencia a la base de datos que más tarde se
encuentra inaceptable, el filtro de ocurrencias suministra una
señal de rescisión de coincidencia al control de la base de datos
416 para borrar la coincidencia respectiva de la misma.
El módulo de confirmación de coincidencia se
localiza dentro de la computadora de control 30 (Fig. 2) y se
utiliza para evaluar coincidencias de aceptabilidad cuestionable a
petición del filtro de ocurrencias bajo las condiciones descritas
anteriormente. Como ejemplo, en ciertas situaciones, las
sub-firmas de audio y vídeo pero no ambas, pueden
coincidir. En este ejemplo, el filtro de ocurrencias puede solicitar
una confirmación de emparejamiento para decidir si la
sub-firma que no coincidió inicialmente en el
controlador de reconocimiento se estimaría no obstante como
coincidencia a una firma de clave determinada cuando se comparan las
mismas bajo normativas que son más tolerantes de errores de
coincidencias.
El módulo de confirmación de emparejamientos
realiza un proceso de emparejamiento que es similar al utilizado
por el correlacionador 420 (Fig. 3) en el subsistema de
reconocimiento de segmentos 26. No obstante, a diferencia del
correlacionador que está intentando emparejar palabras clave frente
a un flujo continuo de firmas de vídeo y audio, el módulo de
confirmación de emparejamientos está intentando coincidir sólo una
longitud corta de un segmento de difusión frente a una firma de
clave. Como resultado, es menos probable que ocurran falsas
coincidencias con la confirmación de emparejamiento que con el
proceso de emparejamiento realizado por el correlacionador.
Consecuentemente, las tolerancias de error para el proceso de
confirmación de emparejamiento pueden ser considerablemente
reducidas o relajadas comparadas con las empleadas en el proceso de
emparejamiento del correlacionador, sin que resulte una tasa de
falsas coincidencias inaceptable. Esta relajación de las
tolerancias de error posibilita al módulo de confirmación de
emparejamiento determinar si una firma o una
sub-firma habrán coincidido incluso aunque el
correlacionador fuese incapaz de determinarlo.
Refiriéndonos de nuevo a la Fig. 3, puede
suministrarse una petición de confirmación de coincidencia desde el
módulo del filtro de ocurrencias del sistema experto 414 al módulo
de confirmación de emparejamiento 422. Tal petición puede incluir
el número de identificación del segmento, tiempos de comienzo y fin
del segmento, el canal de difusión y la tolerancia de la
confirmación de coincidencia deseada. Una vez recibida tal señal de
solicitud de coincidencia, el módulo de confirmación de
emparejamientos solicita los datos de la firma del segmento para
los tiempos solicitados del subsistema de reconocimiento de
segmentos 26 y la firma de clave relevante desde la base de datos
412. Después de la recepción de la información solicitada, el módulo
de confirmación de emparejamientos 422 compara a continuación la
firma de clave única con la porción solicitada o segmento de la
señal de difusión de acuerdo con la tolerancia de la confirmación de
coincidencia deseada y, una vez completada la comparación,
suministra el resultado (es decir coincidencia o no coincidencia) al
módulo de filtro de ocurrencias.
El módulo de confirmación de emparejamientos
realiza la comparación moviendo eficazmente la firma de clave a lo
largo de la firma de segmento como se muestra en la Fig. 10.
Esencialmente, la firma de clave está alineada con la firma de
segmento en una posición inicial dentro de la zona de coincidencia
esperada y se intenta una coincidencia de acuerdo con el proceso de
confirmación de coincidencias descrito más adelante. Cada una de
las múltiples confirmaciones de coincidencia se intenta también
alineando la firma de clave a los desplazamientos de posiciones
correspondientes desde la posición original, respectivamente, en
\pm 1, 2, 3, ..., N tramas. Esto es, en la Fig. 10, N representa
el número de tramas que se comprueban a cada lado de la posición
dentro de la zona esperada de coincidencia, m(0) representa
la palabra clave respectiva (que se trata en la confirmación de
emparejamiento simplemente como otra palabra de coincidencia), y
m(x) representa la palabra de coincidencia de orden x siendo
1 \leq x \leq 8. Generalmente, el módulo de confirmación de
emparejamiento computa una cuenta de errores total mínima entre
todos los 2N + 1 intentos de coincidencia que compara con la suma de
los umbrales de error asignados permanentemente a la firma de clave
y una tolerancia de la confirmación de coincidencia para realizar la
decisión de si existe una coincidencia.
Más específicamente, mientras que el algoritmo
utilizado por el módulo de confirmación de coincidencia corresponde
con el utilizado por el correlacionador 420 en la mayor parte de las
consideraciones, existen ciertas diferencias. Estas diferencias se
describirán ahora con referencia a la Fig. 10.
Por cada confirmación de coincidencia intentada,
se produce una cuenta de errores parcial respectiva p para cada
palabra de coincidencia de la firma de clave, comparando la palabra
de coincidencia con la firma de trama correspondiente de la firma
de segmento. A continuación se determina una cuenta de errores total
sumando el número R (que en el ejemplo tiene un valor de 8) de la
cuentas de error parcial más baja para cada una de las
coincidencias intentadas. En la realización preferida, como la
palabra clave se considera simplemente como otra palabra de
coincidencia, la firma de clave respectiva contiene nueve palabras
de coincidencia. De este modo, al calcular la cuenta de errores
total por cada coincidencia intentada, la cuenta de errores parcial
que tiene la cuenta de error más alta (o peor) no se utiliza. La
cuenta de errores total para cada coincidencia intentada se calcula
para las N tramas tanto antes como después de la posición original
como se muestra en al Fig. 7. El valor de N se seleccionara
cuidadosamente, ya que si N es demasiado alto pueden resultar falsos
emparejamientos y, por el contrario si un valor de N que es
demasiado pequeño puede que no detecte coincidencias aceptables. En
la realización preferida, N tiene un valor de 60. Se selecciona como
cuenta de errores final la cuenta de errores total que tiene el
valor más bajo. La cuenta de errores final se ajusta a continuación
para considerar cualquiera de las cuentas de errores parciales
desechadas. En una realización ventajosa, este ajuste se realiza
usando la siguiente relación:
El módulo de confirmación de emparejamientos
incrementa la cuenta de errores o el umbral de error asociado con
la firma de clave por la cuenta de errores especificada por la
tolerancia de la confirmación de coincidencias para obtener un
valor del umbral de errores. A continuación el módulo de
confirmación de coincidencias compara la cuenta de errores ajustada
final con el valor umbral de errores. Si la cuenta de errores
ajustada final es menor o igual que el valor del umbral de errores,
se encuentra que existe una coincidencia, con lo cual se dirige una
señal indicándolo desde el módulo de confirmación de emparejamientos
al módulo de filtro de ocurrencias. Si, por el contrario, la cuenta
de error ajustada total es mayor que el valor umbral de error,
entonces no se encuentra que exista una coincidencia, con lo cual se
suministra una señal indicándolo al módulo de filtro de
ocurrencias.
La decisión de si se ha recibido un nuevo
segmento de interés (por ejemplo, un anuncio) se usa para determinar
la información proporcionada a los operarios de la estación de
trabajo para la identificación de tales nuevos segmentos.
Refiriéndonos de nuevo a la Fig. 1, si el sitio local 16 identifica
segmentos como nuevos segmento completos de interés, cuando de
hecho no lo son (en cuyo caso no se denominan como "paja"), el
tiempo del operario de la estación de trabajo se malgasta
intentando identificar estos segmentos. Si el sitio local 16 no
describe correctamente el segmento, de modo que, por ejemplo, sólo
se proporciona al operario una porción de la información del audio
y del vídeo para el nuevo segmento de interés, el tiempo del
operario puede también malgastarse y la precisión del sistema se
reduce.
La detección de nuevos segmentos se realiza por
el sistema experto y se basa en primer lugar en varios indicios
explícitos e implícitos. Los indicios explícitos se reciben
normalmente desde el subsistema de reconocimiento de segmentos 26 y
puede incluir, por ejemplo, un desvanecimiento al negro del vídeo,
informes de sub-coincidencia, silenciamiento del
sonido y cambios de escena. Por el contrario, un ejemplo de un
indicio implícito es la duración del segmento. Ahora se describirá
con más detalle cada una de estos indicios seguido de una discusión
del funcionamiento del módulo de detección de nuevos segmentos.
Típicamente, los anuncios se difunden con al
menos un campo de vídeo que tiene sustancialmente un nivel de negro
en cada extremo. Como los anuncios pueden tener sólo un campo de
negro sobre cada extremo del anuncio, se informa de un
desvanecimiento al negro sobre cualquier campo de la señal de vídeo
por la tarjeta de canal respectiva al módulo de detección de nuevos
segmentos a través del controlador de reconocimiento de segmentos.
De este modo, una frontera de un anuncio puede indicarse por un
desvanecimiento al negro, en el cual la frontera está normalmente
en el comienzo y en el final de tal desvanecimiento al negro. No
obstante, en algunos casos, la frontera de los anuncios real puede
localizarse en la mitad del desvanecimiento a negro. Esto puede
ocurrir si se detectan como negras escenas casi negras o si durante
un desvanecimiento al negro real, la señal de vídeo comienza a
desvanecerse para el anuncio próximo antes de permitir que se
complete el desvanecimiento al negro. Aunque tales desvanecimientos
al negro ocurren ocasionalmente lo cual no corresponde con las
fronteras de anuncios y que pueden detectarse por el módulo de
detección de nuevos segmentos, el número de tales desvanecimientos
a negro espurios es relativamente bajo comparado con el número de
tales silenciamientos de audio o cambios de escenas, que se
describen en este documento más adelante.
Una coincidencia que se ha aceptado por el
filtro de ocurrencias del sistema experto se utiliza como indicio.
Como previamente se ha mencionado, aunque el subsistema de
reconocimiento de segmentos 26 puede producir informes de falsas
coincidencias, el filtro de ocurrencias sirve para identificar y
eliminar un número sustancial de informes de falsas coincidencias.
Como resultado, una coincidencia que se determina como aceptable por
el filtro de ocurrencias es un indicio fiable. Tal coincidencia se
considera también un indicio relativamente muy fuerte bien solo o
especialmente en combinación con un desvanecimiento a negro sobre
cualquiera o ambos extremos del segmento bajo consideración. Por
ejemplo, como los anuncios se difunden típicamente en grupos, o
cápsulas, de modo que el final de un anuncio corresponde con el
comienzo del anuncio posterior, la determinación de una
coincidencia aceptable es una fuerte indicación de que sigue un
anuncio. Una coincidencia que se determina como aceptable es
también un importante indicio para informar al sistema experto de
donde no encontrar un nuevo segmento de interés. Como ejemplo, el
módulo de detección de nuevos segmentos no busca nuevos segmentos
en segmentos que han tenido ya una coincidencia aceptable. Esto es,
a diferencia de un segmento nuevo, un segmento que ya ha tenido una
coincidencia aceptable asociada con el mismo por el sistema experto,
no necesita dirigirse a una de las estaciones de trabajo 14 para su
clasificación por un operario como se ha descrito previamente (ya
que tal clasificación se ha realizado ya obviamente por una la
coincidencia que se ha detectado).
Aunque el final de una coincidencia aceptable
normalmente representa o el comienzo de un segmento posterior o el
comienzo de un desvanecimiento al negro representando la frontera
verdadera, el indicio de coincidencia puede que no se conozca
precisamente a tiempo. Como las coincidencias pueden ocurrir sobre
varias tramas consecutivas, cada trama (de audio o vídeo) tiene un
ancho de pico asociado con la misma que es proporcional a la
incertidumbre en el tiempo para la coincidencia respectiva. Para
compensar tal incertidumbre, el módulo de detección de nuevos
segmentos intenta alinear la coincidencia respectiva usando otros
indicios fuertes, tales como otra coincidencia aceptable o un
desvanecimiento a negro, en cualquier momento que sea posible.
Las coincidencias basadas en números de
identificación temporales (ID) pueden representar segmentos que
pueden diferir de los segmentos representados por coincidencias que
están basadas en ID permanentes. Esto es, las coincidencias basadas
en ID temporales (que no se han clasificado por un operario de una
estación de trabajo) pueden representar sólo una porción de un
segmento, mientras que las coincidencias basadas sobre ID
permanentes se ha visto y juzgado correctamente por un operario en
una de las estaciones de trabajo 14. El módulo de detección de
nuevos segmentos del sistema experto preferiblemente diferencia
entre coincidencias obtenidas con firmas que tienen diferente tipos
de ID para aplicar pesos más elevados a las coincidencias obtenidas
con firmas de ID permanentes.
Un silenciamiento de audio que representa una
reducción sustancial de la señal de audio a un nivel que representa
el silencio, ocurre típicamente en las fronteras de los anuncios. No
obstante, como los silenciamientos de audio son muy comunes a
través de los segmentos comerciales así como en los segmentos no
comerciales tales como en la programación normal, un gran número de
silenciamientos de audio no indican una frontera de anuncio.
Consecuentemente, fiarse de los silenciamientos del audio para
detectar ambos extremos de un segmento puede conducir a la
selección de cantidades significantes de programación normal como
segmentos de interés, o de otro modo dividir incorrectamente un
anuncio en dos segmentos parciales, ninguno de los cuales coincidirá
correctamente en el futuro ya que su longitud se registra
incorrectamente. De este modo, un silenciamiento del audio se
considera un indicio relativamente más débil que el descrito
previamente desvanecimiento al negro o un indicio de coincidencia
aceptable. Como resultado, se necesita restringir los
silenciamientos de audio como indicios, o de otro modo se generarán
excesivas pajas. Además, cuando un silenciamiento de audio indica
una frontera de anuncio, la frontera puede que no caiga exactamente
al comienzo o al final del silenciamiento de audio, sino que en
cambio puede caer en alguna posición indefinida dentro del
silenciamiento de audio. Como resultado, largos silenciamientos de
audio son típicamente inutilizables como indicios debido a la
incertidumbre de la posición exacta del comienzo o el final del
anuncio.
Un cambio de escena es un cambio abrupto en el
cuadro de vídeo que ocurre entre tramas. Como los cambios de escena
dentro de segmentos son comunes, además de los que ocurren en las
fronteras de los anuncios, un cambio de escena se considera un
indicio relativamente débil. No obstante, los cambios de escena
pueden ser muy útiles. Por ejemplo, muchos anuncios que no tienen
un desvanecimiento al negro en una frontera tienen un cambio de
escena en ese punto. Aunque el cambio de escena por si mismo es un
indicio débil como se ha mencionado previamente, el cambio de
escena puede combinarse con un silenciamiento de audio para formar
un indicio más fuerte. Por ejemplo, el cambio de escena puede
utilizarse para localizar la frontera del anuncio dentro del
silenciamiento del audio.
Uno de los más importantes indicios es la
duración del segmento. Típicamente, los anuncios se difunden en
longitudes normalizadas o nominales. Por ejemplo, longitudes de 10,
15, 20, 30, 45, 60, 90 ó 120 segundos. Algunas de estas longitudes
de anuncios ocurren más frecuentemente que otras. En particular, se
cree que los anuncios de 30 segundos ocurren más frecuentemente. Se
cree que la frecuencia de ocurrencia de las diversas longitudes de
anuncios se representa como sigue, en el que la frecuencia de
ocurrencia de anuncios de duración t (en segundos) se representa
como CL_{t}:
CL_{30}
>> CL_{15} >> CL_{10} >CL_{60} > [CL_{20},
CL_{120}, CL_{90},
CL_{45}]
Esto es, como ejemplo, los anuncios que tienen
una longitud de 10 segundos se cree que ocurren más frecuentemente
que los anuncios que tienen una longitud de 60 segundos. Los
intervalos de longitudes que ocurren más frecuentemente se
considera que proporcionan indicios más fuertes que los asociados a
longitudes que ocurren menos frecuentemente.
La desviación de la longitud nominal de segmento
es también parte del indicio de duración del segmento. Más
específicamente, los anuncios o segmentos de interés raras veces se
conforman con las longitudes nominales de tales segmentos (por
ejemplo, 30 segundos, 15 segundos, etc.) Más bien, son normalmente
ligeramente más cortos o más largos que la longitud nominal
correspondiente. Típicamente, un segmento es más bien más corto que
más largo que la longitud nominal correspondiente. Esto es, como
cada anuncio o segmento de interés se produce para adaptarse a un
bloque predeterminado de tiempo, es considerablemente menos
engorroso tener el segmento de interés ligeramente más pequeño que
la longitud nominal con lo cual pueden añadirse tramas (tales como
tramas de desvanecimiento al negro), en lugar de editar el segmento
de interés para adaptarse dentro de la longitud de bloque
predeterminada. Segmentos que son más largos que la longitud nominal
correspondiente normalmente son el resultado de errores que ocurren
bien en la estación de difusión o en la estación que recibe. Por
ejemplo, se cree que la desviación de longitud más probable para un
nuevo segmento de interés está entre aproximadamente 0,0 a -0,2
segundos con un pico localizado aproximadamente en -0,13 segundos.
Típicamente, para un segmento respectivo, cuanta más se desvía la
longitud añadida de un segmento del pico de longitud nominal, menos
probablemente el segmento es un segmento de interés. Como se
aprecia, la probabilidad de que un segmento sea un segmento de
interés decrece rápidamente a medida que la longitud del segmento
aumenta sobre la longitud nominal.
Como se ha mencionado previamente, como los
anuncios o segmentos de interés se difunden típicamente en grupos o
cápsulas, cuando se detecta un nuevo segmento, esto indica que puede
haber otros nuevos segmentos adyacentes al mismo. Por lo tanto, un
nuevo segmento detentado es un indicio para detectar otros nuevos
segmentos. No obstante, la fuerza de un nuevo segmento como indicio
depende de la probabilidad de que el nuevo segmento sea un nuevo
segmento de interés que, a su vez, depende de los indicios sobre los
que esté basado el nuevo segmento.
Se asume que la probabilidad de detectar un
nuevo segmento que tiene una longitud predeterminada, con ciertas
evidencias, que no corresponde a un segmento de interés (o en otras
palabras un segmento paja) es relativamente independiente de la
longitud seleccionada. Como se ha mencionado previamente,
interpretar segmentos paja como nuevos segmentos de interés
incrementa el tiempo de procesamiento del sistema 10 (Fig. 1) y por
lo tanto incrementa el costo global del funcionamiento del sistema.
De este modo, es deseable seleccionar segmentos como posibles
nuevos segmentos de interés que tienen intervalos de tiempo o
longitudes de segmento que probablemente correspondan a nuevos
segmentos de interés.
Se considera, por lo tanto, que es más
productivo invertir el tiempo del operario buscando segmentos que
tienen una longitud de 30 segundos que, como se ha mencionado
previamente, se consideran comunes, que invertir el tiempo del
operario buscando segmentos que tienen una longitud de 45 segundos
que no se consideran que ocurran frecuentemente. Mientras que esta
asignación del tiempo del operario significa que un nuevo segmento
de 45 segundos es menos probable que se detecte que un nuevo
segmento de 30 segundos, el resultado es una precisión del sistema
global relativamente alta con minimización de los costes de
operación.
La Fig. 11 ilustra el flujo de la señal al
realizar el proceso de detección. Se recibe una señal de difusión
deseada en un canal determinado por el convertidor respectivo de los
convertidores 24 y se convierte en señales banda base de vídeo y
audio que se suministran la tarjeta de canal 402. La tarjeta de
canal 402, suministra indicios relativos al nuevo segmento de
interés al controlador de reconocimiento de segmentos 404 que
también recibe información de coincidencia desde el correlacionador
420. Los indicios junto con los informes de coincidencia se
suministran desde el controlador de reconocimiento de segmentos 404
al sistema experto 414. El sistema experto 414 examina la
información recibida para determinar si los posibles nuevos
segmentos indicados por los indicios son nuevos segmentos de
interés. Si cualquiera de los segmentos indicados se encuentra que
es un nuevo segmento de interés, el sistema experto 414 suministra
una señal al controlador de reconocimiento de segmentos 404
solicitando la firma del segmento respectivo que se recoge a
continuación y se suministra al sistema experto. Una vez recibido
por el sistema experto, tal firma del nuevo segmento se suministra a
través del control de la base de datos 416 a la base de datos 412.
Señales adicionales asociadas suministradas por el sistema experto
a la base de datos 412 incluyen el instante de ocurrencia, el canal,
el numero de identificación de segmento, la firma de clave y los
valores umbrales de audio y vídeo. Además, en ciertas situaciones,
como se ha descrito previamente, el sistema experto 414 puede
suministrar una captura A/V inicial o señal del valor de umbral al
control de la base de datos 416 antes de determinar el valor umbral
final. Si, en estas situaciones, se determina más tarde que el
valor umbral inicial fue incorrecto, el sistema experto 414
suministrará una señal de cambio del valor umbral o de rescisión al
control de la base de datos 416 para corregir la entrada en la base
de datos 412.
A continuación se tratará el funcionamiento del
módulo de detección nuevos segmentos.
De acuerdo con un modo de operación, el módulo
de detección de nuevos segmentos explora los indicios en la señal
recibida para detectar un segmento que tiene una longitud
normalizada para un segmento de interés. El primer segmento
detectado que tiene tal intervalo y satisface los criterios
predeterminados descritos en este documento más adelante se acepta
como un nuevo segmento de interés. Como el primer intervalo que
satisface tales requerimientos se acepta, posteriores nuevos
segmentos que pueden entrar en conflicto con el mismo (es decir,
otro segmento que ocurre durante el mismo periodo de tiempo) no se
consideran. Por lo tanto, el segmento que se detecta y se acepta es
dependiente del orden en el que se exploran los indicios como se
describe en este documento más adelante.
Los indicios se almacenan en una estructura de
doble extremo (deque) de indicios en el que se establece un nodo
cada vez que hay una transición presente-ausente de
cualquiera de los indicios. Estos nodos se clasifican por tiempo.
Las coincidencias se suministran a la estructura de doble extremo
por el filtro de ocurrencias cuando se determina que son aceptables
para su uso como indicios. Estos indicios se exploran a continuación
bien especificando su posición de comienzo en la estructura de
doble extremo o especificando el tiempo deseado. Si se suministra
el tiempo, el último punto en la estructura de doble puerto que
ocurrió después de un tiempo de retardo predeterminado fijo (por
ejemplo, aproximadamente 80 segundos) se usa como el tiempo de
exploración inicial para compensar el retardo en el reporte de
coincidencias comparado con los informes de indicios.
Los indicios pueden explorarse por más de un
pase, en una realización preferida se utilizan dos pases. El primer
pase explora todos los indicios excepto los silenciamientos de
audio, y el segundo pase explora los indicios para los segmentos
basados en los silenciamientos de audio. Este proceso de exploración
se describirá a continuación más completamente.
Los indicios se exploran hacia atrás en el
tiempo utilizando dos bucles anidados. En el bucle exterior, se
explora la estructura de doble extremo hacia atrás buscando indicios
apropiados para la cola (o fin) de un segmento y en el bucle
interior se explora hacia atrás la estructura de doble extremo desde
la posición de cola actual en búsqueda de indicios apropiados para
la cabecera de un nuevo segmento. De este modo, se detectan todos
los posibles nuevos segmentos que contienen un indicio plausible
sobre cada extremo. Cada uno de los intervalos de tiempo se evalúa
para determinar si, dada la longitud respectiva y los tipos de
indicios asociados, representa un nuevo segmento aceptable de
interés. Esto es, el módulo de detección de nuevos segmentos
determina, para un segmento respectivo, si los tipos de evidencias
son aceptables y a continuación determina si la longitud del
segmento en combinación con estas evidencias indica un nuevo
segmento aceptable de interés.
Si se indica que un intervalo es un nuevo
segmento de interés, se asigna un número de identificación de
segmento y se almacena en la estructura de doble extremo de
indicios como una ocurrencia. Posteriormente, se utiliza un módulo
de nivel de captura selectivo para determinar un valor del nivel de
captura de audio/vídeo apropiado, como se explica en este documento
más adelante. Además, la firma de segmento se obtiene desde el
subsistema de reconocimiento de segmentos 26 y la firma respectiva
se suministra a continuación a la base de datos 412 de la
computadora de control 30.
La Fig. 12 ilustra las etapas descritas
anteriormente realizadas por el módulo de detección de nuevos
segmentos. Como se muestra en la misma, el procesamiento comienza
en al etapa S100 en la que se examina la porción deseada de la
difusión recibida para localizar todos los intervalos entre
indicios. Posteriormente, como se muestra en la etapa S110, cada
uno de los intervalos localizados en la etapa S100 se examina de
modo que se determina si los indicios de comienzo y fin respectivos
son plausibles. Después de esto, como se muestra en la etapa S120,
la aceptabilidad de cada intervalo que tiene indicios plausibles
sobre sus extremos respectivos se determina en base a la longitud
nominal respectiva del intervalo, la desviación desde esta longitud
nominal y la combinación de los indicios de comienzo y final. Si se
determina que el intervalo es aceptable, entonces como se indica en
la etapa S130, el nivel de captura de audio/vídeo se determina por
el módulo de nivel de captura selectiva. A continuación, el
segmento de interés aceptado de nuevo se suministra a la base de
datos 412 de la computadora de control 30 como se muestra en la
etapa 140. Si, por el contrario, en la etapa S120, se rechaza el
intervalo o segmento respectivo, entonces no se realiza el
procesamiento adicional para este segmento.
Después de localizar un nuevo segmento, el bucle
exterior se resetea de modo que continua desde el comienzo del
segmento detectado de nuevo. El bucle exterior termina una vez que
encuentra un indicio que se ha comprobado como posible indicio de
cola. Esto puede determinarse examinando los indicadores de indicio
examinado. Esto es, cada nodo en la estructura de doble extremo que
se ha comprobado ya como posible indicio de cola tiene un indicador
de indicio examinado puesto a uno. Como, en la realización
preferida, hay dos pases de exploración, hay dos indicadores de
cola examinada. Por el contrario, el bucle interior termina cuando
localiza un indicio separado en el tiempo desde el indicio de cola
actual en una cantidad mayor que la de cualquier segmento
normalizado (por ejemplo, 120
segundos).
segundos).
Los dos pases se utilizan de modo que puede
darse una prioridad más baja a los segmentos basados en un
silenciamiento de audio que a otros segmentos. Más específicamente,
en una realización preferida, el segundo pase es en un punto de
exploración 30 segundos más tarde que el primer pase. Eso posibilita
al primer pase localizar todos los segmentos de hasta 30 segundos
de longitud que no están basados en indicios de silenciamiento de
audio antes de comprobar segmentos basados en silenciamientos de
audio en el segundo pase. Como resultado, la probabilidad más baja
(o menos probabilidad de que sea aceptable) de los segmentos basados
en el silenciamiento de audio no se detectará antes de la detección
de segmentos de interés que tienen una probabilidad más alta de
ocurrencia, por ejemplo, los basados en coincidencias y
desvanecimientos al negro que tienen longitudes de hasta 30
segundos. Como se ha mencionado previamente, el primer segmento
detectado puede utilizarse sin considerar cualesquiera posibles
segmentos en conflicto (aunque es preferible resolver tales
conflictos, como se describe en este documento más adelante). En
tal situación, es deseable utilizar los dos pases como se ha
descrito anteriormente en este documento. Además, como todos los
segmentos basados en silenciamiento de audio se dan en el nivel de
captura 2 por el módulo de nivel de captura selectiva como se indica
en este documento más adelante, de modo que los datos de audio y
vídeo respectivo no se recogen cuando tales segmento no se han
encontrado previamente, el retardo en la exploración puede fijarse
a un valor incluso mayor. Esto minimizaría además el bloqueo de
segmentos basados en una probabilidad más alta por un segmento
basado en un silenciamiento de audio.
Determinar si un indicio es apropiado para el
comienzo o final de un segmento involucra una consideración
cuidadosa. Por ejemplo, en el caso de un indicio de ocurrencia,
puede ser necesario asegurar que el indicio de ocurrencia de
comienzo que puede ser útil como indicio de cola no es, al mismo
tiempo, el final de otra ocurrencia. Esto puede determinarse
comprobando que los indicadores de ocurrencias de comienzo y fin no
están ambos puestos a uno. Como otro ejemplo, puede ser necesario
determinar si un desvanecimiento al negro está asociado con una
ocurrencia, con lo cual puede usarse esta ocurrencia para aumentar
la fuerza del indicio. Esto es, si el comienzo del desvanecimiento
al negro está bajo consideración como un posible indicio de cola de
segmento, entonces el final del desvanecimiento al negro se
examinaría para determinar si es el comienzo de una ocurrencia
asociada. Si es así, la fuerza del indicio puede incrementarse.
Las características utilizadas en el módulo de
detección de nuevos segmentos descrito anteriormente para determinar
la aceptabilidad de un segmento como un nuevo segmento de interés
se describirá a continuación más completamente.
Se determina la máxima desviación permisible
desde la longitud nominal. No obstante, en tal determinación, se
favorecen las longitudes nominales que ocurren más frecuentemente,
proporcionándolas con tolerancias de desviación relativamente
grandes, para incrementar las oportunidades de detectar un nuevo
segmento de interés. Se utilizan preferiblemente tolerancias
separadas para desviaciones más pequeñas y más grandes que la
longitud nominal, en que la tolerancia para la desviación más corta
que la longitud nominal es típicamente mayor que para la desviación
mayor que la longitud nominal.
Los indicios para cada intervalo se usan para
ajustar la desviación máxima permisible desde la longitud nominal
para el segmento bajo consideración. Esto se hace analizando los
indicios de los extremos de los respectivos segmentos para
determinar cual de los indicios en cada extremo es el más fuerte.
Los indicios de ocurrencia se consideran los más fuertes, seguidos
a su vez por los desvanecimientos al negro y los silenciamientos de
audio. Esto es, la tolerancia se ajusta de acuerdo con la fuerza de
los indicios sobre ambos extremos del segmento.
El uso no crítico de los silenciamientos de
audio como indicios puede generar un número relativamente grande de
segmentos paja. No obstante, los segmentos basados en
silenciamientos de audio pueden ser aceptables con un
silenciamiento de audio como indicio sobre un extremo cuando un
indicio relativamente fuerte está presente sobre el otro extremo.
Además, como los silenciamientos de audio que tienen una longitud
relativamente corta ocurren frecuentemente y los silenciamientos de
audio que tienen una longitud relativamente larga no permiten una
determinación precisa de extremos de segmento, sólo se utilizan los
silenciamientos de audio que tienen una longitud que queda dentro
de un rango predeterminado. No obstante, a tales segmentos basados
en silenciamientos de audio se da un nivel de captura 2 por el
módulo de captura selectiva. Para limitar adicionalmente el número
de segmentos paja detectados, sólo se permiten segmentos que tienen
una longitud nominal que ocurre más frecuentemente para basarse en
los silenciamientos de audio como indicios. Además, mientras que los
segmentos con una coincidencia sobre un extremo y un silenciamiento
de audio sobre el otro serán normalmente aceptables, los segmentos
que tienen un segmento detectado de nuevo sobre un extremo y una
coincidencia sobre el otro no son aceptables porque los segmentos
detectados de nuevo pueden basarse sobre un indicio de
silenciamiento de audio. En esta situación, pueden detectarse una
pluralidad de segmentos como nuevos segmentos que están basados en
indicios de silenciamientos de audio sobre ambos extremos. Por lo
tanto, los segmentos basados en indicios de ocurrencias sobre un
extremo sin un fuerte indicio adicional asociado, por ejemplo, un
indicio de desvanecimiento al negro, y un indicio de silenciamiento
de audio sobre el otro extremo no pueden utilizarse.
El silenciamiento de audio puede utilizarse en
la división de segmentos. Como los anuncios que tienen una longitud
de 30 segundos ocurren más frecuentemente, en un sistema de
reconocimiento de anuncios de televisión, los segmentos que tienen
longitudes iguales a múltiplos del mismo, por ejemplo 60, 90, ó 120
segundos, pueden dividirse en una pluralidad de segmentos que
tienen una longitud de 30 segundos. Estos segmentos pueden dividirse
utilizando el silenciamiento de audio además de un cambio de escena
como indicios de división. Esto es, el segmento se examina cada
intervalo de 30 segundos para determinar si están presentes un
silenciamiento de audio y un cambio de escena, con lo cual el
segmento se divide. La división de segmentos de esta forma es
diferente de la realizada sobre segmentos largos, en la que los
nuevos segmentos que tienen una longitud por encima de un valor
predeterminado, por ejemplo 60 segundos se dividen en dos en una
posición arbitraria incluso si no estén presentes los indicios del
silenciamiento de audio y de cambio de escena mencionados
anteriormente.
Cuando ocurre un número relativamente alto de
desvanecimientos al negro, o cuando se detecta un desvanecimiento
al negro durante un periodo de tiempo relativamente largo, esto
normalmente indica que se está detectando una señal que tiene una
calidad relativamente pobre.
Excesivos desvanecimientos al negro pueden ser
el resultado de una señal pobre o ruido en la entrada. Intentando
detectar nuevos segmentos desde una señal de calidad pobre resulta
en una detección de segmentos paja. Para corregir tal situación no
se aceptan indicios de una porción de señal que se determina que
tiene tal ocurrencia relativamente alta de desvanecimientos al
negro. Los indicios que no se aceptan de este modo no pueden usarse
para un indicio de comienzo o final de un nuevo segmento.
El rechazo de indicio descrito anteriormente se
realiza utilizando varios factores, por ejemplo, la cantidad de
tiempo del desvanecimiento al negro, el número de transiciones
activado/desactivado de desvanecimientos al negro como se describe
más adelante en este documento, y la cantidad de tiempo de no
desvanecimiento al negro que ocurren durante el bucle interior
descrito previamente. Las variables correspondientes a cada uno de
estos factores se inicializan una vez que se detecta un indicio
adecuado de cola adecuado (antes de comenzar la exploración del
bucle interior). Después de esto, como el bucle interior está
explorando en busca de un indicio principal la señal se monitoriza
para detectar los factores anteriores. Si se detecta un posible
nuevo segmento, el segmento respectivo se examina en busca de la
presencia de los factores anteriores. Si el número de ocurrencias
de estos factores en un segmento excede un valor máximo
predeterminado (por ejemplo, una cantidad máxima de tiempo
predeterminada de desvanecimiento al negro y/o un número máximo
predeterminado de transiciones activo/desactivo de desvanecimientos
al negro), entonces el segmento no se acepta como un nuevo
segmento.
De acuerdo con un segundo modo de
funcionamiento, el módulo de detección de nuevos segmentos realiza
el proceso ilustrado en la Fig. 13 para detectar nuevos segmentos
de interés. En la primera etapa S400, el módulo de detección de
nuevos segmentos explora los indicios y selecciona todos los
intervalos que tienen posibilidades razonables para nuevos
segmentos y sitúa tales intervalos en una lista de posibles
segmentos para su re-examen posterior.
Posteriormente, el procesamiento se retarda en la etapa S410 durante
un intervalo predeterminado seleccionado para maximizar la
posibilidad de que los segmentos que pueden solapar los segmento
posibles ya listados se detecten antes de determinar cuáles de los
segmento conflictivos se aceptarán y cuales se rechazarán. El
intervalo de retardo puede ser, por ejemplo, al menos 35 segundos de
modo que no se pierdan los segmentos de 30 segundos (que ocurren
más frecuentemente) debido a información insuficiente sobre
segmentos potencialmente solapados.
Después del retardo de decisión, el
procesamiento continúa en la etapa S420 en la que se compara cada
posible segmento con los demás segmentos en la lista para
determinar si se presentan conflictos. Si así es, se aplica un
heurístico para decidir qué segmento estará de acuerdo con una
prioridad mayor en base a una combinación lineal de factores
relevantes. Tales factores incluyen la longitud nominal, indicios
asociados, y desviación de la longitud nominal. De este modo una
vez que se han priorizado los segmentos conflictivos, el segmento
de prioridad más elevada se reporta a la base de datos (con posible
recogida de audio/vídeo para su observación en la estación de
trabajo del sitio central) y los segmentos de menor prioridad se
marcan como segmentos descartados. No obstante, después de un
retardo adicional, representado por la etapa S430, los segmentos
descartados se re-examinan para determinar si aún
existe conflicto con un segmento aceptado. Si no es así, el segmento
descartado previamente pero no conflictivo se reporta a la base de
datos como un segmento de umbral 2 como se explicará más adelante en
este documento).
El modo en el cual la valoración del conflicto
en el proceso de priorizar de la etapa S420 puede resultar en una
aceptación posterior de un segmento previamente desechado se ilustra
por el siguiente ejemplo. En un posible escenario, se asume que un
segmento A solapa y ocurre más tarde que un segmento B, mientras que
el segmento B solapa y se asume que ocurre más tarde que un
segmento C. Se asume además que los segmentos A y C no solapan. Si
el segmento B se compara primero con el segmento A, de modo que al
segmento B se da prioridad sobre A, entonces el segmento A se
rechaza. No obstante, el segmento B se comparará con el segmento C,
y si se prefiere el segmento C entonces el segmento B se rechazará
también. Una vez que el segmento B se ha rechazado, el segmento A
no está ya en conflicto, y puede, por lo tanto, aceptarse incluso
después de un rechazo anterior.
De acuerdo con un tercer modo de operación del
módulo de detección de nuevos segmentos, como se ilustra en la Fig.
14, en la etapa S500 se exploran los indicios para localizar
posibles segmentos que serían aceptables como nuevos segmentos de
interés de acuerdo con los criterios descritos anteriormente en este
documento. En la etapa siguiente S510, el procesamiento se retarda,
por ejemplo, durante cinco minutos para asegurar que todos los
segmentos posibles relacionados se han detectado también. A partir
de entonces, en al etapa S520 adjunta, los segmentos que solapan y
conflictivos se sitúan en los grupos respectivos de segmentos
relacionados para un procesamiento adicional, por ejemplo, marcando
un nodo establecido para cada uno de tales segmentos en una
estructura de doble extremo apropiado con un número arbitrario que
identifica su grupo respectivo.
A partir de entonces, se realiza un heurístico
de dos etapas en secuencia en las etapas S530 y S540. En la etapa
S530, el módulo de detección de nuevos segmentos determina las
divisiones aceptables junto con los diversos segmentos bajo
consideración. Una división es una posible subdivisión o
agrupamiento de segmentos identificados basados sobre longitudes
nominales aceptadas para segmentos de interés. Por ejemplo, con
referencia a la Fig. 15, se ilustra un árbol de división para un
segmento de 120 segundos con una frontera de desvanecimiento al
negro cada 30 segundos en el mismo. En la Fig. 15, las posibilidades
para dividir los segmentos de 120 segundos se disponen en una
estructura de árbol donde cada camino desde la raíz 600 a una hoja
nodo (por ejemplo las hojas nodo 602 y 604) representan un modo
respectivo para dividir el segmento de 120 segundos. Los números
30, 60, 90 y 120 representan la duración en segundos, o longitud del
segmento, de un segmento posible formado desde el segmento
principal de 120 segundos. Se ve que puede aparecer un segmento más
de una vez sobre el diagrama.
Una vez que se ha definido los posibles modos de
dividir un segmento determinado de acuerdo con el árbol de
división, el árbol se atraviesa y cada camino (esto es, las posibles
combinaciones de segmentos) se evalúan de acuerdo con un conjunto
de reglas predeterminadas para determinar divisiones aceptables.
Las reglas predeterminadas que se emplean en
evaluar la aceptabilidad de las posibles divisiones se basa en la
longitud nominal del segmento principal y de los posibles
sub-segmentos, así como los umbrales de audio/vídeo
(A/V) determinados para los mismos como se explica más adelante en
este documento en conexión con la determinación del nivel de
captura selectiva. Esencialmente, las reglas se diseñan para impedir
las divisiones de umbrales A/V, esto es, una división de un
segmento de interés en sub-segmentos que tienen
umbrales A/V diferentes. Las reglas se diseñan también para
favorecer divisiones en longitudes encontradas frecuentemente tales
como los segmentos de 30 segundos. Por ejemplo, un segmento de
umbral A/V 2 se divide en una pluralidad de
sub-segmentos si todos los
sub-segmentos tienen un umbral A/V de 1. Además, un
segmento de 45 segundos se dividirá en segmentos encontrados con
mayor frecuencia, tales como los segmentos de 15 segundos y los
segmentos de 30 segundos. Las diversas reglas se almacenan ellas
mismas en una tabla que permite futuras modificaciones.
Si la aplicación de las reglas anteriores
resulta en varias divisiones aceptables, las divisiones aún
conflictivas se priorizan de acuerdo con las siguientes reglas
adicionales. En primer lugar, las divisiones que obtienen la mayor
duración de segmentos de umbral A/V 1 se favorecen respecto a las
otras. Si hay entonces más de una división restante, las divisiones
se evalúan sobre una escala de puntuación basada en longitudes
nominales de cada segmento en la división, de modo que se favorecen
las longitudes de segmentos de que ocurren comúnmente. Esto es, se
asigna un valor de puntos por segundo para cada longitud nominal y a
continuación se multiplica por la longitud del segmento para
acumular una puntuación total para cada longitud nominal. Por
ejemplo, si los segmentos de 30 segundos son de acuerdo con 3
puntos por segundo, mientras que los segmentos de 15 segundos y 45
segundos son cada uno de acuerdo con 2 y 1 punto por segundo
respectivamente, el segmento de 45 segundos obtendría un total de
45 puntos, mientras que la división 30/15 obtendría un total de 120
puntos, lo cual favorece de este modo la división.
Consecuentemente, la escala se construye para favorecer las
divisiones que obtienen segmentos de las longitudes que ocurren más
comúnmente. Si después de la aplicación de las reglas anteriores,
queda más de una división, se eligen entonces una
arbitrariamente.
Una vez que se ha realizado el análisis de
división en la etapa S530, se realiza el análisis de conflictos en
la etapa S540 de acuerdo con el cual se da prioridad a los segmentos
más probables de entre una pluralidad de segmentos que solapan en
el tiempo (que son, mutuamente excluyentes). Los segmentos que son
parte de una división se consideran ahora individualmente. Cada par
de segmentos en conflicto se consideran de acuerdo con un
heurístico explicado más adelante y se elije el mejor. Se elige el
segmento único más preferido, por comparación en parejas. Si
después de realizar esta elección, hay menos segmentos preferidos
que no están en conflicto con esta elección, se aceptan también.
El heurístico es un sistema de calificación que
genera una función lineal de las propiedades de cada segmento,
concretamente, la longitud nominal, los indicios y la desviación de
la longitud nominal. Se asigna una puntuación para cada valor de
una propiedad determinada en base a los siguientes principios. Los
indicios de ocurrencias se consideran más fuertes que los indicios
de nuevos segmentos que a su vez se consideran más fuertes que un
único desvanecimiento al negro. Con respecto a la desviación de la
longitud nominal, es más probable que los segmentos sean más cortos
que la longitud nominal que más largos, y cuanto más se desvía su
longitud de la longitud nominal, menos probable es que se haya
detectado un segmento de interés. La desviación más probable es
entre 0 -0,2 segundos. En el caso de la longitud nominal, como se ha
observado anteriormente, los segmentos de 30 segundos son los que
se encuentran más frecuentemente, seguidos por los segmentos de15
segundos, 10 segundos y 60 segundos, en este orden, mientras que
los elementos de 20, 45, 90 y 120 segundos se considera que son
bastante escasos. En conjunto, los indicios se ponderan más
fuertemente que las otras dos propiedades. No obstante, cuando la
frecuencia de la propiedad de longitud nominal es la única
consideración, se presenta un caso especial. Concretamente, si
ambos segmentos bajo consideración tienen un umbral A/V de 1 y un
segmento está contenido en el otro, generalmente el segmento de más
longitud se preferirá y el valor de puntos adecuado se asignaría
entonces dependiendo de las longitudes nominales de los dos
segmentos.
El módulo del nivel de captura selectiva sirve
para reducir el procesamiento de los segmentos paja en los sitios
locales 16 para impedir reportar éstos al sitio central 12 que
malgastaría el tiempo del operario de la estación de trabajo. Un
segmento paja es un segmento que se ha encontrado por el sistema
experto como un segmento de interés, cuando de hecho no lo es. Por
ejemplo, un elemento paja puede ser unas noticias breves o una
porción de programación normal delimitada por indicios y que tienen
la misma longitud que un segmento de interés.
El procesamiento de los segmentos paja
incrementa el tiempo de procesamiento del sistema 10 (Fig. 1) y sus
costes de operación. Esto es, un segmento que se encuentra como un
nuevo segmento de interés, pero que es realmente un segmento paja,
se transmite desde el sitio local 16 a través del sitio central 12 a
una de las estaciones de trabajo 14 para su procesamiento por un
operario, de modo que un tasa elevada de paja elevada incrementa
sustancialmente el tiempo que los operarios deben invertir en
intentar clasificar los nuevos segmentos. De este modo, el trato de
segmentos paja como segmento de interés incrementa desventajosamente
la comunicación entre los sitios locales 16 y el sitio central 12,
incrementa la carga de trabajo del operario en las estaciones de
trabajo 14 e incrementa el procesamiento que debe realizarse en el
sitio local 16.
El módulo de nivel de captura selectiva divide
los segmentos encontrados como nuevos segmentos de interés
potenciales en dos grupos, concretamente, segmentos que son más
probablemente segmentos de interés (no paja) y segmentos que son
menos probablemente segmentos de interés. A los segmentos que son
más probablemente segmentos de interés se asigna un nivel de
captura de vídeo (A/V) 1, mientras que a los segmentos que son menos
probablemente segmentos de interés se asigna un nivel de captura
(A/V) 2. Una vez detectado un posible nuevo segmento de interés,
tanto si se ha asignado nivel de captura de 1 ó 2, se produce una
firma de clave para el mismo y se almacena, como se explica más
tarde en este documento. Los datos de audio y vídeo (A/V) para un
segmento que tiene un nivel de captura (A/V) 1 se recogen
inmediatamente para su transmisión al sitio central bajo la
detección de un segmento de interés. Por el contrario, los datos A/V
para un segmento que tiene un nivel de A/V de 2 se recogen sólo
después de que su firma de clave previamente almacenada ha tenido al
menos una coincidencia. Esto es, un segmento con un nivel 2 de
captura de A/V asignado se difundirá y se detectará al menos dos
veces (una vez para detectar el segmento como un nuevo segmento y
otra vez de nuevo debido a una coincidencia sobre su firma de
clave) antes de que se recojan los datos A/V asociados con el mismo.
Si su firma de clave no produce una coincidencia dentro de un
periodo predeterminado, se purga desde el sistema.
Sólo segmentos que tienen sus datos A/V
recogidos se suministran desde el sitio local respectivo 16 a través
del sitio central 12 a una de las estaciones de trabajo 14 (Fig.
1). La mayoría de los segmentos de interés se difunden más de una
vez, mientras que los segmentos paja sólo se ven una única vez.
Consecuentemente asignando un nivel de captura A/V 2 a segmentos
que son menos probablemente segmentos de interés, de modo que sus
datos A/V no se recogen hasta una coincidencia posterior sobre
tales firmas de claves de los segmentos, puede conseguirse ahorrar
costos de operación sustanciales.
De acuerdo con una técnica para asignar niveles
de captura en un sistema de reconocimiento de anuncios de
televisión, se asigna un nivel de captura 2 a un nuevo segmento si
satisface una de las siguientes condiciones:
- 1.
- Si la única evidencia en cualquiera de los extremos del nuevo segmento es una evidencia de silenciamiento de audio. Como se ha tratado previamente, los silenciamientos de audio ocurren frecuentemente tanto en las fronteras de segmentos como dentro de los segmentos, los nuevos segmentos basados en indicios de silenciamientos de audio son probablemente segmentos paja.
- 2.
- Si el nuevo segmento no está junto o próximo a un grupo o cápsula de anuncios. Como la mayor parte de anuncios se difunden en grupos o cápsulas, un nuevo segmento está probablemente junto a tal cápsula. La proximidad a una cápsula se valora ventajosamente determinando la proximidad en el tiempo del nuevo segmento a otro nuevo segmento o un segmento que tiene una coincidencia aceptada. Como la proximidad de un segmento que tiene una coincidencia aceptada al nuevo segmento a valorar proporciona una indicación más fiable de proximidad de cápsula que la proximidad de otro nuevo segmento del mismo, se considera que otro nuevo segmento próximo sólo si viene dentro de un rango de proximidad que es más estrecho que el rango de proximidad establecido para segmentos que tienen coincidencias aceptadas.
- 3.
- Si la longitud nominal o duración del nuevo segmento es una longitud de anuncio que ocurre infrecuentemente, por ejemplo, longitudes nominales de 20, 45, 90 o 120 segundos. Como los anuncios raramente tienen estas longitudes, un nuevo segmento que tiene tal longitud es probablemente un segmento paja.
- 4.
- Si el nuevo segmento se desvía de la longitud nominal en una cantidad próxima al límite predeterminado de desviación de longitud adoptado para determinar la aceptabilidad del segmento como un nuevo segmento de interés. Por ejemplo, si el límite de desviación de longitud más bajo para un anuncio de 30 segundos es un segundo de modo que se estima que los segmentos que tienen una duración menor que 29 segundos no son nuevos segmentos de interés, un segmento que tiene una duración de aproximadamente 29,1 segundos se le dará un nivel de captura (A/V) de 2. Cuanto más se desvía un nuevo segmento de la longitud nominal, más probablemente es un segmento paja.
Por el contrario, a un potencial nuevo segmento
se asigna un nivel de captura 1 si no tiene asignado un nivel de
captura 2.
Se aprecia que las condiciones 1, 3 y 4 son
fácilmente verificables en el instante que se encuentra un nuevo
segmento de interés. No obstante, la verificación de si un nuevo
segmento está próximo a una cápsula de acuerdo con la condición 2
requiere una valoración de las señales recibidas posteriormente para
coincidencias y otros nuevos segmentos. Por lo tanto, como ejemplo,
si el nuevo segmento a valorar es el primer segmento de una
cápsula, no se sabe inmediatamente si el nuevo segmento está próximo
a la cápsula. De acuerdo con una realización ventajosa, los nuevos
segmentos que satisfacen todas las condiciones para un nivel de
captura 1 excepto la condición 2 están de acuerdo inicialmente con
un nivel de captura A/V 1 de modo que los datos A/V correspondientes
se almacenan en la base de datos para permitir su transmisión
posterior al sitio de control. Esta determinación se revisa de
nuevo después de un tiempo predeterminado de, por ejemplo, varios
minutos, en cuyo momento si el segmento no se encuentra aún próximo
a una cápsula, el nivel de captura A/V de este segmento se cambia a
nivel de captura 2. Este procedimiento posibilita la retención de
los datos A/V del segmento pendientes de una valoración completa de
toda la información necesaria a determinar cuando se obtiene la
condición 2. Si esta valoración retardada establecía entonces que
se asignaría al segmento un nivel de captura A/V 1, los datos A/V
del mismo están aún disponibles para su transmisión al sitio
central. De lo contrario, se borran de la base de datos.
El uso de la técnica del nivel de captura
selectiva descrita anteriormente permite al sistema experto relajar
su criterio para determinar qué segmentos son probablemente
segmentos de interés mientras mantiene una carga de procesamiento
aceptable sobre el sistema 10 (Fig. 1). Consecuentemente, el sistema
experto es capaz por lo tanto de emplear criterios de nuevos
segmentos que permiten la aceptación de relativamente más segmentos
como nuevos segmentos de interés, por ejemplo, adoptando tolerancias
de longitud relativamente más amplias. Consecuentemente,
cualesquiera nuevos segmentos de interés que satisficieran sólo el
criterio relajado pueden detectarse cuando de otro modo se
perderían. Como resultado, la precisión de coincidencia del sistema
global puede mejorarse.
La Fig. 16 ilustra el flujo de la señal para
capturar datos de audio y vídeo. Como se muestra en la misma, las
señales banda base de audio y vídeo se suministran desde los
tarjetas de canal 402 del subsistema de reconocimiento de segmentos
a través de los cables 431 y 439, respectivamente, al subsistema de
captura de datos 28. El subsistema de captura de datos 28 incluye
una tarjeta de captura de vídeo 432, un almacenamiento de anillo de
vídeo comprimido 430, un controlador de captura de datos 434, un
almacenamiento de anillo de audio comprimido 436 y una tarjeta de
captura de audio 438. La señal de vídeo banda base recibida desde el
cable 431 se suministra a la tarjeta de captura de vídeo 432 que
proporciona continuamente señales de vídeo recibidas nuevamente en
forma comprimida al almacenamiento de anillo de vídeo comprimido
430 que mantiene un registro actual de las señales de vídeo
comprimido recibidas más recientemente, por ejemplo, las recibidas
durante los últimos 3 a 7 minutos. Similarmente, las señales banda
base de audio desde el cable 439 se suministran a la tarjeta de
captura de audio 438 que proporciona continuamente señales de audio
recibidas nuevamente en una forma comprimida al almacenamiento de
anillo de audio comprimido 436 que asimismo mantiene un registro
actual de las mismas.
El subsistema de captura de datos 28 comunica
con la computadora de control 30 que, a su vez, utiliza el sistema
experto 414, el control de la base de datos 416, la base de datos
412, el control de recogida de A/V 440 y el disco 442. Como
ejemplo, si se ha detectado un nuevo anuncio que tiene un valor del
umbral de captura de 1, el sistema experto 414 suministra una señal
indicándolo al control de la base de datos 416. Una vez recibida
tal señal, el control de la base de datos 416 suministra una señal
de comando solicitando que los datos respectivos de audio y vídeo
se transfieran al control de recogida de A/V 440 que, a su vez,
suministra una señal de petición correspondiente al controlador de
captura de datos 434. Una vez recibida tal señal, el controlador de
captura de datos 434 suministra señales de control respectivas al
almacenamiento de anillo de vídeo 430 y al almacenamiento de anillo
de audio 436, con lo cual se suministran las señales de vídeo y
audio solicitadas al controlador de captura de datos 434. Las
señales de audio y vídeo solicitadas se suministran después de esto
desde el controlador de captura de datos 434 al control de recogida
de A/V 440 que, a su vez, suministra las mismas al disco 442 para
su almacenamiento. Además, el control de recogida de A/V 440
suministra el número de identificación del segmento junto con una
señal que indica si los datos de audio y vídeo se han recogido para
el respectivo segmento en la base de datos 412. Además, en ciertas
circunstancias como se ha descrito previamente, el sistema experto
414 puede suministrar una señal de rescisión al control de la base
de datos 416. Tal señal se suministra después de esto al control de
A/V 440 con lo cual se borra el fichero de datos A/V apropiado. En
estas situaciones, el control de A/V 440 suministra una señal de
confirmación al control de la base de datos 416 que confirma el
borrado de tales ficheros.
Una vez detectado un nuevo segmento de interés,
como se ha observado anteriormente, el sistema 10 produce una firma
de clave para el segmento que se usa más tarde para reconocer una
redifusión del mismo segmento comparando o emparejando la palabra
clave y ocho palabras de coincidencia de la firma de clave con las
correspondientes firmas de trama de una firma de segmento producida
por el segmento de redifusión. Con referencia a la Fig. 17, la
computadora de control 30 implementa un módulo generador de firmas
de clave 410 que recibe las firmas de trama secuenciales para el
segmento de interés, denominado como firma de segmento, para
producir un firma de clave del mismo. Esta firma de clave se
suministra a continuación al subsistema de reconocimiento de
segmentos 26 para su uso en operaciones de emparejamiento
posteriores.
Se aprecia que un número relativamente grande de
segmentos de interés (por ejemplo anuncios) se recibirá de cada uno
de los sitios locales 16 (Fig. 2) y es deseable que cada una de
tales firmas de clave tenga un tamaño relativamente pequeño para
minimizar la cantidad de memoria necesaria. Es deseable además que
las firmas de clave coincidan fácilmente bajo la redifusión del
segmento respectivo t, mientras que se impiden las falsas
coincidencias. Consecuentemente, el módulo generador de firmas de
clave 410 produce firmas de clave que son ventajosamente pequeñas
en tamaño y que se seleccionan y estructuran para maximizar la
probabilidad de coincidencia sobre una redifusión del segmento
respectivo, mientras que se reduce el potencial de falsas
coincidencias.
Se recibe una firma de segmento para la
generación de firma de clave para su procesamiento por el módulo 410
en la forma de firmas de trama combinadas de vídeo y audio. El
módulo 410 separa a continuación la firma del segmento recibida en
las firmas del segmento de audio y de vídeo que procesan
separadamente. Por ejemplo, el módulo de generación de firmas de
clave puede realizar dos ciclos de procesamiento separados, esto es,
uno para la firma del segmento de vídeo y otro para la firma del
segmento de audio. Como resultado, se produce típicamente al menos
una firma de clave de audio (o sub-firma) y una
firma de clave de vídeo (o sub-firma) por cada firma
de segmento, teniendo cada una el mismo formato de datos.
Cada firma de clave incluye preferiblemente 16
elementos que se describirán a continuación con detalle.
- 1.
- Número de identificación de segmento (ID de Segmento) - este número de identificación identifica unívocamente el segmento identificado por la firma de clave y, por ejemplo, en un sistema de reconocimiento de anuncios de televisión puede usarse para asociar más fácilmente anuncios con sus firmas de clave respectivas. Como se describe más adelante en este documento, el módulo 410 genera bajo ciertas circunstancias hasta cuatro firmas de clave de vídeo y cuatro firmas de clave de audio para un segmento determinado. Consecuentemente, el segmento ID se comprende de un número divisible por cinco junto con un número de 1 a 4 que indica el número de firmas de clave de vídeo y audio producidas por el segmento.
- 2.
- Palabra clave - se selecciona una palabra clave de 16 bits para cada segmento de entre las firmas de trama del mismo que comprende su firma de segmento. Como se ha descrito anteriormente, las palabras clave se usan por el subsistema de reconocimiento de segmentos 26 como un índice para la base de datos de las firmas de clave para minimizar el tiempo requerido en detectar una coincidencia.
- 3.
- Desplazamiento de la palabra clave - esto representa la distancia desde el comienzo de segmento respectivo a la palabra clave. Este desplazamiento puede expresarse, por ejemplo, como el número de tramas desde el comienzo del segmento o en términos de tiempo desde el comienzo de tal segmento.
- 4.
- Palabras de coincidencia - estas son una pluralidad de palabras de coincidencia de 16 bits (por ejemplo, 8) en cada firma de clave. Las palabras de coincidencia de una firma de clave determinada se usan por el subsistema de reconocimiento de segmentos 26 durante la operación de emparejamiento después de que la palabra clave asociada ha emparejado una trama entrante. Esto es, como se ha descrito previamente, cada firma de trama recibida se compara con todas las palabras clave almacenadas. Bajo la detección de una coincidencia entre una firma de trama entrante y una palabra clave (por ejemplo, en base a una coincidencia de al menos quince valores de bit correspondientes de la firma de trama y la palabra clave), todas las palabras de coincidencia asociadas con esta palabra clave se comparan entonces con las tramas entrantes apropiadas como se determina por los desplazamientos de las palabras de de coincidencia, descritas más adelante. Si el número total de bits no enmascarados que no coinciden en valor combinado con la mitad del número de bits de las firmas de trama comparadas que están enmascaradas, no excede una cuenta de errores predeterminada o umbral (descrito más adelante), entonces se encuentra una coincidencia. El criterio para seleccionar la palabra clave y las palabras de coincidencia para las firmas de clave se describen más tarde en este documento.
- 5.
- Desplazamiento de la palabra de coincidencia - hay un desplazamiento de la palabra de coincidencia para cada una de las palabras de coincidencia. Cada desplazamiento de la palabra de coincidencia indica la posición de la palabra de coincidencia respectiva respecto a su palabra clave. Como con los desplazamientos de palabras clave descritos anteriormente, los desplazamientos de las palabras de coincidencia pueden expresarse en términos de diferencias de tiempo o número de tramas. Estos desplazamientos de las palabras de coincidencia se usan para indicar cuál de las firmas de trama entrantes del segmento de difusión se usarán para la comparación con las palabras de coincidencia en la firma de clave cuando se ha detectado una coincidencia de la palabra de clave.
- 6.
- Tipo de firma - el tipo de firma identifica si la firma es una sub-firma de audio o una sub-firma de vídeo. Como las sub-firmas de clave de audio y vídeo tienen el mismo formato, se usa este elemento para distinguirlas.
- 7.
- Cuenta de errores - la cuenta de errores o umbral de error se genera por el módulo de generación de firmas de clave para cada firma de clave generada e indica el máximo número de errores que pueden permitirse durante el proceso de emparejamiento antes de que una coincidencia que se está considerando se rechace como inaceptable. La cuenta de errores puede estar basada sobre características específicas de la firma de clave generada, por ejemplo, la confiabilidad esperada del segmento correspondiente y la probabilidad de un emparejamiento falso de la firma de clave. Una técnica ventajosa para determinar la cuenta de errores utiliza el número probable de coincidencias de bit para las palabras de coincidencia, como se describe más adelante, redondeando este número hacia abajo y restando el número resultante del número total de posibles coincidencias. La cuenta de errores resultante se hace más baja en el caso de segmentos más cortos que son más probablemente coincidencias falsas. Se aprecia que, bajo ciertas condiciones (por ejemplo debido al ruido), la firma de clave puede que no coincida perfectamente con una redifusión del segmento correspondiente. La cuenta de errores compensa tales discrepancias anticipadas para posibilitar la detección del segmento de redifusión.
- 8.
- Cuenta de tramas - la cuenta de tramas indica el número de tramas contenidas con la firma de clave que, en la realización preferida tiene un valor de 8.
- 9.
- Longitud - esta se refiere al número de tramas en el segmento respectivo.
- 10.
- Reglas de coincidencia - Las reglas de coincidencia se generan por el módulo generador de firmas de clave para cada segmento representado por una o más firmas de clave en la base de datos y son líneas directivas utilizadas por el subsistema experto 414 para determinar si aceptar o no una coincidencia de las firmas de clave para tal segmento. Si hay una probabilidad relativamente alta de que ambas sub-firmas de audio y vídeo coincidan falsamente, las reglas de coincidencia requieren que ambas sub-firmas de clave de audio y vídeo coincidan para aceptar una coincidencia. Si, por el contrario, se determina que ni la sub-firma de clave de audio ni la de vídeo son probablemente de falsa coincidencia y, en efecto, pueden tener dificultades en emparejarse, las reglas de coincidencia aceptan una coincidencia si coinciden cualquiera de las sub-firmas de audio o de vídeo.
- Las reglas de coincidencia se basan en la probabilidad de que las sub-firmas coincidan correctamente con una redifusión del segmento correspondiente, así como las probabilidades de que las sub-firmas coincidan falsamente. El modo en que la probabilidad de una correcta coincidencia se valore se discute mas adelante en este documento. El cociente de la probabilidad de un falso emparejamiento o falsa coincidencia se determina como la media de un primer valor inversamente proporcional a la cantidad de información en la firma (esto es, cuanto mayor número de bits que son iguales, más alto se hace el primer valor) y un segundo valor que es un valor de aglutinación normalizado para la firma. El valor de aglutinación normalizado se obtiene multiplicando el número de firmas de clave en la base de datos que tienen la misma palabra clave como la firma bajo consideración, por la probabilidad a priori de que se produzca la firma de trama (o cualquier permutación de un único bit de la misma) correspondiente con esa palabra clave. El valor de aglutinación normalizado representa la tendencia de las firmas de clave a concentrarse (o aglutinarse) bajo una determinada palabra clave.
- 11.
- Número de bits de máscara fijado - este número representa la suma total de todos los bits de máscara que se fijan para la palabra clave y las todas las palabras de coincidencia asociadas.
- 12.
- Cociente de falsa coincidencia - este representa la probabilidad de que la firma de clave respectiva proporcione una falsa coincidencia cuando se compara frente a una firma de segmento y se determina en la manera tratada anteriormente en conexión con las reglas de coincidencia.
- 13.
- Nitidez - a menudo hay múltiples tramas consecutivas en un segmento que son sustancialmente idénticas, por ejemplo, tramas de la señal de vídeo correspondientes a una única escena. Tales grupos de tramas consecutivas sustancialmente idénticas se llaman carreras. La nitidez representa la tasa de cambio en los bits de las firmas de trama en los extremos de las carreras de las cuales se derivó la firma de clave y se usa para delinear los bordes de las carreras.
- 14.
- Probabilidad de coincidencia de otras sub-firmas de clave correspondientes - como se ha mencionado previamente, las firmas de clave puede dividirse en dos sub-firmas, esto es, una para audio y otra para vídeo. La probabilidad de coincidencia se denomina en este documento a la probabilidad de que la otra sub-firma correspondiente coincida para el segmento respectivo. Por ejemplo, consideremos la situación en la que el subsistema de reconocimiento de segmentos 26 detecta una coincidencia de audio, pero no una coincidencia de vídeo, para un segmento en particular. Esta información de coincidencia se suministra posteriormente al sistema experto con lo cual, si la sub-firma de clave de audio ha indicado en la misma que hay una probabilidad de coincidencia relativamente alta de que la otra sub-firma (es decir, la sub-firma de vídeo) coincida, el sistema experto probablemente no aceptará esta como una coincidencia, ya que la sub-firma de clave de vídeo también habrá coincidido. La probabilidad de coincidencia se determina en el curso de la palabra de clave de y la selección de la palabra de coincidencia, como se describe más adelante.
- 15.
- Número de sub-firmas - este número representa el número de sub-firmas que ha generado el módulo de generación de firmas de clave para un respectivo segmento. En ciertas situaciones, como se ha mencionado previamente, el módulo de generación de firmas de clave puede generar múltiples firmas (o sub-firmas) para un segmento particular si esto incrementa la probabilidad de obtener más coincidencias aceptables. Por ejemplo, si la primera sub-firma de clave producida tiene una probabilidad de falsa coincidencia baja, así como una baja probabilidad de coincidencia verdadera, el módulo 410 puede generar sub-firmas adicionales para el segmento para incrementar la probabilidad de una coincidencia verdadera. Si es así, al generar cada sub-firma adicional el módulo 410 excluye firmas de trama de las carreras usadas previamente para generar sub-firmas de clave. No obstante, si la probabilidad de falsa coincidencia de la primera sub-firma de clave es comparativamente alta, no se generan sub-firmas adicionales ya que incrementaría las posibilidades de una falsa coincidencia. Además, si el módulo 410 determina que la probabilidad de falsa coincidencia para una sub-firma de vídeo es muy alta, puede elegir no generar ninguna sub-firma de vídeo. En una realización preferida, el módulo de generación de firmas de clave puede generar hasta cuatro sub-firmas de clave de audio y vídeo.
- 16.
- Ancho de pico esperado - típicamente, tanto las palabras clave como las palabras de coincidencia se seleccionan del medio de las carreras de firmas de trama. Consecuentemente, el subsistema de reconocimiento de segmentos 26 puede detectar múltiples coincidencias sobre una firma de clave determinada para tramas consecutivas. El número de tales coincidencias detectadas consecutivamente se denomina como ancho de pico. El módulo de generación de firmas de clave examina la estructura de la carrera en la firma de segmento y genera un valor de ancho de pico anticipado del mismo.
Como se ha descrito previamente, cada trama de
un segmento entrante tiene una firma de trama asociada con el
mismo. El módulo de generación de firmas de clave examina cada una
de estas firmas de trama para seleccionar una palabra clave
aceptable y ocho palabras de coincidencia para la firma de clave
respectiva. Al realizar tal selección, el módulo generador de
firmas de clave 410 emplea los siguientes criterios:
- 1.
- Distribución de las firmas de trama seleccionadas - las palabras de coincidencia se seleccionarán de entre las firmas de trama que se distribuyen uniformemente a través de la firma de segmento. Tal selección reduce la probabilidad de falso emparejamiento. Por ejemplo, si dos o más anuncios tienen escenas similares, seleccionado palabras de coincidencia de entre las firmas de trama distribuidas uniformemente tiende a causar que al menos varias de las palabras de coincidencia a seleccionar de las firmas de trama queden fuera de las escenas similares. La distribución de las palabras de coincidencia se cuantifica como una separación normalizada en tiempo o intervalos de trama entre las mismas. No obstante, las firmas de tramas próximas a los extremos del segmento evitarán asegurar que las carreras de las que se han seleccionado están contenidas dentro del segmento respectivo, así como evitar utilizar señales que son más propensas a variaciones en el nivel de la señal (por ejemplo, debido a los retardos inherentes en el control automático de ganancia). Además, las palabras clave se seleccionan preferiblemente de tramas próximas al comienzo del segmento, para maximizar el tiempo disponible para el sistema experto para evaluar una coincidencia sobre la firma de clave correspondiente. Tanto las palabras clave como las palabras de coincidencia se seleccionarán de firmas en el centro de las carreras o cerca; esta consideración se implementa por el criterio de probabilidad de coincidencia en el modo descrito más adelante.
- 2.
- La probabilidad de que se genere un valor de firma de trama particular - las firmas de trama generadas por el subsistema de reconocimiento de segmentos 26 puede no estén distribuidas uniformemente de entre todos los valores posibles de las firmas de trama, pero en cambio puede aglutinarse con otras firmas de trama similares. Esto corresponde con la distribución a priori de las firmas de trama tratadas anteriormente en conexión con las reglas de coincidencia y se determina recogiendo estadísticamente grandes cantidades de firmas de trama y determinando su distribución global para determinar una probabilidad normalizada de generación para cada firma de trama potencial. El aglutinamiento de firmas de trama puede causar que ocurran falsas coincidencias y aumente significativamente la carga de procesamiento del correlacionador. Como resultado, al seleccionar las firmas de trama, el módulo de generación de firmas de clave favorece las firmas de trama que no están tan aglutinadas en comparación con una firma de trama de aglutinación, minimizando por lo tanto el número de firmas de clave que tienen palabras de coincidencia con valores similares.
- 3.
- La distribución de las palabras clave establecidas previamente - el módulo generador de firmas de clave 410 considera la distribución de palabras clave que se han generado previamente y se han almacenado en una base de datos del subsistema de reconocimiento de segmentos 26. Como ejemplo, para una palabra clave particular, el módulo de generación de firmas de clave considera el número de firmas de clave generadas que están asociadas con esta palabra clave. Si tal palabra clave está ya asociada con un gran número de firmas de clave, tal palabra clave es menos probable que se seleccione comparada con una palabra clave asociada con un menor número de firmas de clave. De este modo, se utiliza este factor, como el factor 2 anterior para minimizar el aglutinamiento para reducir el número de falsas coincidencias que ocurren y para reducir la carga de procesamiento del correlacionador. No obstante, a diferencia del factor 2 anterior, este factor es dependiente de las señales de difusión. Por ejemplo, si se reciben varios anuncios que tienen contenidos de datos similares, entonces pueden generarse varias firmas de clave que tienen idénticas palabras clave. Esto no es debido al subsistema de reconocimiento de segmentos 26, a diferencia del factor 2 anterior, pero es una función de los datos de difusión y se determina como una frecuencia normalizada de ocurrencia. Los factores 2 y 3 se multiplican para obtener un factor único indicando la falta de deseo de una palabra clave determinada debido al agrupamiento.
- 4.
- Longitud de la carrera - se ha observado que carreras relativamente cortas, por ejemplo, las que tienen longitudes menores que aproximadamente cinco tramas, son menos probablemente coincidentes comparadas con las carreras más largas. Además, también se observa que la probabilidad de tener una coincidencia aceptable no aumenta significativamente para carreras relativamente largas, por ejemplo, aquellas que tienen una longitud más larga que aproximadamente diez tramas. No obstante, tales carreras relativamente largas pueden producir firmas de clave que tienen una entropía relativamente baja. De este modo, es deseable utilizar longitudes de carrera que no son relativamente cortas ni relativamente largas. En el entorno preferido, el módulo de generación de firmas de clave utiliza carreras que tienen una longitud aproximada de cinco a diez tramas. Consecuentemente, se asigna una figura normalizada de mérito para cada longitud de carrera en base a los criterios anteriores.
- 5.
- Probabilidad de coincidencia - una vez que se han definido las carreras de longitud aceptable, el módulo generador de firmas de clave 410 evalúa la probabilidad de que las firmas de trama coincidan satisfactoriamente cada una durante una redifusión del correspondiente segmento de acuerdo con el proceso de coincidencia de la palabra clave. Más específicamente, la palabra clave se selecciona como la firma de trama a un desplazamiento n del segmento más probablemente coincidente bajo la redifusión del segmento dentro de una banda de guarda predeterminada de \pm g firmas de trama. Si la probabilidad de una coincidencia con una firma de trama a un desplazamiento m de acuerdo con el procedimiento de coincidencia de palabras clave (esto es, una coincidencia de todos los 16 bits o de al menos 15 de los 16 bits) se denomina pk(m, n), entonces la probabilidad pk(m, n) puede determinarse como sigue:
pk (m, n) =
15*PM + S[PM/P(i)],
\hskip0.5cmi = 0 a 15
- donde PM es la probabilidad de una coincidencia sobre todos los bits determinada como sigue:
PM = producto
de [P(i)],
\hskip0.5cmi = 0 a 15
- y P(i) es la probabilidad de una coincidencia de los bits (i) de una palabra clave potencial y la firma de trama, donde i = 0 a 15. Se apreciará que P(i) se determina sobre la base de los bits de máscara respectivos de la palabra clave potencial y comparándose con la firma de trama.
- Se aprecia además que la probabilidad de que una palabra clave potencial con un desplazamiento n coincida con una o más firmas de tramas junto con un intervalo determinado desde un desplazamiento a un desplazamiento b, denominado pk(a:b, n) puede deducirse a partir de la relación:
pk(a:a+1, n) =
pk(a,n) + pk(a+1, n) = [pk(a,n) *pk(a+1,
n)].
- Por inducción, se ve que:
pk(a:b,
n) = pk(a:b-1, n) + pk(b, n) -
[pk(a:b-1, n) * pk(b,
n)],
- que permite fácilmente una determinación de la probabilidad que una palabra clave potencial determinada en el desplazamiento n coincida con al menos una firma de trama sobre el intervalo \pm g, denominada pk(n-g:n+g, n). Una técnica ventajosa para determinar la banda de guarda \pm g calcula pk(n-g:n+g, n) para valores de g que aumentan desde cero hasta pk(n-g, n) o bien pk(n+g, n) está por debajo de un umbral predeterminado, lo cual asegura que las palabras clave potenciales cerca de los centros de carreras están ventajosamente acordes con probabilidades más altas que las más próximas a los extremos de las carreras. Determinando tales probabilidades respectivas para todas las palabras clave potenciales de entre las carreras aceptables de la firma de segmento, a cada palabra clave potencial se asigna una figura de mérito basada en la probabilidad de coincidencia determinada en el modo anterior.
- Las figuras relativas de mérito se asignan también a palabras de coincidencia potenciales que pueden seleccionarse de las firmas de trama de carreras aceptables. La figura de mérito se determina de acuerdo con el modo en el que se utilizan las palabras de coincidencia en el proceso de coincidencia, concretamente, el número de bits de cada palabra de coincidencia potencial a un desplazamiento n que se esperan que coincidan con las firmas de trama a los desplazamientos respectivos m dentro de la carrera correspondiente se determinan y se promedian sobre la carrera para deducir un número medio de bits que se espera que coincidan sobre la carrera como figura de mérito. El número de bits que se espera que coincidan entre una palabra de coincidencia potencial a un desplazamiento n y una firma de trama a un desplazamiento m, denominado bm(m, n) se determina como sigue:
bm(m, n)
= S[P(i)],
\hskip0.5cmi = 0 a 15
- donde P(i) es la probabilidad de una coincidencia de los bits (i), obtenida de la misma forma que en el caso de la determinación de la probabilidad de coincidencia de la palabra clave. A continuación se determina la media del número de bits que se espera que coincidan bm(m, n), sobre una longitud de carrera desde la desviación a hasta la desviación b como sigue:
bm(a: b,
n) = S[bm(m, n)] / (b-a+1),
\hskip0.5cmm = a hasta b.
- Las fronteras de a y de b de la carrera se determinan de la misma forma que en el caso de la determinación de la probabilidad de coincidencia de la palabra clave.
- 6.
- Entropía - el módulo de generación de firmas de clave prefiere palabras de coincidencia de las firmas de segmento que tienen una entropía relativamente alta, esto es, las palabras de coincidencia que tienen cada una un contenido de datos respectivo que es diferente que el de otras palabras de coincidencia seleccionadas. La selección de palabras de coincidencia de entropía elevada minimiza la correlación entre palabras de coincidencia y, consecuentemente reduce la probabilidad de falsos emparejamientos. Una diferencia normalizada en el contenido de datos entre las palabras de coincidencia puede determinarse contando el número de bits que son diferentes entre las palabras de coincidencia.
- 7.
- Nitidez de la carrera - el módulo de generación de firmas de clave selecciona preferiblemente una palabra clave y ocho palabras de coincidencia desde dentro de las carreras de tramas que están delimitadas por firmas de trama que tienen valores de firma que son sustancialmente diferentes que los de las tramas adyacentes dentro de la carrera. La diferencia en los valores de bits entre la firma de la trama de frontera y las firmas adyacentes dentro de la carrera se usan para deducir una figura de mérito normalizada para la nitidez de la carrera.
Se aprecia que puede que no siempre sea posible
optimizar cada uno de los siete factores anteriores seleccionando
una palabra clave y/o palabras de coincidencia. Consecuentemente,
para cada palabra clave y/o cada palabra de coincidencia a
considerar, el módulo de generación de firma de clave asigna un
valor de mérito normalizado para cada uno de los siete factores
descritos anteriormente como se ha descrito anteriormente. Para la
selección de la palabra clave, se obtienen los factores de
ponderación de la palabra clave respectiva desde un fichero de
parámetros y se multiplican por los valores de mérito normalizados
correspondientes. Los productos se suman a continuación para
obtener un valor de mérito global para cada palabra de clave
posible. Para la selección de la palabra de coincidencia, se emplea
el mismo proceso de ponderación y combinación de los factores de
mérito normalizados, utilizando los diferentes factores de
ponderación respectivos del fichero de parámetros.
Los ficheros de parámetros se deducen
empíricamente. De acuerdo con una técnica para hacerlo, todos los
factores de ponderación se fijan inicialmente al mismo valor y las
firmas de clave se generan a continuación para evaluar la
importancia relativa de cada criterio en la generación de la firma
de clave. Este proceso se repite hasta que se averigua por
acumulación y evaluación de resultados, los factores de ponderación
más ventajosos. Se mantienen diferentes ficheros de parámetros para
las firmas de audio y vídeo en reconocimiento de sus características
diferentes. Los ficheros de parámetros también incluyen valores
permisibles máximos para los umbrales de error como una función de
la longitud del segmento, ya que se ha observado que los segmentos
relativamente cortos, por ejemplo, aquellos más cortos de
aproximadamente 10 segundos, son más propensos a falsas
coincidencias que los segmentos relativamente mas largos, por
ejemplo aquellos de 30 segundos o más.
Las etapas básicas utilizadas por el módulo de
generación de firmas de clave se ilustran en la Fig. 18. Como se
muestra en la misma, las firmas de trama de carreras definidas que
están bajo consideración para su uso como palabras clave y palabras
de coincidencia se obtienen como se muestra en las etapas S200 y
S210, respectivamente. Posteriormente, en S220, se seleccionan la
palabra clave más aceptable y las palabras de coincidencia
comparando los valores de mérito total para cada una de las
palabras clave y palabras de coincidencia candidatas, como se ha
descrito anteriormente junto con criterios absolutos tales como la
observación de los umbrales de error permisibles máximos. En la
etapa S230 se crea como se indica la firma de clave correspondiente
de la palabra clave seleccionada y las palabras de coincidencia.
Posteriormente, en la etapa S240, se hace la determinación de si se
producirán más firmas de clave para incrementar la probabilidad de
coincidencia. Si la determinación en al etapa S240 se afirmativa,
se producen firmas de clave adicionales repitiendo las etapas
S200-S230, utilizando, no obstante, diferentes
carreras. Si, por el contrario, no se requieren firmas de clave
adicionales, como se indica por el NO en la etapa S240, entonces se
formulan las reglas de coincidencia para la firma de clave generada
en la etapa S230 y se combinan con la firma de clave, como se indica
en la etapa S250.
Refiriéndonos de nuevo a la Fig. 17, se ilustran
en la misma los flujos de datos de señal típicos en la generación
de una firma de clave. El flujo de los datos de señal es
principalmente entre el subsistema de reconocimiento de segmentos
26 y la computadora de control 30. Más específicamente, se recibe
una señal de difusión deseada por el convertidor respectivo de los
convertidores 24, que está sintonizado al canal deseado. Las señales
banda base de vídeo y audio se suministran desde el sintonizador 24
a la correspondiente de las tarjetas de canal 402 del subsistema de
reconocimiento de segmentos 26 que está adaptado para generar firmas
de trama y las correspondientes palabras de máscara para cada una
de las tramas de las señales banda base recibidas. Estas firmas de
trama y palabras de máscara se suministran al controlador de
reconocimiento de segmentos 404 del subsistema de reconocimiento de
segmentos 26.
Antes de que pueda determinarse que se ha
recibido un nuevo segmento de interés de modo que deba producirse
una firma de clave, el controlador de reconocimiento de segmentos
404 intenta emparejar las firmas de trama recibidas con las firmas
de clave existentes, como se ha descrito previamente. El controlador
de reconocimiento de segmentos 404 suministra indicios (incluyendo
información de coincidencia) al módulo del sistema experto 414
contenido dentro de la computadora de control 30 que usa el sistema
experto para detectar nuevos segmentos de interés. Posteriormente,
el sistema experto 414 suministra una señal de petición al
controlador de reconocimiento de segmentos 404 para la firma de
segmento del segmento que no coincidía y que puede ser un nuevo
segmento de interés. En respuesta a la misma, el controlador de
reconocimiento de segmentos 404 recupera la firma de segmento
respectiva desde el almacenamiento de anillo de firmas de segmento
406 y suministra la misma al módulo del sistema experto. Si el
sistema experto 414 determina que el segmento respectivo es un
segmento de interés, el sistema experto suministra una señal, que
incluye toda la información necesaria pertinente al mismo (por
ejemplo, la firma de segmento, un número de identificación, el canal
y la hora del día), a través del módulo de control de la base de
datos 416 al generador de firmas de clave 410 implementado por la
computadora de control 30. El generador de firmas de clave 410
genera una nueva firma de clave para el segmento recibido del modo
descrito previamente y suministra la nueva firma de clave a través
del módulo de control de la base de datos 416 al controlador de
reconocimiento de segmentos 404 que, a su vez, suministra la misma a
la base de datos de firmas de clave 408. Además la información
relativa al nuevo segmento de interés se suministra desde el módulo
de control de la base de datos 416 a la base de datos 412.
El término "probabilidad" como se usa a lo
largo de esta especificación se refiere tanto a la probabilidad
relativa o frecuencia de ocurrencia de un evento o eventos como a la
probabilidad absoluta de un evento o eventos que ocurren, y puede
expresarse como un valor normalizado o de otro modo, por ejemplo,
una expresión sin cuantificar de la probabilidad relativa de dos o
más eventos. El término "difusión" como se usa en este
documento se refiere a los diversos modos para la amplia
diseminación de información, tales como la difusión de radio y
televisión, tanto si se distribuye sobre el aire, por cable, CATV,
satélite o de otro manera, así como otros modos para la diseminación
amplia de datos e información.
Se apreciará que, mientras que en la realización
descrita se utilizan las tramas de vídeo o los intervalos de campo
para la generación de firmas así como para otros propósitos en
conexión con un sistema de reconocimiento de anuncios de
televisión, el uso de intervalos de campos o tramas se emplea por
mera conveniencia, y se entiende que pueden seleccionarse
diferentes intervalos para la generación de firmas o tales otros
propósitos. Como ejemplo, las firmas pueden producirse a partir de
combinaciones de campos o tramas o a partir de subconjuntos de
información de tramas o campos en señales de vídeo, y que los
intervalos de audio no necesitan corresponderse con intervalos de
vídeo, sino que pueden elegirse arbitrariamente. De acuerdo con un
sistema para el reconocimiento de segmentos de difusión de radio,
puede utilizarse cualquier intervalo arbitrario para la generación
de firma y otros propósitos, a condición de que se incluya
suficiente información en el intervalo seleccionado.
Aunque que se ha descrito una realización de la
presente invención para el reconocimiento de anuncios de difusión
en televisión, se entenderá que los sistemas y métodos para el
reconocimiento de patrones continuo de segmentos de difusión de
acuerdo con la presente invención puede utilizarse para otros
propósitos, tales como determinar qué programas, canciones u otros
trabajos se ha difundido, por ejemplo, para determinar el pago de
derechos de autor, o de otro modo para determinar los programas,
anuncios u otros segmentos que se han recibido por miembros de la
audiencia que participan en un una encuesta de medición de
audiencia.
Se apreciará que los sistemas y métodos de la
presente invención pueden implementarse en todo o en parte usando
circuitería analógica o digital, o ambas, y que los elementos y
etapas de mismo pueden implementarse o realizarse utilizando
cualquier configuración de las variedades de sistemas y subsistemas
y de dispositivos, y que las diversas etapas y elementos pueden
realizarse e implementarse bien con el uso de hardware o software
basado en procesadores.
Aunque se han descrito en detalle las
realizaciones específicas de la invención en este documento con
referencia a los dibujos que se acompañan, se entiende que la
invención no está limitada a esas precisas realizaciones, y que
pueden efectuarse diversos cambios y modificaciones en las mismas
por un especialista en la técnica sin apartarse del alcance de la
invención como se define en las reivindicaciones adjuntas.
Se apreciará de la descripción anterior que la
presente aplicación proporciona un método para el reconocimiento de
segmentos de difusión, que comprende las etapas de: producir una
firma para cada uno de una pluralidad de segmentos de difusión a
reconocer; almacenar cada una de dichas firmas para formar una base
de datos de firmas de segmentos de difusión; monitorizar un
segmento de difusión; formar una firma que represente el segmento
de difusión monitorizado; comparar la firma que representa el
segmento de difusión monitorizado con al menos una de las firmas de
segmentos de difusión de la base de datos para determinar si existe
una coincidencia entre las mismas; y evaluar la validez de una
coincidencia de un segmento de difusión monitorizado realizando al
menos uno de: (a) determinar si el segmento de difusión monitorizado
está delimitado temporalmente por eventos de señal predeterminados;
(b) determinar si el segmento de difusión monitorizado solapa otro
segmento de difusión monitorizado para el cual se ha aceptado una
coincidencia de acuerdo con criterios predeterminados; y (c)
determinar si la coincidencia se conforma con un perfil
predeterminado de segmentos de falsa coincidencia. En tal método la
etapa de evaluar la validez de una coincidencia comprende determinar
si el segmento de difusión monitorizado está delimitado
temporalmente por eventos de señal predeterminados; además, la etapa
de determinar si el segmento de difusión monitorizado está
delimitado temporalmente por eventos de señal predeterminados
comprende determinar si la firma de un segmento de difusión
monitorizado adyacente coincide con una firma en dicha base de
datos. Adicionalmente, la etapa de formar una firma que representa
el segmento de difusión monitorizado comprende formar una firma de
una señal de vídeo de dicho segmento de difusión monitorizado, y la
etapa de determinar si el segmento de difusión monitorizado está
delimitado temporalmente por eventos de señal predeterminados
comprende determinar si la señal de vídeo del segmento de difusión
monitorizado incluye un desvanecimiento al negro en al menos un
extremo del mismo. La etapa de evaluar la validez de una
coincidencia puede comprender determinar si el segmento de difusión
monitorizado solapa otro segmento de difusión monitorizado para el
cual se ha aceptado una coincidencia de acuerdo con criterios
predeterminados, y/o determinar si la coincidencia se conforma con
un perfil predeterminado o segmentos de falso emparejamiento; la
etapa de determinar si la coincidencia se conforma con un perfil
predeterminado de segmentos de falso emparejamiento puede comprender
formar dicho perfil de segmentos de falso emparejamiento basado en
al menos uno de (1) la longitud del segmento de difusión
monitorizado, (2) la diferencia de dicha, al menos una, firma de
segmento de difusión de la base de datos de otras firmas en la base
de datos y (3) la frecuencia de ocurrencia de al menos porciones de
dicha, al menos una de las firmas de segmentos de difusión como se
producen. La etapa de comparar las firmas puede comprender
determinar una diferencia entre la firma que representa el segmento
de difusión monitorizado y la, al menos una, de las firmas de
segmentos de difusión de la base de datos y comparar la diferencia
determinada con un valor umbral de error predeterminado
correspondiente con la, al menos una, firma de segmento de difusión,
y en el que la etapa de determinar si al coincidencia se conforma
con un perfil predeterminado de segmentos de falso emparejamiento
comprende formar dicho perfil de segmentos de falsa emparejamiento
en base a uno de (1) dicho valor umbral de errores predeterminado,
y (2) la diferencia entre dicho valor umbral de errores
predeterminado y dicha diferencia predeterminada. La etapa de formas
dicho perfil de segmentos de falsa coincidencia puede comprender
formar una combinación lineal de valores representando (1) dicho
valor umbral de errores predeterminado, (2) dicha diferencia entre
dicho valor umbral de errores predeterminado y dicha diferencia
determinada, (3) la longitud del segmento de difusión monitorizado,
(4) las diferencia de dichas, al menos una, firmas de segmentos de
difusión de la base de datos de otras firmas en la base de datos, y
(5) la frecuencia de ocurrencia de al menos porciones de dichas, al
menos una, firmas de segmento de difusión como se producen.
Se apreciará además de la descripción anterior
que se ha descrito un sistema de reconocimiento de segmentos de
difusión, que comprende; un medio para producir una firma para cada
uno de una pluralidad de segmentos de difusión a reconocer; un
medio para almacenar cada una de dichas firmas para formar una base
de datos de firmas de segmentos de difusión; un medio para
monitorizar un segmento de difusión; un medio para formar una firma
que represente el segmento de difusión monitorizado; un medio para
comparar la firma que representa el segmento de difusión
monitorizado con al menos una de las firmas de segmento de difusión
de la base de datos para determinar si existe una coincidencia
entre las mismas; y un medio para evaluar la validez de una
coincidencia de un segmento de difusión monitorizado realizando al
menos uno de: (a) determinar si el segmento de difusión
monitorizado está delimitado temporalmente por eventos de señal
predeterminados; (b) determinar si el segmento de difusión
monitorizado solapa otro segmento de difusión monitorizado para el
que se ha aceptado una coincidencia de acuerdo con criterios
predeterminados; y (c) determinar si la coincidencia es conforme con
un perfil predeterminado de segmentos de falso emparejamiento.
Se apreciará además de la descripción anterior
que se ha descrito un método para el reconocimiento de segmentos de
difusión comprendiendo las etapas de: producir una firma para cada
uno de una pluralidad de segmentos de difusión a reconocer;
almacenar cada una de dichas firmas para formar una base de datos de
firmas de segmentos de difusión; monitorizar un segmento de
difusión; formar una firma que representa el segmento de difusión
monitorizado; comparar la firma que representa el segmento de
difusión monitorizado con cada firma de una pluralidad de firmas de
segmentos de difusión de la base de datos para determinar si existe
una coincidencia entre las mismas de acuerdo con un primer nivel de
tolerancia de error; evaluar si la coincidencia cae dentro de una
clase de coincidencias de aceptación cuestionable en base a
criterios de evaluación predeterminados, y si la coincidencia cae
dentro de dicha clase de coincidencias de aceptación cuestionable,
comparar la firma que representa el segmento de difusión
monitorizado con la firma del segmento de difusión de emparejamiento
de la base de datos utilizando una segundo nivel de de tolerancia
de errores aceptando coincidencias que tienen niveles de error
relativamente más altos que las coincidencias aceptables de acuerdo
con el primer nivel de tolerancia de errores. La etapa de evaluar
si la coincidencia cae dentro de una clase de coincidencias de
aceptación cuestionable comprende al menos uno de determinar si el
segmento de difusión monitorizado está delimitado temporalmente en
sólo un extremo del mismo por al menos un evento de una pluralidad
de eventos de señal predeterminados y determinar para un segmento
de difusión monitorizado que no está delimitado en ningún extremo
por dicho, al menos uno, de una pluralidad de eventos de señal
predeterminados, si dicho segmento de difusión monitorizado se
adapta a un perfil predeterminado de segmentos de falso
emparejamiento. La etapa de determinar si el segmento de difusión
monitorizado está delimitado temporalmente en sólo un extremo del
mismo por al menos un evento de una pluralidad de eventos de señal
predeterminados comprende determinar si el segmento de difusión
monitorizado está delimitado temporalmente sobre sólo un extremo por
otro segmento de difusión monitorizado que empareja con una firma
en dicha base de datos. La etapa de formar una firma que represente
el segmento de difusión monitorizado comprende formar una firma de
la señal de vídeo de dicho segmento de difusión monitorizado y la
etapa de determinar si el segmento de difusión monitorizado está
delimitado temporalmente sobre sólo un extremo del mismo por al
menos un evento de una pluralidad de eventos de señal
predeterminados comprende determinar si el segmento de difusión
monitorizado está delimitado en sólo un extremo del mismo por al
menos uno de (1) otro segmento de difusión monitorizado que empareja
con una firma en dicha base de datos, y (2) un desvanecimiento al
negro de dicha señal de vídeo. La etapa de producir una firma para
cada uno de una pluralidad de segmentos de difusión a reconocer
comprende formar una primera y una segunda firmas de las señales de
audio y vídeo, respectivamente, de cada uno de dicha pluralidad de
segmentos de difusión a reconocer; la etapa de formar una firma que
represente el segmento de difusión monitorizado comprende formar
una tercera y cuarta firmas de las señales de audio y vídeo,
respectivamente, del segmento de difusión monitorizado; la etapa de
comparar las firmas comprende comparar las firmas tercera y cuarta
con cada una de una pluralidad de firmas primera y segunda,
respectivamente, de la base de datos; y la etapa de evaluar si la
coincidencia cae dentro de una clase de coincidencias de aceptación
cuestionable comprende determinar que una de las coincidencias de
la firma tercera con respecto a una de una pluralidad de las firmas
primeras y una coincidencia de la cuarta firma con la respectiva de
la pluralidad de segundas firmas cae dentro de dicha clase de
coincidencias de aceptación cuestionable cuando la otra firma
correspondiente no empareja con la respectiva de la pluralidad de
firmas primera y segunda.
Se apreciará también de la descripción anterior
que se ha descrito un sistema de reconocimiento de segmentos de
difusión, que comprende: un medio para producir una firma para cada
uno de una pluralidad de segmentos de difusión a reconocer; un
medio para almacenar cada una de dichas firmas para formar una base
de datos de firmas de segmentos de difusión; un medio para
monitorizar un segmento de difusión; un medio para formar una firma
que represente el segmento de difusión monitorizado; un medio para
comparar la firma que representa el segmento de difusión
monitorizado con cada una de una pluralidad de firmas de segmento de
difusión de la base de datos para determinar si existe una
coincidencia entre las mismas de acuerdo con un primer nivel de
tolerancia de error, y un medio para evaluar si la coincidencia cae
dentro de una clase de coincidencias de aceptación cuestionable en
base a criterios de evaluación predeterminados, y si es así, para
comparar la firma que representa el segmento de difusión
monitorizado con la firma del segmento de difusión de emparejamiento
de la base de datos utilizando un segundo nivel de tolerancia de
error aceptando coincidencias que tienen niveles de error
relativamente más altos que las coincidencias aceptables de acuerdo
con el primer nivel de tolerancia de error.
Se apreciará también de la descripción anterior
que la aplicación también se refiere a un método para actualizar
una base de datos de reconocimiento de segmentos de difusión que
almacena firmas para su uso en el reconocimiento de segmentos de
difusión de interés, que comprende las etapas de: monitorizar una
señal de difusión para detectar eventos de señal predeterminados
que indican posibles segmentos de difusión de interés
correspondiendo con intervalos de señal de difusión monitorizados
respectivos; determinar si se detectan al menos dos segmentos de
difusión posibles alternativos de interés para un intervalo de señal
de difusión monitorizada; asignar prioridad a uno de dichos, al
menos dos, segmentos de difusión posibles alternativos de interés en
base a criterios predeterminados; y almacenar una firma en la base
de datos correspondiente con uno de dichos, al menos dos, segmentos
de difusión posibles alternativos de prioridad asignada.
Se apreciará además de la descripción anterior
que la aplicación también se refiere a un sistema para actualizar
una base de datos del reconocimiento de segmentos de difusión que
almacena firmas para su uso en el reconocimiento de segmentos de
difusión de interés, que comprende: un medio para monitorizar una
señal de difusión para detectar eventos de señal predeterminados
que indican posibles segmentos de difusión de interés que
corresponden con intervalos de señal de difusión monitorizados
respectivos; determinar si se detectan al menos dos posibles
segmentos de difusión alternativos de interés para un intervalo de
señal de difusión monitorizado; un medio para asignar prioridad a
uno de dichos, al menos dos, segmentos de difusión de interés
posibles alternativos bajo criterios predeterminados; y un medio
para almacenar una firma en la base de datos correspondiente con
uno de dichos, al menos dos, segmentos de difusión posibles
alternativos de interés de prioridad asignada.
Se apreciará además a partir de la descripción
anterior que la aplicación también se refiere a un método para
capturar selectivamente al menos una señal de audio de difusión y
una señal de vídeo de difusión para su uso en la actualización de
la base de datos del reconocimiento de segmentos de difusión que
almacena firmas para su uso en el reconocimiento de segmentos de
difusión de interés, que comprende las etapas de almacenar
temporalmente al menos una señal de audio de difusión y una señal
de vídeo de difusión de una difusión monitorizada; detectar eventos
de señal predeterminados indicando posibles nuevos segmentos de
difusión de interés de la difusión monitorizada; seleccionar
intervalos de la difusión monitorizada como posibles nuevos
segmentos de difusión de interés en base a dichos eventos de señal
predeterminados; asignar un primer nivel de captura para un primer
intervalo seleccionado en base a características predeterminadas del
mismo indicando que dicho primer intervalo seleccionado es
probablemente un nuevo segmento de interés; asignar un segundo nivel
de captura a un segundo intervalo seleccionado en base a
características predeterminadas del mismo indicando que el segundo
intervalo seleccionado es relativamente menos probable que el
primer intervalo seleccionado para que sea un nuevo segmento de
interés; almacenar una segunda firma que corresponde con el primer
elemento seleccionado en la base de datos y capturar al menos una
de las señales de audio y vídeo de difusión almacenadas
temporalmente que corresponden con el primer intervalo seleccionado
para su transmisión a un operario de una estación de trabajo para
identificación de segmentos; almacenar una firma correspondiente
con el segundo intervalo seleccionado en el base de datos; y borrar
la señal almacenada temporalmente de las señales de difusión de
audio y vídeo correspondientes con el segundo intervalo
seleccionado. El método puede comprender además las etapas de
detectar una coincidencia de la firma almacenada que representa el
segundo intervalo seleccionado con una firma que representa un
segmento recibido posteriormente, y capturar al menos uno de los
datos de audio y vídeo de los segmentos recibidos posteriormente
para su transmisión a un operario de una estación de trabajo para el
reconocimiento del nuevo intervalo.
Se apreciará además de la descripción anterior
que la aplicación se refiere también a un sistema para capturar
selectivamente al menos una señal de audio de difusión y una señal
de vídeo de difusión para su uso en la actualización de la base de
datos de reconocimiento de segmentos de difusión que almacena firmas
para su uso en el reconocimiento de segmentos de interés de
difusión, comprendiendo; un medio para almacenar temporalmente al
menos una de la señal de audio de difusión y la señal de vídeo de
una difusión monitorizada; un medio para detectar eventos de señal
predeterminados indicando posibles nuevos segmentos de difusión de
interés de la difusión monitorizada; un medio para seleccionar
intervalos de la difusión monitorizada como posibles nuevos
segmentos de difusión de interés en base a dichos eventos de señal
predeterminados; un medio para asignar un primer nivel de captura a
un primer intervalo seleccionado en base a características
predeterminadas del mismo indicando que dicho primer intervalo
seleccionado es probablemente un nuevo segmento de interés; un
medio para asignar un segundo nivel de captura a un segundo
intervalo seleccionado en base a características predeterminadas
del mismo indicando que el segundo intervalo seleccionado es
relativamente menos probable que el primer intervalo seleccionado
para que sea un nuevo segmento de interés; un medio para almacenar
una firma correspondiente con el primer intervalo seleccionado en
la base de datos y capturar al menos una de las señales de difusión
de audio y vídeo almacenadas temporalmente que corresponden con el
primer intervalo seleccionado para su transmisión a un operario de
una estación de trabajo para identificación de segmentos; un medio
para almacenar una firma correspondiente con el segundo intervalo
seleccionado en la base de datos; y un medio para borrar la señal
almacenada temporalmente de las señales de difusión de audio y vídeo
correspondientes con el segundo intervalo seleccionado.
Se apreciará además a partir de la descripción
anterior que la aplicación también se refiere a un método para el
reconocimiento de segmentos de difusión que comprende las etapas de:
producir una firma para cada uno de la pluralidad de segmentos de
difusión a reconocer; determinar, para cada firma producida una
probabilidad de que tal firma producida coincida con una firma
producida bajo la redifusión del segmento de difusión
correspondiente; producir una firma adicional para cada segmento de
dicha pluralidad de segmentos de difusión a reconocer cuando dicha
probabilidad de que dicha firma producida coincida con una firma
producida bajo redifusión del segmento de difusión correspondiente
es menor que un valor predeterminado; almacenar dicha firma
producida para formar una base de datos; monitorizar un segmento de
difusión; formar una firma que representa el segmento de difusión
monitorizado; y comparar la firma que representa el segmento de
difusión monitorizado con al menos una firma almacenada en la base
de datos. La etapa de producir una firma para cada segmento de una
pluralidad de segmentos de difusión a reconocer puede comprender
formar una primera y una segunda firmas para una difusión que
incluye una señal de vídeo y una señal de audio, caracterizando la
primera firma la señal de vídeo y caracterizando la segunda firma
la señal de audio, la etapa de formar una firma que representa el
segmento de difusión monitorizado comprende formar una tercera y
una cuarta firmas que representan respectivamente las señales de
audio y vídeo incluidas en el segmento de difusión monitorizado, y
la etapa de comparar la firma que representa el segmento de
difusión monitorizado con al menos una firma comprende comparar la
tercera y cuarta firmas con la primera y segunda firmas,
respectivamente, para determinar las coincidencias correspondientes
de las mismas. La etapa de producir una probabilidad
correspondiente en base a criterios puede comprender formar una
probabilidad correspondiente en base a criterios para al menos una
de las firmas primera y segunda, y la etapa de determinar si
aceptar dicha coincidencia comprende determinar cuál de la firmas
primera y segunda no coincide con la correspondiente de las firmas
tercera y cuarta cuando (1) la probabilidad correspondiente en base
a criterios de al menos una de las firmas primera y segunda indica
que se habrá emparejado la otra de las firmas tercera y cuarta
correspondientes, y (2) la comparación de al menos una de las firmas
primera y segunda con la firma que corresponda de las firmas
tercera y cuarta produce una determinación de que la coincidencia de
las mismas no ha ocurrido. El método puede comprender también las
etapas de determinar las probabilidades respectivas de falso
emparejamiento en las firmas primera y segunda que pueden emparejar
firmas de los segmentos de difusión monitorizados que no
corresponden con el segmento de difusión del cual se produjeron las
firmas primera y segunda, y determinar si aceptar al menos una de
dichas coincidencias correspondientes en base a dichas
probabilidades de falso emparejamiento respectivas.
La etapa de determinar si aceptar al menos uno
de dichos emparejamientos correspondientes puede comprender
determinar no aceptar ninguno de dichos emparejamientos
correspondientes cuando (1) no se ha determinado un emparejamiento
de ambos y (2) ambas de dichas probabilidades de falso
emparejamiento respectivo exceden un nivel predeterminado, o
determinar aceptar cualquiera de dichos emparejamientos
correspondientes cuando ambas de dichas probabilidades de falso
emparejamiento respectivo son menores que un nivel predeterminado.
La etapa de determinar las probabilidades de falso emparejamiento
respectivo puede comprender determinar dichas probabilidades de
falso emparejamiento respectivo en base a (1) la cantidad de
información en la firma correspondiente de las firmas primera y
segunda y (2) al menos una distribución de los valores de la firmas
de los segmentos de difusión.
Se apreciará además de la descripción anterior
que la aplicación se refiere también a un sistema de reconocimiento
de segmentos, que comprende: un medio para producir una firma para
cada uno de una pluralidad de segmentos de difusión a reconocer; un
medio para determinar una probabilidad de que cada firma producida
coincida con la firma producida bajo la redifusión del segmento de
difusión correspondiente; un medio para producir una firma
adicional para cada uno de dicha pluralidad de segmentos de difusión
a reconocer cuando dicha probabilidad de que dicha firma producida
coincida con la firma producida bajo la redifusión del segmento de
difusión correspondiente es menor de un valor predeterminado; un
medio para almacenar cada firma producida para formar una base de
datos; un medio para monitorizar un segmento de difusión; un medio
para formar una firma que represente el segmento de difusión
monitorizado; y un medio para comparar la firma que representa el
segmento de difusión monitorizado con al menos una firma almacenada
en la base de datos.
Se apreciará además de la descripción anterior
que la aplicación también se refiere a un método para el
reconocimiento de segmentos de difusión, que comprende las etapas
de: producir una firma digital para cada uno de una pluralidad de
segmentos de difusión a reconocer, incluyendo cada una de dichas
firmas digitales una pluralidad de valores de bit que caracterizan
el correspondiente de dicha pluralidad de segmentos de difusión;
para cada firma digital producida, determinar un número probable de
valores de bit de la misma que coincidirán con las valores de bit
de la firma digital producida bajo la redifusión del segmento de
difusión correspondiente y producir una probabilidad
correspondiente en base a valores de coincidencia para su uso en
determinar si cada una de dichas firmas digitales producidas
coincide con una firma digital del segmento de difusión recibido
posteriormente; almacenar cada firma producida y su probabilidad
correspondiente en base al valor de coincidencia para formar una
base de datos; monitorizar un segmento de difusión; formar una firma
digital que tiene una pluralidad de valores de bit que representan
el segmento de difusión monitorizado; comparar la firma digital que
representa el segmento de difusión monitorizado con al menos una
firma digital almacenada en la base de dato; y determinar si la
firma digital que representa el segmento de difusión monitorizado
coincide con al menos una firma digital utilizando la probabilidad
correspondiente basada en el valor de coincidencia. La etapa de
producir una probabilidad correspondiente en base al valor de
coincidencia puede comprender producir un valor umbral de error que
representa un número máximo de bits correspondientes de dicha firma
digital que representan dicho segmento de difusión monitorizado y
un emparejamiento de dicha, al menos una, firma digital que puede
diferir.
Se apreciará además de la descripción anterior
que la aplicación se refiere también a un sistema de reconocimiento
de segmentos, que comprende: un medio para producir una firma
digital para cada uno de una pluralidad de segmentos a reconocer,
incluyendo cada una de dichas firmas digitales una pluralidad de
valores de bit que caracterizan el correspondiente de dicha
pluralidad de segmentos de difusión; un medio para determinar un
número probable de valores de bit de cada una de las firmas
digitales producidas que coincidirá con los valores de bit de una
firma digital producida bajo la redifusión del segmento de difusión
correspondiente y producir la probabilidad correspondiente en base
al valor de coincidencia para su uso en determinar si cada una de
dichas firmas digitales producidas coincide con la firma digital de
un segmento de difusión recibido posteriormente; un medio para
almacenar cada firma producida y su correspondiente probabilidad en
base al valor de coincidencia para formar una base de datos; un
medio para monitorizar un segmento de difusión; un medio para formar
una firma digital que tiene una pluralidad de valores de bit que
representan el segmento de difusión monitorizado; un medio de
comparar la firma digital que representa al segmento de difusión
monitorizado con al menos una firma digital almacenada en la base
de datos; y un medio para determinar si la firma digital que
representa el segmento de difusión monitorizado coincide con al
menos una firma digital utilizando la probabilidad correspondiente
en base el valor de coincidencia.
Se apreciará además a partir de la descripción
anterior que la aplicación también se refiere a un método para el
reconocimiento de segmentos de difusión, que comprende las etapas
de: producir una firma para cada uno de una pluralidad de segmentos
de difusión a reconocer; determinar para cada firma producida una
probabilidad de que tal firma producida coincida con la firma
producida bajo la redifusión del segmento de difusión
correspondiente; producir una firma adicional para cada uno de
dicha pluralidad de segmentos de difusión a reconocer cuando dicha
probabilidad de que dicha firma producida coincida con la firma
producida bajo la redifusión del segmento de difusión
correspondiente es menor que un valor predeterminado; almacenar cada
firma producida para formar una base de datos; monitorizar un
segmento de difusión; formar un firma que represente el segmento de
difusión monitorizado; y comparar la firma que representa el
segmento de difusión monitorizado con al menos una firma almacenada
en la base de datos.
Se apreciará además de la descripción anterior
que la aplicación se refiere también a un sistema de reconocimiento
de segmentos, que comprende; un medio para producir una firma para
cada uno de una pluralidad de segmentos de difusión a reconocer; un
medio para determinar una probabilidad de que cada firma producida
coincida con la firma producida bajo la redifusión del
correspondiente segmento de difusión; un medio para producir una
firma adicional para cada uno de dicha pluralidad de segmentos de
difusión a reconocer cuando dicha probabilidad de que dicha firma
producida coincida con una firma producida bajo la redifusión del
segmento de difusión correspondiente es menor de un valor
predeterminado; un medio para almacenar cada firma producida para
formar una base de datos; un medio para monitorizar un segmento de
difusión; un medio para formar una firma que represente el segmento
de difusión monitorizado; un medio para comparar la firma que
representa el segmento de difusión monitorizado con al menos una
firma almacenada en la base de datos.
Claims (10)
1. Un método (300-312) de
producir una firma de una señal de difusión de audio para su uso en
el reconocimiento de señales de difusión que comprende las etapas
de:
- formar un primer grupo de una pluralidad de valores de bandas de frecuencias, derivado cada valor de un segmento de dicha señal de difusión de audio dentro de una banda de frecuencias predeterminada respectiva;
- formar un segundo grupo de una pluralidad de valores de bandas de frecuencias, derivado cada valor de un segmento de dicha señal de difusión de audio dentro de una banda de frecuencias predeterminada respectiva, en el que los valores del segundo grupo representan segmentos de dicha señal de difusión de audio dentro de las mismas bandas de frecuencias predeterminadas respectivas que los valores del primer grupo; y
- caracterizado por:
- comparar cada valor del primer grupo de dicha pluralidad de valores de bandas de frecuencias con el valor respectivo del segundo grupo de dicha pluralidad de valores de bandas de frecuencias que representan un segmento de dicha señal de difusión de audio dentro de la misma banda de frecuencias predeterminada respectiva, representando cada valor respectivo del segundo grupo de dicha pluralidad de valores de bandas de frecuencias un segmento de dicha señal de difusión de audio al menos una parte de la cual se difundió antes que el segmento de dicha señal de difusión de audio representada por el valor correspondiente de dicho primer grupo de dicha pluralidad de valores de bandas de frecuencias; y
- formar dicha firma en base a las comparaciones de los grupos primero y segundo de dicha pluralidad de valores de bandas de frecuencias.
2. El método de la Reivindicación 1, en el que
formar dicho primer grupo de valores de bandas de frecuencias
comprende formar una pluralidad de señales de nivel de potencia
(306) representando cada una el nivel de potencia de dicha señal de
difusión de audio dentro de la banda respectiva de dichas bandas de
frecuencias predeterminadas.
3. El método de la Reivindicación 2, en el que
formar el primer grupo de una pluralidad valores de bandas de
frecuencias comprende formar las señales de bandas de frecuencias
primeras representando cada una, una característica de dicha señal
de difusión de audio dentro de la banda respectiva de dichas bandas
de frecuencias predeterminadas, y transformar cada una de dichas
señales de bandas de frecuencias primeras dividiendo cada una de
dicha pluralidad de señales de nivel de potencia por una combinación
lineal de otras de dichas señales de banda de frecuencias
primeras.
4. El método de la Reivindicación 1, en el que
formar dicha firma comprende incluir en la firma los datos de
producidos de las comparaciones de los grupos primero y segundo de
dicha pluralidad de valores de bandas de frecuencias.
5. El método de la Reivindicación 1, en el que
comparar los grupos primero y segundo de valores de bandas de
frecuencias comprende producir valores de diferencia que representan
diferencias entre los valores de las bandas de frecuencias primera y
segunda.
6. El método de la Reivindicación 5, en el que
formar dicha firma comprende incluir en la firma los datos
producidos de los valores diferencia.
7. Un sistema (250) para producir una firma de
una señal de difusión de audio para su uso en el reconocimiento de
señales de difusión que comprende:
- un medio para formar un primer grupo de una pluralidad de valores de bandas de frecuencias, derivado cada valor de un segmento de dicha señal de difusión de audio dentro de la banda de frecuencias predeterminada respectiva;
- un medio para formar un segundo grupo de una pluralidad de valores de bandas de frecuencias, derivado cada valor de un segmento de la señal de difusión de audio dentro de una banda de frecuencias predeterminada respectiva, en el que los valores del segundo grupo representan segmentos de dicha señal de difusión de audio dentro de las mismas bandas de frecuencias predeterminadas respectivas como valores del primer grupo, y
- caracterizado por:
- un medio para comparar cada valor del primer grupo de dicha pluralidad de valores de bandas de frecuencias con el valor respectivo del segundo grupo de dicha pluralidad de valores de bandas de frecuencias que representan un segmento de dicha señal de difusión de audio dentro de la misma banda de frecuencias predeterminada respectiva, representando cada valor respectivo del segundo grupo de dicha pluralidad de valores de bandas de frecuencias un segmento de dicha señal de difusión de audio al menos una parte de la cual se difundió antes que el segmento de dicha señal de difusión de audio representada por el valor correspondiente de dicho primer grupo de dicha pluralidad de valores de bandas de frecuencias; y
- un medio para formar dicha firma en base a las comparaciones de los grupos primero y segundo de dicha pluralidad de valores de bandas de frecuencias.
8. El sistema (250) de la Reivindicación 7, en
el que el medio para formar dicha firma es operativo para incluir en
la firma los datos producidos de las comparaciones de los grupos
primero y segundo de dicha pluralidad de valores de bandas de
frecuencias.
9. El sistema (250) de la Reivindicación 7, en
el que el medio para comparar los grupos primero y segundo de los
valores de bandas de frecuencias es operativo para producir valores
diferencia que representan diferencias entre los valores de las
bandas de frecuencias primera y segunda.
10. El sistema (250) de la Reivindicación 9, en
el que el medio para formar dicha firma es operativo para incluir en
la firma los datos producidos de los valores diferencia.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US876578 | 1992-04-30 | ||
US07/876,578 US5436653A (en) | 1992-04-30 | 1992-04-30 | Method and system for recognition of broadcast segments |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2284777T3 true ES2284777T3 (es) | 2007-11-16 |
Family
ID=25368063
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES02076018T Expired - Lifetime ES2284777T3 (es) | 1992-04-30 | 1993-04-30 | Metodo y sistema para el reconocimiento de segmentos de audio de difusion. |
Country Status (12)
Country | Link |
---|---|
US (5) | US5436653A (es) |
EP (2) | EP0748563B1 (es) |
JP (1) | JPH08500471A (es) |
AT (2) | ATE358366T1 (es) |
AU (3) | AU678163B2 (es) |
CA (2) | CA2134748C (es) |
DE (2) | DE69334130T2 (es) |
DK (1) | DK1261155T3 (es) |
ES (1) | ES2284777T3 (es) |
HK (1) | HK1051938A1 (es) |
PT (1) | PT1261155E (es) |
WO (1) | WO1993022875A1 (es) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8060372B2 (en) | 2007-02-20 | 2011-11-15 | The Nielsen Company (Us), Llc | Methods and appratus for characterizing media |
US8369972B2 (en) | 2007-11-12 | 2013-02-05 | The Nielsen Company (Us), Llc | Methods and apparatus to perform audio watermarking and watermark detection and extraction |
US8458737B2 (en) | 2007-05-02 | 2013-06-04 | The Nielsen Company (Us), Llc | Methods and apparatus for generating signatures |
US8457951B2 (en) | 2008-01-29 | 2013-06-04 | The Nielsen Company (Us), Llc | Methods and apparatus for performing variable black length watermarking of media |
US8600531B2 (en) | 2008-03-05 | 2013-12-03 | The Nielsen Company (Us), Llc | Methods and apparatus for generating signatures |
Families Citing this family (562)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
USRE46310E1 (en) | 1991-12-23 | 2017-02-14 | Blanding Hovenweep, Llc | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US6081750A (en) * | 1991-12-23 | 2000-06-27 | Hoffberg; Steven Mark | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
USRE47908E1 (en) | 1991-12-23 | 2020-03-17 | Blanding Hovenweep, Llc | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US5903454A (en) * | 1991-12-23 | 1999-05-11 | Hoffberg; Linda Irene | Human-factored interface corporating adaptive pattern recognition based controller apparatus |
US6418424B1 (en) | 1991-12-23 | 2002-07-09 | Steven M. Hoffberg | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US6850252B1 (en) | 1999-10-05 | 2005-02-01 | Steven M. Hoffberg | Intelligent electronic appliance system and method |
US10361802B1 (en) | 1999-02-01 | 2019-07-23 | Blanding Hovenweep, Llc | Adaptive pattern recognition based control system and method |
USRE48056E1 (en) | 1991-12-23 | 2020-06-16 | Blanding Hovenweep, Llc | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US6400996B1 (en) | 1999-02-01 | 2002-06-04 | Steven M. Hoffberg | Adaptive pattern recognition based control system and method |
US8352400B2 (en) | 1991-12-23 | 2013-01-08 | Hoffberg Steven M | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
US5436653A (en) * | 1992-04-30 | 1995-07-25 | The Arbitron Company | Method and system for recognition of broadcast segments |
US6301369B2 (en) | 1992-07-31 | 2001-10-09 | Digimarc Corporation | Image marking to permit later identification |
US5721788A (en) | 1992-07-31 | 1998-02-24 | Corbis Corporation | Method and system for digital image signatures |
US5903317A (en) * | 1993-02-14 | 1999-05-11 | Orad Hi-Tech Systems Ltd. | Apparatus and method for detecting, identifying and incorporating advertisements in a video |
US5870151A (en) * | 1993-08-31 | 1999-02-09 | Koerber; Matthias | Method and equipment for the detection of undesired video scenes |
US5841978A (en) | 1993-11-18 | 1998-11-24 | Digimarc Corporation | Network linking method using steganographically embedded data objects |
US6983051B1 (en) | 1993-11-18 | 2006-01-03 | Digimarc Corporation | Methods for audio watermarking and decoding |
US5748763A (en) | 1993-11-18 | 1998-05-05 | Digimarc Corporation | Image steganography system featuring perceptually adaptive and globally scalable signal embedding |
US6757406B2 (en) | 1993-11-18 | 2004-06-29 | Digimarc Corporation | Steganographic image processing |
US6614914B1 (en) | 1995-05-08 | 2003-09-02 | Digimarc Corporation | Watermark embedder and reader |
US7171016B1 (en) | 1993-11-18 | 2007-01-30 | Digimarc Corporation | Method for monitoring internet dissemination of image, video and/or audio files |
US6122403A (en) | 1995-07-27 | 2000-09-19 | Digimarc Corporation | Computer system linked by using information in data objects |
US6944298B1 (en) | 1993-11-18 | 2005-09-13 | Digimare Corporation | Steganographic encoding and decoding of auxiliary codes in media signals |
US5822436A (en) * | 1996-04-25 | 1998-10-13 | Digimarc Corporation | Photographic products and methods employing embedded information |
US7313251B2 (en) | 1993-11-18 | 2007-12-25 | Digimarc Corporation | Method and system for managing and controlling electronic media |
US6449377B1 (en) | 1995-05-08 | 2002-09-10 | Digimarc Corporation | Methods and systems for watermark processing of line art images |
US6516079B1 (en) | 2000-02-14 | 2003-02-04 | Digimarc Corporation | Digital watermark screening and detecting strategies |
US6345104B1 (en) | 1994-03-17 | 2002-02-05 | Digimarc Corporation | Digital watermarks and methods for security documents |
US5768426A (en) | 1993-11-18 | 1998-06-16 | Digimarc Corporation | Graphics processing system employing embedded code signals |
US6611607B1 (en) | 1993-11-18 | 2003-08-26 | Digimarc Corporation | Integrating digital watermarks in multimedia content |
US6560349B1 (en) | 1994-10-21 | 2003-05-06 | Digimarc Corporation | Audio monitoring using steganographic information |
US8094949B1 (en) | 1994-10-21 | 2012-01-10 | Digimarc Corporation | Music methods and systems |
US7724919B2 (en) * | 1994-10-21 | 2010-05-25 | Digimarc Corporation | Methods and systems for steganographic processing |
US20030213001A1 (en) | 1994-11-07 | 2003-11-13 | Index Systems, Inc. | Method and apparatus for transmitting and downloading setup information |
US6583825B1 (en) * | 1994-11-07 | 2003-06-24 | Index Systems, Inc. | Method and apparatus for transmitting and downloading setup information |
US5708477A (en) * | 1994-12-01 | 1998-01-13 | Forbes; Scott Jared | Video signal identifier for controlling a VCR and television based on the occurrence of commercials |
EP0872120A1 (en) | 1995-03-07 | 1998-10-21 | Interval Research Corporation | System and method for selective recording of information |
US7224819B2 (en) | 1995-05-08 | 2007-05-29 | Digimarc Corporation | Integrating digital watermarks in multimedia content |
US7805500B2 (en) | 1995-05-08 | 2010-09-28 | Digimarc Corporation | Network linking methods and apparatus |
US6760463B2 (en) | 1995-05-08 | 2004-07-06 | Digimarc Corporation | Watermarking methods and media |
US7486799B2 (en) * | 1995-05-08 | 2009-02-03 | Digimarc Corporation | Methods for monitoring audio and images on the internet |
US5864358A (en) * | 1995-06-26 | 1999-01-26 | Matsushita Electric Industrial Co., Ltd. | Method for switching programs in digital broadcasting and digital broadcast receiving apparatus |
US6829368B2 (en) | 2000-01-26 | 2004-12-07 | Digimarc Corporation | Establishing and interacting with on-line media collections using identifiers in media signals |
US6577746B1 (en) | 1999-12-28 | 2003-06-10 | Digimarc Corporation | Watermark-based object linking and embedding |
US6505160B1 (en) | 1995-07-27 | 2003-01-07 | Digimarc Corporation | Connected audio and other media objects |
US7711564B2 (en) | 1995-07-27 | 2010-05-04 | Digimarc Corporation | Connected audio and other media objects |
US7562392B1 (en) | 1999-05-19 | 2009-07-14 | Digimarc Corporation | Methods of interacting with audio and ambient music |
US6411725B1 (en) | 1995-07-27 | 2002-06-25 | Digimarc Corporation | Watermark enabled video objects |
US5905522A (en) * | 1995-08-31 | 1999-05-18 | Microsoft Corporation | Resource allocation method for interactive televideo system |
GB9519087D0 (en) | 1995-09-19 | 1995-11-22 | Cursor Positioning Sys Ltd | Navigation and tracking system |
US5767893A (en) * | 1995-10-11 | 1998-06-16 | International Business Machines Corporation | Method and apparatus for content based downloading of video programs |
AU1690597A (en) * | 1996-01-11 | 1997-08-01 | Mitre Corporation, The | System for controlling access and distribution of digital property |
US20030056103A1 (en) | 2000-12-18 | 2003-03-20 | Levy Kenneth L. | Audio/video commerce application architectural framework |
US5870754A (en) * | 1996-04-25 | 1999-02-09 | Philips Electronics North America Corporation | Video retrieval of MPEG compressed sequences using DC and motion signatures |
US7505605B2 (en) * | 1996-04-25 | 2009-03-17 | Digimarc Corporation | Portable devices and methods employing digital watermarking |
US8180844B1 (en) | 2000-03-18 | 2012-05-15 | Digimarc Corporation | System for linking from objects to remote resources |
JP3625344B2 (ja) * | 1996-11-05 | 2005-03-02 | 株式会社ビデオリサーチ | 視聴チャンネル検出装置 |
US6381341B1 (en) | 1996-05-16 | 2002-04-30 | Digimarc Corporation | Watermark encoding method exploiting biases inherent in original signal |
US8306811B2 (en) * | 1996-08-30 | 2012-11-06 | Digimarc Corporation | Embedding data in audio and detecting embedded data in audio |
US5987150A (en) * | 1996-08-30 | 1999-11-16 | Intel Corporation | Video capturing using on-screen graphics |
US20020120925A1 (en) * | 2000-03-28 | 2002-08-29 | Logan James D. | Audio and video program recording, editing and playback systems using metadata |
US20060280437A1 (en) * | 1999-01-27 | 2006-12-14 | Gotuit Media Corp | Methods and apparatus for vending and delivering the content of disk recordings |
US20030093790A1 (en) * | 2000-03-28 | 2003-05-15 | Logan James D. | Audio and video program recording, editing and playback systems using metadata |
US7055166B1 (en) * | 1996-10-03 | 2006-05-30 | Gotuit Media Corp. | Apparatus and methods for broadcast monitoring |
US6088455A (en) * | 1997-01-07 | 2000-07-11 | Logan; James D. | Methods and apparatus for selectively reproducing segments of broadcast programming |
US6771316B1 (en) * | 1996-11-01 | 2004-08-03 | Jerry Iggulden | Method and apparatus for selectively altering a televised video signal in real-time |
WO1998020675A1 (en) * | 1996-11-01 | 1998-05-14 | Jerry Iggulden | Method and apparatus for automatically identifying and selectively altering segments of a television broadcast signal in real-time |
US6002443A (en) * | 1996-11-01 | 1999-12-14 | Iggulden; Jerry | Method and apparatus for automatically identifying and selectively altering segments of a television broadcast signal in real-time |
US7269330B1 (en) | 1996-11-01 | 2007-09-11 | Televentions, Llc | Method and apparatus for controlling a video recorder/player to selectively alter a video signal |
US5999689A (en) * | 1996-11-01 | 1999-12-07 | Iggulden; Jerry | Method and apparatus for controlling a videotape recorder in real-time to automatically identify and selectively skip segments of a television broadcast signal during recording of the television signal |
US6263507B1 (en) | 1996-12-05 | 2001-07-17 | Interval Research Corporation | Browser for use in navigating a body of information, with particular application to browsing information represented by audiovisual data |
US5893062A (en) | 1996-12-05 | 1999-04-06 | Interval Research Corporation | Variable rate video playback with synchronized audio |
US7587323B2 (en) | 2001-12-14 | 2009-09-08 | At&T Intellectual Property I, L.P. | System and method for developing tailored content |
US8677384B2 (en) | 2003-12-12 | 2014-03-18 | At&T Intellectual Property I, L.P. | Methods and systems for network based capture of television viewer generated clickstreams |
US8640160B2 (en) * | 1997-01-06 | 2014-01-28 | At&T Intellectual Property I, L.P. | Method and system for providing targeted advertisements |
US6675383B1 (en) * | 1997-01-22 | 2004-01-06 | Nielsen Media Research, Inc. | Source detection apparatus and method for audience measurement |
CA2196930C (en) * | 1997-02-06 | 2005-06-21 | Nael Hirzalla | Video sequence recognition |
GB9705999D0 (en) * | 1997-03-22 | 1997-05-07 | Philips Electronics Nv | Video signal analysis and storage |
US5940135A (en) * | 1997-05-19 | 1999-08-17 | Aris Technologies, Inc. | Apparatus and method for encoding and decoding information in analog signals |
US6427012B1 (en) * | 1997-05-19 | 2002-07-30 | Verance Corporation | Apparatus and method for embedding and extracting information in analog signals using replica modulation |
ES2190578T3 (es) * | 1997-06-23 | 2003-08-01 | Liechti Ag | Metodo para la compresion de grabaciones de ruido ambiental, metodo para la deteccion de los elementos de programa de las mismas, dispositivo y programa de ordenador para su aplicacion. |
US5959683A (en) * | 1997-06-26 | 1999-09-28 | Xerox Corporation | System to remove artifacts in a digital image derived from a television signal |
US6031581A (en) * | 1997-06-26 | 2000-02-29 | Xerox Corporation | System for removing color bleed in a television image adapted for digital printing |
GB2327167A (en) * | 1997-07-09 | 1999-01-13 | Register Group Limited The | Identification of television commercials |
US6112053A (en) * | 1997-07-14 | 2000-08-29 | General Electric Company | Television viewership monitoring system employing audio channel and synchronization information |
US20060020614A1 (en) * | 1997-08-08 | 2006-01-26 | Kolawa Adam K | Method and apparatus for automated selection, organization, and recommendation of items based on user preference topography |
GB9722324D0 (en) | 1997-10-22 | 1997-12-17 | Cambridge Positioning Sys Ltd | Positioning system for digital telephone networks |
US6961954B1 (en) | 1997-10-27 | 2005-11-01 | The Mitre Corporation | Automated segmentation, information extraction, summarization, and presentation of broadcast news |
US6173271B1 (en) * | 1997-11-26 | 2001-01-09 | California Institute Of Technology | Television advertising automated billing system |
IL122498A0 (en) * | 1997-12-07 | 1998-06-15 | Contentwise Ltd | Apparatus and methods for manipulating sequences of images |
US5973723A (en) * | 1997-12-12 | 1999-10-26 | Deluca; Michael Joseph | Selective commercial detector and eliminator apparatus and method |
US20050028194A1 (en) * | 1998-01-13 | 2005-02-03 | Elenbaas Jan Hermanus | Personalized news retrieval system |
ES2141039B1 (es) * | 1998-01-30 | 2000-10-16 | Mayo Audiovisual S A | Sistema automatico de deteccion y reconocimiento de anuncios televisados. |
DE19810114A1 (de) * | 1998-03-09 | 1999-09-16 | Stefan Weigelt | Suchverfahren für Musikstücke, insbesondere für Rundfunkempfangsgeräte |
JPH11298795A (ja) * | 1998-04-14 | 1999-10-29 | Sony Corp | 制御信号発生回路 |
US7689532B1 (en) | 2000-07-20 | 2010-03-30 | Digimarc Corporation | Using embedded data with file sharing |
DE69838956T2 (de) | 1998-05-12 | 2009-04-09 | Nielsen Media Research, Inc. | Vorrichtung für die Erfassung der Einschaltquoten für das digitale Fernsehen |
US7644282B2 (en) | 1998-05-28 | 2010-01-05 | Verance Corporation | Pre-processed information embedding system |
US6163510A (en) * | 1998-06-30 | 2000-12-19 | International Business Machines Corporation | Multimedia search and indexing system and method of operation using audio cues with signal thresholds |
US6100941A (en) * | 1998-07-28 | 2000-08-08 | U.S. Philips Corporation | Apparatus and method for locating a commercial disposed within a video data stream |
JP2000101439A (ja) * | 1998-09-24 | 2000-04-07 | Sony Corp | 情報処理装置および方法、情報記録装置および方法、記録媒体、並びに提供媒体 |
US6320623B1 (en) * | 1998-11-13 | 2001-11-20 | Philips Electronics North America Corporation | Method and device for detecting an event in a program of a video and/ or audio signal and for providing the program to a display upon detection of the event |
JP2000165806A (ja) * | 1998-11-30 | 2000-06-16 | Sony Corp | 情報処理装置および方法、並びに提供媒体 |
JP4026100B2 (ja) * | 1998-11-30 | 2007-12-26 | ソニー株式会社 | 情報処理装置および方法、並びに記録媒体 |
US6934461B1 (en) * | 1999-01-05 | 2005-08-23 | Interval Research Corporation | Low attention recording, with particular application to social recording |
US7421723B2 (en) | 1999-01-07 | 2008-09-02 | Nielsen Media Research, Inc. | Detection of media links in broadcast signals |
US6906743B1 (en) * | 1999-01-13 | 2005-06-14 | Tektronix, Inc. | Detecting content based defects in a video stream |
US6185527B1 (en) | 1999-01-19 | 2001-02-06 | International Business Machines Corporation | System and method for automatic audio content analysis for word spotting, indexing, classification and retrieval |
US7904187B2 (en) | 1999-02-01 | 2011-03-08 | Hoffberg Steven M | Internet appliance system and method |
US20040255336A1 (en) * | 1999-03-30 | 2004-12-16 | Gotuit Video, Inc. | Methods and apparatus for simultaneous program viewing |
US7362946B1 (en) * | 1999-04-12 | 2008-04-22 | Canon Kabushiki Kaisha | Automated visual image editing system |
US6332120B1 (en) * | 1999-04-20 | 2001-12-18 | Solana Technology Development Corporation | Broadcast speech recognition system for keyword monitoring |
US7565294B2 (en) | 1999-05-19 | 2009-07-21 | Digimarc Corporation | Methods and systems employing digital content |
US8095796B2 (en) | 1999-05-19 | 2012-01-10 | Digimarc Corporation | Content identifiers |
US7406214B2 (en) | 1999-05-19 | 2008-07-29 | Digimarc Corporation | Methods and devices employing optical sensors and/or steganography |
US20070100757A1 (en) * | 1999-05-19 | 2007-05-03 | Rhoads Geoffrey B | Content Protection Arrangements |
US7302574B2 (en) * | 1999-05-19 | 2007-11-27 | Digimarc Corporation | Content identifiers triggering corresponding responses through collaborative processing |
US6871180B1 (en) | 1999-05-25 | 2005-03-22 | Arbitron Inc. | Decoding of information in audio signals |
GB9912724D0 (en) | 1999-06-01 | 1999-08-04 | Cambridge Positioning Sys Ltd | Radio positioning system |
US7013301B2 (en) * | 2003-09-23 | 2006-03-14 | Predixis Corporation | Audio fingerprinting system and method |
US20050038819A1 (en) * | 2000-04-21 | 2005-02-17 | Hicken Wendell T. | Music Recommendation system and method |
US6519564B1 (en) * | 1999-07-01 | 2003-02-11 | Koninklijke Philips Electronics N.V. | Content-driven speech-or audio-browser |
US8326584B1 (en) | 1999-09-14 | 2012-12-04 | Gracenote, Inc. | Music searching methods based on human perception |
US7194752B1 (en) | 1999-10-19 | 2007-03-20 | Iceberg Industries, Llc | Method and apparatus for automatically recognizing input audio and/or video streams |
US7174293B2 (en) * | 1999-09-21 | 2007-02-06 | Iceberg Industries Llc | Audio identification system and method |
US6941275B1 (en) * | 1999-10-07 | 2005-09-06 | Remi Swierczek | Music identification system |
US7155735B1 (en) | 1999-10-08 | 2006-12-26 | Vulcan Patents Llc | System and method for the broadcast dissemination of time-ordered data |
US6469749B1 (en) * | 1999-10-13 | 2002-10-22 | Koninklijke Philips Electronics N.V. | Automatic signature-based spotting, learning and extracting of commercials and other video content |
CA2310769C (en) * | 1999-10-27 | 2013-05-28 | Nielsen Media Research, Inc. | Audio signature extraction and correlation |
AU1173701A (en) * | 1999-11-11 | 2001-06-06 | Contentwise Ltd., | Method and system for global broadcast monitoring |
JP4618868B2 (ja) * | 1999-11-15 | 2011-01-26 | 富士通テン株式会社 | ディジタル放送受信機及びセグメント数検出装置 |
US6993245B1 (en) * | 1999-11-18 | 2006-01-31 | Vulcan Patents Llc | Iterative, maximally probable, batch-mode commercial detection for audiovisual content |
US6721488B1 (en) * | 1999-11-30 | 2004-04-13 | Koninklijke Philips Electronics N.V. | Method and apparatus to identify sequential content stored on a storage medium |
WO2001045103A1 (en) * | 1999-12-14 | 2001-06-21 | Koninklijke Philips Electronics N.V. | Method and apparatus to identify content stored on a storage medium |
US6397041B1 (en) | 1999-12-22 | 2002-05-28 | Radio Propagation Services, Inc. | Broadcast monitoring and control system |
US6757682B1 (en) | 2000-01-28 | 2004-06-29 | Interval Research Corporation | Alerting users to items of current interest |
US6675174B1 (en) | 2000-02-02 | 2004-01-06 | International Business Machines Corp. | System and method for measuring similarity between a set of known temporal media segments and a one or more temporal media streams |
US6593976B1 (en) * | 2000-02-14 | 2003-07-15 | Koninklijke Philips Electronics N.V. | Automatic return to input source when user-selected content reappears in input source |
US6737957B1 (en) | 2000-02-16 | 2004-05-18 | Verance Corporation | Remote control signaling using audio watermarks |
US6834308B1 (en) | 2000-02-17 | 2004-12-21 | Audible Magic Corporation | Method and apparatus for identifying media content presented on a media playing device |
AU2001249994A1 (en) | 2000-02-25 | 2001-09-03 | Interval Research Corporation | Method and system for selecting advertisements |
US7661116B2 (en) | 2000-02-25 | 2010-02-09 | Vulcan Patents Llc | Auction for targeted content |
US8910199B2 (en) * | 2000-02-25 | 2014-12-09 | Interval Licensing Llc | Targeted television content display |
GB2360581A (en) * | 2000-03-15 | 2001-09-26 | Television Monitoring Services | Quantification of brand exposure on screen |
US20060015925A1 (en) * | 2000-03-28 | 2006-01-19 | Gotuit Media Corp | Sales presentation video on demand system |
US20040255334A1 (en) * | 2000-03-28 | 2004-12-16 | Gotuit Audio, Inc. | Methods and apparatus for seamlessly changing volumes during playback using a compact disk changer |
US6968564B1 (en) * | 2000-04-06 | 2005-11-22 | Nielsen Media Research, Inc. | Multi-band spectral audio encoding |
WO2001077864A1 (en) * | 2000-04-10 | 2001-10-18 | Contentwise Ltd | Method and system for managing multimedia databases |
US7305104B2 (en) * | 2000-04-21 | 2007-12-04 | Digimarc Corporation | Authentication of identification documents using digital watermarks |
US20060217828A1 (en) * | 2002-10-23 | 2006-09-28 | Hicken Wendell T | Music searching system and method |
JP4300697B2 (ja) * | 2000-04-24 | 2009-07-22 | ソニー株式会社 | 信号処理装置及び方法 |
JP4507351B2 (ja) * | 2000-04-27 | 2010-07-21 | ソニー株式会社 | 信号処理装置及び方法 |
US8121843B2 (en) | 2000-05-02 | 2012-02-21 | Digimarc Corporation | Fingerprint methods and systems for media signals |
US7617509B1 (en) | 2000-06-23 | 2009-11-10 | International Business Machines Corporation | Method and system for automated monitoring of quality of service of digital video material distribution and play-out |
US6757828B1 (en) * | 2000-07-27 | 2004-06-29 | Jonathan E. Jaffe | Indigenous authentication for sensor-recorders and other information capture devices |
US8219545B2 (en) * | 2000-07-27 | 2012-07-10 | Goldhar/Jaffe Technology Development Corporation | Indigenous authentication and searching system and method |
US7853664B1 (en) | 2000-07-31 | 2010-12-14 | Landmark Digital Services Llc | Method and system for purchasing pre-recorded music |
JP3775186B2 (ja) | 2000-08-10 | 2006-05-17 | 日本電気株式会社 | 放送確認システム、放送確認装置および方法、放送確認プログラムを記録した記録媒体 |
US20020059629A1 (en) * | 2000-08-21 | 2002-05-16 | Markel Steven O. | Detection and recognition of data receiver to facilitate proper transmission of enhanced data |
EP2136306B1 (en) | 2000-08-23 | 2013-03-20 | Gracenote, Inc. | Method and system for obtaining information |
US20020057286A1 (en) * | 2000-08-25 | 2002-05-16 | Markel Steven O. | Device independent video enhancement scripting language |
JP2004509490A (ja) * | 2000-08-25 | 2004-03-25 | インテロシティー ユーエスエイ,アイエヌシー. | パーソナルリモートコントロール |
US8205237B2 (en) | 2000-09-14 | 2012-06-19 | Cox Ingemar J | Identifying works, using a sub-linear time search, such as an approximate nearest neighbor search, for initiating a work-based action, such as an action on the internet |
AU2001295989A1 (en) * | 2000-10-23 | 2002-05-06 | Ntt Communications Corporation | Musical composition recognition method and system, storage medium where musical composition program is stored, commercial recognition method and system, and storage medium where commercial recognition program is stored |
US7277766B1 (en) * | 2000-10-24 | 2007-10-02 | Moodlogic, Inc. | Method and system for analyzing digital audio files |
US7562012B1 (en) | 2000-11-03 | 2009-07-14 | Audible Magic Corporation | Method and apparatus for creating a unique audio signature |
US7085613B2 (en) * | 2000-11-03 | 2006-08-01 | International Business Machines Corporation | System for monitoring audio content in a video broadcast |
US6748360B2 (en) | 2000-11-03 | 2004-06-08 | International Business Machines Corporation | System for selling a product utilizing audio content identification |
US7031921B2 (en) * | 2000-11-03 | 2006-04-18 | International Business Machines Corporation | System for monitoring audio content available over a network |
US6604072B2 (en) | 2000-11-03 | 2003-08-05 | International Business Machines Corporation | Feature-based audio content identification |
US6574594B2 (en) | 2000-11-03 | 2003-06-03 | International Business Machines Corporation | System for monitoring broadcast audio content |
US6999715B2 (en) * | 2000-12-11 | 2006-02-14 | Gary Alan Hayter | Broadcast audience surveillance using intercepted audio |
US20020072982A1 (en) * | 2000-12-12 | 2002-06-13 | Shazam Entertainment Ltd. | Method and system for interacting with a user in an experiential environment |
US20020080976A1 (en) * | 2000-12-14 | 2002-06-27 | Schreer Scott P. | System and method for accessing authorized recordings |
US7266704B2 (en) | 2000-12-18 | 2007-09-04 | Digimarc Corporation | User-friendly rights management systems and methods |
AU2002232817A1 (en) | 2000-12-21 | 2002-07-01 | Digimarc Corporation | Methods, apparatus and programs for generating and utilizing content signatures |
US20020114299A1 (en) * | 2000-12-27 | 2002-08-22 | Daozheng Lu | Apparatus and method for measuring tuning of a digital broadcast receiver |
US8458754B2 (en) * | 2001-01-22 | 2013-06-04 | Sony Computer Entertainment Inc. | Method and system for providing instant start multimedia content |
US20070300258A1 (en) * | 2001-01-29 | 2007-12-27 | O'connor Daniel | Methods and systems for providing media assets over a network |
EP1362485B1 (en) * | 2001-02-12 | 2008-08-13 | Gracenote, Inc. | Generating and matching hashes of multimedia content |
US8909128B2 (en) * | 2008-04-09 | 2014-12-09 | 3D Radio Llc | Radio device with virtually infinite simultaneous inputs |
US8868023B2 (en) | 2008-01-04 | 2014-10-21 | 3D Radio Llc | Digital radio systems and methods |
US8706023B2 (en) * | 2008-01-04 | 2014-04-22 | 3D Radio Llc | Multi-tuner radio systems and methods |
US8699995B2 (en) * | 2008-04-09 | 2014-04-15 | 3D Radio Llc | Alternate user interfaces for multi tuner radio device |
AU2002247173A1 (en) * | 2001-02-20 | 2002-09-04 | Caron S. Ellis | Enhanced radio systems and methods |
US7359889B2 (en) | 2001-03-02 | 2008-04-15 | Landmark Digital Services Llc | Method and apparatus for automatically creating database for use in automated media recognition system |
CN1504048A (zh) * | 2001-03-22 | 2004-06-09 | 联合视频制品公司 | 个人视频记录器系统和方法 |
US8949878B2 (en) * | 2001-03-30 | 2015-02-03 | Funai Electric Co., Ltd. | System for parental control in video programs based on multimedia content information |
US7363278B2 (en) * | 2001-04-05 | 2008-04-22 | Audible Magic Corporation | Copyright detection and protection system and method |
US7248715B2 (en) * | 2001-04-06 | 2007-07-24 | Digimarc Corporation | Digitally watermarking physical media |
US7039585B2 (en) | 2001-04-10 | 2006-05-02 | International Business Machines Corporation | Method and system for searching recorded speech and retrieving relevant segments |
US7046819B2 (en) | 2001-04-25 | 2006-05-16 | Digimarc Corporation | Encoded reference signal for digital watermarks |
US7325249B2 (en) | 2001-04-30 | 2008-01-29 | Aol Llc | Identifying unwanted electronic messages |
US6785656B2 (en) * | 2001-06-05 | 2004-08-31 | Xm Satellite Radio, Inc. | Method and apparatus for digital audio playback using local stored content |
US20050005308A1 (en) * | 2002-01-29 | 2005-01-06 | Gotuit Video, Inc. | Methods and apparatus for recording and replaying sports broadcasts |
US8572640B2 (en) * | 2001-06-29 | 2013-10-29 | Arbitron Inc. | Media data use measurement with remote decoding/pattern matching |
US6963543B2 (en) | 2001-06-29 | 2005-11-08 | Qualcomm Incorporated | Method and system for group call service |
US7529659B2 (en) | 2005-09-28 | 2009-05-05 | Audible Magic Corporation | Method and apparatus for identifying an unknown work |
US6968337B2 (en) * | 2001-07-10 | 2005-11-22 | Audible Magic Corporation | Method and apparatus for identifying an unknown work |
US7328153B2 (en) * | 2001-07-20 | 2008-02-05 | Gracenote, Inc. | Automatic identification of sound recordings |
US8972481B2 (en) | 2001-07-20 | 2015-03-03 | Audible Magic, Inc. | Playlist generation method and apparatus |
US7877438B2 (en) * | 2001-07-20 | 2011-01-25 | Audible Magic Corporation | Method and apparatus for identifying new media content |
US20030054757A1 (en) * | 2001-09-19 | 2003-03-20 | Kolessar Ronald S. | Monitoring usage of media data with non-program data elimination |
US20030070179A1 (en) * | 2001-10-04 | 2003-04-10 | Ritz Peter B. | System and method for connecting end user with application based on broadcast code |
US6961467B2 (en) * | 2001-10-17 | 2005-11-01 | Intel Corporation | Identifying image content |
US20030135623A1 (en) * | 2001-10-23 | 2003-07-17 | Audible Magic, Inc. | Method and apparatus for cache promotion |
US7012653B1 (en) * | 2001-11-30 | 2006-03-14 | Bellsouth Intellectual Property Corporation | Program restart and commercial ending notification method and system |
US7870089B1 (en) * | 2001-12-03 | 2011-01-11 | Aol Inc. | Reducing duplication of embedded resources on a network |
US7496604B2 (en) | 2001-12-03 | 2009-02-24 | Aol Llc | Reducing duplication of files on a network |
US20030110500A1 (en) * | 2001-12-06 | 2003-06-12 | Rodriguez Arturo A. | Prediction-based adaptative control of television viewing functionality |
US7120922B2 (en) * | 2001-12-11 | 2006-10-10 | Scientific-Atlanta, Inc. | Time-adaptive control of television viewing functionality |
US9967633B1 (en) | 2001-12-14 | 2018-05-08 | At&T Intellectual Property I, L.P. | System and method for utilizing television viewing patterns |
US7212979B1 (en) | 2001-12-14 | 2007-05-01 | Bellsouth Intellectuall Property Corporation | System and method for identifying desirable subscribers |
US20110178877A1 (en) | 2001-12-14 | 2011-07-21 | Swix Scott R | Advertising and content management systems and methods |
US7086075B2 (en) | 2001-12-21 | 2006-08-01 | Bellsouth Intellectual Property Corporation | Method and system for managing timed responses to A/V events in television programming |
US7064796B2 (en) * | 2001-12-21 | 2006-06-20 | Eloda Inc. | Method and system for re-identifying broadcast segments using statistical profiles |
US8086491B1 (en) | 2001-12-31 | 2011-12-27 | At&T Intellectual Property I, L. P. | Method and system for targeted content distribution using tagged data streams |
US7337455B2 (en) * | 2001-12-31 | 2008-02-26 | Koninklijke Philips Electronics N.V. | Method, apparatus, and program for evolving algorithms for detecting content in information streams |
US20030131350A1 (en) * | 2002-01-08 | 2003-07-10 | Peiffer John C. | Method and apparatus for identifying a digital audio signal |
US7020304B2 (en) | 2002-01-22 | 2006-03-28 | Digimarc Corporation | Digital watermarking and fingerprinting including synchronization, layering, version control, and compressed embedding |
US20070113250A1 (en) * | 2002-01-29 | 2007-05-17 | Logan James D | On demand fantasy sports systems and methods |
CN1628302A (zh) | 2002-02-05 | 2005-06-15 | 皇家飞利浦电子股份有限公司 | 指纹的有效存储器 |
US8150235B2 (en) | 2002-02-08 | 2012-04-03 | Intel Corporation | Method of home media server control |
US20030154493A1 (en) * | 2002-02-14 | 2003-08-14 | Kagle Jonathan C. | Identifying unique broadcasts |
US7461392B2 (en) * | 2002-07-01 | 2008-12-02 | Microsoft Corporation | System and method for identifying and segmenting repeating media objects embedded in a stream |
US6766523B2 (en) | 2002-05-31 | 2004-07-20 | Microsoft Corporation | System and method for identifying and segmenting repeating media objects embedded in a stream |
US8601504B2 (en) * | 2002-06-20 | 2013-12-03 | Verance Corporation | Secure tracking system and method for video program content |
WO2004004351A1 (en) * | 2002-07-01 | 2004-01-08 | Microsoft Corporation | A system and method for providing user control over repeating objects embedded in a stream |
US20040091111A1 (en) * | 2002-07-16 | 2004-05-13 | Levy Kenneth L. | Digital watermarking and fingerprinting applications |
US20040013405A1 (en) * | 2002-07-18 | 2004-01-22 | Christiansen Robert D | Method for preparing/printing video scene indices |
US8176508B2 (en) * | 2002-08-02 | 2012-05-08 | Time Warner Cable | Method and apparatus to provide verification of data using a fingerprint |
SE524162C2 (sv) * | 2002-08-23 | 2004-07-06 | Rickard Berg | Förfarande för att behandla signaler |
JP2005536794A (ja) * | 2002-08-26 | 2005-12-02 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | コンテンツ識別の方法、装置、及びソフトウエア |
EP1403783A3 (en) * | 2002-09-24 | 2005-01-19 | Matsushita Electric Industrial Co., Ltd. | Audio signal feature extraction |
US20040062520A1 (en) * | 2002-09-27 | 2004-04-01 | Koninklijke Philips Electronics N.V. | Enhanced commercial detection through fusion of video and audio signatures |
FR2845179B1 (fr) * | 2002-09-27 | 2004-11-05 | Thomson Licensing Sa | Procede de regroupement d'images d'une sequence video |
US9711153B2 (en) * | 2002-09-27 | 2017-07-18 | The Nielsen Company (Us), Llc | Activating functions in processing devices using encoded audio and detecting audio signatures |
US8959016B2 (en) | 2002-09-27 | 2015-02-17 | The Nielsen Company (Us), Llc | Activating functions in processing devices using start codes embedded in audio |
US7222071B2 (en) * | 2002-09-27 | 2007-05-22 | Arbitron Inc. | Audio data receipt/exposure measurement with code monitoring and signature extraction |
ATE426297T1 (de) * | 2002-09-30 | 2009-04-15 | Gracenote Inc | Fingerabdruckextraktion |
CA2499967A1 (en) | 2002-10-15 | 2004-04-29 | Verance Corporation | Media monitoring, management and information system |
CA2503340A1 (en) | 2002-10-23 | 2004-05-06 | Arun Ramaswamy | Digital data insertion apparatus and methods for use with compressed audio/video data |
CN1711531A (zh) * | 2002-11-12 | 2005-12-21 | 皇家飞利浦电子股份有限公司 | 采指纹多媒体内容 |
JP4218319B2 (ja) * | 2002-11-19 | 2009-02-04 | 日本電気株式会社 | 映像閲覧システムおよび方法 |
JP4228662B2 (ja) * | 2002-11-19 | 2009-02-25 | 日本電気株式会社 | 映像閲覧システムおよび方法 |
US8204353B2 (en) | 2002-11-27 | 2012-06-19 | The Nielsen Company (Us), Llc | Apparatus and methods for tracking and analyzing digital recording device event sequences |
WO2005041455A1 (en) * | 2002-12-20 | 2005-05-06 | Koninklijke Philips Electronics N.V. | Video content detection |
US7483835B2 (en) * | 2002-12-23 | 2009-01-27 | Arbitron, Inc. | AD detection using ID code and extracted signature |
AU2003288643A1 (en) * | 2003-01-06 | 2004-07-29 | Koninklijke Philips Electronics N.V. | Method and apparatus for similar video content hopping |
US20040153647A1 (en) * | 2003-01-31 | 2004-08-05 | Rotholtz Ben Aaron | Method and process for transmitting video content |
US8332326B2 (en) | 2003-02-01 | 2012-12-11 | Audible Magic Corporation | Method and apparatus to identify a work received by a processing system |
WO2004073217A1 (en) | 2003-02-10 | 2004-08-26 | Nielsen Media Research, Inc. | Methods and apparatus to adaptively gather audience information data |
US7509550B2 (en) * | 2003-02-13 | 2009-03-24 | Janusz Rajski | Fault diagnosis of compressed test responses |
US7437640B2 (en) * | 2003-02-13 | 2008-10-14 | Janusz Rajski | Fault diagnosis of compressed test responses having one or more unknown states |
EP1595211B1 (en) * | 2003-02-13 | 2008-07-09 | Mentor Graphics Corporation | Compressing test responses using a compactor |
JP3901106B2 (ja) * | 2003-02-19 | 2007-04-04 | ソニー株式会社 | 受信装置およびその設定方法 |
US7738704B2 (en) * | 2003-03-07 | 2010-06-15 | Technology, Patents And Licensing, Inc. | Detecting known video entities utilizing fingerprints |
US20040237102A1 (en) * | 2003-03-07 | 2004-11-25 | Richard Konig | Advertisement substitution |
US7809154B2 (en) | 2003-03-07 | 2010-10-05 | Technology, Patents & Licensing, Inc. | Video entity recognition in compressed digital video streams |
US20050177847A1 (en) * | 2003-03-07 | 2005-08-11 | Richard Konig | Determining channel associated with video stream |
US20050149968A1 (en) * | 2003-03-07 | 2005-07-07 | Richard Konig | Ending advertisement insertion |
US7694318B2 (en) * | 2003-03-07 | 2010-04-06 | Technology, Patents & Licensing, Inc. | Video detection and insertion |
US7320009B1 (en) | 2003-03-28 | 2008-01-15 | Novell, Inc. | Methods and systems for file replication utilizing differences between versions of files |
US20040226035A1 (en) * | 2003-05-05 | 2004-11-11 | Hauser David L. | Method and apparatus for detecting media content |
US7590695B2 (en) | 2003-05-09 | 2009-09-15 | Aol Llc | Managing electronic messages |
US7509180B2 (en) * | 2003-05-23 | 2009-03-24 | Microsoft Corporation | Extending digital rights management and authentication to audio speakers |
US7289533B2 (en) * | 2003-06-06 | 2007-10-30 | Quake Global, Inc. | Universal subscriber communicator module |
US20040260682A1 (en) * | 2003-06-19 | 2004-12-23 | Microsoft Corporation | System and method for identifying content and managing information corresponding to objects in a signal |
CA2530012C (en) * | 2003-06-20 | 2012-04-03 | Nielsen Media Research, Inc. | Signature-based program identification apparatus and methods for use with digital broadcast systems |
US7739602B2 (en) | 2003-06-24 | 2010-06-15 | Aol Inc. | System and method for community centric resource sharing based on a publishing subscription model |
US7386047B2 (en) * | 2003-08-19 | 2008-06-10 | Radio Computing Services, Inc. | Method for determining the likelihood of a match between source data and reference data |
CA2540575C (en) | 2003-09-12 | 2013-12-17 | Kevin Deng | Digital video signature apparatus and methods for use with video program identification systems |
JP3885786B2 (ja) * | 2003-09-12 | 2007-02-28 | ソニー株式会社 | 情報信号の処理装置および処理方法、並びにその処理方法を実行させるためのプログラム |
WO2005032128A1 (en) * | 2003-09-25 | 2005-04-07 | Koninklijke Philips Electronics, N.V. | Simple program guide |
US20070039018A1 (en) * | 2005-08-09 | 2007-02-15 | Verance Corporation | Apparatus, systems and methods for broadcast advertising stewardship |
US9055239B2 (en) | 2003-10-08 | 2015-06-09 | Verance Corporation | Signal continuity assessment using embedded watermarks |
US20060239501A1 (en) | 2005-04-26 | 2006-10-26 | Verance Corporation | Security enhancements of digital watermarks for multi-media content |
US7369677B2 (en) | 2005-04-26 | 2008-05-06 | Verance Corporation | System reactions to the detection of embedded watermarks in a digital host content |
US7788696B2 (en) * | 2003-10-15 | 2010-08-31 | Microsoft Corporation | Inferring information about media stream objects |
WO2005041109A2 (en) * | 2003-10-17 | 2005-05-06 | Nielsen Media Research, Inc. | Methods and apparatus for identifiying audio/video content using temporal signal characteristics |
US20050108754A1 (en) * | 2003-11-19 | 2005-05-19 | Serenade Systems | Personalized content application |
US8239446B2 (en) * | 2003-11-19 | 2012-08-07 | Sony Computer Entertainment America Llc | Content distribution architecture |
AU2005215786A1 (en) | 2004-02-17 | 2005-09-01 | Nielsen Media Research, Inc. Et Al. | Methods and apparatus for monitoring video games |
JP2007534008A (ja) | 2004-02-26 | 2007-11-22 | メディアガイド・インコーポレイテッド | 放送音声またはビデオプログラム信号の自動検出及び識別のための方法及び装置 |
US8229751B2 (en) * | 2004-02-26 | 2012-07-24 | Mediaguide, Inc. | Method and apparatus for automatic detection and identification of unidentified Broadcast audio or video signals |
US20050193426A1 (en) * | 2004-02-27 | 2005-09-01 | Raja Neogi | System and method to control fingerprint processing in a media network |
US8738763B2 (en) | 2004-03-26 | 2014-05-27 | The Nielsen Company (Us), Llc | Research data gathering with a portable monitor and a stationary device |
US7483975B2 (en) | 2004-03-26 | 2009-01-27 | Arbitron, Inc. | Systems and methods for gathering data concerning usage of media data |
US8688248B2 (en) * | 2004-04-19 | 2014-04-01 | Shazam Investments Limited | Method and system for content sampling and identification |
US7793319B2 (en) * | 2004-04-27 | 2010-09-07 | Gateway, Inc. | System and method for improved channel surfing |
US20150051967A1 (en) | 2004-05-27 | 2015-02-19 | Anonymous Media Research, Llc | Media usage monitoring and measurment system and method |
US20050267750A1 (en) * | 2004-05-27 | 2005-12-01 | Anonymous Media, Llc | Media usage monitoring and measurement system and method |
US20070179786A1 (en) * | 2004-06-18 | 2007-08-02 | Meiko Masaki | Av content processing device, av content processing method, av content processing program, and integrated circuit used in av content processing device |
AU2005269957B2 (en) * | 2004-07-02 | 2011-09-22 | The Nielsen Company (Us), Llc | Methods and apparatus for identifying viewing information associated with a digital media device |
US8130746B2 (en) * | 2004-07-28 | 2012-03-06 | Audible Magic Corporation | System for distributing decoy content in a peer to peer network |
US9704502B2 (en) * | 2004-07-30 | 2017-07-11 | Invention Science Fund I, Llc | Cue-aware privacy filter for participants in persistent communications |
US9779750B2 (en) * | 2004-07-30 | 2017-10-03 | Invention Science Fund I, Llc | Cue-aware privacy filter for participants in persistent communications |
US8521828B2 (en) * | 2004-07-30 | 2013-08-27 | The Invention Science Fund I, Llc | Themes indicative of participants in persistent communication |
US8977250B2 (en) * | 2004-08-27 | 2015-03-10 | The Invention Science Fund I, Llc | Context-aware filter for participants in persistent communication |
US20080092031A1 (en) * | 2004-07-30 | 2008-04-17 | Steven John Simske | Rich media printer |
US20060212149A1 (en) * | 2004-08-13 | 2006-09-21 | Hicken Wendell T | Distributed system and method for intelligent data analysis |
MX2007002071A (es) * | 2004-08-18 | 2007-04-24 | Nielsen Media Res Inc | Metodos y aparatos para generar firmas. |
US7386542B2 (en) * | 2004-08-30 | 2008-06-10 | The Mitre Corporation | Personalized broadcast news navigator |
US7826708B2 (en) * | 2004-11-02 | 2010-11-02 | Microsoft Corporation | System and method for automatically customizing a buffered media stream |
CA2588217C (en) * | 2004-11-22 | 2014-04-22 | Nielsen Media Research, Inc. | Methods and apparatus for media source identification and time shifted media consumption measurements |
US20060155754A1 (en) * | 2004-12-08 | 2006-07-13 | Steven Lubin | Playlist driven automated content transmission and delivery system |
US7567899B2 (en) * | 2004-12-30 | 2009-07-28 | All Media Guide, Llc | Methods and apparatus for audio recognition |
US20060167458A1 (en) * | 2005-01-25 | 2006-07-27 | Lorenz Gabele | Lock and release mechanism for a sternal clamp |
GB0502844D0 (en) | 2005-02-11 | 2005-03-16 | Univ Edinburgh | Storing digital content for access using a captured image |
US20060195860A1 (en) * | 2005-02-25 | 2006-08-31 | Eldering Charles A | Acting on known video entities detected utilizing fingerprinting |
GB2423882A (en) * | 2005-03-01 | 2006-09-06 | Half Minute Media Ltd | Acting on known video entities detected utilizing fingerprinting |
GB2423881B (en) * | 2005-03-01 | 2011-03-09 | Half Minute Media Ltd | Detecting known video entities taking into account regions of disinterest |
AU2006220720A1 (en) * | 2005-03-04 | 2006-09-14 | Resonance Media Services, Inc. | Scan shuffle for building playlists |
US20060242667A1 (en) * | 2005-04-22 | 2006-10-26 | Petersen Erin L | Ad monitoring and indication |
US7690011B2 (en) | 2005-05-02 | 2010-03-30 | Technology, Patents & Licensing, Inc. | Video stream modification to defeat detection |
US20060271947A1 (en) * | 2005-05-23 | 2006-11-30 | Lienhart Rainer W | Creating fingerprints |
US7613736B2 (en) * | 2005-05-23 | 2009-11-03 | Resonance Media Services, Inc. | Sharing music essence in a recommendation system |
US8020004B2 (en) | 2005-07-01 | 2011-09-13 | Verance Corporation | Forensic marking using a common customization function |
US8781967B2 (en) | 2005-07-07 | 2014-07-15 | Verance Corporation | Watermarking in an encrypted domain |
US8577684B2 (en) | 2005-07-13 | 2013-11-05 | Intellisist, Inc. | Selective security masking within recorded speech utilizing speech recognition techniques |
US8346918B2 (en) * | 2005-08-19 | 2013-01-01 | Cpacket Networks, Inc. | Apparatus and method for biased and weighted sampling of network traffic to facilitate network monitoring |
US7890991B2 (en) | 2005-08-19 | 2011-02-15 | Cpacket Networks, Inc. | Apparatus and method for providing security and monitoring in a networking architecture |
US8024799B2 (en) * | 2005-08-19 | 2011-09-20 | Cpacket Networks, Inc. | Apparatus and method for facilitating network security with granular traffic modifications |
US8296846B2 (en) * | 2005-08-19 | 2012-10-23 | Cpacket Networks, Inc. | Apparatus and method for associating categorization information with network traffic to facilitate application level processing |
US7937756B2 (en) * | 2005-08-19 | 2011-05-03 | Cpacket Networks, Inc. | Apparatus and method for facilitating network security |
US7882554B2 (en) * | 2005-08-19 | 2011-02-01 | Cpacket Networks, Inc. | Apparatus and method for selective mirroring |
US20070106405A1 (en) * | 2005-08-19 | 2007-05-10 | Gracenote, Inc. | Method and system to provide reference data for identification of digital content |
US8665868B2 (en) * | 2005-08-19 | 2014-03-04 | Cpacket Networks, Inc. | Apparatus and method for enhancing forwarding and classification of network traffic with prioritized matching and categorization |
US7698008B2 (en) | 2005-09-08 | 2010-04-13 | Apple Inc. | Content-based audio comparisons |
US8594429B2 (en) * | 2005-10-11 | 2013-11-26 | Hewlett-Packard Development Company, L.P. | Method and apparatus for processing a video stream |
WO2007056624A2 (en) * | 2005-10-21 | 2007-05-18 | Nielsen Media Research, Inc. | Methods and apparatus for metering portable media players |
US10742340B2 (en) | 2005-10-26 | 2020-08-11 | Cortica Ltd. | System and method for identifying the context of multimedia content elements displayed in a web-page and providing contextual filters respective thereto |
US10691642B2 (en) | 2005-10-26 | 2020-06-23 | Cortica Ltd | System and method for enriching a concept database with homogenous concepts |
US10585934B2 (en) | 2005-10-26 | 2020-03-10 | Cortica Ltd. | Method and system for populating a concept database with respect to user identifiers |
US11403336B2 (en) | 2005-10-26 | 2022-08-02 | Cortica Ltd. | System and method for removing contextually identical multimedia content elements |
US10614626B2 (en) | 2005-10-26 | 2020-04-07 | Cortica Ltd. | System and method for providing augmented reality challenges |
US11032017B2 (en) | 2005-10-26 | 2021-06-08 | Cortica, Ltd. | System and method for identifying the context of multimedia content elements |
US10621988B2 (en) | 2005-10-26 | 2020-04-14 | Cortica Ltd | System and method for speech to text translation using cores of a natural liquid architecture system |
US11019161B2 (en) | 2005-10-26 | 2021-05-25 | Cortica, Ltd. | System and method for profiling users interest based on multimedia content analysis |
US11003706B2 (en) | 2005-10-26 | 2021-05-11 | Cortica Ltd | System and methods for determining access permissions on personalized clusters of multimedia content elements |
US8326775B2 (en) | 2005-10-26 | 2012-12-04 | Cortica Ltd. | Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof |
US8818916B2 (en) | 2005-10-26 | 2014-08-26 | Cortica, Ltd. | System and method for linking multimedia data elements to web pages |
US11216498B2 (en) | 2005-10-26 | 2022-01-04 | Cortica, Ltd. | System and method for generating signatures to three-dimensional multimedia data elements |
US10776585B2 (en) | 2005-10-26 | 2020-09-15 | Cortica, Ltd. | System and method for recognizing characters in multimedia content |
US10372746B2 (en) | 2005-10-26 | 2019-08-06 | Cortica, Ltd. | System and method for searching applications using multimedia content elements |
US10607355B2 (en) * | 2005-10-26 | 2020-03-31 | Cortica, Ltd. | Method and system for determining the dimensions of an object shown in a multimedia content item |
EP1955458B1 (en) * | 2005-11-29 | 2012-07-11 | Google Inc. | Social and interactive applications for mass media |
CN106877957B (zh) * | 2005-12-12 | 2019-08-27 | 尼尔逊媒介研究股份有限公司 | 在家庭中收集媒体的方法、设备和系统 |
US9015740B2 (en) | 2005-12-12 | 2015-04-21 | The Nielsen Company (Us), Llc | Systems and methods to wirelessly meter audio/visual devices |
EP1977359A4 (en) | 2005-12-20 | 2010-08-25 | Arbitron Inc | METHOD AND SYSTEMS FOR LEADING RESEARCH OPERATIONS |
US7627878B2 (en) * | 2005-12-23 | 2009-12-01 | Eloda Inc. | Method and System for automated auditing of advertising |
US20070149114A1 (en) * | 2005-12-28 | 2007-06-28 | Andrey Danilenko | Capture, storage and retrieval of broadcast information while on-the-go |
US20090006337A1 (en) * | 2005-12-30 | 2009-01-01 | Mediaguide, Inc. | Method and apparatus for automatic detection and identification of unidentified video signals |
EP1826932B1 (en) * | 2006-02-22 | 2011-07-06 | Media Evolution Technologies Inc. | Method and apparatus for generating digital audio signatures |
CA2841017C (en) | 2006-03-27 | 2016-12-20 | The Nielsen Company (Us), Llc | Methods and systems to meter media content presented on a wireless communication device |
US7735101B2 (en) | 2006-03-28 | 2010-06-08 | Cisco Technology, Inc. | System allowing users to embed comments at specific points in time into media presentation |
MX2007015979A (es) | 2006-03-31 | 2009-04-07 | Nielsen Media Res Inc | Metodos, sistemas y aparato para medicion de multiples fines. |
US20080036917A1 (en) * | 2006-04-07 | 2008-02-14 | Mark Pascarella | Methods and systems for generating and delivering navigatable composite videos |
CN101536503B (zh) | 2006-06-15 | 2012-09-26 | 尼尔森(美国)有限公司 | 利用隐藏字幕信息来计量内容曝光的方法和装置 |
US8019162B2 (en) * | 2006-06-20 | 2011-09-13 | The Nielsen Company (Us), Llc | Methods and apparatus for detecting on-screen media sources |
WO2007148264A1 (en) * | 2006-06-20 | 2007-12-27 | Koninklijke Philips Electronics N.V. | Generating fingerprints of video signals |
US8433915B2 (en) * | 2006-06-28 | 2013-04-30 | Intellisist, Inc. | Selective security masking within recorded speech |
US9489640B2 (en) | 2006-07-12 | 2016-11-08 | The Nielsen Company (Us), Llc | Methods and systems for compliance confirmation and incentives |
DE102006032543A1 (de) * | 2006-07-13 | 2008-01-17 | Nokia Siemens Networks Gmbh & Co.Kg | Verfahren und System zur Reduzierung des Empfangs unerwünschter Nachrichten |
US7881547B2 (en) * | 2006-07-28 | 2011-02-01 | Genesis Microchip Inc. | Video window detector |
US8745684B1 (en) | 2006-08-08 | 2014-06-03 | CastTV Inc. | Facilitating video search |
US9398350B1 (en) * | 2006-08-08 | 2016-07-19 | CastTV Inc. | Video matching service to offline counterpart |
US7693872B2 (en) * | 2006-08-17 | 2010-04-06 | Anchorfree, Inc. | Software web crowler and method therefor |
US20080051029A1 (en) * | 2006-08-25 | 2008-02-28 | Bradley James Witteman | Phone-based broadcast audio identification |
EP2126833A2 (en) | 2006-11-30 | 2009-12-02 | Dolby Laboratories Licensing Corporation | Extracting features of video&audio signal content to provide reliable identification of the signals |
US20080155627A1 (en) * | 2006-12-04 | 2008-06-26 | O'connor Daniel | Systems and methods of searching for and presenting video and audio |
US20080147497A1 (en) * | 2006-12-13 | 2008-06-19 | Tischer Steven N | Advertising and content management systems and methods |
US10885543B1 (en) | 2006-12-29 | 2021-01-05 | The Nielsen Company (Us), Llc | Systems and methods to pre-scale media content to facilitate audience measurement |
CN101627422B (zh) * | 2007-01-25 | 2013-01-02 | 奥比融公司 | 研究数据收集 |
US8453170B2 (en) | 2007-02-27 | 2013-05-28 | Landmark Digital Services Llc | System and method for monitoring and recognizing broadcast data |
US8645987B2 (en) * | 2007-04-13 | 2014-02-04 | Power-Link Software Systems, Inc. | Advertisement airing audit system and associated methods |
US10489795B2 (en) * | 2007-04-23 | 2019-11-26 | The Nielsen Company (Us), Llc | Determining relative effectiveness of media content items |
US20080274687A1 (en) * | 2007-05-02 | 2008-11-06 | Roberts Dale T | Dynamic mixed media package |
US7912894B2 (en) * | 2007-05-15 | 2011-03-22 | Adams Phillip M | Computerized, copy-detection and discrimination apparatus and method |
US8849432B2 (en) * | 2007-05-31 | 2014-09-30 | Adobe Systems Incorporated | Acoustic pattern identification using spectral characteristics to synchronize audio and/or video |
JP2008306549A (ja) * | 2007-06-08 | 2008-12-18 | Canon Inc | 無線制御局、及び無線端末局の制御方法、当該制御方法をコンピュータに実行させるためのコンピュータプログラム |
US8559516B2 (en) * | 2007-06-14 | 2013-10-15 | Sony Corporation | Video sequence ID by decimated scene signature |
US8006314B2 (en) * | 2007-07-27 | 2011-08-23 | Audible Magic Corporation | System for identifying content of digital data |
US9483405B2 (en) | 2007-09-20 | 2016-11-01 | Sony Interactive Entertainment Inc. | Simplified run-time program translation for emulating complex processor pipelines |
EP2073460A1 (en) * | 2007-12-17 | 2009-06-24 | Alcatel Lucent | Method for forwarding packets, a related packet forwarding system, a related classification device and a related popularity monitoring device |
US20090165049A1 (en) | 2007-12-19 | 2009-06-25 | United Video Properties, Inc. | Methods and devices for presenting and interactive media guidance application |
US8285718B1 (en) * | 2007-12-21 | 2012-10-09 | CastTV Inc. | Clustering multimedia search |
AU2008347134A1 (en) | 2007-12-31 | 2009-07-16 | Arbitron, Inc. | Survey data acquisition |
US8930003B2 (en) | 2007-12-31 | 2015-01-06 | The Nielsen Company (Us), Llc | Data capture bridge |
CA2660674A1 (en) * | 2008-03-27 | 2009-09-27 | Crim (Centre De Recherche Informatique De Montreal) | Media detection using acoustic recognition |
US8503991B2 (en) * | 2008-04-03 | 2013-08-06 | The Nielsen Company (Us), Llc | Methods and apparatus to monitor mobile devices |
US8245262B2 (en) * | 2008-04-07 | 2012-08-14 | Samsung Electronics Co., Ltd. | System and method for synchronization of television signals associated with multiple broadcast networks |
US8805689B2 (en) * | 2008-04-11 | 2014-08-12 | The Nielsen Company (Us), Llc | Methods and apparatus to generate and use content-aware watermarks |
US8947207B2 (en) | 2008-04-29 | 2015-02-03 | Quake Global, Inc. | Method and apparatus for a deployable radio-frequency identification portal system |
US8259938B2 (en) | 2008-06-24 | 2012-09-04 | Verance Corporation | Efficient and secure forensic marking in compressed |
US8428301B2 (en) | 2008-08-22 | 2013-04-23 | Dolby Laboratories Licensing Corporation | Content identification and quality monitoring |
CN102132341B (zh) * | 2008-08-26 | 2014-11-26 | 杜比实验室特许公司 | 鲁棒的媒体指纹 |
US7730061B2 (en) * | 2008-09-12 | 2010-06-01 | International Business Machines Corporation | Fast-approximate TFIDF |
US8108887B2 (en) * | 2008-10-30 | 2012-01-31 | The Nielsen Company (Us), Llc | Methods and apparatus for identifying media content using temporal signal characteristics |
US9124769B2 (en) | 2008-10-31 | 2015-09-01 | The Nielsen Company (Us), Llc | Methods and apparatus to verify presentation of media content |
US10631068B2 (en) | 2008-11-26 | 2020-04-21 | Free Stream Media Corp. | Content exposure attribution based on renderings of related content across multiple devices |
US10977693B2 (en) | 2008-11-26 | 2021-04-13 | Free Stream Media Corp. | Association of content identifier of audio-visual data with additional data through capture infrastructure |
US10880340B2 (en) | 2008-11-26 | 2020-12-29 | Free Stream Media Corp. | Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device |
US9986279B2 (en) | 2008-11-26 | 2018-05-29 | Free Stream Media Corp. | Discovery, access control, and communication with networked services |
US9026668B2 (en) | 2012-05-26 | 2015-05-05 | Free Stream Media Corp. | Real-time and retargeted advertising on multiple screens of a user watching television |
US10419541B2 (en) | 2008-11-26 | 2019-09-17 | Free Stream Media Corp. | Remotely control devices over a network without authentication or registration |
US8180891B1 (en) | 2008-11-26 | 2012-05-15 | Free Stream Media Corp. | Discovery, access control, and communication with networked services from within a security sandbox |
US10567823B2 (en) | 2008-11-26 | 2020-02-18 | Free Stream Media Corp. | Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device |
US9961388B2 (en) | 2008-11-26 | 2018-05-01 | David Harrison | Exposure of public internet protocol addresses in an advertising exchange server to improve relevancy of advertisements |
US10334324B2 (en) | 2008-11-26 | 2019-06-25 | Free Stream Media Corp. | Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device |
US9154942B2 (en) | 2008-11-26 | 2015-10-06 | Free Stream Media Corp. | Zero configuration communication between a browser and a networked media device |
US9519772B2 (en) | 2008-11-26 | 2016-12-13 | Free Stream Media Corp. | Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device |
US9386356B2 (en) | 2008-11-26 | 2016-07-05 | Free Stream Media Corp. | Targeting with television audience data across multiple screens |
US9390167B2 (en) | 2010-07-29 | 2016-07-12 | Soundhound, Inc. | System and methods for continuous audio matching |
NO331287B1 (no) * | 2008-12-15 | 2011-11-14 | Cisco Systems Int Sarl | Fremgangsmate og anordning for gjenkjenning av ansikter i en videostrom |
JP4831255B2 (ja) | 2009-01-23 | 2011-12-07 | 日本電気株式会社 | 画像識別子抽出装置 |
US9042656B2 (en) | 2009-01-23 | 2015-05-26 | Nec Corporation | Image signature extraction device |
US20110066437A1 (en) * | 2009-01-26 | 2011-03-17 | Robert Luff | Methods and apparatus to monitor media exposure using content-aware watermarks |
EP2333718B1 (en) | 2009-01-29 | 2013-08-28 | Nec Corporation | Feature amount selecting device |
CA2754170A1 (en) | 2009-03-11 | 2010-09-16 | Paymaan Behrouzi | Digital signatures |
KR101344627B1 (ko) | 2009-03-13 | 2013-12-26 | 닛본 덴끼 가부시끼가이샤 | 화상 식별자 추출 장치 |
CN102349091B (zh) | 2009-03-13 | 2014-08-06 | 日本电气株式会社 | 图像签名匹配设备 |
CN102349093B (zh) * | 2009-03-13 | 2014-10-22 | 日本电气株式会社 | 图像签名提取设备 |
US8199651B1 (en) | 2009-03-16 | 2012-06-12 | Audible Magic Corporation | Method and system for modifying communication flows at a port level |
WO2010119657A1 (ja) | 2009-04-14 | 2010-10-21 | 日本電気株式会社 | 画像識別子抽出装置 |
US10116972B2 (en) | 2009-05-29 | 2018-10-30 | Inscape Data, Inc. | Methods for identifying video segments and displaying option to view from an alternative source and/or on an alternative device |
US9449090B2 (en) | 2009-05-29 | 2016-09-20 | Vizio Inscape Technologies, Llc | Systems and methods for addressing a media database using distance associative hashing |
US10375451B2 (en) | 2009-05-29 | 2019-08-06 | Inscape Data, Inc. | Detection of common media segments |
US10949458B2 (en) | 2009-05-29 | 2021-03-16 | Inscape Data, Inc. | System and method for improving work load management in ACR television monitoring system |
US9055309B2 (en) | 2009-05-29 | 2015-06-09 | Cognitive Networks, Inc. | Systems and methods for identifying video segments for displaying contextually relevant content |
US8769584B2 (en) | 2009-05-29 | 2014-07-01 | TVI Interactive Systems, Inc. | Methods for displaying contextually targeted content on a connected television |
US8620967B2 (en) * | 2009-06-11 | 2013-12-31 | Rovi Technologies Corporation | Managing metadata for occurrences of a recording |
US8200021B2 (en) * | 2009-06-16 | 2012-06-12 | Nec Corporation | Image signature matching device |
US20110041154A1 (en) * | 2009-08-14 | 2011-02-17 | All Media Guide, Llc | Content Recognition and Synchronization on a Television or Consumer Electronics Device |
US20110066942A1 (en) | 2009-09-14 | 2011-03-17 | Barton James M | Multifunction Multimedia Device |
US8677400B2 (en) * | 2009-09-30 | 2014-03-18 | United Video Properties, Inc. | Systems and methods for identifying audio content using an interactive media guidance application |
US20110078020A1 (en) * | 2009-09-30 | 2011-03-31 | Lajoie Dan | Systems and methods for identifying popular audio assets |
US8161071B2 (en) | 2009-09-30 | 2012-04-17 | United Video Properties, Inc. | Systems and methods for audio asset storage and management |
US8245249B2 (en) * | 2009-10-09 | 2012-08-14 | The Nielson Company (Us), Llc | Methods and apparatus to adjust signature matching results for audience measurement |
JP4786739B2 (ja) * | 2009-10-21 | 2011-10-05 | 株式会社東芝 | 情報処理装置および映像コンテンツデータ再生方法 |
US20110137976A1 (en) * | 2009-12-04 | 2011-06-09 | Bob Poniatowski | Multifunction Multimedia Device |
US8682145B2 (en) * | 2009-12-04 | 2014-03-25 | Tivo Inc. | Recording system based on multimedia content fingerprints |
US20110173185A1 (en) * | 2010-01-13 | 2011-07-14 | Rovi Technologies Corporation | Multi-stage lookup for rolling audio recognition |
US8886531B2 (en) * | 2010-01-13 | 2014-11-11 | Rovi Technologies Corporation | Apparatus and method for generating an audio fingerprint and using a two-stage query |
US9134875B2 (en) | 2010-03-23 | 2015-09-15 | VoteBlast, Inc. | Enhancing public opinion gathering and dissemination |
US8732605B1 (en) | 2010-03-23 | 2014-05-20 | VoteBlast, Inc. | Various methods and apparatuses for enhancing public opinion gathering and dissemination |
US9026034B2 (en) | 2010-05-04 | 2015-05-05 | Project Oda, Inc. | Automatic detection of broadcast programming |
EP3418917B1 (en) * | 2010-05-04 | 2022-08-17 | Apple Inc. | Methods and systems for synchronizing media |
US8433759B2 (en) | 2010-05-24 | 2013-04-30 | Sony Computer Entertainment America Llc | Direction-conscious information sharing |
US10192138B2 (en) | 2010-05-27 | 2019-01-29 | Inscape Data, Inc. | Systems and methods for reducing data density in large datasets |
US9838753B2 (en) | 2013-12-23 | 2017-12-05 | Inscape Data, Inc. | Monitoring individual viewing of television events using tracking pixels and cookies |
US9047371B2 (en) | 2010-07-29 | 2015-06-02 | Soundhound, Inc. | System and method for matching a query against a broadcast stream |
US10210160B2 (en) | 2010-09-07 | 2019-02-19 | Opentv, Inc. | Collecting data from different sources |
US9699503B2 (en) | 2010-09-07 | 2017-07-04 | Opentv, Inc. | Smart playlist |
US8949871B2 (en) | 2010-09-08 | 2015-02-03 | Opentv, Inc. | Smart media selection based on viewer user presence |
US8838977B2 (en) | 2010-09-16 | 2014-09-16 | Verance Corporation | Watermark extraction and content screening in a networked environment |
US20120084435A1 (en) * | 2010-10-04 | 2012-04-05 | International Business Machines Corporation | Smart Real-time Content Delivery |
US8631473B2 (en) | 2011-07-06 | 2014-01-14 | Symphony Advanced Media | Social content monitoring platform apparatuses and systems |
US10142687B2 (en) | 2010-11-07 | 2018-11-27 | Symphony Advanced Media, Inc. | Audience content exposure monitoring apparatuses, methods and systems |
US9027051B2 (en) | 2010-12-31 | 2015-05-05 | Accenture Global Services Limited | Determining whether an advertisement aired in accordance with predefined airing specifications |
US9424469B2 (en) * | 2011-02-10 | 2016-08-23 | Nec Corporation | Differing region detection system and differing region detection method |
CN103797494A (zh) | 2011-03-31 | 2014-05-14 | 维塔克公司 | 使用可拍照设备检测、索引和比较显示在背景场景中的视频信号的设备、系统、方法和介质 |
WO2012137654A1 (ja) * | 2011-04-05 | 2012-10-11 | ヤマハ株式会社 | 情報提供システム、識別情報解決サーバおよび携帯端末装置 |
US9035163B1 (en) | 2011-05-10 | 2015-05-19 | Soundbound, Inc. | System and method for targeting content based on identified audio and multimedia |
US8732739B2 (en) | 2011-07-18 | 2014-05-20 | Viggle Inc. | System and method for tracking and rewarding media and entertainment usage including substantially real time rewards |
US8861937B2 (en) | 2011-08-31 | 2014-10-14 | The Nielsen Company (Us), Llc | Methods and apparatus to access media |
US20130097007A1 (en) * | 2011-10-12 | 2013-04-18 | Joseph Brewer | Media posting system and method |
US9973398B1 (en) | 2011-10-31 | 2018-05-15 | Reality Analytics, Inc. | System and method for discriminating remote site origination of communication signals transmitted through a network based on envelope characteristics |
US9813310B1 (en) | 2011-10-31 | 2017-11-07 | Reality Analytics, Inc. | System and method for discriminating nature of communication traffic transmitted through network based on envelope characteristics |
US8923548B2 (en) | 2011-11-03 | 2014-12-30 | Verance Corporation | Extraction of embedded watermarks from a host content using a plurality of tentative watermarks |
US8533481B2 (en) | 2011-11-03 | 2013-09-10 | Verance Corporation | Extraction of embedded watermarks from a host content based on extrapolation techniques |
US8682026B2 (en) | 2011-11-03 | 2014-03-25 | Verance Corporation | Efficient extraction of embedded watermarks in the presence of host content distortions |
US8615104B2 (en) | 2011-11-03 | 2013-12-24 | Verance Corporation | Watermark extraction based on tentative watermarks |
US8745403B2 (en) | 2011-11-23 | 2014-06-03 | Verance Corporation | Enhanced content management based on watermark extraction records |
US9696336B2 (en) | 2011-11-30 | 2017-07-04 | The Nielsen Company (Us), Llc | Multiple meter detection and processing using motion data |
US9547753B2 (en) | 2011-12-13 | 2017-01-17 | Verance Corporation | Coordinated watermarking |
US9323902B2 (en) | 2011-12-13 | 2016-04-26 | Verance Corporation | Conditional access using embedded watermarks |
US8977194B2 (en) | 2011-12-16 | 2015-03-10 | The Nielsen Company (Us), Llc | Media exposure and verification utilizing inductive coupling |
US8538333B2 (en) | 2011-12-16 | 2013-09-17 | Arbitron Inc. | Media exposure linking utilizing bluetooth signal characteristics |
US20130262184A1 (en) * | 2012-03-30 | 2013-10-03 | Arbitron Inc. | Systems and Methods for Presence Detection and Linking to Media Exposure Data |
WO2013184520A1 (en) | 2012-06-04 | 2013-12-12 | Stone Troy Christopher | Methods and systems for identifying content types |
US9118951B2 (en) | 2012-06-26 | 2015-08-25 | Arris Technology, Inc. | Time-synchronizing a parallel feed of secondary content with primary media content |
US9628829B2 (en) | 2012-06-26 | 2017-04-18 | Google Technology Holdings LLC | Identifying media on a mobile device |
US10957310B1 (en) | 2012-07-23 | 2021-03-23 | Soundhound, Inc. | Integrated programming framework for speech and text understanding with meaning parsing |
US8989503B2 (en) * | 2012-08-03 | 2015-03-24 | Kodak Alaris Inc. | Identifying scene boundaries using group sparsity analysis |
US9282366B2 (en) | 2012-08-13 | 2016-03-08 | The Nielsen Company (Us), Llc | Methods and apparatus to communicate audience measurement information |
US9571606B2 (en) | 2012-08-31 | 2017-02-14 | Verance Corporation | Social media viewing system |
US9058806B2 (en) | 2012-09-10 | 2015-06-16 | Cisco Technology, Inc. | Speaker segmentation and recognition based on list of speakers |
US20140075469A1 (en) | 2012-09-13 | 2014-03-13 | Verance Corporation | Content distribution including advertisements |
US8726304B2 (en) | 2012-09-13 | 2014-05-13 | Verance Corporation | Time varying evaluation of multimedia content |
US8869222B2 (en) | 2012-09-13 | 2014-10-21 | Verance Corporation | Second screen content |
US9081778B2 (en) | 2012-09-25 | 2015-07-14 | Audible Magic Corporation | Using digital fingerprints to associate data with a work |
US9992729B2 (en) | 2012-10-22 | 2018-06-05 | The Nielsen Company (Us), Llc | Systems and methods for wirelessly modifying detection characteristics of portable devices |
US9106953B2 (en) | 2012-11-28 | 2015-08-11 | The Nielsen Company (Us), Llc | Media monitoring based on predictive signature caching |
EP2926148B1 (en) | 2012-11-30 | 2019-07-31 | The Nielsen Company (US), LLC | Multiple meter detection and processing using motion data |
US8886011B2 (en) | 2012-12-07 | 2014-11-11 | Cisco Technology, Inc. | System and method for question detection based video segmentation, search and collaboration in a video processing environment |
US9158760B2 (en) | 2012-12-21 | 2015-10-13 | The Nielsen Company (Us), Llc | Audio decoding with supplemental semantic audio recognition and report generation |
US9183849B2 (en) | 2012-12-21 | 2015-11-10 | The Nielsen Company (Us), Llc | Audio matching with semantic audio recognition and report generation |
US9195649B2 (en) | 2012-12-21 | 2015-11-24 | The Nielsen Company (Us), Llc | Audio processing techniques for semantic audio recognition and report generation |
US20140187268A1 (en) * | 2012-12-28 | 2014-07-03 | Arbitron Inc. | Apparatus, System and Method for Location Detection and User Identification for Media Exposure Data |
US9841492B2 (en) | 2013-02-25 | 2017-12-12 | Quake Global, Inc. | Ceiling-mounted RFID-enabled tracking |
CA2902912C (en) | 2013-02-26 | 2022-02-01 | Quake Global, Inc. | Methods and apparatus for automatic identification wristband |
US9819798B2 (en) | 2013-03-14 | 2017-11-14 | Intellisist, Inc. | Computer-implemented system and method for efficiently facilitating appointments within a call center via an automatic call distributor |
US9262793B2 (en) | 2013-03-14 | 2016-02-16 | Verance Corporation | Transactional video marking system |
US9325381B2 (en) | 2013-03-15 | 2016-04-26 | The Nielsen Company (Us), Llc | Methods, apparatus and articles of manufacture to monitor mobile devices |
US9251549B2 (en) | 2013-07-23 | 2016-02-02 | Verance Corporation | Watermark extractor enhancements based on payload ranking |
US9208334B2 (en) | 2013-10-25 | 2015-12-08 | Verance Corporation | Content management using multiple abstraction layers |
US9300991B2 (en) | 2013-11-13 | 2016-03-29 | International Business Machines Corporation | Use of simultaneously received videos by a system to generate a quality of experience value |
US9507849B2 (en) | 2013-11-28 | 2016-11-29 | Soundhound, Inc. | Method for combining a query and a communication command in a natural language computer system |
US9955192B2 (en) | 2013-12-23 | 2018-04-24 | Inscape Data, Inc. | Monitoring individual viewing of television events using tracking pixels and cookies |
US9426525B2 (en) | 2013-12-31 | 2016-08-23 | The Nielsen Company (Us), Llc. | Methods and apparatus to count people in an audience |
US9292488B2 (en) | 2014-02-01 | 2016-03-22 | Soundhound, Inc. | Method for embedding voice mail in a spoken utterance using a natural language processing computer system |
US11295730B1 (en) | 2014-02-27 | 2022-04-05 | Soundhound, Inc. | Using phonetic variants in a local context to improve natural language understanding |
CN106170988A (zh) | 2014-03-13 | 2016-11-30 | 凡瑞斯公司 | 使用嵌入式代码的交互式内容获取 |
US9699499B2 (en) | 2014-04-30 | 2017-07-04 | The Nielsen Company (Us), Llc | Methods and apparatus to measure exposure to streaming media |
US9564123B1 (en) | 2014-05-12 | 2017-02-07 | Soundhound, Inc. | Method and system for building an integrated user profile |
US9179184B1 (en) * | 2014-06-20 | 2015-11-03 | Google Inc. | Methods, systems, and media for detecting a presentation of media content on a display device |
US9641892B2 (en) | 2014-07-15 | 2017-05-02 | The Nielsen Company (Us), Llc | Frequency band selection and processing techniques for media source detection |
US9369780B2 (en) * | 2014-07-31 | 2016-06-14 | Verizon Patent And Licensing Inc. | Methods and systems for detecting one or more advertisement breaks in a media content stream |
US9729912B2 (en) * | 2014-09-22 | 2017-08-08 | Sony Corporation | Method, computer program, electronic device, and system |
CA2973740C (en) | 2015-01-30 | 2021-06-08 | Inscape Data, Inc. | Methods for identifying video segments and displaying option to view from an alternative source and/or on an alternative device |
EP4375952A3 (en) | 2015-04-17 | 2024-06-19 | Inscape Data, Inc. | Systems and methods for reducing data density in large datasets |
EP3286757B1 (en) | 2015-04-24 | 2019-10-23 | Cyber Resonance Corporation | Methods and systems for performing signal analysis to identify content types |
US10080062B2 (en) | 2015-07-16 | 2018-09-18 | Inscape Data, Inc. | Optimizing media fingerprint retention to improve system resource utilization |
AU2016291690B2 (en) | 2015-07-16 | 2020-08-27 | Inscape Data, Inc. | Prediction of future views of video segments to optimize system resource utilization |
BR112018000716B1 (pt) | 2015-07-16 | 2023-03-28 | Inscape Data, Inc | Método e dispositivo de computação para detecção de segmentos de mídia comuns |
AU2016291674B2 (en) | 2015-07-16 | 2021-08-26 | Inscape Data, Inc. | Systems and methods for partitioning search indexes for improved efficiency in identifying media segments |
US10271107B2 (en) | 2015-11-26 | 2019-04-23 | The Nielsen Company (Us), Llc | Accelerated television advertisement identification |
US11195043B2 (en) | 2015-12-15 | 2021-12-07 | Cortica, Ltd. | System and method for determining common patterns in multimedia content elements based on key points |
WO2017105641A1 (en) | 2015-12-15 | 2017-06-22 | Cortica, Ltd. | Identification of key points in multimedia data elements |
DE102016204055B4 (de) * | 2016-03-11 | 2019-04-04 | Universität Ulm | Verfahren und Vorrichtung zur Erzeugung einer digitalen Signatur |
US10754978B2 (en) | 2016-07-29 | 2020-08-25 | Intellisist Inc. | Computer-implemented system and method for storing and retrieving sensitive information |
WO2018187592A1 (en) | 2017-04-06 | 2018-10-11 | Inscape Data, Inc. | Systems and methods for improving accuracy of device maps using media viewing data |
WO2019008581A1 (en) | 2017-07-05 | 2019-01-10 | Cortica Ltd. | DETERMINATION OF DRIVING POLICIES |
US11899707B2 (en) | 2017-07-09 | 2024-02-13 | Cortica Ltd. | Driving policies determination |
FR3072807B1 (fr) | 2017-10-23 | 2021-05-07 | Hl2 Group | Procede et equipement de reconnaissance de detonation par filtrage selectif |
US10891971B2 (en) | 2018-06-04 | 2021-01-12 | The Nielsen Company (Us), Llc | Methods and apparatus to dynamically generate audio signatures adaptive to circumstances associated with media being monitored |
US10846544B2 (en) | 2018-07-16 | 2020-11-24 | Cartica Ai Ltd. | Transportation prediction system and method |
US10887031B2 (en) | 2018-08-03 | 2021-01-05 | Gracenote, Inc. | Vehicle-based media system with audio ad and navigation-related action synchronization feature |
US11275933B2 (en) * | 2018-08-24 | 2022-03-15 | Genpact Luxembourg S.Á R.L | Systems and methods for segmentation of report corpus using visual signatures |
US11181911B2 (en) | 2018-10-18 | 2021-11-23 | Cartica Ai Ltd | Control transfer of a vehicle |
US11126870B2 (en) | 2018-10-18 | 2021-09-21 | Cartica Ai Ltd. | Method and system for obstacle detection |
US20200133308A1 (en) | 2018-10-18 | 2020-04-30 | Cartica Ai Ltd | Vehicle to vehicle (v2v) communication less truck platooning |
US10839694B2 (en) | 2018-10-18 | 2020-11-17 | Cartica Ai Ltd | Blind spot alert |
US11126869B2 (en) | 2018-10-26 | 2021-09-21 | Cartica Ai Ltd. | Tracking after objects |
US10789535B2 (en) | 2018-11-26 | 2020-09-29 | Cartica Ai Ltd | Detection of road elements |
US11643005B2 (en) | 2019-02-27 | 2023-05-09 | Autobrains Technologies Ltd | Adjusting adjustable headlights of a vehicle |
US11285963B2 (en) | 2019-03-10 | 2022-03-29 | Cartica Ai Ltd. | Driver-based prediction of dangerous events |
US11694088B2 (en) | 2019-03-13 | 2023-07-04 | Cortica Ltd. | Method for object detection using knowledge distillation |
US11132548B2 (en) | 2019-03-20 | 2021-09-28 | Cortica Ltd. | Determining object information that does not explicitly appear in a media unit signature |
US11222069B2 (en) | 2019-03-31 | 2022-01-11 | Cortica Ltd. | Low-power calculation of a signature of a media unit |
US10776669B1 (en) | 2019-03-31 | 2020-09-15 | Cortica Ltd. | Signature generation and object detection that refer to rare scenes |
US11488290B2 (en) | 2019-03-31 | 2022-11-01 | Cortica Ltd. | Hybrid representation of a media unit |
US10789527B1 (en) | 2019-03-31 | 2020-09-29 | Cortica Ltd. | Method for object detection using shallow neural networks |
US10796444B1 (en) | 2019-03-31 | 2020-10-06 | Cortica Ltd | Configuring spanning elements of a signature generator |
CA3157553A1 (en) * | 2019-10-17 | 2021-04-22 | D-Box Technologies Inc. | Method and system for synchronizing a viewer-effect signal of a media content with a media signal of the media content |
US11593662B2 (en) | 2019-12-12 | 2023-02-28 | Autobrains Technologies Ltd | Unsupervised cluster generation |
US10748022B1 (en) | 2019-12-12 | 2020-08-18 | Cartica Ai Ltd | Crowd separation |
US11590988B2 (en) | 2020-03-19 | 2023-02-28 | Autobrains Technologies Ltd | Predictive turning assistant |
US11827215B2 (en) | 2020-03-31 | 2023-11-28 | AutoBrains Technologies Ltd. | Method for training a driving related object detector |
US11756424B2 (en) | 2020-07-24 | 2023-09-12 | AutoBrains Technologies Ltd. | Parking assist |
US20230206256A1 (en) * | 2021-12-29 | 2023-06-29 | The Nielsen Company (Us), Llc | Methods, systems, apparatus, and articles of manufacture to modify audience estimates to preserve logical consistency |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US2766374A (en) * | 1951-07-25 | 1956-10-09 | Internat Telementer Corp | System and apparatus for determining popularity ratings of different transmitted programs |
US3919479A (en) * | 1972-09-21 | 1975-11-11 | First National Bank Of Boston | Broadcast signal identification system |
US4025851A (en) * | 1975-11-28 | 1977-05-24 | A.C. Nielsen Company | Automatic monitor for programs broadcast |
US4230990C1 (en) * | 1979-03-16 | 2002-04-09 | John G Lert Jr | Broadcast program identification method and system |
JPS58175157A (ja) * | 1982-04-06 | 1983-10-14 | Mitsubishi Electric Corp | 音声始端検出装置 |
US4450531A (en) * | 1982-09-10 | 1984-05-22 | Ensco, Inc. | Broadcast signal recognition system and method |
US4547804A (en) * | 1983-03-21 | 1985-10-15 | Greenberg Burton L | Method and apparatus for the automatic identification and verification of commercial broadcast programs |
US4967273A (en) * | 1983-03-21 | 1990-10-30 | Vidcode, Inc. | Television program transmission verification method and apparatus |
DE3318919C2 (de) * | 1983-05-25 | 1985-03-21 | TeleMetric S.A., Internationale Gesellschaft für Fernsehzuschauerforschung, Zug | Verfahren und Vorrichtung zum Erfassen von Daten über das Fernseheinschaltverhalten von Fernsehzuschauern |
JPS6085753U (ja) * | 1983-11-18 | 1985-06-13 | 日本ビクター株式会社 | 磁気テ−プ記録再生装置 |
FR2559002B1 (fr) * | 1984-01-27 | 1986-09-05 | Gam Steffen | Procede et dispositif de detection d'une information audiovisuelle diffusee par un emetteur |
JPS60224341A (ja) * | 1984-04-20 | 1985-11-08 | Nippon Telegr & Teleph Corp <Ntt> | 音声符号化方法 |
US4697209A (en) * | 1984-04-26 | 1987-09-29 | A. C. Nielsen Company | Methods and apparatus for automatically identifying programs viewed or recorded |
JPS6136797A (ja) * | 1984-07-30 | 1986-02-21 | 松下電器産業株式会社 | 音声セグメンテ−シヨン法 |
US4677466A (en) * | 1985-07-29 | 1987-06-30 | A. C. Nielsen Company | Broadcast program identification method and apparatus |
US4697207A (en) * | 1985-09-30 | 1987-09-29 | Ampex Corporation | System for generating a synchronizing signal in response to two timing reference signals |
US4739398A (en) * | 1986-05-02 | 1988-04-19 | Control Data Corporation | Method, apparatus and system for recognizing broadcast segments |
US4718106A (en) * | 1986-05-12 | 1988-01-05 | Weinblatt Lee S | Survey of radio audience |
JPS6356091A (ja) * | 1986-08-26 | 1988-03-10 | Video Res:Kk | テレビ・コマーシャル放送確認方法 |
JPS6384396A (ja) * | 1986-09-29 | 1988-04-14 | Video Res:Kk | 視聴率測定用テレビ・センサ |
US4750034A (en) * | 1987-01-21 | 1988-06-07 | Cloeck En Moedigh Bioscoopreclame B.V. | Apparatus for monitoring the replay of audio/video information carriers |
US4843562A (en) * | 1987-06-24 | 1989-06-27 | Broadcast Data Systems Limited Partnership | Broadcast information classification system and method |
DE3720882A1 (de) * | 1987-06-24 | 1989-01-05 | Media Control Musik Medien | Verfahren und schaltungsanordnung zum automatischen wiedererkennen von signalfolgen |
JP2585041B2 (ja) * | 1988-01-08 | 1997-02-26 | 株式会社ビデオ・リサーチ | テレビ放送同一性判別方式 |
US4931871A (en) * | 1988-06-14 | 1990-06-05 | Kramer Robert A | Method of and system for identification and verification of broadcasted program segments |
US4945412A (en) * | 1988-06-14 | 1990-07-31 | Kramer Robert A | Method of and system for identification and verification of broadcasting television and radio program segments |
US4955070A (en) * | 1988-06-29 | 1990-09-04 | Viewfacts, Inc. | Apparatus and method for automatically monitoring broadcast band listening habits |
US5023929A (en) * | 1988-09-15 | 1991-06-11 | Npd Research, Inc. | Audio frequency based market survey method |
US5019899A (en) * | 1988-11-01 | 1991-05-28 | Control Data Corporation | Electronic data encoding and recognition system |
US4857999A (en) * | 1988-12-20 | 1989-08-15 | Peac Media Research, Inc. | Video monitoring system |
JPH03173291A (ja) * | 1989-11-15 | 1991-07-26 | Control Data Corp <Cdc> | ビデオ信号もしくはtv送信フレームからデジタルサインを生成する方法及び放送ビデオセグメントの連続パターン認識装置 |
JPH0666738B2 (ja) * | 1990-04-06 | 1994-08-24 | 株式会社ビデオ・リサーチ | Cm自動確認装置 |
JPH04355800A (ja) * | 1991-06-04 | 1992-12-09 | Sharp Corp | 音声認識装置 |
US5436653A (en) * | 1992-04-30 | 1995-07-25 | The Arbitron Company | Method and system for recognition of broadcast segments |
-
1992
- 1992-04-30 US US07/876,578 patent/US5436653A/en not_active Expired - Lifetime
-
1993
- 1993-04-30 EP EP93910943A patent/EP0748563B1/en not_active Expired - Lifetime
- 1993-04-30 WO PCT/US1993/004082 patent/WO1993022875A1/en active IP Right Grant
- 1993-04-30 CA CA002134748A patent/CA2134748C/en not_active Expired - Lifetime
- 1993-04-30 DK DK02076018T patent/DK1261155T3/da active
- 1993-04-30 DE DE69334130T patent/DE69334130T2/de not_active Expired - Lifetime
- 1993-04-30 JP JP5519540A patent/JPH08500471A/ja active Pending
- 1993-04-30 AU AU42260/93A patent/AU678163B2/en not_active Expired
- 1993-04-30 CA CA002504552A patent/CA2504552C/en not_active Expired - Lifetime
- 1993-04-30 PT PT02076018T patent/PT1261155E/pt unknown
- 1993-04-30 EP EP02076018A patent/EP1261155B1/en not_active Revoked
- 1993-04-30 AT AT02076018T patent/ATE358366T1/de active
- 1993-04-30 ES ES02076018T patent/ES2284777T3/es not_active Expired - Lifetime
- 1993-04-30 DE DE69332671T patent/DE69332671D1/de not_active Expired - Lifetime
- 1993-04-30 AT AT93910943T patent/ATE232036T1/de not_active IP Right Cessation
-
1995
- 1995-06-07 US US08/474,248 patent/US5504518A/en not_active Expired - Lifetime
- 1995-06-07 US US08/486,511 patent/US5572246A/en not_active Expired - Lifetime
- 1995-06-07 US US08/475,779 patent/US5612729A/en not_active Expired - Lifetime
- 1995-06-07 US US08/481,815 patent/US5621454A/en not_active Expired - Lifetime
-
1997
- 1997-08-19 AU AU34272/97A patent/AU718227B2/en not_active Expired
-
2000
- 2000-07-12 AU AU47161/00A patent/AU747044C/en not_active Expired
-
2003
- 2003-05-24 HK HK03103685A patent/HK1051938A1/xx not_active IP Right Cessation
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8364491B2 (en) | 2007-02-20 | 2013-01-29 | The Nielsen Company (Us), Llc | Methods and apparatus for characterizing media |
US8060372B2 (en) | 2007-02-20 | 2011-11-15 | The Nielsen Company (Us), Llc | Methods and appratus for characterizing media |
US8457972B2 (en) | 2007-02-20 | 2013-06-04 | The Nielsen Company (Us), Llc | Methods and apparatus for characterizing media |
US8458737B2 (en) | 2007-05-02 | 2013-06-04 | The Nielsen Company (Us), Llc | Methods and apparatus for generating signatures |
US9136965B2 (en) | 2007-05-02 | 2015-09-15 | The Nielsen Company (Us), Llc | Methods and apparatus for generating signatures |
US10580421B2 (en) | 2007-11-12 | 2020-03-03 | The Nielsen Company (Us), Llc | Methods and apparatus to perform audio watermarking and watermark detection and extraction |
US8369972B2 (en) | 2007-11-12 | 2013-02-05 | The Nielsen Company (Us), Llc | Methods and apparatus to perform audio watermarking and watermark detection and extraction |
US11961527B2 (en) | 2007-11-12 | 2024-04-16 | The Nielsen Company (Us), Llc | Methods and apparatus to perform audio watermarking and watermark detection and extraction |
US11562752B2 (en) | 2007-11-12 | 2023-01-24 | The Nielsen Company (Us), Llc | Methods and apparatus to perform audio watermarking and watermark detection and extraction |
US9460730B2 (en) | 2007-11-12 | 2016-10-04 | The Nielsen Company (Us), Llc | Methods and apparatus to perform audio watermarking and watermark detection and extraction |
US10964333B2 (en) | 2007-11-12 | 2021-03-30 | The Nielsen Company (Us), Llc | Methods and apparatus to perform audio watermarking and watermark detection and extraction |
US9972332B2 (en) | 2007-11-12 | 2018-05-15 | The Nielsen Company (Us), Llc | Methods and apparatus to perform audio watermarking and watermark detection and extraction |
US8457951B2 (en) | 2008-01-29 | 2013-06-04 | The Nielsen Company (Us), Llc | Methods and apparatus for performing variable black length watermarking of media |
US10741190B2 (en) | 2008-01-29 | 2020-08-11 | The Nielsen Company (Us), Llc | Methods and apparatus for performing variable block length watermarking of media |
US9947327B2 (en) | 2008-01-29 | 2018-04-17 | The Nielsen Company (Us), Llc | Methods and apparatus for performing variable block length watermarking of media |
US11557304B2 (en) | 2008-01-29 | 2023-01-17 | The Nielsen Company (Us), Llc | Methods and apparatus for performing variable block length watermarking of media |
US9326044B2 (en) | 2008-03-05 | 2016-04-26 | The Nielsen Company (Us), Llc | Methods and apparatus for generating signatures |
US8600531B2 (en) | 2008-03-05 | 2013-12-03 | The Nielsen Company (Us), Llc | Methods and apparatus for generating signatures |
Also Published As
Publication number | Publication date |
---|---|
AU747044C (en) | 2004-05-06 |
EP0748563A1 (en) | 1996-12-18 |
AU678163B2 (en) | 1997-05-22 |
WO1993022875A1 (en) | 1993-11-11 |
US5572246A (en) | 1996-11-05 |
AU3427297A (en) | 1997-11-06 |
ATE232036T1 (de) | 2003-02-15 |
DE69334130D1 (de) | 2007-05-10 |
HK1051938A1 (en) | 2003-08-22 |
AU747044B2 (en) | 2002-05-09 |
CA2134748C (en) | 2005-07-26 |
DE69332671D1 (de) | 2003-03-06 |
EP0748563B1 (en) | 2003-01-29 |
JPH08500471A (ja) | 1996-01-16 |
DE69334130T2 (de) | 2007-12-13 |
DK1261155T3 (da) | 2007-08-06 |
US5504518A (en) | 1996-04-02 |
CA2134748A1 (en) | 1993-11-11 |
AU4226093A (en) | 1993-11-29 |
CA2504552A1 (en) | 1993-11-11 |
EP1261155B1 (en) | 2007-03-28 |
US5621454A (en) | 1997-04-15 |
ATE358366T1 (de) | 2007-04-15 |
PT1261155E (pt) | 2007-07-03 |
US5436653A (en) | 1995-07-25 |
US5612729A (en) | 1997-03-18 |
EP1261155A2 (en) | 2002-11-27 |
EP1261155A3 (en) | 2003-09-10 |
AU4716100A (en) | 2000-09-14 |
AU718227B2 (en) | 2000-04-13 |
CA2504552C (en) | 2009-01-20 |
EP0748563A4 (es) | 1996-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2284777T3 (es) | Metodo y sistema para el reconocimiento de segmentos de audio de difusion. | |
CA1121914A (en) | Identification system | |
KR101492180B1 (ko) | 비디오 분석 | |
CN111695540B (zh) | 视频边框识别方法及裁剪方法、装置、电子设备及介质 | |
JP2010537585A (ja) | 時間ベースメディア間の一致の検出と分類 | |
CN112115904A (zh) | 车牌检测识别方法、装置及计算机可读存储介质 | |
JPH11502680A (ja) | 遠隔式聴取者調査システム及びそのための方法 | |
CN110516170B (zh) | 一种检查异常web访问的方法及装置 | |
CN113869230A (zh) | 足球进球类型识别方法、装置、系统及存储介质 | |
CA2628654C (en) | Method and system for updating a broadcast segment recognition database | |
WO2002015596A1 (fr) | Systeme, dispositif et procede de confirmation de diffusion, support d'enregistrement enregistrant ce programme de confirmation de diffusion | |
CN110956800A (zh) | 一种路段交通数据预处理方法、装置及电子设备 | |
CN112235589B (zh) | 网络直播识别方法、边缘服务器、计算机设备及存储介质 | |
JP6336807B2 (ja) | 情報処理装置およびグルーピング方法 | |
CN112530040A (zh) | 一种打卡方法、装置、设备及计算机存储介质 | |
US6577964B1 (en) | Apparatus and method for determining compliance margin of a waveform relative to a standard | |
CN113268482B (zh) | 数据关联方法、装置和电子设备 | |
CN111708769B (zh) | 一种实现信息处理的方法、系统、计算机存储介质及终端 | |
CN110705332B (zh) | 一种人脸追踪方法及装置 | |
CN115346144A (zh) | 一种多视频关联播放的方法、设备及存储介质 | |
CN116503621A (zh) | 异常轨迹识别方法和装置、电子设备及存储介质 | |
CN114743142A (zh) | 一种跨域事件的确定方法、人次统计方法及装置 | |
KR100301108B1 (ko) | 비디오샷경계검출방법 | |
CN114519934A (zh) | 一种交通事件监测方法、装置、存储介质及电子装置 | |
KR20050051122A (ko) | 차량 영상 정보 조회 서비스 시스템 및 그 방법 |