ES2293693T3 - Sistema y procedimiento para codificar una señal de video, añadiendo un codigo inaudible a la señal de audio, para usar en sistemas de identificacion de programas de radiodifusion. - Google Patents
Sistema y procedimiento para codificar una señal de video, añadiendo un codigo inaudible a la señal de audio, para usar en sistemas de identificacion de programas de radiodifusion. Download PDFInfo
- Publication number
- ES2293693T3 ES2293693T3 ES98956602T ES98956602T ES2293693T3 ES 2293693 T3 ES2293693 T3 ES 2293693T3 ES 98956602 T ES98956602 T ES 98956602T ES 98956602 T ES98956602 T ES 98956602T ES 2293693 T3 ES2293693 T3 ES 2293693T3
- Authority
- ES
- Spain
- Prior art keywords
- frequency
- code
- signal
- environment
- spectral
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H20/00—Arrangements for broadcast or for distribution combined with broadcast
- H04H20/28—Arrangements for simultaneous broadcast of plural pieces of information
- H04H20/30—Arrangements for simultaneous broadcast of plural pieces of information by a single channel
- H04H20/31—Arrangements for simultaneous broadcast of plural pieces of information by a single channel using in-band signals, e.g. subsonic or cue signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H20/00—Arrangements for broadcast or for distribution combined with broadcast
- H04H20/28—Arrangements for simultaneous broadcast of plural pieces of information
- H04H20/33—Arrangements for simultaneous broadcast of plural pieces of information by plural channels
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/35—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
- H04H60/38—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying broadcast time or space
- H04H60/39—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying broadcast time or space for identifying broadcast space-time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H2201/00—Aspects of broadcast communication
- H04H2201/50—Aspects of broadcast communication characterised by the use of watermarks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/35—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
- H04H60/37—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
- Digital Transmission Methods That Use Modulated Carrier Waves (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
- Television Systems (AREA)
Abstract
Un procedimiento para añadir un bit de código binario a un bloque (42) de una señal que varía dentro de un ancho de banda de señal predeterminado, comprendiendo el procedimiento las siguientes etapas: a) seleccionar una frecuencia de referencia (f5k) dentro del ancho de banda de señal predeterminado, y asociar con la misma tanto una primera frecuencia de código (f1) que tiene una primera desviación predeterminada respecto a la frecuencia de referencia (f5k) y una segunda frecuencia de código que tiene una segunda desviación predeterminada respecto a la frecuencia de referencia (f5k); b) mediar la potencia espectral de la señal dentro del bloque (42) en un primer entorno de frecuencias que se extiende alrededor de la primera frecuencia de código (f1) y en un segundo entorno de frecuencias que se extiende alrededor de la segunda frecuencia de código (f0); caracterizado por c) incrementar la potencia espectral a la primera frecuencia de código (f1) para hacer que la potencia espectral (Pmax1) a la primera frecuencia de código (f1) resulte un máximo en el primer entorno de frecuencias; y d) disminuir la potencia espectral a la segunda frecuencia de código (f0) para hacer que la potencia espectral (Pmin0) a la segunda frecuencia de código (f0) resulte un mínimo en el segundo entorno de frecuencias.
Description
Sistema y procedimiento para codificar una señal
de vídeo, añadiendo un código inaudible a la señal de audio, para
usar en sistemas de identificación de programas de
radiodifusión.
La presente invención se refiere a un sistema y
procedimiento para añadir un código inaudible a una señal de audio
y posteriormente recuperar ese código. Tal código puede usarse, por
ejemplo, en una aplicación de medición de audiencia para
identificar un programa emitido.
Hay muchas disposiciones para añadir un código
auxiliar a una señal de tal manera que el código añadido no se
note. Resulta bien conocido al emitir televisión, por ejemplo,
ocultar tales códigos auxiliares en partes no visibles de vídeo
introduciéndolas en el intervalo de supresión vertical o el
intervalo de retroceso horizontal del vídeo. Un sistema ejemplar
que oculta códigos en partes no visibles de vídeo se denomina
"AMOL" y se enseña en la patente de EE.UU. Nº 4.025.851. Este
sistema es usado por el cesionario de esta solicitud para
monitorizar emisiones de programación de televisión así como los
momentos de tales emisiones.
Otros sistemas de codificación de vídeo
conocidos han tratado de enterrar el código auxiliar en una parte
de un ancho de banda de transmisión de señal de televisión que sin
no lleva poca energía de señal. Un ejemplo de tal sistema es
desvelado por Dougherty en la patente de EE.UU. Nº 5.629.739, que se
cede al cesionario de la presente solicitud.
Otros procedimientos y sistemas añaden códigos
auxiliares a señales de audio para el propósito de identificar las
señales y, quizá, para trazar sus recorridos a través de sistemas de
distribución de señal. Tales disposiciones tienen la ventaja obvia
de ser aplicables no sólo a televisión, sino también a emisiones de
radio y música pregrabada. Por otra parte, los códigos auxiliares
que se añaden a señales de audio pueden ser reproducidos en la
salida de señal de audio por un altavoz. En consecuencia, estas
disposiciones ofrecen la posibilidad de interceptar y decodificar
los códigos de manera no intrusiva con equipamiento que tiene
micrófonos como entradas. En particular, estas disposiciones
proporcionan un procedimiento para medir audiencias de emisión
mediante el uso de equipamiento medidor portátil transportado por
panelistas.
En el campo de codificación de señales de audio
para propósitos de medición de audiencia de emisión, Crosby, en la
patente de EE.UU. Nº 3.845.391 enseña un procedimiento de
codificación de audio en el que el código se introduce en una
estrecha "muesca" de frecuencia de la que se borra la señal de
audio original. La mueca se hace a una frecuencia predeterminada
fija (por ejemplo, 40 Hz). Este procedimiento llevaba a códigos que
eran audibles cuando la señal de audio original que contiene el
código era de baja intensidad.
A la patente de Crosby le siguió una serie de
mejoras. Así, Howard, en la patente de EE.UU. Nº 4.703.476, enseña
el uso de dos frecuencias de muescas separadas para las partes de
marca y espacio de una señal de código. Kramer, en la patente de
EE.UU. Nº 4931.871 y en la patente de EE.UU. Nº 4.945.412 enseña,
entre otras cosas, a usar una señal de código que tiene una
amplitud que rastrea a la amplitud de la señal de audio a la que se
añade el código.
También se conocen sistemas de medición de
audiencia de emisión en los que se espera que los panelistas lleven
dispositivos de monitorización de audio equipados con micrófono que
puedan recoger y almacenar códigos inaudibles emitidos en una señal
de audio. Por ejemplo, Aijalla y col., en el documento WO94/11989 y
la patente de EE.UU. Nº 5.579.124, describen una disposición en la
que se usan técnicas de espectro ensanchado para añadir un código a
una señal de audio de manera que el código no sea perceptible, o
sólo pueda oírse como ruido "estático" de bajo nivel. También,
Jensen y col. en la patente de EE.UU. Nº 5.450.490, enseñan una
disposición para añadir un código en un conjunto fijo de
frecuencias y usar una de dos señales de enmascaramiento, donde la
elección de la señal de enmascaramiento se hace basándose en un
análisis de frecuencia de la señal de audio a la que ha de
añadirse el código. Jenssen y col. no enseñan una disposición de
codificación en la que las frecuencias de código varían de bloque a
bloque. La intensidad del código introducido por Jenssen y col. es
una fracción predeterminada de un valor medido (por ejemplo, 30 dB
por debajo de la intensidad máxima) más que comprender máximos o
mínimos relativos.
Por otra parte, Preuss y col. en la patente de
EE.UU. N1 5.319.735, enseñan una disposición de codificación de
audio multibanda en la que se introduce código de espectro
ensanchado en música grabada en una relación fija respecto a la
intensidad de señal de entrada (relación código a música) que es
preferentemente 19 dB. Lee y col., en la patente de EE.UU. Nº
5.687.191, enseñan una disposición de codificación de audio
apropiada para uso con señales de audio digitalizadas en las que la
intensidad de código se hace coincidir con la señal de entrada
calculando una relación de señal a máscara en cada una de varias
bandas de frecuencia y luego introduciendo el código a una
intensidad que es una relación predeterminada de la entrada de audio
en esa banda. Tal como se informó en esta patente, Lee y col.
también han descrito un procedimiento de incluir información digital
en una forma de onda digital en la solicitud de EE.UU. pendiente de
tramitación US5.822.360.
Se reconocerá que, como los códigos auxiliares
se introducen preferentemente a bajas intensidades para impedir que
el código distraiga a un oyente de un programa de radio, tales
códigos pueden ser vulnerables a diversas operaciones de
procesamiento de señal. Por ejemplo, aunque Lee y col. tratan de
señales de audio digitalizadas, puede observarse que muchos de los
procedimientos conocidos anteriores para codificar una señal de
audio emitida no son compatibles con estándares de audio digital
actuales y propuestos, particularmente los que emplean
procedimientos de compresión de señal que pueden reducir el
intervalo dinámico de las señal (y borrar así un código de bajo
nivel) o que, si no, pueden dañar un código auxiliar. En este
sentido, es particularmente importante para un código auxiliar
sobrevivir a la compresión y descompresión posterior mediante el
algoritmo AC-3 o mediante uno de los algoritmos
recomendados en el estándar ISO/IEC 11172 MPEG, que se espera que se
use ampliamente en sistemas futuros de emisión de televisión
digital.
El documento
GB-A-2260246 desvela un
procedimiento para añadir un bit de código binario a un bloque de
una señal que varía con un ancho de banda de señal predeterminado.
El procedimiento comprende las etapas de seleccionar al menos una
banda de frecuencias estrecha. Mide la potencia espectral de la
señal en un entorno de la primera frecuencia y en un entorno de una
segunda frecuencia. Incrementa la potencia espectral a la primera
frecuencia como para hacer que resulte un valor predeterminado en
el primer entorno de frecuencias y disminuye la potencia espectral
a la segunda frecuencia como para hacer que resulte sustancialmente
cero en el segundo entorno de
frecuencias.
frecuencias.
La presente invención está dispuesta para
resolver uno o más de los problemas observados anteriormente.
Según un aspecto de la presente invención, un
procedimiento para añadir un bit de código binario a un bloque de
una señal que varía dentro de un ancho de banda de señal
predeterminado que comprende las siguientes etapas: a) seleccionar
una frecuencia de referencia dentro del ancho de banda de señal
predeterminado, y asociar con la misma tanto una primera frecuencia
de código que tiene una primera desviación predeterminada respecto a
la frecuencia de referencia y una segunda frecuencia de código que
tiene una segunda desviación predeterminada respecto a la
frecuencia de referencia; b) mediar la potencia espectral de la
señal en un primer entorno de frecuencias que se extiende alrededor
de la primera frecuencia de código y en un segundo entorno de
frecuencias que se extiende alrededor de la segunda frecuencia de
código; c) incrementar la potencia espectral a la primera
frecuencia de código para hacer que la potencia espectral a la
primera frecuencia de código resulte un máximo en el primer entorno
de frecuencias; y d) disminuir la potencia espectral a la segunda
frecuencia de código para hacer que la potencia espectral a la
segunda frecuencia de código resulte un mínimo en el segundo entorno
de frecuencias.
Según otro aspecto de la presente invención, un
procedimiento implica la lectura de un mensaje codificado
digitalmente transmitido con una señal que tiene una intensidad
variable en el tiempo. La señal está caracterizada por un ancho de
banda de señal, y el mensaje codificado digitalmente comprende una
pluralidad de bits binarios. El procedimiento comprende las
siguientes etapas: a) seleccionar una frecuencia de referencia
dentro del ancho de banda de señal; b) seleccionar una primera
frecuencia de código a una primera desviación de frecuencia
predeterminada respecto a la frecuencia de referencia y seleccionar
una segunda frecuencia de código a una segunda desviación de
frecuencia predeterminada respecto a la frecuencia de referencia; y,
c) encontrar cuál de la primera y segunda frecuencias de código
tiene una amplitud espectral asociada con la misma que sea un
máximo dentro de un entorno de frecuencia correspondiente y
encontrar cuál de la primera y segunda frecuencias de código tiene
una amplitud espectral asociada con la misma que sea un mínimo
dentro de un entorno de frecuencia correspondiente para determinar
así un valor de uno de los bits binarios recibido.
Según un aspecto más de la presente invención,
un codificador, que está dispuesto para añadir un bit binario de un
código a un bloque de una señal que tiene una intensidad que varía
dentro de un ancho de banda de señal predeterminado, comprende un
selector, un detector, y un introductor de bit. El selector está
dispuesto para seleccionar, dentro del bloque, (i) una frecuencia
de referencia dentro del ancho de banda de señal predeterminado,
(ii) una primera frecuencia de código que tiene una primera
desviación predeterminada respecto a la frecuencia de referencia, y
(iii) una segunda frecuencia de código que tiene una segunda
desviación predeterminada respecto a la frecuencia de referencia.
El detector está dispuesto para detectar una amplitud espectral de
la señal en un primer entorno de frecuencias que se extiende
alrededor de la primera frecuencia de código y en un segundo
entorno de frecuencias que se extiende alrededor de la segunda
frecuencia de código. El introductor de bit está dispuesto para
introducir el bit binario incrementando la amplitud espectral a la
primera frecuencia de código para hacer que la amplitud espectral a
la primera frecuencia de código resulte un máximo en el primer
entorno de frecuencias y disminuyendo la amplitud espectral a la
segunda frecuencia de código para hacer que la amplitud espectral a
la segunda frecuencia de código resulte un mínimo en el segundo
entorno de frecuencias.
Según otro aspecto más de la presente invención,
un decodificador, que está dispuesto para decodificar un bit
binario de un código procedente de un bloque de una señal
transmitida con una intensidad variable en el tiempo, comprende un
selector, un detector, y un buscador de bits. El selector está
dispuesto para seleccionar, dentro del bloque, (i) una frecuencia
de referencia dentro del ancho de banda de señal, (ii) una primera
frecuencia de código a una primera frecuencia predeterminada
desviada respecto a la frecuencia de referencia, y (iii) una
segunda frecuencia de código a una segunda frecuencia predeterminada
desviada respecto a la frecuencia de referencia. El detector está
dispuesto para detectar una amplitud espectral dentro de entornos de
frecuencia predeterminados respectivos de la primera y la segunda
frecuencias de código. El buscador de bits está dispuesto para
encontrar el bit binario cuando una de la primera y segunda
frecuencias de código tiene una amplitud espectral asociada con la
misma que es un máximo dentro de su entorno respectivo y la otra de
la primera y segunda frecuencias de código tiene una amplitud
espectral asociada con la misma que es un mínimo dentro de su
entorno respectivo.
Según un aspecto más de la presente invención,
un procedimiento para añadir un bit de código binario a un bloque
de una señal que varía dentro de un ancho de banda de señal
predeterminado comprende las siguientes etapas: a) seleccionar una
frecuencia de referencia dentro del ancho de banda de señal
predeterminado, y asociar con la misma tanto una primera frecuencia
de código que tiene una primera desviación predeterminada respecto
a la frecuencia de referencia como una segunda frecuencia de código
que tiene una segunda desviación predeterminada respecto a la
frecuencia de referencia; b) medir la potencia espectral de la señal
dentro del bloque en un primer entorno de frecuencias que se
extiende alrededor de la primera frecuencia de código y en un
segundo entorno de frecuencias que se extiende alrededor de la
segunda frecuencia de código, en la que la primera frecuencia tiene
una amplitud espectral, y en la que la segunda frecuencia tiene una
amplitud espectral; c) intercambiar la amplitud espectral de la
primera frecuencia de código con una amplitud espectral de una
frecuencia que tiene una amplitud máxima en el primer entorno de
frecuencias reteniendo mientras tanto un ángulo de fase tanto a la
primera frecuencia como a la frecuencia que tiene la amplitud máxima
en el primer entorno de frecuencias; y d) intercambiar la amplitud
espectral de la segunda frecuencia de código con una amplitud
espectral de una frecuencia que tiene una amplitud mínima en el
segundo entorno de frecuencias reteniendo mientras tanto un ángulo
de fase tanto a la segunda frecuencia como a la frecuencia que tiene
la amplitud máxima en el segundo entorno de frecuencias.
Estas y otras características y ventajas
resultarán más evidentes a partir de la consideración detallada de
la invención cuando se toma conjuntamente con los dibujos en los
que:
la Figura 1 es un diagrama de bloques
esquemático de un sistema de medición de audiencia que emplea las
disposiciones de codificación y decodificación de señal de la
presente invención;
la Figura 2 es un organigrama que representa
etapas realizadas por un codificador del sistema mostrado en
la
Figura 1;
Figura 1;
la Figura 3 es un gráfico espectral de un
bloque de audio, en el que la línea delgada del gráfico es el
espectro de la señal de audio original y la línea gruesa del
gráfico es el espectro de la señal modulada de acuerdo con la
presente invención;
la Figura 4 representa una función ventana que
puede usarse para impedir efectos transitorios que si no se
producirían en los límites entre bloques codificados adyacentes;
la Figura 5 es un diagrama de bloques
esquemático de una disposición para generar una secuencia de
sincronización de pseudo-ruido de siete bits;
la Figura 6 es un gráfico espectral de un bloque
de audio de "triple tono" que forma el primer bloque de una
secuencia de sincronización preferida, donde la línea delgada del
gráfico es el espectro de la señal de audio original y la línea
gruesa del gráfico es el espectro de la señal modulada;
la Figura 7a representa esquemáticamente una
disposición de bloques de sincronización e información utilizables
para formar un mensaje de código completo;
la Figura 7b representa esquemáticamente más
detalles del bloque de sincronización mostrado en la Fig. 7a;
la Figura 8 es un organigrama que representa
etapas realizadas por un decodificador del sistema mostrado en la
Figura 1; y,
la Figura 9 ilustra una disposición de
codificación en la que los retardos de codificación de audio son
compensados en el flujo de datos de vídeo.
Las señales de audio son digitalizadas
normalmente a frecuencias de muestreo de entre treinta y dos kHz y
cuarenta y ocho kHz. Por ejemplo, una frecuencia de muestreo de 44,1
kHz se usa comúnmente durante la grabación digital de música. Sin
embargo, la televisión digital ("DTV") es probable que use una
frecuencia de muestreo de cuarenta y ocho kHz. Además de la
frecuencia de muestreo, otro parámetro de interés al digitalizar una
señal de audio es el número de bits binarios usados para
representar la señal de audio en cada uno de los instantes en los
que se muestrea. Este número de bits binarios puede variar, por
ejemplo, entre dieciséis y veinticuatro bits por muestra. El
intervalo dinámico de amplitud que resulta de usar dieciséis bits
por muestra de la seña de audio es noventa y seis dB. Esta medida
de decibelios es la relación entre el cuadrado de la amplitud de
audio más alta (2^{16} = 65536) y la amplitud de audio más baja
(1^{2} = 1). El intervalo dinámico que resulta de usar
veinticuatro bits por muestra es 144 dB. El audio sin depurar, que
se muestrea a la frecuencia de 44,1 kHz y que es convertido a una
representación de dieciséis bits por muestra, tiene como resultado
una velocidad de transmisión de datos de 705,6 kbits/s.
La compresión de señales de audio se realiza
para reducir esta velocidad de transmisión de datos a un nivel que
haga posible transmitir un par estéreo de tales datos por un canal
con un caudal de tráfico tan bajo como 192 kbits/s. Esta compresión
se logra típicamente por codificación de transformación. Un bloque
que está constituido por N_{d} = 1024 muestras, por ejemplo,
puede ser descompuesto en una representación espectral por
aplicación de una transformada rápida de Fourier u otro
procedimiento de análisis de frecuencia similar. Para prevenir
errores que pueden producirse en el límite entre un bloque y el
bloque previo o posterior, comúnmente se usan bloques superpuestos.
En una de tales disposiciones donde se usan 1024 muestras por bloque
superpuesto, un bloque incluye 512 muestras de muestras
"antiguas" (es decir, muestras procedentes de un bloque previo)
y 512 muestras de muestras "nuevas" o actuales. La
representación espectral de tal bloque se divide en bandas
críticas donde cada banda comprende un grupo de varias frecuencias
vecinas. La potencia en cada una de estas bandas puede calcularse
sumando los cuadrados de las amplitudes de las componentes de
frecuencia dentro de la banda.
La compresión de audio está basada en el
principio de enmascaramiento que, en presencia de alta energía
espectral a una frecuencia (es decir, la frecuencia de
enmascaramiento), el oído humano es incapaz de percibir una señal
de energía inferior si la señal de energía más baja tiene una
frecuencia (es decir, la frecuencia enmascarada) cercana a la de la
señal de energía superior. La señal de energía más baja a la
frecuencia enmascarada se denomina una señal enmascarada. Un umbral
de enmascaramiento, que representa (i) la energía acústica requerida
a la frecuencia enmascarada para hacerla audible o (ii) un cambio
de energía en el valor espectral existente que sería perceptible,
puede calcularse dinámicamente para cada banda. Las componentes de
frecuencia en una banda enmascarada pueden representarse de manera
aproximada usando menos bits basándose en este umbral de
enmascaramiento. Es decir, los umbrales de enmascaramiento y las
amplitudes de las componentes de frecuencia en cada banda se
codifican con un menor número de bits que constituyen el audio
comprimido. La descompresión reconstruye la señal original
basándose en estos datos.
La Figura 1 ilustra un sistema de medición de
audiencia 10 en el que un codificador 12 añade un código auxiliar a
una parte de señal de audio 14 de una señal emitida.
Alternativamente, el codificador 12 puede estar provisto, como se
conoce en la técnica, en alguna otra ubicación en la cadena de
distribución de señales emitidas. Un transmisor 16 transmite la
parte de señal de audio codificada con una parte de señal de vídeo
18 de la señal emitida. Cuando la señal codificada es recibida por
un receptor 20 ubicado en un lugar de medición seleccionado
estadísticamente 22, el código auxiliar es recuperado procesando la
parte de señal de audio de la señal emitida recibida aun cuando la
presencia de ese código auxiliar sea imperceptible para un oyente
cuando la parte de señal de audio codificada se suministra a
altavoces 24 del receptor 20. Con este fin, un decodificador 26
está conectado directamente a una salida de audio 28 disponible en
el receptor 20 o a un micrófono 30 colocado en las inmediaciones de
los altavoces 24 a través de los cuales se reproduce el audio. La
señal de audio recibida puede estar en un formato monoaural o
estéreo.
Para que el codificador 12 incluya datos de
código digital en un flujo de datos de audio de manera compatible
con la tecnología de compresión, el codificador 12 debe usar
preferentemente frecuencias y bandas críticas que coincidan con las
usadas en la compresión. La longitud de bloque N_{c} de la señal
de audio que se usa para codificar debe elegirse de manera que, por
ejemplo, jN_{c} = N_{d} = 1024, donde j es un
número entero. Un valor apropiado para N_{c} puede ser, por
ejemplo, 512. Como se representa por una etapa 40 del organigrama
mostrado en la Figura 2, que es ejecutada por el codificador 12, un
primer bloque v(t) de jN_{c} muestras es obtenido
de la parte de señal de audio 14 por el codificador 12 como por el
uso de un convertido analógico a digital, donde v(t) es la
representación en el dominio del tiempo de la señal de audio dentro
del bloque. Puede aplicarse una ventana opcional a v(t) en un
bloque 42 como se trata más adelante más detalladamente. Suponiendo
por el momento que no se usa tal ventana, en una etapa 44 se calcula
una transformada de Fourier F{v(t)} del bloque v(t)
que ha de ser codificado. (La transformada de Fourier implementada
en la etapa 44 puede ser una transformada rápida de Fourier).
Las frecuencias que resultan de la transformada
de Fourier son indexadas en el intervalo de -256 a +255, donde un
índice de 255 corresponde a exactamente la mitad de la frecuencia de
muestreo f_{s}. Por lo tanto, para una frecuencia de muestreo de
cuarenta y ocho kHz, el índice más alto correspondería a una
frecuencia de veinticuatro kHz. En consecuencia, para propósitos de
esta indexación, el índice más cercano a una componente de
frecuencia particular f_{j} que resulta de la transformada de
Fourier F{v(t)} viene dado por la siguiente ecuación:
donde la ecuación (1) se usa en la
siguiente discusión para relacionar una frecuencia f_{j} y su
índice correspondiente
I_{j}.
Las frecuencias de código f_{i} usadas para
codificar un bloque pueden elegirse de la transformada de
Fourier
F{v(t)} en una etapa 46 en el intervalo de 4,8 kHz a 6 kHz para aprovecharse del umbral auditivo superior en esta banda. También, cada bit sucesivo del código puede usar un par diferente de frecuencias de código f_{1} y f_{0} indicadas por índices de frecuencia de código correspondientes I_{1} e I_{0}. Hay dos maneras preferidas de seleccionar las frecuencias de código f_{1} y f_{0} en la etapa 46 para crear un código similar a ruido de ancho de banda inaudible.
F{v(t)} en una etapa 46 en el intervalo de 4,8 kHz a 6 kHz para aprovecharse del umbral auditivo superior en esta banda. También, cada bit sucesivo del código puede usar un par diferente de frecuencias de código f_{1} y f_{0} indicadas por índices de frecuencia de código correspondientes I_{1} e I_{0}. Hay dos maneras preferidas de seleccionar las frecuencias de código f_{1} y f_{0} en la etapa 46 para crear un código similar a ruido de ancho de banda inaudible.
Una manera de seleccionar las frecuencias de
código f_{1} y f_{0} en la etapa 46 es calcular las frecuencias
de código mediante el uso de una algoritmo de salto de frecuencia
que emplea una secuencia de salto H_{s} y un índice de
desplazamiento I_{shift}. Por ejemplo, si se agrupan juntos
N_{s} bits para formar una secuencia de
pseudo-ruido, H_{s} es una secuencia ordenada de
N_{s} números que representan la desviación de frecuencia en
relación con un índice de frecuencia predeterminado I_{5k}. Para
el caso en el que N_{s} = 7, podría usarse una secuencia de salto
H_{s} = {2, 5, 1, 4, 3, 2, 5} y un índice de desplazamiento
I_{shift} = 5. En general, los índices para los N_{s} bits que
resultan de una secuencia de salto pueden darse por las siguientes
ecuaciones.
Una posible elección para la frecuencia de
referencia f_{5k} es cinco kHz, que corresponde a un índice de
frecuencia predeterminado I_{5k} = 53. Este valor de f_{5k} se
elige porque es superior a la frecuencia de sensibilidad máxima
media del oído humano. Al codificar un primer bloque de la señal de
audio, I_{1} e I_{0} para el primer bloque se determinan a
partir de las ecuaciones (2) y (3) usando un primer número de los
números de secuencia de salto; al codificar un segundo bloque de la
señal de audio, I_{1} e I_{0} para el segundo bloque se
determinan a partir de las ecuaciones (2) y (3) usando un segundo
número de los números de secuencia de salto; etcétera. Para el
quinto bit en la secuencia {2, 5, 1, 4, 3, 2, 5}, por ejemplo, el
valor de la secuencia de salto es tres y, usando las ecuaciones (2)
y (3), produce un índice I_{1} = 51 y un índice I_{0} = 61 en
el caso en que I_{shift} = 5. En este ejemplo, el índice de
frecuencia media viene dado por la siguiente ecuación:
donde I_{mid} representa un
índice a mitad de camino entre los índices de frecuencia de código
I_{1} e I_{0}. En consecuencia, cada uno de los índices de
frecuencia de código está desviado respecto al índice de frecuencia
media la misma magnitud, I_{shift}, pero las dos desviaciones
tienen signos
opuestos.
Otra manera de seleccionar las frecuencias de
código en la etapa 46 es determinar un índice de frecuencia
I_{max} en el que la potencia espectral de la señal de audio, tal
como se determinó en la etapa 44, es un máximo en la banda de baja
frecuencia que se extiende desde cero Hz hasta dos kHz. En otras
palabras, I_{max} es el índice que corresponde a la frecuencia
que tiene potencia máxima en el intervalo de 0 - 2 kHz. Es útil
realizar esta cálculo comenzando en el índice 1, porque el índice o
representa la componente DC "local" y puede modificarse
mediante filtros de paso alto usados en compresión. Los índices de
frecuencia de código I_{1} e I_{0} se eligen en relación con el
índice de frecuencia I_{max} de manera que quedan en una banda de
frecuencia más alta en la que el oído humano es relativamente menos
sensible. De nuevo, una posible elección para la frecuencia de
referencia f_{5k} es cinco kHz que corresponde a un índice de
referencia I_{5k} = 53 de manera que I_{1} e I_{0} vienen
dados por las siguientes ecuaciones:
donde I_{shift} es un índice de
desplazamiento, y donde I_{max} varía según la potencia espectral
de la señal de audio. Una observación importante aquí es que se
selecciona un código diferente de índices de frecuencia de código
I_{1} e I_{0} de bloque de entrada a bloque de entrada para
modulación espectral dependiendo del índice de frecuencia I_{max}
del bloque de entrada correspondiente. En este caso, un bit de
código es codificado como un solo bit: sin embargo, las frecuencias
que se usan para codificar cada bit saltan de bloque a
bloque.
A diferencia de muchos procedimientos de
codificación tradicionales, como Modulación por Desplazamiento de
Frecuencia (FSK) o Modulación por Desplazamiento de Fase (PSK), la
presente invención no se basa en una sola frecuencia fija. En
consecuencia, se crea un efecto de "salto de frecuencia"
similar al visto en sistemas de modulación de espectro ensanchado.
Sin embargo, a diferencia del espectro ensanchado, el objeto de
variar las frecuencias de codificación de la presente invención es
evitar el uso de una frecuencia de código constante que puede hacer
que resulte audible.
Para cualquiera de los dos procedimientos de
selección de frecuencias de código (a) y (b) descritos
anteriormente, hay al menos cuatro procedimientos para codificar un
bit binario de datos en un bloque de audio, es decir, modulación de
amplitud y modulación de fase. Estos dos procedimientos de
modulación se describen por separado a continuación.
Para codificar un "1" binario usando
modulación de amplitud, la potencia espectral a I_{1} se
incrementa a un nivel de manera que constituye un máximo en su
entorno de frecuencias correspondiente. El entorno de índices que
corresponden a este entorno de frecuencias es analizado en la etapa
48 para determinar cuánto deben intensificarse y atenuarse las
frecuencias de código f_{1} y f_{0} para que sean detectables
por el decodificador 26. Para el índice I_{1}, el entorno puede
extenderse preferentemente desde I_{1} - 2 a I_{1} + 2, y se
obliga a que abarque un intervalo de frecuencias suficientemente
estrecho como para que el entorno de I1 no se superponga al entorno
de I_{0}. Simultáneamente, la potencia espectral en I_{0} se
modifica para hacerla un mínimo es su entorno de índices que
comprenden de I_{0} - 2 a I_{0} + 2. A la inversa, para
codificar un "0" binario usando modulación de amplitud, la
potencia en I_{0} se intensifica y la potencia en I_{1} se
atenúa en sus entornos correspondientes.
Como ejemplo, la Figura 3 muestra un espectro
típico 50 de un bloque de audio de muestra jN_{c} trazado
sobre un intervalo de índice de frecuencia de cuarenta y cinco a
setenta y siete. Un espectro 52 muestra el bloque de audio después
de codificar un bit "1", y un espectro 54 muestra el bloque de
audio antes de codificar. En este caso particular de codificación
de un bit "1" según el procedimiento de selección de frecuencia
de código (a); el valor de secuencia de salto es cinco, el cual
produce un índice de frecuencia media de cincuenta y ocho. Los
valores para I_{1} e I_{0} cincuenta y tres y sesenta y tres,
respectivamente. La amplitud espectral en cincuenta y tres se
modifica luego en una etapa 56 de la Figura 2 para hacerla un máximo
dentro de su entorno de índices. La amplitud en sesenta y tres ya
constituye un mínimo y, por lo tanto, sólo se aplica una pequeña
atenuación adicional en la etapa 56.
El procedimiento de modificación de potencia
espectral requiere el cálculo de cuatro valores, cada uno en el
entorno de I_{1} e I_{0}. Para el entorno de I_{1} estos
cuatro valores son los siguientes: (1) I_{max1} que es el índice
de la frecuencia en el entorno de I_{1} que tiene potencia máxima;
(2) P_{max1} que es la potencia espectral en I_{max1}; (3)
I_{min1} que es el índice de la frecuencia en el entorno de
I_{1} que tiene potencia mínima; y (4) P_{min1} que es la
potencia espectral en I_{min1}. Los valores correspondientes para
el entorno de I_{0} son I_{max0}, P_{max0}, I_{min0} y
P_{min}.
Si I_{max1} = I_{1}, y si el valor binario
que ha de ser codificado es un "1", en la etapa 56 sólo se
requiere un incremento simbólico en P_{max1} (es decir, la
potencia en I_{1}). Igualmente, si I_{min0} = I_{0}, entonces
en la etapa 56 sólo se requiere una disminución simbólica en
P_{max0} (es decir, la potencia en I_{0}). Cuando se
intensifica P_{max1}, se multiplica por un factor 1 + A en la
etapa 56, donde A está en el intervalo de aproximadamente 1,5 a
aproximadamente 2,0. La elección de A está basada en pruebas
experimentales de audibilidad combinadas con pruebas de capacidad de
supervivencia a compresión. La condición para imperceptibilidad
requiere un valor bajo para A, mientras que la condición para
capacidad de supervivencia a compresión requiere un valor grande
para A. Un valor fijo de A puede no prestarse a sólo un incremento
o disminución simbólicos de potencia. Por lo tanto, una elección más
lógica para A sería un valor basado en el umbral de enmascaramiento
local. En este caso, A es variable, y puede lograrse la codificación
con un cambio mínimo de nivel de potencia incremental y aún
sobrevivir a la compresión.
En cualquier caso, la potencia espectral en
I_{1} viene dada por la siguiente ecuación:
con modificación apropiada de las
partes real e imaginaria de la componente de frecuencia en I_{1}.
Las partes real e imaginaria se multiplican por el mismo factor
para mantener constante el ángulo de fase. La potencia en I_{0}
se reduce a un valor que corresponde a (1 + A)^{-1}
P_{min0} de manera
similar.
La transformada de Fourier del bloque que ha de
ser codificado como se determina en la etapa 44 también contiene
componentes de frecuencia negativas con índices comprendidos entre
valores de índices de -256 a -1. Las amplitudes espectrales en los
índices de frecuencia -I_{1} y -I_{0} deben establecerse a
valores que representan el conjugado complejo de amplitudes en
I_{1} e I_{0}, respectivamente, según las siguientes
ecuaciones:
donde f(I) es la amplitud
espectral compleja en el índice I. El espectro de frecuencia
modificado que contiene ahora el código binario ("0" ó
"1") se somete a una operación de transformación inversa en una
etapa 62 para obtener la señal de dominio de tiempo codificada,
como se discutirá más
adelante.
Los algoritmos de compresión basados en el
efecto de enmascaramiento modifican la amplitud de componentes
espectrales individuales por medio de un algoritmo de asignación de
bits. A las bandas de frecuencia sometidas a un alto nivel de
enmascaramiento por la presencia de altas energías espectrales en
bandas vecinas se les asignan menos bits, con el resultado de que
sus amplitudes son cuantificadas aproximadamente. Sin embargo, el
audio descomprimido bajo la mayoría de las condiciones tiende a
mantener niveles de amplitud relativos a frecuencias dentro de un
entorno. Las frecuencias seleccionadas en el flujo de audio
codificado que han sido amplificadas o atenuadas en la etapa 56
mantendrán, por lo tanto, sus posiciones relativas incluso después
de un procedimiento de compresión/descompresión.
Puede ocurrir que la transformada de Fourier
F{v(t)} de un bloque pueda no tener como resultado una
componente de frecuencia de suficiente amplitud a las frecuencias
f_{1} y f_{0} como para permitir codificación de un bit
intensificando la potencia a la frecuencia apropiada. En este caso,
es preferible no codificar este bloque y en cambio codificar un
bloque posterior donde la potencia de la señal a las frecuencias
f_{1} y f_{0} sea apropiada para codificar.
En este procedimiento, que es una variación del
procedimiento de modulación de amplitud descrito anteriormente en
la sección (i), las amplitudes espectrales en I_{1} e I_{max1}
se intercambian al codificar un bit uno mientras que conservan los
ángulos de fase originales en I_{1} e I_{max1}. También se
realiza un intercambio similar entre las amplitudes espectrales en
I_{0} e I_{max0}. Al codificar un bit cero, se invierten los
papeles de I_{1} e I_{0} como en el caso de modulación de
amplitud. Como en el caso previo, también se aplica intercambio a
los índices de frecuencia negativos correspondientes. Este
procedimiento de codificación tiene como resultado un nivel de
audibilidad inferior porque la señal codificada sufre sólo una
distorsión de frecuencia menor. Tanto las señales sin codificar
como las codificadas tienen valores de energía idénticos.
El ángulo de fase asociado a una componente
espectral I_{0} viene dado por la siguiente ecuación:
donde 0 \leq \Phi_{0} \leq
2\pi. El ángulo de fase asociado con I_{1} puede calcularse de
manera similar. Para codificar un número binario, el ángulo de fase
de una de estas componentes, normalmente la componente con la
amplitud espectral inferior, puede modificarse para que esté en fase
(es decir, 0º) o desfasado (es decir, 180º) con respecto a la otra
componente, que se convierte en la referencia. De esta manera, un 0
binario puede codificarse como una modificación en fase y un 1
binario codificarse como una modificación desfasada.
Alternativamente, un 1 binario puede codificarse como una
modificación en fase y un 0 binario codificarse como una
modificación desfasada. El ángulo de fase de la componente que se
modifica se designa \Phi_{M}, y el ángulo de fase de la otra
componente se designa \Phi_{R}. Elegir la componente de amplitud
inferior para que sea la componente espectral modificable minimiza
el cambio en la señal de audio
original.
Para lograr esta forma de modulación, una de las
componentes espectrales puede tener que sufrir un cambio de fase
máximo de 180º, lo cual podría hacer audible el código. En la
práctica, sin embargo, no es esencial realizar modulación de fase
hasta este punto, ya que sólo es necesario asegurar que las dos
componentes están "cerca" o "lejos" una de otra en fase.
Por lo tanto, en la etapa 48, pueden elegirse un entorno de fase que
se extiende por un intervalo de \pm\pi/4 alrededor de
\Phi_{R}, la componente de referencia, y otro entorno que se
extiende por un intervalo de \pm\pi/4 alrededor de \Phi_{R}
+ \pi. La componente espectral modificable tiene su ángulo de
fase \Phi_{M} modificado en la etapa 56 para entrar en uno de
estos entornos de fase dependiendo de si está siendo codificado un
"0" binario o un "1" binario. Si la componente espectral
modificable ya está en el entorno de fase apropiado, puede no ser
necesaria modificación de fase. En flujos de audio típicos,
aproximadamente el 30% de los segmentos son
"auto-codificados" de esta manera y no se
requiere modulación. La transformada inversa de Fourier se determina
en la etapa 62.
En este procedimiento de modulación de índice
par/impar, se usa un solo índice de frecuencia de código, I_{1},
seleccionado como en el caso de los otros esquemas de modulación. Se
analiza un entorno definido por los índices I_{1}, I_{1} + 1,
I_{1} + 2, e I_{1} + 3 para determinar si el índice I_{m} que
corresponde a la componente espectral que tiene la potencia máxima
en este entorno es par o impar. Si el bit que ha de ser codificado
es un "1" y el índice I_{m} es impar, entonces se supone que
el índice que se codifica es "auto-codificado".
Si no, se selecciona para amplificación una frecuencia de índice
impar en el entorno para hacerla un máximo. Un bit "0" se
codifica de manera similar usando un índice par. En el entorno que
está constituido por cuatro índices, la probabilidad de que la
paridad del índice de la frecuencia con potencia espectral máxima
coincidirá con la requerida para codificar el valor de bit
apropiado es 0,25. Por lo tanto, el 25% de los bloques, de media,
serían auto-codificados. Este tipo de codificación
disminuirá significativamente la audibilidad del código.
Un problema práctico asociado con la
codificación de bloques por modulación de amplitud o de fase del
tipo descrito anteriormente es que pueden surgir grandes
discontinuidades en la señal de audio en un límite entre bloques
sucesivos. Estas transiciones bruscas pueden hacer que el código
resulte audible. Para eliminar estas transiciones bruscas, la señal
de dominio de tiempo v(t) puede ser multiplicada por una
envolvente lisa o función ventana w(t) en la etapa 42 antes
de realizar la transformada de Fourier en la etapa 44. No se
requiere función ventana para la modulación por el procedimiento de
intercambio de frecuencia descrito en este documento. La distorsión
de frecuencia es normalmente suficientemente pequeña para producir
sólo discontinuidades de borde menores en el dominio de tiempo
entre bloques adyacentes.
La función ventana w(t) se representa en
la Figura 4. Por lo tanto, el análisis realizado en la etapa 54 está
limitado a la sección central del bloque que resulta de
F_{m}{v(t)w(t)}. La modulación espectral
requerida se implementa en la etapa 56 sobre la transformada
F{v(t)w(t)}.
Después de la etapa 62, la señal codificada de
dominio de tiempo se determina en una etapa 64 según la siguiente
ecuación:
donde la primera parte del término
de la derecha de la ecuación (13) es la señal de audio original
v(t), donde la segunda parte del término de la derecha de la
ecuación (13) es la codificación, y donde el término de la
izquierda de la ecuación (13) es la señal de audio codificada
v_{0}(t)
resultante.
Aunque pueden codificarse bits individuales por
el procedimiento descrito hasta ahora, la decodificación práctica
de datos digitales también requiere (i) sincronización, para ubicar
el comienzo de los datos, y (ii) corrección de error incorporada,
para asegurar una recepción de datos fiable. La tasa de errores de
bit sin depurar que resulta de codificar por modulación espectral
es alta y típicamente puede alcanzar un valor del 20%. En presencia
de tales tasas de error, puede lograrse tanto sincronización como
corrección de error usando secuencias de
pseudo-ruido (PN) de unos y ceros. Una secuencia de
PN puede ser generada, por ejemplo, usando un registro de
desplazamiento de m etapas 58 (donde m es tres en el caso de la
Figura 5) y una puerta O exclusiva 60 como se muestra en la Figura
5. Por conveniencia, una secuencia de PN de n bits se denomina en
este documento una secuencia PNn. Para una secuencia de PN de
N_{PN} bits, se requiere un registro de desplazamiento de m etapas
que opere según la siguiente ecuación:
donde m es un número entero. Con m
= 3, por ejemplo, la secuencia de PN de 7 bits (PN7) es 1110100. La
secuencia particular depende de una configuración inicial del
registro de desplazamiento 58. En una versión robusta del
codificador 12, cada bit de datos individual está representado por
esta secuencia de PN - es decir, 1110100 se usa para un bit
"1", y el complemento 0001011 se usa para un bit "0". El
uso de siete bits para codificar cada bit de código tiene como
resultado sobrecargas de codificación sumamente
altas.
Un procedimiento alternativo usa una pluralidad
de secuencias de PN15, cada una de las cuales incluye cinco bits de
datos de código y 10 bits de corrección de error adjuntos. Esta
representación proporciona una distancia de Hamming de 7 entre dos
palabras cualesquiera de datos de código de 5 bits. Pueden
detectarse y corregirse hasta tres errores en una secuencia de
quince bits. Esta secuencia de PN15 es idealmente apropiada para un
canal con una tasa de errores de bit sin depurar del 20%.
En términos de sincronización, se requiere una
secuencia de sincronización única 66 (Figura 7a) para sincronización
para distinguir secuencias de bits de código de PN15 74 de otras
secuencias de bits en el flujo de datos codificados. En una
realización preferida mostrada en la Figura 7b, el primer bloque de
código de la secuencia de sincronización 66 usa un "tono
triple" 70 de la secuencia de sincronización en la que tres
frecuencias con índices I_{0}, I_{1} e I_{mid} están todas
tan suficientemente amplificadas que cada una se convierte en un
máximo en su entorno respectivo, como se representa a modo de
ejemplo en la Figura 6. Se observará que, aunque se prefiere
generar el tono triple 70 amplificando las señales en las tres
frecuencias seleccionadas para que sean máximos relativos en sus
entornos de frecuencia respectivos, esas señales podrían, en cambio,
ser atenuadas localmente de manera que los tres valores extremos
locales asociados comprendan tres mínimos locales. Debe observarse
que podría usarse cualquier combinación de máximos locales y mínimos
locales para el tono triple 70. Sin embargo, como las señales de
audio emitidas incluyen periodos sustanciales de silencio, el
procedimiento preferido implica amplificación local en lugar de
atenuación local. Siendo el primer bit en una secuencia, el valor
de secuencia de salto para el bloque del que se obtiene el tono
triple 70 es dos y el índice de frecuencia media es cincuenta y
cinco. Para hacer el bloque de tono triple verdaderamente único,
puede elegirse un índice de desplazamiento de siete en lugar del
cinco habitual. Los tres índices I_{0}, I_{1}, e I_{mid} cuyas
amplitudes están todas amplificadas son cuarenta y ocho, sesenta y
dos y cincuenta y cinco, como se muestra en la Figura 6. (En este
ejemplo, I_{mid} = H_{s} + 53 = 2 + 53 = 55). El tono triple 70
es el primer bloque de la secuencia de quince bloques 66 y
representa esencialmente un bit de datos de sincronización. Los
catorce bloques restantes de la secuencia de sincronización 66 están
formados por dos secuencias de PN7: 1110100, 0001011. Esto hace a
los quince bloques de sincronización distintos de todas las
secuencias de PN que representan datos de
código.
código.
Como se expuso anteriormente, los datos de
código que han de transmitirse son convertidos en grupos de cinco
bits, cada uno de los cuales está representado por una secuencia de
PN15. Como se muestra en la Figura 7a, se introduce un bloque sin
codificar 72 entre cada par sucesivo de secuencias de PN 74. Durante
la decodificación, este bloque sin codificar 72 (o separación)
entre secuencias de PN vecinas permite sincronización precisa
permitiendo una búsqueda de una correlación máxima a través de un
intervalo de muestras de audio.
En el caso de señales estéreo, los canales
izquierdo y derecho son codificados con datos digitales idénticos.
En el caso de señales mono, los canales izquierdo y derecho se
combinan para producir un solo flujo de señales de audio. Como las
frecuencias seleccionadas para modulación son idénticas en ambos
canales, también se espera que el sonido monofónico resultante
tenga las características espectrales deseadas de manera que, cuando
sea decodificado, se recupere el mismo código digital.
\vskip1.000000\baselineskip
En la mayoría de los casos, el código de señal
incluido puede ser recuperado de la señal de audio disponible en la
salida de audio 28 del receptor 20. Alternativamente, o donde el
receptor no tiene una salida de audio 28, puede reproducirse una
señal analógica por medio del micrófono 30 situado en las
inmediaciones del los altavoces 24. En el caso en que se usa el
micrófono 30, o en el caso en que la señal en la salida de audio 28
es analógica, el decodificador 20 convierte el audio analógico a un
flujo de salida digital muestreado a una frecuencia de muestreo
preferida que coincide con la frecuencia de muestreo del codificador
12. En los sistemas de decodificación donde hay limitaciones en
términos de memoria y potencia de cálculo, podría usarse un
muestreo a mitad de frecuencia. En el caso de muestreo a mitad de
frecuencia, cada bloque de código estaría constituido por N_{c}/2
= 256 muestras, y la resolución en el dominio de frecuencia (es
decir, la diferencia de frecuencia entre componentes espectrales
sucesivas) seguiría siendo la misma que en el caso de frecuencia de
muestreo completa. En el caso en que el receptor 20 proporciona
salidas digitales, las salidas digitales son procesadas
directamente por el decodificador 26 sin muestrear pero a una
velocidad de transmisión de datos apropiada para el decodificador
26.
La tarea de decodificar es fundamentalmente una
de hacer coincidir los bits de datos decodificados con los de una
secuencia de PN5 que podría ser una secuencia de sincronización o
una secuencia de datos de código que representa uno o más bits de
datos de código. Aquí se considera el caso de bloques de audio de
amplitud modulada. Sin embargo, la decodificación de bloques de
fase modulada es prácticamente idéntica, excepto el análisis
espectral, que compararía ángulos de fase en lugar de distribuciones
de amplitud, y la decodificación de bloques de índice modulado
analizaría igualmente la paridad del índice de frecuencia con
potencia máxima en el entorno especificado. Los bloques de audio
codificados por intercambio de frecuencia también pueden ser
decodificados por el mismo proce-
dimiento.
dimiento.
En una implementación práctica de decodificación
de audio, como la que puede usarse en un sistema doméstico de
medición de audiencia, es muy deseable la capacidad de decodificar
un flujo de audio en tiempo real. También es muy deseable
transmitir los datos decodificados a una oficina central. El
decodificador 26 puede estar dispuesto para ejecutar el algoritmo
de decodificación descrito más adelante en hardware basado en
procesamiento de señales digitales (DSP) usado típicamente en tales
aplicaciones. Como se describió anteriormente, la señal de audio
codificada entrante puede ponerse a disposición del decodificador 26
desde la salida de audio 28 o desde el micrófono 30 situado en las
inmediaciones de los altavoces 24. Para incrementar la velocidad de
procesamiento y reducir las necesidades de memoria, el decodificador
26 puede muestrear la señal de audio codificada entrante a la mitad
(24 kHz) de la frecuencia de muestreo normal de 48 kHz.
Antes de recuperar los bits de datos reales que
representan información de código, es necesario localizar la
secuencia de sincronización. Para buscar la secuencia de
sincronización dentro de un flujo de audio entrante, podrían
analizarse bloques de 256 muestras, cada uno constituido por la
muestra recibida más recientemente y las 255 muestras anteriores.
Para operación en tiempo real, este análisis, que incluye calcular
la transformada rápida de Fourier del bloque de 256 muestras, tiene
que ser completado antes de la llegada de la siguiente muestra.
Realizar una transformada rápida de Fourier de 256 puntos en un
procesador de DSP de 40 MHz tarda aproximadamente 600
microsegundos. Sin embargo, el tiempo entre muestras es sólo 40
microsegundos, haciendo poco práctico con el hardware actual el
procesamiento en tiempo real de la señal de audio codificada
entrante como se describió anterior-
mente.
mente.
Por lo tanto, en lugar de calcular una
transformada rápida de Fourier normal sobre cada bloque de 256
muestras, el decodificador 26 puede estar dispuesto par lograr
decodificación en tiempo real implementando una rutina de
transformada rápida de Fourier incremental o discreta 100 (Figura 8)
asociada con el uso de una matriz de información de estado SIS que
es actualizada continuamente a medida que avanza el procesamiento.
Esta matriz comprende p elementos SIS [0] a SIS
[p-1]. Si p = 64, por ejemplo, los elementos en la
matriz de información de estado SIS son SIS [0] a SIS [63].
Por otra parte, a diferencia de la transformada
convencional que calcula el espectro completo que está constituido
por 256 "intervalos" de frecuencia, el decodificador 26 calcula
la amplitud espectral sólo en índices de frecuencia que pertenecen
a los entornos de interés, es decir, los entornos usados por el
codificador 12. En un ejemplo típico, son adecuados los índices de
frecuencia comprendidos entre 45 y 70, de manera que el espectro de
frecuencia correspondiente contiene sólo veintiséis intervalos de
frecuencia. Cualquier código que se recupera aparece en uno o más
elementos de la matriz de información de estado SIS en cuanto se
encuentra el fin de un bloque de mensaje.
Además, se observa que el espectro de frecuencia
tal como es analizado por una transformada rápida de Fourier cambia
típicamente muy poco a lo largo de un pequeño número de muestras de
un flujo de audio. Por lo tanto, en lugar de procesar cada bloque
de 256 muestras que está constituido por una muestra "nueva" y
255 muestras "antiguas", pueden procesarse bloques de 256
muestras de manera que, en cada bloque de 256 muestras que ha de
ser procesado, las últimas k muestras son "nuevas" y las
256-k muestras restantes son de un análisis previo.
En el caso en que k = 4, la velocidad de procesamiento puede
incrementarse saltando a través del flujo de audio en incrementos
de cuatro muestras, donde un factor de salto k se define como
k = 4 para representar esta operación.
Cada elemento SIS [p] de la matriz de
información de estado SIS está constituido por cinco miembros: un
estado de condición previa PCS, un índice de siguiente salto JI, un
contador de grupos GC, una matriz de datos sin procesar DA, y una
matriz de datos de salida OP. La matriz de datos sin procesar DA
tiene la capacidad de contener quince números enteros. La matriz de
datos de salida OP almacena diez números enteros, con cada número
entero de la matriz de datos de salida OP correspondiendo a un
número de cinco bits extraído de una secuencia de PN15 recuperada.
En consecuencia, esta secuencia de PN15 tiene cinco bits de datos
reales y otros diez bits. Estos otros bits pueden usarse, por
ejemplo, para corrección de error. Aquí se supone que los datos
útiles en un bloque de mensaje están constituidos por 50 bits
divididos en 10 grupos con cada grupo conteniendo 5 bits, aunque
puede usarse un bloque de mensaje de cualquier tamaño.
El funcionamiento de la matriz de información de
estado SIS se explica mejor en relación con la Figura 8. Un bloque
inicial de 256 muestras de audio recibido se introduce en una
memoria intermedia en una etapa de procesamiento 102. El bloque
inicial de 256 muestras es analizado en la etapa de procesamiento
104 por una transformada rápida de Fourier convencional para
obtener su distribución de potencia espectral. Todas las
transformadas posteriores implementadas por la rutina 100 usan el
procedimiento incremental de alta velocidad al que se hizo
referencia anteriormente y descrito más adelante.
Para localizar primero la secuencia de
sincronización, la transformada rápida de Fourier que corresponde al
bloque de 256 muestras inicial leído en la etapa de procesamiento
102 se prueba en una etapa de procesamiento 106 para un tono
triple, que representa el primer bit en la secuencia de
sincronización. La presencia de un tono triple puede determinarse
examinando el bloque de 256 muestras inicial para los índices
I_{0}, I_{1} e I_{mid} usados por el codificador 12 al
generar el tono triple, como se describió anteriormente. El elemento
SIS [p] de la matriz SIS que está asociado con este bloque
inicial de 256 muestras es SIS [0], donde el índice de matriz de
estado p es igual a 0. Si se encuentra un tono triple en la
etapa de procesamiento 106, los valores de ciertos miembros del
elemento SIS [0] de la matriz de información de estado SIS se
cambian en una etapa de procesamiento 108 de la siguiente manera:
el estado de condición previa PCS, que se establece inicialmente
como 0, se cambia a un 1 que indica que se encontró un tono triple
en el bloque de muestras que corresponde a SIS [0]; el valor del
índice de salto siguiente JI se incrementa a 1; y el primer número
entero del miembro de datos sin procesar DA [0] en la matriz de
datos sin procesar DA se establece como el valor (0 ó 1) del tono
triple. En este caso, el primer número entero del miembro de datos
sin procesar DA [0] en la matriz de datos sin procesar DA se
establece como 1 porque en este análisis se supone que el tono
triple es el equivalente de un bit 1. Además, el índice de matriz
de estado p se incrementa en uno para el siguiente bloque de
muestras. Si no hay tono triple, en la etapa de procesamiento 108 no
se hace ninguno de estos cambios en el elemento SIS [0], pero aun
así el índice de matriz de estado p se incrementa en uno para
el siguiente bloque de muestras. Ya se detecte o no un tono triple
en este bloque de 256 muestras, la rutina 100 entra en un modo de
FFT incremental en una etapa de procesamiento 110.
En consecuencia, en una etapa de procesamiento
112 se introduce en la memoria intermedia un nuevo incremento de
bloque de 256 muestras añadiendo cuatro nuevas muestras a, y
desechando las cuatro muestras más antiguas del bloque de 256
muestras inicial procesado en las etapas de procesamiento 102 - 106.
Este nuevo incremento de bloque de 256 muestras se analiza en una
etapa de procesamiento 114 según las siguientes etapas:
\vskip1.000000\baselineskip
Etapa
1
El factor de salto k de la transformada
de Fourier se aplica según la siguiente ecuación para modificar
cada componente de frecuencia F_{old} (u_{0}) del espectro que
corresponde al bloque de muestras inicial para obtener una
componente de frecuencia intermedia F_{1} (u_{0})
correspondiente:
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
donde u_{0} es el índice de
frecuencia de interés. De acuerdo con el ejemplo típico descrito
anteriormente, el índice de frecuencia u_{0} varía de 45 a 70.
Debe observarse que esta primera etapa implica multiplicación de
dos números
complejos.
\newpage
Etapa
2
El efecto de las primeras cuatro muestras del
antiguo bloque de 256 muestras se elimina luego de cada
F_{1}(u_{0}) del espectro que corresponde al bloque de
muestras inicial y el efecto de las cuatro nuevas muestras se
incluye en cada F_{1}(u_{0}) del espectro que corresponde
al incremente de bloque de muestras inicial para obtener la nueva
amplitud espectral F_{new}(u_{0}) para cada índice de
frecuencia u_{0} según la siguiente ecuación:
donde f_{old} y f_{new} son los
valores de muestras en el dominio del tiempo. Debe observarse que
esta segunda etapa implica la adición de un número complejo a la
suma de un producto de un número real y un número complejo. Este
cálculo se repite a lo largo del intervalo de índices de frecuencia
de interés (por ejemplo, 45 a
70).
Etapa
3
Luego se tiene en cuenta el efecto de la
multiplicación del bloque de 256 muestras por la función ventana en
el codificador 12. Es decir, los resultados de la etapa 2 anterior
no están limitados por la función ventana que se usa en el
codificador 12. Por lo tanto, los resultados de la etapa 2 deben
multiplicarse preferentemente por esta función ventana. Como la
multiplicación en el dominio del tiempo es equivalente a una
convolución del espectro por la transformada de Fourier de la
función ventana, los resultados de la segunda etapa pueden ser
convolucionados con la función ventana. En este caso, la función
ventana preferida para esta operación es la siguiente función de
"coseno alzado" bien conocida que tiene un espectro estrecho d
3 índices con amplitudes (-0,50, 1, +0,50):
donde T_{W} es la anchura de la
ventana en el dominio del tiempo. Esta función "coseno
cuadrado" requiere sólo tres operaciones de multiplicación y
suma que implican las partes real e imaginaria de la amplitud
espectral. Esta operación mejora significativamente la velocidad de
cálculo. Esta etapa no se requiere para el caso de modulación por
intercambio de
frecuencia.
Etapa
4
Después se examina la presencia de un tono
triple en el espectro que resulta de la etapa 3. Si se encuentra un
tono triple, los valores de ciertos miembros del elemento SIS [1] de
la matriz de información de estado SIS se establecen en una etapa
de procesamiento 116 de la siguiente manera: el estado de condición
previa PCS, que está establecido inicialmente como 0, se cambia a un
1; el valor del siguiente índice de salto JI se incrementa a 1; y
el primer número entero del miembro de datos sin procesar DA [1] en
la matriz de datos sin procesar DA se establece como 1. También, el
índice de matriz de estado p se incrementa en uno. Si no hay
tono triple, no se hace ninguno de estos cambios a los miembros de
la estructura del elemento SIS [1] en la etapa de procesamiento
116, pero, aun así, el índice de matriz de estado p se
incrementa en uno.
Como p aún no es igual a 64 como se
determinó en una etapa de procesamiento 118 y el contador de grupos
GC no ha acumulado un recuento de 10 como se determinó en una etapa
de procesamiento 120, este análisis que corresponde a las etapas de
procesamiento 112 - 120 continúa de la manera descrita anteriormente
en incrementos de cuatro muestras donde p se incrementa para cada
incremento de muestra. Cuando se llega a SIS [63] donde p = 64, p
se pone a 0 en la etapa de procesamiento 118 y el incremento del
bloque de 256 elementos ahora en la memoria intermedia está alejado
exactamente 256 muestras de la ubicación en el flujo de audio en la
que fue actualizado por última vez el elemento SIS [0]. Cada vez
que p llega a 64, la matriz de SIS representada por los elementos
SIS [0] - SIS [63] es examinada para determinar si el estado de
condición previa PCS de cualquiera de estos elementos es uno que
indique un tono triple. Si el estado de condición previa PCS de
cualquiera de estos elementos que corresponde a los 64 incrementos
de bloque de muestras actuales no es uno, se repiten las etapas de
procesamiento 112 - 120 para los siguientes 64 incrementos de
bloque. (Cada incremento de bloque comprende 256 muestras).
Una vez que el estado de condición previa PCS es
igual a 1 para cualquiera de los elementos SIS [0] - SIS [63] que
corresponden a cualquier conjunto de 64 incrementos de bloque de
muestras, y el miembro de datos sin procesar DA [p]
correspondiente se establece como el valor del bit de tono triple,
se analizan los siguientes 64 incrementos de bloque en las etapas
de procesamiento 112 - 120 para el siguiente bit en la secuencia de
sincronización.
Cada uno de los nuevos incrementos de bloque que
comienzan donde p fue puesto a 0 es analizado para el siguiente bit
en la secuencia de sincronización. Este análisis usa el segundo
miembro de la secuencia de salto H_{s} porque el siguiente índice
de salto JI es igual a 1. A partir de este número de secuencia de
salto y el índice de desplazamiento usado al codificar, pueden
determinarse los índices I_{1} e I_{0}, por ejemplo a partir de
las ecuaciones (2) y (3). Después, se analizan los entornos de los
índices I_{1} e I_{0} para localizar máximos y mínimos en el
caso de modulación de amplitud. Si, por ejemplo, se detectan un
máximo de potencia en I_{1} y un mínimo de potencia en I_{0},
el siguiente bit en la secuencia de sincronización se toma para que
sea 1. Para tener en cuenta algunas variaciones en la señal que
pueden surgir debido a compresión u otras formas de distorsión, se
permite que el índice para la potencia máxima o la potencia mínima
en un entorno se desvíe en 1 de su valor esperado. Por ejemplo, si
se encuentra un máximo de potencia en el índice I_{1}, y si el
mínimo de potencia en el entorno del índice I_{0} se encuentra en
I_{0} - 1, en lugar de I_{0}, el siguiente bit en la secuencia
de sincronización aún se toma para que sea 1. Por otra parte, si se
detectan un mínimo de potencia en I_{1} y un máximo de potencia en
I_{0} usando las mismas variaciones admisibles expuestas
anteriormente, el siguiente bit en la secuencia de sincronización se
toma para que sea 0. Sin embargo, si no se satisface ninguna de
estas condiciones, el código de salida se establece como -1,
indicando un bloque de muestras que no puede ser decodificado.
Suponiendo que se encuentra un bit 0 o un bit 1, el segundo número
entero del miembro de datos sin procesar DA [1] en la matriz de
datos sin procesar DA se establece como el valor apropiado, y el
siguiente índice de salto JI de SIS [0] se incrementa a 2, que
corresponde al tercer miembro de la secuencia de salto H_{s}. A
partir de este número de secuencia de salto y el índice de
desplazamiento usado al codificar, pueden determinarse los índices
I_{1} e I_{0}. Después, se analizan los entornos de los índices
I_{1} e I_{0} para localizar máximos y mínimos en el caso de
modulación de amplitud de manera que el valor del siguiente bit
puede ser decodificado a partir del tercer conjunto de 64
incrementos de bloque, y así sucesivamente para quince de tales bits
de la secuencia de sincronización. Los quince bits almacenados en
la matriz de datos sin procesar DA pueden compararse luego con una
secuencia de sincronización para determinar la sincronización. Si
el número de errores entre los quince bits almacenados en la matriz
de datos sin procesar DA y la secuencia de sincronización de
referencia excede un umbral establecido previamente, la secuencia
extraída no es aceptable como sincronización, y la búsqueda de la
secuencia de sincronización comienza de nuevo con una búsqueda de
un tono triple.
Si de este modo se detecta una secuencia de
sincronización válida, hay una sincronización válida, y las
secuencias de datos de PN15 pueden extraerse luego usando el mismo
análisis que se usa para la secuencia de sincronización, excepto
que la detección de cada secuencia de datos de PN15 no está
condicionada por la detección del tono triple que se reserva para
la secuencia de sincronización. A medida que se encuentra cada bit
de una secuencia de datos de PN15, se introduce como un número
entero correspondiente de la matriz de datos sin procesar DA.
Cuando se rellenan todos los números enteros de la matriz de datos
sin procesar DA, (i) estos números enteros son comparados con cada
una de las treinta y dos secuencias de PN15 posibles, (ii) la
secuencia que mejor coincide indica qué número de 5 bits
seleccionar para escribir en la ubicación de matriz apropiada de la
matriz de datos de salida OP, y (iii) el miembro contador de grupos
GC se incrementa para indicar que la primera secuencia de datos de
PN15 ha sido extraída satisfactoriamente. Si el contador de grupos
GC aún no ha sido incrementado hasta 10 como se determinó en la
etapa de procesamiento 120, el flujo de programa vuelve a la etapa
de procesamiento 112 para decodificar la siguiente secuencia de
datos de PN15.
Cuando el contador de grupos GC se ha
incrementado hasta 10 como se determinó en la etapa de procesamiento
120, la matriz de datos de salida OP, que contiene un mensaje
completo de 50 bits, se lee en una etapa de procesamiento 122. El
número total de muestras en un bloque de mensaje es 45.056 a una
frecuencia de muestreo de mitad de frecuencia de 24 kHz. Es posible
que varios elementos adyacentes de la matriz de información de
estado SIS, cada uno representando un bloque de mensaje separado de
su vecino por cuatro muestras, puedan conducir a la recuperación
del mismo mensaje porque puede producirse sincronización en varias
ubicaciones en el flujo de audio que son cercanas entre sí. Si
todos los mensajes son idénticos, hay una alta probabilidad de que
se haya recibido un código libre de errores.
Una vez que ha sido recuperado un mensaje y el
mensaje ha sido leído en la etapa de procesamiento 122, el estado
de condición previa PCS del elemento SIS correspondiente se
establece como 0 en una etapa de procesamiento 124 de manera que en
una etapa de procesamiento 126 se reanuda la búsqueda del tono
triple de la secuencia de sincronización del siguiente bloque de
mensaje.
A menudo se necesita introducir más de un
mensaje en el mismo flujo de audio. Por ejemplo en un entorno de
emisión de televisión, el creador de red del programa puede
introducir su código de identificación y su marca de tiempo, y una
estación de red afiliada que lleva este programa también puede
introducir su propio código de identificación. Además, un
anunciante o patrocinador también puede desear añadir su código.
Para contener tal codificación de niveles múltiples, pueden usarse
48 bits para el código en un sistema de 50 bits y los 2 bits
restantes pueden usarse para especificación de nivel. Normalmente,
el primer generador de material de programa, es decir la red,
introducirá códigos en el flujo de audio. Su primer bloque de
mensaje tendría los bits de nivel establecidos a 00, y sólo se
establecen una secuencia de sincronización y los 2 bits de nivel
para el segundo y tercer bloques de mensaje en el caso de un sistema
de tres niveles. Por ejemplo, los bits de nivel para el segundo y
tercer mensajes pueden establecerse ambos a 11 indicando que las
áreas de datos reales se han dejado sin usar.
La estación de red afiliada puede introducir
ahora su código con una combinación de decodificador/codificador
que localizaría la sincronización del segundo bloque de mensaje con
la configuración de nivel 11. La estación introduce su código en el
área de datos de este bloque y establece los bits de nivel a 01. El
siguiente codificador de nivel introduce su código en el área de
datos del tercer bloque de mensaje y establece los bits de nivel a
10. Durante la decodificación, los bits de nivel distinguen cada
categoría de nivel de mensaje.
También puede ser necesario proporcionar un
medio de borrado de un código o para borrar y sobreescribir un
código. El borrado puede llevarse a cabo detectando el tono
triple/secuencia de sincronización usando un decodificador y
modificando luego el menos una de las frecuencias de tono triple de
manera que el código ya no sea recuperable. La sobreescritura
implica extraer la secuencia de sincronización del audio, probar los
bits de datos en el área de datos e introducir un nuevo bit sólo en
aquellos bloques que no tengan el valor de bit deseado. El nuevo
bit se introduce amplificando y atenuando frecuencias apropiadas en
el área de datos.
En una implementación práctica del codificador
12, en un momento dado se procesan N_{c} muestras de audio, donde
N_{c} es típicamente 512. Para lograr la operación con una
cantidad mínima de retardo de caudal de tráfico, se usan las
siguientes cuatro memorias intermedias: memorias intermedias de
entrada IN0 e IN1, y memorias intermedias de salida OUT0 y OUT1.
Cada una de estas memorias intermedias puede contener N_{c}
muestras. Mientras se están procesando las muestras en la memoria
intermedia de entrada IN0, la memoria intermedia de entrada IN1
recibe nuevas muestras entrantes. Las muestras de salida procesadas
procedentes de la memoria intermedia de entrada IN0 se escriben en
la memoria intermedia de salida OUT0, y las muestras previamente
codificadas se escriben a la salida desde la memoria intermedia de
salida OUT1. Cuando se completa la operación asociada con cada una
de estas memorias intermedias, comienza el procesamiento sobre las
muestras almacenadas en la memoria intermedia de entrada IN1
mientras la memoria intermedia de entrada IN0 comienza a recibir
nuevos datos. Los datos procedentes de la memoria intermedia de
salida OUT0 se escriben ahora a la salida. Este ciclo de cambio
entre el par de memorias intermedias en las secciones de entrada y
salida del codificado continúa siempre que lleguen nuevas muestras
de audio para codificar. Está claro que una muestra que llega a la
entrada sufre un retardo equivalente a la duración de tiempo
requerida para llenar dos memorias intermedias a la frecuencia de
muestreo de 48 Hz antes de que su versión codificada aparezca en la
salida. Este retardo es aproximadamente 22 ms. Cuando el
codificador 12 se usa en un entorno de emisión de televisión, es
necesario compensar este retardo para mantener la sincronización
entre vídeo y audio.
Tal disposición de compensación se muestra en la
Figura 9. Como se muestra en la Fig. 9, una disposición de
codificación 200, que puede usarse para los elementos 12, 14 y 18 de
la Figura 1, está dispuesta para recibir entradas analógicas de
vídeo y audio o entradas digitales de vídeo y audio. Las entradas
analógicas de vídeo y audio son suministradas a convertidores
analógicos a digitales de vídeo y audio correspondientes 202 y 204.
Las muestras de audio procedentes del convertidor analógico a
digital de audio 204 son proporcionadas a un codificador de audio
206 que puede ser de diseño conocido o que puede estar dispuesto
como se describió anteriormente. La entrada de audio digital se
suministra directamente al codificador de audio 206.
Alternativamente, si el flujo de bits digital de entrada es una
combinación de partes de flujo de bits de vídeo y audio digitales,
el flujo de bits digital de entrada se proporciona a un
demultiplexor 208 que separa las partes de vídeo y audio digitales
del flujo de bits digital de entrada y suministra la parte de audio
digital separada al codificador de audio 206.
Como el codificador de audio 206 impone un
retardo sobre el flujo de bits de audio digital tal como se expuso
anteriormente en relación con el flujo de bits de vídeo digital, se
introduce un retardo 210 en el flujo de bits de vídeo digital. El
retardo impuesto sobre el flujo de bits de vídeo digital por el
retardo 210 es igual al retardo impuesto sobre el flujo de bits de
audio digital por el codificador de audio 206. En consecuencia, los
flujos de bits de vídeo y audio digitales aguas abajo de la
disposición de codificación 200 estarán sincronizados.
En el caso en que se proporcionan entradas
analógicas de vídeo y audio a la disposición de codificación 200,
la salida del retardo 210 se proporciona a un convertidor digital a
analógico de vídeo 212 y la salida del codificador de audio 206 se
proporciona a un convertidor digital a analógico de audio 213. En el
caso en que se proporcionan flujos de bits de vídeo y audio
digitales separados a la disposición de codificación 200, la salida
del retardo 210 se proporciona directamente como salida de vídeo
digital de la disposición de codificación 200 y la salida del
codificador de audio 206 se proporciona directamente como salida de
audio digital de la disposición de codificación 200. Sin embargo,
en el caso en que se proporciona un flujo de bits de vídeo y audio
digital combinado a la disposición de codificación 200, las salidas
del retardo 210 y del codificador de audio 206 se proporcionan a un
multiplexor 216 que recombina los flujos de bits de vídeo y audio
digitales como salida de la disposición de codificación 200.
Anteriormente se han tratado ciertas
modificaciones de la presente invención. A los expertos en la
materia se les ocurrirán otras modificaciones de la presente
invención. Por ejemplo, según la descripción anterior, la
disposición de codificación 200 incluye un retardo 210 que impone un
retardo sobre el flujo de bits de vídeo para compensar el retardo
impuesto sobre el flujo de bits de audio por el codificador de audio
206. Sin embargo, algunas realizaciones de la disposición de
codificación 200 pueden incluir un codificador de vídeo 218, que
puede ser de diseño conocido, para codificar la salida de vídeo del
convertidor analógico a digital de vídeo 202, o el flujo de bits de
entrada de vídeo digital de entrada, o la salida del demultiplexor
208, como puede ser el caso. Cuando se usa el codificador de vídeo
218, el codificador de audio 206 y/o el codificador de vídeo 218
pueden ser ajustados de manera que el retardo relativo impuesto
sobre los flujos de bits de audio y vídeo sea cero y de manera que
los flujos de bits de audio y vídeo estén así sincronizados. En
este caso, el retardo 210 no es necesario. Alternativamente, el
retardo 210 puede usarse para proporcionar un retardo apropiado y
puede introducirse en el procesamiento de vídeo o audio de manera
que el retardo relativo impuesto sobre los flujos de audio y vídeo
sea cero y de manera que los flujos de bits de audio y vídeo estén
así sincronizados.
Todavía en otras realizaciones de la disposición
de codificación 200, puede usarse el codificador de vídeo 218 y no
el codificador de audio 206. En este caso, puede requerirse el
retardo 210 para imponer un retardo sobre el flujo de bits de audio
de manera que el retardo relativo entre los flujos de bits de audio
y vídeo sea cero y de manera que los flujos de bits de audio y
vídeo estén así sincronizados.
En consecuencia, la descripción de la presente
invención ha de interpretarse sólo como ilustrativa y es para el
propósito de enseñar a los expertos en la materia el mejor modo de
llevar a cabo la invención. Se reserva el uso exclusivo de todas
las modificaciones que están dentro del ámbito de las
reivindicaciones adjuntas.
Claims (33)
1. Un procedimiento para añadir un bit de código
binario a un bloque (42) de una señal que varía dentro de un ancho
de banda de señal predeterminado, comprendiendo el procedimiento las
siguientes etapas:
- a)
- seleccionar una frecuencia de referencia (f_{5k}) dentro del ancho de banda de señal predeterminado, y asociar con la misma tanto una primera frecuencia de código (f_{1}) que tiene una primera desviación predeterminada respecto a la frecuencia de referencia (f_{5k}) y una segunda frecuencia de código que tiene una segunda desviación predeterminada respecto a la frecuencia de referencia (f_{5k});
- b)
- mediar la potencia espectral de la señal dentro del bloque (42) en un primer entorno de frecuencias que se extiende alrededor de la primera frecuencia de código (f_{1}) y en un segundo entorno de frecuencias que se extiende alrededor de la segunda frecuencia de código (f_{0});
- caracterizado por
- c)
- incrementar la potencia espectral a la primera frecuencia de código (f_{1}) para hacer que la potencia espectral (P_{max1}) a la primera frecuencia de código (f_{1}) resulte un máximo en el primer entorno de frecuencias; y
- d)
- disminuir la potencia espectral a la segunda frecuencia de código (f_{0}) para hacer que la potencia espectral (P_{min0}) a la segunda frecuencia de código (f_{0}) resulte un mínimo en el segundo entorno de frecuencias.
2. El procedimiento de la reivindicación 1 en el
que la primera y segunda frecuencias de código (f_{1}, f_{0})
se seleccionan según la frecuencia de referencia (f_{5k}), un
número de secuencia de salto de frecuencia (N_{s}), y un índice
de desplazamiento predeterminado (I_{shift}).
3. El procedimiento de la reivindicación 1 en el
que la primera y segunda frecuencias de código (f_{1}, f_{0})
se seleccionan según las siguientes ecuaciones:
donde I_{5k} es la frecuencia de
referencia, H_{s} es un número de secuencia de salto de
frecuencia, - I_{shift} es el primer índice de desplazamiento
predeterminado, y + I_{shift} es el segundo índice de
desplazamiento
predeterminado.
4. El procedimiento de la reivindicación 1 en el
que la frecuencia de referencia (f_{5k}) se selecciona en la
etapa a) según las siguientes etapas:
- a1)
- encontrar, dentro de una parte predeterminada del ancho de banda, una frecuencia a la que la señal tiene una potencia espectral máxima; y
- a2)
- sumar un desplazamiento de frecuencia predeterminado a esa frecuencia de potencia espectral máxima.
5. El procedimiento de la reivindicación 4 en el
que la señal es una señal de audio, en el que la parte
predeterminada del ancho de banda comprende una parte inferior del
ancho de banda que se extiende 2 kHz desde la frecuencia más
baja.
6. El procedimiento de la reivindicación 1 en el
que la primera y segunda frecuencias de código (f_{1}, f_{0})
se seleccionan según las siguientes ecuaciones:
donde I_{5k} es la frecuencia de
referencia, I_{max} es un índice que corresponde a una frecuencia
a la que la señal tiene una potencia espectral máxima, -
I_{shift} es el primer índice de desplazamiento predeterminado, y
+ I_{shift} es el segundo índice de desplazamiento
predeterminado.
7. El procedimiento de la reivindicación 1 en el
que se añade un bloque de sincronización (66) a la señal, y en el
que el bloque de sincronización está caracterizado por una
parte de tono triple (70).
8. El procedimiento de la reivindicación 1 en el
que la señal tiene una potencia espectral que es un máximo en
entornos de la frecuencia de referencia (f_{5k}), de la primera
frecuencia de código (f_{1}), y de la segunda frecuencia de
código (f_{0}).
9. El procedimiento de la reivindicación 6 en el
que se añade un bloque de sincronización (66) a la señal, y en el
que el bloque de sincronización (66) está caracterizado por
una parte de tono triple (70).
10. El procedimiento de la reivindicación 1 en
el que la primera y la segunda desviaciones predeterminadas tienen
magnitudes iguales pero signos opuestos.
11. El procedimiento de la reivindicación 1 en
el que la primera frecuencia de código (f_{1}) es mayor que la
frecuencia de referencia (f_{5k}), y en el que la segunda
frecuencia de código (f_{0}) es menor que la frecuencia de
referencia (f_{5k}).
12. El procedimiento de la reivindicación 1 en
el que la segunda frecuencia de código (f_{0}) es mayor que la
frecuencia de referencia (f_{5k}), y en el que la primera
frecuencia de código (f_{1}) es menor que la frecuencia de
referencia (f_{5k}).
13. El procedimiento de la reivindicación 1 en
el que se añade una pluralidad de bits de código binario a la señal
repitiendo las etapas a) - d) varias veces.
14. Un procedimiento de lectura de un mensaje
codificado digitalmente transmitido con una señal que tiene una
intensidad variable en el tiempo, la señal caracterizada por
un ancho de banda de señal, comprendiendo el mensaje codificado
digitalmente una pluralidad de bits binarios, comprendiendo el
procedimiento las siguientes etapas:
- a)
- seleccionar una frecuencia de referencia (f_{5k}) dentro del ancho de banda de señal;
- b)
- seleccionar una primera frecuencia de código (f_{1}) a una primera desviación de frecuencia predeterminada respecto a la frecuencia de referencia (f_{5k}) y seleccionar una segunda frecuencia de código (f_{0}) a una segunda desviación de frecuencia predeterminada respecto a la frecuencia de referencia (f_{5k}); y,
- caracterizado por
- c)
- encontrar cuál de la primera y segunda frecuencias de código (f_{1}, f_{0}) tiene una amplitud espectral asociada con la misma que sea un máximo dentro de un entorno de frecuencia correspondiente y encontrar cuál de la primera y segunda frecuencias de código (f_{1}, f_{0}) tiene una amplitud espectral asociada con la misma que sea un mínimo dentro de un entorno de frecuencia correspondiente para determinar así un valor de uno de los bits binarios recibido.
15. El procedimiento de la reivindicación 14 que
además comprende la etapa de encontrar un tono triple
caracterizado porque (i) la señal recibida tiene una
amplitud espectral a la frecuencia de referencia (f_{5k}) que es
un máximo local dentro de un entorno de frecuencia de la frecuencia
de referencia (f_{5k}), (ii) la señal recibida tiene una amplitud
espectral a la primera frecuencia de código (f_{1}) que es un
máximo local dentro de un entorno de frecuencia que corresponde a
la primera frecuencia de código (f_{1}), y (ii) la señal recibida
tiene una amplitud espectral a la segunda frecuencia de código
(f_{0}) que es un máximo local dentro de un entorno de frecuencia
que corresponde a la segunda frecuencia de código (f_{0}).
16. El procedimiento de la reivindicación 14 en
el que la primera y segunda frecuencias de código (f_{1}, f_{0})
se seleccionan según la frecuencia de referencia (f_{5k}), una
secuencia de salto de frecuencia (H_{s}), y un índice de
desplazamiento predeterminado (I_{shift}).
17. El procedimiento de la reivindicación 14 en
el que la primera y segunda frecuencias de código (f_{1}, f_{0})
se seleccionan según las siguientes etapas:
- encontrar, dentro de una parte predeterminada del ancho de banda, la frecuencia a la que la amplitud espectral de la señal es un máximo; y
- añadir un desplazamiento de frecuencia predeterminado a esa frecuencia de amplitud espectral máxima.
18. El procedimiento de la reivindicación 17 en
el que la señal es una señal de audio, en el que la parte
predeterminada del ancho de banda comprende una parte inferior del
ancho de banda que se extiende desde la frecuencia más baja del
mismo hasta 2 kHz por encima del mismo.
19. El procedimiento de la reivindicación 14 en
el que la primera y la segunda desviaciones de frecuencia
predeterminadas tienen magnitudes iguales pero signos opuestos.
20. Un codificador (12) dispuesto para añadir un
bit binario de un código a un bloque (42) de una señal que tiene
una intensidad que varía dentro de un ancho de banda de señal
predeterminado que comprende:
- un selector dispuesto para seleccionar, dentro del bloque (42), (i) una frecuencia de referencia (f_{5k}) dentro del ancho de banda de señal predeterminado, (ii) una primera frecuencia de código (f_{1}) que tiene una primera desviación predeterminada respecto a la frecuencia de referencia (f_{5k}), y (iii) una segunda frecuencia de código (f_{0}) que tiene una segunda desviación predeterminada respecto a la frecuencia de referencia (f_{5k});
- un detector dispuesto para detectar una amplitud espectral de la señal en un primer entorno de frecuencias que se extiende alrededor de la primera frecuencia de código y en un segundo entorno de frecuencias que se extiende alrededor de la segunda frecuencia de código; y
- un introductor de bit;
- caracterizado porque
- el introductor de bit está dispuesto para introducir el bit binario incrementando la amplitud espectral a la primera frecuencia de código (f_{1}) para hacer que la amplitud espectral a la primera frecuencia de código (f_{1}) resulte un máximo en el primer entorno de frecuencias y disminuyendo la amplitud espectral a la segunda frecuencia de código (f_{0}) para hacer que la amplitud espectral a la segunda frecuencia de código (f_{0}) resulte un mínimo en el segundo entorno de frecuencias.
21. El codificador (12) de la reivindicación 20
en el que el bit binario es un bit "1".
22. El codificador (12) de la reivindicación 20
en el que el bit binario es un bit "0".
23. El codificador (12) de la reivindicación 20
en el que la primera y segunda frecuencias de código (f_{1},
f_{0}) se seleccionan según la frecuencia de referencia
(f_{5k}), un número de secuencia de salto de frecuencia
(N_{s}), y la primera y segunda desviaciones predeterminadas.
24. El codificador (12) de la reivindicación 20
en el que se añade un bloque de sincronización (66) a la señal, y
en el que el bloque de sincronización (66) está caracterizado
por una parte de tono triple (70).
25. El codificador (12) de la reivindicación 20
en el que la primera y la segunda desviaciones predeterminadas
tienen magnitudes iguales pero signos opuestos.
26. El codificador (12) de la reivindicación 20
en el que se añade una pluralidad de bits binarios a la señal
repitiendo las etapas a) - d) varias veces.
27. Un decodificador (26) dispuesto para
decodificar un bit binario de un código procedente de un bloque (42)
de una señal transmitida con una intensidad variable en el tiempo
que comprende:
- un selector dispuesto para seleccionar, dentro del bloque (42), (i) una frecuencia de referencia (f_{5k}) dentro del ancho de banda de señal, (ii) una primera frecuencia de código (f_{1}) a una primera frecuencia predeterminada desviada respecto a la frecuencia de referencia (f_{5k}), y (iii) una segunda frecuencia de código (f_{0}) a una segunda frecuencia predeterminada desviada respecto a la frecuencia de referencia (f_{5k}),
- un detector dispuesto para detectar una amplitud espectral dentro de entornos de frecuencia predeterminados respectivos de la primera y la segunda frecuencias de código (f_{1}, f_{0}); y,
- un buscador de bits
- caracterizado porque
- el buscador de bits está dispuesto para encontrar el bit binario cuando una de la primera y segunda frecuencias de código (f_{1}, f_{0}) tiene una amplitud espectral asociada con la misma que es un máximo dentro de su entorno respectivo y la otra de la primera y segunda frecuencias de código (f_{1}, f_{0}) tiene una amplitud espectral asociada con la misma que es un mínimo dentro de su entorno respectivo.
28. El decodificador (26) de la reivindicación
27 en el que la señal contiene un tono triple (70)
caracterizado porque (i) la señal recibida tiene una
amplitud espectral a la frecuencia de referencia (f_{5k}) que es
un máximo local dentro del entorno de frecuencia predeterminado de
la frecuencia de referencia (f_{5k}), (ii) la señal recibida
tiene una amplitud espectral a la primera frecuencia de código
(f_{1}) que es un máximo local dentro de un entorno de frecuencia
predeterminado que corresponde a la primera frecuencia de código
(f_{1}), y (ii) la señal recibida tiene una amplitud espectral a
la segunda frecuencia de código (f_{0}) que es un máximo local
dentro de un entorno de frecuencia predeterminado que corresponde a
la segunda frecuencia de código (f_{0}).
29. El decodificador (26) de la reivindicación
27 en el que el selector está dispuesto para seleccionar la primera
y segunda frecuencias de código (f_{1}, f_{0}) según la
frecuencia de referencia (f_{5k}), una secuencia de salto de
frecuencia (H_{s}), y la primera y segunda desviaciones
predeterminadas.
30. El decodificador (26) de la reivindicación
27 en el que la primera y la segunda desviaciones de frecuencia
tienen magnitudes iguales pero signos opuestos.
31. El decodificador de la reivindicación 27 en
el que el bit binario decodificado es un bit "1".
32. El decodificador de la reivindicación 27 en
el que el bit binario decodificado es un bit "0".
33. Un procedimiento para añadir un bit de
código binario a un bloque (42) de una señal que varía dentro de un
ancho de banda de señal predeterminado, comprendiendo el
procedimiento las siguientes etapas:
- a)
- seleccionar una frecuencia de referencia (f_{5k}) dentro del ancho de banda de señal predeterminado, y asociar con la misma tanto una primera frecuencia de código (f_{1}) que tiene una primera desviación predeterminada respecto a la frecuencia de referencia (f_{5k}) como una segunda frecuencia de código (f_{0}) que tiene una segunda desviación predeterminada respecto a la frecuencia de referencia (f_{5k});
- b)
- medir la potencia espectral de la señal dentro del bloque (42) en un primer entorno de frecuencias que se extiende alrededor de la primera frecuencia de código (f_{1}) y en un segundo entorno de frecuencias que se extiende alrededor de la segunda frecuencia de código (f_{0}), en la que la primera frecuencia (f_{1}) tiene una amplitud espectral, y en la que la segunda frecuencia (f_{0}) tiene una amplitud espectral;
- caracterizado por
- c)
- intercambiar la amplitud espectral de la primera frecuencia de código (f_{1}) con una amplitud espectral de una frecuencia que tiene una amplitud máxima en el primer entorno de frecuencias reteniendo mientras tanto un ángulo de fase tanto a la primera frecuencia (f_{1}) como a la frecuencia que tiene la amplitud máxima en el primer entorno de frecuencias; y
- d)
- intercambiar la amplitud espectral de la segunda frecuencia de código (f_{0}) con una amplitud espectral de una frecuencia que tiene una amplitud mínima en el segundo entorno de frecuencias reteniendo mientras tanto un ángulo de fase tanto a la segunda frecuencia (f_{0}) como a la frecuencia que tiene la amplitud máxima en el segundo entorno de frecuencias.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US116397 | 1998-07-16 | ||
US09/116,397 US6272176B1 (en) | 1998-07-16 | 1998-07-16 | Broadcast encoding system and method |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2293693T3 true ES2293693T3 (es) | 2008-03-16 |
Family
ID=22366946
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES98956602T Expired - Lifetime ES2293693T3 (es) | 1998-07-16 | 1998-11-05 | Sistema y procedimiento para codificar una señal de video, añadiendo un codigo inaudible a la señal de audio, para usar en sistemas de identificacion de programas de radiodifusion. |
Country Status (11)
Country | Link |
---|---|
US (4) | US6272176B1 (es) |
EP (3) | EP1095477B1 (es) |
JP (1) | JP4030036B2 (es) |
CN (1) | CN1148901C (es) |
AR (2) | AR013810A1 (es) |
AU (4) | AU771289B2 (es) |
CA (3) | CA2819752A1 (es) |
DE (1) | DE69838401T2 (es) |
ES (1) | ES2293693T3 (es) |
HK (2) | HK1040334A1 (es) |
WO (1) | WO2000004662A1 (es) |
Families Citing this family (260)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5768426A (en) * | 1993-11-18 | 1998-06-16 | Digimarc Corporation | Graphics processing system employing embedded code signals |
US6983051B1 (en) * | 1993-11-18 | 2006-01-03 | Digimarc Corporation | Methods for audio watermarking and decoding |
US6614914B1 (en) | 1995-05-08 | 2003-09-02 | Digimarc Corporation | Watermark embedder and reader |
US7171016B1 (en) | 1993-11-18 | 2007-01-30 | Digimarc Corporation | Method for monitoring internet dissemination of image, video and/or audio files |
US5748763A (en) | 1993-11-18 | 1998-05-05 | Digimarc Corporation | Image steganography system featuring perceptually adaptive and globally scalable signal embedding |
US6611607B1 (en) | 1993-11-18 | 2003-08-26 | Digimarc Corporation | Integrating digital watermarks in multimedia content |
US8505108B2 (en) | 1993-11-18 | 2013-08-06 | Digimarc Corporation | Authentication using a digital watermark |
US6636615B1 (en) | 1998-01-20 | 2003-10-21 | Digimarc Corporation | Methods and systems using multiple watermarks |
US6944298B1 (en) | 1993-11-18 | 2005-09-13 | Digimare Corporation | Steganographic encoding and decoding of auxiliary codes in media signals |
US6882738B2 (en) * | 1994-03-17 | 2005-04-19 | Digimarc Corporation | Methods and tangible objects employing textured machine readable data |
US6973197B2 (en) * | 1999-11-05 | 2005-12-06 | Digimarc Corporation | Watermarking with separate application of the grid and payload signals |
US20020136429A1 (en) * | 1994-03-17 | 2002-09-26 | John Stach | Data hiding through arrangement of objects |
US7724919B2 (en) | 1994-10-21 | 2010-05-25 | Digimarc Corporation | Methods and systems for steganographic processing |
US6560349B1 (en) * | 1994-10-21 | 2003-05-06 | Digimarc Corporation | Audio monitoring using steganographic information |
US6763123B2 (en) | 1995-05-08 | 2004-07-13 | Digimarc Corporation | Detection of out-of-phase low visibility watermarks |
US6718046B2 (en) | 1995-05-08 | 2004-04-06 | Digimarc Corporation | Low visibility watermark using time decay fluorescence |
US6721440B2 (en) | 1995-05-08 | 2004-04-13 | Digimarc Corporation | Low visibility watermarks using an out-of-phase color |
US7224819B2 (en) * | 1995-05-08 | 2007-05-29 | Digimarc Corporation | Integrating digital watermarks in multimedia content |
US7054462B2 (en) | 1995-05-08 | 2006-05-30 | Digimarc Corporation | Inferring object status based on detected watermark data |
US6744906B2 (en) | 1995-05-08 | 2004-06-01 | Digimarc Corporation | Methods and systems using multiple watermarks |
US7006661B2 (en) | 1995-07-27 | 2006-02-28 | Digimarc Corp | Digital watermarking systems and methods |
US20030056103A1 (en) | 2000-12-18 | 2003-03-20 | Levy Kenneth L. | Audio/video commerce application architectural framework |
US7412072B2 (en) * | 1996-05-16 | 2008-08-12 | Digimarc Corporation | Variable message coding protocols for encoding auxiliary data in media signals |
US6381341B1 (en) | 1996-05-16 | 2002-04-30 | Digimarc Corporation | Watermark encoding method exploiting biases inherent in original signal |
JP3255022B2 (ja) * | 1996-07-01 | 2002-02-12 | 日本電気株式会社 | 適応変換符号化方式および適応変換復号方式 |
US6108637A (en) | 1996-09-03 | 2000-08-22 | Nielsen Media Research, Inc. | Content display monitor |
US6675383B1 (en) | 1997-01-22 | 2004-01-06 | Nielsen Media Research, Inc. | Source detection apparatus and method for audience measurement |
EP0901282B1 (en) * | 1997-09-03 | 2006-06-28 | Hitachi, Ltd. | Method for recording and reproducing electronic watermark information |
US6804376B2 (en) | 1998-01-20 | 2004-10-12 | Digimarc Corporation | Equipment employing watermark-based authentication function |
US7006555B1 (en) * | 1998-07-16 | 2006-02-28 | Nielsen Media Research, Inc. | Spectral audio encoding |
US7197156B1 (en) * | 1998-09-25 | 2007-03-27 | Digimarc Corporation | Method and apparatus for embedding auxiliary information within original data |
US7532740B2 (en) * | 1998-09-25 | 2009-05-12 | Digimarc Corporation | Method and apparatus for embedding auxiliary information within original data |
US7373513B2 (en) * | 1998-09-25 | 2008-05-13 | Digimarc Corporation | Transmarking of multimedia signals |
US20050160271A9 (en) | 1998-11-19 | 2005-07-21 | Brundage Trent J. | Identification document and related methods |
US6442283B1 (en) * | 1999-01-11 | 2002-08-27 | Digimarc Corporation | Multimedia data embedding |
US6871180B1 (en) | 1999-05-25 | 2005-03-22 | Arbitron Inc. | Decoding of information in audio signals |
KR20010016704A (ko) * | 1999-08-02 | 2001-03-05 | 구자홍 | 디지털 티브이(Digital TV)의 입력신호 선택장치 |
AUPQ206399A0 (en) | 1999-08-06 | 1999-08-26 | Imr Worldwide Pty Ltd. | Network user measurement system and method |
JP4639441B2 (ja) * | 1999-09-01 | 2011-02-23 | ソニー株式会社 | ディジタル信号処理装置および処理方法、並びにディジタル信号記録装置および記録方法 |
JP2003527779A (ja) * | 1999-09-01 | 2003-09-16 | ディジマーク コーポレイション | 領域毎に強度を特定してデジタル画像に透かしを形成する方法 |
AU2881300A (en) * | 1999-10-27 | 2001-05-08 | Nielsen Media Research, Inc. | System and method for encoding an audio signal for use in broadcast program identification systems, by adding inaudible codes to the audio signal |
CA2809775C (en) * | 1999-10-27 | 2017-03-21 | The Nielsen Company (Us), Llc | Audio signature extraction and correlation |
US6996775B1 (en) * | 1999-10-29 | 2006-02-07 | Verizon Laboratories Inc. | Hypervideo: information retrieval using time-related multimedia: |
US6757866B1 (en) * | 1999-10-29 | 2004-06-29 | Verizon Laboratories Inc. | Hyper video: information retrieval using text from multimedia |
US6569206B1 (en) * | 1999-10-29 | 2003-05-27 | Verizon Laboratories Inc. | Facilitation of hypervideo by automatic IR techniques in response to user requests |
ATE522036T1 (de) | 2000-01-12 | 2011-09-15 | Jupiter Media Metrix Inc | System und verfahren zur schätzung der verbreitung digitalem inhalts im world-wide-web |
AU2001229402A1 (en) | 2000-01-13 | 2001-07-24 | Digimarc Corporation | Authenticating metadata and embedding metadata in watermarks of media signals |
US7127744B2 (en) | 2000-03-10 | 2006-10-24 | Digimarc Corporation | Method and apparatus to protect media existing in an insecure format |
US8091025B2 (en) | 2000-03-24 | 2012-01-03 | Digimarc Corporation | Systems and methods for processing content objects |
US7949773B2 (en) * | 2000-04-12 | 2011-05-24 | Telecommunication Systems, Inc. | Wireless internet gateway |
US6891811B1 (en) * | 2000-04-18 | 2005-05-10 | Telecommunication Systems Inc. | Short messaging service center mobile-originated to HTTP internet communications |
US7738673B2 (en) | 2000-04-19 | 2010-06-15 | Digimarc Corporation | Low visible digital watermarks |
US6804377B2 (en) | 2000-04-19 | 2004-10-12 | Digimarc Corporation | Detecting information hidden out-of-phase in color channels |
US6912295B2 (en) | 2000-04-19 | 2005-06-28 | Digimarc Corporation | Enhancing embedding of out-of-phase signals |
US8027509B2 (en) | 2000-04-19 | 2011-09-27 | Digimarc Corporation | Digital watermarking in data representing color channels |
US6891959B2 (en) * | 2000-04-19 | 2005-05-10 | Digimarc Corporation | Hiding information out-of-phase in color channels |
US7305104B2 (en) | 2000-04-21 | 2007-12-04 | Digimarc Corporation | Authentication of identification documents using digital watermarks |
US6879652B1 (en) * | 2000-07-14 | 2005-04-12 | Nielsen Media Research, Inc. | Method for encoding an input signal |
CA2417499A1 (en) | 2000-07-27 | 2002-02-07 | Activated Content Corporation | Stegotext encoder and decoder |
FR2812503B1 (fr) * | 2000-07-31 | 2003-03-28 | Telediffusion De France Tdf | Procede et systeme de codage-decodage d'informations numeriques dans un signal sonore transmis par un canal reverberant |
US7346776B2 (en) * | 2000-09-11 | 2008-03-18 | Digimarc Corporation | Authenticating media signals by adjusting frequency characteristics to reference values |
US6674876B1 (en) | 2000-09-14 | 2004-01-06 | Digimarc Corporation | Watermarking in the time-frequency domain |
US6996521B2 (en) * | 2000-10-04 | 2006-02-07 | The University Of Miami | Auxiliary channel masking in an audio signal |
US6483927B2 (en) * | 2000-12-18 | 2002-11-19 | Digimarc Corporation | Synchronizing readers of hidden auxiliary data in quantization-based data hiding schemes |
US7339605B2 (en) * | 2004-04-16 | 2008-03-04 | Polycom, Inc. | Conference link between a speakerphone and a video conference unit |
US7864938B2 (en) * | 2000-12-26 | 2011-01-04 | Polycom, Inc. | Speakerphone transmitting URL information to a remote device |
US8126968B2 (en) * | 2000-12-26 | 2012-02-28 | Polycom, Inc. | System and method for coordinating a conference using a dedicated server |
US8964604B2 (en) | 2000-12-26 | 2015-02-24 | Polycom, Inc. | Conference endpoint instructing conference bridge to dial phone number |
US7221663B2 (en) * | 2001-12-31 | 2007-05-22 | Polycom, Inc. | Method and apparatus for wideband conferencing |
US8977683B2 (en) * | 2000-12-26 | 2015-03-10 | Polycom, Inc. | Speakerphone transmitting password information to a remote device |
US9001702B2 (en) | 2000-12-26 | 2015-04-07 | Polycom, Inc. | Speakerphone using a secure audio connection to initiate a second secure connection |
US8948059B2 (en) * | 2000-12-26 | 2015-02-03 | Polycom, Inc. | Conference endpoint controlling audio volume of a remote device |
US7640031B2 (en) * | 2006-06-22 | 2009-12-29 | Telecommunication Systems, Inc. | Mobile originated interactive menus via short messaging services |
US7822969B2 (en) * | 2001-04-16 | 2010-10-26 | Digimarc Corporation | Watermark systems and methods |
US20030187798A1 (en) * | 2001-04-16 | 2003-10-02 | Mckinley Tyler J. | Digital watermarking methods, programs and apparatus |
JP3576993B2 (ja) * | 2001-04-24 | 2004-10-13 | 株式会社東芝 | 電子透かし埋め込み方法及び装置 |
US7046819B2 (en) | 2001-04-25 | 2006-05-16 | Digimarc Corporation | Encoded reference signal for digital watermarks |
CA2446707C (en) * | 2001-05-10 | 2013-07-30 | Polycom Israel Ltd. | Control unit for multipoint multimedia/audio system |
US8934382B2 (en) | 2001-05-10 | 2015-01-13 | Polycom, Inc. | Conference endpoint controlling functions of a remote device |
US8976712B2 (en) | 2001-05-10 | 2015-03-10 | Polycom, Inc. | Speakerphone and conference bridge which request and perform polling operations |
US6963543B2 (en) * | 2001-06-29 | 2005-11-08 | Qualcomm Incorporated | Method and system for group call service |
US8572640B2 (en) * | 2001-06-29 | 2013-10-29 | Arbitron Inc. | Media data use measurement with remote decoding/pattern matching |
US8094869B2 (en) | 2001-07-02 | 2012-01-10 | Digimarc Corporation | Fragile and emerging digital watermarks |
CA2456815A1 (en) * | 2001-08-22 | 2003-03-06 | Nielsen Media Research, Inc. | Television proximity sensor |
US7537170B2 (en) * | 2001-08-31 | 2009-05-26 | Digimarc Corporation | Machine-readable security features for printed objects |
US7213757B2 (en) | 2001-08-31 | 2007-05-08 | Digimarc Corporation | Emerging security features for identification documents |
US6862355B2 (en) | 2001-09-07 | 2005-03-01 | Arbitron Inc. | Message reconstruction from partial detection |
US7117513B2 (en) * | 2001-11-09 | 2006-10-03 | Nielsen Media Research, Inc. | Apparatus and method for detecting and correcting a corrupted broadcast time code |
ATE509326T1 (de) | 2001-12-18 | 2011-05-15 | L 1 Secure Credentialing Inc | Mehrfachbildsicherheitsmerkmale zur identifikation von dokumenten und verfahren zu ihrer herstellung |
US7728048B2 (en) | 2002-12-20 | 2010-06-01 | L-1 Secure Credentialing, Inc. | Increasing thermal conductivity of host polymer used with laser engraving methods and compositions |
US8885523B2 (en) * | 2001-12-31 | 2014-11-11 | Polycom, Inc. | Speakerphone transmitting control information embedded in audio information through a conference bridge |
US8102984B2 (en) * | 2001-12-31 | 2012-01-24 | Polycom Inc. | Speakerphone and conference bridge which receive and provide participant monitoring information |
US7978838B2 (en) | 2001-12-31 | 2011-07-12 | Polycom, Inc. | Conference endpoint instructing conference bridge to mute participants |
US8947487B2 (en) * | 2001-12-31 | 2015-02-03 | Polycom, Inc. | Method and apparatus for combining speakerphone and video conference unit operations |
US8023458B2 (en) * | 2001-12-31 | 2011-09-20 | Polycom, Inc. | Method and apparatus for wideband conferencing |
US20050213726A1 (en) * | 2001-12-31 | 2005-09-29 | Polycom, Inc. | Conference bridge which transfers control information embedded in audio information between endpoints |
US7787605B2 (en) * | 2001-12-31 | 2010-08-31 | Polycom, Inc. | Conference bridge which decodes and responds to control information embedded in audio information |
US8223942B2 (en) * | 2001-12-31 | 2012-07-17 | Polycom, Inc. | Conference endpoint requesting and receiving billing information from a conference bridge |
US8934381B2 (en) * | 2001-12-31 | 2015-01-13 | Polycom, Inc. | Conference endpoint instructing a remote device to establish a new connection |
US7742588B2 (en) * | 2001-12-31 | 2010-06-22 | Polycom, Inc. | Speakerphone establishing and using a second connection of graphics information |
US8144854B2 (en) * | 2001-12-31 | 2012-03-27 | Polycom Inc. | Conference bridge which detects control information embedded in audio information to prioritize operations |
US8705719B2 (en) | 2001-12-31 | 2014-04-22 | Polycom, Inc. | Speakerphone and conference bridge which receive and provide participant monitoring information |
US20030131350A1 (en) * | 2002-01-08 | 2003-07-10 | Peiffer John C. | Method and apparatus for identifying a digital audio signal |
US7321667B2 (en) * | 2002-01-18 | 2008-01-22 | Digimarc Corporation | Data hiding through arrangement of objects |
US7231061B2 (en) | 2002-01-22 | 2007-06-12 | Digimarc Corporation | Adaptive prediction filtering for digital watermarking |
US7966497B2 (en) * | 2002-02-15 | 2011-06-21 | Qualcomm Incorporated | System and method for acoustic two factor authentication |
US7824029B2 (en) | 2002-05-10 | 2010-11-02 | L-1 Secure Credentialing, Inc. | Identification card printer-assembler for over the counter card issuing |
US20030212549A1 (en) * | 2002-05-10 | 2003-11-13 | Jack Steentra | Wireless communication using sound |
US7401224B2 (en) * | 2002-05-15 | 2008-07-15 | Qualcomm Incorporated | System and method for managing sonic token verifiers |
JP3765413B2 (ja) * | 2002-07-12 | 2006-04-12 | ソニー株式会社 | 情報符号化装置および方法、情報復号装置および方法、記録媒体、並びにプログラム |
US8271778B1 (en) | 2002-07-24 | 2012-09-18 | The Nielsen Company (Us), Llc | System and method for monitoring secure data on a network |
US7239981B2 (en) | 2002-07-26 | 2007-07-03 | Arbitron Inc. | Systems and methods for gathering audience measurement data |
US7395062B1 (en) | 2002-09-13 | 2008-07-01 | Nielson Media Research, Inc. A Delaware Corporation | Remote sensing system |
US8959016B2 (en) | 2002-09-27 | 2015-02-17 | The Nielsen Company (Us), Llc | Activating functions in processing devices using start codes embedded in audio |
US7222071B2 (en) | 2002-09-27 | 2007-05-22 | Arbitron Inc. | Audio data receipt/exposure measurement with code monitoring and signature extraction |
US9711153B2 (en) | 2002-09-27 | 2017-07-18 | The Nielsen Company (Us), Llc | Activating functions in processing devices using encoded audio and detecting audio signatures |
WO2004038538A2 (en) | 2002-10-23 | 2004-05-06 | Nielsen Media Research, Inc. | Digital data insertion apparatus and methods for use with compressed audio/video data |
US6845360B2 (en) | 2002-11-22 | 2005-01-18 | Arbitron Inc. | Encoding multiple messages in audio data and detecting same |
US7483835B2 (en) | 2002-12-23 | 2009-01-27 | Arbitron, Inc. | AD detection using ID code and extracted signature |
US7174151B2 (en) | 2002-12-23 | 2007-02-06 | Arbitron Inc. | Ensuring EAS performance in audio signal encoding |
CN1745374A (zh) | 2002-12-27 | 2006-03-08 | 尼尔逊媒介研究股份有限公司 | 用于对元数据进行译码的方法和装置 |
US6931076B2 (en) * | 2002-12-31 | 2005-08-16 | Intel Corporation | Signal detector |
US7225991B2 (en) | 2003-04-16 | 2007-06-05 | Digimarc Corporation | Three dimensional data storage |
US7460684B2 (en) | 2003-06-13 | 2008-12-02 | Nielsen Media Research, Inc. | Method and apparatus for embedding watermarks |
WO2005034398A2 (en) * | 2003-06-19 | 2005-04-14 | University Of Rochester | Data hiding via phase manipulation of audio signals |
US7043204B2 (en) * | 2003-06-26 | 2006-05-09 | The Regents Of The University Of California | Through-the-earth radio |
AU2003279935A1 (en) * | 2003-08-29 | 2005-04-14 | Nielsen Media Research, Inc. | Methods and apparatus for embedding and recovering an image for use with video content |
WO2005036877A1 (en) | 2003-09-12 | 2005-04-21 | Nielsen Media Research, Inc. | Digital video signature apparatus and methods for use with video program identification systems |
US7706565B2 (en) | 2003-09-30 | 2010-04-27 | Digimarc Corporation | Multi-channel digital watermarking |
CA2542151C (en) | 2003-10-07 | 2013-03-26 | Nielsen Media Research, Inc. | Methods and apparatus to extract codes from a plurality of channels |
WO2005041109A2 (en) * | 2003-10-17 | 2005-05-06 | Nielsen Media Research, Inc. | Methods and apparatus for identifiying audio/video content using temporal signal characteristics |
US20060138631A1 (en) * | 2003-12-31 | 2006-06-29 | Advanced Semiconductor Engineering, Inc. | Multi-chip package structure |
US8406341B2 (en) | 2004-01-23 | 2013-03-26 | The Nielsen Company (Us), Llc | Variable encoding and detection apparatus and methods |
CA2556697C (en) | 2004-02-17 | 2018-01-09 | Nielsen Media Research, Inc. | Methods and apparatus for monitoring video games |
US7483975B2 (en) | 2004-03-26 | 2009-01-27 | Arbitron, Inc. | Systems and methods for gathering data concerning usage of media data |
US8738763B2 (en) | 2004-03-26 | 2014-05-27 | The Nielsen Company (Us), Llc | Research data gathering with a portable monitor and a stationary device |
CA2562137C (en) * | 2004-04-07 | 2012-11-27 | Nielsen Media Research, Inc. | Data insertion apparatus and methods for use with compressed audio/video data |
WO2005114450A1 (en) * | 2004-05-14 | 2005-12-01 | Nielsen Media Research, Inc. | Methods and apparatus for identifying media content |
KR101087588B1 (ko) | 2004-07-02 | 2011-11-29 | 닐슨 미디어 리서치 인코퍼레이티드 | 압축 디지털 비트스트림을 믹싱하는 방법 및 장치 |
EP1790152A4 (en) | 2004-08-09 | 2008-10-08 | Nielsen Media Res Inc | METHODS AND APPARATUS FOR CONTROLLING AUDIOVISUAL CONTENT FROM VARIOUS SOURCES |
WO2006023770A2 (en) * | 2004-08-18 | 2006-03-02 | Nielsen Media Research, Inc. | Methods and apparatus for generating signatures |
WO2006037014A2 (en) | 2004-09-27 | 2006-04-06 | Nielsen Media Research, Inc. | Methods and apparatus for using location information to manage spillover in an audience monitoring system |
DE602005008185D1 (de) * | 2005-01-21 | 2008-08-28 | Unltd Media Gmbh | Verfahren zur Einbettung eines digitalen Wasserzeichens in ein Nutzsignal |
CA2956981C (en) * | 2005-03-08 | 2019-05-21 | The Nielsen Company (Us), Llc | Variable encoding and detection apparatus and methods |
US8126029B2 (en) | 2005-06-08 | 2012-02-28 | Polycom, Inc. | Voice interference correction for mixed voice and spread spectrum data signaling |
US7796565B2 (en) | 2005-06-08 | 2010-09-14 | Polycom, Inc. | Mixed voice and spread spectrum data signaling with multiplexing multiple users with CDMA |
US8199791B2 (en) | 2005-06-08 | 2012-06-12 | Polycom, Inc. | Mixed voice and spread spectrum data signaling with enhanced concealment of data |
CA2619781C (en) | 2005-08-16 | 2017-11-07 | Nielsen Media Research, Inc. | Display device on/off detection methods and apparatus |
CN101322344B (zh) | 2005-10-21 | 2013-01-02 | 尼尔逊媒介研究股份有限公司 | 用于计量便携式媒体播放器的方法和装置 |
US9015740B2 (en) | 2005-12-12 | 2015-04-21 | The Nielsen Company (Us), Llc | Systems and methods to wirelessly meter audio/visual devices |
US20070294132A1 (en) | 2005-12-20 | 2007-12-20 | Zhang Jack K | Methods and systems for recruiting panelists for a research operation |
GB2433592A (en) | 2005-12-23 | 2007-06-27 | Pentapharm Ag | Assay for thrombin inhibitors |
CA2947649C (en) | 2006-03-27 | 2020-04-14 | The Nielsen Company (Us), Llc | Methods and systems to meter media content presented on a wireless communication device |
JP4760539B2 (ja) * | 2006-05-31 | 2011-08-31 | 大日本印刷株式会社 | 音響信号に対する情報の埋め込み装置 |
JP4760540B2 (ja) * | 2006-05-31 | 2011-08-31 | 大日本印刷株式会社 | 音響信号に対する情報の埋め込み装置 |
CN103400280A (zh) | 2006-07-12 | 2013-11-20 | 奥比融公司 | 监控便携式用户设备的使用情况 |
US8463284B2 (en) * | 2006-07-17 | 2013-06-11 | Telecommunication Systems, Inc. | Short messaging system (SMS) proxy communications to enable location based services in wireless devices |
EP2095560B1 (en) | 2006-10-11 | 2015-09-09 | The Nielsen Company (US), LLC | Methods and apparatus for embedding codes in compressed audio data streams |
US10885543B1 (en) | 2006-12-29 | 2021-01-05 | The Nielsen Company (Us), Llc | Systems and methods to pre-scale media content to facilitate audience measurement |
CA3144408C (en) | 2007-01-25 | 2023-07-25 | Arbitron Inc. | Research data gathering |
GB2460773B (en) | 2007-02-20 | 2010-10-27 | Nielsen Co | Methods and apparatus for characterizing media |
US8494903B2 (en) | 2007-03-16 | 2013-07-23 | Activated Content Corporation | Universal advertising model utilizing digital linkage technology “U AD” |
WO2008137385A2 (en) * | 2007-05-02 | 2008-11-13 | Nielsen Media Research, Inc. | Methods and apparatus for generating signatures |
US9466307B1 (en) | 2007-05-22 | 2016-10-11 | Digimarc Corporation | Robust spectral encoding and decoding methods |
US9071859B2 (en) | 2007-09-26 | 2015-06-30 | Time Warner Cable Enterprises Llc | Methods and apparatus for user-based targeted content delivery |
WO2009046430A1 (en) | 2007-10-06 | 2009-04-09 | Fitzgerald, Joan, G. | Gathering research data |
US8099757B2 (en) | 2007-10-15 | 2012-01-17 | Time Warner Cable Inc. | Methods and apparatus for revenue-optimized delivery of content in a network |
CA2858944C (en) | 2007-11-12 | 2017-08-22 | The Nielsen Company (Us), Llc | Methods and apparatus to perform audio watermarking and watermark detection and extraction |
US8108681B2 (en) * | 2007-12-03 | 2012-01-31 | International Business Machines Corporation | Selecting bit positions for storing a digital watermark |
US8051455B2 (en) | 2007-12-12 | 2011-11-01 | Backchannelmedia Inc. | Systems and methods for providing a token registry and encoder |
US8930003B2 (en) | 2007-12-31 | 2015-01-06 | The Nielsen Company (Us), Llc | Data capture bridge |
EP2442465A3 (en) | 2007-12-31 | 2013-05-29 | Arbitron Inc. | Survey data acquisition |
KR101224165B1 (ko) * | 2008-01-02 | 2013-01-18 | 삼성전자주식회사 | 데이터 처리 모듈 제어 방법 및 장치 |
US8457951B2 (en) | 2008-01-29 | 2013-06-04 | The Nielsen Company (Us), Llc | Methods and apparatus for performing variable black length watermarking of media |
CA2717723C (en) * | 2008-03-05 | 2016-10-18 | The Nielsen Company (Us), Llc | Methods and apparatus for generating signatures |
US8805689B2 (en) | 2008-04-11 | 2014-08-12 | The Nielsen Company (Us), Llc | Methods and apparatus to generate and use content-aware watermarks |
JP5604824B2 (ja) * | 2008-07-29 | 2014-10-15 | ヤマハ株式会社 | テンポ情報出力装置、音声処理システム、および電子楽器 |
JP5556076B2 (ja) * | 2008-08-20 | 2014-07-23 | ヤマハ株式会社 | シーケンスデータ出力装置、音声処理システム、および電子楽器 |
JP5556074B2 (ja) * | 2008-07-30 | 2014-07-23 | ヤマハ株式会社 | 制御装置 |
WO2010013752A1 (ja) | 2008-07-29 | 2010-02-04 | ヤマハ株式会社 | 演奏関連情報出力装置、演奏関連情報出力装置を備えるシステム、及び電子楽器 |
JP5556075B2 (ja) * | 2008-07-30 | 2014-07-23 | ヤマハ株式会社 | 演奏情報出力装置、及び演奏システム |
CN101983513B (zh) | 2008-07-30 | 2014-08-27 | 雅马哈株式会社 | 音频信号处理装置、音频信号处理系统以及音频信号处理方法 |
US9094721B2 (en) | 2008-10-22 | 2015-07-28 | Rakuten, Inc. | Systems and methods for providing a network link between broadcast content and content located on a computer network |
US8160064B2 (en) | 2008-10-22 | 2012-04-17 | Backchannelmedia Inc. | Systems and methods for providing a network link between broadcast content and content located on a computer network |
AU2013203820B2 (en) * | 2008-10-24 | 2016-08-04 | The Nielsen Company (Us), Llc | Methods and Apparatus to Extract Data Encoded in Media |
US9667365B2 (en) | 2008-10-24 | 2017-05-30 | The Nielsen Company (Us), Llc | Methods and apparatus to perform audio watermarking and watermark detection and extraction |
US8359205B2 (en) | 2008-10-24 | 2013-01-22 | The Nielsen Company (Us), Llc | Methods and apparatus to perform audio watermarking and watermark detection and extraction |
US8121830B2 (en) * | 2008-10-24 | 2012-02-21 | The Nielsen Company (Us), Llc | Methods and apparatus to extract data encoded in media content |
US9124769B2 (en) | 2008-10-31 | 2015-09-01 | The Nielsen Company (Us), Llc | Methods and apparatus to verify presentation of media content |
US8508357B2 (en) | 2008-11-26 | 2013-08-13 | The Nielsen Company (Us), Llc | Methods and apparatus to encode and decode audio for shopper location and advertisement presentation tracking |
US9117268B2 (en) | 2008-12-17 | 2015-08-25 | Digimarc Corporation | Out of phase digital watermarking in two chrominance directions |
US8199969B2 (en) | 2008-12-17 | 2012-06-12 | Digimarc Corporation | Out of phase digital watermarking in two chrominance directions |
US20110066437A1 (en) * | 2009-01-26 | 2011-03-17 | Robert Luff | Methods and apparatus to monitor media exposure using content-aware watermarks |
US8826317B2 (en) | 2009-04-17 | 2014-09-02 | The Nielson Company (Us), Llc | System and method for determining broadcast dimensionality |
US10008212B2 (en) * | 2009-04-17 | 2018-06-26 | The Nielsen Company (Us), Llc | System and method for utilizing audio encoding for measuring media exposure with environmental masking |
US20100268573A1 (en) * | 2009-04-17 | 2010-10-21 | Anand Jain | System and method for utilizing supplemental audio beaconing in audience measurement |
WO2010127268A1 (en) | 2009-05-01 | 2010-11-04 | The Nielsen Company (Us), Llc | Methods, apparatus and articles of manufacture to provide secondary content in association with primary broadcast media content |
JP5710604B2 (ja) | 2009-05-21 | 2015-04-30 | ディジマーク コーポレイション | ウォーターマーキングとフィンガープリンティングとの組合せ |
US9178634B2 (en) | 2009-07-15 | 2015-11-03 | Time Warner Cable Enterprises Llc | Methods and apparatus for evaluating an audience in a content-based network |
US8813124B2 (en) | 2009-07-15 | 2014-08-19 | Time Warner Cable Enterprises Llc | Methods and apparatus for targeted secondary content insertion |
US8245249B2 (en) * | 2009-10-09 | 2012-08-14 | The Nielson Company (Us), Llc | Methods and apparatus to adjust signature matching results for audience measurement |
US8855101B2 (en) | 2010-03-09 | 2014-10-07 | The Nielsen Company (Us), Llc | Methods, systems, and apparatus to synchronize actions of audio source monitors |
US8768713B2 (en) | 2010-03-15 | 2014-07-01 | The Nielsen Company (Us), Llc | Set-top-box with integrated encoder/decoder for audience measurement |
US8355910B2 (en) | 2010-03-30 | 2013-01-15 | The Nielsen Company (Us), Llc | Methods and apparatus for audio watermarking a substantially silent media content presentation |
JP5782677B2 (ja) | 2010-03-31 | 2015-09-24 | ヤマハ株式会社 | コンテンツ再生装置および音声処理システム |
US8701138B2 (en) | 2010-04-23 | 2014-04-15 | Time Warner Cable Enterprises Llc | Zone control methods and apparatus |
US8885842B2 (en) | 2010-12-14 | 2014-11-11 | The Nielsen Company (Us), Llc | Methods and apparatus to determine locations of audience members |
US9380356B2 (en) | 2011-04-12 | 2016-06-28 | The Nielsen Company (Us), Llc | Methods and apparatus to generate a tag for media content |
US9209978B2 (en) | 2012-05-15 | 2015-12-08 | The Nielsen Company (Us), Llc | Methods and apparatus to measure exposure to streaming media |
US9515904B2 (en) | 2011-06-21 | 2016-12-06 | The Nielsen Company (Us), Llc | Monitoring streaming media content |
KR101767301B1 (ko) | 2011-09-09 | 2017-08-10 | 라쿠텐 인코포레이티드 | 대화형 텔레비전 노출에 대한 소비자 제어를 위한 시스템들 및 방법들 |
EP2573761B1 (en) | 2011-09-25 | 2018-02-14 | Yamaha Corporation | Displaying content in relation to music reproduction by means of information processing apparatus independent of music reproduction apparatus |
CN104137557A (zh) | 2011-12-19 | 2014-11-05 | 尼尔森(美国)有限公司 | 用于对媒体呈现装置进行归属的方法和设备 |
JP5494677B2 (ja) | 2012-01-06 | 2014-05-21 | ヤマハ株式会社 | 演奏装置及び演奏プログラム |
US9692535B2 (en) | 2012-02-20 | 2017-06-27 | The Nielsen Company (Us), Llc | Methods and apparatus for automatic TV on/off detection |
US8768003B2 (en) | 2012-03-26 | 2014-07-01 | The Nielsen Company (Us), Llc | Media monitoring using multiple types of signatures |
US9078040B2 (en) | 2012-04-12 | 2015-07-07 | Time Warner Cable Enterprises Llc | Apparatus and methods for enabling media options in a content delivery network |
US9854280B2 (en) | 2012-07-10 | 2017-12-26 | Time Warner Cable Enterprises Llc | Apparatus and methods for selective enforcement of secondary content viewing |
US9282366B2 (en) | 2012-08-13 | 2016-03-08 | The Nielsen Company (Us), Llc | Methods and apparatus to communicate audience measurement information |
US8862155B2 (en) | 2012-08-30 | 2014-10-14 | Time Warner Cable Enterprises Llc | Apparatus and methods for enabling location-based services within a premises |
US9106953B2 (en) | 2012-11-28 | 2015-08-11 | The Nielsen Company (Us), Llc | Media monitoring based on predictive signature caching |
US9131283B2 (en) | 2012-12-14 | 2015-09-08 | Time Warner Cable Enterprises Llc | Apparatus and methods for multimedia coordination |
US9313544B2 (en) | 2013-02-14 | 2016-04-12 | The Nielsen Company (Us), Llc | Methods and apparatus to measure exposure to streaming media |
US9021516B2 (en) | 2013-03-01 | 2015-04-28 | The Nielsen Company (Us), Llc | Methods and systems for reducing spillover by measuring a crest factor |
US9118960B2 (en) | 2013-03-08 | 2015-08-25 | The Nielsen Company (Us), Llc | Methods and systems for reducing spillover by detecting signal distortion |
US9219969B2 (en) | 2013-03-13 | 2015-12-22 | The Nielsen Company (Us), Llc | Methods and systems for reducing spillover by analyzing sound pressure levels |
US9191704B2 (en) | 2013-03-14 | 2015-11-17 | The Nielsen Company (Us), Llc | Methods and systems for reducing crediting errors due to spillover using audio codes and/or signatures |
US9325381B2 (en) | 2013-03-15 | 2016-04-26 | The Nielsen Company (Us), Llc | Methods, apparatus and articles of manufacture to monitor mobile devices |
US9294815B2 (en) | 2013-03-15 | 2016-03-22 | The Nielsen Company (Us), Llc | Methods and apparatus to discriminate between linear and non-linear media |
US9693117B2 (en) | 2013-03-15 | 2017-06-27 | The Nielsen Company (Us), Llc | Systems, methods, and apparatus to identify linear and non-linear media presentations |
US9219928B2 (en) | 2013-06-25 | 2015-12-22 | The Nielsen Company (Us), Llc | Methods and apparatus to characterize households with media meter data |
US20150039321A1 (en) | 2013-07-31 | 2015-02-05 | Arbitron Inc. | Apparatus, System and Method for Reading Codes From Digital Audio on a Processing Device |
US9711152B2 (en) | 2013-07-31 | 2017-07-18 | The Nielsen Company (Us), Llc | Systems apparatus and methods for encoding/decoding persistent universal media codes to encoded audio |
US8768710B1 (en) | 2013-12-05 | 2014-07-01 | The Telos Alliance | Enhancing a watermark signal extracted from an output signal of a watermarking encoder |
US8768005B1 (en) | 2013-12-05 | 2014-07-01 | The Telos Alliance | Extracting a watermark signal from an output signal of a watermarking encoder |
US8768714B1 (en) | 2013-12-05 | 2014-07-01 | The Telos Alliance | Monitoring detectability of a watermark message |
US8918326B1 (en) | 2013-12-05 | 2014-12-23 | The Telos Alliance | Feedback and simulation regarding detectability of a watermark message |
US9824694B2 (en) | 2013-12-05 | 2017-11-21 | Tls Corp. | Data carriage in encoded and pre-encoded audio bitstreams |
US9426525B2 (en) | 2013-12-31 | 2016-08-23 | The Nielsen Company (Us), Llc. | Methods and apparatus to count people in an audience |
WO2015123201A1 (en) | 2014-02-11 | 2015-08-20 | The Nielsen Company (Us), Llc | Methods and apparatus to calculate video-on-demand and dynamically inserted advertisement viewing probability |
US10410645B2 (en) | 2014-03-03 | 2019-09-10 | Samsung Electronics Co., Ltd. | Method and apparatus for high frequency decoding for bandwidth extension |
KR20240046298A (ko) | 2014-03-24 | 2024-04-08 | 삼성전자주식회사 | 고대역 부호화방법 및 장치와 고대역 복호화 방법 및 장치 |
US9699499B2 (en) | 2014-04-30 | 2017-07-04 | The Nielsen Company (Us), Llc | Methods and apparatus to measure exposure to streaming media |
US9686031B2 (en) | 2014-08-06 | 2017-06-20 | The Nielsen Company (Us), Llc | Methods and apparatus to detect a state of media presentation devices |
US10028025B2 (en) | 2014-09-29 | 2018-07-17 | Time Warner Cable Enterprises Llc | Apparatus and methods for enabling presence-based and use-based services |
US10219039B2 (en) | 2015-03-09 | 2019-02-26 | The Nielsen Company (Us), Llc | Methods and apparatus to assign viewers to media meter data |
US9924224B2 (en) | 2015-04-03 | 2018-03-20 | The Nielsen Company (Us), Llc | Methods and apparatus to determine a state of a media presentation device |
US9130685B1 (en) | 2015-04-14 | 2015-09-08 | Tls Corp. | Optimizing parameters in deployed systems operating in delayed feedback real world environments |
US9762965B2 (en) | 2015-05-29 | 2017-09-12 | The Nielsen Company (Us), Llc | Methods and apparatus to measure exposure to streaming media |
US9848222B2 (en) | 2015-07-15 | 2017-12-19 | The Nielsen Company (Us), Llc | Methods and apparatus to detect spillover |
US9454343B1 (en) | 2015-07-20 | 2016-09-27 | Tls Corp. | Creating spectral wells for inserting watermarks in audio signals |
US10115404B2 (en) | 2015-07-24 | 2018-10-30 | Tls Corp. | Redundancy in watermarking audio signals that have speech-like properties |
US9626977B2 (en) | 2015-07-24 | 2017-04-18 | Tls Corp. | Inserting watermarks into audio signals that have speech-like properties |
US9848224B2 (en) | 2015-08-27 | 2017-12-19 | The Nielsen Company(Us), Llc | Methods and apparatus to estimate demographics of a household |
US10586023B2 (en) | 2016-04-21 | 2020-03-10 | Time Warner Cable Enterprises Llc | Methods and apparatus for secondary content management and fraud prevention |
US11212593B2 (en) | 2016-09-27 | 2021-12-28 | Time Warner Cable Enterprises Llc | Apparatus and methods for automated secondary content management in a digital network |
US10911794B2 (en) | 2016-11-09 | 2021-02-02 | Charter Communications Operating, Llc | Apparatus and methods for selective secondary content insertion in a digital network |
US10791355B2 (en) | 2016-12-20 | 2020-09-29 | The Nielsen Company (Us), Llc | Methods and apparatus to determine probabilistic media viewing metrics |
US10895848B1 (en) * | 2020-03-17 | 2021-01-19 | Semiconductor Components Industries, Llc | Methods and apparatus for selective histogramming |
EP4336496A1 (en) * | 2022-09-08 | 2024-03-13 | Utopia Music AG | Digital data embedding and extraction in music and other audio signals |
Family Cites Families (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3845391A (en) | 1969-07-08 | 1974-10-29 | Audicom Corp | Communication including submerged identification signal |
US4025851A (en) | 1975-11-28 | 1977-05-24 | A.C. Nielsen Company | Automatic monitor for programs broadcast |
US4313197A (en) | 1980-04-09 | 1982-01-26 | Bell Telephone Laboratories, Incorporated | Spread spectrum arrangement for (de)multiplexing speech signals and nonspeech signals |
US4703476A (en) | 1983-09-16 | 1987-10-27 | Audicom Corporation | Encoding of transmitted program material |
JPS61169088A (ja) | 1985-01-22 | 1986-07-30 | Nec Corp | オ−デイオシンクロナイザ装置 |
US4937873A (en) | 1985-03-18 | 1990-06-26 | Massachusetts Institute Of Technology | Computationally efficient sine wave synthesis for acoustic waveform processing |
EP0243561B1 (en) | 1986-04-30 | 1991-04-10 | International Business Machines Corporation | Tone detection process and device for implementing said process |
US4931871A (en) | 1988-06-14 | 1990-06-05 | Kramer Robert A | Method of and system for identification and verification of broadcasted program segments |
US4945412A (en) | 1988-06-14 | 1990-07-31 | Kramer Robert A | Method of and system for identification and verification of broadcasting television and radio program segments |
GB8824969D0 (en) * | 1988-10-25 | 1988-11-30 | Emi Plc Thorn | Identification codes |
US4972471A (en) | 1989-05-15 | 1990-11-20 | Gary Gross | Encoding system |
US5630011A (en) * | 1990-12-05 | 1997-05-13 | Digital Voice Systems, Inc. | Quantization of harmonic amplitudes representing speech |
FR2681997A1 (fr) | 1991-09-30 | 1993-04-02 | Arbitron Cy | Procede et dispositif d'identification automatique d'un programme comportant un signal sonore. |
GB2292506B (en) | 1991-09-30 | 1996-05-01 | Arbitron Company The | Method and apparatus for automatically identifying a program including a sound signal |
US5349549A (en) | 1991-09-30 | 1994-09-20 | Sony Corporation | Forward transform processing apparatus and inverse processing apparatus for modified discrete cosine transforms, and method of performing spectral and temporal analyses including simplified forward and inverse orthogonal transform processing |
US5319735A (en) | 1991-12-17 | 1994-06-07 | Bolt Beranek And Newman Inc. | Embedded signalling |
KR100392475B1 (ko) | 1992-11-16 | 2003-11-28 | 아비트론 인코포레이티드 | 방송또는기록된세그먼트를엔코딩/디코딩하고그러한세그먼트에대한시청자노출을모니터링하기위한방법과장치 |
CA2106143C (en) * | 1992-11-25 | 2004-02-24 | William L. Thomas | Universal broadcast code and multi-level encoded signal monitoring system |
US5517511A (en) * | 1992-11-30 | 1996-05-14 | Digital Voice Systems, Inc. | Digital transmission of acoustic signals over a noisy communication channel |
DE4316297C1 (de) | 1993-05-14 | 1994-04-07 | Fraunhofer Ges Forschung | Frequenzanalyseverfahren |
JP3500667B2 (ja) | 1993-08-18 | 2004-02-23 | ソニー株式会社 | テレビ会議システムおよび同期方法 |
PL177808B1 (pl) * | 1994-03-31 | 2000-01-31 | Arbitron Co | Sposób i urządzenie do kodowania sygnału dźwiękowego |
US5450490A (en) | 1994-03-31 | 1995-09-12 | The Arbitron Company | Apparatus and methods for including codes in audio signals and decoding |
US5838664A (en) * | 1997-07-17 | 1998-11-17 | Videoserver, Inc. | Video teleconferencing system with digital transcoding |
US5629739A (en) | 1995-03-06 | 1997-05-13 | A.C. Nielsen Company | Apparatus and method for injecting an ancillary signal into a low energy density portion of a color television frequency spectrum |
FR2734977B1 (fr) | 1995-06-02 | 1997-07-25 | Telediffusion Fse | Systeme de diffusion de donnees. |
JPH099213A (ja) | 1995-06-16 | 1997-01-10 | Nec Eng Ltd | データ伝送システム |
US5822360A (en) | 1995-09-06 | 1998-10-13 | Solana Technology Development Corporation | Method and apparatus for transporting auxiliary data in audio signals |
US5687191A (en) | 1995-12-06 | 1997-11-11 | Solana Technology Development Corporation | Post-compression hidden data transport |
US5719937A (en) * | 1995-12-06 | 1998-02-17 | Solana Technology Develpment Corporation | Multi-media copy management system |
US5931968A (en) * | 1996-02-09 | 1999-08-03 | Overland Data, Inc. | Digital data recording channel |
US6167550A (en) * | 1996-02-09 | 2000-12-26 | Overland Data, Inc. | Write format for digital data storage |
US6091767A (en) * | 1997-02-03 | 2000-07-18 | Westerman; Larry Alan | System for improving efficiency of video encoders |
US6052384A (en) * | 1997-03-21 | 2000-04-18 | Scientific-Atlanta, Inc. | Using a receiver model to multiplex variable-rate bit streams having timing constraints |
US5940135A (en) * | 1997-05-19 | 1999-08-17 | Aris Technologies, Inc. | Apparatus and method for encoding and decoding information in analog signals |
KR100438693B1 (ko) * | 1997-06-04 | 2005-08-17 | 삼성전자주식회사 | 음성및영상다중전송시스템 |
KR100247964B1 (ko) * | 1997-07-01 | 2000-03-15 | 윤종용 | 자동 문턱값 제어를 이용한 피크 검출기와 그 방법 |
US6081299A (en) * | 1998-02-20 | 2000-06-27 | International Business Machines Corporation | Methods and systems for encoding real time multimedia data |
-
1998
- 1998-07-16 US US09/116,397 patent/US6272176B1/en not_active Expired - Lifetime
- 1998-11-05 CA CA2819752A patent/CA2819752A1/en not_active Abandoned
- 1998-11-05 CA CA2332977A patent/CA2332977C/en not_active Expired - Lifetime
- 1998-11-05 DE DE69838401T patent/DE69838401T2/de not_active Expired - Lifetime
- 1998-11-05 WO PCT/US1998/023558 patent/WO2000004662A1/en active IP Right Grant
- 1998-11-05 JP JP2000560681A patent/JP4030036B2/ja not_active Expired - Lifetime
- 1998-11-05 AU AU13089/99A patent/AU771289B2/en not_active Expired
- 1998-11-05 EP EP98956602A patent/EP1095477B1/en not_active Expired - Lifetime
- 1998-11-05 ES ES98956602T patent/ES2293693T3/es not_active Expired - Lifetime
- 1998-11-05 CN CNB988141655A patent/CN1148901C/zh not_active Expired - Lifetime
- 1998-11-05 EP EP04014598A patent/EP1463220A3/en not_active Withdrawn
- 1998-11-05 CA CA2685335A patent/CA2685335C/en not_active Expired - Lifetime
- 1998-11-05 EP EP07014944A patent/EP1843496A3/en not_active Withdrawn
- 1998-12-15 AR ARP980106371A patent/AR013810A1/es unknown
-
2000
- 2000-02-28 AR ARP000100865A patent/AR022781A2/es unknown
-
2001
- 2001-06-15 US US09/882,085 patent/US6504870B2/en not_active Expired - Lifetime
- 2001-06-15 US US09/882,089 patent/US6621881B2/en not_active Expired - Lifetime
- 2001-11-02 HK HK01107688A patent/HK1040334A1/xx not_active IP Right Cessation
-
2003
- 2003-05-23 US US10/444,409 patent/US6807230B2/en not_active Expired - Lifetime
- 2003-06-02 AU AU2003204499A patent/AU2003204499A1/en not_active Abandoned
-
2004
- 2004-04-02 AU AU2004201423A patent/AU2004201423B8/en not_active Expired
- 2004-11-19 HK HK04109144A patent/HK1066351A1/xx not_active IP Right Cessation
-
2007
- 2007-01-29 AU AU2007200368A patent/AU2007200368B2/en not_active Expired
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2293693T3 (es) | Sistema y procedimiento para codificar una señal de video, añadiendo un codigo inaudible a la señal de audio, para usar en sistemas de identificacion de programas de radiodifusion. | |
US7006555B1 (en) | Spectral audio encoding | |
US6968564B1 (en) | Multi-band spectral audio encoding | |
ES2309986T3 (es) | Aparato y metodo para incluir codigos en señales de audio y decodificarlos. | |
ES2452920T3 (es) | Proveedor de señal de marca de agua digital y procedimiento para proporcionar una señal de marca de agua digital | |
US7451092B2 (en) | Detection of signal modifications in audio streams with embedded code | |
ES2443878T3 (es) | Suministro de señal de marca de agua digital e incrustación de marca de agua digital | |
AU2001251274A1 (en) | System and method for adding an inaudible code to an audio signal and method and apparatus for reading a code signal from an audio signal | |
ES2449475T3 (es) | Generador de marca de agua digital, decodificador de marca de agua digital, método para proporcionar una señal de marca de agua digital en dependencia de datos de mensaje binario, método para proporcionar datos de mensaje binario en dependencia de una señal de marca de agua digital y programa de computadora que utiliza una codificación diferencial | |
ES2440339T3 (es) | Generador de marca de agua digital, decodificador de marca de agua digital, procedimiento para proporcionar una señal de marca de agua digital en función de datos de mensaje binarios, procedimiento para proporcionar datos de mensaje binarios en función de una señal de marca de agua digital y programa de computadora que utiliza una dispersión de bits bidimensionales | |
WO2001031816A1 (en) | System and method for encoding an audio signal for use in broadcast program identification systems, by adding inaudible codes to the audio signal | |
ES2440970T3 (es) | Decodificador de marca de agua y procedimiento para proporcionar datos de mensaje binario | |
US7466742B1 (en) | Detection of entropy in connection with audio signals | |
CN100372270C (zh) | 广播编码的系统和方法 | |
MXPA01000433A (es) | Sistema y metodo para codificar una señal de audio, mediante la adicion de un codigo inaudible a la señal de audio, para usarse en la transmision de sistemas de identificacion de programas | |
AU2008201526A1 (en) | System and method for adding an inaudible code to an audio signal and method and apparatus for reading a code signal from an audio signal |