ES2309986T3 - Aparato y metodo para incluir codigos en señales de audio y decodificarlos. - Google Patents
Aparato y metodo para incluir codigos en señales de audio y decodificarlos. Download PDFInfo
- Publication number
- ES2309986T3 ES2309986T3 ES95914900T ES95914900T ES2309986T3 ES 2309986 T3 ES2309986 T3 ES 2309986T3 ES 95914900 T ES95914900 T ES 95914900T ES 95914900 T ES95914900 T ES 95914900T ES 2309986 T3 ES2309986 T3 ES 2309986T3
- Authority
- ES
- Spain
- Prior art keywords
- frequency
- code
- audio
- components
- amplitude
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H20/00—Arrangements for broadcast or for distribution combined with broadcast
- H04H20/28—Arrangements for simultaneous broadcast of plural pieces of information
- H04H20/30—Arrangements for simultaneous broadcast of plural pieces of information by a single channel
- H04H20/31—Arrangements for simultaneous broadcast of plural pieces of information by a single channel using in-band signals, e.g. subsonic or cue signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/35—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
- H04H60/37—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/35—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
- H04H60/38—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying broadcast time or space
- H04H60/40—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying broadcast time or space for identifying broadcast time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/35—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
- H04H60/38—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying broadcast time or space
- H04H60/41—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying broadcast time or space for identifying broadcast space, i.e. broadcast channels, broadcast stations or broadcast areas
- H04H60/44—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying broadcast time or space for identifying broadcast space, i.e. broadcast channels, broadcast stations or broadcast areas for identifying broadcast stations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/35—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
- H04H60/45—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying users
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/56—Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
- H04H60/58—Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of audio
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H20/00—Arrangements for broadcast or for distribution combined with broadcast
- H04H20/12—Arrangements for observation, testing or troubleshooting
- H04H20/14—Arrangements for observation, testing or troubleshooting for monitoring programmes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/09—Arrangements for device control with a direct linkage to broadcast information or to broadcast space-time; Arrangements for control of broadcast-related services
- H04H60/13—Arrangements for device control affected by the broadcast information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/09—Arrangements for device control with a direct linkage to broadcast information or to broadcast space-time; Arrangements for control of broadcast-related services
- H04H60/14—Arrangements for conditional access to broadcast information or to broadcast-related services
- H04H60/17—Arrangements for conditional access to broadcast information or to broadcast-related services on recording information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/61—Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
- H04H60/63—Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 for services of sales
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/61—Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
- H04H60/66—Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 for using the result on distributors' side
Abstract
SE PROPORCIONAN APARATOS Y METODOS PARA INCLUIR UN CODIGO (68) QUE TIENE AL MENOS UN COMPONENTE DE FRECUENCIAS DE CODIGO EN UNA SEÑAL DE AUDIO (60). SE EVALUAN LAS CAPACIDADES DE LAS DIFERENTES COMPONENTES DE FRECUENCIA EN LA SEÑAL DE AUDIO PARA ENMASCARAR EL COMPONENTE DE FRECUENCIAS DE CODIGO PARA EL OIDO HUMANO (64), Y EN BASE A ESTAS EVALUACIONES UNA AMPLITUD (76) SE ASIGNA AL COMPONENTE DE FRECUENCIAS DE CODIGO. TAMBIEN SE PROPORCIONAN METODOS Y APARATOS PARA DETECTAR UNA CODIGO EN UNA SEÑAL DE AUDIO CODIFICADA. UNA COMPONENTE DE FRECUENCIAS DE CODIGO SE DETECTA EN LA SEÑAL DE AUDIO CODIFICADA EN BASE A UNA AMPLITUD DE CODIGO ESPERADA O A UNA AMPLITUD DE RUIDO EN UN RANGO DE FRECUENCIAS DE AUDIO QUE INCLUYE LA FRECUENCIA DEL COMPONENTE DE CODIGO.
Description
Aparato y método para incluir códigos en señales
de audio y decodificarlos.
La presente invención se refiere a un aparato y
a métodos para incluir códigos en señales de audio y decodificar
tales códigos.
Durante muchos años, se han propuesto técnicas
para mezclar códigos con señales de audio de modo que (1) los
códigos puedan reproducirse fácilmente a partir de las señales de
audio, mientras que (2) los códigos no sean audibles cuando se
reproducen las señales de audio como sonido. El cumplimiento de
ambos objetivos es esencial para la aplicación práctica. Por
ejemplo, los transmisores y los productores de programas de
difusión, así como los que graban
música para su distribución pública no tolerarán la inclusión de códigos audibles en sus programas y grabaciones.
música para su distribución pública no tolerarán la inclusión de códigos audibles en sus programas y grabaciones.
Se han propuesto técnicas para codificar señales
de audio en diversos momentos volviendo al menos hasta la Patente
de Estados Unidos Nº 3.004.1004 de Hembrooke publicada el 10 de
octubre de 1961. Hembrooke mostraba un método de codificación en el
cual se eliminaba de forma selectiva la energía de la señal de audio
dentro de una banda de frecuencia estrecha para codificar la señal.
Se presenta un problema con esta técnica cuando el ruido o la
distorsión de la señal reintroduce energía dentro de la banda de
frecuencia estrecha de modo que se oscurece el código.
En otro método, la Patente de Estados Unidos Nº
3.845.391 de Crosby proponía eliminar una banda de frecuencia
estrecha a partir de la señal de audio e insertar un código en la
misma. Esta técnica evidentemente se encontraba con el mismo
problema que la de Hembrooke, como se citaba en la Patente de
Estados Unidos Nº 4.703.476 de Howard, que, como se indica en la
misma, se asignó comúnmente con la patente de Crosby. Sin embargo,
la patente de Howard solo buscó mejorar el método de Crosby sin
apartarse de su enfoque fundamental.
También se ha propuesto codificar señales
binarias difundiendo los códigos binarios dentro de frecuencias que
se extienden a través de la banda de audio. Un problema con este
método propuesto es que, en ausencia de componentes de la señal de
audio para enmascarar las frecuencias de código, pueden hacerse
audibles. Este método, por lo tanto cuenta con el carácter
sustentado parecido al ruido de los códigos para sugerir que su
presencia se ignorará por los oyentes. Sin embargo, en muchos casos
esta suposición puede no ser válida, por ejemplo, en el caso de
música clásica que incluye porciones con un contenido de señal de
audio relativamente bajo o durante las pausas de la voz.
Se ha sugerido una técnica adicional en la cual
se insertaban códigos de tonos duales
multi-frecuencia (DTMF) en la señal de audio. Los
códigos DTMF se detectan supuestamente en base a sus frecuencias y
duraciones. Sin embargo, las componentes de la señal de audio
pueden confundirse como uno o ambos tonos de cada código DTMF, de
modo que puede perderse la presencia de un código por el detector o
bien pueden confundirse componentes de la señal con un código DTMF.
Se observa además que cada código DTMF incluye un tono común con
otro código DTMF. Consecuentemente, una componente de señal
correspondiente a un tono de un código DTMF diferente puede
combinar con el tono de un código DTMF que está presente de forma
simultánea en la señal resultando una falsa detección.
Por consiguiente, es un objeto de la invención
proporcionar un aparato y métodos para detectar un código en una
señal de audio codificada que supera los inconvenientes de las
técnicas propuestas anteriormente.
En un aspecto, la invención proporciona un
aparato para detectar un código en una señal de audio codificada de
acuerdo con la Reivindicación 1
En un aspecto adicional, la presente invención
proporciona un método para detectar un código en una señal de audio
codificada de acuerdo con la Reivindicación 28.
Lo anterior, y los objetos, características y
ventajas de la invención, serán evidentes en la siguiente
descripción detallada de ciertas realizaciones ventajosas de la
misma que se leerán en conexión con los dibujos adjuntos que forman
parte de este documento, y en los que los elementos correspondientes
se identifican por las mismas referencias numéricas en varias
vistas de los dibujos.
La Figura 1 es un diagrama de bloques funcional
de un codificador para codificar una señal de audio;
la Figura 2 es un diagrama de bloques funcional
de un codificador digital para codificar una señal de audio;
la Figura 3 es un diagrama de bloques de un
sistema de codificación para su uso en la codificación de señales
de audio proporcionadas en forma analógica;
la Figura 4 proporciona diagramas espectrales
para su uso en las composiciones de frecuencias que ilustran de los
diversos símbolos de datos como se codifican por el sistema de la
Figura 3;
las Figuras 5 y 6 son diagramas de bloques
funcionales para su uso en la ilustración del funcionamiento del
sistema de la Figura 3;
las Figuras de 7A hasta 7C son diagramas de
flujo para ilustrar una rutina software empleada en el sistema de
la Figura 3;
las Figuras 7D y 7E son diagramas de flujo para
ilustrar una rutina software alternativa empleada en el sistema de
la Figura 3;
la Figura 7F es un gráfico que muestra una
aproximación lineal de una relación de enmascaramiento de un tono
único;
la Figura 8 es un diagrama de bloques de un
codificador que emplea una circuitería analógica;
la Figura 9 es un diagrama de bloques de un
circuito de determinación del factor de ponderación del codificador
de la Figura 8;
la Figura 10 es un diagrama de bloques funcional
de un decodificador;
la Figura 11 es un diagrama de bloques de un
decodificador de acuerdo con una realización de la presente
invención que emplea el procesamiento digital de la señal;
las Figuras 12A y 12B son diagramas de flujo
para su uso en la descripción del funcionamiento del decodificador
de la Figura 11;
la Figura 13 es un diagrama de bloques funcional
de un decodificador de acuerdo con ciertas realizaciones de la
presente invención;
la Figura 14 es un diagrama de bloques de una
realización de un decodificador analógico de acuerdo con la
presente invención;
la Figura 15 es un diagrama de bloques de un
detector de componentes de la realización de la Figura 14; y
las Figuras 16 y 17 son diagramas de bloques de
un aparato de acuerdo con una realización de la presente invención
incorporado en un sistema para producir estimaciones de audiencias
para una información ampliamente difundida.
Las técnicas que se describen en adelante en
este documento incluyen códigos en las señales de audio para
optimizar la probabilidad de recuperación con precisión de la
información en los códigos a partir de las señales, mientras que se
asegura que los códigos son inaudibles para el oído humano cuando se
reproduce el audio codificado como sonido incluso si las
frecuencias de los códigos caen dentro del rango de frecuencias
audible.
Con referencia en primer lugar a la Figura 1, se
ilustra en la misma un diagrama funcional de bloques de un
codificador. La señal de audio a codificar se recibe en el terminal
de entrada 30. La señal de audio puede representar, por ejemplo, un
programa a difundir por radio, la porción de audio de una difusión
de televisión, o una composición musical o cualquier otra clase de
señal de audio a grabar de alguna manera. Además, la señal de audio
puede ser una comunicación privada, tal como una transmisión
telefónica o una grabación personal de alguna clase. Sin embargo,
sólo se citan estas como ejemplos.
Como se indica por el bloque funcional 34 en la
Figura 1, se evalúa la capacidad de uno o más componentes de la
señal de audio recibida para enmascarar sonidos que tienen
frecuencias correspondientes con las de una componente o
componentes de frecuencias de código a añadir a la señal de audio.
Pueden realizarse múltiples evaluaciones para una única frecuencia
de código, puede realizarse una evaluación separada para cada
frecuencia de una pluralidad de frecuencias de código, pueden
efectuarse múltiples evaluaciones para cada frecuencia de una
pluralidad de frecuencias de código, puede realizarse una o más
evaluaciones comunes para frecuencias de código múltiples o puede
realizarse una combinación de uno o más de las anteriores. Cada
evaluación se realiza en base a la frecuencia de una o más
componentes de código a enmascarar y la frecuencia o frecuencias de
la componente o componentes de la señal de audio cuyas posibilidades
de enmascaramiento se están evaluando. Además, si la componente del
código y la componente o componentes de audio que enmascaran no caen
dentro de intervalos de señal sustancialmente simultáneos, de modo
que se reproducirían como sonido en intervalos de tiempo
significativamente diferentes, también se tiene en consideración los
efectos de las diferencias en los intervalos de señal entre la
componentes o componentes de código que se están enmascarando y la
componente o componentes del programa de enmascaramiento.
Pueden realizarse múltiples evaluaciones por
cada componente de código considerando separadamente las capacidades
de las diferentes porciones de la señal de audio para enmascarar
cada componente de código. En un ejemplo, se evalúa la capacidad de
cada componente de una pluralidad de componentes de la señal de
audio de sustancialmente un tono único para enmascarar una
componente de código en base a la frecuencia de la componente de
señal de audio, su "amplitud" (como se define en este
documento) y la temporización relevante para la componente de
código, denominándose tal enmascaramiento como "enmascaramiento
tonal" en este documento.
El término "amplitud" se usa en este
documento para referirse a cualquier valor o valores de la señal que
pueden emplearse para evaluar la capacidad de enmascaramiento, para
seleccionar el tamaño de una componente de código, para detectar su
presencia en una señal reproducida o como otros utilizados,
incluyendo valores tales como la energía de la señal, potencia,
voltaje, corriente, intensidad y presión, sea medida sobre una base
absoluta o relativa, y sea medida sobre una base instantánea o
acumulada. Como sea apropiado, puede medirse la amplitud como una
media sobre una ventana, una media aritmética, por integración, o
como el valor de la raíz cuadrática media, como una acumulación de
valores absolutos relativamente discretos, o cualquier otro.
En otros ejemplos, además de las evaluaciones de
enmascaramiento tonal o en la alternativa, se evalúa la capacidad
de las componentes de la señal de audio dentro de una banda
relativamente estrecha de frecuencias suficientemente próximas a
una componente de código determinada para enmascarar la componente
(denominado en este documento como enmascaramiento de "banda
estrecha"). En aún otros ejemplos, se evalúa la capacidad de las
componentes de código múltiple dentro de una banda relativamente
amplia de frecuencias para enmascarar la componente. Se evalúan
cuando sea necesario o apropiado, las capacidades de las componentes
del programa de audio en los intervalos de señal que preceden o
siguen a una componente o componentes determinadas para enmascarar
la misma sobre una base no simultánea. Esta forma de evaluación es
particularmente útil cuando las componentes de la señal de audio en
un intervalo de señal determinado tienen amplitudes
insuficientemente grandes para permitir la inclusión de componentes
de código
de amplitudes suficientemente grandes en el mismo intervalo de señal de modo que no pueden distinguirse del ruido.
de amplitudes suficientemente grandes en el mismo intervalo de señal de modo que no pueden distinguirse del ruido.
Preferiblemente, se evalúa una combinación de
dos o más capacidades de enmascaramiento tonal, capacidades de
enmascaramiento de banda estrecha y capacidades de enmascaramiento
de banda ancha (y, cuando sea necesario o apropiado, capacidades de
enmascaramiento no simultáneo), para componentes de código
múltiples. Cuando las componentes de código están suficientemente
próximas en frecuencia, no se necesita realizar evaluaciones
separadas para cada una.
En ciertos otros ejemplos, se realiza un
análisis de tonal deslizante en lugar de análisis tonales separados,
de banda estrecha y de banda ancha, eliminando la necesidad de
clasificar el programa de audio como tonal, de banda estrecha o de
banda ancha.
Cuando se evalúa una combinación de capacidades
de enmascaramiento, cada evaluación puede proporcionar una amplitud
máxima permisible para una o más componentes de código, de modo que
comparando todas las evaluaciones que se han realizado y que se
refieren a una componente determinada, puede seleccionarse una
amplitud máxima para la misma que sin embargo asegurará que cada
componente se enmascarará por la señal de audio cuando se reproduce
como sonido de modo que todas las componentes se hacen inaudibles
por la audición humana. Maximizando la amplitud de cada componente,
la probabilidad de detectar su presencia en base a su amplitud, se
maximiza asimismo. Por supuesto, no es esencial que se emplee la
amplitud máxima posible, ya que sólo es necesario cuando la
decodificación es capaz de distinguir un número suficientemente
grande de componentes de código a partir de las componentes de la
señal de audio y otro ruido.
Los resultados de las evaluaciones se sacan en
36 como se indica en la Figura 1 y se hacen disponibles para el
generador de códigos 40. La generación de códigos puede realizarse
en uno cualquiera de una variedad de modos diferentes. Una técnica
particularmente ventajosa asigna un conjunto único de componentes de
frecuencia de códigos a cada uno de una pluralidad de estados o
símbolos de datos, de modo que, durante un intervalo de señal
determinado, se representa un estado de datos correspondiente por la
presencia de su conjunto respectivo de componentes de frecuencia de
código. De este modo, la interferencia con la detección de códigos
por las componentes de la señal de audio se reduce ya que, en un
porcentaje ventajosamente elevado de intervalos de señal, se podrá
detectar un número suficientemente grande de componentes de código a
pesar de la interferencia del programa de la señal de audio con la
detección de otras componentes. Además, el proceso de implementar
las evaluaciones de enmascaramiento se simplifica cuando se conocen
las frecuencias de las componentes de código antes de
generarse.
También pueden implementarse otras formas de
codificación. Por ejemplo, puede emplearse el desplazamiento de
frecuencia discreto (FSK), la modulación de frecuencia (FM), saltos
de frecuencia, codificación de espectro extendido, así como
combinaciones de las anteriores. Pueden usarse incluso otras
técnicas de codificación que serán evidentes a partir de la
descripción en este documento.
Los datos a codificar se reciben en la entrada
42 del generador de códigos 40 que responde produciendo su grupo
único de componentes de frecuencia de código y asignando una
amplitud a cada una en base a las evaluaciones recibidas desde la
salida 36. Las componentes de frecuencia de código se suministran
tal como se producen a una primera entrada de un circuito sumador
46 que recibe la señal de audio a codificar en una segunda entrada.
El circuito 46 suma las componentes de frecuencia de código a la
señal de audio y saca una señal de audio codificada en su terminal
de salida 50. El circuito 46 puede ser o un circuito sumador
analógico o digital, dependiendo de la forma de las señales
suministradas al mismo. La función de suma puede implementarse
también por software y, si es así, el procesador digital usado para
realizar la evaluación de enmascaramiento y producir el código
puede usarse también para sumar el código con la señal de audio. En
un ejemplo, el código se suministra como datos del dominio del
tiempo en una forma digital que se suman a continuación con los
datos de audio en el dominio del tiempo. En otra, la señal de audio
se convierte al dominio de la frecuencia en forma digital y se suma
al código que asimismo se representa como datos digitales del
dominio de la frecuencia. En la mayor parte de las aplicaciones,
los datos del dominio de la frecuencia sumados se convierten a
continuación a datos en el dominio del tiempo.
A partir de lo siguiente, se verá que la
evaluación de enmascaramiento así como las funciones de producción
de códigos pueden realizarse o por procesamiento digital o
analógico, o por una combinación del procesamiento digital y
analógico. Además, aunque la señal de audio puede recibirse en forma
analógica en el terminal de entrada 30 y sumarse a las componentes
de código en una forma analógica por el circuito 46 como se muestra
en la Figura 1, en la alternativa, la señal de audio puede
convertirse a forma digital cuando se recibe, sumar las componentes
de código en forma digital y salir en forma digital o analógica. Por
ejemplo, cuando la señal se va a grabar sobre un disco compacto o
una cinta de audio digital, puede sacarse en forma digital, mientras
que si es para difundirse por las técnicas convencionales de
difusión de radio o televisión puede sacarse en forma analógica.
También pueden implementarse diversas otras combinaciones de
procesamiento digital y analógico.
En ciertos ejemplos las componentes de código se
incluyen en la señal de audio sólo un símbolo de código a la vez.
Sin embargo, en otros ejemplos, las componentes de símbolos de
código múltiples se incluyen simultáneamente en la señal de audio.
Por ejemplo, en ciertos ejemplos las componentes de un símbolo
ocupan una banda de frecuencias y las de otro ocupan una segunda
banda de frecuencias simultáneamente. En la alternativa, las
componentes de un símbolo pueden residir en la misma banda así como
en otra o en una banda de solapamiento, siempre que sus componentes
sean distinguibles, por ejemplo, asignándolas a frecuencias o
intervalos de frecuencias respectivamente diferentes.
En la Figura 2 se ilustra un ejemplo de
codificador digital. En este ejemplo, se recibe una señal de audio
en forma analógica en el terminal de entrada 60 y se convierte a
forma digital por el convertidor A/D 62. La señal de audio
digitalizada se suministra para la evaluación de enmascaramiento,
como se indicada funcionalmente por el bloque 64 según el cual se
separa la señal de audio digitalizada en las componentes de
frecuencia, por ejemplo, por una Transformada Rápida de Fourier
(FFT), una transformada de un tren de ondas, u otra transformación
del dominio del tiempo al dominio de la frecuencia, si no por
filtrado digital. Después de esto, las capacidades de
enmascaramiento de las componentes de frecuencia de la señal de
audio dentro de las ranuras de frecuencia de interés se evalúan por
su capacidad de enmascaramiento tonal, la capacidad de
enmascaramiento de banda estrecha y la capacidad de enmascaramiento
de banda ancha (y, si es necesario o apropiado, por la capacidad de
enmascaramiento no simultánea). Como alternativa, las capacidades de
enmascaramiento de las componentes de frecuencia de la señal de
audio dentro de las ranuras de frecuencia de interés se evalúan con
un análisis tonal deslizante.
Los datos a codificar se reciben en el terminal
de entrada 68 y, para cada estado de datos correspondiente a un
intervalo de señal determinado, se produce su grupo respectivo de
componentes de código, como se indica por el bloque funcional de
generación de señal 72, y se somete al ajuste de nivel, como se
indica por el bloque 76 que también se suministra con las
evaluaciones de enmascaramiento relevantes. La generación de señal
puede implementarse, por ejemplo, por medio de una tabla de
búsqueda que almacena cada una de las componentes de código como
datos en el dominio del tiempo o por interpolación de los datos
almacenados. Las componentes de código pueden almacenarse
permanentemente o generarse bajo la inicialización del sistema de la
Figura 2 y almacenarse en memoria a continuación, tal como en una
RAM, para sacarlas cuando sea apropiado en respuesta a los datos
recibidos en el terminal 68. Los valores de las componentes pueden
calcularse también en el instante en que se generan.
El ajuste de nivel se realiza para cada una de
las componentes de código en base a las evaluaciones de
enmascaramiento relevantes como se trató anteriormente, y las
componentes de código cuya amplitud se ha ajustado para asegurar
que son inaudibles se suman a la señal de audio digitalizada como se
indica por el símbolo de suma 80. Dependiendo de la cantidad de
tiempo necesaria para realizar los procesos anteriores, puede ser
deseable retrasar la señal de audio digitalizada, como se indica en
82 por el almacenamiento temporal en memoria. Si la señal de audio
no está retrasada, después de que se hayan realizado una FFT y la
evaluación de enmascaramiento para un primer intervalo de la señal
de audio, se suman las componentes de código ajustadas en amplitud a
un segundo intervalo de la señal de audio que sigue al primer
intervalo. Sin embargo, si la señal de audio está retrasada, las
componentes de código ajustadas en amplitud pueden sumarse en cambio
al primer intervalo y de este modo puede usarse una evaluación de
enmascaramiento simultánea. Además, si la porción de la señal de
audio durante el primer intervalo proporciona una mayor capacidad
de enmascaramiento para una componente de código sumada durante el
segundo intervalo que la porción de la señal de suido durante el
segundo intervalo proporcionaría a la componente de código durante
el mismo intervalo, puede asignarse una amplitud a la componente de
código en base a las capacidades de enmascaramiento no simultáneo
de la porción de la señal de audio dentro del primer intervalo. De
esta forma, pueden evaluarse ambas capacidades de enmascaramiento
simultáneo y no simultáneo y puede asignarse una amplitud óptima a
cada componente de código en base a la evaluación más ventajosa.
En ciertas aplicaciones, tales como en la
diodifusión, o grabaciones analógicas (como sobre una cinta de
casete convencional), la señal de audio codificada en forma digital
se convierte a forma analógica por un convertidor digital a
analógico (DAC) 84. Sin embargo, cuando la señal se va a transmitir
o grabar en forma digital, el DAC 84 puede omitirse.
Las diversas funciones ilustradas en la Figura 2
pueden implementarse, por ejemplo, por un procesador digital de
señal o por un ordenador personal, estación de trabajo, ordenador
principal, o por otro ordenador digital.
La Figura 3 es un diagrama de bloques de un
sistema de codificación para su uso en señales de audio codificadas
suministradas en forma analógica, tales como en un estudio de
difusión convencional. En el sistema de la Figura 3, un procesador
principal 90 que puede ser, por ejemplo, un ordenador personal,
supervisa la selección y generación de información a codificar por
su inclusión en la señal de audio analógica recibida en el terminal
de entrada 94. El procesador central 90 está acoplado con un teclado
96 y con un monitor 100, tal como un monitor de CRT, de modo que un
usuario puede seleccionar el mensaje deseado a codificar mientras se
elige de un menú de mensajes disponibles presentados en pantalla
por el monitor 100. Un mensaje típico a codificar en una señal de
audio de difusión podría incluir la información de estación o la
identificación de canal, información de programa o segmento y/o un
código de tiempo.
Una vez que se ha introducido el mensaje deseado
al procesador principal 90, el procesador principal procede a sacar
los datos que representan los símbolos del mensaje al procesador de
señal digital (DSP) 104 que procede a codificar cada uno de los
símbolos recibidos desde el procesador principal 90 en la forma de
un conjunto único de componentes de señal de código como se
describe más adelante en este documento. En un ejemplo, el
procesador principal genera un flujo de datos de cuatro estados,
esto es, un flujo de datos en el cual cada unidad de datos puede
asumir uno de cuatro estados de datos distintos representando cada
uno un símbolo único incluyendo dos símbolos de sincronización
denominados "E" y "S" en este documento y dos símbolos de
información del mensaje "1" y "0" cada uno de cuales
representa un estado binario respectivo. Se apreciará que puede
emplearse cualquier número distinto de estados de datos. Por
ejemplo, en lugar de dos símbolos de información del mensaje,
pueden representarse tres estados de datos por tres símbolos únicos
lo cual permite una cantidad correspondiente mayor de información a
conducir por el flujo de datos de un tamaño determinado.
Por ejemplo, cuando el material del programa
representa voz, es ventajoso transmitir un símbolo durante un
periodo de tiempo relativamente mas largo que en el caso de un
programa de audio que tiene un contenido de energía sustancialmente
más continuo, para permitir las pausas naturales o lagunas presentes
en la voz. Por consiguiente, para asegurar que la tasa de
transferencia de información es suficientemente elevada en este
caso, se aumenta ventajosamente el número de símbolos posibles de
información de los mensajes. Para los símbolos que representan
hasta cinco bits, longitudes de transmisión de símbolos de dos, tres
y cuatro segundos proporcionan probabilidades cada vez mayores de
una correcta decodificación. En algunas de tales realizaciones, un
símbolo inicial "E" se decodifica cuando (i) la energía en las
ranuras de FFT para este símbolos es la mayor, (ii) la energía
media menos la desviación típica de la energía para este símbolo es
mayor que la energía media más la desviación típica de la energía
para todos los otros símbolos, y (iii) la forma de la curva de la
energía frente al tiempo para este símbolo tiene una forma de
campana, con el pico en la frontera temporal
inter-símbolos.
En el ejemplo de la Figura 3, cuando el DSP 104
ha recibido los símbolos de un mensaje determinado a codificar,
responde generando un conjunto único de componentes de frecuencia de
código para cada símbolo que proporciona en la salida 106. También
con referencia a la Figura 4, se proporcionan diagramas espectrales
para cada uno de los cuatro símbolos de datos S, E, 0 y 1 del
conjunto de datos de ejemplo descrito anteriormente. Como se
muestra en la Figura 4, en esta realización el símbolo S se
representa por un grupo único de diez componentes de frecuencia de
código desde f_{1} hasta f_{10} dispuestas a intervalos de
frecuencias iguales en un intervalo que se extiende desde un valor
de frecuencia ligeramente mayor que 2 kHz a un valor de frecuencia
que es ligeramente menor que 3 kHz. El símbolo E se representa por
un segundo grupo único de diez componentes de frecuencia de código
desde f_{11} hasta f_{20} dispuestos en el espectro de
frecuencia a intervalos iguales desde un primer valor de frecuencia
ligeramente mayor que 2 kHz hasta un valor de frecuencia ligeramente
menor que 3 kHz, en el que cada una de las componentes de código de
f_{11} hasta f_{20} tienen un valor de frecuencia único
diferente de lo otros en el mismo grupo así como de todas las otras
frecuencias de f_{1} hasta f_{10}. El símbolo 0 se representa
por un grupo único adicional de diez componentes de frecuencia de
código de f_{21} hasta f_{30} también dispuestas a intervalos de
frecuencia iguales desde un valor ligeramente mayor que 2 kHz hasta
un valor ligeramente menor que 3 kHz y cada uno de las cuales tiene
un valor de frecuencia único diferente de los otros en el mismo
grupo así como de todas las frecuencias de f_{1} hasta f_{20}.
Finalmente, el símbolo 1 se representa por un grupo único adicional
de diez componentes de frecuencia de código de f_{31} hasta
f_{40} también dispuestas a intervalos de frecuencia iguales desde
un valor ligeramente mayor que 2 kHz hasta un valor ligeramente
menor que 3 kHz, de modo que cada una de las componentes de
f_{31} hasta f_{40} tiene un valor de frecuencia único diferente
que cualquiera de las otras componentes de frecuencia de f_{1}
hasta f_{40}. Usando múltiples componentes de frecuencia de código
para cada uno de los estados de datos de modo que las componentes
de código de cada uno de los estados están sustancialmente
separadas entre sí en frecuencia, la presencia de ruido (tal como
las componentes de señal de audio no de código u otro ruido) en una
banda de detección común con cualquier componente de código de un
estado de datos determinado es menos probable que interfiera con la
detección de las componentes restantes de ese estado de
datos.
datos.
En otros ejemplos, es ventajoso representar los
símbolos por componentes de frecuencia múltiples por ejemplo diez
tonos de código o componentes de frecuencia, que no están espaciados
de forma uniforme en frecuencia, y que no tiene la misma desviación
entre símbolos. Eliminando una relación integral entre frecuencias
de código para un símbolo agrupando los tonos reduce los efectos
del batido inter-frecuencias y los nulos de
habitación, esto es, las localizaciones donde los ecos desde las
paredes de la habitación interfieren con la decodificación
correcta. Se proporcionan los siguientes conjuntos de componentes de
frecuencias de tonos para los cuatro símbolos (0, 1, S y E) para
aliviar los efectos de los nulos de la habitación, donde de f1 hasta
f10 representan las componentes de frecuencia de código respectivas
de cada uno de los cuatro símbolos (expresados en Hertzios):
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
Hablando en general, en los ejemplos
proporcionados anteriormente, el contenido espectral del código
varía relativamente poco cuando el DSP 104 conmuta su salida desde
cualquiera de los estados de datos S, E, 0 y 1 a cualquier otro de
los mismos. En ciertos ejemplos ventajosos, cada componente de
frecuencia de código de cada símbolo está emparejada con una
componente de frecuencia de cada uno de los otros estados de datos
de modo que la diferencia entre ellas es menor que el ancho de banda
crítica para las mismas. Para cualquier par de tonos puros, el
ancho de banda crítico es un intervalo de frecuencias dentro del
cual la separación de frecuencias entre los dos tonos puede
variarse sin aumentar sustancialmente la intensidad acústica. Como
la separación de frecuencias entre tonos adyacentes en el caso de
cada uno de los estados de datos S, E, 0 y 1 es la misma, y como
cualquiera de los tonos de cada uno de los estados de datos S, E, 0
y 1 está emparejado con un tono respectivo de cada uno de los otros
de los mismos de modo que la diferencia en frecuencia entre los
mismos es menor que el ancho de banda crítica para ese par, no habrá
ningún cambio sustancial en la intensidad acústica para
transiciones desde cualquiera de los estados de datos S, E, 0 y 1 a
cualquiera de los otros cuando se reproducen como sonido. Además,
minimizando la diferencia en frecuencia entre las componentes de
código de cada par, las probabilidades relativas de detectar cada
uno de los estados de datos cuando se recibe no se ve afectada
sustancialmente por las características de frecuencia del camino de
transmisión. Un beneficio adicional de emparejar componentes de
diferentes estados de datos de modo que están relativamente próximas
en frecuencia es que la evaluación de enmascaramiento realizada
para una componente de código de un primer estado de datos será
sustancialmente precisa para una componente correspondiente del
próximo estado de datos cuando tiene lugar la conmutación de
estados.
Como alternativa, en el esquema de espaciamiento
de tonos de código no uniforme para minimizar los efectos de los
nulos de la habitación, se verá que las frecuencias seleccionadas
para cada una de las componentes de frecuencia de código de f_{1}
hasta f_{10} están agrupadas alrededor de una frecuencia, por
ejemplo, las componentes de frecuencia para f1, f2 y f3 están
localizadas en la proximidad de 1055 Hz, 1180 Hz y 1340 Hz
respectivamente. Específicamente, en este ejemplo, los tonos están
espaciados aparte de por dos veces la resolución de la FFT, por
ejemplo para una resolución de 4 Hz, los tonos se muestran
espaciados por 8 Hz, y se eligen de modo que están en el medio de
el intervalo de frecuencias de la ranura FFT. Además, el orden de
las diversas frecuencias que se asignan a las componentes de
frecuencias de f_{1} hasta f_{10} para representar los diversos
símbolos 0, 1, S y E se varían en cada grupo. Por ejemplo, las
frecuencias seleccionadas para las componentes f1, f2 y f3
corresponden a los símbolos (0, 1, S, E), (S, E, 0, 1) y (E, S, 1,
0), respectivamente desde la frecuencia más baja a la más alta,
esto es, (1046,9; 1054,7; 1062,5; 1070,3), (1179,7; 1187,5; 1195,3;
1203,1), (1328,1; 1335,9; 1343,8, 1351,6). Un beneficio de este
esquema es que incluso si hay un nulo de habitación que interfiera
con la recepción correcta de una componente de código, en general se
elimina el mismo código de cada uno de los símbolos, de modo que es
más fácil decodificar un símbolo a partir de las restantes
componentes. En contraste, si un nulo de habitación elimina una
componente de un símbolo pero no de otro símbolo, es más difícil
decodificar correctamente el símbolo.
Se apreciará que, en la alternativa, pueden
emplearse más o menos de cuatro estados de datos separados o
símbolos para codificar. Además, cada estado de dato o símbolo
puede representarse por más o menos de diez tonos de código, y
aunque es preferible que se use el mismo número de tonos para
representar cada uno de los estados de datos, no es esencial en
todas las aplicaciones que el número de tonos de código usados para
representar cada estado de datos sea el mismo. Preferiblemente,
cada uno de los tonos de código difiere en frecuencia de todos los
demás tonos de código para maximizar la probabilidad de distinguir
cada uno de los estados de datos bajo la decodificación. Sin
embargo, no es esencial en todas las aplicaciones que ninguna de las
frecuencias de tono código se comparta por dos o más estados de
datos.
La Figura 5 es un diagrama de bloques funcional
al cual se hace referencia para explicar la operación de
codificación realizada por el sistema de codificación de la Figura
3. Como se ha observado anteriormente, el DSP 104 recibe datos del
procesador principal 90 que designa la secuencia de estados de datos
a sacar por el DSP 104 como grupos respectivos de componentes de
frecuencia de código. Ventajosamente, el DSP 104 genera una tabla de
búsqueda de representaciones del dominio del tiempo para cada una
de las componentes de frecuencia de código de f_{1} hasta
f_{40} que almacena a continuación en la RAM del mismo,
representada por la memoria 110 de la Figura 5. En respuesta a los
datos recibidos desde el procesador principal 90, el DSP 104 genera
una dirección respectiva que aplica a una dirección de entrada de
la memoria 110, como se indica en 112 en la Figura 5, para hacer
que la memoria 110 saque los datos del dominio del tiempo del tiempo
para cada una de las diez componentes de frecuencia
correspondientes al estado de datos a sacar en ese instante.
También con referencia a la Figura 6, que es un
diagrama de bloques funcional para ilustrar ciertas operaciones
realizadas por el DSP 104, la memoria 110 almacena una secuencia de
valores del dominio del tiempo para cada una de las componentes de
frecuencia de cada uno de los símbolos S, E, 0 y 1. En esta ejemplo
particular, como las componentes de frecuencia de código varían
desde aproximadamente 2 kHz hasta aproximadamente 3 kHz, se
almacena un número suficientemente grande de muestras en el dominio
del tiempo en la memoria 110 por cada una de las componentes de
frecuencia de f_{1} hasta f_{40} de modo que pueden sacarse a
una tasa mayor que la frecuencia de Nyquist de la componente de
código de frecuencia más elevada. Las componentes de código del
dominio del tiempo se sacan a una tasa apropiadamente alta desde la
memoria 110 que almacena las componentes del dominio del tiempo
para cada una de las componentes de frecuencia de código que
representan una duración predeterminada de modo que se almacenan
(n) componentes del dominio del tiempo para cada una de las
componentes de frecuencia de código de f_{1} hasta f_{40} para
(n) intervalos de tiempo desde t_{1} hasta t_{n}, como se
muestra en la Figura 6. Por ejemplo, si se va a codificar el símbolo
S durante un intervalo de señal determinado, durante el primer
intervalo t_{1}, la memoria 110 saca las componentes del dominio
del tiempo de f_{1} hasta f_{10} correspondientes a ese
intervalo como se almacenaron en la memoria 110. Durante el
siguiente intervalo, se sacan por la memoria las componentes en el
dominio del tiempo de f_{1} hasta f_{10} para el intervalo
t_{2}. Este proceso continúa de forma secuencial para los
intervalos de t_{3} hasta t_{n} y vuelve a t_{1} hasta que se
completa la duración del símbolo codificado S.
En ciertos ejemplos, en lugar de sacar todas las
diez componentes de código, por ejemplo, de f1 hasta f10 durante un
intervalo de tiempo, sólo se sacan las componentes de código que
caen dentro del ancho de banda crítico de los tonos de la señal de
audio. Esta es una propuesta generalmente conservadora para asegurar
que los componentes de código son inaudibles.
De nuevo con referencia a la Figura 5, el DSP
104 también sirve para ajustar las amplitudes de las componentes en
el dominio del tiempo por la memoria 110 de modo que, cuando se
reproducen las componentes de frecuencia de código como sonido, se
enmascararán por componentes de la señal de audio en las que se han
incluido de modo que son inaudibles para el oído humano. Por
consiguiente, el DSP 104 está también provisto con la señal de
audio recibida en el terminal de entrada 94 después del filtrado
apropiado y la conversión de analógico a digital. Más
específicamente, el codificador de la Figura 3 incluye un filtro
paso banda analógico 120 que sirve para eliminar sustancialmente
las componentes de frecuencia de la señal de audio fuera de la banda
de interés para evaluar la capacidad de enmascaramiento de la señal
de audio recibida que en la presente realización se extiende desde
aproximadamente 1,5 kHz hasta aproximadamente 3,2 kHz. El filtro 120
también sirve para eliminar las componentes de alta frecuencia de
la señal de audio que pueden causar solapamiento cuando la señal se
digitaliza posteriormente por un convertidor de analógico a digital
(A/D) 124 que funciona a una tasa de muestreo suficientemente
alta.
Como se indica en la Figura 3, la señal de audio
digitalizada se suministra por el A/D 124 al DSP 104 donde, como se
indica en 130 en la Figura 5, la señal del programa de audio
experimenta la separación de intervalos de frecuencia. En este
ejemplo particular, la separación de intervalos de frecuencia se
realiza como una Transformada Rápida de Fourier (FFT) que se
realiza periódicamente con o sin solapamiento temporal para producir
ranuras de frecuencia sucesivas teniendo cada una un ancho de
frecuencia predeterminado. Otras técnicas están disponibles para la
segregación de las componentes de frecuencia de las señales de
audio, tales como la transformada del tren de ondas, la
transformada discreta de Walsh Hadamard, la transformada discreta de
Hadamard, la transformada discreta del coseno, así como las
diversas técnicas de filtrado digital.
Una vez que el DSP 104 ha separado las
componentes de frecuencia de la señal de audio digitalizada en las
ranuras de frecuencia sucesivas, como se ha mencionado
anteriormente, a continuación procede a evaluar la capacidad de las
diversas componentes de frecuencia presentes en la señal de audio
para enmascarar las diversas componentes de código de sacadas por
la memoria 110 y para producir los factores de ajuste de amplitud
respectivos que sirven para ajustar las amplitudes de las diversas
componentes de frecuencia de código de modo que se enmascararán por
el programa de audio cuando se reproducen como sonido de modo que
serán inaudibles para el oído humano. Estos procesos se representan
por el bloque 134 en la Figura 5.
Para las componentes de la señal de audio que
son sustancialmente simultáneas con las componentes de frecuencia
de código que están para enmascarar (pero que preceden las
componentes de frecuencias de código por un periodo corto de
tiempo), la capacidad de enmascaramiento de las componentes del
programa de audio se evalúa sobre la base tonal, así como sobre la
base de un enmascaramiento de banda estrecha y sobre la base de un
enmascaramiento de banda ancha, como se describe más adelante. Para
cada componente de frecuencia de código que se saca en un momento
determinado por la memoria 112, se evalúa una capacidad de
enmascaramiento tonal para cada una de una pluralidad de
componentes de frecuencia de la señal de audio en base al nivel de
energía en cada una de las ranuras respectivas en las que caen
estas componentes así como en la relación de frecuencias de cada
ranura con la componente de frecuencia de código respectiva. La
evaluación en cada caso (tonal, banda estrecha y banda ancha) puede
tomar la forma de un factor de ajuste de amplitud u otra medida que
posibilita asignar una amplitud de la componente de código de modo
que la componente de código se enmascara por la señal de audio.
Como alternativa, la evaluación puede ser un análisis tonal
deslizante.
En el caso de un enmascaramiento de banda
estrecha, en este ejemplo para cada una de las componentes de
frecuencia de código respectiva se evalúa el contenido de energía
de las componentes de frecuencia por debajo de un nivel
predeterminado dentro de una banda de frecuencia predeterminada
incluyendo la componente de frecuencia de código respectiva para
deducir una evaluación de la capacidad de enmascaramiento por
separado. En ciertas implementaciones se mide la capacidad de
enmascaramiento de banda estrecha en base al contenido de energía
de las componentes de frecuencia de la señal de audio por debajo del
nivel de energía media de la ranura dentro de la banda de
frecuencias predeterminada. En esta implementación, se suman los
niveles de energía de las componentes por debajo de los niveles de
energía de las componentes por debajo de la energía media de la
ranura (como un umbral de la componente) para producir un nivel de
energía de banda estrecha en respuesta al cual se identifica la
evaluación de enmascaramiento de banda estrecha correspondiente para
la componente de código respectiva. Un nivel de energía de banda
estrecha diferente puede producirse en cambio seleccionando un
umbral de las componentes distinto que el nivel de energía media.
Además, en aún otros ejemplos, el nivel de energía medio de todas
las componentes de la señal de audio dentro de la banda de
frecuencias predeterminada se usa como nivel de energía de la banda
estrecha para asignar una evaluación de enmascaramiento de banda
estrecha a la componente de código respectiva. En aún ejemplos
adicionales, se usa en cambio el contenido de energía total de las
componentes de la señal de audio dentro de la banda de frecuencia
predeterminada, mientras que en otras realizaciones se usa un nivel
de componente mínimo dentro de la banda de frecuencia predeterminada
para este propósito.
Finalmente, en ciertas implementaciones se
determina el contenido de energía de banda ancha de la señal de
audio para evaluar la capacidad de la señal de audio para enmascarar
la componente de frecuencia de código respectiva en base a un
enmascaramiento de banda ancha. En este ejemplo, la evaluación de
enmascaramiento de banda ancha se basa en el nivel de energía de
banda estrecha mínimo encontrado en el curso de las evaluaciones
del enmascaramiento de banda estrecha que se ha descrito
anteriormente. Esto es, si se han investigado cuatro bandas de
frecuencia predeterminadas por separado en el curso de la evaluación
del enmascaramiento de banda estrecha como se ha descrito
anteriormente, y se toma el ruido de banda ancha para incluir el
nivel mínimo de energía de banda estrecha de entre todas las cuatro
bandas de frecuencia predeterminadas (sin embargo determinadas),
entonces el nivel mínimo de energía de banda estrecha se multiplica
por un factor igual a la proporción del intervalo de frecuencias
que se extiende por todas las cuatro bandas estrechas entre el ancho
de banda de la banda de frecuencias predeterminada que tiene el
nivel de energía mínimo de la banda estrecha. El producto
resultante indica un nivel de potencia de código global permisible.
Si el nivel de potencia de código permisible global se denomina P,
y el código incluye diez componentes de código, a continuación se
asigna a cada una un factor de ajuste de la amplitud para obtener
un nivel de potencia de la componente que es 10 dB inferior a P. En
la alternativa, el ruido de banda ancha se calcula para una banda
relativamente ancha predeterminada que abarca las componentes de
código seleccionando una de las técnicas tratadas anteriormente para
evaluar el nivel de energía de banda estrecha pero usando en cambio
las componentes de la señal de audio a través de toda la banda
predeterminada relativamente ancha. Una vez que se ha determinado el
ruido de banda ancha en el modo seleccionado, se asigna la
evaluación de enmascaramiento de banda ancha correspondiente a cada
una de las componentes de código respectiva.
El factor de ajuste de la amplitud para cada
componente de frecuencia de código se selecciona a continuación en
base a una de las evaluaciones de enmascaramiento, tonal, de banda
estrecha y de banda ancha que obtiene el nivel más alto permisible
para la componente respectiva. Esto maximiza la probabilidad de que
cada una de las componentes de frecuencia de código respectiva será
distinguible del ruido de señal no de audio mientras que el mismo
tiempo se asegura que la componente de frecuencia de código
respectiva se enmascarará de modo que sea inaudible para el oído
humano.
Los factores de ajuste de la amplitud se
seleccionan para cada uno de los enmascaramientos tonal, de banda
estrecha y de banda ancha en base a los siguientes factores y
circunstancias. En el caso de enmascaramiento tonal, los factores
se asignan sobre la base de las frecuencias de las componentes de la
señal de audio cuyas capacidades de enmascaramiento se están
evaluando y la frecuencia o frecuencias de las componentes de código
a enmascarar. Además, una señal de audio determinada sobre
cualquier intervalo seleccionado proporciona la capacidad de
enmascarar una componente de código determinada dentro del mismo
intervalo (es decir, enmascaramiento simultáneo) al máximo nivel
mayor que el nivel al cual la misma señal de audio sobre el
intervalo seleccionado es capaz de enmascarar la misma componente
de código que se produce antes o después del intervalo seleccionado
(es decir, enmascaramiento no simultáneo). Preferiblemente también
se tomarán en consideración las condiciones bajo las cuales la
señal de audio codificada se oirá por una audiencia u otro grupo de
audición, como sea apropiado. Por ejemplo, si se va a codificar
audio de televisión, preferiblemente se tomarán en consideración
los efectos de distorsión de un entorno de audición típico, ya que
en tales entornos ciertas frecuencias se atenúan más que otras. El
equipo de recepción y reproducción (tal como los ecualizadores
gráficos) pueden causar efectos similares. Los efectos relacionados
con el entorno y el equipo pueden compensarse seleccionando
factores de ajuste de amplitud suficientemente bajos para asegurar
el enmascaramiento en condiciones anticipadas.
En ciertos ejemplos solo se evalúa una de las
capacidades de enmascaramiento tonal, de banda estrecha o de banda
ancha. En otras realizaciones se evalúan dos de tales tipos de
capacidades de enmascaramiento diferentes, y en otras se emplean
los tres.
En ciertos ejemplos, se emplea un análisis tonal
deslizante para evaluar la capacidad de enmascaramiento de la señal
de audio. Generalmente un análisis tonal deslizante satisface las
normas de enmascaramiento para el ruido de banda estrecha, el ruido
de banda ancha y tonos únicos sin requerir una clasificación de la
señal de audio. En el análisis tonal deslizante, la señal de audio
se considera como un conjunto de tonos discretos estando centrado
cada uno en una ranura de frecuencia de FFT respectiva.
Generalmente, el análisis tonal deslizante calcula en primer lugar
la potencia de la señal de audio en cada ranura FFT. A continuación,
se evalúan para cada uno de los tonos de código, los efectos de
enmascaramiento de los tonos discretos de la señal de audio en cada
ranura de FFT separada en frecuencia de tal tono de código por no
más del ancho de banda crítico del tono de audio en base a la
potencia de la señal de audio en cada una de tales ranuras usando
las relaciones de enmascaramiento para el enmascaramiento de un
tono único. Los efectos de enmascaramiento de todos los tonos
discretos relevantes de la señal de audio se suman para cada uno de
los tonos de código, a continuación se ajustan para el número de
tonos dentro del ancho de banda crítico de los tonos de la señal de
audio y la complejidad de la señal de audio. Como se explica más
adelante, en ciertos ejemplos, la complejidad del material del
programa se basa empíricamente en la proporción de potencia en los
tonos relevantes de la señal de audio y la raíz cuadrada de la suma
de los cuadrados de las potencias en tales tonos de la señal de
audio. La complejidad sirve para tener en cuenta el hecho de que el
ruido de banda estrecha y el ruido de banda ancha proporcionan cada
uno efectos de enmascaramiento mucho mejores que los que se obtienen
por la simple suma de tonos usada para el modelo de ruido de banda
estrecha y de banda ancha.
En ciertos ejemplos que emplean un análisis
tonal deslizante, un número predeterminado de muestras de la señal
de audio experimentan en primer lugar una FFT larga, que proporciona
una alta resolución pero requiere un tiempo de procesamiento más
largo. A continuación, las porciones sucesivas del número
predeterminado de muestras experimentan una FFT relativamente más
pequeña, que es más rápida pero proporciona una menor resolución.
Los factores de amplitud encontrados de la FFT larga se combinan
con los encontrados a partir de las FFT más pequeñas, que
generalmente corresponden con la ponderación del tiempo, de una FFT
larga de "precisión de frecuencia" más alta por la
"precisión temporal" más elevada de la FFT mas pequeña.
En el ejemplo de la Figura 5, una vez que se ha
seleccionado un factor de ajuste de amplitud apropiado para cada
una de las componentes de frecuencia de código entregada por la
memoria 110, el DSP 104 ajusta la amplitud de cada componente de
frecuencia de código consecuentemente, como se indica por el bloque
funcional "ajuste de amplitud" 114. En otros ejemplos, cada
componente de frecuencia de código se genera inicialmente de modo
que su amplitud se conforma a su factor de ajuste respectivo. Con
referencia también a la Figura 6, la operación de ajuste de
amplitud del DSP 104 en este ejemplo multiplica los diez valores
seleccionados de las componentes de frecuencia de código del
dominio del tiempo de f_{1} hasta f_{40} para el intervalo de
tiempo actual de t_{1} hasta t_{n} por un factor de ajuste de
amplitud respectivo de G_{A1} hasta G_{A10} y a continuación el
DSP 104 procede a sumar la amplitud ajustada de las componentes en
el dominio del tiempo para producir una señal de código compuesta
que suministra en su salida 106. Con referencia a las Figuras 3 y 5,
la señal de código compuesta se convierte a forma analógica por un
convertidor de digital a analógico (DAC) 140 y se suministra por el
mismo a una primera entrada de un circuito sumador 142. El circuito
sumador 142 recibe la señal de audio desde el terminal de entrada
94 en una segunda entrada y suma la señal de código analógica
compuesta con la señal de audio analógica para suministrar una señal
de audio codificada en la salida del
mismo 146.
mismo 146.
En las aplicaciones de difusión de radio, la
señal de audio codificada modula una onda portadora y se difunde en
el aire. En las aplicaciones de difusión de televisión NTSC, la
frecuencia de la señal de audio codificada modula una
sub-portadora y se mezcla con la señal de vídeo
compuesta de modo que la señal combinada se usa para modular una
portadora de difusión para su difusión en el aire. Las señales de
radio y televisión, por supuesto, también pueden transmitirse por
cable (por ejemplo, cable convencional o de fibra óptica), satélite
o cualquier otro. En otras aplicaciones, el audio codificado puede
grabarse bien para su distribución en forma de grabación o para su
posterior difusión u otra amplia diseminación. El audio codificado
también puede emplearse en transmisiones punto a punto. Diversas
otras aplicaciones, y técnicas de transmisión y grabación resultarán
evidentes.
Las Figuras desde 7A a la 7C proporcionan
diagramas de flujo para ilustrar una rutina software realizada por
el DSP 104 para implementar la evaluación de las funciones de
enmascaramiento tonal, de banda estrecha y de banda ancha del mismo
que descritos anteriormente. La Figura 7A ilustra un bucle principal
del programa software del DSP 104. El programa se inicia por un
comando desde el procesador principal 90 (etapa 150), con la cual
el DSP 104 inicializa sus registros hardware (etapa 152) y a
continuación procede en la etapa 154 a calcular los datos de las
componentes de código en el dominio del tiempo sin ponderar como se
ilustra en la figura 6 que a continuación almacena en memoria para
leerse cuando sea necesario para generar las componentes de código
en el dominio del tiempo, como se ha mencionado anteriormente en
este documento. En la alternativa, esta etapa puede omitirse si las
componentes de código están almacenadas permanentemente en una ROM o
en otro almacenamiento no volátil. Es posible calcular los datos de
las componentes de código cuando se requiere, aunque esto se sume a
la carga de procesamiento. Otra alternativa es producir componentes
de código no ponderadas en forma analógica y a continuación ajustar
las amplitudes de las componentes analógicas por medio de factores
de ponderación producidos por un procesador digital.
Una vez que se han calculado y almacenado los
datos en el dominio del tiempo, en la etapa 156 el DSP 104 comunica
una petición al procesador principal 90 de un próximo mensaje a
codificar. El mensaje es una cadena de caracteres, número enteros,
u otro conjunto de símbolos de datos que identifican de forma
unívoca los grupos de componentes de código a sacar por el DSP 104
para el cual se ha predeterminado el mensaje. En otros ejemplos, el
ordenador principal, sabiendo la tasa de datos de la salida del
DSP, determina por si mismo cuando suministrar un próximo mensaje
al DSP fijando un temporizador apropiado y suministrando el mensaje
en la condición de vencimiento del temporizador. En un ejemplo de
una alternativa adicional, se acopla un decodificador con la salida
del DSP 104 para recibir las componentes de código de salida para
decodificar las mismas y retroalimentar el mensaje al procesador
principal como salida por el DSP de modo que el ordenador principal
puede determinar cuándo suministrar un mensaje adicional al DSP
104.
En aún otros ejemplos, las funciones el procesador principal 90 y el DSP 104 se realizan por un procesador único.
En aún otros ejemplos, las funciones el procesador principal 90 y el DSP 104 se realizan por un procesador único.
Una vez que se ha recibido el siguiente mensaje
desde el procesador principal, de conformidad con la etapa 156, el
DSP procede a generar las componentes de código para cada símbolo
del mensaje para suministrar las componentes de frecuencia de
código ponderadas en su salida 106. Este proceso se representa por
un bucle identificado por la etiqueta 160 en la Figura 7A.
Una vez introducido el bucle simbolizado por la
etiqueta 160, el DSP 104 posibilita las interrupciones de los
temporizadores 1 y 2 y a continuación entra en la subrutina 162 de
"calcular factores de ponderación" que se describirán en
conexión con los diagramas de flujo de las Figuras 7B y 7C. Con
referencia en primer lugar a la Figura 7B, una vez que entra en la
subrutina 162 de cálculo de los factores de ponderación el DSP
determina en primer lugar si se ha almacenado un número suficiente
de muestras de la señal de audio que permita realizar una FFT de
alta resolución para analizar el contenido espectral de la señal de
audio durante el intervalo mas reciente de la señal de audio
predeterminado, como se indica por la etapa 163. Una vez
inicializado, en primer lugar debe estar acumulado un número
suficiente de muestras de la señal de audio para realizar la FFT.
Sin embargo, si se emplea una FFT de solapamiento, durante los pases
posteriores a través del bucle correspondiente se necesitan menos
muestras de datos almacenadas antes de realizar la FFT
siguiente.
Como se verá de la Figura 7B, el DSP se mantiene
en un bucle estrecho en la etapa 163 esperando la acumulación de
muestras necesarias. A cada interrupción del temporizador 1, el A/D
124 proporciona una nueva muestra digitalizada de la señal del
programa de audio que se acumula en un almacenamiento de datos del
DSP 104, como se indica por la subrutina 164 en la Figura 7A.
Volviendo a la Figura 7B, una vez que se ha
acumulado un número suficientemente grande de datos de muestras por
el DSP, continúa el procesamiento en la etapa 168 en la que se
realiza la FFT de alta resolución mencionada anteriormente sobre
las muestras de datos de la señal de audio del intervalo de la señal
de audio más reciente. Después de esto, como se indica por la
etiqueta 170, se calcula un factor de ponderación respectivo o
factor de ajuste de la amplitud para cada una de las diez
componentes de frecuencia de código en el símbolo que se está
codificando actualmente. En la etapa 172, se determina que una de
las ranuras de frecuencias producidas por la FFT de alta resolución
(etapa 168) que proporciona la capacidad de enmascarar el nivel más
elevado de la componente de código respectiva sobre la base de un
único tono ("tonal dominante") del modo que se ha tratado
anteriormente.
Con referencia también a la Figura 7C, en la
etapa 176, se determina y se retiene el factor de ponderación para
el tonal dominante para su comparación con las capacidades de
enmascaramiento relativas proporcionadas por el enmascaramiento de
banda estrecha y de banda ancha y, si se encuentra que es el
enmascaramiento mas eficaz se usa como el factor de ponderación
para fijación de la amplitud de la componente de frecuencia de
código actual. En la etapa posterior 180 se realiza una evaluación
de las capacidades de enmascaramiento de banda estrecha y de banda
ancha del modo que se ha descrito anteriormente. Después de esto, en
la etapa 182, se determina si el enmascaramiento de banda ancha
proporciona la mejor capacidad para enmascarar las componentes de
código respectivas y, si es así, en la etapa 184, se actualiza el
factor de ponderación en base al enmascaramiento de banda estrecha.
En una etapa posterior 186, se determina si el enmascaramiento de
banda ancha proporciona la mejor capacidad para enmascarar las
componentes de frecuencias de código respectivas, y si es así, en la
etapa 190, se ajusta el factor de ponderación para la componente de
frecuencia de código respectiva se ajusta en base al
enmascaramiento de banda ancha. A continuación, en la etapa 192 se
determina si se han seleccionado los factores de ponderación para
cada una de las componentes de frecuencia de código a sacar
actualmente para representar el símbolo actual y, en caso
contrario, el bucle se reinicia para seleccionar un factor de
ponderación para la siguiente componente de frecuencia de código.
Sin embargo, si se han seleccionado los factores de ponderación
para todas las componentes, la rutina se termina a continuación como
se indica en la etapa 194.
Cuando se produce la interrupción del
temporizador 2, el procesamiento continúa en la subrutina 200 en la
que se realizan las funciones ilustradas en la Figura 6 anterior.
Esto es, en la subrutina 200 las factores de ponderación calculados
durante la subrutina 162 se usan para multiplicar los valores
respectivos en el dominio del tiempo del símbolo actual a sacar y a
continuación se suman los valores de las componentes de código
ponderadas en el dominio del tiempo y se saca como una señal de
código compuesta ponderada al DAC 140. Cada símbolo de código se
saca durante un periodo predeterminado de tiempo a cuya expiración
el procesamiento vuelve a la etapa 156 desde la etapa 202.
Las Figuras 7D y 7E muestran diagramas de flujo
que ilustran una implementación de la técnica de análisis tonal
deslizante para la evaluación de los efectos del enmascaramiento de
una señal de audio. En la etapa 702, se inicializan variables tales
como el tamaño en las muestras de una FFT larga y una FFT mas
pequeña, el número de FFT mas pequeñas por FFT larga y el número de
tonos de código por símbolo, por ejemplo, 2048, 256, 8 y 10,
respectiva-
mente.
mente.
En las etapas 704-708, se
analizan varias muestras correspondientes a una FFT larga. En la
etapa 704, se obtienen las muestras de la señal de audio. En la
etapa 706, se obtiene la potencia del material del programa en cada
ranura de FFT. En la etapa 708, se obtiene la potencia del tono de
código permisible en cada ranura FFT correspondiente, dando cuentas
de los efectos de todos los tonos de la señal de audio relevantes en
esa ranura, para cada uno de los tonos. El diagrama de flujo de la
Figura 7E muestra la etapa 708 con mas detalle.
En las etapas 710-712, se
analizan varias muestras correspondientes a una FFT más pequeña, de
forma similar a las etapas 706-708 para una FFT
larga. En la etapa 714, las potencias de código permisibles
encontradas de la FFT larga en la etapa 708 y la FFT mas pequeña en
la etapa 712 se fusionan por la porción de muestras que han
experimentado una FFT más pequeña. En la etapa 716, los tonos de
código se mezclan con la señal de audio para formar audio
codificado, y en la etapa 718, se saca el audio codificado al DAC
140. En la etapa 720, se decide repetir las etapas
710-718, esto es, si hay porciones de muestras de la
señal de audio que han experimentado una FFT larga pero no una FFT
pequeña. A continuación, en la etapa 722, si hay más muestras de
audio, se analiza el siguiente número de muestras correspondiente a
una FFT larga.
La Figura 7E proporciona detalles para las
etapas 708 y 712, que calculan la potencia de código permisible en
cada ranura FFT. Generalmente, este procedimiento modela la señal de
audio como comprendiendo un conjunto de tonos (véanse ejemplos más
adelante), calcula el efecto de enmascaramiento de cada señal de
tono de la señal de audio sobre cada tono de código, suma los
efectos de enmascaramiento y ajusta la densidad de los tonos de
código y la complejidad de la señal de audio.
En la etapa 752, se determina la banda de
interés. Por ejemplo, deja que la banda usada para codificar sea de
800 a 3200 Hz, y que la frecuencia de muestreo sea de 44.100
muestras por segundo. La ranura de comienzo arranca en 800 Hz, y la
ranura de final termina en 3.200 Hz.
En la etapa 754, se determina el efecto de
enmascaramiento de cada tono de la señal de audio relevante sobre
cada código en esta ranura usando la curva de enmascaramiento para
un tono único, y compensando el ancho de la ranura de FFT de la
señal de audio distinta de cero determinando (1) un primer valor de
enmascaramiento basado en la suposición de que toda la potencia de
la señal de audio está en el extremo superior de la ranura, y (2)
un segundo valor de enmascaramiento basado en la suposición de que
toda la potencia de la señal de audio está en el extremo inferior
de la ranura, y eligiendo a continuación el más pequeño de los
valores de enmascaramiento primero y
segundo.
segundo.
La Figura 7F muestra una aproximación de la
curva de enmascaramiento de un tono único para un tono de la señal
de audio en una frecuencia de fPGM que es aproximadamente 2200 Hz en
este ejemplo, siguiendo Zwislocki, J. J., "Masking: Experimental
and Theoretical Aspect of Simultaneous, Forward, Backward and
Central Masking", de 1978, de Zwicker y otros, ed.,
Psychoacoustics: Facts and Models, páginas
283-316 Springer-Verlag, Nueva
York. El ancho de la banda crítica (CB) se define por Zwislocki
como:
banda crítica =
0,002 * f_{PGM}^{1,5} +
100
con las siguientes definiciones, y
dejando que el "enmascaramiento" sea el tono de la señal de
audio,
\vskip1.000000\baselineskip
- BRKPOINT = 0,3
- / +/- 0,3 bandas críticas/
- PEAKFAC = 0,025119
- / -16 dB desde el enmascaramiento/
- BEATFAC = 0,002512
- / -26 dB desde el enmascaramiento/
- mNEG = -2,40
- / -24 dB por banda crítica/
- mPOS = - 0,70
- / -7 dB por banda crítica/
cf = frecuencia de código
mf = frecuencia de enmascaramiento
cband = banda crítica alrededor de f_{PGM}
\vskip1.000000\baselineskip
a continuación puede calculase el factor de
enmascaramiento, mfactor, como sigue:
brkpt = cband *
BRKPOINT
si es sobre la pendiente negativa
de la curva de la Figura
7F,
- mfactor = PEAKFAC * 10**(mNeg * mf - brkpt - cf)/cband)
si es sobre la parte plana de la
curva de la Figura
7F,
- mfactor = BEATFAC
si es sobre la pendiente positiva
de la curva de la Figura
7F,
- mfactor = PEAKFAC * 10 ** (mPOS * cf - brkpt - mf)/cband)
Específicamente, se calcula un primer mfactor en
base a la suposición de que toda la potencia de la señal de audio
está en el extremo inferior de su ranura, a continuación se calcula
un segundo mfactor asumiendo que toda la potencia de la señal de
audio está en el extremo superior de su ranura, y se elije el más
pequeño de los mfactor primero y segundo como el valor de
enmascaramiento proporcionado por ese tono de la señal de audio
para el tono de código seleccionado. En la etapa 754, se realiza
este procesamiento para cada tono de la señal de audio relevante
para cada tono de código.
En la etapa 756, se ajusta cada tono de código
por cada uno de los factores de enmascaramiento correspondientes a
los tonos de la señal de audio. En este ejemplo, el factor de
enmascaramiento se multiplica por la potencia de la señal de audio
en la ranura relevante.
En la etapa 758, el resultado de multiplicar los
factores de enmascaramiento por la potencia de la señal de audio se
suma para cada ranura, para proporcionar una potencia permisible
para cada tono de código.
En la etapa 760, se ajustan las potencias de
tono de código permisibles para el número de tonos de código dentro
de un ancho de banda crítica sobre cualquiera de los lados del tono
de código que se está evaluando, y para la complejidad de la señal
de audio. Se contabiliza el número de tonos de código dentro la
banda crítica, CTSUM. El factor de ajuste ADJFAC, esta dado
por:
ADJFAC = GLOBAL
* (PSUM/PRSS)^{1,5} /
CTSUM
donde GLOBAL es un factor de
reducción que tiene en cuenta para el codificador la imprecisión
debida a los retrasos temporales en la realización de la
FFT.
(PSUM/PRSS)^{1,5} es un factor de
corrección empírico de complejidad, y 1/CTSUM representa simplemente
dividir la potencia de la señal de audio entre todos los tonos de
código a enmascarar. PSUM es la suma de los niveles de potencia de
tonos de enmascaramiento asignados para el enmascaramiento del tono
de código cuyo ADJFAC se está determinando. La raíz cuadrada de la
suma de las potencias al cuadrado (PRSS) se determina por
Por ejemplo, asumiendo una potencia total del
tono de enmascaramiento en una banda igualmente difundida entre
uno, dos y tres tonos, entonces
\vskip1.000000\baselineskip
\newpage
De este modo, PRSS mide la concentración
(valores en aumento) de la potencia de enmascaramiento o la
dispersión (valores en disminución) del material del programa.
En la etapa 762 de la Figura 7E, se determina si
hay más ranuras en la banda de interés, y si es así, se procesan
como se ha descrito anteriormente.
A continuación se proporcionarán ejemplos de
cálculos de enmascaramiento. Se asume un símbolo de la señal de
audio de 0 dB, de modo que los valores proporcionados son las
potencias de tono de código máximas relativas a la potencia de la
señal de audio. Se proporcionan cuatro casos: un tono único de 2.500
Hz; tres tonos a 2.000, 2.500 y 3.000 Hz; un ruido de banda
estrecha modelado como 75 tonos dentro de la banda crítica centrada
en 2.600, esto es, 75 tonos igualmente espaciados a 5 Hz en el
intervalo entre 2.415 y 2.785 Hz; y un ruido de banda ancha
modelado como 351 tono igualmente espaciados a 5 Hz en el intervalo
entre 1.750 y 3.250 Hz. Para cada caso el resultado calculado del
análisis tonal deslizante (STA) se compara con el resultado
calculado de seleccionar el mejor de los análisis de tono único,
ruido de banda estrecha y ruido de banda ancha.
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
Por ejemplo, en el análisis tonal deslizante
(STA) para el caso de un tono único, el tono de enmascaramiento es
de 2.500 Hz, correspondiente a un ancho de banda crítica de 0,002 *
2500^{1,5} + 100 = 350 Hz. Los puntos de ruptura para la curva de
la Figura 7F son 2.500 \pm 0,3 * 350 ó 2.395 y 2.605 Hz. La
frecuencia de código de 1.976 se ve que está sobre la porción de
pendiente negativa de la curva de la Figura 7F, de modo que el
factor de enmascaramiento es
- mfactor
- = 0,025119 * 10 ^{-2,4 * (2500-105-1976) / 350}
- \quad
- = 3,364 * 10 ^{-5}
- \quad
- = -44,7 dB
Hay tres tonos de código dentro de la banda
crítica de 1.976 Hz, de modo que la potencia de enmascaramiento se
divide entre ellos:
3,364 * 10
^{-5} / 3 = -49,5
dB
Este resultado se redondea a -50 dB mostrado en
la parte superior izquierda de la tabla de cálculos de la
muestra.
En el análisis de "El Mejor de 3", el
enmascaramiento tonal se calcula de acuerdo con el método del tono
único explicado anteriormente junto con la Figura 7F.
En el análisis de "El Mejor de 3", el
enmascaramiento de ruido de banda estrecha se calcula calculando en
primer lugar la potencia media a través de una banda crítica
centrada sobre la frecuencia del tono de código de interés. Los
tonales con mayor potencia que la potencia media no se consideran
como parte del ruido y se eliminan. La suma de la potencia restante
es la potencia del ruido de banda estrecha. La potencia del tono de
código máxima permisible está a - 6 dB de la potencia del ruido de
banda estrecha para todos los tonos de código dentro de un ancho de
banda crítico del tono de código de interés.
En el análisis de "El Mejor de 3", el
enmascaramiento de ruido de banda ancha se calcula calculando la
potencia de ruido de banda estrecha para bandas críticas centradas
en 2.000, 2.280, 2.600 y 2.970 Hz. La potencia de ruido de banda
estrecha mínima resultante se multiplica por la proporción del ancho
de banda total entre el ancho de banda crítica apropiado para
encontrar la potencia de ruido de banda ancha. Por ejemplo, si la
banda centrada en 2600 Hz que tiene una banda crítica de 370 Hz es
la mínima, su potencia de ruido de banda estrecha se multiplica por
1322 Hz/370 Hz = 3,57 para producir la potencia de ruido de banda
ancha. La potencia de tono de código permitida está a -3 dB de la
potencia de ruido de banda ancha. Cuando hay diez tonos de código,
la potencia máxima permisible para cada uno es 10 dB menor, ó -13 dB
de la potencia de ruido de banda ancha.
Los cálculos del análisis tonal deslizante se ve
que corresponden generalmente para los cálculos del "Mejor de
3", indicando que el análisis tonal deslizante es un método
robusto. Adicionalmente, los resultados proporcionados por el
análisis tonal deslizante en el caso de tonos múltiples son mejores,
esto es, permiten potencias de los tonos de código mayores que en
el análisis del "Mejor de 3", indicando que el análisis tonal
deslizante es adecuado incluso para casos en los que no se adaptan
claramente en uno de los cálculos del "Mejor de 3".
Refiriéndonos ahora a la Figura 8, se muestra un
codificador que emplea circuitería analógica en forma de bloque en
el mismo. El codificador analógico recibe una señal de vídeo en
forma analógica en el terminal de entrada 210 desde el cual se
suministra la señal de audio como una entrada a los N circuitos del
generador de componentes de 220_{1} hasta 220_{N} cada uno de
los cuales genera una componente de código respectiva de C_{1}
hasta C_{N}. Por simplicidad y claridad sólo se muestran los
circuitos del generador de componentes de 220_{1} hasta 220_{N}
en la Figura 8. Para generar de forma controlable las componentes de
código de los símbolos de datos respectivos a incluir en la señal
de audio para formar una señal de audio codificada, cada uno de los
circuitos del generador de componentes se alimenta con una entrada
de datos respectiva desde el terminal 222_{1} hasta el 222_{N}
que sirve como una entrada de activación para su circuito generador
de componentes respectivo. Cada símbolo se codifica como un
subconjunto de componentes de código de C_{1} hasta C_{N}
aplicando de forma selectiva una señal de activación a ciertos
circuitos de los circuitos del generador de componentes de
220_{1} hasta 220_{N}. Las componentes de código generadas
correspondientes con cada uno de los símbolos de datos se
suministran como entrada al circuito sumador 226 que recibe la señal
de audio de entrada desde el terminal de entrada 210 en una entrada
adicional, y sirve para sumar las componentes de código con la
señal de audio de entrada para producir la señal de audio codificada
que se suministra como una salida del mismo.
Cada uno de los circuitos del generador de
componentes es similar en construcción e incluye un circuito de
determinación del factor de ponderación de 230_{1} hasta
230_{N}, un generador de la señal respectiva de 232_{1} hasta
232_{N}, y un circuito de conmutación respectivo de 234_{1}
hasta 234_{N}. Cada uno de los generadores de señal de 232_{1}
hasta 232_{N} produce una frecuencia de componente de código
diferente respectivamente y suministra la componente generada al
circuito de conmutación respectivo de 234_{1} hasta 234_{N},
cada uno de los cuales tiene una segunda entrada acoplada a tierra y
una salida acoplada con una entrada del circuito respectivo de los
circuitos de multiplicación de 236_{1} hasta 236_{N}. En
respuesta a la recepción de una entrada de activación en su
terminal de entrada de datos respectivo de 222_{1} hasta
222_{N}, responde cada uno de los circuitos de conmutación de
234_{1} hasta 234_{N} acoplando la salida de su generador de
señal respectivo de 232_{1} hasta 232_{N} a la entrada del
circuito correspondiente de los circuitos de multiplicación de
236_{1} hasta 236_{N}. Sin embargo, en ausencia de una señal de
activación en la entrada de datos, cada circuito de conmutación de
234_{1} hasta 234_{N} acopla su salida a la entrada puesta a
tierra de modo que la salida del correspondiente multiplicador de
236_{1} hasta 236_{N} está a un nivel de cero.
Cada circuito de determinación del factor de
ponderación de 230_{1} hasta 230_{N} sirve para evaluar la
capacidad de las componentes de frecuencia de la señal de audio
dentro de una banda de frecuencia correspondiente de la misma para
enmascarar la componente de código producida por el generador
correspondiente de 232_{1} hasta 232_{N} para producir un
factor de ponderación que se suministra como entada al circuito de
multiplicación correspondiente 236_{1} hasta 236_{N} para
ajustar la amplitud de la componente de código correspondiente para
asegurar que se enmascarará por la porción de la señal de audio que
se evaluó por el circuito de determinación del factor de
ponderación. Con referencia también a la Figura 9, la construcción
de cada uno de los circuitos de determinación del factor de
ponderación de 230_{1} hasta 230_{N}, indicados como el circuito
de ejemplo 230, se ilustra en forma de bloque. El circuito 230
incluye un filtro de enmascaramiento 240 que recibe la señal de
audio en una entrada del mismo y sirve para separar la porción de la
señal de audio que se va a usar para producir un factor de
ponderación a suministrar al multiplicador respectivo de los
multiplicadores de 236_{1} hasta 236_{N}. Las características
del filtro de enmascaramiento, además, se seleccionan para ponderar
las amplitudes de las componentes de la frecuencia de la señal de
audio de acuerdo con sus capacidades relativas para enmascarar la
componente de código respectiva.
La porción de la señal de audio seleccionada por
el filtro de enmascaramiento 240 se suministra a un circuito de
valor absoluto 242 que produce una salida que representa el valor
absoluto de una porción de la señal dentro de la banda de
frecuencias pasada por el filtro de enmascaramiento 240. La salida
del circuito de valor absoluto 242 se suministra como entrada a un
amplificador de escala 244 que tiene una ganancia seleccionada para
producir una señal de salida que, cuando se multiplica por la
salida del conmutador correspondiente de 234_{1} hasta 234_{N},
producirá una componente de código en la salida del correspondiente
multiplicador de 236_{1} hasta 236_{N} que asegurará que la
componente de código multiplicada se enmascarará por la porción
seleccionada de la señal de audio pasada por el filtro de
enmascaramiento 240 cuando la señal de audio codificada se reproduce
como sonido. Cada circuito de determinación del factor de
ponderación de 230_{1} hasta 230_{N} produce, por lo tanto, una
señal que representa una evaluación de la capacidad de la porción
seleccionada de la señal de audio para enmascarar la componente de
código correspondiente.
En otros ejemplos de codificadores analógicos,
se suministran múltiples circuitos de determinación del factor de
ponderación para cada generador de componente de código, y cada uno
de los múltiples circuitos de determinación del factor de
ponderación correspondiente a una componente de código determinada
evalúa la capacidad de una porción diferente de la señal de audio
para enmascarar esa componente particular cuando se reproduce la
señal de audio codificada como sonido. Por ejemplo, puede
suministrarse una pluralidad de tales circuitos de determinación de
los factores de ponderación cada uno de los cuales evalúa la
capacidad de una porción de la señal de audio dentro de una banda
de frecuencia relativamente estrecha (de modo que la energía de la
señal de audio dentro de tal banda consistirá con toda probabilidad
de una componente de frecuencia única) para enmascarar la componente
de código respectiva cuando se reproduce el audio codificado como
sonido. También puede suministrarse un circuito adicional de
determinación del factor de ponderación para la misma componente de
código respectiva para evaluar la capacidad de la energía de la
señal de audio dentro de una banda crítica que tiene la frecuencia
de componente de código como frecuencia central para enmascarar la
componente de código cuando se reproduce la señal de audio
codificada como sonido.
Además, aunque los diversos elementos de las
Figuras 8 y 9 se implementan por circuitos analógicos, se apreciará
que se puede implementar las mismas funciones realizadas por tales
circuitos analógicos, en todo o en parte por circuitería
digital.
A continuación se describirán los
decodificadores y los métodos de codificación que están
especialmente adaptados para decodificar las señales de audio
codificadas por las técnicas que se han descrito anteriormente en
este documento, así como en general para decodificar los códigos
incluidos en las señales de audio de modo que los códigos pueden
distinguirse de las mismas en base a su amplitud. De acuerdo con
ciertas características de la presente invención, y con referencia
al diagrama de bloques funcionales de la Figura 10, la presencia de
una o más componentes de código en una señal de audio codificada se
detecta estableciendo una amplitud o amplitudes esperadas para la
una o más componentes de código en base a cualquiera o ambos de, el
nivel de la señal de audio y el nivel del ruido de la señal no de
audio como se indica por el bloque funcional 250. Una o más señales
que representan tal amplitud o amplitudes esperadas se suministran,
como en 252 en la Figura 10, para determinar la presencia de la
componente de código detectando una señal correspondiente a la
amplitud o amplitudes esperadas como se indica por el bloque
funcional 254. El aparato de acuerdo con la presente invención está
particularmente bien adaptado para detectar la presencia de
componentes de código que están enmascarados por otras componentes
de la señal de audio ya que la relación de amplitud entre las
componentes de código y las otras componentes de la señal de audio
está, hasta cierto punto, predeterminada.
La Figura 11 es un diagrama de bloques de un
aparato de acuerdo con una realización de la presente invención en
la forma de un decodificador que emplea el procesamiento digital de
señales para extraer códigos de las señales de audio codificadas
recibidas por el decodificador en forma analógica. El decodificador
de la Figura 11 tiene un terminal de entrada 260 para recibir la
señal de audio analógica codificada que puede ser, por ejemplo, una
señal recogida por un micrófono y que incluye difusiones de radio o
televisión reproducidas como sonido por un receptor, u otras tales
como señales de audio analógico codificadas, proporcionadas en la
forma de señales eléctricas directamente desde tal receptor. Tal
audio analógico codificado puede también producirse reproduciendo
una grabación de un sonido tal como un disco compacto o una cinta de
casete. Los circuitos de acondicionamiento analógico 262 se acoplan
con la entrada 260 para recibir el audio analógico codificado y
sirven para realizar una amplificación de la señal, control
automático de ganancia, y filtrado paso bajo de
anti-solapamiento anterior a la conversión de
analógico a digital. Además, los circuitos de acondicionamiento
analógico 262 sirven para realizar la operación de filtrado paso
banda para asegurar que la salida señales está limitada por lo
tanto a un intervalo de frecuencias en el que pueden aparecer las
componentes de código. Los circuitos de acondicionamiento analógico
262 sacan las señales de audio analógico procesadas a un convertidor
de analógico a digital (A/D) 263 que convierte las señales
recibidas a la forma digital y suministra las mismas al procesador
de señales digitales (DSP) 266 que procesa las señales analógicas
digitalizadas para detectar la presencia de componentes de código y
determina los símbolos de código que representan. El procesador de
señales digitales 266 se acopla con la memoria 270 (que comprende
ambas memorias de programa y de almacenamiento de datos) y con
circuitos de entrada/salida (I/O) 272 para recibir comandos externos
(por ejemplo, un comando para iniciar la decodificación o un
comando para sacar los códigos almacenados y sacar los mensajes
decodificados.
A continuación se describirá el funcionamiento
del decodificador digital de la Figura 11 para decodificar las
señales de audio codificadas por medio del aparato de la Figura 3.
Los circuitos de acondicionamiento analógico 262 sirven para
filtrar en paso banda las señales de audio codificadas con una banda
de paso que se extiende desde aproximadamente 1,5 kHz hasta 3,1 kHz
y el DSP 266 muestrea las señales analógica filtradas a una tasa
apropiadamente elevada. A continuación la señal de audio
digitalizada se separa por el DSP 266 en los intervalos de las
componentes de frecuencia o ranuras por el procesamiento de la FFT.
Más específicamente, se realiza una FFT de ventana con
solapamiento, sobre un número predeterminado de los puntos de datos
mas recientes, de modo que se realiza periódicamente una nueva FFT
sobre la recepción de un número suficiente de nuevas muestras. Los
datos se ponderan como se tratará más adelante y se realiza la FFT
para producir un número predeterminado de ranuras de frecuencia
cada una de las cuales tiene un ancho predeterminado. Se calcula la
energía B(i) de cada ranura de frecuencias en un intervalo
que abarca las frecuencias de la componente de código por el DSP
266.
Se realiza una estimación del nivel de ruido
alrededor de cada ranura en la que puede producirse una componente
de código. En consecuencia, cuando se usa el decodificador de la
Figura 11 para decodificar las señales codificadas por la
realización de la Figura 3, hay 40 ranuras de frecuencia dentro de
las cuales puede aparecer una componente de código. Para cada una
de tales ranuras de frecuencia se estima un nivel de ruido como
sigue. En primer lugar, se calcula la energía media E(j) en
las ranuras de frecuencia dentro de una ventana que se extiende en
frecuencia por encima y por debajo de la ranura de frecuencia
particular de interés j (esto es, la ranura en la cual puede
aparecer la componente de código) de acuerdo con la siguiente
relación:
E (j) =
\frac{1}{2w + 1} \sum
B(i)
donde i = ( (j - w) \rightarrow
(j + w) y w representa la extensión de la ventana por encima y por
debajo de la ranura de interés en número de ranuras. A continuación
se estima el nivel de ruido NS (j) en la ranura de frecuencia j de
acuerdo con la siguiente
fórmula:
NS (j) =
(\sumBn(i)) / (\sum\delta
(i))
donde B_{n}(i) es igual a
B(i) (el nivel de energía en la ranura i) si B(i) <
E(j) y de lo contrario B(i) es igual a cero, y
\delta(i)
es igual a 1 si B(i) < E(i) y de lo contrario \delta(i) es igual a cero. Esto es, se asume que las componentes de ruido a incluir las componentes que tienen un nivel menor que el nivel de energía media dentro de la ventana particular que rodea la ranura de interés, y de este modo incluye las componentes de la señal de audio que caen por debajo de tal nivel de energía media.
es igual a 1 si B(i) < E(i) y de lo contrario \delta(i) es igual a cero. Esto es, se asume que las componentes de ruido a incluir las componentes que tienen un nivel menor que el nivel de energía media dentro de la ventana particular que rodea la ranura de interés, y de este modo incluye las componentes de la señal de audio que caen por debajo de tal nivel de energía media.
Una vez que se ha estimado el nivel de ruido
para la ranura de interés, se estima la relación de señal a ruido
para esa ranura SNR (j) dividiendo el nivel de energía B(j)
en la ranura de interés por el nivel de ruido estimado
NS(j). Los valores de SNR (j) se emplean tanto para detectar
la presencia y temporización de los símbolos de sincronización como
los estados de los símbolos de datos, como se tratará más adelante.
Pueden emplearse diversas técnicas para eliminar las componentes de
la señal de audio a partir de la consideración como componentes de
código sobre una base estadística. Por ejemplo, puede asumirse que
la ranura que tiene la proporción de señal a ruido más elevada
incluye una componente de señal de audio. Otra posibilidad es
excluir aquellas ranuras que tienen una SNR (j) por encima de un
valor predeterminado. Aún otra posibilidad es dejar de considerar
aquellas ranuras que tienen las SNR (j) más altas y/o más bajas.
Cuando se usan para detectar la presencia de
códigos en las señales de audio codificadas por medio del aparato
de la Figura 3, el aparato de la Figura 11 acumula datos que indican
la presencia de componentes de código en cada una de las ranuras de
interés repetidamente por al menos una porción mayor del intervalo
predeterminado en el que puede encontrase el símbolo de código. Por
consiguiente, el proceso anterior se repite múltiples veces y los
datos de presencia de componente se acumulan para cada ranura de
interés sobre esa trama de tiempo. Las técnicas para establecer la
detección apropiada de tramas de tiempo en base al uso de los
códigos de sincronización se tratarán con más detalle más adelante
en este documento. Una vez que el DSP 266 ha acumulado tales datos
para la trama de tiempo relevante, a continuación determina cuál de
las posibles señales de código estaba presente en la señal de audio
del modo que se trata más adelante. A continuación el DSP 266
almacena el símbolo de código detectado en la memoria 270 junto con
un sello temporal para identificar el tiempo en el que se detectó
el símbolo en base a una señal de reloj interna del DSP. Después de
esto, en respuesta a un comando apropiado para el DSP 266 recibido
a través del circuito de entrada/salida 272, el DSP hace que la
memoria 270 saque los símbolos de código almacenados y los sellos
temporales a través de los circuitos de entrada/salida 272.
Los diagramas de flujo de las figuras 12A y 12B
ilustran la secuencia de operaciones realizadas por el DSP 266 para
decodificar un símbolo codificado en la señal de audio analógico
recibida en el terminal de entrada 260. Con referencia en primer
lugar a la Figura 12A, una vez que se inicia el proceso de
decodificación, el DSP 266 entra en un bucle del programa principal
en la etapa 450 en el que fija un indicador SYNCH de modo que el
DSP 266 comienza en primer lugar una operación para detectar la
presencia de los símbolo de sincronismo E y S en la señal de audio
de entrada en un orden del mensaje predeterminado. Una vez que se
realiza la etapa 450 el DSP 266 llama una subrutina DET, que se
ilustra en el diagrama de flujo de la Figura 12B para buscar la
presencia de componentes de código que representen los símbolos de
sincronismo en la señal de audio.
\newpage
Refiriéndonos a la Figura 12B, en la etapa 454,
el DSP recoge y almacena muestras de la señal de entrada de audio
repetidamente hasta que se ha almacenado un número suficiente para
realizar la FFT descrita anteriormente. Una vez que se ha logrado
esto, los datos almacenados se sujetan a una función de ponderación,
tal como una función de ponderación del coseno al cuadrado, función
de Kaiser-Bessel, función Gaussian (Poisson),
función de Hanning u otra función de ponderación apropiada, como se
indica por la etapa 456, para poner en ventana los datos. Sin
embargo, cuando las componentes de código son suficientemente
diferentes no se requiere la ponderación. Los datos puestos en la
ventana se someten a continuación a una FFT con solapamiento, como
se indica por la etapa 460.
Una vez que se ha completado la FFT, se
comprueba el indicador SYNCH en la etapa 462 para ver si se ha
puesto a uno (en cuyo caso se espera un símbolo de sincronismo) o
si se ha puesto a cero (en cuyo caso se espera un símbolo de bit de
datos). Como inicialmente el DSP pone a uno el indicador SYNCH para
detectar la presencia de componentes de código que representan
símbolos de sincronismo, el programas progresa a la etapa 466 en la
que se evalúan los datos obtenidos en el dominio de la frecuencia
por medio de la FFT de la etapa 460 para determinar si tales datos
indican la presencia de componentes que representan un símbolo de
sincronismo E o un símbolo de sincronismo S.
Para el propósito de detectar la presencia y
temporización de los símbolos de sincronización, en primer lugar se
determina la suma de los valores de SNR (j) para cada uno de los
posibles símbolos de sincronismo y símbolos de datos. En un
instante determinado durante el proceso de detección de los símbolos
de sincronización, se esperará un símbolo particular. Como primera
etapa en la detección del símbolo esperado, se determina si la suma
de sus valores correspondientes SNR (j) es mayor que cualquiera de
los otros. Si es así, a continuación se establece el umbral de
detección en base a los niveles de ruido en las ranuras de
frecuencia que pueden contener componentes de código. Esto es, como
en cualquier instante determinado, sólo está incluido un símbolo de
código en la señal de audio codificada, sólo un cuarto de las
ranuras de interés contendrán componentes de código. Los restantes
tres cuartos contendrán ruido, esto es, componentes del programa de
audio y/o otra energía extraña. El umbral de detección se produce
como una media de los valores SNR (j) para todas las cuarenta
ranuras de frecuencias de interés, pero puede ajustarse por un
factor de multiplicación para tener en cuenta los efectos del ruido
ambiente y/o compensar una tasa de error observada.
Cuando se ha establecido el umbral de detección
de este modo, se compara la suma de los valores de SNR (j) del
símbolo de sincronización esperado frente el umbral de detección
para determinar si es mayor o no que el umbral. Si es así, se
observa una detección válida del símbolo de sincronización esperado.
Una vez que se ha producido esto, como se indica por la etapa 470,
el programa vuelve al bucle del procesamiento principal de la
Figura 12A en la etapa 472 donde se determina (como se explica más
adelante en este documento) si una trama de datos decodificados
satisface los criterios de calificación predeterminados. En caso
contrario, el procesamiento vuelve a la etapa 450 para comenzar de
nuevo una búsqueda de la presencia de un símbolo de sincronismo en
la señal de audio, pero si tal criterio se cumple, se determina si
la trama de sincronismo esperada (esto es, la secuencia esperada de
símbolos E y S) se ha recibido totalmente y se ha detectado, como se
indica por la etapa 474.
Sin embargo, después del primer paso a través de
la subrutina DET, se han recogido insuficientes datos para
determinar si la trama satisface el criterio de calificación, de
modo que desde la etapa 474, el procesamiento vuelve a la subrutina
DET para realizar una FFT adicional y la evaluación para la
presencia de un símbolo de sincronismo. Una vez que se ha realizado
la subrutina DET un número predeterminado de veces, cuando el
procesamiento vuelve a la etapa 472 el DSP determina si los datos
acumulados satisfacen los criterios de calificación para la trama
de sincronismo.
Esto es, una vez realizada DET tal número
predeterminado de veces, se ha realizado un número correspondiente
de evaluaciones en la etapa 466 de la subrutina DET. El número de
veces que se encontró un símbolo "E" se usa en una realización
como una medida de la cantidad de energía del símbolo "E"
durante el periodo de tiempo correspondiente. Sin embargo, pueden
usarse en cambió otras medidas de la energía del símbolo "E"
(tal como el total de las SNR de la ranura "E" que exceden la
energía media de la ranura). Después de que se llama la subrutina
DET de nuevo y se realiza una evaluación adicional en la etapa 466,
en la etapa 472 se añade la evaluación más reciente a las
acumuladas durante el intervalo predeterminado y la evaluación más
antigua de entre las acumuladas anteriormente se descarta. Este
proceso continúa durante múltiples pases a través de la subrutina
DET y en la etapa 472 se busca un pico en la energía del símbolo
"E". Si no se encuentra tal pico, esto conduce a la
determinación de que no se ha encontrado la trama de sincronismo, de
modo que el procesamiento vuelve desde la etapa 472 a la etapa 450
para poner a uno el indicador SYNCH de nuevo y recomenzar la
búsqueda de la trama de sincronismo.
Sin embargo, si se ha encontrado tal máximo de
la energía de la señal "E", el proceso de evaluación realizado
en la etapa 472 después de la subrutina DET 452 continúa usando cada
vez el mismo número de evaluaciones desde la etapa 466, pero
descartando la evaluación más antigua y añadiendo la más nueva, de
modo que se emplea una ventana de datos deslizante para este
propósito. Como este proceso continúa, después de un número
predeterminado de número de pases en la etapa 472 se determina si
se ha producido un cruce desde el símbolo "E" al símbolo
"S". Esto se determina en una realización como el punto en el
que el total de las SNR de la ranura "S" resultante a partir
de la etapa 466 dentro de la ventana deslizante excede por primera
vez el total de las SNR de la ranura "E" durante el mismo
intervalo. Una vez que se ha encontrado tal punto de cruce, continúa
el procesamiento en el modo descrito anteriormente para buscar un
máximo en la energía del símbolo "S" que se indica por el
mayor número de detecciones de "S" dentro de la ventana de
datos deslizante. Si no se encuentra tal máximo o si el máximo no
se produce dentro de una trama de tiempo esperada después del máximo
de la energía del símbolo "E", el procesamiento continúa desde
la etapa 472 de vuelta a la etapa 450 para comenzar de nuevo la
búsqueda de una trama de sincronismo.
Si se satisfacen los criterios anteriores, se
declara la presencia de una trama de sincronismo en la etapa 474 y
continúa el procesamiento en la etapa 480 para determinar los
intervalos de bit esperados en base a la energía máxima de los
símbolos "E" y "S" y el punto de cruce detectado. En lugar
del procesamiento anterior para detectar la presencia de la trama
de sincronismo, pueden adoptarse otras estrategias. En una
realización adicional, una trama de sincronismo que no satisface
los criterios tales como los descritos anteriormente pero que se
aproxima a la trama de calificación (esto es, la trama detectada no
es claramente de no-calificación), puede posponerse
la determinación de si se ha detectado la trama de sincronismo,
pendiente del análisis adicional en base a las evaluaciones
realizadas (como se explica más adelante en este documento) para
determinar la presencia de los bits de datos en los intervalos de
datos esperados que siguen la trama de sincronismo potencial. En
base a la totalidad de los datos detectados, esto es, tanto durante
el intervalo de la trama de sincronismo sospechada como durante los
intervalos de bits sospechados, puede realizarse una calificación
retrospectiva de la trama de sincronismo posible.
Volviendo al diagrama de flujo de la Figura 12A,
una vez que se ha calificado la trama de sincronismo, en la etapa
480, como se ha observado anteriormente, se determina la
temporización de bit en base a los dos máximos y el punto de cruce.
Esto es, estos valores se promedian para determinar los puntos de
comienzo y de terminación esperados de cada intervalo de bits de
datos posterior. Una vez que se ha realizado esto, en la etapa 482
se pone a cero el indicador SYNCH para indicar que el DSP a
continuación buscará la presencia de cualquier estado de bit
posible. A continuación se llama de nuevo la rutina DET 452 y,
también con referencia a la Figura 12B, se realiza la subrutina de
la misma forma que se ha descrito anteriormente hasta la etapa 462
en la que el estado del indicador SYNCH indica que debería
determinarse el estado de bit y el procesamiento procede a
continuación a la etapa 486. En la etapa 486, el DSP busca la
presencia de componentes de código indicando cualquier estado de
bit cero o estado de bit uno del modo descrito anteriormente en este
documento.
Una vez que se ha realizado esto, en la etapa
470 el procesamiento vuelve al bucle de procesamiento principal de
la Figura 12A en la etapa 490 donde se determina si se han recibido
datos suficientes para determinar el estado de bit. Para hacer
esto, deben hacerse múltiples pases a través de la subrutina 452, de
modo que después el primer pase, el procesamiento vuelve a la
subrutina DET 452 para realizar una evaluación adicional en base a
una nueva FFT. Una vez que se ha realizado la subrutina 452 un
número predeterminado de veces, en la etapa 486 los datos recogidos
de este modo se evalúan para determinar si los datos recibidos
indican o un estado cero, o un estado uno o un estado indeterminado
(que podría resolverse con el uso de los datos de paridad). Esto
es, el total SNR de la ranura "0" se comparan con el total de
SNR de la ranura "1". El que sea mayor determina el estado de
datos, y si son iguales el estado de datos es indeterminado. En la
alternativa, si los SNR de las ranuras "0" y "1" totales
no son iguales pero bastante próximos, puede declararse un estado
de datos indeterminado. También, si se emplean un mayor número de
símbolos de datos, se determina que sea el símbolo recibido el
símbolo para el cual se encuentra la suma de SNR mas elevada.
Cuando el procesamiento vuelve de nuevo a la
etapa 490, se detecta la determinación del estado del bit y el
procesamiento continúa en la etapa 492 en la que el DSP almacena los
datos en la memoria 270 indicando el estado del bit respectivo para
juntar una palabra que tiene un número predeterminado de símbolos
representados por las componentes codificadas en la señal de audio
recibida. Después de esto, en la etapa 496 se determina si los
datos recibidos han proporcionado todos los bits de la palabra o
mensaje codificado. Si no es así, el procesamiento vuelve a la
subrutina DET 452 para determinar el estado de bit del próximo
símbolo de mensaje esperado. Sin embargo, si en la etapa 496 se
determina que se ha recibido el último símbolo del mensaje, el
procesamiento vuelve a la etapa 450 para poner a uno el indicador
SYNCH para buscar la presencia de un nuevo mensaje detectando la
presencia de sus símbolos de sincronismo como se representan por las
componentes de código de la señal de audio codificada.
Con referencia a la Figura 13, en ciertas
realizaciones cualquiera o ambas de las componentes de la señal de
audio no de código u otro ruido (denominados de forma colectiva como
"ruido" en este contexto) se usan para producir un valor de
comparación, tal como un umbral, como se indica por el bloque
funcional 276. Una o más porciones de la señal de audio codificada
se comparan frente al valor de comparación, como se indica por el
bloque funcional 277, para detectar la presencia de componentes de
código. Preferiblemente, la señal de audio codificada se procesa en
primer lugar para aislar componentes dentro de la banda o bandas de
frecuencia que pueden contener componentes de código, y a
continuación éstas se acumulan sobre un periodo de tiempo para
promediar el ruido, como se indica por el bloque funcional 278.
Refiriéndonos ahora a la Figura 14 se ilustra en
la misma en formato de bloques, una realización de un aparato, en
la forma de un decodificador analógico de acuerdo con la presente
invención. El decodificador de la Figura 14 incluye un terminal de
entrada 280 que está acoplado con cuatro grupos de detectores de
componentes 282, 284, 286 y 288. Cada grupo de detectores de
componentes de 282 hasta 288 sirve para detectar la presencia de
componentes de código en la señal de audio de entrada que
representan un símbolo de código respectivo. En la realización de
la Figura 14, el aparato decodificador se dispone para detectar la
presencia de cualquiera de las 4N componentes de código, donde N es
un entero, de modo que el código está comprendido por cuatro
símbolos diferentes representado cada uno por un grupo único de N
componentes de código. Por consiguiente, los cuatro grupos de 282
hasta 288 incluyen 4N detectores de componentes.
Una realización de uno de los 4N detectores de
componentes del grupo de 282 hasta 288 se ilustra en formato de
bloque en la Figura 15 y se identifica en el mismo como un detector
de componentes 290. El detector de componentes 290 tiene una
entrada 292 acoplada con la entrada 280 del decodificador de la
Figura 14 para recibir la señal de audio codificada. El detector de
componentes 290 incluye una rama del circuito superior que tiene un
filtro de estimación del ruido 294 que, en una realización, toma la
forma de un filtro paso banda que tiene una banda de paso
relativamente ancha para pasar la energía de la señal de audio
dentro de una banda centrada sobre la frecuencia de la componente
de código respectiva a detectar. En la alternativa y
preferiblemente, el filtro de estimación del ruido 294 en cambio
incluye dos filtros, uno que tiene una banda de paso que se
extiende desde por encima de la frecuencia de la componente de
código respectiva a detectar y un segundo filtro que tiene una
banda de paso con un límite superior por debajo de la frecuencia de
la componente de código a detectar, de modo que juntos los dos
filtros pasa la energía que tiene las frecuencias por encima y por
debajo (pero sin incluir) la frecuencia de la componente a detectar,
pero dentro de la proximidad en frecuencia de la misma. Una salida
del filtro de estimación de ruido 294 se conecta con una entrada de
un circuito de valor absoluto 296 que produce una señal de salida
que representa el valor absoluto de la salida del filtro de
estimación de ruido 294 a la entrada de un integrador 300 que
acumula las entradas de señal al mismo para producir un valor de
salida que representa la energía de la señal dentro de las porciones
de espectro de frecuencias adyacentes pero sin incluir la
frecuencia de la componente a detectar y saca este valor a una
entrada no inversora de un amplificador diferencial 302 que
funciona como un amplificador logarítmico.
El detector de componentes de la Figura 15
también incluye una rama inferior que incluye un filtro de
estimación de la señal 306 que tiene una entrada acoplada con la
entrada 292 para recibir la señal de audio codificada y servir para
pasar una banda de frecuencias sustancialmente más estrecha que la
banda relativamente ancha del filtro de estimación del ruido 294 de
modo que el filtro de estimación de la señal 306 pasa las
componentes de señal sustancialmente sólo a la frecuencia de la
componente de señal de código respectiva a detectar. El filtro de
estimación de la señal 306 tiene una salida acoplada con una entrada
de un circuito de valor absoluto adicional 308 que sirve para
producir una señal en una salida del mismo que representa un valor
absoluto de la señal pasada por el filtro de estimación de la señal
306. La salida del circuito de valor absoluto 308 está acoplada con
una entrada de un integrador adicional 310. El integrador 310
acumula la salida de valores por el circuito 308 para producir una
señal de salida que representa la energía dentro de la banda de paso
estrecha del filtro de estimación de la señal durante un periodo
predeterminado de tiempo.
Cada uno de los integradores 300 y 310 tiene un
terminal de reset acoplado a una señal de reset común aplicado al
terminal 312. La señal de reset se suministra por el circuito de
control 314 ilustrado en la Figura 14 que produce la señal de reset
periódicamente.
Volviendo a la Figura 15, la salida del
integrador 310 se suministra a una entrada inversora del
amplificador 302 que funciona para producir una seña de salida que
representa la diferencia entre la salida del integrador 310 y la
del integrador 300. Como el amplificador 302 es un amplificador
logarítmico, el intervalo de posibles valores de salida está
comprimido para reducir el rango dinámico de la salida para la
aplicación a un comparador de ventana 316 para detectar la
presencia o ausencia de una componente de código durante un
intervalo determinado como se determina por el circuito de control
314 a través de la aplicación de la señal de reset. El comparador
de ventana saca una señal de presencia de código en el caso de que
la entrada suministrada desde el amplificador 302 caiga entre un
umbral inferior aplicado como un valor fijo al terminal de entrada
del umbral inferior del comparador 316 y un umbral superior fijo
aplicado al terminal de entrada del umbral superior del comparador
316.
Con referencia de nuevo a la Figura 14, cada uno
de los N detectores de componentes 290 de cada grupo de detectores
de componentes acopla la salida de su comparador de ventana
respectivo 316 a una entrada de un circuito lógico de determinación
de código 320. El circuito 320, bajo el control del circuito de
control 314, acumula las diversas señales de presencia de código
desde los 4N circuitos del detector de componentes 290 para un
número múltiple de ciclos de reset como se establece por el
circuito de control 314. Una vez terminado el intervalo para la
detección de un símbolo determinado, establecido como se describe
más adelante en este documento, el circuito lógico de determinación
de código 320 determina qué símbolo de código se recibió como el
símbolo para el cual se detectó el mayor número de componentes
durante el intervalo y saca una señal indicando el símbolo de
código detectado en el terminal de salida 322. La señal de salida
puede almacenarse en memoria, montarse dentro de un mensaje más
largo o un fichero de datos, transmitirse o por el contrario
utilizarse (por ejemplo, como una señal de control).
Los intervalos de detección de símbolos para los
decodificadores descritos anteriormente en conexión con las Figuras
11, 12A, 12B, 14 y 15 pueden establecerse en base a la temporización
de los símbolos de sincronización transmitidos con cada uno de los
mensajes codificados y que tienen una duración y orden
predeterminados. Por ejemplo, un mensaje codificado incluido en una
señal de audio puede comprender dos intervalos de datos del símbolo
codificado E seguido por dos intervalos de datos del símbolo
codificado S, ambos como se ha descrito en conexión con la Figura
4. Los decodificadores de las Figuras 11, 12A, 12B, 14 y 15 son
operativos inicialmente para buscar la presencia del primer símbolo
de sincronización anticipado, esto es, el símbolo codificado E que
se transmite durante un periodo predeterminado y determina su
intervalo de transmisión. Después de esto, los decodificadores
buscan la presencia de las componentes de código que caracterizan el
símbolo S y, cuando se detectan, los decodificadores determinan su
intervalo de transmisión. A partir de los intervalos de transmisión
detectados, se determina el punto de transición desde el símbolo E
hasta el símbolo S y, a partir de este punto, se fijan los
intervalos de detección para cada uno de los símbolos de bit de
datos. Durante cada intervalo de detección, el decodificador
acumula componentes de código para determinar el símbolo respectivo
transmitido durante ese intervalo del modo que se ha descrito
anteriormente.
Aunque los diversos elementos de la realización
de las Figuras 14 y 15 se han implementado por circuitos analógicos,
se apreciará por lo tanto que también pueden implementarse las
mismas funciones, en todo o en parte, por circuitería digital.
Con referencia ahora a las Figuras 16 y 17, se
ilustra un sistema en las mismas para producir estimaciones de
audiencias para una información ampliamente diseminada, tal como los
programas de televisión y radio. La Figura 16 es un diagrama de
bloques de una estación de difusión de radio para difundir señales
de audio en el aire que se han codificado para identificar la
estación junto con el tiempo de difusión. Si se desea, puede
también incluirse la identidad del programa o segmento que se
difunde. Una fuente de un programa de audio 340, tal como un
reproductor de discos compactos, un reproductor de cinta de audio
digital, o una fuente de audio en directo se controla por el gestor
de la estación por medio del aparato de control 342 para sacar
señales de audio de forma controlable para su difusión. Una salida
344 de la fuente del programa de audio se acopla con una entrada de
un codificador 348 de acuerdo con la realización de la Figura 3
incluyendo el DSP 104, el filtro de paso banda 120, el convertidor
de analógico a digital (A/D) 124, el convertidor de digital a
analógico (DAC) 140 y el circuito de suma 142 del mismo. El aparato
de control 342 incluye el procesador principal 90, el teclado 96 y
el monitor 100 de la realización de la Figura 3, de modo que el
procesador del ordenador principal incluido dentro del aparato de
control 342 se acopla con el DSP incluido dentro del codificador
348 de la Figura 16. El codificador 348 es operativo bajo el control
del aparato de control 342 para incluir un mensaje codificado
periódicamente en el audio a transmitir, incluyendo el mensaje los
datos de identificación apropiados. El codificador 348 saca el
audio codificado a la entrada del transmisor de radio 350 que modula
una onda portadora con el programa de audio codificado y transmite
el mismo sobre el aire por medio de una antena 352. El procesador
principal incluido dentro del aparato de control 342 se programa por
medio de un teclado para controlar el codificador para que saque el
mensaje codificado apropiado incluyendo los datos de identificación
de la estación. El procesador principal produce automáticamente los
datos del tiempo de difusión por medio de un circuito de reloj de
referencia en el mismo.
Refiriéndonos también a la Figura 17, el
dispositivo de monitorización personal 380 del sistema está
encerrado por la carcasa 382 que es suficientemente pequeña en
tamaño para que sea transportado por una persona miembro de una
audiencia que participa en una inspección de estimación de la
audiencia. Cada uno de varios miembros de la audiencia se
proporciona con un dispositivo de monitorización personal, tal como
el dispositivo 380, que se transporta por la persona del miembro de
la audiencia durante tiempos especificados de cada día durante el
periodo de inspección, tal como un periodo predeterminado de una
semana. El dispositivo de monitorización personal 380 incluye un
micrófono omni-direccional 386 que recoge sonidos
que están disponibles para el miembro de la audiencia que lleva el
dispositivo 380, incluyendo los programas de radio reproducidos como
sonido por el altavoz de un receptor de radio, tal como el receptor
de radio 390 de la Figura 17.
El dispositivo de monitorización personal 380
también incluye una circuitería de acondicionamiento de la señal
394 que tiene una entrada acoplada con una salida del micrófono 386
y sirve para amplificar su salida y someter la misma a un filtrado
paso banda tanto para atenuar las frecuencias fuera de la banda de
frecuencias de audio incluyendo las diversas componentes de
frecuencia del código incluidas en el programa de audio por el
codificador 348 de la Figura 16 así como para realizar el filtrado
anti-solapamiento preliminar a la conversión de
analógico a digital.
En la Figura 17 se ilustra la circuitería
digital del dispositivo de monitorización personal en forma de un
diagrama de bloques funcional que incluye un bloque decodificador y
un bloque de control ambos de los cuales pueden implementarse, por
ejemplo, por medio de un procesador de señal digital. Una memoria de
programa y de almacenamiento de datos 404 está acoplada tanto con
el decodificador 400 para recibir los códigos detectados para su
almacenamiento así como con el bloque de control 402 para controlar
las operaciones de escritura y lectura de la memoria 404. Un
circuito de entrada/salida (I/O) 406 está acoplado con la memoria
404 para recibir los datos a sacar por el dispositivo de
monitorización personal 380 así como para almacenar la información
tal como las instrucciones del programa en el mismo. El circuito de
entrada/salida 406 está también acoplado con el bloque de control
402 para controlar las operaciones de entrada y salida del
dispositivo 380.
El decodificador 400 funciona de acuerdo con el
decodificador de la Figura 11 que se ha descrito anteriormente en
este documento y saca los datos del código de la identificación de
la estación y del tiempo a almacenar en la memoria 404. El
dispositivo de monitorización personal 380 se proporciona también
con un conector, indicado esquemáticamente en 410, para sacar la
identificación de la estación acumulada en la salida y los datos de
código de tiempo almacenados en la memoria 404 así como para recibir
comandos desde un dispositivo externo.
El dispositivo de monitorización personal 380
preferiblemente es capaz de operar con la estación de conexión como
se describe en la Patente de Estados Unidos Nº 5.483.276. Además, el
dispositivo de monitorización personal 380 preferiblemente se
proporciona con las características adicionales del dispositivo de
monitorización de exposición de difusión portátil que está descrito
también en dicha patente de Estados Unidos Nº 5.483.276.
La estación de conexión comunica a través de un
módem sobre líneas telefónicas con una facilidad de procesamiento
de datos centralizada para cargar hacia arriba los datos de código
de la identificación y del tiempo al mismo para producir informes
concernientes a la audiencia que está viendo y/o escuchando. La
facilidad centralizada puede también descargar la información a la
estación de conexión para su uso y/o para previsión al dispositivo
380, tal como una información de un programa ejecutable. La
facilidad centralizada puede también suministrar información a la
estación de conexión y/o al dispositivo 380 sobre un canal de RF tal
como una difusión de FM codificada con tal información del modo de
la presente invención. La estación de conexión y/o el dispositivo
380 se proporcionan con un receptor de FM (no mostrado por razones
de simplicidad y claridad) que demodula la difusión de FM
codificada para suministrar la misma a un decodificador de acuerdo
con la presente invención. La difusión codificada de FM también
puede suministrarse a través de un cable o de otro medio de
transmisión.
Además de para monitorizar por medio de unidades
de monitorización personales, pueden emplearse unidades
estacionarias (tales como las unidades de decodificación de
televisión digital). Las unidades de decodificación de televisión
digital pueden acoplarse para recibir el audio codificado en forma
eléctrica desde un receptor si no puede emplearse un micrófono tal
como el micrófono 386 de la Figura 17. Las unidades de
decodificación digital pueden monitorizar entonces los canales
seleccionados, con o sin monitorizar también la composición de la
audiencia, con el uso de la presente invención.
Se contempla otras aplicaciones para las
técnicas de decodificación de la presente invención. En una
aplicación, las pistas de sonido de los anuncios comerciales se
proporcionan con códigos de identificación para posibilitar la
monitorización de los anuncios comerciales para asegurar que esos
anuncios se han transmitido (por difusión de radio o televisión o
cualquier otro) en los tiempos acordados.
En aún otras aplicaciones, pueden transmitirse
las señales de control en forma de códigos. En una de tales
aplicaciones, un juguete interactivo recibe y decodifica una señal
de control codificada incluida, en la porción de audio de una
difusión de televisión o radio o en una grabación de sonido y
realiza una acción de respuesta. En otra, se incluyen códigos de
control paternal en porciones de audio de las difusiones de
televisión o radio o en grabaciones de sonido de modo que un
dispositivo receptor o de reproducción, al decodificar tales
códigos, puede realizar la función de control paternal para impedir
selectivamente la recepción o reproducción de difusiones o
grabaciones. También pueden incluirse códigos de control en las
transmisiones telefónicas celulares para restringir el acceso no
autorizado al uso de ID del teléfono celular. En otra aplicación,
los códigos se incluyen con las transmisiones telefónicas para
distinguir las transmisiones de la voz y los datos para controlar
apropiadamente la selección del camino de transmisión para impedir
la corrupción de los datos transmitidos.
Pueden implementarse también diversas funciones
de identificación del transmisor, por ejemplo, para asegurar la
autenticidad de las transmisiones militares y las comunicaciones de
voz con las aeronaves. También se contemplan las aplicaciones de
monitorización. En una de tales aplicaciones los participantes en
estudios de investigación de mercado llevan monitores personales
que reciben mensajes codificados añadidos a la dirección pública o
señales de audio similares en almacenes minoristas o centros
comerciales para grabar la presencia de los participantes. En otra,
los empleados llevan monitores personales que reciben mensajes
codificados añadidos a las señales de audio en el sitio de trabajo
para monitorizar su presencia en las localizaciones asignadas.
También pueden implementarse comunicaciones
seguras con el uso de las técnicas de codificación y decodificación
de la presente invención. En una de tales aplicaciones, las
comunicaciones submarinas pueden realizarse por medio de
codificación y decodificación como se ha descrito en este documento
o asignado niveles a las componentes de código de modo que los
códigos están enmascarados por los sonidos del ambiente submarino o
por una fuentes de sonido que se originan en la localización del
transmisor del código. En otra, las transmisiones seguras de
radio-búsqueda se efectúan incluyendo códigos
enmascarados con otras transmisiones de señales de audio en el aire
para recibir y decodificar por un dispositivo de
radio-búsqueda.
Estas técnicas de codificación y decodificación
también pueden usarse para autentificar las firmas de voz. Por
ejemplo, en una aplicación de pedidos telefónicos, puede compararse
una huella de voz almacenada con una vocalización en directo. Como
otro ejemplo, pueden codificarse datos tales como un número de
seguridad y/o la hora del día y combinarse con un sonido de voz, y
a continuación decodificarse y usarse para controlar
automáticamente el procesamiento del sonido de voz. El dispositivo
de codificación en este escenario puede ser un accesorio para un
teléfono u otro dispositivo de comunicaciones de voz o si no una
unidad fija separada usada cuando el sonido de voz se graba
directamente, sin enviarse sobre las líneas telefónicas o de otra
forma. Una aplicación adicional es la provisión de códigos de
autentificación en una memoria de un teléfono portátil, de modo que
el flujo de voz contiene el código de autenticación, posibilitando
por lo tanto la detección de las transmisiones no autorizadas.
También es posible conseguir una mejor
utilización del ancho de banda del canal de comunicaciones
incluyendo datos en la voz u otras transmisiones de audio. En una
de tales aplicaciones, se incluyen los datos que indican las
lecturas de los instrumentos de una aeronave con las transmisiones
de voz aire-tierra para informar a los
controladores de tierra de una condición operativa de la aeronave
sin necesidad de canales separados de voz y datos. Los niveles de
código se seleccionan de modo que las componentes de código se
enmascaran por las transmisiones de voz de forma que se eliminan
las interferencias con las mismas.
La piratería de cintas, la copia no autorizada
de obras con derechos de autor tales como grabaciones de audio/vídeo
y música pueden detectarse también codificando un número de
identificación único sobre una porción de audio de cada copia
autorizada por medio de la técnica de codificación de la presenta
invención. Si se detecta el número de identificación codificado
desde múltiples copias, es evidente la copia no autorizada.
Una aplicación adicional determina los programas
que se han grabado con el uso de un grabador de vídeo casete que
incorpora un decodificador de acuerdo con la invención. Los
programas de vídeo (tales como programas de entretenimiento,
anuncios, etc.) se codifican en primer lugar con un código de
identificación que identifica el programa. Cuando el grabador de
vídeo casete se sitúa en el modo de grabación, las porciones de
audio de las señales que se están grabando se suministran al
decodificador para detectar los códigos de identificación en el
mismo. Los códigos detectados se almacenan en una memoria del
grabador de vídeo casete para su uso posterior al generar un
informe de uso de la grabación.
Los datos que indican las obras con derechos de
autor que se han difundido por una estación o transmitidas de otra
forma por un proveedor pueden recogerse con el uso de la presente
invención para establecer la responsabilidad de los pagos por
derechos de autor. Las obras se codifican con los respectivos
códigos de identificación que los identifica de forma unívoca. Una
unidad de monitorización provista con las señales de difusión o
transmitidas de otra forma por una o más estaciones o proveedores
proporciona porciones de audio del mismo a un decodificador de
acuerdo con la presente invención que detecta los códigos de
identificación presentes en las mismas. Los códigos detectados se
almacenan en una memoria para su uso al generar un informe a
utilizar para asegurar las responsabilidades de los pagos de
derechos de autor.
Los decodificadores propuestos de acuerdo con la
normativa del Grupo de Expertos de Imágenes Animadas (MPEG) 2 ya
incluyen algunos elementos del procesamiento de expansión acústica
necesarios para extraer datos codificados de acuerdo con la
presente invención, de modo que las técnicas de inhibición de
grabación (por ejemplo, para impedir grabaciones no autorizadas de
obras con derechos de autor) son muy adecuadas para los
decodificadores de MPEG 2. Se proporciona un decodificador
apropiado de acuerdo con la presente invención en el grabador o
como un accesorio para el mismo, y detecta la presencia de un código
de inhibición de copia en el audio suministrado para la grabación.
El grabador responde al código de inhibición detectado de este modo
para inhibir la grabación de las señales de audio correspondientes
y cualesquiera señales adjuntas, tales como una señal de vídeo. La
información de derechos de autor codificada como se describe en este
documento es en banda, no requiere de temporizaciones o
sincronizaciones adicionales, y naturalmente acompaña el material
del programa.
En aún otras aplicaciones adicionales, los
programas transmitido en el aire, difusión por cable o transmitidas
de otra forma, u otros programas grabados en cinta, disco o de otra
forma, incluyen porciones de audio codificadas con señales de
control para su uso por uno o más dispositivos operados por
espectadores u oyentes. Por ejemplo, un programa que representa un
camino que puede hacer un ciclista incluye una porción codificada de
audio de acuerdo con la presente invención con señales de control
para usar por una bicicleta de ejercicio estática para controlar la
resistencia de los pedales o resistencia de acuerdo con la
inclinación aparente del camino representado. Cuando el usuario
pedalea la bicicleta estática, ve el programa en la televisión u
otro monitor y se reproduce como sonido la porción del audio del
programa. Un micrófono en la bicicleta estática traduce el sonido
reproducido y un decodificador de acuerdo con la presente invención
detecta las señales de control en la misma, proporcionando las
mismas a la unidad de control de resistencia del pedal de la
bicicleta de ejercicio.
A partir de lo anterior se apreciará que las
técnicas de la presente invención pueden implementarse en todo o en
parte usando circuitería analógica o digital y que todas o parte de
las funciones de procesamiento de la señal de la misma pueden
realizarse o por circuitos hardware o con el uso de procesadores de
señal digital, microprocesadores, microcomputadores, procesadores
múltiples (por ejemplo, procesadores en paralelo), o similares.
Aunque se han descrito con detalle en este
documento realizaciones específicas de la invención, se entiende
que la invención no está limitada a esas realizaciones precisas, y
que pueden efectuarse diversas modificaciones en la misma por un
especialista en la técnica sin apartarse del alcance de la invención
como se define en las reivindicaciones adjuntas.
Claims (52)
1. Un aparato para detectar un código en una
señal de audio codificada, teniendo la señal de audio codificada
una pluralidad de componentes de frecuencia que incluyen una
pluralidad de componentes de la señal de frecuencia de audio y al
menos una componente de frecuencia de código que tiene una
frecuencia de audio predeterminada y una amplitud seleccionada para
distinguir la, al menos una, componente de frecuencia de código de
la pluralidad de componentes de la señal de frecuencia de audio,
teniendo la componente de frecuencia de código una amplitud y una
frecuencia de audio seleccionada para enmascarar la componente de
frecuencia de código para la audición humana por al menos una
componente de la señal de frecuencia de audio, comprendiendo el
aparato;
un medio (250; 266) para determinar la amplitud
de las componentes de frecuencia de la señal de audio codificada
dentro de un primer intervalo de frecuencias de audio incluyendo la
frecuencia de audio predeterminada de al menos una componente de
frecuencia de código;
un medio (250; 266) para establecer una amplitud
de ruido para el primer intervalo de frecuencias de audio en base a
las amplitudes de los intervalos de frecuencias respectivamente
diferentes de la señal de audio fuera del primer intervalo de
frecuencias de audio que tienen un nivel de amplitud menor que el
nivel medio dentro de un intervalo que rodea la, al menos una,
componente de frecuencia de código; y
un medio (254; 266) para detectar la presencia
de al menos una componente de frecuencia de código en el primer
intervalo de frecuencias de audio en base a la amplitud de ruido
establecido del mismo y la amplitud determinada de las componentes
de frecuencia en el mismo.
2. El aparato de la Reivindicación 1, en el que
el medio (250; 256) para establecer una amplitud de ruido para el
primer intervalo de frecuencias de audio sirve para establecer la
amplitud de ruido en base a las amplitudes de intervalos de
frecuencia que están desplazadas entre sí.
3. El aparato de la Reivindicación 1, en el que
el medio (254; 266) para detectar la presencia de la, al menos una,
componente de frecuencia de código sirve para comparar la amplitud
de las componentes de frecuencia dentro del primer intervalo de
frecuencias con la amplitud del ruido.
4. El aparato de la Reivindicación 3, en el que
el medio (254; 266) para detectar la presencia de la, al menos una,
componente de frecuencia de código sirve para formar una proporción
de señal a ruido de las componentes de frecuencia dentro del primer
Intervalo de frecuencias de audio con la amplitud del ruido.
5. El aparato de la Reivindicación 4, en el que
el medio (254; 266) para detectar la presencia de la, al menos una,
componente de frecuencia de código sirve para comparar la proporción
de señal a ruido con un valor predeterminado.
6. El aparato de la Reivindicación 5, en el que
el medio (254; 266) para detectar la presencia de la, al menos una,
componente de frecuencia de código sirve para eliminar la componente
de frecuencia si su proporción de señal a ruido excede el valor
predeterminado.
7. El aparato de la Reivindicación 1, en el que
el medio (254; 266) para establecer una amplitud de ruido sirve
para establecer la amplitud del ruido en base a las componentes de
frecuencia de la señal de audio en una proximidad de la frecuencia
de audio predeterminada.
8. El aparato de la Reivindicación 7, en el que
el medio (254; 266) para establecer una amplitud de ruido sirve
para establecer la amplitud de ruido en base a una media de las
componentes de frecuencia dentro de la proximidad de la
frecuencia.
9. El aparato de la Reivindicación 7, en el que
el medio (254; 266) para establecer una amplitud de ruido sirve
para establecer la amplitud de ruido en base a una combinación de
componentes de frecuencia dentro de las proximidades de la
frecuencia.
10. El aparato de la Reivindicación 1, que
comprende un medio para separar la señal de audio en una pluralidad
de intervalos de frecuencia que incluyen el primer intervalo de
frecuencias de audio y una pluralidad de intervalos de frecuencia
adicionales dentro de la proximidad de la frecuencia del primer
intervalo de frecuencias de audio, y el medio (282, 284, 286, 288)
para establecer una amplitud de ruido sirve para establecer la
amplitud de ruido en base a las componentes dentro de los
intervalos de frecuencia adicionales.
11. El aparato de la Reivindicación 10, en el
que algunos de la pluralidad de intervalos frecuencias adicionales
incluye frecuencias por encima del primer intervalo de frecuencias
de audio y al menos algunos de la pluralidad de intervalos de
frecuencias adicionales incluyen frecuencias por debajo del primer
intervalo de frecuencias de audio.
12. El aparato de la Reivindicación 11, en el
que el medio para separar la señal de audio en una pluralidad de
intervalos de frecuencias sirve para formar la pluralidad de
intervalos de frecuencia de audio usando una transformada rápida de
Fourier, de modo que la pluralidad de intervalos de frecuencias de
audio comprende ranuras de frecuencias que varían desde (j - w)
hasta (j + w) donde j es el número de ranura del primer intervalo
de frecuencias de audio y w es la extensión de una ventana que se
extiende por encima y por debajo del primer intervalo de
frecuencias de audio.
13. Un aparato (380) para recoger datos para
producir estimaciones de audiencias para una información ampliamente
diseminada que comprende una entrada (386) para recibir una señal
de audio de la información ampliamente diseminada, teniendo la
señal de audio un mensaje de medición de audiencia codificado en el
mismo, y el aparato de la Reivindicación 1 acoplado con la entrada
para recibir y decodificar el mensaje de medición de audiencia en
la señal de audio.
14. El aparato (380) de la Reivindicación 13, en
el que la entrada (386) comprende un micrófono.
15. El aparato (380) de la Reivindicación 13, en
el que la entrada (386) y el aparato de la Reivindicación 1 están
incluidos en un dispositivo de monitorización personal transportable
por una persona de un miembro de la audiencia.
16. El aparato (380) de la Reivindicación 15,
en el que la entrada (386) comprende un micrófono (386).
17. El aparato (380) de la Reivindicación 13,
que comprende un dispositivo de monitorización estacionario que
incluye la entrada (386) y el aparato de la Reivindicación 1.
18. El aparato (380) de la Reivindicación 13, en
el que el mensaje de medición de la audiencia comprende un símbolo
de mensaje que comprende una pluralidad de componentes de frecuencia
de código, y el aparato de la Reivindicación 1 sirve para
decodificar el símbolo del mensaje detectando al menos algunas de
las componentes de frecuencias de código y evaluando las
componentes de frecuencias de código detectadas para detectar el
símbolo del mensaje.
19. El aparato (380) de la Reivindicación 18, en
el que cada componente de la pluralidad de componentes de
frecuencia de código del símbolo del mensaje es un tono que tiene
una frecuencia fija diferente de las otras del mismo.
20. El aparato (380) de la Reivindicación 13,
en el que el mensaje de medición de la audiencia comprende una
pluralidad de símbolos del mensaje dispuestos de forma secuencial en
la señal de audio, comprendiendo cada uno de los símbolos del
mensaje una pluralidad de componentes de frecuencias de código, y en
el que el aparato de la Reivindicación 1 sirve para detectar al
menos algunas de la pluralidad de componentes de frecuencia de
código.
21. El aparato (380) de la Reivindicación 20, en
el que cada componente de la pluralidad de componentes de
frecuencias de código de una pluralidad de símbolos de mensaje es un
tono que tiene una frecuencia fija diferente de las otras del
mismo.
22. El aparato (380) de la Reivindicación 13,
en el que el mensaje de medición de audiencia comprende una
pluralidad de símbolos del mensaje teniendo cada uno una pluralidad
de componentes de frecuencia de código de modo que al menos algunas
de las componentes de frecuencia de código de uno de los símbolos
del mensaje está presente en la señal de audio simultáneamente con
al menos algunas de las componentes de frecuencia de código de
otros símbolos del mensaje, y en el que el aparato de la
Reivindicación 1 sirve para detectar al menos algunas de la
pluralidad de componentes de frecuencias de código.
23. Un ordenador digital que comprende el
aparato de la Reivindicación 1, en el que el aparato corresponde al
ordenador digital, comprendiendo además el ordenador digital:
una entrada (260) para recibir la señal de audio
codificada; y
un procesador (266) acoplado con la entrada
(260) para recibir la señal de audio codificada y programada de
modo que proporciona el medio (266) para determinar la amplitud de
una componente de frecuencia de la señal de audio codificada dentro
de un primer intervalo de frecuencias de audio que incluye la
frecuencia de audio predeterminada de la, al menos una, componente
de frecuencia de código;
el procesador (266) que está además programado
de modo que proporciona el medio (266) para establecer la amplitud
de ruido para el primer intervalo de frecuencias de audio y de este
modo proporcionar el medio (266) para detectar la presencia de la,
al menos una, componente de frecuencia de código en el primer
intervalo de frecuencias de audio en base a la amplitud de ruido
establecido del mismo y la amplitud determinada de la componente de
frecuencia en el mismo; estando el procesador (266) operativo para
producir una señal de salida de código en base a la presencia
detectada de la, al menos una, componente de frecuencia de código; y
un terminal de salida (272) acoplado con el procesador (266) para
proporcionar la señal de código al mismo.
24. Un aparato (380) para recoger datos para
producir estimaciones de audiencias de una información ampliamente
diseminada, que comprende el ordenador digital de la Reivindicación
23, en el que la entrada (386) está acoplada para recibir una señal
de audio de la información ampliamente difundida, teniendo la señal
de audio un mensaje de medición de audiencia codificado en la
misma, y en el que el ordenador digital es operativo para
decodificar el mensaje de medición de audiencia.
25. El aparato (380) de la Reivindicación 24,
que comprende un dispositivo de monitorización personal (380)
transportable por una persona miembro de la audiencia que incluye el
ordenador digital de la Reivindicación 23 y en el que el ordenador
digital comprende además:
una entrada (260) para recibir la señal de audio
codificada; y
un procesador (266) acoplado con la entrada
(260) para recibir la señal de audio codificada y programado de
modo que proporciona el medio (266) para determinar la amplitud de
una componente de frecuencia de la señal de audio codificada dentro
del un primer intervalo de frecuencias de audio que incluyen la
frecuencia de audio predeterminada de la, al menos una, componente
de frecuencia de código:
el procesador (266) que está además programado
de modo que proporciona el medio (266) para establecer una amplitud
de ruido para el primer intervalo de frecuencias de audio y de este
modo para proporcionar el medio (266) para detectar la presencia de
la, al menos una, componente de frecuencia de código en el primer
intervalo de frecuencias de audio en base a la amplitud de ruido
establecido del mismo y la amplitud determinada de la componente de
frecuencia en el mismo; estando operativo el procesador (266) para
producir una señal de salida de código en base a la presencia
detectada de la, al menos una, componente de frecuencia de código;
y un terminal de salida (272) acoplado con el procesador (266) para
proporcionar la señal de código al mismo.
26. El aparato (380) de la Reivindicación 25, en
el que la entrada comprende (386) un micrófono (386).
27. El aparato (380) de la Reivindicación 26,
que comprende un dispositivo de monitorización estacionario (380)
que incluye el ordenador digital de la Reivindicación 23, y en el
que el ordenador digital comprende además;
una entrada (260) para recibir la señal de audio
codificada; y
un procesador (266) acoplado con la entrada
(260) para recibir la señal de audio codificada y programado de
modo que proporciona el medio (266) para determinar una amplitud de
una componente de frecuencia de la señal de audio codificada dentro
de un primer intervalo de frecuencias de audio incluyendo la
frecuencia de audio predeterminada de la, al menos una, componente
de frecuencia de código;
el procesador (266) que está además programado
de modo que proporciona el medio (266) para establecer una amplitud
de ruido para el primer intervalo de frecuencias de audio y de modo
que proporciona el medio (266) para detectar la presencia de la, al
menos una, componente de frecuencia de código en el primer intervalo
de las frecuencias de audio en base a la amplitud de ruido
establecido del mismo y la amplitud determinada de la componente de
frecuencia en el mismo; siendo operativo el procesador (266) para
producir una señal de salida de código en base a la presencia
detectada de la, al menos una, componente de frecuencia de código;
y un terminal de salida (272) acoplado con el procesador (266) para
proporcionar la señal de código al mismo.
28. Un método para detectar un código en una
señal de audio codificada, teniendo la señal de audio codificada
una pluralidad de componentes de frecuencia que incluyen una
pluralidad de componentes de señal de frecuencias de audio y al
menos una componente de frecuencia de código que tiene una
frecuencia de audio predeterminada y una amplitud seleccionada para
distinguir la, al menos una, componente de frecuencia de código de
la pluralidad de componentes de la señal de frecuencia de audio,
teniendo la componente de frecuencia de código una amplitud y una
frecuencia de audio seleccionadas para enmascarar la componente de
frecuencia de código para la audición humana por al menos una
componente de la señal de frecuencias de audio, comprendiendo el
método las etapas de:
determinar una amplitud de una componente de
frecuencia de la señal de audio codificada dentro de un primer
intervalo de frecuencias de audio que incluyen la frecuencia de
audio predeterminada de la, al menos una, componente de frecuencia
de código;
establecer una amplitud de ruido para el primer
intervalo de frecuencias de audio en base a las amplitudes de los
intervalos de frecuencias respectivamente diferentes de la señal de
audio fuera del primer intervalo de frecuencias de audio de
frecuencias de audio que tiene un nivel de amplitud menor que el
nivel medio dentro de un intervalo que rodea la, al menos una,
componente de frecuencia de código; y
detectar la presencia de la, al menos una
componente de frecuencia de código en el primer intervalo de
frecuencias de audio en base a la amplitud de ruido establecido del
mismo y la amplitud determinada de la componente de frecuencia en
el mismo.
29. El método de la Reivindicación 28, en el que
establecer una amplitud de ruido para el primer intervalo de
frecuencias de audio establece la amplitud de ruido en base a las
amplitudes de los intervalos de frecuencia que están desplazados
entre sí.
30. El método de la Reivindicación 29, en el que
detectar la presencia de la, al menos una componente de frecuencia
de código comprende comparar la amplitud de las componentes de
frecuencia dentro del primer intervalo de frecuencias con la
amplitud del ruido.
31. El método de la Reivindicación 30, en el
que comparar la amplitud de las componentes de frecuencias de
código dentro del primer intervalo de frecuencias de audio con la
amplitud de ruido comprende formar una proporción de señal a ruido
de las componentes de frecuencia de código dentro del primer
intervalo de frecuencias de audio con la amplitud del ruido.
32. El método de la Reivindicación 31, en el que
detectar la presencia de la, al menos una, componente de frecuencia
de código comprende comparar la proporción de señal a ruido con un
valor predeterminado.
33. El método de la Reivindicación 32, en el que
detectar la presencia de la, al menos una, componente de frecuencia
de código comprende eliminar la componente de frecuencia si su
proporción de señal a ruido supera un valor predeterminado.
34. El método de la Reivindicación 32, que
comprende establecer la amplitud del ruido en base a las componentes
de frecuencia de la señal de audio en las proximidades en
frecuencia de la frecuencia de audio predeterminada.
35. El método de la Reivindicación 34, que
comprende establecer la amplitud de ruido en base a un promedio de
las componentes de frecuencia dentro de las proximidades de la
frecuencia.
36. El método de la Reivindicación 34, que
comprende establecer la amplitud de ruido en base a una combinación
de componentes de frecuencia dentro de las proximidades de la
frecuencia.
37. El método de la Reivindicación 28, que
comprende separar la señal de audio en una pluralidad de intervalos
de frecuencia incluyendo el primer intervalo de frecuencias de audio
y una pluralidad de intervalos de frecuencia adicionales dentro de
las proximidades en frecuencia del primer intervalo de frecuencia de
audio, y establecer la amplitud de ruido en base a las componentes
dentro de los intervalos de frecuencia adicionales.
38. El método de la Reivindicación 37, en el
que, al menos algunos de la pluralidad de intervalos de frecuencias
adicionales incluyen frecuencias por encima del primer intervalo de
frecuencias de audio y al menos algunos de la pluralidad de
intervalos de frecuencia adicionales incluyen frecuencias por debajo
del primer intervalo de frecuencias de audio.
39. El método de la Reivindicación 38, que
comprende formar la pluralidad de intervalos de frecuencia de audio
usando una transformada rápida de Fourier, y la pluralidad de
intervalos de frecuencia de audio comprende ranuras de frecuencia
que varían desde (j - w) hasta (j + w), donde j es el número de
ranura del primer intervalo de frecuencias de audio y w es la
extensión de una ventana que se extiende por encima y por debajo del
primer intervalo de frecuencias de audio.
40. Un método de recoger datos para producir
estimaciones de audiencias para información ampliamente diseminada,
que comprende decodificar y codificar un mensaje de medición de
audiencia en una señal de audio de la información ampliamente
diseminada usando el método de la Reivindicación 28.
41. El método de la Reivindicación 40, en el que
la información ampliamente diseminada comprende una difusión de
radio.
42. El método de la Reivindicación 40, en el
que la información ampliamente difundida comprende una difusión de
televisión.
43. El método de la Reivindicación 40, que
comprende recibir la señal de audio usando un micrófono.
44. El método de la Reivindicación 40, que
comprende recibir la señal de audio en un dispositivo de
monitorización personal portado por una persona miembro de una
audiencia.
45. El método de la Reivindicación 44, que
comprende recibir la señal de audio usando un micrófono del
dispositivo de monitorización personal.
46. El método de la Reivindicación 45, que
comprende decodificar el mensaje codificado dentro del dispositivo
de monitorización personal usando el método de la Reivindicación
28.
47. El método de la Reivindicación 40, que
comprende recibir la señal de audio en un dispositivo de
monitorización estacionario.
48. El método de la Reivindicación 40, que
comprende decodificar un símbolo de mensaje del mensaje codificado
comprendido por una pluralidad de componentes de frecuencia de
código detectando al menos algunas de las componentes de frecuencia
de código usando el método de la Reivindicación 28 y evaluar las
componentes de frecuencia de código detectadas para detectar el
símbolo de mensaje.
49. El método de la Reivindicación 48, en el que
cada una de la pluralidad de componentes de frecuencia de código
del símbolo de mensaje es un tono que tiene una frecuencia fija
diferentes de todas las otras del mimo.
50. El método de la Reivindicación 40, que
comprende recibir una pluralidad de símbolos de mensaje dispuestos
de forma secuencial en la señal de audio, comprendiendo cada uno de
los símbolos de mensaje una pluralidad de componentes de frecuencia
de código, detectar al menos algunas de la pluralidad de componentes
de frecuencia de código usando el método de la Reivindicación 28, y
evaluar las componentes de frecuencia de código detectadas para
detectar los símbolos del mensaje.
51. El método de la Reivindicación 50, en el que
cada una de la pluralidad de componentes de frecuencia de código de
una pluralidad de símbolos de mensaje es un tono que tiene una
frecuencia fija diferente de las otras del mismo.
52. El método de la Reivindicación 40, que
comprende recibir una pluralidad de símbolos de mensaje
comprendiendo cada uno una pluralidad de componentes de frecuencias
de código de modo que al menos algunas de las componentes de
frecuencia de código de uno de los símbolos de mensaje están
presentes en la señal de audio simultáneamente con al menos algunas
de las componentes de frecuencia de código de otro de los símbolos
del mensaje, detectando al menos algunas de la pluralidad
componentes de frecuencia de código que usan el método de la
Reivindicación 28 y evaluar las componentes de frecuencias de
código detectadas para detectar los símbolos del mensaje.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US08/221,019 US5450490A (en) | 1994-03-31 | 1994-03-31 | Apparatus and methods for including codes in audio signals and decoding |
US221019 | 1994-03-31 | ||
US08/408,010 US5764763A (en) | 1994-03-31 | 1995-03-24 | Apparatus and methods for including codes in audio signals and decoding |
US408010 | 1995-03-24 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2309986T3 true ES2309986T3 (es) | 2008-12-16 |
Family
ID=22826004
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES95914900T Expired - Lifetime ES2309986T3 (es) | 1994-03-31 | 1995-03-27 | Aparato y metodo para incluir codigos en señales de audio y decodificarlos. |
Country Status (9)
Country | Link |
---|---|
US (2) | US5450490A (es) |
EP (1) | EP1978658A3 (es) |
KR (1) | KR970702635A (es) |
CN (1) | CN101425858B (es) |
AT (1) | ATE403290T1 (es) |
DE (1) | DE69535794D1 (es) |
DK (1) | DK0753226T3 (es) |
ES (1) | ES2309986T3 (es) |
PT (1) | PT753226E (es) |
Families Citing this family (430)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6850252B1 (en) | 1999-10-05 | 2005-02-01 | Steven M. Hoffberg | Intelligent electronic appliance system and method |
USRE48056E1 (en) | 1991-12-23 | 2020-06-16 | Blanding Hovenweep, Llc | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
USRE46310E1 (en) | 1991-12-23 | 2017-02-14 | Blanding Hovenweep, Llc | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US8352400B2 (en) | 1991-12-23 | 2013-01-08 | Hoffberg Steven M | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
US10361802B1 (en) | 1999-02-01 | 2019-07-23 | Blanding Hovenweep, Llc | Adaptive pattern recognition based control system and method |
US6400996B1 (en) | 1999-02-01 | 2002-06-04 | Steven M. Hoffberg | Adaptive pattern recognition based control system and method |
US6081750A (en) * | 1991-12-23 | 2000-06-27 | Hoffberg; Steven Mark | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US5903454A (en) * | 1991-12-23 | 1999-05-11 | Hoffberg; Linda Irene | Human-factored interface corporating adaptive pattern recognition based controller apparatus |
USRE47908E1 (en) | 1991-12-23 | 2020-03-17 | Blanding Hovenweep, Llc | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US6418424B1 (en) | 1991-12-23 | 2002-07-09 | Steven M. Hoffberg | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
ES2156456T3 (es) | 1993-11-18 | 2001-06-16 | Digimarc Corp | Control de copia de video con varias señales incrustadas. |
US6983051B1 (en) | 1993-11-18 | 2006-01-03 | Digimarc Corporation | Methods for audio watermarking and decoding |
US7313251B2 (en) | 1993-11-18 | 2007-12-25 | Digimarc Corporation | Method and system for managing and controlling electronic media |
US6611607B1 (en) | 1993-11-18 | 2003-08-26 | Digimarc Corporation | Integrating digital watermarks in multimedia content |
US6580819B1 (en) | 1993-11-18 | 2003-06-17 | Digimarc Corporation | Methods of producing security documents having digitally encoded data and documents employing same |
US5710834A (en) | 1995-05-08 | 1998-01-20 | Digimarc Corporation | Method and apparatus responsive to a code signal conveyed through a graphic image |
US6408082B1 (en) | 1996-04-25 | 2002-06-18 | Digimarc Corporation | Watermark detection using a fourier mellin transform |
US6757406B2 (en) | 1993-11-18 | 2004-06-29 | Digimarc Corporation | Steganographic image processing |
US5636292C1 (en) | 1995-05-08 | 2002-06-18 | Digimarc Corp | Steganography methods employing embedded calibration data |
US5832119C1 (en) | 1993-11-18 | 2002-03-05 | Digimarc Corp | Methods for controlling systems using control signals embedded in empirical data |
US5841886A (en) | 1993-11-18 | 1998-11-24 | Digimarc Corporation | Security system for photographic identification |
US7171016B1 (en) * | 1993-11-18 | 2007-01-30 | Digimarc Corporation | Method for monitoring internet dissemination of image, video and/or audio files |
US6449377B1 (en) | 1995-05-08 | 2002-09-10 | Digimarc Corporation | Methods and systems for watermark processing of line art images |
US5862260A (en) | 1993-11-18 | 1999-01-19 | Digimarc Corporation | Methods for surveying dissemination of proprietary empirical data |
US6516079B1 (en) | 2000-02-14 | 2003-02-04 | Digimarc Corporation | Digital watermark screening and detecting strategies |
US6345104B1 (en) | 1994-03-17 | 2002-02-05 | Digimarc Corporation | Digital watermarks and methods for security documents |
US6944298B1 (en) | 1993-11-18 | 2005-09-13 | Digimare Corporation | Steganographic encoding and decoding of auxiliary codes in media signals |
US5748783A (en) | 1995-05-08 | 1998-05-05 | Digimarc Corporation | Method and apparatus for robust information coding |
US5841978A (en) | 1993-11-18 | 1998-11-24 | Digimarc Corporation | Network linking method using steganographically embedded data objects |
US6424725B1 (en) | 1996-05-16 | 2002-07-23 | Digimarc Corporation | Determining transformations of media signals with embedded code signals |
US6122403A (en) * | 1995-07-27 | 2000-09-19 | Digimarc Corporation | Computer system linked by using information in data objects |
US5748763A (en) | 1993-11-18 | 1998-05-05 | Digimarc Corporation | Image steganography system featuring perceptually adaptive and globally scalable signal embedding |
US5768426A (en) | 1993-11-18 | 1998-06-16 | Digimarc Corporation | Graphics processing system employing embedded code signals |
US5822436A (en) * | 1996-04-25 | 1998-10-13 | Digimarc Corporation | Photographic products and methods employing embedded information |
US6614914B1 (en) * | 1995-05-08 | 2003-09-02 | Digimarc Corporation | Watermark embedder and reader |
US5649284A (en) * | 1993-12-17 | 1997-07-15 | Sony Corporation | Multiplex broadcasting system |
US5682599A (en) * | 1993-12-24 | 1997-10-28 | Sony Corporation | Two-way broadcasting and receiving system with time limit and/or limit data |
US6947571B1 (en) | 1999-05-19 | 2005-09-20 | Digimarc Corporation | Cell phones with optical capabilities, and related applications |
US6522770B1 (en) | 1999-05-19 | 2003-02-18 | Digimarc Corporation | Management of documents and other objects using optical devices |
JPH10500263A (ja) * | 1994-03-31 | 1998-01-06 | セリディアン コーポレイション | 音声信号にコードを含めると共に復号化する装置及び方法 |
US6535618B1 (en) * | 1994-10-21 | 2003-03-18 | Digimarc Corporation | Image capture device with steganographic data embedding |
US7724919B2 (en) * | 1994-10-21 | 2010-05-25 | Digimarc Corporation | Methods and systems for steganographic processing |
US6560349B1 (en) | 1994-10-21 | 2003-05-06 | Digimarc Corporation | Audio monitoring using steganographic information |
US5646997A (en) * | 1994-12-14 | 1997-07-08 | Barton; James M. | Method and apparatus for embedding authentication information within digital data |
US7362775B1 (en) * | 1996-07-02 | 2008-04-22 | Wistaria Trading, Inc. | Exchange mechanisms for digital information packages with bandwidth securitization, multichannel digital watermarks, and key management |
EP1526472A3 (en) | 1995-02-13 | 2006-07-26 | Intertrust Technologies Corp. | Systems and methods for secure transaction management and electronic rights protection |
US5892900A (en) | 1996-08-30 | 1999-04-06 | Intertrust Technologies Corp. | Systems and methods for secure transaction management and electronic rights protection |
US7133846B1 (en) | 1995-02-13 | 2006-11-07 | Intertrust Technologies Corp. | Digital certificate support system, methods and techniques for secure electronic commerce transaction and rights management |
US6157721A (en) | 1996-08-12 | 2000-12-05 | Intertrust Technologies Corp. | Systems and methods using cryptography to protect secure computing environments |
US6658568B1 (en) | 1995-02-13 | 2003-12-02 | Intertrust Technologies Corporation | Trusted infrastructure support system, methods and techniques for secure electronic commerce transaction and rights management |
US5943422A (en) | 1996-08-12 | 1999-08-24 | Intertrust Technologies Corp. | Steganographic techniques for securely delivering electronic digital rights management control information over insecure communication channels |
US6948070B1 (en) | 1995-02-13 | 2005-09-20 | Intertrust Technologies Corporation | Systems and methods for secure transaction management and electronic rights protection |
US5768680A (en) * | 1995-05-05 | 1998-06-16 | Thomas; C. David | Media monitor |
US7054462B2 (en) | 1995-05-08 | 2006-05-30 | Digimarc Corporation | Inferring object status based on detected watermark data |
US7224819B2 (en) | 1995-05-08 | 2007-05-29 | Digimarc Corporation | Integrating digital watermarks in multimedia content |
US6728390B2 (en) | 1995-05-08 | 2004-04-27 | Digimarc Corporation | Methods and systems using multiple watermarks |
US7555139B2 (en) * | 1995-05-08 | 2009-06-30 | Digimarc Corporation | Secure documents with hidden signals, and related methods and systems |
US6721440B2 (en) | 1995-05-08 | 2004-04-13 | Digimarc Corporation | Low visibility watermarks using an out-of-phase color |
US6760463B2 (en) * | 1995-05-08 | 2004-07-06 | Digimarc Corporation | Watermarking methods and media |
FR2734977B1 (fr) * | 1995-06-02 | 1997-07-25 | Telediffusion Fse | Systeme de diffusion de donnees. |
US5613004A (en) | 1995-06-07 | 1997-03-18 | The Dice Company | Steganographic method and device |
US6411725B1 (en) * | 1995-07-27 | 2002-06-25 | Digimarc Corporation | Watermark enabled video objects |
US6965682B1 (en) | 1999-05-19 | 2005-11-15 | Digimarc Corp | Data transmission by watermark proxy |
US8429205B2 (en) | 1995-07-27 | 2013-04-23 | Digimarc Corporation | Associating data with media signals in media signal systems through auxiliary data steganographically embedded in the media signals |
US6505160B1 (en) | 1995-07-27 | 2003-01-07 | Digimarc Corporation | Connected audio and other media objects |
US6408331B1 (en) | 1995-07-27 | 2002-06-18 | Digimarc Corporation | Computer linking methods using encoded graphics |
US7562392B1 (en) | 1999-05-19 | 2009-07-14 | Digimarc Corporation | Methods of interacting with audio and ambient music |
US6829368B2 (en) | 2000-01-26 | 2004-12-07 | Digimarc Corporation | Establishing and interacting with on-line media collections using identifiers in media signals |
US6577746B1 (en) | 1999-12-28 | 2003-06-10 | Digimarc Corporation | Watermark-based object linking and embedding |
US7003731B1 (en) | 1995-07-27 | 2006-02-21 | Digimare Corporation | User control and activation of watermark enabled objects |
US6788800B1 (en) | 2000-07-25 | 2004-09-07 | Digimarc Corporation | Authenticating objects using embedded data |
US5574963A (en) * | 1995-07-31 | 1996-11-12 | Lee S. Weinblatt | Audience measurement during a mute mode |
US6385645B1 (en) | 1995-08-04 | 2002-05-07 | Belle Gate Investments B.V. | Data exchange system comprising portable data processing units |
US5937000A (en) * | 1995-09-06 | 1999-08-10 | Solana Technology Development Corporation | Method and apparatus for embedding auxiliary data in a primary data signal |
US6154484A (en) * | 1995-09-06 | 2000-11-28 | Solana Technology Development Corporation | Method and apparatus for embedding auxiliary data in a primary data signal using frequency and time domain processing |
US5822360A (en) * | 1995-09-06 | 1998-10-13 | Solana Technology Development Corporation | Method and apparatus for transporting auxiliary data in audio signals |
US5687191A (en) * | 1995-12-06 | 1997-11-11 | Solana Technology Development Corporation | Post-compression hidden data transport |
US6205249B1 (en) | 1998-04-02 | 2001-03-20 | Scott A. Moskowitz | Multiple transform utilization and applications for secure digital watermarking |
US7664263B2 (en) | 1998-03-24 | 2010-02-16 | Moskowitz Scott A | Method for combining transfer functions with predetermined key creation |
JP3639663B2 (ja) * | 1996-01-26 | 2005-04-20 | キヤノン株式会社 | 復号化装置 |
US6035177A (en) * | 1996-02-26 | 2000-03-07 | Donald W. Moses | Simultaneous transmission of ancillary and audio signals by means of perceptual coding |
US5901178A (en) * | 1996-02-26 | 1999-05-04 | Solana Technology Development Corporation | Post-compression hidden data transport for video |
US6512796B1 (en) | 1996-03-04 | 2003-01-28 | Douglas Sherwood | Method and system for inserting and retrieving data in an audio signal |
DE19640825C2 (de) * | 1996-03-07 | 1998-07-23 | Fraunhofer Ges Forschung | Codierer zur Einbringung eines nicht hörbaren Datensignals in ein Audiosignal und Decodierer zum decodieren eines nicht hörbar in einem Audiosignal enthaltenen Datensignals |
US6584138B1 (en) | 1996-03-07 | 2003-06-24 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Coding process for inserting an inaudible data signal into an audio signal, decoding process, coder and decoder |
US5987459A (en) * | 1996-03-15 | 1999-11-16 | Regents Of The University Of Minnesota | Image and document management system for content-based retrieval |
US20030056103A1 (en) * | 2000-12-18 | 2003-03-20 | Levy Kenneth L. | Audio/video commerce application architectural framework |
US7715446B2 (en) * | 1996-04-25 | 2010-05-11 | Digimarc Corporation | Wireless methods and devices employing plural-bit data derived from audio information |
US7505605B2 (en) * | 1996-04-25 | 2009-03-17 | Digimarc Corporation | Portable devices and methods employing digital watermarking |
US7412072B2 (en) * | 1996-05-16 | 2008-08-12 | Digimarc Corporation | Variable message coding protocols for encoding auxiliary data in media signals |
US6381341B1 (en) | 1996-05-16 | 2002-04-30 | Digimarc Corporation | Watermark encoding method exploiting biases inherent in original signal |
US5889548A (en) * | 1996-05-28 | 1999-03-30 | Nielsen Media Research, Inc. | Television receiver use metering with separate program and sync detectors |
US5889868A (en) | 1996-07-02 | 1999-03-30 | The Dice Company | Optimization methods for the insertion, protection, and detection of digital watermarks in digitized data |
US6078664A (en) * | 1996-12-20 | 2000-06-20 | Moskowitz; Scott A. | Z-transform implementation of digital watermarks |
US7107451B2 (en) * | 1996-07-02 | 2006-09-12 | Wistaria Trading, Inc. | Optimization methods for the insertion, protection, and detection of digital watermarks in digital data |
US7457962B2 (en) | 1996-07-02 | 2008-11-25 | Wistaria Trading, Inc | Optimization methods for the insertion, protection, and detection of digital watermarks in digitized data |
US7346472B1 (en) | 2000-09-07 | 2008-03-18 | Blue Spike, Inc. | Method and device for monitoring and analyzing signals |
US7095874B2 (en) * | 1996-07-02 | 2006-08-22 | Wistaria Trading, Inc. | Optimization methods for the insertion, protection, and detection of digital watermarks in digitized data |
US7159116B2 (en) | 1999-12-07 | 2007-01-02 | Blue Spike, Inc. | Systems, methods and devices for trusted transactions |
US7177429B2 (en) | 2000-12-07 | 2007-02-13 | Blue Spike, Inc. | System and methods for permitting open access to data objects and for securing data within the data objects |
US6031914A (en) * | 1996-08-30 | 2000-02-29 | Regents Of The University Of Minnesota | Method and apparatus for embedding data, including watermarks, in human perceptible images |
US6272634B1 (en) | 1996-08-30 | 2001-08-07 | Regents Of The University Of Minnesota | Digital watermarking to resolve multiple claims of ownership |
US8131007B2 (en) * | 1996-08-30 | 2012-03-06 | Regents Of The University Of Minnesota | Watermarking using multiple watermarks and keys, including keys dependent on the host signal |
US7366908B2 (en) | 1996-08-30 | 2008-04-29 | Digimarc Corporation | Digital watermarking with content dependent keys and autocorrelation properties for synchronization |
US6061793A (en) * | 1996-08-30 | 2000-05-09 | Regents Of The University Of Minnesota | Method and apparatus for embedding data, including watermarks, in human perceptible sounds |
US6282299B1 (en) | 1996-08-30 | 2001-08-28 | Regents Of The University Of Minnesota | Method and apparatus for video watermarking using perceptual masks |
US6226387B1 (en) | 1996-08-30 | 2001-05-01 | Regents Of The University Of Minnesota | Method and apparatus for scene-based video watermarking |
JP3359251B2 (ja) * | 1996-12-11 | 2002-12-24 | ソニー・テクトロニクス株式会社 | リアルタイム信号アナライザ |
US7730317B2 (en) | 1996-12-20 | 2010-06-01 | Wistaria Trading, Inc. | Linear predictive coding implementation of digital watermarks |
GB9700854D0 (en) * | 1997-01-16 | 1997-03-05 | Scient Generics Ltd | Sub-audible acoustic data transmission mechanism |
US6675383B1 (en) | 1997-01-22 | 2004-01-06 | Nielsen Media Research, Inc. | Source detection apparatus and method for audience measurement |
US5940429A (en) * | 1997-02-25 | 1999-08-17 | Solana Technology Development Corporation | Cross-term compensation power adjustment of embedded auxiliary data in a primary data signal |
JP3690043B2 (ja) * | 1997-03-03 | 2005-08-31 | ソニー株式会社 | 音声情報伝送装置及び方法並びに音声情報記録装置 |
US6125172A (en) * | 1997-04-18 | 2000-09-26 | Lucent Technologies, Inc. | Apparatus and method for initiating a transaction having acoustic data receiver that filters human voice |
US6427012B1 (en) * | 1997-05-19 | 2002-07-30 | Verance Corporation | Apparatus and method for embedding and extracting information in analog signals using replica modulation |
US5940135A (en) * | 1997-05-19 | 1999-08-17 | Aris Technologies, Inc. | Apparatus and method for encoding and decoding information in analog signals |
US5966382A (en) * | 1997-05-30 | 1999-10-12 | 3Com Corporation | Network communications using sine waves |
US6804376B2 (en) | 1998-01-20 | 2004-10-12 | Digimarc Corporation | Equipment employing watermark-based authentication function |
US6145081A (en) * | 1998-02-02 | 2000-11-07 | Verance Corporation | Method and apparatus for preventing removal of embedded information in cover signals |
US6219095B1 (en) * | 1998-02-10 | 2001-04-17 | Wavetek Corporation | Noise measurement system |
US6252532B1 (en) | 1998-02-26 | 2001-06-26 | 3Com Corporation | Programmable compensation and frequency equalization for network systems |
US6389055B1 (en) * | 1998-03-30 | 2002-05-14 | Lucent Technologies, Inc. | Integrating digital data with perceptible signals |
US7756892B2 (en) * | 2000-05-02 | 2010-07-13 | Digimarc Corporation | Using embedded data with file sharing |
US7689532B1 (en) | 2000-07-20 | 2010-03-30 | Digimarc Corporation | Using embedded data with file sharing |
US6773547B2 (en) * | 1998-05-08 | 2004-08-10 | American Air Liquide, Inc. | Process for the bleaching of low consistency pulp using high partial pressure ozone |
BR9810699A (pt) * | 1998-05-12 | 2000-09-05 | Nielsen Media Res Inc | Sistema de medição de audiência de televisão, processo e aparelho para identificar um programa de televisão selecionado por um espectador, e, agente de software armazenado em memória em associação com um equipamento de televisão digital |
US5974299A (en) | 1998-05-27 | 1999-10-26 | Massetti; Enrico Emilio | Audience rating system for digital television and radio |
US7644282B2 (en) | 1998-05-28 | 2010-01-05 | Verance Corporation | Pre-processed information embedding system |
AUPP392498A0 (en) | 1998-06-04 | 1998-07-02 | Innes Corporation Pty Ltd | Traffic verification system |
IL125221A0 (en) | 1998-07-06 | 1999-03-12 | Toy Control Ltd | Motion activation using passive sound source |
US7006555B1 (en) | 1998-07-16 | 2006-02-28 | Nielsen Media Research, Inc. | Spectral audio encoding |
US6272176B1 (en) | 1998-07-16 | 2001-08-07 | Nielsen Media Research, Inc. | Broadcast encoding system and method |
US7953824B2 (en) | 1998-08-06 | 2011-05-31 | Digimarc Corporation | Image sensors worn or attached on humans for imagery identification |
WO2000021203A1 (en) * | 1998-10-02 | 2000-04-13 | Comsense Technologies, Ltd. | A method to use acoustic signals for computer communications |
IL127569A0 (en) | 1998-09-16 | 1999-10-28 | Comsense Technologies Ltd | Interactive toys |
US6607136B1 (en) | 1998-09-16 | 2003-08-19 | Beepcard Inc. | Physical presence digital authentication system |
US7197156B1 (en) | 1998-09-25 | 2007-03-27 | Digimarc Corporation | Method and apparatus for embedding auxiliary information within original data |
US6711540B1 (en) * | 1998-09-25 | 2004-03-23 | Legerity, Inc. | Tone detector with noise detection and dynamic thresholding for robust performance |
US6574334B1 (en) | 1998-09-25 | 2003-06-03 | Legerity, Inc. | Efficient dynamic energy thresholding in multiple-tone multiple frequency detectors |
US7532740B2 (en) | 1998-09-25 | 2009-05-12 | Digimarc Corporation | Method and apparatus for embedding auxiliary information within original data |
US7373513B2 (en) * | 1998-09-25 | 2008-05-13 | Digimarc Corporation | Transmarking of multimedia signals |
AU9367098A (en) * | 1998-09-29 | 2000-04-17 | Sun Microsystems, Inc. | Superposition of data over voice |
US8332478B2 (en) | 1998-10-01 | 2012-12-11 | Digimarc Corporation | Context sensitive connected content |
GB2342548B (en) * | 1998-10-02 | 2003-05-07 | Central Research Lab Ltd | Apparatus for,and method of,encoding a signal |
US7334735B1 (en) | 1998-10-02 | 2008-02-26 | Beepcard Ltd. | Card for interaction with a computer |
US8290202B2 (en) | 1998-11-03 | 2012-10-16 | Digimarc Corporation | Methods utilizing steganography |
US6519769B1 (en) * | 1998-11-09 | 2003-02-11 | General Electric Company | Audience measurement system employing local time coincidence coding |
US7260221B1 (en) | 1998-11-16 | 2007-08-21 | Beepcard Ltd. | Personal communicator authentication |
US6442283B1 (en) | 1999-01-11 | 2002-08-27 | Digimarc Corporation | Multimedia data embedding |
US7904187B2 (en) | 1999-02-01 | 2011-03-08 | Hoffberg Steven M | Internet appliance system and method |
US7664264B2 (en) | 1999-03-24 | 2010-02-16 | Blue Spike, Inc. | Utilizing data reduction in steganographic and cryptographic systems |
US20010034705A1 (en) * | 1999-05-19 | 2001-10-25 | Rhoads Geoffrey B. | Payment-based systems for internet music |
US20020032734A1 (en) | 2000-07-26 | 2002-03-14 | Rhoads Geoffrey B. | Collateral data combined with user characteristics to select web site |
US7406214B2 (en) | 1999-05-19 | 2008-07-29 | Digimarc Corporation | Methods and devices employing optical sensors and/or steganography |
US7261612B1 (en) | 1999-08-30 | 2007-08-28 | Digimarc Corporation | Methods and systems for read-aloud books |
US6871180B1 (en) | 1999-05-25 | 2005-03-22 | Arbitron Inc. | Decoding of information in audio signals |
AU2006203639C1 (en) * | 1999-05-25 | 2009-01-08 | Arbitron Inc. | Decoding of information in audio signals |
AU2004242522B2 (en) * | 1999-05-25 | 2006-05-25 | Arbitron Inc. | Decoding of information in audio signals |
DE69942620D1 (de) * | 1999-06-10 | 2010-09-02 | Belle Gate Invest B V | Vorrichtung zum speichern unterschiedlicher versionen von datensätzen in getrennten datenbereichen uin einem speicher |
GB9917985D0 (en) | 1999-07-30 | 1999-09-29 | Scient Generics Ltd | Acoustic communication system |
US7475246B1 (en) | 1999-08-04 | 2009-01-06 | Blue Spike, Inc. | Secure personal content server |
US7502759B2 (en) | 1999-08-30 | 2009-03-10 | Digimarc Corporation | Digital watermarking methods and related toy and game applications |
US7280970B2 (en) * | 1999-10-04 | 2007-10-09 | Beepcard Ltd. | Sonic/ultrasonic authentication device |
US8019609B2 (en) | 1999-10-04 | 2011-09-13 | Dialware Inc. | Sonic/ultrasonic authentication method |
CA2310769C (en) * | 1999-10-27 | 2013-05-28 | Nielsen Media Research, Inc. | Audio signature extraction and correlation |
US7224995B2 (en) * | 1999-11-03 | 2007-05-29 | Digimarc Corporation | Data entry method and system |
US8391851B2 (en) | 1999-11-03 | 2013-03-05 | Digimarc Corporation | Gestural techniques with wireless mobile phone devices |
US6522746B1 (en) * | 1999-11-03 | 2003-02-18 | Tellabs Operations, Inc. | Synchronization of voice boundaries and their use by echo cancellers in a voice processing system |
AU777437B2 (en) * | 1999-12-07 | 2004-10-14 | Sun Microsystems, Inc. | Secure photo carrying identification device, as well as means and method for authenticating such an identification device |
ATE378679T1 (de) | 1999-12-07 | 2007-11-15 | Sun Microsystems Inc | Computerlesbares medium mit mikroprozessor zur lesesteuerung und computeranordnung zur kommunikation mit einem derartigen medium |
US6625297B1 (en) | 2000-02-10 | 2003-09-23 | Digimarc Corporation | Self-orienting watermarks |
US6760276B1 (en) * | 2000-02-11 | 2004-07-06 | Gerald S. Karr | Acoustic signaling system |
US6737957B1 (en) | 2000-02-16 | 2004-05-18 | Verance Corporation | Remote control signaling using audio watermarks |
EP1275107A4 (en) * | 2000-02-18 | 2005-09-21 | Intervideo Inc | CONNECT INTERNET DOCUMENTS WITH COMPRESSED AUDIO FILES |
US7127744B2 (en) * | 2000-03-10 | 2006-10-24 | Digimarc Corporation | Method and apparatus to protect media existing in an insecure format |
US8091025B2 (en) | 2000-03-24 | 2012-01-03 | Digimarc Corporation | Systems and methods for processing content objects |
US6968564B1 (en) * | 2000-04-06 | 2005-11-22 | Nielsen Media Research, Inc. | Multi-band spectral audio encoding |
US6891959B2 (en) | 2000-04-19 | 2005-05-10 | Digimarc Corporation | Hiding information out-of-phase in color channels |
US6804377B2 (en) | 2000-04-19 | 2004-10-12 | Digimarc Corporation | Detecting information hidden out-of-phase in color channels |
US7466742B1 (en) | 2000-04-21 | 2008-12-16 | Nielsen Media Research, Inc. | Detection of entropy in connection with audio signals |
US7305104B2 (en) | 2000-04-21 | 2007-12-04 | Digimarc Corporation | Authentication of identification documents using digital watermarks |
US20020049967A1 (en) * | 2000-07-01 | 2002-04-25 | Haseltine Eric C. | Processes for exploiting electronic tokens to increase broadcasting revenue |
US6879652B1 (en) * | 2000-07-14 | 2005-04-12 | Nielsen Media Research, Inc. | Method for encoding an input signal |
KR100716039B1 (ko) | 2000-07-20 | 2007-05-08 | 벨 게이트 인베스트먼트 비. 브이. | 통신 장치의 방법 및 시스템과 보호된 데이터 전송을 위한장치 |
US6674876B1 (en) | 2000-09-14 | 2004-01-06 | Digimarc Corporation | Watermarking in the time-frequency domain |
US7127615B2 (en) | 2000-09-20 | 2006-10-24 | Blue Spike, Inc. | Security based on subliminal and supraliminal channels for data objects |
WO2002033954A2 (en) | 2000-10-17 | 2002-04-25 | Digimarc Corporation | User control and activation of watermark enabled objects |
WO2002056139A2 (en) * | 2000-10-26 | 2002-07-18 | Digimarc Corporation | Method and system for internet access |
ATE411658T1 (de) * | 2000-11-30 | 2008-10-15 | Intrasonics Ltd | Vorrichtung und system zum verwenden eines in einem akustischen signal integrierten datensignals |
AU2211102A (en) | 2000-11-30 | 2002-06-11 | Scient Generics Ltd | Acoustic communication system |
US7266704B2 (en) * | 2000-12-18 | 2007-09-04 | Digimarc Corporation | User-friendly rights management systems and methods |
US8055899B2 (en) | 2000-12-18 | 2011-11-08 | Digimarc Corporation | Systems and methods using digital watermarking and identifier extraction to provide promotional opportunities |
US6965683B2 (en) | 2000-12-21 | 2005-11-15 | Digimarc Corporation | Routing networks for use with watermark systems |
US20020114299A1 (en) * | 2000-12-27 | 2002-08-22 | Daozheng Lu | Apparatus and method for measuring tuning of a digital broadcast receiver |
US8477958B2 (en) | 2001-02-26 | 2013-07-02 | 777388 Ontario Limited | Networked sound masking system |
US9219708B2 (en) | 2001-03-22 | 2015-12-22 | DialwareInc. | Method and system for remotely authenticating identification devices |
US8050452B2 (en) * | 2001-03-22 | 2011-11-01 | Digimarc Corporation | Quantization-based data embedding in mapped data |
US7376242B2 (en) * | 2001-03-22 | 2008-05-20 | Digimarc Corporation | Quantization-based data embedding in mapped data |
DE10115733A1 (de) * | 2001-03-30 | 2002-11-21 | Fraunhofer Ges Forschung | Verfahren und Vorrichtung zum Ermitteln von in ein Audiosignal eingebrachten Informationen und Verfahren und Vorrichtung zum Einbringen von Informationen in ein Audiosignal |
US7159118B2 (en) * | 2001-04-06 | 2007-01-02 | Verance Corporation | Methods and apparatus for embedding and recovering watermarking information based on host-matching codes |
US7822969B2 (en) * | 2001-04-16 | 2010-10-26 | Digimarc Corporation | Watermark systems and methods |
US7046819B2 (en) | 2001-04-25 | 2006-05-16 | Digimarc Corporation | Encoded reference signal for digital watermarks |
US7024018B2 (en) * | 2001-05-11 | 2006-04-04 | Verance Corporation | Watermark position modulation |
US8572640B2 (en) * | 2001-06-29 | 2013-10-29 | Arbitron Inc. | Media data use measurement with remote decoding/pattern matching |
US6963543B2 (en) | 2001-06-29 | 2005-11-08 | Qualcomm Incorporated | Method and system for group call service |
US20050086697A1 (en) * | 2001-07-02 | 2005-04-21 | Haseltine Eric C. | Processes for exploiting electronic tokens to increase broadcasting revenue |
US20040030900A1 (en) * | 2001-07-13 | 2004-02-12 | Clark James R. | Undetectable watermarking technique for audio media |
US6862355B2 (en) * | 2001-09-07 | 2005-03-01 | Arbitron Inc. | Message reconstruction from partial detection |
US20030070179A1 (en) * | 2001-10-04 | 2003-04-10 | Ritz Peter B. | System and method for connecting end user with application based on broadcast code |
US6724914B2 (en) * | 2001-10-16 | 2004-04-20 | Digimarc Corporation | Progressive watermark decoding on a distributed computing platform |
ATE376293T1 (de) * | 2001-10-17 | 2007-11-15 | Koninkl Philips Electronics Nv | Vorrichtung zur kodierung von hilfsinformationen in einem signal |
US7117513B2 (en) * | 2001-11-09 | 2006-10-03 | Nielsen Media Research, Inc. | Apparatus and method for detecting and correcting a corrupted broadcast time code |
US7006662B2 (en) * | 2001-12-13 | 2006-02-28 | Digimarc Corporation | Reversible watermarking using expansion, rate control and iterative embedding |
ATE509326T1 (de) | 2001-12-18 | 2011-05-15 | L 1 Secure Credentialing Inc | Mehrfachbildsicherheitsmerkmale zur identifikation von dokumenten und verfahren zu ihrer herstellung |
EP1459239B1 (en) | 2001-12-24 | 2012-04-04 | L-1 Secure Credentialing, Inc. | Covert variable information on id documents and methods of making same |
ATE555911T1 (de) | 2001-12-24 | 2012-05-15 | L 1 Secure Credentialing Inc | Verfahren zur vollfarb-markierung von id- dokumenten |
US8248528B2 (en) * | 2001-12-24 | 2012-08-21 | Intrasonics S.A.R.L. | Captioning system |
US7694887B2 (en) | 2001-12-24 | 2010-04-13 | L-1 Secure Credentialing, Inc. | Optically variable personalized indicia for identification documents |
US7728048B2 (en) | 2002-12-20 | 2010-06-01 | L-1 Secure Credentialing, Inc. | Increasing thermal conductivity of host polymer used with laser engraving methods and compositions |
US20030131350A1 (en) | 2002-01-08 | 2003-07-10 | Peiffer John C. | Method and apparatus for identifying a digital audio signal |
US6647252B2 (en) * | 2002-01-18 | 2003-11-11 | General Instrument Corporation | Adaptive threshold algorithm for real-time wavelet de-noising applications |
US7076659B2 (en) | 2002-02-25 | 2006-07-11 | Matsushita Electric Industrial Co., Ltd. | Enhanced method for digital data hiding |
US7181159B2 (en) | 2002-03-07 | 2007-02-20 | Breen Julian H | Method and apparatus for monitoring audio listening |
US8278432B2 (en) * | 2002-03-29 | 2012-10-02 | Innogenetics N.V. | HBV drug resistance methods |
US7287275B2 (en) | 2002-04-17 | 2007-10-23 | Moskowitz Scott A | Methods, systems and devices for packet watermarking and efficient provisioning of bandwidth |
US7824029B2 (en) | 2002-05-10 | 2010-11-02 | L-1 Secure Credentialing, Inc. | Identification card printer-assembler for over the counter card issuing |
US20060031111A9 (en) * | 2002-05-30 | 2006-02-09 | Whymark Thomas J | Multi-market broadcast tracking, management and reporting method and system |
US7624409B2 (en) * | 2002-05-30 | 2009-11-24 | The Nielsen Company (Us), Llc | Multi-market broadcast tracking, management and reporting method and system |
US7039931B2 (en) * | 2002-05-30 | 2006-05-02 | Nielsen Media Research, Inc. | Multi-market broadcast tracking, management and reporting method and system |
DE10227431A1 (de) * | 2002-06-20 | 2004-05-19 | Castel Gmbh | Nachrichtenübermittlungssystem |
US7460827B2 (en) * | 2002-07-26 | 2008-12-02 | Arbitron, Inc. | Radio frequency proximity detection and identification system and method |
US7239981B2 (en) | 2002-07-26 | 2007-07-03 | Arbitron Inc. | Systems and methods for gathering audience measurement data |
US9711153B2 (en) | 2002-09-27 | 2017-07-18 | The Nielsen Company (Us), Llc | Activating functions in processing devices using encoded audio and detecting audio signatures |
US8959016B2 (en) | 2002-09-27 | 2015-02-17 | The Nielsen Company (Us), Llc | Activating functions in processing devices using start codes embedded in audio |
US20130138231A1 (en) * | 2011-11-30 | 2013-05-30 | Arbitron, Inc. | Apparatus, system and method for activating functions in processing devices using encoded audio |
US20120203363A1 (en) * | 2002-09-27 | 2012-08-09 | Arbitron, Inc. | Apparatus, system and method for activating functions in processing devices using encoded audio and audio signatures |
US7222071B2 (en) * | 2002-09-27 | 2007-05-22 | Arbitron Inc. | Audio data receipt/exposure measurement with code monitoring and signature extraction |
US20060107195A1 (en) * | 2002-10-02 | 2006-05-18 | Arun Ramaswamy | Methods and apparatus to present survey information |
EP1552454B1 (en) | 2002-10-15 | 2014-07-23 | Verance Corporation | Media monitoring, management and information system |
WO2004036762A2 (en) * | 2002-10-16 | 2004-04-29 | Mazetech Co., Ltd. | Encryption processing method and device of a voice signal |
MXPA05004231A (es) | 2002-10-23 | 2005-07-05 | Nielsen Media Res Inc | Aparato para la insercion de datos digitales, y metodos para utilizarlo con audio/video comprimidos. |
US6845360B2 (en) * | 2002-11-22 | 2005-01-18 | Arbitron Inc. | Encoding multiple messages in audio data and detecting same |
AU2003298731A1 (en) | 2002-11-26 | 2004-06-18 | Digimarc Id Systems | Systems and methods for managing and detecting fraud in image databases used with identification documents |
US7712673B2 (en) | 2002-12-18 | 2010-05-11 | L-L Secure Credentialing, Inc. | Identification document with three dimensional image of bearer |
US7174151B2 (en) * | 2002-12-23 | 2007-02-06 | Arbitron Inc. | Ensuring EAS performance in audio signal encoding |
US7483835B2 (en) * | 2002-12-23 | 2009-01-27 | Arbitron, Inc. | AD detection using ID code and extracted signature |
US20040220862A1 (en) * | 2003-01-09 | 2004-11-04 | Jackson E. T. | Multiview selective listening system |
US8027482B2 (en) * | 2003-02-13 | 2011-09-27 | Hollinbeck Mgmt. Gmbh, Llc | DVD audio encoding using environmental audio tracks |
CA2522551C (en) | 2003-04-16 | 2009-12-22 | Digimarc Corporation | Three dimensional data storage |
US7460684B2 (en) * | 2003-06-13 | 2008-12-02 | Nielsen Media Research, Inc. | Method and apparatus for embedding watermarks |
WO2005006768A1 (en) | 2003-06-20 | 2005-01-20 | Nielsen Media Research, Inc | Signature-based program identification apparatus and methods for use with digital broadcast systems |
KR20050028193A (ko) * | 2003-09-17 | 2005-03-22 | 삼성전자주식회사 | 오디오 신호에 적응적으로 부가 정보를 삽입하기 위한방법, 오디오 신호에 삽입된 부가 정보의 재생 방법, 및그 장치와 이를 구현하기 위한 프로그램이 기록된 기록 매체 |
CN1839657B (zh) | 2003-10-07 | 2011-11-23 | 尼尔逊媒介研究股份有限公司 | 从多个通道提取码的方法和设备 |
US20060239501A1 (en) | 2005-04-26 | 2006-10-26 | Verance Corporation | Security enhancements of digital watermarks for multi-media content |
US7369677B2 (en) | 2005-04-26 | 2008-05-06 | Verance Corporation | System reactions to the detection of embedded watermarks in a digital host content |
US20070039018A1 (en) * | 2005-08-09 | 2007-02-15 | Verance Corporation | Apparatus, systems and methods for broadcast advertising stewardship |
US9055239B2 (en) | 2003-10-08 | 2015-06-09 | Verance Corporation | Signal continuity assessment using embedded watermarks |
KR100560429B1 (ko) * | 2003-12-17 | 2006-03-13 | 한국전자통신연구원 | 비선형 양자화를 이용한 워터마킹 장치 및 그 방법 |
US7231271B2 (en) * | 2004-01-21 | 2007-06-12 | The United States Of America As Represented By The Secretary Of The Air Force | Steganographic method for covert audio communications |
US7744002B2 (en) | 2004-03-11 | 2010-06-29 | L-1 Secure Credentialing, Inc. | Tamper evident adhesive and identification document including same |
US7463143B2 (en) * | 2004-03-15 | 2008-12-09 | Arbioran | Methods and systems for gathering market research data within commercial establishments |
US20050203798A1 (en) * | 2004-03-15 | 2005-09-15 | Jensen James M. | Methods and systems for gathering market research data |
US8229469B2 (en) | 2004-03-15 | 2012-07-24 | Arbitron Inc. | Methods and systems for mapping locations of wireless transmitters for use in gathering market research data |
US7420464B2 (en) * | 2004-03-15 | 2008-09-02 | Arbitron, Inc. | Methods and systems for gathering market research data inside and outside commercial establishments |
DK1776688T3 (da) | 2004-03-19 | 2013-06-10 | Arbitron Inc | Indsamle data vedrørende brug af en publikation |
US8738763B2 (en) | 2004-03-26 | 2014-05-27 | The Nielsen Company (Us), Llc | Research data gathering with a portable monitor and a stationary device |
US7483975B2 (en) | 2004-03-26 | 2009-01-27 | Arbitron, Inc. | Systems and methods for gathering data concerning usage of media data |
WO2005099385A2 (en) * | 2004-04-07 | 2005-10-27 | Nielsen Media Research, Inc. | Data insertion apparatus and methods for use with compressed audio/video data |
US8135606B2 (en) | 2004-04-15 | 2012-03-13 | Arbitron, Inc. | Gathering data concerning publication usage and exposure to products and/or presence in commercial establishment |
US20050281293A1 (en) * | 2004-06-22 | 2005-12-22 | Bushlow Robert J | Detecting and logging triggered events in a data stream |
US8140848B2 (en) * | 2004-07-01 | 2012-03-20 | Digimarc Corporation | Digital watermark key generation |
CN102592638A (zh) | 2004-07-02 | 2012-07-18 | 尼尔逊媒介研究股份有限公司 | 用于进行压缩数字位流的混合的方法及装置 |
WO2006023770A2 (en) * | 2004-08-18 | 2006-03-02 | Nielsen Media Research, Inc. | Methods and apparatus for generating signatures |
US7623823B2 (en) * | 2004-08-31 | 2009-11-24 | Integrated Media Measurement, Inc. | Detecting and measuring exposure to media content items |
US7388512B1 (en) | 2004-09-03 | 2008-06-17 | Daniel F. Moorer, Jr. | Diver locating method and apparatus |
US20060111183A1 (en) * | 2004-11-03 | 2006-05-25 | Peter Maclver | Remote control |
US8277297B2 (en) | 2004-11-03 | 2012-10-02 | Mattel, Inc. | Gaming system |
US20060111166A1 (en) * | 2004-11-03 | 2006-05-25 | Peter Maclver | Gaming system |
US8382567B2 (en) | 2004-11-03 | 2013-02-26 | Mattel, Inc. | Interactive DVD gaming systems |
US7331857B2 (en) * | 2004-11-03 | 2008-02-19 | Mattel, Inc. | Gaming system |
US20060175753A1 (en) * | 2004-11-23 | 2006-08-10 | Maciver Peter | Electronic game board |
US20060167458A1 (en) * | 2005-01-25 | 2006-07-27 | Lorenz Gabele | Lock and release mechanism for a sternal clamp |
US20060224798A1 (en) * | 2005-02-22 | 2006-10-05 | Klein Mark D | Personal music preference determination based on listening behavior |
US20070016918A1 (en) * | 2005-05-20 | 2007-01-18 | Alcorn Allan E | Detecting and tracking advertisements |
US20060287028A1 (en) * | 2005-05-23 | 2006-12-21 | Maciver Peter | Remote game device for dvd gaming systems |
US8020004B2 (en) | 2005-07-01 | 2011-09-13 | Verance Corporation | Forensic marking using a common customization function |
US8781967B2 (en) | 2005-07-07 | 2014-07-15 | Verance Corporation | Watermarking in an encrypted domain |
WO2007035817A2 (en) * | 2005-09-20 | 2007-03-29 | Celodata, Inc. | A method, system and program product for the insertion and retrieval of identifying artifacts in transmitted lossy and lossless data |
US8566857B2 (en) * | 2005-09-20 | 2013-10-22 | Forefront Assets Limited Liability Company | Method, system and program product for broadcast advertising and other broadcast content performance verification utilizing digital artifacts |
US8566858B2 (en) * | 2005-09-20 | 2013-10-22 | Forefront Assets Limited Liability Company | Method, system and program product for broadcast error protection of content elements utilizing digital artifacts |
US8966517B2 (en) | 2005-09-20 | 2015-02-24 | Forefront Assets Limited Liability Company | Method, system and program product for broadcast operations utilizing internet protocol and digital artifacts |
ATE478485T1 (de) | 2005-10-21 | 2010-09-15 | Nielsen Media Res Inc | Audiometer in einem tragbaren mp3 media-player headset. |
US20070178966A1 (en) * | 2005-11-03 | 2007-08-02 | Kip Pohlman | Video game controller with expansion panel |
US20070213111A1 (en) * | 2005-11-04 | 2007-09-13 | Peter Maclver | DVD games |
US9015740B2 (en) | 2005-12-12 | 2015-04-21 | The Nielsen Company (Us), Llc | Systems and methods to wirelessly meter audio/visual devices |
WO2007070789A2 (en) * | 2005-12-12 | 2007-06-21 | Nielsen Media Research, Inc. | Systems and methods to wirelessly meter audio/visual devices |
EP1977359A4 (en) * | 2005-12-20 | 2010-08-25 | Arbitron Inc | METHOD AND SYSTEMS FOR LEADING RESEARCH OPERATIONS |
WO2007126992A2 (en) | 2006-03-27 | 2007-11-08 | Nielsen Media Research, Inc. | Methods and systems to meter media content presented on a wireless communication device |
JP4573792B2 (ja) * | 2006-03-29 | 2010-11-04 | 富士通株式会社 | ユーザ認証システム、不正ユーザ判別方法、およびコンピュータプログラム |
WO2007146876A2 (en) | 2006-06-15 | 2007-12-21 | The Nielsen Company | Methods and apparatus to meter content exposure using closed caption information |
US8019162B2 (en) * | 2006-06-20 | 2011-09-13 | The Nielsen Company (Us), Llc | Methods and apparatus for detecting on-screen media sources |
JP5319527B2 (ja) | 2006-07-12 | 2013-10-16 | アービトロン インコーポレイテッド | 順守確認および奨励方法およびシステム |
EP2958106B1 (en) | 2006-10-11 | 2018-07-18 | The Nielsen Company (US), LLC | Methods and apparatus for embedding codes in compressed audio data streams |
EP1933482A1 (en) * | 2006-12-13 | 2008-06-18 | Taylor Nelson Sofres Plc | audience measurement system, fixed and portable monitoring devices |
US10885543B1 (en) | 2006-12-29 | 2021-01-05 | The Nielsen Company (Us), Llc | Systems and methods to pre-scale media content to facilitate audience measurement |
AU2014227513B2 (en) * | 2007-01-25 | 2016-08-25 | Arbitron Inc. | Research data gathering |
CA3144408C (en) | 2007-01-25 | 2023-07-25 | Arbitron Inc. | Research data gathering |
CN103138862B (zh) | 2007-02-20 | 2016-06-01 | 尼尔森(美国)有限公司 | 创建表示媒体的签名的装置和方法 |
US10489795B2 (en) * | 2007-04-23 | 2019-11-26 | The Nielsen Company (Us), Llc | Determining relative effectiveness of media content items |
EP2156583B1 (en) | 2007-05-02 | 2018-06-06 | The Nielsen Company (US), LLC | Methods and apparatus for generating signatures |
US20080293453A1 (en) * | 2007-05-25 | 2008-11-27 | Scott J. Atlas | Method and apparatus for an audio-linked remote indicator for a wireless communication device |
US20090060257A1 (en) * | 2007-08-29 | 2009-03-05 | Korea Advanced Institute Of Science And Technology | Watermarking method resistant to geometric attack in wavelet transform domain |
US20090094631A1 (en) * | 2007-10-01 | 2009-04-09 | Whymark Thomas J | Systems, apparatus and methods to associate related market broadcast detections with a multi-market media broadcast |
AU2008308442B2 (en) | 2007-10-06 | 2015-01-22 | Arbitron, Inc. | Gathering research data |
CA2705549C (en) | 2007-11-12 | 2015-12-01 | The Nielsen Company (Us), Llc | Methods and apparatus to perform audio watermarking and watermark detection and extraction |
AU2008347134A1 (en) | 2007-12-31 | 2009-07-16 | Arbitron, Inc. | Survey data acquisition |
US8930003B2 (en) | 2007-12-31 | 2015-01-06 | The Nielsen Company (Us), Llc | Data capture bridge |
US8701136B2 (en) | 2008-01-07 | 2014-04-15 | Nielsen Company (Us), Llc | Methods and apparatus to monitor, verify, and rate the performance of airings of commercials |
US8457951B2 (en) | 2008-01-29 | 2013-06-04 | The Nielsen Company (Us), Llc | Methods and apparatus for performing variable black length watermarking of media |
CN102982810B (zh) * | 2008-03-05 | 2016-01-13 | 尼尔森(美国)有限公司 | 生成签名的方法和装置 |
EP2262683B1 (en) * | 2008-03-07 | 2017-06-28 | Adams Rite Aerospace | Rapid decompression detection system and method |
GB2460306B (en) | 2008-05-29 | 2013-02-13 | Intrasonics Sarl | Data embedding system |
US8666086B2 (en) | 2008-06-06 | 2014-03-04 | 777388 Ontario Limited | System and method for monitoring/controlling a sound masking system from an electronic floorplan |
US20090307061A1 (en) * | 2008-06-10 | 2009-12-10 | Integrated Media Measurement, Inc. | Measuring Exposure To Media |
US20090307084A1 (en) * | 2008-06-10 | 2009-12-10 | Integrated Media Measurement, Inc. | Measuring Exposure To Media Across Multiple Media Delivery Mechanisms |
US8259938B2 (en) | 2008-06-24 | 2012-09-04 | Verance Corporation | Efficient and secure forensic marking in compressed |
JP5582508B2 (ja) * | 2008-08-14 | 2014-09-03 | エスケーテレコム株式会社 | データ送信装置、データ受信装置、データ送信方法、及びデータ受信方法 |
US8359205B2 (en) | 2008-10-24 | 2013-01-22 | The Nielsen Company (Us), Llc | Methods and apparatus to perform audio watermarking and watermark detection and extraction |
US9667365B2 (en) | 2008-10-24 | 2017-05-30 | The Nielsen Company (Us), Llc | Methods and apparatus to perform audio watermarking and watermark detection and extraction |
US8121830B2 (en) * | 2008-10-24 | 2012-02-21 | The Nielsen Company (Us), Llc | Methods and apparatus to extract data encoded in media content |
US9124769B2 (en) | 2008-10-31 | 2015-09-01 | The Nielsen Company (Us), Llc | Methods and apparatus to verify presentation of media content |
US20100205628A1 (en) | 2009-02-12 | 2010-08-12 | Davis Bruce L | Media processing methods and arrangements |
US8508357B2 (en) | 2008-11-26 | 2013-08-13 | The Nielsen Company (Us), Llc | Methods and apparatus to encode and decode audio for shopper location and advertisement presentation tracking |
US9160988B2 (en) | 2009-03-09 | 2015-10-13 | The Nielsen Company (Us), Llc | System and method for payload encoding and decoding |
US8879895B1 (en) | 2009-03-28 | 2014-11-04 | Matrox Electronic Systems Ltd. | System and method for processing ancillary data associated with a video stream |
US20100268540A1 (en) * | 2009-04-17 | 2010-10-21 | Taymoor Arshi | System and method for utilizing audio beaconing in audience measurement |
US20100268573A1 (en) * | 2009-04-17 | 2010-10-21 | Anand Jain | System and method for utilizing supplemental audio beaconing in audience measurement |
US10008212B2 (en) * | 2009-04-17 | 2018-06-26 | The Nielsen Company (Us), Llc | System and method for utilizing audio encoding for measuring media exposure with environmental masking |
US8826317B2 (en) | 2009-04-17 | 2014-09-02 | The Nielson Company (Us), Llc | System and method for determining broadcast dimensionality |
CA3008502C (en) | 2009-05-01 | 2020-11-10 | The Nielsen Company (Us), Llc | Methods, apparatus and articles of manufacture to provide secondary content in association with primary broadcast media content |
US8774417B1 (en) | 2009-10-05 | 2014-07-08 | Xfrm Incorporated | Surround audio compatibility assessment |
US8121618B2 (en) | 2009-10-28 | 2012-02-21 | Digimarc Corporation | Intuitive computing methods and systems |
EP2362385A1 (en) | 2010-02-26 | 2011-08-31 | Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. | Watermark signal provision and watermark embedding |
EP2362387A1 (en) | 2010-02-26 | 2011-08-31 | Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. | Watermark generator, watermark decoder, method for providing a watermark signal in dependence on binary message data, method for providing binary message data in dependence on a watermarked signal and computer program using a differential encoding |
EP2362386A1 (en) * | 2010-02-26 | 2011-08-31 | Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. | Watermark generator, watermark decoder, method for providing a watermark signal in dependence on binary message data, method for providing binary message data in dependence on a watermarked signal and computer program using a two-dimensional bit spreading |
EP2362384A1 (en) | 2010-02-26 | 2011-08-31 | Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. | Watermark generator, watermark decoder, method for providing a watermark signal, method for providing binary message data in dependence on a watermarked signal and a computer program using improved synchronization concept |
EP2362382A1 (en) | 2010-02-26 | 2011-08-31 | Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. | Watermark signal provider and method for providing a watermark signal |
EP2362383A1 (en) | 2010-02-26 | 2011-08-31 | Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. | Watermark decoder and method for providing binary message data |
US8768713B2 (en) | 2010-03-15 | 2014-07-01 | The Nielsen Company (Us), Llc | Set-top-box with integrated encoder/decoder for audience measurement |
US8732605B1 (en) | 2010-03-23 | 2014-05-20 | VoteBlast, Inc. | Various methods and apparatuses for enhancing public opinion gathering and dissemination |
US9134875B2 (en) | 2010-03-23 | 2015-09-15 | VoteBlast, Inc. | Enhancing public opinion gathering and dissemination |
US8676570B2 (en) * | 2010-04-26 | 2014-03-18 | The Nielsen Company (Us), Llc | Methods, apparatus and articles of manufacture to perform audio watermark decoding |
US9351654B2 (en) | 2010-06-08 | 2016-05-31 | Alivecor, Inc. | Two electrode apparatus and methods for twelve lead ECG |
US8509882B2 (en) | 2010-06-08 | 2013-08-13 | Alivecor, Inc. | Heart monitoring system usable with a smartphone or computer |
US8838977B2 (en) | 2010-09-16 | 2014-09-16 | Verance Corporation | Watermark extraction and content screening in a networked environment |
US8805682B2 (en) * | 2011-07-21 | 2014-08-12 | Lee S. Weinblatt | Real-time encoding technique |
US9823892B2 (en) * | 2011-08-26 | 2017-11-21 | Dts Llc | Audio adjustment system |
US8498627B2 (en) | 2011-09-15 | 2013-07-30 | Digimarc Corporation | Intuitive computing methods and systems |
US8923548B2 (en) | 2011-11-03 | 2014-12-30 | Verance Corporation | Extraction of embedded watermarks from a host content using a plurality of tentative watermarks |
US8682026B2 (en) | 2011-11-03 | 2014-03-25 | Verance Corporation | Efficient extraction of embedded watermarks in the presence of host content distortions |
US8533481B2 (en) | 2011-11-03 | 2013-09-10 | Verance Corporation | Extraction of embedded watermarks from a host content based on extrapolation techniques |
US8615104B2 (en) | 2011-11-03 | 2013-12-24 | Verance Corporation | Watermark extraction based on tentative watermarks |
US8745403B2 (en) | 2011-11-23 | 2014-06-03 | Verance Corporation | Enhanced content management based on watermark extraction records |
US8997132B1 (en) * | 2011-11-28 | 2015-03-31 | Google Inc. | System and method for identifying computer systems being used by viewers of television programs |
US9696336B2 (en) | 2011-11-30 | 2017-07-04 | The Nielsen Company (Us), Llc | Multiple meter detection and processing using motion data |
US9323902B2 (en) | 2011-12-13 | 2016-04-26 | Verance Corporation | Conditional access using embedded watermarks |
US9547753B2 (en) | 2011-12-13 | 2017-01-17 | Verance Corporation | Coordinated watermarking |
US8538333B2 (en) | 2011-12-16 | 2013-09-17 | Arbitron Inc. | Media exposure linking utilizing bluetooth signal characteristics |
US8977194B2 (en) | 2011-12-16 | 2015-03-10 | The Nielsen Company (Us), Llc | Media exposure and verification utilizing inductive coupling |
US11452153B2 (en) | 2012-05-01 | 2022-09-20 | Lisnr, Inc. | Pairing and gateway connection using sonic tones |
EP3358811A1 (en) | 2012-05-01 | 2018-08-08 | Lisnr, Inc. | Systems and methods for content delivery and management |
WO2014036436A1 (en) | 2012-08-30 | 2014-03-06 | Alivecor, Inc. | Cardiac performance monitoring system for use with mobile communications devices |
US9571606B2 (en) | 2012-08-31 | 2017-02-14 | Verance Corporation | Social media viewing system |
US8726304B2 (en) | 2012-09-13 | 2014-05-13 | Verance Corporation | Time varying evaluation of multimedia content |
US20140075469A1 (en) | 2012-09-13 | 2014-03-13 | Verance Corporation | Content distribution including advertisements |
US8869222B2 (en) | 2012-09-13 | 2014-10-21 | Verance Corporation | Second screen content |
US9612519B2 (en) | 2012-10-01 | 2017-04-04 | Praqo As | Method and system for organising image recordings and sound recordings |
US9305559B2 (en) | 2012-10-15 | 2016-04-05 | Digimarc Corporation | Audio watermark encoding with reversing polarity and pairwise embedding |
US9401153B2 (en) | 2012-10-15 | 2016-07-26 | Digimarc Corporation | Multi-mode audio recognition and auxiliary data encoding and decoding |
US9992729B2 (en) | 2012-10-22 | 2018-06-05 | The Nielsen Company (Us), Llc | Systems and methods for wirelessly modifying detection characteristics of portable devices |
WO2014074913A1 (en) | 2012-11-08 | 2014-05-15 | Alivecor, Inc. | Electrocardiogram signal detection |
EP3567377A1 (en) | 2012-11-30 | 2019-11-13 | The Nielsen Company (US), LLC | Multiple meter detection and processing using motion data |
US9158760B2 (en) | 2012-12-21 | 2015-10-13 | The Nielsen Company (Us), Llc | Audio decoding with supplemental semantic audio recognition and report generation |
US9195649B2 (en) | 2012-12-21 | 2015-11-24 | The Nielsen Company (Us), Llc | Audio processing techniques for semantic audio recognition and report generation |
US9183849B2 (en) | 2012-12-21 | 2015-11-10 | The Nielsen Company (Us), Llc | Audio matching with semantic audio recognition and report generation |
US9220430B2 (en) | 2013-01-07 | 2015-12-29 | Alivecor, Inc. | Methods and systems for electrode placement |
US9099080B2 (en) | 2013-02-06 | 2015-08-04 | Muzak Llc | System for targeting location-based communications |
US9079533B2 (en) | 2013-02-27 | 2015-07-14 | Peter Pottier | Programmable devices for alerting vehicles and pedestrians and methods of using the same |
US9262794B2 (en) | 2013-03-14 | 2016-02-16 | Verance Corporation | Transactional video marking system |
US9721271B2 (en) | 2013-03-15 | 2017-08-01 | The Nielsen Company (Us), Llc | Methods and apparatus to incorporate saturation effects into marketing mix models |
US9325381B2 (en) | 2013-03-15 | 2016-04-26 | The Nielsen Company (Us), Llc | Methods, apparatus and articles of manufacture to monitor mobile devices |
WO2014145927A1 (en) | 2013-03-15 | 2014-09-18 | Alivecor, Inc. | Systems and methods for processing and analyzing medical data |
US9247911B2 (en) | 2013-07-10 | 2016-02-02 | Alivecor, Inc. | Devices and methods for real-time denoising of electrocardiograms |
US9251549B2 (en) | 2013-07-23 | 2016-02-02 | Verance Corporation | Watermark extractor enhancements based on payload ranking |
US9711152B2 (en) | 2013-07-31 | 2017-07-18 | The Nielsen Company (Us), Llc | Systems apparatus and methods for encoding/decoding persistent universal media codes to encoded audio |
US20150039321A1 (en) | 2013-07-31 | 2015-02-05 | Arbitron Inc. | Apparatus, System and Method for Reading Codes From Digital Audio on a Processing Device |
US9208334B2 (en) | 2013-10-25 | 2015-12-08 | Verance Corporation | Content management using multiple abstraction layers |
US8918326B1 (en) | 2013-12-05 | 2014-12-23 | The Telos Alliance | Feedback and simulation regarding detectability of a watermark message |
US8768710B1 (en) | 2013-12-05 | 2014-07-01 | The Telos Alliance | Enhancing a watermark signal extracted from an output signal of a watermarking encoder |
US8768714B1 (en) | 2013-12-05 | 2014-07-01 | The Telos Alliance | Monitoring detectability of a watermark message |
US9824694B2 (en) | 2013-12-05 | 2017-11-21 | Tls Corp. | Data carriage in encoded and pre-encoded audio bitstreams |
US8768005B1 (en) | 2013-12-05 | 2014-07-01 | The Telos Alliance | Extracting a watermark signal from an output signal of a watermarking encoder |
EP3079571A4 (en) | 2013-12-12 | 2017-08-02 | Alivecor, Inc. | Methods and systems for arrhythmia tracking and scoring |
US9426525B2 (en) | 2013-12-31 | 2016-08-23 | The Nielsen Company (Us), Llc. | Methods and apparatus to count people in an audience |
US9311639B2 (en) | 2014-02-11 | 2016-04-12 | Digimarc Corporation | Methods, apparatus and arrangements for device to device communication |
WO2015138798A1 (en) | 2014-03-13 | 2015-09-17 | Verance Corporation | Interactive content acquisition using embedded codes |
US10410643B2 (en) | 2014-07-15 | 2019-09-10 | The Nielson Company (Us), Llc | Audio watermarking for people monitoring |
WO2016017238A1 (ja) * | 2014-07-28 | 2016-02-04 | 日本電信電話株式会社 | 符号化方法、装置、プログラム及び記録媒体 |
WO2016061353A1 (en) | 2014-10-15 | 2016-04-21 | Lisnr, Inc. | Inaudible signaling tone |
US9418395B1 (en) | 2014-12-31 | 2016-08-16 | The Nielsen Company (Us), Llc | Power efficient detection of watermarks in media signals |
US9747656B2 (en) | 2015-01-22 | 2017-08-29 | Digimarc Corporation | Differential modulation for robust signaling and synchronization |
US10397650B1 (en) * | 2015-02-11 | 2019-08-27 | Comscore, Inc. | Encoding and decoding media contents using code sequence to estimate audience |
US9130685B1 (en) | 2015-04-14 | 2015-09-08 | Tls Corp. | Optimizing parameters in deployed systems operating in delayed feedback real world environments |
EP3282933B1 (en) | 2015-05-13 | 2020-07-08 | Alivecor, Inc. | Discordance monitoring |
US9454343B1 (en) | 2015-07-20 | 2016-09-27 | Tls Corp. | Creating spectral wells for inserting watermarks in audio signals |
US9626977B2 (en) | 2015-07-24 | 2017-04-18 | Tls Corp. | Inserting watermarks into audio signals that have speech-like properties |
US10115404B2 (en) | 2015-07-24 | 2018-10-30 | Tls Corp. | Redundancy in watermarking audio signals that have speech-like properties |
US10102602B2 (en) | 2015-11-24 | 2018-10-16 | The Nielsen Company (Us), Llc | Detecting watermark modifications |
US11233582B2 (en) | 2016-03-25 | 2022-01-25 | Lisnr, Inc. | Local tone generation |
US10405036B2 (en) | 2016-06-24 | 2019-09-03 | The Nielsen Company (Us), Llc | Invertible metering apparatus and related methods |
US10178433B2 (en) | 2016-06-24 | 2019-01-08 | The Nielsen Company (Us), Llc | Invertible metering apparatus and related methods |
US9984380B2 (en) | 2016-06-24 | 2018-05-29 | The Nielsen Company (Us), Llc. | Metering apparatus and related methods |
DE102017206236A1 (de) * | 2017-04-11 | 2018-10-11 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Spezifische hoppingmuster für telegram-splitting |
US11189295B2 (en) * | 2017-09-28 | 2021-11-30 | Lisnr, Inc. | High bandwidth sonic tone generation |
US10347262B2 (en) | 2017-10-18 | 2019-07-09 | The Nielsen Company (Us), Llc | Systems and methods to improve timestamp transition resolution |
US10826623B2 (en) | 2017-12-19 | 2020-11-03 | Lisnr, Inc. | Phase shift keyed signaling tone |
CN109147795B (zh) * | 2018-08-06 | 2021-05-14 | 珠海全志科技股份有限公司 | 声纹数据传输、识别方法、识别装置和存储介质 |
US11336970B2 (en) | 2018-11-27 | 2022-05-17 | The Nielsen Company (Us), Llc | Flexible commercial monitoring |
DE102019209621B3 (de) | 2019-07-01 | 2020-08-06 | Sonobeacon Gmbh | Audiosignal-basiertes Paketzustellsystem |
US11451855B1 (en) | 2020-09-10 | 2022-09-20 | Joseph F. Kirley | Voice interaction with digital signage using mobile device |
Family Cites Families (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US2470240A (en) * | 1945-07-31 | 1949-05-17 | Rca Corp | Limiting detector circuits |
US2662168A (en) * | 1946-11-09 | 1953-12-08 | Serge A Scherbatskoy | System of determining the listening habits of wave signal receiver users |
US2573279A (en) * | 1946-11-09 | 1951-10-30 | Serge A Scherbatskoy | System of determining the listening habits of wave signal receiver users |
US2660511A (en) * | 1947-10-24 | 1953-11-24 | Nielsen A C Co | Lockout and recycling device for an apparatus for determining the listening habits of wave signal receiver users |
US2660662A (en) * | 1947-10-24 | 1953-11-24 | Nielsen A C Co | Search signal apparatus for determining the listening habits of wave signal receiver users |
US2630525A (en) * | 1951-05-25 | 1953-03-03 | Musicast Inc | System for transmitting and receiving coded entertainment programs |
US2766374A (en) * | 1951-07-25 | 1956-10-09 | Internat Telementer Corp | System and apparatus for determining popularity ratings of different transmitted programs |
US3004104A (en) * | 1954-04-29 | 1961-10-10 | Muzak Corp | Identification of sound and like signals |
NL154378B (nl) * | 1965-01-08 | 1977-08-15 | Frederik Adolf Nauta En Freder | Stelsel en inrichting voor het registreren van luister- en/of kijkgegevens. |
US3492577A (en) * | 1966-10-07 | 1970-01-27 | Intern Telemeter Corp | Audience rating system |
US3845391A (en) * | 1969-07-08 | 1974-10-29 | Audicom Corp | Communication including submerged identification signal |
JPS5619141B1 (es) * | 1970-10-24 | 1981-05-06 | ||
JPS5221852B2 (es) * | 1971-10-19 | 1977-06-14 | ||
US3919479A (en) * | 1972-09-21 | 1975-11-11 | First National Bank Of Boston | Broadcast signal identification system |
US4025851A (en) * | 1975-11-28 | 1977-05-24 | A.C. Nielsen Company | Automatic monitor for programs broadcast |
DE2757171C3 (de) * | 1977-12-22 | 1980-07-10 | Standard Elektrik Lorenz Ag, 7000 Stuttgart | Verfahren und Anordnung zur Übertragung zweier unterschiedlicher Informationen in einem einzigen Übertragungskanal vorgegebener Bandbreite auf einer Trägerwelle |
US4225967A (en) * | 1978-01-09 | 1980-09-30 | Fujitsu Limited | Broadcast acknowledgement method and system |
US4230990C1 (en) * | 1979-03-16 | 2002-04-09 | John G Lert Jr | Broadcast program identification method and system |
US4425642A (en) * | 1982-01-08 | 1984-01-10 | Applied Spectrum Technologies, Inc. | Simultaneous transmission of two information signals within a band-limited communications channel |
JPS58198934A (ja) * | 1982-05-17 | 1983-11-19 | Sony Corp | 秘話装置 |
US4450531A (en) * | 1982-09-10 | 1984-05-22 | Ensco, Inc. | Broadcast signal recognition system and method |
US4639779A (en) * | 1983-03-21 | 1987-01-27 | Greenberg Burton L | Method and apparatus for the automatic identification and verification of television broadcast programs |
US4805020A (en) * | 1983-03-21 | 1989-02-14 | Greenberg Burton L | Television program transmission verification method and apparatus |
US4547804A (en) * | 1983-03-21 | 1985-10-15 | Greenberg Burton L | Method and apparatus for the automatic identification and verification of commercial broadcast programs |
US4967273A (en) * | 1983-03-21 | 1990-10-30 | Vidcode, Inc. | Television program transmission verification method and apparatus |
US4703476A (en) * | 1983-09-16 | 1987-10-27 | Audicom Corporation | Encoding of transmitted program material |
FR2559002B1 (fr) * | 1984-01-27 | 1986-09-05 | Gam Steffen | Procede et dispositif de detection d'une information audiovisuelle diffusee par un emetteur |
US4613904A (en) * | 1984-03-15 | 1986-09-23 | Control Data Corporation | Television monitoring device |
US4697209A (en) * | 1984-04-26 | 1987-09-29 | A. C. Nielsen Company | Methods and apparatus for automatically identifying programs viewed or recorded |
CA1208761A (en) * | 1984-06-06 | 1986-07-29 | Cablovision Alma Inc. | Method and device for remotely identifying tv receivers displaying a given channel by means of an identification signal |
US4618995A (en) * | 1985-04-24 | 1986-10-21 | Kemp Saundra R | Automatic system and method for monitoring and storing radio user listening habits |
US4626904A (en) * | 1985-11-12 | 1986-12-02 | Control Data Corporation | Meter for passively logging the presence and identity of TV viewers |
US4681995A (en) * | 1986-04-04 | 1987-07-21 | Ahern Brian S | Heat pipe ring stacked assembly |
GB8611014D0 (en) * | 1986-05-06 | 1986-06-11 | Emi Plc Thorn | Signal identification |
US4718106A (en) * | 1986-05-12 | 1988-01-05 | Weinblatt Lee S | Survey of radio audience |
US4843562A (en) * | 1987-06-24 | 1989-06-27 | Broadcast Data Systems Limited Partnership | Broadcast information classification system and method |
US5394274A (en) * | 1988-01-22 | 1995-02-28 | Kahn; Leonard R. | Anti-copy system utilizing audible and inaudible protection signals |
US4945412A (en) * | 1988-06-14 | 1990-07-31 | Kramer Robert A | Method of and system for identification and verification of broadcasting television and radio program segments |
US4955070A (en) * | 1988-06-29 | 1990-09-04 | Viewfacts, Inc. | Apparatus and method for automatically monitoring broadcast band listening habits |
US5213337A (en) * | 1988-07-06 | 1993-05-25 | Robert Sherman | System for communication using a broadcast audio signal |
US5023929A (en) * | 1988-09-15 | 1991-06-11 | Npd Research, Inc. | Audio frequency based market survey method |
GB8824969D0 (en) * | 1988-10-25 | 1988-11-30 | Emi Plc Thorn | Identification codes |
NL8901032A (nl) * | 1988-11-10 | 1990-06-01 | Philips Nv | Coder om extra informatie op te nemen in een digitaal audiosignaal met een tevoren bepaald formaat, een decoder om deze extra informatie uit dit digitale signaal af te leiden, een inrichting voor het opnemen van een digitaal signaal op een registratiedrager, voorzien van de coder, en een registratiedrager verkregen met deze inrichting. |
US4943973A (en) * | 1989-03-31 | 1990-07-24 | At&T Company | Spread-spectrum identification signal for communications system |
US4972471A (en) * | 1989-05-15 | 1990-11-20 | Gary Gross | Encoding system |
AU7224491A (en) * | 1990-01-18 | 1991-08-05 | Elliott D Blatt | Method and apparatus for broadcast media audience measurement |
CA2036205C (en) * | 1990-06-01 | 1996-11-19 | Russell J. Welsh | Program monitoring unit |
FR2681997A1 (fr) * | 1991-09-30 | 1993-04-02 | Arbitron Cy | Procede et dispositif d'identification automatique d'un programme comportant un signal sonore. |
US5319735A (en) * | 1991-12-17 | 1994-06-07 | Bolt Beranek And Newman Inc. | Embedded signalling |
US5379345A (en) * | 1993-01-29 | 1995-01-03 | Radio Audit Systems, Inc. | Method and apparatus for the processing of encoded data in conjunction with an audio broadcast |
US5483276A (en) | 1993-08-02 | 1996-01-09 | The Arbitron Company | Compliance incentives for audience monitoring/recording devices |
US5404377A (en) * | 1994-04-08 | 1995-04-04 | Moses; Donald W. | Simultaneous transmission of data and audio signals by means of perceptual coding |
-
1994
- 1994-03-31 US US08/221,019 patent/US5450490A/en not_active Expired - Lifetime
-
1995
- 1995-03-24 US US08/408,010 patent/US5764763A/en not_active Expired - Lifetime
- 1995-03-27 AT AT95914900T patent/ATE403290T1/de active
- 1995-03-27 PT PT95914900T patent/PT753226E/pt unknown
- 1995-03-27 EP EP08009783.5A patent/EP1978658A3/en not_active Withdrawn
- 1995-03-27 DE DE69535794T patent/DE69535794D1/de not_active Expired - Lifetime
- 1995-03-27 CN CN2008101490676A patent/CN101425858B/zh not_active Expired - Lifetime
- 1995-03-27 DK DK95914900T patent/DK0753226T3/da active
- 1995-03-27 ES ES95914900T patent/ES2309986T3/es not_active Expired - Lifetime
- 1995-03-27 KR KR1019960705429A patent/KR970702635A/ko not_active Application Discontinuation
Also Published As
Publication number | Publication date |
---|---|
PT753226E (pt) | 2008-10-30 |
CN101425858A (zh) | 2009-05-06 |
DE69535794D1 (de) | 2008-09-11 |
EP1978658A2 (en) | 2008-10-08 |
US5450490A (en) | 1995-09-12 |
EP1978658A3 (en) | 2013-08-07 |
KR970702635A (ko) | 1997-05-13 |
ATE403290T1 (de) | 2008-08-15 |
CN101425858B (zh) | 2012-10-10 |
DK0753226T3 (da) | 2008-12-01 |
US5764763A (en) | 1998-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2309986T3 (es) | Aparato y metodo para incluir codigos en señales de audio y decodificarlos. | |
US6421445B1 (en) | Apparatus and methods for including codes in audio signals | |
KR100392475B1 (ko) | 방송또는기록된세그먼트를엔코딩/디코딩하고그러한세그먼트에대한시청자노출을모니터링하기위한방법과장치 | |
US6584138B1 (en) | Coding process for inserting an inaudible data signal into an audio signal, decoding process, coder and decoder | |
JP2000505618A (ja) | 知覚的符号化手段による、補助信号と音声信号の同時送信 | |
AU763243B2 (en) | Apparatus and methods for including codes in audio signals | |
GB2325832A (en) | Apparatus and method for including codes in audio signals | |
NZ502630A (en) | Encoding data onto audio signal with multifrequency sets simultaneously present on signal | |
IL133705A (en) | Apparatus and methods for including codes in audio signals and decoding |