ES2309986T3 - Aparato y metodo para incluir codigos en señales de audio y decodificarlos. - Google Patents

Aparato y metodo para incluir codigos en señales de audio y decodificarlos. Download PDF

Info

Publication number
ES2309986T3
ES2309986T3 ES95914900T ES95914900T ES2309986T3 ES 2309986 T3 ES2309986 T3 ES 2309986T3 ES 95914900 T ES95914900 T ES 95914900T ES 95914900 T ES95914900 T ES 95914900T ES 2309986 T3 ES2309986 T3 ES 2309986T3
Authority
ES
Spain
Prior art keywords
frequency
code
audio
components
amplitude
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES95914900T
Other languages
English (en)
Inventor
James M. Jensen
Wendell D. Lynch
Michael M. Perelshteyn
Robert B. Graybill
Sayed Hassan
Wayne Sabin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nielsen Audio Inc
Original Assignee
Arbitron Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=22826004&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2309986(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Arbitron Inc filed Critical Arbitron Inc
Application granted granted Critical
Publication of ES2309986T3 publication Critical patent/ES2309986T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/28Arrangements for simultaneous broadcast of plural pieces of information
    • H04H20/30Arrangements for simultaneous broadcast of plural pieces of information by a single channel
    • H04H20/31Arrangements for simultaneous broadcast of plural pieces of information by a single channel using in-band signals, e.g. subsonic or cue signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/37Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/38Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying broadcast time or space
    • H04H60/40Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying broadcast time or space for identifying broadcast time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/38Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying broadcast time or space
    • H04H60/41Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying broadcast time or space for identifying broadcast space, i.e. broadcast channels, broadcast stations or broadcast areas
    • H04H60/44Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying broadcast time or space for identifying broadcast space, i.e. broadcast channels, broadcast stations or broadcast areas for identifying broadcast stations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/45Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying users
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/56Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/58Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of audio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/12Arrangements for observation, testing or troubleshooting
    • H04H20/14Arrangements for observation, testing or troubleshooting for monitoring programmes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/09Arrangements for device control with a direct linkage to broadcast information or to broadcast space-time; Arrangements for control of broadcast-related services
    • H04H60/13Arrangements for device control affected by the broadcast information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/09Arrangements for device control with a direct linkage to broadcast information or to broadcast space-time; Arrangements for control of broadcast-related services
    • H04H60/14Arrangements for conditional access to broadcast information or to broadcast-related services
    • H04H60/17Arrangements for conditional access to broadcast information or to broadcast-related services on recording information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/61Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/63Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 for services of sales
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/61Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/66Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 for using the result on distributors' side

Abstract

SE PROPORCIONAN APARATOS Y METODOS PARA INCLUIR UN CODIGO (68) QUE TIENE AL MENOS UN COMPONENTE DE FRECUENCIAS DE CODIGO EN UNA SEÑAL DE AUDIO (60). SE EVALUAN LAS CAPACIDADES DE LAS DIFERENTES COMPONENTES DE FRECUENCIA EN LA SEÑAL DE AUDIO PARA ENMASCARAR EL COMPONENTE DE FRECUENCIAS DE CODIGO PARA EL OIDO HUMANO (64), Y EN BASE A ESTAS EVALUACIONES UNA AMPLITUD (76) SE ASIGNA AL COMPONENTE DE FRECUENCIAS DE CODIGO. TAMBIEN SE PROPORCIONAN METODOS Y APARATOS PARA DETECTAR UNA CODIGO EN UNA SEÑAL DE AUDIO CODIFICADA. UNA COMPONENTE DE FRECUENCIAS DE CODIGO SE DETECTA EN LA SEÑAL DE AUDIO CODIFICADA EN BASE A UNA AMPLITUD DE CODIGO ESPERADA O A UNA AMPLITUD DE RUIDO EN UN RANGO DE FRECUENCIAS DE AUDIO QUE INCLUYE LA FRECUENCIA DEL COMPONENTE DE CODIGO.

Description

Aparato y método para incluir códigos en señales de audio y decodificarlos.
Campo de la invención
La presente invención se refiere a un aparato y a métodos para incluir códigos en señales de audio y decodificar tales códigos.
Antecedentes de la invención
Durante muchos años, se han propuesto técnicas para mezclar códigos con señales de audio de modo que (1) los códigos puedan reproducirse fácilmente a partir de las señales de audio, mientras que (2) los códigos no sean audibles cuando se reproducen las señales de audio como sonido. El cumplimiento de ambos objetivos es esencial para la aplicación práctica. Por ejemplo, los transmisores y los productores de programas de difusión, así como los que graban
música para su distribución pública no tolerarán la inclusión de códigos audibles en sus programas y grabaciones.
Se han propuesto técnicas para codificar señales de audio en diversos momentos volviendo al menos hasta la Patente de Estados Unidos Nº 3.004.1004 de Hembrooke publicada el 10 de octubre de 1961. Hembrooke mostraba un método de codificación en el cual se eliminaba de forma selectiva la energía de la señal de audio dentro de una banda de frecuencia estrecha para codificar la señal. Se presenta un problema con esta técnica cuando el ruido o la distorsión de la señal reintroduce energía dentro de la banda de frecuencia estrecha de modo que se oscurece el código.
En otro método, la Patente de Estados Unidos Nº 3.845.391 de Crosby proponía eliminar una banda de frecuencia estrecha a partir de la señal de audio e insertar un código en la misma. Esta técnica evidentemente se encontraba con el mismo problema que la de Hembrooke, como se citaba en la Patente de Estados Unidos Nº 4.703.476 de Howard, que, como se indica en la misma, se asignó comúnmente con la patente de Crosby. Sin embargo, la patente de Howard solo buscó mejorar el método de Crosby sin apartarse de su enfoque fundamental.
También se ha propuesto codificar señales binarias difundiendo los códigos binarios dentro de frecuencias que se extienden a través de la banda de audio. Un problema con este método propuesto es que, en ausencia de componentes de la señal de audio para enmascarar las frecuencias de código, pueden hacerse audibles. Este método, por lo tanto cuenta con el carácter sustentado parecido al ruido de los códigos para sugerir que su presencia se ignorará por los oyentes. Sin embargo, en muchos casos esta suposición puede no ser válida, por ejemplo, en el caso de música clásica que incluye porciones con un contenido de señal de audio relativamente bajo o durante las pausas de la voz.
Se ha sugerido una técnica adicional en la cual se insertaban códigos de tonos duales multi-frecuencia (DTMF) en la señal de audio. Los códigos DTMF se detectan supuestamente en base a sus frecuencias y duraciones. Sin embargo, las componentes de la señal de audio pueden confundirse como uno o ambos tonos de cada código DTMF, de modo que puede perderse la presencia de un código por el detector o bien pueden confundirse componentes de la señal con un código DTMF. Se observa además que cada código DTMF incluye un tono común con otro código DTMF. Consecuentemente, una componente de señal correspondiente a un tono de un código DTMF diferente puede combinar con el tono de un código DTMF que está presente de forma simultánea en la señal resultando una falsa detección.
Objetos de la invención
Por consiguiente, es un objeto de la invención proporcionar un aparato y métodos para detectar un código en una señal de audio codificada que supera los inconvenientes de las técnicas propuestas anteriormente.
En un aspecto, la invención proporciona un aparato para detectar un código en una señal de audio codificada de acuerdo con la Reivindicación 1
En un aspecto adicional, la presente invención proporciona un método para detectar un código en una señal de audio codificada de acuerdo con la Reivindicación 28.
Lo anterior, y los objetos, características y ventajas de la invención, serán evidentes en la siguiente descripción detallada de ciertas realizaciones ventajosas de la misma que se leerán en conexión con los dibujos adjuntos que forman parte de este documento, y en los que los elementos correspondientes se identifican por las mismas referencias numéricas en varias vistas de los dibujos.
Breve descripción de los dibujos
La Figura 1 es un diagrama de bloques funcional de un codificador para codificar una señal de audio;
la Figura 2 es un diagrama de bloques funcional de un codificador digital para codificar una señal de audio;
la Figura 3 es un diagrama de bloques de un sistema de codificación para su uso en la codificación de señales de audio proporcionadas en forma analógica;
la Figura 4 proporciona diagramas espectrales para su uso en las composiciones de frecuencias que ilustran de los diversos símbolos de datos como se codifican por el sistema de la Figura 3;
las Figuras 5 y 6 son diagramas de bloques funcionales para su uso en la ilustración del funcionamiento del sistema de la Figura 3;
las Figuras de 7A hasta 7C son diagramas de flujo para ilustrar una rutina software empleada en el sistema de la Figura 3;
las Figuras 7D y 7E son diagramas de flujo para ilustrar una rutina software alternativa empleada en el sistema de la Figura 3;
la Figura 7F es un gráfico que muestra una aproximación lineal de una relación de enmascaramiento de un tono único;
la Figura 8 es un diagrama de bloques de un codificador que emplea una circuitería analógica;
la Figura 9 es un diagrama de bloques de un circuito de determinación del factor de ponderación del codificador de la Figura 8;
la Figura 10 es un diagrama de bloques funcional de un decodificador;
la Figura 11 es un diagrama de bloques de un decodificador de acuerdo con una realización de la presente invención que emplea el procesamiento digital de la señal;
las Figuras 12A y 12B son diagramas de flujo para su uso en la descripción del funcionamiento del decodificador de la Figura 11;
la Figura 13 es un diagrama de bloques funcional de un decodificador de acuerdo con ciertas realizaciones de la presente invención;
la Figura 14 es un diagrama de bloques de una realización de un decodificador analógico de acuerdo con la presente invención;
la Figura 15 es un diagrama de bloques de un detector de componentes de la realización de la Figura 14; y
las Figuras 16 y 17 son diagramas de bloques de un aparato de acuerdo con una realización de la presente invención incorporado en un sistema para producir estimaciones de audiencias para una información ampliamente difundida.
Descripción detallada de ciertas realizaciones ventajosas Codificación
Las técnicas que se describen en adelante en este documento incluyen códigos en las señales de audio para optimizar la probabilidad de recuperación con precisión de la información en los códigos a partir de las señales, mientras que se asegura que los códigos son inaudibles para el oído humano cuando se reproduce el audio codificado como sonido incluso si las frecuencias de los códigos caen dentro del rango de frecuencias audible.
Con referencia en primer lugar a la Figura 1, se ilustra en la misma un diagrama funcional de bloques de un codificador. La señal de audio a codificar se recibe en el terminal de entrada 30. La señal de audio puede representar, por ejemplo, un programa a difundir por radio, la porción de audio de una difusión de televisión, o una composición musical o cualquier otra clase de señal de audio a grabar de alguna manera. Además, la señal de audio puede ser una comunicación privada, tal como una transmisión telefónica o una grabación personal de alguna clase. Sin embargo, sólo se citan estas como ejemplos.
Como se indica por el bloque funcional 34 en la Figura 1, se evalúa la capacidad de uno o más componentes de la señal de audio recibida para enmascarar sonidos que tienen frecuencias correspondientes con las de una componente o componentes de frecuencias de código a añadir a la señal de audio. Pueden realizarse múltiples evaluaciones para una única frecuencia de código, puede realizarse una evaluación separada para cada frecuencia de una pluralidad de frecuencias de código, pueden efectuarse múltiples evaluaciones para cada frecuencia de una pluralidad de frecuencias de código, puede realizarse una o más evaluaciones comunes para frecuencias de código múltiples o puede realizarse una combinación de uno o más de las anteriores. Cada evaluación se realiza en base a la frecuencia de una o más componentes de código a enmascarar y la frecuencia o frecuencias de la componente o componentes de la señal de audio cuyas posibilidades de enmascaramiento se están evaluando. Además, si la componente del código y la componente o componentes de audio que enmascaran no caen dentro de intervalos de señal sustancialmente simultáneos, de modo que se reproducirían como sonido en intervalos de tiempo significativamente diferentes, también se tiene en consideración los efectos de las diferencias en los intervalos de señal entre la componentes o componentes de código que se están enmascarando y la componente o componentes del programa de enmascaramiento.
Pueden realizarse múltiples evaluaciones por cada componente de código considerando separadamente las capacidades de las diferentes porciones de la señal de audio para enmascarar cada componente de código. En un ejemplo, se evalúa la capacidad de cada componente de una pluralidad de componentes de la señal de audio de sustancialmente un tono único para enmascarar una componente de código en base a la frecuencia de la componente de señal de audio, su "amplitud" (como se define en este documento) y la temporización relevante para la componente de código, denominándose tal enmascaramiento como "enmascaramiento tonal" en este documento.
El término "amplitud" se usa en este documento para referirse a cualquier valor o valores de la señal que pueden emplearse para evaluar la capacidad de enmascaramiento, para seleccionar el tamaño de una componente de código, para detectar su presencia en una señal reproducida o como otros utilizados, incluyendo valores tales como la energía de la señal, potencia, voltaje, corriente, intensidad y presión, sea medida sobre una base absoluta o relativa, y sea medida sobre una base instantánea o acumulada. Como sea apropiado, puede medirse la amplitud como una media sobre una ventana, una media aritmética, por integración, o como el valor de la raíz cuadrática media, como una acumulación de valores absolutos relativamente discretos, o cualquier otro.
En otros ejemplos, además de las evaluaciones de enmascaramiento tonal o en la alternativa, se evalúa la capacidad de las componentes de la señal de audio dentro de una banda relativamente estrecha de frecuencias suficientemente próximas a una componente de código determinada para enmascarar la componente (denominado en este documento como enmascaramiento de "banda estrecha"). En aún otros ejemplos, se evalúa la capacidad de las componentes de código múltiple dentro de una banda relativamente amplia de frecuencias para enmascarar la componente. Se evalúan cuando sea necesario o apropiado, las capacidades de las componentes del programa de audio en los intervalos de señal que preceden o siguen a una componente o componentes determinadas para enmascarar la misma sobre una base no simultánea. Esta forma de evaluación es particularmente útil cuando las componentes de la señal de audio en un intervalo de señal determinado tienen amplitudes insuficientemente grandes para permitir la inclusión de componentes de código
de amplitudes suficientemente grandes en el mismo intervalo de señal de modo que no pueden distinguirse del ruido.
Preferiblemente, se evalúa una combinación de dos o más capacidades de enmascaramiento tonal, capacidades de enmascaramiento de banda estrecha y capacidades de enmascaramiento de banda ancha (y, cuando sea necesario o apropiado, capacidades de enmascaramiento no simultáneo), para componentes de código múltiples. Cuando las componentes de código están suficientemente próximas en frecuencia, no se necesita realizar evaluaciones separadas para cada una.
En ciertos otros ejemplos, se realiza un análisis de tonal deslizante en lugar de análisis tonales separados, de banda estrecha y de banda ancha, eliminando la necesidad de clasificar el programa de audio como tonal, de banda estrecha o de banda ancha.
Cuando se evalúa una combinación de capacidades de enmascaramiento, cada evaluación puede proporcionar una amplitud máxima permisible para una o más componentes de código, de modo que comparando todas las evaluaciones que se han realizado y que se refieren a una componente determinada, puede seleccionarse una amplitud máxima para la misma que sin embargo asegurará que cada componente se enmascarará por la señal de audio cuando se reproduce como sonido de modo que todas las componentes se hacen inaudibles por la audición humana. Maximizando la amplitud de cada componente, la probabilidad de detectar su presencia en base a su amplitud, se maximiza asimismo. Por supuesto, no es esencial que se emplee la amplitud máxima posible, ya que sólo es necesario cuando la decodificación es capaz de distinguir un número suficientemente grande de componentes de código a partir de las componentes de la señal de audio y otro ruido.
Los resultados de las evaluaciones se sacan en 36 como se indica en la Figura 1 y se hacen disponibles para el generador de códigos 40. La generación de códigos puede realizarse en uno cualquiera de una variedad de modos diferentes. Una técnica particularmente ventajosa asigna un conjunto único de componentes de frecuencia de códigos a cada uno de una pluralidad de estados o símbolos de datos, de modo que, durante un intervalo de señal determinado, se representa un estado de datos correspondiente por la presencia de su conjunto respectivo de componentes de frecuencia de código. De este modo, la interferencia con la detección de códigos por las componentes de la señal de audio se reduce ya que, en un porcentaje ventajosamente elevado de intervalos de señal, se podrá detectar un número suficientemente grande de componentes de código a pesar de la interferencia del programa de la señal de audio con la detección de otras componentes. Además, el proceso de implementar las evaluaciones de enmascaramiento se simplifica cuando se conocen las frecuencias de las componentes de código antes de generarse.
También pueden implementarse otras formas de codificación. Por ejemplo, puede emplearse el desplazamiento de frecuencia discreto (FSK), la modulación de frecuencia (FM), saltos de frecuencia, codificación de espectro extendido, así como combinaciones de las anteriores. Pueden usarse incluso otras técnicas de codificación que serán evidentes a partir de la descripción en este documento.
Los datos a codificar se reciben en la entrada 42 del generador de códigos 40 que responde produciendo su grupo único de componentes de frecuencia de código y asignando una amplitud a cada una en base a las evaluaciones recibidas desde la salida 36. Las componentes de frecuencia de código se suministran tal como se producen a una primera entrada de un circuito sumador 46 que recibe la señal de audio a codificar en una segunda entrada. El circuito 46 suma las componentes de frecuencia de código a la señal de audio y saca una señal de audio codificada en su terminal de salida 50. El circuito 46 puede ser o un circuito sumador analógico o digital, dependiendo de la forma de las señales suministradas al mismo. La función de suma puede implementarse también por software y, si es así, el procesador digital usado para realizar la evaluación de enmascaramiento y producir el código puede usarse también para sumar el código con la señal de audio. En un ejemplo, el código se suministra como datos del dominio del tiempo en una forma digital que se suman a continuación con los datos de audio en el dominio del tiempo. En otra, la señal de audio se convierte al dominio de la frecuencia en forma digital y se suma al código que asimismo se representa como datos digitales del dominio de la frecuencia. En la mayor parte de las aplicaciones, los datos del dominio de la frecuencia sumados se convierten a continuación a datos en el dominio del tiempo.
A partir de lo siguiente, se verá que la evaluación de enmascaramiento así como las funciones de producción de códigos pueden realizarse o por procesamiento digital o analógico, o por una combinación del procesamiento digital y analógico. Además, aunque la señal de audio puede recibirse en forma analógica en el terminal de entrada 30 y sumarse a las componentes de código en una forma analógica por el circuito 46 como se muestra en la Figura 1, en la alternativa, la señal de audio puede convertirse a forma digital cuando se recibe, sumar las componentes de código en forma digital y salir en forma digital o analógica. Por ejemplo, cuando la señal se va a grabar sobre un disco compacto o una cinta de audio digital, puede sacarse en forma digital, mientras que si es para difundirse por las técnicas convencionales de difusión de radio o televisión puede sacarse en forma analógica. También pueden implementarse diversas otras combinaciones de procesamiento digital y analógico.
En ciertos ejemplos las componentes de código se incluyen en la señal de audio sólo un símbolo de código a la vez. Sin embargo, en otros ejemplos, las componentes de símbolos de código múltiples se incluyen simultáneamente en la señal de audio. Por ejemplo, en ciertos ejemplos las componentes de un símbolo ocupan una banda de frecuencias y las de otro ocupan una segunda banda de frecuencias simultáneamente. En la alternativa, las componentes de un símbolo pueden residir en la misma banda así como en otra o en una banda de solapamiento, siempre que sus componentes sean distinguibles, por ejemplo, asignándolas a frecuencias o intervalos de frecuencias respectivamente diferentes.
En la Figura 2 se ilustra un ejemplo de codificador digital. En este ejemplo, se recibe una señal de audio en forma analógica en el terminal de entrada 60 y se convierte a forma digital por el convertidor A/D 62. La señal de audio digitalizada se suministra para la evaluación de enmascaramiento, como se indicada funcionalmente por el bloque 64 según el cual se separa la señal de audio digitalizada en las componentes de frecuencia, por ejemplo, por una Transformada Rápida de Fourier (FFT), una transformada de un tren de ondas, u otra transformación del dominio del tiempo al dominio de la frecuencia, si no por filtrado digital. Después de esto, las capacidades de enmascaramiento de las componentes de frecuencia de la señal de audio dentro de las ranuras de frecuencia de interés se evalúan por su capacidad de enmascaramiento tonal, la capacidad de enmascaramiento de banda estrecha y la capacidad de enmascaramiento de banda ancha (y, si es necesario o apropiado, por la capacidad de enmascaramiento no simultánea). Como alternativa, las capacidades de enmascaramiento de las componentes de frecuencia de la señal de audio dentro de las ranuras de frecuencia de interés se evalúan con un análisis tonal deslizante.
Los datos a codificar se reciben en el terminal de entrada 68 y, para cada estado de datos correspondiente a un intervalo de señal determinado, se produce su grupo respectivo de componentes de código, como se indica por el bloque funcional de generación de señal 72, y se somete al ajuste de nivel, como se indica por el bloque 76 que también se suministra con las evaluaciones de enmascaramiento relevantes. La generación de señal puede implementarse, por ejemplo, por medio de una tabla de búsqueda que almacena cada una de las componentes de código como datos en el dominio del tiempo o por interpolación de los datos almacenados. Las componentes de código pueden almacenarse permanentemente o generarse bajo la inicialización del sistema de la Figura 2 y almacenarse en memoria a continuación, tal como en una RAM, para sacarlas cuando sea apropiado en respuesta a los datos recibidos en el terminal 68. Los valores de las componentes pueden calcularse también en el instante en que se generan.
El ajuste de nivel se realiza para cada una de las componentes de código en base a las evaluaciones de enmascaramiento relevantes como se trató anteriormente, y las componentes de código cuya amplitud se ha ajustado para asegurar que son inaudibles se suman a la señal de audio digitalizada como se indica por el símbolo de suma 80. Dependiendo de la cantidad de tiempo necesaria para realizar los procesos anteriores, puede ser deseable retrasar la señal de audio digitalizada, como se indica en 82 por el almacenamiento temporal en memoria. Si la señal de audio no está retrasada, después de que se hayan realizado una FFT y la evaluación de enmascaramiento para un primer intervalo de la señal de audio, se suman las componentes de código ajustadas en amplitud a un segundo intervalo de la señal de audio que sigue al primer intervalo. Sin embargo, si la señal de audio está retrasada, las componentes de código ajustadas en amplitud pueden sumarse en cambio al primer intervalo y de este modo puede usarse una evaluación de enmascaramiento simultánea. Además, si la porción de la señal de audio durante el primer intervalo proporciona una mayor capacidad de enmascaramiento para una componente de código sumada durante el segundo intervalo que la porción de la señal de suido durante el segundo intervalo proporcionaría a la componente de código durante el mismo intervalo, puede asignarse una amplitud a la componente de código en base a las capacidades de enmascaramiento no simultáneo de la porción de la señal de audio dentro del primer intervalo. De esta forma, pueden evaluarse ambas capacidades de enmascaramiento simultáneo y no simultáneo y puede asignarse una amplitud óptima a cada componente de código en base a la evaluación más ventajosa.
En ciertas aplicaciones, tales como en la diodifusión, o grabaciones analógicas (como sobre una cinta de casete convencional), la señal de audio codificada en forma digital se convierte a forma analógica por un convertidor digital a analógico (DAC) 84. Sin embargo, cuando la señal se va a transmitir o grabar en forma digital, el DAC 84 puede omitirse.
Las diversas funciones ilustradas en la Figura 2 pueden implementarse, por ejemplo, por un procesador digital de señal o por un ordenador personal, estación de trabajo, ordenador principal, o por otro ordenador digital.
La Figura 3 es un diagrama de bloques de un sistema de codificación para su uso en señales de audio codificadas suministradas en forma analógica, tales como en un estudio de difusión convencional. En el sistema de la Figura 3, un procesador principal 90 que puede ser, por ejemplo, un ordenador personal, supervisa la selección y generación de información a codificar por su inclusión en la señal de audio analógica recibida en el terminal de entrada 94. El procesador central 90 está acoplado con un teclado 96 y con un monitor 100, tal como un monitor de CRT, de modo que un usuario puede seleccionar el mensaje deseado a codificar mientras se elige de un menú de mensajes disponibles presentados en pantalla por el monitor 100. Un mensaje típico a codificar en una señal de audio de difusión podría incluir la información de estación o la identificación de canal, información de programa o segmento y/o un código de tiempo.
Una vez que se ha introducido el mensaje deseado al procesador principal 90, el procesador principal procede a sacar los datos que representan los símbolos del mensaje al procesador de señal digital (DSP) 104 que procede a codificar cada uno de los símbolos recibidos desde el procesador principal 90 en la forma de un conjunto único de componentes de señal de código como se describe más adelante en este documento. En un ejemplo, el procesador principal genera un flujo de datos de cuatro estados, esto es, un flujo de datos en el cual cada unidad de datos puede asumir uno de cuatro estados de datos distintos representando cada uno un símbolo único incluyendo dos símbolos de sincronización denominados "E" y "S" en este documento y dos símbolos de información del mensaje "1" y "0" cada uno de cuales representa un estado binario respectivo. Se apreciará que puede emplearse cualquier número distinto de estados de datos. Por ejemplo, en lugar de dos símbolos de información del mensaje, pueden representarse tres estados de datos por tres símbolos únicos lo cual permite una cantidad correspondiente mayor de información a conducir por el flujo de datos de un tamaño determinado.
Por ejemplo, cuando el material del programa representa voz, es ventajoso transmitir un símbolo durante un periodo de tiempo relativamente mas largo que en el caso de un programa de audio que tiene un contenido de energía sustancialmente más continuo, para permitir las pausas naturales o lagunas presentes en la voz. Por consiguiente, para asegurar que la tasa de transferencia de información es suficientemente elevada en este caso, se aumenta ventajosamente el número de símbolos posibles de información de los mensajes. Para los símbolos que representan hasta cinco bits, longitudes de transmisión de símbolos de dos, tres y cuatro segundos proporcionan probabilidades cada vez mayores de una correcta decodificación. En algunas de tales realizaciones, un símbolo inicial "E" se decodifica cuando (i) la energía en las ranuras de FFT para este símbolos es la mayor, (ii) la energía media menos la desviación típica de la energía para este símbolo es mayor que la energía media más la desviación típica de la energía para todos los otros símbolos, y (iii) la forma de la curva de la energía frente al tiempo para este símbolo tiene una forma de campana, con el pico en la frontera temporal inter-símbolos.
En el ejemplo de la Figura 3, cuando el DSP 104 ha recibido los símbolos de un mensaje determinado a codificar, responde generando un conjunto único de componentes de frecuencia de código para cada símbolo que proporciona en la salida 106. También con referencia a la Figura 4, se proporcionan diagramas espectrales para cada uno de los cuatro símbolos de datos S, E, 0 y 1 del conjunto de datos de ejemplo descrito anteriormente. Como se muestra en la Figura 4, en esta realización el símbolo S se representa por un grupo único de diez componentes de frecuencia de código desde f_{1} hasta f_{10} dispuestas a intervalos de frecuencias iguales en un intervalo que se extiende desde un valor de frecuencia ligeramente mayor que 2 kHz a un valor de frecuencia que es ligeramente menor que 3 kHz. El símbolo E se representa por un segundo grupo único de diez componentes de frecuencia de código desde f_{11} hasta f_{20} dispuestos en el espectro de frecuencia a intervalos iguales desde un primer valor de frecuencia ligeramente mayor que 2 kHz hasta un valor de frecuencia ligeramente menor que 3 kHz, en el que cada una de las componentes de código de f_{11} hasta f_{20} tienen un valor de frecuencia único diferente de lo otros en el mismo grupo así como de todas las otras frecuencias de f_{1} hasta f_{10}. El símbolo 0 se representa por un grupo único adicional de diez componentes de frecuencia de código de f_{21} hasta f_{30} también dispuestas a intervalos de frecuencia iguales desde un valor ligeramente mayor que 2 kHz hasta un valor ligeramente menor que 3 kHz y cada uno de las cuales tiene un valor de frecuencia único diferente de los otros en el mismo grupo así como de todas las frecuencias de f_{1} hasta f_{20}. Finalmente, el símbolo 1 se representa por un grupo único adicional de diez componentes de frecuencia de código de f_{31} hasta f_{40} también dispuestas a intervalos de frecuencia iguales desde un valor ligeramente mayor que 2 kHz hasta un valor ligeramente menor que 3 kHz, de modo que cada una de las componentes de f_{31} hasta f_{40} tiene un valor de frecuencia único diferente que cualquiera de las otras componentes de frecuencia de f_{1} hasta f_{40}. Usando múltiples componentes de frecuencia de código para cada uno de los estados de datos de modo que las componentes de código de cada uno de los estados están sustancialmente separadas entre sí en frecuencia, la presencia de ruido (tal como las componentes de señal de audio no de código u otro ruido) en una banda de detección común con cualquier componente de código de un estado de datos determinado es menos probable que interfiera con la detección de las componentes restantes de ese estado de
datos.
En otros ejemplos, es ventajoso representar los símbolos por componentes de frecuencia múltiples por ejemplo diez tonos de código o componentes de frecuencia, que no están espaciados de forma uniforme en frecuencia, y que no tiene la misma desviación entre símbolos. Eliminando una relación integral entre frecuencias de código para un símbolo agrupando los tonos reduce los efectos del batido inter-frecuencias y los nulos de habitación, esto es, las localizaciones donde los ecos desde las paredes de la habitación interfieren con la decodificación correcta. Se proporcionan los siguientes conjuntos de componentes de frecuencias de tonos para los cuatro símbolos (0, 1, S y E) para aliviar los efectos de los nulos de la habitación, donde de f1 hasta f10 representan las componentes de frecuencia de código respectivas de cada uno de los cuatro símbolos (expresados en Hertzios):
\vskip1.000000\baselineskip
1
\vskip1.000000\baselineskip
Hablando en general, en los ejemplos proporcionados anteriormente, el contenido espectral del código varía relativamente poco cuando el DSP 104 conmuta su salida desde cualquiera de los estados de datos S, E, 0 y 1 a cualquier otro de los mismos. En ciertos ejemplos ventajosos, cada componente de frecuencia de código de cada símbolo está emparejada con una componente de frecuencia de cada uno de los otros estados de datos de modo que la diferencia entre ellas es menor que el ancho de banda crítica para las mismas. Para cualquier par de tonos puros, el ancho de banda crítico es un intervalo de frecuencias dentro del cual la separación de frecuencias entre los dos tonos puede variarse sin aumentar sustancialmente la intensidad acústica. Como la separación de frecuencias entre tonos adyacentes en el caso de cada uno de los estados de datos S, E, 0 y 1 es la misma, y como cualquiera de los tonos de cada uno de los estados de datos S, E, 0 y 1 está emparejado con un tono respectivo de cada uno de los otros de los mismos de modo que la diferencia en frecuencia entre los mismos es menor que el ancho de banda crítica para ese par, no habrá ningún cambio sustancial en la intensidad acústica para transiciones desde cualquiera de los estados de datos S, E, 0 y 1 a cualquiera de los otros cuando se reproducen como sonido. Además, minimizando la diferencia en frecuencia entre las componentes de código de cada par, las probabilidades relativas de detectar cada uno de los estados de datos cuando se recibe no se ve afectada sustancialmente por las características de frecuencia del camino de transmisión. Un beneficio adicional de emparejar componentes de diferentes estados de datos de modo que están relativamente próximas en frecuencia es que la evaluación de enmascaramiento realizada para una componente de código de un primer estado de datos será sustancialmente precisa para una componente correspondiente del próximo estado de datos cuando tiene lugar la conmutación de estados.
Como alternativa, en el esquema de espaciamiento de tonos de código no uniforme para minimizar los efectos de los nulos de la habitación, se verá que las frecuencias seleccionadas para cada una de las componentes de frecuencia de código de f_{1} hasta f_{10} están agrupadas alrededor de una frecuencia, por ejemplo, las componentes de frecuencia para f1, f2 y f3 están localizadas en la proximidad de 1055 Hz, 1180 Hz y 1340 Hz respectivamente. Específicamente, en este ejemplo, los tonos están espaciados aparte de por dos veces la resolución de la FFT, por ejemplo para una resolución de 4 Hz, los tonos se muestran espaciados por 8 Hz, y se eligen de modo que están en el medio de el intervalo de frecuencias de la ranura FFT. Además, el orden de las diversas frecuencias que se asignan a las componentes de frecuencias de f_{1} hasta f_{10} para representar los diversos símbolos 0, 1, S y E se varían en cada grupo. Por ejemplo, las frecuencias seleccionadas para las componentes f1, f2 y f3 corresponden a los símbolos (0, 1, S, E), (S, E, 0, 1) y (E, S, 1, 0), respectivamente desde la frecuencia más baja a la más alta, esto es, (1046,9; 1054,7; 1062,5; 1070,3), (1179,7; 1187,5; 1195,3; 1203,1), (1328,1; 1335,9; 1343,8, 1351,6). Un beneficio de este esquema es que incluso si hay un nulo de habitación que interfiera con la recepción correcta de una componente de código, en general se elimina el mismo código de cada uno de los símbolos, de modo que es más fácil decodificar un símbolo a partir de las restantes componentes. En contraste, si un nulo de habitación elimina una componente de un símbolo pero no de otro símbolo, es más difícil decodificar correctamente el símbolo.
Se apreciará que, en la alternativa, pueden emplearse más o menos de cuatro estados de datos separados o símbolos para codificar. Además, cada estado de dato o símbolo puede representarse por más o menos de diez tonos de código, y aunque es preferible que se use el mismo número de tonos para representar cada uno de los estados de datos, no es esencial en todas las aplicaciones que el número de tonos de código usados para representar cada estado de datos sea el mismo. Preferiblemente, cada uno de los tonos de código difiere en frecuencia de todos los demás tonos de código para maximizar la probabilidad de distinguir cada uno de los estados de datos bajo la decodificación. Sin embargo, no es esencial en todas las aplicaciones que ninguna de las frecuencias de tono código se comparta por dos o más estados de datos.
La Figura 5 es un diagrama de bloques funcional al cual se hace referencia para explicar la operación de codificación realizada por el sistema de codificación de la Figura 3. Como se ha observado anteriormente, el DSP 104 recibe datos del procesador principal 90 que designa la secuencia de estados de datos a sacar por el DSP 104 como grupos respectivos de componentes de frecuencia de código. Ventajosamente, el DSP 104 genera una tabla de búsqueda de representaciones del dominio del tiempo para cada una de las componentes de frecuencia de código de f_{1} hasta f_{40} que almacena a continuación en la RAM del mismo, representada por la memoria 110 de la Figura 5. En respuesta a los datos recibidos desde el procesador principal 90, el DSP 104 genera una dirección respectiva que aplica a una dirección de entrada de la memoria 110, como se indica en 112 en la Figura 5, para hacer que la memoria 110 saque los datos del dominio del tiempo del tiempo para cada una de las diez componentes de frecuencia correspondientes al estado de datos a sacar en ese instante.
También con referencia a la Figura 6, que es un diagrama de bloques funcional para ilustrar ciertas operaciones realizadas por el DSP 104, la memoria 110 almacena una secuencia de valores del dominio del tiempo para cada una de las componentes de frecuencia de cada uno de los símbolos S, E, 0 y 1. En esta ejemplo particular, como las componentes de frecuencia de código varían desde aproximadamente 2 kHz hasta aproximadamente 3 kHz, se almacena un número suficientemente grande de muestras en el dominio del tiempo en la memoria 110 por cada una de las componentes de frecuencia de f_{1} hasta f_{40} de modo que pueden sacarse a una tasa mayor que la frecuencia de Nyquist de la componente de código de frecuencia más elevada. Las componentes de código del dominio del tiempo se sacan a una tasa apropiadamente alta desde la memoria 110 que almacena las componentes del dominio del tiempo para cada una de las componentes de frecuencia de código que representan una duración predeterminada de modo que se almacenan (n) componentes del dominio del tiempo para cada una de las componentes de frecuencia de código de f_{1} hasta f_{40} para (n) intervalos de tiempo desde t_{1} hasta t_{n}, como se muestra en la Figura 6. Por ejemplo, si se va a codificar el símbolo S durante un intervalo de señal determinado, durante el primer intervalo t_{1}, la memoria 110 saca las componentes del dominio del tiempo de f_{1} hasta f_{10} correspondientes a ese intervalo como se almacenaron en la memoria 110. Durante el siguiente intervalo, se sacan por la memoria las componentes en el dominio del tiempo de f_{1} hasta f_{10} para el intervalo t_{2}. Este proceso continúa de forma secuencial para los intervalos de t_{3} hasta t_{n} y vuelve a t_{1} hasta que se completa la duración del símbolo codificado S.
En ciertos ejemplos, en lugar de sacar todas las diez componentes de código, por ejemplo, de f1 hasta f10 durante un intervalo de tiempo, sólo se sacan las componentes de código que caen dentro del ancho de banda crítico de los tonos de la señal de audio. Esta es una propuesta generalmente conservadora para asegurar que los componentes de código son inaudibles.
De nuevo con referencia a la Figura 5, el DSP 104 también sirve para ajustar las amplitudes de las componentes en el dominio del tiempo por la memoria 110 de modo que, cuando se reproducen las componentes de frecuencia de código como sonido, se enmascararán por componentes de la señal de audio en las que se han incluido de modo que son inaudibles para el oído humano. Por consiguiente, el DSP 104 está también provisto con la señal de audio recibida en el terminal de entrada 94 después del filtrado apropiado y la conversión de analógico a digital. Más específicamente, el codificador de la Figura 3 incluye un filtro paso banda analógico 120 que sirve para eliminar sustancialmente las componentes de frecuencia de la señal de audio fuera de la banda de interés para evaluar la capacidad de enmascaramiento de la señal de audio recibida que en la presente realización se extiende desde aproximadamente 1,5 kHz hasta aproximadamente 3,2 kHz. El filtro 120 también sirve para eliminar las componentes de alta frecuencia de la señal de audio que pueden causar solapamiento cuando la señal se digitaliza posteriormente por un convertidor de analógico a digital (A/D) 124 que funciona a una tasa de muestreo suficientemente alta.
Como se indica en la Figura 3, la señal de audio digitalizada se suministra por el A/D 124 al DSP 104 donde, como se indica en 130 en la Figura 5, la señal del programa de audio experimenta la separación de intervalos de frecuencia. En este ejemplo particular, la separación de intervalos de frecuencia se realiza como una Transformada Rápida de Fourier (FFT) que se realiza periódicamente con o sin solapamiento temporal para producir ranuras de frecuencia sucesivas teniendo cada una un ancho de frecuencia predeterminado. Otras técnicas están disponibles para la segregación de las componentes de frecuencia de las señales de audio, tales como la transformada del tren de ondas, la transformada discreta de Walsh Hadamard, la transformada discreta de Hadamard, la transformada discreta del coseno, así como las diversas técnicas de filtrado digital.
Una vez que el DSP 104 ha separado las componentes de frecuencia de la señal de audio digitalizada en las ranuras de frecuencia sucesivas, como se ha mencionado anteriormente, a continuación procede a evaluar la capacidad de las diversas componentes de frecuencia presentes en la señal de audio para enmascarar las diversas componentes de código de sacadas por la memoria 110 y para producir los factores de ajuste de amplitud respectivos que sirven para ajustar las amplitudes de las diversas componentes de frecuencia de código de modo que se enmascararán por el programa de audio cuando se reproducen como sonido de modo que serán inaudibles para el oído humano. Estos procesos se representan por el bloque 134 en la Figura 5.
Para las componentes de la señal de audio que son sustancialmente simultáneas con las componentes de frecuencia de código que están para enmascarar (pero que preceden las componentes de frecuencias de código por un periodo corto de tiempo), la capacidad de enmascaramiento de las componentes del programa de audio se evalúa sobre la base tonal, así como sobre la base de un enmascaramiento de banda estrecha y sobre la base de un enmascaramiento de banda ancha, como se describe más adelante. Para cada componente de frecuencia de código que se saca en un momento determinado por la memoria 112, se evalúa una capacidad de enmascaramiento tonal para cada una de una pluralidad de componentes de frecuencia de la señal de audio en base al nivel de energía en cada una de las ranuras respectivas en las que caen estas componentes así como en la relación de frecuencias de cada ranura con la componente de frecuencia de código respectiva. La evaluación en cada caso (tonal, banda estrecha y banda ancha) puede tomar la forma de un factor de ajuste de amplitud u otra medida que posibilita asignar una amplitud de la componente de código de modo que la componente de código se enmascara por la señal de audio. Como alternativa, la evaluación puede ser un análisis tonal deslizante.
En el caso de un enmascaramiento de banda estrecha, en este ejemplo para cada una de las componentes de frecuencia de código respectiva se evalúa el contenido de energía de las componentes de frecuencia por debajo de un nivel predeterminado dentro de una banda de frecuencia predeterminada incluyendo la componente de frecuencia de código respectiva para deducir una evaluación de la capacidad de enmascaramiento por separado. En ciertas implementaciones se mide la capacidad de enmascaramiento de banda estrecha en base al contenido de energía de las componentes de frecuencia de la señal de audio por debajo del nivel de energía media de la ranura dentro de la banda de frecuencias predeterminada. En esta implementación, se suman los niveles de energía de las componentes por debajo de los niveles de energía de las componentes por debajo de la energía media de la ranura (como un umbral de la componente) para producir un nivel de energía de banda estrecha en respuesta al cual se identifica la evaluación de enmascaramiento de banda estrecha correspondiente para la componente de código respectiva. Un nivel de energía de banda estrecha diferente puede producirse en cambio seleccionando un umbral de las componentes distinto que el nivel de energía media. Además, en aún otros ejemplos, el nivel de energía medio de todas las componentes de la señal de audio dentro de la banda de frecuencias predeterminada se usa como nivel de energía de la banda estrecha para asignar una evaluación de enmascaramiento de banda estrecha a la componente de código respectiva. En aún ejemplos adicionales, se usa en cambio el contenido de energía total de las componentes de la señal de audio dentro de la banda de frecuencia predeterminada, mientras que en otras realizaciones se usa un nivel de componente mínimo dentro de la banda de frecuencia predeterminada para este propósito.
Finalmente, en ciertas implementaciones se determina el contenido de energía de banda ancha de la señal de audio para evaluar la capacidad de la señal de audio para enmascarar la componente de frecuencia de código respectiva en base a un enmascaramiento de banda ancha. En este ejemplo, la evaluación de enmascaramiento de banda ancha se basa en el nivel de energía de banda estrecha mínimo encontrado en el curso de las evaluaciones del enmascaramiento de banda estrecha que se ha descrito anteriormente. Esto es, si se han investigado cuatro bandas de frecuencia predeterminadas por separado en el curso de la evaluación del enmascaramiento de banda estrecha como se ha descrito anteriormente, y se toma el ruido de banda ancha para incluir el nivel mínimo de energía de banda estrecha de entre todas las cuatro bandas de frecuencia predeterminadas (sin embargo determinadas), entonces el nivel mínimo de energía de banda estrecha se multiplica por un factor igual a la proporción del intervalo de frecuencias que se extiende por todas las cuatro bandas estrechas entre el ancho de banda de la banda de frecuencias predeterminada que tiene el nivel de energía mínimo de la banda estrecha. El producto resultante indica un nivel de potencia de código global permisible. Si el nivel de potencia de código permisible global se denomina P, y el código incluye diez componentes de código, a continuación se asigna a cada una un factor de ajuste de la amplitud para obtener un nivel de potencia de la componente que es 10 dB inferior a P. En la alternativa, el ruido de banda ancha se calcula para una banda relativamente ancha predeterminada que abarca las componentes de código seleccionando una de las técnicas tratadas anteriormente para evaluar el nivel de energía de banda estrecha pero usando en cambio las componentes de la señal de audio a través de toda la banda predeterminada relativamente ancha. Una vez que se ha determinado el ruido de banda ancha en el modo seleccionado, se asigna la evaluación de enmascaramiento de banda ancha correspondiente a cada una de las componentes de código respectiva.
El factor de ajuste de la amplitud para cada componente de frecuencia de código se selecciona a continuación en base a una de las evaluaciones de enmascaramiento, tonal, de banda estrecha y de banda ancha que obtiene el nivel más alto permisible para la componente respectiva. Esto maximiza la probabilidad de que cada una de las componentes de frecuencia de código respectiva será distinguible del ruido de señal no de audio mientras que el mismo tiempo se asegura que la componente de frecuencia de código respectiva se enmascarará de modo que sea inaudible para el oído humano.
Los factores de ajuste de la amplitud se seleccionan para cada uno de los enmascaramientos tonal, de banda estrecha y de banda ancha en base a los siguientes factores y circunstancias. En el caso de enmascaramiento tonal, los factores se asignan sobre la base de las frecuencias de las componentes de la señal de audio cuyas capacidades de enmascaramiento se están evaluando y la frecuencia o frecuencias de las componentes de código a enmascarar. Además, una señal de audio determinada sobre cualquier intervalo seleccionado proporciona la capacidad de enmascarar una componente de código determinada dentro del mismo intervalo (es decir, enmascaramiento simultáneo) al máximo nivel mayor que el nivel al cual la misma señal de audio sobre el intervalo seleccionado es capaz de enmascarar la misma componente de código que se produce antes o después del intervalo seleccionado (es decir, enmascaramiento no simultáneo). Preferiblemente también se tomarán en consideración las condiciones bajo las cuales la señal de audio codificada se oirá por una audiencia u otro grupo de audición, como sea apropiado. Por ejemplo, si se va a codificar audio de televisión, preferiblemente se tomarán en consideración los efectos de distorsión de un entorno de audición típico, ya que en tales entornos ciertas frecuencias se atenúan más que otras. El equipo de recepción y reproducción (tal como los ecualizadores gráficos) pueden causar efectos similares. Los efectos relacionados con el entorno y el equipo pueden compensarse seleccionando factores de ajuste de amplitud suficientemente bajos para asegurar el enmascaramiento en condiciones anticipadas.
En ciertos ejemplos solo se evalúa una de las capacidades de enmascaramiento tonal, de banda estrecha o de banda ancha. En otras realizaciones se evalúan dos de tales tipos de capacidades de enmascaramiento diferentes, y en otras se emplean los tres.
En ciertos ejemplos, se emplea un análisis tonal deslizante para evaluar la capacidad de enmascaramiento de la señal de audio. Generalmente un análisis tonal deslizante satisface las normas de enmascaramiento para el ruido de banda estrecha, el ruido de banda ancha y tonos únicos sin requerir una clasificación de la señal de audio. En el análisis tonal deslizante, la señal de audio se considera como un conjunto de tonos discretos estando centrado cada uno en una ranura de frecuencia de FFT respectiva. Generalmente, el análisis tonal deslizante calcula en primer lugar la potencia de la señal de audio en cada ranura FFT. A continuación, se evalúan para cada uno de los tonos de código, los efectos de enmascaramiento de los tonos discretos de la señal de audio en cada ranura de FFT separada en frecuencia de tal tono de código por no más del ancho de banda crítico del tono de audio en base a la potencia de la señal de audio en cada una de tales ranuras usando las relaciones de enmascaramiento para el enmascaramiento de un tono único. Los efectos de enmascaramiento de todos los tonos discretos relevantes de la señal de audio se suman para cada uno de los tonos de código, a continuación se ajustan para el número de tonos dentro del ancho de banda crítico de los tonos de la señal de audio y la complejidad de la señal de audio. Como se explica más adelante, en ciertos ejemplos, la complejidad del material del programa se basa empíricamente en la proporción de potencia en los tonos relevantes de la señal de audio y la raíz cuadrada de la suma de los cuadrados de las potencias en tales tonos de la señal de audio. La complejidad sirve para tener en cuenta el hecho de que el ruido de banda estrecha y el ruido de banda ancha proporcionan cada uno efectos de enmascaramiento mucho mejores que los que se obtienen por la simple suma de tonos usada para el modelo de ruido de banda estrecha y de banda ancha.
En ciertos ejemplos que emplean un análisis tonal deslizante, un número predeterminado de muestras de la señal de audio experimentan en primer lugar una FFT larga, que proporciona una alta resolución pero requiere un tiempo de procesamiento más largo. A continuación, las porciones sucesivas del número predeterminado de muestras experimentan una FFT relativamente más pequeña, que es más rápida pero proporciona una menor resolución. Los factores de amplitud encontrados de la FFT larga se combinan con los encontrados a partir de las FFT más pequeñas, que generalmente corresponden con la ponderación del tiempo, de una FFT larga de "precisión de frecuencia" más alta por la "precisión temporal" más elevada de la FFT mas pequeña.
En el ejemplo de la Figura 5, una vez que se ha seleccionado un factor de ajuste de amplitud apropiado para cada una de las componentes de frecuencia de código entregada por la memoria 110, el DSP 104 ajusta la amplitud de cada componente de frecuencia de código consecuentemente, como se indica por el bloque funcional "ajuste de amplitud" 114. En otros ejemplos, cada componente de frecuencia de código se genera inicialmente de modo que su amplitud se conforma a su factor de ajuste respectivo. Con referencia también a la Figura 6, la operación de ajuste de amplitud del DSP 104 en este ejemplo multiplica los diez valores seleccionados de las componentes de frecuencia de código del dominio del tiempo de f_{1} hasta f_{40} para el intervalo de tiempo actual de t_{1} hasta t_{n} por un factor de ajuste de amplitud respectivo de G_{A1} hasta G_{A10} y a continuación el DSP 104 procede a sumar la amplitud ajustada de las componentes en el dominio del tiempo para producir una señal de código compuesta que suministra en su salida 106. Con referencia a las Figuras 3 y 5, la señal de código compuesta se convierte a forma analógica por un convertidor de digital a analógico (DAC) 140 y se suministra por el mismo a una primera entrada de un circuito sumador 142. El circuito sumador 142 recibe la señal de audio desde el terminal de entrada 94 en una segunda entrada y suma la señal de código analógica compuesta con la señal de audio analógica para suministrar una señal de audio codificada en la salida del
mismo 146.
En las aplicaciones de difusión de radio, la señal de audio codificada modula una onda portadora y se difunde en el aire. En las aplicaciones de difusión de televisión NTSC, la frecuencia de la señal de audio codificada modula una sub-portadora y se mezcla con la señal de vídeo compuesta de modo que la señal combinada se usa para modular una portadora de difusión para su difusión en el aire. Las señales de radio y televisión, por supuesto, también pueden transmitirse por cable (por ejemplo, cable convencional o de fibra óptica), satélite o cualquier otro. En otras aplicaciones, el audio codificado puede grabarse bien para su distribución en forma de grabación o para su posterior difusión u otra amplia diseminación. El audio codificado también puede emplearse en transmisiones punto a punto. Diversas otras aplicaciones, y técnicas de transmisión y grabación resultarán evidentes.
Las Figuras desde 7A a la 7C proporcionan diagramas de flujo para ilustrar una rutina software realizada por el DSP 104 para implementar la evaluación de las funciones de enmascaramiento tonal, de banda estrecha y de banda ancha del mismo que descritos anteriormente. La Figura 7A ilustra un bucle principal del programa software del DSP 104. El programa se inicia por un comando desde el procesador principal 90 (etapa 150), con la cual el DSP 104 inicializa sus registros hardware (etapa 152) y a continuación procede en la etapa 154 a calcular los datos de las componentes de código en el dominio del tiempo sin ponderar como se ilustra en la figura 6 que a continuación almacena en memoria para leerse cuando sea necesario para generar las componentes de código en el dominio del tiempo, como se ha mencionado anteriormente en este documento. En la alternativa, esta etapa puede omitirse si las componentes de código están almacenadas permanentemente en una ROM o en otro almacenamiento no volátil. Es posible calcular los datos de las componentes de código cuando se requiere, aunque esto se sume a la carga de procesamiento. Otra alternativa es producir componentes de código no ponderadas en forma analógica y a continuación ajustar las amplitudes de las componentes analógicas por medio de factores de ponderación producidos por un procesador digital.
Una vez que se han calculado y almacenado los datos en el dominio del tiempo, en la etapa 156 el DSP 104 comunica una petición al procesador principal 90 de un próximo mensaje a codificar. El mensaje es una cadena de caracteres, número enteros, u otro conjunto de símbolos de datos que identifican de forma unívoca los grupos de componentes de código a sacar por el DSP 104 para el cual se ha predeterminado el mensaje. En otros ejemplos, el ordenador principal, sabiendo la tasa de datos de la salida del DSP, determina por si mismo cuando suministrar un próximo mensaje al DSP fijando un temporizador apropiado y suministrando el mensaje en la condición de vencimiento del temporizador. En un ejemplo de una alternativa adicional, se acopla un decodificador con la salida del DSP 104 para recibir las componentes de código de salida para decodificar las mismas y retroalimentar el mensaje al procesador principal como salida por el DSP de modo que el ordenador principal puede determinar cuándo suministrar un mensaje adicional al DSP 104.
En aún otros ejemplos, las funciones el procesador principal 90 y el DSP 104 se realizan por un procesador único.
Una vez que se ha recibido el siguiente mensaje desde el procesador principal, de conformidad con la etapa 156, el DSP procede a generar las componentes de código para cada símbolo del mensaje para suministrar las componentes de frecuencia de código ponderadas en su salida 106. Este proceso se representa por un bucle identificado por la etiqueta 160 en la Figura 7A.
Una vez introducido el bucle simbolizado por la etiqueta 160, el DSP 104 posibilita las interrupciones de los temporizadores 1 y 2 y a continuación entra en la subrutina 162 de "calcular factores de ponderación" que se describirán en conexión con los diagramas de flujo de las Figuras 7B y 7C. Con referencia en primer lugar a la Figura 7B, una vez que entra en la subrutina 162 de cálculo de los factores de ponderación el DSP determina en primer lugar si se ha almacenado un número suficiente de muestras de la señal de audio que permita realizar una FFT de alta resolución para analizar el contenido espectral de la señal de audio durante el intervalo mas reciente de la señal de audio predeterminado, como se indica por la etapa 163. Una vez inicializado, en primer lugar debe estar acumulado un número suficiente de muestras de la señal de audio para realizar la FFT. Sin embargo, si se emplea una FFT de solapamiento, durante los pases posteriores a través del bucle correspondiente se necesitan menos muestras de datos almacenadas antes de realizar la FFT siguiente.
Como se verá de la Figura 7B, el DSP se mantiene en un bucle estrecho en la etapa 163 esperando la acumulación de muestras necesarias. A cada interrupción del temporizador 1, el A/D 124 proporciona una nueva muestra digitalizada de la señal del programa de audio que se acumula en un almacenamiento de datos del DSP 104, como se indica por la subrutina 164 en la Figura 7A.
Volviendo a la Figura 7B, una vez que se ha acumulado un número suficientemente grande de datos de muestras por el DSP, continúa el procesamiento en la etapa 168 en la que se realiza la FFT de alta resolución mencionada anteriormente sobre las muestras de datos de la señal de audio del intervalo de la señal de audio más reciente. Después de esto, como se indica por la etiqueta 170, se calcula un factor de ponderación respectivo o factor de ajuste de la amplitud para cada una de las diez componentes de frecuencia de código en el símbolo que se está codificando actualmente. En la etapa 172, se determina que una de las ranuras de frecuencias producidas por la FFT de alta resolución (etapa 168) que proporciona la capacidad de enmascarar el nivel más elevado de la componente de código respectiva sobre la base de un único tono ("tonal dominante") del modo que se ha tratado anteriormente.
Con referencia también a la Figura 7C, en la etapa 176, se determina y se retiene el factor de ponderación para el tonal dominante para su comparación con las capacidades de enmascaramiento relativas proporcionadas por el enmascaramiento de banda estrecha y de banda ancha y, si se encuentra que es el enmascaramiento mas eficaz se usa como el factor de ponderación para fijación de la amplitud de la componente de frecuencia de código actual. En la etapa posterior 180 se realiza una evaluación de las capacidades de enmascaramiento de banda estrecha y de banda ancha del modo que se ha descrito anteriormente. Después de esto, en la etapa 182, se determina si el enmascaramiento de banda ancha proporciona la mejor capacidad para enmascarar las componentes de código respectivas y, si es así, en la etapa 184, se actualiza el factor de ponderación en base al enmascaramiento de banda estrecha. En una etapa posterior 186, se determina si el enmascaramiento de banda ancha proporciona la mejor capacidad para enmascarar las componentes de frecuencias de código respectivas, y si es así, en la etapa 190, se ajusta el factor de ponderación para la componente de frecuencia de código respectiva se ajusta en base al enmascaramiento de banda ancha. A continuación, en la etapa 192 se determina si se han seleccionado los factores de ponderación para cada una de las componentes de frecuencia de código a sacar actualmente para representar el símbolo actual y, en caso contrario, el bucle se reinicia para seleccionar un factor de ponderación para la siguiente componente de frecuencia de código. Sin embargo, si se han seleccionado los factores de ponderación para todas las componentes, la rutina se termina a continuación como se indica en la etapa 194.
Cuando se produce la interrupción del temporizador 2, el procesamiento continúa en la subrutina 200 en la que se realizan las funciones ilustradas en la Figura 6 anterior. Esto es, en la subrutina 200 las factores de ponderación calculados durante la subrutina 162 se usan para multiplicar los valores respectivos en el dominio del tiempo del símbolo actual a sacar y a continuación se suman los valores de las componentes de código ponderadas en el dominio del tiempo y se saca como una señal de código compuesta ponderada al DAC 140. Cada símbolo de código se saca durante un periodo predeterminado de tiempo a cuya expiración el procesamiento vuelve a la etapa 156 desde la etapa 202.
Las Figuras 7D y 7E muestran diagramas de flujo que ilustran una implementación de la técnica de análisis tonal deslizante para la evaluación de los efectos del enmascaramiento de una señal de audio. En la etapa 702, se inicializan variables tales como el tamaño en las muestras de una FFT larga y una FFT mas pequeña, el número de FFT mas pequeñas por FFT larga y el número de tonos de código por símbolo, por ejemplo, 2048, 256, 8 y 10, respectiva-
mente.
En las etapas 704-708, se analizan varias muestras correspondientes a una FFT larga. En la etapa 704, se obtienen las muestras de la señal de audio. En la etapa 706, se obtiene la potencia del material del programa en cada ranura de FFT. En la etapa 708, se obtiene la potencia del tono de código permisible en cada ranura FFT correspondiente, dando cuentas de los efectos de todos los tonos de la señal de audio relevantes en esa ranura, para cada uno de los tonos. El diagrama de flujo de la Figura 7E muestra la etapa 708 con mas detalle.
En las etapas 710-712, se analizan varias muestras correspondientes a una FFT más pequeña, de forma similar a las etapas 706-708 para una FFT larga. En la etapa 714, las potencias de código permisibles encontradas de la FFT larga en la etapa 708 y la FFT mas pequeña en la etapa 712 se fusionan por la porción de muestras que han experimentado una FFT más pequeña. En la etapa 716, los tonos de código se mezclan con la señal de audio para formar audio codificado, y en la etapa 718, se saca el audio codificado al DAC 140. En la etapa 720, se decide repetir las etapas 710-718, esto es, si hay porciones de muestras de la señal de audio que han experimentado una FFT larga pero no una FFT pequeña. A continuación, en la etapa 722, si hay más muestras de audio, se analiza el siguiente número de muestras correspondiente a una FFT larga.
La Figura 7E proporciona detalles para las etapas 708 y 712, que calculan la potencia de código permisible en cada ranura FFT. Generalmente, este procedimiento modela la señal de audio como comprendiendo un conjunto de tonos (véanse ejemplos más adelante), calcula el efecto de enmascaramiento de cada señal de tono de la señal de audio sobre cada tono de código, suma los efectos de enmascaramiento y ajusta la densidad de los tonos de código y la complejidad de la señal de audio.
En la etapa 752, se determina la banda de interés. Por ejemplo, deja que la banda usada para codificar sea de 800 a 3200 Hz, y que la frecuencia de muestreo sea de 44.100 muestras por segundo. La ranura de comienzo arranca en 800 Hz, y la ranura de final termina en 3.200 Hz.
En la etapa 754, se determina el efecto de enmascaramiento de cada tono de la señal de audio relevante sobre cada código en esta ranura usando la curva de enmascaramiento para un tono único, y compensando el ancho de la ranura de FFT de la señal de audio distinta de cero determinando (1) un primer valor de enmascaramiento basado en la suposición de que toda la potencia de la señal de audio está en el extremo superior de la ranura, y (2) un segundo valor de enmascaramiento basado en la suposición de que toda la potencia de la señal de audio está en el extremo inferior de la ranura, y eligiendo a continuación el más pequeño de los valores de enmascaramiento primero y
segundo.
La Figura 7F muestra una aproximación de la curva de enmascaramiento de un tono único para un tono de la señal de audio en una frecuencia de fPGM que es aproximadamente 2200 Hz en este ejemplo, siguiendo Zwislocki, J. J., "Masking: Experimental and Theoretical Aspect of Simultaneous, Forward, Backward and Central Masking", de 1978, de Zwicker y otros, ed., Psychoacoustics: Facts and Models, páginas 283-316 Springer-Verlag, Nueva York. El ancho de la banda crítica (CB) se define por Zwislocki como:
banda crítica = 0,002 * f_{PGM}^{1,5} + 100
con las siguientes definiciones, y dejando que el "enmascaramiento" sea el tono de la señal de audio,
\vskip1.000000\baselineskip
BRKPOINT = 0,3
/ +/- 0,3 bandas críticas/
PEAKFAC = 0,025119
/ -16 dB desde el enmascaramiento/
BEATFAC = 0,002512
/ -26 dB desde el enmascaramiento/
mNEG = -2,40
/ -24 dB por banda crítica/
mPOS = - 0,70
/ -7 dB por banda crítica/
cf = frecuencia de código
mf = frecuencia de enmascaramiento
cband = banda crítica alrededor de f_{PGM}
\vskip1.000000\baselineskip
a continuación puede calculase el factor de enmascaramiento, mfactor, como sigue:
brkpt = cband * BRKPOINT
si es sobre la pendiente negativa de la curva de la Figura 7F,
mfactor = PEAKFAC * 10**(mNeg * mf - brkpt - cf)/cband)
si es sobre la parte plana de la curva de la Figura 7F,
mfactor = BEATFAC
si es sobre la pendiente positiva de la curva de la Figura 7F,
mfactor = PEAKFAC * 10 ** (mPOS * cf - brkpt - mf)/cband)
Específicamente, se calcula un primer mfactor en base a la suposición de que toda la potencia de la señal de audio está en el extremo inferior de su ranura, a continuación se calcula un segundo mfactor asumiendo que toda la potencia de la señal de audio está en el extremo superior de su ranura, y se elije el más pequeño de los mfactor primero y segundo como el valor de enmascaramiento proporcionado por ese tono de la señal de audio para el tono de código seleccionado. En la etapa 754, se realiza este procesamiento para cada tono de la señal de audio relevante para cada tono de código.
En la etapa 756, se ajusta cada tono de código por cada uno de los factores de enmascaramiento correspondientes a los tonos de la señal de audio. En este ejemplo, el factor de enmascaramiento se multiplica por la potencia de la señal de audio en la ranura relevante.
En la etapa 758, el resultado de multiplicar los factores de enmascaramiento por la potencia de la señal de audio se suma para cada ranura, para proporcionar una potencia permisible para cada tono de código.
En la etapa 760, se ajustan las potencias de tono de código permisibles para el número de tonos de código dentro de un ancho de banda crítica sobre cualquiera de los lados del tono de código que se está evaluando, y para la complejidad de la señal de audio. Se contabiliza el número de tonos de código dentro la banda crítica, CTSUM. El factor de ajuste ADJFAC, esta dado por:
ADJFAC = GLOBAL * (PSUM/PRSS)^{1,5} / CTSUM
donde GLOBAL es un factor de reducción que tiene en cuenta para el codificador la imprecisión debida a los retrasos temporales en la realización de la FFT.
(PSUM/PRSS)^{1,5} es un factor de corrección empírico de complejidad, y 1/CTSUM representa simplemente dividir la potencia de la señal de audio entre todos los tonos de código a enmascarar. PSUM es la suma de los niveles de potencia de tonos de enmascaramiento asignados para el enmascaramiento del tono de código cuyo ADJFAC se está determinando. La raíz cuadrada de la suma de las potencias al cuadrado (PRSS) se determina por
100
Por ejemplo, asumiendo una potencia total del tono de enmascaramiento en una banda igualmente difundida entre uno, dos y tres tonos, entonces
\vskip1.000000\baselineskip
2
\newpage
De este modo, PRSS mide la concentración (valores en aumento) de la potencia de enmascaramiento o la dispersión (valores en disminución) del material del programa.
En la etapa 762 de la Figura 7E, se determina si hay más ranuras en la banda de interés, y si es así, se procesan como se ha descrito anteriormente.
A continuación se proporcionarán ejemplos de cálculos de enmascaramiento. Se asume un símbolo de la señal de audio de 0 dB, de modo que los valores proporcionados son las potencias de tono de código máximas relativas a la potencia de la señal de audio. Se proporcionan cuatro casos: un tono único de 2.500 Hz; tres tonos a 2.000, 2.500 y 3.000 Hz; un ruido de banda estrecha modelado como 75 tonos dentro de la banda crítica centrada en 2.600, esto es, 75 tonos igualmente espaciados a 5 Hz en el intervalo entre 2.415 y 2.785 Hz; y un ruido de banda ancha modelado como 351 tono igualmente espaciados a 5 Hz en el intervalo entre 1.750 y 3.250 Hz. Para cada caso el resultado calculado del análisis tonal deslizante (STA) se compara con el resultado calculado de seleccionar el mejor de los análisis de tono único, ruido de banda estrecha y ruido de banda ancha.
\vskip1.000000\baselineskip
3
\vskip1.000000\baselineskip
Por ejemplo, en el análisis tonal deslizante (STA) para el caso de un tono único, el tono de enmascaramiento es de 2.500 Hz, correspondiente a un ancho de banda crítica de 0,002 * 2500^{1,5} + 100 = 350 Hz. Los puntos de ruptura para la curva de la Figura 7F son 2.500 \pm 0,3 * 350 ó 2.395 y 2.605 Hz. La frecuencia de código de 1.976 se ve que está sobre la porción de pendiente negativa de la curva de la Figura 7F, de modo que el factor de enmascaramiento es
mfactor
= 0,025119 * 10 ^{-2,4 * (2500-105-1976) / 350}
\quad
= 3,364 * 10 ^{-5}
\quad
= -44,7 dB
Hay tres tonos de código dentro de la banda crítica de 1.976 Hz, de modo que la potencia de enmascaramiento se divide entre ellos:
3,364 * 10 ^{-5} / 3 = -49,5 dB
Este resultado se redondea a -50 dB mostrado en la parte superior izquierda de la tabla de cálculos de la muestra.
En el análisis de "El Mejor de 3", el enmascaramiento tonal se calcula de acuerdo con el método del tono único explicado anteriormente junto con la Figura 7F.
En el análisis de "El Mejor de 3", el enmascaramiento de ruido de banda estrecha se calcula calculando en primer lugar la potencia media a través de una banda crítica centrada sobre la frecuencia del tono de código de interés. Los tonales con mayor potencia que la potencia media no se consideran como parte del ruido y se eliminan. La suma de la potencia restante es la potencia del ruido de banda estrecha. La potencia del tono de código máxima permisible está a - 6 dB de la potencia del ruido de banda estrecha para todos los tonos de código dentro de un ancho de banda crítico del tono de código de interés.
En el análisis de "El Mejor de 3", el enmascaramiento de ruido de banda ancha se calcula calculando la potencia de ruido de banda estrecha para bandas críticas centradas en 2.000, 2.280, 2.600 y 2.970 Hz. La potencia de ruido de banda estrecha mínima resultante se multiplica por la proporción del ancho de banda total entre el ancho de banda crítica apropiado para encontrar la potencia de ruido de banda ancha. Por ejemplo, si la banda centrada en 2600 Hz que tiene una banda crítica de 370 Hz es la mínima, su potencia de ruido de banda estrecha se multiplica por 1322 Hz/370 Hz = 3,57 para producir la potencia de ruido de banda ancha. La potencia de tono de código permitida está a -3 dB de la potencia de ruido de banda ancha. Cuando hay diez tonos de código, la potencia máxima permisible para cada uno es 10 dB menor, ó -13 dB de la potencia de ruido de banda ancha.
Los cálculos del análisis tonal deslizante se ve que corresponden generalmente para los cálculos del "Mejor de 3", indicando que el análisis tonal deslizante es un método robusto. Adicionalmente, los resultados proporcionados por el análisis tonal deslizante en el caso de tonos múltiples son mejores, esto es, permiten potencias de los tonos de código mayores que en el análisis del "Mejor de 3", indicando que el análisis tonal deslizante es adecuado incluso para casos en los que no se adaptan claramente en uno de los cálculos del "Mejor de 3".
Refiriéndonos ahora a la Figura 8, se muestra un codificador que emplea circuitería analógica en forma de bloque en el mismo. El codificador analógico recibe una señal de vídeo en forma analógica en el terminal de entrada 210 desde el cual se suministra la señal de audio como una entrada a los N circuitos del generador de componentes de 220_{1} hasta 220_{N} cada uno de los cuales genera una componente de código respectiva de C_{1} hasta C_{N}. Por simplicidad y claridad sólo se muestran los circuitos del generador de componentes de 220_{1} hasta 220_{N} en la Figura 8. Para generar de forma controlable las componentes de código de los símbolos de datos respectivos a incluir en la señal de audio para formar una señal de audio codificada, cada uno de los circuitos del generador de componentes se alimenta con una entrada de datos respectiva desde el terminal 222_{1} hasta el 222_{N} que sirve como una entrada de activación para su circuito generador de componentes respectivo. Cada símbolo se codifica como un subconjunto de componentes de código de C_{1} hasta C_{N} aplicando de forma selectiva una señal de activación a ciertos circuitos de los circuitos del generador de componentes de 220_{1} hasta 220_{N}. Las componentes de código generadas correspondientes con cada uno de los símbolos de datos se suministran como entrada al circuito sumador 226 que recibe la señal de audio de entrada desde el terminal de entrada 210 en una entrada adicional, y sirve para sumar las componentes de código con la señal de audio de entrada para producir la señal de audio codificada que se suministra como una salida del mismo.
Cada uno de los circuitos del generador de componentes es similar en construcción e incluye un circuito de determinación del factor de ponderación de 230_{1} hasta 230_{N}, un generador de la señal respectiva de 232_{1} hasta 232_{N}, y un circuito de conmutación respectivo de 234_{1} hasta 234_{N}. Cada uno de los generadores de señal de 232_{1} hasta 232_{N} produce una frecuencia de componente de código diferente respectivamente y suministra la componente generada al circuito de conmutación respectivo de 234_{1} hasta 234_{N}, cada uno de los cuales tiene una segunda entrada acoplada a tierra y una salida acoplada con una entrada del circuito respectivo de los circuitos de multiplicación de 236_{1} hasta 236_{N}. En respuesta a la recepción de una entrada de activación en su terminal de entrada de datos respectivo de 222_{1} hasta 222_{N}, responde cada uno de los circuitos de conmutación de 234_{1} hasta 234_{N} acoplando la salida de su generador de señal respectivo de 232_{1} hasta 232_{N} a la entrada del circuito correspondiente de los circuitos de multiplicación de 236_{1} hasta 236_{N}. Sin embargo, en ausencia de una señal de activación en la entrada de datos, cada circuito de conmutación de 234_{1} hasta 234_{N} acopla su salida a la entrada puesta a tierra de modo que la salida del correspondiente multiplicador de 236_{1} hasta 236_{N} está a un nivel de cero.
Cada circuito de determinación del factor de ponderación de 230_{1} hasta 230_{N} sirve para evaluar la capacidad de las componentes de frecuencia de la señal de audio dentro de una banda de frecuencia correspondiente de la misma para enmascarar la componente de código producida por el generador correspondiente de 232_{1} hasta 232_{N} para producir un factor de ponderación que se suministra como entada al circuito de multiplicación correspondiente 236_{1} hasta 236_{N} para ajustar la amplitud de la componente de código correspondiente para asegurar que se enmascarará por la porción de la señal de audio que se evaluó por el circuito de determinación del factor de ponderación. Con referencia también a la Figura 9, la construcción de cada uno de los circuitos de determinación del factor de ponderación de 230_{1} hasta 230_{N}, indicados como el circuito de ejemplo 230, se ilustra en forma de bloque. El circuito 230 incluye un filtro de enmascaramiento 240 que recibe la señal de audio en una entrada del mismo y sirve para separar la porción de la señal de audio que se va a usar para producir un factor de ponderación a suministrar al multiplicador respectivo de los multiplicadores de 236_{1} hasta 236_{N}. Las características del filtro de enmascaramiento, además, se seleccionan para ponderar las amplitudes de las componentes de la frecuencia de la señal de audio de acuerdo con sus capacidades relativas para enmascarar la componente de código respectiva.
La porción de la señal de audio seleccionada por el filtro de enmascaramiento 240 se suministra a un circuito de valor absoluto 242 que produce una salida que representa el valor absoluto de una porción de la señal dentro de la banda de frecuencias pasada por el filtro de enmascaramiento 240. La salida del circuito de valor absoluto 242 se suministra como entrada a un amplificador de escala 244 que tiene una ganancia seleccionada para producir una señal de salida que, cuando se multiplica por la salida del conmutador correspondiente de 234_{1} hasta 234_{N}, producirá una componente de código en la salida del correspondiente multiplicador de 236_{1} hasta 236_{N} que asegurará que la componente de código multiplicada se enmascarará por la porción seleccionada de la señal de audio pasada por el filtro de enmascaramiento 240 cuando la señal de audio codificada se reproduce como sonido. Cada circuito de determinación del factor de ponderación de 230_{1} hasta 230_{N} produce, por lo tanto, una señal que representa una evaluación de la capacidad de la porción seleccionada de la señal de audio para enmascarar la componente de código correspondiente.
En otros ejemplos de codificadores analógicos, se suministran múltiples circuitos de determinación del factor de ponderación para cada generador de componente de código, y cada uno de los múltiples circuitos de determinación del factor de ponderación correspondiente a una componente de código determinada evalúa la capacidad de una porción diferente de la señal de audio para enmascarar esa componente particular cuando se reproduce la señal de audio codificada como sonido. Por ejemplo, puede suministrarse una pluralidad de tales circuitos de determinación de los factores de ponderación cada uno de los cuales evalúa la capacidad de una porción de la señal de audio dentro de una banda de frecuencia relativamente estrecha (de modo que la energía de la señal de audio dentro de tal banda consistirá con toda probabilidad de una componente de frecuencia única) para enmascarar la componente de código respectiva cuando se reproduce el audio codificado como sonido. También puede suministrarse un circuito adicional de determinación del factor de ponderación para la misma componente de código respectiva para evaluar la capacidad de la energía de la señal de audio dentro de una banda crítica que tiene la frecuencia de componente de código como frecuencia central para enmascarar la componente de código cuando se reproduce la señal de audio codificada como sonido.
Además, aunque los diversos elementos de las Figuras 8 y 9 se implementan por circuitos analógicos, se apreciará que se puede implementar las mismas funciones realizadas por tales circuitos analógicos, en todo o en parte por circuitería digital.
Decodificación
A continuación se describirán los decodificadores y los métodos de codificación que están especialmente adaptados para decodificar las señales de audio codificadas por las técnicas que se han descrito anteriormente en este documento, así como en general para decodificar los códigos incluidos en las señales de audio de modo que los códigos pueden distinguirse de las mismas en base a su amplitud. De acuerdo con ciertas características de la presente invención, y con referencia al diagrama de bloques funcionales de la Figura 10, la presencia de una o más componentes de código en una señal de audio codificada se detecta estableciendo una amplitud o amplitudes esperadas para la una o más componentes de código en base a cualquiera o ambos de, el nivel de la señal de audio y el nivel del ruido de la señal no de audio como se indica por el bloque funcional 250. Una o más señales que representan tal amplitud o amplitudes esperadas se suministran, como en 252 en la Figura 10, para determinar la presencia de la componente de código detectando una señal correspondiente a la amplitud o amplitudes esperadas como se indica por el bloque funcional 254. El aparato de acuerdo con la presente invención está particularmente bien adaptado para detectar la presencia de componentes de código que están enmascarados por otras componentes de la señal de audio ya que la relación de amplitud entre las componentes de código y las otras componentes de la señal de audio está, hasta cierto punto, predeterminada.
La Figura 11 es un diagrama de bloques de un aparato de acuerdo con una realización de la presente invención en la forma de un decodificador que emplea el procesamiento digital de señales para extraer códigos de las señales de audio codificadas recibidas por el decodificador en forma analógica. El decodificador de la Figura 11 tiene un terminal de entrada 260 para recibir la señal de audio analógica codificada que puede ser, por ejemplo, una señal recogida por un micrófono y que incluye difusiones de radio o televisión reproducidas como sonido por un receptor, u otras tales como señales de audio analógico codificadas, proporcionadas en la forma de señales eléctricas directamente desde tal receptor. Tal audio analógico codificado puede también producirse reproduciendo una grabación de un sonido tal como un disco compacto o una cinta de casete. Los circuitos de acondicionamiento analógico 262 se acoplan con la entrada 260 para recibir el audio analógico codificado y sirven para realizar una amplificación de la señal, control automático de ganancia, y filtrado paso bajo de anti-solapamiento anterior a la conversión de analógico a digital. Además, los circuitos de acondicionamiento analógico 262 sirven para realizar la operación de filtrado paso banda para asegurar que la salida señales está limitada por lo tanto a un intervalo de frecuencias en el que pueden aparecer las componentes de código. Los circuitos de acondicionamiento analógico 262 sacan las señales de audio analógico procesadas a un convertidor de analógico a digital (A/D) 263 que convierte las señales recibidas a la forma digital y suministra las mismas al procesador de señales digitales (DSP) 266 que procesa las señales analógicas digitalizadas para detectar la presencia de componentes de código y determina los símbolos de código que representan. El procesador de señales digitales 266 se acopla con la memoria 270 (que comprende ambas memorias de programa y de almacenamiento de datos) y con circuitos de entrada/salida (I/O) 272 para recibir comandos externos (por ejemplo, un comando para iniciar la decodificación o un comando para sacar los códigos almacenados y sacar los mensajes decodificados.
A continuación se describirá el funcionamiento del decodificador digital de la Figura 11 para decodificar las señales de audio codificadas por medio del aparato de la Figura 3. Los circuitos de acondicionamiento analógico 262 sirven para filtrar en paso banda las señales de audio codificadas con una banda de paso que se extiende desde aproximadamente 1,5 kHz hasta 3,1 kHz y el DSP 266 muestrea las señales analógica filtradas a una tasa apropiadamente elevada. A continuación la señal de audio digitalizada se separa por el DSP 266 en los intervalos de las componentes de frecuencia o ranuras por el procesamiento de la FFT. Más específicamente, se realiza una FFT de ventana con solapamiento, sobre un número predeterminado de los puntos de datos mas recientes, de modo que se realiza periódicamente una nueva FFT sobre la recepción de un número suficiente de nuevas muestras. Los datos se ponderan como se tratará más adelante y se realiza la FFT para producir un número predeterminado de ranuras de frecuencia cada una de las cuales tiene un ancho predeterminado. Se calcula la energía B(i) de cada ranura de frecuencias en un intervalo que abarca las frecuencias de la componente de código por el DSP 266.
Se realiza una estimación del nivel de ruido alrededor de cada ranura en la que puede producirse una componente de código. En consecuencia, cuando se usa el decodificador de la Figura 11 para decodificar las señales codificadas por la realización de la Figura 3, hay 40 ranuras de frecuencia dentro de las cuales puede aparecer una componente de código. Para cada una de tales ranuras de frecuencia se estima un nivel de ruido como sigue. En primer lugar, se calcula la energía media E(j) en las ranuras de frecuencia dentro de una ventana que se extiende en frecuencia por encima y por debajo de la ranura de frecuencia particular de interés j (esto es, la ranura en la cual puede aparecer la componente de código) de acuerdo con la siguiente relación:
E (j) = \frac{1}{2w + 1} \sum B(i)
donde i = ( (j - w) \rightarrow (j + w) y w representa la extensión de la ventana por encima y por debajo de la ranura de interés en número de ranuras. A continuación se estima el nivel de ruido NS (j) en la ranura de frecuencia j de acuerdo con la siguiente fórmula:
NS (j) = (\sumBn(i)) / (\sum\delta (i))
donde B_{n}(i) es igual a B(i) (el nivel de energía en la ranura i) si B(i) < E(j) y de lo contrario B(i) es igual a cero, y \delta(i)
es igual a 1 si B(i) < E(i) y de lo contrario \delta(i) es igual a cero. Esto es, se asume que las componentes de ruido a incluir las componentes que tienen un nivel menor que el nivel de energía media dentro de la ventana particular que rodea la ranura de interés, y de este modo incluye las componentes de la señal de audio que caen por debajo de tal nivel de energía media.
Una vez que se ha estimado el nivel de ruido para la ranura de interés, se estima la relación de señal a ruido para esa ranura SNR (j) dividiendo el nivel de energía B(j) en la ranura de interés por el nivel de ruido estimado NS(j). Los valores de SNR (j) se emplean tanto para detectar la presencia y temporización de los símbolos de sincronización como los estados de los símbolos de datos, como se tratará más adelante. Pueden emplearse diversas técnicas para eliminar las componentes de la señal de audio a partir de la consideración como componentes de código sobre una base estadística. Por ejemplo, puede asumirse que la ranura que tiene la proporción de señal a ruido más elevada incluye una componente de señal de audio. Otra posibilidad es excluir aquellas ranuras que tienen una SNR (j) por encima de un valor predeterminado. Aún otra posibilidad es dejar de considerar aquellas ranuras que tienen las SNR (j) más altas y/o más bajas.
Cuando se usan para detectar la presencia de códigos en las señales de audio codificadas por medio del aparato de la Figura 3, el aparato de la Figura 11 acumula datos que indican la presencia de componentes de código en cada una de las ranuras de interés repetidamente por al menos una porción mayor del intervalo predeterminado en el que puede encontrase el símbolo de código. Por consiguiente, el proceso anterior se repite múltiples veces y los datos de presencia de componente se acumulan para cada ranura de interés sobre esa trama de tiempo. Las técnicas para establecer la detección apropiada de tramas de tiempo en base al uso de los códigos de sincronización se tratarán con más detalle más adelante en este documento. Una vez que el DSP 266 ha acumulado tales datos para la trama de tiempo relevante, a continuación determina cuál de las posibles señales de código estaba presente en la señal de audio del modo que se trata más adelante. A continuación el DSP 266 almacena el símbolo de código detectado en la memoria 270 junto con un sello temporal para identificar el tiempo en el que se detectó el símbolo en base a una señal de reloj interna del DSP. Después de esto, en respuesta a un comando apropiado para el DSP 266 recibido a través del circuito de entrada/salida 272, el DSP hace que la memoria 270 saque los símbolos de código almacenados y los sellos temporales a través de los circuitos de entrada/salida 272.
Los diagramas de flujo de las figuras 12A y 12B ilustran la secuencia de operaciones realizadas por el DSP 266 para decodificar un símbolo codificado en la señal de audio analógico recibida en el terminal de entrada 260. Con referencia en primer lugar a la Figura 12A, una vez que se inicia el proceso de decodificación, el DSP 266 entra en un bucle del programa principal en la etapa 450 en el que fija un indicador SYNCH de modo que el DSP 266 comienza en primer lugar una operación para detectar la presencia de los símbolo de sincronismo E y S en la señal de audio de entrada en un orden del mensaje predeterminado. Una vez que se realiza la etapa 450 el DSP 266 llama una subrutina DET, que se ilustra en el diagrama de flujo de la Figura 12B para buscar la presencia de componentes de código que representen los símbolos de sincronismo en la señal de audio.
\newpage
Refiriéndonos a la Figura 12B, en la etapa 454, el DSP recoge y almacena muestras de la señal de entrada de audio repetidamente hasta que se ha almacenado un número suficiente para realizar la FFT descrita anteriormente. Una vez que se ha logrado esto, los datos almacenados se sujetan a una función de ponderación, tal como una función de ponderación del coseno al cuadrado, función de Kaiser-Bessel, función Gaussian (Poisson), función de Hanning u otra función de ponderación apropiada, como se indica por la etapa 456, para poner en ventana los datos. Sin embargo, cuando las componentes de código son suficientemente diferentes no se requiere la ponderación. Los datos puestos en la ventana se someten a continuación a una FFT con solapamiento, como se indica por la etapa 460.
Una vez que se ha completado la FFT, se comprueba el indicador SYNCH en la etapa 462 para ver si se ha puesto a uno (en cuyo caso se espera un símbolo de sincronismo) o si se ha puesto a cero (en cuyo caso se espera un símbolo de bit de datos). Como inicialmente el DSP pone a uno el indicador SYNCH para detectar la presencia de componentes de código que representan símbolos de sincronismo, el programas progresa a la etapa 466 en la que se evalúan los datos obtenidos en el dominio de la frecuencia por medio de la FFT de la etapa 460 para determinar si tales datos indican la presencia de componentes que representan un símbolo de sincronismo E o un símbolo de sincronismo S.
Para el propósito de detectar la presencia y temporización de los símbolos de sincronización, en primer lugar se determina la suma de los valores de SNR (j) para cada uno de los posibles símbolos de sincronismo y símbolos de datos. En un instante determinado durante el proceso de detección de los símbolos de sincronización, se esperará un símbolo particular. Como primera etapa en la detección del símbolo esperado, se determina si la suma de sus valores correspondientes SNR (j) es mayor que cualquiera de los otros. Si es así, a continuación se establece el umbral de detección en base a los niveles de ruido en las ranuras de frecuencia que pueden contener componentes de código. Esto es, como en cualquier instante determinado, sólo está incluido un símbolo de código en la señal de audio codificada, sólo un cuarto de las ranuras de interés contendrán componentes de código. Los restantes tres cuartos contendrán ruido, esto es, componentes del programa de audio y/o otra energía extraña. El umbral de detección se produce como una media de los valores SNR (j) para todas las cuarenta ranuras de frecuencias de interés, pero puede ajustarse por un factor de multiplicación para tener en cuenta los efectos del ruido ambiente y/o compensar una tasa de error observada.
Cuando se ha establecido el umbral de detección de este modo, se compara la suma de los valores de SNR (j) del símbolo de sincronización esperado frente el umbral de detección para determinar si es mayor o no que el umbral. Si es así, se observa una detección válida del símbolo de sincronización esperado. Una vez que se ha producido esto, como se indica por la etapa 470, el programa vuelve al bucle del procesamiento principal de la Figura 12A en la etapa 472 donde se determina (como se explica más adelante en este documento) si una trama de datos decodificados satisface los criterios de calificación predeterminados. En caso contrario, el procesamiento vuelve a la etapa 450 para comenzar de nuevo una búsqueda de la presencia de un símbolo de sincronismo en la señal de audio, pero si tal criterio se cumple, se determina si la trama de sincronismo esperada (esto es, la secuencia esperada de símbolos E y S) se ha recibido totalmente y se ha detectado, como se indica por la etapa 474.
Sin embargo, después del primer paso a través de la subrutina DET, se han recogido insuficientes datos para determinar si la trama satisface el criterio de calificación, de modo que desde la etapa 474, el procesamiento vuelve a la subrutina DET para realizar una FFT adicional y la evaluación para la presencia de un símbolo de sincronismo. Una vez que se ha realizado la subrutina DET un número predeterminado de veces, cuando el procesamiento vuelve a la etapa 472 el DSP determina si los datos acumulados satisfacen los criterios de calificación para la trama de sincronismo.
Esto es, una vez realizada DET tal número predeterminado de veces, se ha realizado un número correspondiente de evaluaciones en la etapa 466 de la subrutina DET. El número de veces que se encontró un símbolo "E" se usa en una realización como una medida de la cantidad de energía del símbolo "E" durante el periodo de tiempo correspondiente. Sin embargo, pueden usarse en cambió otras medidas de la energía del símbolo "E" (tal como el total de las SNR de la ranura "E" que exceden la energía media de la ranura). Después de que se llama la subrutina DET de nuevo y se realiza una evaluación adicional en la etapa 466, en la etapa 472 se añade la evaluación más reciente a las acumuladas durante el intervalo predeterminado y la evaluación más antigua de entre las acumuladas anteriormente se descarta. Este proceso continúa durante múltiples pases a través de la subrutina DET y en la etapa 472 se busca un pico en la energía del símbolo "E". Si no se encuentra tal pico, esto conduce a la determinación de que no se ha encontrado la trama de sincronismo, de modo que el procesamiento vuelve desde la etapa 472 a la etapa 450 para poner a uno el indicador SYNCH de nuevo y recomenzar la búsqueda de la trama de sincronismo.
Sin embargo, si se ha encontrado tal máximo de la energía de la señal "E", el proceso de evaluación realizado en la etapa 472 después de la subrutina DET 452 continúa usando cada vez el mismo número de evaluaciones desde la etapa 466, pero descartando la evaluación más antigua y añadiendo la más nueva, de modo que se emplea una ventana de datos deslizante para este propósito. Como este proceso continúa, después de un número predeterminado de número de pases en la etapa 472 se determina si se ha producido un cruce desde el símbolo "E" al símbolo "S". Esto se determina en una realización como el punto en el que el total de las SNR de la ranura "S" resultante a partir de la etapa 466 dentro de la ventana deslizante excede por primera vez el total de las SNR de la ranura "E" durante el mismo intervalo. Una vez que se ha encontrado tal punto de cruce, continúa el procesamiento en el modo descrito anteriormente para buscar un máximo en la energía del símbolo "S" que se indica por el mayor número de detecciones de "S" dentro de la ventana de datos deslizante. Si no se encuentra tal máximo o si el máximo no se produce dentro de una trama de tiempo esperada después del máximo de la energía del símbolo "E", el procesamiento continúa desde la etapa 472 de vuelta a la etapa 450 para comenzar de nuevo la búsqueda de una trama de sincronismo.
Si se satisfacen los criterios anteriores, se declara la presencia de una trama de sincronismo en la etapa 474 y continúa el procesamiento en la etapa 480 para determinar los intervalos de bit esperados en base a la energía máxima de los símbolos "E" y "S" y el punto de cruce detectado. En lugar del procesamiento anterior para detectar la presencia de la trama de sincronismo, pueden adoptarse otras estrategias. En una realización adicional, una trama de sincronismo que no satisface los criterios tales como los descritos anteriormente pero que se aproxima a la trama de calificación (esto es, la trama detectada no es claramente de no-calificación), puede posponerse la determinación de si se ha detectado la trama de sincronismo, pendiente del análisis adicional en base a las evaluaciones realizadas (como se explica más adelante en este documento) para determinar la presencia de los bits de datos en los intervalos de datos esperados que siguen la trama de sincronismo potencial. En base a la totalidad de los datos detectados, esto es, tanto durante el intervalo de la trama de sincronismo sospechada como durante los intervalos de bits sospechados, puede realizarse una calificación retrospectiva de la trama de sincronismo posible.
Volviendo al diagrama de flujo de la Figura 12A, una vez que se ha calificado la trama de sincronismo, en la etapa 480, como se ha observado anteriormente, se determina la temporización de bit en base a los dos máximos y el punto de cruce. Esto es, estos valores se promedian para determinar los puntos de comienzo y de terminación esperados de cada intervalo de bits de datos posterior. Una vez que se ha realizado esto, en la etapa 482 se pone a cero el indicador SYNCH para indicar que el DSP a continuación buscará la presencia de cualquier estado de bit posible. A continuación se llama de nuevo la rutina DET 452 y, también con referencia a la Figura 12B, se realiza la subrutina de la misma forma que se ha descrito anteriormente hasta la etapa 462 en la que el estado del indicador SYNCH indica que debería determinarse el estado de bit y el procesamiento procede a continuación a la etapa 486. En la etapa 486, el DSP busca la presencia de componentes de código indicando cualquier estado de bit cero o estado de bit uno del modo descrito anteriormente en este documento.
Una vez que se ha realizado esto, en la etapa 470 el procesamiento vuelve al bucle de procesamiento principal de la Figura 12A en la etapa 490 donde se determina si se han recibido datos suficientes para determinar el estado de bit. Para hacer esto, deben hacerse múltiples pases a través de la subrutina 452, de modo que después el primer pase, el procesamiento vuelve a la subrutina DET 452 para realizar una evaluación adicional en base a una nueva FFT. Una vez que se ha realizado la subrutina 452 un número predeterminado de veces, en la etapa 486 los datos recogidos de este modo se evalúan para determinar si los datos recibidos indican o un estado cero, o un estado uno o un estado indeterminado (que podría resolverse con el uso de los datos de paridad). Esto es, el total SNR de la ranura "0" se comparan con el total de SNR de la ranura "1". El que sea mayor determina el estado de datos, y si son iguales el estado de datos es indeterminado. En la alternativa, si los SNR de las ranuras "0" y "1" totales no son iguales pero bastante próximos, puede declararse un estado de datos indeterminado. También, si se emplean un mayor número de símbolos de datos, se determina que sea el símbolo recibido el símbolo para el cual se encuentra la suma de SNR mas elevada.
Cuando el procesamiento vuelve de nuevo a la etapa 490, se detecta la determinación del estado del bit y el procesamiento continúa en la etapa 492 en la que el DSP almacena los datos en la memoria 270 indicando el estado del bit respectivo para juntar una palabra que tiene un número predeterminado de símbolos representados por las componentes codificadas en la señal de audio recibida. Después de esto, en la etapa 496 se determina si los datos recibidos han proporcionado todos los bits de la palabra o mensaje codificado. Si no es así, el procesamiento vuelve a la subrutina DET 452 para determinar el estado de bit del próximo símbolo de mensaje esperado. Sin embargo, si en la etapa 496 se determina que se ha recibido el último símbolo del mensaje, el procesamiento vuelve a la etapa 450 para poner a uno el indicador SYNCH para buscar la presencia de un nuevo mensaje detectando la presencia de sus símbolos de sincronismo como se representan por las componentes de código de la señal de audio codificada.
Con referencia a la Figura 13, en ciertas realizaciones cualquiera o ambas de las componentes de la señal de audio no de código u otro ruido (denominados de forma colectiva como "ruido" en este contexto) se usan para producir un valor de comparación, tal como un umbral, como se indica por el bloque funcional 276. Una o más porciones de la señal de audio codificada se comparan frente al valor de comparación, como se indica por el bloque funcional 277, para detectar la presencia de componentes de código. Preferiblemente, la señal de audio codificada se procesa en primer lugar para aislar componentes dentro de la banda o bandas de frecuencia que pueden contener componentes de código, y a continuación éstas se acumulan sobre un periodo de tiempo para promediar el ruido, como se indica por el bloque funcional 278.
Refiriéndonos ahora a la Figura 14 se ilustra en la misma en formato de bloques, una realización de un aparato, en la forma de un decodificador analógico de acuerdo con la presente invención. El decodificador de la Figura 14 incluye un terminal de entrada 280 que está acoplado con cuatro grupos de detectores de componentes 282, 284, 286 y 288. Cada grupo de detectores de componentes de 282 hasta 288 sirve para detectar la presencia de componentes de código en la señal de audio de entrada que representan un símbolo de código respectivo. En la realización de la Figura 14, el aparato decodificador se dispone para detectar la presencia de cualquiera de las 4N componentes de código, donde N es un entero, de modo que el código está comprendido por cuatro símbolos diferentes representado cada uno por un grupo único de N componentes de código. Por consiguiente, los cuatro grupos de 282 hasta 288 incluyen 4N detectores de componentes.
Una realización de uno de los 4N detectores de componentes del grupo de 282 hasta 288 se ilustra en formato de bloque en la Figura 15 y se identifica en el mismo como un detector de componentes 290. El detector de componentes 290 tiene una entrada 292 acoplada con la entrada 280 del decodificador de la Figura 14 para recibir la señal de audio codificada. El detector de componentes 290 incluye una rama del circuito superior que tiene un filtro de estimación del ruido 294 que, en una realización, toma la forma de un filtro paso banda que tiene una banda de paso relativamente ancha para pasar la energía de la señal de audio dentro de una banda centrada sobre la frecuencia de la componente de código respectiva a detectar. En la alternativa y preferiblemente, el filtro de estimación del ruido 294 en cambio incluye dos filtros, uno que tiene una banda de paso que se extiende desde por encima de la frecuencia de la componente de código respectiva a detectar y un segundo filtro que tiene una banda de paso con un límite superior por debajo de la frecuencia de la componente de código a detectar, de modo que juntos los dos filtros pasa la energía que tiene las frecuencias por encima y por debajo (pero sin incluir) la frecuencia de la componente a detectar, pero dentro de la proximidad en frecuencia de la misma. Una salida del filtro de estimación de ruido 294 se conecta con una entrada de un circuito de valor absoluto 296 que produce una señal de salida que representa el valor absoluto de la salida del filtro de estimación de ruido 294 a la entrada de un integrador 300 que acumula las entradas de señal al mismo para producir un valor de salida que representa la energía de la señal dentro de las porciones de espectro de frecuencias adyacentes pero sin incluir la frecuencia de la componente a detectar y saca este valor a una entrada no inversora de un amplificador diferencial 302 que funciona como un amplificador logarítmico.
El detector de componentes de la Figura 15 también incluye una rama inferior que incluye un filtro de estimación de la señal 306 que tiene una entrada acoplada con la entrada 292 para recibir la señal de audio codificada y servir para pasar una banda de frecuencias sustancialmente más estrecha que la banda relativamente ancha del filtro de estimación del ruido 294 de modo que el filtro de estimación de la señal 306 pasa las componentes de señal sustancialmente sólo a la frecuencia de la componente de señal de código respectiva a detectar. El filtro de estimación de la señal 306 tiene una salida acoplada con una entrada de un circuito de valor absoluto adicional 308 que sirve para producir una señal en una salida del mismo que representa un valor absoluto de la señal pasada por el filtro de estimación de la señal 306. La salida del circuito de valor absoluto 308 está acoplada con una entrada de un integrador adicional 310. El integrador 310 acumula la salida de valores por el circuito 308 para producir una señal de salida que representa la energía dentro de la banda de paso estrecha del filtro de estimación de la señal durante un periodo predeterminado de tiempo.
Cada uno de los integradores 300 y 310 tiene un terminal de reset acoplado a una señal de reset común aplicado al terminal 312. La señal de reset se suministra por el circuito de control 314 ilustrado en la Figura 14 que produce la señal de reset periódicamente.
Volviendo a la Figura 15, la salida del integrador 310 se suministra a una entrada inversora del amplificador 302 que funciona para producir una seña de salida que representa la diferencia entre la salida del integrador 310 y la del integrador 300. Como el amplificador 302 es un amplificador logarítmico, el intervalo de posibles valores de salida está comprimido para reducir el rango dinámico de la salida para la aplicación a un comparador de ventana 316 para detectar la presencia o ausencia de una componente de código durante un intervalo determinado como se determina por el circuito de control 314 a través de la aplicación de la señal de reset. El comparador de ventana saca una señal de presencia de código en el caso de que la entrada suministrada desde el amplificador 302 caiga entre un umbral inferior aplicado como un valor fijo al terminal de entrada del umbral inferior del comparador 316 y un umbral superior fijo aplicado al terminal de entrada del umbral superior del comparador 316.
Con referencia de nuevo a la Figura 14, cada uno de los N detectores de componentes 290 de cada grupo de detectores de componentes acopla la salida de su comparador de ventana respectivo 316 a una entrada de un circuito lógico de determinación de código 320. El circuito 320, bajo el control del circuito de control 314, acumula las diversas señales de presencia de código desde los 4N circuitos del detector de componentes 290 para un número múltiple de ciclos de reset como se establece por el circuito de control 314. Una vez terminado el intervalo para la detección de un símbolo determinado, establecido como se describe más adelante en este documento, el circuito lógico de determinación de código 320 determina qué símbolo de código se recibió como el símbolo para el cual se detectó el mayor número de componentes durante el intervalo y saca una señal indicando el símbolo de código detectado en el terminal de salida 322. La señal de salida puede almacenarse en memoria, montarse dentro de un mensaje más largo o un fichero de datos, transmitirse o por el contrario utilizarse (por ejemplo, como una señal de control).
Los intervalos de detección de símbolos para los decodificadores descritos anteriormente en conexión con las Figuras 11, 12A, 12B, 14 y 15 pueden establecerse en base a la temporización de los símbolos de sincronización transmitidos con cada uno de los mensajes codificados y que tienen una duración y orden predeterminados. Por ejemplo, un mensaje codificado incluido en una señal de audio puede comprender dos intervalos de datos del símbolo codificado E seguido por dos intervalos de datos del símbolo codificado S, ambos como se ha descrito en conexión con la Figura 4. Los decodificadores de las Figuras 11, 12A, 12B, 14 y 15 son operativos inicialmente para buscar la presencia del primer símbolo de sincronización anticipado, esto es, el símbolo codificado E que se transmite durante un periodo predeterminado y determina su intervalo de transmisión. Después de esto, los decodificadores buscan la presencia de las componentes de código que caracterizan el símbolo S y, cuando se detectan, los decodificadores determinan su intervalo de transmisión. A partir de los intervalos de transmisión detectados, se determina el punto de transición desde el símbolo E hasta el símbolo S y, a partir de este punto, se fijan los intervalos de detección para cada uno de los símbolos de bit de datos. Durante cada intervalo de detección, el decodificador acumula componentes de código para determinar el símbolo respectivo transmitido durante ese intervalo del modo que se ha descrito anteriormente.
Aunque los diversos elementos de la realización de las Figuras 14 y 15 se han implementado por circuitos analógicos, se apreciará por lo tanto que también pueden implementarse las mismas funciones, en todo o en parte, por circuitería digital.
Con referencia ahora a las Figuras 16 y 17, se ilustra un sistema en las mismas para producir estimaciones de audiencias para una información ampliamente diseminada, tal como los programas de televisión y radio. La Figura 16 es un diagrama de bloques de una estación de difusión de radio para difundir señales de audio en el aire que se han codificado para identificar la estación junto con el tiempo de difusión. Si se desea, puede también incluirse la identidad del programa o segmento que se difunde. Una fuente de un programa de audio 340, tal como un reproductor de discos compactos, un reproductor de cinta de audio digital, o una fuente de audio en directo se controla por el gestor de la estación por medio del aparato de control 342 para sacar señales de audio de forma controlable para su difusión. Una salida 344 de la fuente del programa de audio se acopla con una entrada de un codificador 348 de acuerdo con la realización de la Figura 3 incluyendo el DSP 104, el filtro de paso banda 120, el convertidor de analógico a digital (A/D) 124, el convertidor de digital a analógico (DAC) 140 y el circuito de suma 142 del mismo. El aparato de control 342 incluye el procesador principal 90, el teclado 96 y el monitor 100 de la realización de la Figura 3, de modo que el procesador del ordenador principal incluido dentro del aparato de control 342 se acopla con el DSP incluido dentro del codificador 348 de la Figura 16. El codificador 348 es operativo bajo el control del aparato de control 342 para incluir un mensaje codificado periódicamente en el audio a transmitir, incluyendo el mensaje los datos de identificación apropiados. El codificador 348 saca el audio codificado a la entrada del transmisor de radio 350 que modula una onda portadora con el programa de audio codificado y transmite el mismo sobre el aire por medio de una antena 352. El procesador principal incluido dentro del aparato de control 342 se programa por medio de un teclado para controlar el codificador para que saque el mensaje codificado apropiado incluyendo los datos de identificación de la estación. El procesador principal produce automáticamente los datos del tiempo de difusión por medio de un circuito de reloj de referencia en el mismo.
Refiriéndonos también a la Figura 17, el dispositivo de monitorización personal 380 del sistema está encerrado por la carcasa 382 que es suficientemente pequeña en tamaño para que sea transportado por una persona miembro de una audiencia que participa en una inspección de estimación de la audiencia. Cada uno de varios miembros de la audiencia se proporciona con un dispositivo de monitorización personal, tal como el dispositivo 380, que se transporta por la persona del miembro de la audiencia durante tiempos especificados de cada día durante el periodo de inspección, tal como un periodo predeterminado de una semana. El dispositivo de monitorización personal 380 incluye un micrófono omni-direccional 386 que recoge sonidos que están disponibles para el miembro de la audiencia que lleva el dispositivo 380, incluyendo los programas de radio reproducidos como sonido por el altavoz de un receptor de radio, tal como el receptor de radio 390 de la Figura 17.
El dispositivo de monitorización personal 380 también incluye una circuitería de acondicionamiento de la señal 394 que tiene una entrada acoplada con una salida del micrófono 386 y sirve para amplificar su salida y someter la misma a un filtrado paso banda tanto para atenuar las frecuencias fuera de la banda de frecuencias de audio incluyendo las diversas componentes de frecuencia del código incluidas en el programa de audio por el codificador 348 de la Figura 16 así como para realizar el filtrado anti-solapamiento preliminar a la conversión de analógico a digital.
En la Figura 17 se ilustra la circuitería digital del dispositivo de monitorización personal en forma de un diagrama de bloques funcional que incluye un bloque decodificador y un bloque de control ambos de los cuales pueden implementarse, por ejemplo, por medio de un procesador de señal digital. Una memoria de programa y de almacenamiento de datos 404 está acoplada tanto con el decodificador 400 para recibir los códigos detectados para su almacenamiento así como con el bloque de control 402 para controlar las operaciones de escritura y lectura de la memoria 404. Un circuito de entrada/salida (I/O) 406 está acoplado con la memoria 404 para recibir los datos a sacar por el dispositivo de monitorización personal 380 así como para almacenar la información tal como las instrucciones del programa en el mismo. El circuito de entrada/salida 406 está también acoplado con el bloque de control 402 para controlar las operaciones de entrada y salida del dispositivo 380.
El decodificador 400 funciona de acuerdo con el decodificador de la Figura 11 que se ha descrito anteriormente en este documento y saca los datos del código de la identificación de la estación y del tiempo a almacenar en la memoria 404. El dispositivo de monitorización personal 380 se proporciona también con un conector, indicado esquemáticamente en 410, para sacar la identificación de la estación acumulada en la salida y los datos de código de tiempo almacenados en la memoria 404 así como para recibir comandos desde un dispositivo externo.
El dispositivo de monitorización personal 380 preferiblemente es capaz de operar con la estación de conexión como se describe en la Patente de Estados Unidos Nº 5.483.276. Además, el dispositivo de monitorización personal 380 preferiblemente se proporciona con las características adicionales del dispositivo de monitorización de exposición de difusión portátil que está descrito también en dicha patente de Estados Unidos Nº 5.483.276.
La estación de conexión comunica a través de un módem sobre líneas telefónicas con una facilidad de procesamiento de datos centralizada para cargar hacia arriba los datos de código de la identificación y del tiempo al mismo para producir informes concernientes a la audiencia que está viendo y/o escuchando. La facilidad centralizada puede también descargar la información a la estación de conexión para su uso y/o para previsión al dispositivo 380, tal como una información de un programa ejecutable. La facilidad centralizada puede también suministrar información a la estación de conexión y/o al dispositivo 380 sobre un canal de RF tal como una difusión de FM codificada con tal información del modo de la presente invención. La estación de conexión y/o el dispositivo 380 se proporcionan con un receptor de FM (no mostrado por razones de simplicidad y claridad) que demodula la difusión de FM codificada para suministrar la misma a un decodificador de acuerdo con la presente invención. La difusión codificada de FM también puede suministrarse a través de un cable o de otro medio de transmisión.
Además de para monitorizar por medio de unidades de monitorización personales, pueden emplearse unidades estacionarias (tales como las unidades de decodificación de televisión digital). Las unidades de decodificación de televisión digital pueden acoplarse para recibir el audio codificado en forma eléctrica desde un receptor si no puede emplearse un micrófono tal como el micrófono 386 de la Figura 17. Las unidades de decodificación digital pueden monitorizar entonces los canales seleccionados, con o sin monitorizar también la composición de la audiencia, con el uso de la presente invención.
Se contempla otras aplicaciones para las técnicas de decodificación de la presente invención. En una aplicación, las pistas de sonido de los anuncios comerciales se proporcionan con códigos de identificación para posibilitar la monitorización de los anuncios comerciales para asegurar que esos anuncios se han transmitido (por difusión de radio o televisión o cualquier otro) en los tiempos acordados.
En aún otras aplicaciones, pueden transmitirse las señales de control en forma de códigos. En una de tales aplicaciones, un juguete interactivo recibe y decodifica una señal de control codificada incluida, en la porción de audio de una difusión de televisión o radio o en una grabación de sonido y realiza una acción de respuesta. En otra, se incluyen códigos de control paternal en porciones de audio de las difusiones de televisión o radio o en grabaciones de sonido de modo que un dispositivo receptor o de reproducción, al decodificar tales códigos, puede realizar la función de control paternal para impedir selectivamente la recepción o reproducción de difusiones o grabaciones. También pueden incluirse códigos de control en las transmisiones telefónicas celulares para restringir el acceso no autorizado al uso de ID del teléfono celular. En otra aplicación, los códigos se incluyen con las transmisiones telefónicas para distinguir las transmisiones de la voz y los datos para controlar apropiadamente la selección del camino de transmisión para impedir la corrupción de los datos transmitidos.
Pueden implementarse también diversas funciones de identificación del transmisor, por ejemplo, para asegurar la autenticidad de las transmisiones militares y las comunicaciones de voz con las aeronaves. También se contemplan las aplicaciones de monitorización. En una de tales aplicaciones los participantes en estudios de investigación de mercado llevan monitores personales que reciben mensajes codificados añadidos a la dirección pública o señales de audio similares en almacenes minoristas o centros comerciales para grabar la presencia de los participantes. En otra, los empleados llevan monitores personales que reciben mensajes codificados añadidos a las señales de audio en el sitio de trabajo para monitorizar su presencia en las localizaciones asignadas.
También pueden implementarse comunicaciones seguras con el uso de las técnicas de codificación y decodificación de la presente invención. En una de tales aplicaciones, las comunicaciones submarinas pueden realizarse por medio de codificación y decodificación como se ha descrito en este documento o asignado niveles a las componentes de código de modo que los códigos están enmascarados por los sonidos del ambiente submarino o por una fuentes de sonido que se originan en la localización del transmisor del código. En otra, las transmisiones seguras de radio-búsqueda se efectúan incluyendo códigos enmascarados con otras transmisiones de señales de audio en el aire para recibir y decodificar por un dispositivo de radio-búsqueda.
Estas técnicas de codificación y decodificación también pueden usarse para autentificar las firmas de voz. Por ejemplo, en una aplicación de pedidos telefónicos, puede compararse una huella de voz almacenada con una vocalización en directo. Como otro ejemplo, pueden codificarse datos tales como un número de seguridad y/o la hora del día y combinarse con un sonido de voz, y a continuación decodificarse y usarse para controlar automáticamente el procesamiento del sonido de voz. El dispositivo de codificación en este escenario puede ser un accesorio para un teléfono u otro dispositivo de comunicaciones de voz o si no una unidad fija separada usada cuando el sonido de voz se graba directamente, sin enviarse sobre las líneas telefónicas o de otra forma. Una aplicación adicional es la provisión de códigos de autentificación en una memoria de un teléfono portátil, de modo que el flujo de voz contiene el código de autenticación, posibilitando por lo tanto la detección de las transmisiones no autorizadas.
También es posible conseguir una mejor utilización del ancho de banda del canal de comunicaciones incluyendo datos en la voz u otras transmisiones de audio. En una de tales aplicaciones, se incluyen los datos que indican las lecturas de los instrumentos de una aeronave con las transmisiones de voz aire-tierra para informar a los controladores de tierra de una condición operativa de la aeronave sin necesidad de canales separados de voz y datos. Los niveles de código se seleccionan de modo que las componentes de código se enmascaran por las transmisiones de voz de forma que se eliminan las interferencias con las mismas.
La piratería de cintas, la copia no autorizada de obras con derechos de autor tales como grabaciones de audio/vídeo y música pueden detectarse también codificando un número de identificación único sobre una porción de audio de cada copia autorizada por medio de la técnica de codificación de la presenta invención. Si se detecta el número de identificación codificado desde múltiples copias, es evidente la copia no autorizada.
Una aplicación adicional determina los programas que se han grabado con el uso de un grabador de vídeo casete que incorpora un decodificador de acuerdo con la invención. Los programas de vídeo (tales como programas de entretenimiento, anuncios, etc.) se codifican en primer lugar con un código de identificación que identifica el programa. Cuando el grabador de vídeo casete se sitúa en el modo de grabación, las porciones de audio de las señales que se están grabando se suministran al decodificador para detectar los códigos de identificación en el mismo. Los códigos detectados se almacenan en una memoria del grabador de vídeo casete para su uso posterior al generar un informe de uso de la grabación.
Los datos que indican las obras con derechos de autor que se han difundido por una estación o transmitidas de otra forma por un proveedor pueden recogerse con el uso de la presente invención para establecer la responsabilidad de los pagos por derechos de autor. Las obras se codifican con los respectivos códigos de identificación que los identifica de forma unívoca. Una unidad de monitorización provista con las señales de difusión o transmitidas de otra forma por una o más estaciones o proveedores proporciona porciones de audio del mismo a un decodificador de acuerdo con la presente invención que detecta los códigos de identificación presentes en las mismas. Los códigos detectados se almacenan en una memoria para su uso al generar un informe a utilizar para asegurar las responsabilidades de los pagos de derechos de autor.
Los decodificadores propuestos de acuerdo con la normativa del Grupo de Expertos de Imágenes Animadas (MPEG) 2 ya incluyen algunos elementos del procesamiento de expansión acústica necesarios para extraer datos codificados de acuerdo con la presente invención, de modo que las técnicas de inhibición de grabación (por ejemplo, para impedir grabaciones no autorizadas de obras con derechos de autor) son muy adecuadas para los decodificadores de MPEG 2. Se proporciona un decodificador apropiado de acuerdo con la presente invención en el grabador o como un accesorio para el mismo, y detecta la presencia de un código de inhibición de copia en el audio suministrado para la grabación. El grabador responde al código de inhibición detectado de este modo para inhibir la grabación de las señales de audio correspondientes y cualesquiera señales adjuntas, tales como una señal de vídeo. La información de derechos de autor codificada como se describe en este documento es en banda, no requiere de temporizaciones o sincronizaciones adicionales, y naturalmente acompaña el material del programa.
En aún otras aplicaciones adicionales, los programas transmitido en el aire, difusión por cable o transmitidas de otra forma, u otros programas grabados en cinta, disco o de otra forma, incluyen porciones de audio codificadas con señales de control para su uso por uno o más dispositivos operados por espectadores u oyentes. Por ejemplo, un programa que representa un camino que puede hacer un ciclista incluye una porción codificada de audio de acuerdo con la presente invención con señales de control para usar por una bicicleta de ejercicio estática para controlar la resistencia de los pedales o resistencia de acuerdo con la inclinación aparente del camino representado. Cuando el usuario pedalea la bicicleta estática, ve el programa en la televisión u otro monitor y se reproduce como sonido la porción del audio del programa. Un micrófono en la bicicleta estática traduce el sonido reproducido y un decodificador de acuerdo con la presente invención detecta las señales de control en la misma, proporcionando las mismas a la unidad de control de resistencia del pedal de la bicicleta de ejercicio.
A partir de lo anterior se apreciará que las técnicas de la presente invención pueden implementarse en todo o en parte usando circuitería analógica o digital y que todas o parte de las funciones de procesamiento de la señal de la misma pueden realizarse o por circuitos hardware o con el uso de procesadores de señal digital, microprocesadores, microcomputadores, procesadores múltiples (por ejemplo, procesadores en paralelo), o similares.
Aunque se han descrito con detalle en este documento realizaciones específicas de la invención, se entiende que la invención no está limitada a esas realizaciones precisas, y que pueden efectuarse diversas modificaciones en la misma por un especialista en la técnica sin apartarse del alcance de la invención como se define en las reivindicaciones adjuntas.

Claims (52)

1. Un aparato para detectar un código en una señal de audio codificada, teniendo la señal de audio codificada una pluralidad de componentes de frecuencia que incluyen una pluralidad de componentes de la señal de frecuencia de audio y al menos una componente de frecuencia de código que tiene una frecuencia de audio predeterminada y una amplitud seleccionada para distinguir la, al menos una, componente de frecuencia de código de la pluralidad de componentes de la señal de frecuencia de audio, teniendo la componente de frecuencia de código una amplitud y una frecuencia de audio seleccionada para enmascarar la componente de frecuencia de código para la audición humana por al menos una componente de la señal de frecuencia de audio, comprendiendo el aparato;
un medio (250; 266) para determinar la amplitud de las componentes de frecuencia de la señal de audio codificada dentro de un primer intervalo de frecuencias de audio incluyendo la frecuencia de audio predeterminada de al menos una componente de frecuencia de código;
un medio (250; 266) para establecer una amplitud de ruido para el primer intervalo de frecuencias de audio en base a las amplitudes de los intervalos de frecuencias respectivamente diferentes de la señal de audio fuera del primer intervalo de frecuencias de audio que tienen un nivel de amplitud menor que el nivel medio dentro de un intervalo que rodea la, al menos una, componente de frecuencia de código; y
un medio (254; 266) para detectar la presencia de al menos una componente de frecuencia de código en el primer intervalo de frecuencias de audio en base a la amplitud de ruido establecido del mismo y la amplitud determinada de las componentes de frecuencia en el mismo.
2. El aparato de la Reivindicación 1, en el que el medio (250; 256) para establecer una amplitud de ruido para el primer intervalo de frecuencias de audio sirve para establecer la amplitud de ruido en base a las amplitudes de intervalos de frecuencia que están desplazadas entre sí.
3. El aparato de la Reivindicación 1, en el que el medio (254; 266) para detectar la presencia de la, al menos una, componente de frecuencia de código sirve para comparar la amplitud de las componentes de frecuencia dentro del primer intervalo de frecuencias con la amplitud del ruido.
4. El aparato de la Reivindicación 3, en el que el medio (254; 266) para detectar la presencia de la, al menos una, componente de frecuencia de código sirve para formar una proporción de señal a ruido de las componentes de frecuencia dentro del primer Intervalo de frecuencias de audio con la amplitud del ruido.
5. El aparato de la Reivindicación 4, en el que el medio (254; 266) para detectar la presencia de la, al menos una, componente de frecuencia de código sirve para comparar la proporción de señal a ruido con un valor predeterminado.
6. El aparato de la Reivindicación 5, en el que el medio (254; 266) para detectar la presencia de la, al menos una, componente de frecuencia de código sirve para eliminar la componente de frecuencia si su proporción de señal a ruido excede el valor predeterminado.
7. El aparato de la Reivindicación 1, en el que el medio (254; 266) para establecer una amplitud de ruido sirve para establecer la amplitud del ruido en base a las componentes de frecuencia de la señal de audio en una proximidad de la frecuencia de audio predeterminada.
8. El aparato de la Reivindicación 7, en el que el medio (254; 266) para establecer una amplitud de ruido sirve para establecer la amplitud de ruido en base a una media de las componentes de frecuencia dentro de la proximidad de la frecuencia.
9. El aparato de la Reivindicación 7, en el que el medio (254; 266) para establecer una amplitud de ruido sirve para establecer la amplitud de ruido en base a una combinación de componentes de frecuencia dentro de las proximidades de la frecuencia.
10. El aparato de la Reivindicación 1, que comprende un medio para separar la señal de audio en una pluralidad de intervalos de frecuencia que incluyen el primer intervalo de frecuencias de audio y una pluralidad de intervalos de frecuencia adicionales dentro de la proximidad de la frecuencia del primer intervalo de frecuencias de audio, y el medio (282, 284, 286, 288) para establecer una amplitud de ruido sirve para establecer la amplitud de ruido en base a las componentes dentro de los intervalos de frecuencia adicionales.
11. El aparato de la Reivindicación 10, en el que algunos de la pluralidad de intervalos frecuencias adicionales incluye frecuencias por encima del primer intervalo de frecuencias de audio y al menos algunos de la pluralidad de intervalos de frecuencias adicionales incluyen frecuencias por debajo del primer intervalo de frecuencias de audio.
12. El aparato de la Reivindicación 11, en el que el medio para separar la señal de audio en una pluralidad de intervalos de frecuencias sirve para formar la pluralidad de intervalos de frecuencia de audio usando una transformada rápida de Fourier, de modo que la pluralidad de intervalos de frecuencias de audio comprende ranuras de frecuencias que varían desde (j - w) hasta (j + w) donde j es el número de ranura del primer intervalo de frecuencias de audio y w es la extensión de una ventana que se extiende por encima y por debajo del primer intervalo de frecuencias de audio.
13. Un aparato (380) para recoger datos para producir estimaciones de audiencias para una información ampliamente diseminada que comprende una entrada (386) para recibir una señal de audio de la información ampliamente diseminada, teniendo la señal de audio un mensaje de medición de audiencia codificado en el mismo, y el aparato de la Reivindicación 1 acoplado con la entrada para recibir y decodificar el mensaje de medición de audiencia en la señal de audio.
14. El aparato (380) de la Reivindicación 13, en el que la entrada (386) comprende un micrófono.
15. El aparato (380) de la Reivindicación 13, en el que la entrada (386) y el aparato de la Reivindicación 1 están incluidos en un dispositivo de monitorización personal transportable por una persona de un miembro de la audiencia.
16. El aparato (380) de la Reivindicación 15, en el que la entrada (386) comprende un micrófono (386).
17. El aparato (380) de la Reivindicación 13, que comprende un dispositivo de monitorización estacionario que incluye la entrada (386) y el aparato de la Reivindicación 1.
18. El aparato (380) de la Reivindicación 13, en el que el mensaje de medición de la audiencia comprende un símbolo de mensaje que comprende una pluralidad de componentes de frecuencia de código, y el aparato de la Reivindicación 1 sirve para decodificar el símbolo del mensaje detectando al menos algunas de las componentes de frecuencias de código y evaluando las componentes de frecuencias de código detectadas para detectar el símbolo del mensaje.
19. El aparato (380) de la Reivindicación 18, en el que cada componente de la pluralidad de componentes de frecuencia de código del símbolo del mensaje es un tono que tiene una frecuencia fija diferente de las otras del mismo.
20. El aparato (380) de la Reivindicación 13, en el que el mensaje de medición de la audiencia comprende una pluralidad de símbolos del mensaje dispuestos de forma secuencial en la señal de audio, comprendiendo cada uno de los símbolos del mensaje una pluralidad de componentes de frecuencias de código, y en el que el aparato de la Reivindicación 1 sirve para detectar al menos algunas de la pluralidad de componentes de frecuencia de código.
21. El aparato (380) de la Reivindicación 20, en el que cada componente de la pluralidad de componentes de frecuencias de código de una pluralidad de símbolos de mensaje es un tono que tiene una frecuencia fija diferente de las otras del mismo.
22. El aparato (380) de la Reivindicación 13, en el que el mensaje de medición de audiencia comprende una pluralidad de símbolos del mensaje teniendo cada uno una pluralidad de componentes de frecuencia de código de modo que al menos algunas de las componentes de frecuencia de código de uno de los símbolos del mensaje está presente en la señal de audio simultáneamente con al menos algunas de las componentes de frecuencia de código de otros símbolos del mensaje, y en el que el aparato de la Reivindicación 1 sirve para detectar al menos algunas de la pluralidad de componentes de frecuencias de código.
23. Un ordenador digital que comprende el aparato de la Reivindicación 1, en el que el aparato corresponde al ordenador digital, comprendiendo además el ordenador digital:
una entrada (260) para recibir la señal de audio codificada; y
un procesador (266) acoplado con la entrada (260) para recibir la señal de audio codificada y programada de modo que proporciona el medio (266) para determinar la amplitud de una componente de frecuencia de la señal de audio codificada dentro de un primer intervalo de frecuencias de audio que incluye la frecuencia de audio predeterminada de la, al menos una, componente de frecuencia de código;
el procesador (266) que está además programado de modo que proporciona el medio (266) para establecer la amplitud de ruido para el primer intervalo de frecuencias de audio y de este modo proporcionar el medio (266) para detectar la presencia de la, al menos una, componente de frecuencia de código en el primer intervalo de frecuencias de audio en base a la amplitud de ruido establecido del mismo y la amplitud determinada de la componente de frecuencia en el mismo; estando el procesador (266) operativo para producir una señal de salida de código en base a la presencia detectada de la, al menos una, componente de frecuencia de código; y un terminal de salida (272) acoplado con el procesador (266) para proporcionar la señal de código al mismo.
24. Un aparato (380) para recoger datos para producir estimaciones de audiencias de una información ampliamente diseminada, que comprende el ordenador digital de la Reivindicación 23, en el que la entrada (386) está acoplada para recibir una señal de audio de la información ampliamente difundida, teniendo la señal de audio un mensaje de medición de audiencia codificado en la misma, y en el que el ordenador digital es operativo para decodificar el mensaje de medición de audiencia.
25. El aparato (380) de la Reivindicación 24, que comprende un dispositivo de monitorización personal (380) transportable por una persona miembro de la audiencia que incluye el ordenador digital de la Reivindicación 23 y en el que el ordenador digital comprende además:
una entrada (260) para recibir la señal de audio codificada; y
un procesador (266) acoplado con la entrada (260) para recibir la señal de audio codificada y programado de modo que proporciona el medio (266) para determinar la amplitud de una componente de frecuencia de la señal de audio codificada dentro del un primer intervalo de frecuencias de audio que incluyen la frecuencia de audio predeterminada de la, al menos una, componente de frecuencia de código:
el procesador (266) que está además programado de modo que proporciona el medio (266) para establecer una amplitud de ruido para el primer intervalo de frecuencias de audio y de este modo para proporcionar el medio (266) para detectar la presencia de la, al menos una, componente de frecuencia de código en el primer intervalo de frecuencias de audio en base a la amplitud de ruido establecido del mismo y la amplitud determinada de la componente de frecuencia en el mismo; estando operativo el procesador (266) para producir una señal de salida de código en base a la presencia detectada de la, al menos una, componente de frecuencia de código; y un terminal de salida (272) acoplado con el procesador (266) para proporcionar la señal de código al mismo.
26. El aparato (380) de la Reivindicación 25, en el que la entrada comprende (386) un micrófono (386).
27. El aparato (380) de la Reivindicación 26, que comprende un dispositivo de monitorización estacionario (380) que incluye el ordenador digital de la Reivindicación 23, y en el que el ordenador digital comprende además;
una entrada (260) para recibir la señal de audio codificada; y
un procesador (266) acoplado con la entrada (260) para recibir la señal de audio codificada y programado de modo que proporciona el medio (266) para determinar una amplitud de una componente de frecuencia de la señal de audio codificada dentro de un primer intervalo de frecuencias de audio incluyendo la frecuencia de audio predeterminada de la, al menos una, componente de frecuencia de código;
el procesador (266) que está además programado de modo que proporciona el medio (266) para establecer una amplitud de ruido para el primer intervalo de frecuencias de audio y de modo que proporciona el medio (266) para detectar la presencia de la, al menos una, componente de frecuencia de código en el primer intervalo de las frecuencias de audio en base a la amplitud de ruido establecido del mismo y la amplitud determinada de la componente de frecuencia en el mismo; siendo operativo el procesador (266) para producir una señal de salida de código en base a la presencia detectada de la, al menos una, componente de frecuencia de código; y un terminal de salida (272) acoplado con el procesador (266) para proporcionar la señal de código al mismo.
28. Un método para detectar un código en una señal de audio codificada, teniendo la señal de audio codificada una pluralidad de componentes de frecuencia que incluyen una pluralidad de componentes de señal de frecuencias de audio y al menos una componente de frecuencia de código que tiene una frecuencia de audio predeterminada y una amplitud seleccionada para distinguir la, al menos una, componente de frecuencia de código de la pluralidad de componentes de la señal de frecuencia de audio, teniendo la componente de frecuencia de código una amplitud y una frecuencia de audio seleccionadas para enmascarar la componente de frecuencia de código para la audición humana por al menos una componente de la señal de frecuencias de audio, comprendiendo el método las etapas de:
determinar una amplitud de una componente de frecuencia de la señal de audio codificada dentro de un primer intervalo de frecuencias de audio que incluyen la frecuencia de audio predeterminada de la, al menos una, componente de frecuencia de código;
establecer una amplitud de ruido para el primer intervalo de frecuencias de audio en base a las amplitudes de los intervalos de frecuencias respectivamente diferentes de la señal de audio fuera del primer intervalo de frecuencias de audio de frecuencias de audio que tiene un nivel de amplitud menor que el nivel medio dentro de un intervalo que rodea la, al menos una, componente de frecuencia de código; y
detectar la presencia de la, al menos una componente de frecuencia de código en el primer intervalo de frecuencias de audio en base a la amplitud de ruido establecido del mismo y la amplitud determinada de la componente de frecuencia en el mismo.
29. El método de la Reivindicación 28, en el que establecer una amplitud de ruido para el primer intervalo de frecuencias de audio establece la amplitud de ruido en base a las amplitudes de los intervalos de frecuencia que están desplazados entre sí.
30. El método de la Reivindicación 29, en el que detectar la presencia de la, al menos una componente de frecuencia de código comprende comparar la amplitud de las componentes de frecuencia dentro del primer intervalo de frecuencias con la amplitud del ruido.
31. El método de la Reivindicación 30, en el que comparar la amplitud de las componentes de frecuencias de código dentro del primer intervalo de frecuencias de audio con la amplitud de ruido comprende formar una proporción de señal a ruido de las componentes de frecuencia de código dentro del primer intervalo de frecuencias de audio con la amplitud del ruido.
32. El método de la Reivindicación 31, en el que detectar la presencia de la, al menos una, componente de frecuencia de código comprende comparar la proporción de señal a ruido con un valor predeterminado.
33. El método de la Reivindicación 32, en el que detectar la presencia de la, al menos una, componente de frecuencia de código comprende eliminar la componente de frecuencia si su proporción de señal a ruido supera un valor predeterminado.
34. El método de la Reivindicación 32, que comprende establecer la amplitud del ruido en base a las componentes de frecuencia de la señal de audio en las proximidades en frecuencia de la frecuencia de audio predeterminada.
35. El método de la Reivindicación 34, que comprende establecer la amplitud de ruido en base a un promedio de las componentes de frecuencia dentro de las proximidades de la frecuencia.
36. El método de la Reivindicación 34, que comprende establecer la amplitud de ruido en base a una combinación de componentes de frecuencia dentro de las proximidades de la frecuencia.
37. El método de la Reivindicación 28, que comprende separar la señal de audio en una pluralidad de intervalos de frecuencia incluyendo el primer intervalo de frecuencias de audio y una pluralidad de intervalos de frecuencia adicionales dentro de las proximidades en frecuencia del primer intervalo de frecuencia de audio, y establecer la amplitud de ruido en base a las componentes dentro de los intervalos de frecuencia adicionales.
38. El método de la Reivindicación 37, en el que, al menos algunos de la pluralidad de intervalos de frecuencias adicionales incluyen frecuencias por encima del primer intervalo de frecuencias de audio y al menos algunos de la pluralidad de intervalos de frecuencia adicionales incluyen frecuencias por debajo del primer intervalo de frecuencias de audio.
39. El método de la Reivindicación 38, que comprende formar la pluralidad de intervalos de frecuencia de audio usando una transformada rápida de Fourier, y la pluralidad de intervalos de frecuencia de audio comprende ranuras de frecuencia que varían desde (j - w) hasta (j + w), donde j es el número de ranura del primer intervalo de frecuencias de audio y w es la extensión de una ventana que se extiende por encima y por debajo del primer intervalo de frecuencias de audio.
40. Un método de recoger datos para producir estimaciones de audiencias para información ampliamente diseminada, que comprende decodificar y codificar un mensaje de medición de audiencia en una señal de audio de la información ampliamente diseminada usando el método de la Reivindicación 28.
41. El método de la Reivindicación 40, en el que la información ampliamente diseminada comprende una difusión de radio.
42. El método de la Reivindicación 40, en el que la información ampliamente difundida comprende una difusión de televisión.
43. El método de la Reivindicación 40, que comprende recibir la señal de audio usando un micrófono.
44. El método de la Reivindicación 40, que comprende recibir la señal de audio en un dispositivo de monitorización personal portado por una persona miembro de una audiencia.
45. El método de la Reivindicación 44, que comprende recibir la señal de audio usando un micrófono del dispositivo de monitorización personal.
46. El método de la Reivindicación 45, que comprende decodificar el mensaje codificado dentro del dispositivo de monitorización personal usando el método de la Reivindicación 28.
47. El método de la Reivindicación 40, que comprende recibir la señal de audio en un dispositivo de monitorización estacionario.
48. El método de la Reivindicación 40, que comprende decodificar un símbolo de mensaje del mensaje codificado comprendido por una pluralidad de componentes de frecuencia de código detectando al menos algunas de las componentes de frecuencia de código usando el método de la Reivindicación 28 y evaluar las componentes de frecuencia de código detectadas para detectar el símbolo de mensaje.
49. El método de la Reivindicación 48, en el que cada una de la pluralidad de componentes de frecuencia de código del símbolo de mensaje es un tono que tiene una frecuencia fija diferentes de todas las otras del mimo.
50. El método de la Reivindicación 40, que comprende recibir una pluralidad de símbolos de mensaje dispuestos de forma secuencial en la señal de audio, comprendiendo cada uno de los símbolos de mensaje una pluralidad de componentes de frecuencia de código, detectar al menos algunas de la pluralidad de componentes de frecuencia de código usando el método de la Reivindicación 28, y evaluar las componentes de frecuencia de código detectadas para detectar los símbolos del mensaje.
51. El método de la Reivindicación 50, en el que cada una de la pluralidad de componentes de frecuencia de código de una pluralidad de símbolos de mensaje es un tono que tiene una frecuencia fija diferente de las otras del mismo.
52. El método de la Reivindicación 40, que comprende recibir una pluralidad de símbolos de mensaje comprendiendo cada uno una pluralidad de componentes de frecuencias de código de modo que al menos algunas de las componentes de frecuencia de código de uno de los símbolos de mensaje están presentes en la señal de audio simultáneamente con al menos algunas de las componentes de frecuencia de código de otro de los símbolos del mensaje, detectando al menos algunas de la pluralidad componentes de frecuencia de código que usan el método de la Reivindicación 28 y evaluar las componentes de frecuencias de código detectadas para detectar los símbolos del mensaje.
ES95914900T 1994-03-31 1995-03-27 Aparato y metodo para incluir codigos en señales de audio y decodificarlos. Expired - Lifetime ES2309986T3 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US08/221,019 US5450490A (en) 1994-03-31 1994-03-31 Apparatus and methods for including codes in audio signals and decoding
US221019 1994-03-31
US08/408,010 US5764763A (en) 1994-03-31 1995-03-24 Apparatus and methods for including codes in audio signals and decoding
US408010 1995-03-24

Publications (1)

Publication Number Publication Date
ES2309986T3 true ES2309986T3 (es) 2008-12-16

Family

ID=22826004

Family Applications (1)

Application Number Title Priority Date Filing Date
ES95914900T Expired - Lifetime ES2309986T3 (es) 1994-03-31 1995-03-27 Aparato y metodo para incluir codigos en señales de audio y decodificarlos.

Country Status (9)

Country Link
US (2) US5450490A (es)
EP (1) EP1978658A3 (es)
KR (1) KR970702635A (es)
CN (1) CN101425858B (es)
AT (1) ATE403290T1 (es)
DE (1) DE69535794D1 (es)
DK (1) DK0753226T3 (es)
ES (1) ES2309986T3 (es)
PT (1) PT753226E (es)

Families Citing this family (430)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6850252B1 (en) 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
USRE48056E1 (en) 1991-12-23 2020-06-16 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
USRE46310E1 (en) 1991-12-23 2017-02-14 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US10361802B1 (en) 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
US6400996B1 (en) 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
US6081750A (en) * 1991-12-23 2000-06-27 Hoffberg; Steven Mark Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US5903454A (en) * 1991-12-23 1999-05-11 Hoffberg; Linda Irene Human-factored interface corporating adaptive pattern recognition based controller apparatus
USRE47908E1 (en) 1991-12-23 2020-03-17 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US6418424B1 (en) 1991-12-23 2002-07-09 Steven M. Hoffberg Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
ES2156456T3 (es) 1993-11-18 2001-06-16 Digimarc Corp Control de copia de video con varias señales incrustadas.
US6983051B1 (en) 1993-11-18 2006-01-03 Digimarc Corporation Methods for audio watermarking and decoding
US7313251B2 (en) 1993-11-18 2007-12-25 Digimarc Corporation Method and system for managing and controlling electronic media
US6611607B1 (en) 1993-11-18 2003-08-26 Digimarc Corporation Integrating digital watermarks in multimedia content
US6580819B1 (en) 1993-11-18 2003-06-17 Digimarc Corporation Methods of producing security documents having digitally encoded data and documents employing same
US5710834A (en) 1995-05-08 1998-01-20 Digimarc Corporation Method and apparatus responsive to a code signal conveyed through a graphic image
US6408082B1 (en) 1996-04-25 2002-06-18 Digimarc Corporation Watermark detection using a fourier mellin transform
US6757406B2 (en) 1993-11-18 2004-06-29 Digimarc Corporation Steganographic image processing
US5636292C1 (en) 1995-05-08 2002-06-18 Digimarc Corp Steganography methods employing embedded calibration data
US5832119C1 (en) 1993-11-18 2002-03-05 Digimarc Corp Methods for controlling systems using control signals embedded in empirical data
US5841886A (en) 1993-11-18 1998-11-24 Digimarc Corporation Security system for photographic identification
US7171016B1 (en) * 1993-11-18 2007-01-30 Digimarc Corporation Method for monitoring internet dissemination of image, video and/or audio files
US6449377B1 (en) 1995-05-08 2002-09-10 Digimarc Corporation Methods and systems for watermark processing of line art images
US5862260A (en) 1993-11-18 1999-01-19 Digimarc Corporation Methods for surveying dissemination of proprietary empirical data
US6516079B1 (en) 2000-02-14 2003-02-04 Digimarc Corporation Digital watermark screening and detecting strategies
US6345104B1 (en) 1994-03-17 2002-02-05 Digimarc Corporation Digital watermarks and methods for security documents
US6944298B1 (en) 1993-11-18 2005-09-13 Digimare Corporation Steganographic encoding and decoding of auxiliary codes in media signals
US5748783A (en) 1995-05-08 1998-05-05 Digimarc Corporation Method and apparatus for robust information coding
US5841978A (en) 1993-11-18 1998-11-24 Digimarc Corporation Network linking method using steganographically embedded data objects
US6424725B1 (en) 1996-05-16 2002-07-23 Digimarc Corporation Determining transformations of media signals with embedded code signals
US6122403A (en) * 1995-07-27 2000-09-19 Digimarc Corporation Computer system linked by using information in data objects
US5748763A (en) 1993-11-18 1998-05-05 Digimarc Corporation Image steganography system featuring perceptually adaptive and globally scalable signal embedding
US5768426A (en) 1993-11-18 1998-06-16 Digimarc Corporation Graphics processing system employing embedded code signals
US5822436A (en) * 1996-04-25 1998-10-13 Digimarc Corporation Photographic products and methods employing embedded information
US6614914B1 (en) * 1995-05-08 2003-09-02 Digimarc Corporation Watermark embedder and reader
US5649284A (en) * 1993-12-17 1997-07-15 Sony Corporation Multiplex broadcasting system
US5682599A (en) * 1993-12-24 1997-10-28 Sony Corporation Two-way broadcasting and receiving system with time limit and/or limit data
US6947571B1 (en) 1999-05-19 2005-09-20 Digimarc Corporation Cell phones with optical capabilities, and related applications
US6522770B1 (en) 1999-05-19 2003-02-18 Digimarc Corporation Management of documents and other objects using optical devices
JPH10500263A (ja) * 1994-03-31 1998-01-06 セリディアン コーポレイション 音声信号にコードを含めると共に復号化する装置及び方法
US6535618B1 (en) * 1994-10-21 2003-03-18 Digimarc Corporation Image capture device with steganographic data embedding
US7724919B2 (en) * 1994-10-21 2010-05-25 Digimarc Corporation Methods and systems for steganographic processing
US6560349B1 (en) 1994-10-21 2003-05-06 Digimarc Corporation Audio monitoring using steganographic information
US5646997A (en) * 1994-12-14 1997-07-08 Barton; James M. Method and apparatus for embedding authentication information within digital data
US7362775B1 (en) * 1996-07-02 2008-04-22 Wistaria Trading, Inc. Exchange mechanisms for digital information packages with bandwidth securitization, multichannel digital watermarks, and key management
EP1526472A3 (en) 1995-02-13 2006-07-26 Intertrust Technologies Corp. Systems and methods for secure transaction management and electronic rights protection
US5892900A (en) 1996-08-30 1999-04-06 Intertrust Technologies Corp. Systems and methods for secure transaction management and electronic rights protection
US7133846B1 (en) 1995-02-13 2006-11-07 Intertrust Technologies Corp. Digital certificate support system, methods and techniques for secure electronic commerce transaction and rights management
US6157721A (en) 1996-08-12 2000-12-05 Intertrust Technologies Corp. Systems and methods using cryptography to protect secure computing environments
US6658568B1 (en) 1995-02-13 2003-12-02 Intertrust Technologies Corporation Trusted infrastructure support system, methods and techniques for secure electronic commerce transaction and rights management
US5943422A (en) 1996-08-12 1999-08-24 Intertrust Technologies Corp. Steganographic techniques for securely delivering electronic digital rights management control information over insecure communication channels
US6948070B1 (en) 1995-02-13 2005-09-20 Intertrust Technologies Corporation Systems and methods for secure transaction management and electronic rights protection
US5768680A (en) * 1995-05-05 1998-06-16 Thomas; C. David Media monitor
US7054462B2 (en) 1995-05-08 2006-05-30 Digimarc Corporation Inferring object status based on detected watermark data
US7224819B2 (en) 1995-05-08 2007-05-29 Digimarc Corporation Integrating digital watermarks in multimedia content
US6728390B2 (en) 1995-05-08 2004-04-27 Digimarc Corporation Methods and systems using multiple watermarks
US7555139B2 (en) * 1995-05-08 2009-06-30 Digimarc Corporation Secure documents with hidden signals, and related methods and systems
US6721440B2 (en) 1995-05-08 2004-04-13 Digimarc Corporation Low visibility watermarks using an out-of-phase color
US6760463B2 (en) * 1995-05-08 2004-07-06 Digimarc Corporation Watermarking methods and media
FR2734977B1 (fr) * 1995-06-02 1997-07-25 Telediffusion Fse Systeme de diffusion de donnees.
US5613004A (en) 1995-06-07 1997-03-18 The Dice Company Steganographic method and device
US6411725B1 (en) * 1995-07-27 2002-06-25 Digimarc Corporation Watermark enabled video objects
US6965682B1 (en) 1999-05-19 2005-11-15 Digimarc Corp Data transmission by watermark proxy
US8429205B2 (en) 1995-07-27 2013-04-23 Digimarc Corporation Associating data with media signals in media signal systems through auxiliary data steganographically embedded in the media signals
US6505160B1 (en) 1995-07-27 2003-01-07 Digimarc Corporation Connected audio and other media objects
US6408331B1 (en) 1995-07-27 2002-06-18 Digimarc Corporation Computer linking methods using encoded graphics
US7562392B1 (en) 1999-05-19 2009-07-14 Digimarc Corporation Methods of interacting with audio and ambient music
US6829368B2 (en) 2000-01-26 2004-12-07 Digimarc Corporation Establishing and interacting with on-line media collections using identifiers in media signals
US6577746B1 (en) 1999-12-28 2003-06-10 Digimarc Corporation Watermark-based object linking and embedding
US7003731B1 (en) 1995-07-27 2006-02-21 Digimare Corporation User control and activation of watermark enabled objects
US6788800B1 (en) 2000-07-25 2004-09-07 Digimarc Corporation Authenticating objects using embedded data
US5574963A (en) * 1995-07-31 1996-11-12 Lee S. Weinblatt Audience measurement during a mute mode
US6385645B1 (en) 1995-08-04 2002-05-07 Belle Gate Investments B.V. Data exchange system comprising portable data processing units
US5937000A (en) * 1995-09-06 1999-08-10 Solana Technology Development Corporation Method and apparatus for embedding auxiliary data in a primary data signal
US6154484A (en) * 1995-09-06 2000-11-28 Solana Technology Development Corporation Method and apparatus for embedding auxiliary data in a primary data signal using frequency and time domain processing
US5822360A (en) * 1995-09-06 1998-10-13 Solana Technology Development Corporation Method and apparatus for transporting auxiliary data in audio signals
US5687191A (en) * 1995-12-06 1997-11-11 Solana Technology Development Corporation Post-compression hidden data transport
US6205249B1 (en) 1998-04-02 2001-03-20 Scott A. Moskowitz Multiple transform utilization and applications for secure digital watermarking
US7664263B2 (en) 1998-03-24 2010-02-16 Moskowitz Scott A Method for combining transfer functions with predetermined key creation
JP3639663B2 (ja) * 1996-01-26 2005-04-20 キヤノン株式会社 復号化装置
US6035177A (en) * 1996-02-26 2000-03-07 Donald W. Moses Simultaneous transmission of ancillary and audio signals by means of perceptual coding
US5901178A (en) * 1996-02-26 1999-05-04 Solana Technology Development Corporation Post-compression hidden data transport for video
US6512796B1 (en) 1996-03-04 2003-01-28 Douglas Sherwood Method and system for inserting and retrieving data in an audio signal
DE19640825C2 (de) * 1996-03-07 1998-07-23 Fraunhofer Ges Forschung Codierer zur Einbringung eines nicht hörbaren Datensignals in ein Audiosignal und Decodierer zum decodieren eines nicht hörbar in einem Audiosignal enthaltenen Datensignals
US6584138B1 (en) 1996-03-07 2003-06-24 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Coding process for inserting an inaudible data signal into an audio signal, decoding process, coder and decoder
US5987459A (en) * 1996-03-15 1999-11-16 Regents Of The University Of Minnesota Image and document management system for content-based retrieval
US20030056103A1 (en) * 2000-12-18 2003-03-20 Levy Kenneth L. Audio/video commerce application architectural framework
US7715446B2 (en) * 1996-04-25 2010-05-11 Digimarc Corporation Wireless methods and devices employing plural-bit data derived from audio information
US7505605B2 (en) * 1996-04-25 2009-03-17 Digimarc Corporation Portable devices and methods employing digital watermarking
US7412072B2 (en) * 1996-05-16 2008-08-12 Digimarc Corporation Variable message coding protocols for encoding auxiliary data in media signals
US6381341B1 (en) 1996-05-16 2002-04-30 Digimarc Corporation Watermark encoding method exploiting biases inherent in original signal
US5889548A (en) * 1996-05-28 1999-03-30 Nielsen Media Research, Inc. Television receiver use metering with separate program and sync detectors
US5889868A (en) 1996-07-02 1999-03-30 The Dice Company Optimization methods for the insertion, protection, and detection of digital watermarks in digitized data
US6078664A (en) * 1996-12-20 2000-06-20 Moskowitz; Scott A. Z-transform implementation of digital watermarks
US7107451B2 (en) * 1996-07-02 2006-09-12 Wistaria Trading, Inc. Optimization methods for the insertion, protection, and detection of digital watermarks in digital data
US7457962B2 (en) 1996-07-02 2008-11-25 Wistaria Trading, Inc Optimization methods for the insertion, protection, and detection of digital watermarks in digitized data
US7346472B1 (en) 2000-09-07 2008-03-18 Blue Spike, Inc. Method and device for monitoring and analyzing signals
US7095874B2 (en) * 1996-07-02 2006-08-22 Wistaria Trading, Inc. Optimization methods for the insertion, protection, and detection of digital watermarks in digitized data
US7159116B2 (en) 1999-12-07 2007-01-02 Blue Spike, Inc. Systems, methods and devices for trusted transactions
US7177429B2 (en) 2000-12-07 2007-02-13 Blue Spike, Inc. System and methods for permitting open access to data objects and for securing data within the data objects
US6031914A (en) * 1996-08-30 2000-02-29 Regents Of The University Of Minnesota Method and apparatus for embedding data, including watermarks, in human perceptible images
US6272634B1 (en) 1996-08-30 2001-08-07 Regents Of The University Of Minnesota Digital watermarking to resolve multiple claims of ownership
US8131007B2 (en) * 1996-08-30 2012-03-06 Regents Of The University Of Minnesota Watermarking using multiple watermarks and keys, including keys dependent on the host signal
US7366908B2 (en) 1996-08-30 2008-04-29 Digimarc Corporation Digital watermarking with content dependent keys and autocorrelation properties for synchronization
US6061793A (en) * 1996-08-30 2000-05-09 Regents Of The University Of Minnesota Method and apparatus for embedding data, including watermarks, in human perceptible sounds
US6282299B1 (en) 1996-08-30 2001-08-28 Regents Of The University Of Minnesota Method and apparatus for video watermarking using perceptual masks
US6226387B1 (en) 1996-08-30 2001-05-01 Regents Of The University Of Minnesota Method and apparatus for scene-based video watermarking
JP3359251B2 (ja) * 1996-12-11 2002-12-24 ソニー・テクトロニクス株式会社 リアルタイム信号アナライザ
US7730317B2 (en) 1996-12-20 2010-06-01 Wistaria Trading, Inc. Linear predictive coding implementation of digital watermarks
GB9700854D0 (en) * 1997-01-16 1997-03-05 Scient Generics Ltd Sub-audible acoustic data transmission mechanism
US6675383B1 (en) 1997-01-22 2004-01-06 Nielsen Media Research, Inc. Source detection apparatus and method for audience measurement
US5940429A (en) * 1997-02-25 1999-08-17 Solana Technology Development Corporation Cross-term compensation power adjustment of embedded auxiliary data in a primary data signal
JP3690043B2 (ja) * 1997-03-03 2005-08-31 ソニー株式会社 音声情報伝送装置及び方法並びに音声情報記録装置
US6125172A (en) * 1997-04-18 2000-09-26 Lucent Technologies, Inc. Apparatus and method for initiating a transaction having acoustic data receiver that filters human voice
US6427012B1 (en) * 1997-05-19 2002-07-30 Verance Corporation Apparatus and method for embedding and extracting information in analog signals using replica modulation
US5940135A (en) * 1997-05-19 1999-08-17 Aris Technologies, Inc. Apparatus and method for encoding and decoding information in analog signals
US5966382A (en) * 1997-05-30 1999-10-12 3Com Corporation Network communications using sine waves
US6804376B2 (en) 1998-01-20 2004-10-12 Digimarc Corporation Equipment employing watermark-based authentication function
US6145081A (en) * 1998-02-02 2000-11-07 Verance Corporation Method and apparatus for preventing removal of embedded information in cover signals
US6219095B1 (en) * 1998-02-10 2001-04-17 Wavetek Corporation Noise measurement system
US6252532B1 (en) 1998-02-26 2001-06-26 3Com Corporation Programmable compensation and frequency equalization for network systems
US6389055B1 (en) * 1998-03-30 2002-05-14 Lucent Technologies, Inc. Integrating digital data with perceptible signals
US7756892B2 (en) * 2000-05-02 2010-07-13 Digimarc Corporation Using embedded data with file sharing
US7689532B1 (en) 2000-07-20 2010-03-30 Digimarc Corporation Using embedded data with file sharing
US6773547B2 (en) * 1998-05-08 2004-08-10 American Air Liquide, Inc. Process for the bleaching of low consistency pulp using high partial pressure ozone
BR9810699A (pt) * 1998-05-12 2000-09-05 Nielsen Media Res Inc Sistema de medição de audiência de televisão, processo e aparelho para identificar um programa de televisão selecionado por um espectador, e, agente de software armazenado em memória em associação com um equipamento de televisão digital
US5974299A (en) 1998-05-27 1999-10-26 Massetti; Enrico Emilio Audience rating system for digital television and radio
US7644282B2 (en) 1998-05-28 2010-01-05 Verance Corporation Pre-processed information embedding system
AUPP392498A0 (en) 1998-06-04 1998-07-02 Innes Corporation Pty Ltd Traffic verification system
IL125221A0 (en) 1998-07-06 1999-03-12 Toy Control Ltd Motion activation using passive sound source
US7006555B1 (en) 1998-07-16 2006-02-28 Nielsen Media Research, Inc. Spectral audio encoding
US6272176B1 (en) 1998-07-16 2001-08-07 Nielsen Media Research, Inc. Broadcast encoding system and method
US7953824B2 (en) 1998-08-06 2011-05-31 Digimarc Corporation Image sensors worn or attached on humans for imagery identification
WO2000021203A1 (en) * 1998-10-02 2000-04-13 Comsense Technologies, Ltd. A method to use acoustic signals for computer communications
IL127569A0 (en) 1998-09-16 1999-10-28 Comsense Technologies Ltd Interactive toys
US6607136B1 (en) 1998-09-16 2003-08-19 Beepcard Inc. Physical presence digital authentication system
US7197156B1 (en) 1998-09-25 2007-03-27 Digimarc Corporation Method and apparatus for embedding auxiliary information within original data
US6711540B1 (en) * 1998-09-25 2004-03-23 Legerity, Inc. Tone detector with noise detection and dynamic thresholding for robust performance
US6574334B1 (en) 1998-09-25 2003-06-03 Legerity, Inc. Efficient dynamic energy thresholding in multiple-tone multiple frequency detectors
US7532740B2 (en) 1998-09-25 2009-05-12 Digimarc Corporation Method and apparatus for embedding auxiliary information within original data
US7373513B2 (en) * 1998-09-25 2008-05-13 Digimarc Corporation Transmarking of multimedia signals
AU9367098A (en) * 1998-09-29 2000-04-17 Sun Microsystems, Inc. Superposition of data over voice
US8332478B2 (en) 1998-10-01 2012-12-11 Digimarc Corporation Context sensitive connected content
GB2342548B (en) * 1998-10-02 2003-05-07 Central Research Lab Ltd Apparatus for,and method of,encoding a signal
US7334735B1 (en) 1998-10-02 2008-02-26 Beepcard Ltd. Card for interaction with a computer
US8290202B2 (en) 1998-11-03 2012-10-16 Digimarc Corporation Methods utilizing steganography
US6519769B1 (en) * 1998-11-09 2003-02-11 General Electric Company Audience measurement system employing local time coincidence coding
US7260221B1 (en) 1998-11-16 2007-08-21 Beepcard Ltd. Personal communicator authentication
US6442283B1 (en) 1999-01-11 2002-08-27 Digimarc Corporation Multimedia data embedding
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US7664264B2 (en) 1999-03-24 2010-02-16 Blue Spike, Inc. Utilizing data reduction in steganographic and cryptographic systems
US20010034705A1 (en) * 1999-05-19 2001-10-25 Rhoads Geoffrey B. Payment-based systems for internet music
US20020032734A1 (en) 2000-07-26 2002-03-14 Rhoads Geoffrey B. Collateral data combined with user characteristics to select web site
US7406214B2 (en) 1999-05-19 2008-07-29 Digimarc Corporation Methods and devices employing optical sensors and/or steganography
US7261612B1 (en) 1999-08-30 2007-08-28 Digimarc Corporation Methods and systems for read-aloud books
US6871180B1 (en) 1999-05-25 2005-03-22 Arbitron Inc. Decoding of information in audio signals
AU2006203639C1 (en) * 1999-05-25 2009-01-08 Arbitron Inc. Decoding of information in audio signals
AU2004242522B2 (en) * 1999-05-25 2006-05-25 Arbitron Inc. Decoding of information in audio signals
DE69942620D1 (de) * 1999-06-10 2010-09-02 Belle Gate Invest B V Vorrichtung zum speichern unterschiedlicher versionen von datensätzen in getrennten datenbereichen uin einem speicher
GB9917985D0 (en) 1999-07-30 1999-09-29 Scient Generics Ltd Acoustic communication system
US7475246B1 (en) 1999-08-04 2009-01-06 Blue Spike, Inc. Secure personal content server
US7502759B2 (en) 1999-08-30 2009-03-10 Digimarc Corporation Digital watermarking methods and related toy and game applications
US7280970B2 (en) * 1999-10-04 2007-10-09 Beepcard Ltd. Sonic/ultrasonic authentication device
US8019609B2 (en) 1999-10-04 2011-09-13 Dialware Inc. Sonic/ultrasonic authentication method
CA2310769C (en) * 1999-10-27 2013-05-28 Nielsen Media Research, Inc. Audio signature extraction and correlation
US7224995B2 (en) * 1999-11-03 2007-05-29 Digimarc Corporation Data entry method and system
US8391851B2 (en) 1999-11-03 2013-03-05 Digimarc Corporation Gestural techniques with wireless mobile phone devices
US6522746B1 (en) * 1999-11-03 2003-02-18 Tellabs Operations, Inc. Synchronization of voice boundaries and their use by echo cancellers in a voice processing system
AU777437B2 (en) * 1999-12-07 2004-10-14 Sun Microsystems, Inc. Secure photo carrying identification device, as well as means and method for authenticating such an identification device
ATE378679T1 (de) 1999-12-07 2007-11-15 Sun Microsystems Inc Computerlesbares medium mit mikroprozessor zur lesesteuerung und computeranordnung zur kommunikation mit einem derartigen medium
US6625297B1 (en) 2000-02-10 2003-09-23 Digimarc Corporation Self-orienting watermarks
US6760276B1 (en) * 2000-02-11 2004-07-06 Gerald S. Karr Acoustic signaling system
US6737957B1 (en) 2000-02-16 2004-05-18 Verance Corporation Remote control signaling using audio watermarks
EP1275107A4 (en) * 2000-02-18 2005-09-21 Intervideo Inc CONNECT INTERNET DOCUMENTS WITH COMPRESSED AUDIO FILES
US7127744B2 (en) * 2000-03-10 2006-10-24 Digimarc Corporation Method and apparatus to protect media existing in an insecure format
US8091025B2 (en) 2000-03-24 2012-01-03 Digimarc Corporation Systems and methods for processing content objects
US6968564B1 (en) * 2000-04-06 2005-11-22 Nielsen Media Research, Inc. Multi-band spectral audio encoding
US6891959B2 (en) 2000-04-19 2005-05-10 Digimarc Corporation Hiding information out-of-phase in color channels
US6804377B2 (en) 2000-04-19 2004-10-12 Digimarc Corporation Detecting information hidden out-of-phase in color channels
US7466742B1 (en) 2000-04-21 2008-12-16 Nielsen Media Research, Inc. Detection of entropy in connection with audio signals
US7305104B2 (en) 2000-04-21 2007-12-04 Digimarc Corporation Authentication of identification documents using digital watermarks
US20020049967A1 (en) * 2000-07-01 2002-04-25 Haseltine Eric C. Processes for exploiting electronic tokens to increase broadcasting revenue
US6879652B1 (en) * 2000-07-14 2005-04-12 Nielsen Media Research, Inc. Method for encoding an input signal
KR100716039B1 (ko) 2000-07-20 2007-05-08 벨 게이트 인베스트먼트 비. 브이. 통신 장치의 방법 및 시스템과 보호된 데이터 전송을 위한장치
US6674876B1 (en) 2000-09-14 2004-01-06 Digimarc Corporation Watermarking in the time-frequency domain
US7127615B2 (en) 2000-09-20 2006-10-24 Blue Spike, Inc. Security based on subliminal and supraliminal channels for data objects
WO2002033954A2 (en) 2000-10-17 2002-04-25 Digimarc Corporation User control and activation of watermark enabled objects
WO2002056139A2 (en) * 2000-10-26 2002-07-18 Digimarc Corporation Method and system for internet access
ATE411658T1 (de) * 2000-11-30 2008-10-15 Intrasonics Ltd Vorrichtung und system zum verwenden eines in einem akustischen signal integrierten datensignals
AU2211102A (en) 2000-11-30 2002-06-11 Scient Generics Ltd Acoustic communication system
US7266704B2 (en) * 2000-12-18 2007-09-04 Digimarc Corporation User-friendly rights management systems and methods
US8055899B2 (en) 2000-12-18 2011-11-08 Digimarc Corporation Systems and methods using digital watermarking and identifier extraction to provide promotional opportunities
US6965683B2 (en) 2000-12-21 2005-11-15 Digimarc Corporation Routing networks for use with watermark systems
US20020114299A1 (en) * 2000-12-27 2002-08-22 Daozheng Lu Apparatus and method for measuring tuning of a digital broadcast receiver
US8477958B2 (en) 2001-02-26 2013-07-02 777388 Ontario Limited Networked sound masking system
US9219708B2 (en) 2001-03-22 2015-12-22 DialwareInc. Method and system for remotely authenticating identification devices
US8050452B2 (en) * 2001-03-22 2011-11-01 Digimarc Corporation Quantization-based data embedding in mapped data
US7376242B2 (en) * 2001-03-22 2008-05-20 Digimarc Corporation Quantization-based data embedding in mapped data
DE10115733A1 (de) * 2001-03-30 2002-11-21 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Ermitteln von in ein Audiosignal eingebrachten Informationen und Verfahren und Vorrichtung zum Einbringen von Informationen in ein Audiosignal
US7159118B2 (en) * 2001-04-06 2007-01-02 Verance Corporation Methods and apparatus for embedding and recovering watermarking information based on host-matching codes
US7822969B2 (en) * 2001-04-16 2010-10-26 Digimarc Corporation Watermark systems and methods
US7046819B2 (en) 2001-04-25 2006-05-16 Digimarc Corporation Encoded reference signal for digital watermarks
US7024018B2 (en) * 2001-05-11 2006-04-04 Verance Corporation Watermark position modulation
US8572640B2 (en) * 2001-06-29 2013-10-29 Arbitron Inc. Media data use measurement with remote decoding/pattern matching
US6963543B2 (en) 2001-06-29 2005-11-08 Qualcomm Incorporated Method and system for group call service
US20050086697A1 (en) * 2001-07-02 2005-04-21 Haseltine Eric C. Processes for exploiting electronic tokens to increase broadcasting revenue
US20040030900A1 (en) * 2001-07-13 2004-02-12 Clark James R. Undetectable watermarking technique for audio media
US6862355B2 (en) * 2001-09-07 2005-03-01 Arbitron Inc. Message reconstruction from partial detection
US20030070179A1 (en) * 2001-10-04 2003-04-10 Ritz Peter B. System and method for connecting end user with application based on broadcast code
US6724914B2 (en) * 2001-10-16 2004-04-20 Digimarc Corporation Progressive watermark decoding on a distributed computing platform
ATE376293T1 (de) * 2001-10-17 2007-11-15 Koninkl Philips Electronics Nv Vorrichtung zur kodierung von hilfsinformationen in einem signal
US7117513B2 (en) * 2001-11-09 2006-10-03 Nielsen Media Research, Inc. Apparatus and method for detecting and correcting a corrupted broadcast time code
US7006662B2 (en) * 2001-12-13 2006-02-28 Digimarc Corporation Reversible watermarking using expansion, rate control and iterative embedding
ATE509326T1 (de) 2001-12-18 2011-05-15 L 1 Secure Credentialing Inc Mehrfachbildsicherheitsmerkmale zur identifikation von dokumenten und verfahren zu ihrer herstellung
EP1459239B1 (en) 2001-12-24 2012-04-04 L-1 Secure Credentialing, Inc. Covert variable information on id documents and methods of making same
ATE555911T1 (de) 2001-12-24 2012-05-15 L 1 Secure Credentialing Inc Verfahren zur vollfarb-markierung von id- dokumenten
US8248528B2 (en) * 2001-12-24 2012-08-21 Intrasonics S.A.R.L. Captioning system
US7694887B2 (en) 2001-12-24 2010-04-13 L-1 Secure Credentialing, Inc. Optically variable personalized indicia for identification documents
US7728048B2 (en) 2002-12-20 2010-06-01 L-1 Secure Credentialing, Inc. Increasing thermal conductivity of host polymer used with laser engraving methods and compositions
US20030131350A1 (en) 2002-01-08 2003-07-10 Peiffer John C. Method and apparatus for identifying a digital audio signal
US6647252B2 (en) * 2002-01-18 2003-11-11 General Instrument Corporation Adaptive threshold algorithm for real-time wavelet de-noising applications
US7076659B2 (en) 2002-02-25 2006-07-11 Matsushita Electric Industrial Co., Ltd. Enhanced method for digital data hiding
US7181159B2 (en) 2002-03-07 2007-02-20 Breen Julian H Method and apparatus for monitoring audio listening
US8278432B2 (en) * 2002-03-29 2012-10-02 Innogenetics N.V. HBV drug resistance methods
US7287275B2 (en) 2002-04-17 2007-10-23 Moskowitz Scott A Methods, systems and devices for packet watermarking and efficient provisioning of bandwidth
US7824029B2 (en) 2002-05-10 2010-11-02 L-1 Secure Credentialing, Inc. Identification card printer-assembler for over the counter card issuing
US20060031111A9 (en) * 2002-05-30 2006-02-09 Whymark Thomas J Multi-market broadcast tracking, management and reporting method and system
US7624409B2 (en) * 2002-05-30 2009-11-24 The Nielsen Company (Us), Llc Multi-market broadcast tracking, management and reporting method and system
US7039931B2 (en) * 2002-05-30 2006-05-02 Nielsen Media Research, Inc. Multi-market broadcast tracking, management and reporting method and system
DE10227431A1 (de) * 2002-06-20 2004-05-19 Castel Gmbh Nachrichtenübermittlungssystem
US7460827B2 (en) * 2002-07-26 2008-12-02 Arbitron, Inc. Radio frequency proximity detection and identification system and method
US7239981B2 (en) 2002-07-26 2007-07-03 Arbitron Inc. Systems and methods for gathering audience measurement data
US9711153B2 (en) 2002-09-27 2017-07-18 The Nielsen Company (Us), Llc Activating functions in processing devices using encoded audio and detecting audio signatures
US8959016B2 (en) 2002-09-27 2015-02-17 The Nielsen Company (Us), Llc Activating functions in processing devices using start codes embedded in audio
US20130138231A1 (en) * 2011-11-30 2013-05-30 Arbitron, Inc. Apparatus, system and method for activating functions in processing devices using encoded audio
US20120203363A1 (en) * 2002-09-27 2012-08-09 Arbitron, Inc. Apparatus, system and method for activating functions in processing devices using encoded audio and audio signatures
US7222071B2 (en) * 2002-09-27 2007-05-22 Arbitron Inc. Audio data receipt/exposure measurement with code monitoring and signature extraction
US20060107195A1 (en) * 2002-10-02 2006-05-18 Arun Ramaswamy Methods and apparatus to present survey information
EP1552454B1 (en) 2002-10-15 2014-07-23 Verance Corporation Media monitoring, management and information system
WO2004036762A2 (en) * 2002-10-16 2004-04-29 Mazetech Co., Ltd. Encryption processing method and device of a voice signal
MXPA05004231A (es) 2002-10-23 2005-07-05 Nielsen Media Res Inc Aparato para la insercion de datos digitales, y metodos para utilizarlo con audio/video comprimidos.
US6845360B2 (en) * 2002-11-22 2005-01-18 Arbitron Inc. Encoding multiple messages in audio data and detecting same
AU2003298731A1 (en) 2002-11-26 2004-06-18 Digimarc Id Systems Systems and methods for managing and detecting fraud in image databases used with identification documents
US7712673B2 (en) 2002-12-18 2010-05-11 L-L Secure Credentialing, Inc. Identification document with three dimensional image of bearer
US7174151B2 (en) * 2002-12-23 2007-02-06 Arbitron Inc. Ensuring EAS performance in audio signal encoding
US7483835B2 (en) * 2002-12-23 2009-01-27 Arbitron, Inc. AD detection using ID code and extracted signature
US20040220862A1 (en) * 2003-01-09 2004-11-04 Jackson E. T. Multiview selective listening system
US8027482B2 (en) * 2003-02-13 2011-09-27 Hollinbeck Mgmt. Gmbh, Llc DVD audio encoding using environmental audio tracks
CA2522551C (en) 2003-04-16 2009-12-22 Digimarc Corporation Three dimensional data storage
US7460684B2 (en) * 2003-06-13 2008-12-02 Nielsen Media Research, Inc. Method and apparatus for embedding watermarks
WO2005006768A1 (en) 2003-06-20 2005-01-20 Nielsen Media Research, Inc Signature-based program identification apparatus and methods for use with digital broadcast systems
KR20050028193A (ko) * 2003-09-17 2005-03-22 삼성전자주식회사 오디오 신호에 적응적으로 부가 정보를 삽입하기 위한방법, 오디오 신호에 삽입된 부가 정보의 재생 방법, 및그 장치와 이를 구현하기 위한 프로그램이 기록된 기록 매체
CN1839657B (zh) 2003-10-07 2011-11-23 尼尔逊媒介研究股份有限公司 从多个通道提取码的方法和设备
US20060239501A1 (en) 2005-04-26 2006-10-26 Verance Corporation Security enhancements of digital watermarks for multi-media content
US7369677B2 (en) 2005-04-26 2008-05-06 Verance Corporation System reactions to the detection of embedded watermarks in a digital host content
US20070039018A1 (en) * 2005-08-09 2007-02-15 Verance Corporation Apparatus, systems and methods for broadcast advertising stewardship
US9055239B2 (en) 2003-10-08 2015-06-09 Verance Corporation Signal continuity assessment using embedded watermarks
KR100560429B1 (ko) * 2003-12-17 2006-03-13 한국전자통신연구원 비선형 양자화를 이용한 워터마킹 장치 및 그 방법
US7231271B2 (en) * 2004-01-21 2007-06-12 The United States Of America As Represented By The Secretary Of The Air Force Steganographic method for covert audio communications
US7744002B2 (en) 2004-03-11 2010-06-29 L-1 Secure Credentialing, Inc. Tamper evident adhesive and identification document including same
US7463143B2 (en) * 2004-03-15 2008-12-09 Arbioran Methods and systems for gathering market research data within commercial establishments
US20050203798A1 (en) * 2004-03-15 2005-09-15 Jensen James M. Methods and systems for gathering market research data
US8229469B2 (en) 2004-03-15 2012-07-24 Arbitron Inc. Methods and systems for mapping locations of wireless transmitters for use in gathering market research data
US7420464B2 (en) * 2004-03-15 2008-09-02 Arbitron, Inc. Methods and systems for gathering market research data inside and outside commercial establishments
DK1776688T3 (da) 2004-03-19 2013-06-10 Arbitron Inc Indsamle data vedrørende brug af en publikation
US8738763B2 (en) 2004-03-26 2014-05-27 The Nielsen Company (Us), Llc Research data gathering with a portable monitor and a stationary device
US7483975B2 (en) 2004-03-26 2009-01-27 Arbitron, Inc. Systems and methods for gathering data concerning usage of media data
WO2005099385A2 (en) * 2004-04-07 2005-10-27 Nielsen Media Research, Inc. Data insertion apparatus and methods for use with compressed audio/video data
US8135606B2 (en) 2004-04-15 2012-03-13 Arbitron, Inc. Gathering data concerning publication usage and exposure to products and/or presence in commercial establishment
US20050281293A1 (en) * 2004-06-22 2005-12-22 Bushlow Robert J Detecting and logging triggered events in a data stream
US8140848B2 (en) * 2004-07-01 2012-03-20 Digimarc Corporation Digital watermark key generation
CN102592638A (zh) 2004-07-02 2012-07-18 尼尔逊媒介研究股份有限公司 用于进行压缩数字位流的混合的方法及装置
WO2006023770A2 (en) * 2004-08-18 2006-03-02 Nielsen Media Research, Inc. Methods and apparatus for generating signatures
US7623823B2 (en) * 2004-08-31 2009-11-24 Integrated Media Measurement, Inc. Detecting and measuring exposure to media content items
US7388512B1 (en) 2004-09-03 2008-06-17 Daniel F. Moorer, Jr. Diver locating method and apparatus
US20060111183A1 (en) * 2004-11-03 2006-05-25 Peter Maclver Remote control
US8277297B2 (en) 2004-11-03 2012-10-02 Mattel, Inc. Gaming system
US20060111166A1 (en) * 2004-11-03 2006-05-25 Peter Maclver Gaming system
US8382567B2 (en) 2004-11-03 2013-02-26 Mattel, Inc. Interactive DVD gaming systems
US7331857B2 (en) * 2004-11-03 2008-02-19 Mattel, Inc. Gaming system
US20060175753A1 (en) * 2004-11-23 2006-08-10 Maciver Peter Electronic game board
US20060167458A1 (en) * 2005-01-25 2006-07-27 Lorenz Gabele Lock and release mechanism for a sternal clamp
US20060224798A1 (en) * 2005-02-22 2006-10-05 Klein Mark D Personal music preference determination based on listening behavior
US20070016918A1 (en) * 2005-05-20 2007-01-18 Alcorn Allan E Detecting and tracking advertisements
US20060287028A1 (en) * 2005-05-23 2006-12-21 Maciver Peter Remote game device for dvd gaming systems
US8020004B2 (en) 2005-07-01 2011-09-13 Verance Corporation Forensic marking using a common customization function
US8781967B2 (en) 2005-07-07 2014-07-15 Verance Corporation Watermarking in an encrypted domain
WO2007035817A2 (en) * 2005-09-20 2007-03-29 Celodata, Inc. A method, system and program product for the insertion and retrieval of identifying artifacts in transmitted lossy and lossless data
US8566857B2 (en) * 2005-09-20 2013-10-22 Forefront Assets Limited Liability Company Method, system and program product for broadcast advertising and other broadcast content performance verification utilizing digital artifacts
US8566858B2 (en) * 2005-09-20 2013-10-22 Forefront Assets Limited Liability Company Method, system and program product for broadcast error protection of content elements utilizing digital artifacts
US8966517B2 (en) 2005-09-20 2015-02-24 Forefront Assets Limited Liability Company Method, system and program product for broadcast operations utilizing internet protocol and digital artifacts
ATE478485T1 (de) 2005-10-21 2010-09-15 Nielsen Media Res Inc Audiometer in einem tragbaren mp3 media-player headset.
US20070178966A1 (en) * 2005-11-03 2007-08-02 Kip Pohlman Video game controller with expansion panel
US20070213111A1 (en) * 2005-11-04 2007-09-13 Peter Maclver DVD games
US9015740B2 (en) 2005-12-12 2015-04-21 The Nielsen Company (Us), Llc Systems and methods to wirelessly meter audio/visual devices
WO2007070789A2 (en) * 2005-12-12 2007-06-21 Nielsen Media Research, Inc. Systems and methods to wirelessly meter audio/visual devices
EP1977359A4 (en) * 2005-12-20 2010-08-25 Arbitron Inc METHOD AND SYSTEMS FOR LEADING RESEARCH OPERATIONS
WO2007126992A2 (en) 2006-03-27 2007-11-08 Nielsen Media Research, Inc. Methods and systems to meter media content presented on a wireless communication device
JP4573792B2 (ja) * 2006-03-29 2010-11-04 富士通株式会社 ユーザ認証システム、不正ユーザ判別方法、およびコンピュータプログラム
WO2007146876A2 (en) 2006-06-15 2007-12-21 The Nielsen Company Methods and apparatus to meter content exposure using closed caption information
US8019162B2 (en) * 2006-06-20 2011-09-13 The Nielsen Company (Us), Llc Methods and apparatus for detecting on-screen media sources
JP5319527B2 (ja) 2006-07-12 2013-10-16 アービトロン インコーポレイテッド 順守確認および奨励方法およびシステム
EP2958106B1 (en) 2006-10-11 2018-07-18 The Nielsen Company (US), LLC Methods and apparatus for embedding codes in compressed audio data streams
EP1933482A1 (en) * 2006-12-13 2008-06-18 Taylor Nelson Sofres Plc audience measurement system, fixed and portable monitoring devices
US10885543B1 (en) 2006-12-29 2021-01-05 The Nielsen Company (Us), Llc Systems and methods to pre-scale media content to facilitate audience measurement
AU2014227513B2 (en) * 2007-01-25 2016-08-25 Arbitron Inc. Research data gathering
CA3144408C (en) 2007-01-25 2023-07-25 Arbitron Inc. Research data gathering
CN103138862B (zh) 2007-02-20 2016-06-01 尼尔森(美国)有限公司 创建表示媒体的签名的装置和方法
US10489795B2 (en) * 2007-04-23 2019-11-26 The Nielsen Company (Us), Llc Determining relative effectiveness of media content items
EP2156583B1 (en) 2007-05-02 2018-06-06 The Nielsen Company (US), LLC Methods and apparatus for generating signatures
US20080293453A1 (en) * 2007-05-25 2008-11-27 Scott J. Atlas Method and apparatus for an audio-linked remote indicator for a wireless communication device
US20090060257A1 (en) * 2007-08-29 2009-03-05 Korea Advanced Institute Of Science And Technology Watermarking method resistant to geometric attack in wavelet transform domain
US20090094631A1 (en) * 2007-10-01 2009-04-09 Whymark Thomas J Systems, apparatus and methods to associate related market broadcast detections with a multi-market media broadcast
AU2008308442B2 (en) 2007-10-06 2015-01-22 Arbitron, Inc. Gathering research data
CA2705549C (en) 2007-11-12 2015-12-01 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
AU2008347134A1 (en) 2007-12-31 2009-07-16 Arbitron, Inc. Survey data acquisition
US8930003B2 (en) 2007-12-31 2015-01-06 The Nielsen Company (Us), Llc Data capture bridge
US8701136B2 (en) 2008-01-07 2014-04-15 Nielsen Company (Us), Llc Methods and apparatus to monitor, verify, and rate the performance of airings of commercials
US8457951B2 (en) 2008-01-29 2013-06-04 The Nielsen Company (Us), Llc Methods and apparatus for performing variable black length watermarking of media
CN102982810B (zh) * 2008-03-05 2016-01-13 尼尔森(美国)有限公司 生成签名的方法和装置
EP2262683B1 (en) * 2008-03-07 2017-06-28 Adams Rite Aerospace Rapid decompression detection system and method
GB2460306B (en) 2008-05-29 2013-02-13 Intrasonics Sarl Data embedding system
US8666086B2 (en) 2008-06-06 2014-03-04 777388 Ontario Limited System and method for monitoring/controlling a sound masking system from an electronic floorplan
US20090307061A1 (en) * 2008-06-10 2009-12-10 Integrated Media Measurement, Inc. Measuring Exposure To Media
US20090307084A1 (en) * 2008-06-10 2009-12-10 Integrated Media Measurement, Inc. Measuring Exposure To Media Across Multiple Media Delivery Mechanisms
US8259938B2 (en) 2008-06-24 2012-09-04 Verance Corporation Efficient and secure forensic marking in compressed
JP5582508B2 (ja) * 2008-08-14 2014-09-03 エスケーテレコム株式会社 データ送信装置、データ受信装置、データ送信方法、及びデータ受信方法
US8359205B2 (en) 2008-10-24 2013-01-22 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US9667365B2 (en) 2008-10-24 2017-05-30 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US8121830B2 (en) * 2008-10-24 2012-02-21 The Nielsen Company (Us), Llc Methods and apparatus to extract data encoded in media content
US9124769B2 (en) 2008-10-31 2015-09-01 The Nielsen Company (Us), Llc Methods and apparatus to verify presentation of media content
US20100205628A1 (en) 2009-02-12 2010-08-12 Davis Bruce L Media processing methods and arrangements
US8508357B2 (en) 2008-11-26 2013-08-13 The Nielsen Company (Us), Llc Methods and apparatus to encode and decode audio for shopper location and advertisement presentation tracking
US9160988B2 (en) 2009-03-09 2015-10-13 The Nielsen Company (Us), Llc System and method for payload encoding and decoding
US8879895B1 (en) 2009-03-28 2014-11-04 Matrox Electronic Systems Ltd. System and method for processing ancillary data associated with a video stream
US20100268540A1 (en) * 2009-04-17 2010-10-21 Taymoor Arshi System and method for utilizing audio beaconing in audience measurement
US20100268573A1 (en) * 2009-04-17 2010-10-21 Anand Jain System and method for utilizing supplemental audio beaconing in audience measurement
US10008212B2 (en) * 2009-04-17 2018-06-26 The Nielsen Company (Us), Llc System and method for utilizing audio encoding for measuring media exposure with environmental masking
US8826317B2 (en) 2009-04-17 2014-09-02 The Nielson Company (Us), Llc System and method for determining broadcast dimensionality
CA3008502C (en) 2009-05-01 2020-11-10 The Nielsen Company (Us), Llc Methods, apparatus and articles of manufacture to provide secondary content in association with primary broadcast media content
US8774417B1 (en) 2009-10-05 2014-07-08 Xfrm Incorporated Surround audio compatibility assessment
US8121618B2 (en) 2009-10-28 2012-02-21 Digimarc Corporation Intuitive computing methods and systems
EP2362385A1 (en) 2010-02-26 2011-08-31 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. Watermark signal provision and watermark embedding
EP2362387A1 (en) 2010-02-26 2011-08-31 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. Watermark generator, watermark decoder, method for providing a watermark signal in dependence on binary message data, method for providing binary message data in dependence on a watermarked signal and computer program using a differential encoding
EP2362386A1 (en) * 2010-02-26 2011-08-31 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. Watermark generator, watermark decoder, method for providing a watermark signal in dependence on binary message data, method for providing binary message data in dependence on a watermarked signal and computer program using a two-dimensional bit spreading
EP2362384A1 (en) 2010-02-26 2011-08-31 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. Watermark generator, watermark decoder, method for providing a watermark signal, method for providing binary message data in dependence on a watermarked signal and a computer program using improved synchronization concept
EP2362382A1 (en) 2010-02-26 2011-08-31 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. Watermark signal provider and method for providing a watermark signal
EP2362383A1 (en) 2010-02-26 2011-08-31 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. Watermark decoder and method for providing binary message data
US8768713B2 (en) 2010-03-15 2014-07-01 The Nielsen Company (Us), Llc Set-top-box with integrated encoder/decoder for audience measurement
US8732605B1 (en) 2010-03-23 2014-05-20 VoteBlast, Inc. Various methods and apparatuses for enhancing public opinion gathering and dissemination
US9134875B2 (en) 2010-03-23 2015-09-15 VoteBlast, Inc. Enhancing public opinion gathering and dissemination
US8676570B2 (en) * 2010-04-26 2014-03-18 The Nielsen Company (Us), Llc Methods, apparatus and articles of manufacture to perform audio watermark decoding
US9351654B2 (en) 2010-06-08 2016-05-31 Alivecor, Inc. Two electrode apparatus and methods for twelve lead ECG
US8509882B2 (en) 2010-06-08 2013-08-13 Alivecor, Inc. Heart monitoring system usable with a smartphone or computer
US8838977B2 (en) 2010-09-16 2014-09-16 Verance Corporation Watermark extraction and content screening in a networked environment
US8805682B2 (en) * 2011-07-21 2014-08-12 Lee S. Weinblatt Real-time encoding technique
US9823892B2 (en) * 2011-08-26 2017-11-21 Dts Llc Audio adjustment system
US8498627B2 (en) 2011-09-15 2013-07-30 Digimarc Corporation Intuitive computing methods and systems
US8923548B2 (en) 2011-11-03 2014-12-30 Verance Corporation Extraction of embedded watermarks from a host content using a plurality of tentative watermarks
US8682026B2 (en) 2011-11-03 2014-03-25 Verance Corporation Efficient extraction of embedded watermarks in the presence of host content distortions
US8533481B2 (en) 2011-11-03 2013-09-10 Verance Corporation Extraction of embedded watermarks from a host content based on extrapolation techniques
US8615104B2 (en) 2011-11-03 2013-12-24 Verance Corporation Watermark extraction based on tentative watermarks
US8745403B2 (en) 2011-11-23 2014-06-03 Verance Corporation Enhanced content management based on watermark extraction records
US8997132B1 (en) * 2011-11-28 2015-03-31 Google Inc. System and method for identifying computer systems being used by viewers of television programs
US9696336B2 (en) 2011-11-30 2017-07-04 The Nielsen Company (Us), Llc Multiple meter detection and processing using motion data
US9323902B2 (en) 2011-12-13 2016-04-26 Verance Corporation Conditional access using embedded watermarks
US9547753B2 (en) 2011-12-13 2017-01-17 Verance Corporation Coordinated watermarking
US8538333B2 (en) 2011-12-16 2013-09-17 Arbitron Inc. Media exposure linking utilizing bluetooth signal characteristics
US8977194B2 (en) 2011-12-16 2015-03-10 The Nielsen Company (Us), Llc Media exposure and verification utilizing inductive coupling
US11452153B2 (en) 2012-05-01 2022-09-20 Lisnr, Inc. Pairing and gateway connection using sonic tones
EP3358811A1 (en) 2012-05-01 2018-08-08 Lisnr, Inc. Systems and methods for content delivery and management
WO2014036436A1 (en) 2012-08-30 2014-03-06 Alivecor, Inc. Cardiac performance monitoring system for use with mobile communications devices
US9571606B2 (en) 2012-08-31 2017-02-14 Verance Corporation Social media viewing system
US8726304B2 (en) 2012-09-13 2014-05-13 Verance Corporation Time varying evaluation of multimedia content
US20140075469A1 (en) 2012-09-13 2014-03-13 Verance Corporation Content distribution including advertisements
US8869222B2 (en) 2012-09-13 2014-10-21 Verance Corporation Second screen content
US9612519B2 (en) 2012-10-01 2017-04-04 Praqo As Method and system for organising image recordings and sound recordings
US9305559B2 (en) 2012-10-15 2016-04-05 Digimarc Corporation Audio watermark encoding with reversing polarity and pairwise embedding
US9401153B2 (en) 2012-10-15 2016-07-26 Digimarc Corporation Multi-mode audio recognition and auxiliary data encoding and decoding
US9992729B2 (en) 2012-10-22 2018-06-05 The Nielsen Company (Us), Llc Systems and methods for wirelessly modifying detection characteristics of portable devices
WO2014074913A1 (en) 2012-11-08 2014-05-15 Alivecor, Inc. Electrocardiogram signal detection
EP3567377A1 (en) 2012-11-30 2019-11-13 The Nielsen Company (US), LLC Multiple meter detection and processing using motion data
US9158760B2 (en) 2012-12-21 2015-10-13 The Nielsen Company (Us), Llc Audio decoding with supplemental semantic audio recognition and report generation
US9195649B2 (en) 2012-12-21 2015-11-24 The Nielsen Company (Us), Llc Audio processing techniques for semantic audio recognition and report generation
US9183849B2 (en) 2012-12-21 2015-11-10 The Nielsen Company (Us), Llc Audio matching with semantic audio recognition and report generation
US9220430B2 (en) 2013-01-07 2015-12-29 Alivecor, Inc. Methods and systems for electrode placement
US9099080B2 (en) 2013-02-06 2015-08-04 Muzak Llc System for targeting location-based communications
US9079533B2 (en) 2013-02-27 2015-07-14 Peter Pottier Programmable devices for alerting vehicles and pedestrians and methods of using the same
US9262794B2 (en) 2013-03-14 2016-02-16 Verance Corporation Transactional video marking system
US9721271B2 (en) 2013-03-15 2017-08-01 The Nielsen Company (Us), Llc Methods and apparatus to incorporate saturation effects into marketing mix models
US9325381B2 (en) 2013-03-15 2016-04-26 The Nielsen Company (Us), Llc Methods, apparatus and articles of manufacture to monitor mobile devices
WO2014145927A1 (en) 2013-03-15 2014-09-18 Alivecor, Inc. Systems and methods for processing and analyzing medical data
US9247911B2 (en) 2013-07-10 2016-02-02 Alivecor, Inc. Devices and methods for real-time denoising of electrocardiograms
US9251549B2 (en) 2013-07-23 2016-02-02 Verance Corporation Watermark extractor enhancements based on payload ranking
US9711152B2 (en) 2013-07-31 2017-07-18 The Nielsen Company (Us), Llc Systems apparatus and methods for encoding/decoding persistent universal media codes to encoded audio
US20150039321A1 (en) 2013-07-31 2015-02-05 Arbitron Inc. Apparatus, System and Method for Reading Codes From Digital Audio on a Processing Device
US9208334B2 (en) 2013-10-25 2015-12-08 Verance Corporation Content management using multiple abstraction layers
US8918326B1 (en) 2013-12-05 2014-12-23 The Telos Alliance Feedback and simulation regarding detectability of a watermark message
US8768710B1 (en) 2013-12-05 2014-07-01 The Telos Alliance Enhancing a watermark signal extracted from an output signal of a watermarking encoder
US8768714B1 (en) 2013-12-05 2014-07-01 The Telos Alliance Monitoring detectability of a watermark message
US9824694B2 (en) 2013-12-05 2017-11-21 Tls Corp. Data carriage in encoded and pre-encoded audio bitstreams
US8768005B1 (en) 2013-12-05 2014-07-01 The Telos Alliance Extracting a watermark signal from an output signal of a watermarking encoder
EP3079571A4 (en) 2013-12-12 2017-08-02 Alivecor, Inc. Methods and systems for arrhythmia tracking and scoring
US9426525B2 (en) 2013-12-31 2016-08-23 The Nielsen Company (Us), Llc. Methods and apparatus to count people in an audience
US9311639B2 (en) 2014-02-11 2016-04-12 Digimarc Corporation Methods, apparatus and arrangements for device to device communication
WO2015138798A1 (en) 2014-03-13 2015-09-17 Verance Corporation Interactive content acquisition using embedded codes
US10410643B2 (en) 2014-07-15 2019-09-10 The Nielson Company (Us), Llc Audio watermarking for people monitoring
WO2016017238A1 (ja) * 2014-07-28 2016-02-04 日本電信電話株式会社 符号化方法、装置、プログラム及び記録媒体
WO2016061353A1 (en) 2014-10-15 2016-04-21 Lisnr, Inc. Inaudible signaling tone
US9418395B1 (en) 2014-12-31 2016-08-16 The Nielsen Company (Us), Llc Power efficient detection of watermarks in media signals
US9747656B2 (en) 2015-01-22 2017-08-29 Digimarc Corporation Differential modulation for robust signaling and synchronization
US10397650B1 (en) * 2015-02-11 2019-08-27 Comscore, Inc. Encoding and decoding media contents using code sequence to estimate audience
US9130685B1 (en) 2015-04-14 2015-09-08 Tls Corp. Optimizing parameters in deployed systems operating in delayed feedback real world environments
EP3282933B1 (en) 2015-05-13 2020-07-08 Alivecor, Inc. Discordance monitoring
US9454343B1 (en) 2015-07-20 2016-09-27 Tls Corp. Creating spectral wells for inserting watermarks in audio signals
US9626977B2 (en) 2015-07-24 2017-04-18 Tls Corp. Inserting watermarks into audio signals that have speech-like properties
US10115404B2 (en) 2015-07-24 2018-10-30 Tls Corp. Redundancy in watermarking audio signals that have speech-like properties
US10102602B2 (en) 2015-11-24 2018-10-16 The Nielsen Company (Us), Llc Detecting watermark modifications
US11233582B2 (en) 2016-03-25 2022-01-25 Lisnr, Inc. Local tone generation
US10405036B2 (en) 2016-06-24 2019-09-03 The Nielsen Company (Us), Llc Invertible metering apparatus and related methods
US10178433B2 (en) 2016-06-24 2019-01-08 The Nielsen Company (Us), Llc Invertible metering apparatus and related methods
US9984380B2 (en) 2016-06-24 2018-05-29 The Nielsen Company (Us), Llc. Metering apparatus and related methods
DE102017206236A1 (de) * 2017-04-11 2018-10-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Spezifische hoppingmuster für telegram-splitting
US11189295B2 (en) * 2017-09-28 2021-11-30 Lisnr, Inc. High bandwidth sonic tone generation
US10347262B2 (en) 2017-10-18 2019-07-09 The Nielsen Company (Us), Llc Systems and methods to improve timestamp transition resolution
US10826623B2 (en) 2017-12-19 2020-11-03 Lisnr, Inc. Phase shift keyed signaling tone
CN109147795B (zh) * 2018-08-06 2021-05-14 珠海全志科技股份有限公司 声纹数据传输、识别方法、识别装置和存储介质
US11336970B2 (en) 2018-11-27 2022-05-17 The Nielsen Company (Us), Llc Flexible commercial monitoring
DE102019209621B3 (de) 2019-07-01 2020-08-06 Sonobeacon Gmbh Audiosignal-basiertes Paketzustellsystem
US11451855B1 (en) 2020-09-10 2022-09-20 Joseph F. Kirley Voice interaction with digital signage using mobile device

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2470240A (en) * 1945-07-31 1949-05-17 Rca Corp Limiting detector circuits
US2662168A (en) * 1946-11-09 1953-12-08 Serge A Scherbatskoy System of determining the listening habits of wave signal receiver users
US2573279A (en) * 1946-11-09 1951-10-30 Serge A Scherbatskoy System of determining the listening habits of wave signal receiver users
US2660511A (en) * 1947-10-24 1953-11-24 Nielsen A C Co Lockout and recycling device for an apparatus for determining the listening habits of wave signal receiver users
US2660662A (en) * 1947-10-24 1953-11-24 Nielsen A C Co Search signal apparatus for determining the listening habits of wave signal receiver users
US2630525A (en) * 1951-05-25 1953-03-03 Musicast Inc System for transmitting and receiving coded entertainment programs
US2766374A (en) * 1951-07-25 1956-10-09 Internat Telementer Corp System and apparatus for determining popularity ratings of different transmitted programs
US3004104A (en) * 1954-04-29 1961-10-10 Muzak Corp Identification of sound and like signals
NL154378B (nl) * 1965-01-08 1977-08-15 Frederik Adolf Nauta En Freder Stelsel en inrichting voor het registreren van luister- en/of kijkgegevens.
US3492577A (en) * 1966-10-07 1970-01-27 Intern Telemeter Corp Audience rating system
US3845391A (en) * 1969-07-08 1974-10-29 Audicom Corp Communication including submerged identification signal
JPS5619141B1 (es) * 1970-10-24 1981-05-06
JPS5221852B2 (es) * 1971-10-19 1977-06-14
US3919479A (en) * 1972-09-21 1975-11-11 First National Bank Of Boston Broadcast signal identification system
US4025851A (en) * 1975-11-28 1977-05-24 A.C. Nielsen Company Automatic monitor for programs broadcast
DE2757171C3 (de) * 1977-12-22 1980-07-10 Standard Elektrik Lorenz Ag, 7000 Stuttgart Verfahren und Anordnung zur Übertragung zweier unterschiedlicher Informationen in einem einzigen Übertragungskanal vorgegebener Bandbreite auf einer Trägerwelle
US4225967A (en) * 1978-01-09 1980-09-30 Fujitsu Limited Broadcast acknowledgement method and system
US4230990C1 (en) * 1979-03-16 2002-04-09 John G Lert Jr Broadcast program identification method and system
US4425642A (en) * 1982-01-08 1984-01-10 Applied Spectrum Technologies, Inc. Simultaneous transmission of two information signals within a band-limited communications channel
JPS58198934A (ja) * 1982-05-17 1983-11-19 Sony Corp 秘話装置
US4450531A (en) * 1982-09-10 1984-05-22 Ensco, Inc. Broadcast signal recognition system and method
US4639779A (en) * 1983-03-21 1987-01-27 Greenberg Burton L Method and apparatus for the automatic identification and verification of television broadcast programs
US4805020A (en) * 1983-03-21 1989-02-14 Greenberg Burton L Television program transmission verification method and apparatus
US4547804A (en) * 1983-03-21 1985-10-15 Greenberg Burton L Method and apparatus for the automatic identification and verification of commercial broadcast programs
US4967273A (en) * 1983-03-21 1990-10-30 Vidcode, Inc. Television program transmission verification method and apparatus
US4703476A (en) * 1983-09-16 1987-10-27 Audicom Corporation Encoding of transmitted program material
FR2559002B1 (fr) * 1984-01-27 1986-09-05 Gam Steffen Procede et dispositif de detection d'une information audiovisuelle diffusee par un emetteur
US4613904A (en) * 1984-03-15 1986-09-23 Control Data Corporation Television monitoring device
US4697209A (en) * 1984-04-26 1987-09-29 A. C. Nielsen Company Methods and apparatus for automatically identifying programs viewed or recorded
CA1208761A (en) * 1984-06-06 1986-07-29 Cablovision Alma Inc. Method and device for remotely identifying tv receivers displaying a given channel by means of an identification signal
US4618995A (en) * 1985-04-24 1986-10-21 Kemp Saundra R Automatic system and method for monitoring and storing radio user listening habits
US4626904A (en) * 1985-11-12 1986-12-02 Control Data Corporation Meter for passively logging the presence and identity of TV viewers
US4681995A (en) * 1986-04-04 1987-07-21 Ahern Brian S Heat pipe ring stacked assembly
GB8611014D0 (en) * 1986-05-06 1986-06-11 Emi Plc Thorn Signal identification
US4718106A (en) * 1986-05-12 1988-01-05 Weinblatt Lee S Survey of radio audience
US4843562A (en) * 1987-06-24 1989-06-27 Broadcast Data Systems Limited Partnership Broadcast information classification system and method
US5394274A (en) * 1988-01-22 1995-02-28 Kahn; Leonard R. Anti-copy system utilizing audible and inaudible protection signals
US4945412A (en) * 1988-06-14 1990-07-31 Kramer Robert A Method of and system for identification and verification of broadcasting television and radio program segments
US4955070A (en) * 1988-06-29 1990-09-04 Viewfacts, Inc. Apparatus and method for automatically monitoring broadcast band listening habits
US5213337A (en) * 1988-07-06 1993-05-25 Robert Sherman System for communication using a broadcast audio signal
US5023929A (en) * 1988-09-15 1991-06-11 Npd Research, Inc. Audio frequency based market survey method
GB8824969D0 (en) * 1988-10-25 1988-11-30 Emi Plc Thorn Identification codes
NL8901032A (nl) * 1988-11-10 1990-06-01 Philips Nv Coder om extra informatie op te nemen in een digitaal audiosignaal met een tevoren bepaald formaat, een decoder om deze extra informatie uit dit digitale signaal af te leiden, een inrichting voor het opnemen van een digitaal signaal op een registratiedrager, voorzien van de coder, en een registratiedrager verkregen met deze inrichting.
US4943973A (en) * 1989-03-31 1990-07-24 At&T Company Spread-spectrum identification signal for communications system
US4972471A (en) * 1989-05-15 1990-11-20 Gary Gross Encoding system
AU7224491A (en) * 1990-01-18 1991-08-05 Elliott D Blatt Method and apparatus for broadcast media audience measurement
CA2036205C (en) * 1990-06-01 1996-11-19 Russell J. Welsh Program monitoring unit
FR2681997A1 (fr) * 1991-09-30 1993-04-02 Arbitron Cy Procede et dispositif d'identification automatique d'un programme comportant un signal sonore.
US5319735A (en) * 1991-12-17 1994-06-07 Bolt Beranek And Newman Inc. Embedded signalling
US5379345A (en) * 1993-01-29 1995-01-03 Radio Audit Systems, Inc. Method and apparatus for the processing of encoded data in conjunction with an audio broadcast
US5483276A (en) 1993-08-02 1996-01-09 The Arbitron Company Compliance incentives for audience monitoring/recording devices
US5404377A (en) * 1994-04-08 1995-04-04 Moses; Donald W. Simultaneous transmission of data and audio signals by means of perceptual coding

Also Published As

Publication number Publication date
PT753226E (pt) 2008-10-30
CN101425858A (zh) 2009-05-06
DE69535794D1 (de) 2008-09-11
EP1978658A2 (en) 2008-10-08
US5450490A (en) 1995-09-12
EP1978658A3 (en) 2013-08-07
KR970702635A (ko) 1997-05-13
ATE403290T1 (de) 2008-08-15
CN101425858B (zh) 2012-10-10
DK0753226T3 (da) 2008-12-01
US5764763A (en) 1998-06-09

Similar Documents

Publication Publication Date Title
ES2309986T3 (es) Aparato y metodo para incluir codigos en señales de audio y decodificarlos.
US6421445B1 (en) Apparatus and methods for including codes in audio signals
KR100392475B1 (ko) 방송또는기록된세그먼트를엔코딩/디코딩하고그러한세그먼트에대한시청자노출을모니터링하기위한방법과장치
US6584138B1 (en) Coding process for inserting an inaudible data signal into an audio signal, decoding process, coder and decoder
JP2000505618A (ja) 知覚的符号化手段による、補助信号と音声信号の同時送信
AU763243B2 (en) Apparatus and methods for including codes in audio signals
GB2325832A (en) Apparatus and method for including codes in audio signals
NZ502630A (en) Encoding data onto audio signal with multifrequency sets simultaneously present on signal
IL133705A (en) Apparatus and methods for including codes in audio signals and decoding