ES2367476T3 - Sistema de comunicación acústica. - Google Patents

Sistema de comunicación acústica. Download PDF

Info

Publication number
ES2367476T3
ES2367476T3 ES01999053T ES01999053T ES2367476T3 ES 2367476 T3 ES2367476 T3 ES 2367476T3 ES 01999053 T ES01999053 T ES 01999053T ES 01999053 T ES01999053 T ES 01999053T ES 2367476 T3 ES2367476 T3 ES 2367476T3
Authority
ES
Spain
Prior art keywords
signal
data
data signal
audio signal
audio track
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES01999053T
Other languages
English (en)
Inventor
Aled Wynne Jones
Michael Raymond Reynolds
David Bartlett
Ian Michael Hosking
Donald Glenn Guy
Peter John Kelly
Daniel Reginald Ewart Timson
Nicolas Vasilopolous
Alan Michael Hart
Robert John Morland
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intrasonics SARL
Original Assignee
Intrasonics SARL
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intrasonics SARL filed Critical Intrasonics SARL
Application granted granted Critical
Publication of ES2367476T3 publication Critical patent/ES2367476T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Mobile Radio Communication Systems (AREA)
  • Television Systems (AREA)

Abstract

Un aparato para dar formar a una señal de datos para su incrustación en una señal de audio, comprendiendo el aparato: medios para recibir la señal de datos; medios para recibir la señal de audio; medios (179) para el procesamiento de la señal de audio con el fin de generar una señal residual representativa de una diferencia entre un componente tonal de la señal de audio recibida y la señal de audio recibida; y medios (183, 181, 187, 185, 189) para dar forma espectral la señal de datos dependiendo de la señal residual para formar una señal de datos conformada; en el que el medio de procesamiento comprende: medios (173) para la modelación de la señal de audio para generar una señal tonal representativa de un componente tonal de la señal de audio; y medios para diferenciar la señal tonal y la señal de audio para generar la señal residual; y en el que el medio de modelado comprende: medios para aplicar un modelo de serie temporal a la señal de audio con el fin de generar una pluralidad de coeficientes indicativos de la señal de audio; y medios (175) para sintetizar la señal tonal usando los coeficientes generados.

Description

[0001] Esta invención se refiere a un sistema de comunicación acústica en el que una señal de datos se transmite por ondas acústicas.
[0002] La publicación de patente internacional WO 98/32248 describe un sistema de comunicación acústica para actualizar los datos de precio mostrados en los estantes de los supermercados. En este sistema de comunicación, las señales acústicas se transmiten dentro de un rango de frecuencia audible a un nivel de potencia en el que las señales acústicas son inaudibles virtualmente para las personas en el supermercado.
[0003] El documento titulado "Prediction based audio watermark detection algorithm" de J. W. Seok y col., Preimpreso Nº 5254, 109ª convención de AES, 22-25 de septiembre de 2000, describe un algoritmo de marca de agua en el que se obtiene una versión retardada de una señal de audio modificada a partir del análisis de predicción lineal y se usa como una señal de marca de agua.
[0004] El documento titulado "Robust audio watermarking using perceptual masking" de Swanson y col., Signal processing Vol. 66, págs. 337-355, 28 de mayo de 1998, Elservier Science Publishers describe un procedimiento de marca de agua en el que se incrusta la protección de derechos de autor en el audio digital modificando directamente las muestras de audio.
[0005] Según un aspecto, la presente invención proporciona un aparato según la reivindicación 1 para la conformación de una señal de datos para su incrustación en una señal de audio, comprendiendo el aparato:
medios para recibir la señal de datos; medios para recibir la señal de audio; medios para procesar la señal de audio con el fin de generar una señal residual representativa de una diferencia entre un componente tonal de la señal de audio recibida y la señal de audio recibida; y medios para conformar espectralmente la señal de datos dependiendo de la señal residual para formar una señal de datos conformada; en el que el medio de procesamiento comprende: medios para modelar la señal de audio con el fin de generar una señal tonal representativa de un componente tonal de la señal de audio; y medios para diferenciar la señal tonal y la señal de audio con el fin de generar la señal residual; y en el que el medio de modelación comprende: medios para aplicar un modelo de serie temporal a la señal de audio con el fin de generar una pluralidad de coeficientes indicativos de la señal de audio; y medios para sintetizar la señal tonal usando los coeficientes generados.
[0006] De acuerdo con aspectos adicionales, la presente invención proporciona también un procedimiento según la reivindicación 46, un dispositivo de almacenamiento que almacena instrucciones según la reivindicación 47 y una señal que transmite instrucciones según la reivindicación 48.
[0007] A continuación, se describirán las realizaciones ejemplares de la invención con referencia a los dibujos adjuntos, en los que:
la fig. 1 muestra esquemáticamente un sistema de señalización para comunicar una señal de datos a un teléfono móvil a través de la pista de audio de una señal de televisión y para descargar información de la Internet al teléfono celular de acuerdo con la señal de datos;
la fig. 2 muestra esquemáticamente un codificador que forma parte del sistema de señalización ilustrado en la fig. 1;
la fig. 3 es una representación gráfica que compara el espectro de potencia de una pista de audio típica de una señal de televisión con la de una señal de datos modulada con y sin codificación de espectro ensanchado;
la fig. 4 muestra esquemáticamente una unidad de recorte que forma parte del codificador ilustrado en la fig. 2;
la fig. 5 es una representación gráfica de un espectro de potencia que corresponde a la sensibilidad de un oído humano con y sin la presencia de un tono de banda estrecha; la fig. 6 muestra esquemáticamente un teléfono celular que forma parte del sistema de señalización ilustrado en la fig. 1;
la fig. 7A es un diagrama de bloques esquemático que muestra la configuración funcional de un procesador que forma parte del teléfono celular ilustrado en la fig. 6 al recibir y procesar una señal de datos;
la fig. 7B es un diagrama de flujo que ilustra las etapas realizadas por el teléfono celular mostrado en la fig. 6 para recibir y procesar una señal de datos;
la fig. 8 muestra esquemáticamente una unidad de escala para un primer codificador alternativo al codificador ilustrado en la fig. 2;
la fig. 9 es una representación gráfica que ilustra una parte de la pista de audio, una señal emitida por la unidad de recorte ilustrada en la fig. 4 usando la pista de audio, y una señal emitida por la unidad de recorte ilustrada en la fig. 8 usando la pista de audio;
la fig. 10 muestra esquemáticamente un segundo codificador alternativo al codificador ilustrado en la fig. 2;
la fig. 11 es un diagrama de bloques esquemático que muestra la configuración funcional de un procesador de un primer teléfono celular alternativo al teléfono celular ilustrado en la fig. 6 al desmodular una señal codificada por el segundo codificador alternativo ilustrado en la fig. 10;
la fig. 12 muestra esquemáticamente un mezclador de audio de un tercer codificador alternativo al codificador ilustrado en la fig. 2;
la fig. 13A es un diagrama de sincronización que ilustra una pista de audio típica;
la fig. 13B es un diagrama de sincronización que ilustra la porción predecible de la pista de audio ilustrada en la fig. 13A;
la fig. 13C es un diagrama de sincronización que muestra la porción no predecible de la pista de audio ilustrada en la fig. 13A;
la fig. 13D es un diagrama de sincronización que muestra una señal de datos de espectro ensanchado;
la fig. 13E es un diagrama de sincronización que muestra la señal de datos de espectro ensanchado ilustrada en la fig. 13B después de que se haya conformado para aproximar la porción no predecible de la pista de audio como se ilustra en la fig. 13C;
la fig. 13F es un diagrama de sincronización que muestra una pista de audio modificada obtenida combinando la porción predecible de la pista de audio como se muestra en la fig. 13B con la señal de espectro ensanchado conformada como se muestra en la fig. 13E;
la fig. 14 muestra esquemáticamente un mezclador de audio para un cuarto codificador alternativo al codificador ilustrado en la fig. 2;
la fig. 15 muestra esquemáticamente un mezclador de audio para un quinto codificador alternativo al codificador ilustrado en la fig. 2;
la fig. 16 muestra esquemáticamente un sexto codificador alternativo al codificador ilustrado en la fig. 2;
la fig. 17 es un diagrama de bloques esquemático que muestra en más detalle una unidad de determinación de la velocidad de transferencia de datos que forma parte del sexto codificador alternativo ilustrado en la fig. 16;
la fig. 18 muestra esquemáticamente un segundo teléfono celular alternativo al teléfono celular ilustrado en la fig. 6;
la fig. 19 muestra esquemáticamente un decodificador que forma parte del segundo teléfono celular alternativo ilustrado en la fig. 18;
la fig. 20 muestra en más detalle una unidad de adquisición que forma parte del decodificador ilustrado en la fig. 19;
la fig. 21 muestra en más detalle un circuito de normalización que forma parte de la unidad de adquisición ilustrada en la fig. 20;
la fig. 22 muestra en más detalle un circuito promediador que forma parte del circuito de normalización ilustrado en la fig. 21;
la fig. 23 es una representación gráfica de la salida del circuito de normalización de la unidad de adquisición ilustrada en la fig. 20 en presencia de una señal en serie;
la fig. 24 es una representación gráfica de la salida de un correlador cruzado que forma parte de la unidad de adquisición mostrada en la fig. 20;
la fig. 25 muestra en más detalle los componentes de un procesador utilizado en el decodificador ilustrado en la fig. 19;
la fig. 26 muestra en más detalle una unidad de correlación y comparación que forma parte del decodificador ilustrado en la fig. 19;
la fig. 27 muestra en más detalle un comparador de potencia que forma parte de la unidad de correlación y comparación ilustrada en la fig. 26;
la fig. 28 muestra esquemáticamente un primer sistema de señalización alternativo en el que los datos se comunican entre dos teléfonos celulares a través de señales acústicas;
la fig. 29 es un diagrama de bloques que muestra en más detalle un teléfono celular del primer sistema de señalización alternativo ilustrado en la fig. 28;
la fig. 30 muestra esquemáticamente un segundo sistema de señalización alternativo en el que un teléfono celular codifica una señal de control, que varía de acuerdo con el número del teléfono de la persona que llama, en una señal de timbre y un juguete detecta la señal de timbre y responde de acuerdo con la señal de control;
la fig. 31 muestra esquemáticamente un teléfono celular que forma parte del segundo sistema de señalización alternativo ilustrado en la fig. 30;
la fig. 32 es un diagrama de bloques esquemático que muestra la configuración funcional de un procesador del teléfono celular ilustrado en la fig. 31 al recibir una llamada entrante;
la fig. 33 muestra esquemáticamente un juguete que forma parte del segundo sistema de señalización alternativo ilustrado en la fig. 30;
la fig. 34 muestra esquemáticamente un tercer sistema de señalización alternativo en el que se transfiere una señal de datos entre un ordenador y un juguete a través de una señal acústica emitida por un teléfono celular;
la fig. 35 es un diagrama de bloques esquemático que muestra la configuración funcional del procesador de un teléfono celular para el tercer sistema de señalización alternativo ilustrado en la fig. 34 al procesar una señal de control recibida;
la fig. 36 muestra esquemáticamente un primer servidor alternativo para el sistema de señalización ilustrado en la fig. 1;
la fig. 37 muestra esquemáticamente un cuarto sistema de señalización alternativo en el que se comunica una señal se control a un juguete a través de la pista de audio de una señal de televisión;
la fig. 38 es un diagrama de bloques esquemáticos de una unidad de determinación de la velocidad de transferencia de datos de un codificador que forma parte del cuarto sistema de señalización alternativo;
la fig. 39A es un diagrama de sincronización que muestra una pista de audio típica; la fig. 39B es un diagrama de sincronización que muestra una señal de datos típica;
la fig. 39C es un diagrama de sincronización que muestra una señal de datos modificada generada modificando la señal de datos ilustrada en la fig. 39B de acuerdo con la pista de audio ilustrada en la fig. 39A; y
la fig. 40 muestra esquemáticamente un codificador alternativo para el cuarto sistema de señalización alternativo ilustrado en la fig. 36.
[0008] La fig. 1 ilustra esquemáticamente un primer sistema de ejemplo en el que una señal de datos F(t), generada por una fuente de datos 1, se codifica en una pista de audio a partir de una fuente de audio 3 mediante un codificador 5 para formar una pista de audio modificada para un programa de televisión. En este ejemplo, la señal de datos F(t) transmite un Localizador Uniforme de Recursos (URL) que identifica una página web, accesible a través de Internet, asociada con el programa de televisión. Después, la pista de audio modificada emitida por el codificador 5 se combina con la pista de video correspondiente, a partir de una fuente de video 7, mediante un generador de señal 9 para formar una señal de televisión que transmite el programa de televisión. En este ejemplo, la fuente de datos 1, la fuente de audio 3, la fuente de video 7 y el codificador 5 se localizan todos en un estudio de televisión y la señal de televisión se emite por una red de emisión convencional 11 usando una señal de radiofrecuencia (RF) 13.
[0009] La señal de RF 13 se detecta por una antena de televisión 15 que dirige la señal de televisión a una televisión convencional 17. La televisión 17 tiene una pantalla (no mostrada) para mostrar la pista de video y un altavoz (no mostrado) para emitir la pista de audio modificada en forma de una señal acústica 19.
[0010] En este ejemplo, un teléfono celular 21 (a veces denominado como un teléfono móvil) detecta la señal acústica 19 emitida por la televisión 17 usando un micrófono 23 que convierte la señal se audio acústica detectada en una señal eléctrica correspondiente. Después, el teléfono celular 21 codifica la señal eléctrica para recuperar la señal de datos F(t). El teléfono celular 21 también tiene componentes convencionales, tales como un altavoz 25, una antena 27 para la comunicación con una red de telecomunicaciones celular, una pantalla 29, un teclado 31 para introducir números y letras, y teclas de menú 33 para acceder a las opciones del menú.
[0011] En este ejemplo, el teléfono celular 21 es capaz de acceder a la Internet usando el Protocolo de Aplicaciones Inalámbricas (WAP). Después de que la señal de datos F(t) se haya recuperado por el teléfono celular 21, en respuesta a un usuario que solicita información adicional sobre el programa de televisión que está mostrándose en la televisión 17, al seleccionar una opción del menú usando los botones de menú 33, el teléfono celular 21 transmite, a una estación base 35, a través de señales de RF 37, una petición para descargar la página web que corresponde a la URL transmitida por la señal de datos F(t). La estación base 35 envía la petición, a través de una red de telecomunicaciones 39, al servidor 41 identificado en la URL transmitida por la señal de datos F(t). El servidor 41 recupera de una base de datos 43 la página web solicitada y transmite la página web solicitada al teléfono celular 21 a través de la red de telecomunicaciones 39 y la estación base 35. Después, el usuario podrá leer la página web en la pantalla 29 y, por ejemplo, acceder además a las páginas web con referencia a la página web solicitada o hacer una transacción para comprar un producto asociado con el programa de televisión.
[0012] Los expertos en la técnica apreciarán que una característica ventajosa del sistema de señalización que se ha descrito anteriormente es que pueden usarse las redes de difusión de televisión convencionales, televisiones, redes de comunicaciones celulares y páginas web, aunque se requiera un codificador nuevo 5 y un teléfono celular nuevo 21.
[0013] La fig. 2. muestra en más detalle los componentes principales del codificador 5 del primer ejemplo. La señal de datos F(t) se introduce en una unidad de corrección de errores hacia delante (FEC) 51 que separa la señal de datos F(t) en bloques de 7 bits de datos y codifica cada bloque de 7 bits de datos usando un código de bloque (15,7), en particular un código BCH (Bose, Chaudhuri y Hocquenghem), para formar un bloque de 15 bits de datos. Los expertos de la técnica apreciarán que los bits extra añadidos por el código BCH hacen posible que los errores en la transmisión se detecten y se corrijan. En este ejemplo, la unidad FEC 51 también añade un bit de sincronización (en lo sucesivo en este documento denominado como bit SYNC) que tiene un valor de "0" al inicio de cada bloque de 15 bits de datos para generar una señal de datos modificada M(t) formada por marcos de 16 bits de datos. En este ejemplo la señal de datos modificada M(t) es una señal lógica que se genera aproximadamente a 7,8 bits por segundo.
[0014] Una característica ventajosa del primer ejemplo es que se usa una técnica de codificación de espectro ensanchado para propagar la energía de la señal de datos modificada M(t) sobre un amplio intervalo de frecuencias. Esto tiene el efecto de hacer que la señal de datos sea menos perceptible en la señal acústica 19 emitida por la televisión 17. En particular, si la señal de datos modificada M(t) se combina directamente con la pista de audio sin usar dicha codificación, entonces es más probable que se oiga por un espectador de la televisión 17.
[0015] En este ejemplo, la codificación de espectro ensanchado por secuencia directa (DSSS) se usa para propagar la energía de la señal de datos sobre una banda ancha de frecuencias. Para realizar la codificación DSSS se usa un primer generador de código de pseudo-ruido 53a para generar un código de pseudo-ruido PN0 y se usa un segundo generador de código de pseudo-ruido 53b para general un código de pseudo-ruido PN1. Como los expertos en la técnica de las telecomunicaciones apreciarán, los códigos de pseudo-ruido son códigos binarios que aparecen de forma completamente aleatoria en la naturaleza, pero que de hecho son determinantes, es decir, pueden reproducirse. En particular, estos códigos se generan por retroalimentación OR-exclusiva (XOR) de registros cronometrados de forma sincrónica. Cronometrando continuamente los registros, el código de pseudo-ruido se reproduce de forma cíclica. El número de registros usados en la trayectoria de retroalimentación y la fase de iniciación de los registros determina la longitud del código y el código especifico producido.
[0016] En este ejemplo, los generadores de código de pseudo-ruido 53 tienen 12 registros y generan códigos de pseudo-ruido que tienen 4095 bits (que se denominaran en lo sucesivo este documento como chips que usan la nomenclatura convencional en la técnica para distinguir los bits del código de pseudo-ruido de los bits de la señal de datos que se va a expandir) en una corriente con una secuencia de no más de 12 chips repetidos en los 4095 chips. Un código de pseudo-ruido de este tipo se denomina convencionalmente como un código de 12 bits después de que el código de registros se use para generarlo. Al final de cada corriente de 4095 chips se añade un 0 binario para hacer que la longitud total de la corriente sea de 4096 chips. En este ejemplo, los códigos de pseudo-ruido PN0 y PN1 son ortogonales entre sí y por lo tanto si se introducen secuencialmente chip a chip en las entradas respectivas en una compuerta XOR, entonces se emite otra secuencia de pseudo-ruido por la puerta XOR.
[0017] La salida del primer generador de código de pseudo-ruido 53a se conecta a una entrada no inversora de una primera compuerta AND 55a mientras que la salida de la unidad FEC 51 se conecta a una entrada inversora de la primera compuerta AND 55a. La salida de la unidad FEC 51 también se conecta a una entrada no inversora de una segunda compuerta AND 55b y la salida del segundo generador de código de pseudo-ruido 53b se conecta a una entrada no inversora de la segunda compuerta AND 55b. Las salidas de la primera y segunda compuertas AND 55 se conectan juntas para generar una señal de datos ensanchada I(t) que corresponde a PN0 cuando el valor de la señal de datos modificada M(t) es 0, y corresponde al código de pseudo-ruido PN1 cuando el valor de la señal de datos modificada M(t) es 1.
[0018] En este ejemplo, cada código de pseudo-ruido se genera a una velocidad de 2000 chips por segundo a fin de que cada bit de datos se multiplique por una secuencia de 256 chips y cada marco de datos se multiplique por 4096 chips. Como cada marco de datos corresponde a un ciclo completo de los códigos de pseudo-ruido PN0 y PN1, el bit SYNC, que tiene un valor de datos de "0", siempre se representa por la misma secuencia de 256 chips del código de pseudo-ruido PN0. Esto permite a un decodificador sincronizarse más fácilmente con una secuencia de chips recibida.
[0019] La señal lógica I(t) se introduce en un modulador 57 que usa manipulación de desplazamiento de fase para modular una señal portadora de 2 kHz generada por un oscilador local (no mostrado) de acuerdo con el valor de la señal lógica I(t). En particular, la señal portadora es una señal digital que tiene una frecuencia de muestreo de 8 kHz y un valor de 16 bits por muestra. Por lo tanto, cada chip de la señal lógica I(t) modula una secuencia de cuatro muestras de la señal portadora. En este ejemplo, el modulador 57 incluye un circuito de remuestreo (no mostrado) que remuestrea la señal modulada a la frecuencia de muestreo de la pista de audio, que en este ejemplo es 22,5 kHz, para generar una señal modulada G(t).
[0020] El efecto de la codificación de espectro ensanchado se ilustra en la fig. 3, que muestra una señal de audio típica 71 en el rango de frecuencias de 0 a 6 kHz con, como es normalmente el caso, la potencia concentrándose de forma predominante a las frecuencias inferiores. La fig. 3 también muestra una señal de datos modulada 73 que resultará si no se realiza la propagación, y la señal de datos modificada M(t) se moduló directamente por el modulador 57. Como se muestra, esta señal de datos modulada 73 es una señal de banda estrecha centrada a aproximadamente 2 kHz y que tiene una potencia pico significativamente por encima del nivel de potencia de la señal de audio 71 a esta frecuencia. Sin embargo, si se realiza el ensanchamiento, así como la modulación, se obtiene una señal ensanchada 75 que tiene un espectro de potencia con una propagación de banda principal entre 0 y 4 kHz y bandas harmónicas con frecuencias superiores. Como la potencia de la señal ensanchada 75 se distribuye en un rango de frecuencias más amplio que para la señal modulada 73, el nivel de potencia pico se reduce significativamente. Para muchas aplicaciones, la señal ensanchada 75 no es perceptible para un oyente o se oye sólo como un ruido blanco de fondo. Además, la mayor parte de la energía de la banda principal está en un rango de frecuencia para el que la mayor parte de altavoces de televisión funcionan satisfactoriamente. Por lo tanto, el usuario no necesita obtener un nuevo conjunto de televisión para aprovechar la invención.
[0021] Volviendo a la fig. 2 la señal modulada G(t) y la pista de audio se introducen en un mezclador de audio 59 en el que se combinan para formar la pista de audio modificada. En particular, en el mezclador de audio 59, la señal modulada G(t) y la pista de audio se introducen a una unidad de recorte 61 que analiza el espectro de potencia de la pista de audio y modifica el espectro de potencia de la señal modulada G(t) dependiendo del espectro de potencia de la pista de audio con el fin de generar una señal conformada S(t) que es menos molesta cuando se combina con la pista de audio. La fig. 4 muestra en más detalle los componentes principales de la unidad de recorte
61. La pista de audio, que en este ejemplo se genera a 22.050 muestras por segundo, teniendo cada muestra un valor de 16 bits, se introduce en una primera unidad de Transformada Rápida de Fourier (FFT) 81 que divide la pista de audio en bloques, teniendo cada uno 2048 muestras aplicando técnicas de solapamiento y ventaneo convencionales. La unidad FFT 81 mide para cada bloque la energía en 2048 sub-bandas de frecuencia para generar 2048 coeficientes que se emiten a la unidad de escala 83.
[0022] La unidad de escala 83 aplica un algoritmo psicoacústico para generar factores de escala para las 2048 sub-bandas de frecuencia. En particular, la unidad de escala incluye un filtro psicoacústico que emite, para cada sub-banda de frecuencia de cada bloque de muestras, un factor de escala en base a la energía en esta y sub-bandas de frecuencia adyacentes para este bloque de muestras y para anteriores y sucesivos bloques adyacentes de muestras. El uso de un algoritmo psicoacústico permite el uso de niveles de señal mayores que si se aplicase un algoritmo de escala simple, ya que tiene en cuenta la variación dinámica de la sensibilidad del oído humano en presencia de sonidos. Esto se explicara adicionalmente con referencia a la fig. 5 que muestra la sensibilidad de un oído humano típico para diferentes técnicas (en otras palabras, los niveles de sonido mínimo para frecuencias diferentes que pueden oírse por un oído humano típico) sin ningún ruido de fondo (la representación gráfica denominada como 101) y en presencia de una señal de banda estrecha 103 (la representación gráfica de línea discontinua denominada como 105). Como puede observarse a partir de la fig. 5, la capacidad del oído humano para distinguir un sonido en el rango de frecuencia de la señal de banda estrecha 103 y en un rango de frecuencia tanto por encima como por debajo del rango de frecuencia de la señal de banda estrecha 103, se reduce significativamente. Por lo tanto, existen señales de audio que no pueden oírse por el oído humano en presencia de la señal de banda estrecha 103, a pesar de que se oirán si la señal de banda estrecha 103 no está presente. En este ejemplo, el algoritmo psicoacústico usa descriptores de canal, que se almacenan en una memoria 85, para aproximarse a cómo será modificada la pista de audio por la red de difusión 11 y la televisión 17 al determinar los factores de escala para una de las 2048 sub-bandas de frecuencia.
[0023] Previamente se han investigado algoritmos psicoacústicos para la compresión de datos, ya que los sonidos que no se distinguen por un oyente pueden eliminarse por una corriente de datos de audio. Pueden encontrarse detalles adicionales sobre la codificación psicoacústica en el documento "Transform Coding of Audio Signals Using Perceptual Noise Criteria" de James D. Johnston, IEEE Journal on Selected Areas in Communications, Vol. 6, Nº. 2, febrero de 1988, cuyo contenido se incorpora en este documento por referencia.
[0024] La señal modulada G(t) se introduce una segunda unidad FFT 87 que, de la misma manera que la unidad FFT 81, divide la señal modulada G(t) en bloques de 2048 muestras y genera 2048 coeficientes que corresponden a la energía de 2048 sub-bandas de frecuencias para cada bloque. En este ejemplo, las 2048 bandas de frecuencia para la segunda unidad FFT 87 coinciden con las 2048 sub-bandas de frecuencia de la primera unidad FFT 81. Los 2048 coeficientes emitidos por la segunda unidad FFT 87 y los 2048 factores de escala emitidos por la unidad de escala 83 se introducen en un multiplicador 89, en el que el coeficiente para cada sub-banda de frecuencia de la señal modulada G(t) se multiplica por el factor de escala correspondiente para esta sub-banda de frecuencia determinada a partir de la pista de audio. Después, los coeficientes de escala emitidos por el multiplicador 89 se introducen una unidad de Transformada Rápida Inversa de Fourier (IFFT) 91 genera la señal conformada S(t) a partir de los coeficientes de escala, teniendo en cuenta el ventaneo y el solapamiento.
[0025] Volviendo a la fig. 2 la pista de audio también se introduce en una unidad de retardo 63 que retarda la pista de audio durante un periodo de tiempo que corresponde al tiempo requerido por la unidad de recorte 61 para generar la señal conformada S(t) usando la pista de audio. La pista de audio salida de la unidad de retardo 63 y la señal conformada S(t) se introducen a un circuito aditivo 65 que realiza una operación de adición lineal simple para combinarlas a fin de formar la pista de audio modificada. El fin de la unidad de retardo 63 es garantizar que cada porción de la pista de audio se combina en el circuito aditivo 65 con la porción de la señal conformada S(t) que se ha conformado de acuerdo con el espectro de potencia de esa porción de la pista de audio.
[0026] Como se ha descrito anteriormente, la pista de audio modificada se combina con una pista de video para formar una señal de televisión que después se emite en una red de televisión convencional 11. Una antena 15 detecta la señal de televisión emitida 13 y dirige a una señal eléctrica correspondiente a una televisión 17 que emite una señal acústica 19 que corresponde a la pista de audio modificada usando un altavoz (no mostrado). Después, la señal acústica de salida 19 se detecta por el micrófono 23 del teléfono celular 21.
[0027] La fig. 6 muestra en más detalle los componentes principales del teléfono celular 21 del primer ejemplo. Como se muestra, el micrófono 23 del teléfono celular 21 convierte la señal acústica detectada 19 en una señal eléctrica correspondiente H(t) que se introduce en un filtro antiacoplamiento 111. La señal filtrada emitida por el filtro antiacoplamiento 111 se introduce en un convertidor analógico a digital (ADC) 113 que convierte la señal filtrada en una señal digital correspondiente D(t) usando una frecuencia de muestreo de 8 kHz. La salida del ADC 113 se conecta a una entrada AUDIO_IN de un procesador 115.
[0028] Las señales de audio emitidas a través de una salida AUDIO_OUT del procesador 115 se introducen en un convertidor digital a analógico (DAC) 117 que convierte las señales digitales en las correspondientes señales analógicas que después se amplifican mediante un amplificador 119 antes de que salgan en forma de ondas acústicas por el altavoz 25. Una salida DISP_OUT del procesador 115 se conecta a la pantalla 29 mientras la entrada KEY_IN al procesador 115 se conecta al teclado 31. Una salida RF_OUT del procesador 115 a una unidad de procesamiento de radiofrecuencia (RF) 121 que procesa las señales digitales de banda base que salen del procesador 115 para formar señales de RF para su transmisión a través de la antena 27. La unidad de procesamiento de RF 121 también procesa señales de RF entrantes recibidas a través de la antena 27 para formar señales de banda base que se introducen a una entrada RF_IN del procesador 115.
[0029] También se conectan al procesador 115 una memoria de acceso aleatorio (RAM) 123, una memoria de acceso aleatorio no volátil (NVRAM) 125 y una memoria de sólo lectura (ROM) 127. La NVRAM 125 almacena los datos asociados con el usuario del teléfono celular 21, por ejemplo, un listín telefónico que enumera los nombres y los números de teléfono asociados de la gente que a la llama habitualmente, y la RAM 123 proporciona espacio de trabajo para su uso durante el funcionamiento del procesador 115. La ROM 127 almacena rutinas que controlan el funcionamiento del procesador 115.
[0030] En particular, la ROM 127 almacena rutinas que permiten al procesador funcionar en tres modos diferentes. En el modo llamada, que se activa cuando el teléfono celular se usa durante una llamada telefónica, la señales acústicas recibidas por el micrófono 23 se convierten por el procesador en señales de banda de base que se emiten a la unidad de procesamiento de RF 121, y las señales de banda de base entrantes de la unidad de procesamiento de RF 121 se convierten en señales de audio que se emiten por el altavoz 25. En el modo en espera, que es el modo por defecto cuando un teléfono no está haciendo una llamada, el procesador 115 espera una señal de RF que inicie una llamada que se detecte por la antena 27 o por presionando una de las teclas del teclado 31. En el modo en espera, el procesador 115 no procesa señales acústicas detectadas por el micrófono 23. El modo llamada y el modo en espera son los modos convencionales de funcionamiento de un teléfono celular. En el tercer modo, en lo sucesivo en este documento denominado el modo monitor, el procesador 115 procesa señales acústicas 19 recibidas por un micrófono 23 para recuperar cualquier señal de datos incrustada en la señal acústica 19 además de realizar las funciones del modo en espera.
[0031] A continuación, el funcionamiento del procesador 115 en el modo monitor se describirá en más detalle con referencia a las figs. 7A y 7B. La fig. 7A es un diagrama de bloques esquemáticos que muestra la configuración funcional del procesador 115 durante el modo monitor y la fig. 7B muestra un diagrama de flujo que ilustra las etapas principales realizadas por el procesador 115 en el modo monitor. El modo monitor se inicia, en la etapa S1, por el usuario que selecciona una opción del menú usando las teclas de menú 33. Una vez que el modo monitor se ha iniciado, el procesador 115 recibe, en la etapa S3, la señal digital D(t) que transmite datos de audio desde el micrófono 23 a través de la entrada AUDIO_IN del procesador 115.
[0032] Después, la señal digital D(t) se procesa por un desmodulador 130 que desmodula, en la etapa S5, la señal digital D(t) usando técnicas de procesamiento de señales digitales convencionales. Después, la señal digital desmodulada se procesa por un módulo desensanchador 131 que desensancha, en la etapa S7, los datos de audio. Este desensanchamiento implica monitorizar la secuencia de chips que corresponde al bit SYNC que, cuando se detecta, se procesa para determinar la sincronización de la secuencia de chips recibida y la ligera compensación de frecuencia entre la frecuencia del chip de la secuencia de chips recibida y la frecuencia del chip de los códigos de pseudo-ruido generados en el teléfono celular 21. En general, habrá una ligera compensación de frecuencia que surja por tres causas principales. La primera causa es que muchos medios de transmisión varían ligeramente la velocidad de transmisión de la pista de audio, variando de esta manera la frecuencia del chip de la secuencia de chips transmitida por la pista de audio. La segunda causa es que pueden darse efectos Doppler, por ejemplo, debido al movimiento del teléfono celular 21, lo que afecta a la frecuencia del chip en la señal detectada. Finalmente, la tercera causa principal es que siempre existe una ligera diferencia entre las frecuencias del reloj usadas para generar los códigos de pseudo-ruido en el codificador 5 y el teléfono celular 21. Entonces, el módulo de desensanchamiento 131 podrá determinar a partir de la secuencia de chips recibida transiciones entre los códigos de pseudo-ruido PN0 y PN1, recuperando de esta manera la señal de datos modificada.
[0033] Después, la señal de datos modificada se procesa por un regenerador de señal de datos 132 que recupera, en la etapa S9, la señal de datos de original F(t) eliminando el bit de sincronización y decodificando el código BCH (15,7) restante, recuperando de esta manera la URL asociada con el programa de televisión. Después de que la URL se haya recuperado, el regenerador de señales de datos 132 emite, en la etapa S11, una señal a un generador de señal 133 que envía una señal de control a un controlador de la pantalla 134 que a su vez emite una señal de activación a la pantalla 29 haciendo que la pantalla 29 muestre un indicador de mensaje recibido. El indicador de mensaje recibido permite al usuario del teléfono celular 21 vea que información adicional acerca del programa de televisión está disponible en la Internet. El regenerador de señal de datos 132 también almacena la URL en la RAM 123.
[0034] Después, el procesador 115 espera, en la etapa S13, a que el usuario solicite información adicional. Si el usuario no solicita más información en un tiempo predefinido, la rutina regresa a la etapa S3. Sin embargo, si el usuario selecciona la opción del menú de solicitar información adicional, entonces esta elección se introduce en la interfaz de teclado 135 que envía una señal a un navegador 136 haciendo que el navegador 136 acceda, en la etapa S15, a la página web correspondiente a la URL transmitida por la señal de datos original F(t). En particular, el navegador recupera la URL de la RAM 123 y emite una señal de banda base, a través de la salida RF_OUT, que se convierte en una señal de RF por la unidad de procesamiento de RF 121 y se emite por la antena 27.
[0035] Posteriormente, se detecta una señal de RF que transmite los datos de la página web para la dirección IP por la antena 27 y se convierte en una señal de banda base por la unidad de procesamiento de RF 121, y la señal de banda base se introduce a la entrada RF_IN del procesador 115. En el procesador 115, los datos de la página web se procesan por el navegador 136 que envía los datos de la página web al controlador de la pantalla 134 que, a su vez, emite, en la etapa S17, una señal de activación que hace que el dispositivo 29 muestre la página web recibida.
[0036] Los expertos en la técnica apreciarán que los procesadores usados típicamente en los teléfonos celulares digitales se adaptan bien a ser programados para realizar el procesamiento de señal digital requerido en el modo monitor.
[0037] Como se ha descrito anteriormente, en el primer ejemplo, un teléfono celular 21 recupera a partir de la señal acústica 19 que corresponde a la pista de audio de un programa de televisión, una dirección IP para una página web asociada con ese programa a fin de que el usuario del teléfono celular pueda descargar información adicional acerca del programa de televisión. Usando técnicas de codificación de espectro ensanchado para generar una señal ensanchada y conformando la señal ensanchada dependiendo del espectro de potencia de la pista de audio, los datos incrustados en la pista de audio pueden ocultarse a un oyente. Una ventaja de codificar la señal de datos en la señal acústica es que la banda ancha requerida para transmitir electrónicamente la pista de audio después de que la señal de datos se haya codificado en el mismo no es más que la requerida para transmitir la propia pista de audio.
[0038] En el primer ejemplo, la unidad de recorte 61 analiza el espectro de frecuencia de la señal modulada G(t) para generar un conjunto de coeficientes dependientes de la frecuencia que después se escalan mediante factores de escala determinados analizando, usando una Transformada Rápida de Fourier, el espectro de frecuencia de un segmento de la pista de audio. De esta manera, la unidad de recorte 61 es capaz de identificar picos de la pista de audio en el dominio de la frecuencia y escalar el espectro de frecuencia de la señal ensanchada G(t) por consiguiente.
[0039] A continuación, se describirá un segundo ejemplo, con referencia a las figs. 8 y 9, en el que la unidad de recorte del primer ejemplo se remplaza por una unidad de recorte alternativa que realiza una transformada de óndula en lugar de una Transformada Rápida de Fourier. Los componentes restantes del sistema de señalización del segundo ejemplo son los mismos que los del primer ejemplo y por lo tanto no se describirán de nuevo.
[0040] La fig. 8 muestra los componentes principales de la unidad de recorte 141 del segundo ejemplo. Como se muestra, la pista de audio se introduce en una primera unidad de transformada de óndula (WT) 143 que divide la pista de audio en bloques que tienen 2048 muestras. Para cada bloque, la primera unidad WT 143 descompone la secuencia de muestras en una superposición lineal de 2048 funciones básicas ponderadas, formando las funciones básicas una familia de ondulas. Como los expertos en la técnica apreciarán, las funciones básicas de una familia de ondulas difiere tanto en la frecuencia como en el dominio temporal. Por lo tanto, los coeficientes ponderados transmiten tanto dominio temporal como información sobre el dominio de la frecuencia. Después, la primera unidad WT 143 transmite los 2048 coeficientes ponderados para las funciones básicas de una unidad de escala 145 que aplica un algoritmo psicoacústico usando descriptores de canal a partir de una memoria descriptora de canal 147, para generar para cada función básica de ondula un factor de escala correspondiente.
[0041] La señal modulada G(t) se introduce en una segunda unidad WT 149 que divide la señal modulada G(t) en bloques de 2048 muestras y descompone cada bloque, usando las mismas funciones básicas de ondula al igual que la primera unidad WT 143, para generar 2048 coeficientes de ponderación. La segunda unidad WT 149 emite los 2048 coeficientes de ponderación a un multiplicador de 151 en el que cada coeficiente de ponderación se multiplica mediante el factor de escala determinado por la unidad de escala 145 para la función de ondula correspondiente usando la pista de audio. Los 2048 coeficientes de escala que salen por el multiplicador 151 se introducen en una unidad de transformada de ondula inversa (IWT) 153 que sintetiza una señal de escala S(t) superponiendo la familia de funciones básicas de ondula ponderadas por los respectivos coeficientes de escala que se emiten por el multiplicador 151.
[0042] Los expertos en la técnica apreciarán que seleccionando cuidadosamente la familia de funciones básicas de ondula, teniendo en mente el perfil esperado de la pista de audio, el número de coeficientes de ponderación requerido para sintetizar la señal conformada S(t) de forma satisfactoria no es más que el número requerido usando una FFT. Para algunas familias de funciones básicas de ondula, incluso es posible usar coeficientes menores que los requeridos para una FFT.
[0043] La localización temporal de las funciones de ondula es ventajosa para conformar la sección modulada G(t) ya que el perfil de un bloque de la señal modulada G(t) puede conformarse en el dominio de tiempo, así como en el dominio de la frecuencia. Esto se explicara adicionalmente con referencia a la fig. 9 que muestra un bloque de muestras de la pista de audio (la representación gráfica con referencia 157), una señal con forma de FFT 159 generada analizando el bloque de la pista de audio usando una FFT, y una señal con forma de WT 161 generada analizando el segmento de la pista de audio usando una transformada de ondula. Como se muestra en la fig. 9, el espectro de potencia de la pista de audio es cercano a cero para la segunda mitad del bloque de muestras. Cuando se usa un análisis FFT, esta amplitud cero sólo puede conseguirse por interferencia destructiva entre las funciones básicas (es decir, ondas seno y coseno), que dependerá de la fase exacta de cada función básica. Sin embargo, cuando se usa una Transformada Rápida de Fourier, los coeficientes generados por la señal modulada G(t) tienen magnitudes que se determinan sólo por el espectro de frecuencia del bloque de la pista de audio y que no contienen información de fase. Por lo tanto, la interferencia destructiva requerida para obtener una potencia cercana a cero generalmente no se producirá y la señal con forma de FFT 159 no seguirá el perfil temporal de la pista de audio. Por otra parte, ya que las funciones básicas de ondula se localizan en el tiempo, cuando se usa una transformada de ondula no es necesario depender de la interferencia destructiva para producir a una amplitud cero y, por lo tanto, la señal con forma de WT 161 coincide más estrechamente con el perfil temporal de la pista de audio.
[0044] La localización temporal puede obtenerse usando análisis de ondula que también tiene la ventaja de que pueden realizarse análisis psicoacústicos en el dominio de tiempo en un bloque individual de muestras. En particular, un efecto psicoacústico similar al que se ha descrito anteriormente para el dominio de la frecuencia, en el que los componentes de frecuencia que de otro modo serían audibles pueden enmascararse mediante componentes de frecuencia adyacentes, también existe en el dominio de tiempo en el que después de que un sonido fuerte se detenga, el oído humano no recupere inmediatamente la sensibilidad indicada por la representación gráfica 101 en la fig. 5. Por lo tanto, es posible aumentar la amplitud de la señal modulada G(t) inmediatamente después de un pico en el sonido de la pista de audio sin que llegue a ser del todo perceptible para un oyente.
[0045] En el primer y segundo ejemplos, una señal portadora de 2 kHz se modula usando manipulación de desplazamiento de fase de acuerdo con la seña lógica I(t) para producir una señal expandida G(t) que tiene un espectro de potencia con una propagación de banda principal entre 0 y 4 kHz. Sin embargo, el espectro de energía de la pista de audio puede concentrarse en un rango de frecuencias lejos de 2 kHz, en cuyo caso el nivel de potencia de la señal conformada (y por lo tanto la relación señal a ruido) ha de ser inferior si la señal de datos no es apreciable por un oyente. A continuación, se describirá un tercer ejemplo con referencia a las figs. 10 y 11, en el que el codificador del primer ejemplo se remplaza por un codificador alternativo en el que la frecuencia de la onda portadora varía de acuerdo con el espectro de frecuencia de la pista de audio, y el software almacenado en la ROM del teléfono celular se modifica para tener en cuenta esta variación en la frecuencia durante la decodificación. Los componentes restantes del sistema de señalización del tercer ejemplo son los mismos que los del primer ejemplo y, por lo tanto, no se describirán de nuevo.
[0046] La fig. 10 muestra los componentes principales del codificador 163 del tercer ejemplo. En la fig. 10, los componentes son los mismos que los componentes correspondientes del codificador del primer ejemplo se han hecho referencia con los mismos números y no se describirán de nuevo. Como se muestra, la pista de audio se introduce en un analizador de espectro 164 que monitoriza el espectro de frecuencia de la pista de audio. En particular, el analizador de espectro 164 monitoriza la energía en 2048 sub-bandas de frecuencia, cada una correspondiendo a 10 Hz, y determina el conjunto de 200 sub-bandas de frecuencia adyacentes que tiene la mayor energía. Después, el analizador de espectro 164 emite una señal de control a un modulador 165 para ajustar la frecuencia del oscilador local a fin de que la señal portadora este en el centro del rango de frecuencia que corresponde al conjunto identificado de sub-bandas de frecuencia. Después, la señal modulada G(t) emitida por el modulador 165 se conforma y se combina con la pista de audio para formar la pista de audio modificada de la mima manera que se ha descrito anteriormente en el primer ejemplo.
[0047] En este ejemplo, el teléfono celular es como se ha descrito sustancialmente en el primer ejemplo con la excepción de que cuando el procesador está configurado para el modo monitor, el desmodulador 130 mostrado en la fig. 7A es en efecto remplazado por el módulo desmodulador 166 mostrado en la fig. 11. Como se muestra, la señal digital D(t) recibida en la entrada AUDIO_IN se procesa por un analizador de espectro 167 que determina, de la misma manera que el analizador de espectro 164, el espectro de de frecuencia de la señal digital D(t) y emite una señal que identifica la frecuencia central. La señal digital D(t) también se retarda por un módulo de retardo 168 y se procesa por un desmodulador 169 cuya frecuencia portadora se controla por la salida de señal mediante el analizador de espectro 167 para que coincida con la frecuencia central. El fin de la unidad de retardo 168 es garantizar que cada parte de la señal digital D(t) se desmodule usando la frecuencia portadora calculada para esa parte. La señal desmodulada emitida por el desmodulador 169 se procesa mediante el módulo de desensanchamiento 131 y el proceso continúa como se ha descrito con referencia a las fig. 7A y 7B.
[0048] En este ejemplo, la frecuencia portadora varía a fin de que la banda principal de la señal modulada G(t) se mueva a un rango de frecuencias en el que la energía de la pista de audio es relativamente grande. Esto tiene el defecto de que los factores de escala determinados por la unidad de recorte 61 son mayores generalmente que si la frecuencia portadora se mantuviera constante. De esta manera, la potencia de la señal conformada S(t) se eleva.
[0049] En el primer a tercer ejemplo, la señal modulada G(t) se combina con la pista de audio después de que se haya escalado para reducir su perceptibilidad en la pista de audio modificada. A continuación, se describirá una primera realización con referencia a las figs. 12 y 13, en la que el codificador del primer ejemplo se remplaza por un codificador alternativo que elimina parte de la pista de audio, conforma la señal modulada G(t) para aproximarse la parte eliminada de la pista de audio, y después añade la señal conformada a la parte restante de la pista de audio. Los componentes restantes del sistema de realización de la primera realización son los mismos que los del primer ejemplo y, por lo tanto, no se describirán de nuevo.
[0050] La fig. 12 muestra los componentes principales del mezclador de audio 171 de la primera realización. Como se muestra, la pista de audio se introduce en una unidad de codificación predictiva lineal (LPC) 173 que usa técnicas de codificación predictiva lineal convencionales para analizar la pista de audio. La codificación predictiva lineal aprovecha el hecho de que para muchos sonidos la potencia en cualquier instante depende en gran medida de la potencia en instantes anteriores para generar un pequeño número de coeficientes de predicción lineal (LP), a veces denominados predictores, a partir de los cuales el sonido puede producirse. En particular, se analiza un bloque de muestras para determinar los coeficientes (LP) a1, a2...an que, cuando se usan en la ecuación:
s(k) = a1s(k - 1) + a2s(k - 2) +....+ ans(k - n) + (k) (1)
en la que s(k) es el valor de la muestra k, dan el conjunto más pequeño de valores de error (k) para el bloque.
[0051] En esta realización, la unidad LPC 173 divide la pista de audio en bloques de 2048 muestras y determina, usando un algoritmo de probabilidad máxima, un conjunto de 10 coeficientes LP para cada bloque. Estos 10 coeficientes LP modelan (a través de la ecuación (1) anterior) los componentes tonales de la pista de audio que se va a regenerar. Los coeficientes LP determinados se emiten por la unidad LPC 173 y entran en una unidad de síntesis convencional 175 que para cada muestra sintetiza, usando los coeficientes LP y la ecuación (1) anterior, un valor predicho de muestra que corresponde a s(k) - (k). La secuencia de valores predichos emitida por la unidad de síntesis 175 forma una parte tonal P(t) de la pista de audio.
[0052] La pista de audio también se introduce en una unidad de retardo 177 que introduce un retardo que corresponde al tiempo de procesamiento requerido para analizar la pista de audio en la unidad LPC 173 y para sintetizar la parte tonal P(t) en la unidad de síntesis 175. La salida de la unidad de retardo 177 y la salida de la unidad de síntesis 175 se introducen en un sustractor 179 en el que la parte tonal P(t) se sustrae muestra por muestra a partir de la pista de audio actual a fin de que el sustractor 179 emita una parte de ruido N(t) que corresponde a los valores de error (k), en otras palabras la parte aleatoria de la pista de audio (a veces denominada como residuo, la parte residual o la parte atonal).
[0053] La parte de ruido N(t) se introduce en una primera unidad FFT 181 que divide la parte de ruido N(t) en bloques, teniendo cada uno 2048 muestras, usando técnicas de ventaneo y solapamiento convencionales, y emite para cada bloque 2048 coeficientes dependientes de la frecuencia que corresponden a la energía en 2048 sub-bandas de frecuencia. De forma similar, la señal modulada G(t) se introduce en una segunda unidad FFT 183, que de la misma manera que la primera unidad FFT 181, divide la señal modulada G(t) en bloques de 2048 muestras y genera 2048 coeficientes que corresponden a la energía en 2048 sub-bandas de frecuencia para cada bloque. Los 2048 coeficientes emitidos por la segunda unidad FFT 183 se introducen en un multiplicador 185. Los 2048 coeficientes transmitidos por la primera unidad FFT 181 se introducen en una unidad de escala 187 que calcula y emite 2048 factores de escala que se introducen en el multiplicador 185 en el que el coeficiente para cada sub-banda de frecuencia de la señal modulada G(t) se multiplica por el factor de escala correspondiente para esa sub-banda de frecuencia determinada a partir de la parte de ruido N(t). La unidad de escala 187 aplica un algoritmo de escala para calcular los factores de escala para que cuando los coeficientes de escala emitidos por el multiplicador 189 se introduzcan en una unidad IFFT 189, que genera una señal conformada S(t) usando los coeficientes escalados, la señal conformada S(t) se aproxime a la parte de ruido N(t).
[0054] La parte tonal P(t) emitida por la unidad de síntesis 175 también se introduce en una unidad de retardo que retarda la parte tonal P(t) por un tiempo que corresponde al tiempo requerido para generar y procesar la parte de ruido N(t) y para escalar la señal modulada G(t) usando la parte de ruido N(t) para generar la señal conformada S(t). La salida de la unidad de retardo 191 y la señal conformada S(t) después se introducen en un circuito aditivo 193 que realiza una operación de adición lineal para generar una pista de audio modificada. De esta manera, la parte de ruido N(t) de la pista de audio se remplaza por una versión de la señal modulada G(t) que se ha conformado para aproximar la parte de ruido N(t) de la pista de audio para formar la pista de audio modificada.
[0055] Las figs. 13A a 13F son representaciones gráficas que ilustran las señales en diferentes puntos en el mezclador de audio 171. La fig. 13A muestra la pista de audio que se introduce al mezclador de audio 171. La fig. 13B muestra la parte tonal P(t) que se emite por la unidad de síntesis 175 y la fig. 13C muestra la parte de ruido N(t) que se obtiene restando la parte tonal P(t) de la pista de audio. La fig. 13D muestra la entrada de la señal modulada G(t) al mezclador de audio 171 en la fig. 13E muestra la señal conformada S(t) transmitida por la unidad IFFT 191. La fig. 13F muestra la pista de audio modificada formada añadiendo la parte tonal P(t) mostrada en la fig. 13B y la señal conformada S(t) mostrada en la fig. 13E. Una comparación de las figs. 13A y 13F muestra que el perfil de la pista de audio modificada es aproximadamente el mismo que el perfil de la pista de audio original.
[0056] En la primera realización, la parte de ruido de la pista de audio está particularmente asociada con sonidos de silbidos, se elimina de la pista de audio y se remplaza por la señal conformada S(t). A continuación, se describirá un cuarto ejemplo de la invención con referencia a la fig. 14, en el que el codificador del primer ejemplo se remplaza por un codificador que modifica las amplitudes relativas de la pista de audio y la señal conformada dependiendo del nivel de tonalidad de la pista de audio. Los componentes restantes del cuarto ejemplo son idénticos a los del primer ejemplo y, por lo tanto, no se describirán de nuevo.
[0057] La fig. 14 muestra los componentes principales del mezclador de audio 195 del cuarto ejemplo. Como se muestra, la pista de audio se introduce a una primera unidad FFT 197 que divide la pista de audio en bloques de 2048 muestras usando técnicas de solapamiento y ventaneo convencionales y, para que cada bloque, determina la energía en 2048 sub-bandas de frecuencia para generar 2048 coeficientes que se emiten a una unidad de escala 199 y un analizador de espectro 201. La unidad de escala 199 aplica el mismo algoritmo de escala que se usó en la primera realización para generar 2048 factores de escala que se emiten a un multiplicador 203.
[0058] La señal modulada G(t) se introduce a una segunda unidad FFT 205 que, de la misma manera que la primera unidad FFT 197, divide la señal modulada G(t) en bloques de 2048 muestras y para cada bloque genera 2048 coeficientes que corresponden a la energía en 2048 sub-bandas de frecuencia que coinciden con las sub-bandas de frecuencia para primera unidad FFT. Los 2048 coeficientes emitidos por la segunda unidad FFT 205 se introducen en el multiplicador 203 en el que cada coeficiente se multiplica por el factor de escala, emitido por la unidad de escala 199, para su respectiva sub-banda de frecuencia. Los 2048 coeficientes de escala emitidos por el multiplicador 203 se introducen en una unidad IFFT 207 que genera la señal conformada S(t) a partir de los coeficientes de escala.
[0059] El analizador de espectro 201 determina el nivel de tonalidad para cada bloque de la pista de audio de los 2048 coeficientes emitidos por la primera unidad FFT 197. En particular, esto se consigue analizando estadísticamente los 2048 coeficientes para determinar si está presente una señal tonal que se indicara por picos en un número pequeño de sub-bandas de frecuencia, o si no está presente una señal tonal, en cuyo caso los coeficientes de frecuencia para las sub-bandas variaran más aleatoriamente. Después, el analizador de espectro 201 emite una señal indicativa del nivel de tonalidad que, en este ejemplo, es un número binario de 4 bits que varía de 0000 para cuando la pista de audio es casi puramente similar al ruido a 1111 cuando la pista de audio es caso puramente tonal.
[0060] La pista de audio también se introduce en una unidad de retardo 209 que retarda la pista de audio durante un tiempo que corresponde al tiempo requerido para analizar una porción de la pista de audio y generar la señal conformada S(t) para esta porción. La salida de la unidad de retardo 209, la señal conformada S(t) y el número binario de cuatro bits emitido por el analizador de espectro 201 se introducen en los puertos de entrada respectivos de un combinador variable 211. En el combinador variable 211, la pista de audio retardada se introduce en un amplificador variable 213A en el que se multiplica por un factor de ganancia G determinado a partir del número de 4 bits emitido por el analizador de espectro 201 y la señal conformada S(t) se introduce a un segundo amplificador variable 213 en el que se multiplica por un factor de ganancia de (1-G). Después, las salidas del primer y segundo amplificadores variables 213 se añaden juntas mediante un circuito aditivo 215 para generar la pista de audio modificada.
[0061] En el cuarto ejemplo, la pista de audio y la señal conformada S(t) se ponderan de acuerdo con el nivel de tonalidad de la pista de audio y después se añaden juntas para formar la pista de audio modificada. En particular, cuanto más similar a ruido es la pista de audio mayor es la proporción de la pista de audio modificada que se forma por la señal conformada S(t). Adicionalmente, en la primera realización la parte similar a ruido de la pista de audio se elimina y se remplaza por la señal conformada S(t). Sin embargo, un problema con la primera realización y el cuarto ejemplo es que si la pista de audio es muy tonal, entonces la parte similar a ruido es pequeña y la señal conformada S(t) no puede añadirse a niveles de señal lo suficientemente altos para que se decodifique de forma fiable en el decodificador. Por lo tanto, si la pista de audio es muy tonal, se prefiere la técnica de conformado psicoacústica que se ha descrito en el primer ejemplo.
[0062] A continuación, se describirá una segunda realización con referencia a la fig. 15 en la que el codificador del primer ejemplo se remplaza por un codificador alternativo que combina la técnica de conformado psicoacústico descrita en el primer ejemplo, la técnica de codificación predictiva lineal descrita en la primera realización y la técnica de ponderación descrita en el cuarto ejemplo. En el codificador de la segunda realización, un usuario podrá ajustar los parámetros que determinan la naturaleza de la codificación. Esto es ventajoso debido a que la capacidad de enmascarar de la pista de audio es subjetiva y por lo tanto se obtiene un mejor enmascaramiento si el usuario puede ajustar los parámetros de codificación que si los parámetros de codificación de ajustan automáticamente. Los componentes restantes de la segunda realización son idénticos a los del primer ejemplo y, por lo tanto, no se describirán de nuevo.
[0063] La fig. 15 muestra los componentes principales del mezclador de audio 217 de la segunda realización. Los componentes que son los mismos que los componentes correspondientes en el mezclador de audio de la primera realización tienen los mismos números de referencia y no se describirán de nuevo. Como se muestra, la pista de audio se introduce en la unidad LPC 173 que determina y emite coeficientes LP que corresponden a la parte tonal P(t) para bloques secuenciales de 2048 muestras. En esta realización, se proporciona una interfaz de usuario 218 a través de la cual un usuario puede ajustar el número de coeficientes LP usado en la unidad LPC 173. En respuesta al ajuste del usuario del número de coeficientes LP, la interfaz de usuario 218 emite una señal de control a la unidad LPC 173 que hace que la unidad LPC 173 use el número seleccionado de los coeficientes LP.
[0064] Como en la primera realización, la parte de ruido N(t) se obtiene introduciendo los coeficientes LP emitidos por la unidad LPC a una unidad de síntesis 175 para generar la parte tonal P(t), y después restando la parte tonal P(t) de la pista de audio usando el sustractor 179. En esta realización, la parte de ruido N(t) se introduce a través de una unidad de retardo 219 en un primer puerto de entrada de un combinador variable 220, así como en la primera unidad FFT 181.
[0065] Los coeficientes transmitidos por la primera unidad FFT 181 se introducen a una unidad de escala 221 que aplica un algoritmo psicoacústico, usando descriptores de canal de una memoria de descriptores de canal 222, para generar 2048 factores de escala que se introducen en el multiplicador 185 para multiplicar los respectivos de los 2048 coeficientes transmitidos por la segunda unidad FFT 183 para generar los coeficientes de escala para la formación de la señal conformada S(t). En esta realización, el usuario puede ajustar el nivel de la codificación psicoacústica a través de la interfaz de usuario 218. En particular, la unidad de escala aplica un filtro psicoacústico y, en respuesta a la configuración del usuario del nivel de la codificación psicoacústica, la interfaz del usuario emite una señal de control que determina la banda ancha del filtro psicoacústico (es decir, el número de sub-bandas de frecuencia adyacentes y bloques de muestra de datos cuya energía se toma encuentra cuando se determinan lo factores de escala). Si se desea el nivel más alto de la codificación psicoacústica, entonces la banda ancha se ajusta para que la unidad de escala 221 actúe de forma eficaz de la misma manera que la unidad de escala del primer ejemplo. Sin embargo, si se desea el nivel más bajo de codificación psicoacústica, entonces la banda ancha se ajusta para que la unidad de escala 221 actúe de forma eficaz de la misma manera que la unidad de escala de la primera realización.
[0066] La señal conformada S(t) emitida por la unidad IFFT 189 se introduce a un segundo puesto de entrada del combinador variable 220. En esta realización, un usuario es capaz de seleccionar usando el interfaz de usuario 218 el factor de ganancia G usado en el combinador variable 220, en respuesta a que la interfaz de usuario 218 emite una señal a un tercer puerto de entrada del combinador variable 220. En el combinador variable, la parte de ruido retardada N(t) se introduce a un amplificador variable 223a que se multiplica por el factor de ganancia G y la señal conformada S(t) se introduce en un segundo amplificador variable 223b en el que se multiplica por un factor de ganancia (1-G). Después, la salida del primer y segundo amplificadores variables 223 se añaden juntas por un circuito aditivo 224 para formar una parte de ruido modificada N’(t). El fin de la unidad de retardo 219 es garantizar que cada porción de la parte de ruido N(t) se combine en el combinador variable 220 con la porción de la señal conformada S(t) que se formó usando esta porción de la parte de ruido N(t).
[0067] La parte tonal P(t) emitida por la unidad de síntesis 175 se introduce, a través de una unidad de retardo 225, al circuito aditivo 195 junto con la salida del combinador variable 220. El circuito aditivo 195 realiza una adición lineal simple para generar la pista de audio modificada. El fin de la unidad de retardo 225 es garantizar que la parte tonal P(t) se sincroniza con la parte de ruido modificada en el N'(t).
[0068] En esta realización, el mezclador de audio 217 permite al usuario ajustar la codificación de acuerdo con la tonalidad de la pista de audio para mejorar el enmascaramiento de los datos por la pista de audio. Por ejemplo, si sólo existe una pequeña porción atonal a la pista de audio, el usuario puede reducir el número de coeficientes LP usados por la unidad LPC 173 para aumentar la energía en la parte de ruido N(t) ya que menos de la pista de audio se modela por la unidad LPC 173. La reducción del número de coeficientes de LP también tiene el efecto de aumentar las características tonales en la parte de ruido N(t). En el caso extremo, el número de coeficientes LP puede ajustarse a 0 para que la parte de audio N(t) sea la misma que la pista de audio. Según aumentan las características tonales en la parte de ruido N(t), el usuario puede ajustar la unidad de escala 221 para aplicar un filtro de banda ancha psicoacústico más amplio para aprovechar la capacidad de enmascaramiento de estas características tonales. El usuario puede posteriormente ajustar el factor de ganancia G del combinador variable a 0,9 para que el 90% de la parte de ruido modificado N'(t) se forme por la parte de ruido N(t) y el 10% de la parte de ruido modificado N'(t) se forme por la señal conformada S(t). Sin embargo, si la pista de audio es predominantemente atonal, entonces el usuario puede aumentar el número de coeficientes usados por la unidad LP 173 que disminuye la banda ancha del filtro psicoacústico aplicado por la unidad de escala 221 y ajusta el valor del factor de ganancia G del combinador variable 220 a cero para que la parte modificada de ruido N'(t) sea idéntica a la señal conformada S(t).
[0069] En esta realización, el usuario puede ajustar en un número de coeficientes de unidad LPC 173, la banda ancha del filtro psicoacústico y el factor de ganancia G libremente. Esto permite que el usuario determine, para una relación señal a ruido requerida, la configuración para la cual la pista de audio es, en la opinión del usuario, más similar a la pista de audio original.
[0070] En la primera y segunda realizaciones, la velocidad a la que la señal de datos F(t) se transmite por la pista de audio modificada es constante. Sin embargo, la capacidad de la pista de audio para ocultar la seña de datos F(t) es mejor durante porciones de ruido de la pista de audio que durante porciones de silencio de la pista de audio. A continuación, se describirá un quinto ejemplo del sistema con referencia a las figs. 16 a 27, en el que el codificador y el teléfono celular del primer ejemplo se remplazan por un codificador alternativo que varía la velocidad a la que los datos se codifican en la pista de audio modificada dependiendo de la potencia del espectro de potencia de la pista de audio, y un teléfono celular alternativo. Los componentes restantes de quinto ejemplo son los mismos que los componentes correspondientes en el primer ejemplo y por lo tanto no se describirán de nuevo.
[0071] La fig. 16 muestra los componentes principales del codificador 231 del quinto ejemplo. Como se muestra, la señal de datos F(t) se introduce a una unidad FEC 233 que separa la señal de datos F(t) en segmentos de 7 bits de datos y aplica un código BCH (15,7) para generar una señal de datos modificada M'(t). En este ejemplo, a diferencia del primer ejemplo, la unidad FEC 233 no añade un bit de sincronización.
[0072] La señal de datos modificada M'(t) y la pista de audio se introducen a una unidad de determinación de velocidad de transferencia de datos 235 que monitoriza la pista de audio y emite una, dos o tres corrientes de datos dependiendo del espectro de potencia de la pista de audio. A continuación, se describirá en más detalle la unidad de determinación de velocidad de transferencia de datos 235 con referencia a la fig. 17.
[0073] Como se muestra en la fig. 17, en la unidad de determinación de velocidad de transferencia de datos 235 la señal de datos modificada M'(t) se introduce a una primera memoria cola (FIFO) 261 que actúa como una memoria caché. La pista de audio se introduce en un analizador de espectro 263 que determina la potencia en la porción de 0 a 5 kHz de la pista de audio y emite una señal indicativa de la potencia determinada a un generador de señal de salida 265 que tiene tres puertos de salida de datos y tres puertos de salida de señal habilitados. El generador de señal de salida 265 determina desde la señal del analizador de espectro 263 si la potencia en la porción de 0 a 5 kHz de la pista de audio está por encima de un primer nivel determinado, entre el primer nivel determinado y un segundo nivel predeterminado que es mayor que el primer nivel predeterminado, o por encima del segundo nivel predeterminado.
[0074] Si el generador de señal de salida 265 determina que el nivel de potencia está por debajo del primer nivel predeterminado, entonces el generador de señal de salida 265 emite una corriente de datos individual. En particular, el generador de señal de salida 265 envía desde un primer puerto de salida una corriente de datos de DAT1 recuperando secuencialmente datos bit a bit de la memoria FIFO 261, aparte de cada 17 bits de la corriente de datos DAT1 que se ajusta a un valor de datos de 0 para actuar como un bit SYNC. El generador de señal de salida 265 también ajusta la salida EN1 de un primer puerto de salida habilitado a un valor de 1, y ajusta la salida EN2 de un segundo puerto de salida habilitado y la salida EN3 de un tercer puerto de salida habilitado a un valor de
0.
[0075] Si el generador de señal de salida 265 determina que el nivel de potencia está entre el primer y segundo niveles predeterminados, entonces el generador de señal de salida 265 emite dos corrientes de datos paralelas DAT1, DAT2. En particular, el generador de señal de salida 265 recupera datos de la memoria FIFO 261 de dos bits de una vez y emite uno de los bits recuperados a través del primer puerto de salida de datos para formar la corriente de datos DAT1 y el otro bit recuperado a través del segundo puerto de salida de datos para formar una corriente de datos DAT2, excepto que para cada dieciséis pares de salida de bits el valor de la corriente de datos DAT1 se ajusta a 0 para actuar como un bit SYNC y el generador de señal de salida recupera un único bit de datos de la memoria FIFO 261 para la corriente de datos de DAT2. El bit SYNC sólo se añade a la corriente de datos de DAT1 porque la frecuencia de chips y la información de sincronización para la corriente de datos DAT1 también se aplicaran a la corriente de datos DAT2. El generador de señal de salida también ajusta las respectivas salidas EN1, EN2 del primer y segundo puertos de salida de señal habilitados a un valor de 1 y la salida EN3 del tercer puerto de salida de señal habilitado a un valor de 0. De esta manera, se emiten dos corrientes de datos paralelas a partir de la unidad de determinación de velocidad de transferencia de datos 235.
[0076] Si el generador de señal de salida 265 determina que el nivel de potencia está por encima del nivel predeterminado, entonces el generador de señal de salida 265 emite tres corrientes de datos paralelas a través de los puertos de salida de datos. En particular, el generador de señal de salida 265 recupera los datos de la memoria FIFO 261 tres bits a la vez y emite un bit a través del primer puerto de datos de salida para formar la corriente de datos DAT1, un bit a través del segundo puerto de salida de datos para formar la corriente de datos DAT2, y un bit a través del puerto serie de datos para formar una corriente de datos DAT3. De nuevo, el valor de cada dieciséis bits de la corriente de datos DAT1 se ajusta a 0 para proporcionar un bit SYNC. El generador de señal de salida 265 también ajusta las salidas EN1, EN2 y EN3 del primer al tercer puerto de salida de señal habilitados a un valor de 1. De esta manera, se transmiten tres corrientes de datos paralelas por la unidad de determinación de velocidad de transferencia de datos 235.
[0077] Volviendo a la fig. 16 el codificador 231 incluye seis generadores de código de pseudo-ruido (no mostrado) que generan respectivamente primeros a sextos código de pseudo-ruido PN0 aPN5 que se introducen en entradas no inversoras de los respectivos de seis compuertas AND 237a a 237f. Cada corriente de datos se introduce a un par respectivo de las compuertas AND 237, de la manera mostrada en la fig. 2, en la que se combinan (cuando el par respectivo de compuertas AND se habilita por la señal habilitada) con un par respectivo de los códigos de pseudo-ruido PN0 a PN5.
[0078] Las corrientes de datos emitidas por la primera y segunda compuertas AND 237a, 237b se introducen a un primer circuito aditivo 239a en el que se añaden juntas para generar una primera señal lógica I1(t), que corresponde al código de pseudo-ruido PN0 cuando el valor de datos de la corriente de datos DAT1 es 0 y corresponde al código de pseudo-ruido PN1 cuando el valor de datos de la corriente de datos es DAT1 es 1. De forma similar, las corrientes de datos emitidas por la tercera y segunda compuertas AND 237c, 237d se introducen en un segundo circuito aditivo 239b en el que se añaden juntas para generar una señal lógica I2(t) y las corrientes de datos transmitidas por la primera a sexta compuertas AND 237e, 237f se introducen a un tercer circuito aditivo 239c para generar una tercera señal lógica I3(t).
[0079] En estos ejemplos, la primera a tercera corrientes de datos DAT1, DAT2 y DAT3 son todas emitidas por la unidad de determinación de velocidad de transferencia de datos a una velocidad de 10,7 bits por segundo y el primer a sexto generadores de códigos de pseudo-ruido generan el primer a sexto códigos de pseudo-ruido PN0PN5, respectivamente a una velocidad de 1378 chips por segundo. Adicionalmente, en este ejemplo, el primer a sexto generadores de código de pseudo-ruido generan códigos de once bits con un binario 0 añadido después de cada secuencia de 2047 chips para formar una secuencia de repetición 2048 chips. Usando las mismas velocidades de transferencia de datos para las corrientes de datos DAT1-DAT3 y las mismas frecuencias de chips para los códigos de pseudo-ruido PN0-PN5, el procesamiento requerido en el decodificador para recuperar la señal de datos original se simplifica significativamente.
[0080] La primera señal lógica I1(t) se introduce a un primer modulador 241a junto con la salida EN1 de la unidad de determinación de velocidad de transferencia de datos 235. Cuando la salida EN1 tiene un valor de 1, el modulador 241 usa manipulación de desplazamiento de fase para modular una señal portadora de 2,76 kHz de acuerdo con el valor de la señal lógica I(,t) para generar una señal modulada G1(t). En este ejemplo, la señal portadora es una señal digital que tiene una velocidad de muestra de 22,5 kHz y la señal modulada G1(t) es una secuencia de números de 16 bits.
[0081] De forma similar, la segunda señal lógica I2(t) se introduce a un segundo modulador 241b que, cuando la salida EN2 tiene un valor de 1, modula una señal portadora de 2,76 kHz de acuerdo con el valor de la segunda señal lógica I2(t) para generar una segunda señal modulada G2(t) y la tercera señal lógica I3(t) se introduce en un tercer modulador 241c que, cuando la salida EN3 tiene un valor de 1, usa manipulación de desplazamiento de fase para modular una señal portadora de 2,76 kHz de acuerdo con el valor de la señal lógica I3(t) para generar una tercera señal modulada G3(t). Si la señal permitida aplicada a un modulador 241 es 0, el modulador emite una señal nula.
[0082] La primera a tercera señales moduladas G(t) se introducen en un circuito aditivo de 16 bits 243 que añade los valores de 16 bits de la primera a tercera señales moduladas G(t) para cada muestra para generar una señal modulada final G4(t).
[0083] La pista de audio también se introduce en una unidad de retardo 245 y la salida de la unidad de retardo 245 se introduce a una unidad de recorte 247 junto con la señal modulada final G4(t) para generar la señal conformada S(t). La unidad de recorte 247 es idéntica a la unidad de recorte descrita con referencia a la fig. 4 en el primer ejemplo y por lo tanto no se describirá de nuevo. El fin de la unidad de retardo 245 es introducir un retardo que corresponde al tiempo tomado por la unidad de determinación de velocidad de transferencia de datos 235 para controlar la pista de audio y emitir la primera a tercera corriente de datos y para las compuertas AND 237, circuitos de adiciones 239, modulador 241 y circuito aditivo de 16 bits 243 para generar la señal modulada final G4(t). De esta manera, la señal modulada final G4(t) se conforma usando la misma porción de la pista de audio que se monitorizo para determinar la velocidad de transferencia de datos.
[0084] Como se ha descrito en el primer ejemplo, la unidad de recorte 247 conforma la señal modulada final G4(t) a fin de que sea menos perceptible cuando, después de haberse combinado con la pista de audio, se emita como una señal acústica. En este ejemplo, sin embargo, la señal modulada G4(t) se procesa previamente para que contenga más datos al combinarse con porciones altas de la pista de audio que cuando se combina con porciones en silencio de la pista de audio.
[0085] La pista de audio emitida por la unidad de retardo 245 se introduce también a una segunda unidad de retardo 249, que retarda la pista de audio durante un periodo de tiempo y corresponde al tiempo requerido por la unidad de recorte 247 para generar la señal conformada S(t). Después, la pista de audio emitida por la unidad de retardo 249 y la señal conformada S(t) se introducen en un circuito aditivo 251 que realiza una operación de adición lineal simple para combinarlas y así formar la pista de audio modificada.
[0086] Después, la pista de audio modificada se combina con la pista de video para generar una señal de televisión que se transmite de la misma manera que para el primer ejemplo. Después, la señal de televisión de transmisión se detecta por un conjunto de televisión convencional que emite la pista de audio modificada en forma de una señal acústica.
[0087] A continuación, se describirá el teléfono celular 261 del quinto ejemplo con referencia a las Figs. 18 a 27 en las que los componentes que son idénticos a los del teléfono celular del primer ejemplo se han hecho referencia con los mismos números y no se describirán de nuevo.
[0088] La diferencia principal entre el teléfono celular 261 del quinto ejemplo y el teléfono celular 21 del primer ejemplo es que el teléfono celular 261 del quinto ejemplo incluye un decodificador 263 para recuperar la señal de datos original F(t) de la señal digital D(t) emitida por el ADC 113 en lugar de usar una rutina se software ejecutada por un procesador central 265. Después, la señal de datos recuperada F(t) emitida por el decodificador 263 se introduce a una entrada de datos DATA_IN del procesador 265.
[0089] La fig. 19 muestra en más detalle los componentes principales del decodificador 263. En este ejemplo, el decodificador 263 usa detección coherente, en la que una corriente de datos recibida se multiplica de forma sincrónica por los códigos de pseudo-ruido PN0 y PN5 para realizar el desensanchamiento. Sin embargo, es necesario garantizar que la secuencia de chips en la señal digital D(t) y las secuencias de chips de los códigos de pseudo-ruido PN0-PN5 se sincronizan en el tiempo. Para conseguir una sincronización inicial, la señal digital D(t) introduce a una unidad de adquisición 271 que genera señales de sincronización que se introducen a un procesador 273 que después genera los códigos de pseudo-ruido PN0-PN5 de acuerdo de las señales de sincronización.
[0090] En este ejemplo, en primer lugar el procesador 273 determina a partir de las señales de sincronización cualquier ligera compensación de frecuencia entre la frecuencia del chip de la secuencia de chips en la señal digital D(t) y la frecuencia del chip de los códigos de pseudo-ruido PN0-PN5, y después emite una señal S indicativa de la compensación de frecuencia a un circuito de remuestreo 275. La señal digital D(t) se introduce al circuito de remuestreo 275 que se almacena en bloques de 8192 muestras. El circuito de remuestreo remuestrea las 8192 muestras en cada bloque a una velocidad determinada por la señal S emitida por el procesador 273 para que los códigos de pseudo-ruido transmitidos por la señal digital remuestreada R(t) tengan la misma velocidad de chip que los códigos de pseudo-ruido generados por el procesador 271. Por ejemplo, si la compensación de frecuencia determinada indica una frecuencia de chips de 1392 Hz, que corresponde a un aumento del 1% sobre la frecuencia de chip nominal de 1378 Hz, entonces la velocidad de remuestreo se ajusta a 22,2705 Hz para permitir que estén presentes chips adicionales. Los datos de remuestreo se determinan en el circuito de remuestreo 275 de las 8192 muestras almacenadas usando técnicas de interpolación para dar, para el aumento del 1% ejemplar en la frecuencia de chips, 8274 muestras. Para los datos de remuestreo, cada chip corresponderá a 16 muestras y por lo tanto cada bit de datos corresponderá a 2048 muestras.
[0091] La fig. 20 muestra en más detalle los componentes principales de la unidad de adquisición 21, las señales de sincronización emitidas por la unidad de adquisición 271 al procesador 273 y las señales emitidas por el procesador 273. Como se muestra en la fig. 20, las muestras de la señal digital D(t) emitidas por el ADC 113 se introducen secuencialmente a una serie de cuatro filtros adaptados digitales 291a a 291d que se disponen para que después de pasar a través del primer filtro adaptado 291ª, las muestras se emitan a través de la salida en cascada (indicado en la fig. 20 por a) del primer filtro adaptado 291a y se introducir al segundo filtro adaptado 291b y sucesivamente. Cada filtro adaptado 291 tiene 512 tomas de salida para que los cuatro filtros adaptados 291 tengan una frecuencia de 2048 adaptados, y los filtros adaptados 291 coincidan con la secuencia de chip de código del pseudo-ruido PN0 que corresponde al bit SYNC.
[0092] La razón por la que un filtro adaptado individual que tiene 2048 tomas de salida no se use en lugar de las cuatro series de filtros adaptados conectados 291, se describirá a continuación. En particular, si se usa unido filtro adaptado grande para detectar el bit SYNC, y si la velocidad a la que el código PN0 se genera es diferente a la velocidad de chip en la señal eléctrica recibida D(t), entonces esta falta de sincronización conducirá a una degradación severa en la puntuación pico emitida por el filtro adaptado. Esto se debe a que el filtro adaptado grande individual realiza la correlación en una ventana de tiempo mayor y por consiguiente, los efectos de la falta de sincronización pueden constituirse durante un periodo de tiempo más largo. Por el contrario, usando varios filtros adaptados más pequeños conectados en serie, la ventana de tiempo sobre la que cada uno de los filtros adaptados realiza la correlación es mucho más pequeña que la del filtro adaptado individual más grande. Por lo tanto, la falta de sincronización causara menos degradación para cada uno de los filtros adaptados individuales más pequeños. Como resultado, la compensación de frecuencia mayor entre la velocidad de chips en la señal digital D(t) y la velocidad de chip del código de pseudo-ruido PN1 puede tolerarse usando los cuatro filtros adaptados 211 en lugar de un solo filtro adaptado.
[0093] La puntuación emitida por cada uno de los filtros adaptados 291 (que se indica por la salida b y que se actualiza a cada pulso de reloj como las muestras de D(t) que se cronometran a través de los filtros adaptados) se introducen a uno correspondiente de cuatro circuitos de normalización 293a a 293d. Los circuitos de normalización 293 proporcionan una salida normalizada para un amplio intervalo de señal dinámica de la señal digital D(t). Esto permite que la salida del circuito de normalización se analice mediante una operación de umbralización sencilla.
[0094] La fig. 21 muestra esquemáticamente el contenido de cada circuito de normalización 293. Como se muestra, la puntuación actual del filtro adaptado correspondiente 291 se introduce en una unidad de retardo 301 en la que se retarda durante 2056 periodos de reloj, que corresponde al tiempo tomado por las muestras de la señal digital D(t) para propagar parcialmente a través del uno correspondiente de los filtros adaptados 291. La puntuación actual también se introduce a una unidad de promediación 303 que usa la puntuación actual para actualizar una realización total de las últimas 512 puntuaciones. Después, la salida de la unidad de retardo 301 se introduce en un divisor 305 que divide la puntuación retardada por el valor actual de la realización total, para producir la salida normalizada. El procesamiento anterior hace particularmente adecuado al circuito de normalización para sistemas en los que la señal de espectro ensanchado se oculta en una señal acústica, ya que la señal acústica típicamente variara durante un intervalo dinámico grande.
[0095] La fig. 22 muestra en más detalle el contenido de un circuito de promediación 303. Como se muestra, la puntuación actual se introduce a una unidad de retardo 311 en la que se retarda durante 512 periodos de reloj, y un primer circuito aditivo 313 en el que el inverso del tiempo de puntuación retardado se añade a la puntuación actual. Después, la salida del primer circuito de adición 313 se introduce a un segundo circuito aditivo 315 que añade ésta al valor actual de la salida de realización total (retardado por un ciclo de reloj) mediante la unidad de retardo 317, para generar un nuevo valor actual del promedio de realización que se usa por el circuito divisor 305. De esta manera, el valor de cada muestra nueva se añade a la realización total aunque el valor de la muestra de 512 periodos de reloj antes de la muestra nueva se reste.
[0096] La fig. 23 muestra una salida típica de un circuito de normalización 293, cuando dos marcos de 16 bits consecutivos pasan a través del filtro adaptado correspondiente 291. En la fig. 23, las sincronizaciones de referencia 321a a 321c que se ilustran se separan por 32768 periodos de reloj (nominalmente que corresponde al tiempo requerido de las muestras que corresponden a un marco de 16 bit para pasar a través del filtro adaptado). El periodo entre dos sincronizaciones de referencia adyacentes 321 se denominara en lo sucesivo en este documento como un periodo marco. Un primer pico 323 en la fuente normalizada, que corresponde a un primer bit SYNC, aparece en un tiempo 1 después de la sincronización de referencia anterior más cercana 312ª, mientras que un segundo pico 325, que corresponde a un segundo bit SYNC, aparece en un tiempo 2 después de la sincronización de referencia anterior más cercana 321b. Si no existe solapamiento de frecuencia en las frecuencias del chip, entonces 1 es igual a 2 (ya que en 32768 periodos de reloj las muestras que corresponden a un marco de 16 bits pasaran completamente a través los cuatro filtros adaptados 291) y todos los filtros adaptados 291a-291d emiten picos al mismo tiempo. Sin embargo, si hay una compensación de frecuencia en las frecuencias del chip, entonces abra una compensación de off definida por 1 -2, entre los picos en los marcos adyacentes que dependen de la compensación de la frecuencia. Adicionalmente, una compensación de frecuencia en las frecuencias del chip conducirá a los picos emitidos por los cuatro filtros adaptados 211a a 211b que no se den simultáneamente. Sin embargo, la compensación de sincronización (off) para la salida de cada uno de los circuitos de normalización 293 debe ser idéntica. En este ejemplo, la unidad de adquisición 271 hace uso de esto, para cuantificar la compensación de frecuencia y, por lo tanto, para corregirla. A continuación, se describirá la manera en que esto se hace.
[0097] Como se muestra en la fig. 20, en este ejemplo, la salida de cada circuito de normalización 293 se introduce a un correlador cruzado correspondiente 295a a 295b en el que se correlaciona de forma cruzada con la salida del mismo circuito de normalización para el marco inmediatamente anterior. Esto se consigue pasando la puntuación de salida de cada unidad de normalización 293 a través de una unidad de retardo correspondiente 297a a 297b que retarda las puntuaciones por un periodo marco (es decir, 32768 periodos de reloj). Después, salida del circuito de normalización 293 se correlaciona de forma cruzada con la salida retardada correspondiente mediante el correlador cruzado 295. En este ejemplo, se una compensación de frecuencia máxima que corresponde a doce muestras de reloj. Por lo tanto, los correladores cruzados 295 sólo buscan un pico de correlación cruzada durante un intervalo de compensaciones temporales entre los dos marcos, que varían entre una indicación de doce muestras y un retraso de doce muestras. Esto da como resultado una reducción significativa en la cantidad de procesamiento requerida por los correladores de cruzados 295.
[0098] La fig. 24 muestra, una salida típica de uno de los correladores cruzados 295. El eje X corresponde a la compensación de tiempo entre los dos marcos emitidos por el circuito de normalización 293 y el eje y corresponde a la puntuación emitida por el correlador cruzado 295. El pico de correlación cruzado 331 se da a una compensación de tiempo off que es igual a 2 -1. Como se ha mencionado anteriormente, la compensación de tiempo para cada uno de los filtros adaptado 291a-291d debe ser idéntica y por lo tanto la posición del pico de correlación cruzada 331 en la salida de cada uno de los correladores cruzados 295 debe ser la misma. Por lo tanto, las salidas de los cuatro correladores cruzados 295 se añaden juntas mediante un circuito de aditivo 299 y la salida del circuito aditivo 299,etiquetado COMPENSACIÓN en la fig. 20, se introduce al procesador 273. Después, el procesador 273 calcula la compensación de frecuencia (de off y el tamaño de la ventana de correlación de los filtros adaptados 291) y envía la señal S indicativa de la compensación de frecuencia al circuito de remuestreo 275.
[0099] Una vez que la compensación de frecuencia se ha eliminado, después es necesario sincronizar los códigos de pseudo-ruido PN0-PN5 generados por el procesador 273 con la secuencia de chip en la señal digital D(t). En este ejemplo, esto se consigue introduciendo las puntuaciones de salida Ai, Bi, Ci y Di de los cuatro circuitos de normalización 293 directamente en el procesador 273 que determina a partir del pico más grande presente en la cuatro salidas, la sincronización de la secuencia de chip en la señal eléctrica detectada D(t). Después, el procesador 273 usa la sincronización determinada para generar los códigos de pseudo-ruido PN0-PN5 para garantizar que están sincronizados con la secuencia de chip en la señal digital D(t).
[0100] En este ejemplo, el procesador 273 es un sistema basado en un microprocesador que se ilustra esquemáticamente en la fig. 25. Como se muestra, el procesador 273 incluye un circuito de interfaz 335 para dar una interfaz a una unidad central de procesamiento (CPU) 337 con las puntuaciones normalizadas Ai, Bi, Ci y Di emitidas desde los circuitos de normalización 293 para dar una interfaz a la CPU 337 con el circuito aditivo 299, y para emitir los códigos de pseudo-ruido PN0-PN5. Como se muestra en la fig. 25, el circuito de interfaz 335 también recibe una señal (PISTA) que se usa en una operación de creación de pistas que se describirá a continuación en más detalle. Al realizar los cálculos que se han descrito anteriormente, el procesador 273 procesa los valores recibidos del circuito de interfaz 335 de acuerdo con las instrucciones predeterminadas almacenadas en una memoria del programa 339. también se proporciona una memoria de trabajo (RAM) 341 para su uso por la CPU 337 al realizar los cálculos. también se proporciona una interfaz de usuario 343 para permitir a un usuario ajustar la configuración del procesador 273, por ejemplo, para cambiar o alterar las instrucciones del programa almacenadas en la memoria del programa 339 con el fin de poder reconfigurar el codificador.
[0101] Volviendo a la fig. 19, la salida del circuito de remuestreo 275 se introduce en la primera a tercera unidad de correlación y comparación 279a a 279c. La primera unidad de correlación y comparación 279a correlaciona los datos emitidos por el circuito de remuestreo con el primer y segundo códigos de pseudo-ruido PN0, PN1, y después compara los resultados de estas dos correlaciones. De forma similar, la segunda unidad de correlación y comparación 279b, correlaciona los datos emitidos por el circuito de remuestreo 275 con el tercer y cuarto códigos de pseudo-ruido PN2, PN3 y compara estas dos correlaciones, y la tercera unidad de correlación y comparación 279c correlaciona los datos emitidos por el circuito de remuestreo 275 con el quinto y sexto códigos de pseudo-ruido PN4, PN5 y compara los resultados de estas dos correlaciones.
[0102] La fig. 26 muestra, en más detalle los componentes principales de la primera unidad de correlación y comparación 279 (la segunda y tercera unidades de correlación y comparación 279b, 279c tienen la misma estructura pero diferentes entradas). Como se muestra en la fig. 21, la primera unidad de correlación y comparación 279a tiene tres canales que se han etiquetado tarde, a tiempo y temprano. Como se explicara a continuación, los tres canales permiten una sincronización de tiempo que se va a rastrear mientras que se están transmitiendo otros datos diferentes del bit SYNC.
[0103] La señal de datos R(t) se introduce en cada uno de los tres canales de la unidad de correlación y comparación 279 y en cada canal se multiplica por separado por PN0 y PN1. En el canal tarde, la señal de datos R(t) se introduce a un primer multiplicador 351a, en el que se multiplica por PN1 retardado por dos periodos de reloj mediante una primera unidad de retardo 353a, y a un segundo multiplicador 315b en el que se multiplica por PN0 retardado por dos periodos de reloj mediante una unidad segunda de retardo 353b. De forma similar, en el canal a tiempo, la señal de datos R(t) se introduce a un tercer multiplicador 351c en el que se multiplica por PN1 retardado por un periodo de reloj mediante una unidad de retardo de tiempo tercera 353c, y en un cuarto multiplicador, en el que se multiplica por PN0 retardado por un periodo de reloj mediante una cuarta unidad de retardo 353d. En el canal temprano, la señal de datos R(t) se introduce a un quinto multiplicador 351c en el que se multiplica por PN1, y en un sexto multiplicador 351f, en el que se multiplica por PN0.
[0104] Cuando la señal de datos R(t) se multiplica por PN1, si la secuencia de chip en la señal de datos R(t) corresponde a PN1, entonces se generara una señal de banda estrecha a aproximadamente la frecuencia portadora de 1378 Hz. De forma similar, cuando la señal de datos R(t) se multiplica por PN0, si la secuencia de chip de la señal R(t) coincide con PN0, entonces se generara una señal de banda estrecha en la frecuencia portadora. De esta manera, para cada canal, si el bit de datos recibidos tiene un valor de 1, entonces la salida de el primer, tercer y quinto multiplicadores 351a, 351c, 351e contendrá una señal de banda estrecha en la frecuencia portadora y, debido a que PN1 y PN0 son octogonales, la salida del segundo, cuarto y sexto multiplicador 351b, 351d, 351f no contendrá las señales de banda estrecha. De forma similar, los bit de datos recibidos tienen un valor de 0 entonces, entonces la salida del segundo, cuarto y sexto multiplicador 351b, 351d, 351f contendrán la señal de banda estrecha a la frecuencia portadora y la salida del primer, tercer y quinto multiplicadores 351a, 351c, 351e no.
[0105] Las salidas de los dos multiplicadores 351 en cada canal se introducen a uno correspondiente de los tres comparadores de potencia de 355a a 355c, uno de los cuales se muestra en más detalle en la fig. 27. Como se muestra, en el comparador de potencia 355 las salidas de los multiplicadores 351 se introducen en filtros de paso banda respectivos 361a y 361b que se centran en la frecuencia portadora. Después, la salida de cada filtro de paso banda 361 se introduce en un monitor de potencia respectivo 363a, 363b que determina la potencia de la señal de salida del filtro de paso banda correspondiente 361. Como se ha mencionado anteriormente, cuando los bit de datos recibidos es "1", la salida del monitor de potencia 363a debe ser mayor que la salida del monitor de potencia 363b. En contraste, cuando el bit de datos recibido es "0", la salida del monitor de potencia 363b debe ser mayor que la salida del monitor de potencia 363a. Por lo tanto, la salida de los monitores de potencia 363 se introduce en un comparador 365 que emite un valor que varía dependiendo de la diferencia entre las salidas de los dos monitores de potencia 363. En este ejemplo, la salida del monitor 363a se introduce en el terminal positivo del comparador 365 y la salida del monitor de potencia 363b se introduce en el terminal negativo del comparador 365. Por lo tanto, si el bit de datos recibidos es "1", entonces la salida del comparador 365 será un valor positivo más mayor, y si el bit de datos recibido es "0", entonces la salida del comparador 355 será un valor negativo grande.
[0106] En este ejemplo, como el codificador 263 emite continuamente la corriente de datos DAT1, al decodificar la señal de digital D(t) que corresponde a la pista de audio modificada, la primera unidad de correlación y comparación 279a, provista de PN0 y PN1 que están sincronizados en el tiempo con la secuencia de chips recibida, emitirá una secuencia continua de valores positivos o negativos indicativos de bits de datos "1" y bit de datos "0", respectivamente. Sin embargo, el codificador 263 sólo emite la segunda corriente de datos DAT2 y la tercera corriente de datos DAT3 para las porciones más altas de la pista de audio. En este ejemplo, si la corriente de datos DAT3 no está presente entonces en la tercera unidad de comparación y correlación 279c ni la salida del quinto multiplicador 351e ni la salida del sexto multiplicador 351f contendrán una señal de banda estrecha en la frecuencia portadora y la salida de los comparadores de potencia 355 para los tres canales será de aproximadamente cero voltios. De forma similar, si la corriente de datos DAT2 no está presente, entonces las salidas de las unidades de correlación y comparación 279b serán de aproximadamente cero voltios.
[0107] Haciendo referencia a la fig. 19, la salida del canal a tiempo de la primera a tercera unidades de correlación y comparación 279 se introducen en un circuito de regeneración de datos 281 que determina cuál de las corrientes de datos DAT1, DAT2 y DAT3 está presente, elimina los bits SYNC y decodifica el código BCH (15,7) para regenerar las señales de datos originales.
[0108] La salida del canal a tiempo de cada unidad de correlación y comparación 279 también se introduce, junto con las salidas de los canales tarde y temprano de cada unidad de correlación y comparación 279, en una unidad de análisis 285. La unidad de análisis 285 determina cuales de los canales proporciona la salida más grande que indica el canal para el que exista mejor coincidencia entre la sincronización de la secuencia de chip y la señal de datos R(t) y en los códigos de pseudo-ruido PN0 a PN5. Si el canal tarde proporciona la salida más grande, entonces la unidad de análisis 285 envía una señal (en el control de línea etiquetad PISTA) al procesador 273 que indica que el reloj debe omitir una muestra a fin de que el canal a tiempo una vez más produzca la salida más grande. De forma similar, si el canal temprano produce el sonido mayor, entonces la unidad de análisis 285 emite una señal al procesador 273 que hace que el reloj 277 haga una doble muestra para que el canal a tiempo una vez más produzca la salida más grande. De esta manera, se realiza una operación de rastreo en la que la sincronización de tiempo de PN0 a PN5 con una secuencia de chip codificada en la señal de datos R(T) se comprueba en una base de muestra a muestra y, si es necesario la sincronización de PN0 a PN5 se ajusta para corregir una reducción en la sincronización.
[0109] En los ejemplos y realizaciones anteriores, una señal de datos que transmite una URL que identifica un sitio WEB asociado con un programa de televisión se introduce en un codificador en el que la señal de datos se expande y se mezcla con la pista de audio para programar la televisión antes de que el programa de televisión sea transmitido por una red de televisión convencional. Después, un teléfono celular recupera la URL de las señales acústicas por una televisión sintonizada al programa de televisión para que el usuario del teléfono del teléfono celular, si lo desea pueda descargar la página web al teléfono celular. Los ejemplos y realizaciones anteriores describen diferentes técnicas para codificar la señal de datos en la pista de audio.
[0110] A continuación, se describirán ejemplos alternativos en los que el codificador se incorpora en un teléfono celular para que una corriente de datos pueda codificarse en una señal acústica emitida por el teléfono celular.
[0111] La fig. 28 ilustra un sexto ejemplo del sistema en el que un primer teléfono celular 401_1 emite una señal acústica 403, que tiene codificado en el mismo datos de usuario asociados con el usuario del primer teléfono celular 401_1, de un altavoz 25_1. En este ejemplo, los datos de usuario incluyen el nombre del usuario y el número de teléfono del primer teléfono celular 401_1. La señal acústica emitida 403 se detecta por un segundo teléfono celular 401_2, que usa un micrófono 23_2, y después el segundo teléfono celular 401_2 decodifica y almacena los datos del usuario. En particular, el nombre del usuario del primer teléfono 401_1 se almacena junto con el número del primer teléfono celular 401_1 en un "listín telefónico" almacenado en el segundo teléfono celular 401_2. De forma similar, el segundo teléfono celular 401_2 emite una señal acústica que transmite los datos de usuario asociados con el usuario del segundo teléfono celular 401_2 desde un altavoz 25_2 para detección y decodificación por el primer celular 401_1.
[0112] Se apreciará que transmitir los datos de usuario de esta manera elimina el requisito de introducir nombres y números de teléfono a través de teclado 31 del teléfono celular 401, lo que generalmente es un proceso lento y pesado ya que las teclas del teclado 31 son pequeñas.
[0113] La fig. 29 ilustra esquemáticamente, los componentes principales del teléfono celular 401 del sexto ejemplo. En la fig. 29, se hace referencia a componentes que son idénticos a los componentes correspondientes del teléfono celular del primer ejemplo por los mismos números de referencia y no se describirán de nuevo.
[0114] Como se muestra, en este ejemplo, el procesador 411 del teléfono celular 401 tiene una salida AUDIO_OUT y una salida DATA_OUT que están conectadas a las entradas respectivas de un codificador 413. En este ejemplo, la única diferencia entre el codificador 413 y el codificador del primer ejemplo, es que el modulador del codificador 413 no incluye un circuito de remuestreo ya que la señal digital emitida a través de la salida AUDIO-OUT del procesador 411 tiene una frecuencia de muestra de 8 kHz. La salida del codificador 413 se conecta a la entrada del DAC 117. De esta manera, los datos del usuario emitidos a través de la salida DATA_OUT del procesador 411 se codifican en una pista de audio emitida por la salida AUDIO_OUT para formar una pista de audio modificada.
[0115] En el teléfono celular 401 de este ejemplo, la señal digital D(t) emitida desde el ADC 113 se introduce en un decodificador 415, así como la entrada AUDIO_IN del procesador 411. El decodificador 415 es idéntico al decodificador del quinto ejemplo y, por lo tanto, no se describirá de nuevo. El decodificador 415 recupera los datos del usuario codificados en la señal digital D(t) y emite los datos de usuario recuperados a una entrada DATA_IN del procesador 411. De esta manera, los datos de usuario transmitidos por una señal acústica desde otro teléfono celular 401 pueden decodificarse procesándolos con el procesador 411.
[0116] En este ejemplo, los datos de usuario asociados con el usuario del teléfono celular 401 se almacenan en la NVRAM 125 y la ROM 127 almacena una sub-rutina que, en respuesta a la selección del usuario de una opción del menú usando las teclas de menú 33, hace que el procesador 411 emita, a través de la salida DATA_OUT, los datos del usuario y emita, a través de la salida AUDIO_OUT, una secuencia de audio predefinida. El fin de la secuencia de audio predefinida es proporcionar una indicación audible para el usuario de que la transferencia de datos está teniendo lugar. En el codificador 413, los datos de usuario se expanden, modulan y conforman como se ha descrito en el primer ejemplo antes de añadirse a la secuencia de audio predefinida para formar una secuencia de audio modificada. La secuencia de audio modificada emitida por el codificador 413 se introduce en el DAC 117 donde se convierte en una señal analógica que se amplifica mediante el amplificador 119 y se emite en forma de una onda acústica por el altavoz 25. Cuando el teléfono celular 401 detecta, usando el micrófono 23, una onda acústica que transmite los datos del usuario, los datos del usuario se decodifican mediante el decodificador 415 y se introducen, a través de la entrada DATA_IN, en el procesador 411. En respuesta la introducción de los datos de usuario, el procesador 411 realiza una sub-rutina almacenada en la ROM 127 que extrae el nombre de usuario y el número de teléfono de los datos de usuario y almacena el nombre de usuario y el número de teléfono como una entrada en una tabla de reconocimiento en la NVRAM 125. En este ejemplo, la NVRAM 125 puede almacenar hasta 100 entradas que forman un listín telefónico electrónico.
[0117] En el sexto ejemplo, los datos se transfieren entre dos teléfonos celulares 401 a través de un enlace de comunicaciones acústico. Sin embargo, los teléfonos celulares también pueden usar un enlace de comunicaciones acústico para transmitir señales de datos a otros dispositivos electrónicos. A continuación, se describirá un séptimo ejemplo con referencia a las figs. 30 a 33 en el que un teléfono celular codifica una señal de control en una señal acústica emitida; un juguete detecta la señal acústica, recupera la señal de control y responde de acuerdo con la señal de control de una manera distinguible para los seres humanos.
[0118] Como se muestra en la fig. 30, una persona que llama 423 usa un teléfono móvil 427, conectado a una red de telecomunicaciones 429, para llamar por teléfono al usuario (no mostrado) del teléfono celular 421. La llamada se enruta mediante la red de telecomunicaciones a una estación base 431, que cubre el área en el que está localizado actualmente el teléfono celular 421, y la estación base 431 emite una señal de RF 433 que se detecta por la antena del teléfono celular 421. En la señal de RF 433 se incluyen los datos de identificación del número de teléfono del teléfono móvil 427. Los expertos en la técnica apreciarán que dichos datos de identificación se envían en muchos sistemas de teléfono convencionales. En este ejemplo, el teléfono celular 421 determinar a partir de la señal de RF entrante 433 el número de teléfono del teléfono móvil 427, recupera de una tabla de reconocimiento un identificador de señal de control asociado con el número de teléfono, y codifica la señal de control correspondiente al identificador de la señal de control en un tono de timbre que se emite en forma de una señal acústica 435.
[0119] En este ejemplo, la señal acústica 435 se detecta por un micrófono 437 en un juguete electrónico 425. Como se muestra en la fig. 30, el juguete electrónico 425 incluye dos brazos 439a, 439b y una cara formada por: una nariz 441; dos ojos 443a, 443b; una boca articulada 445; y dos cejas articuladas 447a, 447b. El juguete electrónico 425 también incluye un altavoz 449. El juguete 425 decodifica la señal de control del tono de timbre emitido por el teléfono celular 421 y responde emitiendo un sonido a través del altavoz 449 y moviendo la boca 445 y las cejas 447 para formar una expresión de acuerdo con la señal de control recuperada.
[0120] La fig. 31 muestra los componentes principales del teléfono celular 421 del séptimo ejemplo. En la figura 31, los componentes que son idénticos a los componentes correspondientes del teléfono celular del primer ejemplo tienen los mismos números de referencia y no se describirán de nuevo. Como se muestra, el procesador 461 tiene una salida DATA_OUT que está conectada a una primera entrada de un codificador 463 y la salida AUDIO_OUT del procesador 461 está conectada a una segunda entrada del codificador 463. En este ejemplo, el codificador 463 es idéntico al codificador del sexto ejemplo. El codificador 463 codifica una señal de datos emitida por la salida DATA_OUT del procesador 461 en una señal de audio emitida a través de la salida AUDIO_OUT del procesador 461 para formar una señal de audio modificada que se convierte en una señal analógica mediante el DAC 117, y después la señal analógica se amplifica por el amplificador 119 antes de convertirse en una señal acústica por el altavoz 25.
[0121] La fig. 32 muestra la configuración funcional del procesador 461 cuando una señal que inicia una llamada de teléfono se recibe primero a través de la antena 27. Como se muestra, la señal recibida se introduce en un generador de señal de llamada 471 que genera una señal de llamada que se emite a través de salida AUDIO_OUT del procesador 461. La señal recibida también se introduce en un extracto de números de teléfono 473 que determina la procedencia de la señal recibida del número de teléfono de la persona que llama. El número de teléfono determinado se procesa mediante un recuperador de respuesta 475 que accede al identificador de respuesta que corresponde con el número de teléfono determinado de una región de almacenamiento de respuesta 477 de la NVRAM 125. Como se muestra, la región de almacenamiento de respuesta 477 está en forma de una tabla de reconocimiento que almacena una pluralidad de números de teléfono junto con los identificadores de respuesta correspondientes. En este ejemplo, existen tres posibles respuestas que tienen los identificadores de respuesta A, B y C, respectivamente. Cuando el recuperador de respuesta 475 ha recuperado un identificador de respuesta de la región de almacenamiento de respuesta 477, el identificador de respuesta recuperado se procesa por un generador de señal de datos 479 que genera una señal de control correspondiente que se emite a través de la salida DATA_OUT del procesador 461.
[0122] Como se ha descrito anteriormente, la señal acústica 435 se detecta por un micrófono 437 de un juguete electrónico 425 que convierte la señal acústica en una señal eléctrica. La fig. 33 muestra esquemáticamente los componentes principales de la circuitería electrónica del juguete 425. Como se muestra, la señal eléctrica emitida por el micrófono 437 se introduce en un filtro antisolapamiento 491 antes de convertirse en una señal digital por un DAC 493. La señal digital emitida por el DAC 493 se introduce en un decodificador 495 que recupera la señal de control. En este ejemplo, el decodificador 495 es idéntico al decodificador para el sexto ejemplo.
[0123] La señal de control recuperada se introduce en un procesador 497 que está conectado a una RAM 499, que proporciona memoria de trabajo, y una ROM 501 que almacena rutinas que se ejecutan en respuesta a la señal de control. Una primera salida del procesador 497 está conectada a un primer circuito controlador del motor 503 que emite señales de accionamiento a un motor de las 505 para hacer que las cejas articuladas 447 se muevan. Una segunda salida del procesador 497 está conectada a un segundo circuito controlador de motor 507 que emite señales de accionamiento a un motor de la boca 509 que provoca el movimiento de la boca articulada 445. Una tercera salida del procesador 497 está conectada, a través de un DAC 511 y un amplificador 513 a un altavoz 515.
[0124] En funcionamiento, el receptor de una señal de control activa una rutina correspondiente almacenada en la ROM 501 asociada con la señal de control que provoca que el procesador 497 emita una señal al circuito controlador de motor 503, provocando que el circuito controlador de motor 503 accione el motor de las cejas 505 para mover las cejas articuladas 447, y emite una señal al segundo circuito controlador de motor 507 provocando que el segundo circuito controlador de motor 507 emita una señal de accionamiento al motor de la boca 509 para mover la boca articulada 445. De esta manera, se forma la expresión deseada que corresponde a la señal de control. Adicionalmente, una señal de audio asociada con la señal de control se emite por el procesador 497 al DAC 511 en el que se convierte en señal analógica que después se amplifica por el amplificador 513 antes de emitirse como una señal acústica por el altavoz 449. Como se muestra en la fig. 30, la señal de control asociada con el usuario 423 hace que la expresión facial del juguete 425 sea la de un fruncido de ceja, y la señal de audio asociada con el usuario 423 sea un gemido.
[0125] En el séptimo ejemplo, un teléfono celular determina una señal de control asociada con el número de teléfono de una persona que llama y combina la señal de control con el tono de llamada para la su detección por el juguete 425. Sin embargo, las señales de control también pueden transmitirse a un teléfono celular por una red de telecomunicaciones para su transmisión por el teléfono celular en forma de una señal acústica para su posterior detección y procesamiento por un dispositivo electrónico. A continuación, se describirá octavo ejemplo con referencia a las figs. 34 y 35, en el que la expresión facial pf, y los sonidos emitidos por el juguete 425 del séptimo ejemplo se alteran de acuerdo con las señales de control que se transmiten, usando el Servicio de Mensajería Corta (SMS) definido en la especificación del Sistema Global para comunicación móvil (GSM), por la red de comunicaciones 429 a un teléfono celular. En la fig. 34, los componentes que son idénticos a los componentes correspondientes en la fig. 30 tienen los mismos números de referencia y no se describirán de nuevo.
[0126] Como se muestra en la fig. 34, un sistema informático 521 está conectado a un módem 523 a través del cual el sistema informático 521 envía señales por la red de telecomunicaciones 429. En respuesta a un usuario del sistema informático 521 que indica que se va a enviar una señal de control al teléfono celular 525, se emite un identificador de señal de control correspondiente, usando el módem 523, en forma de un mensaje SMS a la red de telecomunicaciones 429 que enruta el mensaje SMS a la estación base 431 que cubre la localización del teléfono celular 525. Después, la estación base 431 emite una señal de RF 433 que transmite el mensaje SMS para su detección por el teléfono celular 525.
[0127] En este ejemplo, los componentes de hardware del teléfono celular 525 son idénticos a los del teléfono celular descrito con referencia a la fig. 31 para el séptimo ejemplo. Sin embargo, en este ejemplo, la ROM del teléfono celular 525 incluye una rutina que, en respuesta a un mensaje SMS que transmite un identificador de señal de control, recupera el identificador de señal de control del mensaje SMS y emite la señal de control correspondiente y una señal de audio predefinida a través de las salidas DATA_OUT y AUDIO_OUT del procesador, respectivamente.
[0128] La fig. 35 muestra la configuración funcional del procesador del teléfono celular cuando procesa un mensaje SMS recibido que trasmite un identificador de señal de control. El mensaje SMS se procesa por un analizador de mensajes SMS 531 que recupera el identificador de señal de control. Después, el analizador de mensajes SMS provoca que un generador de señal de audio 535 emita la señal de audio predefinida a través de la salida AUDIO_OUT del procesador y un generador de señal de datos 533 emita la señal de control que corresponde al identificador de señal de control del procesador a través de la salida DATA_OUT. Después, el codificador combina la señal de control con la señal de audio predefinida para formar una señal de audio modificada que se emite como la señal acústica 435. En este ejemplo, la señal de audio predefinida sólo se usa para alertar al usuario del teléfono celular de que se está enviando una señal de control.
[0129] En este ejemplo, el juguete 425 detecta la señal acústica 435 y responde de la misma manera que se ha descrito en el séptimo ejemplo.
MODIFICACIONES Y REALIZACIONES ADICIONALES
[0130] En los ejemplos y realizaciones anteriores, se usa un canal de datos acústico para datos de entrada o datos de salida de un teléfono celular. La adición de un canal de datos acústico a un teléfono celular tiene muchas ventajas, por ejemplo:
1.
El teléfono celular ya está equipado con un micrófono y un altavoz que puede usarse para el canal de datos acústico. Por lo tanto, el peso del teléfono celular no aumenta significativamente.
2.
Los procesadores típicamente usados en la mayor parte de los teléfonos digitales celulares se adecuan bien a ser programadas para realizar rutinas de software para codificar y/o decodificar datos en el canal de datos acústico.
3.
Las técnicas de comunicación acústica son adecuadas para la comunicación de corto intervalo, ya que particularmente no están sometidas a los mismos requisitos normativos que las técnicas de comunicaciones de RF.
4.
Ya existen redes establecidas para distinguir señales acústicas, por ejemplo, redes de televisión y radio.
5.
Mucha gente lleva un teléfono celular consigo virtualmente todo el tiempo. Por lo tanto, proporciona una ruta de comunicación ideal para datos que dependen de la localización de una persona.
6.
El uso de un vínculo acústico en teléfonos celulares permite dirigir datos a personas en una localización específica, por ejemplo, un edificio en particular a través de un sistema de dirección publica en el edificio, u oyentes a una fuente de audio particular, por ejemplo, una red de radio particular. Esto es ventajoso tanto para el proveedor de datos, ya que suministra los datos de forma eficaz, como para el usuario del teléfono celular, ya que sólo se reciben datos que probablemente sean útiles.
7.
El uso de una técnica de comunicación acústica para introducir datos a un teléfono celular es generalmente más conveniente que introducir datos usando las teclas del teléfono celular ya que las teclas son generalmente pequeñas.
[0131] Como los expertos en la técnica prefieran, algunas de las ventajas que se han descrito anteriormente también surgen con otros teléfonos portátiles, tales como teléfonos sin cables que se comunican con una estación base directamente conectada a una red de telefonía pública, o incluso un teléfono convencional que está conectado directamente a una red telefónica publica conmutada (PSTN). Los expertos en la técnica también apreciarán que el teléfono puede incorporarse como parte de otro dispositivo, por ejemplo, un asistente digital personal (PDA).
[0132] Como se ha descrito anteriormente, en la primera y segunda realizaciones, un canal de datos acústico se adecua bien particularmente a los denominados teléfonos "inteligentes" que tienen determinadas capacidades de procesamiento de datos además de capacidad para hacer llamadas de voz ya que pueden usarse las técnicas de comunicación acústicas, por ejemplo, para controlar el acceso de datos o a señales de salida de acuerdo con los datos recibidos. En la primera y segunda realizaciones el teléfono celular es capaz de descargar datos de Internet usando un protocolo de aplicaciones inalámbricas. Otros tipos de teléfonos "inteligentes" incluyen aquellos que emplean el sistema i-MODE, "teléfonos Java" que han incorporado en los mismos la Plataforma Java 2, Edición Micro (J2ME), y los teléfonos celulares 3G del futuro.
[0133] En la primera y segundas realizaciones, un usuario es capaz de descargar una página web de Internet acerca de un programa de televisión usando un teléfono celular, en particular, una URL para la página web se codifica en una pista de audio del programa de televisión. De esta manera el canal de datos acústico se usa para establecer un vinculo entre el teléfono celular y la página web.
[0134] La URL codificada en el programa de televisión puede relacionarse a una página web mencionada específicamente en el programa de televisión como una fuente de información adicional. Como alternativa, la URL podría ser para una página web "oculta" cuya existencia no se transmite generalmente y por lo tanto sólo puede verse con teléfonos celulares habilitados adecuadamente. Por ejemplo, una película preferida puede tener codificada su banda sonora una URL para una página web que tiene entrevistas del reparto, etc.
[0135] Los expertos en la técnica apreciarán que otra forma de identificador de páginas web puede codificarse en la pista de audio en lugar de la URL. Por ejemplo, podría usarse una combinación de la dirección de protocolo de Internet de un servidor que almacena la página web y el índice de datos que identifica la página web deseada para el servidor.
[0136] En una realización alternativa, un identificador de página web propietarios se codifica en la pista de audio, y al recibir una señal acústica que transmite un identificador de página web propietario, el teléfono celular accede a una base de datos que almacena una tabla de reconocimiento que asocia una pluralidad de identificadores de página web propietarios con las direcciones IP asociadas y/o URL. De esta manera, se determina la localización de datos de la página web asociada con el identificador de páginas web propietario. La base de datos puede localizarse en el teléfono celular o en un servidor remoto al que el teléfono celular accede usando la red de comunicaciones celulares. Si la base de datos almacena el teléfono celular, la base de datos puede actualizarse periódicamente, por ejemplo enviando nuevos datos usando un mensaje SMS.
[0137] Si la base de datos propietaria se localiza en un servidor remoto, al recibir un identificador de página web propietario el servidor remoto puede enviar la dirección IP/URL correspondiente de vuelta al teléfono celular o enviar a la dirección IP/URL correspondiente una petición para descargar los datos directamente en el teléfono celular. Una ventaja de usar un servidor remoto para almacenar la base de datos de identificadores de página web propietario y direcciones IP asociadas es que el número de veces que el servidor es accedido por el usuario del teléfono celular puede controlarse. Esto permite que al creador del programa de televisión evaluar la utilidad de la codificación de las páginas web en el programa de televisión. Además, controlando el número de veces que el usuario del teléfono celular accede al servidor, puede restablecerse un esquema de lealtad en el que el usuario reciba recompensas, por ejemplo obsequios gratis, por el uso frecuente. En particular, si el usuario accede a la base de datos un predeterminado número de veces entonces es recompensado. Esto anima al usuario del teléfono celular a hacer uso del servidor.
[0138] Para la primera y segundas realizaciones, la señal de televisión no necesita ser transmitida usando un trasmisor pero puede enviarse al conjunto de televisión a lo largo de una red por cable o vía satélite. también se apreciará que las mismas técnicas podrán aplicarse a una señal de radio, ya sea emitida usando un transmisor o enviada a lo largo de una red por cable. Adicionalmente, estas técnicas pueden aplicarse a un sistema de comunicación punto a punto, así como sistemas de difusión. Además, pueden usarse técnicas de encriptación convencionales de forma que la señal de televisión o radio sólo puedan reproducirse después de procesarse por una circuitería de desencriptación.
[0139] Como otra alternativa, la señal de televisión puede almacenarse en un video cassette, un disco versátil digital (DVD), disco duro o similar. De esta manera, no se transmite señal a través de la atmósfera o a través de una red por cable pero sino que la señal de televisión se almacena en un medio de grabación que posteriormente se reproduce por un usuario en el conjunto de televisión del usuario. De forma similar, una señal de audio puede almacenarse en un radio cassette, disco compacto (CD) o similar. Adicionalmente, la pista de audio podrá almacenarse en forma de un fichero de informático, por ejemplo, un archivo MP3, en un disco duro o similar.
[0140] En la primera y segunda realizaciones, el modo monitor está activado por el usuario del teléfono celular. En otras realizaciones, el modo monitor está activado en respuesta a un estimulo externo en lugar de por el usuario del teléfono celular. Por ejemplo, el modo monitor puede activarse al recibir un mensaje SMS. Como alternativa el teléfono celular puede configurarse de forma que la función del modo monitor este continuamente activa.
[0141] Como se ha descrito anteriormente en el modo monitor un teléfono celular monitoriza cualquier señal de datos transmitida por señales acústicas detectadas por el micrófono. En una realización, para ahorrar energía durante periodos en los que no detectan señales de datos, el teléfono celular puede funcionar en un modo "ahorro de energía" en el que el teléfono celular comprueba periódicamente si existen señales de datos, en lugar de comprobar de forma continua la existencia de señales de datos. Por ejemplo, el teléfono celular puede comprobar si existen señales de datos durante un periodo de 3 segundos y, si no se detectan señales de datos, entonces el teléfono celular espera 10 segundos antes de comprobarlo de nuevo. El modo ahorro de energía puede activarse automáticamente por el teléfono móvil si no se reciben señales de datos durante un periodo de tiempo predeterminado. Como alternativa, el modo ahorro de energía puede activarse por un usuario o por un estimulo externo.
[0142] En la primera y segunda realizaciones, a la página web cuya URL se detecta en la pista de audio de un programa de televisión se accede por el usuario de un teléfono celular seleccionando una opción del menú usando las teclas de menú. El acceso de la página web puede también iniciarse mediante un estimulo externo, por ejemplo, un comando enviado usando el canal de datos acústico. En algunas aplicaciones, a la página web se accede automáticamente por el teléfono celular sin requerir ningún entrada del usuario o un estimulo externo, en cuyo caso el teléfono celular no necesita almacenar la URL u otro identificador de página web. Por ejemplo, en una realización, una secuencia de identificadores de páginas web se codifica en la pista de audio de un programa de televisión y un teléfono celular detecta la secuencia de identificadores de página web y automáticamente descarga las páginas web correspondientes. De esta manera, el teléfono celular puede mostrar páginas web que varían en sincronía con el contenido del programa de televisión, dicho acceso automático puede activarse en respuesta a una instrucción del usuario o un estimulo externo, o como alternativa el teléfono celular puede configurarse previamente para el acceso automáticamente. Preferiblemente el usuario es capaz de deshabilitar el acceso automático si el usuario considera que los datos que se van a descargar son irrelevantes.
[0143] En una realización alternativa, el usuario del teléfono celular puede almacenar un identificador de página web recibido en una NVRAM en el teléfono celular para su acceso futuro seleccionando una opción del menú apropiada.
[0144] En las realizaciones descritas, el usuario introduce una instrucción en el teléfono celular accediendo a una opción del menú. Los ejemplos de instrucciones de usuario se activan en el modo monitor o el modo ahorro de energía, accediendo a una página web que corresponde a un identificador de página web recibido o instruyendo al teléfono celular para que acceda automáticamente a la página web correspondiente a un identificador de página web recibido. En lugar de o además, de una disposición de "tecla programable" de este tipo para introducir instrucciones, el teléfono celular puede incluir una o más "teclas físicas" asociadas con el canal de datos acústico, es decir, teclas dedicadas provistas en el teléfono celular que están asociadas cada una a una instrucción correspondiente. Estas "teclas físicas" pueden configurarse previamente durante la fabricación del teléfono móvil o programarse por el usuario del teléfono celular. En una realización alternativa, el teléfono celular incluye un software de reconocimiento de voz a fin de que las instrucciones puedas introducirse por un usuario que dice una palabra frase asociada en el micrófono del teléfono celular.
[0145] En la primera y segunda realizaciones, los datos codificados de la pista de audio de un programa de televisión se refieren una página web. Como alternativa, los datos codificados en la pista de audio de un programa de televisión pueden referirse a por ejemplo, el título de una pista musical que está reproduciendo en la televisión. Este título después puede mostrarse en el teléfono celular. Como alternativa, los números de teléfono pueden codificarse en la pista de audio de un programa de televisión, por ejemplo, un número de teléfono "premio" puede codificarse el cual puede marcarse automáticamente durante una transmisión para entrar en una competición.
[0146] El canal de datos acústico también puede usarse para transmitir información sobre juegos al teléfono celular. Por ejemplo, para juegos de ordenador reproducidos en el teléfono celular que tienen una estructura multinivel, accediéndose a cada nivel por una contraseña, las contraseñas pueden codificarse en una pista de audio a fin de que puedan descargarse al teléfono celular, a través del canal de datos acústico, para permitir el acceso a los respectivos niveles. Por ejemplo, la pista de audio puede ser la pista de audio de una película asociada con el juego de ordenador a fin de que la gente que haya visto la película pueda tener acceso a uno o más niveles del juego de ordenador. Como alternativa, pueden codificarse pistas y consejos en relación a un juego de ordenador en una pista de audio.
[0147] En otra aplicación alternativa, la señal de datos F(t) codificada en la pista de audio de un programa de televisión o de un programa de radio puede transmitir datos de una encuesta de audiencia identificando el programa que se está viendo y/o escuchando el usuario del teléfono celular. El uso de un teléfono celular para una encuesta de audiencia es ventajoso por tres razones principales. En primer lugar, el usuario de un teléfono celular tiende a llevar el teléfono celular consigo. Los datos de la encuesta de audiencia recogidos se asocian por lo tanto al usuario, en lugar de un conjunto de televisión o radio como en la mayor parte de los sistemas de encuesta de audiencia automatizados. En segundo lugar el teléfono móvil puede enviar los datos de la encuesta de audiencia al usuario automáticamente, usando la red de telecomunicaciones celulares a una base remota en la que los datos de la audiencia de muchos usuarios se colapsan y analizan. Esto proporciona un mecanismo simple para recopilar los datos de encuestas de audiencia sin requerir la implicación del usuario. En tercer lugar, incorporando la función de una encuesta de audiencia en un teléfono celular que el usuario normalmente lleva consigo o tiene cerca, el usuario es menos consciente de la realización de la encuesta de audiencia que si el usuario tiene que llevar un dispositivo de encuesta de audiencia dedicado en su persona, incluso si el usuario sabe que el teléfono celular está recopilando datos de encuestas de audiencia. Esto alivia un problema común con las encuestas de audiencia de que los usuarios alteren sus hábitos de visualización y/o escucha en vista de la encuesta de audiencia.
[0148] En una realización preferida de la aplicación de encuesta de audiencia, según se recibe cada elemento de los datos de encuesta de audiencia por el teléfono celular se descarga inmediatamente a través de la red de telecomunicaciones celulares a una estación de encuestas de audiencia en la que se almacena una base de datos de encuestas de audiencia. En esta realización, la señal de datos es sólo un identificador de canal para la estación de radio que se está escuchando o la televisión que se está viendo en lugar de un identificador para un programa en particular.
[0149] La fig. 36 muestra los componentes principales de la estación de encuesta de audiencia 551 para esta realización preferida. La estación de encuesta de audiencia 551 recibe una señal de la encuesta de audiencia a través de una red de telecomunicaciones que transmite el número de teléfono del teléfono celular y el identificador de canal. La señal de encuesta de audiencia recibida se introduce en un controlador 553 que recupera el identificador del canal y, usando una señal temporal de un generador de señal de tiempo 555, determina a partir de una base de datos de programas 557 el programa que se está viendo actualmente por el usuario del teléfono celular. En particular, la base de datos de programas almacena los programas para cada identificador de canal para cada vez y por lo tanto el programa que se está viendo puede determinarse a partir de la señal de tiempo y el identificador de canal. Después, el controlador 553 almacena, en la base de datos de encuesta de audiencia 559, datos que corresponden al usuario que es identificado por el número de teléfono del teléfono celular y el programa de televisión que se está viendo por el usuario. De esta manera, se produce un resultado casi instantáneo para la encuesta de audiencia.
[0150] El canal de datos acústico también puede usarse para encuestas de opinión, por ejemplo, un programa de televisión sobre un sujeto podría tener codificado en su pista de audio preguntas acerca del sujeto que se muestre por el teléfono celular. Después, el usuario podría introducir una respuesta en el teléfono celular que se enviaría automáticamente a un sitio remoto en el que se coteja con respuestas de otros teléfonos celulares. Una ventaja de dicha encuesta de opinión es que el usuario del teléfono sólo tiene que presionar un botón para responder una pregunta y por lo tanto requiere menos esfuerzo por el usuario que otras encuestas de opinión telefónicas en las que el usuario tiene que marcar un número de teléfono, esperar la conexión y después dar una respuesta. Esto animara a más gente a participar en la encuesta de opinión. Para el ejemplo anterior en el que la encuesta de opinión se asocia con un programa de televisión, el resultado puede darse durante el programa de televisión. Esto es un ejemplo de cómo el canal de datos acústico puede usarse para "cerrar el bucle" de un locutor a un espectador/oyente (a través de un medio de difusión) y del espectador/oyente de vuelta al locutor (a través de una red de telecomunicaciones).
[0151] En otra aplicación, los datos para un concurso se transmiten al teléfono celular usando un canal de datos acústico. Por ejemplo, una pregunta se transmite y se detecta por una pluralidad de teléfonos celulares. Los respectivos usuarios de los teléfonos celulares introducen sus respuestas que se transmiten a través de la red de telecomunicación celular, de vuelta al origen de la pregunta. Después, pondría ganarse un premio por la respuesta más rápida.
[0152] En realizaciones preferidas los datos transmitidos por el teléfono celular se mejoran añadiendo datos de perfil de usuario almacenados en el teléfono celular. Esto es particularmente útil para las encuestas de audiencia y las encuestas de opinión para las aplicaciones de encuestas de audiencia y encuestas de opinión descritas anteriormente debido a que los datos recogidos pueden analizarse de acuerdo con las características del usuario contenidas en los datos de perfil de usuario. Por ejemplo, si los datos de perfil de usuario especificaron la edad del usuario entonces la estación de la encuesta de opinión puede determinar el perfil de la audiencia del programa de radio/televisión.
[0153] Los expertos en la técnica apreciarán que se conocen teléfonos celulares que pueden determinar su posición. Por ejemplo, la localización de un teléfono celular puede determinarse en 5 kilómetros identificando la estación base la red comunicaciones celulares que se está manejando las comunicaciones de RF con el teléfono celular. Se conocen técnicas más precisas, por ejemplo la técnica de Diferencia de Tiempo Observada Mejorada (EOTD) que se describe en la Patente de Estados Unidos Nº 6094168, cuyo contenido se incorpora en este documento por referencia, y que puede determinar la posición del teléfono celular en un radio de aproximadamente cien metros. Como alternativa, el teléfono celular puede usar un Sistema de Posicionamiento Global (GPS) u otros sistemas basados en satélites para determinar su posición en un radio de aproximadamente diez metros analizando las señales de RF recibidas de los satélites. Por lo tanto, los datos transmitidos por el teléfono celular pueden mejorarse con los datos de localización calculados por el teléfono celular en lugar de, o además de, los datos del perfil de usuario. De esta manera, por ejemplo, una estación de encuesta de audiencia puede determinar la distribución geográfica de la audiencia para un programa de televisión/radio.
[0154] Una ventaja del envío de datos mejorado que incluyen datos que se almacenan en el teléfono celular, por ejemplo, los datos de perfil de usuario, o calculados por el teléfono celular, por ejemplo, datos de localización, es que no se requiere un esfuerzo adicional por parte del usuario.
[0155] En una aplicación alternativa adicional, la codificación se incorpora en un sistema de dirección pública, por ejemplo, un aeropuerto o estación de tren, y el texto de un anuncio hecho sobre el sistema de dirección pública se codifica en la señal acústica que transmite el anuncio. Después, si un usuario no oye el anuncio, el texto del anuncio puede mostrarse al usuario mediante el teléfono celular del usuario.
[0156] En una aplicación adicional, la señal de datos añadida a la pista de audio transmitida incluye un identificador de fuente y una hora de registro. El usuario de un teléfono celular que incluye un decodificador para decodificar la señal de datos después puede transmitir a través de la red de comunicaciones celular, el identificador fuente y la hora de registro a un servidor remoto que almacena una base de datos que identifica cada combinación de identificador fuente y la hora de registro tiempo el título de la música que está sonando. Después, el servidor remoto transmite el título asociado con el identificador de fuente recibida y la hora de registro al teléfono celular que muestra el título al usuario del teléfono celular. Por ejemplo, si una estación de radio está reproduciendo una canción que tiene una señal de datos codificada en la misma con un identificador fuente que identifica la estación de radio y la hora de registro que identifica el número de pista de la canción que está reproduciéndose (por ejemplo, la canción décima reproducida por la estación de radio ese día), entonces el usuario puede descargar desde el servidor remoto el título de la canción. Como alternativa, la pista de audio puede ser una canción en una película y el identificador fuente identifica la película y la hora de registro identifica en que parte de la película se reproduce la canción. Se apreciará que esta aplicación también puede realizarse por cualquier dispositivo que tenga un decodificador para decodificar datos enviados a través de un canal de datos acústico, un vínculo de datos a través del cual el dispositivo sea capaz de acceder a una red de telecomunicaciones, y una pantalla para mostrar el título de la canción. En una realización, el dispositivo puede conectarse de forma movible a un ordenador personal que a su vez está conectado a una red de telecomunicaciones a través de un módem.
[0157] En la primera y segunda realizaciones, una señal de datos se codifica en una pista de audio de un programa de televisión en un estudio de televisión. Esta codificación no necesita sin embargo aparecer antes que la transmisión de la señal de televisión. Por ejemplo, la señal de datos puede realizarse en los intervalos de blanqueo verticales de la pista de video y después un conjunto de televisión o una "caja de adaptación multimedia" puede extraer la señal de datos de la pista de audio y codificarlos en la pista de audio. El codificador no necesita por lo tanto estar en el estudio de televisión, sino que también podría estar, por ejemplo, en una televisión o en una caja de adaptación multimedia.
[0158] El canal de datos acústico también puede usarse para transmitir mensajes que se transmiten o se dirigen a teléfonos celulares particulares. En una realización, el teléfono celular incluye un modo solo acústico en el que la salida de RF se deshabilita pero el teléfono es todavía capaz de detectar y analizar señales acústicas para recuperar los datos. Esto es particularmente ventajoso para transmitir mensajes en los que, por razones de seguridad, los teléfonos celulares no pueden usarse normalmente debido a sus emisiones de RF. Los ejemplos de dichas áreas incluyen aeropuertos, gasolineras y hospitales.
[0159] El canal de datos acústico para transmitir mensajes puede formarse por cualquier fuente de audio encontrada comúnmente. Por ejemplo, puede usarse la pista de audio de un programa de televisión/radio o la salida de un sistema de dirección publica. En una aplicación particular, el sistema de dirección pública en una tienda se usa para transmitir datos de mensaje acerca de por ejemplo, ofertas especiales disponibles en la tienda.
[0160] Es útil la capacidad de codificar datos que es específica a un área geográfica en particular. Por ejemplo, un programa de televisión puede transmitirse por varias compañías de televisión diferentes, cubriendo diferentes áreas geográficas. Los datos codificados en el programa de televisión pueden por lo tanto variarse de área a área. De esta manera, si los datos se asocian con direcciones de contacto, entonces los datos codificados en el programa de televisión para cada estación de televisión pueden asociarse sólo con las direcciones de contacto en el área geográfica cubierta por la estación de televisión. Esto es ventajoso debido a que reduce la cantidad de datos enviada al usuario eliminando automáticamente los datos que son probablemente irrelevantes.
[0161] Los datos codificados en la pista de audio también pueden usarse para controlar el funcionamiento del teléfono celular. Por ejemplo, en localizaciones tales como cines, aviones y gasolineras en las que el teléfono celular no debe usarse, puede transmitirse una señal de datos al teléfono celular que apaga el teléfono celular o lo pone en modo silencio, según sea apropiado.
[0162] En una aplicación, los datos codificados en la pista de audio son para un tono de timbre para el teléfono celular, que responde almacenando los datos del tono de timbre en una NVRAM (u otro tipo de memoria no volátil) en el teléfono celular. El generador de tonos de timbre del teléfono celular puede entonces generar un tono de timbre que corresponde a los datos del tono de timbre almacenados. En una realización, una canción grabada tiene datos codificados en la misma para que un tono de timbre suene igual que un segmento de la canción, y el teléfono celular decodifica el tono de timbre de forma que el tono de timbre del teléfono celular pueda ajustarse al sonido al igual que la canción.
[0163] En otra aplicación, los datos para un icono se codifican en la pista de audio para decodificarse por el teléfono celular. Entonces, el icono puede mostrarse por el teléfono celular o incluirse en mensajes de datos a otros teléfonos celulares.
[0164] El canal de datos acústico puede usarse para transmitir archivos de aplicaciones pequeñas para el teléfono celular. Por ejemplo, para archivos de aplicación pequeños de "teléfonos Java" comúnmente denominados APPlets (a veces denominados MIDlets) pueden recibirse por el teléfono celular a través del canal de datos acústico. El canal de datos acústico puede usarse para ejecutar un archivo de aplicación que ya se ha estado descargando en el teléfono celular. Por ejemplo, un teléfono Java puede tener almacenado un APPlet para mostrar una secuencia de animación y el APPlet puede ejecutarse y la secuencia de animación por consiguiente se muestra en respuesta a una señal de accionamiento recibida a través del canal de datos acústico.
[0165] Los archivos de aplicaciones también pueden descargarse en el teléfono celular correspondiente a caracteres informáticos cuyo comportamiento varía en respuesta a las acciones del usuario. En particular, un algoritmo de "comportamiento" en el archivo de aplicación determina las acciones de carácter informático en la base de entradas por el usuario del teléfono celular. Por lo tanto, el usuario puede educar el comportamiento del carácter informático. Se conocen dichos caracteres informáticos, por ejemplo, Tamagochi. Después, el canal de datos acústico puede usarse para transmitir datos de control que modifican el algoritmo de comportamiento de un carácter informático de tal forma que el comportamiento del carácter informático reaccione a eventos que ocurren alrededor del usuario del teléfono celular. Por ejemplo, una película de miedo podría tener datos de control codificados en su pista de sonido que hacen que el carácter informático se comporte de una manera indicativa de que está agitado o asustado. De esta manera, el carácter informático es capaz de reaccionar a acontecimientos externos.
[0166] En todas las aplicaciones y realizaciones anteriores, se proporciona un canal de datos acústicos individual para un teléfono celular. Sin embargo, puede proporcionarse más de un canal de datos acústico. Por ejemplo, si se usa codificación de espectro ensanchado entonces pueden localizarse diferentes códigos de pseudoruido para cada canal de datos acústico (es decir, una disposición de acceso múltiple por división de código (CDMA)).
[0167] Los archivos de aplicación que contienen código de pseudo-ruido para establecer un canal de datos acústico e instrucciones de configuración que responden a los datos recibidos a través de ese canal de datos acústico pueden también descargarse al teléfono celular. Por ejemplo, el canal de datos acústico que corresponde a un archivo de aplicación puede asociarse con una compañía especial que envía identificadores de página web propietarios a través del canal de datos acústico, y el teléfono móvil responde enviando los identificadores de página web propietarios a un servidor operado por la compañía. El teléfono celular puede tener más de una de estas aplicaciones almacenadas en el mismo, siendo el usuario capaz de seleccionar uno de los archivos de aplicación y por lo tanto los códigos de pseudo-ruido usados para decodificar una señal acústica detectada, usando un menú.
[0168] En una realización, se proporciona un canal de control acústico que usa códigos de pseudo-ruido que se programan en los teléfonos celulares durante la fabricación. Posteriormente, un archivo de aplicación que contiene códigos de pseudo-ruido para establecer un canal de datos acústico adicional e instrucciones de configuración para responder a los datos recibidos a través del canal de datos adicional, se transmiten por el canal de control acústico. En una realización alternativa, el fichero de aplicación se descarga a través de la red de comunicaciones celulares.
[0169] Un problema al transmitir datos acústicamente es que la velocidad de transmisión de datos generalmente es lenta y especialmente si se desea minimizar la molestia de la señal de datos acústica a un oyente. Para cualquier aplicación que requiera la descarga de una cantidad de datos significativa, por ejemplo un fichero APPlet, este problema puede ser al menos parcialmente resuelto transmitiendo una dirección de página web que requiere significativamente menos datos, para una página web a partir de la cual los datos pueden descargarse, usando por ejemplo el Protocolo de Aplicaciones Inalámbricas, a través de la red de comunicaciones celular. Como alternativa los datos pueden descargarse usando un correo electrónico. Adicionalmente, no es esencial que los datos se descarguen de una página web ya que pueden ser descargados de cualquier fuente de información accesible a través de la red de comunicaciones celulares.
[0170] Ya que la banda ancha requerida para transmitir una señal eléctrica que transmite una pista de audio original modificada que tiene una señal codificada de datos en la mismo, no es más que la requerida para transmitir una señal eléctrica que transmite la pista de audio original, durante una llamada un teléfono celular puede codificar una señal de datos con las señales de RF salientes que transmiten datos de voz para recibirse por otro teléfono celular que recupera la señal de datos de los datos de voz recibidos. La señal de datos puede por ejemplo, corresponder a una tarjeta de presentación.
[0171] En todas las aplicaciones y realizaciones que se han descrito anteriormente, el teléfono celular u otro aparato de telefonía comprende un codificador para codificar una señal de datos en una pista de audio, o un decodificador para decodificar una señal de datos en una señal eléctrica que corresponde a una señal acústica detectada o tanto un codificador como un decodificador. Sin embargo, esto no es esencial ya que puede usarse un aparato de telefonía convencional que recibe desde un dispositivo remoto que tiene un codificador, a través de una red de telecomunicaciones, una pista de audio que ya ha tiene una señal de datos codificada en ésta para su salida por el aparato de telefonía en forma de una señal acústica, o puede transmitirse, a través de una red de telecomunicaciones, una señal eléctrica que corresponde a una señal acústica detectada a un dispositivo remoto que tiene un decodificador.
[0172] El sexto, séptimo y octavo ejemplos describen sistemas en los que un teléfono celular codifica una señal de datos en una señal acústica emitida por el teléfono celular para su detección por un dispositivo electrónico. En el sexto y séptimo ejemplos, la señal de datos se codifica en una secuencia de audio preestablecida cuyo único fin es alertar al usuario de que está teniendo lugar una transferencia de datos. Esta secuencia de audio preestablecida no es por lo tanto esencial y la señal de datos expandida puede transmitirse directamente.
[0173] En el sexto ejemplo, los datos del usuario se transmiten entre dos teléfonos celulares usando el canal de datos acústico. Como alternativa, el canal de datos acústico puede usarse para permitir a dos teléfonos celulares interactuar entre sí. En una realización, se proporciona un juego que permite a dos jugadores jugar uno contra otro usando sus respectivos teléfonos celulares con datos que se transmiten entre los teléfonos celulares usando el canal de datos acústico. Por ejemplo, el juego interactivo puede ser un juego de ajedrez que tiene la ventaja de que solo necesita transmitir una pequeña cantidad de datos entre los dos teléfonos celulares.
[0174] En el séptimo y octavo ejemplos, las señales de control se usan para activar rutinas correspondientes en el dispositivo electrónico. Sin embargo, los expertos en la técnica apreciarán que las señales de control pueden transmitir las rutinas que se implementan por el dispositivo electrónico. Por ejemplo, la señal de control puede transmitir información que permite a un sintetizador de voz localizado en el dispositivo electrónico producir el sonido deseado, por ejemplo, una palabra o frase.
[0175] En el séptimo y octavo ejemplos, las señales de control emitidas por el teléfono celular se usan para controlar un juguete. Los expertos en la técnica apreciarán que las señales de control pueden controlar distintos dispositivos de juguetes. Por ejemplo, el teléfono celular puede usarse como un dispositivo de control remoto a fin de que las instrucciones entrantes en el teléfono celular, señales de control acústicas, se emitan para controlar una televisión, un sistema de entretenimiento del hogar, una unidad de aire acondicionado u otro electrodoméstico del hogar.
[0176] El teléfono celular también puede usarse para almacenar créditos, en cuyo caso una porción de la RAM o NVRAM se dedica a almacenar un valor indicativo del número de créditos mantenido por el usuario del teléfono celular. Estos créditos pueden descargarse al teléfono celular a través de una red de telecomunicaciones celular convencional o a través del canal de datos acústico. Después, el teléfono celular puede transmitir a través del canal de datos acústico, señales de control a maquinas de venta para adquirir bienes. Los créditos almacenados en el teléfono celular pueden acumularse en una base de lealtad. Por ejemplo, cada vez que un usuario de teléfono celular va a una cadena de cines en particular, un dispositivo en el cine envía a través del canal acústico de datos un crédito al teléfono celular que, en respuesta, aumenta el número de créditos almacenado por éste. Cuando el número de créditos almacenado en el teléfono celular alcanza un predeterminado número, el teléfono celular puede emitir una señal de control a través del canal de datos acústico que reduce el precio de la entrada de cine.
[0177] El teléfono celular puede usarse para almacenar una tarjeta de abordo electrónica para un vuelo. Como alternativa, el teléfono celular puede recibir tickets electrónicos a través del canal de datos acústico, para otros sistemas de transporte públicos tales como tren o barco. El teléfono celular puede emitir una señal a través del canal de datos acústico que controle las barreras de ticket provistas en un sistema de transporte público cuando en el teléfono celular se almacena un ticket electrónico.
[0178] El teléfono celular también puede interactuar a través del canal de datos acústico con un dispositivo de red conectado a una red distinta de la red de comunicaciones celular, por ejemplo, una red bluetooth. De esta manera, el teléfono celular puede comunicar con u dispositivo remoto a través de redes distintas de la red de comunicaciones celulares.
[0179] En algunos de los ejemplos anteriores, se usan mensajes SMS para transmitir datos a o desde el teléfono celular. Pueden usarse otras alternativas, tales como técnica de transmisión de datos de RF, por ejemplo, mensajería EMS y mensajería MMS.
[0180] Los expertos en la técnica apreciarán que las nuevas técnicas de codificación y decodificación descritas en la primera y segunda realizaciones también pueden usarse en aplicaciones que no implican un teléfono. Por ejemplo, las técnicas de codificación y decodificación pueden usarse en un sistema de juguete, tal como se describe en la publicación de patente internacional WO 01/10065, contenido de la cual se incorpora en este documento por referencia. La fig. 37 muestra los componentes principales de un sistema de juguete de este tipo. En la fig. 37, el sistema de transmisión de televisión es idéntico al del primer ejemplo y tiene por lo tanto las mismas referencias numéricas que en el primer ejemplo. Además, el juguete electrónico es idéntico al del séptimo y octavo ejemplos y tiene por lo tanto las mismas referencias numéricas que en el séptimo y el octavo ejemplos.
[0181] En este sistema de juguete, la señal de datos F(t) es una señal de control para el juguete electrónico 425 y, al detectar la señal acústica que transmite la señal de control, el juguete electrónico 425 altera su expresión y transmite un sonido asociado.
[0182] En otra realización, el juguete electrónico 425 incluye adicionalmente una interfaz de usuario, por ejemplo, un teclado, a través del cual un usuario puede introducir información al juguete electrónico. Esto permite al usuario interactuar con el programa de televisión o similar a través del juguete electrónico. Por ejemplo, el programa de televisión puede ser un concurso y cuando se transmite una pregunta, la respuesta puede codificarse digitalmente en la pista de audio que corresponde a la pregunta de tal forma que pueda decodificarse por el decodificador en el juguete electrónico. Después el usuario el usuario introduce una respuesta a la pregunta en el juguete electrónico a través de la interfaz de usuario, y el juguete electrónico compara la respuesta del usuario con la respuesta recuperada de la pista de audio. Después, el juguete electrónico responde dependiendo de si la respuesta del usuario es correcta o no, por ejemplo, sonriendo si la respuesta es correcta y frunciendo el ceño si la respuesta es incorrecta.
[0183] Preferiblemente, el juguete electrónico puede enviar la respuesta del usuario a una pregunta al creador del programa de concurso a través de una red de telecomunicaciones. Por ejemplo, si el programa de televisión es transmitido en una red digital, la respuesta del usuario puede enviarse directamente por la misma red que usa la transmisión del programa de televisión. Si el juguete electrónico incluye un temporizador para cronometrar el tiempo para saber el tiempo que el usuario tarda en producir la respuesta, entonces detalla si este tiempo puede enviarse al que hace el programa de preguntas que puede recompensar con un premio a la persona que responda la pregunta correcta más rápidamente. Se prefiere que para este tipo se interacción de tres vías, es decir, (entre un programa de televisión, un juguete electrónico y un usuario) el juguete electrónico pueda remplazarse por cualquier objeto que tenga la circuitería adecuada para decodificar los datos enviados usando el canal de datos acústico y para procesar los datos recibidos a través del canal de datos acústico y la interfaz de usuario.
[0184] Aunque se usen decodificadores hardware en las presentes realizaciones, los expertos en la materia apreciarán que la función de estos codificadores también puede realizarse mediante un aparato informático que funcione con el software apropiado. De forma similar, la función del software decodificador de la primera y segunda realizaciones puede implementarse en un decodificador hardware y la función del decodificador hardware del quinto y octavo ejemplos puede implementarse por un software decodificador.
[0185] Por lo tanto, la invención también se extiende a programas informáticos, particularmente programas informáticos en o un portador adaptado para poner la invención en práctica. El programa puede estar en forma de código fuente, código objeto o una fuente de código intermedio y código objeto, tal como de forma parcialmente compilada o cualquier otra forma adecuada para su uso en la implementación de los procesos de acuerdo con la invención.
[0186] El portador puede ser cualquier entidad o dispositivo capaz de ejecutar el programa por ejemplo, el portador puede comprender un medio de almacenamiento, tal como una ROM, por ejemplo, un CD-ROM o un semiconductor ROM, o un medio de grabación magnética, por ejemplo, un disquete o un disco duro. Además, el portador puede ser un portador transmisible, tal como una señal eléctrica u óptica que puede transmitirse a través de un cable eléctrico u óptico o por radio u otros medios.
[0187] Cuando el programa se realiza en una señal que puede transmitirse directamente por un cable u otro dispositivo o medio, el portador puede constituirse por dicho cable u otro dispositivo o medio. Como alternativa, el portador puede ser un circuito integrado en el que el programa se incrusta, adaptándose el circuito integrado para realizar, para su uso en la realización de los procesos relevantes.
[0188] Los expertos en la técnica apreciarán que la invención puede aplicarse a teléfonos celulares que no se adapten a la especificación GSM. Adicionalmente, los datos de una página web pueden recuperarse usando protocolos distintos de los protocolos de aplicaciones inalámbricas.
[0189] La primera y segunda realizaciones y el primer y quinto ejemplos describen siete codificadores diferentes. Los expertos en la técnica apreciarán que cualquiera de estos siete codificadores puede usarse en las realizaciones y aplicaciones que se han descrito anteriormente.
[0190] En una realización, el generador de señal de datos y el codificador están en unidades separadas físicamente, y la señal de datos se introduce a un puerto de entrada de la unidad codificadora.
[0191] En una realización alternativa, el codificador y el decodificador pueden alojarse en la misma unidad (es decir, comparten una carcasa en común).
[0192] Los expertos en la técnica apreciarán que las transformadas de ondula usadas en el segundo ejemplo pueden remplazar las transformadas de Fourier usadas en los otros ejemplos y realizaciones.
[0193] En el tercer ejemplo, la frecuencia portadora usada en el modulador varía para que la frecuencia centro de la señal de datos ensanchada se posicione en una porción de energía relativamente alta de la pista de audio. En particular, la energía en 2048 sub-bandas de frecuencia se monitoriza y la frecuencia del modulador varía por consiguiente. En un ejemplo alternativo, el número de sub-bandas de frecuencia puede reducirse, por ejemplo, a ocho, para reducir la cantidad de procesamiento requerida.
[0194] En el decodificador para el tercer ejemplo, la pista de audio recibida se analiza para determinar la frecuencia portadora usada en el modulador del codificador. Sin embargo, si el codificador usa un pequeño número de sub-bandas de frecuencia, y por lo tanto sólo son posibles un pequeño número de frecuencias portadoras, entonces en un ejemplo alternativo el desmodulador en el decodificador pasa la pista de audio recibida a través de un número de canales separados usando ocho canales una respectiva de las frecuencias portadoras posibles, y posteriormente determina que canal proporciona la señal más fuente con el fin de para recuperar la señal de datos. Esto tiene la ventaja sobre la determinación de la frecuencia transportadora de la pista de audio recibida de que si la pista de audio se altera por el canal de comunicación entre el codificador y el decodificador, entonces la señal de datos todavía podría recuperarse correctamente.
[0195] En la primera realización, se usa un algoritmo de codificación predictivo lineal (LPC) para separar la pista de audio en una parte tonal, cuyos valores se determinan entre sí y una parte de ruido, cuyos valores son aparentemente aleatorios. Como alternativa, pueden usarse otros algoritmos auto-regresivos para aislar una parte aleatoria de la pista de audio que puede remplazarse parcialmente al menos por una señal de espectro ensanchado conformada. Adicionalmente, el espectro de frecuencia de la pista de audio puede analizarse para identificar componentes tonales que se eliminan posteriormente para separar la parte tonal y la parte de ruido.
[0196] En la segunda realización, la tonalidad de la pista de audio se determina analizando el espectro de frecuencia de la pista de audio. Como alternativa, la tonalidad puede determinarse usando un modelo de serie temporal, por ejemplo, un modelo LPC, que tiene un número fijo de coeficientes y que determina la potencia en la señal modelada que corresponde a los coeficientes.
[0197] En la segunda realización, el número de coeficientes LP, el nivel de la codificación psicoacústica y el factor de ganancia G usados en el combinador variable se seleccionan por un usuario. Como alternativa, una o dos
o las tres de estas variables pueden ajustarse automáticamente por el codificador. Por ejemplo, el número de coeficientes LP usado puede determinarse a partir de la tonalidad de la pista de audio.
[0198] En la segunda realización, la parte de ruido N(t) y la señal conformada S(t) se introducen en un combinador variable, y la salida del combinador variable se añade a la parte tonal P(t) para formar la pista de audio modificada. Como alternativa, la pista de audio original puede introducirse al combinador variable en lugar de la parte de ruido N(t), como en la primera realización, para que la salida del combinador variable forme la pista de audio modificada y el análisis LPC sólo se use para conformar la señal modulada G(t). En otras palabras, la señal modulada G(t) se conforma para aproximar la parte de ruido N(t) de una pista de audio para formar una señal conformada S(t), y después la señal conformada S(t) se añade directamente a la pista de audio en un combinador variable. En una realización, el factor de ganancia G para el combinador variable se ajusta automáticamente para que la relación señal a ruido de la señal de datos en la pista de audio modificada esté dentro de un intervalo predeterminado, por ejemplo entre -10 y -15 dB. La relación señal a ruido puede calcularse introduciendo la señal de datos conformada S(t) en un primer monitor de potencia, introduciendo la pista de audio en un segundo monitor y potencia y después dividiendo la potencia en la señal de datos conformada por el nivel de potencia total obtenido añadiendo la potencia en la pista de audio y la potencia en la señal de datos conformada. Como alternativa, la relación señal a ruido puede calcularse dividiendo la potencia en la señal de datos conformada por la potencia en la pista de audio.
[0199] Los expertos en la técnica apreciarán que para algunas aplicaciones, no se requieren las técnicas de recorte descritas para conformar la señal de datos con el fin de reducir la molestia de la señal de datos en la pista de audio modificada debido a que no es esencial para que la pista de audio se reproduzca a una alta calidad.
[0200] Además, el codificador de la segunda realización puede modificarse para retirar el combinador variable en cuyo caso la señal conformada que usa el algoritmo psicoacústico se añade directamente a la parte tonal de la pista de audio.
[0201] Para codificadores automáticos que no requieren una entrada de usuario, el codificador puede realizarse en tiempo real y por lo tanto es adecuado para, por ejemplo, adición en tiempo real a transmisiones de televisión o anuncios de direcciones públicas.
[0202] En el quinto ejemplo, el codificador separa una única señal de datos en una o más corrientes de datos que dependen de la capacidad de la pista de audio para ocultar las señales de datos. En particular, en el quinto ejemplo, las corrientes de datos adicionales se envían en paralelo con la tasa de bits de cada corriente de datos siendo la misma independientemente del número de corrientes de datos.
[0203] Como alternativa, la velocidad de transferencia de datos puede variar aumentando la tasa de bits para una sola corriente de datos mientras que se mantiene la misma velocidad de chips a fin de que se usen chips inferiores por bit. En una realización, para una mayor transmisión de la velocidad de transferencia de datos, la tasa de bits se dobla y sólo se usa la primera mitad de las secuencias de código de pseudo-ruido PN0 y PN1 del quinto ejemplo para ensanchar los bits de datos. Esto tiene la ventaja de que puede proporcionarse un decodificador de alta velocidad de transferencia de datos que, aunque solo es capaz de decodificar datos transmitidos a una alta velocidad de datos, solo necesitan almacenar la primera mitad de cada uno de los códigos de pseudo-ruido PN0 y PN1.
[0204] En otra realización, para una transmisión de velocidad de transferencia de datos mayor, la tasa de bits se dobla y para cada secuencia de dos bits una se representa por la primera mitad de una de las secuencias de códigos de pseudo-ruido PN0 y PN1 y la otra se representa por la segunda mitad de una de las secuencias de código de pseudo-ruido PN0 y PN1. Esto tiene la ventaja de que los códigos de pseudo-ruido se repiten secuencialmente durante su longitud máxima en lugar de tener que reiniciarse cada nuevo bit.
[0205] En aplicaciones en las que un dispositivo electrónico responde a la señal de datos codificada en la pista de audio modificada, si la respuesta del dispositivo electrónico se requiere que esté sincronizada con la pista de audio, entonces las técnicas de velocidad de transferencia de datos variable que se han descrito anteriormente pueden interrumpir esta sincronización. Para permitir que el decodificador recupere la sincronización de la señal de datos y la pista de audio, el codificador puede codificar datos de tiempo en la señal de datos indicativa de la sincronización requerida. A continuación, se describe un ejemplo de un codificador de este tipo con referencia a la fig. 38, que ilustra una unidad de determinación de velocidad de transferencia de datos alternativa 571 para remplazar la unidad de determinación de velocidad de transferencia de datos 235 en el quinto ejemplo. En la fig. 38, se hace referencia a componentes que son idénticos a los componentes correspondientes en el quinto ejemplo con los mismo números.
[0206] Como se muestra en la fig. 38, en la unidad de determinación de velocidad de transferencia de datos 571 la pista de audio se introduce a un analizador de espectro 573 que monitoriza la potencia de la pista de audio en el rango de frecuencias de 1 a 5 kHz. En particular, se determina el nivel de potencia medio en la banda de frecuencia monitorizada durante un periodo de tiempo de cinco segundos. El analizador de espectro 573 envía una señal que varía de acuerdo con el nivel de potencia medio determinado con respecto un codificador de sincronización 575 y el generador de salida 265. La corriente de datos modificada M'(t) se introduce en el codificador de sincronización 575 a través de la memoria FIFO 261.
[0207] Si el nivel de potencia medio emitido por el analizador de espectro 573 es alto, entonces la unidad de determinación de velocidad de transferencia de datos 571 usara la oportunidad de enviar tantos datos como sea posible y, por lo tanto, el tiempo de sincronización entre la señal de datos y la pista de audio se perderá. Sin embargo, el codificador de sincronización 575 determina, usando el nivel de potencia medio emitido por el analizador de espectro 573, la cantidad de esta pérdida de sincronización y codifica los datos de sincronización en la señal de datos modificada M'(t), lo que permite a un decodificador recuperar la sincronización de tiempo entre la señal de datos y la pista de audio. Después, el generador de salida emite una, dos o tres corrientes de datos como se ha descrito en el quinto ejemplo.
[0208] A continuación, se explicará el funcionamiento de la unidad de determinación de velocidad de transferencia de datos 571 con referencia a las figs. 39A a 39C. La fig. 39A muestra una pista de audio que tiene un primer pico grande 579a seguido de un segundo pico pequeño 577b y después un tercer pico grande 577c. La fig. 39B muestra una señal de datos que se sincroniza con la pista de audio ilustrada en la fig. 39A y tiene una serie de tres picos 578a a 578b. El primer y tercer pico de señal de datos 578a, 578c coinciden con el primer y tercer pico de la pista de audio grande 577a, 577c que se enmascaran de forma eficaz por el primer y tercer pico de señal de datos 578a, 578c. Sin embargo, el segundo pico de señal de datos 578b coincide con el segundo pico de la pista de audio pequeña 577b que no puede enmascarar de forma eficaz el segundo pico de la señal de datos 578b. Por lo tanto, como se ilustra en la fig. 39C que muestra la señal de datos enviada por la unidad de determinación de velocidad de transferencia de datos 571, los datos para el segundo pico de señal de datos 578b se envían al mismo tiempo que los datos para el primer pico de señal de datos 578a, en un primer pico 579a, junto con los datos de sincronización para permitir a un decodificador recuperar la sincronización de tiempo entre la señal de datos y la pista de audio. Cuando se combinan con la pista de audio, el primer pico 579a se enmascara con el primer pico de señal 577a.
[0209] En una realización alternativa, la sincronización entre la señal de datos y la pista de audio se mantiene usando datos de sincronización que se han descrito anteriormente, pero la señal acústica solo transmite una corriente de datos individual cuya frecuencia de chips es constante pero cuyo volumen varía dependiendo de la pista de audio.
[0210] La decodificación es más sencilla si la frecuencia de chips se mantiene constante para las diferentes velocidades de transferencia de datos, ya que es más fácil de mantener la sincronización entre la secuencia de chips recibida y los códigos de pseudo-ruido generados en el decodificador. Sin embargo, la frecuencia del chip puede variar para variar la banda ancha de la señal ensanchada a fin de que se enmascare mejor por la pista de audio.
[0211] En la realización, el codificador varía la frecuencia del chip de acuerdo con la tonalidad de la pista de audio. Si la pista de audio es muy tonal, entonces el codificador usa una frecuencia de chips baja y varía la frecuencia portadora usada durante la modulación, como se ha descrito en el tercer ejemplo, a fin de que la señal de datos ensanchada se enmascare en la región tonal de la pista de audio, mientras que si la pista de audio tiene un espectro de frecuencia más ancho entonces el codificador usa una frecuencia de chip más alta. En esta realización, el codificador determina la frecuencia de chip y la frecuencia portadora usada analizando la pista de audio. Como alternativa, en el decodificador la pista de audio recibida puede pasarse a través de varios canales con uno diferente respectivo de las frecuencias de chip posibles siendo usadas en cada canal, determinando entonces con el decodificador que canal proporciona una señal más grande.
[0212] En el codificador del octavo ejemplo, el juguete electrónico 425 emite un sonido y altera su expresión facial de acuerdo con una señal de datos codificada en la pista de audio de una señal de televisión predominantemente en el intervalo de frecuencia de 0 a 4 kHz. Este intervalo de frecuencias se elige por que casi todos los altavoces trabajan bien en este intervalo de frecuencia. Sin embargo, muchos altavoces trabajan bien a frecuencias mucho mayores.
[0213] A continuación, se describirá un codificador alternativo 581 con referencia a la fig. 40, en el que sólo los datos para controlar la calidad de sonido emitido por el juguete electrónico 425 se centran en el intervalo de frecuencias de 0 a 4 kHz, y los datos para controlar la expresión facial del juguete electrónico 425 se centran en el intervalo de frecuencia de 4 a 8 kHz. Esto es ventajoso si, por ejemplo, la pista de audio es particularmente silenciosa y, por lo tanto, no puede ocultar los datos para tanto el control de la expresión facial como el sonido salida en la banda de frecuencias de 0 a 4 kHz. En la fig. 4, se hace referencia a componentes que son idénticos a los correspondientes componentes en la figura 2 con los mismos números.
[0214] Como se muestra en la fig. 40, se introducen una primera señal de datos F1(t) para controlar el sonido enviado por el juguete electrónico 425 y una segunda señal de datos F2(t) para controlar la expresión facial del juguete electrónico 425 en los canales respectivos del codificador. La primera señal de datos F1(t) se modifica por una primera unidad FEC 51a, ensanchada usando los primeros y segundos códigos de pseudo-ruidos PN0, PN1, y después modulando usando una frecuencia portadora de 2 kHz por un primer modulador 57 para formular una primera señal modulada G1(t). De forma similar, la segunda señal de datos F2(t) se modifica mediante una segunda unidad FEC 51b, ensanchada usando el tercer y cuarto código de pseudo-ruido PN2, PN3,y después se modula usando una frecuencia portadora de 6 kHz mediante un segundo modulador 583 para formar una segunda señal modulada G2(t). Después, la primera y segunda señales moduladas se añaden por un circuito aditivo 535 antes de introducirse a la unidad de recorte 61.
[0215] Cuando la pista de audio modificada enviada por el codificador 581 ilustrada en la fig. 40 se convierte en una señal acústica por un altavoz, si el altavoz funciona de forma satisfactoria hasta 7 kHz, entonces el juguete electrónico emitirá un sonido y alterará su expresión facial. Sin embargo, si se usa un altavoz de calidad inferior, entonces el juguete electrónico sólo emitirá un sonido porque será capaz de codificar la señal de datos para alterar la expresión facial.
[0216] Los expertos en la técnica apreciarán que el codificador 581 mostrado en la fig. 40 es particularmente útil en aplicaciones en las que la primera señal de datos F1(t) es una señal de datos principal, que transmite información más importante, la segunda señal de datos F2(t) es una señal de datos auxiliar que transmite información opcional. De esta manera la señal de datos principal es decodificada de manera fiable incluso si la señal de datos auxiliar no lo es. Adicionalmente, este concepto puede extenderse a tres o más canales de información. Por ejemplo, la información puede transmitirse en tres bandas de frecuencia separadas entradas en 2 kHz, 5,5 kHz y 9 kHz respectivamente. Si se usan canales de información plurales, entonces el decodificador puede incluir un conmutador que determina cuál de los canales de información se decodifica.
[0217] En una realización alternativa, N señales de datos se introducen en un codificador. El codificador analiza la pista de audio para determinar su capacidad para ocultar los datos, y en base a este análisis codifica M señales de datos (donde M es mayor o igual a N) de las N señales de datos en la pista la audio, variando el número M según varíe la capacidad de la pista de audio para ocultar datos.
[0218] Los expertos en la técnica también apreciarán que las técnicas de decodificación alternativa descritas en el documento WO 01/10065 pueden usarse en la primera y segunda realizaciones.
[0219] En las realizaciones descritas, la señal de datos F(t) se añade continuamente a la pista de audio. Como alternativa, el codificador puede identificar las porciones de la pista de audio que se adecuan mejor para ocultar las señales de datos y entonces sólo codifica datos en aquellas porciones identificadas. En una realización, la pista de audio se introduce en un analizador de espectro que determina la tonalidad de la pista de audio (por ejemplo, el analizador de espectro 201 del cuarto ejemplo) y sólo añade la señal de datos en las porciones de la pista de audio para la que la tonalidad está por debajo del nivel predeterminado. En otra realización, el codificador determina qué porciones son más adecuadas para ocultar la señal de datos en base a la potencia de la pista de audio, mientras que en otras realizaciones adicionales, el codificador determina las porciones en base a una combinación de la potencia y tonalidad.
[0220] Como se ha descrito anteriormente, en algunas aplicaciones se codifican datos de control para sincronizar una operación de un teléfono celular con una señal de audio de transmisión, por ejemplo para un programa de televisión o un programa de radio, en la señal de audio y la onda acústica que corresponde a la señal de audio que se detecta por un teléfono celular que decodifica los datos de control y responde con la sincronización requerida. Un problema con dichos sistemas sincronizados es que a veces, la pista de audio en el momento de la respuesta por el teléfono celular que se requiere que se queda en silencio para ocultar los datos de control de forma eficaz. Este problema puede solucionarse enviando los datos de control por adelantado durante una porción más alta de la pista de audio junto con datos de sincronización que indican el momento cuándo el teléfono celular debe responder de acuerdo con los datos de control. Entonces la porción más silenciosa de la pista de audio en la que tiene lugar la respuesta, no necesitan ser transmitidos los datos.
[0221] Los datos de sincronización no necesitan ser transmitidos de forma simultánea con los datos de control pero pueden ser transmitidos por separado. Por ejemplo, al principio de una señal de datos que transmite una secuencia de control de datos, los datos de sincronización pueden transmitirse indicando que la respuesta a cada elemento de datos de control se va a retrasar durante un periodo preestablecido de tiempo. Aun que el retardo no se optimiza para cada elemento de datos de control, el envío de datos de sincronización de esta manera reduce la cantidad total de datos que han de enviarse.
[0222] En las realizaciones descritas, la señal de datos se ensancha a frecuencias audibles usando codificación DSSS. Como los expertos en la técnica apreciarán, las señales codificadas usando codificación DSSS pueden decodificarse de dos maneras principales. En una manera, la señal codificada se multiplica de forma sincrónica mediante el mismo código de pseudo-ruido que se usó para codificar la señal, una técnica comúnmente denominada como detección coherente. De otra manera, un correlador, tal como, un filtro adaptado se usa para correlacionar la señal codificada con el código de pseudo-ruido que se usó para codificar la señal, una técnica comúnmente denominada como detección incoherente.
[0223] En las realizaciones descritas, un bit de datos cuyo valor es "0" se representa por un código de pseudo-ruido PN0 y un bit de datos cuyo valor es "1" se representa por un código de pseudo-ruido PN1. Los expertos en la técnica apreciarán que si se usa la decodificación coherente, entonces el código se pseudo-ruido PN0 puede ser el inverso del código de pseudo-ruido PN1.
[0224] En la realización, se proporcionan una pluralidad de códigos de pseudo-ruido para representar un bit de datos cuyo valor es "0" y se proporcionan una segunda pluralidad de códigos de pseudo-ruido para representar un bit de datos cuyo valor es "1". La elección de qué código de pseudo-ruido se usa para codificar un bit de datos puede basarse en que código de pseudo-ruido produce una señal de datos que es la menos perceptible cuando se añade a una pista de audio. Posteriormente, el decodificador puede analizar la pista de audio para determinar que código de pseudo-ruido se ha usado o decodificar la pista de audio recibida usando todos los códigos de pseudoruido posibles. La decodificación usando todos los códigos de pseudo-ruido posibles tiene la ventaja de que la decodificación es más robusta si la pista de audio se altera por el canal de comunicación entre el codificador y el decodificador. Sin embargo, si hay un gran número de códigos de pseudo-ruido entonces el análisis de la pista de audio para determinar que código de pseudo-ruido se usó requiere una potencia de procesamiento menor.
[0225] Las realizaciones descritas utilizan un bit SYNC que se añade a la señal de datos para ayudar al decodificador a decodificar la señal de datos. Preferiblemente, el bit SYNC se añade a la pista de audio con un nivel de señal mayor que los demás bits de datos de la señal de datos para mejorar la capacidad del decodificador de decodificar las señales de datos. Adicionalmente, si el nivel de señal del bit SYNC aumenta, el decodificador es capaz de reducir el número de chips en la frecuencia de chip que corresponden al bit SYNC que está controlándose para conseguir la sincronización. Los expertos en la técnica apreciarán que el nivel de señal del bit SYNC puede aumentarse requiriendo que la relación señal a ruido de la señal de datos en la pista de audio modificada sea mayor para una porción de la señal de datos que corresponde a un bit SYNC que para el resto de la señal de datos.
[0226] En algunas de las realizaciones descritas, el nivel de señal de los datos en la pista de audio varía, por ejemplo, variando el número de corrientes de datos o amplificando los bits SYNC. En estas realizaciones, preferiblemente el nivel de señal varía de forma suave o gradualmente, por ejemplo siguiendo una función Gaussiana, ya que esto reduce la molestia de los datos en la pista de audio.
[0227] La energía de una señal de datos puede expandirse sobre un amplio intervalo de frecuencias usando técnicas distintas de la codificación DSSS. Por ejemplo, puede usarse una técnica de modulación por División de Frecuencia Ortogonal (OFDM), en la que, por ejemplo, 256 portadores ortogonales de banda estrecha portan datos idénticos. Estos 256 portadores de banda estrecha se distribuyen de forma uniforme en el intervalo de frecuencia de 1 a 5 kHz y, por lo tanto, se consigue la propagación de la energía de la señal de datos. La señal de datos original puede entonces reconstruirse desmodulando la recombinación de cada una de las señales de banda estrecha.
[0228] Se apreciará por un experto en la técnica que todavía pueden usarse técnicas adicionales para propagar la energía de la señal de datos. Por ejemplo, puede usarse salto de frecuencia en el que la frecuencia de la señal de datos modulada cambia de manera aleatoria.
[0229] Aunque se prefiere codificación de espectro ensanchado debido a que reduce la perceptibilidad del canal de datos acústico por un oyente, no es una característica esencial de la invención. El canal de datos acústico puede también formarse, por ejemplo, usando un intervalo de frecuencia estrecha delicado. Como alternativa, una señal de datos puede codificarse en una pista de audio modificando sistemáticamente la información de frecuencia o tiempo en la pista de audio. Por ejemplo, puede usarse un esquema de modulación de eco en el que la señal de eco se añade con un tiempo de retardo que varía de acuerdo con una señal de datos. Como alternativa, puede usarse una técnica de codificación de banda crítica en la que cada valor de datos se asocia con un conjunto respectivo de frecuencias de banda estrecha.
[0230] En otra realización, el canal de datos acústico usa un vínculo ultrasónico que tiene la ventaja de que no es audible para el usuario del teléfono celular.
[0231] En la primera y segunda realizaciones, se usa manipulación de desplazamiento de fase para modular la señal de datos ensanchada, los expertos en la técnica apreciarán que pueden usarse en su lugar otros esquemas de modulación, por ejemplo, manipulación de desplazamiento de frecuencia o modulación de amplitud de cuadratura.
[0232] Para facilitar la explicación, la señal de datos en las realizaciones descritas se ha codificado en una pista de audio de canal individual. Sin embargo, la señal de datos puede también codificarse en una pista de audio estéreo que tiene dos o más canales. La señal de datos puede añadirse de forma sincrónica a más de un canal de la pista de audio estéreo o con un tiempo de acoplamiento de, por ejemplo, 150 ms entre los canales. La introducción de un acoplamiento temporal tiene la ventaja de añadir un nivel de diversidad de tiempo, permitiendo de esta manera una regeneración más robusta de la señal de datos, ya que hay menos posibilidad de perder datos debido al ruido de fondo (es decir, ruido que no es la pista de audio modificada). Como alternativa, pueden generarse dos señales de banda ancha diferentes añadiéndose cada una a un canal respectivo de la pista de audio estéreo.
[0233] Como alternativa, para una pista de audio multicanal, la señal de datos no necesita codificarse en cada canal de la pista de audio. Por ejemplo, para un programa de televisión en el que un canal de la pista de audio lleva los datos de voz y el otro canal de la pista de audio lleva datos de música de fondo, la señal de audio puede añadirse sólo al canal que lleva los datos de música de fondo.
[0234] En algunas realizaciones, se usan algoritmos psicoacústico para reducir la molestia de la señal de datos en la pista de audio modificada. Sin embargo, un algoritmo psicoacústico no es esencial y puede remplazarse por un algoritmo más simple que requiera menos potencia de procesamiento.
[0235] Los expertos en la técnica apreciarán que pueden aplicarse técnicas de ecualización convencionales, por ejemplo, el uso de un receptor rastrillo, en el decodificador para mejorar la tasa de error de bits en presencia de componentes multi-ruta o deterioro de la respuesta de frecuencia. Adicionalmente, puede incluirse un circuito de control de ganancia automática en la entrada del decodificador.
[0236] Los valores precisos de las frecuencias de bits, frecuencias de chips, velocidades de muestreo y frecuencias de modulación descritos en las realizaciones detalladas no son características esenciales de la invención y pueden variarse sin apartarse de la invención. Adicionalmente, mientras que en las realizaciones descritas la señal de datos es una señal binaria, la señal de datos puede ser cualquier señal de banda estrecha, por ejemplo, una señal modulada en la que se ha usado manipulación de desplazamiento de frecuencia para representar un bit de datos "1" por una primera frecuencia y un bit de datos "0" como en la segunda frecuencia diferente. Adicionalmente, los expertos en la técnica apreciarán que la orden en la que el ensanchamiento, modulación y conformación se realizan en el codificador puede variarse. Aunque se han descrito técnicas de procesamiento de señal digital como la implementación preferida de la invención, pueden usarse en su lugar técnicas de procesamiento análogas.
[0237] Como los expertos en la técnica apreciarán, la velocidad de muestreo de 22,05 kHz coincide con la usada para un canal de un disco compacto y, por lo tanto, los codificadores y decodificadores descritos para estas realizaciones son adecuados para su uso en sistemas en los que se transmite una señal de datos por una pista de audio grabada en un disco compacto. Una velocidad de muestreo de 441 kHz también puede usarse para grabar la señal de datos en un disco compacto, y puede usarse una velocidad de muestreo de 48 kHz para grabar una señal de datos en un DVD.
[0238] Se apreciará que la expresión pista de audio se refiere a una señal eléctrica que está diseñada para reproducirse como una señal acústica correspondiente por un altavoz en el rango de frecuencias audible que típicamente se expande de 20 Hz a 20.000 Hz. La duración de la pista de audio puede ser corta, por ejemplo, el tono de time de un teléfono celular o el timbre de una puerta, o largo, por ejemplo, la banda sonora de una película.
[0239] El teléfono celular usado en la realización anterior puede remplazarse por un dispositivo de comunicación celular diferente, tal como un localizador. Adicionalmente, el teléfono celular puede remplazarse por un dispositivo de Internet móvil diferente, tal como un ordenador portátil, un navegador de Internet portátil o una asistente digital personal (PDA).

Claims (48)

  1. REIVINDICACIONES
    1.
    Un aparato para dar formar a una señal de datos para su incrustación en una señal de audio, comprendiendo el aparato:
    medios para recibir la señal de datos; medios para recibir la señal de audio; medios (179) para el procesamiento de la señal de audio con el fin de generar una señal residual representativa de una diferencia entre un componente tonal de la señal de audio recibida y la señal de audio recibida; y medios (183, 181, 187, 185, 189) para dar forma espectral la señal de datos dependiendo de la señal residual para formar una señal de datos conformada; en el que el medio de procesamiento comprende: medios (173) para la modelación de la señal de audio para generar una señal tonal representativa de un componente tonal de la señal de audio; y medios para diferenciar la señal tonal y la señal de audio para generar la señal residual; y en el que el medio de modelado comprende: medios para aplicar un modelo de serie temporal a la señal de audio con el fin de generar una pluralidad de coeficientes indicativos de la señal de audio; y medios (175) para sintetizar la señal tonal usando los coeficientes generados.
  2. 2.
    Un aparato de acuerdo con la reivindicación 1, en el que el medio de modelización de serie temporal es operable para realizar la codificación de predicción lineal con el fin de generar dichos coeficientes.
  3. 3.
    Un aparato de acuerdo con la reivindicación 1 ó 2, que comprende adicionalmente medios para modificar el modelo de serie temporal con el fin de variar el número de coeficientes generados por dichos medios de aplicación.
  4. 4.
    Un aparato de acuerdo con la reivindicación 3, en el que los medios de modificación comprenden una interfaz de usuario, en el que el medio de modificación es operable para variar el número de coeficientes generados de acuerdo con una señal de usuario recibida a través de la interfaz de usuario.
  5. 5.
    Un aparato de acuerdo con la reivindicación 3, en el que el medio de modificación comprende medios para determinar un nivel de tonalidad de la señal de audio, en el que el medio de modificación es operable para variar el número de coeficientes generados dependiendo del nivel determinado de tonalidad.
  6. 6.
    Un aparato según cualquier reivindicación anterior, en el que la señal de datos tiene un espectro de señal de datos, y el medio de conformación comprende: analizar medios para el análisis espectral de la señal residual para generar una pluralidad de coeficientes dependientes de la frecuencia; medios para generar una pluralidad de factores a escala usando la pluralidad de coeficientes dependientes de la frecuencia; y medios para ajustar el espectro de la señal de datos usando la pluralidad de factores a escala para generar la señal de datos conformada.
  7. 7.
    Un aparato de acuerdo con la reivindicación 6, en el que el medio de análisis es un primer medio de análisis y es operable para generar una primera pluralidad de coeficientes dependientes de la frecuencia, y el medio de ajuste comprende: un segundo medio de análisis para el análisis espectral del espectro de la señal de datos de la señal de datos para generar una segunda pluralidad de coeficientes dependientes de la frecuencia; medios para convertir a escala la segunda pluralidad de coeficientes dependientes de la frecuencia usando la pluralidad de factores a escala para generar una pluralidad de coeficientes a escala; y medio para sintetizar la señal de datos conformada usando la pluralidad de coeficientes a escala.
  8. 8.
    Un aparato de acuerdo con la reivindicación 7, en el que el primer y segundo medio de análisis son operables para realizar una transformada de Fourier.
  9. 9.
    Un aparato de acuerdo con la reivindicación 7, en el que el primer y segundo medio de análisis son operables para realizar una transformada de óndula.
  10. 10.
    Un aparato según cualquiera de las reivindicaciones 7 a 9, en el que el medio de generación de factores a escala es operable para realizar un análisis psicoacústico de la primera pluralidad de coeficientes dependientes de la frecuencia.
  11. 11.
    Un aparato de acuerdo con la reivindicación 10, en el que medio de generación de factores a escala comprende un filtro psicoacústico para realizar el análisis psicoacústico.
  12. 12.
    Un aparato de acuerdo con la reivindicación 11, en el que el filtro psicoacústico tiene banda ancha variable, y en el que dicho medio de generación de factores a escala comprende un medio para variar la banda ancha variable del filtro psicoacústico.
  13. 13.
    Un aparato de acuerdo con la reivindicación 12, en el que dicho medio de variación comprende una interfaz de usuario y un medio para ajustar la banda ancha del filtro psicoacústico de acuerdo con una entrada de usuario recibida a través de la interfaz de usuario.
  14. 14.
    Un aparato de acuerdo con la reivindicación 12, en el que el medio de variación comprende:
    medios para determinar un nivel de tonalidad de la señal residual; y medios para ajustar la banda ancha del filtro psicoacústico dependiendo del nivel determinado de tonalidad.
  15. 15.
    Un aparato según cualquiera de las reivindicaciones 1 a 9, en el que la señal de datos tiene un espectro de señal de datos, la señal residual tiene un espectro de señal residual, y el medio de formación se dispone para conformar el espectro de la señal de datos de forma que coincida con el espectro de señal residual.
  16. 16.
    Un aparato según cualquiera de las reivindicaciones 1 a 9, en el que el medio de formación se dispone para conformar la señal de datos a fin de que el perfil temporal de la señal de datos conformada coincida sustancialmente con el perfil temporal de la señal residual.
  17. 17.
    Un aparato según cualquier reivindicación anterior, que comprende adicionalmente medios de difusión para difundir la señal de datos con el fin de generar una señal de datos de difusión de espectro ensanchado, en el que el medio de formación es operable para conformar el espectro ensanchado dependiendo de la señal residual para formar la señal de datos conformada.
  18. 18.
    Un aparato de acuerdo con la reivindicación 17, en el que el medio de difusión comprende un primer generador de código de pseudo-ruido operable para generar un primer código de pseudo-ruido, en el que el medio de difusión es operable para realizar codificación de espectro ensanchado de secuencia directa usando el primer código de pseudo-ruido.
  19. 19.
    Un aparato de acuerdo con la reivindicación 18, en el que la señal de datos comprende una secuencia de símbolos de datos, y en el que el medio de difusión es operable para combinar cada símbolo de datos de la señal de datos con al menos parte del primer código de pseudo-ruido.
  20. 20.
    Un aparato de acuerdo con la reivindicación 18, en el que la señal de datos comprende una secuencia de símbolos de datos, en el que el medio de difusión comprende adicionalmente un segundo generador de código de pseudo-ruido operable para generar un segundo código de pseudo-ruido que es diferente del primer código de pseudo-ruido, y en el que el medio de difusión es operable para representar cada símbolo de la señal de datos por una secuencia de códigos del primer código de pseudo-ruido o el segundo código de pseudo-ruido dependiendo del valor de los elementos de datos.
  21. 21.
    Un aparato de acuerdo con la reivindicación 20, en el que el segundo generador de código de pseudo-ruido es operable para generar un segundo código de pseudo-ruido que es sustancialmente ortogonal al primer código de pseudo-ruido.
  22. 22.
    Un aparato para incrustar una señal de datos en una señal de audio, comprendiendo el aparato: un aparato para conformar a una señal de datos como se ha indicado en cualquier reivindicación precedente; y un medio para combinar la señal de datos conformada y la señal de audio para generar una señal de audio modificada.
  23. 23.
    Un aparato de acuerdo con la reivindicación 22, en el que el medio de combinación comprende un medio para sumar la señal de datos conformada y la señal de audio para formar la señal de audio modificada.
  24. 24.
    Un aparato de acuerdo con la reivindicación 23, en el que el medio de adición comprende un medio para realizar una suma ponderada de acuerdo con al menos un factor de ponderación.
  25. 25.
    Un aparato de acuerdo con la reivindicación 24, en el que el medio de combinación comprende adicionalmente un medio para variar al menos un factor de ponderación.
  26. 26.
    Un aparato de acuerdo con la reivindicación 25, en el que el medio de variación comprende:
    medios para determinar un nivel de potencia de la señal de audio; medios para determinar un nivel de potencia de la señal de datos conformada; y medios para ajustar al menos un factor de ponderación dependiendo de los niveles de potencia determinados de la señal de audio y la señal de datos conformada.
  27. 27.
    Un aparato de acuerdo con la reivindicación 26, en el que el medio de ajuste es operable para ajustar al menos un factor de ponderación a fin de que, después de la ponderación, la proporción del nivel de potencia de la señal de datos conformada y el nivel de potencia de la señal de audio esté por encima de un valor predeterminado.
  28. 28.
    Un aparato de acuerdo con la reivindicación 26, en el que el medio de ajuste es operable para ajustar al menos un factor de ponderación a fin de que, después de la ponderación, la proporción del nivel de potencia de la señal de datos conformada y el nivel de potencia de la señal de audio modificada esté por encima de un valor predeterminado.
  29. 29.
    Un aparato de acuerdo con la reivindicación 25, en el que el medio de variación comprende una interfaz de usuario para recibir una señal de usuario significativa de al menos un factor de ponderación.
  30. 30.
    Un aparato de acuerdo con la reivindicación 22, en el que el medio de combinación comprende:
    en primer lugar medios de adición para añadir la señal de datos conformada y la señal residual para formar una señal residual modificada; y un segundo lugar medios de adición para añadir la señal residual modificada y la señal de audio para formar la señal de audio modificada.
  31. 31.
    Un aparato de acuerdo con la reivindicación 30, en el que el primer medio de adición comprende un medio para realizar una suma ponderada de la señal de datos conformada y la señal residual dependiendo de al menos un factor de ponderación.
  32. 32.
    Un aparato de acuerdo con la reivindicación 31, en el que el primer medio de adición comprende adicionalmente un medio para variar al menos un factor de ponderación.
  33. 33.
    Un aparato de acuerdo con la reivindicación 32, en el que el medio de variación comprende una interfaz de usuario para recibir una señal de usuario indicativa de al menos un factor de ponderación.
  34. 34.
    Un aparato de acuerdo con la reivindicación 32, en el que el medio de variación comprende:
    medios para determinar un nivel de tonalidad de la señal de audio; y medios para ajustar al menos un factor de ponderación dependiendo del nivel determinado de tonalidad de la señal de audio.
  35. 35.
    Un aparato de acuerdo con la reivindicación 32, en el que el medio de variación comprende:
    medios para determinar un nivel de potencia de la señal residual; medios para determinar un nivel de potencia de la señal de datos conformada; y medios para ajustar al menos un factor de ponderación dependiendo de los niveles de potencia determinados de la señal de audio y la señal de datos conformada.
  36. 36.
    Un aparato de acuerdo con la reivindicación 35, en el que el medio de ajuste se dispone para ajustar al menos un factor de ponderación a fin de que la proporción del nivel de potencia de la señal de datos conformada y el nivel de potencia de la señal residual esté por encima de un valor predeterminado.
  37. 37.
    Un aparato para incrustar una señal de datos en una señal de audio, comprendiendo el aparato:
    un aparato para conformar a una señal de datos como se ha indicado en cualquiera de las reivindicaciones 1 a 21; medios para generar una señal tonal representativa del componente tonal de la señal de audio recibida; y medios para combinar la señal de datos conformada y la señal tonal con el fin de generar una señal de audio modificada.
  38. 38.
    Un aparato de acuerdo con la reivindicación 37, en el que los medios de combinación comprenden medios para añadir la señal de datos conformada y la señal tonal para formar la señal de audio modificada.
  39. 39.
    Un aparato de acuerdo con la reivindicación 37, en el que los medios de combinación comprenden:
    en primer lugar medios de adición para añadir la señal de datos conformada y la señal residual para formar una señal residual modificada; y en segundo lugar, medios de adición para añadir la señal residual modificada y la señal tonal para formar la señal de audio modificada.
  40. 40.
    Un aparato de acuerdo con la reivindicación 39, en el que el primer medio de adición comprende medios para realizar una suma ponderada de la señal de datos conformada y la señal residual dependiendo de al menos un factor de ponderación.
  41. 41.
    Un aparato de acuerdo con la reivindicación 40, en el que el primer medio de adición comprende adicionalmente medios para variar el al menos un factor de ponderación.
  42. 42.
    Un aparato de acuerdo con la reivindicación 41, en el que el medio de variación comprende una interfaz de usuario para recibir una señal de usuario indicativa del al menos un factor de ponderación.
  43. 43.
    Un aparato de acuerdo con la reivindicación 41, en el que el medio de variación comprende:
    medios para determinar un nivel de tonalidad de la señal residual; y medios para ajustar el al menos un factor de ponderación dependiendo del nivel determinado de tonalidad de la señal de audio.
  44. 44.
    Un aparato de acuerdo con la reivindicación 41, en el que el medio de variación comprende:
    medios para determinar un nivel de potencia de la señal residual; medios para determinar un nivel de potencia de la señal de datos conformada; y medios para ajustar el al menos un factor de ponderación dependiendo de los niveles de potencia determinados de la señal de audio y la señal de datos conformada.
  45. 45.
    Un aparato de acuerdo con la reivindicación 44, en el que el medio de ajuste se dispone para ajustar el al menos un factor de ponderación a fin de que la proporción del nivel de potencia de la señal de datos conformada y el nivel de potencia de la señal residual esté por encima de un valor predeterminado.
  46. 46.
    Un procedimiento de conformado de una señal de datos para su incrustación en una señal de audio, comprendiendo el procedimiento:
    recibir la señal de datos; recibir la señal de audio; procesar la señal de audio recibida para generar una señal residual representativa de una diferencia entre un componente tonal de la señal de audio recibida y la señal de audio recibida; y conformar espectralmente la señal de datos dependiendo de la señal residual para formar una señal de datos conformada; en el que la etapa de procesamiento comprende: modelar la señal de audio para generar una señal tonal representativa de un componente tonal de la señal de audio; y diferenciar la señal tonal y la señal de audio para generar la señal residual; y en el que la etapa de modelación comprende: aplicar un modelo de serie temporal a la señal de audio con el fin de generar una pluralidad de coeficientes indicativos de la señal de audio; y sintetizar la señal tonal usando los coeficientes generados.
  47. 47.
    Un dispositivo de almacenamiento que almacena instrucciones para hacer que un aparato de procesamiento programable llegue a ser operable para realizar el procedimiento de la reivindicación 46.
  48. 48.
    Una señal que transmite instrucciones que incluye hacer que un aparato de procesamiento programable llegue a ser operable para realizar el procedimiento de la reivindicación 46.
ES01999053T 2000-11-30 2001-11-30 Sistema de comunicación acústica. Expired - Lifetime ES2367476T3 (es)

Applications Claiming Priority (13)

Application Number Priority Date Filing Date Title
GB0029273A GB0029273D0 (en) 2000-11-30 2000-11-30 Acoustic control system
GB0029273 2000-11-30
GB0101947 2001-01-25
GB0101953 2001-01-25
GB0101950 2001-01-25
GB0101952 2001-01-25
GB0103623 2001-02-13
GB0106587 2001-03-16
GB0106778 2001-03-19
GB0107124 2001-03-21
GB0108205 2001-04-02
GB0114715 2001-06-15
GB0127013 2001-11-09

Publications (1)

Publication Number Publication Date
ES2367476T3 true ES2367476T3 (es) 2011-11-03

Family

ID=9904213

Family Applications (1)

Application Number Title Priority Date Filing Date
ES01999053T Expired - Lifetime ES2367476T3 (es) 2000-11-30 2001-11-30 Sistema de comunicación acústica.

Country Status (3)

Country Link
CN (1) CN101282495B (es)
ES (1) ES2367476T3 (es)
GB (1) GB0029273D0 (es)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5473677A (en) * 1993-06-23 1995-12-05 At&T Corp. Telecommunications network architecture and system
FI98972C (fi) * 1994-11-21 1997-09-10 Nokia Telecommunications Oy Digitaalinen matkaviestinjärjestelmä

Also Published As

Publication number Publication date
CN101282495B (zh) 2013-02-06
CN101282495A (zh) 2008-10-08
GB0029273D0 (en) 2001-01-17

Similar Documents

Publication Publication Date Title
ES2315321T3 (es) Aparato y sistema para utilizar una señal de datos embebida en una señal acustica.
EP1364365B1 (en) Acoustic communication system
JP2004531103A6 (ja) 通信システム
ES2474728T3 (es) Sistema de difusión de información
JP4528365B1 (ja) 発信装置
US6947893B1 (en) Acoustic signal transmission with insertion signal for machine control
US20080004729A1 (en) Direct encoding into a directional audio coding format
JP3834579B1 (ja) 情報提供システム
US20130279699A1 (en) Information Providing System
CN108449506A (zh) 语音通话数据处理方法、装置、存储介质及移动终端
CN108449497A (zh) 语音通话数据处理方法、装置、存储介质及移动终端
CN110198385A (zh) 一种振动频率调整方法、装置、存储介质及电子设备
JP2008256948A (ja) 音響信号に対する情報の埋め込み装置および音響信号からの情報の抽出装置
ES2367476T3 (es) Sistema de comunicación acústica.
KR20060013229A (ko) 휴대단말기의 벨 소리 재생 방법
JP7385532B2 (ja) 音響通信システム、音響送信装置、プログラムおよび音響信号送信方法
JP7385533B2 (ja) 音響受信装置、プログラムおよび音響受信装置における音響信号受信方法