MX2010013076A - Sistema de integracion de datos. - Google Patents
Sistema de integracion de datos.Info
- Publication number
- MX2010013076A MX2010013076A MX2010013076A MX2010013076A MX2010013076A MX 2010013076 A MX2010013076 A MX 2010013076A MX 2010013076 A MX2010013076 A MX 2010013076A MX 2010013076 A MX2010013076 A MX 2010013076A MX 2010013076 A MX2010013076 A MX 2010013076A
- Authority
- MX
- Mexico
- Prior art keywords
- echo
- audio signal
- echoes
- polarity
- data
- Prior art date
Links
- 238000002592 echocardiography Methods 0.000 claims abstract description 232
- 230000005236 sound signal Effects 0.000 claims abstract description 203
- 230000001934 delay Effects 0.000 claims abstract description 28
- 238000005259 measurement Methods 0.000 claims abstract description 16
- 238000000034 method Methods 0.000 claims description 97
- 238000012545 processing Methods 0.000 claims description 18
- 238000011084 recovery Methods 0.000 claims description 17
- 230000003111 delayed effect Effects 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 13
- 230000004069 differentiation Effects 0.000 claims description 8
- 125000004122 cyclic group Chemical group 0.000 claims description 4
- 230000010354 integration Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 17
- 238000004891 communication Methods 0.000 abstract description 4
- 230000006870 function Effects 0.000 description 15
- 230000008859 change Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 7
- 230000007423 decrease Effects 0.000 description 7
- 238000012549 training Methods 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000012552 review Methods 0.000 description 4
- 230000002441 reversible effect Effects 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 241000282414 Homo sapiens Species 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 230000003321 amplification Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 229910000831 Steel Inorganic materials 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000032258 transport Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/018—Audio watermarking, i.e. embedding inaudible data in the audio signal
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H20/00—Arrangements for broadcast or for distribution combined with broadcast
- H04H20/28—Arrangements for simultaneous broadcast of plural pieces of information
- H04H20/30—Arrangements for simultaneous broadcast of plural pieces of information by a single channel
- H04H20/31—Arrangements for simultaneous broadcast of plural pieces of information by a single channel using in-band signals, e.g. subsonic or cue signal
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Cable Transmission Systems, Equalization Of Radio And Reduction Of Echo (AREA)
Abstract
Se describe un sistema de ocultación de satos para ocultar datos dentro de una señal de audio. El sistema puede ser utilizado para marcación de agua, comunicaciones de datos, supervisión de audiencia, etc. El sistema oculta datos en una señal de audio agregando ecos artificiales cuya polaridad varía con los datos que serán ocultados. En una modalidad particular, cada valor de datos está representado a través de un eco positivo y uno negativo teniendo diferentes retrasos. Un receptor después puede remover los efectos de los ecos naturales y/o periodicidades en la señal de audio a través de medidas de diferenciación obtenidas a diferentes retrasos.
Description
SISTEMA DE INTEGRACION DE DATOS
La presente invención se refiere a un sistema para integrar datos en una señal de audio y a su recuperación subsecuente, que puede utilizarse para marcación de agua, comunicaciones de datos, supervisión de audiencia, etc. La invención tiene relevancia particular, a un sistema para ocultar datos en una señal de audio al agregar ecos a la señal de audio y a un sistema para recuperar los datos ocultos al detectar los ecos agregados.
US 5893067 describe una técnica para ocultar datos dentro de una señal de audio para transmisión a un receptor remoto. Los datos se ocultan en la señal de audio al agregar un eco artificial a la señal de audio y al variar la amplitud y/o retraso del eco de acuerdo con los datos que se van a ocultar.
Un problema con la técnica de ocultación de datos descrita en
US 5893067 es que en la mayoría de las situaciones, los ecos naturales pueden enmascarar los ecos artificiales haciendo difícil que el receptor sea capaz de identificar los ecos artificiales y por lo tanto recuperar los datos ocultos.
La presente invención tiene como objeto proporcionar una técnica de ocultación de datos alternativa. Una modalidad de la invención al menos alivia el problema anterior al aplicar ecos de polaridad opuesta para representar cada valor de datos.
De acuerdo con un aspecto, la presente invención proporciona un método para integrar un valor de datos en una señal de audio, el
método comprende: generar un eco de al menos una porción de uña señal de audio recibida; e integrar el valor de datos en la señal de audio al combinar la señal de audio recibida con el eco generado; en donde el valor de datos es integrado en el audio al variar la polaridad del eco que está combinada con la señal de audio en dependencia del valor de datos. Los inventores encontraron que utilizar la modulación de polaridad para integrar los datos en la señal de audio puede hacer la recuperación de los datos integrados más fácil en el receptor, especialmente en presencia de ecos naturales causados, por ejemplo, por la acústica de la habitación. La modulación de polaridad puede lograrse al variar el eco que se genera y/o al variar la forma en la cual se combina el eco con la señal de audio.
En una modalidad, el paso de generación genera un primer eco de al menos una porción de la señal de audio recibida y un segundo eco de al menos una porción de la señal de audio recibida, los primeros y los segundos ecos que tienen las primeras y las segundas polaridades respectivamente, cuyas polaridades varían en dependencia del valor de datos; y en donde el paso de integración integra el valor de datos en la señal de audio al combinar la señal de audio recibida con los primeros y los segundos ecos generados.
Cada uno de los ecos puede generarse al repetir al menos una parte de dicha señal de audio. El primer eco puede generarse al repetir una primera porción de la señal de audio y el segundo eco puede generarse repetir una segunda porción de dicha señal de
audio. Alternativamente, los primeros y los segundos ecos pueden generarse al repetir substancialmente la misma primera porción de la señal de audio. Cuando se recibe la señal de audio como una corriente de muestras, el o cada eco puede generarse al pasar la corriente de muestras de audio a través de una linea de retraso.
En una modalidad, los terceros y cuartos ecos pueden generarse, el tercer eco teniendo la misma polaridad que dicho segundo eco y el cuarto eco teniendo la misma polaridad que dicho primer eco. En este caso, los terceros y cuartos ecos pueden generarse al. repetir substancialmente la misma segunda porción de la señal de audio que es diferente a la primera porción repetida por los primeros y segundos ecos. La segunda porción de la señal de audio puede estar adyacente a la primera porción. El paso de generación puede generar los terceros y cuartos ecos al invertir la polaridad de un factor de ganancia aplicado a los ecos antes de combinarse con la señal de audio.
El primer eco puede combinarse con la señal de audio en un primer retraso relativo a la primera porción de la señal de audio; el segundo eco puede combinarse con la señal de audio en el segundo retraso relativo a dicho primer eco; el tercer eco puede combinarse con dicha señal de audio en un tercer retraso relativo a dicha segunda porción de la señal de audio; y el cuarto eco puede combinarse con la señal de audio en un cuarto retraso relativo al tercer eco. El primer retraso puede ser igual a dicho tercer retraso y/o el segundo retraso puede ser igual a dicho cuarto retraso. En una
modalidad, los retrasos y las amplitudes de los ecos son independientes del valor de datos.
Preferiblemente, los primeros y terceros retrasos están entre 0.5 ms y 100 ms y más preferiblemente entre 5 ms y 40 ms; y los segundos y cuartos retrasos retrasados (relativos a los primeros y terceros ecos respectivamente) por entre 0.125 ms y 3 ms y más preferiblemente entre 0.25 ms y 1 ms, ya que estos retrasos son similares a aquellos de ecos naturales y así son menos notables para los usuarios. En una modalidad, el o cada eco tiene una amplitud que es menor que la amplitud de dicha señal de audio. Preferiblemente, el o cada eco se aparece y desaparece para reducir el impedimento de los ecos a un oyente.
Las primeras y segundas porciones de la señal de audio deben ser lo suficientemente largas para que el receptor sea capaz de detectar la presencia de los ecos pero no tan largas como para reducir demasiado la velocidad de datos que puede comunicarse. Los inventores han encontrado que los ecos que tienen duraciones de entre 20 ms y 500 ms proporcionan una velocidad de datos razonable mientras mantienen errores de transmisión de datos mínimos cuando ocurre la transmisión sobre un enlace acústico. Si la transmisión es a través de un enlace eléctrico, entonces pueden utilizarse ecos más cortos.
Los ecos pueden combinarse con la señal de audio al agregar y/o restar los ecos hacia/desde la señal de audio. La polaridad de cada eco por lo tanto puede controlarse al controlar la forma en la
cual se combina cada eco con la señal de audio.
Este aspecto de la invención también proporciona un producto de instrucciones implementables por' computadora que comprende instrucciones implementadas por computadora para causar que el dispositivo de computadora programable lleve a cabo el método descrito anteriormente.
Este aspecto también proporciona un aparato para integrar un valor de datos en una señal de audio, el aparato comprende: un generador de eco operable para generar un eco de al menos una porción de la señal de audio recibida; y un combinador operable para combinar la señal de audio recibida con los primeros y segundos ecos generados para integrar el valor de datos en la señal de audio; en donde el generador de eco y/o el combinador se disponen para que el valor de datos se integre en el audio al variar la polaridad del eco que se combina con la señal de audio en dependencia del valor" de datos.
De acuerdo con otro aspecto, la presente invención proporciona un método de recuperación de un valor de datos integrado en la señal de audio, el método comprende: recibir una señal de entrada que tiene la señal de audio y un eco de al menos parte de la señal de audio cuya polaridad depende de dicho valor de datos; procesar la señal de entrada recibida para determinar la polaridad del eco; y recuperar el valor de datos a partir de la polaridad determinada.
La señal de entrada puede comprender un primer eco de al menos una porción de la señal de audio y un segundo eco de al
, menos una porción de la señal de audio, los primeros y segundos ecos teniendo primeras y segundas polaridades respectivamente, dichas polaridades varían en dependencia del valor de datos; y en donde el paso de procesamiento procesa la señal de entrada para combinar los primeros y segundos ecos y para determinar la polaridad de los ecos combinados y en donde el paso de recuperación recupera el valor de datos de la polaridad determinada de los ecos combinados.
En una modalidad, el paso de procesamiento procesa la señal de entrada para determinar una primera medida de autocorrelacion que depende del primer eco y una segunda medida de autocorrelacion que depende del segundo eco y combina los ecos al diferenciar las primeras y segundas medidas de autocorrelacion y determina la polaridad de los ecos combinados al determinar la polaridad del resultado del paso de diferenciación.
El primer eco puede ser de una primera porción de la señal de audio y el segundo eco puede ser de una segunda porción de la señal de audio. Alternativamente, los primeros y segundos ecos pueden ser repeticiones substancialmente de la misma porción de la señal de audio.
En una modalidad, la señal de entrada comprende primeros, segundos, terceros y cuartos ecos, los primeros y cuartos ecos teniendo la misma polaridad y los segundos y terceros ecos teniendo la misma polaridad que es opuesta a la polaridad de los primeros y cuartos ecos, en donde el paso de procesamiento procesa la señal
de entrada para combinar los primeros a cuartos ecos y para determinar la polaridad de los ecos combinados y en donde el paso de recuperación recupera el valor de datos de la polaridad determinada de los ecos combinados.
En esta modalidad, el paso de procesamiento puede procesar la señal de entrada para determinar una primera medida de auto-correlación que depende del primer eco, una segunda medida de auto-correlación que depende del segundo eco, una tercera medida de auto-correlación que depende del tercer eco y una cuarta medida de auto-correlación que depende del cuarto eco y combina los ecos al diferenciar las medidas de auto-correlación y determina la polaridad de los eco combinados al determinar la polaridad de un resultado del paso de diferenciación.
El paso de diferenciación puede realizar una primera diferencia de las primeras y terceras medidas de auto-correlación, una segunda diferencia de la segunda y cuartas medidas de auto-correlación, una tercera diferencia del resultado de dicha primera diferencia y el resultado de la segunda diferencia y en donde la polaridad de los ecos combinados puede determinarse de la polaridad de un resultado de la tercera diferencia.
Los primeros y segundos ecos pueden ser repeticiones substancialmente de la misma porción de la señal de audio y los terceros y cuartos ecos pueden ser repeticiones substancialmente de la misma segunda porción de la señal de audio. Alternativamente, los primeros y terceros ecos pueden ser repeticiones substancialmente
de la misma primera porción de la señal de audio y los segundos y cuartos ecos pueden ser repeticiones substancialmente de la misma segunda porción de la señal de audio. En una modalidad, el o cada eco se aparece y desaparece para reducir el impedimento de los ecos a un oyente. En este caso, la polaridad del eco puede determinarse cuando la amplitud del eco está en o cerca de un máximo.
El primer eco puede retrasarse con relación a dicha primera porción de la señal de audio mediante un primer retraso; el segundo eco puede retrasarse con relación al primero por un segundo retraso; el tercer eco puede retrasarse relativo a la segunda porción de la señal de audio por un tercer retraso; y el cuarto eco puede retrasarse con relación al tercer eco por un cuarto retraso. El primer retraso puede ser igual al tercer retraso y/o el segundo retraso puede ser igual ha dicho cuarto retraso.
De acuerdo con este aspecto, también se proporciona un producto de instrucciones implementables por computadora que comprende instrucciones implementables por computadora para hacer que un dispositivo de computadora programable lleve a cabo el método anterior.
Este aspecto también proporciona un aparato para recuperar un valor de datos integrado en una señal de audios, el aparato comprende; una entrada para recibir una señal de entrada que tiene la señal de audio y un eco de al menos parte de la señal de audio cuya polaridad depende de dicho valor de datos; un procesador
operable para procesar la señal de entrada para determinar la polaridad del eco; y un regenerador de datos operable para recuperar el valor de datos de la polaridad determinada.
Estos y otros aspectos de la invención serán evidentes para aquellos expertos en la técnica a partir de la siguiente descripción detallada de las modalidades ilustrativas, que se describen con referencia a los siguientes dibujos en donde:
La Figura 1 es un diagrama de bloques que ilustra los componentes principales de un transmisor y receptor utilizados en una modalidad ilustrativa;
La Figura 2a es un esquema de impulso que ilustra los ecos que se agregan a una señal de audio para codificar un "uno" binario;
La Figura 2b es un esquema de impulso que ilustra los ecos que se agregan a una señal de audio para codificar un "cero" binario;
La Figura 3a es un esquema de impulso que ilustra la presencia de ecos artificiales para un "uno" binario después de la codificación de Manchester y que ilustra ecos naturales;
La Figura 3b es un esquema de impulso que ilustra la presencia de ecos artificiales para un "cero" binario después de la codificación de Manchester y que ilustra los ecos naturales;
La Figura 4 es un diagrama de bloques que ilustra en más detalle la codificación realizada en el transmisor mostrado en la Figura 1 ;
La Figura 5 es un diagrama de bloques que ilustra los componentes principales de un módulo de generación y formación de
eco que forman parte del transmisor mostrado en la Figura 1;
La Figura 6a ilustra una función de formación y modulación que se aplica a l.os ecos antes de combinarse con la señal de audio cuando se va a transmitir un "uno" binario;
La Figura 6b ilustra una función de formación y modulación que se aplica a los ecos antes de combinarse con la señal de audio cuando se va a transmitir un "cero" binario;
La Figura 6c ilustra la forma en la cual varía la función de formación y modulación cuando se van a transmitir dos "unos" binario sucesivos;
La Figura 6d ilustra la función de formación y modulación que se aplica cuando se transmite un "cero" binario después de un "uno" binario;
La Figura 7 ilustra el procesamiento realizado en el receptor mostrado en la Figura 1 para recuperar los datos ocultos desde la señal de audio recibida;
La Figura 8a es un esquema de auto-correlación para una señal de audio típica sin ecos artificiales;
La Figura 8b es un esquema de auto-correlación para la señal de audio con ecos artificiales durante una primera mitad de un símbolo de bit;
La Figura 8c es un esquema de auto-correlación para la señal de audio con ecos artificiales durante la segunda mitad del símbolo de bit;
La Figura 8d es un esquema obtenido al restar el esquema de
auto-correlación mostrado en la Figura 8c desde el esquema de auto-correlación mostrado en la Figura 8b;
La Figura 9 es un diagrama de bloques que ilustra una forma alternativa de receptor utilizado para recibir y recuperar los datos ocultos integrados en la señal de audio;
La Figura 10 es un esquema que ilustra la forma en la cual una cuenta de error FEC varía durante un procedimiento de sincronización utilizado para encontrar el mensaje de datos oculto dentro de la señal de entrada; y
Las Figuras 11a y 11b ¡lustran el procesamiento realizado respectivamente por un codificador FEC y un descodif icador FEC en una modalidad.
Vista General
La Figura 1 es un diagrama de bloques que ilustra un sistema de transmisor y receptor de acuerdo con una modalidad en el cuál un transmisor no transmite datos ocultos dentro una señal acústica 3 a un receptor remoto 5. El transmisor 1 puede formar parte de una red de distribución de televisión o radio y el receptor puede ser un dispositivo portátil tal como un auricular del teléfono celular que es capaz de detectar la señal acústica 3 enviada por el transmisor 1.
El transmisor
Como se muestra en la Figura 1, el transmisor 1 incluye un módulo codificador de error y corrección de envío (FEC) 7, que
recibe y codifica los datos de entrada que se van a transmitir al receptor remoto 5. Los datos de mensaje codificados enviados desde el módulo de codificación FEC 7 entonces se pasan a un módulo de generación y formación de eco 9, que también recibe una señal de audio en la cual se van a ocultar los datos de mensaje codificados. El módulo de generación y formación de eco 9 entonces oculta los datos de mensaje en el audio al generar ecos del audio que dependen de los datos de mensajes que se van a transmitir. Los ecos generados entonces se combinan con la señal de audio original en un módulo combinador 11 y la señal de audio modificada resultante entonces pasa a un módulo de control de ganancia 13 para control de ganancia apropiado. La señal de audio entonces se convierte de una señal digital a una señal análoga por el convertidor digital a análogo 15 y después de amplifica por un módulo controlador 17 para controlar una bocina 19 que genera la señal acústica 3 que tiene los datos ahí ocultos.
Como se describirá con más detalle a continuación, en esta modalidad, se varía la polaridad de los ecos (como opuesto a su retraso y/o amplitud) con el fin de codificar los datos que se van a transmitir. Los inventores han encontrado que esta modulación de polaridad puede ser más voluminosa en presencia de ecos naturales y periodicidades en la señal de audio. Este particularmente es el caso cuando cada valor de datos se representa por dos ecos de la misma magnitud pero que tiene diferentes retrasos y polaridades opuestas. Las polaridades de los ecos que representan cada bit de
mensaje se invierten para distinguir entre un O binario y un 1 binario. Esto se ilustra por los esquemas de impulso ilustrados en la Figura 2. En particular, la Figura 2a es un esquema de impulso que ilustra las señales de componente que están presentes cuando un 1 binario va a transmitirse y la Figura 2b es un esquema de impulso que ilustra las señales de componente presentes cuando se va a transmitir un 0 binario. Como se muestra en la Figura 2a, las señales de componente incluyen un impulso inicial 21 que representa la señal original seguida por dos impulsos de amplitud más bajos 23-1 y 23-2 que representan los dos ecos del componente de señal original 21 que se agregan a la señal de audio. Como se puede observar al comparar las Figuras 2a y 2b, cuando se va a transmitir un 1 binario, se transmite un eco positivo 23-1 primero seguido por un eco negativo 23-2, y cuando transmite un 0 binario se transmite un eco negativo 23-1 primero seguido por un eco positivo 23-2. Aunque esto puede invertirse si se desea.
Como se muestra en la Figura 2, en esta modalidad, el primer eco se agrega con un retraso de aproximadamente 10 ms y el segundo eco se agrega 0.25 ms después del primer eco. Esto es lo mismo sin importar si se va a transmitir un 1 binario o un 0 binario. Adicionalmente, como se representa en la Figura 2, en esta modalidad, los ecos que se agregan tienen amplitudes más bajas comparadas con la amplitud de la señal de audio original. En particular, en esta modalidad, la amplitud de los ecos es aproximadamente un tercio la de la señal de audio original.
El receptor
La Figura 1 también ilustra los componentes principales del receptor 5. Como se muestra, el receptor incluye un micrófono 31 para detectar la señal acústica 3 y para convertirla en una señal eléctrica correspondiente que entonces se filtra y amplifica por el filtro y el sistema de circuitos de amplificación 33. La salida del sistema de circuitos de amplificaciones de filtro 33 entonces se digitaliza por un convertidor análogo a digital 35 y las muestras digitales entonces se pasan a un detector de eco 37. El detector de eco 37 entonces procesa las muestras digitales para identificar las polaridades de los ecos en la señal recibida. Esta información entonces se pasa a través de un módulo de recuperación de datos 39 que procesa la información de eco para recuperar los datos de mensaje codificados. Estos datos de mensaje entonces se descodifican por un descodificador 41 para recuperar los datos originales que se ingresan al módulo de descodificación FEC del transmisor 1.
Codificación de Manchester
Como se explicará con más detalle a continuación, el detector de eco 37 detecta los ecos de la señal recibida al calcular la auto-correlación de la señal recibida en retrasos especificados. Sin embargo, los ecos naturales (por ejemplo, ecos de la habitación) también contribuirán a los valores de auto-correlación de esa forma calculados como períodos periodicidades de la pista de audio
original. Con el fin de distinguir los ecos artificiales que representan los datos codificados desde estos ecos naturales, los datos de mensaje también se codifican por Manchester para que un valor de mensaje de datos de "1" se transmita como un "1", seguido por un "0" (o viceversa), mientras se transmite un valor de datos de mensaje de "0" como un "0" seguido por un "1". En esta modalidad, esta codificación de Manchester se realiza por el módulo de generación y formación de eco 9. Por lo tanto, cuando se va a transmitir un valor de bit de mensaje de "0", para la primera mitad del símbolo, el primer eco 23-1 es de polaridad positiva y el segundo eco 23-2 es de polaridad negativa, mientras que para la segunda mitad del símbolo, el primer eco 23-1 es de polaridad negativa y el segundo eco 23-2 es de polaridad positiva. Para transmitir un valor de bit de mensaje de "0", se inviertan todas las polaridades, como se resume en el cuadro proporcionado a continuación:
La razón por la que la codificación Manchester puede ayudar a distinguir los ecos artificiales de los ecos naturales es que los ecos naturales serán estables en los dos periodos de símbolo medio. Por lo tanto, al restar las auto-correlaciones en la segunda mitad del símbolo de las auto correlaciones en la primera mitad de símbolo (o
viceversa), el efecto de los ecos naturales y las periodicidades se cancelará, mientras que los picos de auto-correlación causados por los ecos artificiales se agregarán constructivamente. Similarmente, la razón de utilizar dos ecos en cada período de medio símbolo es distinguir los ecos artificiales de las periodicidades en la pista original. Típicamente, la auto-correlación de la pista original no cambiará significativamente entre estos dos retrasos (es decir, entre 10 ms y 10.25 ms). Por lo tanto, al diferenciar las auto-correlaciones en los dos retrasos, el efecto de las periodicidades se reduce y los picos de auto-correlación causados por los dos ecos se agregan constructivamente.
Las Figuras 3a y 3b son esquemas de impulso que muestran los dos símbolos medios y los ecos artificiales 23 que se agregan dentro de cada período de símbolo medio para representar un "1" binario y un "0" binario respectivamente. Las Figuras 3a y 3b también ilustran ecos naturales 25-1 y 25-2 que no cambian de un periodo medio al siguiente. Por lo tanto, al restar los ecos en una mitad del periodo de símbolo de los ecos correspondientes (es decir, aquellos con el mismo rezago o retraso) en otra mitad del periodo de símbolo, el efecto de los ecos naturales y periodicidades se cancelará, mientras que los ecos artificiales de agregarán constructivamente, con lo cual facilitan detectar los datos ocultos.
La descripción anterior proporciona una revisión de las técnicas de codificación y descodificación utilizadas en la presente modalidad. Ahora se proporcionará una descripción más detallada
de los componentes principales del transmisor 1 y el receptor 5 para llevar a cabo los procedimientos de codificación y descodificación antes descritos.
Codificador FEC
La Figura 4 es un diagrama de bloques que ilustra los componentes principales del módulo de codificador FEC 7 utilizado en esta modalidad. Como se muestra, el primer módulo de codificación es un módulo codificador de Reed-Solomon 51 que utiliza un código de bloque acortado (13, 6) para representar los datos de entrada. Los datos enviados del descodificador de Reed-Solomon 51 entonces se pasan a un codificador convolucional 53 que realiza codificación convolucional en los datos. Los bits de datos enviados desde el codificador convolucional 53 entonces se intercalan entre si por un módulo de intercalación de datos 55 para proteger contra errores que ocurren en ráfagas. Finalmente, un módulo sumador de datos de sincronización 57 agrega una secuencia de bits de sincronización que ayudará al receptor 5 a acoplarse en los datos codificados dentro de la señal acústica recibida 3. La salida del módulo sumador de datos de sincronización 57 representa los datos de mensaje que entonces se pasan al módulo de generación y formación de eco mostrado en la Figura 1.
Generación v formación de eco
La Figura 5 es un diagrama de bloques que ilustra los
componentes principales del módulo de generación y formación de eco 9 y el módulo combinador 11 mostrado en la Figura 1. La señal de audio de entrada se representa por la secuencia de muestras de audio a (n) que se aplican a una unidad de retraso de 10 milisegundos 61 y al sumador 63 (correspondiente al combinador 11 mostrado en la Figura 1). La unidad de retraso de 10 milisegundos 61 retrasa la muestra de entrada a (n) por 10 milisegundos que entonces transmite una unidad de retraso de 0.25 milisegundos 65 a un restador 67. La unidad de retraso de 0.25 milisegundos 65 retrasa la muestra de audio enviada desde la unidad de retraso de 10 milisegundos 61 por 0.25 milisegundos adicionales que entonces envía al restador 67. El restador 67 resta la muestra retrasada 10.25 milisegundos de la muestra retrasada 10 milisegundos que envía el resultado a un multiplicador 69. Las unidades de retraso y el restador operan cada vez que llega una nueva muestra de audio a (n). En esta modalidad, la frecuencia de muestra de audio es una de 8 kHz, 32 kHz, 44.1 kHz o 48 kHz.
Por lo tanto, como apreciarán aquellos expertos en la técnica, la unidad de retraso de 10 milisegundos 61, la unidad de retraso de 0.25 milisegundos 65 y el restador 67 generarán los dos ecos 23-1 y 23-2 ilustrados en la Figura 2. Sin embargo, en esta etapa, los ecos que se generaron no dependen de los datos que se van a transmitir. Como se explicará a continuación, esta dependencia se lograron multiplicar los ecos en el multiplicador 69 con una función de modulación g (n) que se envía por una tabla de revisión 71 que se
dirige por la lógica de dirección de tabla de revisión 73 en respuesta al valor de datos de mensaje actual. En particular, la salida de tabla de revisión g(n) cambia la polaridad de los ecos en dependencia de los datos de mensaje para que los ecos con las polaridades moduladas entonces puedan agregarse de nuevo a la señal de audio original por el sumador 63 a la señal de salida de audio modulada por eco generada.
Salida de tabla de revisión q(n)
Los inventores han encontrado que los cambios abruptos en los ecos que se agregan pueden hacer a los ecos más molestos para los usuarios en la cercanía de la bocina 19. Por lo tanto, la salida de tabla de revisión g(n) aumenta y disminuye gradualmente para que los ecos aparezcan y desaparezcan efectivamente.
Adicionalmente, en esta modalidad, la salida de etapa de revisión g(n) también realiza la codificación Manchester de los datos de mensaje. La forma en la cual se logra esto ahora se explicará con referencia a la Figura 6. En particular, la Figura 6a es un esquema que ilustra la forma en la cual la salida de tabla de revisión g(n) varía sobre un periodo de símbolo, cuando el valor de bit de los datos de mensaje es un "1" binario. En esta modalidad, el periodo de símbolo en 10 ms. Como se muestra, durante la primera mitad del periodo de símbolo, la función g(n) aumenta de cero a un valor máximo y entonces disminuye de nuevo a cero al final de la primera mitad del periodo de símbolo. Durante la segunda mitad del periodo
de símbolo, la función g(n) es negativa y aumenta en magnitud a µ? valor negativo máximo y entonces disminuye de nuevo a cero. Como se puede observar a partir de la Figura 6a, en esta modalidad, el aumento y disminución gradual de la salida de tabla de revisión g(n) se logra al utilizar una función sinusoidal. Por lo tanto, durante la primera mitad del símbolo, los ecos combinados enviados desde el restador 67 se multiplicarán por un valor positivo y así su polaridad no cambiará cuando se multiplican por g(n) en el multiplicador 69. Por otro lado, durante la segunda mitad del periodo de símbolo la salida de tabla de revisión g(n) es negativa y por lo tanto, las polaridades de los ecos enviados desde el restador 67 se invertirán cuando los ecos se multiplican por g(n) en el multiplicador 69.
Como se mencionó anteriormente, los ecos artificiales 23 que se generan y agregan a la señal de audio tienen una amplitud que es aproximadamente un tercio de la señal de audio. En esta modalidad, la amplitud de los ecos se controla por la salida de la tabla de revisión g(n). Como se muestra en la Figura 6a, la amplitud pico de la salida de tabla de revisión g{n) es un tercio, lo que significa que la amplitud máxima de los ecos que se agregarán a la señal de audio será un tercio de la amplitud de la señal de audio original.
Como se muestra en la Figura 6b, cuando los datos de mensaje es un valor binario "0" la salida de tabla de revisión g(n) se invierte comparado con cuando los datos de mensaje tienen un valor binario de "1". Por lo tanto, durante el primer período de medio símbolo, la polaridad de los ecos enviada desde el restador 67 se invertirá
cuando se multiplican por g(n) en el multiplicador 69 y durante la segunda mitad del periodo de símbolo las polaridades de los ecos enviadas por el restador 67 no se invertirán cuando se multiplican por g(n) en el multiplicador 69.
La Figura 6c ilustra la salida de tabla de revisión g(n) en dos periodos de símbolo cuando los datos de mensaje que se van a transmitir s un "1" binario seguido por otro "1" binario. Como se muestra en la Figura 6c, en este caso, la salida de tabla de revisión g(n) es una repetición simple de la salida ilustrada en la Figura 6a. Similarmente, si valores sucesivos de los datos de mensaje son "cero" binarios entonces la salida de tabla de revisión g(n) sobre dos periodos de símbolo serán la inversa de lo mostrado en la Figura 6c.
Sin embargo, si los datos de mensaje cambian de un "1" binario a un "0" binario, entonces en vez de utilizar una función de salida de tabla de revisión obtenida al concatenar las funciones mostradas en la Figura 6a y la Figura 6b, la función mostrada en la Figura 6d se utiliza en vez de esto. Como se puede observar en la Figura 6d, cuando la salida de tabla de revisión g(n) llega a su valor negativo pico en el primer periodo de símbolo, permanece en el valor hasta que haya ocurrido el pico en el segundo periodo de símbolo antes de disminuir en magnitud de nuevo a cero. Similarmente, cuando los bits sucesivos de los datos de mensaje cambian de un "0" binario a un "1" binario, la salida de tabla de revisión g(n) en los dos periodos de símbolo será la inversa de lo mostrado en la Figura 6d. Los inventores han encontrado que no regresar al nivel cero de esta
forma reduce el impedimento del esquema de modulación de eco que se utiliza. Esto es debido a que el oído humano es más sensible a cambiar ecos que los ecos constantes.
Como apreciarán aquellos expertos en la técnica, la lógica de dirección de tabla de revisión 73 es responsable de analizar los bits sucesivos de los datos de mensaje y entonces revisar la parte apropiada de la tabla de revisión 71 para que la función de salida apropiada g(n) se aplique al multiplicador 69.
Detector de eco
La Figura 7 es un diagrama esquemático que imparte y de bloque en parte que ilustra el procesamiento realizado por el detector de eco 37. En particular, la Figura 7 ilustra 100 milisegundos de una señal de entrada 61 en la entrada del detector de eco 37. Como apreciarán aquellos expertos en la técnica, la señal de entrada 61 se ilustra esquemáticamente como una señal continua para facilidad de entendimiento pero será una forma de onda muestreada y digitalizada.
Como se ilustra por la ventana i y la ventana j, el detector de eco 37 incluye dos ventanas de deslizamiento 63-1 y 63-2 que extraen segmentos adyacentes de la señal de entrada 61-1 y 61-2, cada uno de una longitud de 50 milisegundos. Por lo tanto, las dos ventanas 63 extraen porciones de la señal acústica de entrada 61 que corresponden a los periodos de medio símbolo antes descritos. Como se muestra en la Figura 7, ia porción extraída a 61-1 de la
señal acústica de entrada se ingresa a una primera unidad de auto-correlación 65-1 y la porción extraída 61-2 de la señal de audio de entrada se ingresa a una segunda unidad de auto-correlación 65-2. Ambas unidades de auto-correlación 65 operan para determinar la auto-correlación de la porción correspondiente 61-1 ó 61-2 de la señal acústica de entrada a retrasos de 10 milisegundos y 10.25 milisegundos. Los valores de auto-correlación determinados en retrasos de 10.25 de unidades de auto-correlación 65-1 y 65-2 entonces se ingresan a un restador 67, que resta el valor de auto-correlación obtenido desde la ventana j desde el valor de auto-correlación obtenido desde la ventana i (o viceversa). El resultado de esta resta entonces se suministra a otro restador 69. Similarmente, el valor de auto-correlación en retraso de 10 milisegundos desde la ventana 1 y el valor de auto-correlación en retraso de 10 milisegundos de la ventana j se envían desde las unidades de auto-correlación 65 hacia el restador 71, que resta el valor de auto-correlación obtenido desde la ventana j desde el valor de auto-correlación obtenido desde la ventana í (o viceversa) y alimenta el resultado al restador 69. El retador 69 entonces resta la salida del restador 67 desde la salida del restador 71 (o viceversa). Por lo tanto, la salida desde el restador 69 se representa por la siguiente ecuación:
(Ai(10)-Ai(10))-(Ai(10.25)-Aí(10.25))
Como se mencionó anteriormente, restar los valores de auto-correlación de un periodo de medio símbolo de los valores de auto-
correlación correspondientes del otro período de medio símbolo puede reducir el efecto de ecos naturales en la señal acústica de entrada 61. Esto es debido a que los ecos naturales no muy probablemente cambien un periodo de medio símbolo al siguiente y así su efecto será constante en las auto correlaciones que se calculan. Consecuentemente, realizar esta resta removerá este efecto común. De forma similar, restar los valores de auto-correlación obtenidos de cada periodo de medio símbolo reducirá el efecto de periodicidades en la señal de audio original. Esto es debido a que en el retraso de 0.25 ms entre el primer eco y el segundo eco en el período de medio símbolo, el efecto de las periodicidades en las auto-correlaciones será aproximadamente constante y así esta resta removerá este efecto común. Esto ahora se describirá con más detalle con referencia a la Figura 8.
La Figura 8a muestra un esquema de auto-correlación 81 obtenido de una señal de audio típica sin ningún eco artificial. Como se muestra, el esquema de auto-correlación 81 tiene un pico en retraso cero. Sin embargo, debido a las periodicidades en la señal de audio y debido a los ecos naturales, el esquema de auto-correlación 81 no disminuye hacia cero hasta aproximadamente 15 milisegundos después del pico inicial y exhibe picos locales y caídas entre estos. El pico 82 ¡lustra tal pico local que puede ocurrir como un resultado de un eco natural que se agrega a la señal de audio.
La Figura 8b ilustra un esquema de auto-correlación 83 para la misma señal de audio después de que se agregó un eco positivo en
un retraso de 10 milisegundos y un eco negativo se agregó en un retraso de 12 milisegundos (en lugar de 10.25 ms para que los dos ecos puedan observarse más claramente). Como se muestra en la Figura 8b, como un resultado de los ecos artificiales, el esquema de auto-correlación 83 incluye un pico 85 en 10 milisegundos y un pico 37 en 12 milisegundos. Sin embargo, el pico 85 se cubre de alguna forma por el pico previo 82 causado por un eco natural.
La Figura 8c ilustra el esquema de auto-correlación 89 para la señal de audio después de que se agregaron ecos en la segunda mitad del periodo de símbolo. Como se muestra, el esquema de auto-correlación 89 incluye un pico negativo 91 a 10 milisegundos y un pico positivo 93 a 12 milisegundos.
Finalmente, la Figura 8d ilustra el esquema de auto-correlación que se obtiene al restar el esquema de auto-correlación mostrado en la Figura 8c del esquema de auto-correlación mostrado en la Figura 8b. Como se puede observar, los picos comunes en los esquemas de auto-correlación mostrados en las Figuras 8b y 8c se removieron, mientras que los picos complementarios 85 y 91; 87 y 93 se agregaron juntos para crear los picos conminados 95 y 97 respectivamente. Como apreciarán aquellos expertos en la técnica, por lo tanto es mucho más fácil detectar los picos 95 y 97 debido a que sus valores son mucho mayores a los valores de auto-correlación en otros retrasos. Este efecto además se mejora al restar el valor de auto-correlación a 12 milisegundos del valor de auto-correlación a 10 milisegundos. Esto efectivamente agregará los dos picos 95 y 97
juntos para proporcionar un pico incluso más largo, que entonces puede detectarse por un umbral adecuado. El valor del valor de datos correspondiente entonces puede determinarse de la polaridad del pico combinado.
Como apreciarán aquellos expertos en la técnica, en esta modalidad, el detector de eco 37 no calcula la auto-correlación de la señal de entrada sobre todos los retrasos. Esto únicamente calcula los valores de auto-correlación en los retrasos en donde se agregaron los ecos artificiales. Los esquemas mostrados en la Figura 8 muestran los valores de auto-correlación sobre retrasos de 0 a 15 milisegundos. Estos esquemas por lo tanto ayudan a ilustrar el efecto de ecos naturales y periodicidades en la señal de audio que puede cubrir los ecos artificiales que se agregaron para codificar los datos.
Sincronización
En esta modalidad, el receptor 5 conoce la duración de cada periodo de medio símbolo. Esto define la longitud de las ventanas 63-1 y 63-2 utilizada en el detector de eco 37. Sin embargo, el detector de eco 37 inicialmente no se sincronizará con los datos transmitidos. En otras palabras, el detector de eco 37 no sabe en dónde comienza cada periodo de símbolo y termina o en donde se localiza el inicio del mensaje. Por lo tanto, en esta modalidad, el detector de eco 37 realiza el análisis anterior ya que cada nueva muestra se recibe desde el convertidor análogo a digital 35. La
salida del restador 69 entonces se analiza por el módulo de recuperación de datos 39 para determinar los límites de símbolo muy probables. El módulo de recuperación de datos entonces determina la ubicación del inicio de los mensajes al encontrar los bits de sincronización que se. agregaron por el sumador de datos de sincronización 57. En este punto, la unidad de recuperación de datos 39 puede iniciar la recuperación del mensaje completo desde la polaridad de los valores de auto-correlación enviados desde el restador 69.
Una vez que se logró la sincronización, el detector de eco 37 típicamente determinará las medidas de auto-correlación a la mitad de cada período de medio símbolo, cuando se espera que el eco este en su amplitud pico y el módulo de recuperación de datos 39 determinará el valor de bit de la polaridad de la salida del restador 69. El detector de eco 37 también hace medidas justo antes y justo después de la mitad de cada periodo de medio símbolo, para permitir que el módulo de recuperación de datos 39 rastree la sincronización.
Los datos de mensajes recuperados por el módulo de recuperación de datos 39 entonces se ingresan al módulo de descodificación FEC 41 en donde se descodifican los datos de mensaje (al utilizar el procesamiento inverso del codificador FEC 7) para tener los datos de entrada originales que se ingresaron al codificador 7 del transmisor 1.
Modificaciones y Alternativas
En las modalidades anteriores, los datos se ocultaron dentro de una señal de audio al emplear un número de ecos cuya pluralidad varió con el valor de datos que se va a transmitir. Estos ecos se agregaron a la señal de audio original después de retrasos apropiados. Como aquellos expertos en la técnica apreciarán, los ecos pueden agregarse antes de la señal de audio original (pre-ecos), antes y después de la señal de audio original o únicamente después de la señal de audio original.
En la modalidad anterior, se agregaron bits de sincronización a los datos que se transmitieron para que el descodificador pueda identificar los límites de cada periodo de símbolo y el inicio y final de cada mensaje. El uso de tales bits de sincronización significativamente aumenta la longitud de mensaje general que se tiene que transmitir (en algunos casos por tanto como 25%). Adicionalmente, ya que la descodificación de cada bit está sometida a ruido, la coincidencia no es perfecta a lo que puede reducir las posibilidades de una sincronización exitosa. Sin embargo, los inventores se han dado cuenta de que los bits de sincronización no se requieren. En particular, los inventores se han dado cuenta de que el módulo de descodificación FEC 41 tendrá velocidades de error superiores cuando el detector de eco 37 no esté apropiadamente sincronizado con los datos entrantes comparados con su velocidad de error cuando se sincroniza el detector de eco con los datos entrantes. Por lo tanto, en la modalidad ilustrada en la Figura 9, la
salida de error generada por el módulo de descodificación FEC 41 se utiliza para controlar la sincronización del receptor a los datos entrantes.
Más específicamente, en esta modalidad, el detector de eco 37 recibo un bloque de muestras que corresponden a uno o más símbolo(s) y determina el tiempo óptimo dentro de ese bloque de muestras para detectar los ecos dentro de los símbolos. Pueden requerirse múltiples símbolos cuando se utiliza la codificación de Manchester ya que un "uno" codificado por Manchester se ve igual que un "cero" codificado por Manchester con un cambio de tiempo. Por lo tanto, puede ser necesario considerar un número de símbolos para permitir que se identifiquen los límites de símbolo. La determinación real del tiempo óptimo dentro del bloque de muestras para detectar los ecos puede determinarse al pasar el bloque de muestras a través de un filtro coincidido (cargado con el patrón de señal esperado para un periodo de símbolo) y el tiempo dentro del símbolo cuando la salida absoluta (promediada en un número de símbolos sucesivos) da en un máximo y se reclama que es el mejor tiempo para muestrear los símbolos. Por ejemplo, si existen N muestras por símbolo, y el bloque de muestras tiene M símbolos, entonces se calculan los siguientes valores:
promedio (0) = 1/ *(x(0) +x(N) +x(2N) + ...)
promedio (1) = 1/M*(x("l) +x(N + 1 ) + x(2N + 1 ) + ....)
promedio (N-1) = 1/M*(x(N-1) + x(2N-1 ) + x(3N-1 ) + ...)
en donde x(i) es salida absoluta del filtro coincidido para muestra i. El valor promedio más grande de esa forma determinado identifica el mejor tiempo para detectar los ecos dentro de la señal entrante durante cada símbolo.
El detector de eco 37 entonces utiliza el tiempo óptimo determinado para detectar ecos en ese símbolo y en los símbolos N-1 previos de la señal de entrada (en donde N es el número de símbolos y el mensaje transmitido). El módulo de recuperación de datos 39 entonces determina, de los ecos detectados, valor(es) de bit para cada símbolo y envía la secuencia de bits correspondiente al mensaje posible al módulo de descodificación FEC 41. El módulo de descodificación FEC 41 entonces realiza el procesamiento inverso del codificador FEC 7 para regenerar una palabra de código de datos de entrada candidato, que se almacena en la memoria intermedia 93. El módulo de descodificación FEC 41 también envía a un conteo de error que indica cuantos errores se identifican en la palabra de código candidata, que pasa a un controlador 91. En respuesta, el controlador 91 compara el conteo de error con un valor de umbral y si es mayor que el umbral, entonces el controlador 91 fluye la palabra de código candidato desde la memoria intermedia 93. El procedimiento anterior que se repite al símbolo recibido en la señal de entrada, hasta que el controlador 91 determina que ese conteo de error está bajo el umbral. Cuando es esto, el controlador 91 instruye al módulo de descodificación FEC 41 para aceptar en la palabra de código candidato, que entonces envía para uso adicional en el
receptor 5. De hecho, por lo tanto, el detector de eco 37, el módulo de recuperación de datos 39 y el módulo de descodificación FEC 41 todos operan en una ventana de la señal de entrada correspondiente a la longitud del mensaje transmitido, cuya ventana se desliza sobre la señal de entrada hasta que se encuentra un punto en donde el conteo de error FEC está bajo un umbral definido, que indica la identificación del mensaje completo dentro de la señal de entrada.
La Figura 10 es un esquema que ilustra la forma en la cual se espera que el conteo de error 99 del módulo de descodificación FEC cambie mientras la ventana 101 se desliza sobre . una señal de entrada 103 que contiene un mensaje de datos 105, con el mínimo que aparece en símbolo SN, cuando la ventana 101 está alineada con el mensaje de datos 105 en la señal de entrada 103. El nivel de umbral (Th) entonces se establece para reducir la posibilidad de mínimos falsos en el conteo de salida de error FEC que se consideran como posibles palabras de código, para que (en la situación ideal) únicamente cuando el receptor 5 está apropiadamente sincronizado (alineado) con los datos de mensaje, el conteo de error del módulo de descodificación FEC reduzca bajo el umbral en la forma ilustrada en la Figura 10. Idealmente, en esta modalidad, la codificación/descodificación FEC que se utiliza está diseñada para mantener la velocidad de error del módulo de descodificación FEC 41 alto excepto cuando la ventana 101 está alineada con los datos de mensaje 105 en la señal de entrada 103. Los inventores han encontrado que esta técnica de umbral simple es
suficiente para identificar la ubicación de los datos de mensaje en la señal de entrada 103. Sin embargo, si se requiere una detección más exacta, entonces puede hacerse una consideración adicional, que varía las posibles posiciones de inicio'y fin del mensaje y que busca posiciones que proporcionan el conteo de error FEC mínimo.
La técnica anterior es útil para encontrar un mensaje individual en la señal de entrada. Claramente, si se transmite una secuencia de tales mensajes de datos, entonces el cronometraje de sincronización determinado para el mensaje de datos puede utilizarse para identificar el cronometraje de sincronización para el siguiente mensaje de datos.
Un problema identificado por los inventores con el aspecto de sincronización discutido anteriormente es que el descodificador FEC 7 frecuentemente utiliza palabras de código cíclicas (por ejemplo cuando utiliza codificación de bloque de Reed Solomon) que significa que un cambio de bit en la palabra de código también puede ser una palabra de código válida. Esto es problemático debido a que puede resultar en detecciones falsas de una palabra de código (un denominado positivo falso) en la señal de entrada 105. Este problema puede superarse al reordenar los bits de la palabra de código en el descodificador FEC 7 en alguna forma determinista (por ejemplo en una forma pseudo-aleatoria), y al utilizar el reordenamiento inverso en el descodificador FEC 41. El procesamiento que puede realizarse por el descodificador FEC 7 y por el descodificador FEC 41 en tal modalidad se ilustran las Figuras
11a y 11b respectivamente. Como se muestra, el codificador FEC 7 realiza una codificación cíclica de los datos (en este caso codificación Reed Solomon 111), seguido por un reordenamiento pseudo-aleatorio 113 de los datos. Los datos reordenados entonces se codifican convolucionalmente 115 y entonces se intercalan 117 como antes. Similarmente, el módulo de descodificación FEC 41 inicialmente desintercala 121 los datos y realiza descodificación convolucional 123. El módulo de descodificación FEC 41 entonces invierte 123 el reordenamiento de datos pseudo-aleatorio realizado por el codificador FEC 7 y entonces realiza la descodificación de
Reed Solomon 125. Como apreciarán aquellos expertos en la técnica, al realizar este reordenamiento de los datos de esta forma, si existe un cambio de bits en los datos de mensaje enviados por el módulo de recuperación de datos 39. entonces es menos probable que resulte en una palabra de código válida y así la velocidad de error de FEC enviada de forma poco probable activará la identificación falsa de un mensaje de datos.
En las modalidades anteriores, cada valor de datos se representó por cuatro ecos, dos ecos en cada dos periodos de medio símbolo. Como apreciarán aquellos expertos en la técnica, cada valor de datos puede representarse por cualquier número de ecos en cualquier número de periodos de sub-símbolo. Por ejemplo, en lugar de tener dos ecos dentro de cada periodo de medio símbolo, cada valor de datos puede representarse por un eco individual en cada periodo de medio símbolo. En este caso, los ecos en cada periodo de
medio símbolo preferiblemente serán de polaridad opuesta para que pueda utilizarse la misma técnica de diferenciación para reducir los efectos de ecos naturales. De hecho, los inventores encontraron que en algunos casos utilizar dos ecos de polaridad opuesta en cada periodo de medio símbolo pueda resultar en algunos componentes de frecuencia dentro de la señal de audio original que cae constructivamente con los ecos y algunos componentes de frecuencia dentro de la señal de audio original que agrega destructivamente con los ecos. Si se agrega un eco artificial individual, entonces tales distorsiones son menos evidentes haciendo los datos menos notables para usuarios en el sonido acústico que se escucha.
Aquellos expertos en la técnica apreciarán, que representar cada valor de datos por uno o más ecos en diferentes periodos de sub-símbolo, significa que los ecos en cada periodo de sub-símbolo será una repetición de una porción diferente de la señal de audio. Si solamente existe un periodo de símbolo, entonces cada valor de datos se representará por ecos de la misma (o substancialmente la misma) porción de la señal de audio.
En las modalidades anteriores, cada valor de datos se representó por un eco positivo y uno negativo en un primer período de medio símbolo y por un eco positivo y uno negativo en el segundo periodo de medio símbolo. Los ecos positivos y negativos en el primer periodo de medio símbolo permitieron que el receptor reduzca los efectos de periodicidades en señal de audio original que realiza las medidas de auto-correlación. El uso de ecos complementarios en
periodos de medios símbolos adyacentes permite que el receptor reduzca el efecto de ecos naturales dentro de la señal de aüdio recibida, que de otra forma puede enmascarar los ecos artificiales agregados para representar los datos. Aquellos expertos en la técnica apreciarán, en otras modalidades, que ninguna q únicamente una de las técnicas pueden utilizarse.
En la modalidad anterior, cada valor de datos se representó por ecos dentro de dos periodos de medio símbolo adyacentes. Como apreciarán aquellos expertos en la técnica, estos dos periodos de medio símbolo no tienen que estar inmediatamente adyacentes entre sí y puede proporcionarse un espacio entre los dos periodos si se requiere.
En la modalidad anterior, los ecos en cada período de medio símbolo fueron exactamente de la misma porción que la señal de audio. Como apreciarán aquellos expertos en la técnica, esto no es esencial. Los ecos en cada periodo de medio símbolo pueden ser porciones ligeramente diferentes de la señal de audio. Por ejemplo, un eco puede carecer de alguna de las muestras de audio de la señal de audio. Alternativamente, la señal de audio puede incluir diferentes canales (por ejemplo canales izquierdos y derechos para una señal de estéreo) y puede formarse un eco de una repetición del canal izquierdo y otro puede formarse de una repetición del canal derecho. Con audio de sonido envolvente de canal múltiple moderno las repeticiones pueden ser de cualquiera de estos canales.
En la modalidad anterior, los ecos generados dentro del
transmisor se agregaron a la señal de audio original. Como apreciarán aquellos expertos en la técnica, los ecos generados pueden combinarse con la señal de audio original en otras formas. Por ejemplo, los ecos pueden restarse de la señal de audio. Similarmente, en lugar de invertir los ecos que se van a agregar a audio (al controlar la polaridad de la función g(n)), el mismo resultado puede lograrse al cambiar la forma en la cual se combinan los ecos con la señal de audio. Por ejemplo, puede agregarse un eco a la señal de audio original mientras el siguiente eco puede restarse de la señal de audio.
En la modalidad anterior, los valores almacenados en la tabla de revisión para g(n) que corresponden a 1 ó 2 bits de los datos de mensaje (como ilustrados en la Figura 6). Como apreciarán aquellos expertos en la écnica, esto no es esencial. Por ejemplo, la tabla de revisión simplemente puede almacenar una función que aumenta en valor y entonces disminuye en valor. El sistema de circuitos adicional entonces puede proporcionarse para convertir la polaridad de esta salida como sea apropiado para los dos periodos de medio símbolo. De esta forma, la función almacenada en la tabla de revisión controlaría la aparición y desaparición del eco y el sistema de circuitos adicional podría controlar la pluralidad del eco como se requiera.
La modalidad anterior, la codificación de Manchester se realizó por el módulo de generación y formación de eco. Como apreciarán aquellos expertos en la técnica, esta codificación de Manchester, si
se realiza, puede realizarse dentro del módulo de codificación FEC.
Como apreciarán aquellos expertos en la técnica, las técnicas antes descritas para ocultar datos dentro del audio pueden hacerse antes de la transmisión de la señal acústica o puede hacerse en tiempo real. Incluso en el caso en donde se van a integrar los datos dentro de la señal de audio en tiempo real, algo del procesamiento puede realizarse por adelantado. Por ejemplo, la codificación FEC puede realizarse en los datos por adelantado para que únicamente la generación de eco y la formación de eco se realicen en tiempo real.
En las modalidades anteriores, a los ejemplos específicos se les proporcionaron velocidades de muestra para las velocidades de señal de audio y símbolo para los datos que se ocultan dentro de la señal de audio. Como apreciarán aquellos expertos en la técnica, estas velocidades no pretenden ser limitantes y pueden variar como se requiera. Sin embargo, con el fin de mantener el impedimento de los ecos agregados a un mínimo, la velocidad de datos de los datos codificados preferiblemente se mantiene entre 1 y 20 símbolos por segundo. Esto corresponde a un periodo de símbolo de entre 50 ms y 1 segundo. En algunas modalidades, un periodo de símbolo largo es benéfico debido a que los ecos agregados transcurrirán a través de palabras habladas dentro del audio, lo que facilita ocultar los ecos de datos dentro del audio. Un periodo de símbolo más largo también reduce la confiabilidad de los ecos. Esto es debido a que los seres humanos son más sensibles a ecos cambiantes de lo que lo son a ecos estáticos o fijos. Por lo tanto, al tener un periodo de símbolo
más largo, la velocidad de cambio de los ecos es inferior lo que hace a la presencia de los ecos menos notables para un usuario.
En la modalidad anterior, la velocidad de datos de los datos agregados a la señal de audio en el transmisor fue constante y se conoció por el receptor. Este conocimiento reduce la complejidad del sistema de circuitos del receptor para asegurarse a los datos dentro de la señal recibida. Sin embargo, no es esencial para la invención y el sistema de circuitos más complejo proporcionarse en el receptor para permitir que el receptor intente diferentes velocidades de datos hasta que se determina la velocidad de datos real. Similarmente, el receptor puede utilizar otras técnicas para sincronizarse con los datos transmitidos para que conozca en dónde están los límites de símbolo antes de recibir los datos.
En la modalidad anterior, las técnicas de codificación FEC se utilizaron para permitir que el receptor sea capaz de corregir errores en los datos recibidos. Como apreciarán aquellos . expertos en la técnica, tales técnicas de codificación no son esenciales para la invención. Sin embargo, se prefieren, ya que ayudan a corregir errores que ocurren en el procedimiento de transmisión en el enlace acústico.
En las modalidades anteriores, las amplitudes pico de los ecos fue en todas la misma y fueron independientes del valor de datos que se transmite. Como apreciarán aquellos expertos en la técnica, las amplitudes pico de los 'ecos también puede variar con datos que se van a transmitir si se desea.
En la modalidad anterior, los ecos en cada periodo de medio símbolo estuvieron en los mismos retrasos con relación a la señal de audio original. Como apreciarán aquellos expertos en la técnica, esto no es esencial. Puede haber alguna variación en los valores de retraso reales utilizados dentro de cada periodo de medio símbolo.
En la modalidad anterior, el segundo eco dentro de cada periodo de medio símbolo se generó al retrasar el primer eco por un valor de retraso adicional. En una modalidad alternativa, cada eco dentro de cada periodo de sub-símbolo puede generarse independientemente de la señal de audio original al utilizar una línea de retraso apropiada.
Como aquellos expertos en la técnica apreciarán, pueden hacerse varios usos del sistema de comunicación anterior. Por ejemplo, los datos codificados pueden utilizarse como una marca de agua para proteger la señal de audio original. Alternativamente, los datos integrados pueden utilizarse para controlar el receptor para que pueda responder en sincronía con la señal de audio. En particular, el descodificador puede, programarse para realizar alguna acción en un tiempo definido después de recibir la palabra de código. El retraso de tiempo puede programarse en el descodificador por cualquier medio y puede incluso definirse por datos en las palabras de código recibidas. Cuando se utiliza para realizar tal sincronización, se prefieren periodos de símbolo más cortos ya que los periodos de símbolo más cortos permiten mejor resolución temporal y por lo tanto sincronización más precisa. Los datos pueden
utilizarse para aplicaciones de juego interactivas, supervisión de audiencia, sistemas de comercio electrónico, juguetes y similares. El lector hace referencia a la solicitud internacional previa del Solicitante WO 02/45273 que describe un número de usos para este tipo de sistema de ocultación de datos.
En la modalidad anterior, las medidas de auto-correlación realizadas por el receptor en la señal de audio de entrada con el fin de identificar las ubicaciones de los ecos. Como apreciarán aquellos expertos en la técnica, pueden utilizarse otras técnicas para identificar los ecos. Algunas de estas otras técnicas se describen en la solicitud de PCT previa del solicitante PCT/GB2008/001820 y en US 5893067, cuyos contenidos se incorporan aquí por referencia. Típicamente, aunque no necesariamente, las técnicas involucran alguna forma de auto-correlación de la señal de audio original o de los parámetros obtenidos de la señal de audio (por ejemplo parámetros LPC, parámetros se cepstro, etc.). Como una alternativa, puede utilizarse un mejor aspecto de ajuste en donde se ajustan una señal de audio esperada (con diferentes polaridades de eco) a la señal real hasta que se encuentra una coincidencia y la polaridad de los ecos se determina de esa forma.
En la modalidad antes descrita, se proporcionó un transmisor individual junto con un receptor. Como apreciarán aquellos expertos en la técnica, pueden proporcionarse múltiples transmisores y/o múltiples receptores. Además, los componentes del transmisor pueden distribuirse entre un número de diferentes entidades. Por
ejemplo, la parte de codificación y de ocultación de datos del transmisor puede proporcionarse dentro de un extremo de cabeza de un sistema de distribución de televisión de una caja de tv por cable del usuario y la bocina 19 puede ser una bocina del aparato de televisión del usuario.
En las modalidades anteriores, los ecos se derivaron directamente de la señal de audio original. En modalidades alternativas, el eco puede no incluir todos los componentes de frecuencia de la señal de audio. Por ejemplo, pueden generarse uno o más de los ecos de una porción de la señal de audio después de que se filtro para remover ciertas frecuencias. Eso puede ser benéfico en donde se encontró, por ejemplo, que existe ruido adicional en la parte de frecuencia baja de los ecos pero no en la parte de frecuencia superior. En este caso, las señales recibidas también se filtraron para remover los componentes de frecuencia más baja (por ejemplo frecuencias bajo aproximadamente 500 Hz) para que únicamente los componentes de frecuencia superior (aquellos sobre los componentes de frecuencia más baja) de la señal de audio y los ecos estén presentes en las señales que se analizan. Alternativamente, en este caso, la señal recibida puede pasarse a través de un filtro que simplemente reduce el nivel de los componentes de frecuencia más baja en la señal recibida comparados con los componentes de frecuencia más alta. Esto tendrá el efecto de reducir la relevancia de la parte de frecuencia baja ruidosa de la señal recibida en el procedimiento de
descodif icación subsecuente. Similarmente, si resulta que los ecos agregados introducen una distorsión notable en las frecuencias superiores de la señal de audio compuesta, entonces los ecos (o las señales de las cuales se derivan) pueden filtrarse por paso bajo para remover las frecuencias más altas.
La división de la señal de audio en bandas de frecuencias separadas también puede utilizarse para transportar datos de múltiples canales. Por ejemplo, si la banda de frecuencia está dividida en una parte de frecuencia alta y una parte de frecuencia baja, entonces un canal puede proporcionarse al agregar ecos a la parte de frecuencia alta y pueden proporcionarse otros canales al agregar diferentes ecos a la parte de frecuencia baja. El uso de múltiples canales de esta forma permite la frecuencia diversidad temporal si los datos transportados en los dos canales son los mismos; o permite una velocidad de transferencia de datos aumentadas si cada canal transporta a diferentes datos. También pueden proporcionarse múltiples canales en donde la señal de audio también contiene múltiples canales (utilizados para derivar múltiples bocinas). En este caso, pueden proporcionarse uno o más canales de datos en la señal de audio para cada canal de audio.
En la modalidad anterior, los datos se ocultaron dentro de una señal de audio al agregar ecos a la señal de audio. En algunas situaciones, el audio entrante puede ya contener datos ocultos en la forma de tales ecos. En este caso, el codificador puede descodificar los datos ocultos existentes de la señal de audio recibida y entonces
utilizar los datos descodificados para limpiar la señal de audio para remover los ecos artificiales que definen estos datos opultos. El codificador entonces puede agregar nuevos ecos a la señal de audio de esa forma limpia para ocultar los nuevos datos en la señal de audio. De esta forma, los datos ocultos originales no interferirán con los nuevos datos ocultos.
En la modalidad anterior, se obtuvieron los ecos al retrasar las muestras digitales de la señal de audio. Como apreciarán aquellos expertos en la técnica, los ecos pueden generarse en el dominio análogo, al utilizar líneas de retraso análogas adecuadas y circuitos análogos para realizar la formación de eco y la modulación de polaridad.
En las modalidades anteriores, la señal de audio con los datos integra.dos se transmitió a un receptor sobre un enlace acústico. En una modalidad alternativa, la señal de audio puede transmitirse al receptor en un enlace de cable o inalámbrico eléctrico. En tal modalidad, las velocidades de datos que se utilizaron pueden ser superiores, debido a los niveles de ruido más bajos.
En la modalidad anterior, se transmitió un bit de datos dentro de cada periodo de símbolo. En una modalidad alternativa, pueden transmitirse múltiples bits dentro de cada periodo de símbolo. Por ejemplo, puede agregar un segundo par de ecos en retrasos de 20 ms y 20.25 ms dentro de cada periodo de medio símbolo para codificar un segundo bit; un tercer par de ecos puede agregarse en retrasos de 30 ms y 30.25 ms dentro de cada periodo de medio
símbolo para codificar un tercer bit, etc. Cada eco entonces puede aparecerse y desaparecerse durante cada periodo de medio símbolo y modulares en polaridad de acuerdo con el valor de bits como anteriormente. La aparición y desaparición de los ecos para los diferentes bits puede ser igual o puede ser diferente para los diferentes bits. La modulación de polaridad de los diferentes ecos por supuesto dependerá de los diferentes valores de bit que se van a transmitir en el periodo de símbolo. En una modalidad preferida, los ecos para los diferentes bits dentro del mismo periodo de medio símbolo se aparecen y desaparecen en diferentes momentos del periodo de medio símbolo, para que los diferentes ecos lleguen a sus amplitudes y con diferentes tiempos dentro del periodo de medio símbolo. De esta forma, cuando el eco para 1 bit está en su amplitud pico (o cuando todos los ecos para 1 bit están en sus amplitudes pico, si hay múltiples ecos que representan cada bit en cada periodo de medio símbolo), los ecos para los otros bits no estarán en sus picos. Al hacer esto y al muestrear los diferentes ecos cuando se espera que estén en sus altitudes pico, reducirá la interferencia entre los ecos para los diferentes bits dentro del mismo periodo de medio símbolo. También reduce la interferencia constructiva de los ecos que puede presentar a los ecos agregados más notables para un oyente. Al observar esto de otra forma, esto es lo mismo que tener múltiples mensajes de datos paralelos, cada uno codificado como para las modalidades antes descritas, pero con sus respectivos períodos de símbolo compensados en tiempo entre sí para que los
ecos para para que los diferentes mensajes tengan pico en diferentes tiempos, con lo cual reduce la interferencia entre los mensajes si los ecos se muestrean alrededor del tiempo cuando cada uno está en sus amplitudes máximas. Esta técnica aumentará la velocidad de bit de transmisión de datos entre el transmisor y el receptor. Los bits adicionales pueden ser del mismo mensaje o pueden ser bits de diferentes mensajes.
Los inventores han encontrado que las técnicas de ocultación de datos antes descritas no trabajan así también como durante porciones del audio que incluyen tonos individuales o tonos armónicos múltiples, como se encontrará en algunas secciones de música. Esto es debido a que los datos ocultos se vuelven más importunos al oyente en estas circunstancias y si los tonos que se utilizan como parte de un procedimiento de configuración automático que puede causar que el procedimiento falle. Por lo tanto, en una modalidad, los inventores proponen incluir (dentro del codificador) un detector que detecta el nivel de tonalidad de otras características de la señal de audio y, si es altamente tonal, apaga el sistema de circuitos de adición de eco. Alternativamente, ya que este apagado de los ecos por sí mismo puede ser notable para el usuario, el codificador puede desvanecer los ecos durante los periodos de alta tonalidad y entonces aparecerlos de nuevo durante periodos de baja tonalidad. De esta forma, los datos se agregan únicamente a la señal de audio cuando la señal de audio no es altamente tonal en naturaleza. Puede utilizarse varios cambios para hacer esta
detección. Una técnica para determinar el nivel de tonalidad en la señal de audio (aunque para un propósito diferente) se describe una solicitud de PCT previa del solicitante WO02/45286, cuyos contenidos se incorporan aquí por referencia. Puede encontrarse otra técnica en Davis P (1995) "Un tutorial sobre compresión MPEG/Audio", revista multimedia de IEEE, 2(2), páginas 60-74. En lugar de apagar el sistema de circuitos de adición de eco, el sistema puede disponerse para adaptar la amplitud de los ecos agregados dependiendo de la característica detectada de la señal de audio. Alternativamente, en lugar de variar las amplitudes de los ecos de esta forma, el codificador puede en vez de esto o además variar la velocidad de datos o el periodo de símbolo con el fin de reducir la obstrucción de datos ocultos durante períodos cuando la señal de audio es altamente tonal.
Se describió anteriormente una modalidad en la cual se codificó y transmitió un mensaje individual a un receptor remoto con un número de ecos dentro de una señal de audio. En algunas aplicaciones, puede transmitirse una secuencia de mensajes. Estos mensajes pueden ser los mismos o pueden ser diferentes. En cualquier caso, cada mensaje puede transmitirse después de que se transmitió un mensaje precedente. Alternativamente, el fin de un mensaje puede traslaparse con el índice del siguiente mensaje en una forma predefinida, para que el receptor pueda regenerar tal mensaje. Esta disposición puede aumentar la diversidad de tiempo de los mensajes transmitidos haciéndolos menos susceptibles a
ciertos tipos de ruido o pérdida de datos. En una alternativa adicional, los datos de los diferentes mensajes pueden intercalarse en una forma conocida y transmitirse como una corriente de datos individual al receptor. El receptor entonces podría regenerar cada mensaje la des intercalar los bits en la corriente de datos al utilizar el conocimiento de como los mensajes de intercalaron originalmente. ;
Como se discutió anteriormente, la Codificación Convolucional se utiliza como parte de codificador de corrección de error de envío (FEC). Como es bien conocido por aquellos expertos en la técnica, los datos codificados de esta forma generalmente se descodifican al utilizar un descodificador Viterbi, que opera al construir un trellis de las probabilidades de estado y las métricas de ramificación. Los datos transmitidos frecuentemente se terminan con un número de ceros para forzar al descodificador de regreso al estado de cero. Esto permite que el descodificador inicie la descodíficación de un estado conocido, sin embargo, requiere símbolos extra para transmitirse sobre el canal. Una técnica alternativa es para asegurar que los estados de inicio final de trellis son idénticos. Esta técnica se denomina como formación de bits trasera y tiene la ventaja de no requerir que se transmita ninguno de los símbolos extra. La formación de bits trasera se utiliza en muchos estándares de comunicaciones y, si se desea, puede utilizarse en las modalidades antes descritas.
La descripción anterior ha descrito la operación del sistema para ocultar datos como ecos dentro de una señal de audio. Los
sistemas descritos utilizan técnicas de dominio de tiempo para generar y agregar los secos y para detectar los ecos en la señal recibida. Como apreciarán aquellos expertos en la técnica, el procesamiento equivalente puede realizarse en el dominio de frecuencia para lograr resultados iguales o similares.
Los inventores encontraron que en algunos casos, el descodificador no trabaja bien cuando el mensaje consiste de bits predominantemente 'cero' (o predominantemente de forma inversa a 'un bit"), ya que bajo el esquema de codificación un segmento de palabra de código "todo lo cero" ve el mismo como un segmento de palabra de código 'todos uno' cambiado en tiempo. Un ejemplo particular en el mensaje 'todos ceros', que resulta en una palabra de código 'todos ceros' después de codificación de Reed Solomon. La codificación trabaja mejor cuando existen números aproximadamente iguales de unos y ceros en la palabra de código distribuidos uniformemente a través de la palabra de código. Esto puede lograrse para el sistema descrito al invertir los bits de paridad de Reed Solomon. Esto tiene el efecto de cambiar la palabra código de todos ceros a una mezcla de ceros y unos. Esto puede lograrse al alterar el estado del registro de cambios de retroalimentacion utilizado dentro del codificador de Reed Solomon que se utiliza para generar los bits de paridad. Esto proporciona más flexibilidad al establecer la relación de unos a aceros en la palabra de código. El intercalado subsecuente distribuye estos bits de paridad invertidos a través de la palabra de código. Como apreciarán aquellos expertos en la técnica
de detección y corrección de error, estos aspectos para balancear la distribución de unos y ceros aplica a cualquiera de muchos esquemas FEC ¡mplementados al utilizar registros de cambio de retroalimentación (o aritmética de campo de Galois) de los cuales Reed Solomon es un ejemplo.
En las modalidades anteriores, se describió un número de módulos de procesamiento y circuitos. Como apreciarán aquellos expertos en la técnica, estos módulos de procesamiento y circuitos pueden proporcionarse como circuitos de hardware o como módulos de software que corren dentro de la memoria de un procesador de propósito general. En este caso, el software puede proporcionarse en un medio de almacenamiento tal como un CD-ROM o puede descargarse en un dispositivo programable apropiado en una señal portadora en una red de computadora, tal como Internet. El software puede proporcionarse en forma, recopilada, forma parcialmente recopilada o en una forma no recopilada.
Claims (48)
1. - Un método para integrar un valor de datos en una señal de audio, el método comprende: recibir la señal de audio; generar un eco de al menos una porción de la señal de audio recibida; y incorporar el valor de datos en la señal de audio combinando la señal de audio recibida con el eco generado; en donde dicho valor de datos se integra en el audio al variar la polaridad del eco que está combinado con la señal de audio en dependencia del valor de datos.
2. - Un método de acuerdo con la reivindicación 1, en donde dicha generación genera un primer eco de al menos una porción de la señal de audio recibida y un segundo eco de al menos una porción de la señal de audio recibida; en donde dicha integración integra el valor de datos en la señal de audio al combinar la señal de audio recibida con los primeros y segundos ecos generados; y en donde los primeros y segundos ecos que se combinan con la señal de audio tienen primeras y segundas polaridades respectivamente, dichas polaridades varían en dependencia del valor de datos.
3. - Un método de acuerdo con la reivindicación 2, en donde cada uno de dichos ecos se genera al repetir al menos una parte de dicha señal de audio.
4.- Un método de acuerdo con la reivindicación 2, en donde dicho primer eco se genera al repetir una primera porción de dicha señal de audio y dicho segundo eco se genera repetir una segunda porción de dicha señal de audio.
5. - Un método de acuerdo con la reivindicación 2, en donde dichos primeros y segundos ecos se generan al repetir substancialmente la misma primera porción de la señal de audio.
6. - Un método de acuerdo con la reivindicación 5, que además comprende generar terceros y cuartos ecos, el tercer eco teniendo la misma polaridad, cuando se combina con dicha señal de audio, ya que dicho segundo eco y el cuarto eco tienen la misma polaridad, cuando se combinan con dicha señal de audio, como dicho primer eco y en donde los terceros y cuartos ecos se generan al repetir substancialmente la misma segunda porción de la señal de audio que es diferente a la primera porción repetida por los primeros y segundos ecos.
7. - Un método de acuerdo con la reivindicación 6, en donde dicha segunda porción está adyacente a la primera porción.
8. - Un método de acuerdo con la reivindicación 6 ó 7, en donde dicho primer eco está combinado con dicha señal de audio en un primer retraso relativo a dicha primera porción de la señal de audio; dicho segundo eco está combinado con la señal de audio en un segundo retraso relativo a dicho primer eco; dicho tercer eco está combinado con dicha señal de audio en un tercer retraso relativo a dicha segunda porción de la señal de audio; y dicho cuarto eco está combinado con la señal de audio en un cuarto retraso relativo a dicho tercer eco.
9.- Un método de acuerdo con ia reivindicación 8, en donde dicho primer retraso es igual a dicho tercer retraso y/o dicho segundo retraso es igual a dicho cuarto retraso.
10.- Un método de acuerdo con la reivindicación 8 ó 9, en donde dichos retrasos son independientes de dicho valor de datos.
11. - Un método de acuerdo con cualquiera de las reivindicaciones 8 a 10, en donde dichos primeros y terceros retrasos están entre 0.5 ms y 100 ms y en donde dichos segundos y cuartos retrasos están separados de dichos primeros y terceros ecos respectivamente por entre 0.125 ms y 3 ms.
12. - Un método de acuerdo con cualquiera de las reivindicaciones 6 a 11, en donde dichas primeras y segundas porciones de las señales de audio tienen una duración de entre 20 ms y 500 ms. t
13. - Un método de acuerdo con cualquiera de las reivindicaciones 6 a 12, en donde dicha generación genera dichos terceros y cuartos ecos al invertir la polaridad de un factor de ganancia aplicado a los ecos antes de combinarse con la señal de audio.
14. - Un método de acuerdo con cualquiera de las reivindicaciones 2 a 13, en donde dicho primer eco tiene una polaridad opuesta a dicho segundo eco.
15. - Un método de acuerdo con cualquier reivindicación precedente, en donde el o cada eco tiene una amplitud que es menor que la amplitud de dicha señal de audio.
16.- Un método de acuerdo con cualquier reivindicación precedente, en donde la amplitud del o cada eco es independiente de dicho valor de datos.
17.- Un método de acuerdo con cualquier reivindicación precedente, en donde el o cada eco se aparece y desaparece para reducir la obstrucción de los ecos a un oyente.
18. - Un método de acuerdo con cualquier reivindicación precedente, en donde dicha señal de audio se recibe como una corriente de muestras y en donde el o cada eco se genera al pasar la corriente de muestras de audio a través de una línea de retraso.
19. - Un método de acuerdo con cualquier reivindicación precedente, en donde dicho paso de combinación combina el o cada eco con la señal de audio al agregar y/o restar cada eco hacia/desde la señal de audio en dependencia del valor de datos.
20. - Un método de acuerdo con cualquiera de las reivindicaciones 1 a 18, en donde dicha generación genera dicho eco para que la polaridad del eco generado dependa del valor de datos.
21. - Un producto de instrucciones ejecutables por computadora que comprende instrucciones implementables por computadora para hacer que un dispositivo de computadora programable lleve a cabo el método de cualquiera de las reivindicaciones 1 a 20.
22. - Un aparato para integrar un valor de datos en una señal de audio, el aparato comprende: una entrada para recibir la señal de audio; un generador de eco operable para generar un eco de al menos una porción de la señal de audio recibida; y un combinador operable para combinar la señal de audio recibida con el eco generado para integrar el valor de datos en la señal de audio; en donde dicho generador de eco y/o dicho combinador se disponen para que dicho valor de datos se integre en el audio al variar la polaridad del eco que se combina con la señal de audio en dependencia del valor de datos.
23. - Un aparato de acuerdo con la reivindicación 22, operable para realizar el método de acuerdo con cualquiera de las reivindicaciones 2 a 20.
24. - Un método para recuperar un valor de datos integrado en una señal de audio, el método comprende: recibir una señal de entrada que tiene la señal de audio y un eco de la señal de audio cuya polaridad depende de dicho valor de datos; procesar la señal de entrada recibida para determinar la polaridad del eco; y recuperar el valor de datos de la polaridad determinada.
25. - Un método de acuerdo con la reivindicación 24, en donde dicha señal de entrada comprende un primer eco de al menos una porción de la señal de audio y un segundo eco de al menos una porción de la señal de audio, los primeros y segundos ecos teniendo primeras y segundas polaridades respectivamente, dichas polaridades varían en dependencia del valor de datos; y en donde dicho procedimiento procesa dicha señal de entrada para combinar dichos primeros y segundos ecos y para determinar la polaridad de los ecos combinados y en donde dicha recuperación recupera el valor de datos desde la polaridad determinada de los ecos combinados.
26. - Un método de acuerdo con la reivindicación 25, en donde dicho procesamiento procesa dicha señal de entrada para determinar una primera medida que depende del primer eco y una segunda medida que depende del segundo eco y combina los secos al diferenciar las primeras y segundas medidas y determina la polaridad de los ecos combinados al determinar la polaridad del resultado de la diferenciación.
27. - Un método de acuerdo con la reivindicación 25 ó 26, en donde dicho primer eco es de una primera porción de la señal de audio y dicho segundo eco es de una segunda porción de la señal de audio.
28. - Un método de acuerdo con la reivindicación 25 ó 26, en donde dichos primeros y segundos ecos son repeticiones substancialmente de la misma porción de la señal de audio.
29. - Un método de acuerdo con la reivindicación 24, en donde dicha señal de entrada comprende primeros, segundos, terceros y cuartos ecos, los primeros y cuartos ecos teniendo la misma polaridad y los segundos y terceros ecos teniendo misma polaridad que es opuesta a la polaridad de los primeros y cuartos secos, en donde dicho paso de procesamiento procesa la señal de entrada para combinar dichos primeros a cuartos ecos y para determinar la polaridad de los ecos combinados y en donde dicho paso de recuperación recupera el valor de datos a partir de la polaridad determinada de los ecos combinados.
30. - Un método de acuerdo con la reivindicación 29, en donde dicho procesamiento procesa dicha señal de entrada para determinar una primera medida que depende del primer eco, una segunda medida que depende del segundo eco, una tercera medida que depende del tercer eco y una cuarta medida que depende del cuarto eco y combina los ecos al diferenciar las medidas y determina la polaridad de los ecos combinados al determinar la polaridad de un resultado de la diferenciación.
31. - Un método de acuerdo con la reivindicación 30, en donde dicha diferenciación realiza una primera diferencia de las primeras y terceras medidas y realiza una segunda diferencia de las segundas y cuartas medidas.
32. - Un método de acuerdo con la reivindicación 31, en donde dicha diferenciación realiza una tercera diferencia del resultado de dicha primera diferencia y el resultado de la segunda diferencia y en donde la polaridad de los ecos combinados se determina a partir de la polaridad de un resultado de la tercera diferencia.
33. - Un método de acuerdo con cualquiera de las reivindicaciones 29 a 32, en donde los primeros y segundos ecos son repeticiones substancialmente de la misma primera porción de la señal de audio y dichos terceros y cuartos ecos son repeticiones substancialmente de la misma segunda porción de la señal de audio.
34. - Un método de acuerdo con cualquiera de las reivindicaciones 29 a 32, en donde los primeros y terceros ecos son repeticiones substancialmente de la misma primera porción de la señal de audio y dichos segundos y cuartos ecos son repeticiones substancialmente de la misma segunda porción de la señal de audio.
35. -? Un método de acuerdo con las reivindicaciones 33 ó 34, en donde dicha segunda porción está adyacente a la primera porción.
36.- Un método de acuerdo con la reivindicación 33, en donde dicho primer eco se retrasa con relación a dicha primera porción de la señal de audio por un primer retraso; dicho segundo eco se retrasa con relación a dicho primer eco por un segundo retraso; dicho tercer eco se retrasa con relación a dicha segunda porción de la señal de audio por un tercer retraso; y dicho cuarto eco se retrasa con relación a dicho tercer eco por un cuarto retraso.
37.- Un método de acuerdo con la reivindicación 36, en donde dicho primer retraso es igual a dicho tercer retraso y/o dicho segundo retraso es igual a dicho cuarto retraso.
38.- Un método de acuerdo con la reivindicación 36 ó 37, en donde dichos primeros y terceros retrasos están entre 0.5 ms y 100 ms y en donde dichos segundos y cuartos retrasos están retrasados con relación a dichos primeros y terceros ecos respectivamente por entre 0.125 ms y 3 ms.
39.- Un método de acuerdo con la reivindicación 33, en donde dicho primer eco se retrasa con relación a dicha primera porción de la señal de audio por un primer retraso; dicho segundo eco se retrasa con relación a dicha segunda porción de la señal de audio por un segundo retraso; dicho tercer eco se retrasa con relación a dicho primer eco por un tercer retraso; y dicho cuarto eco se retrasa con relación a dicho segundo eco por un cuarto retraso.
40.- Un método de acuerdo con cualquiera de las reivindicaciones 36 a 39, en donde dichos retrasos son independientes de dicho valor de datos.
41.- Un método de acuerdo con cualquiera de las reivindicaciones 33 a 40, en donde dichas primeras y segundas porciones de la señal de audio tienen una duración entre 20 ms y 500 ms.
42. - Un método de acuerdo con cualquiera de las reivindicaciones 25 a 41, en donde dicho primer eco tiene una polaridad opuesta a dicho segundo eco.
43. - Un método de acuerdo con cualquiera de las reivindicaciones 24 a 42, en donde el o cada eco se aparece y desaparece para reducir la obstrucción de los ecos a un oyente.
44.- Un método de acuerdo con la reivindicación 43, en donde la polaridad del eco se determina cuando la amplitud del eco está en o cerca de un máximo.
45.- Un producto de instrucciones ¡mplementables por computadora que comprende instrucciones ¡mplementables por computadora para hacer que un dispositivo de computadora l programable lleve a cabo el método de cualquiera de las reivindicaciones 24 a 44.
46. - Un aparato para recuperar un valor de datos incorporado en una señal de audio, el aparato comprende: una entrada que recibe una señal de entrada que tiene la señal de audio y un eco de la señal de audio cuya polaridad depende de dicho valor de datos; un procesador operable para procesar la señal de entrada para determinar la polaridad del eco; y un regenerador de datos operable para recuperar el valor de datos de la polaridad determinada.
47. - Un aparato de acuerdo con la reivindicación 45, operable para realizar el método de acuerdo con cualquiera de las reivindicaciones 25 a 44.
48.- Un método de acuerdo con cualquiera de las reivindicaciones 1 a 20, realizado en cada uno de una pluralidad de valores de datos que forman parte de un mensaje de datos codificado, en donde el mensaje de datos se codifica al utilizar una técnica de codificación FEC que realiza una codificación cíclica y una codificación convolucional de los datos de mensaje y en donde el orden de los datos de mensaje codificado cíclicos cambia antes de la codificación convolucional.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/GB2008/001820 WO2008145994A1 (en) | 2007-05-29 | 2008-05-29 | Recovery of hidden data embedded in an audio signal |
GB0814041A GB2462588A (en) | 2008-04-29 | 2008-07-31 | Data embedding system |
GB0821841.4A GB2460306B (en) | 2008-05-29 | 2008-11-28 | Data embedding system |
PCT/GB2009/001354 WO2009144470A1 (en) | 2008-05-29 | 2009-05-29 | Data embedding system |
Publications (1)
Publication Number | Publication Date |
---|---|
MX2010013076A true MX2010013076A (es) | 2011-08-08 |
Family
ID=39768060
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
MX2010013076A MX2010013076A (es) | 2008-05-29 | 2009-05-29 | Sistema de integracion de datos. |
Country Status (11)
Country | Link |
---|---|
US (2) | US20110125508A1 (es) |
EP (3) | EP2631904B1 (es) |
JP (1) | JP2011523091A (es) |
CN (2) | CN102881290B (es) |
BR (1) | BRPI0913228B1 (es) |
DK (1) | DK2631904T3 (es) |
ES (1) | ES2545058T3 (es) |
GB (1) | GB2460306B (es) |
MX (1) | MX2010013076A (es) |
PL (1) | PL2631904T3 (es) |
WO (1) | WO2009144470A1 (es) |
Families Citing this family (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2460306B (en) | 2008-05-29 | 2013-02-13 | Intrasonics Sarl | Data embedding system |
US8582781B2 (en) * | 2009-01-20 | 2013-11-12 | Koplar Interactive Systems International, L.L.C. | Echo modulation methods and systems |
US8984431B2 (en) | 2009-03-16 | 2015-03-17 | Apple Inc. | Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate |
CN101847409B (zh) * | 2010-03-25 | 2012-01-25 | 北京邮电大学 | 一种基于数字指纹的语音完整性保护方法 |
JP5601665B2 (ja) * | 2010-07-22 | 2014-10-08 | Kddi株式会社 | オーディオ電子透かし埋め込み装置、検出装置および該プログラム |
JP5554658B2 (ja) * | 2010-08-06 | 2014-07-23 | Kddi株式会社 | オーディオ電子透かし埋め込み装置およびプログラム |
US10706096B2 (en) | 2011-08-18 | 2020-07-07 | Apple Inc. | Management of local and remote media items |
US9002322B2 (en) | 2011-09-29 | 2015-04-07 | Apple Inc. | Authentication with secondary approver |
US11599915B1 (en) | 2011-10-25 | 2023-03-07 | Auddia Inc. | Apparatus, system, and method for audio based browser cookies |
JP5364141B2 (ja) * | 2011-10-28 | 2013-12-11 | 楽天株式会社 | 携帯端末、店舗端末、送信方法、受信方法、決済システム、決済方法、プログラムおよびコンピュータ読み取り可能な記憶媒体 |
RU2505868C2 (ru) * | 2011-12-07 | 2014-01-27 | Ооо "Цифрасофт" | Способ встраивания цифровой информации в аудиосигнал |
KR101325867B1 (ko) * | 2012-02-24 | 2013-11-05 | 주식회사 팬택 | 음성 인식을 이용한 사용자 인증 방법, 이를 위한 장치 및 시스템 |
GB201206564D0 (en) * | 2012-04-13 | 2012-05-30 | Intrasonics Sarl | Event engine synchronisation |
US20140258292A1 (en) | 2013-03-05 | 2014-09-11 | Clip Interactive, Inc. | Apparatus, system, and method for integrating content and content services |
WO2014143776A2 (en) | 2013-03-15 | 2014-09-18 | Bodhi Technology Ventures Llc | Providing remote interactions with host device using a wireless device |
WO2015010134A1 (en) * | 2013-07-19 | 2015-01-22 | Clip Interactive, Llc | Sub-audible signaling |
WO2015073597A1 (en) | 2013-11-13 | 2015-05-21 | Om Audio, Llc | Signature tuning filters |
US9990129B2 (en) | 2014-05-30 | 2018-06-05 | Apple Inc. | Continuity of application across devices |
JP5871088B1 (ja) | 2014-07-29 | 2016-03-01 | ヤマハ株式会社 | 端末装置、情報提供システム、情報提供方法およびプログラム |
JP5887446B1 (ja) | 2014-07-29 | 2016-03-16 | ヤマハ株式会社 | 情報管理システム、情報管理方法およびプログラム |
US10339293B2 (en) | 2014-08-15 | 2019-07-02 | Apple Inc. | Authenticated device used to unlock another device |
JP6484958B2 (ja) | 2014-08-26 | 2019-03-20 | ヤマハ株式会社 | 音響処理装置、音響処理方法およびプログラム |
CN113824998A (zh) | 2014-09-02 | 2021-12-21 | 苹果公司 | 音乐用户界面 |
TWI556226B (zh) * | 2014-09-26 | 2016-11-01 | 威盛電子股份有限公司 | 音訊檔案合成方法及其所適用之音訊檔案合成系統 |
US9626977B2 (en) * | 2015-07-24 | 2017-04-18 | Tls Corp. | Inserting watermarks into audio signals that have speech-like properties |
DK179186B1 (en) | 2016-05-19 | 2018-01-15 | Apple Inc | REMOTE AUTHORIZATION TO CONTINUE WITH AN ACTION |
DK201670622A1 (en) | 2016-06-12 | 2018-02-12 | Apple Inc | User interfaces for transactions |
GB2556023B (en) | 2016-08-15 | 2022-02-09 | Intrasonics Sarl | Audio matching |
US20180061875A1 (en) * | 2016-08-30 | 2018-03-01 | Stmicroelectronics (Crolles 2) Sas | Vertical transfer gate transistor and active cmos image sensor pixel including a vertical transfer gate transistor |
US10241796B2 (en) * | 2017-02-13 | 2019-03-26 | Yong-Kyu Jung | Compiler-assisted lookahead (CAL) memory system apparatus for microprocessors |
US11431836B2 (en) | 2017-05-02 | 2022-08-30 | Apple Inc. | Methods and interfaces for initiating media playback |
US10992795B2 (en) | 2017-05-16 | 2021-04-27 | Apple Inc. | Methods and interfaces for home media control |
US10928980B2 (en) | 2017-05-12 | 2021-02-23 | Apple Inc. | User interfaces for playing and managing audio items |
US20200270871A1 (en) | 2019-02-27 | 2020-08-27 | Louisiana-Pacific Corporation | Fire-resistant manufactured-wood based siding |
CN111343060B (zh) | 2017-05-16 | 2022-02-11 | 苹果公司 | 用于家庭媒体控制的方法和界面 |
US20220279063A1 (en) | 2017-05-16 | 2022-09-01 | Apple Inc. | Methods and interfaces for home media control |
CN107395292B (zh) * | 2017-07-05 | 2021-08-31 | 厦门声戎科技有限公司 | 一种基于海洋生物信号分析的信息隐藏技术通信方法 |
JP6998338B2 (ja) * | 2019-03-28 | 2022-01-18 | Toa株式会社 | 音響信号形成装置、音響受信装置、および音響システム |
DK201970533A1 (en) | 2019-05-31 | 2021-02-15 | Apple Inc | Methods and user interfaces for sharing audio |
KR102436985B1 (ko) | 2019-05-31 | 2022-08-29 | 애플 인크. | 오디오 미디어 제어를 위한 사용자 인터페이스 |
US10904029B2 (en) | 2019-05-31 | 2021-01-26 | Apple Inc. | User interfaces for managing controllable external devices |
US11010121B2 (en) | 2019-05-31 | 2021-05-18 | Apple Inc. | User interfaces for audio media control |
US11079913B1 (en) | 2020-05-11 | 2021-08-03 | Apple Inc. | User interface for status indicators |
US11392291B2 (en) | 2020-09-25 | 2022-07-19 | Apple Inc. | Methods and interfaces for media control with dynamic feedback |
US11847378B2 (en) | 2021-06-06 | 2023-12-19 | Apple Inc. | User interfaces for audio routing |
TWI790694B (zh) * | 2021-07-27 | 2023-01-21 | 宏碁股份有限公司 | 聲音浮水印的處理方法及聲音浮水印產生裝置 |
Family Cites Families (161)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US657379A (en) * | 1900-05-16 | 1900-09-04 | Edward C Bakken | Stock for holding cattle while dehorning. |
US2660662A (en) * | 1947-10-24 | 1953-11-24 | Nielsen A C Co | Search signal apparatus for determining the listening habits of wave signal receiver users |
US3845391A (en) * | 1969-07-08 | 1974-10-29 | Audicom Corp | Communication including submerged identification signal |
US3742463A (en) * | 1970-03-02 | 1973-06-26 | Nielsen A C Co | Data storage and transmission system |
US3651471A (en) * | 1970-03-02 | 1972-03-21 | Nielsen A C Co | Data storage and transmission system |
US3732536A (en) * | 1970-09-18 | 1973-05-08 | Gte Sylvania Inc | Passive object detection apparatus including ambient noise compensation |
US4025851A (en) * | 1975-11-28 | 1977-05-24 | A.C. Nielsen Company | Automatic monitor for programs broadcast |
US4237449A (en) * | 1978-06-16 | 1980-12-02 | Zibell J Scott | Signalling device for hard of hearing persons |
US4425642A (en) * | 1982-01-08 | 1984-01-10 | Applied Spectrum Technologies, Inc. | Simultaneous transmission of two information signals within a band-limited communications channel |
DE3229405C2 (de) | 1982-08-06 | 1984-08-30 | Werner 8000 München Janz | Gerät zum Prüfen der Funktionsfähigkeit von Fernsteuersendern |
US4514725A (en) * | 1982-12-20 | 1985-04-30 | Bristley Barbara E | Window shade mounted alarm system |
GB2135536A (en) | 1982-12-24 | 1984-08-30 | Wobbot International Limited | Sound responsive lighting system and devices incorporating same |
GB8314468D0 (en) | 1983-05-25 | 1983-06-29 | Agb Research Plc | Television monitoring |
AU3290084A (en) | 1983-09-16 | 1985-03-21 | Audicom Corp. | Encoding of transmitted program material |
FR2568432B1 (fr) | 1984-07-30 | 1990-06-29 | Baranoff Rossine Dimitri | Procede et dispositif de transmission d'informations codees par voie hertzienne en superposition a une emission traditionnelle en modulation de frequence |
GB8609524D0 (en) | 1986-04-18 | 1986-05-21 | British Broadcasting Corp | Video receivers & recorders |
US4718106A (en) * | 1986-05-12 | 1988-01-05 | Weinblatt Lee S | Survey of radio audience |
US5108341A (en) * | 1986-05-28 | 1992-04-28 | View-Master Ideal Group, Inc. | Toy which moves in synchronization with an audio source |
GB2196167B (en) | 1986-10-01 | 1991-01-02 | Emi Plc Thorn | Apparatus for marking a recorded signal |
US4846693A (en) * | 1987-01-08 | 1989-07-11 | Smith Engineering | Video based instructional and entertainment system using animated figure |
US4750034A (en) * | 1987-01-21 | 1988-06-07 | Cloeck En Moedigh Bioscoopreclame B.V. | Apparatus for monitoring the replay of audio/video information carriers |
US4840602A (en) * | 1987-02-06 | 1989-06-20 | Coleco Industries, Inc. | Talking doll responsive to external signal |
US4807031A (en) * | 1987-10-20 | 1989-02-21 | Interactive Systems, Incorporated | Interactive video method and apparatus |
FR2626731B3 (fr) | 1988-01-28 | 1990-08-03 | Informatique Realite | Dispositif electronique autonome destine a permettre la participation a une emission radiophonique ou televisee |
US4923428A (en) * | 1988-05-05 | 1990-05-08 | Cal R & D, Inc. | Interactive talking toy |
US4945412A (en) | 1988-06-14 | 1990-07-31 | Kramer Robert A | Method of and system for identification and verification of broadcasting television and radio program segments |
US5090936A (en) * | 1988-07-30 | 1992-02-25 | Takara Co., Ltd. | Movable decoration |
GB8824969D0 (en) * | 1988-10-25 | 1988-11-30 | Emi Plc Thorn | Identification codes |
US5499265A (en) | 1989-08-07 | 1996-03-12 | Omnipoint Data Company, Incorporated | Spread spectrum correlator |
US5191615A (en) * | 1990-01-17 | 1993-03-02 | The Drummer Group | Interrelational audio kinetic entertainment system |
US5446756A (en) | 1990-03-19 | 1995-08-29 | Celsat America, Inc. | Integrated cellular communications system |
JP2648527B2 (ja) | 1990-07-27 | 1997-09-03 | パイオニア株式会社 | 展示物説明システム |
US5136613A (en) * | 1990-09-28 | 1992-08-04 | Dumestre Iii Alex C | Spread Spectrum telemetry |
US5085610A (en) * | 1991-05-16 | 1992-02-04 | Mattel, Inc. | Dual sound toy train set |
FI88237C (fi) | 1991-05-24 | 1993-04-13 | Nokia Mobile Phones Ltd | Programmering av funktionerna i en mobiltelefon |
US5382970A (en) | 1991-07-19 | 1995-01-17 | Kiefl; John B. | Television viewer monitoring system including portable data meter for each viewer |
US5648789A (en) * | 1991-10-02 | 1997-07-15 | National Captioning Institute, Inc. | Method and apparatus for closed captioning at a performance |
JPH05145515A (ja) | 1991-11-19 | 1993-06-11 | Canon Inc | スペクトル拡散通信装置 |
US5319735A (en) | 1991-12-17 | 1994-06-07 | Bolt Beranek And Newman Inc. | Embedded signalling |
US5475798A (en) * | 1992-01-06 | 1995-12-12 | Handlos, L.L.C. | Speech-to-text translator |
US5314336A (en) | 1992-02-07 | 1994-05-24 | Mark Diamond | Toy and method providing audio output representative of message optically sensed by the toy |
US5353352A (en) | 1992-04-10 | 1994-10-04 | Ericsson Ge Mobile Communications Inc. | Multiple access coding for radio communications |
US5301167A (en) * | 1992-08-05 | 1994-04-05 | Northeastern University | Apparatus for improved underwater acoustic telemetry utilizing phase coherent communications |
JP2561232B2 (ja) | 1992-08-31 | 1996-12-04 | 双葉電子工業株式会社 | スぺクトラム拡散受信装置及びこの装置を用いたスぺクトラム拡散送受信装置 |
JPH06133367A (ja) | 1992-09-23 | 1994-05-13 | Walt Disney Co:The | オーディオ、照明、アニメーション、および特殊効果の遠隔同期のための方法および装置 |
NZ314404A (en) | 1992-11-16 | 1998-11-25 | Ceridian Corp | Encoding symbols in audio signals that represent frequency information, for identifying broadcast programs during audience survey |
US5570349A (en) | 1994-06-07 | 1996-10-29 | Stanford Telecommunications, Inc. | Wireless direct sequence spread spectrum digital cellular telephone system |
US5630203A (en) | 1993-01-12 | 1997-05-13 | Weinblatt; Lee S. | Technique for surveying a radio or a television audience |
US5412620A (en) | 1993-03-24 | 1995-05-02 | Micrilor, Inc. | Hydroacoustic communications system robust to multipath |
US5442343A (en) | 1993-06-21 | 1995-08-15 | International Business Machines Corporation | Ultrasonic shelf label method and apparatus |
US5481294A (en) | 1993-10-27 | 1996-01-02 | A. C. Nielsen Company | Audience measurement system utilizing ancillary codes and passive signatures |
US5436941A (en) | 1993-11-01 | 1995-07-25 | Omnipoint Corporation | Spread spectrum spectral density techniques |
US5574773A (en) | 1994-02-22 | 1996-11-12 | Qualcomm Incorporated | Method and apparatus of providing audio feedback over a digital channel |
US5457807A (en) | 1994-03-21 | 1995-10-10 | Weinblatt; Lee S. | Technique for surveying a radio or a television audience |
US5450490A (en) | 1994-03-31 | 1995-09-12 | The Arbitron Company | Apparatus and methods for including codes in audio signals and decoding |
US5519779A (en) | 1994-08-05 | 1996-05-21 | Motorola, Inc. | Method and apparatus for inserting signaling in a communication system |
JPH07336460A (ja) | 1994-06-03 | 1995-12-22 | Hitachi Ltd | データ通信装置 |
US5555258A (en) | 1994-06-17 | 1996-09-10 | P. Stuckey McIntosh | Home personal communication system |
CA2129925A1 (en) | 1994-08-11 | 1996-02-12 | Hendrik Adolf Eldert Zwaneveld | Audio synchronization of subtitles |
US5539705A (en) | 1994-10-27 | 1996-07-23 | Martin Marietta Energy Systems, Inc. | Ultrasonic speech translator and communications system |
US6021432A (en) | 1994-10-31 | 2000-02-01 | Lucent Technologies Inc. | System for processing broadcast stream comprises a human-perceptible broadcast program embedded with a plurality of human-imperceptible sets of information |
EP0710022A3 (en) | 1994-10-31 | 1998-08-26 | AT&T Corp. | System and method for encoding digital information in a television signal |
EP0713335A2 (en) | 1994-11-15 | 1996-05-22 | AT&T Corp. | System and method for wireless capture of encoded data transmitted with a television, video or audio signal and subsequent initiation of a transaction using such data |
US5828956A (en) | 1994-12-30 | 1998-10-27 | Sony Electronics, Inc. | Programmable cellular telephone and system |
US5774452A (en) | 1995-03-14 | 1998-06-30 | Aris Technologies, Inc. | Apparatus and method for encoding and decoding information in audio signals |
US5978413A (en) | 1995-08-28 | 1999-11-02 | Bender; Paul E. | Method and system for processing a plurality of multiple access transmissions |
US5822360A (en) | 1995-09-06 | 1998-10-13 | Solana Technology Development Corporation | Method and apparatus for transporting auxiliary data in audio signals |
US5937000A (en) | 1995-09-06 | 1999-08-10 | Solana Technology Development Corporation | Method and apparatus for embedding auxiliary data in a primary data signal |
EP0769611A1 (en) | 1995-09-22 | 1997-04-23 | Bernd Scheffel | Apparatus for intermittently atomizing and injecting fuel |
DE69636084T2 (de) | 1995-09-28 | 2006-09-14 | Nec Corp. | Verfahren und Vorrichtung zum Einfügen eines Spreizspektrumwasserzeichens in Multimediadaten |
US5752880A (en) | 1995-11-20 | 1998-05-19 | Creator Ltd. | Interactive doll |
US5687191A (en) | 1995-12-06 | 1997-11-11 | Solana Technology Development Corporation | Post-compression hidden data transport |
US5719937A (en) | 1995-12-06 | 1998-02-17 | Solana Technology Develpment Corporation | Multi-media copy management system |
JP3490235B2 (ja) | 1995-12-11 | 2004-01-26 | フォン・ドット・コム,インコーポレーテッド | 携帯電話機等の双方向データ通信デバイスとコンピュータとの間の通信のための双方向データ通信システム及びそこで使用される双方向通信デバイスとその使用方法 |
US6035177A (en) | 1996-02-26 | 2000-03-07 | Donald W. Moses | Simultaneous transmission of ancillary and audio signals by means of perceptual coding |
US6584138B1 (en) | 1996-03-07 | 2003-06-24 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Coding process for inserting an inaudible data signal into an audio signal, decoding process, coder and decoder |
US5828325A (en) | 1996-04-03 | 1998-10-27 | Aris Technologies, Inc. | Apparatus and method for encoding and decoding information in analog signals |
US5893067A (en) * | 1996-05-31 | 1999-04-06 | Massachusetts Institute Of Technology | Method and apparatus for echo data hiding in audio signals |
KR100295007B1 (ko) | 1996-06-20 | 2001-10-26 | 포만 제프리 엘 | 데이터은폐및추출방법 |
US5918223A (en) | 1996-07-22 | 1999-06-29 | Muscle Fish | Method and article of manufacture for content-based analysis, storage, retrieval, and segmentation of audio information |
US5960398A (en) | 1996-07-31 | 1999-09-28 | Wictor Company Of Japan, Ltd. | Copyright information embedding apparatus |
US6061793A (en) | 1996-08-30 | 2000-05-09 | Regents Of The University Of Minnesota | Method and apparatus for embedding data, including watermarks, in human perceptible sounds |
US5848155A (en) | 1996-09-04 | 1998-12-08 | Nec Research Institute, Inc. | Spread spectrum watermark for embedded signalling |
US7607147B1 (en) | 1996-12-11 | 2009-10-20 | The Nielsen Company (Us), Llc | Interactive service device metering systems |
GB9700854D0 (en) | 1997-01-16 | 1997-03-05 | Scient Generics Ltd | Sub-audible acoustic data transmission mechanism |
JP3690043B2 (ja) | 1997-03-03 | 2005-08-31 | ソニー株式会社 | 音声情報伝送装置及び方法並びに音声情報記録装置 |
US6209028B1 (en) * | 1997-03-21 | 2001-03-27 | Walker Digital, Llc | System and method for supplying supplemental audio information for broadcast television programs |
CA2225060A1 (en) | 1997-04-09 | 1998-10-09 | Peter Suilun Fong | Interactive talking dolls |
US6125172A (en) | 1997-04-18 | 2000-09-26 | Lucent Technologies, Inc. | Apparatus and method for initiating a transaction having acoustic data receiver that filters human voice |
US5940135A (en) * | 1997-05-19 | 1999-08-17 | Aris Technologies, Inc. | Apparatus and method for encoding and decoding information in analog signals |
GB2326572A (en) | 1997-06-19 | 1998-12-23 | Softsound Limited | Low bit rate audio coder and decoder |
IL121642A0 (en) | 1997-08-27 | 1998-02-08 | Creator Ltd | Interactive talking toy |
US5945932A (en) | 1997-10-30 | 1999-08-31 | Audiotrack Corporation | Technique for embedding a code in an audio signal and for detecting the embedded code |
US6467089B1 (en) | 1997-12-23 | 2002-10-15 | Nielsen Media Research, Inc. | Audience measurement system incorporating a mobile handset |
JP3673664B2 (ja) | 1998-01-30 | 2005-07-20 | キヤノン株式会社 | データ処理装置、データ処理方法及び記憶媒体 |
AUPP170298A0 (en) | 1998-02-06 | 1998-03-05 | Pracas, Victor Manuel | Electronic interactive puppet |
US6389055B1 (en) | 1998-03-30 | 2002-05-14 | Lucent Technologies, Inc. | Integrating digital data with perceptible signals |
WO1999059258A1 (en) * | 1998-05-12 | 1999-11-18 | Solana Technology Development Corporation | Digital hidden data transport (dhdt) |
WO2000021203A1 (en) | 1998-10-02 | 2000-04-13 | Comsense Technologies, Ltd. | A method to use acoustic signals for computer communications |
US6607136B1 (en) | 1998-09-16 | 2003-08-19 | Beepcard Inc. | Physical presence digital authentication system |
FI982363A (fi) | 1998-10-30 | 2000-05-01 | Nokia Mobile Phones Ltd | Menetelmä ja järjestelmä radiolaitteen toiminnan rajoittamiseksi tietyllä alueella |
CA2288366A1 (en) | 1998-11-05 | 2000-05-05 | Akira Ogino | Additional information transmission method, additional information transmission system, information signal output apparatus, information signal processing apparatus, information signal recording apparatus and information signal recording medium |
JP2000152217A (ja) | 1998-11-09 | 2000-05-30 | Toshiba Corp | 映像取得制限システム、映像取得許否信号送信装置および映像取得制限装置 |
US6876623B1 (en) | 1998-12-02 | 2005-04-05 | Agere Systems Inc. | Tuning scheme for code division multiplex broadcasting system |
US6370666B1 (en) | 1998-12-02 | 2002-04-09 | Agere Systems Guardian Corp. | Tuning scheme for error-corrected broadcast programs |
US6512919B2 (en) | 1998-12-14 | 2003-01-28 | Fujitsu Limited | Electronic shopping system utilizing a program downloadable wireless videophone |
GB9828101D0 (en) | 1998-12-21 | 1999-02-17 | Roke Manor Research | Acoustic marketing device |
GB2363300B (en) * | 1998-12-29 | 2003-10-01 | Kent Ridge Digital Labs | Digital audio watermarking using content-adaptive multiple echo hopping |
US6442283B1 (en) | 1999-01-11 | 2002-08-27 | Digimarc Corporation | Multimedia data embedding |
JP2000207170A (ja) | 1999-01-14 | 2000-07-28 | Sony Corp | 情報処理装置および情報処理方法 |
GB9902235D0 (en) | 1999-02-01 | 1999-03-24 | Emuse Corp | Interactive system |
JP3465616B2 (ja) | 1999-02-12 | 2003-11-10 | 株式会社デンソー | データ配信システム及び情報配信センタ |
JP4024957B2 (ja) | 1999-03-12 | 2007-12-19 | シャープ株式会社 | 通信装置および通信システム |
US6765950B1 (en) | 1999-04-01 | 2004-07-20 | Custom One Design, Inc. | Method for spread spectrum communication of supplemental information |
JP2000308130A (ja) | 1999-04-16 | 2000-11-02 | Casio Comput Co Ltd | 通信システム |
US6463413B1 (en) * | 1999-04-20 | 2002-10-08 | Matsushita Electrical Industrial Co., Ltd. | Speech recognition training for small hardware devices |
US6674993B1 (en) | 1999-04-30 | 2004-01-06 | Microvision, Inc. | Method and system for identifying data locations associated with real world observations |
US6298322B1 (en) | 1999-05-06 | 2001-10-02 | Eric Lindemann | Encoding and synthesis of tonal audio signals using dominant sinusoids and a vector-quantized residual tonal signal |
US7031271B1 (en) | 1999-05-19 | 2006-04-18 | Motorola, Inc. | Method of and apparatus for activating a spread-spectrum radiotelephone |
US7013301B2 (en) * | 2003-09-23 | 2006-03-14 | Predixis Corporation | Audio fingerprinting system and method |
US6442518B1 (en) | 1999-07-14 | 2002-08-27 | Compaq Information Technologies Group, L.P. | Method for refining time alignments of closed captions |
GB9917985D0 (en) | 1999-07-30 | 1999-09-29 | Scient Generics Ltd | Acoustic communication system |
GB2345779B (en) | 1999-10-12 | 2004-08-11 | Roke Manor Research | Apparatus for controlling a remote item |
WO2001031816A1 (en) | 1999-10-27 | 2001-05-03 | Nielsen Media Research, Inc. | System and method for encoding an audio signal for use in broadcast program identification systems, by adding inaudible codes to the audio signal |
US20010030710A1 (en) | 1999-12-22 | 2001-10-18 | Werner William B. | System and method for associating subtitle data with cinematic material |
US6438117B1 (en) | 2000-01-07 | 2002-08-20 | Qualcomm Incorporated | Base station synchronization for handover in a hybrid GSM/CDMA network |
US6737957B1 (en) | 2000-02-16 | 2004-05-18 | Verance Corporation | Remote control signaling using audio watermarks |
US7047191B2 (en) * | 2000-03-06 | 2006-05-16 | Rochester Institute Of Technology | Method and system for providing automated captioning for AV signals |
US6773344B1 (en) | 2000-03-16 | 2004-08-10 | Creator Ltd. | Methods and apparatus for integration of interactive toys with interactive television and cellular communication systems |
US8091025B2 (en) * | 2000-03-24 | 2012-01-03 | Digimarc Corporation | Systems and methods for processing content objects |
CN100592788C (zh) | 2000-04-14 | 2010-02-24 | 日本电信电话株式会社 | 与广播信息相关的信息取得方法、系统和装置 |
US6708214B1 (en) | 2000-04-21 | 2004-03-16 | Openwave Systems Inc. | Hypermedia identifier input mode for a mobile communication device |
EP1158800A1 (en) | 2000-05-18 | 2001-11-28 | Deutsche Thomson-Brandt Gmbh | Method and receiver for providing audio translation data on demand |
US6990453B2 (en) | 2000-07-31 | 2006-01-24 | Landmark Digital Services Llc | System and methods for recognizing sound and music signals in high noise and distortion |
US6782253B1 (en) | 2000-08-10 | 2004-08-24 | Koninklijke Philips Electronics N.V. | Mobile micro portal |
US20020069263A1 (en) | 2000-10-13 | 2002-06-06 | Mark Sears | Wireless java technology |
US6892175B1 (en) | 2000-11-02 | 2005-05-10 | International Business Machines Corporation | Spread spectrum signaling for speech watermarking |
AU2211102A (en) | 2000-11-30 | 2002-06-11 | Scient Generics Ltd | Acoustic communication system |
DK1928109T3 (da) | 2000-11-30 | 2012-08-27 | Intrasonics Sarl | Mobiltelefon til indsamling af publikumsundersøgelsesdata |
KR100375822B1 (ko) * | 2000-12-18 | 2003-03-15 | 한국전자통신연구원 | 디지털 오디오의 워터마크 삽입/추출 장치 및 방법 |
JP2005500736A (ja) | 2001-08-14 | 2005-01-06 | セントラル リサーチ ラボラトリーズ リミティド | 放送信号に関連する情報へのアクセスを提供するシステム |
US6862355B2 (en) | 2001-09-07 | 2005-03-01 | Arbitron Inc. | Message reconstruction from partial detection |
WO2003026153A1 (en) | 2001-09-20 | 2003-03-27 | Exo-Brain, Inc. | Input-output device with universal phone port |
KR100430566B1 (ko) * | 2001-11-02 | 2004-05-10 | 한국전자통신연구원 | 반향을 이용한 오디오 워터마킹에서의 반향 삽입 장치 및그 방법 |
JP4503292B2 (ja) | 2001-12-05 | 2010-07-14 | ディズニー エンタープライゼズ インコーポレイテッド | 携帯デバイスをワイヤレスにトリガするシステムおよび方法 |
US7308486B2 (en) | 2001-12-06 | 2007-12-11 | Accenture Global Services Gmbh | Mobile guide communications system |
JP3554825B2 (ja) | 2002-03-11 | 2004-08-18 | 東北大学長 | 電子透かしシステム |
EP1514268B1 (en) * | 2002-06-03 | 2009-03-11 | Koninklijke Philips Electronics N.V. | Re-embedding of watermarks in multimedia signals |
WO2004036352A2 (en) | 2002-10-15 | 2004-04-29 | Verance Corporation | Media monitoring, management and information system |
US6845360B2 (en) | 2002-11-22 | 2005-01-18 | Arbitron Inc. | Encoding multiple messages in audio data and detecting same |
KR200337174Y1 (ko) * | 2003-08-25 | 2004-01-07 | 남준노 | 터널형수로의 연속시공용 거푸집조립체 |
US20070036357A1 (en) * | 2003-09-22 | 2007-02-15 | Koninklijke Philips Electronics N.V. | Watermarking of multimedia signals |
US7616776B2 (en) * | 2005-04-26 | 2009-11-10 | Verance Corproation | Methods and apparatus for enhancing the robustness of watermark extraction from digital host content |
EP1542227A1 (en) | 2003-12-11 | 2005-06-15 | Deutsche Thomson-Brandt Gmbh | Method and apparatus for transmitting watermark data bits using a spread spectrum, and for regaining watermark data bits embedded in a spread spectrum |
CN104112450A (zh) | 2004-06-08 | 2014-10-22 | 皇家飞利浦电子股份有限公司 | 音频编码器,音频解码器,编码与解码音频信号的方法及音频设备 |
KR100644627B1 (ko) * | 2004-09-14 | 2006-11-10 | 삼성전자주식회사 | 음장 제어 정보 부호화 방법 및 이에 적합한 음장 처리 방법 |
EP1729285A1 (en) * | 2005-06-02 | 2006-12-06 | Deutsche Thomson-Brandt Gmbh | Method and apparatus for watermarking an audio or video signal with watermark data using a spread spectrum |
CN101115124B (zh) * | 2006-07-26 | 2012-04-18 | 日电(中国)有限公司 | 基于音频水印识别媒体节目的方法和装置 |
GB0710211D0 (en) * | 2007-05-29 | 2007-07-11 | Intrasonics Ltd | AMR Spectrography |
GB2460306B (en) | 2008-05-29 | 2013-02-13 | Intrasonics Sarl | Data embedding system |
JP5252578B2 (ja) | 2009-08-31 | 2013-07-31 | 学校法人東北学院 | 水中探知装置及び魚種判別方法 |
-
2008
- 2008-11-28 GB GB0821841.4A patent/GB2460306B/en active Active
-
2009
- 2009-05-29 MX MX2010013076A patent/MX2010013076A/es active IP Right Grant
- 2009-05-29 JP JP2011511088A patent/JP2011523091A/ja active Pending
- 2009-05-29 US US12/994,716 patent/US20110125508A1/en not_active Abandoned
- 2009-05-29 CN CN201210335495.4A patent/CN102881290B/zh active Active
- 2009-05-29 ES ES13168796.4T patent/ES2545058T3/es active Active
- 2009-05-29 BR BRPI0913228-7A patent/BRPI0913228B1/pt active IP Right Grant
- 2009-05-29 EP EP13168796.4A patent/EP2631904B1/en active Active
- 2009-05-29 EP EP10197316A patent/EP2325839A1/en not_active Withdrawn
- 2009-05-29 EP EP09754115A patent/EP2301018A1/en not_active Withdrawn
- 2009-05-29 WO PCT/GB2009/001354 patent/WO2009144470A1/en active Application Filing
- 2009-05-29 DK DK13168796.4T patent/DK2631904T3/en active
- 2009-05-29 CN CN2009801192275A patent/CN102047324A/zh active Pending
- 2009-05-29 PL PL13168796T patent/PL2631904T3/pl unknown
-
2011
- 2011-09-14 US US13/232,190 patent/US8560913B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
BRPI0913228A8 (pt) | 2016-07-05 |
JP2011523091A (ja) | 2011-08-04 |
BRPI0913228B1 (pt) | 2020-09-15 |
DK2631904T3 (en) | 2015-09-28 |
CN102881290A (zh) | 2013-01-16 |
CN102881290B (zh) | 2015-06-10 |
US20120004920A1 (en) | 2012-01-05 |
ES2545058T3 (es) | 2015-09-08 |
EP2325839A1 (en) | 2011-05-25 |
GB2460306A (en) | 2009-12-02 |
US8560913B2 (en) | 2013-10-15 |
US20110125508A1 (en) | 2011-05-26 |
PL2631904T3 (pl) | 2015-12-31 |
EP2631904A1 (en) | 2013-08-28 |
GB0821841D0 (en) | 2009-01-07 |
EP2631904B1 (en) | 2015-07-01 |
EP2301018A1 (en) | 2011-03-30 |
GB2460306B (en) | 2013-02-13 |
CN102047324A (zh) | 2011-05-04 |
BRPI0913228A2 (pt) | 2016-01-19 |
WO2009144470A1 (en) | 2009-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
MX2010013076A (es) | Sistema de integracion de datos. | |
US7505823B1 (en) | Acoustic communication system | |
RU2624549C2 (ru) | Формирование сигнала водяного знака и встраивание водяного знака | |
US9865272B2 (en) | Inserting watermarks into audio signals that have speech-like properties | |
CA2599969A1 (en) | Device and method for generating an encoded stereo signal of an audio piece or audio data stream | |
KR101419162B1 (ko) | 차동 인코딩을 이용하는 워터마크 발생기, 워터마크 디코더, 이진 메시지 데이터에 의존하여 워터마크 신호를 제공하기 위한 방법, 워터마킹된 신호에 의존하여 이진 메시지 데이터를 제공하기 위한 방법, 및 컴퓨터 프로그램 | |
KR20140128942A (ko) | 변조 장치, 복조 장치, 음향 전송 시스템, 프로그램, 및 복조 방법 | |
RU2004118840A (ru) | Способ замещения воспринимаемого шума | |
KR20120128146A (ko) | 워터마크 생성기, 워터마크 디코더, 이진 메시지 데이터에 기초하여 워터마크 신호를 제공하는 방법, 워터마킹된 신호에 기초하여 이진 메시지 데이터를 제공하는 방법 및 이차원 비트 확산을 이용한 컴퓨터 프로그램 | |
CN102395063B (zh) | 一种用于传输具有高质量和低延迟的数字化音频信息的方法以及使用该方法的麦克风 | |
JP2007517441A5 (es) | ||
US9831968B2 (en) | Digital switching signal sequence for switching purposes, apparatus for including said digital switching signal sequence in a digital audio information signal, and apparatus for receiving the information signal provided with the switching signal sequence | |
JP2012155233A (ja) | 情報伝送装置 | |
JP3943447B2 (ja) | データ送信装置、データ受信装置、データ符号化方法、及びデータ復号化方法、 | |
GB2462588A (en) | Data embedding system | |
Li et al. | Authentication and quality monitoring based on audio watermark for analog AM shortwave broadcasting |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FG | Grant or registration |