ES2420909T3 - Sistema de subtitulación - Google Patents

Sistema de subtitulación Download PDF

Info

Publication number
ES2420909T3
ES2420909T3 ES02798373T ES02798373T ES2420909T3 ES 2420909 T3 ES2420909 T3 ES 2420909T3 ES 02798373 T ES02798373 T ES 02798373T ES 02798373 T ES02798373 T ES 02798373T ES 2420909 T3 ES2420909 T3 ES 2420909T3
Authority
ES
Spain
Prior art keywords
subtitle
presentation
user
subtitles
user device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES02798373T
Other languages
English (en)
Inventor
Ian Michael Hosking
Aled Wynne Jones
Michael Raymond Reynolds
Peter John Kelly
Michael David Emmens
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intrasonics SARL
Original Assignee
Intrasonics SARL
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GB0130936A external-priority patent/GB0130936D0/en
Priority claimed from GB0204323A external-priority patent/GB0204323D0/en
Application filed by Intrasonics SARL filed Critical Intrasonics SARL
Application granted granted Critical
Publication of ES2420909T3 publication Critical patent/ES2420909T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/162Authorising the user terminal, e.g. by paying; Registering the use of a subscription channel, e.g. billing
    • H04N7/165Centralised control of user terminal ; Registering at central

Abstract

Sistema de subtitulación para proporcionar subtítulos para una presentación a un usuario, estando una señalsonora acústica generada por altavoces durante la presentación, el sistema de subtítulos comprendiendo:un memoria de subtítulos (9) que funciona para almacenar uno o más conjuntos de subtítulos, estando cadaconjunto asociado con una o más presentaciones y comprendiendo cada conjunto una pluralidad de subtítulos parareproducirse en diferentes momentos durante la presentación asociada, y un dispositivo portátil (1) que tiene: i) una memoria (65) que funciona para recibir y guardar, desde dicha memoria de subtítulos (9), al menos unconjunto de subtítulos o para recibir y guardar subtítulos individuales con el fin de realizar una presentación para unusuario asociada con el dispositivo del usuario; ii) un micrófono (41) que funciona para recibir la señal acústica generada por el altavoz durante la presentación, parautilizar en la definición del tiempo durante la presentación en el que cada subtítulos es enviado al usuario asociadocon el dispositivo de usuario portátil. iii) una salida de subtítulos (89) que funciona para enviar cada subtítulo recibida al usuario asociado con eldispositivo de usuario; y iv) medios de control de tiempo (49,83,85,145) que funcionan para procesar dicha señal acústica recibida por elmicrófono con el fin de determinar la sincronización durante la presentación en la que cada subtítulo tiene que serenviado y funcionar para controlar dicha salida de subtítulo (89), de modo que cada subtítulo es enviado a dichousuario en el momento determinado.

Description

Sistema de subtitulación
[0001] La presente invención se refiere a un sistema y a un procedimiento y a partes del mismo para proporcionar subtítulos de audio o video o presentaciones multimedia. La invención tiene particular relevancia, aunque no exclusiva, en el suministro de tal sistema de subtítulos para facilitar el acceso a audio, video o presentaciones multimedia a personas con discapacidades sensoriales.
[0002] Una parte importante de la población con discapacidades auditivas disfruta de subtítulos (en forma de subtítulos de texto) en imágenes de video, tales como las emitidas por televisión, cintas de video, DVD y películas. Actualmente hay dos tipos de sistemas de subtitulación aptos para imágenes en vídeo - sistemas de subtitulación en pantalla y sistemas de subtitulación fuera de la pantalla. En los sistemas de subtitulación en pantalla, el texto se muestra en la pantalla y tapa parte de la imagen. Esto representa un problema en los cines en los que hay cierta reticencia a que esto ocurra con algunos públicos. En el sistema de subtitulación fuera de la pantalla, el texto se muestra en una pantalla separada. Esto soluciona alguno de los problemas relacionados con el sistema de subtitulación en pantalla, pero añade un coste adicional y también complejidad, y de hecho no ha tenido una buena acogida en los cines.
[0003] Además de los sistemas de subtitulación de texto para personas con problemas de audición, también existen sistemas de captación que proporciona subtítulos de audio para personas con discapacidades visuales. En este tipo de sistema de captación de audio, se proporciona una descripción auditiva de lo que se está mostrando al usuario, de forma similar al modo en que se proporcionan los subtítulos a aquellos con problemas auditivos.
[0004] CA-A-1219925 describe un sistema para generar y sincronizar la visualización de subtítulos para una película en un cine determinado. El sistema procesa el audio de la película para extraer las características del audio, que utiliza para controlar la visualización de las subtítulos asociadas en el tiempo adecuado.
[0005] EP-A-1158800 describe un sistema que permite a un usuario reemplazar el audio de una película con un audio traducido, que se recupera de un servidor remoto. Una vez recuperado, el sistema sincroniza el audio traducido con el video utilizando la información de la marca de tiempo provista en el video y en el audio. A continuación el video con el audio traducido se transmite al usuario.
[0006] Un objetivo de la presente invención es proporcionar un sistema de subtitulación alternativo para discapacitados auditivos o un sistema de subtítulos alternativo para los discapacitados visuales. El sistema de subtítulos también puede ser utilizado por personas sin problemas visuales o de audición, por ejemplo, para proporcionar subtítulos en otro idioma o las letras de las canciones.
[0007] Según un aspecto, la presente invención proporciona un sistema de subtítulos para proporcionar subtítulos destinadas a ser presentadas a un usuario, generando una señal sonora acústica durante la presentación, el sistema de subtítulos comprendiendo: una memoria de subtítulos (9) que funciona para almacenar uno o más conjuntos de subtítulos, estando cada conjunto asociado con una o más presentaciones y cada conjunto comprendiendo una pluralidad de subtítulos para reproducirse en diferentes momentos durante la presentación asociada, y un dispositivo portátil que tiene:
i) una memoria que funcionar para recibir y guardar, desde dicho memoria de subtítulos, al menos un conjunto de subtítulos para recibir y guardar subtítulos individuales con el fin de realizar una presentación para un usuario asociada con el dispositivo del usuario;
ii) un micrófono que funciona para recibir la señal acústica generadas durante la presentación, para utilizar en la definición del tiempo durante la presentación, en la que cada subtítulo es transmitida al usuario asociado con el dispositivo de usuario portátil.
iii) una salida de subtítulo que funciona para producir cada subtítulo recibida con el usuario asociado con el dispositivo de usuario; y
iv) medios de control de tiempo que funcionan para procesar dicha señal acústica recibida por el micrófono con el fin de determinar la sincronización durante la presentación en la que cada subtítulo tiene que ser enviado y funcionar para controlar dicha salida de subtítulo de modo que cada subtítulo es enviado a dicho usuario en el momento determinado.
[0008] Otros aspectos de la invención se describen en las reivindicaciones adjuntas.
[0009] En una realización, las subtítulos son subtítulos de texto que se envían al usuario en una pantalla asociada con el dispositivo del usuario. En otra realización, las subtítulos son señales de audio que se envían al usuario en forma de señales acústicas mediante un altavoz o un auricular. El sistema de subtítulos se puede utilizar, por ejemplo, en cines, para proporcionar subtítulos a personas con discapacidades sensoriales y facilitarles una mejor comprensión y disfrute de, por ejemplo, películas u otras presentaciones multimedia.
[0010] El dispositivo de usuario es preferiblemente un dispositivo de mano como un teléfono móvil o agenda personal, ya que son ligeros y todo el mundo tiene acceso a ellos. También es adecuado utilizar un dispositivo informático portátil, ya que solo con proporcionar un software adecuado, el dispositivo puede adaptarse fácilmente para que funcione de la forma descrita anteriormente.
[0011] La memoria de subtítulos puede estar situado en un servidor remoto, en cuyo caso el dispositivo de usuario sería preferiblemente un teléfono móvil (o un PDA con conectividad inalámbrica) ya que permite la conexión directa entre el dispositivo de usuario y el servidor remoto. Alternativamente, el memoria de subtítulos puede ser un kiosco en el lugar donde se realiza la presentación, en cuyo caso el usuario puede descargar las subtítulos y la información de sincronización a su llegada. Alternativamente, la memoria de subtítulos puede ser simplemente una tarjeta de memoria o una tarjeta inteligente que el usuario puede insertar en su dispositivo de usuario, con el fin de obtener el conjunto de subtítulos de la presentación junto con la información de sincronización.
[0012] Ejemplos de realizaciones de la presente invención se describirán ahora más detalladamente en referencia a los dibujos adjuntos, en los que:
La figura 1 es una vista general esquemática de un sistema de subtítulos de una realización de la presente invención;
La figura 2a es un diagrama de bloques esquemático que muestra los principales componentes de un teléfono de usuario que se utiliza en un sistema de subtítulos mostrado en la figura 1;
La figura 2b es una tabla que representa las subtítulos en un archivo de subtítulos descargado en el teléfono mostrado en la figura 2a desde el servidor remoto mostrado en la figura 1;
La figura 2c es una representación de un archivo de sincronización descargado en el teléfono mostrado en la figura 2a desde el servidor remoto mostrado en la figura 1;
La figura 2d es un diagrama temporal que muestra la temporización de las señales de sincronización e ilustra las ventanas de temporización durante las que el teléfono móvil procesa una señal de audio desde un micrófono;
La Figura 2e es un diagrama de señales que ilustra un ejemplo de señal de audio recibida por un micrófono del teléfono mostrado en la Figura 2a y el stream de firma generado por un extractor de firma que forma parte del teléfono móvil;
La figura 2f muestra una salido desde un correlador que forma parte del teléfono móvil mostrado en la figura 2a, que se utiliza para sincronizar la visualización de subtítulos cuando se está viendo la película;
La figura 2g muestra esquemáticamente un pantallazo del teléfono ilustrado en la figura 2a que muestra un ejemplo de subtítulo que se muestra al usuario;
La figura 3 es un diagrama de bloques esquemático que muestra los principales componentes de un servidor web remoto que forma parte del sistema de subtítulos mostrado en la figura 1;
La figura 4 es un diagrama de bloques esquemático que muestra los principales componentes de un dispositivo de usuario portátil de una realización alternativa; y
La figura 5 es un diagrama de bloques esquemático que muestra los principales componentes de un servidor web remoto que se utiliza con el dispositivo de usuario portátil mostrado en la figura 5.
VISTA GENERAL
[0013] La Figura 1 ilustra esquemáticamente un sistema de subtítulos para su uso en la prestación de subtítulos de texto en un número de dispositivos de usuario (dos de los cuales se muestran y están etiquetados 1-1 y 1-2) para una película que se muestra en una pantalla de 3 dentro de una sala de cine 5. El sistema de subtitulación también incluye un servidor web remoto 7 que controla el acceso de los dispositivos de usuario 1 en subtítulos almacenados en una base de datos de subtítulos 9. En particular, en esta forma de realización, el dispositivo de usuario 1-1 es un teléfono móvil que puede conectarse con el servidor web remoto 7 a través de una estación de comunicaciones móvil de la base 11, un centro de conmutación 13 e Internet 15 para descargar los subtítulos de la base de datos de subtítulos 9. En esta forma de realización, el segundo dispositivo de usuario 1-2 es un asistente digital personal (PDA) que no tiene circuitos de transceptor de telefonía móvil. Este PDA 1-2, sin embargo, puede conectarse con el servidor web remoto 7 a través de un ordenador 17 que puede conectarse a Internet 15. El ordenador 17 puede ser un ordenador personal situado en el hogar del usuario 19 y puede incluir típicamente una estación de acoplamiento 21 para conectar el PDA 1-2 con el ordenador 17.
[0014] En esta forma de realización, el funcionamiento del sistema de subtitulación el uso del teléfono móvil 1-1 es ligeramente diferente a la operación del sistema de subtitulación que utiliza el PDA 1-2. A continuación se dará una breve descripción de la operación del sistema de subtitulación que utiliza de estos dispositivos.
[0015] En esta realización, el teléfono móvil 1-1 funciona para descargar los subtítulos de la película que vamos a ver al principio de la película. Lo hace capturando una porción de sonido desde el principio de la película, generada mediante altavoces 23-1 y 23-2, que procesa para generar una firma que es representativa del segmento de audio. El teléfono móvil 1-1 a continuación, transmite esta firma al servidor web remoto 7 a través de la estación base 11, la estación de conmutación 13 e Internet 15. El servidor web 7, a continuación, identifica la película que está a punto de comenzar a partir de la firma y recupera el archivo de título apropiado junto con un archivo de sincronización asociado que se transmite de nuevo al teléfono móvil 1-1 a través de Internet 15, el centro de conmutación 13 y la estación base 11. Después de que el archivo de título y el archivo de sincronización han sido recibidos por el teléfono móvil 1-1, la conexión con la estación base 11 se termina y el teléfono móvil 1-1 genera y muestra los subtítulos apropiados para el usuario, sincronizados con la película que se muestra en pantalla 3. En esta realización, los datos de sincronización de la sincronización de archivos descargados desde el servidor web remoto 7 define la temporización estimada de los segmentos de audio posteriores dentro de la película y el teléfono móvil 11 sincroniza el playout de los subtítulos mediante el procesamiento de la señal de audio de la película y la identificación de la sincronización real de los segmentos posteriores de audio en la película.
[0016] En esta realización, el usuario de la PDA 1-2 descarga los subtítulos de la película cuando está en casa 19 con su ordenador personal 17 antes de que empiece a proyectarse la película. En particular, en esta forma de realización, el usuario escribe en el nombre de la película que se va a ver en el ordenador personal 17 y a continuación envía esta información al servidor web remoto 7 a través de Internet 15. En respuesta, el servidor web 7 recupera el archivo de título apropiado y el archivo de sincronización para la película que se descarga en el ordenador personal del usuario 17. El ordenador personal 17 almacena el archivo de subtítulos y el archivo de sincronización en el PDA 1-2 a través de la estación de acoplamiento 21. En esta forma de realización, la siguiente operación de la PDA 1-2 para sincronizar la visualización de los subtítulos para el usuario durante la película es la misma que la operación del teléfono móvil 1-1 y, por tanto, no se describirán de nuevo.
TELÉFONO MÓVIL
[0017] Anteriormente se ha proporcionado una breve descripción de la forma en que el teléfono móvil 1-1 recupera y después reproduce los subtítulos de una película a un usuario. Ahora se proporcionará una descripción más detallada de los componentes principales del teléfono móvil 1-1 que se muestran en negrita en la figura 2a. Como se muestra, el teléfono móvil 1-1 incluye un micrófono 41 para la detección de la señal de sonido acústica generada por los altavoces 23 en el cine 5 y para generar una señal eléctrica de audio correspondiente. La señal auditiva procedente del micrófono 41 es filtrada a continuación por un filtro 43 a fin de eliminar los componentes de frecuencia que no interesan. El convertidor de analógico a digital (ADC) 45 convierte entonces la señal de audio filtrada en una señal digital y luego es almacenada en un buffer de entrada 47. La señal de audio escrita en la memoria intermedia de entrada 47 es procesada a continuación por un extractor de firma 49 que procesa el audio para extraer una firma que es representativa del audio en memoria. El extractor de firma 49 puede utilizar varias técnicas de procesamiento para extraer esta firma. Por ejemplo, el extractor de firma puede realizar el procesamiento descrito en WO 02/11123 a nombre de Shazam Entertainment Limited. En este sistema, una ventana de aproximadamente 15 segundo de audio se procesa para identificar un número de “huellas” en el string de audio. Estas huellas junto con la información del momento en el que se producen dentro del string de audio forman lo que se ha indicado anteriormente como firma.
[0018] Como se muestra en la Figura 2a, la firma generada por el extractor de firma sale entonces a un búfer de salida 51 y luego se transmite al servidor web remoto 7 a través de la antena 53, un circuito de transmisión 55, un convertidor d digital a analógico (DAC ) 57 y un conmutador 59.
[0019] Como se describirá en más detalle a continuación, el servidor remoto 7 procesa entonces la firma recibida para identificar la película que se está reproduciendo y para recuperar el archivo de título apropiado y el archivo de sincronización para la película. Estos se descargan de nuevo en el teléfono móvil 1-1 y pasan, a través de la antena 53, al circuito de recepción 61 y convertidor de analógico a digital 63 a una memoria de subtítulos 65. La figura 2b ilustra esquemáticamente la forma del archivo de subtítulos 67 descargado desde el servidor web remoto 7. Como se muestra, en esta forma de realización, el archivo de título 67 incluye una secuencia ordenada de subtítulos (subtítulo (1) a subtítulo (N)) 69-1 a 69-N. El archivo de subtítulos 67 también incluye, para cada subtítulo, información formateada 71-1 a 71-N que define el tipo de letra, color, etc., del texto que se mostrará. El archivo de subtítulos 67 incluye también, para cada subtítulo, un valor temporal t1 a tN que define el tiempo en el que el subtítulo debería producirse al inicio de la película. Finalmente, en esta realización, el archivo de subtítulo 67 incluye, para cada subtítulo 69, una duración que define el tiempo durante el que el subtítulo debería mostrarse al usuario.
[0020] La figura 2c representa esquemáticamente los datos dentro del archivo de sincronización 73 que utiliza en esta forma de realización el teléfono móvil 1-1 para sincronizar la visualización de los subtítulos con la película. Como se muestra, el archivo de sincronización 73 incluye un número de firmas 75-1 a 75-M teniendo cada una un valor de tiempo asociado t1 s a tM S que identifica el momento en el que la firma debe producirse dentro del audio de la película (de nuevo calculado a partir de la a partir de la película).
[0021] En esta forma de realización, el archivo de sincronización 73 se pasa a una unidad de control 81 que controla el funcionamiento de la unidad de extracción de firma 49 y un correlador deslizante 83. La unidad de control 81 también controla la posición del interruptor 59 de manera que después de que los archivos de subtítulos y de sincronización se han descargado en el teléfono móvil 1-1, y el teléfono móvil 1-1 está intentando sincronizar la salida de los subtítulos con la película, el stream de firma generado por el extractor de firma 49 se pasa al correlador deslizante 83 a través de la memoria intermedia de salida 51 y el conmutador 59.
[0022] inicialmente, antes de que los subtítulos se envíen al usuario, el teléfono móvil 1-1 debe sincronizarse con la película que se está proyectando. Esto se logra haciendo funcionar el extractor de firma 49 y el correlador de deslizamiento 83 en un modo de adquisición, durante el cual la firma extractor extrae firmas del audio recibido en el micrófono 41 que luego se comparan con las firmas 75 en el archivo de sincronización 73 hasta que se identifica una coincidencia entre el audio recibido de la película y las firmas 75 en el archivo de sincronización 73. Esta coincidencia identifica la posición actual dentro de la película, que se utiliza para identificar el subtítulo inicial que se muestra al usuario. En este punto, el teléfono móvil 1-1 entra en un modo de seguimiento durante el que el extractor de firma 49 solo extrae firmas para el audio durante intervalos de tiempo predeterminados (o ventanas) dentro de la película correspondiente hasta el momento en que el teléfono móvil 1-1 espera detectar la próxima firma en la pista de audio de la película. Esto se ilustra en la Figura 2d, que muestra una línea de tiempo (que representa la línea de tiempo de la película), junto con los tiempos t1 s a tM S que corresponden con el momento en el que el teléfono móvil 1.1 espera que se produzcan las firmas que dentro de la pista de audio de la película. La figura 2d también muestra un pequeño intervalo de tiempo o ventana w1 a wM alrededor de estos puntos de tiempo, durante los que el extractor de firma 49 procesa la señal de audio para generar un stream de audio que sale hacia la memoria de salida
51.
[0023] La generación de la corriente de la firma se ilustra en la Figura 2e, que muestra una porción 77 de la pista de audio correspondiente a una de las ventanas de tiempo wj y el stream 79 de las firmas generadas por el extractor de firma 49. En esta realización, se generan tres firmas (firma (i), firma (i 1) y la firma (i 2)) para cada ventana de procesamiento w. Esto es solo para fines de ilustración. En la práctica, se pueden generar muchos más o menos firmas por cada ventana de procesamiento w. Además, mientras que en esta realización las firmas se generan a partir de subventanas no superpuestas de la ventana de procesamiento w, las firmas también se pueden generar a partir de subventanas superpuestas. El modo en que esto se consigue es conocido por los expertos en la materia y no se describirá en detalle.
[0024] En esta forma de realización, entre las ventanas de procesamiento adyacentes w, la unidad de control 51 controla el extractor de firma 49 de modo que no procesa el audio recibido. De este modo, el procesamiento realizado por el extractor de firma 49 se puede mantener al mínimo.
[0025] Durante este modo de funcionamiento de seguimiento, el correlador deslizante 83 funciona para correlacionar la secuencia de firma generada en el búfer de salida 51 con la siguiente firma 75 en el archivo de sincronización 73. Esta correlación genera una gráfico de correlación tal como el mostrado en la Figura 2f para la ventana de audio que está siendo procesada. Como se muestra en la figura 2, en esta realización, las ventanas wj están definidas de modo que el tiempo esperado de la firma está en medio de la ventana. Esto significa que el teléfono móvil 1-1 espera que el pico de salida del correlador deslizante 83 se corresponda con la mitad de la ventana de procesamiento w. Si el pico se produce antes o después en la ventana, entonces la sincronización de salida de subtítulo del teléfono móvil 1-1 debe ser ajustada para que se mantenga sincronizada con la película. Esto se ilustra en la figura 2f, que muestra el tiempo esperado de la firma ts que aparece en el centro de la ventana y el pico de correlación que se produce dt segundos antes del tiempo de espera. Esto significa que el teléfono móvil 1-1 va un poco por detrás de la película y el tiempo de salida de las leyendas posteriores se debe avanzar para ponerse al día con la película. Esto se consigue haciendo pasar el valor 5t del correlador 83 en un controlador de temporización 85 que genera la señal de temporización para controlar el tiempo en el que los subtítulos se muestran al usuario. Como se muestra, el controlador de temporización recibe la referencia temporal del reloj del teléfono móvil 87. La señal de temporización generada se pasa después a un motor de visualización de los subtítulos 89 que utiliza la señal de temporización para indexar el archivo de título 67 con el fin de recuperar el siguiente subtítulo 69 para la visualización junto con la información de duración asociada Lt y la información de formato 71 que posteriormente procesa y produce para su visualización en la pantalla del teléfono móvil 91 a través de una memoria intermedia de trama 93. Los detalles de cómo se genera el subtítulo 69 y se formatea son bien conocidos para los expertos en la técnica y no se describirán con más detalle.
[0026] La Figura 2g ilustra la forma de un ejemplo de subtítulo que se emite en la pantalla 91. La Figura 2g muestra también en el lado derecho 95 de la pantalla 91 una serie de opciones de usuario que el usuario puede activar pulsando las teclas de función apropiadas en el teclado 97 del teléfono móvil 1-1. Estas incluyen una opción de idioma 99, que permite al usuario cambiar el idioma de los subtítulos 69 que se muestran. Esto es posible siempre que el archivo de subtítulo 67 incluya subtítulos 69 en diferentes idiomas. Como un experto en la materia apreciará, esto no implica ninguna transformación significativa en el teléfono móvil 1-1, ya que todo lo que se está cambiando es el texto del subtítulo 69 que se va a mostrar en el momento adecuado. Es por tanto posible personalizar los subtítulos cuando hay varios usuarios viendo la misma película. Las opciones incluyen también una opción de salida 101 para permitir al usuario salir de la aplicación de subtitulación cuando se está ejecutando en el teléfono 1-1.
ASISTENTE DIGITAL PERSONAL
[0027] Como se mencionó anteriormente, el PDA 1-2 opera de una manera similar a la del teléfono móvil 1-1 excepto que no incluye los circuitos de transceptor de la telefonía móvil para conectarse directamente al servidor web 7. Los principales componentes de la PDA 1-2 son similares a los del teléfono móvil 1-1, por lo que se ha descrito anteriormente y no se describirán de nuevo.
SERVIDOR WEB REMOTO
[0028] La Figura 3 es un diagrama de bloques esquemático que ilustra los principales componentes del servidor web 7 utilizado en esta forma de realización y que muestra la base de datos de subtítulos 9. Como se muestra, el servidor web 7 recibe la entrada desde Internet 15 que, o bien se pasa a un correlador de deslizamiento 121 o a un lector de base de datos 123, en función de si o no la entrada es desde el teléfono móvil 1-1 o de la PDA 1 - 2. En particular, la firma desde el teléfono móvil 1-1 se introduce en el correlador deslizante 121 donde se compara con las corrientes de la firma de todas las películas conocidas para el sistema, que se almacenan en la base de datos de corriente de la firma 125. Los resultados de estas correlaciones se comparan entonces para identificar la película que el usuario está a punto de ver. Este ID de película se pasa a continuación a la base de datos de lector 123. En respuesta a la recepción de un ID de película ya sea desde el correlador deslizante 121 o directamente desde un dispositivo de usuario (tales como el PC 17 o PDA 1-2), el lector de base de datos 123 lee el archivo de subtítulos apropiado 67 y el archivo de sincronización de la base de datos de subtítulos 9 y los envía a una unidad de descarga
127. Las unidades de descarga 127 entonces descargan el archivo de subtítulo recuperado 67 y el archivo de sincronización 73 en el dispositivo de usuario que lo solicita 1 a través de Internet 15.
[0029] Como los apreciarán los expertos en la materia, se ha descrito anteriormente un sistema de captación para proporcionar subtítulos de texto con el fin de mostrarlos a un usuario en una película. El sistema no requiere ninguna modificación en el cine o sistema de emisión, sino únicamente proporcionar un teléfono móvil adaptado o dispositivo PDA 1-1 de 1-2 o similares. En este sentido, no es necesario añadir ningún hardware adicional al teléfono móvil o el PDA, ya que toda la funcionalidad que está dentro del cuadro de líneas discontinuas 94 se pueden realizar con una aplicación de software apropiada que se ejecuta dentro del teléfono móvil 1-1 o PDA 1-2. En este caso, la aplicación de software apropiada puede ser cargada en el momento apropiado, por ejemplo, cuando el usuario entra en el cine y en el caso de la telefonía móvil 1-1, está dispuesta para cancelar el timbre en el teléfono para que las llamadas entrantes no molesten a otras personas del público. El sistema de subtítulos anterior se puede utilizar por tanto en cualquier película y en cualquier momento. Además, como se pueden descargar diferentes subtítulos para una misma película, el sistema permite variar el contenido en una sola pantalla. Eso facilita, por ejemplo, proporcionar subtítulos en diferentes idiomas.
Modificaciones y Realizaciones Alternativas
[0030] En la realización anterior, se describe un sistema de subtitulado para proporcionar subtítulos de texto en una pantalla de un dispositivo de usuario portátil con el fin de permitir a los usuarios con discapacidades auditivas que entiendan la película que están viendo. Como se discutió en la introducción de esta solicitud, el sistema de subtítulos anterior se puede modificar para funcionar con subtítulos de sonido (por ejemplo, descripciones de audio de la película para las personas con problemas de visión). Esto puede hacerse simplemente mediante la sustitución de los subtítulos de texto 69 en el archivo de subtítulo 67 que se descarga desde el servidor remoto 7 por archivos de audio adecuados (como archivos de audio habituales WAV o MP3) que luego pueden ser reproducidos por el usuario a través de un auricular o audífono apropiado. La sincronización del playout de los archivos de audio podría ser el mismo que el de la sincronización del playout de los subtítulos de texto.
[0031] La Figura 4 es un diagrama de bloques que ilustra los principales componentes de un teléfono móvil que puede ser utilizado en dicho sistema de subtitulación de audio. En la Figura 4, se han utilizado los mismos números de referencia para los mismos componentes que se muestran en la Figura 2a y estos componentes no se describirán de nuevo.
[0032] En esta realización, el teléfono móvil de 1-1’ no incluye el extractor de firma 49. En su lugar, como se ilustra en la Figura 5, el extractor de firma 163 se proporciona en el servidor web remoto 7 '. En funcionamiento, el teléfono móvil 1-1’ captura parte del audio emitido al principio de la película y los transmite a través del servidor web remoto 7'. Este audio se graba a continuación, en la memoria intermedia de entrada 161 y luego es procesado por el extractor de firma 163 para extraer una firma representativa del audio. Esta firma pasa a continuación a una tabla de correspondencias 165 que realiza una función similar a la del correlador de deslizamiento 121 y la base de datos de stream de la firma 125 descrita en la primera forma de realización, para identificar el ID de la película que se está reproduciendo actualmente. En particular, en esta forma de realización, todas las correlaciones posibles que pueden haber sido realizadas por el correlador de deslizamiento 121 y la base de datos de stream de firma 125 se llevan a cabo con antelación y los resultados se guardan en la tabla de correspondencias 165. De esta manera, la salida de la firma del extractor de firma 163 se utiliza para indexar esta tabla de correspondencias y generar resultados de la correlación para las diferentes películas conocidas del sistema de subtitulación. Estos resultados de correlación se procesan a continuación para identificar la película que probablemente se corresponda con el stream de audio recibido. En esta forma de realización, la base de datos de subtítulos 9 sólo incluye el archivo de subtítulo 67 para las diferentes películas, sin ningún archivo de sincronización 73. En respuesta a la recepción del ID de película ya sea a partir de la tabla de correspondencias 165 o directamente por un usuario desde un dispositivo de usuario (no se muestra), el lector de base de datos 123 recupera el archivo de subtítulo apropiado 67 que se descarga en el dispositivo de usuario 1 a través de la unidad de descarga 127.
[0033] Volviendo a la figura 4, en esta realización, puesto que el teléfono móvil 1-1' no incluye el extractor de firma 49, la sincronización se logra de una manera alternativa. En particular, en esta realización los códigos de sincronización están incorporados en la pista de audio de la película. Por lo tanto, después de que el archivo de título 67 se ha almacenado en la memoria del epígrafe 65, el circuito de control 81 controla la posición del interruptor 143 de modo que la entrada de señal de audio en la memoria intermedia de entrada 47 se pasa a un extractor de datos 145 que está dispuesto para extraer los datos de sincronización incrustados en la pista de audio. Los datos de sincronización extraídos se pasan a continuación al controlador de temporización 85 que controla la temporización en la que las subtítulos de sonido individuales son reproducidas por el reproductor de subtítulos 147 a través del convertidor de digital a analógico 149, el amplificador 151 y el auricular 153.
[0034] Como apreciarán los expertos en la técnica, se pueden utilizar diversas técnicas para integrar los datos de sincronización dentro de la pista de audio. Las solicitudes internacionales anteriores del solicitante WO 98/32248, WO 01/10065, PCT/GB01/05300 y PCT/GB01/05306 describen las técnicas para integrar los datos en señales acústicas y extractores de datos adecuados para la posterior extracción de los datos incorporados.
[0035] En la realización anterior de captura de audio, la sincronización se logró mediante la incorporación de códigos de sincronización entre el audio y su detección en el teléfono móvil. Como apreciarán los expertos en la técnica, se puede utilizar una técnica similar en la primera realización. Sin embargo, los códigos de audio incorporados en la pista de audio de la película no es preferible, ya que implica modificar de algún modo la pista de audio de la película. Según los ratios de datos implicados, estos datos pueden ser perceptibles por parte del público, hecho que puede perjudicarles durante la película. La primera realización por tanto es preferible ya que no implica ninguna modificación en la película o en la infraestructura del cine.
[0036] En realizaciones en las que los datos de sincronización está incrustados en el audio, los códigos de sincronización usados pueden ser o bien el mismo código repetido cada vez que se requiere una sincronización, o pueden ser un código único en cada punto de sincronización. La ventaja de tener un código único en cada punto de sincronización es que si un usuario que entra tarde en la sala, o si requiere subtítulos sólo en ciertos momentos (por ejemplo, un usuario que sólo en raras ocasiones requiere el subtítulo), los subtítulos pueden comenzar en cualquier momento durante la película.
[0037] En la forma de realización descrita anteriormente con referencia a las figuras 4 y 5, la operación de extracción de firma se llevó a cabo en el servidor web remoto en lugar de en el teléfono móvil. Como los expertos en la técnica apreciarán, esta modificación también se puede hacer en la primera realización descrita anteriormente, sin las otras modificaciones descritas con referencia a las figuras 4 y 5.
[0038] En la primera realización descrita anteriormente, durante el modo de seguimiento de la operación, la firma extractora sólo procesa la pista de audio durante las ventanas predeterminadas en la película. Como apreciarán los expertos en la técnica, esto no es esencial. El extractor de firma puede funcionar de forma continua. Sin embargo, no se prefiere tal realización, ya que incrementa el procesamiento que el teléfono móvil tiene que realizar, que es probable que aumente el consumo de energía del teléfono móvil.
[0039] En las realizaciones anteriores, el teléfono móvil o PDA supervisa la pista de audio de la película para la sincronización. Como apreciarán los expertos en la técnica, el dispositivo de teléfono móvil o PDA puede configurarse para monitorizar el vídeo que se muestra en la pantalla de la película. Sin embargo, esto no se prefiere actualmente debido a que implicaría integrar un dispositivo de captación de imágenes (por ejemplo, una cámara) en el teléfono móvil o PDA y un hardware y software de procesamiento de imagen relativamente sofisticado que pueda detectar los puntos de sincronización o códigos en el vídeo. Además, no es esencial detectar los códigos de sincronización o puntos de sincronización desde la propia película. Otra señal de onda de presión o electromagnética puede ser transmitida en sincronismo con la película para proporcionar los puntos de sincronización o los códigos de sincronización. En este caso, el dispositivo del usuario tendría que incluir un receptor de onda de presión o electromagnético. Sin embargo, no se prefiere esta forma de realización, ya que requiere la modificación de la infraestructura del cine existente y también generar la señal de sincronización separada que ya está sincronizada con la película.
[0040] En las realizaciones anteriores, los subtítulos y en su caso los datos de sincronización, se descargaron en un dispositivo de usuario desde un servidor remoto. Como apreciarán los expertos en la técnica, el uso de este servidor remoto no es esencial. Los datos de las subtítulos y los datos de sincronización pueden ser pre-almacenados en tarjetas de memoria o tarjetas inteligentes y distribuidos o vendidos en el cine. En este caso, el dispositivo de usuario tendría preferiblemente una ranura adecuada para recibir la tarjeta de memoria o tarjeta inteligente y un lector apropiado para acceder a los datos de subtítulos y, si se proporciona, los datos de sincronización. La fabricación de las tarjetas incluiría las etapas de proporcionar la tarjeta de memoria o tarjeta inteligente y la utilización de un escritor de tarjeta apropiada para escribir los subtítulos y los datos de sincronización en la tarjeta de memoria o en una memoria en la tarjeta inteligente. Alternativamente, el usuario ya puede tener una tarjeta de la tarjeta inteligente o la memoria asociada con su dispositivo de usuario, que simplemente introduciría en un quiosco en el cine donde se encuentran los subtítulos y, si procede, los datos de sincronización, que se escriben en una memoria en la tarjeta.
[0041] Como alternativa adicional, los subtítulos y los datos de sincronización pueden ser transmitidos al dispositivo de usuario desde un transmisor en el cine. Esta transmisión se puede realizar con un enlace electromagnético o una onda de presión.
[0042] En la primera realización descrita anteriormente, el teléfono móvil tenía un modo de adquisición y un modo de seguimiento posterior para controlar la reproducción de los subtítulos. En una realización alternativa, se puede prescindir del modo de adquisición, siempre que el servidor remoto pueda identificar el momento actual de la firma recibida desde el teléfono móvil. Esto puede ser posible en algunos casos. Sin embargo, si la introducción de la película se repite, entonces puede que no sea posible que el servidor web pueda proporcionar una sincronización inicial.
[0043] En la primera realización descrita anteriormente, los dispositivos del usuario descargaron los subtítulos y los datos de sincronización desde un servidor remoto por Internet. Como apreciarán los expertos en la técnica, no es esencial descargar los archivos por Internet. Los archivos se pueden descargar en cualquier red de área amplia o red de área local. Se prefiere la posibilidad de descargar los archivos de subtítulos de una red de área amplia ya que se pueden proporcionar las bases de datos de subtítulos centralizadas para su distribución en un área geográfica más amplia.
[0044] En la primera realización descrita anteriormente, el usuario descargaba los subtítulos y los datos de sincronización desde un servidor remoto. Aunque no se describe, por motivos de seguridad, el archivo de subtítulos y el archivo de sincronización están codificados o cifrados de alguna manera como medida preventiva contra el uso fraudulento de los subtítulos. Además, el sistema de subtítulos puede estar dispuesto de modo en que sólo puede funcionar en los cines o en los lugares que están autorizados bajo el sistema de subtítulos. En este caso, un código de activación adecuado se puede proporcionar en el lugar con el fin de "desbloquear" el sistema de subtitulación en el dispositivo de usuario. Esta activación puede ser proporcionada en forma legible para que el usuario tenga que introducir el código en el dispositivo del usuario. Alternativamente, el lugar puede estar dispuesto para transmitir el código (posiblemente incorporado en la película) a un receptor apropiado en el dispositivo de usuario. En cualquiera de los casos, el software de sistema de subtitulación en el dispositivo de usuario tendría un inhibidor que pueda inhibir la salida de los subtítulos hasta que se recibe el código de activación. Además, cuando se utiliza el cifrado, el código de activación puede ser utilizado como parte de la clave para descifrar los subtítulos.
[0045] Las realizaciones anteriores han descrito los sistemas de texto y sistemas de subtitulación de audio para su uso en una sala de cine. Como apreciarán los expertos en la técnica, estos sistemas de subtitulación pueden ser utilizados para proporcionar subtítulos para cualquier radio, vídeo o presentación multimedia. También se pueden utilizar en el teatro o en la ópera o en casa del usuario.
[0046] Se han descrito anteriormente varios sistemas de subtítulos que proporcionan texto o subtítulos de audio para una presentación de audio o vídeo. Los subtítulos pueden incluir comentarios adicionales sobre la presentación de audio o vídeo, por ejemplo, comentarios del director, la explicación de tramas complejas, los nombres de los actores de la película o comentarios de terceros. Estos subtítulos también pueden incluir anuncios para otros productos o presentaciones. Además, el sistema de subtitulación de audio puede ser utilizado no sólo para proporcionar descripciones de audio de lo que pasa en la película, sino también para proporcionar una traducción de la pista de audio de la película. De esta manera, cada oyente de la película puede escuchar la película en su idioma preferido. El sistema de subtítulos también se puede utilizar para proporcionar subtítulos de karaokes para ser utilizando en las pistas de audio estándar. En este caso, el usuario descargue las letras y la información de sincronización que definen el momento en el que se debe mostrar y destacar la letra al usuario.
[0047] Además, el sistema de subtítulos descrito anteriormente puede proporcionarse para controlar la visualización de los subtítulos de vídeo. Por ejemplo, dichos subtítulos de vídeo se pueden utilizar para proporcionar el lenguaje de signos (ya sea imágenes reales o imágenes generadas por ordenador) para el sonido de la presentación que se está proporcionado.
[0048] En las realizaciones anteriores, los títulos de la presentación que se hizo fueron descargados previamente para su reproducción. En una realización alternativa, los subtítulos se pueden descargar desde el servidor remoto desde el dispositivo del usuario cuando se necesitan. Por ejemplo, el dispositivo del usuario puede descargar el siguiente subtítulo cuando recibe el siguiente código para el siguiente subtítulo.
[0049] En el sistema de subtítulo descrito anteriormente, un usuario descarga o recibe los mensajes y la información de sincronización ya sea desde un servidor web o localmente en el lugar en el que la presentación de audio o visual se va a efectuar. Como los expertos en la técnica apreciarán, para aplicaciones en las que el usuario tiene que pagar para descargar o reproducir los subtítulos, se proporciona preferiblemente un sistema de transacción para facilitar la recogida de las cantidades adeudadas. En realizaciones en las que los subtítulos se descargan desde un servidor web, este sistema de transacciones preferiblemente forma parte o está asociado con el servidor web que proporciona los subtítulos. En este caso, el usuario puede proporcionar el pago electrónico o el pago mediante tarjeta de crédito o similares, a la vez que descarga los subtítulos. Esto es preferible, ya que es más fácil vincular el pago con la información de subtítulos y de sincronización descargada.
[0050] En la primera realización descrita anteriormente, el ID de la película se determinó de forma automática a partir de una firma de audio transmitida desde el teléfono móvil del usuario. Alternativamente, en lugar de transmitir la firma de audio, el usuario puede introducir el ID de película directamente en el teléfono para la transmisión al servidor remoto. En este caso, no es esencial la búsqueda de la base de datos de firma.
[0051 En la primera realización descrita anteriormente, el dispositivo del usuario procesa el audio recibido para extraer una firma característica de la película que está a punto de ver. El procesamiento preferido es el procesamiento descrito en la patente de Shazam Entertainment Ltd mencionada anteriormente. Sin embargo, como apreciarán los expertos en la técnica, se puede realizar otro tipo de codificación. El propósito principal de la unidad de extractor de firma en el teléfono móvil es comprimir el audio para generar los datos que son representativos del audio desde el que el servidor remoto puede identificar la película que está a punto de verse. Se pueden utilizar muchos otros esquemas de compresión. Por ejemplo, se puede utilizar un códec GSM junto con algoritmos de compresión de audio.
[0052] En las realizaciones anteriores en las que se proporcionan subtítulos de texto, se muestran al usuario en una pantalla asociada con el dispositivo del usuario. Aunque esto ofrece la forma más simple de distribución, también hay otras opciones disponibles. Por ejemplo, el usuario puede estar provisto con una pantalla de visualización frontal (head-up-display) activa o pasiva a través de la cual el usuario puede ver la película y en el que se muestran los subtítulos (activo) o se proyectan (pasivo) para superponer sobre la película que está viendo. Esto tiene la ventaja de que el usuario no tiene que mirar dos pantallas separadas. Se puede proporcionar un tipo head-up-display pasivo, por ejemplo, proporcionando al usuario un par de gafas con un divisor de haz (por ejemplo un prisma de 45°) en el que el usuario puede ver la pantalla de cine y la pantalla de su dispositivo del usuario (por ejemplo, teléfono o PDA). Alternativamente, en lugar de utilizar un head-up-display, se puede colocar una pantalla transparente separada en frente del asiento del usuario y en la que los subtítulos son proyectados por el dispositivo de usuario o por un proyector montada en el asiento.
[0053] En la primera realización descrita anteriormente, el archivo de subtítulos incluía una secuencia de tiempo ordenada de los subtítulos junto con información de formato asociada y la información de temporización. Como apreciarán los expertos en la técnica, no es esencial disponer los subtítulos en este orden de tiempo secuencial. Sin embargo, disponerlos de este modo reduce el procesamiento implicado en la identificación del siguiente subtítulo que se va a mostrar. Además, no es esencial tener información de formato además del subtítulo. El mínimo de información requerida es la información del subtítulo. Además, no es esencial que se proporcione en una archivo, ya que cada uno de los subtítulos individuales de la presentación se pueden descargar por separado. Sin embargo, se prefiere el formato descrito anteriormente para el archivo de título, ya que es simple y puede ser fácilmente creado usando, por ejemplo, una hoja de cálculo. Esta simplicidad también proporciona el potencial para crear una variedad de contenido de subtítulo diferente.
[0054] En realizaciones en las que se utiliza el teléfono móvil del usuario para proporcionar los subtítulos, el sistema de subtítulos puede ser interactivo, y el usuario puede interactuar con el servidor remoto, por ejemplo, con anuncios
o cuestionarios antes de que comience la película. Esta interacción se puede implementar utilizando, por ejemplo, un navegador web en el dispositivo del usuario que recibe URLs y enlaces a otras informaciones en los sitios web.
[0055] En la primera realización descrita anteriormente, se proporcionan subtítulos de texto para el audio de la película que se va a ver. Estos subtítulos pueden incluir subtítulos completos, subtítulos para diálogo solo, o subtítulos en partes clave del argumento. Se puede aplicar una variación similar en los subtítulos de audio.

Claims (40)

  1. REIVINDICACIONES
    1. Sistema de subtitulación para proporcionar subtítulos para una presentación a un usuario, estando una señal sonora acústica generada por altavoces durante la presentación, el sistema de subtítulos comprendiendo:
    un memoria de subtítulos (9) que funciona para almacenar uno o más conjuntos de subtítulos, estando cada conjunto asociado con una o más presentaciones y comprendiendo cada conjunto una pluralidad de subtítulos para reproducirse en diferentes momentos durante la presentación asociada, y un dispositivo portátil (1) que tiene:
    i) una memoria (65) que funciona para recibir y guardar, desde dicha memoria de subtítulos (9), al menos un conjunto de subtítulos o para recibir y guardar subtítulos individuales con el fin de realizar una presentación para un usuario asociada con el dispositivo del usuario;
    ii) un micrófono (41) que funciona para recibir la señal acústica generada por el altavoz durante la presentación, para utilizar en la definición del tiempo durante la presentación en el que cada subtítulos es enviado al usuario asociado con el dispositivo de usuario portátil.
    iii) una salida de subtítulos (89) que funciona para enviar cada subtítulo recibida al usuario asociado con el dispositivo de usuario; y
    iv) medios de control de tiempo (49,83,85,145) que funcionan para procesar dicha señal acústica recibida por el micrófono con el fin de determinar la sincronización durante la presentación en la que cada subtítulo tiene que ser enviado y funcionar para controlar dicha salida de subtítulo (89), de modo que cada subtítulo es enviado a dicho usuario en el momento determinado.
  2. 2. Sistema según la reivindicación 1, en el que dichos subtítulos incluyen texto y en el que dicha salida de subtítulo
    (89) puede funcionar para enviar dichos subtítulos a un dispositivo de visualización (91) asociado con el dispositivo de usuario (1) para mostrarlo al usuario.
  3. 3.
    Sistema según la reivindicación 2, en el que dichos subtítulos incluyen información de formato (71) para controlar el formato del texto mostrado en dicha pantalla (91).
  4. 4.
    Sistema según la reivindicación 2 ó 3, en el que cada subtítulo incluye información de duración que define que el tiempo que se debe mostrar cada subtítulo al usuario.
  5. 5.
    Sistema según la reivindicación 2 ó 4, en el que cada subtítulo incluye información de tiempo que define que el momento en el que se debe mostrar el subtítulo al usuario durante la presentación.
  6. 6.
    Sistema según cualquiera de las reivindicaciones anteriores, en el que dichos subtítulos incluyen datos de audio y en el que dicha salida de subtítulo (147) puede funcionar para enviar dichos datos de audio a un dispositivo electroacústico (153) para convertir los datos de audio en señales acústicas correspondientes.
  7. 7.
    Sistema según cualquiera de las reivindicaciones anteriores, en el que dicha memoria de subtítulos se proporciona en un sistema informático (9) y en el que dicho dispositivo de usuario (1) incluye medios (53, 55, 61) para comunicarse con dicho sistema informático (9).
  8. 8.
    Sistema según la reivindicación 7, en el que dicho sistema informático (9) está alejado de dicho dispositivo de usuario (1) y en el que dicho dispositivo de usuario (1) tiene un módulo de comunicación asociado para comunicarse con dicho sistema informático remoto (9).
  9. 9.
    Sistema según la reivindicación 8, en el que dicho dispositivo de usuario (1) incluye un teléfono móvil o un asistente digital personal.
  10. 10.
    Sistema según cualquiera de las reivindicaciones anteriores, que funciona para recibir información de sincronización que define el tiempo durante la presentación en el que cada subtítulo se va a enviar al el usuario asociado con el dispositivo de usuario (1) y en el que dicho medio de control del tiempo (49, 83, 85,145) funcionar para utilizar la señal acústica recibida y la información de sincronización recibida en la determinación del tiempo durante la presentación en el que cada subtítulo debe enviar al usuario.
  11. 11.
    Sistema según la reivindicación 10, en el que dicha información de sincronización (73) define los puntos temporales esperados para una o más porciones predeterminadas de la presentación.
  12. 12.
    Sistema según la reivindicación 11, en el que dicho dispositivo de usuario (1) incluye un medio de monitorización (41, 43, 45, 47, 49, 51, 83) que funciona para controlar dicha presentación con el fin de identificar los puntos de tiempo reales de dicha una o más porciones predeterminadas, en el que dicho micrófono (41) forma parte de dicho medios de control y en el que dicho medio de control de temporización (49,83,85,145) es sensible a la diferencia entre los tiempos reales y los tiempos esperados para controlar la salida de los subtítulos mediante dicha salida de subtítulos (89).
  13. 13.
    Sistema según la reivindicación 10, en el que dicha información de sincronización está incorporada en dicha presentación, en el que dicho dispositivo de usuario (1) incluye un medio de supervisión que funcionar para controlar la presentación y la extraer dicha información de sincronización del mismo y en el que dicho micrófono (41) forma parte de dicho medio de supervisión.
  14. 14.
    Sistema según la reivindicación 13, en el que dicha información de sincronización incluye códigos de sincronización que se producen en momentos diferentes durante la presentación.
  15. 15.
    Sistema según la reivindicación 14, en el que dicho código de sincronización es único a fin de definir de forma única la posición en la presentación.
  16. 16.
    Sistema según cualquiera de las reivindicaciones anteriores, en el que dicha memoria de subtítulos (9) incluye una pluralidad de conjuntos de subtítulos para una pluralidad de diferentes presentaciones y en el que dicho dispositivo de usuario (1) funciona para capturar una parte de dicha presentación y funciona para transmitir los datos representativos de la porción capturada a dicha memoria de subtítulos (9) y en el que dicha memoria de subtítulos
    (9) funciona para utilizar dichos datos representativos de la porción capturada de la presentación a fin de identificar la presentación que se está realizando y para transmitir el conjunto de subtítulos asociado para la presentación identificada a dicho dispositivo de usuario (1).
  17. 17.
    Sistema según cualquiera de las reivindicaciones 1 a 15, en el que dicha memoria de subtítulos (9) incluye una pluralidad de conjuntos de subtítulos para una pluralidad de diferentes presentaciones y en el que dicho dispositivo de usuario (1) funciona para capturar una porción de dicha presentación, para procesar la porción capturada de la presentación a fin de extraer datos representativos de la porción capturada y para transmitir dichos datos representativos a dicha memoria de subtítulos (9), y en el que dicha memoria de subtítulos (9) funciona para utilizar dichos datos representativos para identificar la presentación que se está realizando y para transmitir el conjunto de subtítulos asociado para la presentación identificada al dispositivo de usuario (1).
  18. 18.
    Sistema según la reivindicación 1, en el que dicho dispositivo de usuario (1) funciona para descargar el siguiente subtítulo desde dicha memoria de subtítulos (9) cuando detecta un código de sincronización en la señal acústica recibida por el micrófono (41).
  19. 19.
    Sistema según la reivindicación 1, en el que dicha memoria de subtítulos (9) está proporcionada por un servidor remoto, en el que dicho dispositivo de usuario incluye un teléfono móvil (1) y en el que el dispositivo de usuario (1) permite a dicho usuario interactuar con el servidor remoto utilizando el teléfono móvil.
  20. 20.
    Dispositivo de usuario portátil (1) para utilizarse en un sistema de subtitulación, el dispositivo de usuario portátil comprendiendo:
    una memoria (65) que funciona para recibir y almacenar, desde una tienda de subtítulos (9), al menos un conjunto de subtítulos o para recibir y almacenar subtítulos individuales para una presentación que se va a realizar a un usuario asociado con el dispositivo de usuario; un micrófono (41) que funciona para recibir una señal de sonido acústica generada por los altavoces durante la presentación para su uso en la definición del tiempo de sincronización durante la presentación en la que cada subtítulo se va a enviar al usuario asociado con el dispositivo de usuario portátil (1);
    una salida de subtítulos (89) que funciona para enviar cada subtítulo recibido al usuario asociado con el dispositivo de usuario; y
    un medio de control de tiempo (49, 83, 85,145) que funciona para procesar dicha señal acústica recibida por el micrófono con el fin de determinar la sincronización durante la presentación en la que cada subtítulo tiene que ser enviado y que funciona para controlar dicha salida de subtítulo (89), de modo que cada subtítulo es enviado a dicho usuario en el momento determinado.
  21. 21.
    Dispositivo según la reivindicación 20, en el que dichos subtítulos incluyen texto y en el que dicha salida de subtítulos (89) puede funcionar para enviar dichos subtítulos a un dispositivo de visualización (91) del dispositivo de usuario. 2
  22. 22.
    Dispositivo según la reivindicación 21, en el que dichos subtítulos incluyen información de formato para controlar el formato del texto mostrado en dicha pantalla (91).
  23. 23.
    Dispositivo según la reivindicación 21 ó 22, en el que cada subtítulo incluye información de duración que define durante cuánto tiempo se debe mostrar el subtítulo en dicha pantalla (91).
  24. 24.
    Dispositivo según la reivindicación 21 ó 23, en el que cada subtítulo incluye información de tiempo que define el momento en el que se debe mostrar el subtítulo al usuario durante la presentación.
  25. 25.
    Dispositivo según cualquiera de las reivindicaciones 20 a 24, en el que dichos subtítulos incluyen datos de audio y en el que dicha salida de subtítulo (89) puede funcionar para enviar dichos datos de audio a un dispositivo electroacústico (153) para convertir los datos de audio en señales acústicas correspondientes.
  26. 26.
    Dispositivo según cualquiera de las reivindicaciones 20 a 25, en el que dicha memoria de subtítulos (9) se proporciona en un sistema informático (9) y en el que dicho dispositivo de usuario incluye medios (53, 55, 61) para comunicarse con dicho sistema informático.
  27. 27.
    Dispositivo según la reivindicación 26, en el que dicho sistema informático está alejado de dicho dispositivo de usuario (1) y en el que dicho módulo de comunicación puede funcionar para comunicarse con dicho sistema informático remoto utilizando un enlace de comunicación inalámbrico.
  28. 28.
    Dispositivo según la reivindicación 27, en el que dicho dispositivo de usuario (1) incluye un teléfono móvil o un asistente digital personal.
  29. 29.
    Dispositivo según cualquiera de las reivindicaciones 20 a 28, que funciona para recibir información de sincronización que define el tiempo durante la presentación en el que cada subtítulo se va a enviar al usuario asociado con el dispositivo de usuario (1) y en el que dicho medio de control del tiempo (49, 83, 85,145) puede funcionar para utilizar la señal acústica recibida y la información de sincronización recibida en la determinación del tiempo durante la presentación en el que cada subtítulo debe enviar al usuario.
  30. 30.
    Dispositivo según la reivindicación 29, en el que dicha información de sincronización define los puntos temporales esperados para una o más porciones predeterminadas de la presentación.
  31. 31.
    Dispositivo según la reivindicación 30, incluyendo un medio de monitorización (41, 43, 45, 47, 49, 51, 83) que funciona para controlar dicha presentación con el fin de identificar los puntos de tiempo reales de dicha una o más porciones predeterminadas, en el que dicho micrófono (41) forma parte de dicho medios de control y en el que dicho medio de control de temporización (49,83,85,145) es sensible a la diferencia entre los tiempos reales y los tiempos esperados para controlar la salida de los subtítulos mediante dicha salida de subtítulos (89).
  32. 32.
    Dispositivo según la reivindicación 29, en el que dicha información de sincronización está incorporada en dicha presentación e incluye un medio de supervisión que funciona para controlar la presentación y extraer dicha información de sincronización del mismo y en el que dicho micrófono (41) forma parte de dicho medio de supervisión.
  33. 33.
    Dispositivo según la reivindicación 32, en el que dicha información de sincronización incluye códigos de sincronización que se producen en momentos diferentes durante la presentación.
  34. 34.
    Dispositivo según la reivindicación 33, en el que dicho código de sincronización es único a fin de definir de forma única la posición en la presentación.
  35. 35.
    Dispositivo según cualquiera de las reivindicaciones 20 a 34, en el que dicha memoria de subtítulos (9) incluye una pluralidad de conjuntos de subtítulos para una pluralidad de presentaciones diferentes, en el que el dispositivo de usuario (1) puede funcionar para capturar una porción de dicha presentación y puede funcionar para transmitir la porción capturada a dicha memoria de subtítulos (9) para ser utilizada por la memora de subtítulos para identificar la presentación que se está realizando,
  36. 36.
    Dispositivo según cualquiera de las reivindicaciones 20 a 34, en el que dicha memoria de subtítulos (9) incluye una pluralidad de conjuntos de subtítulos para una pluralidad de presentaciones diferentes, en el que el dispositivo de usuario (1) puede funcionar para capturar una porción de dicha presentación para extraer datos representativos de la porción capturada y puede funcionar para transmitir dichos datos representativos a dicha memoria de subtítulos (9) para ser utilizada por la memora de subtítulos para identificar la presentación.
  37. 37.
    Dispositivo según la reivindicación 20, en el que dicho dispositivo de usuario (1) funciona para descargar el siguiente subtítulo desde dicha memoria de subtítulos (9) cuando detecta un código de sincronización en la señal acústica recibida por el micrófono (41).
  38. 38.
    Soporte informático que almacena instrucciones ejecutables por ordenador para hacer que un dispositivo informático funcione como dispositivo de usuario portátil en cualquiera de las reivindicaciones 20 a 37.
  39. 39.
    Procedimiento para proporcionar subtítulos para una presentación a un usuario, estando una señal sonora acústica generada por altavoces durante la presentación, comprendiendo el procedimiento:
    almacenar, en una memoria de subtítulos (9), uno o más conjuntos de subtítulos, estando cada uno asociado con una o más presentaciones y cada uno comprendiendo una pluralidad de subtítulos para reproducirse en diferentes momentos durante la presentación asociada, y
    en un dispositivo de usuario portátil (1):
    utilizar una memoria (65) para recibir y guardar, desde dicha memoria de subtítulos (9), al menos un conjunto de subtítulos para guardarse en el dispositivo de usuario o para recibir y guardar subtítulos individuales para una presentación asociada a un usuario asociado;
    utilizar un micrófono (41) que funciona para recibir la señal acústica generada por los altavoces durante la presentación, para utilizar en la definición del tiempo durante la presentación, en la que cada subtítulos es enviado al usuario;
    enviar los subtítulos al usuario asociado; y
    5 procesar la señal acústica recibida con el fin de determinar la sincronización durante la presentación en la que cada subtítulo debe ser enviado y controlar dicha etapa de salida de modo que cada subtítulo es enviado al usuario en el momento determinado.
  40. 40. Procedimiento realizado por un dispositivo de usuario portátil (1), comprendiendo el procedimiento:
    recibir y guardar, desde una memoria de subtítulos (9), al menos un conjunto de subtítulos para guardarse en el
    10 dispositivo de usuario o recibir y guardar subtítulos individuales para una presentación asociada con el dispositivo de usuario;
    recibir desde un micrófono (41) del usuario portátil una señal eléctrica correspondiente a una señal acústica generada por altavoces durante la presentación, para utilizarse en la definición del tiempo durante la presentación en el que cada subtítulo es enviado al usuario asociado con el dispositivo de usuario (1);
    15 enviar cada subtítulo recibido al usuario asociado con el dispositivo de usuario; y procesar la señal desde el micrófono para de determinar la sincronización durante la presentación en la que cada subtítulo debe ser enviado y controlar dicha etapa de salida de modo que cada subtítulo es enviado al usuario en el momento determinado.
ES02798373T 2001-12-24 2002-12-23 Sistema de subtitulación Expired - Lifetime ES2420909T3 (es)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
GB0130936 2001-12-24
GB0130936A GB0130936D0 (en) 2001-12-24 2001-12-24 Signalling system
GB0204323A GB0204323D0 (en) 2002-02-25 2002-02-25 Signalling system
GB0204323 2002-02-25
PCT/GB2002/005908 WO2003061285A2 (en) 2001-12-24 2002-12-23 Captioning system

Publications (1)

Publication Number Publication Date
ES2420909T3 true ES2420909T3 (es) 2013-08-27

Family

ID=26246904

Family Applications (1)

Application Number Title Priority Date Filing Date
ES02798373T Expired - Lifetime ES2420909T3 (es) 2001-12-24 2002-12-23 Sistema de subtitulación

Country Status (7)

Country Link
US (1) US8248528B2 (es)
EP (1) EP1464172B1 (es)
JP (1) JP2005515510A (es)
AU (1) AU2002363907A1 (es)
DK (1) DK1464172T3 (es)
ES (1) ES2420909T3 (es)
WO (1) WO2003061285A2 (es)

Families Citing this family (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1218574C (zh) * 2001-10-15 2005-09-07 华为技术有限公司 交互式视频设备及其字幕叠加方法
WO2003081878A1 (fr) * 2002-03-27 2003-10-02 Mitsubishi Denki Kabushiki Kaisha Appareil de communication et procede de communication
US20040203610A1 (en) * 2002-04-25 2004-10-14 Douglas Deeds Creating and transmitting a text message from a terminal
US8634030B2 (en) * 2002-10-25 2014-01-21 Disney Enterprises, Inc. Streaming of digital data to a portable device
CN100562084C (zh) * 2003-02-21 2009-11-18 松下电器产业株式会社 同步地使用音频视频数据的设备和方法
US20050054440A1 (en) * 2003-09-10 2005-03-10 Wms Gaming Inc. Gaming machine with audio synchronization feature
US20050054442A1 (en) * 2003-09-10 2005-03-10 Anderson Peter R. Gaming machine with audio synchronization feature
WO2005038625A2 (en) 2003-10-17 2005-04-28 Nielsen Media Research, Inc. Et Al. Portable multi-purpose audience measurement system
US20050108026A1 (en) * 2003-11-14 2005-05-19 Arnaud Brierre Personalized subtitle system
KR100541215B1 (ko) * 2003-11-24 2006-01-10 (주)테일러테크놀로지 디지탈 오디오파일의 가사제공시스템
US8014765B2 (en) * 2004-03-19 2011-09-06 Media Captioning Services Real-time captioning framework for mobile devices
US7421477B2 (en) * 2004-03-19 2008-09-02 Media Captioning Services Real-time media captioning subscription framework for mobile devices
US7844684B2 (en) * 2004-03-19 2010-11-30 Media Captioning Services, Inc. Live media captioning subscription framework for mobile devices
US8266313B2 (en) * 2004-03-19 2012-09-11 Media Captioning Services, Inc. Live media subscription framework for mobile devices
US9153096B2 (en) * 2004-10-01 2015-10-06 Bally Gaming Inc. Audio markers in a computerized wagering game
WO2006037146A1 (en) * 2004-10-05 2006-04-13 Guy Rischmueller Method and system for providing broadcast captions
WO2007008589A2 (en) * 2005-07-08 2007-01-18 Seiji Kashioka Total timing control system for theater
US20070106516A1 (en) * 2005-11-10 2007-05-10 International Business Machines Corporation Creating alternative audio via closed caption data
WO2007073484A2 (en) 2005-12-20 2007-06-28 Arbitron Inc. Methods and systems for conducting research operations
KR100744065B1 (ko) * 2006-01-05 2007-07-30 삼성전자주식회사 웹서비스 기술을 지원하는 a/v 네트워크에서 컨텐츠재생시 자막 표시방법 및 그 장치
CA2666199C (en) * 2006-03-27 2015-08-25 Nielsen Media Research, Inc. Methods and systems to meter media content presented on a wireless communication device
US20080026355A1 (en) * 2006-07-27 2008-01-31 Sony Ericsson Mobile Communications Ab Song lyrics download for karaoke applications
US20080064326A1 (en) * 2006-08-24 2008-03-13 Stephen Joseph Foster Systems and Methods for Casting Captions Associated With A Media Stream To A User
US20080204273A1 (en) * 2006-12-20 2008-08-28 Arbitron,Inc. Survey data acquisition
FR2911751A1 (fr) * 2007-01-18 2008-07-25 Tagattitude Sa Procede et installation de telecommunication pour la fourniture d'un service a l'utilisateur d'un equipement personnel, support de donnees correspondant
US8019863B2 (en) 2008-03-28 2011-09-13 Ianywhere Solutions, Inc. Synchronizing events between mobile devices and servers
US8023934B2 (en) * 2008-03-28 2011-09-20 Ianywhere Solutions, Inc. Synchronizing communications and data between mobile devices and servers
JP2010068016A (ja) * 2008-09-08 2010-03-25 Q-Tec Inc 映画・字幕同期表示システム
US9390167B2 (en) 2010-07-29 2016-07-12 Soundhound, Inc. System and methods for continuous audio matching
US8707381B2 (en) 2009-09-22 2014-04-22 Caption Colorado L.L.C. Caption and/or metadata synchronization for replay of previously or simultaneously recorded live programs
US20110093619A1 (en) * 2009-10-16 2011-04-21 Ianywhere Solutions, Inc. Synchronizing Tasks between Mobile Devices and Servers
US8434097B2 (en) * 2009-12-30 2013-04-30 Sybase, Inc. Dynamic data binding for MBOs for container based application
US9615140B1 (en) 2010-05-27 2017-04-04 Edward Malinowski Method and device for delivery of subtitle synchronized with a media stream
US20110307786A1 (en) * 2010-06-11 2011-12-15 Brian Shuster Method and apparatus for bookmarking and retrieval of video content
JP5813767B2 (ja) * 2010-07-21 2015-11-17 ディー−ボックス テクノロジーズ インコーポレイテッド メディア認識及びモーション信号への同期
US10515523B2 (en) * 2010-07-21 2019-12-24 D-Box Technologies Inc. Media recognition and synchronization to a motion signal
US9047371B2 (en) 2010-07-29 2015-06-02 Soundhound, Inc. System and method for matching a query against a broadcast stream
BR112013005160A2 (pt) * 2010-09-22 2016-04-26 Thomson Licensing método para processamento dos fluxos multimídia e dispositivo correspondente
GB201017174D0 (en) * 2010-10-12 2010-11-24 Muvemedia Ltd System and method for delivering multilingual video or film sound tracks or multilingual spoken or sung dialog for synchronization and playback
US9035163B1 (en) 2011-05-10 2015-05-19 Soundbound, Inc. System and method for targeting content based on identified audio and multimedia
CN103875251A (zh) 2011-07-28 2014-06-18 黑莓有限公司 用于广播字幕的系统和方法
BR112014016761A8 (pt) * 2012-01-06 2017-07-04 Thomson Licensing método e sistema para fornecer uma exibição de mensagens sociais em uma segunda tela que é sincronizada com o conteúdo em uma primeira tela
JP2013161205A (ja) * 2012-02-03 2013-08-19 Sony Corp 情報処理装置、情報処理方法、及びプログラム
KR101932793B1 (ko) 2012-03-09 2018-12-27 톰슨 라이센싱 동기화된 컨텐트의 분산형 제어
WO2014010069A1 (ja) * 2012-07-13 2014-01-16 日立コンシューマエレクトロニクス株式会社 映像送信方法、字幕表示装置、及び映像送信装置
US10957310B1 (en) 2012-07-23 2021-03-23 Soundhound, Inc. Integrated programming framework for speech and text understanding with meaning parsing
CN103678381A (zh) * 2012-09-17 2014-03-26 腾讯科技(深圳)有限公司 字幕处理方法、装置及系统
US9183558B2 (en) * 2012-11-05 2015-11-10 Disney Enterprises, Inc. Audio/video companion screen system and method
US8954313B2 (en) 2012-12-11 2015-02-10 Disney Enterprises, Inc. Media content presentation in a selected language
US11375347B2 (en) * 2013-02-20 2022-06-28 Disney Enterprises, Inc. System and method for delivering secondary content to movie theater patrons
US10284887B2 (en) * 2013-06-20 2019-05-07 Interdigital Ce Patent Holdings System and method to assist synchronization of distributed play out of content
KR102129536B1 (ko) * 2013-08-06 2020-07-03 삼성전자주식회사 모바일 단말기 및 그의 제어 방법
US9507849B2 (en) 2013-11-28 2016-11-29 Soundhound, Inc. Method for combining a query and a communication command in a natural language computer system
US9292488B2 (en) 2014-02-01 2016-03-22 Soundhound, Inc. Method for embedding voice mail in a spoken utterance using a natural language processing computer system
US11295730B1 (en) 2014-02-27 2022-04-05 Soundhound, Inc. Using phonetic variants in a local context to improve natural language understanding
GB2541785B (en) 2014-05-08 2018-03-28 Mewt Ltd Synchronisation of audio and video playback
GB2541784B (en) 2014-05-08 2018-03-28 Mewt Ltd Synchronisation of audio and video playback
GB2525912B (en) * 2014-05-08 2018-02-28 Mewt Ltd Synchronisation of audio and video playback
US9564123B1 (en) 2014-05-12 2017-02-07 Soundhound, Inc. Method and system for building an integrated user profile
US10506295B2 (en) 2014-10-09 2019-12-10 Disney Enterprises, Inc. Systems and methods for delivering secondary content to viewers
CH711334A2 (fr) * 2015-07-15 2017-01-31 Cosson Patrick Procédé et dispositif pour aider à comprendre un message sensoriel auditif en le transformant en un message visuel.
US9609397B1 (en) 2015-12-28 2017-03-28 International Business Machines Corporation Automatic synchronization of subtitles based on audio fingerprinting
CN106993227B (zh) * 2016-01-20 2020-01-21 腾讯科技(北京)有限公司 一种进行信息展示的方法和装置
JP6930639B2 (ja) * 2016-04-25 2021-09-01 ヤマハ株式会社 端末装置、端末装置の動作方法およびプログラム
JP6866071B2 (ja) * 2016-04-25 2021-04-28 ヤマハ株式会社 端末装置、端末装置の動作方法およびプログラム
KR102452644B1 (ko) * 2017-10-31 2022-10-11 삼성전자주식회사 전자 장치, 음성 인식 방법 및 기록 매체
KR102468214B1 (ko) * 2018-02-19 2022-11-17 삼성전자주식회사 사용자의 발화를 기반으로 컨텐츠를 제공하는 장치 및 시스템
EP3841754A4 (en) * 2018-09-13 2022-06-15 iChannel.io Ltd. SYSTEM AND COMPUTERIZED METHOD FOR SUBTITLE SYNCHRONIZATION OF AUDIOVISUAL CONTENT USING HUMAN VOICE DETECTION FOR SYNCHRONIZATION
US11463507B1 (en) 2019-04-22 2022-10-04 Audible, Inc. Systems for generating captions for audio content
US11347379B1 (en) * 2019-04-22 2022-05-31 Audible, Inc. Captions for audio content
US11211074B2 (en) 2019-06-06 2021-12-28 Sony Corporation Presentation of audio and visual content at live events based on user accessibility
US11694574B2 (en) * 2019-08-08 2023-07-04 Lenovo (Singapore) Pte. Ltd. Alteration of accessibility settings of device based on characteristics of users
US11270123B2 (en) * 2019-10-22 2022-03-08 Palo Alto Research Center Incorporated System and method for generating localized contextual video annotation
KR20210100368A (ko) * 2020-02-06 2021-08-17 삼성전자주식회사 전자장치 및 그 제어방법
US11032620B1 (en) * 2020-02-14 2021-06-08 Sling Media Pvt Ltd Methods, systems, and apparatuses to respond to voice requests to play desired video clips in streamed media based on matched close caption and sub-title text
EP4030771A1 (en) * 2021-01-15 2022-07-20 Subreader ApS A method and device for content presentation
US11683558B2 (en) * 2021-06-29 2023-06-20 The Nielsen Company (Us), Llc Methods and apparatus to determine the speed-up of media programs using speech recognition
US11736773B2 (en) * 2021-10-15 2023-08-22 Rovi Guides, Inc. Interactive pronunciation learning system
US11902690B2 (en) * 2021-10-27 2024-02-13 Microsoft Technology Licensing, Llc Machine learning driven teleprompter
US11785278B1 (en) * 2022-03-18 2023-10-10 Comcast Cable Communications, Llc Methods and systems for synchronization of closed captions with content output

Family Cites Families (151)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US657379A (en) * 1900-05-16 1900-09-04 Edward C Bakken Stock for holding cattle while dehorning.
US2660662A (en) * 1947-10-24 1953-11-24 Nielsen A C Co Search signal apparatus for determining the listening habits of wave signal receiver users
US3845391A (en) * 1969-07-08 1974-10-29 Audicom Corp Communication including submerged identification signal
US3742463A (en) * 1970-03-02 1973-06-26 Nielsen A C Co Data storage and transmission system
US3651471A (en) * 1970-03-02 1972-03-21 Nielsen A C Co Data storage and transmission system
US3732536A (en) * 1970-09-18 1973-05-08 Gte Sylvania Inc Passive object detection apparatus including ambient noise compensation
US4025851A (en) * 1975-11-28 1977-05-24 A.C. Nielsen Company Automatic monitor for programs broadcast
US4237449A (en) * 1978-06-16 1980-12-02 Zibell J Scott Signalling device for hard of hearing persons
US4425642A (en) 1982-01-08 1984-01-10 Applied Spectrum Technologies, Inc. Simultaneous transmission of two information signals within a band-limited communications channel
DE3229405C2 (de) 1982-08-06 1984-08-30 Werner 8000 München Janz Gerät zum Prüfen der Funktionsfähigkeit von Fernsteuersendern
US4514725A (en) * 1982-12-20 1985-04-30 Bristley Barbara E Window shade mounted alarm system
GB2135536A (en) 1982-12-24 1984-08-30 Wobbot International Limited Sound responsive lighting system and devices incorporating same
GB8314468D0 (en) * 1983-05-25 1983-06-29 Agb Research Plc Television monitoring
AU3290084A (en) 1983-09-16 1985-03-21 Audicom Corp. Encoding of transmitted program material
FR2568432B1 (fr) 1984-07-30 1990-06-29 Baranoff Rossine Dimitri Procede et dispositif de transmission d'informations codees par voie hertzienne en superposition a une emission traditionnelle en modulation de frequence
GB8609524D0 (en) 1986-04-18 1986-05-21 British Broadcasting Corp Video receivers & recorders
US4718106A (en) * 1986-05-12 1988-01-05 Weinblatt Lee S Survey of radio audience
US5108341A (en) * 1986-05-28 1992-04-28 View-Master Ideal Group, Inc. Toy which moves in synchronization with an audio source
GB2196167B (en) 1986-10-01 1991-01-02 Emi Plc Thorn Apparatus for marking a recorded signal
US4846693A (en) * 1987-01-08 1989-07-11 Smith Engineering Video based instructional and entertainment system using animated figure
US4750034A (en) * 1987-01-21 1988-06-07 Cloeck En Moedigh Bioscoopreclame B.V. Apparatus for monitoring the replay of audio/video information carriers
US4840602A (en) * 1987-02-06 1989-06-20 Coleco Industries, Inc. Talking doll responsive to external signal
US4807031A (en) * 1987-10-20 1989-02-21 Interactive Systems, Incorporated Interactive video method and apparatus
FR2626731B3 (fr) 1988-01-28 1990-08-03 Informatique Realite Dispositif electronique autonome destine a permettre la participation a une emission radiophonique ou televisee
US4923428A (en) * 1988-05-05 1990-05-08 Cal R & D, Inc. Interactive talking toy
US4945412A (en) 1988-06-14 1990-07-31 Kramer Robert A Method of and system for identification and verification of broadcasting television and radio program segments
US5090936A (en) 1988-07-30 1992-02-25 Takara Co., Ltd. Movable decoration
GB8824969D0 (en) * 1988-10-25 1988-11-30 Emi Plc Thorn Identification codes
US5499265A (en) * 1989-08-07 1996-03-12 Omnipoint Data Company, Incorporated Spread spectrum correlator
US5191615A (en) * 1990-01-17 1993-03-02 The Drummer Group Interrelational audio kinetic entertainment system
US5446756A (en) 1990-03-19 1995-08-29 Celsat America, Inc. Integrated cellular communications system
JP2648527B2 (ja) * 1990-07-27 1997-09-03 パイオニア株式会社 展示物説明システム
US5136613A (en) * 1990-09-28 1992-08-04 Dumestre Iii Alex C Spread Spectrum telemetry
US5085610A (en) * 1991-05-16 1992-02-04 Mattel, Inc. Dual sound toy train set
FI88237C (fi) 1991-05-24 1993-04-13 Nokia Mobile Phones Ltd Programmering av funktionerna i en mobiltelefon
US5382970A (en) 1991-07-19 1995-01-17 Kiefl; John B. Television viewer monitoring system including portable data meter for each viewer
US5648789A (en) * 1991-10-02 1997-07-15 National Captioning Institute, Inc. Method and apparatus for closed captioning at a performance
JPH05145515A (ja) 1991-11-19 1993-06-11 Canon Inc スペクトル拡散通信装置
US5319735A (en) 1991-12-17 1994-06-07 Bolt Beranek And Newman Inc. Embedded signalling
US5475798A (en) * 1992-01-06 1995-12-12 Handlos, L.L.C. Speech-to-text translator
US5314336A (en) * 1992-02-07 1994-05-24 Mark Diamond Toy and method providing audio output representative of message optically sensed by the toy
JPH05252578A (ja) 1992-03-03 1993-09-28 Toyo Keiki Kk 通信システム
US5353352A (en) 1992-04-10 1994-10-04 Ericsson Ge Mobile Communications Inc. Multiple access coding for radio communications
US5301167A (en) 1992-08-05 1994-04-05 Northeastern University Apparatus for improved underwater acoustic telemetry utilizing phase coherent communications
JP2561232B2 (ja) * 1992-08-31 1996-12-04 双葉電子工業株式会社 スぺクトラム拡散受信装置及びこの装置を用いたスぺクトラム拡散送受信装置
JPH06133367A (ja) * 1992-09-23 1994-05-13 Walt Disney Co:The オーディオ、照明、アニメーション、および特殊効果の遠隔同期のための方法および装置
EP1494374B1 (en) * 1992-11-16 2013-09-18 Arbitron Inc. Method and apparatus for encoding/decoding brodcast or recorded segments and monitoring audience exposure thereto
US5570349A (en) 1994-06-07 1996-10-29 Stanford Telecommunications, Inc. Wireless direct sequence spread spectrum digital cellular telephone system
US5630203A (en) 1993-01-12 1997-05-13 Weinblatt; Lee S. Technique for surveying a radio or a television audience
US5412620A (en) * 1993-03-24 1995-05-02 Micrilor, Inc. Hydroacoustic communications system robust to multipath
US5442343A (en) 1993-06-21 1995-08-15 International Business Machines Corporation Ultrasonic shelf label method and apparatus
US5481294A (en) 1993-10-27 1996-01-02 A. C. Nielsen Company Audience measurement system utilizing ancillary codes and passive signatures
US5436941A (en) 1993-11-01 1995-07-25 Omnipoint Corporation Spread spectrum spectral density techniques
US5574773A (en) 1994-02-22 1996-11-12 Qualcomm Incorporated Method and apparatus of providing audio feedback over a digital channel
US5457807A (en) 1994-03-21 1995-10-10 Weinblatt; Lee S. Technique for surveying a radio or a television audience
US5450490A (en) * 1994-03-31 1995-09-12 The Arbitron Company Apparatus and methods for including codes in audio signals and decoding
US5519779A (en) 1994-08-05 1996-05-21 Motorola, Inc. Method and apparatus for inserting signaling in a communication system
JPH07336460A (ja) 1994-06-03 1995-12-22 Hitachi Ltd データ通信装置
US5555258A (en) 1994-06-17 1996-09-10 P. Stuckey McIntosh Home personal communication system
CA2129925A1 (en) 1994-08-11 1996-02-12 Hendrik Adolf Eldert Zwaneveld Audio synchronization of subtitles
US5539705A (en) * 1994-10-27 1996-07-23 Martin Marietta Energy Systems, Inc. Ultrasonic speech translator and communications system
US6021432A (en) * 1994-10-31 2000-02-01 Lucent Technologies Inc. System for processing broadcast stream comprises a human-perceptible broadcast program embedded with a plurality of human-imperceptible sets of information
EP0710022A3 (en) * 1994-10-31 1998-08-26 AT&T Corp. System and method for encoding digital information in a television signal
EP0713335A2 (en) 1994-11-15 1996-05-22 AT&T Corp. System and method for wireless capture of encoded data transmitted with a television, video or audio signal and subsequent initiation of a transaction using such data
US5828956A (en) 1994-12-30 1998-10-27 Sony Electronics, Inc. Programmable cellular telephone and system
US5774452A (en) * 1995-03-14 1998-06-30 Aris Technologies, Inc. Apparatus and method for encoding and decoding information in audio signals
US5978413A (en) 1995-08-28 1999-11-02 Bender; Paul E. Method and system for processing a plurality of multiple access transmissions
US5822360A (en) * 1995-09-06 1998-10-13 Solana Technology Development Corporation Method and apparatus for transporting auxiliary data in audio signals
US5937000A (en) 1995-09-06 1999-08-10 Solana Technology Development Corporation Method and apparatus for embedding auxiliary data in a primary data signal
EP0766468B1 (en) 1995-09-28 2006-05-03 Nec Corporation Method and system for inserting a spread spectrum watermark into multimedia data
US5752880A (en) * 1995-11-20 1998-05-19 Creator Ltd. Interactive doll
US5719937A (en) * 1995-12-06 1998-02-17 Solana Technology Develpment Corporation Multi-media copy management system
US5687191A (en) * 1995-12-06 1997-11-11 Solana Technology Development Corporation Post-compression hidden data transport
JP3490235B2 (ja) 1995-12-11 2004-01-26 フォン・ドット・コム,インコーポレーテッド 携帯電話機等の双方向データ通信デバイスとコンピュータとの間の通信のための双方向データ通信システム及びそこで使用される双方向通信デバイスとその使用方法
US6035177A (en) 1996-02-26 2000-03-07 Donald W. Moses Simultaneous transmission of ancillary and audio signals by means of perceptual coding
WO1997033391A1 (de) 1996-03-07 1997-09-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codierverfahren zur einbringung eines nicht hörbaren datensignals in ein audiosignal, decodierverfahren, codierer udn decodierer
US5828325A (en) * 1996-04-03 1998-10-27 Aris Technologies, Inc. Apparatus and method for encoding and decoding information in analog signals
US5893067A (en) * 1996-05-31 1999-04-06 Massachusetts Institute Of Technology Method and apparatus for echo data hiding in audio signals
CN1207894C (zh) 1996-06-20 2005-06-22 国际商业机器公司 数据隐藏和抽取方法、系统和电路
US5918223A (en) * 1996-07-22 1999-06-29 Muscle Fish Method and article of manufacture for content-based analysis, storage, retrieval, and segmentation of audio information
US5960398A (en) * 1996-07-31 1999-09-28 Wictor Company Of Japan, Ltd. Copyright information embedding apparatus
US6061793A (en) 1996-08-30 2000-05-09 Regents Of The University Of Minnesota Method and apparatus for embedding data, including watermarks, in human perceptible sounds
US5848155A (en) 1996-09-04 1998-12-08 Nec Research Institute, Inc. Spread spectrum watermark for embedded signalling
US7607147B1 (en) 1996-12-11 2009-10-20 The Nielsen Company (Us), Llc Interactive service device metering systems
GB9700854D0 (en) 1997-01-16 1997-03-05 Scient Generics Ltd Sub-audible acoustic data transmission mechanism
JP3690043B2 (ja) 1997-03-03 2005-08-31 ソニー株式会社 音声情報伝送装置及び方法並びに音声情報記録装置
US6209028B1 (en) * 1997-03-21 2001-03-27 Walker Digital, Llc System and method for supplying supplemental audio information for broadcast television programs
CA2225060A1 (en) * 1997-04-09 1998-10-09 Peter Suilun Fong Interactive talking dolls
US6125172A (en) * 1997-04-18 2000-09-26 Lucent Technologies, Inc. Apparatus and method for initiating a transaction having acoustic data receiver that filters human voice
US5940135A (en) * 1997-05-19 1999-08-17 Aris Technologies, Inc. Apparatus and method for encoding and decoding information in analog signals
GB2326572A (en) 1997-06-19 1998-12-23 Softsound Limited Low bit rate audio coder and decoder
IL121642A0 (en) * 1997-08-27 1998-02-08 Creator Ltd Interactive talking toy
US5945932A (en) 1997-10-30 1999-08-31 Audiotrack Corporation Technique for embedding a code in an audio signal and for detecting the embedded code
US6467089B1 (en) 1997-12-23 2002-10-15 Nielsen Media Research, Inc. Audience measurement system incorporating a mobile handset
JP3673664B2 (ja) 1998-01-30 2005-07-20 キヤノン株式会社 データ処理装置、データ処理方法及び記憶媒体
AUPP170298A0 (en) 1998-02-06 1998-03-05 Pracas, Victor Manuel Electronic interactive puppet
US6389055B1 (en) * 1998-03-30 2002-05-14 Lucent Technologies, Inc. Integrating digital data with perceptible signals
US5974116A (en) * 1998-07-02 1999-10-26 Ultratec, Inc. Personal interpreter
WO2000021203A1 (en) 1998-10-02 2000-04-13 Comsense Technologies, Ltd. A method to use acoustic signals for computer communications
FI982363A (fi) 1998-10-30 2000-05-01 Nokia Mobile Phones Ltd Menetelmä ja järjestelmä radiolaitteen toiminnan rajoittamiseksi tietyllä alueella
TW484267B (en) 1998-11-05 2002-04-21 Sony Corp Additional information transmission method, additional information transmission system, information signal output apparatus, information signal processing apparatus information signal recording apparatus and information signal recording medium
JP2000152217A (ja) 1998-11-09 2000-05-30 Toshiba Corp 映像取得制限システム、映像取得許否信号送信装置および映像取得制限装置
US6876623B1 (en) 1998-12-02 2005-04-05 Agere Systems Inc. Tuning scheme for code division multiplex broadcasting system
US6370666B1 (en) 1998-12-02 2002-04-09 Agere Systems Guardian Corp. Tuning scheme for error-corrected broadcast programs
US6512919B2 (en) * 1998-12-14 2003-01-28 Fujitsu Limited Electronic shopping system utilizing a program downloadable wireless videophone
GB9828101D0 (en) 1998-12-21 1999-02-17 Roke Manor Research Acoustic marketing device
GB2363300B (en) 1998-12-29 2003-10-01 Kent Ridge Digital Labs Digital audio watermarking using content-adaptive multiple echo hopping
US6442283B1 (en) 1999-01-11 2002-08-27 Digimarc Corporation Multimedia data embedding
JP2000207170A (ja) 1999-01-14 2000-07-28 Sony Corp 情報処理装置および情報処理方法
CA2359746A1 (en) 1999-01-19 2000-07-27 Edward J. Koplar Telephone handset for use in interactive tv systems
GB9902235D0 (en) 1999-02-01 1999-03-24 Emuse Corp Interactive system
JP3465616B2 (ja) 1999-02-12 2003-11-10 株式会社デンソー データ配信システム及び情報配信センタ
JP4024957B2 (ja) 1999-03-12 2007-12-19 シャープ株式会社 通信装置および通信システム
US6765950B1 (en) 1999-04-01 2004-07-20 Custom One Design, Inc. Method for spread spectrum communication of supplemental information
JP2000308130A (ja) 1999-04-16 2000-11-02 Casio Comput Co Ltd 通信システム
US6463413B1 (en) * 1999-04-20 2002-10-08 Matsushita Electrical Industrial Co., Ltd. Speech recognition training for small hardware devices
US6674993B1 (en) 1999-04-30 2004-01-06 Microvision, Inc. Method and system for identifying data locations associated with real world observations
US6298322B1 (en) 1999-05-06 2001-10-02 Eric Lindemann Encoding and synthesis of tonal audio signals using dominant sinusoids and a vector-quantized residual tonal signal
US7031271B1 (en) 1999-05-19 2006-04-18 Motorola, Inc. Method of and apparatus for activating a spread-spectrum radiotelephone
US6442518B1 (en) * 1999-07-14 2002-08-27 Compaq Information Technologies Group, L.P. Method for refining time alignments of closed captions
GB2345779B (en) 1999-10-12 2004-08-11 Roke Manor Research Apparatus for controlling a remote item
WO2001031816A1 (en) 1999-10-27 2001-05-03 Nielsen Media Research, Inc. System and method for encoding an audio signal for use in broadcast program identification systems, by adding inaudible codes to the audio signal
US20010030710A1 (en) * 1999-12-22 2001-10-18 Werner William B. System and method for associating subtitle data with cinematic material
US6438117B1 (en) 2000-01-07 2002-08-20 Qualcomm Incorporated Base station synchronization for handover in a hybrid GSM/CDMA network
US6737957B1 (en) 2000-02-16 2004-05-18 Verance Corporation Remote control signaling using audio watermarks
US7110951B1 (en) * 2000-03-03 2006-09-19 Dorothy Lemelson, legal representative System and method for enhancing speech intelligibility for the hearing impaired
US7047191B2 (en) * 2000-03-06 2006-05-16 Rochester Institute Of Technology Method and system for providing automated captioning for AV signals
US6773344B1 (en) 2000-03-16 2004-08-10 Creator Ltd. Methods and apparatus for integration of interactive toys with interactive television and cellular communication systems
US8091025B2 (en) * 2000-03-24 2012-01-03 Digimarc Corporation Systems and methods for processing content objects
US7712123B2 (en) * 2000-04-14 2010-05-04 Nippon Telegraph And Telephone Corporation Method, system, and apparatus for acquiring information concerning broadcast information
US6708214B1 (en) 2000-04-21 2004-03-16 Openwave Systems Inc. Hypermedia identifier input mode for a mobile communication device
EP1158800A1 (en) 2000-05-18 2001-11-28 Deutsche Thomson-Brandt Gmbh Method and receiver for providing audio translation data on demand
US7058356B2 (en) * 2000-06-15 2006-06-06 Benjamin Slotznick Telephone device with enhanced audio-visual features for interacting with nearby displays and display screens
US6782253B1 (en) 2000-08-10 2004-08-24 Koninklijke Philips Electronics N.V. Mobile micro portal
US6701162B1 (en) * 2000-08-31 2004-03-02 Motorola, Inc. Portable electronic telecommunication device having capabilities for the hearing-impaired
US20020069263A1 (en) 2000-10-13 2002-06-06 Mark Sears Wireless java technology
US6892175B1 (en) 2000-11-02 2005-05-10 International Business Machines Corporation Spread spectrum signaling for speech watermarking
US7796978B2 (en) * 2000-11-30 2010-09-14 Intrasonics S.A.R.L. Communication system for receiving and transmitting data using an acoustic data channel
US20020072982A1 (en) * 2000-12-12 2002-06-13 Shazam Entertainment Ltd. Method and system for interacting with a user in an experiential environment
CA2457089A1 (en) 2001-08-14 2003-02-27 Central Research Laboratories Limited System to provide access to information related to a broadcast signal
US6862355B2 (en) 2001-09-07 2005-03-01 Arbitron Inc. Message reconstruction from partial detection
WO2003026153A1 (en) * 2001-09-20 2003-03-27 Exo-Brain, Inc. Input-output device with universal phone port
US6785539B2 (en) * 2001-12-05 2004-08-31 Disney Enterprises, Inc. System and method of wirelessly triggering portable devices
US7308486B2 (en) * 2001-12-06 2007-12-11 Accenture Global Services Gmbh Mobile guide communications system
JP3554825B2 (ja) 2002-03-11 2004-08-18 東北大学長 電子透かしシステム
KR20050009733A (ko) 2002-06-03 2005-01-25 코닌클리케 필립스 일렉트로닉스 엔.브이. 멀티미디어 신호에 워터마크를 재삽입하는 방법
EP1552454B1 (en) 2002-10-15 2014-07-23 Verance Corporation Media monitoring, management and information system
US6845360B2 (en) 2002-11-22 2005-01-18 Arbitron Inc. Encoding multiple messages in audio data and detecting same
EP1542227A1 (en) 2003-12-11 2005-06-15 Deutsche Thomson-Brandt Gmbh Method and apparatus for transmitting watermark data bits using a spread spectrum, and for regaining watermark data bits embedded in a spread spectrum
ATE539431T1 (de) 2004-06-08 2012-01-15 Koninkl Philips Electronics Nv Kodierung von tonsignalen mit hall
CN101115124B (zh) * 2006-07-26 2012-04-18 日电(中国)有限公司 基于音频水印识别媒体节目的方法和装置

Also Published As

Publication number Publication date
WO2003061285A2 (en) 2003-07-24
EP1464172B1 (en) 2013-04-24
DK1464172T3 (da) 2013-06-24
US20050227614A1 (en) 2005-10-13
JP2005515510A (ja) 2005-05-26
EP1464172A2 (en) 2004-10-06
AU2002363907A1 (en) 2003-07-30
US8248528B2 (en) 2012-08-21
WO2003061285A3 (en) 2004-03-11
AU2002363907A8 (en) 2003-07-30

Similar Documents

Publication Publication Date Title
ES2420909T3 (es) Sistema de subtitulación
US10334381B2 (en) Binaural audio systems and methods
EP1906696B1 (en) Information providing system
JP4503292B2 (ja) 携帯デバイスをワイヤレスにトリガするシステムおよび方法
KR101000691B1 (ko) 휴대용 장치에 디지털 데이터를 스트리밍하기 위한 장치
JP4616274B2 (ja) 字幕付き静止画コンテンツ作成装置、字幕付き静止画コンテンツ作成プログラム及び字幕付き静止画コンテンツ作成システム
CN101796541B (zh) 用于定制实况媒体内容的方法和系统
US8943021B2 (en) System and method for assistive caption, video description, and audio distribution
JP2001504673A (ja) ビデオ番組のための補足のオーディオおよびビジュアル情報を供給するシステムおよび方法
WO2013169935A1 (en) Methods and apparatuses for communication of audio tokens
EP1185142A2 (en) System for viewing visual content
NZ521724A (en) Presenting programs to user and providing user with a portable device that presents users with data relevant to the program
JP2002125300A (ja) 映画視聴者に音声情報を同期的に送信するためのシステム
CN110191367A (zh) 信息同步处理方法、装置及电子设备
JP6271194B2 (ja) 携帯デバイスへのセカンドスクリーン情報の提供方法
JP3976779B1 (ja) 音楽データに文字データを埋め込んだ複合音響信号を再生する文字データ再生装置
US20150294539A1 (en) Method for remotely controlling human perceivable output of a plurality of devices, system, transmitter, device, software product and human unperceivable acoustic signal for performing the method
KR101609755B1 (ko) 스마트 기기를 이용한 시각 또는 청각 장애인의 영화관 상영 디지털 영상 콘텐츠 간편 시청 시스템 및 그 방법
CN103369366A (zh) 多媒体内容传播服务器及相关的多媒体播放方法
JP6909904B1 (ja) 画像管理装置、画像管理システム及び画像管理方法
KR101619153B1 (ko) 스마트 기기를 이용한 시각 또는 청각 장애인의 디지털 영상 콘텐츠 간편 시청 시스템 및 그 방법
JP2022006724A (ja) 画像管理装置、画像管理システム及び画像管理方法