ES2761915T3 - Método y procedimiento para descripciones auxiliares de programa basadas en texto para televisión - Google Patents

Método y procedimiento para descripciones auxiliares de programa basadas en texto para televisión Download PDF

Info

Publication number
ES2761915T3
ES2761915T3 ES09832312T ES09832312T ES2761915T3 ES 2761915 T3 ES2761915 T3 ES 2761915T3 ES 09832312 T ES09832312 T ES 09832312T ES 09832312 T ES09832312 T ES 09832312T ES 2761915 T3 ES2761915 T3 ES 2761915T3
Authority
ES
Spain
Prior art keywords
time
stage
dialogue
sequential list
indications
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES09832312T
Other languages
English (en)
Inventor
Craig Davis Cuttner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Home Box Office Inc
Original Assignee
Home Box Office Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Home Box Office Inc filed Critical Home Box Office Inc
Application granted granted Critical
Publication of ES2761915T3 publication Critical patent/ES2761915T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/087Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only
    • H04N7/088Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital
    • H04N7/0884Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital for the transmission of additional display-information, e.g. menu for programme or channel selection
    • H04N7/0885Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital for the transmission of additional display-information, e.g. menu for programme or channel selection for the transmission of subtitles
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8211Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a sound signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8233Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a character code signal

Abstract

Un método para proporcionar indicaciones escénicas, que comprende los pasos de: desglosar, mediante un procesador de ordenador, diálogo e indicaciones escénicas de un guion de producción para dar una lista secuencial en el tiempo de flujos de diálogo y una lista secuencial en el tiempo de indicaciones escénicas, en donde la lista secuencial en el tiempo de indicaciones escénicas incluye una descripción textual de las indicaciones escénicas; correlacionar, utilizando el procesador, la lista secuencial en el tiempo de flujos de diálogo con una lista de flujos de subtítulos cerrados, en donde se asocian códigos de tiempo para diálogo con los flujos de subtítulos cerrados; asignar, utilizando el procesador, los códigos de tiempo para diálogo asociados con los flujos de subtítulos cerrados a los flujos de diálogo correlacionados; calcular, utilizando el procesador, códigos de tiempo para indicación escénica entre códigos de tiempo para diálogo consecutivos, sobre la base de los códigos de tiempo para diálogo consecutivos y de la cantidad de indicaciones escénicas entre los flujos de diálogo consecutivos; asignar, utilizando el procesador, los códigos de tiempo para indicación escénica calculados a indicaciones escénicas respectivas de la lista secuencial en el tiempo de indicaciones escénicas; y transmitir la lista secuencial en el tiempo de indicaciones escénicas a un sistema de representación en sincronía con una representación de un programa, estando basada la sincronía en los códigos de tiempo para indicación escénica asignados.

Description

DESCRIPCIÓN
Método y procedimiento para descripciones auxiliares de programa basadas en texto para televisión
Campo de la invención
La presente invención se refiere a un método y procedimiento para producir y/o distribuir servicios auxiliares basados en texto a telespectadores.
Información de antecedentes
Convencionalmente, para ofrecer contenido multimedia, tal como contenido que incluye vídeo y/o audio, a personas con discapacidad auditiva o visual se han utilizado diversas técnicas. A este respecto, el contenido de vídeo puede incluir imágenes, imágenes en movimiento, animación y otros contenidos, y el contenido de audio puede incluir diálogo, música, efectos sonoros y otros contenidos. Puede ser difícil ofrecer dichos contenidos a las personas con discapacidad auditiva o visual, de una manera con la cual el usuario pueda percibir en la práctica la información del contenido ofrecida.
Para las personas con discapacidad auditiva, al contenido de vídeo se le complementa convencionalmente con subtítulos cerrados (también denominados ocultos o no incrustados, en inglés, "closed caption"), al objeto de ofrecer a dichos usuarios un contenido multimedia relativamente completo. La subtitulación cerrada proporciona un texto en la pantalla que representa el contenido de audio, con nivel de detalle variable. Por ejemplo, los subtítulos cerrados pueden representar uno o varios de diálogo, música, efectos sonoros y otros componentes del contenido de audio. Según se muestra en la Figura 1, un sistema convencional de subtitulación cerrada puede incluir un taquígrafo 3, que escucha una producción 1 en directo o pregrabada. Mientras escucha, el taquígrafo 3 crea un flujo 5 de subtítulos cerrados basado en el contenido de audio.
Los subtítulos cerrados "dinámicos" (que van apareciendo a medida que se crean, en inglés "paint-on") y los subtítulos cerrados "estáticos" (que emergen de golpe como un conjunto, en inglés "pop-on") son dos tipos de subtítulos cerrados. Los subtítulos cerrados dinámicos son el tipo de subtítulos cerrados utilizado más frecuentemente. En la subtitulación cerrada dinámica, un taquígrafo 3 escucha una producción y escribe, en tiempo real, el flujo 5 de subtítulos cerrados, p. ej. durante una transmisión en directo de un programa de televisión o un evento deportivo. El flujo aparece "dinámicamente" en el dispositivo de visualización del usuario a medida que el taquígrafo 3 escribe el flujo 5 de subtítulos cerrados. Debido a esta creación en tiempo real de los subtítulos cerrados dinámicos, los usuarios advierten generalmente un retraso entre la recepción del contenido de vídeo y la recepción del flujo de subtítulos cerrados dinámicos correspondiente al contenido de audio que va asociado con el vídeo recibido.
Por el contrario, los subtítulos cerrados estáticos comprenden típicamente el flujo 5 de subtítulos cerrados y una instrucción asociada que da al dispositivo de visualización la orden de "hacer emerger" en el momento adecuado el flujo 5 de subtítulos cerrados. Por este motivo, la subtitulación cerrada estática requiere, antes de ser distribuida a los usuarios, cierta programación necesaria para escribir y temporizar con precisión las órdenes de "emersión". Gracias a esta programación adicional, los subtítulos cerrados estáticos se pueden visualizar de manera sincrónica con el contenido de vídeo correspondiente.
En cualquiera de estos tipos de subtitulación cerrada, se puede distribuir 7 el flujo 5 de subtítulos cerrados a los usuarios utilizando sistemas de subtitulación cerrada, tales como, por ejemplo, CEA-608 o CEA-708. Cuando se visiona un programa en particular en una ubicación 8 de visionado, se puede mostrar 9 el programa conjuntamente con los subtítulos cerrados en la pantalla. Así, los usuarios con discapacidad auditiva pueden percibir la información que está contenida en la parte de audio de un contenido multimedia.
Para las personas con discapacidad visual, se puede complementar el contenido de audio con una descripción adicional del contenido de vídeo, basada en el audio, al objeto de ofrecer contenido multimedia relativamente completo a dichos usuarios. La descripción adicional basada en audio puede proporcionar, con nivel de detalle variable, una descripción en audio del contenido de vídeo que incluya, por ejemplo, acciones, movimientos, ubicaciones, decorado o paisajes, y expresiones o gestos. Según se muestra en la Figura 2, un servicio convencional de descripción de vídeo basada en audio puede incluir un narrador 4 que graba una pista 6 de audio de contenido de vídeo mientras lee un guion 2 de producción o bien ve una producción 1 en directo o pregrabada. Después se puede distribuir 12 la pista 6 de audio a los usuarios, por ejemplo, mediante difusión tradicional por TV, cable, satélite, telecomunicaciones, o a través de medios grabados tales como DVD, Blu-Ray o videocasete. Cuando se escucha un programa en particular en una ubicación 8 de visionado, se puede reproducir el programa conjuntamente con la pista 6 de audio. Así, los usuarios con discapacidad visual pueden percibir la información que está contenida en la parte de vídeo de un contenido multimedia.
Sin embargo, los servicios convencionales de descripción de vídeo basada en audio requieren mucho tiempo y sus procesos de producción son caros. Por ejemplo, para crear estas descripciones de vídeo basadas en audio, uno o varios narradores han de ver las producciones completas y grabar pistas de audio del contenido de vídeo. Además, a menudo se requiere que las entidades productoras utilicen los costosos servicios de narradores profesionales.
Además, las grabaciones hechas por narrador de pistas de audio, basándose en los guiones de producción o en programas pregrabados, agregan otro paso al proceso de producción, sumando tiempo y coste adicionales. Aun así, este procedimiento se utiliza con frecuencia, ya que permite a los narradores crear pistas de audio con mayor detalle y precisión, ya que ofrece la posibilidad de poner en marcha, parar, quitar, añadir, volver a grabar y editar de cualquier otra manera todas las pistas de audio o partes de ellas.
También se emplea a menudo el procedimiento alternativo de que los narradores graben las pistas de audio durante la producción en directo. Tal procedimiento añade más complejidad al proceso de producción en directo. Este procedimiento en directo también produce pistas de audio con menos detalles y precisión que el método alternativo, ya que puede ocurrir que los narradores dispongan de una sola oportunidad para grabar las pistas de audio durante la producción en directo.
Además, la distribución del servicio de descripción de vídeo basada en audio consume ancho de banda, que es escaso, de un canal de audio adicional. La transmisión de contenido de audio requiere un gran ancho de banda de aproximadamente 100-400 kilobits por segundo. Puede que no esté disponible un ancho de banda tan grande o, en caso de estar disponible, puede que sea costoso. Por el contrario, los subtítulos cerrados tienen asignado generalmente un ancho de banda de 9,6 kilobits por segundo, con un espacio de datos real de aproximadamente 1 kilobit por segundo. Así pues, si no está disponible el gran ancho de banda requerido para transmitir contenido de audio, los usuarios con discapacidad visual no pueden disponer del servicio de descripción de vídeo basada en audio.
La patente de EE. UU. US 5.900.908 describe un aparato y método para proporcionar servicios de televisión descritos mediante los cuales se ofrece al espectador una descripción de audio de aspectos no hablados de un programa de televisión. Un editor de descripción (una persona) introduce datos de descripción referentes a un programa audiovisual, y son insertados, por ejemplo, en la línea 21 del intervalo de supresión vertical del programa.
Compendio
La invención se define en las reivindicaciones independientes 1, 8 y 10. En las reivindicaciones dependientes se exponen realizaciones particulares de la invención.
Realizaciones de la presente invención proporcionan servicios de descripción de vídeo que ofrecen descripciones auxiliares de programa, basadas en texto, en particular para usuarios con discapacidad visual. Realizaciones de la presente invención proporcionan servicios de descripción de vídeo que consumen menos tiempo y son menos costosos en sus procesos de producción, al tiempo que mantienen o incluso mejoran el detalle y la precisión del contenido. Realizaciones de la presente invención proporcionan servicios de descripción de vídeo que, durante la distribución a los usuarios, consumen menos ancho de banda que servicios convencionales de descripción de vídeo basada en audio.
Según una realización ilustrativa de la presente invención, un método para generar indicaciones escénicas sincrónicas en el tiempo puede conllevar: crear, a partir de un guion de producción, una lista secuencial en el tiempo de flujos de diálogo y una lista secuencial en el tiempo de indicaciones escénicas, correlacionar la lista secuencial en el tiempo de flujos de diálogo con una lista de flujos de subtítulos cerrados, en donde se asocian códigos de tiempo para diálogo con los flujos de subtítulos cerrados, asignar los códigos de tiempo para diálogo asociados con los flujos de subtítulos cerrados a los flujos de diálogo correlacionados, calcular códigos de tiempo para indicación escénica entre códigos de tiempo para diálogo consecutivos, sobre la base de al menos uno de los códigos de tiempo para diálogo consecutivos y de la cantidad de indicaciones escénicas entre flujos de diálogo consecutivos, y asignar los códigos de tiempo para indicación escénica calculados a la lista secuencial en el tiempo de indicaciones escénicas.
En una variante ilustrativa de esta realización, el paso de correlacionar incluye realizar la correlación por medio de un algoritmo correlacionador de ajuste no estrecho.
En una variante ilustrativa de esta realización, el paso de calcular incluye determinar, para dos códigos de tiempo para diálogo consecutivos, una diferencia entre los códigos de tiempo para diálogo consecutivos, dividir la diferencia por uno más la cantidad N de indicaciones escénicas entre flujos de diálogo consecutivos asociados con los dos códigos de tiempo para diálogo consecutivos, con el fin de calcular un intervalo de código de tiempo para indicación escénica, multiplicar el intervalo de código de tiempo para indicación escénica por una zésima indicación escénica entre los flujos de diálogo consecutivos, con el fin de calcular un intervalo de código de tiempo para la zésima indicación escénica, y sumar el intervalo de código de tiempo para la zésima indicación escénica a un código de tiempo más antiguo de los códigos de tiempo para diálogo consecutivos.
En una realización ilustrativa del método, el método puede conllevar además distribuir las indicaciones escénicas sincrónicas en el tiempo como flujos de texto mediante al menos uno de sistemas de supresión vertical, de sistemas de emisión en continuo (en inglés, "streaming") por Internet y de autoría de DVD.
En una variante ilustrativa de esta realización, el al menos uno de sistemas de supresión vertical y de sistemas de emisión en continuo por Internet incluye al menos uno de un sistema de subtitulación cerrada CEA-608, de un sistema de subtitulación cerrada CEA-708, de un sistema de teletexto de sistema mundial (WST, del inglés "World-System Teletext"), de un sistema de difusión de vídeo digital (DVB, del inglés "Digital Video Broadcasting") y de un sistema de texto temporizado para multimedia (SMIL).
En una realización ilustrativa del método, el método puede conllevar además recibir las indicaciones escénicas sincrónicas en el tiempo y descodificar las indicaciones escénicas sincrónicas en el tiempo utilizando un sistema basado en texto.
En una variante ilustrativa de esta realización, el sistema basado en texto incluye al menos uno de un dispositivo Braille, de un sintetizador de texto a voz y de una visualización de letra grande en pantalla.
Según una realización ilustrativa de la presente invención, un método para proporcionar descripciones de indicaciones escénicas puede conllevar: crear descripciones textuales de las indicaciones escénicas de un guion de producción y transmitir las descripciones textuales a un sistema de representación.
En una realización ilustrativa del método, el método puede conllevar además visionar al menos una de una producción en directo y de una producción pregrabada, incluidos el diálogo y las indicaciones escénicas, en donde las descripciones textuales de las indicaciones escénicas están basadas en el visionado de la producción.
En una realización ilustrativa del método, el método puede conllevar además crear descripciones textuales del diálogo y transmitir las descripciones textuales del diálogo al sistema de representación, en donde: o bien se transmiten al sistema de representación a través de canales de transmisión distintos las descripciones textuales de las indicaciones escénicas y las descripciones textuales del diálogo, o bien se incluye un código junto con las descripciones textuales de las indicaciones escénicas, efectuando el sistema de representación la distinción entre las descripciones textuales de las indicaciones escénicas y las descripciones textuales del diálogo basándose en el código.
En una variante ilustrativa de esta realización, las descripciones textuales son transmitidas como flujos de texto mediante al menos uno de sistemas de supresión vertical, de sistemas de paquetes de datos y de autoría de DVD. En una variante ilustrativa de esta realización, el al menos uno de sistemas de supresión vertical y de sistemas de paquetes de datos incluye al menos uno de un sistema de subtitulación cerrada CEA-608, de un sistema de subtitulación cerrada CEA-708, de un sistema de teletexto de sistema mundial (WST), de un sistema de difusión de vídeo digital (DVB) y de un sistema de texto temporizado para multimedia (SMIL).
En una realización ilustrativa del método, el método puede conllevar además recibir las descripciones textuales junto con un flujo de texto de subtítulos cerrados, omitir, basándose en el flujo de texto de subtítulos cerrados, las descripciones textuales de entre los subtítulos cerrados visualizados en la pantalla, y representar las descripciones textuales.
En una variante ilustrativa de esta realización, las descripciones textuales son representadas mediante al menos uno de un dispositivo Braille, de un sintetizador de texto a voz y de una visualización de letra grande en pantalla.
Según una realización ilustrativa de la presente invención, un método para proporcionar descripciones textuales de indicaciones escénicas puede conllevar al menos uno de a) leer un guion de producción, y b) visionar al menos una de una producción en directo y de una producción pregrabada, incluidos el diálogo y las indicaciones escénicas, crear descripciones de audio de las indicaciones escénicas y convertir las descripciones de audio en descripciones textuales de las indicaciones escénicas utilizando un sistema de reconocimiento de voz.
En una realización ilustrativa del método, el método puede conllevar además distribuir las descripciones textuales como flujos de texto mediante al menos uno de sistemas de supresión vertical, de sistemas de emisión en continuo de paquetes de datos y de autoría de DVD.
En una variante ilustrativa de esta realización, el al menos uno de sistemas de supresión vertical y de sistemas de emisión en continuo de paquetes de datos incluye al menos uno de un sistema de subtitulación cerrada CEA-608, de un sistema de subtitulación cerrada CEA-708, de un sistema de teletexto de sistema mundial (WST), de un sistema de difusión de vídeo digital (DVB) y de un sistema de texto temporizado para multimedia (SMIL).
En una realización ilustrativa del método, el método puede conllevar además recibir las descripciones textuales de las indicaciones escénicas y descodificar las descripciones textuales a través de un sistema de representación. En una variante ilustrativa de esta realización, el sistema de representación incluye al menos uno de un dispositivo Braille, de un sintetizador de texto a voz y de una visualización de letra grande en pantalla.
Según una realización ilustrativa de la presente invención, un método para utilizar descripciones textuales con el fin de proporcionar descripciones auxiliares de programa a consumidores con discapacidad visual puede conllevar: transmitir un flujo de descripciones textuales de indicaciones escénicas para al menos una de una producción en directo y de una producción pregrabada, y representar el flujo de descripciones textuales de indicaciones escénicas a través de al menos uno de un dispositivo Braille, de un sintetizador de texto a voz y de una visualización de letra grande en pantalla.
Breve descripción de los dibujos
La Figura 1 es un diagrama que ilustra componentes de un sistema convencional de subtitulación cerrada.
La Figura 2 es un diagrama que ilustra componentes de un servicio convencional de descripción de vídeo basada en audio.
La Figura 3 es un diagrama que ilustra componentes de un servicio de descripción de vídeo basada en texto que utiliza algoritmos desglosadores basados en guion y algoritmos sincronizadores, según una realización ilustrativa de la presente invención.
La Figura 4 es un diagrama que ilustra componentes detallados adicionales del servicio de descripción de vídeo basada en texto de la Figura 3, según una realización ilustrativa de la presente invención.
La Figura 5 es un diagrama que ilustra componentes de un servicio de descripción de vídeo basada en texto en paralelo con un sistema de subtitulación cerrada, según una realización ilustrativa alternativa de la presente invención.
La Figura 6 es un diagrama que ilustra componentes de un servicio de descripción de vídeo basada en texto que utiliza un sistema de reconocimiento de voz, según otra realización ilustrativa alternativa de la presente invención. La Figura 7 es un diagrama que ilustra componentes de un sistema de distribución para un servicio de descripción de vídeo basada en texto, según una realización ilustrativa de la presente invención.
La Figura 8 es un diagrama que ilustra componentes de una ubicación de visionado para un servicio de descripción de vídeo basada en texto, según una realización ilustrativa de la presente invención.
Descripción detallada de realizaciones ilustrativas
La Figura 3 ilustra componentes de un servicio de descripción de vídeo basada en texto que utiliza algoritmos desglosadores basados en guion y algoritmos sincronizadores, según una realización ilustrativa de la presente invención. Un guion 2 de producción incluye generalmente dos elementos principales: diálogo e indicaciones escénicas. El diálogo es aquella parte del guion 2 de producción que representa los diálogos que los actores van a mantener durante un programa. Ello puede incluir palabras habladas tales como, por ejemplo, "Te quiero", pronunciadas por un actor, según se muestra en la Figura 4. Las indicaciones escénicas son aquella parte del guion 2 de producción que representa las instrucciones que los actores y/o las estructuras de escena deben seguir durante un programa. Ello puede incluir las acciones de un actor tales como, por ejemplo, la indicación [Tom besa a Molly], según se muestra en la Figura 4. Un guion 2 de producción puede incluir otros elementos, tales como indicaciones técnicas para cámaras, iluminación, etc.; sin embargo, aquí no se discutirán con mayor detalle esos otros elementos.
Los guiones 2 de producción siguen generalmente ciertas convenciones de formato en la escritura de guiones. Por ejemplo, para indicar un diálogo puede aparecer el nombre de un actor, seguido de dos puntos (p. ej., Tom:) y centrado en la página, inmediatamente antes del diálogo para ese actor. Se pueden seguir esta y otras convenciones de formato para indicar los diálogos y las indicaciones escénicas. En particular, los diálogos y las indicaciones escénicas se pueden señalar mediante diversas convenciones de formato dentro de un guion 2 de producción, con el fin de diferenciar entre sí estos elementos. Si se reconocen las convenciones de formato utilizadas en un guion 2 de producción, se puede emplear un algoritmo desglosador 21 para desglosar una copia electrónica de un guion 2 de producción, dando un guion desglosado 22 que tiene dos listas separadas, una que contiene los diálogos y otra que contiene las indicaciones escénicas.
Según se ha comentado más arriba, los subtítulos cerrados 5 incluyen flujos de diálogo que han sido grabados por un taquígrafo 3 que escuchaba una producción 1 en directo o pregrabada. Además, partes del flujo de diálogo de los subtítulos cerrados 5 pueden estar asociadas con un código de tiempo. El código de tiempo puede establecer el orden secuencial de todos los flujos de diálogo de los subtítulos cerrados 5.
Se puede emplear un algoritmo sincronizador 23 para sincronizar la lista de diálogos del guion desglosado 22 con los flujos de diálogo de los subtítulos cerrados 5. Dado que es posible que los flujos de diálogo de los subtítulos cerrados 5 no se correlacionen exactamente con los diálogos del guion desglosado 22 debido a diversas causas, por ejemplo cambios, improvisaciones y otras causas, el algoritmo sincronizador 23 puede utilizar una correlación "aproximada" entre el guion desglosado 22 y los subtítulos cerrados 5. De este modo, el algoritmo sincronizador 23 crea una línea temporal 24 del programa.
Se pueden sincronizar las indicaciones escénicas del guion desglosado 22 con la línea temporal 24 del programa, dando como resultado indicaciones escénicas sincronizadas 25. Las indicaciones escénicas sincronizadas 25 son descripciones basadas en texto, que después son distribuidas 7 a los usuarios, como se describirá con mayor detalle más adelante, en relación con la Figura 7. Además, cuando los usuarios reciben las indicaciones escénicas sincronizadas 25 en una ubicación 8 de visionado, las descripciones basadas en texto pueden ser descodificadas utilizando cualquier sistema 11 basado en texto, adecuado, como se describirá con mayor detalle más adelante, en relación con la Figura 8.
La Figura 4 ilustra componentes más detallados del servicio de descripción de vídeo basada en texto de la Figura 3, según una realización ilustrativa de la presente invención. Un algoritmo desglosador 21 puede desglosar una copia electrónica de un guion 2 de producción en diálogos 22A e indicaciones escénicas 22B. Un guion 2 de producción y sus subtítulos cerrados 5 asociados pueden incluir cualquier cantidad de diálogos e indicaciones escénicas entremezclados entre sí. Según se muestra en la Figura 4, los diálogos 22A pueden incluir, por ejemplo, el diálogo A, el diálogo B y el diálogo C. Además, las indicaciones escénicas 22B pueden incluir, por ejemplo, la indicación A' y la indicación B'. La indicación A' se representa situada entre los diálogos A y B, y la indicación B' se representa situada entre los diálogos B y C. Además, según se muestra en la Figura 4, los subtítulos cerrados 5 pueden incluir, por ejemplo, el subtítulo A en el código de tiempo A, el subtítulo B en el código de tiempo B y el subtítulo C en el código de tiempo C.
Un algoritmo sincronizador 23 puede sincronizar los diálogos 22A con los subtítulos cerrados 5, correlacionando cada diálogo A, B, C con su subtítulo asociado A, B, C. Según se ha explicado con mayor detalle más arriba, dado que es posible que los diálogos 22A no se correlacionen exactamente con los subtítulos cerrados 5 debido a diversas causas, se puede utilizar una correlación "aproximada". Se puede utilizar cualquier algoritmo correlacionador de ajuste no estrecho, apropiado, para encontrar las correlaciones aproximadas. Al estar cada diálogo A, B, C correlacionado con su subtítulo asociado A, B, C, a cada diálogo se le asigna también el código de tiempo 24A de su subtítulo asociado. Por ejemplo, al estar el diálogo A correlacionado con el subtítulo A, al diálogo A se le asigna el código de tiempo A; al estar el diálogo B correlacionado con el subtítulo B, al diálogo B se le asigna el código de tiempo B; al estar el diálogo C correlacionado con el subtítulo C, al diálogo C se le asigna el código de tiempo C. Mediante la correlación de los diálogos 22A con los subtítulos cerrados 5, se crea una línea temporal 24 del programa.
Se pueden sincronizar las indicaciones escénicas 22B con la línea temporal 24 del programa. En el ejemplo que se muestra en la Figura 4, dado que la indicación A' se produce entre los diálogos A y B, a la indicación A' se le asigna un código de tiempo A' entre los códigos de tiempo A, B para los diálogos A, B. Además, dado que la indicación B' se produce entre los diálogos B y C, a la indicación B' se le asigna un código de tiempo B' entre los códigos de tiempo B, C para los diálogos B, C. Además, para este paso, se puede emplear un algoritmo de inserción en el tiempo para determinar los códigos de tiempo para las indicaciones escénicas 22B. Para el caso en que exista una única indicación escénica A' entre dos códigos de tiempo para diálogo A y B, el algoritmo de inserción en el tiempo se puede expresar, por ejemplo, como:
Figure imgf000006_0001
donde 2 es la cantidad de unidades de tiempo en las que se expresan los códigos de tiempo. Como se puede ver en el precedente algoritmo de inserción en el tiempo, se inserta una única indicación escénica A', que se encuentra entre los diálogos A y B, en un código de tiempo A' de indicación escénica que está a medio camino entre los correspondientes códigos de tiempo para diálogo A y B.
Se puede ampliar la ecuación precedente para que tenga aplicación en casos en donde existan una o varias indicaciones escénicas entre dos códigos de tiempo para diálogo A y B. La ecuación ampliada se puede expresar como:
Figure imgf000006_0002
donde N es la cantidad de indicaciones escénicas que existen entre los diálogos A y B, y z es una en particular de las N indicaciones escénicas. Por ejemplo, en un caso en el que existen tres indicaciones escénicas entre el diálogo A y el diálogo B, a N se le asigna un valor de 3. A continuación, utilizando el precedente algoritmo de inserción en el tiempo para determinar el código de tiempo para indicación escénica de una en particular de las tres indicaciones escénicas entre los diálogos A y B, a z se le asigna un valor de 1, 2 o 3. Así, para la primera indicación escénica A '1 entre los diálogos A y B, a z se le asigna el valor de 1. Análogamente, para la segunda indicación escénica A '2 entre los diálogos A y B, a z se le asigna el valor de 2, y para la tercera indicación escénica A 3 entre los diálogos A y B, a z se le asigna el valor de 3. Empleando el precedente algoritmo de inserción en el tiempo, se pueden asignar a las N indicaciones escénicas códigos de tiempo que están igualmente espaciados entre los diálogos A y B, entre los cuales se da la totalidad de las N indicaciones escénicas.
Como se puede apreciar al analizar los dos algoritmos precedentes, el primer algoritmo, más simple, es un caso especial del segundo algoritmo, donde los valores de N y z son ambos 1. Para el ejemplo que se muestra en la Figura 4, con el precedente algoritmo de inserción en el tiempo se pueden asignar a las indicaciones A', B' códigos de tiempo para indicación escénica A', B', lo que origina indicaciones escénicas 25 que están sincronizadas con respecto a los subtítulos A, B, C. Específicamente, a la indicación A' se le asigna el código de tiempo A' que se encuentra entre los subtítulos A y B, y a la indicación B' se le asigna el código de tiempo B' que se encuentra entre los subtítulos B y C.
En una realización ilustrativa alternativa, se puede utilizar el diálogo como contenido de los subtítulos cerrados, en cuyo caso se puede omitir el paso inicial de correlacionar los diálogos con los subtítulos cerrados.
Las indicaciones escénicas sincronizadas 25 son descripciones basadas en texto, que se distribuyen 7 a los usuarios, como se describirá con mayor detalle más adelante, en relación con la Figura 7. Además, cuando los usuarios reciben las indicaciones escénicas sincronizadas 25 en una ubicación 8 de visionado, se pueden descodificar las descripciones basadas en texto utilizando cualquier sistema 11 basado en texto adecuado, como se describirá con mayor detalle más adelante, en relación con la Figura 8.
Por lo tanto, en una realización ilustrativa de la presente invención se desglosa mediante un algoritmo desglosador un guion de producción, para dar un guion desglosado que incluye listas separadas de diálogos y de indicaciones escénicas. A continuación, un algoritmo sincronizador sincroniza el guion desglosado con los subtítulos cerrados, produciendo una línea temporal de programa. Después se sincronizan el guion desglosado y la línea temporal de programa, dando como resultado indicaciones escénicas basadas en texto que están sincronizadas con el contenido de audio del programa. Entonces se distribuyen las indicaciones escénicas sincronizadas resultantes a una ubicación receptora, donde se pueden descodificar las descripciones basadas en texto y representarlas como se describirá más adelante.
Los algoritmos desglosadores y sincronizadores de las Figuras 3 y 4, descritos en lo que antecede, pueden ejecutarse en tiempo real mientras se difunde una producción a los usuarios. Como alternativa, se pueden ejecutar los algoritmos antes de la difusión, utilizando un programa de subtítulos cerrados pregrabados. Además, los algoritmos generalmente se pueden ejecutar en las instalaciones de una emisora, que es donde se encuentra generalmente el guion de producción. No obstante, los algoritmos se pueden ejecutar en cualquier lugar en donde estén disponibles una copia electrónica del guion de producción y los subtítulos cerrados.
La Figura 5 ilustra componentes de un servicio de descripción de vídeo basada en texto, en paralelo con un sistema de subtitulación cerrada, según una realización ilustrativa alternativa que no forma parte de la presente invención. Según se ha descrito más arriba, en un sistema tradicional de subtitulación cerrada, un taquígrafo 3 escucha una producción en directo o pregrabada 1 y escribe el flujo 5 de subtítulos cerrados. El flujo 5 de subtítulos cerrados se puede distribuir entonces a los usuarios mediante sistemas de subtitulación cerrada y, cuando se visiona un programa en particular en una ubicación 8 de visionado, se puede mostrar 9 el programa conjuntamente con los subtítulos cerrados en la pantalla.
Según se muestra en la Figura 5, el sistema de subtitulación cerrada existente puede mejorarse añadiendo a un canal de subtítulos cerrados, p. ej., cc-2, un canal adicional y separado, p. ej., cc-4, para transmitir descripciones de vídeo. Después, el receptor puede dar salida a estos datos por separado, a través de dispositivos separados. En un sistema mejorado de este tipo, el taquígrafo 3 no solo escucharía, sino que también vería la producción en directo o pregrabada 1. Mientras el taquígrafo 3 escucha y ve un programa, el taquígrafo 3 puede escribir una salida separada 26 de servicio de descripción de vídeo (VDS, del inglés "Video Description Service"), que describe los eventos, acciones, ubicaciones, expresiones y otro contenido de vídeo, es decir, indicaciones escénicas, en paralelo al flujo 5 de subtítulos cerrados y de manera simultánea con el mismo.
En lugar de añadir un canal separado para el servicio de descripción de vídeo, se puede integrar la salida VDS con la salida de subtítulos cerrados, pero se puede distinguir de la salida de subtítulos cerrados mediante el uso de códigos distintos, p. ej., códigos de introducción distintos antes de cada entrada o antes de cada primera entrada después de un cambio entre salida de subtítulos cerrados y salida VDS. El dispositivo de representación en el extremo de usuario puede determinar así cuál de los textos es una descripción de vídeo, basándose en las etiquetas VDS.
La salida VDS incluye descripciones basadas en texto, que luego son distribuidas 7 a los usuarios, como se describirá con mayor detalle más adelante, en relación con la Figura 7. Sin embargo, cuando los usuarios reciben en una ubicación 8 de visionado la salida VDS 26, se puede omitir esta de la visualización normal en pantalla de los subtítulos cerrados 9 y, en lugar de ello, se puede redirigir la salida VDS a un sistema 11 basado en texto. Se pueden descodificar las descripciones basadas en texto utilizando cualquier sistema 11 basado en texto adecuado, como se describirá con mayor detalle más adelante, en relación con la Figura 8. Además, si la salida VDS 26 se ha grabado utilizando un canal separado de los subtítulos cerrados 9, los usuarios pueden emitir directamente la salida VDS 26 mediante un dispositivo de salida distinto del utilizado para la salida de los subtítulos cerrados 9. Por ejemplo, se puede dar salida a los subtítulos cerrados 9 hacia un altavoz y enviar la salida VDS 26 hacia otro altavoz separado, de forma que un usuario pueda escuchar ambas salidas simultáneamente.
La Figura 6 ilustra componentes de un servicio de descripción de vídeo basada en texto que utiliza un sistema de reconocimiento de voz, según otra realización ilustrativa alternativa que no forma parte de la presente invención. Según se ha descrito más arriba, en un servicio de descripción basado en audio, un narrador 4 crea una pista 6 de audio de contenido de vídeo mientras lee un guion 2 de producción o bien ve una producción en directo o pregrabada 1. Después se puede distribuir 12 la pista 6 de audio a los usuarios mediante métodos tradicionales de difusión de audio y, cuando se escucha un programa en particular en una ubicación 8 de visionado, entonces se puede reproducir el programa junto con la pista 6 de audio.
Según se muestra en la Figura 6, se puede mejorar el servicio de descripción basada en audio existente convirtiendo la pista 6 de audio en descripciones 27 basadas en texto, utilizando software y/o sistemas de reconocimiento de voz. Para la conversión de descripciones basadas en audio a descripciones basadas en texto se puede utilizar cualquier software o sistema de reconocimiento de voz. Según se ha expuesto con mayor detalle más arriba, las descripciones basadas en texto resultantes requieren menos ancho de banda para su distribución que las descripciones originales basadas en audio. Además, se puede recurrir con mayor facilidad a narradores no profesionales, lo que reduce los costes de producción. Así mismo, aunque se recurra a narradores profesionales para generar las descripciones basadas en audio, los costes de tal producción pueden seguir siendo menores, ya que no se distribuyen a los usuarios las voces reales grabadas de los narradores.
Las descripciones basadas en audio, convertidas, son descripciones 27 basadas en texto, que luego son distribuidas 7 a los usuarios, como se describirá con mayor detalle más adelante, en relación con la Figura 7. Además, cuando los usuarios reciben las descripciones 27 basadas en texto en una ubicación 8 de visionado, las descripciones basadas en texto pueden ser descodificadas utilizando cualquier sistema 11 basado en texto adecuado, como se describirá con mayor detalle más adelante, en relación con la Figura 8. La temporización de la salida puede basarse en la temporización que se ha dado a las descripciones basadas en audio durante su conversión a descripciones basadas en texto.
La Figura 7 ilustra componentes de un sistema de distribución para un servicio de descripción de vídeo basada en texto, según una realización ilustrativa de la presente invención. Las descripciones 25, 26, 27 basadas en texto pueden estar insertadas en el flujo de servicio de texto de flujos de supresión vertical o de tipo de datos. Los ejemplos de sistemas que proporcionan tales flujos incluyen sistemas 31 de subtitulación cerrada CEA-608 (T-2), sistemas 32 de subtitulación cerrada CEA-708 (T-2), teletexto 33 de sistema mundial (WST) utilizado internacionalmente, flujos 34 de subtítulos en difusión de vídeo digital (DVB) o sistemas 36 de texto temporizado utilizados en Internet 37 para multimedia tales como SMIL. Los sistemas 31 y 32 de subtitulación cerrada, el WST 33 y la DVB 34 son sistemas 35 de distribución basados en televisión que se pueden distribuir por televisión, cable u otros métodos de transmisión. Los sistemas 36 de texto temporizado son sistemas 38 de distribución basados en ordenador que se pueden distribuir a través de Internet 37 o por otros métodos. Además, las descripciones 25, 26, 27 basadas en texto pueden ser sometidas a un proceso 39 de autoría de DVD u otro proceso de producción de medios de almacenamiento, y distribuirse a través de un DVD 40 u otro medio de almacenamiento.
En el ejemplo de los sistemas 31 de subtitulación cerrada CEA-608, el T-2 (servicio de texto, canal 2) es transportado en el campo-1, línea-21 del VBI (intervalo de supresión vertical, por sus siglas en inglés), junto con los subtítulos cerrados, e intercalado en su flujo de datos de aproximadamente 120 bits por segundo, lo que resulta adecuado para transmitir texto de la naturaleza aquí descrita. Así pues, el servicio de texto consume mucho menos ancho de banda que el audio. De hecho, la transmisión de CEA-608, por ejemplo, tiene ancho de banda permanentemente asignado tanto en VBI como en dominios comprimidos MPEG, se utilice o no. Por lo tanto, no se requiere ancho de banda adicional para transmitir un servicio de descripción de vídeo basada en texto dentro de este ancho de banda permanentemente asignado.
La Figura 8 ilustra componentes de una ubicación de visionado para un servicio de descripción de vídeo basada en texto, según una realización ilustrativa de la presente invención. Las descripciones 25, 26, 27 basadas en texto pueden recibirse a través de sistemas 35 de distribución basados en televisión, sistemas 38 de distribución basados en ordenador, medios 40 de almacenamiento u otros sistemas de distribución. A continuación, del flujo de datos recibido se extraen las descripciones basadas en texto recibidas (a las descripciones extraídas se las designa con la referencia numérica 40 en la Figura 8). Por ejemplo, utilizando métodos de recepción tales como televisión aérea, descodificador de aparato de televisión para cable (en inglés, "set-top-box") u otros métodos similares, o bien un descodificador de aparato de televisión puede recibir internamente el flujo de datos o bien se puede utilizar una señal de vídeo, tal como como una banda de base analógica NTSC, para extraer las descripciones 41 basadas en texto.
A continuación, las descripciones 41 basadas en texto recibidas y extraídas pueden ser descodificadas por diversos dispositivos para "presentar" el texto a usuarios con discapacidad visual. Por ejemplo, las descripciones 41 basadas en texto pueden ser procesadas por un dispositivo Braille 42 que presenta al usuario con discapacidad visual las descripciones 41 basadas en texto en el formato de puntos en relieve. Así, el usuario puede leer las descripciones 41 basadas en texto en el dispositivo Braille mientras escucha también el contenido de audio normal del programa. Dependiendo de su estructura, las descripciones 41 basadas en texto pueden tener prefijos de puntuación u otros caracteres compatibles con texto que pueden no ser óptimos para la conversión de texto a voz, pero sí apropiados para dicho dispositivo Braille.
De manera adicional o alternativa, las descripciones 41 basadas en texto pueden ser procesadas mediante un sintetizador 43 de texto a voz que convierte las descripciones 41 basadas en texto en palabras habladas. Así, el usuario puede oir la versión hablada convertida de las descripciones 41 basadas en texto mientras también escucha el contenido de audio normal del programa. Dependiendo de su estructura, se pueden seleccionar algunos caracteres adicionales o la ortografía fonética de las descripciones 41 basadas en texto para que sean objeto de un uso específico por parte de un sistema de conversión de texto a voz, a fin de pronunciar con mayor precisión nombres o palabras confusas.
Además, para usuarios con visión parcial, se pueden procesar las descripciones 41 basadas en texto y reproducirlas en un dispositivo 44 de visualización de letra grande en pantalla. Así, un usuario con visión parcial puede leer el texto de letra grande visualizado de las descripciones 41 basadas en texto, mientras también escucha el contenido de audio normal del programa.
Cuando se utiliza un sintetizador 43 de texto a voz, puede ocurrir que las palabras habladas convertidas desde las descripciones 41 basadas en texto sean emitidas de forma auditiva al mismo tiempo que el contenido de audio normal del programa. En general, se debe evitar esta situación para que no se superpongan las dos salidas de audio una sobre otra, aunque un usuario podría ser capaz de escuchar salidas simultáneas del sintetizador 43 de texto a voz y del contenido de audio normal del programa. Sin embargo, cuando se utiliza un dispositivo Braille 42 o un dispositivo 44 de visualización de letra grande en pantalla, no existe tal problema potencial de superposición de audios, ya que el usuario puede leer desde un dispositivo Braille 42 o en un dispositivo 44 de visualización de letra grande en pantalla, mientras también escucha el contenido de audio normal del programa.
Una realización ilustrativa de la presente invención está dirigida a uno o varios procesadores, que se pueden implementar utilizando cualquier circuito y dispositivo de procesamiento convencional, o combinación de estos, por ejemplo una unidad central de procesamiento (CPU, del inglés "Central Processing Unit") de un ordenador personal (Pc , de "Personal Computer"), para ejecutar código suministrado, p. ej., en un medio legible por ordenador implementado en hardware, a fin de poner en práctica los métodos ilustrativos descritos en lo que antecede, o partes de los mismos. El medio legible por ordenador puede incluir cualquier circuito de memoria convencional permanente y/o transitoria, o sus combinaciones, en donde una lista no exhaustiva de los mismos incluye una memoria de acceso aleatorio (RAM, de "Random Access Memory"), una memoria de solo lectura (ROM, de "Read-Only Memory"), discos compactos (CD, de "Compact Disc"), un disco versátil digital (DVD, de "Digital Versatile Disc") y una cinta magnética.
Una realización ilustrativa de la presente invención está dirigida a uno o varios medios legibles por ordenador implementados en hardware que contienen almacenadas instrucciones que, cuando son ejecutadas, hacen que uno o varios procesadores pongan en práctica los métodos ilustrativos descritos en lo que antecede, o partes de los mismos.
Una realización ilustrativa de la presente invención está dirigida a un método para transmitir instrucciones ejecutables por uno o varios procesadores, instrucciones que, cuando son ejecutadas, hacen que el o los procesadores pongan en práctica los métodos ilustrativos descritos en lo que antecede, o partes de los mismos. A partir de la descripción precedente, los expertos en la materia pueden apreciar que la presente invención puede implementarse de diversas maneras.

Claims (10)

REIVINDICACIONES
1. Un método para proporcionar indicaciones escénicas, que comprende los pasos de:
desglosar, mediante un procesador de ordenador, diálogo e indicaciones escénicas de un guion de producción para dar una lista secuencial en el tiempo de flujos de diálogo y una lista secuencial en el tiempo de indicaciones escénicas, en donde la lista secuencial en el tiempo de indicaciones escénicas incluye una descripción textual de las indicaciones escénicas;
correlacionar, utilizando el procesador, la lista secuencial en el tiempo de flujos de diálogo con una lista de flujos de subtítulos cerrados, en donde se asocian códigos de tiempo para diálogo con los flujos de subtítulos cerrados; asignar, utilizando el procesador, los códigos de tiempo para diálogo asociados con los flujos de subtítulos cerrados a los flujos de diálogo correlacionados;
calcular, utilizando el procesador, códigos de tiempo para indicación escénica entre códigos de tiempo para diálogo consecutivos, sobre la base de los códigos de tiempo para diálogo consecutivos y de la cantidad de indicaciones escénicas entre los flujos de diálogo consecutivos;
asignar, utilizando el procesador, los códigos de tiempo para indicación escénica calculados a indicaciones escénicas respectivas de la lista secuencial en el tiempo de indicaciones escénicas; y
transmitir la lista secuencial en el tiempo de indicaciones escénicas a un sistema de representación en sincronía con una representación de un programa, estando basada la sincronía en los códigos de tiempo para indicación escénica asignados.
2. El método según la reivindicación 1, en donde el paso de calcular incluye:
determinar, para dos códigos de tiempo para diálogo consecutivos, una diferencia entre los códigos de tiempo para diálogo consecutivos;
dividir la diferencia entre uno más la cantidad N de indicaciones escénicas entre flujos de diálogo consecutivos asociados con los dos códigos de tiempo para diálogo consecutivos, con el fin de calcular un intervalo de código de tiempo para indicación escénica;
multiplicar el intervalo de código de tiempo para indicación escénica por un intervalo de código de tiempo para la zésima indicación escénica; y
sumar el intervalo de código de tiempo para la zésima indicación escénica a un código de tiempo más antiguo de los códigos de tiempo para diálogo consecutivos.
3. El método según la reivindicación 1, en donde:
o bien la lista secuencial en el tiempo de indicaciones escénicas y la lista secuencial en el tiempo de flujos de diálogo son transmitidas al sistema de representación a través de canales de transmisión distintos;
o bien el sistema de representación distingue, basándose en un código, entre la lista secuencial en el tiempo de indicaciones escénicas y la lista secuencial en el tiempo de diálogos.
4. El método según la reivindicación 1, que comprende además el paso de:
transmitir la lista secuencial en el tiempo de indicaciones escénicas como flujos de texto mediante al menos uno de sistemas de supresión vertical, de sistemas de emisión en continuo por Internet y de autoría de DVD.
5. El método según la reivindicación 4, en donde el al menos uno de supresión vertical y de sistemas de emisión en continuo por Internet incluye al menos uno de un sistema de subtitulación cerrada CEA-608, de un sistema de subtitulación cerrada CEA-708, de un sistema de teletexto de sistema mundial (WST), de un sistema de difusión de vídeo digital (DVB) y de un sistema de texto temporizado para multimedia (SMIL).
6. El método según la reivindicación 1, que comprende además los pasos de:
recibir la lista secuencial en el tiempo de indicaciones escénicas en el sistema de representación;
recibir un flujo de texto de subtítulos cerrados;
omitir, basándose en el flujo de texto de subtítulos cerrados, la lista secuencial en el tiempo de indicaciones escénicas de entre los subtítulos cerrados visualizados en la pantalla; y
representar las indicaciones escénicas de la lista secuencial en el tiempo utilizando un sistema basado en texto.
7. El método según la reivindicación 6, en donde el sistema basado en texto incluye al menos uno de un dispositivo Braille, de un sintetizador de texto a voz y de una visualización de letra grande en pantalla.
8. Un medio legible por ordenador implementado en hardware que contiene almacenadas instrucciones ejecutables por un procesador, instrucciones que, cuando son ejecutadas por el procesador, hacen que el procesador ponga en práctica un método, comprendiendo el método los pasos de:
desglosar diálogo e indicaciones escénicas de un guion de producción para dar una lista secuencial en el tiempo de flujos de diálogo y una lista secuencial en el tiempo de indicaciones escénicas, en donde la lista secuencial en el tiempo de indicaciones escénicas incluye una descripción textual de las indicaciones escénicas;
correlacionar la lista secuencial en el tiempo de flujos de diálogo con una lista de flujos de subtítulos cerrados, en donde se asocian códigos de tiempo para diálogo con los flujos de subtítulos cerrados;
asignar los códigos de tiempo para diálogo asociados con los flujos de subtítulos cerrados a los flujos de diálogo correlacionados;
calcular códigos de tiempo para indicación escénica entre códigos de tiempo para diálogo consecutivos, sobre la base de los códigos de tiempo para diálogo consecutivos y de la cantidad de indicaciones escénicas entre flujos de diálogo consecutivos;
asignar los códigos de tiempo para indicación escénica calculados a indicaciones escénicas respectivas de la lista secuencial en el tiempo de indicaciones escénicas; y
transmitir la lista secuencial en el tiempo de indicaciones escénicas a un sistema de representación en sincronía con una representación de un programa, estando basada la sincronía en los códigos de tiempo para indicación escénica asignados.
9. El medio legible por ordenador implementado en hardware según la reivindicación 8, en donde el procesador es un componente de un dispositivo que incluye al menos uno de un dispositivo Braille, de un sintetizador de texto a voz y de una visualización de letra grande en pantalla.
10. Un sistema para proporcionar descripciones auxiliares de programa a consumidores con discapacidad visual, comprendiendo el sistema:
un dispositivo que incluye un procesador configurado para:
desglosar diálogo e indicaciones escénicas de un guion de producción para dar una lista secuencial en el tiempo de indicaciones escénicas, en donde la lista secuencial en el tiempo de indicaciones escénicas incluye una descripción textual de las indicaciones escénicas;
correlacionar la lista secuencial en el tiempo de flujos de diálogo con una lista de flujos de subtítulos cerrados, en donde se asocian códigos de tiempo para diálogo con los flujos de subtítulos cerrados;
asignar los códigos de tiempo para diálogo asociados con los flujos de subtítulos cerrados a los flujos de diálogo correlacionados;
calcular códigos de tiempo para indicación escénica entre códigos de tiempo para diálogo consecutivos, sobre la base de los códigos de tiempo para diálogo consecutivos y de la cantidad de indicaciones escénicas entre flujos de diálogo consecutivos;
asignar los códigos de tiempo para indicación escénica calculados a indicaciones escénicas respectivas de la lista secuencial en el tiempo de indicaciones escénicas; y
transmitir la lista secuencial en el tiempo de indicaciones escénicas a un sistema de representación en sincronía con una representación de un programa, estando basada la sincronía en los códigos de tiempo para indicación escénica asignados.
ES09832312T 2008-12-08 2009-11-20 Método y procedimiento para descripciones auxiliares de programa basadas en texto para televisión Active ES2761915T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/330,242 US8497939B2 (en) 2008-12-08 2008-12-08 Method and process for text-based assistive program descriptions for television
PCT/US2009/065311 WO2010068388A1 (en) 2008-12-08 2009-11-20 Method and process for text-based assistive program descriptions for television

Publications (1)

Publication Number Publication Date
ES2761915T3 true ES2761915T3 (es) 2020-05-21

Family

ID=42230650

Family Applications (1)

Application Number Title Priority Date Filing Date
ES09832312T Active ES2761915T3 (es) 2008-12-08 2009-11-20 Método y procedimiento para descripciones auxiliares de programa basadas en texto para televisión

Country Status (4)

Country Link
US (1) US8497939B2 (es)
EP (1) EP2356654B1 (es)
ES (1) ES2761915T3 (es)
WO (1) WO2010068388A1 (es)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8224078B2 (en) 2000-11-06 2012-07-17 Nant Holdings Ip, Llc Image capture and identification system and process
US7565008B2 (en) 2000-11-06 2009-07-21 Evryx Technologies, Inc. Data capture and identification system and process
US7680324B2 (en) 2000-11-06 2010-03-16 Evryx Technologies, Inc. Use of image-derived information as search criteria for internet and other search engines
US9310892B2 (en) 2000-11-06 2016-04-12 Nant Holdings Ip, Llc Object information derived from object images
US7899243B2 (en) 2000-11-06 2011-03-01 Evryx Technologies, Inc. Image capture and identification system and process
WO2010099591A1 (en) * 2009-03-03 2010-09-10 Centre De Recherche Informatique De Montreal (Crim) Adaptive videodescription player
US20130124984A1 (en) * 2010-04-12 2013-05-16 David A. Kuspa Method and Apparatus for Providing Script Data
FR2969361A1 (fr) * 2010-12-16 2012-06-22 France Telecom Enrichissement du contenu audio d'un programme audiovisuel par synthese vocale
US8695048B1 (en) 2012-10-15 2014-04-08 Wowza Media Systems, LLC Systems and methods of processing closed captioning for video on demand content
US8782722B1 (en) 2013-04-05 2014-07-15 Wowza Media Systems, LLC Decoding of closed captions at a media server
US8782721B1 (en) 2013-04-05 2014-07-15 Wowza Media Systems, LLC Closed captions for live streams
CN103686352A (zh) * 2013-11-15 2014-03-26 乐视致新电子科技(天津)有限公司 智能电视媒体播放器及其字幕处理方法、智能电视
US20180034961A1 (en) * 2014-02-28 2018-02-01 Ultratec, Inc. Semiautomated Relay Method and Apparatus
US10389876B2 (en) 2014-02-28 2019-08-20 Ultratec, Inc. Semiautomated relay method and apparatus
US20180270350A1 (en) 2014-02-28 2018-09-20 Ultratec, Inc. Semiautomated relay method and apparatus
US9451335B2 (en) * 2014-04-29 2016-09-20 At&T Intellectual Property I, Lp Method and apparatus for augmenting media content
US10820061B2 (en) 2016-10-17 2020-10-27 DISH Technologies L.L.C. Apparatus, systems and methods for presentation of media content using an electronic Braille device
US10580457B2 (en) * 2017-06-13 2020-03-03 3Play Media, Inc. Efficient audio description systems and methods
EP3646232A4 (en) * 2017-06-29 2020-12-23 INTEL Corporation TECHNIQUES FOR DENSE VIDEO DESCRIPTIONS
GB201715753D0 (en) * 2017-09-28 2017-11-15 Royal Nat Theatre Caption delivery system
US11539900B2 (en) 2020-02-21 2022-12-27 Ultratec, Inc. Caption modification and augmentation systems and methods for use by hearing assisted user
US11669295B2 (en) * 2020-06-18 2023-06-06 Sony Group Corporation Multiple output control based on user input
US11729476B2 (en) * 2021-02-08 2023-08-15 Sony Group Corporation Reproduction control of scene description

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2235111A (en) * 1989-08-03 1991-02-20 Samsung Electronics Co Ltd Teletext converter giving braille output.
GB2246273A (en) * 1990-05-25 1992-01-22 Microsys Consultants Limited Adapting teletext information for the blind
US6271892B1 (en) * 1994-06-02 2001-08-07 Lucent Technologies Inc. Method and apparatus for compressing a sequence of information-bearing frames having at least two media
US5900908A (en) * 1995-03-02 1999-05-04 National Captioning Insitute, Inc. System and method for providing described television services
US7617272B2 (en) * 2001-09-24 2009-11-10 Loudeye Corp. Systems and methods for enhancing streaming media
US20040044532A1 (en) * 2002-09-03 2004-03-04 International Business Machines Corporation System and method for remote audio caption visualizations
US8494859B2 (en) 2002-10-15 2013-07-23 Gh, Llc Universal processing system and methods for production of outputs accessible by people with disabilities
US7631326B2 (en) * 2002-12-26 2009-12-08 Microsoft Corporation Synchronization mechanism for multimedia captioning and audio description
US20070011012A1 (en) 2005-07-11 2007-01-11 Steve Yurick Method, system, and apparatus for facilitating captioning of multi-media content
US20070027844A1 (en) * 2005-07-28 2007-02-01 Microsoft Corporation Navigating recorded multimedia content using keywords or phrases

Also Published As

Publication number Publication date
WO2010068388A1 (en) 2010-06-17
US20100141834A1 (en) 2010-06-10
US8497939B2 (en) 2013-07-30
EP2356654A1 (en) 2011-08-17
EP2356654A4 (en) 2015-09-09
EP2356654B1 (en) 2019-11-13

Similar Documents

Publication Publication Date Title
ES2761915T3 (es) Método y procedimiento para descripciones auxiliares de programa basadas en texto para televisión
US20060285654A1 (en) System and method for performing automatic dubbing on an audio-visual stream
CA2374491C (en) Methods and apparatus for the provision of user selected advanced closed captions
US5900908A (en) System and method for providing described television services
JP5201692B2 (ja) クローズド・キャプションをつけるシステムおよび方法
KR101161702B1 (ko) 오디오 비디오 데이터 스트림의 자막을 네비게이팅하는 방법 및 장치
US20130204605A1 (en) System for translating spoken language into sign language for the deaf
JP4448477B2 (ja) 字幕付き映像信号の遅延制御装置及び遅延制御プログラム
US20050180462A1 (en) Apparatus and method for reproducing ancillary data in synchronization with an audio signal
JP2008546016A (ja) マルチメディア信号で自動的なダビングを実行する方法及び装置
CA3037908A1 (en) Beat tracking visualization through textual medium
JP2007324872A (ja) 字幕付き映像信号の遅延制御装置及び遅延制御プログラム
JP2008039845A (ja) 解説付加音声生成装置及び解説付加音声生成プログラム
JP2008299032A (ja) 語学教材および文字データ再生装置
KR101066651B1 (ko) 자막정보가 포함된 디지털 동영상으로 부터 추출된 언어학습용 데이터를 이용한 언어학습방법
JP6271194B2 (ja) 携帯デバイスへのセカンドスクリーン情報の提供方法
KR100477642B1 (ko) 클로즈드 캡션 처리 장치 및 방법
JP2009260685A (ja) 放送受信装置
JP2004229706A (ja) 演劇通訳システム、演劇通訳装置
EP3554092A1 (en) Video system with improved caption display
Homer Closed Caption Services
JPH11331701A (ja) テロップ自動挿入方法および装置およびこの方法を記録した記録媒体
KR20080073494A (ko) 위성 디엠비 신호 선별 재생 시스템 및 그 방법, 방송 신호선별 재생 단말기
UK ACCESS SERVICES FOR DIGITAL TELEVISION: MATCHING THE MEANS TO THE REQUIREMENT FOR AUDIO DESCRIPTION AND SIGNING
JP2004140866A (ja) 電子番組ガイドの送信装置および受信装置