ES2336223T3 - Medio de grabacion o registro y metodo y aparato para reproducir un flujo o corriente de subtitulos de texto grabados en el medio de grabacion. - Google Patents

Medio de grabacion o registro y metodo y aparato para reproducir un flujo o corriente de subtitulos de texto grabados en el medio de grabacion. Download PDF

Info

Publication number
ES2336223T3
ES2336223T3 ES05721893T ES05721893T ES2336223T3 ES 2336223 T3 ES2336223 T3 ES 2336223T3 ES 05721893 T ES05721893 T ES 05721893T ES 05721893 T ES05721893 T ES 05721893T ES 2336223 T3 ES2336223 T3 ES 2336223T3
Authority
ES
Spain
Prior art keywords
palette
information
text
segment
style
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES05721893T
Other languages
English (en)
Inventor
Kang Soo Seo
Byung Jin Kim
Jea Yong Yoo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=34989929&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2336223(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Application granted granted Critical
Publication of ES2336223T3 publication Critical patent/ES2336223T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B7/00Recording or reproducing by optical means, e.g. recording using a thermal beam of optical radiation by modifying optical properties or the physical structure, reproducing using an optical beam at lower power by sensing optical properties; Record carriers therefor
    • G11B7/007Arrangement of the information on the record carrier, e.g. form of tracks, actual track shape, e.g. wobbled, or cross-section, e.g. v-shaped; Sequential information structures, e.g. sectoring or header formats within a track
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42646Internal components of the client ; Characteristics thereof for reading from or writing on a non-volatile solid state storage medium, e.g. DVD, CD-ROM
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43074Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of additional data with content streams on the same device, e.g. of EPG data or interactive icon with a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44004Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8233Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a character code signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • H04N9/8715Regeneration of colour television signals involving the mixing of the reproduced video signal with a non-recorded signal, e.g. a text signal

Abstract

Un medio de grabación para reproducir flujos de subtítulos de texto, comprendiendo el medio de grabación una zona de datos que almacena al menos un flujo de subtítulos de texto, caracterizado porque cada flujo de subtítulos de texto incluye un segmento de estilo de diálogo (DSS) que define un grupo de estilos de región y una pluralidad de segmentos de presentación de diálogo, conteniendo cada segmento de presentación de diálogo (DPS) al menos una región de texto de diálogo y estando cada región de texto de diálogo vinculada a uno seleccionado del grupo de estilos de región, en el que el segmento de estilo de diálogo define además información de paleta, incluyendo la información de paleta información de color y de opacidad, y conteniendo además cada segmento de presentación de diálogo una bandera de actualización de paleta que indica si se usa la información de paleta definida en el segmento de estilo de diálogo o se usa una nueva información de paleta cuando se reproduce cada segmento de presentación de diálogo.

Description

Medio de grabación o registro y método y aparato para reproducir un flujo o corriente de subtítulos de texto grabados en el medio de grabación.
Campo técnico
La presente invención se refiere a un medio de grabación o registro y, más particularmente, a un medio de grabación y a un método y un aparato para reproducir un flujo o corriente de subtítulos de texto grabados en el medio de grabación. Aunque la presente invención es apropiada para un amplio campo de aplicaciones, es particularmente apropiada para grabar el archivo del flujo de subtítulos del texto dentro del medio de grabación y reproducir eficazmente el flujo de subtítulos de texto grabados.
Antecedentes de la técnica
Se utilizan ampliamente discos ópticos como un medio de grabación óptico para grabar datos en serie o en masa. Actualmente, entre una amplia gama de discos ópticos, está en desarrollo un nuevo medio de grabación óptico de alta densidad (al que se hace referencia a continuación como "HD-DVD"), tal como un disco Blu-ray (al que se hace referencia en lo que sigue como "BD"), para escribir y almacenar datos de vídeo y audio de alta definición. Actualmente, están bajo establecimiento especificaciones técnicas de normas globales del Disco Blu-ray (BD), que se sabe que es la tecnología de próxima generación, como una solución de grabación óptica de siguiente generación que es capaz de tener unos datos que superen significativamente el DVD convencional, junto con muchos otros aparatos digitales.
Por lo tanto, están siendo desarrollados también aparatos de reproducción óptica que tienen normas del Disco Blu-ray (BD) aplicadas a los mismos. Sin embargo, puesto que las normas del Disco Blu-ray (BD) tienen que ser completadas todavía, se han presentado muchas dificultades en el desarrollo de un aparato de reproducción óptica completo. Particularmente, con el fin de reproducir eficazmente los datos del Disco Blu-ray (BD), no sólo han de ser proporcionados los datos de AV principales, así como diversos datos requeridos para una conveniencia del usuario, tales como información de subtítulo como los datos suplementarios relacionados con los datos de AV principales, sino que también se ha de sistematizar y proporcionar información de gestión para reproducir los datos principales y los datos de subtítulo grabados en el disco óptico.
Sin embargo, en las presentes normas de Blu-ray Disc, puesto que se tienen que completar todavía los métodos preferidos de crear los datos suplementarios, particularmente el archivo de flujo de subtítulos, existen muchas restricciones en el desarrollo a plena escala del aparato de reproducción óptica basado en el Blu-ray Disc. Y tales restricciones causan problemas al proporcionar los datos suplementarios, tales como subtítulos, al usuario.
Se muestra tecnología relacionada en el documento EP-A-1 400 968 y en el documento KR 2003 061 953 A (véase el preámbulo de la reivindicaciones independientes).
La presente invención se concreta en las reivindicaciones.
Por lo tanto, la presente invención está dirigida a un medio de grabación y a un método y un aparato para reproducir un flujo de subtítulos de texto en el medio de grabación, que evitan esencialmente uno o más problemas debidos a limitaciones y desventajas de la técnica relacionada.
Un objeto de la presente invención consiste en proporcionar un método de crear un conjunto de información de paleta cuando se graba un archivo de flujo de subtítulos de texto dentro de un medio de grabación de acuerdo con la presente invención.
Otro objeto de la presente invención es proporcionar un método y un aparato para reproducir un flujo de subtítulos de texto que pueda reproducir eficazmente el anteriormente descrito flujo de subtítulos de texto de acuerdo con la presente invención.
Ventajas, objetos y características adicionales de la invención se expondrán en parte en la descripción que sigue y en parte resultarán evidentes a los que tienen conocimientos ordinarios en la técnica tras el examen de lo que sigue o pueden aprender de la práctica de la invención. Los objetos y otras ventajas de la invención se pueden realizar y conseguir por medio de la estructura particularmente indicada en la descripción escrita y en las reivindicaciones adjuntas, así como en los dibujos que se acompañan.
Para conseguir estos objetos y otras ventajas y de acuerdo con los fines de la invención, según se incorpora y se describe ampliamente aquí, un medio de grabación para reproducir flujos de subtítulo de texto incluye una zona de datos que almacena al menos un flujo de subtítulos de texto, incluyendo cada flujo de subtítulos de texto un segmento del estilo de diálogo que define un grupo de estilos de región y una pluralidad de segmentos de presentación de diálogo, conteniendo cada segmento de presentación de diálogo al menos una región de texto de diálogo y estando cada región de texto de diálogo vinculada a uno seleccionado del grupo de la región de estilos, en el que el segmento de estilo de diálogo define además información de paleta y conteniendo además cada segmento de presentación de diálogo una bandera o indicación de actualización de paleta que indica si se usa la información de paleta definida en el segmento de estilo de diálogo o se usa la nueva información de paleta cuando se reproduce cada segmento de presentación de diálogo. En otro aspecto de la presente invención, un método para reproducir un flujo de subtítulos de texto grabado en un medio de grabación incluye leer un segmento de estilo de diálogo incluido en el flujo de subtítulos de texto, definiendo el segmento de estilo de diálogo un grupo de estilos de región e información de paleta, leer cada uno de una pluralidad de segmentos de presentación de diálogo incluidos en el flujo de subtítulos de texto, conteniendo cada segmento de presentación de diálogo al menos una región de texto de diálogo y estando cada región de texto de diálogo vinculada a uno seleccionado del grupo de estilos de región, leer una bandera de actualización de paleta incluida en cada segmento de presentación de diálogo, indicando la bandera de actualización de paleta si se ha de usar la información de paleta definida en el segmento de estilo de diálogo o usar una nueva información de paleta cuando se reproduce cada segmento de presentación de diálogo, y presentar cada segmento de presentación de diálogo de acuerdo con la indicación de la bandera de actualización de paleta.
En un aspecto más de la presente invención, un aparato para reproducir un flujo de subtítulos de texto grabado en un medio de grabación incluye una memoria temporal (buffer) configurada para precargar el flujo de subtítulos de texto, incluyendo el flujo de subtítulos de texto precargado un segmento de estilo de diálogo y una pluralidad de segmentos de presentación estilo de diálogo, definiendo el segmento de estilo de diálogo un grupo de estilos de región e información de paleta y conteniendo cada segmento de presentación de diálogo al menos una región de texto de diálogo, estando cada región de texto de diálogo vinculada a uno seleccionado del grupo de estilos de región, y un descodificador de subtítulos de texto configurado para leer una bandera de actualización de paleta incluida en cada segmento de presentación de diálogo, indicando la bandera de actualización de paleta si utilizar la información de paleta definida en el segmento de estilo de diálogo o utilizar nueva información de paleta, presentando el descodificador de subtítulos de texto cada segmento de presentación de diálogo de acuerdo con la indicación de la bandera de actualización de paleta.
Se ha de entender que tanto la descripción general precedente como la siguiente descripción detallada de la presente invención son ejemplares y explicativas y están destinadas a proporcionar explicación adicional de la invención, según se reivindica.
Breve descripción de los dibujos
Los dibujos que se acompañan, que se incluyen para proporcionar en entendimiento adicional de la invención y se incorporan y constituyen una parte de esta solicitud, ilustran realizaciones de la invención y, juntamente con la descripción, sirven para explicar el principio de la invención. En los dibujos:
La figura 1 ilustra una estructura de los archivos de datos grabados en un disco óptico de acuerdo con la presente invención;
La figura 2 ilustra zonas de almacenamiento de datos del disco óptico de acuerdo con la presente invención;
La figura 3 ilustra un subtítulo de texto y una imagen principal mostrados en una pantalla de presentación de acuerdo con la presente invención;
La figura 4 ilustra un diagrama esquemático que ilustra el control de reproducción de un flujo de subtítulos de texto de acuerdo con la presente invención;
Las figuras 5A a 5C ilustran aplicaciones de la información de control de reproducción para reproducir el flujo de subtítulos de texto de acuerdo con la presente invención;
La figura 6 ilustra la estructura de un archivo de flujo de subtítulos de texto de acuerdo con la presente invención;
Las figuras 7A y 7B ilustran aplicaciones de un conjunto de información de paleta para una estructura del archivo de flujo de subtítulos de texto de la presente invención;
La figura 8 ilustra una sintaxis del archivo de flujo de subtítulos de texto de acuerdo con la presente invención;
Las figuras 9A a 9D ilustran otro ejemplo de sintaxis del archivo de flujo de subtítulos de texto de acuerdo con la presente invención;
La figura 10A ilustra otro ejemplo de sintaxis del archivo de flujo de subtítulos de texto de acuerdo con la presente invención;
La figura 10B ilustra un ejemplo de una sintaxis de un subtítulo de región entre el archivo de flujo de subtítulos de texto de acuerdo con una primera realización de la presente invención; y
Las figuras 11A y 11B ilustran un aparato de grabación y/o reproducción óptica que incluye una reproducción del archivo de flujo de subtítulos de texto de la presente invención,
Mejor modo de realizar la invención
Se hará referencia ahora en detalle a las realizaciones preferidas de la presente invención, ejemplo de las cuales se ilustran en los dibujos que se acompañan. Siempre que sea posible, se utilizarán los mismos números de referencia en todos los dibujos para señalar las mismas o similares partes. Además, aunque los términos usados en la presente invención son seleccionados a partir de términos generalmente conocidos y usados, algunos de los términos mencionados en la descripción de la presente invención han sido seleccionados por el solicitante a su discreción, los significados detallados de los cuales se describen en partes pertinentes de la presente descripción. Además, se requiere que la presente invención sea entendida, no simplemente por los términos reales utilizados, sino por el significado de cada término contenido en ella.
En esta descripción detallada, "medio de grabación" se refiere a todos los tipos de medio o soporte en que se puedan grabar datos e incluye en sentido amplio todos los tipos de medios independientemente del método de grabación, tales como un disco óptico, una cinta magnética, etc. A continuación, para simplificar la descripción de la presente invención, se dan el disco óptico y, más concretamente, el "disco Blu-ray (BD)" como un ejemplo del medio de grabación propuesto en este documento.
En esta descripción detallada, "datos principales" representan datos de audio/vídeo (AV) que pertenezcan a un título (por ejemplo, un título de película) grabado en un disco óptico por un autor. En general, los datos de AV se graban en formato de MPEG2 y se denominan con frecuencia flujos o corrientes de AV o flujos principales de AV. Además, "datos suplementarios" representan todos los otros datos requeridos para reproducir los datos principales, ejemplos de los cuales son flujos de subtítulos de texto, flujos de gráficos interactivos, flujos de gráficos de presentación y flujos de audio suplementarios (por ejemplo, para una exposición de diapositivas ojeable). Estos flujos de datos suplementarios pueden ser grabados en formato de MPEG2 o en cualquier otro formato de datos. Se pueden multiplexar con los flujos de AV o pueden existir como archivos de datos independientes dentro del disco óptico.
Un "subtítulo" representa información de leyenda correspondiente a datos de vídeo (imagen) que estén siendo reproducidos, y se puede representar en un lenguaje predeterminado. Por ejemplo, cuando un usuario selecciona una opción para ver uno de una pluralidad de subtítulos representados en varios lenguajes mientras se contemplan imágenes en una pantalla de presentación, la información de leyenda correspondiente al subtítulo seleccionado es presentada visualmente en una parte predeterminada de la pantalla de presentación. Si la información de leyenda presentada son datos de texto (por ejemplo, caracteres), el subtítulo seleccionado es con frecuencia denominado "subtítulo de texto". Así mismo, en la presente invención, "información de paleta" se refiere a información de color e información de opacidad, que son proporcionadas al usuario, cuando se reproducen en la pantalla los datos de subtítulo de texto. De acuerdo con la presente invención, se pueden grabar en un disco óptico una pluralidad de flujos de subtítulos de texto en formato de MPEG2, y pueden existir como una pluralidad de archivos de flujos independientes. Cada "archivo de flujo de subtítulos de texto" es creado y grabado dentro de un disco óptico. Y la finalidad de la presente invención consiste en proporcionar un método y un aparato para reproducir el archivo de flujo de subtítulos de texto grabado.
La figura 1 ilustra una estructura de archivo de los archivos de datos grabados en un disco Blu-ray (al que se hace referencia en lo que sigue como "BD") de acuerdo con la presente invención. Haciendo referencia a la figura 1, se incluye al menos un directorio de BD (BDMV) en un directoria raíz (raíz). Cada directorio de BD incluye un archivo de índice (index.bdmv) y un archivo de objetos (MovieObjet.bdmv), que se usan para interactuar con uno o más usuarios. Por ejemplo, el archivo de índice puede contener datos que representen una tabla de índices que tenga una pluralidad de menús seleccionable y títulos de películas. Cada directorio de BD incluye además cuatro directorios de archivo que incluyan datos de audio/vídeo (AV) que se han de reproducir y varios datos requeridos para la reproducción de los datos de AV.
Los directorios de archivo incluidos en cada directorio de BD son un directorio de flujo (FLUJO), in directorio de información de clip o secuencia (CLIPINF), un directorio de lista discográfica (PLAYLIST) y un directorio de datos auxiliares (AUX DATA). Ante todo, el directorio de flujo (FLUJO) incluye archivos de flujo de audio/vídeo (AV) que tienen un formato de datos particular. Por ejemplo, los archivos de flujo de AV pueden ser de la forma de paquetes de transporte de MPEG2 y ser denominados como "*.m2ts", como se muestra en la figura 1. El directorio de flujo puede incluir además uno o más archivos de flujo de subtítulos de texto, donde cada archivo de flujo de subtítulos de texto incluye datos de texto (pos ejemplo, caracteres) para un subtítulo de texto representado en un lenguaje particular e información de control de reproducción de los datos de texto. Los archivos de flujo de subtítulos de texto existen como archivos de flujo independientes dentro del directorio de flujo y se pueden denominar como "*m2ts" ó "*.txtst", como se muestra en la figura 1. Un archivo de flujo de AV o archivo de flujo de subtítulos de texto incluido en el directorio de flujo se denomina con frecuencia un archivo de flujo de clip o secuencia.
A continuación, el directorio de información de secuencia (CLIPINF) incluye archivos de información de secuencia que corresponden a los archivos de flujo (subtítulo de AV o de texto) incluidos en el directorio de flujo, respectivamente. Cada archivo de información de secuencia contiene información de temporización de propiedad y reproducción de un archivo de flujo correspondiente. Por ejemplo, un archivo de información de secuencia puede incluir información de mapeado, en la que estampillas de tiempo de presentación (PTS: Presentation time stamps) y número de paquetes fuente (SPN: Source packet numbers) están en correspondencia de uno-a-uno y son mapeados por un mapa de puntos de entrada (EPM: Entry point map), dependiendo del tipo de secuencia. Usando la información de mapeado, se puede determinar una posición particular de un archivo de flujo a partir de un conjunto de información de temporización (En-Tiempo y Fuera de Tiempo) proporcionada por un PlayItem o SubPlayItem, que se describirán posteriormente con más detalle. En las normas de la industria, cada par de un archivo de flujo y su correspondiente archivo de información de secuencia se designan como un clip. Por ejemplo, 01000.clpi incluido en CLIPINF incluye información de temporización de propiedad y reproducción de 01000.m2ts incluida en FLUJO, y 01000.clpi y 01000.m2ts forman un clip o secuencia.
Haciendo referencia de nuevo a la figura 1, el directorio Lista Discográfica (PLYLIST) incluye uno o más archivos de PlayList (*.mpls), donde cada archivo de PlayList incluye al menos un PlayItem que designa al menos una secuencia principal de AV y el tiempo de reproducción de la secuencia principal de AV. Más concretamente, un PlayItem contiene designación de información En-Tiempo y Fuera-de Tiempo, que representa tiempos de comienzo y de final de reproducción para una secuencia principal de AV designada por Nombre_Archivo_Información_ Clip dentro del PlayItem. Por lo tanto, un archivo de PlayList representa la información de control de reproducción básica para una o más secuencias principales de AV. Además, el archivo PlayList puede además incluir un SubPlayItem, que representa la información básica de control de reproducción para un archivo de flujo de subtítulos de texto. Cuando está incluido un SubPlayItem en un archivo de PlayList para reproducir uno o más archivos de flujo de subtítulos de texto, el SubPlayItem es sincronizado con el (los) PlayItem(s). Por otra parte, cuando se usa el SubPlayItem para reproducir una exposición de diapositivas ojeables, aquel puede no estar sincronizado con el (los) PlayItem(s). De acuerdo con la presente invención, la función principal de un SubPlayItem consiste en controlar la reproducción del uno o más archivos de flujo de subtítulos de texto.
Finalmente, el directorio de datos auxiliar (AUX DATA) puede incluir archivos de flujo de datos suplementarios, ejemplos de los cuales son archivos fuente (por ejemplo, aaaaa.font ó aaaaa.otf), archivos de menú pop-up (no mostrados) y archivos de sonido (por ejemplo, Sound.bdmv) para generar sonido de clic. Los archivos de flujo de subtítulos de texto mencionados anteriormente pueden ser incluido en el directorio de datos auxiliares en lugar de en el directorio de flujo.
La figura 2 ilustra zonas de almacenamiento de datos de un disco óptico de acuerdo con la presente invención. Haciendo referencia a la figura 2, el disco óptico incluye una zona de información de sistema de archivos que ocupa la parte más interna del volumen del disco, una zona d flujo que ocupa la parte más externa del volumen del disco y una zona de base de datos ocupada entre la zona de información del sistema de archivos y la zona de flujo. En la zona de información de sistema de archivos, se almacena la información del sistema para gestionar la totalidad de los archivos de datos mostrados en la figura 1. A continuación, se almacenan en a zona de flujo los datos principales y los datos suplementarios (es decir, flujos de AV y uno o más flujos de subtítulos de texto). Los datos principales pueden incluir datos de audio, datos de vídeo y datos de gráficos. Y los datos suplementarios (es decir, el subtítulo de texto) son almacenados independientemente en la zona de flujo sin que sean multiplexados con los datos principales. Los archivos generales, los archivos PlayList y los archivos de información de clip mostrados en la figura 1 se almacenan en la zona de base de datos del volumen del disco. Como se ha explicado anteriormente, los archivos generales incluyen un archivo de índice y un archivo de objetos, y los archivos PlayList y los archivos de información de clip incluyen información requerida para reproducir los flujos de AV y los flujos de subtítulos de texto almacenados en la zona de flujo. Utilizando la información almacenada en la zona de base de datos y/o en la zona de flujo, un usuario es capaz de seleccionar un modo concreto de reproducción y reproducir los flujos de AV principales y de subtítulo de texto en el modo de reproducción seleccionado.
A continuación se describirá con detalle la estructura del flujo de subtítulos de texto de acuerdo con la presente invención. Ante todo, se definirá nuevamente la información de control para reproducir el flujo de subtítulos de texto. Después seguirá la descripción detallada del método de crear el archivo de flujo de texto que incluye la información de control que se acaba de definir, y el método y el aparato para reproducir el flujo de subtítulos de texto para la reproducción del archivo de flujo grabado. La figura 3 ilustra un subtítulo de texto y una imagen principal presentada en una pantalla de visualización de acuerdo con la presente invención. La imagen principal y el subtítulo de texto se presentan simultáneamente en la pantalla de presentación cuando se reproducen en sincronización un flujo principal de AV y un flujo de subtítulos de texto correspondiente.
La figura 4 es un diagrama esquemático que ilustra el control de reproducción de una secuencia principal de AV y secuencias de subtítulos de texto de acuerdo con la presente invención. Haciendo referencia a la figura 4, un archivo PlayList incluye al menos un PlayItem que controla la reproducción de al menos una secuencia principal de AV y un SubPlayItem que controla de reproducción de una pluralidad de secuencias de subtítulos de texto. Una de entre la secuencia 1 de subtítulos de texto y la secuencia 2 de subtítulos de texto, mostradas en la figura 4, para subtítulos de texto en Inglés y en Coreano, se pueden sincronizar con la secuencia principal de AV de tal manera que se presenten visualmente una imagen principal y un subtítulo de texto correspondiente en la pantalla de presentación simultáneamente en un tiempo de presentación particular. Con el fin de presentar visualmente el subtítulo de texto en la pantalla de presentación, se requieren información de control de presentación visual (por ejemplo, información de posición y de tamaño) e información del tiempo de presentación, ejemplos de los cuales se ilustran en la figura 5A a la figura 5C.
La figura 5A ilustra un diálogo presentado en una pantalla de presentación visual de acuerdo con la presente invención. Un diálogo representa la totalidad de los datos de subtítulo de texto expuestos en una pantalla de presentación durante un tiempo de presentación dado. En general, los tiempos de presentación del diálogo pueden ser representados en estampillas de tiempo de presentación (PTS). Por ejemplo, la presentación del diálogo mostrado en la figura 5A comienza en PTS (k) y termina en PTS (k+1). Por lo tanto, el diálogo mostrado en la figura 5A representa una unidad total de datos de subtítulo de texto que están expuestos en la pantalla de presentación entre PTS (k) y PTS (k+1). Un diálogo incluye un máximo de 100 códigos de caracteres en un subtítulo de texto. Además, la figura 5B ilustra regiones de un diálogo de acuerdo con la presente invención. Una región representa una parte dividida de datos de subtítulo de texto (diálogo) expuestos en una pantalla de presentación durante un tiempo de presentación dado. En otras palabras, un diálogo incluye al menos una región, y cada región puede incluir al menos una línea de texto de subtítulo. La totalidad de los datos de subtítulo de texto que representan una región pueden ser visualizados en la pantalla de presentación de acuerdo con un estilo de región (estilo global) asignado a la región. El número máximo de regiones incluidas en un diálogo se ha de determinar sobre la base de una velocidad de descodificación deseada de los datos de subtítulo debido a que el mayor número de regiones da lugar generalmente a una relación de descodificación menor. Por ejemplo, el número máximo de regiones para un diálogo puede ser limitado a dos con el fin de conseguir una velocidad de descodificación razonable. Por lo tanto, el número máximo de regiones dentro de un diálogo único está limitado a 2 debido a la carga de descodificación, cuando se reproduce el flujo de subtítulos de texto. En otra realización
de la presente invención, puede existir dentro de un diálogo único un número máximo de n (donde n > 2) regiones.
La figura 5C ilustra información de estilo para regiones de un diálogo de acuerdo con la presente invención. La información de estilo representa información que define propiedades requeridas para presentar visualmente al menos una parte de una región incluida en el diálogo. Algunos de los ejemplos de la información de estilo son posición, tamaño de región, color de fondo, alineación de texto, información de flujo de texto, y muchos otros. La información de estilo puede ser clasificada en una información de estilo de región (información de estilo global) e información de estilo en línea (información de estilo local).
La información de estilo de región define un estilo de región (estilo global) que se aplica a una región completa de un diálogo. Por ejemplo, la información de estilo de región puede contener al menos una de entre una posición de región, tamaño de región, color de fuente, color de fondo, flujo de texto, alineación de texto, espacio entre líneas, nombre de fuente, estilo de fuente y tamaño de fuente de la región. Por ejemplo, se aplican dos estilos de región diferentes a la región 1 y a la región 2, como se muestra en la figura 5C. Un estilo de región con posición 1, tamaño 1 y color = azul se aplica a la Región 1, y un estilo de región diferente con posición 2, tamaño 2 y color = rojo se aplica a la Región 2.
Por otra parte, la información de estilo local define un estilo en línea (estilo local) que se aplica a una posición particular de cadenas de texto incluidas en una región. Por ejemplo, la información de estilo en línea puede contener al menos uno de entre un tipo de fuente, tamaño de fuente, estilo de fuente y color de fuente. La parte particular de cadenas de texto puede ser una línea de texto completa dentro de una región o una parte particular de la línea de texto. Haciendo referencia a la figura 5C, un estilo particular en línea se aplica a la parte de texto "montaña" incluida en la Región 1. En otras palabras, al menos uno de entre el tipo de fuente, tamaño de fuente, estilo de fuente y color de fuente de la parte particular de las cadenas de texto es diferente de la parte restante de las cadenas de texto dentro de la Región 1.
Por lo tanto, los datos de texto anteriormente descritos se graban y describen como una "cadena de texto", dependiendo de si existe un estilo en línea concreto. La figura 6 ilustra un archivo de flujo de subtítulos de texto (por ejemplo, 10001.m2ts, mostrado en la figura 1) de acuerdo con la presente invención. El archivo de flujo de subtítulos de texto puede estar formado de un flujo de transporte de MPEG2 que incluya una pluralidad de paquetes de transporte (TP), la totalidad de los cuales tiene un mismo identificador de paquetes (por ejemplo, PID=0x18xx). Cuando un reproductor de disco recibe muchos flujos de entrada que incluyen un flujo de subtítulos de texto particular, encuentra todos los paquetes de transporte que pertenecen al flujo de subtítulos de texto usando sus PIDs. Haciendo referencia a la figura 6, cada sub-conjunto de paquetes de transporte forma un paquete de flujo elemental de paquetes (PES: Packet elementary stream). Uno de los paquetes del PES mostrado en la figura 6 corresponde a un segmento de estilo de diálogo (DSS: dialog style segment) que define un grupo de estilos de región. Todos los paquetes restantes del PES después del segundo paquete del PES corresponde a segmentos de presentación de diálogo (DPSs: Dialog presentation segments).
En la estructura anteriormente descrita de flujo de subtítulos de texto de la figura 6, cada una de las informaciones de diálogo mostradas en las figuras 5A a 5C representa un segmento de presentación de diálogo (DPS). Y la información de estilo incluida en la información de diálogo representa un conjunto de información que vincula uno cualquiera de la pluralidad de conjuntos de estilo de región definidos en el segmento de estilo de diálogo (DSS), al que se puede hacer referencia también como "id_estilo_región", y estilos en línea. Por lo tanto, en la presente invención, un conjunto de estilo de región e información de paleta, que se aplican al segmento de presentación de diálogo (DPS), se graban en el segmento de estilo de diálogo (DSS), que se describirá ahora con detalle.
La figura 7A ilustra estructuras del segmento de estilo de diálogo (DSS) grabadas en el flujo de subtítulos de texto y del segmento de presentación de diálogo (DPS). Por lo tanto, se describirá una sintaxis detallada del flujo de subtítulos de texto en un proceso posterior con referencia a la figura 8. Más concretamente, el segmento de estilo de diálogo (DSS) incluye un máximo de 60 conjuntos de estilo de región grabados en el mismo, cada uno de los cuales se describe mediante una id_estilo_región. Un conjunto de estilo de región, que incluye información diversa de estilo de región, y un conjunto de estilo cambiable por el usuario se graban en cada id_estilo_región. En esta memoria se describirán contenidos detallados de la información de estilo de región en la figura 9B, y se describirán contenidos detallados de la información de estilo cambiable por el usuario en la figura 9C.
Además, el segmento de estilo de diálogo incluye información de paleta que es comúnmente aplicada dentro del correspondiente flujo de subtítulos de texto, y la información de paleta incluye información de color (valores de Y, Cr y Cb) e información de transparencia (valor de T) para cada entrada de paleta ID (ID_entrada_paleta). Y con el fin de indicar (o presentar) una información concreta de color entre la información de estilo, se designa la correspondiente ID_entrada_estilo, con lo que se hace posible que sea presentado el color deseado. Además, el segmento de presentación de diálogo (DPS) incluye datos de texto e información de temporización que indica el tiempo de presentación de los datos de texto (es decir, conjunto de PTS). El segmento de presentación de diálogo (DPS) incluye también información que vincula una cualquiera de la información de estilo para cada región y la información concreta de estilo de región incluida en el estilo de diálogo anteriormente descrito.
Y, generalmente, el segmento de presentación de diálogo (DPS) se aplica comúnmente con la información de paleta definida en el segmento de estilo de diálogo (DSS) descrito anteriormente. Sin embargo, una información de paleta separada se ha de definir también de nuevo y aplicar al segmento de presentación de diálogo (DPS). Aquí, se hace referencia a la información que indica tal modificación (o actualización) de la información de paleta como una "bandera_actualización_paleta". Más concretamente, cuando bandera_actualización_paleta = 0b, la información de paleta común definida en el segmento de estilo de diálogo (DSS) se aplica como es, sin modificación (o actualización) alguna. Inversamente, cuando bandera_actualización_paleta = 1b, se define y se usa una nueva información de paleta (es decir, paleta( ) ) que se aplica al correspondiente segmento de estilo de diálogo (DSS).
En este punto, la información de paleta recién definida se graba actualizando sólo la información de paleta requerida por el correspondiente segmento de presentación de diálogo (DPS). Y cuando se termina el correspondiente tiempo de presentación de diálogo, la información de paleta común proporcionada desde el DSS se aplica al subsiguiente DPS. Más concretamente, cuando bandera_actualización_paleta = 0b, se aplica la información de paleta común proporcionada desde el DSS. Y, cuando bandera_actualización_paleta = 1b, se aplica una información de paleta recién definida en el correspondiente segmento de presentación de diálogo (DPS).
Por lo tanto, haciendo referencia a la figura 7A, en DPS #1, DPS #2 y DPS #6, el estilo de región aplicado a cada conjunto de datos de texto (datos de Texto #1, datos de Texto #2 y datos de Texto #3) está respectivamente vinculado y aplicado a cada id_estilo_región = k, id_estilo_región = n e id_estilo_región = m dentro del segmento de presentación de diálogo (DPS). Y puesto que bandera_actualización_paleta = 0b, se usa la información de paleta común proporcionada desde DSS. Por otra parte, en DPS #3, DPS #4 y DPS #5, el estilo de región aplicado a cada datos de texto (datos de Texto #2) se vincula y aplica respectivamente a id_estilo_región = n dentro del segmento de presentación de diálogo (DPS). Y, puesto que bandera_actualización_paleta = 1b, se aplica la información de paleta recién definida en el correspondiente DPS. Entretanto, la información de estilo vinculada por el ID de estilo de región (id_estilo_región) se aplica igualmente a todos los datos de texto dentro de la correspondiente región (es decir, la información de estilo global). Sin embargo, cuanto se requiere que se cambie (o modifique) la información de estilo para una cadena de texto concreta dentro de los datos de texto, se define y utiliza una información de estilo en línea, que es una información de estilo local que se aplica sólo a la cadena de texto.
La figura 7B ilustra una utilización de la información de paleta de DPS #1 a DPS #6 como se muestra en la figura 7A, y, más particularmente, ilustra un método para la presentación de un efecto de desvanecimiento que muestra efectos de Aparición Gradual y Desaparición Gradual. Más concretamente, haciendo referencia a la figura 7B, en DPS #1 y DPS #2 se aplica bandera_actualización_paleta = 0b, con lo que se usa la información de paleta común proporcionada desde DSS. Sin embargo, cuando DPS #2 es tratada con un efecto de desaparición gradual, se aplica bandera_actualización_paleta = 1b a cada DPS #3, DPS #4 y DPS #5, de manera que se modifica (o cambia) gradualmente la información de paleta, que designa color y/o transparencia, produciendo con ello (o produciendo) el efecto de desaparición gradual. Por lo tanto, al proceso de definir nuevamente y modificar (o cambiar) sólo la información de paleta, como se muestra en DPS #3, DPS #4 y DPS #5 y redefinir la información de estilo anteriormente descrita y datos de texto sin modificación alguna, como la utilizada en DPS #2, se hace referencia también como una "actualización de Presentación de sólo paleta".
Por lo tanto, cuando bandera_actualización_paleta = 1b, tal como en DPS #1, DPS #6, el DPS que usa la información de paleta común definida en el DSS se puede denominar como un primer segmento de presentación de diálogo (DPS). Y cuando bandera_actualización_paleta = 0b, tal como en DPS #3, DPS #4 y DPS #5, el DPS que tiene la información de paleta específica dentro del correspondiente DPS y que usa la información de paleta específica, se puede denominar como un segundo segmento de presentación de diálogo (DPS). Por lo tanto, es evidente que el flujo de subtítulos de texto se forma del segmento de estilo de diálogo (DSS), del primer segmento de presentación de diálogo (DPS) y del segundo segmento de presentación de diálogo (DPS). Además, considerando el tiempo de presentación de cada DPS, cuando bndera_actualización_paleta = 0b en el primer DPS, es preferible que se garantice al menos 1 segundo de tiempo de presentación visual como un tiempo de repetición (o reproducción) normal (por ejemplo, PTS2 >= PTS1 + 1 seg.). Y cuando bandera_actualización_paleta = 1b en el segundo DPS, lo que indica sólo la modificación (o cambio) en la información de paleta, es preferible que se garanticen al menos 2 marcos de tiempo de presentación de vídeo (por ejemplo, PTS4 <= PTS3 + Duración de 2 marcos de vídeo). Además, aunque la figura 7B ilustra un ejemplo de un efecto de desaparición gradual, se puede también aplicar un efecto de aparición gradual en el que se use el mismo principio.
La estructura de sintaxis del segmento de estilo de diálogo (DSS) descrito anteriormente y del segmento de presentación de diálogo (DPS) se describirá ahora en detalle con referencia a las figuras 8 a 10B. Más concretamente, mediante la ilustración de la estructura de sintaxis con detalle, se pueden describir con más precisión el uso de la información de estilo anteriormente descrita y de la información de paleta de acuerdo con la presente invención. La figura 8 ilustra una sintaxis del flujo de subtítulos de texto (Flujo_subtítulos_texto( ) ) de acuerdo con la presente invención. En referencia a la figura 8, el Flujo_subtítulos_texto( ) incluye una sintaxis de segmento_estilo_diálogo( )
y una sintaxis de segmento_presetación_diálogo( ). Más concretamente, la sintaxis de segmento_estilo_diálogo( ) corresponde a un segmento de estilo de diálogo único (DSS) que define el conjunto de información de estilo, y la sintaxis de segmento_presentación_diálogo( ) corresponde a una pluralidad de segmentos de presentación de diálogo (DPS) que tienen grabada en ellos la información de diálogo real.
Las figuras 9A a 9D ilustran una estructura detallada del segmento_estilo_diálogo( ), que representa el segmento de estilo de diálogo (DSS). Más concretamente, la figura 9A ilustra la estructura global del segmento_estilo_diálogo( ),
en la que se define un conjunto de estilo_diálogo( ) que define diversos conjuntos de información de estilo que se aplican en el diálogo. La figura 9B ilustra un conjunto de estilo_diálogo( ) de acuerdo con la presente invención, el cual se define en el segmento_estilo_diálogo( ). Aparte de los estilos_región (estilo_región( ) ), el conjunto_estilo_diálogo( )
incluye una Bandera_estilo_reproductor, un conjunto de estilo_cambiable_usuario( ) y una paleta( ). La Bandera_estilo_reproductor indica si se autoriza cambio en la información de estilo por el reproductor. Así mismo, el conjunto estilo_cambiable_usuario( ) define el intervalo de cambio de información de estilo por el reproductor, y la paleta( ) indica información de color.
La información de estilo de región (estilo_región( ) ) representa la información Global de estilo para cada región, como se ha descrito anteriormente. Se designa para cada región una id_estilo_región, y se define un conjunto de información de estilo correspondiente para la id_estilo_región. Por lo tanto, cuando se reproduce un diálogo grabando la id_estilo_región, que se aplica al correspondiente diálogo dentro del segmento de presentación de diálogo (DPS), se aplican valores de conjunto de información de estilo definidos por id_estilo_región idéntica dentro del conjunto estilo_diálogo( ), de manera que se reproduce el diálogo. En consecuencia, se describirá ahora la información de estilo individual incluida en el conjunto de información de estilo proporcionada a cada id_estilo_región.
En esta memoria, posición_horizontal_región, posición_vertical_región, anchura_región y altura_región son proporcionadas como información para definir la posición y el tamaño de una región correspondiente dentro de la pantalla. Y se proporciona también información de id_entrada_color_fondo_región que decide un color de fondo de la correspondiente región. Más concretamente, la información id_entrada_color_fondo_región es un conjunto de información que designa una id_entrada_paleta específica dentro de la información de paleta, que se describirá en un proceso posterior con referencia a la figura 9D. Aquí, la información id_entrada_color_fondo_región utiliza la información de color (valores de Y, Cr y Cb) y grado de transparencia (valor de T) que se asignan a la correspondiente id_entrada_paleta, para color de fondo de la región correspondiente. Además, como información que define una posición original (o de inicio) del texto dentro de la correspondiente región, se proporcionan una posición_horizontal_texto y una posición_vertical_texto. Asimismo, se proporcionan un flujo_texto que define la dirección del texto (por ejemplo, izquier-
da \rightarrow derecha, derecha \rightarrow izquierda, arriba \rightarrow abajo), y una alineación_texto, que define la dirección de alineación del texto (por ejemplo, izquierda, centro, derecha). Más concretamente, cuando se incluyen una pluralidad de regiones en un diálogo específico, el flujo_texto de cada región incluido en el correspondiente diálogo se define para que tenga un valor idéntico de flujo_texto, de manera que los usuarios vean imágenes distorsionadas.
Además se proporciona un espacio_línea que designa el espacio entre cada línea dentro de la región, como información de estilo individual incluida en el conjunto de información de estilo. Y se proporcionan un tipo_fuente, un tamaño_fuente y una id_entrada_color_fuente como información de fuente para información de fuente real. Más concretamente, la id_entrada_color_fuente es un conjunto de información que designa una id_entrada_paleta específica dentro de la información de paleta, que se describirá en un proceso posterior con referencia a la figura 9D. En esta memoria, la información id_entrada_color_fuente usa la información de color (valores de Y, Cr y Cb), que se asigna a la correspondiente id_entrada_paleta como un valor de color de la fuente correspondiente.
Entretanto, la Bandera_estilo-reproductor grabada dentro del conjunto estilo_diálogo( ) indica si un autor puede aplicar la información de estilo proporcionada al reproductor. Por ejemplo, cuando Bandera_estilo_reproductor = 1b, así como la información de estilo definida en el conjunto estilo_diálogo( ) grabado en un disco, el reproductor es autorizado a reproducir el flujo de subtítulos de texto aplicando la información de estilo proporcionada dentro del propio reproductor. Por otra parte, cuando Bandera_estilo_reproductor = 0b, sólo se autoriza el uso de la información de estilo definida en el conjunto estilo_diálogo( ) grabada dentro del disco.
La figura 9C ilustra el conjunto estilo_cambiable_usuario( ) de acuerdo con la presente invención, que se define en conjunto estilo_diálogo( ). El conjunto estilo_cambiable_usuario( ) predefine los tipos de información de estilo que puede ser cambiada por el usuario y el intervalo de cambio, y el conjunto estilo_cambiable_usuario( ) se utiliza para cambiar fácilmente la información de estilo de los datos de subtítulo de texto. Sin embargo, cuando se le permite al usuario cambiar toda la información de estilo, que se describe en la figura 9B, el usuario puede quedar más confuso. Por lo tanto, en la presente invención se puede cambiar la información de estilo sólo del tamaño_fuente, la posición_horizontal_región, y la posición_vertical_región. Y, por lo tanto, la variación en la posición del texto y el espacio entre líneas, que se pueden cambiar de acuerdo con el tamaño_fuente, se define también en el conjunto estilo_cambiable_usuario( ). Más concretamente, el conjunto estilo_cambiable_usuario( ) es definido para cada id_estilo_región. Por ejemplo, se puede definir un máximo de 25 id_estilo_usuario dentro de una id_estilo_región = k específica en el conjunto estilo_cambiable_usuario( ).
Igualmente, cada id-estilo_usuario incluye información de dirección_posición_horizontal_región y de dirección_
posición_vertical_región, que designan la dirección de la posición cambiada de cada una de entre posición_horizontal_
región y posición_vertical_región cambiables. Cada id_estilo_usuario incluye información de posición_delta_hori-
zontal_región y de posición_delta_vertical_región para designar una unidad de movimiento de posición única en cada dirección como una unidad de pixeles. Más concretamente, por ejemplo, cuando dirección_posición_horizontal_región
= 0, la posición de la región es movida hacia una dirección derecha. Y, cuando dirección_posición_horizontal_región = 1, la posición de la región es movida hacia una dirección izquierda. Asimismo, cuando dirección_posición_vertical_
región = 0, la posición de la región es movida hacia una dirección descendente. Finalmente, cuando dirección_posi-
ción_vertical_región = 1, la posición de la región es movida en una dirección ascendente.
Además, cada id_estilo_usuario incluye información de dis_aum_tamaño_fuente, que designa la dirección de cambio de cada una de información tamaño_fuente y tamaño_delta_fuente cambiables para designar una unidad de movimiento de posición única en cada dirección como una unidad de pixeles. Más concretamente, por ejemplo, dis_aum_tamaño_fuente = 0 representa una dirección creciente en el tamaño_fuente, y dis_aum_tamaño_fuente = 1 representa una dirección decreciente del tamaño_fuente. Además, la disminución o aumento de la "posición de texto" y el "espacio entre líneas", que son cambiados con dependencia de la disminución o aumento del tamaño_fuente, pueden ser definidos por el mismo método que los del tamaño_fuente, de la posición_horizonal_región y la posición_vertical_región.
En consecuencia, se describirán ahora como sigue las características del conjunto estilo_cambiable_usuario( ) de acuerdo con la presente invención. Se define un número idéntico de estilo_control_usuario( ) en todos los estilo_
región( ) que están incluidos en el segmento de estilo de diálogo (DSS). Por lo tanto, es también idéntico el número de estilo_control_usuario que se puede aplicar a todos los segmentos de presentación de estilo de diálogo (DPS). Además, cada estilo_control_usuario( ) está representado por un id_estilo_usuario diferente, y, cuando el usuario selecciona un estilo_id_usuario aleatorio, se aplica un orden idéntico del estilo_control_usuario( ) a todos los estilo_región( ).
Además, se define una combinación de todos los estilos cambiables en una único estilo_control_usuario( ). Más concretamente, la posición_región y el tamaño_fuente se definen simultáneamente, en lugar de ser definidos separadamente. Finalmente, cada una de la dirección (*_dirección) y la indicación de aumento o disminución (*_aum_dis) se graba independientemente sin considerar cada unidad de movimiento de posición (*_delta). Más concretamente, definiendo sólo la unidad de movimiento de posición (*_delta), se puede obtener un valor final de la información de estilo (o valor de estilo) realmente cambiada añadiendo la unidad de movimiento de posición (*_delta) al valor definido en estilo-región( ).
La figura 9D ilustra información de paleta (paleta( ) ) de acuerdo con la presente invención, que se define en el conjunto estilo_diálogo( ). La paleta( ) proporciona información de cambio de color de los datos de subtítulo de texto grabados dentro del diálogo. En esta memoria, la paleta( ) incluye una pluralidad de entradas_paleta, en que cada entrada_paleta es descrita por una id_entrada_paleta. Y cada entrada_paleta está dispuesta dentro de un valor de brillantez específico (valor_Y), un valor de color específico (valor_Cr, valor_Cb), y un valor_T específico, que designa la transparencia de los datos de texto.
Por lo tanto, el valor de brillantez (valor_Y) está dentro del intervalo de 16 a 235, el valor de color (valor_Cr, valor_Cb) está dentro del intervalo de 16 a 240 y el valor_T para designar la transparencia está dentro del intervalo de 0 a 255. Más concretamente, el valor_T = 0 representa transparencia total y el valor_T = 255 representa opacidad total. Además, el valor_T = 0 se designa generalmente como un valor por defecto, de manera que el valor_T = 0 puede representar transparencia total. Por lo tanto, el fabricante (o autor) de discos graba la información de paleta para cada id_entrada_paleta dentro del segmento de estilo de diálogo (DSS), en el que la información de paleta se usa en todo el flujo de subtítulos de texto. De ese modo, una id_entrada_paleta específica se puede designar y utilizar a partir de la información de estilo anteriormente descrita.
Las figuras 10A y 10B ilustran una estructura detallada del segmento_presentación_diálogo( ), que representa el segmento de presentación de diálogo (DPS) de acuerdo con la presente invención. La figura 10 ilustra la estructura global del segmento_presentación_diálogo( ), en el que se definen un PTS_inicio_diálogo y un PTS_final_diálogo. El PTS_inicio_diálogo y el PTS_final_diálogo designan el tiempo de presentación del diálogo correspondiente. Entonces, el segmento_presentación_diálogo( ) incluye una bandera_actualización_paleta, que indica un cambio de información dentro del correspondiente diálogo. Como se ha descrito anteriormente, cuando bandera_actualización_paleta = 1b, se define separadamente una nueva información de paleta (paleta( ) ) que se usa sólo en el correspondiente DPS, en lugar de la información de paleta comúnmente usada, mostrada en la figura 9D, dentro de DDS. Por lo tanto, el autor utiliza la bandera_actualización_paleta de manera que se permite una amplia gama de aplicaciones. Más particularmente, con el fin de producir (o representar) efectos de aparición/desaparición gradual, DPSs que tienen sólo la información de paleta modificada son proporcionados consecutivamente (por ejemplo, DPS #3 a DPS #5 mostrados en la figura 7B), con lo que se proporciona visualmente un efecto de aparición gradual o desaparición gradual del subtítulo de texto para el usuario.
A continuación, una región-diálogo( ) que define la información de región se graba en el segmento_presentación_
diálogo( ). En la presente invención, se disponen un máximo de dos regiones dentro de un único diálogo y, por tanto, se proporciona información de región_diálogo( ) para cada región. La región_diálogo( ) incluye información id_estilo_región e información de bandera_present_continua. La información id_estilo_región designa cualquiera de los estilos de región, como se muestra en la figura 9B, y la información de bandera_present_continua identifica si se ha de realizar una reproducción sin juntura con la región de diálogo previa. Además, se incluyen también datos de texto e información subtítulo_región( ) en la región_diálogo( ). Los datos de texto se incluyen en la región real correspondiente, y la información subtítulo_región( ) define la información de estilo local.
La figura 10B ilustra una información de subtítulo_región( ) definida dentro de la región_diálogo( ). Aquí, el subtítulo_región( ) está formado de un grupo (o par) de una cadena de texto y una información de estilo en línea que se aplica a la cadena de texto. Más concretamente, en el segmento_presentación_diálogo( ), cuando bandera_actualización_paleta = 1b, la id_estilo_región y el subtítulo_región han de ser idénticos a los de un segmento de estilo de diálogo (DSS) previo. En este caso, la bandera_present_continua ha de ser determinada como una bandera_present_continua = 1b. Más concretamente, el tipo = 0x01 dentro del subtítulo_región( ) representa la cadena de texto. Por lo tanto, un código de carácter (bite_datos_carác) se graba dentro de la cadena de texto( ).
Además, cuando el tipo dentro del subtítulo_región( ) no es igual a tipo = 0x01, el subtítulo_región( ) representa la información de estilo en línea. Por ejemplo, tipo = 0x02 representa un cambio en el conjunto Fuente, y así un valor de ID de fuente designado por el correspondiente ClipInfo es grabado en un campo específico (es decir, valor_estilo_en línea( ) ), y tipo = 0x03 representa un cambio en el estilo de Fuente, y se graba así un valor de estilo de fuente correspondiente en campo específico (es decir, el valor_estilo_en línea( ) ). Así mismo, tipo = 0x04 representa un cambio en el tamaño de Fuente, y se graba un correspondiente valor de tamaño de fuente en un campo específico (es decir, el valor_estilo_en línea( ) ), y tipo = 0x05 representa un cambio en el color de Fuente y, por tanto, de graba un valor de índice designado por la correspondiente paleta en un campo específico (es decir, el valor_estilo_en línea( ) ). Además, tipo = 0x0A representa una interrupción de línea.
Más concretamente, como se ha descrito anteriormente, tipo = 0x05 representa un cambio en el color de Fuente. En este caso, se graba una id_entrada_paleta modificada en el valor_estilo_en línea( ), por lo que se hace posible que el color de fuente sea aplicado a cada cadena de texto que se ha de modificar. Por ejemplo, la parte de texto "montaña" incluida en la Región 1, como se muestra en la figura 5C, se escribe como una cadena_texto (por ejemplo, cadena_texto = "montaña"), pero la parte de texto es fijada en "tipo_estilo_en línea = 0x05 (cambio de color de fuente)" como la información de estilo local. Y estableciendo la parte de texto en ``valor_estilo_en línea( ) = id_entrada_paleta(k), puede ser reproducido el color de fuente de la correspondiente cadena_texto = "montaña" para que tenga la información de color (valores de Y, Cr y Cb) y grado de transparencia (valor de T) definido en la id_entrada_paleta(k), mostrada en la figura 9D.
A continuación se describirá con detalle, haciendo referencia a las figuras 11A y 11B, el método y el aparato para reproducir el flujo de subtítulos de texto sobre el disco óptico, como se ha descrito anteriormente. La figura 11A ilustra el aparato para reproducir el enfoque del disco óptico sobre el descodificador de acuerdo con la presente invención y, más particularmente, ilustra un ejemplo de una parte 40 de descodificación de subtítulos de texto, que se incluye separadamente. Más concretamente, el aparato incluye un filtro 5 identificador de paquetes (PID) para separar flujos de entrada en flujos de vídeo, flujos de audio, flujos de gráficos y flujos de subtítulos de texto basados en sus identificadores de paquetes, una parte 20 de descodificación de vídeo para reproducir flujos de vídeo, una parte 10 de descodificación de audio para reproducir los flujos de audio, una parte 30 de descodificación de gráficos para reproducir los flujos de gráfico, y una parte 40 de descodificación de subtítulos para reproducir los flujos de subtítulos de texto.
Los flujos de subtítulos de texto pueden ser extraídos de un disco óptico, o pueden ser introducidos desde una fuente externa adicional, como se muestra en la figura 11A. Por esta razón, el aparato incluye un conmutador 6 que selecciona una fuente de datos de entrada. Por lo tanto, si los flujos de subtítulos de texto en formato de MPEG son extraídos del disco óptico, el conmutador 6 selecciona línea de datos A conectada al filtro 5 de PID. Por otra parte, si son introducidos a través de una fuente externa adicional, el conmutador 6 selecciona la línea de datos B que está conectada a la fuente externa.
La parte 20 de descodificación de vídeo, la parte 10 de descodificación de audio, la parte 30 de descodificación de gráficos incluyen una memoria temporal de transporte 21, 11 y 31, respectivamente, para almacenar un tamaño predeterminado de flujos de datos que se han de descodificar. Un plano 23 de vídeo y un plano 33 de gráficos se incluyen en la parte 20 de descodificación de vídeo y en la parte 30 de descodificación de gráficos, respectivamente, para convertir señales descodificadas en imágenes presentables visualmente. La parte 30 de descodificación de gráficos incluye una tabla de consulta de color (CLUT: Color look-up table) 34 para controlar niveles de color y transparencia de las imágenes presentables visualmente.
Cuando la parte 40 de descodificación de subtítulo recibe uno o mas flujos de subtítulos desde el conmutador 6, la totalidad de estos flujos se precargan inicialmente en una memoria temporal de precarga de subtítulos (SPB: Subtitle preloading buffer) 41 enseguida. Suponiendo que un tamaño típico de un archivo de flujo de subtítulos de texto para un lenguaje único es de unos 0,5 megabites, el tamaño de la memoria temporal 41 de precarga de subtítulos se ha de determinar sobre la base del número total de los archivos de flujo de subtítulos de texto. Por ejemplo, con el fin de garantizar presentación sin juntura de un subtítulo de texto cuando un usuario conmuta entre archivos de flujos de subtítulos que soportan dos lenguajes, el tamaño de la memoria temporal 41 de precarga de subtítulos ha de ser mayor o igual que 1 megabite. El tamaño de la memoria temporal 41 de precarga de subtítulos ha de ser suficientemente grande para precargar simultáneamente todos los archivos de flujo de subtítulos de texto requeridos.
Los flujos de subtítulos de texto son todos precargados en la memoria temporal 41 y utilizados, debido a que se puede grabar todo el flujo de subtítulos de texto dentro de una pequeña capacidad, como se ha descrito anteriormente. Por lo tanto, el flujo de subtítulos de texto se graba como un archivo separado, facilitando con ello la lectura y uso de los datos de subtítulo de texto solamente. Además, puesto que todos los datos de subtítulo de texto se precargan en la memoria temporal, la memoria temporal puede ser controlada más fácilmente. En un tipo concreto de aparato de grabación y reproducción óptica, siempre que no ocurra un subflujo de memoria temporal, el flujo de subtítulos de texto puede ser reproducido en combinación con los datos de AV principales, en tiempo real, sin precargar el flujo de subtítulos de texto. A continuación se dará y describirá con detalle un ejemplo del flujo de subtítulos de texto que está siendo precargado de acuerdo con la presente invención.
La parte 40 de descodificación de subtítulo de texto incluye además un descodificador 42 de subtítulos de texto que descodifica uno o más flujos de subtítulos de texto almacenados en la memoria temporal 41 de precarga de subtítulos, un plano 43 de gráficos que convierte el flujo o flujos de subtítulos descodificados en imágenes presentables visualmente, y una tabla de consulta de color (CLUT) 44 que controla la información de color (valores de Y, Cr y Cb) e información de transparencia (valor de T) de las imágenes convertidas.
Una parte 50 de superposición de imagen, incluida en el aparato mostrado en las figura 11A, combina la imagen emitida como salida desde la parte 20 de descodificación de vídeo, la parte 30 de descodificación de gráficos y la parte 40 de descodificación de subtítulos de texto. Las imágenes combinadas son presentadas en una pantalla de presentación visual. Las imágenes de vídeo emitidas desde el plano de video 23 de la parte 20 de descodificación de vídeo se presentan como un fondo de la pantalla de presentación, y las imágenes emitidas desde la parte 30 de descodificación de gráficos y/o la parte 40 de decodificación de subtítulos de texto se superponen sobre las imágenes de vídeo presentadas. Por ejemplo, si las imágenes emitidas como salida de la parte 30 de descodificación de gráficos son imágenes de gráficos interactivas, las imágenes de subtítulos de texto emitidas desde la parte 40 de descodificación de subtítulos de texto son superpuestas inicialmente sobre las imágenes de vídeo por un primer sumador 52. A continuación, las imágenes de gráficos interactivas se superponen adicionalmente sobre las imágenes superpuestas a subtítulos mediante un segundo sumador 53. El aparato mostrado en la figura 11A incluye además un descodificador 4 del sistema para descodificar flujos de transporte de entrada (por ejemplo flujos de transporte de MPEG), y un microprocesador 3 para controlar las operaciones de todos los componentes anteriormente mencionados del aparato.
Ahora se hará referencia con detalle a un método para reproducir flujos de subtítulos de texto de acuerdo con la presente invención. Cuando es precargado un disco óptico por un jugador de disco óptico, un ejemplo del cual se ilustra en la figura 11A, es inicialmente extraída del disco la información requerida para la reproducción de datos grabados en el disco y es almacenada en una memoria (no mostrada). Cuando es seleccionada por un usuario un título particular que se asocia con una PlayList, se precarga inicialmente al menos un archivo de flujo de subtítulos de texto completo (entero) designado en el archivo de PlayList en la memoria temporal 41 de precarga de subtítulos y archivos de fuente relacionados con el archivo de flujo de subtítulos de texto se precargan en la memoria temporal 410 de precarga de fuente.
Por ejemplo, cuando es seleccionado por un usuario un título que se asocia con la PlayList mostrada en la figura 4, los archivos de subtítulos de texto para el clip Nº 1 de subtítulos de texto (Coreano) y el clip Nº 2 de subtítulos de texto (Inglés) se precargan inicialmente en la memoria temporal 41 de precarga d subtítulos. Así mismo, los archivos de fuente relacionados con los archivos de subtítulos de texto, que pueden ser designados en archivos de información de clips de los clips de subtítulos de texto, se precargan en la memoria temporal 410 de precarga de fuente. A continuación, se inicia la reproducción (playback) de la PlayList. Durante la reproducción de la PlayList, son descodificados flujos de AV de los clips de AV principales Nº 1 y 2 por la parte 10 de descodificación de audio y la parte 20 de descodificación de vídeo, respectivamente, y es descodificado uno seleccionado de lo flujos de subtítulos de texto precargados por el descodificador 42 de subtítulos de texto. Entonces se superponen las imágenes de subtítulos de texto descodificadas sobre las imágenes de vídeo principales descodificadas y se presentan la totalidad de las imágenes expuestas en una pantalla de presentación.
Como se ha descrito anteriormente, cuando se completan todas las operaciones, y cuando se presentan en la pantalla los datos de vídeo principales que son controlados por el PlayItem, el subtítulo de texto relacionado es superpuesto a través de la parte 50 de superposición de imagen (mostrada en la figura 11A). Y cuando se proporciona el subtítulo de texto superpuesto, se inicia la descodificación del flujo de subtítulos de texto. Entretanto, con el fin de realizar la descodificación del flujo de subtítulos de texto, una información de estilo de región y una información de paleta dentro del segmento de estilo de diálogo (DSS), que configuran el primer flujo de paquetes (PES), se leen separadamente y se almacenan para posterior uso cuando se reproduce el DPS. Más particularmente, cuando se lee la información de paleta, la información de paleta es simultáneamente proporcionada a la CLUT 44, de manera que se proporciona el color y transparencia deseados por el usuario, cuando se expone el subtítulo de texto en la pantalla.
La figura 11B ilustra con más detalle el descodificador 42 de subtítulos de texto, mostrado en la figura 11A. El proceso de descodificación realizado por el descodificador 42 de subtítulos de texto incluye los pasos de analizar, interpretar y componer. En el paso de analizar, se analiza en información de composición el flujo o flujos de subtítulos de texto almacenados en la memoria temporal 41 de precarga de subtítulos (SPB), información de interpretación y datos de texto de diálogo, de acuerdo con la información incluida en el segmento de presentación de diálogo (DPS). Un diálogo representa todos los subtítulos de texto que son presentados durante un periodo de tiempo predeterminado, que puede ser definido por una estampilla de tiempo de presentación (PTS). Por lo tanto, la información de composición corresponde a la información relacionada con el tiempo de presentación y la posición de presentación del subtítulo de texto cuando se expone sobre la pantalla, y también a una nueva información de paleta que se ha definida recientemente por una actualización de información de paleta (bandera_actualización_paleta = 1b). La información de interpretación corresponde a la información que describe (o representa) realmente el texto de cada región para cada diálogo. Tal información de interpretación incluye "anchura y altura de región", "color de Fondo", "Flujo d Texto", "Alineación de Texto" e "id/estilo/tamaño de Fuente". Además, la información de texto de diálogo corresponde a una información de estilo en líneas que se aplica a los datos de texto reales y a una cadena de texto específica grabada dentro del DPS.
Haciendo referencia a la figura 11B, un procesador 421 de subtítulos de texto, incluido en el descodificador 42 de subtítulos, analiza el archivo o archivos de flujo de subtítulos almacenados en la memoria temporal 41 de precarga de subtítulos en composición e información de interpretación y datos de texto de diálogo. La información de composición e interpretación se almacena entonces en una memoria temporal de composición de diálogo (DCB: Dialog composition buffer) 425, y los datos de texto de diálogo se almacenan en una memoria temporal de diálogo (DB) 422. Más concretamente, una información de actualización de paleta (bandera_actualización_paleta = 1b) se incluye en la información de composición, que es analizada por el paso de análisis. Y, cuando bandera_actualización_paleta = 0b, la información de paleta común, que fue inicialmente proporcionada desde el segmento de estilo de diálogo (DSS) a la CLUT 44, puede ser usada continuamente sin ser actualizada. Inversamente, cuando bandera_actualización_paleta = 1b, se ignora la información de paleta común dentro del DSS, y se define nuevamente una nueva información de paleta dentro del correspondiente DPS y se actualiza a la CLUT 44 y se utiliza. Sin embargo, cuando se completa la presentación (o reproducción) del correspondiente DPS, se borra la actualización de paleta, y se usa una vez más la información de paleta común inicialmente proporcionada desde la CLUT 44. En este punto, se ha de completar la actualización de la CLUT 44 antes de la presentación (o reproducción) del subsiguiente DPS.
En el paso de interpretar, los datos de texto de diálogo analizados son interpretados en datos de mapa de bits usando la información de interpretación, que representa información de estilo requerida para interpretar los datos de texto de diálogo. Un interpretador de texto 423 interpreta los datos de texto de diálogo almacenados en la memoria temporal 422 de diálogo en datos de mapa de bits bajo el control de un controlador 426 de presentación de diálogo. Con el fin de realizar la función de interpretación, el interpretador de texto 423 recibe datos de fuente asociados con los datos de texto de diálogo desde la memoria temporal 410 de precarga de fuente, recibe información de interpretación e información de estilo en línea desde el controlador 426 de presentación de diálogo, e interpreta los datos de texto de diálogo en datos de mapa de bits usando información de interpretación e información de estilo en línea, que es aplicable para cada cadena de texto de los datos de texto de diálogo. A continuación, los datos de texto interpretados son entonces almacenados en una memoria temporal objeto de mapa de bits (BOB: Bitmap object buffer) 424 como objeto de mapa de bits. Por lo tanto, el "Objeto" que está siendo grabado en la memoria temporal BOB 424 corresponde a los datos de texto de cada región dentro de cada diálogo, que se convierten en un objeto de mapa de bits. Por lo tanto, se analizan y almacenan dentro de la memoria temporal BOB 424.
Finalmente, en el paso de composición, los datos de texto interpretados son añadidos al plano de gráficos (GP) 43 de acuerdo con la información de composición, que representa información que indica tiempo para presentar un subtítulo de texto dentro de la pantalla de presentación. Finalmente, el objeto de mapa de bits almacenado en la memoria temporal 424 de objeto de mapa de bits es transferido (añadido) al plano de gráficos 43 de acuerdo con la información de composición proporcionada por el controlador 426 de presentación de diálogo. La tabla 44 de consulta de color utiliza información de paleta incluida en la información de composición para ajustar los niveles de color y transparencia de una salida del plano 43 de gráficos.
Por lo tanto, en el DPS de bandera_actualización_paleta =1b, el paso de interpretación se omite, y el objeto de mapa de bits relacionado con un DPS previo, y que se almacena dentro de la memoria temporal BOB 424, se preserva y utiliza. En esta memoria, usando la información de paleta definida en el DPS de bandera_actualización_paleta = 1b, de manera que se modifica CLUT solamente, sólo se actualizan la información de color (valores de Y, Cr y Cb) y la información de transparencia (valor de T) para el objeto de mapa de bits del DPS previo, que se preserva en el plano de gráficos. Como se ha descrito anteriormente, se refiere a esto como "actualización de presentación de sólo_paleta". Usando la "actualización de presentación de sólo_paleta", se pueden representar también los efectos de aparición/desaparición gradual del DPS.

Claims (22)

1. Un medio de grabación para reproducir flujos de subtítulos de texto, comprendiendo el medio de grabación una zona de datos que almacena al menos un flujo de subtítulos de texto, caracterizado porque
cada flujo de subtítulos de texto incluye un segmento de estilo de diálogo (DSS) que define un grupo de estilos de región y una pluralidad de segmentos de presentación de diálogo, conteniendo cada segmento de presentación de diálogo (DPS) al menos una región de texto de diálogo y estando cada región de texto de diálogo vinculada a uno seleccionado del grupo de estilos de región, en el que el segmento de estilo de diálogo define además información de paleta, incluyendo la información de paleta información de color y de opacidad, y conteniendo además cada segmento de presentación de diálogo una bandera de actualización de paleta que indica si se usa la información de paleta definida en el segmento de estilo de diálogo o se usa una nueva información de paleta cuando se reproduce cada segmento de presentación de diálogo.
\vskip1.000000\baselineskip
2. El medio de grabación de la reivindicación 1, en el que cuando la bandera de actualización de paleta indica el uso de la nueva información de paleta, la nueva información de paleta está definida en cada segmento de presentación de diálogo.
3. El medio de grabación de la reivindicación 1, en el que la información de paleta definida en el segmento de estilo de diálogo comprende valores de color y opacidad para una entrada de paleta.
4. El medio de grabación de la reivindicación 3, en el que los valores de color comprenden al menos uno de los valores de Y, Cr y Cb.
5. El medio de grabación de la reivindicación 3, en el que la información de paleta definida en el segmento de estilo de diálogo comprende además una identificación (ID) de entrada de paleta que identifica la entrada de paleta.
6. El medio de grabación de la reivindicación 1, en el que cuando la bandera de actualización de paleta indica el uso de la nueva información de paleta, la al menos una región de texto de diálogo y el estilo de región seleccionados, vinculados a cada región de texto de diálogo, permanecen constantes desde una presentación de diálogo inmediatamente anterior, excepto la información de paleta.
7. El medio de grabación de la reivindicación 1, en el que la bandera de actualización de paleta se fija en "1b" para indicar el uso de la nueva información de paleta.
8. El medio de grabación de la reivindicación 1, en el que cuando la bandera de actualización de paleta indica el uso de la nueva información de paleta, un tiempo de presentación de cada segmento de presentación de diálogo es mayor o igual que un tiempo requerido para reproducir al menos dos fotogramas o cuadros de vídeo.
9. Un método para reproducir un flujo de subtítulos de texto grabado en un medio de grabación, comprendiendo el método leer el flujo de subtítulos de texto del medio de grabación y presentar el flujo de subtítulos de texto,
caracterizado porque
el método comprende leer un segmento de estilo de diálogo (DSS) incluido en el flujo de subtítulos de texto, definiendo el segmento de estilo de diálogo un grupo de estilos de región e información de paleta que incluye información de color y de opacidad;
leer cada uno de una pluralidad de segmentos de presentación de diálogo (DPS) incluidos en e flujo de subtítulos de texto, conteniendo cada segmento de presentación de diálogo al menos una región de texto de diálogo y estando cada región de texto de diálogo vinculada a uno seleccionado del grupo de estilos de región;
leer una bandera de actualización de paleta incluida en cada segmento de presentación de diálogo, indicando la bandera de actualización de paleta si se usa la información de paleta definida en el segmento de estilo de diálogo o se usa una nueva información de paleta cuando se reproduce cada segmento de presentación de diálogo; y
presentar cada segmento de presentación de diálogo de acuerdo con la indicación de la bandera de actualización de paleta.
\vskip1.000000\baselineskip
10. El método de la reivindicación 9, en el que la bandera de actualización de paleta se fija en "1b" para indicar el uso de la nueva información de paleta, estando la nueva información de paleta incluida en cada segmento de presentación de diálogo.
11. El método de la reivindicación 9, que comprende además precargar el flujo de subtítulos de texto en una memoria temporal (41).
12. Un aparato para reproducir un flujo de subtítulos de texto grabado en un medio de grabación, incluyendo el aparato un descodificador (40) para descodificar el flujo de subtítulos de texto
caracterizado porque
el aparato comprende una memoria temporal (41) configurada para precargar el flujo de subtítulos de texto, incluyendo el flujo de subtítulos de texto un segmento de estilo de diálogo (DSS) y una pluralidad de segmentos de presentación de diálogo(DPS), definiendo el segmento de estilo de diálogo un grupo de estilos de región e información de paleta que incluye información de color e información de opacidad y conteniendo cada segmento de presentación de diálogo al menos una región de texto de diálogo, estando cada región de texto de diálogo vinculada a uno seleccionado del grupo de estilos de región; y porque
el descodificador (40) está configurado para leer una andera de actualización de paleta incluida en cada segmento de presentación de diálogo, indicando la bandera de actualización de paleta si usar la información de paleta definida en el segmento de estilo de diálogo o usar la nueva información de paleta, presentando el descodificador (40) cada segmento de presentación de diálogo de acuerdo con la indicación de la bandera de actualización de paleta.
\vskip1.000000\baselineskip
13. El aparato de la reivindicación 12, en el que el descodificador (40) está configurado para usar la nueva información de paleta en el caso de que el descodificador (40) lea una bandera de actualización de paleta de "1b", estando la nueva información de paleta incluida en cada segmento de presentación de diálogo.
14. El aparato de la reivindicación 12, en el que el descodificador (40) está configurado para usar información de paleta, comprendiendo la información de paleta definida en el segmento de estilo de diálogo valores de color y de opacidad para una entrada de paleta.
15. Un método de grabar una estructura de datos para gestionar subtítulos de texto desde un medio de grabación, caracterizado porque el método comprende
generar el flujo de subtítulos de texto, incluyendo el flujo de subtítulos de texto un segmento de estilo de diálogo (DSS) que define un grupo de estilos de región y una pluralidad de segmento de presentación de diálogo (DPS), conteniendo cada segmento de presentación de diálogo al menos una región de texto de diálogo y estando cada región de texto de diálogo vinculada a uno seleccionado del grupo de estilos de región, en el que el segmento de estilo de diálogo define además información de paleta que incluye información de color y de opacidad, y conteniendo además cada segmento de presentación de diálogo una bandera de actualización de paleta que indica si se usa la información de paleta definida en el segmento de estilo de diálogo o se usa una nueva información de paleta cuando se reproduce cada segmento de presentación de diálogo; y
almacenar el al menos un flujo de subtítulos de texto en un dispositivo de almacenamiento.
\vskip1.000000\baselineskip
16. El método de la reivindicación 15, en el que la bandera de actualización de paleta indica si se usa la información de paleta definida en el segmento de estilo de diálogo o se usa una nueva información de paleta cuando se reproduce cada segmento de presentación de diálogo.
17. El método de la reivindicación 15, en el que cuando la bandera de actualización de paleta indica el uso de de la nueva información de paleta, se define la nueva información de paleta en cada segmento de presentación de diálogo.
18. El método de la reivindicación 15, en el que la información de paleta definida en el segmento de estilo de diálogo comprende valores de color y de opacidad para una entrada de paleta.
19. Un aparato para grabar flujos de subtítulos de texto en el medio de grabación, en el que el aparato comprende una unidad de grabación óptica y un controlador, caracterizado porque
el controlador está configurado para generar al menos un flujo de subtítulos de texto y está acoplado funcionalmente a la unidad de grabación óptica, incluyendo cada flujo de subtítulos de texto un segmento de estilo de diálogo (DSS) que define un grupo de estilos de región y una pluralidad de segmentos de presentación estilo de diálogo (DPS), conteniendo cada segmento de presentación de diálogo al menos una región de texto de diálogo y estando cada región de texto de diálogo vinculada a uno seleccionado del grupo de estilos de región, en el que el segmento de estilo de diálogo define además información de paleta que incluye información de color y de opacidad, y conteniendo además cada segmento de presentación de diálogo una bandera de actualización de paleta que indica si se usa la información de paleta definida en el segmento de estilo de diálogo o se usa la nueva información de paleta cuando se reproduce cada segmento de presentación de diálogo.
\vskip1.000000\baselineskip
20. El aparato de la reivindicación 19, en el que el controlador está configurado para controlar la unidad de grabación óptica para grabar la nueva información de paleta, estando la nueva información de paleta definida en cada segmento de presentación de diálogo.
21. El aparato de la reivindicación 19, en el que el controlador está configurado para controlar la unidad de grabación óptica para grabar la bandera de actualización de paleta, indicando la bandera de actualización de paleta si se usa la información de paleta definida en el segmento de estilo de diálogo o se usa nueva información de paleta cuando se reproduce cada segmento de presentación de diálogo.
22. El aparato de la reivindicación 19, en el que el controlador está configurado para controlar la unidad de grabación óptica para grabar la información de paleta, comprendiendo la información de paleta definida en el segmento de estilo de diálogo valores de color y de opacidad para una entrada de paleta.
ES05721893T 2004-03-26 2005-03-03 Medio de grabacion o registro y metodo y aparato para reproducir un flujo o corriente de subtitulos de texto grabados en el medio de grabacion. Active ES2336223T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2004-0020890 2004-03-26
KR20040020890 2004-03-26

Publications (1)

Publication Number Publication Date
ES2336223T3 true ES2336223T3 (es) 2010-04-09

Family

ID=34989929

Family Applications (2)

Application Number Title Priority Date Filing Date
ES05721893T Active ES2336223T3 (es) 2004-03-26 2005-03-03 Medio de grabacion o registro y metodo y aparato para reproducir un flujo o corriente de subtitulos de texto grabados en el medio de grabacion.
ES05721968T Active ES2350940T3 (es) 2004-03-26 2005-03-22 Medio de grabación, método y aparato para reproducir flujos de subtítulos de texto.

Family Applications After (1)

Application Number Title Priority Date Filing Date
ES05721968T Active ES2350940T3 (es) 2004-03-26 2005-03-22 Medio de grabación, método y aparato para reproducir flujos de subtítulos de texto.

Country Status (12)

Country Link
US (3) US7756398B2 (es)
EP (1) EP1730730B1 (es)
JP (1) JP4599396B2 (es)
KR (1) KR101067778B1 (es)
CN (6) CN101241744B (es)
AT (1) ATE450041T1 (es)
BR (1) BRPI0509270A (es)
DE (1) DE602005017878D1 (es)
ES (2) ES2336223T3 (es)
IN (1) IN266747B (es)
RU (1) RU2376659C2 (es)
WO (1) WO2005091722A2 (es)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100727921B1 (ko) * 2004-02-28 2007-06-13 삼성전자주식회사 텍스트 기반의 서브타이틀 스트림을 기록한 저장 매체,재생 장치 및 그 재생 방법
US7529467B2 (en) * 2004-02-28 2009-05-05 Samsung Electronics Co., Ltd. Storage medium recording text-based subtitle stream, reproducing apparatus and reproducing method for reproducing text-based subtitle stream recorded on the storage medium
BRPI0509270A (pt) * 2004-03-26 2007-09-04 Lg Electronics Inc meio de gravação, método e aparelho para reproduzir fluxo de subtìtulo de texto
RU2378722C2 (ru) 2004-03-26 2010-01-10 ЭлДжи ЭЛЕКТРОНИКС ИНК. Носитель записи, способ и устройство для воспроизведения потоков текстовых субтитров
CA2602713C (en) * 2005-04-07 2014-05-13 Matsushita Electric Industrial Co., Ltd. Recording medium, reproducing device, recording method, and reproducing method
KR101070748B1 (ko) * 2005-05-19 2011-10-10 엘지전자 주식회사 휴대형 재생장치의 파일정보 제공방법
KR101375067B1 (ko) * 2005-08-09 2014-03-17 파나소닉 주식회사 기록매체, 재생장치, 재생방법, 프로그램
TWM304101U (en) * 2006-06-14 2007-01-01 Wei-Jing Yang DVD player capable of showing multi-national captions
US20090089677A1 (en) * 2007-10-02 2009-04-02 Chan Weng Chong Peekay Systems and methods for enhanced textual presentation in video content presentation on portable devices
CN101494075B (zh) * 2008-01-25 2012-05-23 中国电子科技集团公司第三研究所 一种显示菜单相关信息的方法
WO2009101819A1 (ja) * 2008-02-14 2009-08-20 Panasonic Corporation 再生装置、集積回路、再生方法、プログラム、コンピュータ読取可能な記録媒体
US20100091188A1 (en) * 2008-07-11 2010-04-15 Stmicroelectronics Pvt. Ltd. Synchronization of secondary decoded media streams with a primary media stream
CN101764955B (zh) * 2008-11-28 2013-05-01 新奥特(北京)视频技术有限公司 一种快速录入字幕的方法
US9160960B2 (en) 2010-12-02 2015-10-13 Microsoft Technology Licensing, Llc Video preview based browsing user interface
US10362333B2 (en) * 2014-01-02 2019-07-23 Qualcomm Incorporated Color index coding for palette-based video coding
KR102470831B1 (ko) * 2014-10-01 2022-11-28 주식회사 케이티 비디오 신호 처리 방법 및 장치
CN113660536A (zh) * 2021-09-28 2021-11-16 北京七维视觉科技有限公司 一种字幕显示方法和装置

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0519686A (ja) * 1991-07-17 1993-01-29 Pioneer Electron Corp ナビゲーシヨン装置
US5258747A (en) * 1991-09-30 1993-11-02 Hitachi, Ltd. Color image displaying system and method thereof
JPH05137103A (ja) * 1991-11-15 1993-06-01 Hitachi Ltd プレゼンテーシヨン装置
DK0714582T3 (da) 1993-08-20 1999-05-31 Thomson Consumer Electronics Lukket billedtekstsystem til anvendelse i forbindelse med komprimeret digital videotransmission
US5684542A (en) * 1993-12-21 1997-11-04 Sony Corporation Video subtitle processing system
JPH07203396A (ja) * 1993-12-28 1995-08-04 Sony Corp 字幕データ復号化装置
JP3644455B2 (ja) 1994-09-29 2005-04-27 ソニー株式会社 番組情報放送方式、番組情報表示方法および受信装置
WO1996019077A1 (en) * 1994-12-14 1996-06-20 Philips Electronics N.V. Subtitling transmission system
US5721720A (en) * 1994-12-28 1998-02-24 Kabushiki Kaisha Toshiba Optical recording medium recording pixel data as a compressed unit data block
KR0136025B1 (ko) * 1994-12-30 1998-05-15 배순훈 캡션기능을 갖춘 비디오 디스크와 그 재생장치(video compact disc with caption data recorded thereon and system for handling the same)
CA2168327C (en) * 1995-01-30 2000-04-11 Shinichi Kikuchi A recording medium on which a data containing navigation data is recorded, a method and apparatus for reproducing a data according to navigationdata, a method and apparatus for recording a data containing navigation data on a recording medium.
JPH08241068A (ja) * 1995-03-03 1996-09-17 Matsushita Electric Ind Co Ltd 情報記録媒体およびビットマップデータ復号化装置とビットマップデータ復号化方法
US5945982A (en) * 1995-05-30 1999-08-31 Minolta Co., Ltd. Data administration apparatus that can search for desired image data using maps
JP3326670B2 (ja) * 1995-08-02 2002-09-24 ソニー株式会社 データ符号化/復号化方法および装置、および符号化データ記録媒体
JPH09102940A (ja) 1995-08-02 1997-04-15 Sony Corp 動画像信号の符号化方法、符号化装置、復号化装置、記録媒体及び伝送方法
JP3348339B2 (ja) * 1995-08-02 2002-11-20 ソニー株式会社 データ記録方法及び装置、データ再生方法及び装置
EP0765082A3 (en) 1995-09-25 1999-04-07 Sony Corporation Subtitle signal encoding/decoding
TW385431B (en) * 1995-09-29 2000-03-21 Matsushita Electric Ind Co Ltd A method and an apparatus for encoding a bitstream with plural possible searching reproduction paths information useful in multimedia optical disk
KR100203264B1 (ko) * 1996-06-29 1999-06-15 윤종용 디지탈비디오디스크 시스템의 부영상 복호방법 및그장치
JPH1118108A (ja) * 1997-06-25 1999-01-22 Sony Corp 映像信号処理装置及び映像信号処理方法
JPH11252459A (ja) * 1998-02-26 1999-09-17 Toshiba Corp 画像合成装置
EP1365385B1 (en) * 1998-11-09 2012-06-13 Broadcom Corporation Graphics display system with processing of graphics layers, alpha blending and composition with video data
JP3783467B2 (ja) 1999-03-31 2006-06-07 ブラザー工業株式会社 情報作成装置及び方法、情報作成プログラムが記録された情報記録媒体、情報出力装置並びに情報記録装置
JP3805929B2 (ja) * 1999-07-05 2006-08-09 パイオニア株式会社 情報記録装置及び情報記録方法
JP3695277B2 (ja) * 2000-03-30 2005-09-14 ヤマハ株式会社 表示制御装置
DE10041574A1 (de) 2000-08-24 2002-03-07 Merck Patent Gmbh Chromenonderivate
US7050109B2 (en) * 2001-03-02 2006-05-23 General Instrument Corporation Methods and apparatus for the provision of user selected advanced close captions
US20020133521A1 (en) * 2001-03-15 2002-09-19 Campbell Gregory A. System and method for text delivery
US20030227565A1 (en) * 2001-06-01 2003-12-11 Hamilton Thomas Herman Auxiliary information processing system with a bitmapped on-screen display using limited computing resources
JP4409150B2 (ja) 2001-06-11 2010-02-03 三星電子株式会社 多国語マークアップ文書支援情報が記録された情報貯蔵媒体、その再生装置及び再生方法
KR100457512B1 (ko) 2001-11-29 2004-11-17 삼성전자주식회사 광 기록 매체, 광 기록 매체 재생 장치 및 방법
KR20030061953A (ko) * 2002-01-14 2003-07-23 엘지전자 주식회사 광기록 매체의 재생시 자막 가림 방법
KR20030065332A (ko) * 2002-01-31 2003-08-06 톰슨 라이센싱 소시에떼 아노님 비디오 시스템에서 보조 정보를 처리하기 위한 방법
KR100456024B1 (ko) * 2002-02-28 2004-11-08 한국전자통신연구원 디브이디 플레이어의 자막정보 재생 장치 및 방법
KR100521914B1 (ko) 2002-04-24 2005-10-13 엘지전자 주식회사 재생리스트 요약정보 관리방법
WO2004003907A1 (en) 2002-06-28 2004-01-08 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple playback path video data recorded thereon and recording and reproducing methods and apparatuses
EP1394690A1 (en) 2002-08-29 2004-03-03 Sun Microsystems, Inc. Behaviour of anchored frames
KR100607949B1 (ko) 2002-09-11 2006-08-03 삼성전자주식회사 계층화된 정보 구조를 이용한 멀티미디어 데이터 기록장치, 재생 장치 및 그 정보저장매체
KR20040024113A (ko) 2002-09-13 2004-03-20 엘지전자 주식회사 디지털 다기능 디스크 장치에서의 재생 제어방법
WO2004032111A1 (en) * 2002-10-04 2004-04-15 Matsushita Electric Industrial Co. Ltd. Visual contents in karaoke applications
US20040071453A1 (en) * 2002-10-08 2004-04-15 Valderas Harold M. Method and system for producing interactive DVD video slides
US20040081434A1 (en) * 2002-10-15 2004-04-29 Samsung Electronics Co., Ltd. Information storage medium containing subtitle data for multiple languages using text data and downloadable fonts and apparatus therefor
US7852411B2 (en) * 2002-11-15 2010-12-14 Thomson Licensing Method and apparatus for composition of subtitles
CN100466713C (zh) * 2002-11-28 2009-03-04 索尼株式会社 再现装置和再现方法
KR100940022B1 (ko) 2003-03-17 2010-02-04 엘지전자 주식회사 오디오 데이터의 텍스트 변환 및 디스플레이 방법
KR20050001850A (ko) 2003-06-26 2005-01-07 엘지전자 주식회사 국가 코드를 이용한 데이터 선별 재생방법
DE602004030059D1 (de) * 2003-06-30 2010-12-23 Panasonic Corp Aufzeichnungsmedium, Wiedergabegerät, Programm und Wiedergabeverfahren
EP2259583B1 (en) 2003-07-03 2012-05-30 Panasonic Corporation Reproduction apparatus, reproduction method, recording medium, recording apparatus and recording method.
KR100882076B1 (ko) * 2003-07-11 2009-02-10 파나소닉 주식회사 디스플레이 세트의 병렬처리를 수행할 수 있는 재생장치, 기록매체, 기록방법, 재생방법, 및 컴퓨터 판독가능한 기록매체
KR100739682B1 (ko) * 2003-10-04 2007-07-13 삼성전자주식회사 텍스트 기반의 서브 타이틀 정보를 기록한 정보저장매체,그 처리장치 및 방법
KR100619053B1 (ko) 2003-11-10 2006-08-31 삼성전자주식회사 서브 타이틀을 기록한 정보저장매체 및 그 처리장치
US7519274B2 (en) * 2003-12-08 2009-04-14 Divx, Inc. File format for multiple track digital data
JP2007522596A (ja) 2004-02-10 2007-08-09 エルジー エレクトロニクス インコーポレーテッド 記録媒体及びテキスト・サブタイトル・ストリームのデコード方法と装置
WO2005076601A1 (en) * 2004-02-10 2005-08-18 Lg Electronic Inc. Text subtitle decoder and method for decoding text subtitle streams
KR100727921B1 (ko) * 2004-02-28 2007-06-13 삼성전자주식회사 텍스트 기반의 서브타이틀 스트림을 기록한 저장 매체,재생 장치 및 그 재생 방법
US7529467B2 (en) * 2004-02-28 2009-05-05 Samsung Electronics Co., Ltd. Storage medium recording text-based subtitle stream, reproducing apparatus and reproducing method for reproducing text-based subtitle stream recorded on the storage medium
WO2005088635A1 (en) 2004-03-18 2005-09-22 Lg Electronics Inc. Recording medium and method and apparatus for reproducing text subtitle stream recorded on the recording medium
BRPI0509270A (pt) * 2004-03-26 2007-09-04 Lg Electronics Inc meio de gravação, método e aparelho para reproduzir fluxo de subtìtulo de texto
RU2378722C2 (ru) 2004-03-26 2010-01-10 ЭлДжи ЭЛЕКТРОНИКС ИНК. Носитель записи, способ и устройство для воспроизведения потоков текстовых субтитров
JP5137103B2 (ja) 2007-03-16 2013-02-06 独立行政法人情報通信研究機構 電波イメージング方法及び装置

Also Published As

Publication number Publication date
KR101067778B1 (ko) 2011-09-28
CN1934624B (zh) 2011-10-05
EP1730730A2 (en) 2006-12-13
US20070201831A1 (en) 2007-08-30
CN101114499B (zh) 2011-08-03
CN1934638A (zh) 2007-03-21
WO2005091722A3 (en) 2005-11-17
KR20070007845A (ko) 2007-01-16
JP2007531192A (ja) 2007-11-01
CN101114499A (zh) 2008-01-30
US8380044B2 (en) 2013-02-19
JP4599396B2 (ja) 2010-12-15
BRPI0509270A (pt) 2007-09-04
US20070140659A1 (en) 2007-06-21
CN1934638B (zh) 2011-12-28
CN101197172A (zh) 2008-06-11
CN1934624A (zh) 2007-03-21
IN266747B (es) 2015-05-29
CN101241744B (zh) 2012-09-12
US7756398B2 (en) 2010-07-13
RU2006137720A (ru) 2008-05-10
WO2005091722A2 (en) 2005-10-06
RU2376659C2 (ru) 2009-12-20
CN101127922B (zh) 2012-06-13
DE602005017878D1 (de) 2010-01-07
CN101197172B (zh) 2011-04-13
US20050213944A1 (en) 2005-09-29
CN101241744A (zh) 2008-08-13
ES2350940T3 (es) 2011-01-28
CN101127922A (zh) 2008-02-20
EP1730730B1 (en) 2009-11-25
ATE450041T1 (de) 2009-12-15
US8374486B2 (en) 2013-02-12

Similar Documents

Publication Publication Date Title
ES2336223T3 (es) Medio de grabacion o registro y metodo y aparato para reproducir un flujo o corriente de subtitulos de texto grabados en el medio de grabacion.
US8498515B2 (en) Recording medium and recording and reproducing method and apparatuses
US7587405B2 (en) Recording medium and method and apparatus for decoding text subtitle streams
US7848617B2 (en) Recording medium, method, and apparatus for reproducing text subtitle streams
US20070127885A1 (en) Recording medium and method and apparatus for reproducing and recording text subtitle streams
ES2338019T3 (es) Medio de grabacion y metodo y aparato para reproducir un flujo o corriente de subtitulos de texto grabados en el medio de grabacion.
KR20060136441A (ko) 기록매체, 기록매체의 텍스트 서브타이틀 스트림 기록 및재생 방법과 장치
ES2351033T3 (es) Médio de grabación y método y aparato para reproducir y grabar flujos de subtítulos de texto.
WO2005076276A1 (en) Recording medium having a data structure for managing text subtitles and recording and reproducing methods and apparatuses
RU2380768C2 (ru) Носитель записи, способ и устройство для декодирования потоков текстовых субтитров
KR20070032289A (ko) 기록매체 및 텍스트 서브타이틀 스트림 디코딩 방법과 장치