ES2350940T3 - Medio de grabación, método y aparato para reproducir flujos de subtítulos de texto. - Google Patents

Medio de grabación, método y aparato para reproducir flujos de subtítulos de texto. Download PDF

Info

Publication number
ES2350940T3
ES2350940T3 ES05721968T ES05721968T ES2350940T3 ES 2350940 T3 ES2350940 T3 ES 2350940T3 ES 05721968 T ES05721968 T ES 05721968T ES 05721968 T ES05721968 T ES 05721968T ES 2350940 T3 ES2350940 T3 ES 2350940T3
Authority
ES
Spain
Prior art keywords
presentation
dialogue
segment
text
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES05721968T
Other languages
English (en)
Inventor
Kang Soo 107-704 Sibeomdanji Samsung Apt. SEO
Jea Yong 205-808 Ssangyong APT. YOO
Byung Jin 111-204 Chonggu APT. KIM
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=34989929&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2350940(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Application granted granted Critical
Publication of ES2350940T3 publication Critical patent/ES2350940T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B7/00Recording or reproducing by optical means, e.g. recording using a thermal beam of optical radiation by modifying optical properties or the physical structure, reproducing using an optical beam at lower power by sensing optical properties; Record carriers therefor
    • G11B7/007Arrangement of the information on the record carrier, e.g. form of tracks, actual track shape, e.g. wobbled, or cross-section, e.g. v-shaped; Sequential information structures, e.g. sectoring or header formats within a track
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42646Internal components of the client ; Characteristics thereof for reading from or writing on a non-volatile solid state storage medium, e.g. DVD, CD-ROM
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43074Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of additional data with content streams on the same device, e.g. of EPG data or interactive icon with a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44004Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8233Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a character code signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • H04N9/8715Regeneration of colour television signals involving the mixing of the reproduced video signal with a non-recorded signal, e.g. a text signal

Abstract

Un medio de grabación o soporte de registro para reproducir un flujo de subtítulos de texto, comprendiendo el medio de grabación al menos un flujo de subtítulos de texto, incluyendo el flujo de subtítulos de texto un segmento de estilo de diálogo y al menos un segmento de presentación de diálogo, definiendo el segmento de estilo de diálogo un grupo de estilos de región, caracterizado porque el segmento de presentación de diálogo contiene al menos una región de texto de diálogo, representando la región de texto de diálogo al menos una porción del texto de diálogo presentada visualmente en una pantalla de presentación, estando el segmento de presentación de diálogo vinculado a uno del grupo de estilos de región que son aplicados a la región de texto de dialogo, en el que un segmento actual de presentación de dialogo contiene una bandera de presentación continua que indica si se requiere presentación continua entre el segmento actual de presentación de diálogo y el segmento previo de presentación de diálogo, en el que si el segmento de presentación incluye más de una región de texto de dialogo, las regiones de texto de diálogo están vinculadas a los estilos de región que especifican un mismo flujo de texto, en el que si son presentados continuamente más de un segmento de presentación de diálogo, los segmentos de presentación de diálogo se agrupan como conjunto de presentación continua, en el que el segmento de presentación de diálogo incluye un campo que representa un interrupción o rotura de línea que indica la necesidad de cambiar la línea de datos.

Description

Campo técnico
La presente invención se refiere a un medio de grabación soporte de registro y, más particularmente, a un medio de grabación y a un método y un aparato para grabar
o reproducir un flujo o corriente de subtítulos de texto. Aunque la presente invención es apropiada para un amplio campo de aplicaciones, es particularmente apropiada para grabar el archivo del flujo de subtítulos del texto dentro del medio de grabación y reproducir eficazmente el flujo de subtítulos de texto grabados.
Antecedentes de la técnica
Se utilizan ampliamente discos ópticos como un medio de grabación óptico para grabar datos en serie o en masa. Actualmente, entre una amplia gama de discos ópticos, está en desarrollo un nuevo medio de grabación óptico de alta densidad (al que se hace referencia a continuación como “HD-DVD”), tal como un disco Blu-ray (al que se hace referencia en lo que sigue como “BD”), para escribir y almacenar datos de vídeo y audio de alta definición. Actualmente, están bajo establecimiento especificaciones técnicas de normas globales del Disco Blu-ray (BD), que se sabe que es la tecnología de próxima generación, como una solución de grabación óptica de siguiente generación que es capaz de tener unos datos que superen significativamente el DVD convencional, junto con muchos otros aparatos digitales.
Por lo tanto, están siendo desarrollados también aparatos de reproducción óptica que tienen normas del Disco Blu-ray (BD) aplicadas a los mismos. Sin embargo, puesto que las normas del Disco Blu-ray (BD) tienen que ser completadas todavía, se han presentado muchas dificultades en el desarrollo de un aparato de reproducción óptica completo. Particularmente, con el fin de reproducir eficazmente los datos del Disco Blu-ray (BD), no sólo han de ser proporcionados los datos de AV principales, así como diversos datos requeridos para una conveniencia del usuario, tales como información de subtítulo como los datos suplementarios relacionados con los datos de AV principales, sino que también se ha de sistematizar y proporcionar información de gestión para reproducir los datos principales y los datos de subtítulo grabados en el disco óptico.
Sin embargo, en las presentes normas de Blu-ray Disc (BD), puesto que no se han consolidado completamente las normas de los datos suplementarios, particularmente el archivo de flujo de subtítulos, existen muchas restricciones en el desarrollo a plena escala de un aparato de reproducción óptica basado en el Blu-ray Disc. Y tales restricciones causan problemas al proporcionar los datos suplementarios, tales como subtítulos, al usuario.
El documente US-A-5 999 225 (véase el preámbulo de las reivindicaciones independientes) sugiere un método y un aparato para codificar señales de manera que se forme una señal multiplex y para descodificar la misma. Este documento constituye el preámbulo de las reivindicaciones independientes.
El documento WO 2005/074400 (documento bajo el Art. 54(3) EPC) expone que cuando un diálogo tiene más de una región, se aplica el mismo flujo de texto a todas las regiones con el fin de evitar confusión a los espectadores.
El documento WO 2005/088635 (documento bajo el Art. 54(3) EPC) expone que se agrupan una pluralidad de segmentos de presentación de diálogo como conjunto de presentación continua.
Descripción de la invención
Por lo tanto, la presente invención está dirigida a un medio de grabación y a un método y un aparato para grabar o reproducir flujos de subtítulos de texto, que evitan esencialmente uno o más problemas debidos a limitaciones y desventajas de la técnica relacionada.
Un objeto de la presente invención consiste en proporcionar un método y un aparato para reproducir un flujo de subtítulos de texto que pueda grabar reproducir un archivo de flujo de subtítulos de texto dentro de un medio de grabación, tal como un disco blu-ray (BD).
Para conseguir este objeto, la invención proporciona un medio de grabación para reproducir un flujo de subtítulos de texto según se define en la reivindicación 1.
En otro aspecto de la presente invención, un método para reproducir un flujo de subtítulos de texto se define en la reivindicación 15.
En un aspecto más de la presente invención, un aparato para reproducir un flujo de subtítulos de texto se define en la reivindicación 18.
Todavía en otro aspecto, un método para grabar un flujo de subtítulos de texto de acuerdo con la invención se define en la reivindicación 19.
Un aparato para grabar un flujo de subtítulos de texto se define en la reivindicación 21.
Se ha de entender que tanto la descripción general precedente como la siguiente descripción detallada de la presente invención son ejemplares y explicativas y están destinadas a proporcionar explicación adicional de la invención reivindicada.
Breve descripción de los dibujos
Los dibujos que se acompañan, que se incluyen para proporcionar en entendimiento adicional de la invención y se incorporan y constituyen una parte de esta solicitud, ilustran realizaciones de la invención y, juntamente con la descripción, sirven para explicar el principio de la invención. En los dibujos:
La figura 1 ilustra una estructura de los archivos de datos grabados en un disco óptico de acuerdo con la presente invención; La figura 2 ilustra zonas de almacenamiento de datos del disco óptico de acuerdo con la presente invención; La figura 3 ilustra un subtítulo de texto y una imagen principal mostrados en una pantalla de presentación de acuerdo con la presente invención; La figura 4 ilustra un diagrama esquemático que ilustra el control de reproducción de un flujo de subtítulos de texto de acuerdo con la presente invención; Las figuras 5A a 5C ilustran aplicaciones de la información de control de reproducción para reproducir el flujo de subtítulos de texto de acuerdo con la presente invención; La figura 6 ilustra la estructura de un archivo de flujo de subtítulos de texto de acuerdo con la presente invención; La figura 7 ilustra un ejemplo del método para escribir la información de control de reproducción dentro del flujo de subtítulos de texto de acuerdo con la presente invención; Las figuras 8A a 8C ilustran ejemplos de presentación discontinua o presentación continua del flujo de subtítulos de texto de la presente invención; La figura 9 ilustra una sintaxis del archivo de flujo de subtítulos de texto de acuerdo con la presente invención; Las figuras 10A a 10C ilustran una estructura detallada de un segmento_estilo_diálogo( ), que representa un segmento de estilo de diálogo Las figuras 12A y 12B ilustran un aparato de grabación y/o reproducción óptica que incluye una reproducción del archivo de flujo de subtítulos de texto de la presente invención,
(DSS) de acuerdo con la presente invención;
Las
figuras 11A y 11B ilustran una estructura detallada de un
segmento_presentación_diálogo(
), que representa un segmento de
presentación de diálogo (DPS) de acuerdo con la presente invención;
Mejor modo de realizar la invención
Se hará referencia ahora en detalle a las realizaciones preferidas de la presente invención, ejemplo de las cuales se ilustran en los dibujos que se acompañan. Siempre que sea posible, se utilizarán los mismos números de referencia en todos los dibujos para señalar las mismas o similares partes. Además, aunque los términos usados en la presente invención son seleccionados a partir de términos generalmente conocidos y usados, algunos de los términos mencionados en la descripción de la presente invención han sido seleccionados por el solicitante a su discreción, los significados detallados de los cuales se describen en partes pertinentes de la presente descripción. Además, se requiere que la presente invención sea entendida, no simplemente por los términos reales utilizados, sino por el significado de cada término contenido en ella.
En esta descripción detallada, “medio de grabación” se refiere a todos los tipos de medios o soportes en que se puedan grabar datos e incluye en sentido amplio todos los tipos de medios independientemente del método de grabación, tales como un disco óptico, una cinta magnética, etc. A continuación, para simplificar la descripción de la presente invención, se dan el disco óptico y, más concretamente, el “disco Blu-ray (BD)” como un ejemplo del medio de grabación propuesto en este documento.
En esta descripción detallada, “datos principales” representan datos de audio/vídeo (AV) que pertenezcan a un título (por ejemplo, un título de película) grabado en un disco óptico por un autor. En general, los datos de AV se graban en formato de MPEG2 y se denominan con frecuencia flujos o corrientes de AV o flujos principales de AV. Además, “datos suplementarios” representan todos los otros datos requeridos para reproducir los datos principales, ejemplos de los cuales son flujos de subtítulos de texto, flujos de gráficos interactivos, flujos de gráficos de presentación y flujos de audio suplementarios (por ejemplo, para una exposición de diapositivas que se puede ojear). Estos flujos de datos suplementarios pueden ser grabados en formato de MPEG2 o en cualquier otro formato de datos. Se pueden multiplexar con los flujos de AV o pueden existir como archivos de datos independientes dentro del disco óptico.
Un “subtítulo” representa información de leyenda correspondiente a datos de vídeo (imagen) que estén siendo reproducidos, y se puede representar en un lenguaje predeterminado. Por ejemplo, cuando un usuario selecciona una opción para ver uno de una pluralidad de subtítulos representados en varios lenguajes mientras se contemplan imágenes en una pantalla de presentación, la información de leyenda correspondiente al subtítulo seleccionado es presentada visualmente en una parte predeterminada de la pantalla de presentación. Si la información de leyenda presentada son datos de texto (por ejemplo, caracteres), el subtítulo seleccionado es con frecuencia denominado “subtítulo de texto”. En la presente invención, un “formato de MPGE-2” se refiere a un método de codificación y descodificación de acuerdo con una norma internacional establecida en la norma ISO/IEC 13818. De acuerdo con un aspecto de la presente invención, una pluralidad de flujos de subtítulos de texto en formado de MPEG2 se pueden grabar en un disco óptico, y pueden existir como una pluralidad de archivos de flujo independientes. Cada “archivo de flujo de subtítulos de texto” es creado y grabado dentro de un disco óptico. Y la finalidad de la presente invención es proporcionar un método y un aparato para reproducir el archivo de subtítulos de texto grabado.
La figura 1 ilustra una estructura de archivo de los archivos de datos grabados en un disco Blu-ray (al que se hace referencia en lo que sigue como “BD”) de acuerdo con la presente invención. Haciendo referencia a la figura 1, se incluye al menos un directorio de BD (BDMV) en un directoria raíz (raíz). Cada directorio de BD incluye un archivo de índice (index.bdmv) y un archivo de objetos (MovieObjet.bdmv), que se usan para interactuar con uno o más usuarios. Por ejemplo, el archivo de índice puede contener datos que representen una tabla de índices que tenga una pluralidad de menús seleccionable y títulos de películas. Cada directorio de BD incluye además cuatro directorios de archivo que incluyan datos de audio/vídeo (AV) que se han de reproducir y varios datos requeridos para la reproducción de los datos de AV.
Los directorios de archivo incluidos en cada directorio de BD son un directorio de flujo (FLUJO), in directorio de información de clip o secuencia (CLIPINF), un directorio de lista discográfica (PLAYLIST) y un directorio de datos auxiliares (AUX DATA). Ante todo, el directorio de flujo (FLUJO) incluye archivos de flujo de audio/vídeo (AV) que tienen un formato de datos particular. Por ejemplo, los archivos de flujo de AV pueden ser de la forma de paquetes de transporte de MPEG2 y ser denominados como “*.m2ts”, como se muestra en la figura 1. El directorio de flujo puede incluir además uno o más archivos de flujo de subtítulos de texto, donde cada archivo de flujo de subtítulos de texto incluye datos de texto (pos ejemplo, caracteres) para un subtítulo de texto representado en un lenguaje particular e información de control de reproducción de los datos de texto. Los archivos de flujo de subtítulos de texto existen como archivos de flujo independientes dentro del directorio de flujo y se pueden denominar como “*m2ts” ó “*.txtst”, como se muestra en la figura 1. Un archivo de flujo de AV o archivo de flujo de subtítulos de texto incluido en el directorio de flujo se denomina con frecuencia un archivo de flujo de clip o secuencia.
A continuación, el directorio de información de secuencia (CLIPINF) incluye archivos de información de secuencia que corresponden a los archivos de flujo (subtítulo de AV o de texto) incluidos en el directorio de flujo, respectivamente. Cada archivo de información de secuencia contiene información de temporización de propiedad y reproducción de un archivo de flujo correspondiente. Por ejemplo, un archivo de información de secuencia puede incluir información de mapeado, en la que estampillas de tiempo de presentación (PTS: Presentation time stamps) y número de paquetes fuente (SPN: Source packet numbers) están en correspondencia de uno-auno y son mapeados por un mapa de puntos de entrada (EPM: Entry point map), dependiendo del tipo de secuencia. Usando la información de mapeado, se puede determinar una posición particular de un archivo de flujo a partir de un conjunto de información de temporización (En-Tiempo y Fuera de Tiempo) proporcionada por un PlayItem o SubPlayItem, que se describirán posteriormente con más detalle. En las normas de la industria, cada par de un archivo de flujo y su correspondiente archivo de información de secuencia se designan como un clip. Por ejemplo, 01000.clpi incluido en CLIPINF incluye información de temporización de propiedad y reproducción de 01000.m2ts incluida en FLUJO, y 01000.clpi y 01000.m2ts forman un clip o secuencia.
Haciendo referencia de nuevo a la figura 1, el directorio Lista Discográfica (PLYLIST) incluye uno o más archivos de PlayList (*.mpls), donde cada archivo de PlayList incluye al menos un PlayItem que designa al menos una secuencia principal de AV y el tiempo de reproducción de la secuencia principal de AV. Más concretamente, un PlayItem contiene designación de información En-Tiempo y Fuera-de Tiempo, que representa tiempos de comienzo y de final de reproducción para una secuencia principal de AV designada por Nombre_Archivo_Información_ Clip dentro del PlayItem. Por lo tanto, un archivo de PlayList representa la información de archivo de reproducción básica, que realiza la reproducción de una combinación de clips deseada mediante una combinación de uno o más PlayItems. Además, el archivo de PlayList puede incluir además un SuPlayItem, que representa la información básica de control de reproducción para un archivo de flujos de subtítulos de texto. Cuando está incluido un SubPlayItem en un archivo de PlayList para reproducir uno o más archivos de flujo de subtítulos de texto, el SubPlayItem es sincronizado con el (los) PlayItem(s). Por otra parte, cuando se usa el SubPlayItem para reproducir una exposición de diapositivas ojeables, aquel puede no estar sincronizado con el (los) PlayItem(s). De acuerdo con la presente invención, la función principal de un SubPlayItem consiste en controlar la reproducción del uno o más archivos de flujo de subtítulos de texto.
Finalmente, el directorio de datos auxiliares (AUX DATA) puede incluir archivos de flujo de datos suplementarios, ejemplos de los cuales son archivos fuente (por ejemplo, aaaaa.font ó aaaaa.otf), archivos de menú pop-up (no mostrados) y archivos de sonido (por ejemplo, Sound.bdmv) para generar sonido de clic. Los archivos de flujo de subtítulos de texto mencionados anteriormente pueden ser incluido en el directorio de datos auxiliares en lugar de en el directorio de flujo.
La figura 2 ilustra zonas de almacenamiento de datos de un disco óptico de acuerdo con la presente invención. Haciendo referencia a la figura 2, el disco óptico incluye una zona de información de sistema de archivos que ocupa la parte más interna del volumen del disco, una zona d flujo que ocupa la parte más externa del volumen del disco y una zona de base de datos ocupada entre la zona de información del sistema de archivos y la zona de flujo. En la zona de información de sistema de archivos, se almacena la información del sistema para gestionar la totalidad de los archivos de datos mostrados en la figura 1. A continuación, se almacenan en a zona de flujo los datos principales y los datos suplementarios (es decir, flujos de AV y uno o más flujos de subtítulos de texto). Los datos principales pueden incluir datos de audio, datos de vídeo y datos de gráficos. Y los datos suplementarios (es decir, el subtítulo de texto) son almacenados independientemente en la zona de flujo sin que sean multiplexados con los datos principales. Los archivos generales, los archivos PlayList y los archivos de información de clip mostrados en la figura 1 se almacenan en la zona de base de datos del volumen del disco. Como se ha explicado anteriormente, los archivos generales incluyen un archivo de índice y un archivo de objetos, y los archivos PlayList y los archivos de información de clip incluyen información requerida para reproducir los flujos de AV y los flujos de subtítulos de texto almacenados en la zona de flujo. Utilizando la información almacenada en la zona de base de datos y/o en la zona de flujo, un usuario es capaz de seleccionar un modo concreto de reproducción y reproducir los flujos de AV principales y de subtítulo de texto en el modo de reproducción seleccionado.
A continuación se describirá con detalle la estructura del archivo de flujo de subtítulos de texto de acuerdo con la presente invención. Ante todo, se definirá nuevamente la información de control para reproducir el flujo de subtítulos de texto. Después seguirá la descripción detallada del método de crear el archivo de flujo de texto que incluye la información de control que se acaba de definir, y el método y el aparato para reproducir el flujo de subtítulos de texto para la reproducción del archivo de flujo grabado. La figura 3 ilustra un subtítulo de texto y una imagen principal presentada en una pantalla de visualización de acuerdo con la presente invención. La imagen principal y el subtítulo de texto se presentan simultáneamente en la pantalla de presentación cuando se reproducen en sincronización un flujo principal de AV y un flujo de subtítulos de texto correspondiente.
La figura 4 es un diagrama esquemático que ilustra el control de reproducción de una secuencia (clip) principal de AV y secuencias de subtítulos de texto de acuerdo con la presente invención. Haciendo referencia a la figura 4, un archivo PlayList incluye al menos un PlayItem que controla la reproducción de al menos una secuencia principal de AV y un SubPlayItem que controla de reproducción de una pluralidad de secuencias de subtítulos de texto. Una de entre la secuencia 1 de subtítulos de texto y la secuencia 2 de subtítulos de texto, mostradas en la figura 4, para subtítulos de texto en Inglés y en Coreano, se pueden sincronizar con la secuencia principal de AV de tal manera que se presenten visualmente una imagen principal y un subtítulo de texto correspondiente en la pantalla de presentación simultáneamente en un tiempo de presentación particular. Con el fin de presentar visualmente el subtítulo de texto en la pantalla de presentación, se requieren información de control de presentación visual (por ejemplo, información de posición y de tamaño) e información del tiempo de presentación, ejemplos de los cuales se ilustran en la figura 5A a la figura 5C.
La figura 5A ilustra un diálogo presentado en una pantalla de presentación visual de acuerdo con la presente invención. Un diálogo representa la totalidad de los datos de subtítulo de texto expuestos en una pantalla de presentación durante un tiempo de presentación dado. En general, los tiempos de presentación del diálogo pueden ser representados en estampillas de tiempo de presentación (PTS). Por ejemplo, la presentación del diálogo mostrado en la figura 5A comienza en PTS (k) y termina en PTS (k+1). Por lo tanto, el diálogo mostrado en la figura 5A representa una unidad total de datos de subtítulo de texto que están expuestos en la pantalla de presentación entre PTS (k) y PTS (k+1). Un diálogo incluye un máximo de 100 códigos de caracteres en un subtítulo de texto. Además, la figura 5B ilustra regiones de un diálogo de acuerdo con la presente invención. Una región representa una parte dividida de datos de subtítulo de texto (diálogo) expuestos en una pantalla de presentación durante un tiempo de presentación dado. En otras palabras, un diálogo incluye al menos una región, y cada región puede incluir al menos una línea de texto de subtítulo. La totalidad de los datos de subtítulo de texto que representan una región pueden ser visualizados en la pantalla de presentación de acuerdo con un estilo de región (estilo global) asignado a la región. El número máximo de regiones incluidas en un diálogo se ha de determinar sobre la base de una velocidad de descodificación deseada de los datos de subtítulo debido a que el mayor número de regiones da lugar generalmente a una relación de descodificación menor. Por ejemplo, el número máximo de regiones para un diálogo puede ser limitado a dos con el fin de conseguir una velocidad de descodificación razonable. Por lo tanto, el número máximo de regiones dentro de un diálogo único está limitado a 2 debido a la carga de descodificación, cuado se reproduce el flujo de subtítulos de texto. En otra realización de la presente invención, puede existir dentro de un diálogo único un número máximo de n (donde n > 2) regiones.
La figura 5C ilustra información de estilo para regiones de un diálogo de acuerdo con la presente invención. La información de estilo representa información que define propiedades requeridas para presentar visualmente al menos una parte de una región incluida en el diálogo. Algunos de los ejemplos de la información de estilo son posición, tamaño de región, color de fondo, alineación de texto, información de flujo de texto, y muchos otros. La información de estilo puede ser clasificada en una información de estilo de región (información de estilo global) e información de estilo en línea (información de estilo local).
La información de estilo de región define un estilo de región (estilo global) que se aplica a una región completa de un diálogo. Por ejemplo, la información de estilo de región puede contener al menos una de entre una posición de región, tamaño de región, color de fuente, color de fondo, flujo de texto, alineación de texto, espacio entre líneas, nombre de fuente, estilo de fuente y tamaño de fuente de la región. Por ejemplo, se aplican dos estilos de región diferentes a la región 1 y a la región 2, como se muestra en la figura 5C. Un estilo de región con “posición 1, tamaño 1 y color = azul” se aplica a la Región 1, y un estilo de región diferente con “posición 2, tamaño 2 y color = rojo” se aplica a la Región 2.
Por otra parte, la información de estilo en línea define una información de estilo en línea (información de estilo local) que se aplica a una posición particular de series de textos incluidas en una región. Por ejemplo, la información de estilo en línea puede contener al menos uno de entre un tipo de fuente, un tamaño de fuente, un estilo de fuente y un color de fuente. La parte particular de series de textos puede ser una línea de texto completa dentro de una región o una parte particular de la línea de texto. Haciendo referencia a la figura 5C, un estilo particular en línea se aplica a la parte de texto “montaña” incluida en la Región 1. En otras palabras, al menos uno de entre el tipo de fuente, tamaño de fuente, estilo de fuente y color de fuente de la parte particular de las series de textos es diferente de la parte restante de las series de textos dentro de la Región 1. Por lo tanto, los datos de texto anteriormente descritos se graban y describen como una “serie de textos”, que es aplicada a una información concreta de estilo en línea (estilos_en línea).
La figura 6 ilustra un archivo de flujo de subtítulos de texto (por ejemplo, 10001.m2ts, mostrado en la figura 1) de acuerdo con la presente invención. El archivo de flujo de subtítulos de texto puede estar formado de un flujo de transporte de MPEG2 que incluya una pluralidad de paquetes de transporte (TP), la totalidad de los cuales tiene un mismo identificador de paquetes (por ejemplo, PID=0x18xx). Cuando un reproductor de disco recibe muchos flujos de entrada que incluyen un flujo de subtítulos de texto particular, encuentra todos los paquetes de transporte que pertenecen al flujo de subtítulos de texto usando sus PIDs. Haciendo referencia a la figura 6, cada sub-conjunto de paquetes de transporte forma un paquete de flujo elemental de paquetes (PES: Packet elementary stream). Uno de los paquetes del PES mostrado en la figura 6 corresponde a un segmento de estilo de diálogo (DSS: dialog style segment) que define un grupo de estilos de región. Todos los paquetes restantes del PES después del segundo paquete del PES corresponden a segmentos de presentación de diálogo (DPSs: Dialog presentation segments).
En la estructura anteriormente descrita de flujo de subtítulos de texto de la figura 6, cada una de las informaciones de diálogo mostradas en las figuras 5A a 5C representa un segmento de presentación de diálogo (DPS). Y la información de estilo incluida en la información de diálogo representa un conjunto de información que vincula uno cualquiera de la pluralidad de conjuntos de estilo de región definidos en el segmento de estilo de diálogo (DSS), al que se puede hacer referencia también como “id_estilo_región”, y estilos en línea. Un número limitado normalizado de conjuntos de estilo de región se graban en el segmento de estilo de diálogo (DSS). Por ejemplo, se graban un máximo de 60 conjuntos de información de estilo específica, cada uno de los cuales se describe mediante un id_estilo_región. Por lo tanto, es un descodificado de subtítulos de texto (mostrado en la figura 12B), siendo el segmento de presentación de diálogo (DPS) leído y descodificado sólo uno de cada vez.
La figura 7 ilustra un método de crear un flujo de subtítulos de texto de acuerdo con la presente invención, en el que se define cada segmento de presentación de diálogo (DPS) que es aplicado a cada sección de tiempo de presentación (PTS). Más concretamente, haciendo referencia a la figura 7, DPS #n-1 está formado de dos (2) regiones (Región #1 y Región #2), en que se graba en cada región un texto de Diálogo específico. El DPS #n-1 es presentado sobre la pantalla dentro de la sección de comienzo_PTS1 ~ final_PTS1. Y DPS #n se forma de una (1) región, en que se graba en la región correspondiente un texto de Diálogo específico. El DPS #n es presentado sobre la pantalla dentro de la sección de comienzo_PTS2 ~ final_PTS2. Finalmente, DPS #n+1 se forma de dos (2) regiones (Región 1 y Región #2), en que se graba en cada región un texto de Diálogo específico. El DPS #n+1 es presentado sobre la pantalla dentro de la sección comienzo_PTS3 ~ final_PTS3.
Por lo tanto, se describirán ahora con detalle las características del DPS formado dentro de una imagen, como se describe anteriormente, haciendo referencia a las figuras 8A a 8C. En primer lugar, se puede realizar ya sea presentación continua
o presentación discontinua entre DPSs vecinos. La figura 8A ilustra la presentación discontinua entre los DPSs (es decir, el DPS discontinuo), y la figura 8B ilustra la presentación continua entre los DPSs (es decir, el DPS continuo).
Haciendo referencia a la figura 8A, tres (3) DPSs vecinos, es decir DPS #n-1, DPS #n y DPS #n+1, son todos discontinuos. Por ejemplo, el PTS del final (= PTS2) de DPS #n-1 es diferente del PTS de comienzo (= PTS3 � PTS2) de DPS #n. Similarmente, el PTS del final (=PTS4) de DPS #n es diferente del PTS de comienzo (=PTS5 � PTS4) de DPS #n+1. Por lo tanto, cada uno de los DPSs mostrados en la figura 8A está formado como DPSs que son independientes entre si. Cada DPS independiente (o discontinuo) incluye una información específica de estilo de región (id_estilo_región), y la posición, color de fondo, tamaño de fuente, color de fuente, etc., del texto de diálogo dentro del DPS se decide de acuerdo con la correspondiente información de estilo de región. Más concretamente, “id_estilo_región = k” se puede designar para DPS #n-1, “id_estilo_región = k+1” se puede designar para DPS #n, e “id_estilo_región = k+2” se puede designar para DPS #n+1. Sin embargo, incluso aunque cada DPS sea independiente de los otros, se puede aplicar también igualmente una información de estilo de región idéntica (id_estilo_región) a cada DPS.
Haciendo referencia a la figura 8B, tres (3) DPSs vecinos, es decir DPS #n-1, DPS #n y DPS #n+1, son todos continuos. Por ejemplo, el PTS del final (=PTS2) de DPS #n-1 es idéntico al PTS de comienzo (=PTS2) de DPS #n. Análogamente, el PTS del final (= PTS3) del DPS #n es idéntico al PTS del comienzo (= PTS3) de DPS #n+1. Por lo tanto, cada uno de los DPSs mostrados en la figura 8B está formado como DPSs que están asociados entre sí. Cada DPS continuo (DPS #n-1, DPS #n y DPS #n+1) incluye una información de estilo de región idéntico específico (por ejemplo, id_estilo_región = k). Y, de ese modo, la posición, el color de fondo, el tamaño de fuente, el color de fuente, etc., del texto de diálogo dentro de cada DPS #n-1, DPS #n y DPS #n+1 es decidido por igual de acuerdo con la información de estilo de región correspondiente.
La figura 8C ilustra un método para presentar (o reproducir) el DPS discontinuo y el DPS continuo. Más concretamente, el archivo de flujo de subtítulos de texto incluye una bandera_presentación_continua que indica si se realiza presentación continua entre cada región de segmentos de presentación de diálogo (DPSs) vecinos, como se muestra en la figura 8A. Por lo tanto, si la reproducción (o presentación) del DPS actual es continuada desde el DPS previo, se asigna “bandera_presentación_continua=1”, y si la reproducción no es continuada, se asigna “bandera_presentación_continua=0”. En este punto, si se fija al menos una de las regiones incluidas en el DPS para que sea reproducida continuamente, el DPS correspondiente se define como un “DPS de presentación continua”. Así, por ejemplo, DPS #2, DPS #3 y DPS #4, que son DPSs de presentación continua, se agrupan como “conjunto #2 de presentación continua”. Y, cuando se reproduce (o presenta) el conjunto #2 de presentación continua anteriormente descrito, se reproduce primeramente el primer DPS del conjunto #2 de presentación continua (es decir, DPS #2). A continuación, sin borrar los datos de texto presentados sobre la pantalla, la presentación es continuada hasta el final de la presentación, que es hasta el final de la presentación de DPS #4. Inversamente, puesto que DPS #1 y DPS #5 son DPSs discontinuos, DPS #1 y DPS #5 son presentados (o reproducidos) independientemente sin tener en cuenta sus DPSs vecinos.
Además, independientemente de si el DPS es un DPS continuo o un DPS discontinuo, ha de ser nuevamente definido el texto de Diálogo en cada DPS. E incluso si existen dos (2) regiones en el mismo DPS, ha de ser definido el flujo de texto de Diálogo para que esté en la misma dirección. Más concretamente, cada DPS ha de incluir una información de texto de Diálogo que signifique el (o que se refiera al) DPS correspondiente, y esta regla se aplica igualmente al DPS continuo. Además, cuando están incluidas dos (2) regiones en un DPS, cada región ha de tener el mismo flujo de texto. En otras palabras, puede ser aceptado o permitido un caso en que la primera región tenga una dirección de flujo de texto de izquierda-a-derecha (izquierda � derecha) y la segunda región tenga una dirección de flujo de texto de arriba abajo (arriba � abajo), ya que las dos direcciones de flujo de texto son diferentes entre sí. Tal condición ha de ser aprehendida como una condición forzada con el fin de evitar que los usuarios vean imágenes distorsionadas.
La estructura de sintaxis del segmento de estilo de diálogo (DSS) descrito anteriormente y del segmento de presentación de diálogo (DPS) se describirá ahora en detalle con referencia a las figuras 9 a 11C. La figura 9 ilustra una sintaxis de flujo de subtítulos de texto (Flujo_subtítulo_texto( )) de acuerdo con la presente invención. Como se ha descrito en relación con la figura 6, el Flujo_subtítulo_texto( ) incluye una sintaxis de segmento_estilo_diálogo( ) y una sintaxis de segmento_presentación_diálogo( ). Más concretamente, la sintaxis de segmento_estilo_diálogo( ) corresponde a un segmento de estilo de diálogo único (DSS) que define el conjunto de información de estilo, y la sintaxis de segmento_presentación_diálogo( ) corresponde a una pluralidad de segmentos de presentación de diálogo (DPS) que tienen grabada en ellos la información de diálogo real.
Las figuras 10A a 10C ilustran una estructura detallada del segmento_estilo_diálogo( ), que representa el segmento de estilo de diálogo (DSS). Más concretamente, la figura 10A ilustra la estructura global del segmento_estilo_diálogo( ), en la que se define un conjunto de estilo_diálogo( ) que define diversos conjuntos de información de estilo que se aplican en el diálogo. La figura 10B ilustra un conjunto de estilo_diálogo( ) de acuerdo con la presente invención, el cual se define en el segmento_estilo_diálogo( ). Aparte de los estilos_región, el conjunto_estilo_diálogo( ) incluye una Bandera_estilo_reproductor, un conjunto de estilo_cambiable_usuario( ) y una paleta( ). La Bandera_estilo_reproductor indica si se autoriza cambio en la información de estilo por el reproductor. Así mismo, el conjunto estilo_cambiable_usuario( ) define el intervalo de cambio de información de estilo por el reproductor, y la paleta( ) indica información de color y grado de transparencia.
La información de estilos de región (estilos_región) representa la información Global de estilo para cada región, como se ha descrito anteriormente. Se asigna para cada región un id_estilo_región, y se define un conjunto de información de estilo correspondiente para el id_estilo_región específico. Por lo tanto, cuando se reproduce un diálogo grabando el id_estilo_región, que se aplica al correspondiente diálogo dentro del segmento de presentación de diálogo (DPS), se aplican valores de conjunto de información de estilo definidos por id_estilo_región idéntico dentro del conjunto estilo_diálogo( ), de manera que se reproduce el diálogo. En consecuencia, se describirá ahora la información de estilo individual incluida en el conjunto de información de estilo proporcionada a cada id_estilo_región.
En esta memoria, posición_horizontal_región, posición_vertical_región, anchura_región y altura_región son proporcionadas como información para definir la posición y el tamaño de una región correspondiente dentro de la pantalla. Y se proporciona también información de index_color_fondo_región que decide un color de fondo de la correspondiente región. Además, como información que define una posición original (o de comienzo) del texto dentro de la correspondiente región, se proporcionan una posición_horizontal_texto y una posición_vertical_texto. Así mismo, se proporcionan un flujo_texto que define la dirección del texto (por ejemplo, izquierda � derecha, derecha � izquierda, arriba � abajo), y una alineación_texto que define la dirección de alineación del texto (por ejemplo, izquierda, centro, derecha). Más concretamente cuando se incluyen una pluralidad de regiones en un diálogo concreto, el flujo_texto de cada región incluida en el correspondiente diálogo se define de manera que tenga el mismo valor de flujo_texto, de modo que se impida que los usuarios vean imágenes distorsionadas.
Además se proporciona un espacio_línea que designa el espacio entre cada línea dentro de la región, como información de estilo individual incluida en el conjunto de información de estilo. Y se proporcionan un tipo_fuente, un tamaño_fuente y un index__color_fuente como información de fuente para información de fuente real. Entretanto, la Bandera_estilo-reproductor grabada dentro del conjunto estilo_diálogo( ) indica si un autor puede aplicar la información de estilo proporcionada al reproductor. Por ejemplo, cuando Bandera_estilo_reproductor = 1b, así como la información de estilo definida en el conjunto estilo_diálogo( ) grabado en un disco, el reproductor es autorizado a reproducir el flujo de subtítulos de texto aplicando la información de estilo proporcionada dentro del propio reproductor. Por otra parte, cuando Bandera_estilo_reproductor = 0b, sólo se autoriza el uso de la información de estilo definida en el conjunto estilo_diálogo( ) grabada dentro del disco.
La figura 10C ilustra el conjunto de estilo_cambiable_usuario( ) de acuerdo con la presente invención, que se define en conjunto de estilo_diálogo( ). El conjunto de estilo_cambiable_usuario( ) predefine los tipos de información de estilo que puede ser cambiada por el usuario y el intervalo de cambio, y el conjunto de estilo_cambiable_usuario( ) se utiliza para cambiar fácilmente la información de estilo de los datos de subtítulo de texto. Sin embargo, cuando se le permite al usuario cambiar toda la información de estilo, que se describe en la figura 10B, el usuario puede quedar más confuso. Por lo tanto, en la presente invención se puede cambiar la información de estilo sólo del tamaño_fuente, de la posición_horizontal_región, y de la posición_vertical_región. Y, por lo tanto, la variación en la posición del texto y el espacio entre líneas, que se pueden cambiar de acuerdo con el tamaño_fuente, se definen también en el conjunto estilo_cambiable_usuario( ). Más concretamente, el conjunto estilo_cambiable_usuario( ) es definido para cada id_estilo_región. Por ejemplo, se puede definir un máximo de 25 id_estilo_usuario dentro de un id_estilo_región = k específico, en el conjunto estilo_cambiable_usuario( ).
Igualmente, cada id-estilo_usuario incluye información de dirección_posición_horizontal_región y de dirección_posición_vertical_región, que designan la dirección de la posición cambiada de cada una de entre posición_horizontal_región y posición_vertical_región cambiables. Cada id_estilo_usuario incluye información de posición_delta_horizontal_región y de posición_delta_vertical_región para designar una unidad de movimiento de posición única en cada dirección como una unidad de pixeles. Más concretamente, por ejemplo, cuando dirección_posición_horizontal_región = 0, la posición de la región es movida hacia una dirección derecha. Y, cuando dirección_posición_horizontal_región = 1, la posición de la región es movida hacia una dirección izquierda. Asimismo, cuando dirección_posición_vertical_región = 0, la posición de la región es movida hacia una dirección descendente. Finalmente, cuando dirección_posición_vertical_región = 1, la posición de la región es movida en una dirección ascendente.
Además, cada id_estilo_usuario incluye información de dis_aum_tamaño_fuente, que designa la dirección de cambio de cada una de información de tamaño_fuente y de tamaño_delta_fuente cambiables para designar una unidad de movimiento de posición única en cada dirección como una unidad de pixeles. Más concretamente, por ejemplo, dis_aum_tamaño_fuente = 0 representa una dirección creciente del tamaño_fuente, y dis_aum_tamaño_fuente = 1 representa una dirección decreciente del tamaño_fuente. Similarmente, la información cambiada (campo de datos) relacionada con la “posición de texto” y el “espacio entre líneas” se pueden definir también de acuerdo con el mismo principio.
Se describirán ahora con detalle las características del conjunto de estilo_cambiable_usuario( ) de acuerdo con la presente invención. El número de estilo_control_usuario( ) definido en cada estilo_region( ) incluido en el segmento de estilo de diálogo (DSS) es idéntico. En otras palabras, el número de estilos_control_usuario que se pueden aplicara a cada segmento de presentación de diálogo (DPS) es idéntico. Además, cada estilo_control_usuario( ) está representado por un id_estilo_usuario diferente. Y, cuando el usuario selecciona un id_estilo_usuario al azar, se aplica igualmente a cada estilo_región( ) el mismo orden de estilo_control_usuario. Además, se definen en un único estilo_control_usuario( ) todas las posibles combinaciones de estilos cambiables. En otras palabras, la posición_región y el tamaño_fuente se definen simultáneamente en combinación, en lugar de ser definidas por separado. Y, finalmente, la dirección de movimiento (dirección_*) o la indicación de aumento/disminución (dis_aum_*) se distingue independientemente de cada unidad de movimiento de posición (delta_*) y por lo tanto es grabada. Más concretamente, sólo se define la unidad de movimiento de posición (delta_*) sin que tenga el valor de estilo, que es el valor que está siendo realmente cambiado. A continuación, la unidad de movimiento de posición definida (delta_*) es añadida al valor definido en el estilo_región( ), obteniéndose con ello el valor final del valor de estilo que está siendo realmente cambiado.
La figura 10D ilustra información de paleta (paleta( )) de acuerdo con la presente invención, que se define en el conjunto estilo_diálogo( ). La paleta( ) proporciona información de cambio de color de los datos de subtítulo de texto grabados dentro del diálogo. En esta memoria, la paleta( ) incluye una pluralidad de entradas_paleta, en que cada entrada_paleta es descrita por un id_entrada_paleta. Y cada entrada_paleta está dispuesta dentro de un valor de brillantez específico (valor_Y), un valor de color específico (valor_Cr, valor_Cb), y un valor_T específico, que designa la transparencia de los datos de texto, para cada id_entrada_paleta. Por lo tanto, una de las características del flujo de subtítulos de texto de acuerdo con la presente invención es que sólo es definida una paleta básica (o común), siendo aplicada la paleta a cada segmento de presentación de diálogo (DPS) incluido en el archivo de flujo de subtítulos de texto. Más concretamente, después de definir una paleta en el segmento de estilo de diálogo (DSS), la paleta definida es comúnmente usada en cada segmento de presentación de diálogo (DPS). Sin embargo, si se ha de usar una paleta específica en lugar de la paleta común en un segmento de presentación de dialogo (DPS) específico, la paleta específica es nuevamente definida utilizando la bandera-actualización_paleta, cuya descripción seguirá con eferencia a la figura 11A.
Las figuras 11A y 11B ilustran una estructura detallada del segmento_presentación_diálogo( ), que representa el segmento de presentación de diálogo (DPS) de acuerdo con la presente invención. La figura 11A ilustra la estructura global del segmento_presentación_diálogo( ), en el que se definen un PTS_inicio_diálogo y un PTS_final_diálogo. El PTS_inicio_diálogo y el PTS_final_diálogo designan el tiempo de presentación del diálogo correspondiente. Entonces, el segmento_presentación_diálogo( ) incluye una bandera_actualización_paleta, que indica un cambio de información de color dentro del correspondiente diálogo. Aquí, cuando bandera_actualización_paleta = 1b, se cambian (o actualizan) el color y el grado de transparencia (valor_T), y de ese modo se graba separadamente la información de paleta( ), que define nuevamente el color. En este caso, la paleta( ) que es nuevamente definida en el segmento de presentación de diálogo (DPS) debe ser aplicada sólo al correspondiente segmento de presentación de diálogo (DPS). Suponiendo que bandera_actualización_paleta=0b, cuando se presenta (o reproduce) el correspondiente segmento de presentación de diálogo (DPS), la paleta común anteriormente descrita, que ha sido definida en el segmento de estilo de dialogo (DSS), como se muestra en la figura 10A, ha de ser restaurada (o preservada).
A continuación, una región-diálogo( ) que define la información de región se graba en el segmento_presentación_diálogo( ). En la presente invención, se disponen un máximo de dos regiones dentro de un único diálogo y, por tanto, se proporciona información de región_diálogo( ) para cada región. La región_diálogo( ) incluye información id_estilo_región e información de bandera_present_continua. La información id_estilo_región designa cualquiera de los estilos de región, como se muestra en la figura 10B, y la información de bandera_present_continua identifica si se ha de realizar una reproducción sin juntura con la región de diálogo previa, como se ilustra en la figura 8C. Más concretamente, la bandera_present_continua está incluida en cada región. Si están incluidas dos (2) regiones en un DPS, y cuando al menos se fija una región en bandera_present_continua= 1b, el correspondiente DPS se convierte en el DPS de presentación continua anteriormente descrito. Además, se incluyen también datos de texto e información de subtítulo_región( ) incluida en la región_diálogo( ). Los datos de texto están incluidos en la región real correspondiente, y la información de subtítulo_región( ) define la información de estilo local.
Las figuras 11B y 11C ilustran un ejemplo de grabación del subtítulo_región( ), que incluye una serie de textos en una información de identificación (es decir, tipo_datos) que identifica la información de estilo en línea (es decir, estilos_en línea) aplicada a la serie de textos. También se graba una información de 1 byte (es decir, código_escape) entre la información que es identificada por la información de identificación (es decir, tipo_datos). Más concretamente, la serie de textos y estilos_en línea se graban dentro del subtítulo_región( ), de manera que se incluye la serie de textos y la información de identificación (es decir, tipo_datos) que identifica la información de estilo en línea. En este documento, cuando tipo_datos=0b, el tipo de datos es la información de estilo en línea (es decir, estilos_en línea), y cuando tipo_datos=1b, el tipo de datos es la serie de textos. Por lo tanto, cuando tipo_datos=1b, la serie de textos se graba como un código de carácter dentro de un campo específico (es decir, byte_datos_carác) incluido en la serie_textos( ). En otras palabras, el byte_datos_carác se usa para grabar datos de texto, tales como “Buenas días” o “Buenas tardes”, mostrados en las figuras 8A y 8B. Y los datos de texto se graban en cada región dentro de cada DPS, independientemente de si el DPS es o no un DPS de presentación continua.
Además, cuando tipo_datos=0b, se graba la información de estilo en línea (es decir, estilos_en línea), en que la información de estilo en línea se configura para que tenga al menos un tipo de estilo en línea (es decir, tipo_estilo_en línea). Por ejemplo, tipo_estilo_en línea=0x01 representa un cambio en la fijación de fuente, y así un valor de ID de fuente designado por la correspondiente InfoClip se graba en un campo específico (es decir, el byte_datos-estilo_en línea), y tipo_estilo_en línea=0x02 representa un cambio en el estilo de Fuente, y se graba así un valor de estilo de fuente correspondiente en un campo específico (es decir, el byte_datos_estilo_en línea). Así mismo, tipo_estilo_en línea=0x03 representa un cambio en el tamaño de Fuente, y se graba un correspondiente valor de tamaño de fuente en un campo específico (es decir, byte_datos_estilo_en línea), y tipo_estilo_en línea=0x04 representa un cambio en el color de de Fuente y, por lo tanto, se graba un valor de index designado por la correspondiente paleta, en un campo específico (es decir, el byte_datos_estilo_en línea). Además, tipo_estilo_en línea=0x0A representa una interrupción o rotura de línea. En este caso, los datos no se graban adicionalmente, excepto para que, cuando es leído el tipo correspondiente (es decir, tipo_estilo_en línea=0x0A), haya de ser cambiada una línea tras descodificar el flujo de subtítulos de texto antes de la reproducción (o presentación).
Además, cuando tipo_datos=0b, se graba la información de estilo en línea (estilos_en línea), en que se graba información que indica el tamaño completo de los estilos_en línea, que es la longitud_estilo_en línea. Y se graban dentro del correspondiente tamaño al menos un tipo_estilo_en línea y un valor de byte_datos_estilo_en línea, que graba el valor cambiado para cada tipo. Por lo tanto, el al menos un tipo_estilo_en línea incluido en la información de estilo en línea (estilos_en línea) se graba continuamente como una unidad única. A continuación, cuando se completa la grabación de la correspondiente información de estilo en línea, se inserta una información de 1 byte (código_escape) y se graba entre la serie de textos que es grabada por la información de identificación (es decir, tipo_datos) sucesiva (o subsiguiente).
A continuación se describirá con detalle, haciendo referencia a las figuras 12A y 12B, el método y el aparato para reproducir el flujo de subtítulos de texto sobre el disco óptico, como se ha descrito anteriormente. La figura 12A ilustra el aparato para reproducir el enfoque del disco óptico sobre el descodificador de acuerdo con la presente invención y, más particularmente, ilustra un ejemplo de una parte 40 de descodificación de subtítulos de texto, que se incluye separadamente. Más concretamente, el aparato incluye un filtro 5 identificador de paquetes (PID) para separar flujos de entrada en flujos de vídeo, flujos de audio, flujos de gráficos y flujos de subtítulos de texto basados en sus identificadores de paquetes, una parte 20 de descodificación de vídeo para reproducir flujos de vídeo, una parte 10 de descodificación de audio para reproducir los flujos de audio, una parte 30 de descodificación de gráficos para reproducir los flujos de gráfico, y una parte 40 de descodificación de subtítulos para reproducir los flujos de subtítulos de texto.
Los flujos de subtítulos de texto pueden ser extraídos de un disco óptico, o pueden ser introducidos desde una fuente externa adicional, como se muestra en la figura 12A. Por esta razón, el aparato incluye un conmutador 6 que selecciona una fuente de datos de entrada. Por lo tanto, si los flujos de subtítulos de texto en formato de MPEG son extraídos del disco óptico, el conmutador 6 selecciona línea de datos A conectada al filtro 5 de PID. Por otra parte, si son introducidos a través de una fuente externa adicional, el conmutador 6 selecciona la línea de datos B que está conectada a la fuente externa.
La parte 20 de descodificación de vídeo, la parte 10 de descodificación de audio, la parte 30 de descodificación de gráficos incluyen una memoria temporal de transporte 21, 11 y 31, respectivamente, para almacenar un tamaño predeterminado de flujos de datos que se han de descodificar. Un plano 23 de vídeo y un plano 33 de gráficos se incluyen en la parte 20 de descodificación de vídeo y en la parte 30 de descodificación de gráficos, respectivamente, para convertir señales descodificadas en imágenes presentables visualmente. La parte 30 de descodificación de gráficos incluye una tabla de consulta de color (CLUT: Color look-up table) 34 para controlar niveles de color y transparencia de las imágenes presentables visualmente.
Cuando la parte 40 de descodificación de subtítulo recibe uno o mas flujos de subtítulos desde el conmutador 6, la totalidad de estos flujos se precargan inicialmente en una memoria temporal de precarga de subtítulos (SPB: Subtitle preloading buffer) 41 enseguida. Suponiendo que un tamaño típico de un archivo de flujo de subtítulos de texto para un lenguaje único es de unos 0,5 megabites, el tamaño de la memoria temporal 41 de precarga de subtítulos se ha de determinar sobre la base del número total de los archivos de flujo de subtítulos de texto. Por ejemplo, con el fin de garantizar presentación sin juntura de un subtítulo de texto cuando un usuario conmuta entre archivos de flujos de subtítulos que soportan dos lenguajes, el tamaño de la memoria temporal 41 de precarga de subtítulos ha de ser mayor o igual que 1 megabite. El tamaño de la memoria temporal 41 de precarga de subtítulos ha de ser suficientemente grande para precargar simultáneamente todos los archivos de flujo de subtítulos de texto requeridos.
Los flujos de subtítulos de texto son todos precargados en la memoria temporal 41 y utilizados, debido a que se puede grabar todo el flujo de subtítulos de texto dentro de una pequeña capacidad, como se ha descrito anteriormente. Por lo tanto, el flujo de subtítulos de texto se graba como un archivo separado, facilitando con ello la lectura y uso de los datos de subtítulo de texto solamente. Además, puesto que todos los datos de subtítulo de texto se precargan en la memoria temporal, la memoria temporal puede ser controlada más fácilmente. En un tipo concreto de aparato de grabación y reproducción óptica, siempre que no ocurra un subflujo de memoria temporal, el flujo de subtítulos de texto puede ser reproducido en combinación con los datos de AV principales, en tiempo real, sin precargar el flujo de subtítulos de texto. A continuación se dará y describirá con detalle un ejemplo del flujo de subtítulos de texto que está siendo precargado de acuerdo con la presente invención.
La parte 40 de descodificación de subtítulo de texto incluye además un descodificador 42 de subtítulos de texto que descodifica uno o más flujos de subtítulos de texto almacenados en la memoria temporal 41 de precarga de subtítulos, un plano 43 de gráficos que convierte el flujo o flujos de subtítulos descodificados en imágenes presentables visualmente, y una tabla de consulta de color (CLUT) 44 que controla la información de color (valores de Y, Cr y Cb) e información de transparencia (valor de T) de las imágenes convertidas.
Una parte 50 de superposición de imagen, incluida en el aparato mostrado en las figura 12A, combina la imagen emitida como salida desde la parte 20 de descodificación de vídeo, la parte 30 de descodificación de gráficos y la parte 40 de descodificación de subtítulos de texto. Las imágenes combinadas son presentadas en una pantalla de presentación visual. Las imágenes de vídeo emitidas desde el plano de video 23 de la parte 20 de descodificación de vídeo se presentan como un fondo de la pantalla de presentación, y las imágenes emitidas desde la parte 30 de descodificación de gráficos y/o la parte 40 de decodificación de subtítulos de texto se superponen sobre las imágenes de vídeo presentadas. Por ejemplo, si las imágenes emitidas como salida de la parte 30 de descodificación de gráficos son imágenes de gráficos interactivas, las imágenes de subtítulos de texto emitidas desde la parte 40 de descodificación de subtítulos de texto son superpuestas inicialmente sobre las imágenes de vídeo por un primer sumador 52. A continuación, las imágenes de gráficos interactivas se superponen adicionalmente sobre las imágenes superpuestas a subtítulos mediante un segundo sumador 53. El aparato mostrado en la figura 12A incluye además un descodificador 4 del sistema para descodificar flujos de transporte de entrada (por ejemplo flujos de transporte de MPEG), y un microprocesador 3 para controlar las operaciones de todos los componentes anteriormente mencionados del aparato.
Ahora se hará referencia con detalle a un método para reproducir flujos de subtítulos de texto de acuerdo con la presente invención. Cuando es precargado un disco óptico por un jugador de disco óptico, un ejemplo del cual se ilustra en la figura 12A, es inicialmente extraída del disco la información requerida para la reproducción de datos grabados en el disco y es almacenada en una memoria (no mostrada). Cuando es seleccionada por un usuario un título particular que se asocia con una PlayList, se precarga inicialmente al menos un archivo de flujo de subtítulos de texto completo (entero) designado en el archivo de PlayList en la memoria temporal 41 de precarga de subtítulos y archivos de fuente relacionados con el archivo de flujo de subtítulos de texto se precargan en la memoria temporal 410 de precarga de fuente.
Por ejemplo, cuando es seleccionado por un usuario un título que se asocia con la PlayList mostrada en la figura 4, los archivos de subtítulos de texto para el clip Nº 1 de subtítulos de texto (Coreano) y el clip Nº 2 de subtítulos de texto (Inglés) se precargan inicialmente en la memoria temporal 41 de precarga d subtítulos. Así mismo, los archivos de fuente relacionados con los archivos de subtítulos de texto, que pueden ser designados en archivos de información de clips de los clips de subtítulos de texto, se precargan en la memoria temporal 410 de precarga de fuente. A continuación, se inicia la reproducción (playback) de la PlayList. Durante la reproducción de la PlayList, son descodificados flujos de AV de los clips de AV principales Nº 1 y 2 por la parte 10 de descodificación de audio y la parte 20 de descodificación de vídeo, respectivamente, y es descodificado uno seleccionado de lo flujos de subtítulos de texto precargados por el descodificador 42 de subtítulos de texto. Entonces se superponen las imágenes de subtítulos de texto descodificadas sobre las imágenes de vídeo principales descodificadas y se presentan la totalidad de las imágenes expuestas en una pantalla de presentación.
Como se ha descrito anteriormente, cuando se completan todas las operaciones, y cuando se presentan en la pantalla los datos de vídeo principales que son controlados por el PlayItem, el subtítulo de texto relacionado es superpuesto a través de la parte 50 de superposición de imagen (mostrada en la figura 12A). Y cuando se proporciona el subtítulo de texto superpuesto, se inicia la descodificación del flujo de subtítulos de texto. Entretanto, con el fin de realizar la descodificación del flujo de subtítulos de texto, una información de estilo de región y una información de paleta dentro del segmento de estilo de diálogo (DSS), que configuran el primer flujo de paquetes (PES), se leen separadamente y se almacenan para posterior uso cuando se reproduce el DPS. Más particularmente, cuando se lee la información de paleta, la información de paleta es simultáneamente proporcionada a la CLUT 44, de manera que se proporciona el color y transparencia deseados por el usuario, cuando se expone el subtítulo de texto en la pantalla.
La figura 12B ilustra con más detalle el descodificador 42 de subtítulos de texto, mostrado en la figura 12A. El proceso de descodificación realizado por el descodificador 42 de subtítulos de texto incluye los pasos de analizar, interpretar y componer. En el paso de analizar, se analiza en información de composición el flujo o flujos de subtítulos de texto almacenados en la memoria temporal 41 de precarga de subtítulos (SPB), información de interpretación y datos de texto de diálogo, de acuerdo con la información incluida en el segmento de presentación de diálogo (DPS). Un diálogo representa todos los subtítulos de texto que son presentados durante un periodo de tiempo predeterminado, que puede ser definido por una estampilla de tiempo de presentación (PTS). Por lo tanto, la información de composición corresponde a la información relacionada con el tiempo de presentación y la posición de presentación del subtítulo de texto cuando se expone sobre la pantalla, y también a una nueva información de paleta que se ha definida recientemente por una actualización de información de paleta (bandera_actualización_paleta = 1b). La información de interpretación corresponde a la información que describe (o representa) realmente el texto de cada región para cada diálogo. Tal información de interpretación incluye “anchura y altura de región”, “color de Fondo”, “Flujo d Texto”, “Alineación de Texto” e “id/estilo/tamaño de Fuente”. Además, la información de texto de diálogo corresponde a una información de estilo en líneas que se aplica a los datos de texto reales y a una serie de textos específica grabada dentro del DPS.
Haciendo referencia a la figura 12B, un procesador 421 de subtítulos de texto, incluido en el descodificador 42 de subtítulos, analiza el archivo o archivos de flujo de subtítulos almacenados en la memoria temporal 41 de precarga de subtítulos en composición e información de interpretación y datos de texto de diálogo. La información de composición e interpretación se almacena entonces en una memoria temporal de composición de diálogo (DCB: Dialog composition buffer) 425, y los datos de texto de diálogo se almacenan en una memoria temporal de diálogo (DB) 422. Más concretamente, una información de actualización de paleta (bandera_actualización_paleta = 1b) se incluye en la información de composición, que es analizada por el paso de análisis. Y, cuando bandera_actualización_paleta = 0b, la información de paleta común, que fue inicialmente proporcionada desde el segmento de estilo de diálogo (DSS) a la CLUT 44, puede ser usada continuamente sin ser actualizada. Inversamente, cuando bandera_actualización_paleta = 1b, se ignora la información de paleta común dentro del DSS, y se define nuevamente una nueva información de paleta dentro del correspondiente DPS y se actualiza a la CLUT 44 y se utiliza. Sin embargo, cuando se completa la presentación (o reproducción) del correspondiente DPS, se borra la actualización de paleta, y se usa una vez más la información de paleta común inicialmente proporcionada desde la CLUT 44. En este punto, se ha de completar la actualización de la CLUT 44 antes de la presentación (o reproducción) del subsiguiente DPS.
En el paso de interpretar, los datos de texto de diálogo analizados son interpretados en datos de mapa de bits usando la información de interpretación, que representa información de estilo requerida para interpretar los datos de texto de diálogo. Un interpretador de texto 423 interpreta los datos de texto de diálogo almacenados en la memoria temporal 422 de diálogo en datos de mapa de bits bajo el control de un controlador 426 de presentación de diálogo. Con el fin de realizar la función de interpretación, el interpretador de texto 423 recibe datos de fuente asociados con los datos de texto de diálogo desde la memoria temporal 410 de precarga de fuente, recibe información de interpretación e información de estilo en línea desde el controlador 426 de presentación de diálogo, e interpreta los datos de texto de diálogo en datos de mapa de bits usando información de interpretación e información de estilo en línea, que es aplicable para cada serie de textos de los datos de texto de diálogo. A continuación, los datos de texto interpretados son entonces almacenados en una memoria temporal objeto de mapa de bits (BOB: Bitmap object buffer) 424 como objeto de mapa de bits. Por lo tanto, el “Objeto” que está siendo grabado en la memoria temporal BOB 424 corresponde a los datos de texto de cada región dentro de cada diálogo, que se convierten en un objeto de mapa de bits. Por lo tanto, se analizan y almacenan dentro de la memoria temporal BOB 424
Finalmente, en el paso de composición, los datos de texto interpretados son añadidos al plano de gráficos (GP) 43 de acuerdo con la información de composición, que representa información que indica tiempo para presentar un subtítulo de texto dentro de la pantalla de presentación. Finalmente, el objeto de mapa de bits almacenado en la memoria temporal 424 de objeto de mapa de bits es transferido (añadido) al plano de gráficos 43 de acuerdo con la información de composición proporcionada por el controlador 426 de presentación de diálogo. La tabla 44 de consulta de color utiliza información de paleta incluida en la información de composición para ajustar los niveles de color y transparencia de una salida del plano 43 de gráficos.
Por lo tanto, en la presentación (o reproducción) continua, DPS #2, DPS #3 y DPS #4 que configuran el conjunto #2 de presentación continua, como se muestra en la figura 8C, el DPS #2 delantero es presentado usando todos los procedimientos de presentación anteriormente descritos. A continuación, en la presentación de DPS #3 y DPS #4, la región que habilita la presentación continua con DPS #3 y DPS #4 utiliza el mismo estilo de región que el del previo DPS #2. Y así, en este caso, se omite el proceso de interpretación, y se preserva y utiliza la información relacionada con el DPS #2 previo dentro del plano de gráficos (GP). Más concretamente, el plano de gráficos (GP) es preservado hasta el PTS_final_diálogo del DPS #5, en el que se completa la presentación continua. Sin embargo, cuando comienza una presentación discontinua de DPS #5, la información dentro del plano de gráficos (GP) se restablece
5 completamente. Incluso aunque el DPS sea un DPS de presentación continua dentro del conjunto de presentación continua, se puede incluir una región discontinua y, en ese caso, la región independiente ha de configurar un objeto de mapa de bits a través de un proceso de interpretación separado.
10

Claims (32)

  1. REIVINDICACIONES
    1. Un medio de grabación o soporte de registro para reproducir un flujo de subtítulos de texto, comprendiendo el medio de grabación al menos un flujo de subtítulos de texto, incluyendo el flujo de subtítulos de texto un segmento de estilo de diálogo y al menos un segmento de presentación de diálogo, definiendo el segmento de estilo de diálogo un grupo de estilos de región, caracterizado porque el segmento de presentación de diálogo contiene al menos una región de texto de diálogo, representando la región de texto de diálogo al menos una porción del texto de diálogo presentada visualmente en una pantalla de presentación, estando el segmento de presentación de diálogo vinculado a uno del grupo de estilos de región que son aplicados a la región de texto de dialogo, en el que un segmento actual de presentación de dialogo contiene una bandera de presentación continua que indica si se requiere presentación continua entre el segmento actual de presentación de diálogo y el segmento previo de presentación de diálogo, en el que si el segmento de presentación incluye más de una región de texto de dialogo, las regiones de texto de diálogo están vinculadas a los estilos de región que especifican un mismo flujo de texto, en el que si son presentados continuamente más de un segmento de presentación de diálogo, los segmentos de presentación de diálogo se agrupan como conjunto de presentación continua, en el que el segmento de presentación de diálogo incluye un campo que representa un interrupción o rotura de línea que indica la necesidad de cambiar la línea de datos.
  2. 2.
    El medio de grabación de la reivindicación 1, en el que la bandera de presentación continua es fijada en “0” para indicar que no es requerida la presentación continua para el segmento de presentación de diálogo con uno previo.
  3. 3.
    El medio de grabación de la reivindicación 1, en el que la bandera de presentación continua se fija en “1” para indicar que se requiere la presentación continua para el segmento de presentación de diálogo con uno previo.
  4. 4.
    El medio de grabación de la reivindicación 1, en el que la bandera de presentación continua indica además presentación continua entre la primera región del texto de diálogo localizada en el segmento actual de presentación de dialogo y la segunda región del texto de diálogo localizada en el segmento previo de presentación de diálogo.
  5. 5.
    El medio de grabación de la reivindicación 4, en el que el segmento de presentación de diálogo incluye al menos un par de un estilo en línea y serie de textos para cada una de las regiones primera y segunda del texto de diálogo.
  6. 6.
    El medio de grabación de la reivindicación 5, en el que los pares de un estilo en línea y una serie de textos para la respectiva de las regiones primera y segunda de texto de diálogo son idénticos entre sí.
  7. 7.
    El medio de grabación de la reivindicación 4, en el que la primera región de texto de diálogo incluida en el segmento de presentación de diálogo actual es presentada en un plano de gráficos preservando la presentación de la segunda región de texto de diálogo incluida en el segmento previo de presentación de diálogo en el plano de gráficos.
  8. 8.
    El medio de grabación de la reivindicación 1, en el que cada segmento de presentación de diálogo incluye información de tiempo de presentación que indica un tiempo de inicio del segmento de presentación de diálogo y un tiempo final del segmento de presentación de diálogo.
  9. 9.
    El medio de grabación de la reivindicación 8, en el que el tiempo de inicio del segmento actual de presentación de diálogo y el tiempo de final del segmento previo de presentación de diálogo son idénticos si se requiere la presentación continua entre el segmento de actual de presentación de diálogo y el segmento previo de presentación de diálogo.
  10. 10.
    El medio de grabación de la reivindicación 1, en el que los segmentos de presentación de diálogo continua bajo una presentación continua incluyen un identificador idéntico de estilo de región.
  11. 11.
    El medio de grabación de la reivindicación 1, en el que si un segmento de presentación de diálogo es presentado continuamente, es preservada la información relacionada con el segmento previo de presentación de diálogo dentro de un plano de gráficos.
  12. 12.
    El medio de grabación de la reivindicación 1, en el que si comienza un segmento de presentación discontinua, es restablecida la información relacionada con el segmento previo de presentación de diálogo dentro del plano de gráficos.
  13. 13.
    El medio de grabación de la reivindicación 12, en el que si el segmento de presentación de diálogo es continuo, al menos una región de un segmento de diálogo de presentación es continuada desde el segmento previo de presentación de diálogo.
  14. 14.
    El medio de grabación de la reivindicación 1, en el que el mismo flujo de texto indica al menos uno de entre progresión de caracteres y progresión de líneas.
  15. 15.
    Un método para reproducir un flujo de subtítulos de texto, comprendiendo el método leer al menos un flujo de subtítulos de texto, incluyendo el flujo de subtítulos de texto un segmento de estilo de diálogo y al menos un segmento de presentación de diálogo, definiendo el segmento de estilo de diálogo un grupo de estilos de región,
    caracterizado porque
    el método comprende presentar el segmento de presentación de diálogo que contiene al menos una región de texto de diálogo, representado la región de texto de diálogo una porción del texto de diálogo presentado en una pantalla de presentación visual, siendo el segmento de presentación de diálogo vinculado a uno del grupo de estilos de región que se aplican a la región de texto de diálogo, en el que un segmento actual de presentación de diálogo contiene una bandera de presentación continua que indica si se requiere presentación continua entre el segmento actual de presentación de diálogo y el segmento previo de presentación de diálogo, en el que si el segmento de presentación de diálogo incluye más de una región de texto de diálogo, las regiones de texto de diálogo son vinculadas a los estilos de región que especifican un mismo flujo de textos,
    en el que si más de un segmento de presentación de diálogo son continuamente presentados, los segmentos de presentación de diálogo se agrupan como conjunto de presentación continua,
    en el que el segmento de presentación de diálogo incluye un campo que representa una interrupción de línea que indica que precisa ser cambiada la línea de datos.
  16. 16.
    El método de la reivindicación 15, en el que un tiempo de inicio de presentación del segmento actual de presentación de diálogo es idéntico a un tiempo de final de presentación del segmento previo de presentación de diálogo, si la bandera de presentación continua indica que se requiere presentación continua entre los segmentos de presentación de diálogo actual y previo.
  17. 17.
    El método de la reivindicación 15, que comprende además precargar el flujo de subtítulos de texto en una memoria temporal (41).
  18. 18. Un aparato para reproducir un flujo de subtítulos de texto, comprendiendo el aparato una memoria temporal (41) configurada para precargar al menos un flujo de subtítulos de texto, incluyendo el flujo de subtítulos de texto un segmento de estilo de diálogo y al menos un segmento de presentación de diálogo, definiendo el segmento de estilo de diálogo un grupo de estilos de región, caracterizado porque el aparato de reproducir comprende un descodificador (42) de subtítulos de texto configurado para presentar el segmento de presentación de diálogo que contiene al menos una región de texto de diálogo, representando la región de texto de diálogo al menos una porción de texto de diálogo presentada en una pantalla de presentación visual, estando el segmento de presentación de diálogo vinculado a uno del grupo de estilos de región que se aplican a la región de texto de diálogo, en el que un segmento actual de presentación de diálogo contiene una bandera de presentación continua que indica si se requiere presentación continua entre el segmento actual de presentación de diálogo y el segmento previo de presentación de diálogo, en el que si el segmento de presentación de diálogo incluye más de una región de texto de diálogo, las regiones de texto de diálogo se vinculan a los estilos de región que especifican un mismo flujo de textos, en el que, si más de un segmento de presentación de diálogo son presentados continuamente, los segmentos de presentación de diálogo se agrupan como conjunto de presentación continua, en el que el segmento de presentación de diálogo incluye un campo que representa una interrupción de línea que indica que precisa ser cambiada la línea de datos.
  19. 19. Un método para grabar un flujo de subtítulos de texto, comprendiendo el método grabar al menos un flujo de subtítulos de texto, incluyendo el flujo de subtítulos de texto un segmento de estilo de diálogo y al menos un segmento de presentación de diálogo, definiendo el segmento de estilo de diálogo un grupo de estilos de región, caracterizado porque el segmento de presentación de diálogo contiene al menos una región de texto de diálogo, representando la región de texto de diálogo al menos una porción de texto de diálogo presentada en una pantalla de presentación visual, estando el segmento de presentación de diálogo vinculado a uno del grupo de estilos de región que se aplican a la región de texto de diálogo, en el que un segmento actual de presentación de diálogo contiene una bandera de presentación continua para indicar si se requiere presentación continua entre el segmento actual de presentación de diálogo y un segmento previo de presentación de diálogo, en el que si el segmento de presentación de diálogo incluye más de una región de texto de diálogo, las regiones de texto de diálogo se vinculan a los estilos de región que especifican un mismo flujo de textos, en el que, si son presentados continuamente más de un segmento de presentación de diálogo, los segmentos de presentación de diálogo se agrupan como conjunto de presentación continua, en el que el segmento de presentación de diálogo incluye un campo que representa una interrupción de línea que indica que precisa ser cambiada la línea de datos.
  20. 20. El método de la reivindicación 19, en el que un tiempo de inicio de presentación del segmento actual de presentación de diálogo es idéntico a un tiempo final de presentación del segmento previo de presentación de diálogo, si la bandera de presentación continua indica que se requiere presentación continua entre los segmentos de presentación de diálogo actual y previo.
  21. 21. Un aparato para grabar un flujo de subtítulos de texto, incluyendo el flujo de subtítulos de texto un segmento de estilo de diálogo y al menos un segmento de presentación de diálogo, definiendo el segmento de estilo de diálogo un grupo de estilos de región, caracterizado porque el aparato comprende un controlador (3) para una operación de grabación del segmento de presentación de diálogo que contiene al menos una región de texto de diálogo, representando la región de texto de diálogo al menos una porción de texto de diálogo presentada en una pantalla de presentación visual, estando el segmento de presentación de diálogo vinculado a uno del grupo de estilos de región que se aplican a la región de texto de diálogo, en el que un segmento actual de presentación de diálogo contiene una bandera de presentación continua que indica que se requiere presentación continua entre el segmento actual de presentación de diálogo y un segmento previo de presentación de diálogo, en el que, si el segmento de presentación de diálogo incluye más de una región de texto de diálogo, las regiones de texto de diálogo se vinculan a los estilos de región que especifican el mismo flujo de texto, en el que, si más de un segmento de presentación de diálogo son presentados continuamente, los segmentos de presentación de diálogo se agrupan como conjunto de presentación continua, en el que el segmento de presentación de diálogo incluye un campo que representa una interrupción de línea que indica que precisa ser cambiada la línea de datos.
  22. 22.
    El aparato de la reivindicación 21, en el que el controlador (3) está configurado para grabar la bandera de presentación continua que se fija en “0” para indicar que no es requerida presentación continua para el segmento de presentación de diálogo con uno previo.
  23. 23.
    El aparato de la reivindicación 21, en el que el controlador (3) está configurado para grabar la bandera de presentación continua que se fija en “1” para indicar que se requiere presentación continua para el segmento de presentación de diálogo con uno previo.
  24. 24.
    El aparato de la reivindicación 21, en el que el controlador (3) está configurado para grabar la bandera de presentación continua que indica además la presentación continua entre la primera región de texto situada en el segmento actual de presentación de diálogo y segunda región de texto situada en el segmento de presentación previo.
  25. 25.
    El aparato de la reivindicación 21, en el que el controlador (3) está configurado para controlar el mismo flujo de textos para indicar al menos una de entre progresión de caracteres y progresión de líneas.
  26. 26.
    El aparato de la reivindicación 21, en el que el controlador (3) está configurado para grabar cada segmento de presentación de diálogo que incluye información de tiempo de presentación que indica un tiempo de inicio del segmento de presentación de diálogo y un tiempo de final del segmento de presentación de diálogo.
  27. 27.
    El aparato de la reivindicación 26, en el que el controlador (3) está configurado para controlar el tiempo de inicio del segmento actual de presentación de diálogo y el tiempo de final del segmento previo de presentación de diálogo para que sean idénticos si se requiere presentación continua entre el segmento actual de presentación de diálogo y el segmento previo de presentación de diálogo.
  28. 28.
    El aparato de la reivindicación 21, en el que, si el controlador (3) está configurado para grabar un segmento de presentación de diálogo discontinua que comienza, se restablece la información relacionada con el segmento previo de presentación de diálogo dentro del plano de gráficos.
  29. 29.
    El aparato de la reivindicación 18, en el que el descodificador (42) de subtítulos de texto está configurado para incluir un procesador (421) de subtítulos de texto que analiza los archivos de flujo de subtítulos de texto a información de composición de e interpretación y datos de texto.
  30. 30.
    El aparato de la reivindicación 29, en el que el descodificador (42) de subtítulos de texto está configurado para incluir una memoria temporal de composición
    (425) que almacena la información composición y de interpretación y una memoria temporal (422) que almacena datos de texto.
  31. 31.
    El aparato de la reivindicación 30, en el que el descodificador (42) de subtítulos de texto está configurado para incluir un controlador de presentación (426) que controla la memoria de composición (425) y la memoria temporal (422).
  32. 32.
    El medio de grabación de la reivindicación 1, en el que el primer segmento de presentación de diálogo del conjunto de presentación continua es continuamente presentado hasta el segmento de presentación de diálogo final del conjunto de presentación continua.
ES05721968T 2004-03-26 2005-03-22 Medio de grabación, método y aparato para reproducir flujos de subtítulos de texto. Active ES2350940T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2004-0020890 2004-03-26
KR20040020890 2004-03-26
KR10-2004-0022251 2004-03-31

Publications (1)

Publication Number Publication Date
ES2350940T3 true ES2350940T3 (es) 2011-01-28

Family

ID=34989929

Family Applications (2)

Application Number Title Priority Date Filing Date
ES05721893T Active ES2336223T3 (es) 2004-03-26 2005-03-03 Medio de grabacion o registro y metodo y aparato para reproducir un flujo o corriente de subtitulos de texto grabados en el medio de grabacion.
ES05721968T Active ES2350940T3 (es) 2004-03-26 2005-03-22 Medio de grabación, método y aparato para reproducir flujos de subtítulos de texto.

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES05721893T Active ES2336223T3 (es) 2004-03-26 2005-03-03 Medio de grabacion o registro y metodo y aparato para reproducir un flujo o corriente de subtitulos de texto grabados en el medio de grabacion.

Country Status (12)

Country Link
US (3) US7756398B2 (es)
EP (1) EP1730730B1 (es)
JP (1) JP4599396B2 (es)
KR (1) KR101067778B1 (es)
CN (6) CN1934624B (es)
AT (1) ATE450041T1 (es)
BR (1) BRPI0509270A (es)
DE (1) DE602005017878D1 (es)
ES (2) ES2336223T3 (es)
IN (1) IN266747B (es)
RU (1) RU2376659C2 (es)
WO (1) WO2005091722A2 (es)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100727921B1 (ko) * 2004-02-28 2007-06-13 삼성전자주식회사 텍스트 기반의 서브타이틀 스트림을 기록한 저장 매체,재생 장치 및 그 재생 방법
US7529467B2 (en) * 2004-02-28 2009-05-05 Samsung Electronics Co., Ltd. Storage medium recording text-based subtitle stream, reproducing apparatus and reproducing method for reproducing text-based subtitle stream recorded on the storage medium
RU2376659C2 (ru) * 2004-03-26 2009-12-20 ЭлДжи ЭЛЕКТРОНИКС ИНК. Носитель записи и способ и устройство для воспроизведения потока текстовых субтитров, записанного на носителе записи
KR101053622B1 (ko) 2004-03-26 2011-08-03 엘지전자 주식회사 기록매체 및 텍스트 서브타이틀 스트림 재생 방법과 장치
WO2006109716A1 (ja) * 2005-04-07 2006-10-19 Matsushita Electric Industrial Co., Ltd. 記録媒体、再生装置、記録方法、再生方法
KR101070748B1 (ko) * 2005-05-19 2011-10-10 엘지전자 주식회사 휴대형 재생장치의 파일정보 제공방법
CN101882456B (zh) * 2005-08-09 2012-11-28 松下电器产业株式会社 记录介质,重放设备、方法及程序
TWM304101U (en) * 2006-06-14 2007-01-01 Wei-Jing Yang DVD player capable of showing multi-national captions
US20090089677A1 (en) * 2007-10-02 2009-04-02 Chan Weng Chong Peekay Systems and methods for enhanced textual presentation in video content presentation on portable devices
CN101494075B (zh) * 2008-01-25 2012-05-23 中国电子科技集团公司第三研究所 一种显示菜单相关信息的方法
US8428437B2 (en) * 2008-02-14 2013-04-23 Panasonic Corporation Reproduction device, integrated circuit, reproduction method, program, and computer-readable recording medium
US20100091188A1 (en) * 2008-07-11 2010-04-15 Stmicroelectronics Pvt. Ltd. Synchronization of secondary decoded media streams with a primary media stream
CN101764955B (zh) * 2008-11-28 2013-05-01 新奥特(北京)视频技术有限公司 一种快速录入字幕的方法
US9160960B2 (en) * 2010-12-02 2015-10-13 Microsoft Technology Licensing, Llc Video preview based browsing user interface
US10362333B2 (en) 2014-01-02 2019-07-23 Qualcomm Incorporated Color index coding for palette-based video coding
US10257521B2 (en) * 2014-10-01 2019-04-09 Kt Corporation Method and apparatus for processing video signal
CN113660536A (zh) * 2021-09-28 2021-11-16 北京七维视觉科技有限公司 一种字幕显示方法和装置

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0519686A (ja) * 1991-07-17 1993-01-29 Pioneer Electron Corp ナビゲーシヨン装置
US5258747A (en) * 1991-09-30 1993-11-02 Hitachi, Ltd. Color image displaying system and method thereof
JPH05137103A (ja) * 1991-11-15 1993-06-01 Hitachi Ltd プレゼンテーシヨン装置
PL172562B1 (pl) 1993-08-20 1997-10-31 Thomson Consumer Electronics Urzadzenie do kompresji i transmisji cyfrowego sygnalu wizyjnego PL PL
US5684542A (en) 1993-12-21 1997-11-04 Sony Corporation Video subtitle processing system
JPH07203396A (ja) 1993-12-28 1995-08-04 Sony Corp 字幕データ復号化装置
JP3644455B2 (ja) 1994-09-29 2005-04-27 ソニー株式会社 番組情報放送方式、番組情報表示方法および受信装置
ES2143092T4 (es) * 1994-12-14 2011-11-22 Koninklijke Philips Electronics N.V. Sistema de transmisión de subtítulos.
US5721720A (en) 1994-12-28 1998-02-24 Kabushiki Kaisha Toshiba Optical recording medium recording pixel data as a compressed unit data block
KR0136025B1 (ko) * 1994-12-30 1998-05-15 배순훈 캡션기능을 갖춘 비디오 디스크와 그 재생장치(video compact disc with caption data recorded thereon and system for handling the same)
CA2168327C (en) * 1995-01-30 2000-04-11 Shinichi Kikuchi A recording medium on which a data containing navigation data is recorded, a method and apparatus for reproducing a data according to navigationdata, a method and apparatus for recording a data containing navigation data on a recording medium.
JPH08241068A (ja) * 1995-03-03 1996-09-17 Matsushita Electric Ind Co Ltd 情報記録媒体およびビットマップデータ復号化装置とビットマップデータ復号化方法
US5945982A (en) 1995-05-30 1999-08-31 Minolta Co., Ltd. Data administration apparatus that can search for desired image data using maps
JP3348339B2 (ja) * 1995-08-02 2002-11-20 ソニー株式会社 データ記録方法及び装置、データ再生方法及び装置
JPH09102940A (ja) 1995-08-02 1997-04-15 Sony Corp 動画像信号の符号化方法、符号化装置、復号化装置、記録媒体及び伝送方法
JP3326670B2 (ja) * 1995-08-02 2002-09-24 ソニー株式会社 データ符号化/復号化方法および装置、および符号化データ記録媒体
EP0765082A3 (en) 1995-09-25 1999-04-07 Sony Corporation Subtitle signal encoding/decoding
TW385431B (en) * 1995-09-29 2000-03-21 Matsushita Electric Ind Co Ltd A method and an apparatus for encoding a bitstream with plural possible searching reproduction paths information useful in multimedia optical disk
KR100203264B1 (ko) * 1996-06-29 1999-06-15 윤종용 디지탈비디오디스크 시스템의 부영상 복호방법 및그장치
JPH1118108A (ja) * 1997-06-25 1999-01-22 Sony Corp 映像信号処理装置及び映像信号処理方法
JPH11252459A (ja) * 1998-02-26 1999-09-17 Toshiba Corp 画像合成装置
US6570579B1 (en) 1998-11-09 2003-05-27 Broadcom Corporation Graphics display system
JP3783467B2 (ja) 1999-03-31 2006-06-07 ブラザー工業株式会社 情報作成装置及び方法、情報作成プログラムが記録された情報記録媒体、情報出力装置並びに情報記録装置
JP3805929B2 (ja) 1999-07-05 2006-08-09 パイオニア株式会社 情報記録装置及び情報記録方法
JP3695277B2 (ja) 2000-03-30 2005-09-14 ヤマハ株式会社 表示制御装置
DE10041574A1 (de) 2000-08-24 2002-03-07 Merck Patent Gmbh Chromenonderivate
US7050109B2 (en) * 2001-03-02 2006-05-23 General Instrument Corporation Methods and apparatus for the provision of user selected advanced close captions
US20020133521A1 (en) 2001-03-15 2002-09-19 Campbell Gregory A. System and method for text delivery
US20030227565A1 (en) * 2001-06-01 2003-12-11 Hamilton Thomas Herman Auxiliary information processing system with a bitmapped on-screen display using limited computing resources
JP4409150B2 (ja) * 2001-06-11 2010-02-03 三星電子株式会社 多国語マークアップ文書支援情報が記録された情報貯蔵媒体、その再生装置及び再生方法
KR100457512B1 (ko) 2001-11-29 2004-11-17 삼성전자주식회사 광 기록 매체, 광 기록 매체 재생 장치 및 방법
KR20030061953A (ko) * 2002-01-14 2003-07-23 엘지전자 주식회사 광기록 매체의 재생시 자막 가림 방법
KR20030065332A (ko) 2002-01-31 2003-08-06 톰슨 라이센싱 소시에떼 아노님 비디오 시스템에서 보조 정보를 처리하기 위한 방법
KR100456024B1 (ko) * 2002-02-28 2004-11-08 한국전자통신연구원 디브이디 플레이어의 자막정보 재생 장치 및 방법
KR100521914B1 (ko) 2002-04-24 2005-10-13 엘지전자 주식회사 재생리스트 요약정보 관리방법
KR100554768B1 (ko) 2002-06-28 2006-02-22 엘지전자 주식회사 다중 재생 경로 비디오 데이터의 재생을 관리하기 위한데이터 구조를 갖는 기록 매체와 그에 따른 기록 및 재생방법 및 장치
EP1394690A1 (en) 2002-08-29 2004-03-03 Sun Microsystems, Inc. Behaviour of anchored frames
KR100607949B1 (ko) 2002-09-11 2006-08-03 삼성전자주식회사 계층화된 정보 구조를 이용한 멀티미디어 데이터 기록장치, 재생 장치 및 그 정보저장매체
KR20040024113A (ko) * 2002-09-13 2004-03-20 엘지전자 주식회사 디지털 다기능 디스크 장치에서의 재생 제어방법
US20060152622A1 (en) 2002-10-04 2006-07-13 Jek-Thoon Tan Visual contents in karaoke applications
US20040071453A1 (en) * 2002-10-08 2004-04-15 Valderas Harold M. Method and system for producing interactive DVD video slides
US20040081434A1 (en) * 2002-10-15 2004-04-29 Samsung Electronics Co., Ltd. Information storage medium containing subtitle data for multiple languages using text data and downloadable fonts and apparatus therefor
CA2506521C (en) 2002-11-15 2010-04-27 Thomson Licensing S.A. Method and apparatus for composition of subtitles
WO2004049710A1 (ja) 2002-11-28 2004-06-10 Sony Corporation 再生装置、再生方法、再生プログラムおよび記録媒体
KR100940022B1 (ko) 2003-03-17 2010-02-04 엘지전자 주식회사 오디오 데이터의 텍스트 변환 및 디스플레이 방법
KR20050001850A (ko) 2003-06-26 2005-01-07 엘지전자 주식회사 국가 코드를 이용한 데이터 선별 재생방법
TW200809592A (en) * 2003-06-30 2008-02-16 Matsushita Electric Ind Co Ltd Recording medium, reproduction device, recording method, program, and reproduction method
ATE494731T1 (de) 2003-07-03 2011-01-15 Panasonic Corp Aufzeichnungsgerät und -verfahren, aufzeichnungsmedium und wiedergabegerät und - verfahren
DE602004008923T2 (de) * 2003-07-11 2008-01-17 Matsushita Electric Industrial Co., Ltd., Kadoma Aufzeichnungsmedium und -verfahren, wiedergabegerät und -verfahren, und computerlesbares programm
KR100739682B1 (ko) * 2003-10-04 2007-07-13 삼성전자주식회사 텍스트 기반의 서브 타이틀 정보를 기록한 정보저장매체,그 처리장치 및 방법
KR100619053B1 (ko) 2003-11-10 2006-08-31 삼성전자주식회사 서브 타이틀을 기록한 정보저장매체 및 그 처리장치
US7519274B2 (en) * 2003-12-08 2009-04-14 Divx, Inc. File format for multiple track digital data
WO2005076601A1 (en) * 2004-02-10 2005-08-18 Lg Electronic Inc. Text subtitle decoder and method for decoding text subtitle streams
KR20070028326A (ko) * 2004-02-10 2007-03-12 엘지전자 주식회사 기록매체 및 텍스트 서브타이틀 스트림 디코딩 방법과 장치
KR100727921B1 (ko) * 2004-02-28 2007-06-13 삼성전자주식회사 텍스트 기반의 서브타이틀 스트림을 기록한 저장 매체,재생 장치 및 그 재생 방법
US7529467B2 (en) 2004-02-28 2009-05-05 Samsung Electronics Co., Ltd. Storage medium recording text-based subtitle stream, reproducing apparatus and reproducing method for reproducing text-based subtitle stream recorded on the storage medium
ATE453191T1 (de) 2004-03-18 2010-01-15 Lg Electronics Inc Aufzeichungsmedium und verfahren und vorrichtung zur wiedergabe eines auf dem aufzeichnungsmedium aufgezeichneten textuntertitelstroms
KR101053622B1 (ko) 2004-03-26 2011-08-03 엘지전자 주식회사 기록매체 및 텍스트 서브타이틀 스트림 재생 방법과 장치
RU2376659C2 (ru) * 2004-03-26 2009-12-20 ЭлДжи ЭЛЕКТРОНИКС ИНК. Носитель записи и способ и устройство для воспроизведения потока текстовых субтитров, записанного на носителе записи
JP5137103B2 (ja) 2007-03-16 2013-02-06 独立行政法人情報通信研究機構 電波イメージング方法及び装置

Also Published As

Publication number Publication date
RU2376659C2 (ru) 2009-12-20
US8380044B2 (en) 2013-02-19
EP1730730B1 (en) 2009-11-25
DE602005017878D1 (de) 2010-01-07
CN101114499B (zh) 2011-08-03
KR20070007845A (ko) 2007-01-16
US20050213944A1 (en) 2005-09-29
CN1934638B (zh) 2011-12-28
US20070201831A1 (en) 2007-08-30
IN266747B (es) 2015-05-29
JP2007531192A (ja) 2007-11-01
US20070140659A1 (en) 2007-06-21
CN101114499A (zh) 2008-01-30
BRPI0509270A (pt) 2007-09-04
WO2005091722A3 (en) 2005-11-17
ES2336223T3 (es) 2010-04-09
CN101241744A (zh) 2008-08-13
CN101127922A (zh) 2008-02-20
CN101197172B (zh) 2011-04-13
CN101241744B (zh) 2012-09-12
US8374486B2 (en) 2013-02-12
CN1934624B (zh) 2011-10-05
CN1934638A (zh) 2007-03-21
KR101067778B1 (ko) 2011-09-28
EP1730730A2 (en) 2006-12-13
ATE450041T1 (de) 2009-12-15
CN101197172A (zh) 2008-06-11
RU2006137720A (ru) 2008-05-10
WO2005091722A2 (en) 2005-10-06
JP4599396B2 (ja) 2010-12-15
CN101127922B (zh) 2012-06-13
US7756398B2 (en) 2010-07-13
CN1934624A (zh) 2007-03-21

Similar Documents

Publication Publication Date Title
ES2350940T3 (es) Medio de grabación, método y aparato para reproducir flujos de subtítulos de texto.
US7587405B2 (en) Recording medium and method and apparatus for decoding text subtitle streams
US7848617B2 (en) Recording medium, method, and apparatus for reproducing text subtitle streams
US8498515B2 (en) Recording medium and recording and reproducing method and apparatuses
US7643732B2 (en) Recording medium and method and apparatus for decoding text subtitle streams
ES2338019T3 (es) Medio de grabacion y metodo y aparato para reproducir un flujo o corriente de subtitulos de texto grabados en el medio de grabacion.
ES2351033T3 (es) Médio de grabación y método y aparato para reproducir y grabar flujos de subtítulos de texto.
RU2380768C2 (ru) Носитель записи, способ и устройство для декодирования потоков текстовых субтитров
KR20060136441A (ko) 기록매체, 기록매체의 텍스트 서브타이틀 스트림 기록 및재생 방법과 장치
KR20070000471A (ko) 기록매체, 기록매체의 텍스트 서브타이틀 스트림 기록 및재생 방법과 장치
KR20070032289A (ko) 기록매체 및 텍스트 서브타이틀 스트림 디코딩 방법과 장치