ES2336223T3 - Medio de grabacion o registro y metodo y aparato para reproducir un flujo o corriente de subtitulos de texto grabados en el medio de grabacion. - Google Patents
Medio de grabacion o registro y metodo y aparato para reproducir un flujo o corriente de subtitulos de texto grabados en el medio de grabacion. Download PDFInfo
- Publication number
- ES2336223T3 ES2336223T3 ES05721893T ES05721893T ES2336223T3 ES 2336223 T3 ES2336223 T3 ES 2336223T3 ES 05721893 T ES05721893 T ES 05721893T ES 05721893 T ES05721893 T ES 05721893T ES 2336223 T3 ES2336223 T3 ES 2336223T3
- Authority
- ES
- Spain
- Prior art keywords
- palette
- information
- text
- segment
- style
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/804—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
- H04N9/8042—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/034—Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/102—Programmed access in sequence to addressed parts of tracks of operating record carriers
- G11B27/105—Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/28—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
- G11B27/30—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
- G11B27/3027—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B7/00—Recording or reproducing by optical means, e.g. recording using a thermal beam of optical radiation by modifying optical properties or the physical structure, reproducing using an optical beam at lower power by sensing optical properties; Record carriers therefor
- G11B7/007—Arrangement of the information on the record carrier, e.g. form of tracks, actual track shape, e.g. wobbled, or cross-section, e.g. v-shaped; Sequential information structures, e.g. sectoring or header formats within a track
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/426—Internal components of the client ; Characteristics thereof
- H04N21/42646—Internal components of the client ; Characteristics thereof for reading from or writing on a non-volatile solid state storage medium, e.g. DVD, CD-ROM
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43074—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of additional data with content streams on the same device, e.g. of EPG data or interactive icon with a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
- H04N21/44004—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/488—Data services, e.g. news ticker
- H04N21/4884—Data services, e.g. news ticker for displaying subtitles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/44—Receiver circuitry for the reception of television signals according to analogue transmission standards
- H04N5/445—Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/84—Television signal recording using optical recording
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
- H04N9/8233—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a character code signal
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B2220/00—Record carriers by type
- G11B2220/20—Disc-shaped record carriers
- G11B2220/25—Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
- G11B2220/2537—Optical discs
- G11B2220/2541—Blu-ray discs; Blue laser DVR discs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/84—Television signal recording using optical recording
- H04N5/85—Television signal recording using optical recording on discs or drums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/804—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
- H04N9/806—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
- H04N9/8063—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
- H04N9/8227—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/87—Regeneration of colour television signals
- H04N9/8715—Regeneration of colour television signals involving the mixing of the reproduced video signal with a non-recorded signal, e.g. a text signal
Abstract
Un medio de grabación para reproducir flujos de subtítulos de texto, comprendiendo el medio de grabación una zona de datos que almacena al menos un flujo de subtítulos de texto, caracterizado porque cada flujo de subtítulos de texto incluye un segmento de estilo de diálogo (DSS) que define un grupo de estilos de región y una pluralidad de segmentos de presentación de diálogo, conteniendo cada segmento de presentación de diálogo (DPS) al menos una región de texto de diálogo y estando cada región de texto de diálogo vinculada a uno seleccionado del grupo de estilos de región, en el que el segmento de estilo de diálogo define además información de paleta, incluyendo la información de paleta información de color y de opacidad, y conteniendo además cada segmento de presentación de diálogo una bandera de actualización de paleta que indica si se usa la información de paleta definida en el segmento de estilo de diálogo o se usa una nueva información de paleta cuando se reproduce cada segmento de presentación de diálogo.
Description
Medio de grabación o registro y método y aparato
para reproducir un flujo o corriente de subtítulos de texto grabados
en el medio de grabación.
La presente invención se refiere a un medio de
grabación o registro y, más particularmente, a un medio de
grabación y a un método y un aparato para reproducir un flujo o
corriente de subtítulos de texto grabados en el medio de grabación.
Aunque la presente invención es apropiada para un amplio campo de
aplicaciones, es particularmente apropiada para grabar el archivo
del flujo de subtítulos del texto dentro del medio de grabación y
reproducir eficazmente el flujo de subtítulos de texto grabados.
Se utilizan ampliamente discos ópticos como un
medio de grabación óptico para grabar datos en serie o en masa.
Actualmente, entre una amplia gama de discos ópticos, está en
desarrollo un nuevo medio de grabación óptico de alta densidad (al
que se hace referencia a continuación como
"HD-DVD"), tal como un disco
Blu-ray (al que se hace referencia en lo que sigue
como "BD"), para escribir y almacenar datos de vídeo y audio de
alta definición. Actualmente, están bajo establecimiento
especificaciones técnicas de normas globales del Disco
Blu-ray (BD), que se sabe que es la tecnología de
próxima generación, como una solución de grabación óptica de
siguiente generación que es capaz de tener unos datos que superen
significativamente el DVD convencional, junto con muchos otros
aparatos digitales.
Por lo tanto, están siendo desarrollados también
aparatos de reproducción óptica que tienen normas del Disco
Blu-ray (BD) aplicadas a los mismos. Sin embargo,
puesto que las normas del Disco Blu-ray (BD) tienen
que ser completadas todavía, se han presentado muchas dificultades
en el desarrollo de un aparato de reproducción óptica completo.
Particularmente, con el fin de reproducir eficazmente los datos del
Disco Blu-ray (BD), no sólo han de ser
proporcionados los datos de AV principales, así como diversos datos
requeridos para una conveniencia del usuario, tales como
información de subtítulo como los datos suplementarios relacionados
con los datos de AV principales, sino que también se ha de
sistematizar y proporcionar información de gestión para reproducir
los datos principales y los datos de subtítulo grabados en el disco
óptico.
Sin embargo, en las presentes normas de
Blu-ray Disc, puesto que se tienen que completar
todavía los métodos preferidos de crear los datos suplementarios,
particularmente el archivo de flujo de subtítulos, existen muchas
restricciones en el desarrollo a plena escala del aparato de
reproducción óptica basado en el Blu-ray Disc. Y
tales restricciones causan problemas al proporcionar los datos
suplementarios, tales como subtítulos, al usuario.
Se muestra tecnología relacionada en el
documento EP-A-1 400 968 y en el
documento KR 2003 061 953 A (véase el preámbulo de la
reivindicaciones independientes).
La presente invención se concreta en las
reivindicaciones.
Por lo tanto, la presente invención está
dirigida a un medio de grabación y a un método y un aparato para
reproducir un flujo de subtítulos de texto en el medio de grabación,
que evitan esencialmente uno o más problemas debidos a limitaciones
y desventajas de la técnica relacionada.
Un objeto de la presente invención consiste en
proporcionar un método de crear un conjunto de información de
paleta cuando se graba un archivo de flujo de subtítulos de texto
dentro de un medio de grabación de acuerdo con la presente
invención.
Otro objeto de la presente invención es
proporcionar un método y un aparato para reproducir un flujo de
subtítulos de texto que pueda reproducir eficazmente el
anteriormente descrito flujo de subtítulos de texto de acuerdo con
la presente invención.
Ventajas, objetos y características
adicionales de la invención se expondrán en parte en la descripción
que sigue y en parte resultarán evidentes a los que tienen
conocimientos ordinarios en la técnica tras el examen de lo que
sigue o pueden aprender de la práctica de la invención. Los objetos
y otras ventajas de la invención se pueden realizar y conseguir
por medio de la estructura particularmente indicada en la
descripción escrita y en las reivindicaciones adjuntas, así como en
los dibujos que se acompañan.
Para conseguir estos objetos y otras ventajas y
de acuerdo con los fines de la invención, según se incorpora y se
describe ampliamente aquí, un medio de grabación para reproducir
flujos de subtítulo de texto incluye una zona de datos que almacena
al menos un flujo de subtítulos de texto, incluyendo cada flujo de
subtítulos de texto un segmento del estilo de diálogo que define
un grupo de estilos de región y una pluralidad de segmentos de
presentación de diálogo, conteniendo cada segmento de presentación
de diálogo al menos una región de texto de diálogo y estando cada
región de texto de diálogo vinculada a uno seleccionado del grupo de
la región de estilos, en el que el segmento de estilo de diálogo
define además información de paleta y conteniendo además cada
segmento de presentación de diálogo una bandera o indicación de
actualización de paleta que indica si se usa la información de
paleta definida en el segmento de estilo de diálogo o se usa la
nueva información de paleta cuando se reproduce cada segmento de
presentación de diálogo. En otro aspecto de la presente invención,
un método para reproducir un flujo de subtítulos de texto grabado en
un medio de grabación incluye leer un segmento de estilo de diálogo
incluido en el flujo de subtítulos de texto, definiendo el segmento
de estilo de diálogo un grupo de estilos de región e información de
paleta, leer cada uno de una pluralidad de segmentos de
presentación de diálogo incluidos en el flujo de subtítulos de
texto, conteniendo cada segmento de presentación de diálogo al
menos una región de texto de diálogo y estando cada región de texto
de diálogo vinculada a uno seleccionado del grupo de estilos de
región, leer una bandera de actualización de paleta incluida en cada
segmento de presentación de diálogo, indicando la bandera de
actualización de paleta si se ha de usar la información de paleta
definida en el segmento de estilo de diálogo o usar una nueva
información de paleta cuando se reproduce cada segmento de
presentación de diálogo, y presentar cada segmento de presentación
de diálogo de acuerdo con la indicación de la bandera de
actualización de paleta.
En un aspecto más de la presente invención, un
aparato para reproducir un flujo de subtítulos de texto grabado en
un medio de grabación incluye una memoria temporal (buffer)
configurada para precargar el flujo de subtítulos de texto,
incluyendo el flujo de subtítulos de texto precargado un segmento de
estilo de diálogo y una pluralidad de segmentos de presentación
estilo de diálogo, definiendo el segmento de estilo de diálogo un
grupo de estilos de región e información de paleta y conteniendo
cada segmento de presentación de diálogo al menos una región de
texto de diálogo, estando cada región de texto de diálogo vinculada
a uno seleccionado del grupo de estilos de región, y un
descodificador de subtítulos de texto configurado para leer una
bandera de actualización de paleta incluida en cada segmento de
presentación de diálogo, indicando la bandera de actualización de
paleta si utilizar la información de paleta definida en el segmento
de estilo de diálogo o utilizar nueva información de paleta,
presentando el descodificador de subtítulos de texto cada segmento
de presentación de diálogo de acuerdo con la indicación de la
bandera de actualización de paleta.
Se ha de entender que tanto la descripción
general precedente como la siguiente descripción detallada de la
presente invención son ejemplares y explicativas y están destinadas
a proporcionar explicación adicional de la invención, según se
reivindica.
Los dibujos que se acompañan, que se incluyen
para proporcionar en entendimiento adicional de la invención y se
incorporan y constituyen una parte de esta solicitud, ilustran
realizaciones de la invención y, juntamente con la descripción,
sirven para explicar el principio de la invención. En los
dibujos:
La figura 1 ilustra una estructura de los
archivos de datos grabados en un disco óptico de acuerdo con la
presente invención;
La figura 2 ilustra zonas de almacenamiento de
datos del disco óptico de acuerdo con la presente invención;
La figura 3 ilustra un subtítulo de texto y una
imagen principal mostrados en una pantalla de presentación de
acuerdo con la presente invención;
La figura 4 ilustra un diagrama esquemático que
ilustra el control de reproducción de un flujo de subtítulos de
texto de acuerdo con la presente invención;
Las figuras 5A a 5C ilustran aplicaciones de la
información de control de reproducción para reproducir el flujo de
subtítulos de texto de acuerdo con la presente invención;
La figura 6 ilustra la estructura de un archivo
de flujo de subtítulos de texto de acuerdo con la presente
invención;
Las figuras 7A y 7B ilustran aplicaciones de un
conjunto de información de paleta para una estructura del archivo
de flujo de subtítulos de texto de la presente invención;
La figura 8 ilustra una sintaxis del archivo de
flujo de subtítulos de texto de acuerdo con la presente
invención;
Las figuras 9A a 9D ilustran otro ejemplo de
sintaxis del archivo de flujo de subtítulos de texto de acuerdo con
la presente invención;
La figura 10A ilustra otro ejemplo de sintaxis
del archivo de flujo de subtítulos de texto de acuerdo con la
presente invención;
La figura 10B ilustra un ejemplo de una sintaxis
de un subtítulo de región entre el archivo de flujo de subtítulos
de texto de acuerdo con una primera realización de la presente
invención; y
Las figuras 11A y 11B ilustran un aparato de
grabación y/o reproducción óptica que incluye una reproducción del
archivo de flujo de subtítulos de texto de la presente
invención,
Se hará referencia ahora en detalle a las
realizaciones preferidas de la presente invención, ejemplo de las
cuales se ilustran en los dibujos que se acompañan. Siempre que sea
posible, se utilizarán los mismos números de referencia en todos
los dibujos para señalar las mismas o similares partes. Además,
aunque los términos usados en la presente invención son
seleccionados a partir de términos generalmente conocidos y usados,
algunos de los términos mencionados en la descripción de la
presente invención han sido seleccionados por el solicitante a su
discreción, los significados detallados de los cuales se describen
en partes pertinentes de la presente descripción. Además, se
requiere que la presente invención sea entendida, no simplemente por
los términos reales utilizados, sino por el significado de cada
término contenido en ella.
En esta descripción detallada, "medio de
grabación" se refiere a todos los tipos de medio o soporte en que
se puedan grabar datos e incluye en sentido amplio todos los tipos
de medios independientemente del método de grabación, tales como un
disco óptico, una cinta magnética, etc. A continuación, para
simplificar la descripción de la presente invención, se dan el
disco óptico y, más concretamente, el "disco
Blu-ray (BD)" como un ejemplo del medio de
grabación propuesto en este documento.
En esta descripción detallada, "datos
principales" representan datos de audio/vídeo (AV) que
pertenezcan a un título (por ejemplo, un título de película)
grabado en un disco óptico por un autor. En general, los datos de
AV se graban en formato de MPEG2 y se denominan con frecuencia
flujos o corrientes de AV o flujos principales de AV. Además,
"datos suplementarios" representan todos los otros datos
requeridos para reproducir los datos principales, ejemplos de los
cuales son flujos de subtítulos de texto, flujos de gráficos
interactivos, flujos de gráficos de presentación y flujos de audio
suplementarios (por ejemplo, para una exposición de diapositivas
ojeable). Estos flujos de datos suplementarios pueden ser grabados
en formato de MPEG2 o en cualquier otro formato de datos. Se pueden
multiplexar con los flujos de AV o pueden existir como archivos de
datos independientes dentro del disco óptico.
Un "subtítulo" representa información de
leyenda correspondiente a datos de vídeo (imagen) que estén siendo
reproducidos, y se puede representar en un lenguaje predeterminado.
Por ejemplo, cuando un usuario selecciona una opción para ver uno
de una pluralidad de subtítulos representados en varios lenguajes
mientras se contemplan imágenes en una pantalla de presentación, la
información de leyenda correspondiente al subtítulo seleccionado es
presentada visualmente en una parte predeterminada de la pantalla de
presentación. Si la información de leyenda presentada son datos de
texto (por ejemplo, caracteres), el subtítulo seleccionado es con
frecuencia denominado "subtítulo de texto". Así mismo, en la
presente invención, "información de paleta" se refiere a
información de color e información de opacidad, que son
proporcionadas al usuario, cuando se reproducen en la pantalla los
datos de subtítulo de texto. De acuerdo con la presente invención,
se pueden grabar en un disco óptico una pluralidad de flujos de
subtítulos de texto en formato de MPEG2, y pueden existir como una
pluralidad de archivos de flujos independientes. Cada "archivo de
flujo de subtítulos de texto" es creado y grabado dentro de un
disco óptico. Y la finalidad de la presente invención consiste en
proporcionar un método y un aparato para reproducir el archivo de
flujo de subtítulos de texto grabado.
La figura 1 ilustra una estructura de archivo de
los archivos de datos grabados en un disco Blu-ray
(al que se hace referencia en lo que sigue como "BD") de
acuerdo con la presente invención. Haciendo referencia a la figura
1, se incluye al menos un directorio de BD (BDMV) en un directoria
raíz (raíz). Cada directorio de BD incluye un archivo de índice
(index.bdmv) y un archivo de objetos (MovieObjet.bdmv), que se usan
para interactuar con uno o más usuarios. Por ejemplo, el archivo de
índice puede contener datos que representen una tabla de índices
que tenga una pluralidad de menús seleccionable y títulos de
películas. Cada directorio de BD incluye además cuatro directorios
de archivo que incluyan datos de audio/vídeo (AV) que se han de
reproducir y varios datos requeridos para la reproducción de los
datos de AV.
Los directorios de archivo incluidos en cada
directorio de BD son un directorio de flujo (FLUJO), in directorio
de información de clip o secuencia (CLIPINF), un directorio de lista
discográfica (PLAYLIST) y un directorio de datos auxiliares (AUX
DATA). Ante todo, el directorio de flujo (FLUJO) incluye archivos de
flujo de audio/vídeo (AV) que tienen un formato de datos
particular. Por ejemplo, los archivos de flujo de AV pueden ser de
la forma de paquetes de transporte de MPEG2 y ser denominados como
"*.m2ts", como se muestra en la figura 1. El directorio de
flujo puede incluir además uno o más archivos de flujo de subtítulos
de texto, donde cada archivo de flujo de subtítulos de texto
incluye datos de texto (pos ejemplo, caracteres) para un subtítulo
de texto representado en un lenguaje particular e información de
control de reproducción de los datos de texto. Los archivos de
flujo de subtítulos de texto existen como archivos de flujo
independientes dentro del directorio de flujo y se pueden denominar
como "*m2ts" ó "*.txtst", como se muestra en la figura 1.
Un archivo de flujo de AV o archivo de flujo de subtítulos de texto
incluido en el directorio de flujo se denomina con frecuencia un
archivo de flujo de clip o secuencia.
A continuación, el directorio de información de
secuencia (CLIPINF) incluye archivos de información de secuencia
que corresponden a los archivos de flujo (subtítulo de AV o de
texto) incluidos en el directorio de flujo, respectivamente. Cada
archivo de información de secuencia contiene información de
temporización de propiedad y reproducción de un archivo de flujo
correspondiente. Por ejemplo, un archivo de información de secuencia
puede incluir información de mapeado, en la que estampillas de
tiempo de presentación (PTS: Presentation time stamps) y número de
paquetes fuente (SPN: Source packet numbers) están en
correspondencia de uno-a-uno y son
mapeados por un mapa de puntos de entrada (EPM: Entry point map),
dependiendo del tipo de secuencia. Usando la información de
mapeado, se puede determinar una posición particular de un archivo
de flujo a partir de un conjunto de información de temporización
(En-Tiempo y Fuera de Tiempo) proporcionada por un
PlayItem o SubPlayItem, que se describirán posteriormente con más
detalle. En las normas de la industria, cada par de un archivo de
flujo y su correspondiente archivo de información de secuencia se
designan como un clip. Por ejemplo, 01000.clpi incluido en CLIPINF
incluye información de temporización de propiedad y reproducción de
01000.m2ts incluida en FLUJO, y 01000.clpi y 01000.m2ts forman un
clip o secuencia.
Haciendo referencia de nuevo a la figura 1, el
directorio Lista Discográfica (PLYLIST) incluye uno o más archivos
de PlayList (*.mpls), donde cada archivo de PlayList incluye al
menos un PlayItem que designa al menos una secuencia principal de
AV y el tiempo de reproducción de la secuencia principal de AV. Más
concretamente, un PlayItem contiene designación de información
En-Tiempo y Fuera-de Tiempo, que
representa tiempos de comienzo y de final de reproducción para una
secuencia principal de AV designada por Nombre_Archivo_Información_
Clip dentro del PlayItem. Por lo tanto, un archivo de PlayList
representa la información de control de reproducción básica para
una o más secuencias principales de AV. Además, el archivo PlayList
puede además incluir un SubPlayItem, que representa la información
básica de control de reproducción para un archivo de flujo de
subtítulos de texto. Cuando está incluido un SubPlayItem en un
archivo de PlayList para reproducir uno o más archivos de flujo de
subtítulos de texto, el SubPlayItem es sincronizado con el (los)
PlayItem(s). Por otra parte, cuando se usa el SubPlayItem
para reproducir una exposición de diapositivas ojeables, aquel puede
no estar sincronizado con el (los) PlayItem(s). De acuerdo
con la presente invención, la función principal de un SubPlayItem
consiste en controlar la reproducción del uno o más archivos de
flujo de subtítulos de texto.
Finalmente, el directorio de datos auxiliar (AUX
DATA) puede incluir archivos de flujo de datos suplementarios,
ejemplos de los cuales son archivos fuente (por ejemplo, aaaaa.font
ó aaaaa.otf), archivos de menú pop-up (no
mostrados) y archivos de sonido (por ejemplo, Sound.bdmv) para
generar sonido de clic. Los archivos de flujo de subtítulos de
texto mencionados anteriormente pueden ser incluido en el directorio
de datos auxiliares en lugar de en el directorio de flujo.
La figura 2 ilustra zonas de almacenamiento de
datos de un disco óptico de acuerdo con la presente invención.
Haciendo referencia a la figura 2, el disco óptico incluye una zona
de información de sistema de archivos que ocupa la parte más
interna del volumen del disco, una zona d flujo que ocupa la parte
más externa del volumen del disco y una zona de base de datos
ocupada entre la zona de información del sistema de archivos y la
zona de flujo. En la zona de información de sistema de archivos, se
almacena la información del sistema para gestionar la totalidad de
los archivos de datos mostrados en la figura 1. A continuación, se
almacenan en a zona de flujo los datos principales y los datos
suplementarios (es decir, flujos de AV y uno o más flujos de
subtítulos de texto). Los datos principales pueden incluir datos de
audio, datos de vídeo y datos de gráficos. Y los datos
suplementarios (es decir, el subtítulo de texto) son almacenados
independientemente en la zona de flujo sin que sean multiplexados
con los datos principales. Los archivos generales, los archivos
PlayList y los archivos de información de clip mostrados en la
figura 1 se almacenan en la zona de base de datos del volumen del
disco. Como se ha explicado anteriormente, los archivos generales
incluyen un archivo de índice y un archivo de objetos, y los
archivos PlayList y los archivos de información de clip incluyen
información requerida para reproducir los flujos de AV y los flujos
de subtítulos de texto almacenados en la zona de flujo. Utilizando
la información almacenada en la zona de base de datos y/o en la zona
de flujo, un usuario es capaz de seleccionar un modo concreto de
reproducción y reproducir los flujos de AV principales y de
subtítulo de texto en el modo de reproducción seleccionado.
A continuación se describirá con detalle la
estructura del flujo de subtítulos de texto de acuerdo con la
presente invención. Ante todo, se definirá nuevamente la información
de control para reproducir el flujo de subtítulos de texto. Después
seguirá la descripción detallada del método de crear el archivo de
flujo de texto que incluye la información de control que se acaba
de definir, y el método y el aparato para reproducir el flujo de
subtítulos de texto para la reproducción del archivo de flujo
grabado. La figura 3 ilustra un subtítulo de texto y una imagen
principal presentada en una pantalla de visualización de acuerdo con
la presente invención. La imagen principal y el subtítulo de texto
se presentan simultáneamente en la pantalla de presentación cuando
se reproducen en sincronización un flujo principal de AV y un flujo
de subtítulos de texto correspondiente.
La figura 4 es un diagrama esquemático que
ilustra el control de reproducción de una secuencia principal de AV
y secuencias de subtítulos de texto de acuerdo con la presente
invención. Haciendo referencia a la figura 4, un archivo PlayList
incluye al menos un PlayItem que controla la reproducción de al
menos una secuencia principal de AV y un SubPlayItem que controla
de reproducción de una pluralidad de secuencias de subtítulos de
texto. Una de entre la secuencia 1 de subtítulos de texto y la
secuencia 2 de subtítulos de texto, mostradas en la figura 4, para
subtítulos de texto en Inglés y en Coreano, se pueden sincronizar
con la secuencia principal de AV de tal manera que se presenten
visualmente una imagen principal y un subtítulo de texto
correspondiente en la pantalla de presentación simultáneamente en
un tiempo de presentación particular. Con el fin de presentar
visualmente el subtítulo de texto en la pantalla de presentación, se
requieren información de control de presentación visual (por
ejemplo, información de posición y de tamaño) e información del
tiempo de presentación, ejemplos de los cuales se ilustran en la
figura 5A a la figura 5C.
La figura 5A ilustra un diálogo presentado en
una pantalla de presentación visual de acuerdo con la presente
invención. Un diálogo representa la totalidad de los datos de
subtítulo de texto expuestos en una pantalla de presentación
durante un tiempo de presentación dado. En general, los tiempos de
presentación del diálogo pueden ser representados en estampillas de
tiempo de presentación (PTS). Por ejemplo, la presentación del
diálogo mostrado en la figura 5A comienza en PTS (k) y termina en
PTS (k+1). Por lo tanto, el diálogo mostrado en la figura 5A
representa una unidad total de datos de subtítulo de texto que están
expuestos en la pantalla de presentación entre PTS (k) y PTS (k+1).
Un diálogo incluye un máximo de 100 códigos de caracteres en un
subtítulo de texto. Además, la figura 5B ilustra regiones de un
diálogo de acuerdo con la presente invención. Una región representa
una parte dividida de datos de subtítulo de texto (diálogo)
expuestos en una pantalla de presentación durante un tiempo de
presentación dado. En otras palabras, un diálogo incluye al menos
una región, y cada región puede incluir al menos una línea de texto
de subtítulo. La totalidad de los datos de subtítulo de texto que
representan una región pueden ser visualizados en la pantalla de
presentación de acuerdo con un estilo de región (estilo global)
asignado a la región. El número máximo de regiones incluidas en un
diálogo se ha de determinar sobre la base de una velocidad de
descodificación deseada de los datos de subtítulo debido a que el
mayor número de regiones da lugar generalmente a una relación de
descodificación menor. Por ejemplo, el número máximo de regiones
para un diálogo puede ser limitado a dos con el fin de conseguir una
velocidad de descodificación razonable. Por lo tanto, el número
máximo de regiones dentro de un diálogo único está limitado a 2
debido a la carga de descodificación, cuando se reproduce el flujo
de subtítulos de texto. En otra realización
de la presente invención, puede existir dentro de un diálogo único un número máximo de n (donde n > 2) regiones.
de la presente invención, puede existir dentro de un diálogo único un número máximo de n (donde n > 2) regiones.
La figura 5C ilustra información de estilo para
regiones de un diálogo de acuerdo con la presente invención. La
información de estilo representa información que define propiedades
requeridas para presentar visualmente al menos una parte de una
región incluida en el diálogo. Algunos de los ejemplos de la
información de estilo son posición, tamaño de región, color de
fondo, alineación de texto, información de flujo de texto, y muchos
otros. La información de estilo puede ser clasificada en una
información de estilo de región (información de estilo global) e
información de estilo en línea (información de estilo local).
La información de estilo de región define un
estilo de región (estilo global) que se aplica a una región completa
de un diálogo. Por ejemplo, la información de estilo de región
puede contener al menos una de entre una posición de región, tamaño
de región, color de fuente, color de fondo, flujo de texto,
alineación de texto, espacio entre líneas, nombre de fuente, estilo
de fuente y tamaño de fuente de la región. Por ejemplo, se aplican
dos estilos de región diferentes a la región 1 y a la región 2, como
se muestra en la figura 5C. Un estilo de región con posición 1,
tamaño 1 y color = azul se aplica a la Región 1, y un estilo de
región diferente con posición 2, tamaño 2 y color = rojo se aplica
a la Región 2.
Por otra parte, la información de estilo local
define un estilo en línea (estilo local) que se aplica a una
posición particular de cadenas de texto incluidas en una región. Por
ejemplo, la información de estilo en línea puede contener al menos
uno de entre un tipo de fuente, tamaño de fuente, estilo de fuente y
color de fuente. La parte particular de cadenas de texto puede ser
una línea de texto completa dentro de una región o una parte
particular de la línea de texto. Haciendo referencia a la figura 5C,
un estilo particular en línea se aplica a la parte de texto
"montaña" incluida en la Región 1. En otras palabras, al menos
uno de entre el tipo de fuente, tamaño de fuente, estilo de fuente
y color de fuente de la parte particular de las cadenas de texto es
diferente de la parte restante de las cadenas de texto dentro de la
Región 1.
Por lo tanto, los datos de texto anteriormente
descritos se graban y describen como una "cadena de texto",
dependiendo de si existe un estilo en línea concreto. La figura 6
ilustra un archivo de flujo de subtítulos de texto (por ejemplo,
10001.m2ts, mostrado en la figura 1) de acuerdo con la presente
invención. El archivo de flujo de subtítulos de texto puede estar
formado de un flujo de transporte de MPEG2 que incluya una
pluralidad de paquetes de transporte (TP), la totalidad de los
cuales tiene un mismo identificador de paquetes (por ejemplo,
PID=0x18xx). Cuando un reproductor de disco recibe muchos flujos de
entrada que incluyen un flujo de subtítulos de texto particular,
encuentra todos los paquetes de transporte que pertenecen al flujo
de subtítulos de texto usando sus PIDs. Haciendo referencia a la
figura 6, cada sub-conjunto de paquetes de
transporte forma un paquete de flujo elemental de paquetes (PES:
Packet elementary stream). Uno de los paquetes del PES mostrado en
la figura 6 corresponde a un segmento de estilo de diálogo (DSS:
dialog style segment) que define un grupo de estilos de región.
Todos los paquetes restantes del PES después del segundo paquete del
PES corresponde a segmentos de presentación de diálogo (DPSs:
Dialog presentation segments).
En la estructura anteriormente descrita de flujo
de subtítulos de texto de la figura 6, cada una de las informaciones
de diálogo mostradas en las figuras 5A a 5C representa un segmento
de presentación de diálogo (DPS). Y la información de estilo
incluida en la información de diálogo representa un conjunto de
información que vincula uno cualquiera de la pluralidad de
conjuntos de estilo de región definidos en el segmento de estilo de
diálogo (DSS), al que se puede hacer referencia también como
"id_estilo_región", y estilos en línea. Por lo tanto, en la
presente invención, un conjunto de estilo de región e información de
paleta, que se aplican al segmento de presentación de diálogo
(DPS), se graban en el segmento de estilo de diálogo (DSS), que se
describirá ahora con detalle.
La figura 7A ilustra estructuras del segmento de
estilo de diálogo (DSS) grabadas en el flujo de subtítulos de texto
y del segmento de presentación de diálogo (DPS). Por lo tanto, se
describirá una sintaxis detallada del flujo de subtítulos de texto
en un proceso posterior con referencia a la figura 8. Más
concretamente, el segmento de estilo de diálogo (DSS) incluye un
máximo de 60 conjuntos de estilo de región grabados en el mismo,
cada uno de los cuales se describe mediante una id_estilo_región. Un
conjunto de estilo de región, que incluye información diversa de
estilo de región, y un conjunto de estilo cambiable por el usuario
se graban en cada id_estilo_región. En esta memoria se describirán
contenidos detallados de la información de estilo de región en la
figura 9B, y se describirán contenidos detallados de la información
de estilo cambiable por el usuario en la figura 9C.
Además, el segmento de estilo de diálogo incluye
información de paleta que es comúnmente aplicada dentro del
correspondiente flujo de subtítulos de texto, y la información de
paleta incluye información de color (valores de Y, Cr y Cb) e
información de transparencia (valor de T) para cada entrada de
paleta ID (ID_entrada_paleta). Y con el fin de indicar (o
presentar) una información concreta de color entre la información de
estilo, se designa la correspondiente ID_entrada_estilo, con lo que
se hace posible que sea presentado el color deseado. Además, el
segmento de presentación de diálogo (DPS) incluye datos de texto e
información de temporización que indica el tiempo de presentación
de los datos de texto (es decir, conjunto de PTS). El segmento de
presentación de diálogo (DPS) incluye también información que
vincula una cualquiera de la información de estilo para cada región
y la información concreta de estilo de región incluida en el estilo
de diálogo anteriormente descrito.
Y, generalmente, el segmento de presentación de
diálogo (DPS) se aplica comúnmente con la información de paleta
definida en el segmento de estilo de diálogo (DSS) descrito
anteriormente. Sin embargo, una información de paleta separada se
ha de definir también de nuevo y aplicar al segmento de presentación
de diálogo (DPS). Aquí, se hace referencia a la información que
indica tal modificación (o actualización) de la
información de paleta como una
"bandera_actualización_paleta". Más concretamente, cuando
bandera_actualización_paleta = 0b, la información de paleta común
definida en el segmento de estilo de diálogo (DSS) se aplica como
es, sin modificación (o actualización) alguna. Inversamente, cuando
bandera_actualización_paleta = 1b, se define y se usa una nueva
información de paleta (es decir, paleta( ) ) que se aplica al
correspondiente segmento de estilo de diálogo (DSS).
En este punto, la información de paleta recién
definida se graba actualizando sólo la información de paleta
requerida por el correspondiente segmento de presentación de diálogo
(DPS). Y cuando se termina el correspondiente tiempo de
presentación de diálogo, la información de paleta común
proporcionada desde el DSS se aplica al subsiguiente DPS. Más
concretamente, cuando bandera_actualización_paleta = 0b, se aplica
la información de paleta común proporcionada desde el DSS. Y,
cuando bandera_actualización_paleta = 1b, se aplica una información
de paleta recién definida en el correspondiente segmento de
presentación de diálogo (DPS).
Por lo tanto, haciendo referencia a la figura
7A, en DPS #1, DPS #2 y DPS #6, el estilo de región aplicado a cada
conjunto de datos de texto (datos de Texto #1, datos de Texto #2 y
datos de Texto #3) está respectivamente vinculado y aplicado a cada
id_estilo_región = k, id_estilo_región = n e id_estilo_región = m
dentro del segmento de presentación de diálogo (DPS). Y puesto que
bandera_actualización_paleta = 0b, se usa la información de paleta
común proporcionada desde DSS. Por otra parte, en DPS #3, DPS #4 y
DPS #5, el estilo de región aplicado a cada datos de texto (datos
de Texto #2) se vincula y aplica respectivamente a id_estilo_región
= n dentro del segmento de presentación de diálogo (DPS). Y, puesto
que bandera_actualización_paleta = 1b, se aplica la información de
paleta recién definida en el correspondiente DPS. Entretanto, la
información de estilo vinculada por el ID de estilo de región
(id_estilo_región) se aplica igualmente a todos los datos de texto
dentro de la correspondiente región (es decir, la información de
estilo global). Sin embargo, cuanto se requiere que se cambie (o
modifique) la información de estilo para una cadena de texto
concreta dentro de los datos de texto, se define y utiliza una
información de estilo en línea, que es una información de estilo
local que se aplica sólo a la cadena de texto.
La figura 7B ilustra una utilización de la
información de paleta de DPS #1 a DPS #6 como se muestra en la
figura 7A, y, más particularmente, ilustra un método para la
presentación de un efecto de desvanecimiento que muestra efectos de
Aparición Gradual y Desaparición Gradual. Más concretamente,
haciendo referencia a la figura 7B, en DPS #1 y DPS #2 se aplica
bandera_actualización_paleta = 0b, con lo que se usa la información
de paleta común proporcionada desde DSS. Sin embargo, cuando DPS #2
es tratada con un efecto de desaparición gradual, se aplica
bandera_actualización_paleta = 1b a cada DPS #3, DPS #4 y DPS #5, de
manera que se modifica (o cambia) gradualmente la información de
paleta, que designa color y/o transparencia, produciendo con ello
(o produciendo) el efecto de desaparición gradual. Por lo tanto, al
proceso de definir nuevamente y modificar (o cambiar) sólo la
información de paleta, como se muestra en DPS #3, DPS #4 y DPS #5 y
redefinir la información de estilo anteriormente descrita y datos
de texto sin modificación alguna, como la utilizada en DPS #2, se
hace referencia también como una "actualización de Presentación de
sólo paleta".
Por lo tanto, cuando
bandera_actualización_paleta = 1b, tal como en DPS #1, DPS #6, el
DPS que usa la información de paleta común definida en el DSS se
puede denominar como un primer segmento de presentación de diálogo
(DPS). Y cuando bandera_actualización_paleta = 0b, tal como en DPS
#3, DPS #4 y DPS #5, el DPS que tiene la información de paleta
específica dentro del correspondiente DPS y que usa la información
de paleta específica, se puede denominar como un segundo segmento
de presentación de diálogo (DPS). Por lo tanto, es evidente que el
flujo de subtítulos de texto se forma del segmento de estilo de
diálogo (DSS), del primer segmento de presentación de diálogo (DPS)
y del segundo segmento de presentación de diálogo (DPS). Además,
considerando el tiempo de presentación de cada DPS, cuando
bndera_actualización_paleta = 0b en el primer DPS, es preferible que
se garantice al menos 1 segundo de tiempo de presentación visual
como un tiempo de repetición (o reproducción) normal (por ejemplo,
PTS2 >= PTS1 + 1 seg.). Y cuando bandera_actualización_paleta =
1b en el segundo DPS, lo que indica sólo la modificación (o cambio)
en la información de paleta, es preferible que se garanticen al
menos 2 marcos de tiempo de presentación de vídeo (por ejemplo, PTS4
<= PTS3 + Duración de 2 marcos de vídeo). Además, aunque la
figura 7B ilustra un ejemplo de un efecto de desaparición gradual,
se puede también aplicar un efecto de aparición gradual en el que
se use el mismo principio.
La estructura de sintaxis del segmento de estilo
de diálogo (DSS) descrito anteriormente y del segmento de
presentación de diálogo (DPS) se describirá ahora en detalle con
referencia a las figuras 8 a 10B. Más concretamente, mediante la
ilustración de la estructura de sintaxis con detalle, se pueden
describir con más precisión el uso de la información de estilo
anteriormente descrita y de la información de paleta de acuerdo con
la presente invención. La figura 8 ilustra una sintaxis del flujo
de subtítulos de texto (Flujo_subtítulos_texto( ) ) de acuerdo con
la presente invención. En referencia a la figura 8, el
Flujo_subtítulos_texto( ) incluye una sintaxis de
segmento_estilo_diálogo( )
y una sintaxis de segmento_presetación_diálogo( ). Más concretamente, la sintaxis de segmento_estilo_diálogo( ) corresponde a un segmento de estilo de diálogo único (DSS) que define el conjunto de información de estilo, y la sintaxis de segmento_presentación_diálogo( ) corresponde a una pluralidad de segmentos de presentación de diálogo (DPS) que tienen grabada en ellos la información de diálogo real.
y una sintaxis de segmento_presetación_diálogo( ). Más concretamente, la sintaxis de segmento_estilo_diálogo( ) corresponde a un segmento de estilo de diálogo único (DSS) que define el conjunto de información de estilo, y la sintaxis de segmento_presentación_diálogo( ) corresponde a una pluralidad de segmentos de presentación de diálogo (DPS) que tienen grabada en ellos la información de diálogo real.
Las figuras 9A a 9D ilustran una estructura
detallada del segmento_estilo_diálogo( ), que representa el segmento
de estilo de diálogo (DSS). Más concretamente, la figura 9A ilustra
la estructura global del segmento_estilo_diálogo( ),
en la que se define un conjunto de estilo_diálogo( ) que define diversos conjuntos de información de estilo que se aplican en el diálogo. La figura 9B ilustra un conjunto de estilo_diálogo( ) de acuerdo con la presente invención, el cual se define en el segmento_estilo_diálogo( ). Aparte de los estilos_región (estilo_región( ) ), el conjunto_estilo_diálogo( )
incluye una Bandera_estilo_reproductor, un conjunto de estilo_cambiable_usuario( ) y una paleta( ). La Bandera_estilo_reproductor indica si se autoriza cambio en la información de estilo por el reproductor. Así mismo, el conjunto estilo_cambiable_usuario( ) define el intervalo de cambio de información de estilo por el reproductor, y la paleta( ) indica información de color.
en la que se define un conjunto de estilo_diálogo( ) que define diversos conjuntos de información de estilo que se aplican en el diálogo. La figura 9B ilustra un conjunto de estilo_diálogo( ) de acuerdo con la presente invención, el cual se define en el segmento_estilo_diálogo( ). Aparte de los estilos_región (estilo_región( ) ), el conjunto_estilo_diálogo( )
incluye una Bandera_estilo_reproductor, un conjunto de estilo_cambiable_usuario( ) y una paleta( ). La Bandera_estilo_reproductor indica si se autoriza cambio en la información de estilo por el reproductor. Así mismo, el conjunto estilo_cambiable_usuario( ) define el intervalo de cambio de información de estilo por el reproductor, y la paleta( ) indica información de color.
La información de estilo de región
(estilo_región( ) ) representa la información Global de estilo para
cada región, como se ha descrito anteriormente. Se designa para
cada región una id_estilo_región, y se define un conjunto de
información de estilo correspondiente para la id_estilo_región. Por
lo tanto, cuando se reproduce un diálogo grabando la
id_estilo_región, que se aplica al correspondiente diálogo dentro
del segmento de presentación de diálogo (DPS), se aplican valores
de conjunto de información de estilo definidos por id_estilo_región
idéntica dentro del conjunto estilo_diálogo( ), de manera que se
reproduce el diálogo. En consecuencia, se describirá ahora la
información de estilo individual incluida en el conjunto de
información de estilo proporcionada a cada id_estilo_región.
En esta memoria, posición_horizontal_región,
posición_vertical_región, anchura_región y altura_región son
proporcionadas como información para definir la posición y el tamaño
de una región correspondiente dentro de la pantalla. Y se
proporciona también información de id_entrada_color_fondo_región que
decide un color de fondo de la correspondiente región. Más
concretamente, la información id_entrada_color_fondo_región es un
conjunto de información que designa una id_entrada_paleta específica
dentro de la información de paleta, que se describirá en un proceso
posterior con referencia a la figura 9D. Aquí, la información
id_entrada_color_fondo_región utiliza la información de color
(valores de Y, Cr y Cb) y grado de transparencia (valor de T) que se
asignan a la correspondiente id_entrada_paleta, para color de fondo
de la región correspondiente. Además, como información que define
una posición original (o de inicio) del texto dentro de la
correspondiente región, se proporcionan una
posición_horizontal_texto y una posición_vertical_texto. Asimismo,
se proporcionan un flujo_texto que define la dirección del texto
(por ejemplo, izquier-
da \rightarrow derecha, derecha \rightarrow izquierda, arriba \rightarrow abajo), y una alineación_texto, que define la dirección de alineación del texto (por ejemplo, izquierda, centro, derecha). Más concretamente, cuando se incluyen una pluralidad de regiones en un diálogo específico, el flujo_texto de cada región incluido en el correspondiente diálogo se define para que tenga un valor idéntico de flujo_texto, de manera que los usuarios vean imágenes distorsionadas.
da \rightarrow derecha, derecha \rightarrow izquierda, arriba \rightarrow abajo), y una alineación_texto, que define la dirección de alineación del texto (por ejemplo, izquierda, centro, derecha). Más concretamente, cuando se incluyen una pluralidad de regiones en un diálogo específico, el flujo_texto de cada región incluido en el correspondiente diálogo se define para que tenga un valor idéntico de flujo_texto, de manera que los usuarios vean imágenes distorsionadas.
Además se proporciona un espacio_línea que
designa el espacio entre cada línea dentro de la región, como
información de estilo individual incluida en el conjunto de
información de estilo. Y se proporcionan un tipo_fuente, un
tamaño_fuente y una id_entrada_color_fuente como información de
fuente para información de fuente real. Más concretamente, la
id_entrada_color_fuente es un conjunto de información que designa
una id_entrada_paleta específica dentro de la información de
paleta, que se describirá en un proceso posterior con referencia a
la figura 9D. En esta memoria, la información
id_entrada_color_fuente usa la información de color (valores de Y,
Cr y Cb), que se asigna a la correspondiente id_entrada_paleta como
un valor de color de la fuente correspondiente.
Entretanto, la
Bandera_estilo-reproductor grabada dentro del
conjunto estilo_diálogo( ) indica si un autor puede aplicar la
información de estilo proporcionada al reproductor. Por ejemplo,
cuando Bandera_estilo_reproductor = 1b, así como la información de
estilo definida en el conjunto estilo_diálogo( ) grabado en un
disco, el reproductor es autorizado a reproducir el flujo de
subtítulos de texto aplicando la información de estilo
proporcionada dentro del propio reproductor. Por otra parte, cuando
Bandera_estilo_reproductor = 0b, sólo se autoriza el uso de la
información de estilo definida en el conjunto estilo_diálogo( )
grabada dentro del disco.
La figura 9C ilustra el conjunto
estilo_cambiable_usuario( ) de acuerdo con la presente invención,
que se define en conjunto estilo_diálogo( ). El conjunto
estilo_cambiable_usuario( ) predefine los tipos de información de
estilo que puede ser cambiada por el usuario y el intervalo de
cambio, y el conjunto estilo_cambiable_usuario( ) se utiliza para
cambiar fácilmente la información de estilo de los datos de
subtítulo de texto. Sin embargo, cuando se le permite al usuario
cambiar toda la información de estilo, que se describe en la figura
9B, el usuario puede quedar más confuso. Por lo tanto, en la
presente invención se puede cambiar la información de estilo sólo
del tamaño_fuente, la posición_horizontal_región, y la
posición_vertical_región. Y, por lo tanto, la variación en la
posición del texto y el espacio entre líneas, que se pueden cambiar
de acuerdo con el tamaño_fuente, se define también en el conjunto
estilo_cambiable_usuario( ). Más concretamente, el conjunto
estilo_cambiable_usuario( ) es definido para cada id_estilo_región.
Por ejemplo, se puede definir un máximo de 25 id_estilo_usuario
dentro de una id_estilo_región = k específica en el conjunto
estilo_cambiable_usuario( ).
Igualmente, cada
id-estilo_usuario incluye información de
dirección_posición_horizontal_región y de dirección_
posición_vertical_región, que designan la dirección de la posición cambiada de cada una de entre posición_horizontal_
región y posición_vertical_región cambiables. Cada id_estilo_usuario incluye información de posición_delta_hori-
zontal_región y de posición_delta_vertical_región para designar una unidad de movimiento de posición única en cada dirección como una unidad de pixeles. Más concretamente, por ejemplo, cuando dirección_posición_horizontal_región
= 0, la posición de la región es movida hacia una dirección derecha. Y, cuando dirección_posición_horizontal_región = 1, la posición de la región es movida hacia una dirección izquierda. Asimismo, cuando dirección_posición_vertical_
región = 0, la posición de la región es movida hacia una dirección descendente. Finalmente, cuando dirección_posi-
ción_vertical_región = 1, la posición de la región es movida en una dirección ascendente.
posición_vertical_región, que designan la dirección de la posición cambiada de cada una de entre posición_horizontal_
región y posición_vertical_región cambiables. Cada id_estilo_usuario incluye información de posición_delta_hori-
zontal_región y de posición_delta_vertical_región para designar una unidad de movimiento de posición única en cada dirección como una unidad de pixeles. Más concretamente, por ejemplo, cuando dirección_posición_horizontal_región
= 0, la posición de la región es movida hacia una dirección derecha. Y, cuando dirección_posición_horizontal_región = 1, la posición de la región es movida hacia una dirección izquierda. Asimismo, cuando dirección_posición_vertical_
región = 0, la posición de la región es movida hacia una dirección descendente. Finalmente, cuando dirección_posi-
ción_vertical_región = 1, la posición de la región es movida en una dirección ascendente.
Además, cada id_estilo_usuario incluye
información de dis_aum_tamaño_fuente, que designa la dirección de
cambio de cada una de información tamaño_fuente y
tamaño_delta_fuente cambiables para designar una unidad de
movimiento de posición única en cada dirección como una unidad de
pixeles. Más concretamente, por ejemplo, dis_aum_tamaño_fuente = 0
representa una dirección creciente en el tamaño_fuente, y
dis_aum_tamaño_fuente = 1 representa una dirección decreciente del
tamaño_fuente. Además, la disminución o aumento de la "posición de
texto" y el "espacio entre líneas", que son cambiados con
dependencia de la disminución o aumento del tamaño_fuente, pueden
ser definidos por el mismo método que los del tamaño_fuente, de la
posición_horizonal_región y la posición_vertical_región.
En consecuencia, se describirán ahora como sigue
las características del conjunto estilo_cambiable_usuario( ) de
acuerdo con la presente invención. Se define un número idéntico de
estilo_control_usuario( ) en todos los estilo_
región( ) que están incluidos en el segmento de estilo de diálogo (DSS). Por lo tanto, es también idéntico el número de estilo_control_usuario que se puede aplicar a todos los segmentos de presentación de estilo de diálogo (DPS). Además, cada estilo_control_usuario( ) está representado por un id_estilo_usuario diferente, y, cuando el usuario selecciona un estilo_id_usuario aleatorio, se aplica un orden idéntico del estilo_control_usuario( ) a todos los estilo_región( ).
Además, se define una combinación de todos los estilos cambiables en una único estilo_control_usuario( ). Más concretamente, la posición_región y el tamaño_fuente se definen simultáneamente, en lugar de ser definidos separadamente. Finalmente, cada una de la dirección (*_dirección) y la indicación de aumento o disminución (*_aum_dis) se graba independientemente sin considerar cada unidad de movimiento de posición (*_delta). Más concretamente, definiendo sólo la unidad de movimiento de posición (*_delta), se puede obtener un valor final de la información de estilo (o valor de estilo) realmente cambiada añadiendo la unidad de movimiento de posición (*_delta) al valor definido en estilo-región( ).
región( ) que están incluidos en el segmento de estilo de diálogo (DSS). Por lo tanto, es también idéntico el número de estilo_control_usuario que se puede aplicar a todos los segmentos de presentación de estilo de diálogo (DPS). Además, cada estilo_control_usuario( ) está representado por un id_estilo_usuario diferente, y, cuando el usuario selecciona un estilo_id_usuario aleatorio, se aplica un orden idéntico del estilo_control_usuario( ) a todos los estilo_región( ).
Además, se define una combinación de todos los estilos cambiables en una único estilo_control_usuario( ). Más concretamente, la posición_región y el tamaño_fuente se definen simultáneamente, en lugar de ser definidos separadamente. Finalmente, cada una de la dirección (*_dirección) y la indicación de aumento o disminución (*_aum_dis) se graba independientemente sin considerar cada unidad de movimiento de posición (*_delta). Más concretamente, definiendo sólo la unidad de movimiento de posición (*_delta), se puede obtener un valor final de la información de estilo (o valor de estilo) realmente cambiada añadiendo la unidad de movimiento de posición (*_delta) al valor definido en estilo-región( ).
La figura 9D ilustra información de paleta
(paleta( ) ) de acuerdo con la presente invención, que se define en
el conjunto estilo_diálogo( ). La paleta( ) proporciona información
de cambio de color de los datos de subtítulo de texto grabados
dentro del diálogo. En esta memoria, la paleta( ) incluye una
pluralidad de entradas_paleta, en que cada entrada_paleta es
descrita por una id_entrada_paleta. Y cada entrada_paleta está
dispuesta dentro de un valor de brillantez específico (valor_Y), un
valor de color específico (valor_Cr, valor_Cb), y un valor_T
específico, que designa la transparencia de los datos de texto.
Por lo tanto, el valor de brillantez (valor_Y)
está dentro del intervalo de 16 a 235, el valor de color (valor_Cr,
valor_Cb) está dentro del intervalo de 16 a 240 y el valor_T para
designar la transparencia está dentro del intervalo de 0 a 255. Más
concretamente, el valor_T = 0 representa transparencia total y el
valor_T = 255 representa opacidad total. Además, el valor_T = 0 se
designa generalmente como un valor por defecto, de manera que el
valor_T = 0 puede representar transparencia total. Por lo tanto, el
fabricante (o autor) de discos graba la información de paleta para
cada id_entrada_paleta dentro del segmento de estilo de diálogo
(DSS), en el que la información de paleta se usa en todo el flujo
de subtítulos de texto. De ese modo, una id_entrada_paleta
específica se puede designar y utilizar a partir de la información
de estilo anteriormente descrita.
Las figuras 10A y 10B ilustran una estructura
detallada del segmento_presentación_diálogo( ), que representa el
segmento de presentación de diálogo (DPS) de acuerdo con la presente
invención. La figura 10 ilustra la estructura global del
segmento_presentación_diálogo( ), en el que se definen un
PTS_inicio_diálogo y un PTS_final_diálogo. El PTS_inicio_diálogo y
el PTS_final_diálogo designan el tiempo de presentación del diálogo
correspondiente. Entonces, el segmento_presentación_diálogo( )
incluye una bandera_actualización_paleta, que indica un cambio de
información dentro del correspondiente diálogo. Como se ha descrito
anteriormente, cuando bandera_actualización_paleta = 1b, se define
separadamente una nueva información de paleta (paleta( ) ) que se
usa sólo en el correspondiente DPS, en lugar de la información de
paleta comúnmente usada, mostrada en la figura 9D, dentro de DDS.
Por lo tanto, el autor utiliza la bandera_actualización_paleta de
manera que se permite una amplia gama de aplicaciones. Más
particularmente, con el fin de producir (o representar) efectos de
aparición/desaparición gradual, DPSs que tienen sólo la información
de paleta modificada son proporcionados consecutivamente (por
ejemplo, DPS #3 a DPS #5 mostrados en la figura 7B), con lo que se
proporciona visualmente un efecto de aparición gradual o
desaparición gradual del subtítulo de texto para el usuario.
A continuación, una
región-diálogo( ) que define la información de
región se graba en el segmento_presentación_
diálogo( ). En la presente invención, se disponen un máximo de dos regiones dentro de un único diálogo y, por tanto, se proporciona información de región_diálogo( ) para cada región. La región_diálogo( ) incluye información id_estilo_región e información de bandera_present_continua. La información id_estilo_región designa cualquiera de los estilos de región, como se muestra en la figura 9B, y la información de bandera_present_continua identifica si se ha de realizar una reproducción sin juntura con la región de diálogo previa. Además, se incluyen también datos de texto e información subtítulo_región( ) en la región_diálogo( ). Los datos de texto se incluyen en la región real correspondiente, y la información subtítulo_región( ) define la información de estilo local.
diálogo( ). En la presente invención, se disponen un máximo de dos regiones dentro de un único diálogo y, por tanto, se proporciona información de región_diálogo( ) para cada región. La región_diálogo( ) incluye información id_estilo_región e información de bandera_present_continua. La información id_estilo_región designa cualquiera de los estilos de región, como se muestra en la figura 9B, y la información de bandera_present_continua identifica si se ha de realizar una reproducción sin juntura con la región de diálogo previa. Además, se incluyen también datos de texto e información subtítulo_región( ) en la región_diálogo( ). Los datos de texto se incluyen en la región real correspondiente, y la información subtítulo_región( ) define la información de estilo local.
La figura 10B ilustra una información de
subtítulo_región( ) definida dentro de la región_diálogo( ). Aquí,
el subtítulo_región( ) está formado de un grupo (o par) de una
cadena de texto y una información de estilo en línea que se aplica
a la cadena de texto. Más concretamente, en el
segmento_presentación_diálogo( ), cuando
bandera_actualización_paleta = 1b, la id_estilo_región y el
subtítulo_región han de ser idénticos a los de un segmento de
estilo de diálogo (DSS) previo. En este caso, la
bandera_present_continua ha de ser determinada como una
bandera_present_continua = 1b. Más concretamente, el tipo = 0x01
dentro del subtítulo_región( ) representa la cadena de texto. Por
lo tanto, un código de carácter (bite_datos_carác) se graba dentro
de la cadena de texto( ).
Además, cuando el tipo dentro del
subtítulo_región( ) no es igual a tipo = 0x01, el subtítulo_región(
) representa la información de estilo en línea. Por ejemplo, tipo =
0x02 representa un cambio en el conjunto Fuente, y así un valor de
ID de fuente designado por el correspondiente ClipInfo es grabado en
un campo específico (es decir, valor_estilo_en línea( ) ), y tipo
= 0x03 representa un cambio en el estilo de Fuente, y se graba así
un valor de estilo de fuente correspondiente en campo específico (es
decir, el valor_estilo_en línea( ) ). Así mismo, tipo = 0x04
representa un cambio en el tamaño de Fuente, y se graba un
correspondiente valor de tamaño de fuente en un campo específico
(es decir, el valor_estilo_en línea( ) ), y tipo = 0x05 representa
un cambio en el color de Fuente y, por tanto, de graba un valor de
índice designado por la correspondiente paleta en un campo
específico (es decir, el valor_estilo_en línea( ) ). Además, tipo =
0x0A representa una interrupción de línea.
Más concretamente, como se ha descrito
anteriormente, tipo = 0x05 representa un cambio en el color de
Fuente. En este caso, se graba una id_entrada_paleta modificada en
el valor_estilo_en línea( ), por lo que se hace posible que el
color de fuente sea aplicado a cada cadena de texto que se ha de
modificar. Por ejemplo, la parte de texto "montaña" incluida
en la Región 1, como se muestra en la figura 5C, se escribe como una
cadena_texto (por ejemplo, cadena_texto = "montaña"), pero la
parte de texto es fijada en "tipo_estilo_en línea = 0x05 (cambio
de color de fuente)" como la información de estilo local. Y
estableciendo la parte de texto en ``valor_estilo_en línea( ) =
id_entrada_paleta(k), puede ser reproducido el color de
fuente de la correspondiente cadena_texto = "montaña" para que
tenga la información de color (valores de Y, Cr y Cb) y grado de
transparencia (valor de T) definido en la
id_entrada_paleta(k), mostrada en la figura 9D.
A continuación se describirá con detalle,
haciendo referencia a las figuras 11A y 11B, el método y el aparato
para reproducir el flujo de subtítulos de texto sobre el disco
óptico, como se ha descrito anteriormente. La figura 11A ilustra el
aparato para reproducir el enfoque del disco óptico sobre el
descodificador de acuerdo con la presente invención y, más
particularmente, ilustra un ejemplo de una parte 40 de
descodificación de subtítulos de texto, que se incluye
separadamente. Más concretamente, el aparato incluye un filtro 5
identificador de paquetes (PID) para separar flujos de entrada en
flujos de vídeo, flujos de audio, flujos de gráficos y flujos de
subtítulos de texto basados en sus identificadores de paquetes, una
parte 20 de descodificación de vídeo para reproducir flujos de
vídeo, una parte 10 de descodificación de audio para reproducir los
flujos de audio, una parte 30 de descodificación de gráficos para
reproducir los flujos de gráfico, y una parte 40 de descodificación
de subtítulos para reproducir los flujos de subtítulos de texto.
Los flujos de subtítulos de texto pueden ser
extraídos de un disco óptico, o pueden ser introducidos desde una
fuente externa adicional, como se muestra en la figura 11A. Por esta
razón, el aparato incluye un conmutador 6 que selecciona una fuente
de datos de entrada. Por lo tanto, si los flujos de subtítulos de
texto en formato de MPEG son extraídos del disco óptico, el
conmutador 6 selecciona línea de datos A conectada al filtro 5 de
PID. Por otra parte, si son introducidos a través de una fuente
externa adicional, el conmutador 6 selecciona la línea de datos B
que está conectada a la fuente externa.
La parte 20 de descodificación de vídeo, la
parte 10 de descodificación de audio, la parte 30 de descodificación
de gráficos incluyen una memoria temporal de transporte 21, 11 y
31, respectivamente, para almacenar un tamaño predeterminado de
flujos de datos que se han de descodificar. Un plano 23 de vídeo y
un plano 33 de gráficos se incluyen en la parte 20 de
descodificación de vídeo y en la parte 30 de descodificación de
gráficos, respectivamente, para convertir señales descodificadas en
imágenes presentables visualmente. La parte 30 de descodificación
de gráficos incluye una tabla de consulta de color (CLUT: Color
look-up table) 34 para controlar niveles de color y
transparencia de las imágenes presentables visualmente.
Cuando la parte 40 de descodificación de
subtítulo recibe uno o mas flujos de subtítulos desde el conmutador
6, la totalidad de estos flujos se precargan inicialmente en una
memoria temporal de precarga de subtítulos (SPB: Subtitle
preloading buffer) 41 enseguida. Suponiendo que un tamaño típico de
un archivo de flujo de subtítulos de texto para un lenguaje único
es de unos 0,5 megabites, el tamaño de la memoria temporal 41 de
precarga de subtítulos se ha de determinar sobre la base del número
total de los archivos de flujo de subtítulos de texto. Por ejemplo,
con el fin de garantizar presentación sin juntura de un subtítulo de
texto cuando un usuario conmuta entre archivos de flujos de
subtítulos que soportan dos lenguajes, el tamaño de la memoria
temporal 41 de precarga de subtítulos ha de ser mayor o igual que 1
megabite. El tamaño de la memoria temporal 41 de precarga de
subtítulos ha de ser suficientemente grande para precargar
simultáneamente todos los archivos de flujo de subtítulos de texto
requeridos.
Los flujos de subtítulos de texto son todos
precargados en la memoria temporal 41 y utilizados, debido a que se
puede grabar todo el flujo de subtítulos de texto dentro de una
pequeña capacidad, como se ha descrito anteriormente. Por lo tanto,
el flujo de subtítulos de texto se graba como un archivo separado,
facilitando con ello la lectura y uso de los datos de subtítulo de
texto solamente. Además, puesto que todos los datos de subtítulo de
texto se precargan en la memoria temporal, la memoria temporal puede
ser controlada más fácilmente. En un tipo concreto de aparato de
grabación y reproducción óptica, siempre que no ocurra un subflujo
de memoria temporal, el flujo de subtítulos de texto puede ser
reproducido en combinación con los datos de AV principales, en
tiempo real, sin precargar el flujo de subtítulos de texto. A
continuación se dará y describirá con detalle un ejemplo del flujo
de subtítulos de texto que está siendo precargado de acuerdo con la
presente invención.
La parte 40 de descodificación de subtítulo de
texto incluye además un descodificador 42 de subtítulos de texto
que descodifica uno o más flujos de subtítulos de texto almacenados
en la memoria temporal 41 de precarga de subtítulos, un plano 43 de
gráficos que convierte el flujo o flujos de subtítulos
descodificados en imágenes presentables visualmente, y una tabla de
consulta de color (CLUT) 44 que controla la información de color
(valores de Y, Cr y Cb) e información de transparencia (valor de T)
de las imágenes convertidas.
Una parte 50 de superposición de imagen,
incluida en el aparato mostrado en las figura 11A, combina la imagen
emitida como salida desde la parte 20 de descodificación de vídeo,
la parte 30 de descodificación de gráficos y la parte 40 de
descodificación de subtítulos de texto. Las imágenes combinadas son
presentadas en una pantalla de presentación visual. Las imágenes de
vídeo emitidas desde el plano de video 23 de la parte 20 de
descodificación de vídeo se presentan como un fondo de la pantalla
de presentación, y las imágenes emitidas desde la parte 30 de
descodificación de gráficos y/o la parte 40 de decodificación de
subtítulos de texto se superponen sobre las imágenes de vídeo
presentadas. Por ejemplo, si las imágenes emitidas como salida de la
parte 30 de descodificación de gráficos son imágenes de gráficos
interactivas, las imágenes de subtítulos de texto emitidas desde la
parte 40 de descodificación de subtítulos de texto son superpuestas
inicialmente sobre las imágenes de vídeo por un primer sumador 52.
A continuación, las imágenes de gráficos interactivas se superponen
adicionalmente sobre las imágenes superpuestas a subtítulos
mediante un segundo sumador 53. El aparato mostrado en la figura 11A
incluye además un descodificador 4 del sistema para descodificar
flujos de transporte de entrada (por ejemplo flujos de transporte
de MPEG), y un microprocesador 3 para controlar las operaciones de
todos los componentes anteriormente mencionados del aparato.
Ahora se hará referencia con detalle a un método
para reproducir flujos de subtítulos de texto de acuerdo con la
presente invención. Cuando es precargado un disco óptico por un
jugador de disco óptico, un ejemplo del cual se ilustra en la
figura 11A, es inicialmente extraída del disco la información
requerida para la reproducción de datos grabados en el disco y es
almacenada en una memoria (no mostrada). Cuando es seleccionada por
un usuario un título particular que se asocia con una PlayList, se
precarga inicialmente al menos un archivo de flujo de subtítulos de
texto completo (entero) designado en el archivo de PlayList en la
memoria temporal 41 de precarga de subtítulos y archivos de fuente
relacionados con el archivo de flujo de subtítulos de texto se
precargan en la memoria temporal 410 de precarga de fuente.
Por ejemplo, cuando es seleccionado por un
usuario un título que se asocia con la PlayList mostrada en la
figura 4, los archivos de subtítulos de texto para el clip Nº 1 de
subtítulos de texto (Coreano) y el clip Nº 2 de subtítulos de texto
(Inglés) se precargan inicialmente en la memoria temporal 41 de
precarga d subtítulos. Así mismo, los archivos de fuente
relacionados con los archivos de subtítulos de texto, que pueden ser
designados en archivos de información de clips de los clips de
subtítulos de texto, se precargan en la memoria temporal 410 de
precarga de fuente. A continuación, se inicia la reproducción
(playback) de la PlayList. Durante la reproducción de la PlayList,
son descodificados flujos de AV de los clips de AV principales Nº 1
y 2 por la parte 10 de descodificación de audio y la parte 20 de
descodificación de vídeo, respectivamente, y es descodificado uno
seleccionado de lo flujos de subtítulos de texto precargados por el
descodificador 42 de subtítulos de texto. Entonces se superponen
las imágenes de subtítulos de texto descodificadas sobre las
imágenes de vídeo principales descodificadas y se presentan la
totalidad de las imágenes expuestas en una pantalla de
presentación.
Como se ha descrito anteriormente, cuando se
completan todas las operaciones, y cuando se presentan en la
pantalla los datos de vídeo principales que son controlados por el
PlayItem, el subtítulo de texto relacionado es superpuesto a través
de la parte 50 de superposición de imagen (mostrada en la figura
11A). Y cuando se proporciona el subtítulo de texto superpuesto, se
inicia la descodificación del flujo de subtítulos de texto.
Entretanto, con el fin de realizar la descodificación del flujo de
subtítulos de texto, una información de estilo de región y una
información de paleta dentro del segmento de estilo de diálogo
(DSS), que configuran el primer flujo de paquetes (PES), se leen
separadamente y se almacenan para posterior uso cuando se reproduce
el DPS. Más particularmente, cuando se lee la información de paleta,
la información de paleta es simultáneamente proporcionada a la CLUT
44, de manera que se proporciona el color y transparencia deseados
por el usuario, cuando se expone el subtítulo de texto en la
pantalla.
La figura 11B ilustra con más detalle el
descodificador 42 de subtítulos de texto, mostrado en la figura 11A.
El proceso de descodificación realizado por el descodificador 42 de
subtítulos de texto incluye los pasos de analizar, interpretar y
componer. En el paso de analizar, se analiza en información de
composición el flujo o flujos de subtítulos de texto almacenados en
la memoria temporal 41 de precarga de subtítulos (SPB), información
de interpretación y datos de texto de diálogo, de acuerdo con la
información incluida en el segmento de presentación de diálogo
(DPS). Un diálogo representa todos los subtítulos de texto que son
presentados durante un periodo de tiempo predeterminado, que puede
ser definido por una estampilla de tiempo de presentación (PTS). Por
lo tanto, la información de composición corresponde a la
información relacionada con el tiempo de presentación y la posición
de presentación del subtítulo de texto cuando se expone sobre la
pantalla, y también a una nueva información de paleta que se ha
definida recientemente por una actualización de información de
paleta (bandera_actualización_paleta = 1b). La información de
interpretación corresponde a la información que describe (o
representa) realmente el texto de cada región para cada diálogo.
Tal información de interpretación incluye "anchura y altura de
región", "color de Fondo", "Flujo d Texto",
"Alineación de Texto" e "id/estilo/tamaño de Fuente".
Además, la información de texto de diálogo corresponde a una
información de estilo en líneas que se aplica a los datos de texto
reales y a una cadena de texto específica grabada dentro del
DPS.
Haciendo referencia a la figura 11B, un
procesador 421 de subtítulos de texto, incluido en el descodificador
42 de subtítulos, analiza el archivo o archivos de flujo de
subtítulos almacenados en la memoria temporal 41 de precarga de
subtítulos en composición e información de interpretación y datos de
texto de diálogo. La información de composición e interpretación se
almacena entonces en una memoria temporal de composición de diálogo
(DCB: Dialog composition buffer) 425, y los datos de texto de
diálogo se almacenan en una memoria temporal de diálogo (DB) 422.
Más concretamente, una información de actualización de paleta
(bandera_actualización_paleta = 1b) se incluye en la información de
composición, que es analizada por el paso de análisis. Y, cuando
bandera_actualización_paleta = 0b, la información de paleta común,
que fue inicialmente proporcionada desde el segmento de estilo de
diálogo (DSS) a la CLUT 44, puede ser usada continuamente sin ser
actualizada. Inversamente, cuando bandera_actualización_paleta =
1b, se ignora la información de paleta común dentro del DSS, y se
define nuevamente una nueva información de paleta dentro del
correspondiente DPS y se actualiza a la CLUT 44 y se utiliza. Sin
embargo, cuando se completa la presentación (o reproducción) del
correspondiente DPS, se borra la actualización de paleta, y se usa
una vez más la información de paleta común inicialmente
proporcionada desde la CLUT 44. En este punto, se ha de completar
la actualización de la CLUT 44 antes de la presentación (o
reproducción) del subsiguiente DPS.
En el paso de interpretar, los datos de texto de
diálogo analizados son interpretados en datos de mapa de bits
usando la información de interpretación, que representa información
de estilo requerida para interpretar los datos de texto de diálogo.
Un interpretador de texto 423 interpreta los datos de texto de
diálogo almacenados en la memoria temporal 422 de diálogo en datos
de mapa de bits bajo el control de un controlador 426 de
presentación de diálogo. Con el fin de realizar la función de
interpretación, el interpretador de texto 423 recibe datos de
fuente asociados con los datos de texto de diálogo desde la memoria
temporal 410 de precarga de fuente, recibe información de
interpretación e información de estilo en línea desde el controlador
426 de presentación de diálogo, e interpreta los datos de texto de
diálogo en datos de mapa de bits usando información de
interpretación e información de estilo en línea, que es aplicable
para cada cadena de texto de los datos de texto de diálogo. A
continuación, los datos de texto interpretados son entonces
almacenados en una memoria temporal objeto de mapa de bits (BOB:
Bitmap object buffer) 424 como objeto de mapa de bits. Por lo tanto,
el "Objeto" que está siendo grabado en la memoria temporal BOB
424 corresponde a los datos de texto de cada región dentro de cada
diálogo, que se convierten en un objeto de mapa de bits. Por lo
tanto, se analizan y almacenan dentro de la memoria temporal BOB
424.
Finalmente, en el paso de composición, los datos
de texto interpretados son añadidos al plano de gráficos (GP) 43 de
acuerdo con la información de composición, que representa
información que indica tiempo para presentar un subtítulo de texto
dentro de la pantalla de presentación. Finalmente, el objeto de mapa
de bits almacenado en la memoria temporal 424 de objeto de mapa de
bits es transferido (añadido) al plano de gráficos 43 de acuerdo
con la información de composición proporcionada por el controlador
426 de presentación de diálogo. La tabla 44 de consulta de color
utiliza información de paleta incluida en la información de
composición para ajustar los niveles de color y transparencia de
una salida del plano 43 de gráficos.
Por lo tanto, en el DPS de
bandera_actualización_paleta =1b, el paso de interpretación se
omite, y el objeto de mapa de bits relacionado con un DPS previo, y
que se almacena dentro de la memoria temporal BOB 424, se preserva
y utiliza. En esta memoria, usando la información de paleta definida
en el DPS de bandera_actualización_paleta = 1b, de manera que se
modifica CLUT solamente, sólo se actualizan la información de color
(valores de Y, Cr y Cb) y la información de transparencia (valor de
T) para el objeto de mapa de bits del DPS previo, que se preserva
en el plano de gráficos. Como se ha descrito anteriormente, se
refiere a esto como "actualización de presentación de
sólo_paleta". Usando la "actualización de presentación de
sólo_paleta", se pueden representar también los efectos de
aparición/desaparición gradual del DPS.
Claims (22)
1. Un medio de grabación para reproducir flujos
de subtítulos de texto, comprendiendo el medio de grabación una
zona de datos que almacena al menos un flujo de subtítulos de texto,
caracterizado porque
cada flujo de subtítulos de texto incluye un
segmento de estilo de diálogo (DSS) que define un grupo de estilos
de región y una pluralidad de segmentos de presentación de diálogo,
conteniendo cada segmento de presentación de diálogo (DPS) al menos
una región de texto de diálogo y estando cada región de texto de
diálogo vinculada a uno seleccionado del grupo de estilos de
región, en el que el segmento de estilo de diálogo define además
información de paleta, incluyendo la información de paleta
información de color y de opacidad, y conteniendo además cada
segmento de presentación de diálogo una bandera de actualización de
paleta que indica si se usa la información de paleta definida en el
segmento de estilo de diálogo o se usa una nueva información de
paleta cuando se reproduce cada segmento de presentación de
diálogo.
\vskip1.000000\baselineskip
2. El medio de grabación de la reivindicación 1,
en el que cuando la bandera de actualización de paleta indica el
uso de la nueva información de paleta, la nueva información de
paleta está definida en cada segmento de presentación de
diálogo.
3. El medio de grabación de la reivindicación 1,
en el que la información de paleta definida en el segmento de
estilo de diálogo comprende valores de color y opacidad para una
entrada de paleta.
4. El medio de grabación de la reivindicación 3,
en el que los valores de color comprenden al menos uno de los
valores de Y, Cr y Cb.
5. El medio de grabación de la reivindicación 3,
en el que la información de paleta definida en el segmento de
estilo de diálogo comprende además una identificación (ID) de
entrada de paleta que identifica la entrada de paleta.
6. El medio de grabación de la reivindicación 1,
en el que cuando la bandera de actualización de paleta indica el
uso de la nueva información de paleta, la al menos una región de
texto de diálogo y el estilo de región seleccionados, vinculados a
cada región de texto de diálogo, permanecen constantes desde una
presentación de diálogo inmediatamente anterior, excepto la
información de paleta.
7. El medio de grabación de la reivindicación 1,
en el que la bandera de actualización de paleta se fija en "1b"
para indicar el uso de la nueva información de paleta.
8. El medio de grabación de la reivindicación 1,
en el que cuando la bandera de actualización de paleta indica el
uso de la nueva información de paleta, un tiempo de presentación de
cada segmento de presentación de diálogo es mayor o igual que un
tiempo requerido para reproducir al menos dos fotogramas o cuadros
de vídeo.
9. Un método para reproducir un flujo de
subtítulos de texto grabado en un medio de grabación, comprendiendo
el método leer el flujo de subtítulos de texto del medio de
grabación y presentar el flujo de subtítulos de texto,
caracterizado porque
el método comprende leer un segmento de estilo
de diálogo (DSS) incluido en el flujo de subtítulos de texto,
definiendo el segmento de estilo de diálogo un grupo de estilos de
región e información de paleta que incluye información de color y
de opacidad;
leer cada uno de una pluralidad de segmentos de
presentación de diálogo (DPS) incluidos en e flujo de subtítulos de
texto, conteniendo cada segmento de presentación de diálogo al menos
una región de texto de diálogo y estando cada región de texto de
diálogo vinculada a uno seleccionado del grupo de estilos de
región;
leer una bandera de actualización de paleta
incluida en cada segmento de presentación de diálogo, indicando la
bandera de actualización de paleta si se usa la información de
paleta definida en el segmento de estilo de diálogo o se usa una
nueva información de paleta cuando se reproduce cada segmento de
presentación de diálogo; y
presentar cada segmento de presentación de
diálogo de acuerdo con la indicación de la bandera de actualización
de paleta.
\vskip1.000000\baselineskip
10. El método de la reivindicación 9, en el que
la bandera de actualización de paleta se fija en "1b" para
indicar el uso de la nueva información de paleta, estando la nueva
información de paleta incluida en cada segmento de presentación de
diálogo.
11. El método de la reivindicación 9, que
comprende además precargar el flujo de subtítulos de texto en una
memoria temporal (41).
12. Un aparato para reproducir un flujo de
subtítulos de texto grabado en un medio de grabación, incluyendo el
aparato un descodificador (40) para descodificar el flujo de
subtítulos de texto
caracterizado porque
el aparato comprende una memoria temporal (41)
configurada para precargar el flujo de subtítulos de texto,
incluyendo el flujo de subtítulos de texto un segmento de estilo de
diálogo (DSS) y una pluralidad de segmentos de presentación de
diálogo(DPS), definiendo el segmento de estilo de diálogo un
grupo de estilos de región e información de paleta que incluye
información de color e información de opacidad y conteniendo cada
segmento de presentación de diálogo al menos una región de texto de
diálogo, estando cada región de texto de diálogo vinculada a uno
seleccionado del grupo de estilos de región; y porque
el descodificador (40) está configurado para
leer una andera de actualización de paleta incluida en cada segmento
de presentación de diálogo, indicando la bandera de actualización
de paleta si usar la información de paleta definida en el segmento
de estilo de diálogo o usar la nueva información de paleta,
presentando el descodificador (40) cada segmento de presentación de
diálogo de acuerdo con la indicación de la bandera de actualización
de paleta.
\vskip1.000000\baselineskip
13. El aparato de la reivindicación 12, en el
que el descodificador (40) está configurado para usar la nueva
información de paleta en el caso de que el descodificador (40) lea
una bandera de actualización de paleta de "1b", estando la
nueva información de paleta incluida en cada segmento de
presentación de diálogo.
14. El aparato de la reivindicación 12, en el
que el descodificador (40) está configurado para usar información
de paleta, comprendiendo la información de paleta definida en el
segmento de estilo de diálogo valores de color y de opacidad para
una entrada de paleta.
15. Un método de grabar una estructura de datos
para gestionar subtítulos de texto desde un medio de grabación,
caracterizado porque el método comprende
generar el flujo de subtítulos de texto,
incluyendo el flujo de subtítulos de texto un segmento de estilo de
diálogo (DSS) que define un grupo de estilos de región y una
pluralidad de segmento de presentación de diálogo (DPS),
conteniendo cada segmento de presentación de diálogo al menos una
región de texto de diálogo y estando cada región de texto de
diálogo vinculada a uno seleccionado del grupo de estilos de región,
en el que el segmento de estilo de diálogo define además
información de paleta que incluye información de color y de
opacidad, y conteniendo además cada segmento de presentación de
diálogo una bandera de actualización de paleta que indica si se usa
la información de paleta definida en el segmento de estilo de
diálogo o se usa una nueva información de paleta cuando se
reproduce cada segmento de presentación de diálogo; y
almacenar el al menos un flujo de subtítulos de
texto en un dispositivo de almacenamiento.
\vskip1.000000\baselineskip
16. El método de la reivindicación 15, en el que
la bandera de actualización de paleta indica si se usa la
información de paleta definida en el segmento de estilo de diálogo
o se usa una nueva información de paleta cuando se reproduce cada
segmento de presentación de diálogo.
17. El método de la reivindicación 15, en el que
cuando la bandera de actualización de paleta indica el uso de de la
nueva información de paleta, se define la nueva información de
paleta en cada segmento de presentación de diálogo.
18. El método de la reivindicación 15, en el que
la información de paleta definida en el segmento de estilo de
diálogo comprende valores de color y de opacidad para una entrada de
paleta.
19. Un aparato para grabar flujos de subtítulos
de texto en el medio de grabación, en el que el aparato comprende
una unidad de grabación óptica y un controlador,
caracterizado porque
el controlador está configurado para generar al
menos un flujo de subtítulos de texto y está acoplado funcionalmente
a la unidad de grabación óptica, incluyendo cada flujo de
subtítulos de texto un segmento de estilo de diálogo (DSS) que
define un grupo de estilos de región y una pluralidad de segmentos
de presentación estilo de diálogo (DPS), conteniendo cada segmento
de presentación de diálogo al menos una región de texto de diálogo y
estando cada región de texto de diálogo vinculada a uno
seleccionado del grupo de estilos de región, en el que el segmento
de estilo de diálogo define además información de paleta que
incluye información de color y de opacidad, y conteniendo además
cada segmento de presentación de diálogo una bandera de
actualización de paleta que indica si se usa la información de
paleta definida en el segmento de estilo de diálogo o se usa la
nueva información de paleta cuando se reproduce cada segmento de
presentación de diálogo.
\vskip1.000000\baselineskip
20. El aparato de la reivindicación 19, en el
que el controlador está configurado para controlar la unidad de
grabación óptica para grabar la nueva información de paleta, estando
la nueva información de paleta definida en cada segmento de
presentación de diálogo.
21. El aparato de la reivindicación 19, en el
que el controlador está configurado para controlar la unidad de
grabación óptica para grabar la bandera de actualización de paleta,
indicando la bandera de actualización de paleta si se usa la
información de paleta definida en el segmento de estilo de diálogo o
se usa nueva información de paleta cuando se reproduce cada
segmento de presentación de diálogo.
22. El aparato de la reivindicación 19, en el
que el controlador está configurado para controlar la unidad de
grabación óptica para grabar la información de paleta, comprendiendo
la información de paleta definida en el segmento de estilo de
diálogo valores de color y de opacidad para una entrada de
paleta.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2004-0020890 | 2004-03-26 | ||
KR20040020890 | 2004-03-26 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2336223T3 true ES2336223T3 (es) | 2010-04-09 |
Family
ID=34989929
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES05721893T Active ES2336223T3 (es) | 2004-03-26 | 2005-03-03 | Medio de grabacion o registro y metodo y aparato para reproducir un flujo o corriente de subtitulos de texto grabados en el medio de grabacion. |
ES05721968T Active ES2350940T3 (es) | 2004-03-26 | 2005-03-22 | Medio de grabación, método y aparato para reproducir flujos de subtítulos de texto. |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES05721968T Active ES2350940T3 (es) | 2004-03-26 | 2005-03-22 | Medio de grabación, método y aparato para reproducir flujos de subtítulos de texto. |
Country Status (12)
Country | Link |
---|---|
US (3) | US7756398B2 (es) |
EP (1) | EP1730730B1 (es) |
JP (1) | JP4599396B2 (es) |
KR (1) | KR101067778B1 (es) |
CN (6) | CN101241744B (es) |
AT (1) | ATE450041T1 (es) |
BR (1) | BRPI0509270A (es) |
DE (1) | DE602005017878D1 (es) |
ES (2) | ES2336223T3 (es) |
IN (1) | IN266747B (es) |
RU (1) | RU2376659C2 (es) |
WO (1) | WO2005091722A2 (es) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100727921B1 (ko) * | 2004-02-28 | 2007-06-13 | 삼성전자주식회사 | 텍스트 기반의 서브타이틀 스트림을 기록한 저장 매체,재생 장치 및 그 재생 방법 |
US7529467B2 (en) * | 2004-02-28 | 2009-05-05 | Samsung Electronics Co., Ltd. | Storage medium recording text-based subtitle stream, reproducing apparatus and reproducing method for reproducing text-based subtitle stream recorded on the storage medium |
BRPI0509270A (pt) * | 2004-03-26 | 2007-09-04 | Lg Electronics Inc | meio de gravação, método e aparelho para reproduzir fluxo de subtìtulo de texto |
RU2378722C2 (ru) | 2004-03-26 | 2010-01-10 | ЭлДжи ЭЛЕКТРОНИКС ИНК. | Носитель записи, способ и устройство для воспроизведения потоков текстовых субтитров |
CA2602713C (en) * | 2005-04-07 | 2014-05-13 | Matsushita Electric Industrial Co., Ltd. | Recording medium, reproducing device, recording method, and reproducing method |
KR101070748B1 (ko) * | 2005-05-19 | 2011-10-10 | 엘지전자 주식회사 | 휴대형 재생장치의 파일정보 제공방법 |
KR101375067B1 (ko) * | 2005-08-09 | 2014-03-17 | 파나소닉 주식회사 | 기록매체, 재생장치, 재생방법, 프로그램 |
TWM304101U (en) * | 2006-06-14 | 2007-01-01 | Wei-Jing Yang | DVD player capable of showing multi-national captions |
US20090089677A1 (en) * | 2007-10-02 | 2009-04-02 | Chan Weng Chong Peekay | Systems and methods for enhanced textual presentation in video content presentation on portable devices |
CN101494075B (zh) * | 2008-01-25 | 2012-05-23 | 中国电子科技集团公司第三研究所 | 一种显示菜单相关信息的方法 |
WO2009101819A1 (ja) * | 2008-02-14 | 2009-08-20 | Panasonic Corporation | 再生装置、集積回路、再生方法、プログラム、コンピュータ読取可能な記録媒体 |
US20100091188A1 (en) * | 2008-07-11 | 2010-04-15 | Stmicroelectronics Pvt. Ltd. | Synchronization of secondary decoded media streams with a primary media stream |
CN101764955B (zh) * | 2008-11-28 | 2013-05-01 | 新奥特(北京)视频技术有限公司 | 一种快速录入字幕的方法 |
US9160960B2 (en) | 2010-12-02 | 2015-10-13 | Microsoft Technology Licensing, Llc | Video preview based browsing user interface |
US10362333B2 (en) * | 2014-01-02 | 2019-07-23 | Qualcomm Incorporated | Color index coding for palette-based video coding |
KR102470831B1 (ko) * | 2014-10-01 | 2022-11-28 | 주식회사 케이티 | 비디오 신호 처리 방법 및 장치 |
CN113660536A (zh) * | 2021-09-28 | 2021-11-16 | 北京七维视觉科技有限公司 | 一种字幕显示方法和装置 |
Family Cites Families (60)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0519686A (ja) * | 1991-07-17 | 1993-01-29 | Pioneer Electron Corp | ナビゲーシヨン装置 |
US5258747A (en) * | 1991-09-30 | 1993-11-02 | Hitachi, Ltd. | Color image displaying system and method thereof |
JPH05137103A (ja) * | 1991-11-15 | 1993-06-01 | Hitachi Ltd | プレゼンテーシヨン装置 |
DK0714582T3 (da) | 1993-08-20 | 1999-05-31 | Thomson Consumer Electronics | Lukket billedtekstsystem til anvendelse i forbindelse med komprimeret digital videotransmission |
US5684542A (en) * | 1993-12-21 | 1997-11-04 | Sony Corporation | Video subtitle processing system |
JPH07203396A (ja) * | 1993-12-28 | 1995-08-04 | Sony Corp | 字幕データ復号化装置 |
JP3644455B2 (ja) | 1994-09-29 | 2005-04-27 | ソニー株式会社 | 番組情報放送方式、番組情報表示方法および受信装置 |
WO1996019077A1 (en) * | 1994-12-14 | 1996-06-20 | Philips Electronics N.V. | Subtitling transmission system |
US5721720A (en) * | 1994-12-28 | 1998-02-24 | Kabushiki Kaisha Toshiba | Optical recording medium recording pixel data as a compressed unit data block |
KR0136025B1 (ko) * | 1994-12-30 | 1998-05-15 | 배순훈 | 캡션기능을 갖춘 비디오 디스크와 그 재생장치(video compact disc with caption data recorded thereon and system for handling the same) |
CA2168327C (en) * | 1995-01-30 | 2000-04-11 | Shinichi Kikuchi | A recording medium on which a data containing navigation data is recorded, a method and apparatus for reproducing a data according to navigationdata, a method and apparatus for recording a data containing navigation data on a recording medium. |
JPH08241068A (ja) * | 1995-03-03 | 1996-09-17 | Matsushita Electric Ind Co Ltd | 情報記録媒体およびビットマップデータ復号化装置とビットマップデータ復号化方法 |
US5945982A (en) * | 1995-05-30 | 1999-08-31 | Minolta Co., Ltd. | Data administration apparatus that can search for desired image data using maps |
JP3326670B2 (ja) * | 1995-08-02 | 2002-09-24 | ソニー株式会社 | データ符号化/復号化方法および装置、および符号化データ記録媒体 |
JPH09102940A (ja) | 1995-08-02 | 1997-04-15 | Sony Corp | 動画像信号の符号化方法、符号化装置、復号化装置、記録媒体及び伝送方法 |
JP3348339B2 (ja) * | 1995-08-02 | 2002-11-20 | ソニー株式会社 | データ記録方法及び装置、データ再生方法及び装置 |
EP0765082A3 (en) | 1995-09-25 | 1999-04-07 | Sony Corporation | Subtitle signal encoding/decoding |
TW385431B (en) * | 1995-09-29 | 2000-03-21 | Matsushita Electric Ind Co Ltd | A method and an apparatus for encoding a bitstream with plural possible searching reproduction paths information useful in multimedia optical disk |
KR100203264B1 (ko) * | 1996-06-29 | 1999-06-15 | 윤종용 | 디지탈비디오디스크 시스템의 부영상 복호방법 및그장치 |
JPH1118108A (ja) * | 1997-06-25 | 1999-01-22 | Sony Corp | 映像信号処理装置及び映像信号処理方法 |
JPH11252459A (ja) * | 1998-02-26 | 1999-09-17 | Toshiba Corp | 画像合成装置 |
EP1365385B1 (en) * | 1998-11-09 | 2012-06-13 | Broadcom Corporation | Graphics display system with processing of graphics layers, alpha blending and composition with video data |
JP3783467B2 (ja) | 1999-03-31 | 2006-06-07 | ブラザー工業株式会社 | 情報作成装置及び方法、情報作成プログラムが記録された情報記録媒体、情報出力装置並びに情報記録装置 |
JP3805929B2 (ja) * | 1999-07-05 | 2006-08-09 | パイオニア株式会社 | 情報記録装置及び情報記録方法 |
JP3695277B2 (ja) * | 2000-03-30 | 2005-09-14 | ヤマハ株式会社 | 表示制御装置 |
DE10041574A1 (de) | 2000-08-24 | 2002-03-07 | Merck Patent Gmbh | Chromenonderivate |
US7050109B2 (en) * | 2001-03-02 | 2006-05-23 | General Instrument Corporation | Methods and apparatus for the provision of user selected advanced close captions |
US20020133521A1 (en) * | 2001-03-15 | 2002-09-19 | Campbell Gregory A. | System and method for text delivery |
US20030227565A1 (en) * | 2001-06-01 | 2003-12-11 | Hamilton Thomas Herman | Auxiliary information processing system with a bitmapped on-screen display using limited computing resources |
JP4409150B2 (ja) | 2001-06-11 | 2010-02-03 | 三星電子株式会社 | 多国語マークアップ文書支援情報が記録された情報貯蔵媒体、その再生装置及び再生方法 |
KR100457512B1 (ko) | 2001-11-29 | 2004-11-17 | 삼성전자주식회사 | 광 기록 매체, 광 기록 매체 재생 장치 및 방법 |
KR20030061953A (ko) * | 2002-01-14 | 2003-07-23 | 엘지전자 주식회사 | 광기록 매체의 재생시 자막 가림 방법 |
KR20030065332A (ko) * | 2002-01-31 | 2003-08-06 | 톰슨 라이센싱 소시에떼 아노님 | 비디오 시스템에서 보조 정보를 처리하기 위한 방법 |
KR100456024B1 (ko) * | 2002-02-28 | 2004-11-08 | 한국전자통신연구원 | 디브이디 플레이어의 자막정보 재생 장치 및 방법 |
KR100521914B1 (ko) | 2002-04-24 | 2005-10-13 | 엘지전자 주식회사 | 재생리스트 요약정보 관리방법 |
WO2004003907A1 (en) | 2002-06-28 | 2004-01-08 | Lg Electronics Inc. | Recording medium having data structure for managing reproduction of multiple playback path video data recorded thereon and recording and reproducing methods and apparatuses |
EP1394690A1 (en) | 2002-08-29 | 2004-03-03 | Sun Microsystems, Inc. | Behaviour of anchored frames |
KR100607949B1 (ko) | 2002-09-11 | 2006-08-03 | 삼성전자주식회사 | 계층화된 정보 구조를 이용한 멀티미디어 데이터 기록장치, 재생 장치 및 그 정보저장매체 |
KR20040024113A (ko) | 2002-09-13 | 2004-03-20 | 엘지전자 주식회사 | 디지털 다기능 디스크 장치에서의 재생 제어방법 |
WO2004032111A1 (en) * | 2002-10-04 | 2004-04-15 | Matsushita Electric Industrial Co. Ltd. | Visual contents in karaoke applications |
US20040071453A1 (en) * | 2002-10-08 | 2004-04-15 | Valderas Harold M. | Method and system for producing interactive DVD video slides |
US20040081434A1 (en) * | 2002-10-15 | 2004-04-29 | Samsung Electronics Co., Ltd. | Information storage medium containing subtitle data for multiple languages using text data and downloadable fonts and apparatus therefor |
US7852411B2 (en) * | 2002-11-15 | 2010-12-14 | Thomson Licensing | Method and apparatus for composition of subtitles |
CN100466713C (zh) * | 2002-11-28 | 2009-03-04 | 索尼株式会社 | 再现装置和再现方法 |
KR100940022B1 (ko) | 2003-03-17 | 2010-02-04 | 엘지전자 주식회사 | 오디오 데이터의 텍스트 변환 및 디스플레이 방법 |
KR20050001850A (ko) | 2003-06-26 | 2005-01-07 | 엘지전자 주식회사 | 국가 코드를 이용한 데이터 선별 재생방법 |
DE602004030059D1 (de) * | 2003-06-30 | 2010-12-23 | Panasonic Corp | Aufzeichnungsmedium, Wiedergabegerät, Programm und Wiedergabeverfahren |
EP2259583B1 (en) | 2003-07-03 | 2012-05-30 | Panasonic Corporation | Reproduction apparatus, reproduction method, recording medium, recording apparatus and recording method. |
KR100882076B1 (ko) * | 2003-07-11 | 2009-02-10 | 파나소닉 주식회사 | 디스플레이 세트의 병렬처리를 수행할 수 있는 재생장치, 기록매체, 기록방법, 재생방법, 및 컴퓨터 판독가능한 기록매체 |
KR100739682B1 (ko) * | 2003-10-04 | 2007-07-13 | 삼성전자주식회사 | 텍스트 기반의 서브 타이틀 정보를 기록한 정보저장매체,그 처리장치 및 방법 |
KR100619053B1 (ko) | 2003-11-10 | 2006-08-31 | 삼성전자주식회사 | 서브 타이틀을 기록한 정보저장매체 및 그 처리장치 |
US7519274B2 (en) * | 2003-12-08 | 2009-04-14 | Divx, Inc. | File format for multiple track digital data |
JP2007522596A (ja) | 2004-02-10 | 2007-08-09 | エルジー エレクトロニクス インコーポレーテッド | 記録媒体及びテキスト・サブタイトル・ストリームのデコード方法と装置 |
WO2005076601A1 (en) * | 2004-02-10 | 2005-08-18 | Lg Electronic Inc. | Text subtitle decoder and method for decoding text subtitle streams |
KR100727921B1 (ko) * | 2004-02-28 | 2007-06-13 | 삼성전자주식회사 | 텍스트 기반의 서브타이틀 스트림을 기록한 저장 매체,재생 장치 및 그 재생 방법 |
US7529467B2 (en) * | 2004-02-28 | 2009-05-05 | Samsung Electronics Co., Ltd. | Storage medium recording text-based subtitle stream, reproducing apparatus and reproducing method for reproducing text-based subtitle stream recorded on the storage medium |
WO2005088635A1 (en) | 2004-03-18 | 2005-09-22 | Lg Electronics Inc. | Recording medium and method and apparatus for reproducing text subtitle stream recorded on the recording medium |
BRPI0509270A (pt) * | 2004-03-26 | 2007-09-04 | Lg Electronics Inc | meio de gravação, método e aparelho para reproduzir fluxo de subtìtulo de texto |
RU2378722C2 (ru) | 2004-03-26 | 2010-01-10 | ЭлДжи ЭЛЕКТРОНИКС ИНК. | Носитель записи, способ и устройство для воспроизведения потоков текстовых субтитров |
JP5137103B2 (ja) | 2007-03-16 | 2013-02-06 | 独立行政法人情報通信研究機構 | 電波イメージング方法及び装置 |
-
2005
- 2005-03-03 BR BRPI0509270-1A patent/BRPI0509270A/pt not_active IP Right Cessation
- 2005-03-03 JP JP2007504873A patent/JP4599396B2/ja not_active Expired - Fee Related
- 2005-03-03 RU RU2006137720/28A patent/RU2376659C2/ru not_active IP Right Cessation
- 2005-03-03 CN CN2007101469986A patent/CN101241744B/zh not_active Expired - Fee Related
- 2005-03-03 CN CN200580009397XA patent/CN1934624B/zh active Active
- 2005-03-03 WO PCT/KR2005/000579 patent/WO2005091722A2/en active Application Filing
- 2005-03-03 ES ES05721893T patent/ES2336223T3/es active Active
- 2005-03-03 EP EP05721893A patent/EP1730730B1/en active Active
- 2005-03-03 DE DE602005017878T patent/DE602005017878D1/de active Active
- 2005-03-03 CN CN200710146944XA patent/CN101197172B/zh not_active Expired - Fee Related
- 2005-03-03 KR KR1020067022273A patent/KR101067778B1/ko not_active IP Right Cessation
- 2005-03-03 IN IN2667KON2006 patent/IN266747B/en unknown
- 2005-03-03 US US11/070,242 patent/US7756398B2/en not_active Expired - Fee Related
- 2005-03-03 AT AT05721893T patent/ATE450041T1/de not_active IP Right Cessation
- 2005-03-22 CN CN2007101472175A patent/CN101114499B/zh active Active
- 2005-03-22 CN CN2005800094347A patent/CN1934638B/zh not_active Expired - Fee Related
- 2005-03-22 CN CN200710147218XA patent/CN101127922B/zh not_active Expired - Fee Related
- 2005-03-22 ES ES05721968T patent/ES2350940T3/es active Active
-
2007
- 2007-02-07 US US11/703,246 patent/US8380044B2/en not_active Expired - Fee Related
- 2007-02-07 US US11/703,231 patent/US8374486B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
KR101067778B1 (ko) | 2011-09-28 |
CN1934624B (zh) | 2011-10-05 |
EP1730730A2 (en) | 2006-12-13 |
US20070201831A1 (en) | 2007-08-30 |
CN101114499B (zh) | 2011-08-03 |
CN1934638A (zh) | 2007-03-21 |
WO2005091722A3 (en) | 2005-11-17 |
KR20070007845A (ko) | 2007-01-16 |
JP2007531192A (ja) | 2007-11-01 |
CN101114499A (zh) | 2008-01-30 |
US8380044B2 (en) | 2013-02-19 |
JP4599396B2 (ja) | 2010-12-15 |
BRPI0509270A (pt) | 2007-09-04 |
US20070140659A1 (en) | 2007-06-21 |
CN1934638B (zh) | 2011-12-28 |
CN101197172A (zh) | 2008-06-11 |
CN1934624A (zh) | 2007-03-21 |
IN266747B (es) | 2015-05-29 |
CN101241744B (zh) | 2012-09-12 |
US7756398B2 (en) | 2010-07-13 |
RU2006137720A (ru) | 2008-05-10 |
WO2005091722A2 (en) | 2005-10-06 |
RU2376659C2 (ru) | 2009-12-20 |
CN101127922B (zh) | 2012-06-13 |
DE602005017878D1 (de) | 2010-01-07 |
CN101197172B (zh) | 2011-04-13 |
US20050213944A1 (en) | 2005-09-29 |
CN101241744A (zh) | 2008-08-13 |
ES2350940T3 (es) | 2011-01-28 |
CN101127922A (zh) | 2008-02-20 |
EP1730730B1 (en) | 2009-11-25 |
ATE450041T1 (de) | 2009-12-15 |
US8374486B2 (en) | 2013-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2336223T3 (es) | Medio de grabacion o registro y metodo y aparato para reproducir un flujo o corriente de subtitulos de texto grabados en el medio de grabacion. | |
US8498515B2 (en) | Recording medium and recording and reproducing method and apparatuses | |
US7587405B2 (en) | Recording medium and method and apparatus for decoding text subtitle streams | |
US7848617B2 (en) | Recording medium, method, and apparatus for reproducing text subtitle streams | |
US20070127885A1 (en) | Recording medium and method and apparatus for reproducing and recording text subtitle streams | |
ES2338019T3 (es) | Medio de grabacion y metodo y aparato para reproducir un flujo o corriente de subtitulos de texto grabados en el medio de grabacion. | |
KR20060136441A (ko) | 기록매체, 기록매체의 텍스트 서브타이틀 스트림 기록 및재생 방법과 장치 | |
ES2351033T3 (es) | Médio de grabación y método y aparato para reproducir y grabar flujos de subtítulos de texto. | |
WO2005076276A1 (en) | Recording medium having a data structure for managing text subtitles and recording and reproducing methods and apparatuses | |
RU2380768C2 (ru) | Носитель записи, способ и устройство для декодирования потоков текстовых субтитров | |
KR20070032289A (ko) | 기록매체 및 텍스트 서브타이틀 스트림 디코딩 방법과 장치 |