ES2143092T4 - Sistema de transmisión de subtítulos. - Google Patents

Sistema de transmisión de subtítulos. Download PDF

Info

Publication number
ES2143092T4
ES2143092T4 ES95943556T ES95943556T ES2143092T4 ES 2143092 T4 ES2143092 T4 ES 2143092T4 ES 95943556 T ES95943556 T ES 95943556T ES 95943556 T ES95943556 T ES 95943556T ES 2143092 T4 ES2143092 T4 ES 2143092T4
Authority
ES
Spain
Prior art keywords
region
data
pixels
encoded data
bit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES95943556T
Other languages
English (en)
Other versions
ES2143092T3 (es
ES2143092T7 (es
Inventor
Jan Van Der Meer
Richard Cees Spiero
Armand Victor Wemelsfelder
Wiebe De Haan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Philips Norden AB
Original Assignee
Koninklijke Philips Electronics NV
Philips Norden AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=8217456&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2143092(T4) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Koninklijke Philips Electronics NV, Philips Norden AB filed Critical Koninklijke Philips Electronics NV
Publication of ES2143092T3 publication Critical patent/ES2143092T3/es
Application granted granted Critical
Publication of ES2143092T7 publication Critical patent/ES2143092T7/es
Publication of ES2143092T4 publication Critical patent/ES2143092T4/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B82NANOTECHNOLOGY
    • B82YSPECIFIC USES OR APPLICATIONS OF NANOSTRUCTURES; MEASUREMENT OR ANALYSIS OF NANOSTRUCTURES; MANUFACTURE OR TREATMENT OF NANOSTRUCTURES
    • B82Y5/00Nanobiotechnology or nanomedicine, e.g. protein engineering or drug delivery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61KPREPARATIONS FOR MEDICAL, DENTAL OR TOILETRY PURPOSES
    • A61K9/00Medicinal preparations characterised by special physical form
    • A61K9/10Dispersions; Emulsions
    • A61K9/127Liposomes
    • A61K9/1277Processes for preparing; Proliposomes
    • A61K9/1278Post-loading, e.g. by ion or pH gradient
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43074Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of additional data with content streams on the same device, e.g. of EPG data or interactive icon with a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4856End-user interface for client configuration for language selection, e.g. for the menu or subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/087Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only
    • H04N7/088Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital
    • H04N7/0884Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital for the transmission of additional display-information, e.g. menu for programme or channel selection
    • H04N7/0885Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital for the transmission of additional display-information, e.g. menu for programme or channel selection for the transmission of subtitles

Abstract

SE PRESENTA UN METODO PARA TRANSMITIR SIMULTANEAMENTE UNA SEÑAL DE VIDEO E IMAGENES GRAFICAS QUE REPRESENTAN DATOS CODIFICADOS. LA INVENCION ES PARTICULARMENTE APLICABLE PARA TRANSMITIR SUBTITULOS DE IDIOMAS MULTIPLES JUNTO CON UN PROGRAMA DE VIDEO. LAS IMAGENES GRAFICAS SON REGIONES RECTANGULARES DENTRO DEL AREA DE VIDEO ACTIVA. SON TRANSMITIDAS EN FORMA DE MAPAS DE BITS. LA INVENCION NO SOLAMENTE PERMITE QUE SEA REPRESENTADO CUALQUIER FUENTE O TAMAÑO DE CARACTERES, SINO TAMBIEN LA DEFINICION DE POR EJEMPLO UN LOGOTIPO DEL PROVEEDOR DEL PROGRAMA. LOS DATOS CODIFICADOS INCLUYEN UN SELLO DE TIEMPO PARA ESPECIFICAR EL MOMENTO EN EL CUAL SE DEBE MOSTRAR UN SUBTITULO. CONFORMACIONES PREFERIDAS DE LA INVENCION INCLUYEN LA TRANSMISION DE DATOS DE UNA TABLA DE BUSQUEDA DE COLORES CLUT Y UN CODIGO DE COMPATIBILIDAD QUE INDICA UN NUMERO MINIMO REQUERIDO DE ENTRADAS EN LA TABLA DE BUSQUEDA DE COLORES. PARA RECEPTORES CON UNA CLUT QUE TENGA MAS ENTRADAS QUE LAS NECESARIAS, SE TRANSMITE UNA TABLA DE MAPA PARA MAPEAR EL ANCHO DE LOS DATOS DE PIXELES PARA EL ANCHO DE ENTRADA DE LA CLUT APROPIADAS. EL METODO ES APLICABLE PARA SISTEMAS DE EMISION DIRECTA DE VIDEO EN DONDE LA SEÑAL DE VIDEO SE CODIFICA EN FORMATO MPEG2 Y LAS IMAGENES GRAFICAS SE ACOMODA EN UNA CORRIENTE DE DATOS PRIVADA DE LA CORRIENTE DE TRANSPORTE DEL MPEG2.

Description

CAMPO DE LA INVENCIÓN
La invención se refiere a un método de transmisión de datos codificados que definen una imagen gráfica en forma de región rectangular en el interior de un área activa de vídeo. La invención se refiere también a un método de recepción de dichas imágenes gráficas y a un transmisor y a un receptor dispuesto para llevar a cabo los citados métodos.
ANTECEDENTES DE LA INVENCIÓN
Un método de la técnica anterior para la transmisión de imágenes gráficas, se conoce en general con el nombre de “Teletexto”. El estándar World System Teletext ha sido adoptado en muchos países para la transmisión simultánea de información gráfica y de texto con una señal de televisión analógica convencional. El sistema de teletexto se utiliza en particular para la transmisión de subtítulos asociados a un programa de televisión.
Mientras tanto, el estándar de televisión digital MPEG2 (ISO/IEC 13818) será aplicado mundialmente para la emisión de programas de televisión digital hasta el usuario final, por medio de satélite, cable, redes terrestres y medios empaquetados tales como cinta o disco. Una multitud de circuitos integrados para la descompresión y la desmultiplexión del MPEG2, se encuentran disponibles en el mercado y pueden ser aplicados en los decodificadores del receptor con el fin de recibir y decodificar los programas de televisión emitidos o decodificar los (multi)medios empaquetados.
La tecnología de multiplexado y compresión del MPEG2, proporcionará al usuario final una opción muy amplia en cuanto a programas (típicamente del orden de cientos), que requerirán un interfaz de hombre-máquina que sea fácil de usar. Se pretende que el usuario final asocie lo “digital” con la alta calidad. La alta calidad debe por tanto ponerse de manifiesto en todos los aspectos del servicio que se proporcione. Algo típico de la emisión por satélite consiste en la gran huella de su área de recepción que abarca normalmente múltiples áreas de idiomas. Muchos de los programas de televisión que han de ser emitidos, estarán por tanto objetivados también hacia múltiples áreas de lenguaje, lo que requiere la capacidad de subtitulación multilengua. La atracción y la legibilidad de los subtítulos tendrá un mayor impacto sobre los gustos del usuario final para estar a la expectativa de un programa de televisión en una lengua hablada que sea distinta de la suya propia.
El sistema de teletexto de la técnica anterior está muy limitado en cuanto a la calidad y comportamiento. El mismo consiste en un sistema de transmisión basado en caracteres, en el que se transmiten datos codificados para definir qué caracteres han de ser visualizados. La aparición de los subtítulos (en términos de fuente de carácter, espaciamiento, capacidades gráficas, colores), se fija con el hardware. Además, el actual sistema de teletexto no está capacitado para soportar conjuntos de caracteres complejos tales como los que se utilizan en la República Popular de China y en el Japón. El sistema basado en caracteres requerirá generadores de carácter muy caros y complejos en el caso de que soporten múltiples conjuntos de caracteres o en el caso de un simple pero muy complejo juego de caracteres. El sistema de teletexto de la técnica anterior proporciona así solamente una solución básica para la subtitulación multilenguaje.
La patente de los Estados Unidos con número US-A-5.089.899, correspondiente al preámbulo de la reivindicación 1, describe un lector de discos que tiene, grabadas en el mismo, una señal de vídeo e imágenes gráficas que pueden ser visualizadas simultáneamente con la señal de vídeo grabada. La imagen gráfica tiene un tamaño fijo y comprende una parrilla de 16*48 fuentes de caracteres, cada uno de los cuales tiene 6*12 píxeles. La imagen se codifica por medio de instrucciones que especifican los valores de píxel para cada posición de fuente. De esta manera, se pueden definir los píxeles individuales. Por defecto, la imagen se visualiza en el centro de la pantalla pero el usuario puede mover la posición de la imagen hasta otras posiciones de la pantalla. Se pueden registrar hasta 15 imágenes. Con la reproducción, el usuario selecciona una de ellas.
La solicitud de Patente Europea núm. EP-A-0 488 676 describe un formato de almacenaje para almacenar una presentación multimedia en un CD-ROM. Los datos almacenados en el disco incluyen datos de mapa que definen una imagen y datos de elementos que definen elementos de menú que van a ser presentados simultáneamente con el citado mapa. Cada elemento de menú tiene, asociado con el mismo, datos de posición de visualización que incluyen su posición de presentación en la pantalla. Los elementos de menú son elementos de texto. La publicación no indica nada sobre cómo se codifica dicho texto.
OBJETO Y SUMARIO DE LA INVENCIÓN
Un objeto de la invención consiste en mejorar más el sistema de transmisión de la técnica anterior. Otro objeto consiste en proporcionar una solución universal para la subtitulación multilingüe, en particular para un ambiente MPEG2.
A este efecto, la invención proporciona un método de transmisión de datos codificados que define una imagen gráfica en forma de región rectangular para la presentación, en el interior de un área, de una señal activa de vídeo, estando los píxeles que forman la citada región, definidos individualmente por medio de los datos codificados, caracterizado porque los datos codificados para cada imagen gráfica incluyen el tamaño y la posición de dicha región y una impresión de fecha y hora que representa en el momento en que dicha región debe ser visualizada.
La invención proporciona también un método correspondiente de recepción de datos codificados que definen una imagen gráfica, así como también el transmisor correspondiente, el receptor y la señal de imagen.
El método hace que sea posible que los proveedores de programas controlen la aparición de las imágenes por píxeles. El sistema de “Region based Graphics”, proporciona zonas de mapas binarios en vez de regiones de carácter codificado que se solapan con la señal de vídeo. No existen restricciones con relación al tamaño del carácter y a la fuente del carácter, y existe la capacidad de superponer otros gráficos distintos del texto, por ejemplo, el logo del proveedor del programa. La transmisión de una impresión de fecha y hora que represente el momento en que dicha región ha de ser presentada, permite que se transmitan subtítulos multilingües por adelantado, y que se presenten en sincronismo exacto con la señal de vídeo. En los sistemas de la técnica anterior, los subtítulos son presentados de forma inmediata en cuanto son recibidos. La sincronización más o menos precisa resulta posible solamente si todos los subtítulos de la pluralidad de lenguas son transmitidos dentro de un período de tiempo limitado.
Los posteriores datos codificados para una región dada pueden incluir un código de visibilidad para inhabilitar la visualización de dicha región. Esto permite el borrado efectivo de una región gráfica.
En otras realizaciones de la invención, los píxeles de una región son codificados como entradas de una tabla de búsqueda de color. Las tablas de mapa se proporcionan para trazar códigos de píxeles de n-bits para una tabla de búsqueda de color que tiene más de 2n entradas.
En una realización particularmente ventajosa, los datos codificados están albergados en una corriente de transporte privado de acuerdo con el MPEG2 o en un estándar similar.
El empaquetamiento de los datos codificados en paquetes PES de una corriente de transporte privado de MPEG2 tiene la ventaja de una fácil sincronización de los mapas de binarios con una corriente asociada de vídeo MPEG.
BREVE DESCRIPCIÓN DE LAS FIGURAS
Las Figuras 1-3 muestran ejemplos de una pantalla de visualización que comprende una o más zonas de imagen gráfica.
La Figura 4 muestra una región con su tamaño relevante y los parámetros de posición.
La Figura 5 muestra un diagrama esquemático de un transmisor adaptado para transmitir simultáneamente una señal de vídeo e imágenes gráficas de acuerdo con la invención.
La Figura 6 muestra un diagrama esquemático de un receptor para recibir simultáneamente una señal de vídeo y las imágenes gráficas de acuerdo con la invención.
Las Figuras 7 y 8 muestran realizaciones de un circuito generador de color del receptor mostrado en la Figura 6.
DESCRIPCIÓN DE LAS REALIZACIONES
La invención va a ser descrita ahora en términos de formato de transmisión. La sintaxis, según se describe en lo que sigue, es similar a la sintaxis utilizada en el estándar MPEG2 (ISO/IEC 13818). Los (y) símbolos de esta sintaxis han sido omitidos puesto que los mismos no son relevantes para la legibilidad. También se han omitido elementos de datos que no son esenciales para la invención o que simplemente sirven a efectos de alineamiento de byte.
Los datos codificados que definen las imágenes gráficas, se empaquetan en paquetes PES (Packetized elementary Streams) y se acomodan en una Corriente de Transporte MPEG2. Según prescribe el estándar MPEG2, los paquetes PES comprenden una cabecera y una carga útil.
La cabecera comprende una pluralidad de elementos de datos, siendo relevantes para la invención los que se dan a continuación:
*
El elemento stream_id se establece en ‘1011 1101” con el fin de indicar que la imagen gráfica se está transportando como private_data_stream_1.
*
El elemento PES_packet_length se establece en un valor tal que el paquete PES se alinea con el paquete de transporte MPEG2.
*
El elemento data_alignment_indicator se establece en ‘1’, indicando que los campos de datos de región están alineados con los paquetes PES.
*
La PTS (Presentación de Impresión de Fecha y Hora) indica el comienzo del momento de
presentación de cada uno de los datos (región relativa) contenidos en este paquete PES. Las PTSs de 5 regiones dentro de una multipágina diferirán en más de 40 ms.
La carga útil del paquete PES que define las imágenes gráficas, se ha indicado como PES_data_field(). La Tabla I muestra la sintaxis de este campo. TABLA I
PES_data_field() data_identifier 8 uimsbf RbG_stream_id 16 bslbf stream_level_of_compatibility 3 bslbf single_page_display_flag 1 bslbf para (i=0;N;i + +)
region_id 8 uimsbf region_level_of_compatibility 3 bslbf region_data_length 16 uimsbf region_data_field()
10
La definición semántica que sigue se aplica a los elementos de datos mostrados en esta Tabla.
* data_identifier – Los datos de Gráficos basados en Región (RbG) se identifican por medio de los valores 0x20-0x2F del campo data_identifier.
15 * RbG_stream_id - Identifica la corriente de Gráficos basados en Región a partir de la cual se almacenan los datos en este paquete PES.
* stream_level_of_compatibility - Indica la mínima Tabla de Búsqueda de Color (CLUT) que se precisa para decodificar regiones a partir de esta corriente. El valor 0x01 se refiere a una CLUT de 2 bits, el valor 0x02 se refiere a una CLUT de 4 bits, y el valor 0x03 se refiere a una CLUT de 8 bits.
20 * single_page_display_flag - Si se establece en ‘1’, indica que esta corriente RbG contiene solamente una página de visualización.
* region_id - Identifica la región a partir de la cual los datos están contenidos en la region_data_field() inmediatamente siguiente.
* region_level_of_compatibility - Indica la CLUT mínima que se precisa para decodificar esta región. Se 25 aplican los valores definidos anteriormente.
* region_data_length - Especifica el número de bytes de la region_data_field() inmediatamente posterior, cuya sintaxis se proporciona en la Tabla II.
En la Tabla II se muestra la sintaxis de la region_data_field().
30
La definición semántica que sigue se aplica a los elementos de datos mostrados en esta Tabla.
* region_data_type - Identifica el tipo de datos de la región. El valor 0x10 se refiere a una intra-región (Iregion), el valor 0x11 se refiere a atributos de región (A-region), el valor 0xFF indica una región que debe ser borrada.
35 TABLA II
region_data_field()
region_data_type
4 bslf
visibility_flag
1 bslf
horizontal_address_flag
1 bslf
vertical_address_flag
1 bslf
number_of_pixels_flag
1 bslf
number_of_lines_flag
1 bslf
si (horizontal_address_flag ==‘1’)
region_horizontal_address
16 uimsbf
si (vertical_address_flag ==‘1’)
region_vertical_address
16 uimsbf
si (number_of_pixels_flag ==‘1’)
number_of_pixels
16 uimsbf
si (number_of_lines_flag ==‘1’)
number_of_lines
16 uimsbf
number_of_subregions
4 uimsbf
para (i=0;i<number_of_sub_regions;i++)
sub_region_id
4 bslbf
number_of_sub_region_lines_flag
1 bslbf
clut_flag
1 bslbf
attribute_extension_flag
1 bslbf
coded_data_flag
1 bslbf
coded_data_extension_flag
1 bslbf
si (number_of_sub_region_lines_flag ==‘1’)
number_of_sub_region_lines
16 uimsbf
si (clut_flag ==‘1’)
colour_look_up_table_data()
si (attribute_extension_flag ==‘1’)
attribute_extension_length
8 uimsbf
para (i=1;i<attribute_extension_length;i++)
reservado
8 bslbf
si (coded_data_flag ==‘1’)
coded_sub_region_data()
si (coded_data_extension_flag ==‘1’)
coded_data_extension_length
8 uimsbf
para (i=0;<coded_data_extension_length;i++)
reservado
8 bslbf
* visibility_flag - Si se establece en ‘1’, especifica que esta región será visualizada según se define mediante los datos codificados para esta región. Si se establece en ‘0’, esta región será transparente.
* horizontal_address_flag - Indica la presencia del campo region_horizontal_address. En las I-regiones, 5 esta banderola deberá ser ‘1’.
*
vertical_address_flag - Indica la presencia del campo region_vertical_address. En las I-regiones, esta banderola deberá ser ‘1’.
*
number_of_pixels_flag - Indica la presencia del campo number_of_pixels. En las I-regiones, esta banderola deberá ser ‘1’.
10 * number_of_lines_flag - Indica la presencia del campo number_of_lines. En las I-regiones, esta banderola deberá ser ‘1’.
* region_horizontal_address -Especifica la dirección horizontal del píxel superior izquierdo de esta región. Dentro del marco de 720*576 píxeles, solamente serán direccionados los píxeles uniformes. El píxel más a la izquierda de los 720 píxeles activos, se ha indexado con cero, y la dirección de píxel se
15 incrementa de izquierda a derecha. La dirección horizontal deberá ser tal que cada píxel de la región se encuentre dentro de los 720 píxeles activos.
* region_vertical_address - Especifica la dirección vertical de la línea superior de esta región. La línea superior del marco de 720*576 es la línea cero y el índice de línea se incrementa en uno por el interior del marco, desde la parte superior hasta la inferior. La dirección vertical deberá ser tal que cada línea
20 de la región esté dentro de las 576 líneas activas.
*
number_of_pixels - Especifica el número de píxeles horizontales de esta región. El valor cero no está permitido.
*
number_of_lines - Especifica el número de líneas verticales de esta región. El valor cero no está permitido.
25 * number_of_sub_regions - Especifica el número de sub-regiones en el interior de la región. El valor cero no está permitido.
*
sub_region_id - Identifica la sub-región.
*
number_of_sub_region_lines_flag - Indica la presencia del campo number_of_sub_region_lines.
* clut_flag - Indica la presencia del campo colour_look_up_data_field(), cuya sintaxis se proporciona en 30 la Tabla III.
*
attribute_extension_flag -Si se establece en ‘1’, indica la presencia del campo attribute_extension_length y de los campos reservados asociados.
*
coded_data_flag - Indica la presencia del campo coded_sub_region_data(), el cual se define en la Tabla IV.
35 * coded_data_extension_flag -Si se establece en ‘1’, identifica la presencia del campo coded_data_extension_length y de los campos reservados asociados.
* number_of_sub_region_lines - Especifica el número de líneas en una sub-región. El número total de líneas en todas las sub-regiones interiores a una región será igual al número de líneas de esa región.
* attribute_extension_length - Especifica el número de bytes reservados inmediatamente siguientes. 40 * coded_data_extension_length - Especifica el número de bytes reservados inmediatamente siguientes.
En la Tabla III, se muestra la sintaxis de colour_look_up_field().
TABLA III
colour_look_up_table_data()
number_of_entries
9 uimsbf
para (i=1;i<number_of_entries;i ++)
2_bit_clut_destination_flag
1 bslbf
4_bit_clut_destination_flag
1 bslbf
8_bit_clut_destination_flag
1 bslbf
full_range_flag
1 bslbf
entry_value
8 uimsbf
si (full_range_flag ==‘1’)
Y_value
8 bslbf
U_value
8 bslbf
V_value
8 bslbf
T_value
8 bslbf
o bien
Y_value
4 bslbf
U_value
4 bslbf
V_value
4 bslbf
T_value
4 bslbf
La definición semántica que sigue se aplica a los elementos de datos mostrados en esta Tabla: 5 * number_of_clut_updates - Especifica el número de ciclos de actualización que deben realizarse.
*
number_of_entries - Especifica el número de entradas CLUT que están actualizadas.
*
2_bit_clut_destination_flag -Si se establece en ‘1’, indica que esta entrada está prevista para una CLUT de 2 bits.
* 4_bit_clut_destination_flag -Si se establece en ‘1’, indica que esta entrada está prevista para una 10 CLUT de 4 bits.
*
8_bit_clut_destination_flag -Si se establece en ‘1’, indica que esta entrada está prevista para una CLUT de 8 bits.
*
full_range_flag - Si se establece en ‘1’, indica que los campos Y_value, U_value, V_value y T_value
tienen una resolución total de 8 bits. Si se establece en ‘0’, entonces estos campos contienen 15 solamente 4 bits más significativos.
*
entry_value -Especifica el valor de entrada de la CLUT. Esta primera entrada de la CLUT tiene el valor de entrada cero.
*
Y_value - Valor de salida de luminancia de la CLUT para esta entrada.
* U_value - Primer valor de salida de crominancia de la CLUT para esta entrada. 20 * V_value - Segundo valor de salida de crominancia de la CLUT para esta entrada.
* T_value - Valor de salida de transparencia de la CLUT para esta entrada. El valor cero identifica que no hay ninguna transparencia. El valor 255 identifica una transparencia total. Para todos los demás valores, el valor de la transparencia se define por medio de una interpolación lineal.
25 En la Tabla IV, se muestra la sintaxis de la coded_sub_region_data().
La definición semántica que sigue se aplica a los elementos de datos mostrados en esta Tabla.
* data_block_length -Especifica el número de bytes del campo coded_sub_region_data inmediatamente siguientes a este campo.
30 * coding_mode - Especifica el modo de codificación aplicado. Si se establece en ‘00’, identifica la presencia del mode_extension_field.
* pixels_in_mode - Especifica el número de píxeles codificados por medio de un código de 2, 4 u 8 bit, según se especifica por medio del campo coding_mode.
* 2_bit_code - Un código de 2 bits que especifica el color de un píxel. 35 * 2_stuff_bits - Dos bits de relleno que serán codificados con ‘11’.
*
4_bit_code - Un código de 4 bits que especifica el color de un píxel.
*
4_stuff_bits - Cuatro bits de relleno que serán codificados con ‘1111’.
*
8_bit_code - Un código de 8 bits que especifica el color de un píxel.
*
mode_extension - Identifica el modo de extensión que se ha aplicado. Si se establece en ‘00’,
40 identifica la presencia de un comando. Si se establece en otro valor, identifica que se ha aplicado codificación run length.
* 10_bit_run -Especifica el número de píxeles posteriores con el color identificado por el campo 2_bit_code inmediatamente siguiente.
* 8_bit_run - Especifica el número de píxeles posteriores con el color identificado por el campo 45 4_bit_code inmediatamente siguiente.
*
4_bit_run - Especifica el número de píxeles posteriores con el color identificado por el campo 8_bit_code inmediatamente siguiente.
*
command_length - Especifica el número de bytes de este campo coded_sub_region_data()
inmediatamente siguiente al campo command_length. Si se establece en un valor de 15, este número 5 no está especificado por el campo command_length.
* long_length - Especifica el número de bytes de este campo coded_sub_region data() inmediatamente siguiente al campo long_length.
TABLA IV
coded_sub_region_data() data_block_lenght 16 uimsbf para (i=1;<data_block_lenght;i ++)
coding_mode 2 bslbf
si (coding_mode! = ‘00’) pixels_in_mode 6 bslbf si (coding_mode == ‘01’)
para (i=1;i<(pixels_in_mode+3)/4;i++) para (i=1;i<pixels_in_mode;i++) 2_bit_code 2 bslbf para i+1;i<(4*((pixels_in_mode+3)/4)- pixels_in_mode);i++) 2-stuff_bits 2 bslbf si (coding_mode == ‘10’) para (i=1;i<(pixels_in_mode+1)/2;i++) para (i=1;i<pixels_in_mode;i++) 4_bit_code 4 bslbf para (i=1;i<(2*((pixels_in_mode+1)/2- pixels_in_mode);i++) 4_stuff_bits 4 bslbf si (coding_mode == ‘11’) para (i=1;i<pixels_in_mode;i++) 8_bit_code 8 bslbf
o bien mode_extension 2 bslbf si (mode_extension = ‘00’)
si (mode_extension == ‘01’) 10_bit_run 10 uimsbf 2_bit_code 2 bslbf
si (mode_extension == ‘10’) 8_bit_run 8 uimsbf 4_bit_code 4 bslbf
si (mode_extension == ‘11’) 4_bit_run 4 uimsbf 8_bit_code 8 bslbf
o bien command_length 4 uimsbf si (command_length == 15)
long_length 16 uimsbf command_id 8 bslbf si (command_id == load_map_table)
map_table_data()
o bien si (command_length! = 15)
para (i=1;i<command_length;i++) reservado 8 bslbf
o bien
para (i=1;i<long_length;i++) reservado 8 bslbf
10
Command_id - Identifica el tipo de comando. El valor 0x10 indica Load Map Table (Tabla de Mapa de Carga). Este comando va seguido de un campo map_table_data(), el cual se define en la Tabla V. El valor 0x11 indica el Final de Línea.
15 La Tabla V muestra la sintaxis de map_table_data().
TABLA V
map_table_data()
number_of_entries
8 uimsbf
para (i=1;i<number_of_entries;i++)
2_to_4_map_table_flap
1 bslbf
2_to_8_map_table_flag
1 bslbf
4_to_8_map_table_flag
1 bslbf
entry_value
4 uimsbf
map_table_output_value
8 uimsbf
La definición semántica que sigue, se aplica a los elementos de datos mostrados en esta Tabla:
* number_of_entries - Especifica el número de entradas de Tabla de Mapa que son cargadas.
5 * 2_to_4_map_table_flap -Si se establece en ‘1’, indica que esta entrada se carga en la “Tabla de Mapa 2 a 4.
* 2_to_8_map_table_flag -Si se establece en ‘1’, indica que esta entrada se carga en la “Tabla de Mapa 2 a 8.
*
4_to_8_map_table_flag - Si se establece en ‘1’, indica que esta entrada se carga en “Tabla de Mapa 4 10 a 8.
* map_table_type - Identifica el tipo de Tabla de Mapa que se carga. El valor ‘01’ indica una “Tabla de Mapa de 2 a 4’ ", el valor ‘10’ indica una “Tabla de Mapa de 2 a 8", el valor ‘11’ indica una “Tabla de Mapa de 4 a 8".
*
entry_value -Especifica la entrada de la Tabla de Mapa. La primera entrada de la Tabla de Mapa 15 tiene el valor de entrada cero.
* map_table_output_value - especifica el valor de salida de la Tabla de Mapa para esta entrada.
La sintaxis y la semántica que anteceden van a ser expuestas ahora con un lenguaje más común. La PES_data_field() (Tabla I), especifica al menos una “página” que comprende una o más regiones. Las Figuras 1-3 muestran algunos
20 ejemplos de un área de vídeo activa que comprende una o más regiones. La Figura 1 muestra el logo A de un proveedor de programación y un subtítulo B normal. La Figura 2 muestra un subtítulo C adicional para televidentes con audición disminuida (las personas con audición disminuida necesitan con frecuencia algún texto explicativo adicional tal como “aplausos de la audiencia”, “música intensa”). La Figura 3 muestra el logo A y el subtítulo Bi, indicando el índice i una seleccionable de entre una pluralidad de lenguas.
25 Los datos de cada región están albergados en la region_data_field() (Tabla II). Este campo especifica el tamaño y la posición de la región respectiva. Con referencia a la Figura 4, la posición de una región se indica con (x,y), estando especificada x por medio de region_horizontal_address y por medio de region_vertical_address. Estos parámetros de posición pueden ser cambiados en el momento del paso secuencial mediante la retransmisión de datos codificados para
30 una región dada (especificada por su region_id) sin retransmisión de códigos de píxel y de datos de tabla-de-búsquedade-color. El tamaño de la región es p*n, estando especificados p y n por number_of_pixels y number_of_lines, respectivamente. Cada región comprende hasta 16 sub-regiones. En la Figura 4, se han representado dos sub-regiones que comprenden n1 y n2 líneas, respectivamente. La region_data_field() especifica los datos de tabla-de-búsqueda-decolor y/o los datos de píxel para cada sub-región.
35 No todos los parámetros y datos que se citan en lo que antecede, son obligatorios. Su presencia se indica por medio de banderolas respectivas. Esto permite que las regiones y/o las sub-regiones ya definidas, sean actualizadas o modificadas por referencia a su region_id y/o sub_region_id, respectivamente. Por ejemplo, la posición de una región puede ser modificada (lo que permite el paso secuencial); una región ya visualizada, puede hacerse invisible; o una sub
40 región puede ser citada por otra región y visualizada así en cualquier lugar de la pantalla sin que sean transmitidos todos los datos de imagen.
La tabla-de-búsqueda-de-color se carga o se actualiza por medio del campo colour_look_up_data() (Tabla III). Este campo especifica qué valores de salida de luminancia, crominancia y transparencia deberán ser almacenados en qué
45 entradas de la CLUT. La transparencia define en qué medida han de mezclarse el vídeo y los píxeles de gráficos en la pantalla.
Los datos de píxel para una sub-región (o para una región completa si el número de sub-regiones es 1), se albergan en el campo coded_sub_region_data() (Tabla IV). Los píxeles se definen como entradas de la tabla-de-búsqueda-de-color.
50 Los valores de píxel pueden ser definidos en 2, 4 u 8 bits. Se han previsto tres modos de codificación. En un primer modo de codificación (coding_mode es ‘01’, ‘10’, ‘11’) se especifican individualmente píxeles consecutivos. El número de píxeles así transmitidos se define por medio de pixels_in_mode. En un segundo modo de codificación (coding_mode es ‘00’, coding_mode_extension es ‘01’, ‘10’, ‘11’), las rutinas de píxeles idénticos consecutivos son codificadas en longitud-de-rutina. El primer y el segundo modos de codificación pueden ser mezclados dentro de una región. Con el fin
55 de reducir al mínimo la complejidad de la codificación, se debe tener cuidado de que los datos codificados en longitudde-rutina estén alineados por byte. Cada código de longitud-de-rutina comprende dos bytes: 2 bits para el modo de codificación, 2 bits para la extensión del modo de codificación, y 12 bits para el código de longitud-de-rutina. El último define una rutina de 10 bits de píxeles de 2 bits, una rutina de 8 bits de píxeles de 4 bits, una rutina de 4 bits de píxeles de 8 bits, según se especifica mediante la extensión del modo de codificación. Un tercer modo de codificación (coding_mode es ‘00’, coding_mode_extension es ‘00’), especifica comandos tales como tablas de mapa e indicadores de fin-de-línea que trabajan sobre los datos decodificados de longitud-de-rutina. El concepto de tablas de mapa se describe con mayor detalle en lo que sigue.
Se ha previsto que los chips de Visualización-Sobre-La-Pantalla existentes, sean utilizados para visualizar las imágenes gráficas. Algunos de estos chips permiten 2 bits por píxel, otros 4 bits por píxel u 8 bits por píxel. Se presenta un problema potencial si los píxeles del interior de una región están codificados con la utilización de un número de bits por píxel que sea diferente del ancho de entrada de la tabla-de-búsqueda-de-color. Con el fin de resolver este problema, se ha introducido el concepto de tablas de mapa. Las tablas de mapa incrementan también la eficacia de la codificación. Las mismas permiten que los píxeles sean codificados con menos bits por píxel que el ancho de entrada de la tabla-debúsqueda-de-color. Estos aspectos van a ser expuestos ahora a título de ejemplo. Supóngase una (sub)región en la que solamente se han utilizado cuatro colores diferentes. Los colores respectivos se almacenan, en términos de luminancia y de crominancia, en cuatro entradas de una CLUT. Los datos de píxel para dicha región se codifican con 2 bits/píxel. El decodificador, sin embargo, puede tener una CLUT de 4 bits y requerir por tanto 4 bits por píxel. Ahora, la tabla de mapa proporciona el diseño de los códigos de transmisor de 2 bits/píxel a una entrada de CLUT de 4 bits. La tabla de mapa informa así a un decodificador de que han de ser usadas cuatro de las 16 entradas. Si la codificación de 2 bits/píxel mejora o no la eficacia, depende de la capacidad para cambiar el modo de codificación o la tabla de mapa. De este modo, las tablas de mapa se proporcionan para diseñar la codificación de n bits/píxel para una CLUT de m bits, siendo n y m números diferentes. En vista de esta exposición del concepto de tablas de mapa, el campo map_table_data() (Tabla V) no necesita ninguna explicación. Para cada valor de entrada de la tabla de mapa, se define un valor de salida.
La Figura 5 muestra un diagrama esquemático de un transmisor de acuerdo con la invención. El transmisor está adaptado para transmitir simultáneamente una señal de vídeo e imágenes gráficas. El transmisor recibe una señal de vídeo de banda básica en formato YUV y una señal de audio AUD asociada y comprende un codificador 101 de vídeo de MPEG2 y un codificador 102 de audio de MPEG2 para codificar dicha señal de vídeo y de audio en corrientes PSV y PSA elementales empaquetadas, respectivamente. El transmisor comprende además un terminal 103 de edición para la edición de subtítulos y/u otras imágenes gráficas tales como el logo del proveedor de programas. El terminal de edición se acopla a un dispositivo 104 de procesamiento y almacenaje. Una pluralidad de subtítulos asociados al programa de televisión en cuestión, posiblemente en una pluralidad de idiomas, se supone que se han almacenado con antelación en el dispositivo de procesamiento y almacenaje. La señal de vídeo se aplica también a un generador 105 de tiempo que aplica un tiempo al dispositivo 104 procesador y de almacenaje. El tiempo t puede ser el tiempo que ha transcurrido desde el comienzo del programa de televisión en cuestión o puede ser un código de tiempo asociado al programa y almacenado en la misma cinta que la señal de televisión. En los sistemas MPEG, el tiempo t corresponderá con la Referencia de Reloj de Sistema SCR del MPEG. El dispositivo procesador y de almacenaje compara el tiempo t con una impresión de fecha y hora asociada a cada subtítulo almacenado. Cuando se espera un subtítulo, se aplica el dato relevante a un codificador y empaquetador 106 que forma una corriente PSG elemental empaquetada que define datos codificados de acuerdo con el formato de transmisión que se ha discutido en lo que antecede. Las corrientes PSV, PSA y PSG elementales empaquetadas, son multiplexadas por medio del multiplexor 107 de PPEG con el fin de formar una corriente TS de transporte. La corriente de transporte es transmitida a un receptor a través de un medio de transmisión o almacenaje (no representado).
La Figura 6 muestra un diagrama esquemático de un receptor de acuerdo con la invención. El receptor comprende un multiplexor 201 de MPEG2 que recibe la corriente TS de transporte de MPEG2 y selecciona la corriente empaquetada PSA de audio, corriente PSV de vídeo y los datos PSG gráficos codificados que constituyen en conjunto un programa de televisión seleccionado. La corriente de audio se decodifica por medio de un decodificador 202 de audio de MPEG2. La señal AUD de audio decodificada se aplica a un altavoz 203 para su reproducción. La corriente de vídeo se decodifica por medio de un decodificador 204 de vídeo de MPEG2 con el fin de obtener la señal de vídeo decodificada en formato YUV para su presentación sobre una pantalla 205 de visualización. La corriente de datos gráficos codificados se aplica a un analizador 206 de datos. Este circuito analiza los datos albergados en los paquetes PSG de PES y proporciona las siguientes señales de salida:
- la impresión PTS de fecha y hora de presentación, albergada en la cabecera de PES, indicando el momento en que va a ser presentada la región;
-el valor de la visibility_flag (Tabla II), indicado con VF;
-
los datos de píxel codificados según se define mediante los campos n_bit_code en la Tabla IV (n = 2, 4, 8); los códigos de píxel de 8 bits se han indicado como PX8, los códigos de píxel de 4 bits se han indicado como PX4, y los códigos de píxel de 2 bits se han indicado como PX2;
-
la posición (x, y) y el tamaño (p, n) de la región recibida actualmente, según se ha definido por medio de los campos region_horizontal_address, region_vertical_address, number_of_pixels, y number_of_lines, respectivamente (Tabla II, Figura 4);
-
datos de tabla de mapa, indicados como MTD, definidos por el campo map_table_data() (Tabla V), (esta señal no se utiliza en la presente realización);
-
una señal indicada con LoC, derivada del campo region_level_of_compatibility (Tabla I), y
-
datos de tabla-de-búsqueda-de-color, indicados con CTD, definidos por el campo colour_look_up_table_data() (Tabla III).
Los datos PXn (n = 2, 4, 8) de píxel recibidos desde el analizador 206, se almacenan (cuando longitud-de-rutina está codificada por medio de un decodificador 207 de longitud de rutina) en una memoria 208 de píxel, estando determinadas las posiciones relevantes de memoria por la posición (x, y) y el tamaño (p, n) recibidos desde el analizador. La memoria 208 de píxel se lee mediante señales de temporización de visualización (no representadas). Los píxeles PX2, PX4 o PX8 (una región puede comprender píxeles de 2, 4 y 8 bits, pero solamente uno de ellos está activo mientras dura un píxel) son aplicados de este modo a un circuito 209 de generación de color en sincronismo con la señal de vídeo recibida.
El circuito 209 generador de color comprende una tabla-de-búsqueda-de-color 2092. En esta realización, se supone que dicha CLUT posee cuatro entradas solamente, es decir, su entrada es de una anchura de 2 bits. La CLUT mantiene, para cada entrada, una señal de salida indicada como OSD en términos de valor Y de luminancia de 8 bits y de valores U y V de crominancia de 8 bits, y un valor T de transparencia de 8 bits. Los valores YUV y T relevantes se almacenan en la CLUT en respuesta a los datos CTD de tabla-de-búsqueda-de-color recibidos desde el analizador.
Puesto que la tabla-de-búsqueda-de-color 2092 posee una entrada de 2 bits, los píxeles PX2 de 2 bits se aplican directamente a la misma. Los píxeles PX4 de 4 bits y los píxeles PX8 de 8 bits, se aplican a la CLUT a partir de un circuito 2093 de reducción de 4 a 2 bits, y de un circuito 2094 de reducción de 8 a 2 bits, respectivamente. En una realización simple, dichos circuitos de reducción desechan simplemente los bits de entrada menos significativos. En una realización alternativa, el bit más significativo se mantiene inalterado (o algunos de los bits más significativos son reunidos) con el fin de obtener el primer bit de salida mientras que los bits de entrada menos significativos son reunidos para obtener el segundo bit de salida.
Los circuitos 2093 y 2094 de reducción permiten que los datos de CLUT de nivel alto (>2 bits), sean decodificados de forma compatible mediante CLUTs de nivel inferior (2 bits de entrada). Sin embargo, un proveedor de programas puede evitar que las regiones definidas por más de 4 colores sean decodificadas por CLUTs de 2 bits. Esto se consigue por medio de un conmutador 2091 controlado por la señal LoC recibida desde el analizador, es decir, por el campo region_level_of_compatibility (véase la Tabla I). Si el conmutador está en la posición indicada con 4 u 8 (es decir, el proveedor del programa requiere al menos una CLUT de 4 bits o una CLUT de 8 bits, respectivamente), la región no será presentada. Solamente si el conmutador se encuentra en la posición indicada con 2 (es decir, el proveedor del programa acepta que los píxeles sean presentados en cuatro colores solamente), los datos de píxel son, en efecto, aplicados a la CLUT.
En respuesta a los códigos de píxel de 2 bits, la CLUT 2092 suministra las señales OSD de salida de visualización y la señal T de transparencia. La señal OSD de salida se aplica a una etapa 210 mezcladora en la que se mezcla, sobre una base de píxel-a-píxel, con la señal YUV de vídeo. La señal T de transparencia determina la cantidad de transparencia de píxeles gráficos. Si T tiene valor 0, la señal de vídeo está completamente en blanco y los píxeles gráficos no se ven afectados. Si T tiene el valor 256 (es decir, el 100 %), el píxel gráfico relevante es totalmente transparente. Para otros valores de T, el nivel de transparencia se interpola linealmente. Esto permite que la señal de vídeo permanezca visible a través de la imagen gráfica.
La señal combinada se presenta a continuación en la pantalla 205 de visualización. Sin embargo, la presentación o no de la imagen gráfica depende, en efecto, de un conmutador 212 que está controlado por un circuito 213 de habilitación de visualización. El circuito recibe las impresiones PTS de fecha y hora de presentación y la banderola VF de visibilidad desde el analizador, así como también la hora t actual (no representada) según es transportada por la Referencia de Reloj de Sistema del MPEG. Este circuito 213 de habilitación de visualización está adaptado para permitir la presentación de la región gráfica tan pronto como t>PTS y para inhabilitar su visualización cuando la visibility_flag de la región relevante se establezca en 0.
La Figura 7 muestra otra realización del circuito 209 de generación de color del receptor. En esta realización, la CLUT 2092 del receptor tiene una entrada de 4 bits, es decir, la CLUT comprende dieciséis entradas. Ahora, los píxeles PX4 de 4 bits se aplican directamente al conmutador 2091 mientras que los píxeles PX8 de 8 bits pasan a través de un circuito 2096 de reducción de 8 a 4 bits que, por ejemplo, desecha los cuatro bits de entrada menos significativos. Los píxeles de 2 bits pasan a través de una tabla de mapa 2095 de 2 a 4 bits que, de hecho, es una memoria que tiene cuatro posiciones de 4 bits. La tabla de mapa 2095 diseña los píxeles de 2 bits según entradas de CLUT de 4 bits, según especifican los datos MTD de tabla de mapa recibidos desde el analizador. El concepto de tablas de mapa ha sido ya descrito con anterioridad. Si el conmutador 2091 se encuentra en la posición indicada con 8 (es decir, el proveedor de programa necesita al menos una CLUT de 8 bits), la región no será visualizada. Si el conmutador se encuentra en la posición indicada con 2 ó 4 (es decir, el proveedor de programa acepta que los píxeles de 8 bits sean visualizados con dieciséis colores solamente), los datos de píxel son aplicados de forma efectiva a la CLUT.
La Figura 8 muestra una realización del circuito 209 generador de color en el que la CLUT 2092 tiene una entrada de 8 bits, es decir, la CLUT comprende 256 entradas. Ahora, los píxeles PX8 de 8 bits se aplican directamente al conmutador 2091, mientras que los píxeles PX2 de 2 bits y los píxeles PX4 de 4 bits pasan a través de una tabla de mapa 2097 de 2 a 8 bits y de una tabla de mapa 2098 de 4 a 8 bits, respectivamente. La tabla de mapa 2097 transforma píxeles de 2 bits
5 en entradas de CLUT de 8 bits, según especifican los datos MTD de tabla de mapa recibidos desde el analizador. La tabla de mapa 2098 hace lo mismo con los píxeles de 4 bits. Estrictamente hablando, el conmutador 2091 es redundante en esta realización puesto que este receptor aborda todas las transmisiones con independencia de los requisitos de CLUT transmitidos.
Según se ha explicado en lo que antecede, los circuitos (2093, 2094, 2096) de reducción permiten que los datos de CLUT de alto nivel sean decodificados de manera compatible por medio de CLUTs de nivel más bajo, mientras que las tablas de mapa (2095, 2097, 2098) permiten que las CLUTs de nivel más bajo sean transformadas dinámicamente en CLUTs de nivel más alto. La Tabla VI resume las diversas opciones e indica los diversos niveles de rendimiento.
15 TABLA VI
CLUT de 2 bits
0 0 - 0 - -
CLUT de 4 bits
0 + ++ + ++ -
CLUT de 8 bits
0 + ++ ++ +++ ++++
LoC=2
LoC=2 LoC=4 LoC=2 LoC=4 LoC= 8
datos de 2 bits
datos de 4 bits datos de 8 bits
La Tabla VI muestra tres filas que indican el rendimiento de receptores que tienen una CLUT de 2 bits, 4 bits y 8 bits, respectivamente. Las tres columnas indican si una región comprende píxeles de 2 bits, 4 bits u 8 bits, respectivamente. LoC indica el nivel de compatibilidad incluido en los datos codificados.
Si una región se define con 2 bits/píxel solamente, se pueden presentar cuatro colores (rendimiento indicado con 0) con independencia de si la entrada de la CLUT es de una anchura de 2, 4 u 8 bits. No tiene sentido para un proveedor de programa, el hecho de requerir, para tal región, una CLUT mejor de 2 bits. Esto se ha indicado mediante LoC = 2 en la columna respectiva.
25 Si una región comprende píxeles de 4 bits, el proveedor de programa puede permitir que tal región sea visualizada utilizando receptores de 2 bits que presentan 16 colores (rendimiento indicado con +). Sin embargo, el proveedor de programa puede requerir también que el receptor tenga una CLUT de 4 bits (LoC = 4). En ese caso, un receptor de 2 bits no puede presentar la región (rendimiento indicado con -), mientras que los receptores de 4 bits y de 8 bits presentarán 16 colores (rendimiento indicado con ++).
Si una región comprende píxeles de 8 bits, el proveedor de programa puede permitir que tal región sea visualizada con la utilización de una CLUT de 2 bits (LoC = 2). En ese caso, los receptores de 2 bits presentan 4 colores (rendimiento indicado con 0), los receptores de 4 bits presentan 16 colores (rendimiento indicado con +), y los receptores de 8 bits
35 presentan la paleta completa de colores (rendimiento indicado con ++). El proveedor de programa puede requerir también que el receptor tenga al menos una CLUT de 4 bits (LoC = 4). En ese caso, los receptores de 2 bits pueden no presentar la región relevante (rendimiento indicado con -), los receptores de 4 bits presentan 16 colores (rendimiento indicado con ++), y los receptores de 8 bits presentan la paleta de colores completa (rendimiento indicado con +++). Si el proveedor de programa requiere que el receptor tenga una CLUT de 8 bits (LoC = 8), ninguno de los receptores de 2 bits o de 4 bits puede presentar la región relevante (rendimiento indicado con -), mientras que los receptores de 8 bits tienen un rendimiento óptimo (indicado con ++++). El último rendimiento es óptimo debido a que el proveedor de programa no necesita tener en cuenta las restricciones de los receptores de nivel más bajo.
Resumiendo la invención, se describe un método de transmisión simultánea de una señal de vídeo y de datos
45 codificados que representan imágenes gráficas. La invención es particularmente aplicable a la transmisión de subtítulos multilingües con un programa de vídeo. Las imágenes gráficas son regiones rectangulares dentro de un área de vídeo activa. Las mismas se transmiten en forma de mapas de bits. La invención no sólo permite que se presente cualquier fuente o tamaño de carácter sino también la definición de, por ejemplo, el logo de un proveedor de programa. Los datos codificados incluyen una impresión de fecha y de hora para especificar el momento en que debe ser visualizado un subtítulo. Las realizaciones preferidas de la invención incluyen la transmisión de datos de tabla-de-búsqueda-de-color (CLUT) y de un código de compatibilidad que indica un número mínimo de entradas requeridas de dicha tabla-debúsqueda-de-color. Para los receptores que tengan un CLUT con más entradas de las necesarias, se transmite una tabla de mapa para adaptar la anchura de los datos de píxel a la anchura de entrada de la CLUT relevante. El método es aplicable a sistemas de Emisión de Vídeo Directa, en los que la señal de vídeo está codificada en MPEG2 y las
55 imágenes gráficas están albergadas en una corriente de datos privada de una Corriente de Transporte de MPEG2.

Claims (15)

  1. REIVINDICACIONES
    1.
    Un método de transmisión de datos codificados que definen una imagen gráfica en forma de región rectangular para su visualización en el interior de un área de una señal de vídeo activa, estando los píxeles que forman dicha región definidos individualmente por medio de datos codificados, caracterizado porque los datos codificados para cada imagen gráfica incluyen el tamaño y la posición de dicha región y una impresión de la fecha y la hora que representa el momento en que dicha región debe ser visualizada.
  2. 2.
    Un método según se reivindica en la reivindicación 1, en el que los datos codificados consiguientes para una región dada incluyen un código de visibilidad para inhabilitar la visualización de dicha región.
  3. 3.
    Un método según se reivindica en la reivindicación 1, en el que una región comprende una pluralidad de subregiones que incluyen un código identificador para permitir que una imagen gráfica definida por la citada subregión sea referida por medio de una región adicional.
  4. 4.
    Un método según se reivindica en la reivindicación 1, en el que los píxeles para una región son codificados como entradas de una tabla-de-búsqueda-de-color, incluyendo los datos codificados un código de compatibilidad que indica un número mínimo requerido de dicha tabla-de-búsqueda-de-color.
  5. 5.
    Un método según se reivindica en la reivindicación 4, en el que los píxeles están definidos por datos de píxel de n-bits, incluyendo además los datos codificados una tabla de mapa para trazar dichos datos de píxel de nbits para una tabla-de-búsqueda-de-color que tiene más de 2n entradas.
  6. 6.
    Un método según se reivindica en cualquiera de las reivindicaciones anteriores, en el que los datos codificados están acomodados en una corriente de transporte privada de acuerdo con el estándar MPEG2 o una extensión del mismo.
  7. 7.
    Un método de recepción de datos codificados que definen una imagen gráfica en forma de región rectangular para su visualización en el interior de un área de una señal de vídeo activa, que comprende las etapas de decodificar dichos datos codificados en los píxeles individuales que constituyen dicha región, almacenar dichos píxeles, y generar señales de visualización que representen a dichos píxeles, caracterizado por las etapas de decodificar, a partir de los citados datos codificados para cada imagen gráfica, el tamaño y la posición de dicha región y de una impresión de fecha y de hora, y presentar la región con dicho tamaño y posición a partir de un momento representado por dicha impresión de fecha y hora.
  8. 8.
    Un método según se reivindica en la reivindicación 7, que comprende además las etapas de decodificar un código de visibilidad incluido en los consiguientes datos codificados para una región dada e inhabilitar la generación de dichas señales de visualización para dicha región en respuesta a dicho código de visibilidad.
  9. 9.
    Un método según se reivindica en la reivindicación 7, en el que una región comprende una pluralidad de subregiones que incluyen un código identificador, comprendiendo la etapa de incluir la citada subregión en una región adicional que se refiera a dicha subregión.
  10. 10.
    Un método según se reivindica en la reivindicación 7, en el que los píxeles para una región están codificados como entradas de una tabla-de-búsqueda-de-color y los datos codificados incluyen un código de compatibilidad que indica un número mínimo de entradas requeridas de dicha tabla-de-búsqueda-de-color, comprendiendo la etapa de inhabilitar la generación de señales de visualización si el número de entradas requerido es menor que el disponible.
  11. 11.
    Un método según se reivindica en la reivindicación 10, que comprende además las etapas de recibir datos de tabla de mapa y almacenar dichos datos de tabla de mapa en una tabla de mapa para diseñar datos de píxel de n bits para una tabla-de-búsqueda-de-color que tiene más de 2n entradas.
  12. 12.
    Un método según se reivindica en cualquiera de las reivindicaciones 7-11, en el que la señal de vídeo se codifica de acuerdo con un estándar MPEG2 o una extensión del mismo, y en el que los datos codificados que definen la imagen gráfica se acomodan en paquetes de una corriente de transporte privada de MPEG2.
  13. 13.
    Un transmisor para la transmisión de datos codificados que definen una imagen gráfica en forma de región rectangular dentro de un área de una señal de vídeo activa, que comprende medios para codificar los píxeles individuales que forman dicha región, caracterizado porque comprende además medios para incluir en los datos codificados para cada imagen gráfica el tamaño y la posición de dicha región, y una impresión de fecha y hora que representa el momento en que dicha región debe ser visualizada.
  14. 14.
    Un receptor acoplado a una pantalla de visualización para recibir datos codificados que definen una imagen gráfica en forma de región rectangular dentro de un área de una señal de vídeo activa, que comprende medios para decodificar dichos datos codificados en los píxeles individuales que constituyen dicha región, medios para almacenar dichos píxeles, y medios para generar señales de visualización que representan a dichos píxeles, caracterizado porque comprende además medios para decodificar, a partir de dichos datos codificados para
    cada imagen gráfica, el tamaño y la posición de dicha región, y una impresión de fecha y hora, y medios para la presentación de la región con dichos tamaño y posición a partir del momento representado por dicha impresión de fecha y hora.
  15. 15.
    Una señal de imagen que comprende datos codificados que definen una imagen gráfica en forma de región rectangular dentro de un área de una señal de vídeo activa, estando los píxeles que forman dicha región definidos individualmente por los datos codificados, caracterizada porque los datos codificados para cada imagen gráfica incluyen el tamaño y la posición de dicha región, y una impresión de la fecha y la hora que representa el momento en que dicha región ha de ser visualizada.
ES95943556T 1994-12-14 1995-12-12 Sistema de transmisión de subtítulos. Expired - Lifetime ES2143092T4 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP94203642 1994-12-14
EP94203642 1994-12-14
EP95943556A EP0745307B3 (en) 1994-12-14 1995-12-12 Subtitling transmission system

Publications (3)

Publication Number Publication Date
ES2143092T3 ES2143092T3 (es) 2000-05-01
ES2143092T7 ES2143092T7 (es) 2011-08-01
ES2143092T4 true ES2143092T4 (es) 2011-11-22

Family

ID=8217456

Family Applications (1)

Application Number Title Priority Date Filing Date
ES95943556T Expired - Lifetime ES2143092T4 (es) 1994-12-14 1995-12-12 Sistema de transmisión de subtítulos.

Country Status (17)

Country Link
US (2) US6661467B1 (es)
EP (1) EP0745307B3 (es)
JP (4) JP3918033B2 (es)
KR (1) KR100491771B1 (es)
CN (2) CN100348036C (es)
AT (1) ATE188327T1 (es)
AU (1) AU701684B2 (es)
BR (1) BR9506773A (es)
CA (1) CA2183257C (es)
DE (1) DE69514212C5 (es)
DK (1) DK0745307T5 (es)
ES (1) ES2143092T4 (es)
GR (1) GR3032754T3 (es)
MX (1) MX9603393A (es)
MY (1) MY119200A (es)
PT (1) PT745307E (es)
WO (1) WO1996019077A1 (es)

Families Citing this family (88)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0745307B3 (en) * 1994-12-14 2010-06-23 Philips Electronics N.V. Subtitling transmission system
US6081300A (en) * 1995-05-24 2000-06-27 Thomson Consumer Electronics, Inc. Apparatus and method for generating on-screen-display messages using stored bitstreams
GB9510484D0 (en) * 1995-05-24 1995-07-19 Thomson Consumer Electronics Creating an on screen display
TW293981B (es) * 1995-07-21 1996-12-21 Philips Electronics Nv
EP0765082A3 (en) * 1995-09-25 1999-04-07 Sony Corporation Subtitle signal encoding/decoding
US6223347B1 (en) * 1996-09-11 2001-04-24 Matsushita Electric Industrial Co., Ltd. Data display control apparatus
FR2760165B1 (fr) * 1997-02-21 1999-05-14 Netgem Procede pour presenter sur un ecran d'affichage d'un televiseur une image composite combinant une image de television et un contenu informatif de donnees internet
US6788347B1 (en) 1997-03-12 2004-09-07 Matsushita Electric Industrial Co., Ltd. HDTV downconversion system
EP0901735A1 (en) * 1997-03-12 1999-03-17 Matsushita Electric Industrial Co., Ltd Hdtv downconversion system
US6209028B1 (en) 1997-03-21 2001-03-27 Walker Digital, Llc System and method for supplying supplemental audio information for broadcast television programs
DE69827903T2 (de) * 1997-04-01 2005-12-22 Koninklijke Philips Electronics N.V. Übertragungssystem mit mitteln zur übertragung eines logos
GB9716545D0 (en) * 1997-08-06 1997-10-08 Nds Ltd A method and apparatus for switching between digital bit-streams
EP0936814A1 (en) * 1998-02-16 1999-08-18 CANAL+ Société Anonyme Processing of graphical digital picture data in a decoder
CN1179574C (zh) * 1998-03-31 2004-12-08 皇家菲利浦电子有限公司 在编码数据流中修改数据的方法和设备
US7336712B1 (en) * 1998-09-02 2008-02-26 Koninklijke Philips Electronics N.V. Video signal transmission
US6417888B1 (en) 1998-10-09 2002-07-09 Matsushita Electric Industrial Co., Ltd. On screen display processor
EP1014712A1 (en) 1998-12-21 2000-06-28 Deutsche Thomson-Brandt Gmbh Method and apparatus for providing OSD data for OSD display in a video signal having an encoded format
EP1014713B1 (en) * 1998-12-21 2002-03-13 Deutsche Thomson-Brandt Gmbh Method and apparatus for providing OSD data for OSD display in a video signal having an encoded format
US6490002B1 (en) * 1999-02-03 2002-12-03 Sony Corporation Supplemental data path for supporting on-screen displays from external sources in a monitor/TV receiver using a secondary analog signal path
JP4232260B2 (ja) 1999-03-03 2009-03-04 ソニー株式会社 フォント制御方法及び装置
KR20010071995A (ko) 1999-05-20 2001-07-31 요트.게.아. 롤페즈 부호화된 영상들을 전송하고 수신하기 위한 방법 및 장치
WO2001008410A1 (en) * 1999-07-27 2001-02-01 Morecom, Inc. Graphics transcoding scheme for efficient decoding on digital settop decoder
DE19960658A1 (de) 1999-12-15 2001-06-28 A & E Ungricht Gmbh & Co Kg Verfahren zum Prägen eines bahnförmigen Tissue-Artikels sowie Walzenpaar zur Durchführung des Verfahrens
US20010030710A1 (en) * 1999-12-22 2001-10-18 Werner William B. System and method for associating subtitle data with cinematic material
DE10001369A1 (de) 2000-01-14 2001-07-19 Infineon Technologies Ag Verfahren und Schaltungsanordnung zur Grafikdarstellung, insbesondere in einem digitalen Fernsehgerät
US7340764B2 (en) * 2000-01-26 2008-03-04 Sony Corporation Data transmission system
US6384870B1 (en) 2000-03-31 2002-05-07 Matsushita Electric Industrial, Co., Ltd. Method for synchronizing HDTV format change with on screen display
US6833874B2 (en) * 2001-03-27 2004-12-21 Sony Corporation Ticker tape picture-in-picture system
US7164431B1 (en) * 2001-05-08 2007-01-16 Pixelworks, Inc. System and method for mixing graphics and text in an on-screen display application
US6903779B2 (en) * 2001-05-16 2005-06-07 Yahoo! Inc. Method and system for displaying related components of a media stream that has been transmitted over a computer network
JP2003153080A (ja) 2001-11-09 2003-05-23 Matsushita Electric Ind Co Ltd 映像合成装置
US20070008431A1 (en) * 2002-10-15 2007-01-11 Ulrich Englert Method and circuit for displaying graphics in a digital television receiver
US8737810B2 (en) * 2002-11-15 2014-05-27 Thomson Licensing Method and apparatus for cropping of subtitle elements
EP1420580A1 (en) * 2002-11-18 2004-05-19 Deutsche Thomson-Brandt GmbH Method and apparatus for coding/decoding items of subtitling data
KR100939711B1 (ko) * 2002-12-12 2010-02-01 엘지전자 주식회사 텍스트 기반의 서브타이틀 재생장치 및 방법
EP2369589B1 (en) 2003-04-28 2015-02-25 Panasonic Corporation Reproduction apparatus, reproducing method, recording medium, recording apparatus, recording method for recording a video stream and graphics with window information remaining fixed for one epoch
DE10330329A1 (de) * 2003-07-04 2005-02-17 Micronas Gmbh Verfahren zur Darstellung von Teletextseiten auf einer Anzeigevorrichtung
TWI405200B (zh) * 2003-07-11 2013-08-11 Panasonic Corp 記錄媒體與方法、再生裝置與方法,及電腦可讀程式(三)
KR100667751B1 (ko) 2003-10-01 2007-01-11 삼성전자주식회사 텍스트 기반의 자막 정보를 포함하는 저장 매체, 재생장치 및 그 재생 방법
KR100739682B1 (ko) * 2003-10-04 2007-07-13 삼성전자주식회사 텍스트 기반의 서브 타이틀 정보를 기록한 정보저장매체,그 처리장치 및 방법
JP4552426B2 (ja) * 2003-11-28 2010-09-29 カシオ計算機株式会社 表示制御装置および表示制御処理のプログラム
CN100421457C (zh) * 2003-12-19 2008-09-24 乐金电子(中国)研究开发中心有限公司 在数字电视中实现可寻址播出滚动/静止字幕的方法和装置
KR20070000471A (ko) * 2004-01-06 2007-01-02 엘지전자 주식회사 기록매체, 기록매체의 텍스트 서브타이틀 스트림 기록 및재생 방법과 장치
KR20050072255A (ko) * 2004-01-06 2005-07-11 엘지전자 주식회사 고밀도 광디스크의 서브타이틀 구성방법 및 재생방법과기록재생장치
KR20050078907A (ko) * 2004-02-03 2005-08-08 엘지전자 주식회사 고밀도 광디스크의 서브타이틀 재생방법과 기록재생장치
US20050196146A1 (en) * 2004-02-10 2005-09-08 Yoo Jea Y. Method for reproducing text subtitle and text subtitle decoding system
EP1716567A2 (en) * 2004-02-10 2006-11-02 Lg Electronics Inc. Recording medium and method and apparatus for decoding text subtitle streams
RU2377669C2 (ru) * 2004-02-10 2009-12-27 ЭлДжи ЭЛЕКТРОНИКС ИНК. Носитель записи, имеющий структуру данных для управления различными данными, и способ и устройство записи и воспроизведения
KR20070028323A (ko) * 2004-02-10 2007-03-12 엘지전자 주식회사 상이한 언어들과 연관된 데이터 스트림을 관리하기 위한데이터 구조를 가지는 기록매체 및 기록재생 방법 및 장치
BRPI0418524A (pt) * 2004-02-10 2007-05-15 Lg Electronics Inc meio fìsico de gravação, método e aparelho para gravar e reproduzir um estrutura de dados
KR20070028325A (ko) * 2004-02-10 2007-03-12 엘지전자 주식회사 텍스트 서브타이틀 디코더 및 텍스트 서브타이틀 스트림디코딩 방법
EP1714281A2 (en) * 2004-02-10 2006-10-25 LG Electronic Inc. Recording medium and method and apparatus for decoding text subtitle streams
KR20060129067A (ko) * 2004-02-26 2006-12-14 엘지전자 주식회사 기록매체 및 텍스트 서브타이틀 스트림 기록 재생 방법과장치
KR100727921B1 (ko) * 2004-02-28 2007-06-13 삼성전자주식회사 텍스트 기반의 서브타이틀 스트림을 기록한 저장 매체,재생 장치 및 그 재생 방법
US7529467B2 (en) 2004-02-28 2009-05-05 Samsung Electronics Co., Ltd. Storage medium recording text-based subtitle stream, reproducing apparatus and reproducing method for reproducing text-based subtitle stream recorded on the storage medium
EP1728251A1 (en) * 2004-03-17 2006-12-06 LG Electronics, Inc. Recording medium, method, and apparatus for reproducing text subtitle streams
RU2378722C2 (ru) * 2004-03-26 2010-01-10 ЭлДжи ЭЛЕКТРОНИКС ИНК. Носитель записи, способ и устройство для воспроизведения потоков текстовых субтитров
PT1733385E (pt) * 2004-03-26 2010-01-19 Lg Electronics Inc Meio de gravação e método e aparelho para reprodução e gravação de fluxos de legendas de texto
CN101197172B (zh) * 2004-03-26 2011-04-13 Lg电子株式会社 用于再现记录在记录介质上的文本字幕流的记录介质、方法和装置
US20050235087A1 (en) * 2004-04-15 2005-10-20 Stone Christopher J Method, article of manufacture and apparatuses for establishing an isochronous signal for transmission to a signal receiving device
KR20060047266A (ko) * 2004-04-26 2006-05-18 엘지전자 주식회사 기록매체, 기록매체의 재생방법과 재생장치
JP4724710B2 (ja) * 2004-05-03 2011-07-13 エルジー エレクトロニクス インコーポレイティド テキストサブタイトルデータを再生管理するためのデータ構造を有する記録媒体及びこれと関連する方法及び装置
JP4692950B2 (ja) * 2004-06-11 2011-06-01 ソニー株式会社 データ処理装置およびデータ処理方法、プログラムおよびプログラム記録媒体、並びにデータ記録媒体
EP1800276A1 (en) * 2004-06-24 2007-06-27 Jukka Antero Keskinen Method for facilitating the watching of tv programs, dvd films and the like, meant for deaf people and people with hearing damage
KR101058010B1 (ko) * 2004-09-07 2011-08-19 삼성전자주식회사 그래픽 데이터 생성 장치, 방법 및 정보 저장 매체
GB2419975A (en) * 2004-11-09 2006-05-10 Nokia Corp Auxiliary content handling
JP5356812B2 (ja) * 2005-07-06 2013-12-04 トムソン ライセンシング 画像系列及びロゴを含むビデオコンテンツを符号化する方法及び装置
FR2888452A1 (fr) * 2005-07-06 2007-01-12 Thomson Licensing Sa Procede et dispositif de codage d'un contenu video comprenant une sequence d'images et un logo
JP4449936B2 (ja) * 2006-03-31 2010-04-14 ソニー株式会社 撮像装置、カメラシステムおよびその駆動方法
KR20080070201A (ko) * 2007-01-25 2008-07-30 삼성전자주식회사 추가적인 자막 제공 방법 및 그 재생 장치
US7739596B2 (en) * 2007-04-06 2010-06-15 Yahoo! Inc. Method and system for displaying contextual advertisements with media
TWI391907B (zh) * 2007-12-25 2013-04-01 Mstar Semiconductor Inc 字幕視窗屬性設定方法及相關電視系統
KR20100030474A (ko) * 2008-09-10 2010-03-18 삼성전자주식회사 서비스 정보 제공방법 및 그 장치
JP5525201B2 (ja) * 2009-07-28 2014-06-18 パナソニック株式会社 画像合成装置、画像符号化装置、コンピュータプログラム、記録媒体
TWI448152B (zh) * 2010-06-24 2014-08-01 Mstar Semiconductor Inc 字幕顯示方法與嵌入式系統
CN102333194B (zh) * 2010-07-13 2013-12-11 晨星软件研发(深圳)有限公司 字幕显示方法与嵌入式系统
US9014269B2 (en) 2010-09-30 2015-04-21 General Instrument Corporation Method and apparatus for managing bit rate
US9716737B2 (en) 2013-05-08 2017-07-25 Qualcomm Incorporated Video streaming in a wireless communication system
CN103414950B (zh) * 2013-08-16 2016-09-14 天脉聚源(北京)传媒科技有限公司 一种界面展示方法、装置、机顶盒和服务器
US20150255121A1 (en) * 2014-03-06 2015-09-10 Thomson Licensing Method and apparatus for composition of subtitles
JP2016081553A (ja) * 2014-10-17 2016-05-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 記録媒体、再生方法、および再生装置
CN105898613A (zh) * 2015-08-21 2016-08-24 乐视致新电子科技(天津)有限公司 一种设置屏幕菜单透明度的方法和装置
US10924785B2 (en) 2016-09-14 2021-02-16 Sony Corporation Transmission device, transmission method, reception device, and reception method
EP3386201B1 (en) * 2016-10-11 2020-11-04 Sony Corporation Transmitting device, transmitting method, receiving device, and receiving method
EP3389278B1 (en) * 2016-11-22 2022-10-12 Saturn Licensing, LLC Transmitting device, transmitting method, receiving device and receiving method
CN106792071A (zh) * 2016-12-19 2017-05-31 北京小米移动软件有限公司 字幕处理方法及装置
CN109525899A (zh) * 2018-11-19 2019-03-26 青岛海信传媒网络技术有限公司 字幕和视频同步呈现的方法及装置
CN111930532B (zh) * 2020-07-09 2023-11-17 智盈未来(西安)信息技术有限公司 航电数据集成方法及装置

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4622545A (en) * 1982-09-30 1986-11-11 Apple Computer, Inc. Method and apparatus for image compression and manipulation
JPH07118798B2 (ja) * 1988-02-29 1995-12-18 パイオニア株式会社 画像情報の記録方法及び再生方法
US5280572A (en) * 1988-06-24 1994-01-18 Time Warner Interactive Group Inc. Method and apparatus for storing text data in subcode packs
US5101365A (en) * 1988-10-31 1992-03-31 Sun Microsystems, Inc. Apparatus for extending windows using Z buffer memory
US5091717A (en) * 1989-05-01 1992-02-25 Sun Microsystems, Inc. Apparatus for selecting mode of output in a computer system
JP2531795B2 (ja) * 1989-06-29 1996-09-04 パイオニア株式会社 画像情報再生装置
JP2991480B2 (ja) * 1990-11-26 1999-12-20 パイオニア株式会社 カラオケ演奏装置
JP3241372B2 (ja) * 1990-11-27 2001-12-25 パイオニア株式会社 カラオケ演奏方法
JP3277507B2 (ja) * 1990-11-28 2002-04-22 ソニー株式会社 データ検索方法及びデータ検索再生装置
EP0541220B1 (en) * 1991-09-09 1997-12-10 Sun Microsystems, Inc. Apparatus and method for managing the assignment of display attribute identification values and multiple hardware color lookup tables
US5294982A (en) * 1991-12-24 1994-03-15 National Captioning Institute, Inc. Method and apparatus for providing dual language captioning of a television program
JP3059302B2 (ja) * 1992-06-03 2000-07-04 株式会社ハドソン 映像混合装置
JPH0646350A (ja) * 1992-07-24 1994-02-18 Victor Co Of Japan Ltd ディスプレイ装置
JPH06121263A (ja) * 1992-10-08 1994-04-28 Sony Corp 映像信号の記録方法
KR950005937B1 (ko) * 1992-10-12 1995-06-07 주식회사엘지전자 캡션자막 표시 제어장치와 표시 제어방법
JP3062784B2 (ja) * 1992-10-20 2000-07-12 ブラザー工業株式会社 音楽再生装置
US5715515A (en) * 1992-12-02 1998-02-03 Scientific-Atlanta, Inc. Method and apparatus for downloading on-screen graphics and captions to a television terminal
US5493339A (en) * 1993-01-21 1996-02-20 Scientific-Atlanta, Inc. System and method for transmitting a plurality of digital services including compressed imaging services and associated ancillary data services
WO1994030008A1 (en) * 1993-06-07 1994-12-22 Scientific-Atlanta, Inc. Display system for a subscriber terminal
US5475400A (en) * 1993-11-15 1995-12-12 Media Vision Inc. Graphic card with two color look up tables
JPH07231435A (ja) * 1993-12-21 1995-08-29 Sony Corp 字幕データ符号化装置、その復号化装置、並びに記録媒体
JPH07203396A (ja) * 1993-12-28 1995-08-04 Sony Corp 字幕データ復号化装置
US5604514A (en) * 1994-01-03 1997-02-18 International Business Machines Corporation Personal computer with combined graphics/image display system having pixel mode frame buffer interpretation
US5424785A (en) * 1994-03-22 1995-06-13 National Captioning Institute System for encoding and displaying captions for television programs
US5515082A (en) * 1994-06-08 1996-05-07 Trans-Lux Corporation Device for selectively displaying text received from a high-speed communication
US5559999A (en) * 1994-09-09 1996-09-24 Lsi Logic Corporation MPEG decoding system including tag list for associating presentation time stamps with encoded data units
US5541662A (en) * 1994-09-30 1996-07-30 Intel Corporation Content programmer control of video and data display using associated data
EP0745307B3 (en) * 1994-12-14 2010-06-23 Philips Electronics N.V. Subtitling transmission system

Also Published As

Publication number Publication date
EP0745307B1 (en) 1999-12-29
DE69514212C5 (de) 2020-06-04
DE69514212D1 (de) 2010-07-08
EP0745307A1 (en) 1996-12-04
PT745307E (pt) 2000-05-31
MX9603393A (es) 1997-03-29
JP4658107B2 (ja) 2011-03-23
GR3032754T3 (en) 2000-06-30
US7647620B2 (en) 2010-01-12
CN1145152A (zh) 1997-03-12
ES2143092T3 (es) 2000-05-01
JPH09509552A (ja) 1997-09-22
KR970701478A (ko) 1997-03-17
US6661467B1 (en) 2003-12-09
US20040075668A1 (en) 2004-04-22
JP3918033B2 (ja) 2007-05-23
JP2011004422A (ja) 2011-01-06
CN1585475A (zh) 2005-02-23
WO1996019077A1 (en) 1996-06-20
CA2183257A1 (en) 1996-06-20
CN1166191C (zh) 2004-09-08
DK0745307T3 (da) 2000-06-13
CA2183257C (en) 2011-08-02
ATE188327T1 (de) 2000-01-15
AU4504096A (en) 1996-07-03
BR9506773A (pt) 1997-09-30
CN100348036C (zh) 2007-11-07
MY119200A (en) 2005-04-30
DK0745307T5 (da) 2010-10-11
KR100491771B1 (ko) 2006-05-02
AU701684B2 (en) 1999-02-04
ES2143092T7 (es) 2011-08-01
JP4358838B2 (ja) 2009-11-04
DE69514212T2 (de) 2000-07-13
JP2008079325A (ja) 2008-04-03
EP0745307B3 (en) 2010-06-23
JP2006287951A (ja) 2006-10-19
JP4829373B2 (ja) 2011-12-07

Similar Documents

Publication Publication Date Title
ES2143092T4 (es) Sistema de transmisión de subtítulos.
JP4540016B1 (ja) ビットマップデータストリームのランレングス符号化方法
EP1628477A1 (en) Reproduction device and program
JP2006515965A (ja) サブタイトリングデータのアイテムを符号化/復号化するための方法及び装置
KR19990021919A (ko) 앰팩 영상 신호 처리 시스템용 애니메이트 온 스크린디스플레이 장치
EP1034655B1 (en) Apparatus for generating a digital video picture
US6750918B2 (en) Method and system for using single OSD pixmap across multiple video raster sizes by using multiple headers
JP2000032388A (ja) ビデオ及び/又はオ―ディオ信号の記録及び再生用の方法並びに装置
US6118494A (en) Apparatus and method for generating on-screen-display messages using true color mode
KR100434675B1 (ko) 트루 컬러 모드를 이용하여 온스크린 디스플레이 메시지를 생성하는 장치 및 그 방법
KR100417278B1 (ko) 1-비트 픽셀을 이용하여 온스크린 디스플레이 메시지를 생성하는장치 및 그 방법
ES2217617T3 (es) Aparato para generar datos digitales para imagenes de una secuencia de animacion/informacion para un dispositivo electrico.
US20050243210A1 (en) Display system for displaying subtitles
KR100255440B1 (ko) 제어 기능 동기 방법 및 장치
Tarrant Aspects of enhanced teletext
JPS62231577A (ja) 文字放送受信装置
KR20010001729A (ko) 완성형 문자 코드를 조합형 폰트 메모리를 이용하여 디코딩하기 위한 방법

Legal Events

Date Code Title Description
FG2A Definitive protection

Ref document number: 745307

Country of ref document: ES