ES2355288T3 - Barrido de color y posicionamiento de subtítulos. - Google Patents
Barrido de color y posicionamiento de subtítulos. Download PDFInfo
- Publication number
- ES2355288T3 ES2355288T3 ES96302342T ES96302342T ES2355288T3 ES 2355288 T3 ES2355288 T3 ES 2355288T3 ES 96302342 T ES96302342 T ES 96302342T ES 96302342 T ES96302342 T ES 96302342T ES 2355288 T3 ES2355288 T3 ES 2355288T3
- Authority
- ES
- Spain
- Prior art keywords
- color
- subtitle
- data
- video
- scan
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/025—Systems for the transmission of digital non-picture data, e.g. of text during the active part of a television frame
- H04N7/035—Circuits for the digital non-picture data signal, e.g. for slicing of the data signal, for regeneration of the data-clock signal, for error detection or correction of the data signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/034—Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N11/00—Colour television systems
- H04N11/04—Colour television systems using pulse code modulation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/115—Selection of the code volume for a coding unit prior to coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/152—Data rate or code amount at the encoder output by measuring the fullness of the transmission buffer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/235—Processing of additional data, e.g. scrambling of additional data or processing content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/236—Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
- H04N21/23614—Multiplexing of additional data and video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/426—Internal components of the client ; Characteristics thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43074—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of additional data with content streams on the same device, e.g. of EPG data or interactive icon with a TV programme
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
- H04N21/4314—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for fitting data in a restricted space on the screen, e.g. EPG data in a rectangular grid
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
- H04N21/4348—Demultiplexing of additional data and video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/435—Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/488—Data services, e.g. news ticker
- H04N21/4884—Data services, e.g. news ticker for displaying subtitles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/44—Receiver circuitry for the reception of television signals according to analogue transmission standards
- H04N5/445—Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/08—Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
- H04N7/087—Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only
- H04N7/088—Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital
- H04N7/0884—Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital for the transmission of additional display-information, e.g. menu for programme or channel selection
- H04N7/0885—Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital for the transmission of additional display-information, e.g. menu for programme or channel selection for the transmission of subtitles
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B2220/00—Record carriers by type
- G11B2220/20—Disc-shaped record carriers
- G11B2220/25—Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
- G11B2220/2537—Optical discs
- G11B2220/2545—CDs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Studio Circuits (AREA)
- Television Signal Processing For Recording (AREA)
- Television Systems (AREA)
- Color Television Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
- Control Of Position Or Direction (AREA)
- Stringed Musical Instruments (AREA)
- Processing Of Color Television Signals (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
BORRADO DE COLOR Y POSICIONAMIENTO DINAMICO DE SUBTITULOS PARA UNA IMAGEN DE VIDEO QUE SE CONSIGUE CODIFICANDO Y DESCODIFICANDO LOS SUBTITULOS SEPARADAMENTE DE LA IMAGEN DE VIDEO. EN EL CODIFICADOR (FIG.7) LOS SUBTITULOS SE GENERAN (55) PARA CADA IMAGEN DE VIDEO RESPECTIVA. EL BORRADO DE COLOR SE LLEVA A CABO CAMBIANDO EL COLOR DE LOS SUBTITULOS EN UNA LOCALIZACION ESPECIFICA EN LA IMAGEN DE VIDEO. EN EL DESCODIFICADOR (FIG.2) UN BUFFER (22) ALMACENA LOS SUBTITULOS JUNTO CON LA INFORMACION DESCODIFICADORA DE SUBTITULOS. UN CONTROLADOR (35) CRONOMETRA DE FORMA PRECISA UNA OPERACION DE LECTURA DEL BUFFER PARA LEER LOS SUBTITULOS DURANTE UNA MUESTRA DE TIEMPO REAL EN LA IMAGEN DE VIDEO RESPECTIVA; Y EL BORRADO DE COLOR SE LLEVA A CABO CAMBIANDO EL COLOR DE UNA PARTE DE LOS SUBTITULOS EN UNA LOCALIZACION INDICADA POR LA INFORMACION DESCODIFICADORA DE SUBTITULOS. EL POSICIONAMIENTO DINAMICO DE LOS SUBTITULOS SE CONSIGUE RETARDANDO EL TIEMPO EN EL QUE EL CONTROLADOR EJECUTA LA OPERACION DE LECTURA. CUANDO SE REPITE LA TECNICA DE DESCODIFICACION PARA UN NUMERO DE IMAGENES, EL USUARIO PERCIBE EL MOVIMIENTO AL CAMBIAR GRADUALMENTE EL POSICIONAMIENTO Y EL BORRADO DE COLOR.
Description
La presente invención se refiere a subtítulos y, más en particular, al barrido de color y al posicionamiento de subtítulos.
Los subtítulos se superponen sobre una imagen de vídeo para proporcionar información a un espectador, que complementa la imagen de vídeo. Por ejemplo, en el karaoke, se visualizan letras de 5 canciones sobre la imagen de vídeo, en forma de subtítulos, mientras un espectador canta siguiendo una pista de audio de una imagen de vídeo que la acompaña. Los subtítulos contienen también información al espectador según la manera en la que se visualizan. El resaltado de las letras de canciones en el karaoke, por ejemplo, da la entrada al cantante para cantar, mientras que la retirada de las letras de la pantalla de vídeo le indica al espectador que deje de cantar. 10
La radiodifusión de televisión o la reproducción de vídeo (tal como desde un videodisco) proporciona subtítulos para su visualización con la imagen de vídeo. No obstante, los subtítulos se combinan permanentemente con la imagen de vídeo subyacente y únicamente se pueden manipular en el extremo transmisor (o de grabación) y no en el extremo receptor (o de reproducción). Es decir, los subtítulos visualizados en la radiodifusión de televisión o la reproducción de vídeo son "fijos" y no se pueden resaltar o 15 mover en el extremo receptor (o de reproducción). Los subtítulos tampoco se pueden desactivar, lo cual resulta particularmente importante en el karaoke cuando un cantante desea comprobar sus capacidades de cante o disfrutar del vídeo musical sin la interrupción de los subtítulos.
Los sistemas de reproducción y radiodifusión de televisión no pueden manipular adecuadamente los subtítulos en el extremo transmisor (o de grabación). Los sistemas de reproducción y radiodifusión de 20 televisión requieren una creación y manipulación minuciosas de los subtítulos, basadas en métodos de prueba y error. Por ejemplo, en el karaoke, en el que se producen en serie vídeos musicales para cantar en grupo, es deseable que cada vídeo musical se produzca de una manera rápida y eficaz. Esto no es posible con los sistemas de reproducción y radiodifusión de televisión, que requieren un trabajo lento y tedioso para personalizar a medida cada vídeo musical. Especialmente, no es posible el posicionamiento dinámico en una 25 grabación o radiodifusión de televisión de tipo fijo debido a que los subtítulos son una parte integral de la imagen de vídeo. Por ello, el movimiento de los subtítulos dejaría un espacio en blanco en el lugar en el que estaban superpuestos antes los subtítulos.
Los Gráficos para Discos Compactos (CD-G) proporcionan más flexibilidad en la visualización de subtítulos ya que esta técnica graba gráficos en un disco compacto (CD) en forma de subcódigos. No 30 obstante, los CD-G adolecen de un inconveniente importante debido a que esta técnica se limita a aplicaciones de CD, las cuales son lentas según los estándares de televisión. Es decir, la técnica de CD-G no se presta a la creación y manipulación de subtítulos en reproducciones de vídeo o radiodifusiones de televisión en tiempo real.
Los CD-G resultan satisfactorios para aplicaciones de ordenador ya que los gráficos se programan de 35 antemano y el elevado tiempo de procesado requerido para crear los mismos pasa en gran medida inadvertido para el usuario final. No obstante, tal como se mostrará haciendo referencia a las figuras 16a a 16c y 17, el tiempo de respuesta requerido para generar una pantalla de CD-G completa es 10,24 segundos, lo cual es extremadamente inadecuado para radiodifusiones de vídeo o televisión normales.
La figura 16a representa el formato de datos de CD-G, en el que una trama incluye 1 byte de un 40 subcódigo y 32 bytes de datos de canales de audio. De los 32 bytes, 24 bytes se asignan para datos de canales de audio L y R (presentando cada canal 6 muestras, con 2 bytes por muestra) y 8 bytes se asignan a un código de corrección de errores. Las tramas se agrupan como un bloque de 98 tramas (Trama 0, Trama 1,..., Trama 96 y Trama 97) según se muestra en la figura 16b. Tal como se muestra en la figura 16c se transmiten ocho bloques P, Q, R, S, T, U, V y W. Los subcódigos para las Tramas 0 y 1 en cada bloque se 45 definen como patrones de sincronización S0, S1, mientras que las restantes 96 tramas almacenan varios datos de subcódigo. De entre un grupo de 8 bloques, los 2 primeros bloques P, Q se asignan a datos de búsqueda utilizados para buscar a través de pistas de grabación; y a los subcódigos en los restantes 6 bloques R, S, T, U, V y W se les pueden asignar datos de gráficos.
Como cada bloque de 98 tramas se transmite a una frecuencia de repetición de 75 Hz, la 50 velocidad de transmisión de datos para 1 bloque es (75 x 98 bytes) 7,35 kHz, lo cual da como resultado una velocidad binaria de subcódigo de 7,35 K bytes/s. En la figura 17, se muestra el formato de transmisión para transmitir la información presente en los bloques R, S, T, U, V y W. Cada una de las 96 tramas (2, 3,... 97) de los 6 bloques (R, S, T, U, V y W) está dispuesta en forma de un paquete que incluye 6 canales (R a W) de 96 símbolos por canal. El paquete se subdivide además en 4 agrupaciones (en inglés packs) de 24 símbolos 55
cada una (símbolo 0 a símbolo 23), representando cada símbolo una trama.
Un carácter de CD-G está compuesto por 6 x 12 píxeles. Como cada agrupación es 6 x 24, en cada agrupación se aloja fácilmente un carácter de 6 x 12. El formato de CD-G asigna los seis canales de (R, S, T, U, V y W) y los 12 símbolos 8 a 19 a un carácter. El resto de los símbolos en cada una de las agrupaciones almacena información sobre el carácter. 5
En los 3 primeros canales (R, S, T) del símbolo 0 en cada agrupación se almacena información de modo, y en los últimos 3 canales (U, V, W) del símbolo 0 se almacena información de ítem. Una combinación de la información de modo y la información de ítem define el modo para los caracteres almacenados en la agrupación correspondiente, de la manera siguiente:
Tabla 1 10
- Modo
- Ítem
- 000
- 000 modo
- 001
- 000 modo gráfico
- 001
- 001 modo gráfico-TV
- 111
- 000 modo del usuario
En todos los canales de símbolo 1, se almacena una instrucción. En todos los canales de los símbolos 2 a 7 se almacena información correspondiente de modo, ítem, paridad o adicional para la instrucción. La paridad para la totalidad de los datos en los canales de los símbolos 0 a 19 se almacena en todos los canales de los últimos 4 símbolos (símbolos 20 a 23) de cada agrupación. 15
Tal como se ha descrito, los datos se transmiten a una frecuencia de repetición de 75 Hz. Por lo tanto, un paquete que contiene 4 agrupaciones se transmite a una velocidad de 300 agrupaciones por segundo (75 Hz x 4 agrupaciones). Es decir, con 1 carácter asignado al intervalo de 6 x 12 píxeles, se pueden transmitir 300 caracteres en 1 segundo.
No obstante, una pantalla de CD-G requiere más de 300 caracteres. Una pantalla de CD-G se define 20 como 288 elementos de imagen horizontales x 192 elementos de imagen verticales y requiere más de dos veces los 300 caracteres transmitidos en 1 segundo. Por lo tanto, el tiempo de transmisión total para una pantalla de 288 x 192 es 2,56 segundos tal como se muestra mediante la siguiente ecuación:
(288/6) x (192/12) 300 = 2,56 segundos
Esto da como resultado demasiado tiempo para regenerar cada pantalla cuando se considera que las 25 pantallas se actualizan habitualmente cada 0,6 segundos. Este problema se agrava cuando se usan códigos hexadecimales para los caracteres debido a que cada expresión hexadecimal requiere 4 bits para representar 1 píxel. Como consecuencia, se transmiten 4 veces los datos descritos anteriormente incrementando la velocidad de transmisión a 10,24 segundos (4 x 2,56 segundos). Como cada pantalla requiere unos tediosos 10,24 segundos para su transmisión, una transmisión continua de pantallas significa que se experimenta un 30 tiempo de demora de 10,24 segundos cuando se transmiten pantallas usando la técnica de CD-G.
De este modo, la técnica de CD-G no se realiza en tiempo real y es inaceptablemente lenta para su uso en una radiodifusión en tiempo real. Por ejemplo, en la generación de vídeos musicales de karaoke, resultaría prácticamente imposible sincronizar los subtítulos con el momento preciso en el que se van a cantar las letras debido a que los subtítulos deberían haberse generado con una antelación de 10,24 segundos con 35 respecto al vídeo musical.
El sistema de CD-G padece también defectos en la reproducción de los subtítulos. El sistema de CD-G visualiza subtítulos únicamente al producirse una reproducción normal y no durante una reproducción especial tal como una reproducción de avance rápido o retroceso rápido. Las imágenes de CD-G se ven sujetas también a fenómenos de sing (en los que porciones oblicuas de un carácter aparecen irregulares) o al 40 parpadeo debido a que este sistema asigna solamente un bit de datos para cada elemento de imagen. El tiempo de demora de la imagen de CD-G evita también la activación o desactivación de la visualización de subtítulos a una velocidad alta.
En un tipo de sistema (conocido como el sistema CAPTAIN), patrones de puntos así como códigos de caracteres representan los subtítulos. No obstante, este sistema no parece mejorar en nada al sistema de CD-G y padece algunas de las mismas desventajas. Por ejemplo, en ambos sistemas los subtítulos carecen de detalle debido a que estos sistemas no proporcionan un suficiente poder de resolución en la visualización de los subtítulos. El sistema CAPTAIN, por ejemplo, está desarrollado para una visualización de 248 5 (elementos de imagen horizontales) por 192 (elementos de imagen verticales) y no para imágenes de vídeo de alta resolución del 720 x 480.
Un aparato de codificación/decodificación de subtítulos según el documento EP-A-0 734 181 usa una tabla de consulta de colores para codificar/decodificar información de subtítulos que se van a superponer sobre una imagen de vídeo. La funcionalidad de barrido del color se proporciona cambiando el color de 10 visualización dentro de la tabla de consulta de colores. El documento EP-A-0 734 181 reivindica la fecha de prioridad de 23 de marzo de 1995 y se considera por lo tanto como incluido en el estado de la técnica únicamente con respecto a la novedad, según el Artículo 54(3) CPE.
Un aparato de codificación/decodificación de subtítulos según el documento WO 95/01704 y el documento EP-A-0 662 770 usa datos de clave para especificar una relación de mezcla de datos de subtítulos 15 y una imagen de vídeo de fondo. Los datos de clave y los datos de subtítulos se cuantifican en un proceso de codificación y se transmiten como bits predeterminados.
En las reivindicaciones, a las que se hace referencia, se exponen aspectos respectivos de la invención.
Una forma preferida de ejecución de la invención descrita a continuación en la presente memoria 20 haciendo referencia a los dibujos adjuntos, proporciona un barrido de color y un posicionamiento dinámico de subtítulos. Como los subtítulos se codifican y decodifican por separado con respecto a la imagen de vídeo, los subtítulos se pueden manipular con un gran control y en tiempo real. El barrido de color se logra de manera rápida y eficaz, permitiendo que un operador produzca en serie imágenes de vídeo subtituladas, personalizadas a medida de manera satisfactoria. El posicionamiento dinámico de los subtítulos es también 25 rápido y eficaz. Aplicando el barrido de color y el posicionamiento sobre un periodo de tramas, al espectador final se le proporciona la sensación de movimiento ya que se realiza un barrido de color gradual de los subtítulos o los mismos se cambian de posición durante un periodo de tiempo. Al realizar una revisión de la descripción de la forma preferida de ejecución que se proporciona a continuación, haciendo referencia a los dibujos, se observarán éstas y otras ventajas. 30
La forma preferida de ejecución de la invención proporciona:
un método y un aparato de subtítulos para el barrido de color de subtítulos;
un método de subtítulos y un aparato que realiza un barrido de color de subtítulos por orden de un operador y en tiempo real;
un método y un aparato de subtítulos para posicionar dinámicamente subtítulos; y 35
un método de subtítulos y un aparato que posiciona dinámicamente subtítulos por orden de un operador y en tiempo real.
La invención se describirá a continuación de forma adicional, por medio de un ejemplo ilustrativo y no limitativo, haciendo referencia a los dibujos adjuntos, en los cuales:
la figura 1 es un diagrama de bloques de un aparato de decodificación de datos que constituye una 40 forma de realización de la invención;
la figura 2 es un diagrama de bloques de un decodificador de subtítulos representado en la figura 1;
la figura 3 es una tabla de comunicaciones entre un controlador de sistema de la figura 1 y un controlador de la figura 2;
la figura 4 es una tabla de parámetros para comunicaciones entre componentes de la figura 1 y la 45 figura 2;
las figuras 5a a 5c son unos diagramas de señales que muestran claramente la codificación de datos;
la figura 6 es una tabla de consulta de colores a la que se hace referencia cuando se codifican datos de subtítulos;
las figuras 7a y 7b constituyen un diagrama de bloques de un aparato de codificación;
las figuras 8a y 8b representan un diagrama de bloques para un muestreador de datos de barrido de la figura 7a;
la figura 9 es una tabla de consulta de colores a la que hace referencia cuando se efectúa una operación de barrido de color; 5
la figura 10 es un gráfico para la explicación de una operación de una memoria intermedia de código;
la figura 11 es un diagrama de bloques que describe el funcionamiento interno de una memoria intermedia de código de la figura 2;
las figuras 12a a 12c representan un esquema para la operación de barrido de color;
la figura 13 es un diagrama de bloques que representa la operación de barrido de color según las 10 figuras 12a a 12c;
las figuras 14a a 14c representan un esquema para una operación de posicionamiento dinámico;
la figura 15 es un diagrama de bloques que representa la operación de posicionamiento dinámico según las figuras 14a a 14c;
las figuras 16a a 16c representan la disposición de datos según un formato de CD-G; y 15
la figura 17 representa un formato de transmisión de los datos en el formato de CD-G.
Haciendo referencia a continuación a los dibujos, en los que los números de referencia iguales designan partes idénticas o correspondientes, se describirá una forma preferida de ejecución de la invención.
Aparato de decodificación
El aparato de decodificación de datos mostrado en la figura 1 que incorpora la presente invención 20 decodifica una señal de reproducción. El controlador de sistema 14 del aparato de decodificación de datos provoca el procesado de la señal de reproducción y que la misma sea enviada a un decodificador de subtítulos 7. El controlador de sistema se comunica con el controlador 35 (figura 2) del decodificador de subtítulos para decodificar los subtítulos y los superpone sobre una imagen de vídeo decodificada para su visualización en una pantalla de televisión. 25
Un decodificador y demultiplexor de datos 1 recibe una señal de reproducción digital desde, por ejemplo, un VCR. El decodificador y demultiplexor de datos 1 aplica una decodificación de errores a la señal de reproducción utilizando preferentemente una técnica de Código de Corrección de Errores (ECC) y demultiplexa la señal de reproducción con decodificación de errores en datos de vídeo, subtítulos y audio. Se puede usar una memoria 2, por ejemplo, como memoria de almacenamiento intermedio y área de trabajo con 30 la finalidad de aplicar la decodificación de errores y demultiplexar la señal de reproducción.
Un decodificador de vídeo 3 decodifica los datos de vídeo demultiplexados de un flujo continuo (en inglés, stream) de datos de vídeo. Se puede utilizar una memoria 4 para la operación de decodificación de los datos de vídeo similar a la operación de la memoria 2 utilizada con el decodificador y demultiplexor de datos 1.
Un circuito de formato buzón 5 convierte una imagen de vídeo con una relación de aspecto 4:3 (un 35 modo de compresión) a una relación de formato de buzón 16:9. La conversión se realiza usando un proceso de diezmado de 4 a 3, con lo cual cada cuatro líneas horizontales se diezman en tres líneas horizontales, comprimiendo de este modo la imagen de vídeo en una imagen de ¾. Según el formato buzón, se obtiene un componente de resolución vertical a partir del ¼ restante de la imagen de vídeo, el cual se utiliza para mejorar la resolución vertical de la imagen de vídeo diezmada. Una memoria de control de temporización 6 garantiza 40 que no se transmita el ¼ de la imagen de formato buzón. Cuando los datos de vídeo decodificados, generados por el decodificador de vídeo 3, ya están en un formato buzón 16:9, el circuito de formato buzón elude la operación de diezmado y envía directamente los datos de vídeo decodificados hacia el decodificador de subtítulos 7.
Mientras tanto, los datos de subtítulos decodificados, demultiplexados por el decodificador y 45 demultiplexor de datos 1 se envían directamente al decodificador de subtítulos 7. El decodificador de subtítulos 7 decodifica los datos de subtítulos según instrucciones del controlador de sistema 14 y mezcla los datos de subtítulos decodificados con los datos de vídeo decodificados.
Un codificador compuesto 8 codifica los datos de subtítulos y datos de vídeos mezclados en un formato de imagen de vídeo adecuado, tal como NTSC/PAL. Una pantalla de modo 9 se comunica por interfaz con un usuario e indica, por ejemplo, el modo del monitor de televisión conectado a la misma. Un conversor D/A 10 convierte la señal codificada recibida desde el codificador compuesto 8 en una señal analógica adecuada para su visualización en el modo indicado, tal como NTSC o PAL. 5
La porción de audio de la señal de audio/vídeo decodificada por el decodificador y demultiplexor de datos 1 es decodificada por un decodificador de audio 11 que decodifica los datos de audio demultiplexados usando, por ejemplo, una memoria 12. Los datos de audio decodificados obtenidos a la salida del decodificador de audio se convierten en una señal de audio analógica apropiada para su radiodifusión a través de un monitor de televisión, por parte de un conversor D/A 13. 10
Decodificador de subtítulos
El decodificador de subtítulos 7, tal como se describirá haciendo referencia a la figura 2, decodifica los datos de subtítulos codificados y mezcla los datos de subtítulos decodificados con los datos de vídeo apropiados. Un controlador 35 controla las operaciones del decodificador de subtítulos y se comunica con el controlador de sistema 14 del decodificador (figura 1) usando las señales de órdenes mostradas en la figura 2 15 (según se enumera en la figura 3). Juntos, el controlador y el controlador de sistema sincronizan la decodificación de los datos de subtítulos de manera que los datos de subtítulos se mezclen con datos de imágenes de vídeo en la posición precisa en la que deban aparecer los subtítulos sobre la imagen de vídeo.
El detector de palabras 20 del decodificador de subtítulos 7 recibe los datos de subtítulos en grupos de flujos continuos de bits. Cada grupo de flujos continuos de bits constituye una trama (o página) de 20 subtítulos que se ha de superponer sobre una imagen de vídeo. Diferentes grupos de flujos continuos pueden representar subtítulos visualizados en diferentes modos de reproducción, tal como reproducción normal, retroceso rápido o avance rápido. El controlador del sistema indica al detector de palabras, usando una señal seleccionar_flujo, qué modo de reproducción visualizar, y el detector de palabras selecciona el flujo continuo apropiado de señales para el modo de reproducción indicado. En el caso en el que se visualicen imágenes de 25 vídeo diferentes sobre canales diferentes, el controlador de sistema indica el canal apropiado al detector de palabras de forma correspondiente en una señal seleccionar_can y el detector de palabras cambia de canal para recibir únicamente dichos flujos continuos sobre el canal seleccionado.
Un grupo de flujos continuos de bits que constituye una trama y es recibido por el detector de palabras incluye información de encabezamiento (s.encabezamiento) que describe el formato del grupo de 30 flujos continuos de bits. La información de encabezamiento viene acompañada por información de error de encabezamiento (error de encabezamiento) e información de error de datos (error de datos). El controlador del sistema usa el encabezamiento para determinar cómo analizar sintácticamente el grupo de flujos continuos de bits y extraer los datos de subtítulos pertinentes. El controlador del sistema usa la información de error de encabezamiento para corregir anomalías en la información de encabezamiento y usa la información de error 35 de datos para corregir anomalías en los datos de subtítulos.
El detector de palabras reenvía los datos de subtítulos (Mapa de bits) junto con otra información de decodificación (incluyendo una indicación de tiempo de presentación PTS, datos de posición datos_posición y datos de tabla de consulta de colores datos_CLUT) hacia el detector de código 22. La PTS es una señal que indica la cantidad de tiempo durante la que se van a visualizar los subtítulos. Los datos de posición indican la 40 posición horizontal y vertical en la que se van a superponer los subtítulos sobre la imagen de vídeo. Los datos_CLUT indican qué colores se van a usar para los píxeles que constituyen los subtítulos. Por ejemplo, el controlador de sistema determina que se está visualizando una imagen de vídeo y provoca que la memoria intermedia de código dé salida a los datos de subtítulos correspondientes (Mapa de bits) en una posición en la imagen de vídeo representada por la posición horizontal y vertical indicada por los datos_posición, en el color 45 indicado por los datos_CLUT y durante un periodo de tiempo indicado por la PTS.
Se proporciona un planificador 21 para garantizar que los datos recibidos desde el demultiplexor 1 (figura 1) no provocan un desbordamiento de la memoria intermedia de código 22. El planificador controla el acceso de lectura/escritura a la memoria intermedia de código determinando un ancho de banda para un puerto de I/O (no representado) que recibe los flujos continuos de bits seleccionados por el detector de 50 palabras. El ancho de banda se refiere al número de bits paralelos suministrados al puerto de I/O cada vez y se calcula dividiendo la velocidad a la que el demultiplexor demultiplexa datos por la velocidad a la que se leen datos de la memoria intermedia de código. Por ejemplo, una velocidad de datos del demultiplexor de 20 Mbps dividida por una velocidad de 2,5 Mbps de datos leídos de la memoria intermedia de código es igual a 8 bits. Por lo tanto, el planificador fijará el puerto de I/O para recibir 8 bits en paralelo con el fin de mantener un 55 caudal uniforme de datos de entrada y salida de la memoria intermedia de código. De este modo, la memoria
intermedia de código recibe los datos de subtítulos (Mapa de bits) y espera una señal iniciar decodificación del controlador de sistema para leer los datos.
El controlador de sistema ejecuta la lectura en tiempo real cuando se determina a partir de las señales de sincronización horizontal y vertical que el dispositivo de exploración de televisión está en una posición correspondiente a la posición indicada por los datos_posición. Para la visualización en tiempo real, la 5 velocidad de lectura se debería corresponder con una velocidad de muestreo de elementos de imagen, preferentemente 13,5 MHz. Tal como se ha descrito, los datos de subtítulos se escriben preferentemente en la memoria intermedia de código a una velocidad de 2,5 MHz o mayor. De este modo, el reloj de muestreo de 13,5 MHz se divide en cuatro ciclos de reloj de 3,375 MHz cada uno. Uno de estos ciclos de reloj de 3,375 MHz se asigna a la escritura (debido a que la escritura requiere por lo menos 2,5 MHz) y los restantes 10 tres ciclos de reloj se asignan a la lectura de datos de la memoria intermedia de código, satisfaciendo de este modo el requisito de visualización en tiempo real.
El funcionamiento de lectura/escritura descrito no se realiza solamente en tiempo real, sino que proporciona también una alta resolución. De la memoria intermedia de código 22 se leen ocho bits de los datos de subtítulos para cada uno de tres ciclos de reloj, o veinticuatro bits por reloj de muestreo. Cuando la 15 visualización de la imagen la efectúa el monitor de televisión cada cuatro ciclos de reloj, en cada ciclo de reloj se visualiza un cuarto de los veinticuatro bits (24/4=) 6 bits. Es decir, cada elemento de imagen de subtítulos puede comprender 6 bits, lo cual es más que suficiente para lograr una alta calidad de resolución para los subtítulos.
En la figura 11, se representa en forma de un diagrama de bloques el funcionamiento de la memoria 20 intermedia de código 22 y componentes correspondientes de la figura 2. La memoria intermedia de código 22-1 acumula flujos continuos de datos de subtítulos hasta que se haya acumulado por lo menos una página de datos de subtítulos en la memoria intermedia de código. Los datos de subtítulos para una página se transfieren desde la memoria intermedia de código 22-1 a la memoria de visualización 22-2 (que actúa como memoria intermedia para el decodificador de subtítulos) cuando la indicación de tiempo de visualización (PTS) 25 está alineada con el reloj de sincronización (SCR). El reloj de sincronización hace avanzar un puntero en la memoria de visualización 22-2, durante la lectura, que indica qué dirección de datos de subtítulos se está usando en ese momento. Se observará que se prefiere la colocación de la memoria intermedia de código y la memoria de visualización en una única unidad debido a que la memoria intermedia de código necesita únicamente incrementar un puntero que apunta a la dirección actual en la memoria de visualización 22-2, que 30 almacena el siguiente conjunto de datos de subtítulos. De este modo, no se provoca ningún retardo debido a una transferencia, lo cual da como resultado una transferencia de alta velocidad de los datos de subtítulos.
Cuando se lee la memoria intermedia de código durante un modo de reproducción normal, el reloj de sincronización hace avanzar el puntero de la memoria de visualización 22-2 en cada impulso. No obstante, durante una reproducción especial (tal como los modos de reproducción de avance rápido, retroceso rápido), 35 el puntero se debe hacer avanzar a una velocidad diferente. En primer lugar, se envía una orden especial al controlador 35 y el controlador envía de vuelta una señal de acuse de recibo (acu_especial), confirmando que se va a iniciar la reproducción especial. Para acelerar (o ralentizar) uniformemente las operaciones del decodificador de subtítulos según la velocidad de reproducción especial, se puede modificar la referencia del reloj del sistema (SCR) sumando o restando impulsos de reloj. Los impulsos de resta se crean a una 40 velocidad n veces correspondiente a la velocidad de avance rápido o retroceso rápido. Por ejemplo, en el momento en el que comienza una reproducción especial, se realiza una resta en tiempo real sobre el flujo continuo de bits de datos de subtítulos leídos de la memoria intermedia de código a la velocidad de n veces y el puntero avanza a la velocidad deseada para lograr el modo de reproducción especial.
Por otro lado, cuando la operación de reproducción especial se corresponde con una operación de 45 pausa no se crean impulsos de resta. En su lugar, se lee continuamente de manera repetida, de la memoria intermedia de código, una trama idéntica, proporcionando de este modo la sensación ilusoria de que los subtítulos están en pausa.
La operación de lectura finaliza cuando el decodificador de subtítulos 7 determina que se ha alcanzado un fin de página (EOP) de la trama de subtítulos. El controlador de sistema 14 envía una señal 50 tiempo de repetición hacia el controlador 35, que indica la longitud de una página. Un circuito inverso de longitud de series 24 incluye un contador y envía una señal fin de visualización hacia el controlador 35 cuando el valor de recuento del contador alcanza el valor indicado por la señal tiempo de repetición. Cuando el controlador 35 determina que se ha alcanzado el tiempo de repetición, se detiene la operación de lectura de la memoria intermedia de código. La memoria intermedia de código almacena preferentemente por lo menos dos 55 páginas de datos de subtítulos ya que se leerá una página mientras otra se escribe en la memoria intermedia de código.
El controlador 35 emite una señal de desbordamiento de memoria intermedia hacia el controlador de sistema 14 cuando se produce un desbordamiento de la memoria intermedia de código. Se puede determinar un desbordamiento cuando el controlador recibe la señal de fin de visualización del circuito de longitud de series 24 antes de que el detector de palabras 20 reciba una señal de fin de página (EOP) en la siguiente página. En ese momento, el controlador de sistema 14 retiene la transferencia de datos de subtítulos desde el 5 decodificador y demultiplexor de datos 1 (figura 1) hacia el detector de palabras para evitar un desbordamiento de la memoria intermedia de código. Cuando se ha superado una condición de desbordamiento, se escribe el siguiente flujo continuo en la memoria intermedia de código y el mismo se visualiza en la posición correcta de inicio de visualización.
Existe una condición de subdesbordamiento cuando la memoria intermedia de código ha completado 10 la lectura de los datos de subtítulos para una página entera y no existen más datos en la memoria intermedia de código. En la figura 10, se representa mediante la línea "tamaño de memoria intermedia de código" una memoria intermedia de código con una capacidad de dos páginas. Gráficamente, un subdesbordamiento se manifestaría en la figura 10 como una de las porciones verticales de la línea (C) que se extiende por debajo del límite inferior de la memoria intermedia de código. Por contraposición, en la figura 10 se representa 15 gráficamente una condición de desbordamiento cuando los datos de subtítulos leídos hacia la memoria intermedia de código son demasiado grandes, es decir, la porción horizontal de línea (C) se extiende más allá de la línea (B).
La figura 10 muestra gráficamente el flujo de datos de entrada y salida de la memoria intermedia de código 22. El eje T (abscisa) representa el tiempo, mientras que el eje D (ordenada) representa el tamaño de 20 datos para cada página de datos. De este modo, el gradiente (aumento/serie) representa el caudal de datos de los subtítulos hacia la memoria intermedia de código. La gráfica (C) representa el flujo de datos de los datos de subtítulos. Las porciones verticales de la gráfica (C) indican una transferencia de datos de subtítulos desde la memoria intermedia de código cuando la indicación de tiempo de visualización (PTS) está alineada con el reloj de sincronización (SCR) generado internamente por el decodificador de subtítulos 7. Las porciones 25 horizontales de la gráfica (C) indican la transferencia de datos de subtítulos hacia la memoria intermedia de código. Por ejemplo, en el momento en el que la memoria intermedia de código recibe la indicación de tiempo de visualización (PTS) para la página (S0), la página previa de datos de subtítulos se transfiere desde la memoria intermedia de código y la página (S0) se escribe en la memoria intermedia de código. Cuando la memoria intermedia de código recibe otra indicación de tiempo de visualización (PTS), los datos de subtítulos 30 de la página (S0) se transfieren fuera de la memoria intermedia de código y en la misma se escribe la página (S1). De modo similar, las páginas restantes (S2), (S3) se escriben en la memoria intermedia de código y se leen de la misma según se indica.
Para sincronizar de manera precisa la lectura de los datos de subtítulos desde la memoria intermedia de código con la visualización de la imagen de vídeo, se debe realizar una compensación de retardo para 35 tener en cuenta retardos dentro del decodificador de subtítulos. Esto es especialmente importante cuando se utiliza una memoria externa como memoria de visualización debido a que una memoria externa incrementa el factor de retardo. La compensación del retardo se logra controlando la temporización de la orden iniciar decodificación del controlador de sistema 14. El controlador de sistema 14 retarda la orden iniciar decodificación en un tiempo igual al procesado de una imagen de formato buzón (aproximadamente un 40 campo) y un retardo provocado por la decodificación del vídeo en el instante en el que el reloj de sincronización del controlador (SCR) está alineado con la indicación de tiempo de visualización (PTS). La compensación del retardo resulta particularmente útil, ya que los datos de vídeo, audio y subtítulos se multiplexan suponiendo que el retardo de decodificación en cada una de las señales de datos de vídeo, audio y subtítulos es cero en el aparato de codificación de datos. 45
Cuando se leen de la memoria de visualización 22-2 los datos de subtítulos para una página (figura 11), de los mismos se separan los encabezamientos de los flujos continuos de bits por medio de un analizador sintáctico 22-3 y estos últimos se reenvían al codificador inverso de longitud variable o decodificador de longitud de series 23, 24 durante un periodo de borrado vertical (V). El circuito inverso de VLC (Codificación de Longitud Variable) 23 (figura 2) somete los datos de subtítulos a una decodificación de longitud variable. 50 Los datos de subtítulos decodificados en longitud variable están compuestos por datos de nivel ("1" ó "0") y datos de serie en forma de datos emparejados. En el caso en el que no se utilice la decodificación de longitud variable, se puede eludir el circuito inverso de VLC, y a los datos de subtítulos leídos de la memoria intermedia de código se les dará salida directamente hacia el circuito inverso de longitud de series 24.
El circuito inverso de longitud de series 24 efectúa una decodificación de longitud de series 55 generando el nivel de datos a partir del número de elementos de datos de series. De este modo, el circuito de VLC 23 y el circuito de longitud de series 24 descomprimen los datos de subtítulos que se habían almacenado como datos comprimidos en la memoria intermedia de código 22.
A continuación, los datos de subtítulos descomprimidos se envían a un filtro de 3:4 25. El filtro de 3:4 recibe una señal comprimirx del controlador de sistema 14, que indica la relación de aspecto del monitor de televisión correspondiente. Cuando la señal indica que el monitor tiene una relación de aspecto de 4:3, el filtro de 3:4 aplica un procesado de filtrado de 3:4 a los datos de subtítulos para hacer coincidir el tamaño de los subtítulos con el tamaño de la imagen de vídeo. No hay figura 11. En la forma de realización preferida, el 5 controlador 35 lee 90 píxeles, en correspondencia con datos de subtítulos, de la memoria intermedia de código 22 antes de que se genere el impulso de sincronización H. En el caso en el que el monitor de televisión ya tenga una relación de aspecto de 16:9, o los datos de subtítulos descomprimidos representen fuentes, el filtro de 3:4 se elude tal como se muestra en la figura 11.
Una tabla de consulta de colores 26 (CLUT) recibe los datos de subtítulos desde el filtro de 3:4 25 y 10 los datos_CLUT de la memoria intermedia de código 22. La tabla de consulta de colores genera un color adecuado a partir de los datos_CLUT para los datos de subtítulos. La tabla de consulta de colores selecciona una dirección correspondiente a los datos de subtítulos para cada píxel y reenvía una relación de mezcla K y componentes de color Y (luminancia), CR (señal de diferencia de color R-Y) y CB (señal de diferencia de color B-Y) hacia el mezclador 34. Los componentes de color Y, CR y CB, cuando son mezclados por el mezclador, 15 con la relación de mezcla K, crean un píxel con el color indicado por la tabla de consulta de colores.
En la disposición de la tabla de consulta de colores, se incorporan datos de vídeo de fondo. Por ejemplo, la dirección 0 de la tabla de consulta incluye datos de clave K que tienen el valor de 00 h; lo cual significa que los datos de subtítulos no serán vistos y aparecerán los datos de vídeo de fondo, tal como se muestra mediante las regiones T1 y T5 en la figura 5c. Las direcciones 1h a 6h de la tabla de consulta 20 incluyen valores de los datos de clave K que se incrementan linealmente (20, 40... C0 hexadecimal); lo cual significa que los píxeles de subtítulos según estas direcciones se mezclan con los datos de fondo tal como se muestra mediante las regiones T2 y T4 en la figura 5c. Finalmente, las direcciones 8h a Fh de la tabla de consulta incluyen valores de datos de clave K de E0h; lo cual significa que los componentes Y, Cr y Cb se mezclan sin ningún dato de vídeo de fondo tal como se muestra mediante la región T3 en la figura 5c. Los 25 datos de la tabla de consulta de colores se generan desde el controlador de sistema y se descargan previamente al circuito de CLUT antes de la decodificación. Con la tabla de consulta de colores, los datos de subtítulos filtrados se transforman en el píxel de color apropiado para su visualización en el monitor de televisión.
La figura 6 muestra un ejemplo de una tabla de consulta de colores, en la que los componentes Y, 30 Cr, Cb y K están dispuestos según las direcciones 0...F (hexadecimal). Tal como se explicará, el barrido de color se realiza cambiando los datos_CLUT, sustituyendo de este modo parte de la tabla de consulta de colores por la tabla de consulta de colores de barrido de color, mostrada en la figura 9. Normalmente, una trama de subtítulos particular se actualiza varias veces ya que las tramas se actualizan en una televisión varias veces por segundo. Cuando se actualizan los subtítulos, se utilizarán los mismos datos de subtítulos. 35 No obstante, el color será diferente debido a la tabla cambiada de consulta de colores. De este modo, los subtítulos aparecerán como con un barrido de color a medida que son actualizados con cada trama consecutiva.
Un mezclador 34 (figura 2) mezcla los píxeles de la tabla de consulta de colores 26 con datos de vídeo del decodificador de vídeo 3 (figura 1). Los datos mezclados resultantes representan una imagen de 40 vídeo con subtítulos superpuestos y ya están preparados para darles salida hacia un monitor de televisión. El mezclador 34 se controla para posicionar los subtítulos dentro de la imagen de vídeo. El controlador de sistema 14 envía una señal posición_u generada por las órdenes de un operador hacia el mezclador a través del controlador 35, lo cual designa la posición vertical para la visualización en la pantalla. El valor de posición_u se puede variar (o bien por parte de un usuario, o bien por el transmisor, o de otra manera) 45 permitiendo que un usuario coloque los subtítulos en cualquier lugar a lo largo de un eje vertical.
Un aparato de decodificación que constituye una forma de realización de la invención se puede llevar a la práctica con los parámetros para las diferentes señales mostradas en la figura 4. No obstante, la presente invención no se limita a los parámetros expuestos en esa figura y se puede utilizar en sistemas de vídeo diferentes. 50
Con el presente aparato, un espectador tiene control sobre la visualización de los subtítulos a través del dispositivo de visualización de modo 9. El controlador de sistema 14, al producirse una orden del usuario, envía una señal de control al mezclador 34 (figura 2), activando o desactivando los subtítulos. Puesto que el presente aparato decodifica subtítulos en tiempo real, el usuario no experimenta ningún retardo desagradable cuando activa o desactiva los subtítulos. Adicionalmente, los subtítulos pueden ser controlados, por el usuario 55 o de otra manera, para realizar un fundido de entrada/salida a una velocidad variable. Esto se logra multiplicando un coeficiente de fundido en los datos del patrón que representan los subtítulos a una velocidad
designada. Esta función permite también que un editor de los subtítulos presente a los espectadores sensaciones diferentes según la radiodifusión del audio/imagen de vídeo. Por ejemplo, se puede "mostrar fugazmente" y de manera rápida información de noticias para atraer la atención del espectador, mientras en un vídeo musical lento aparecen "suavemente" subtítulos para no menoscabar el disfrute del vídeo musical.
Técnica de codificación 5
Se describirá con mayor detalle, haciendo referencia a las figuras 5a, 5b y 5c y la figura 6, la técnica de codificación utilizada. Como ejemplo, se explicará la técnica para codificar la letra "A" de la figura 5a. Se explora la letra "A" a lo largo de líneas horizontales sucesivas y se generan los datos de relleno de la figura 5b para la letra "A" a lo largo de cada línea horizontal. Se observará que el nivel "E0" delimita el nivel mayor para recrear un píxel de color de la tabla de consulta de colores mostrada en la figura 6, mientras que el nivel "0" 10 representa una falta de datos de subtítulos.
Los datos de clave (K) (o relación de mezcla) determinan el grado con el que los datos de relleno se mezclan con el vídeo de fondo. Las regiones T1 y T5 de los datos de clave se corresponden con áreas en la imagen de vídeo que no se superponen con los datos de relleno; por lo tanto, estas áreas se designan como nivel 0 según se indica mediante la dirección 0 en la figura 6. Las regiones T2 y T4 son áreas mixtas en las 15 que los subtítulos se mezclan gradualmente con la imagen de vídeo de fondo de manera que los subtítulos se fusionan con la imagen de vídeo de fondo y no presentan un contraste brusco con la misma. Cualquiera de los datos de relleno en esta área se almacena en las direcciones 1 a 6 de la tabla de consulta de colores. La porción principal de la letra "A" se visualiza dentro de la región T3 en la que se debilita la información de fondo. La información de subtítulos en la región T3 se almacena como direcciones 7 a F (hexadecimal). La 20 tabla de consulta de colores de la figura 6 está dispuesta en grados variables del componente de luminancia Y. Cuando se va a almacenar un píxel en la región T3, por ejemplo, y el nivel del componente iluminancia Y para ese píxel en particular es 20 (hexadecimal), la información de color para ese píxel se obtiene de la dirección 9. De esta manera, se codifican los píxeles restantes para los caracteres de los subtítulos.
Aparato de codificación 25
En las figuras 7a, b, se representa el aparato de codificación. Un micrófono 53 y una cámara de vídeo 51 reciben, respectivamente, información de audio y vídeo, y la misma se reenvía a un multiplexor 58. Los datos de subtítulos se introducen a través o bien de un generador de caracteres 55 o bien de un explorador de punto móvil 56 y son codificados por un circuito de codificación de subtítulos 57. La información de subtítulos codificada se envía al multiplexor 58 y se combina con la información de audio/vídeo en un disco de grabación 30 91 o canal para su transmisión, visualización, grabación o similares.
La cámara de vídeo 51 genera la señal de vídeo y suministra la misma a una unidad de codificación de vídeo 52 que convierte la señal de vídeo de formato analógico a digital. A continuación, la señal de vídeo digitalizada se comprime para la transmisión de vídeo y se reenvía a un controlador de velocidad 52a, el cual controla la velocidad con la que los datos de vídeo comprimidos se transfieren al multiplexor en sincronización 35 con la velocidad con la que los subtítulos se envían al multiplexor. De esta manera, los datos de vídeo comprimidos se combinan con los datos de subtítulos en el momento correcto. De modo similar, el micrófono 53 obtiene información de audio y una unidad de codificación de audio 54 codifica la misma antes de ser enviada al multiplexor. La unidad de codificación de audio no incluye necesariamente un controlador de velocidad ya que los datos de audio se pueden grabar finalmente en una pista diferente o se pueden transmitir 40 a través de un canal diferente con respecto a los datos de vídeo.
Los subtítulos son generados o bien por el generador de caracteres 55 o bien por el explorador de punto móvil 56. El generador de caracteres incluye un monitor y un teclado que permite que un operador inserte manualmente subtítulos en una imagen de vídeo. El operador edita los subtítulos tecleando los mismos a través del teclado. Por otro lado, el explorador de punto móvil 56 se proporciona en la situación en 45 la que ya se suministren subtítulos en una imagen de vídeo externa. El explorador de punto móvil explora la imagen de vídeo y determina dónde están posicionados los subtítulos y genera a partir de ellos datos de subtítulos correspondientes. El circuito de procesado 63 procesa previamente los subtítulos del explorador de punto móvil para ajustarse a subtítulos generados por el generador de caracteres y reenviados al circuito de codificación de subtítulos. 50
A continuación, se seleccionan los datos de subtítulos o bien del generador de caracteres 55 o bien del explorador de punto móvil, para su compresión. El generador de caracteres da salida a datos de borrado, datos de subtítulos y datos de clave. Los datos de subtítulos y los datos de clave se reenvían a un conmutador 61 que se conmuta de acuerdo con una temporización predeterminada para seleccionar los datos o bien de subtítulos o bien de clave. Los datos seleccionados del conmutador 61 son filtrados por un filtro 72 y 55
suministrados a otro conmutador 62. El conmutador 62 conmuta entre los datos de borrado, los datos filtrados del generador de caracteres y los datos procesados del explorador de punto móvil. Cuando se determina que no hay presentes subtítulos, el conmutador 62 selecciona los datos de borrado. En los casos en los que hay subtítulos, el conmutador 62 selecciona entre los datos del generador de caracteres o los datos del explorador de punto móvil, dependiendo de qué dispositivo se esté usando para generar los datos de subtítulos. 5
A continuación, los datos seleccionados por el conmutador 62 son cuantificados por un circuito de cuantificación 64, que usa una cuantificación basada en datos realimentados desde un verificador de memoria intermedia de subtítulos 68. Los datos cuantificados, que pueden estar comprimidos, se suministran a un conmutador 69 y (durante el funcionamiento normal) se reenvían a un circuito de modulación diferencial por codificación de impulsos (DPCM) 65 para una modulación por codificación de impulsos. Los datos modulados 10 se codifican por longitud de series mediante un circuito de codificación de longitud de series 66 y se codifican por longitud variable mediante un circuito de codificación de longitud variable 67, y se reenvían al verificador de memoria intermedia de subtítulos 68 para su procesado final antes de ser enviados al multiplexor 58.
El verificador de memoria intermedia de subtítulos 68 verifica que la memoria intermedia está suficientemente llena con datos sin desbordamiento. Esto se realiza realimentando una señal de control (a la 15 cual se hace referencia en la figura 7A como señal de filtrado) hacia el circuito de cuantificación 64. La señal de control cambia el nivel de cuantificación del circuito de cuantificación, cambiando de este modo la cantidad de datos codificados para un subtítulo particular. Incrementando el nivel de cuantificación, se reduce la cantidad de datos requerida para los datos de subtítulos y se reduce consecuentemente la velocidad binaria de datos que fluyen hacia el verificador de memoria intermedia de subtítulos. Cuando el verificador de 20 memoria intermedia de subtítulos determina que se produce un subdesbordamiento de datos, la señal de control reduce el nivel de cuantificación y se incrementa la cantidad de datos obtenidos a la salida del circuito de cuantificación, llenando de este modo el verificador de memoria intermedia de subtítulos.
El verificador de memoria intermedia de subtítulos es responsable también de preparar los datos de subtítulos para su transmisión (por ejemplo, a través de ondas de televisión). El verificador de memoria 25 intermedia de subtítulos inserta información necesaria para decodificar los datos de subtítulos codificados. Esta información incluye una señal de reproducción normal/especial que indica si los subtítulos se graban en un modo normal o especial (avance/retroceso rápido). Se inserta una señal de valor de límite superior que indica el límite superior para el tamaño de memoria de los datos de subtítulos para una trama. Una señal EOP marca el fin de página para la trama de datos de subtítulos y la misma también se inserta. Se inserta una 30 señal código de tiempo que se usa como indicación de tiempo PTS en la decodificación. Se inserta información de codificación de subtítulos y la misma incluye información usada en la codificación de los datos de subtítulos, tal como el factor de cuantificación. Se inserta información posicional y la misma se usa como los datos_posición al producirse la decodificación. Se inserta una señal estático/dinámico que indica si los datos de subtítulos están en modo estático o dinámico. El verificador de memoria intermedia de subtítulos 35 inserta también la dirección de la tabla de consulta de colores para la transmisión hacia el decodificador de manera que los colores de la visualización coincidan con los colores utilizados en la creación de los subtítulos.
El verificador de memoria intermedia de subtítulos es preferentemente una memoria intermedia de código similar a la memoria intermedia de código 22 del decodificador (figura 2). Con este fin, resulta útil interpretar que el funcionamiento del verificador de memoria intermedia de subtítulos está en simetría (es 40 decir, realiza las funciones inversas de la memoria intermedia de código) con el diagrama operativo de la memoria intermedia de código de la figura 11. Por ejemplo, los píxeles de color de los subtítulos se convierten en representaciones digitales; los subtítulos digitales son codificados por un codificador de longitud de series y un codificador de longitud variable; se adiciona información de encabezamientos; y la información resultante de los subtítulos se almacena en una memoria intermedia y se reenvía a un multiplexor para su multiplexado 45 con los datos de audio y vídeo.
El multiplexor 58 multiplexa los datos de subtítulos codificados con los datos de vídeo y audio, utilizando preferentemente una unidad de codificación de multiplexado segmentado en el tiempo. El multiplexor proporciona también un procesado de corrección de errores (por ejemplo, codificación de corrección de errores) y un procesado de modulación (por ejemplo, EFM, modulación de ocho-a-catorce). A 50 continuación, los datos multiplexados se transmiten (a través de radiodifusión por televisión, grabación, u otros medios de transferencia) hacia el aparato de decodificación para su decodificación y visualización.
Codificación de barrido de color
El barrido de color se refiere a un proceso mediante el cual una imagen, tal como los subtítulos, se superpone gradualmente con otra imagen. Una aplicación ejemplificativa del barrido de color es el resaltado, 55 en el que una trama de subtítulos se resalta dinámicamente de izquierda a derecha con el paso del tiempo. El
resaltado resulta particularmente útil, por ejemplo, en el karaoke, en el que las letras visualizadas se resaltan de izquierda a derecha a medida que las mismas son cantadas. La forma preferida de ejecución de la invención realiza el barrido de color cambiando la tabla de consulta de colores en puntos diferentes de la visualización de los subtítulos. Por ejemplo, se genera una trama inicial de subtítulos con la tabla estándar de consulta de colores en la figura 6. Cuando se realiza el barrido de color, la tabla de consulta de colores se 5 cambia del barrido de color al aspecto de color estándar lo cual proporciona la sensación de que los subtítulos están cambiando de color dinámicamente con el tiempo de izquierda a la derecha.
A continuación se describirá, haciendo referencia a las figuras 7a, 8a y 8b, una operación de codificación para un barrido de color. Durante el transcurso de la codificación de subtítulos, un operador puede desear realizar un barrido de color de los subtítulos codificados previamente. Con este fin, al operador 10 se le proporciona una palanca de barrido 81 para controlar el barrido de color y un monitor 84 para visualizar el barrido de color en tiempo real. La palanca de barrido está conectada a un adaptador 82 para adaptar los voltajes analógicos de la palanca de barrido a impulsos digitales adecuados para la manipulación digital. La salida digital del adaptador se alimenta tanto a un conmutador 83 como a un muestreador de datos de barrido 70. El conmutador conmuta la tabla de consulta de colores a valores representados por la posición de la 15 palanca de barrido y genera píxeles de color de los subtítulos para su visualización en el monitor. De este modo, el operador puede inspeccionar visualmente el procedimiento de barrido de color mientras el mismo se produce y ajustar la velocidad o color del barrido de manera que le satisfaga.
El muestreador de datos de barrido y el muestreador de posición 70 determina, a partir de las señales del adaptador, en qué lugares de la imagen de vídeo se va a cambiar la tabla de consulta de colores y 20 da salida a esta información hacia los circuitos de codificación 65, 66 y 67 (a través del conmutador 69) para su codificación y transmisión hacia el multiplexor 58. Las figuras 8a y 8b representan un diagrama de bloques del funcionamiento del muestreador de datos de barrido y posición. Un comparador compara una señal de píxel actual generada por el adaptador con una señal de píxel previa del adaptador. Esto se logra transmitiendo el valor de píxel actual a la entrada A de un comparador 301 mientras se suministra el valor del 25 píxel previo retenido en un registro 300 hacia la entrada B del comparador 301. El comparador da salida a un valor booleano "verdadero" hacia un contador 302 (que se reinicializa en cada impulso de sincronización horizontal o vertical) cuando los píxeles actual y previo tienen el mismo valor y el contador incrementa un valor de recuento. Es decir, el comparador registra una condición de valor verdadero cuando los píxeles hasta ese punto se generan a partir de la misma tabla de consulta de colores. Por lo tanto, en el punto, en el que la tabla 30 de consulta de colores cambia, los píxeles actual y previo dejan de ser iguales (es decir, su color cambia) y el comparador genera una condición booleana de valor "falso". De este modo, el valor del recuento es igual al número de coincidencias entre los valores actual y previo, que es el mismo que la posición en la que cambia la tabla de consulta de colores. El valor de recuento es retenido por un registro 303 al producirse el siguiente impulso de sincronización vertical y es transferido a los circuitos de codificación (a través del conmutador 69) 35 para su transmisión.
Decodificación del barrido de color
A continuación, se describirá, haciendo referencia a las figuras 12a a c y 13, la decodificación del barrido de color. La figura 12a muestra la posición en la que se conmuta la tabla de consulta de colores en el punto A desde una tabla de consulta de barrido de color (figura 9) a la tabla estándar de consulta de colores 40 (figura 6). La figura 12b representa un patrón de datos de subtítulos y de barrido de color dispuestos en bloques discretos de indicaciones de tiempo de presentación (PTS(n)...PTS(n+t)). La primera indicación de tiempo de presentación PTS(n) se corresponde con datos de subtítulos normales y las restantes indicaciones de tiempo de presentación PTS(n+1...n+t) se corresponden con datos de barrido de color (WPA...WPZ). La figura 12c muestra tramas sucesivas (n...n+t) que se corresponden con las indicaciones de tiempo de 45 presentación. Para ejecutar el barrido de color, cada trama de barrido de color sucesiva (WPA...WPZ) fija el punto en el que la tabla de consulta de colores se conmuta (punto A) más lejos a lo largo del subtítulo visualizado, realizándose dinámicamente de este modo un barrido de color en función del tiempo.
En la figura 13, se representa un diagrama de bloques de funcionamiento de la decodificación del barrido de color. El impulso de sincronización vertical activa un registro 205 para retener la trama de subtítulos 50 actual (la figura 13 muestra un cuadro de barrido de color WP que está siendo retenido). Los datos de barrido de color retenidos por el registro indican la posición de la conmutación de la tabla de consulta de colores. Un contador de píxeles reduce el valor indicado por los datos de barrido de color en cada impulso de sincronización horizontal y da salida a una bandera booleana de valor "verdadero" hacia la tabla de consulta de colores 26. Mientras, la bandera es de valor "verdadero", la tabla de consulta de colores utiliza la tabla de 55 barrido de color (figura 9) para decodificar los colores de los píxeles de los subtítulos. Cuando el contador de píxeles alcanza cero, se llega a la posición de conmutación de la tabla de consulta de colores y el contador de píxeles emite una bandera booleana de valor "falso" hacia la tabla de consulta de colores 26. En este
momento, la tabla de consulta de colores conmuta la tabla de consulta de colores de barrido de color (figura 9) hacia la tabla de consulta estándar (figura 6), y el resto de la trama del subtítulo se visualiza en el modo de color estándar. Cada trama de barrido de color sucesiva (WPA...WPZ) mueve la posición de conmutación; de este modo, cada trama de subtítulo actualizada hace avanzar (o retroceder) el barrido de color, realizando de este modo un barrido de color dinámico. 5
La tabla de consulta de colores de barrido de color en la figura 9 incorpora dos conjuntos de colores (un conjunto para las direcciones 0h a 7h y un segundo conjunto para las direcciones 8h a Fh). De este modo, el color de barrido de color se puede cambiar a un color secundario simplemente cambiando el bit más significativo (MSB) de la dirección de la tabla de consulta de colores. Por ejemplo, el primer conjunto de colores de barrido de color tiene un MSB de "0", mientras que el segundo conjunto tiene un MSB de "1". El 10 cambio del MSB de la dirección 7h a un "1" transforma la dirección a Fh y cambia el color de barrido de color. Esto se puede realizar, por ejemplo, fijando el MSB de manera que sea igual a la bandera del contador de píxeles 208.
La utilización del MSB para cambiar entre conjuntos de colores tiene la ventaja de reducir el número de bits requeridos para ser codificados. Como el MSB es conocido, únicamente es necesario codificar los tres 15 bits de orden inferior cuando se utilizan 4 bits para cada píxel. Cuando se utilizan dos bits para cada píxel, los datos de subtítulos se codifican únicamente para el bit menos significativo. En un formato de píxel de 4 bits por 2, se utiliza únicamente el MSB para el control del color y los tres restantes bits se pueden reservar para información del píxel. De este modo, usando el MSB se puede reducir el número de bits codificados y se optimiza el tiempo de procesado global para la codificación y decodificación. 20
Posicionamiento dinámico de subtítulos
La posición de los subtítulos se cambia dinámicamente, es decir, en función del tiempo, utilizando una técnica similar a la descrita anteriormente haciendo referencia al barrido de color. Tal como se muestra en las figuras 14a a c, los datos de posición se miden a lo largo del eje horizontal (figura 14a) y se transfieren al decodificador de subtítulos con los datos de subtítulos durante la trama apropiada (figura 14c) 25 correspondiente a una indicación de tiempo de presentación (PTS(n), por ejemplo; figura 14b).
A continuación, se explicará la operación de posicionamiento haciendo referencia a la figura 15. Los datos de posición son un valor que representan la posición de la trama de subtítulo a lo largo del eje horizontal y se leen de la memoria intermedia de visualización y son retenidos por el registro 205 en cada impulso de sincronización vertical. El contador de píxeles 208 reduce los datos de posición en cada impulso de 30 sincronización horizontal y envía una bandera booleana al controlador 35 (figuras 2 y 15) para indicar que no se ha alcanzado la posición de la trama de subtítulos. Cuando el contador de píxeles llega a cero, se ha alcanzado la posición de la trama de subtítulos y la bandera booleana se conmuta para indicar esto al controlador. A continuación, el controlador, que ha estado retardando la operación de lectura de la memoria intermedia de código 22 (figura 2), provoca que la memoria intermedia de código lea los datos de subtítulos 35 hacia el decodificador de longitud de series 24 (figura 2). A continuación, los datos de subtítulos se decodifican tal como se ha descrito anteriormente y se visualizan con la imagen de vídeo correspondiente. De esta manera, la posición de la trama de subtítulos se cambia con cada trama; proporcionando de este modo un movimiento dinámico de la trama de subtítulos.
De este modo, la forma preferida de ejecución de la invención proporciona un barrido de color y un 40 posicionamiento dinámico de los subtítulos. Como los subtítulos se codifican y decodifican en tiempo real de forma independiente con respecto a los datos de audio/vídeo, los subtítulos se pueden controlar con una gran flexibilidad. Por ejemplo, en el karaoke, los subtítulos se pueden desactivar en cualquier momento y de manera inmediata cuando se desea comprobar las habilidades del cantante al cantar la canción. El barrido de color y el posicionamiento dinámico de los subtítulos se realizan también en tiempo real, permitiendo que un 45 operador produzca de manera rápida y sencilla imágenes de vídeo en serie. Por otra parte, un operador puede ver inmediatamente los resultados del barrido de color y el posicionamiento dinámico, y ajustarlos para quedar satisfecho, proporcionando una personalización a medida de cada audio/imagen de vídeo.
Se apreciará que la presente invención es aplicable a otras aplicaciones, tales como gráficos de televisión o vídeo. Por lo tanto, se debe entender que, dentro del alcance de las reivindicaciones adjuntas, la 50 invención se puede poner en práctica de una manera diferente a la descrita específicamente en la presente memoria.
Claims (10)
- REIVINDICACIONES1. Aparato de decodificación de barrido de color de subtítulos, operativo para serle suministrados datos de vídeo codificados y datos de subtítulos codificados multiplexados que incluyen unos códigos que representan colores de una tabla de consulta de colores y una posición en un subtítulo en la que tiene lugar una conmutación entre tablas de consulta de colores estándar y de barrido de color, representando cada 5 código un componente de color de un píxel del subtítulo, comprendiendo dicho aparato:unos medios de decodificación de vídeo (3) para decodificar los datos de vídeo codificados de dicha imagen de vídeo que se va a visualizar;unos medios de almacenamiento intermedio (7, 22) para almacenar los datos de subtítulos que se van a decodificar y visualizar simultáneamente con dicha imagen de vídeo; 10unos medios de control (7, 21) para temporizar una operación de lectura de dichos datos de subtítulos como salida de dichos medios de almacenamiento intermedio durante una visualización en tiempo real de dicha imagen de vídeo;unos medios de decodificación de subtítulos (7, 23, 24) dispuestos para decodificar dichos datos de subtítulos almacenados en dichos medios de almacenamiento intermedio a partir de dichos códigos, 15 obteniendo dichos componentes de colores según una de las tablas de consulta de colores estándar y de barrido de color; yunos medios de barrido de color (7, 26) que comprenden unas tablas de consulta de colores estándar y de barrido de color, presentando la tabla de consulta estándar, por lo menos en algunas direcciones, datos de color diferentes a las mismas direcciones de la tabla de consulta de colores de barrido de color, 20estando dispuestos los medios de barrido de color para responder a dicho código que representa dicha posición de manera que provoquen que una porción de dicho subtítulo tenga un color diferente a otra porción de dicho subtítulo mediante una conmutación entre dichas tablas de consulta de colores estándar y de barrido de color en dicha posición de conmutación.
- 2. Aparato de decodificación de barrido de color de subtítulos según la reivindicación 1, en el que 25 las tablas de consulta de colores incluyen unos datos que representan una relación de mezcla que determina el grado en el que un píxel de dicho subtítulo se mezcla con la imagen de vídeo durante la visualización, comprendiendo además el aparato unos medios mezcladores (34) para mezclar dicha imagen de vídeo decodificada por dichos medios de decodificación de vídeo (3) con dicho subtítulo proporcionado por dichos medios de barrido de color (7, 26) de acuerdo con dicha relación de mezcla. 30
- 3. Aparato de decodificación de barrido de color de subtítulos según la reivindicación 2, en el que la tabla de consulta estándar tiene, por lo menos en algunas direcciones, relaciones de mezcla diferentes con respecto a las mismas direcciones de la tabla de consulta de colores de barrido de color.
- 4. Aparato de decodificación de barrido de color de subtítulos según la reivindicación 1, 2 ó 3, operativo para serle suministrado un código que representa dicha posición de conmutación como un recuento 35 de píxeles en una línea de vídeo, y en el que los medios de barrido de color comprenden:unos medios de retención (figura 13, 205) para retener dicho recuento, que son indicativos de dicha posición de conmutación; yunos medios contadores (figura 13, 208) para decrementar dicho recuento píxel a píxel en cada línea de vídeo de dicha imagen de vídeo, 40teniendo lugar la conmutación entre dichos datos de la tabla estándar de consulta de colores y dichos datos de la tabla de consulta de colores de barrido de color cuando dichos medios contadores alcanzan un recuento de cero.
- 5. Aparato de decodificación de barrido de color de subtítulos según la reivindicación 1, 2, 3 ó 4, que comprende además unos medios (figura 15, 205, 208, 35, 24, 26) para posicionar el subtítulo en la 45 imagen de vídeo de acuerdo con datos de posición del subtítulo de dichos datos de subtítulos.
- 6. Método de decodificación de barrido de color de subtítulos, que comprenderecibir datos de vídeo codificados y datos de subtítulos codificados multiplexados, que incluyen unos códigos que representan los colores de una tabla de consulta de colores y una posición en un subtítulo en laque tiene lugar una conmutación entre tablas de consulta de colores estándar y de barrido de color, representando cada código un componente de color de un píxel del subtítulo,decodificar los datos de vídeo codificados de dicha imagen de vídeo que se va a visualizar;almacenar en una memoria intermedia los datos de subtítulos que se van a decodificar y visualizar simultáneamente con dicha imagen de vídeo; 5temporizar una operación de lectura de dichos datos de subtítulos como salida de dicha memoria intermedia durante una visualización en tiempo real de dicha imagen de vídeo;decodificar dichos datos de subtítulos almacenados en dicha memoria intermedia a partir de dichos códigos, obteniendo dichos componentes de colores según una de las tablas de consulta de colores estándar y de barrido de color; y 10usar tablas de consulta de colores estándar y de barrido de color, presentando la tabla de consulta estándar, por lo menos en algunas direcciones, datos de color diferentes a las mismas direcciones de la tabla de consulta de colores de barrido de color,realizar un barrido de color del subtítulo, provocando que una porción de dicho subtítulo tenga un color diferente a otra porción de dicho subtítulo mediante una conmutación entre dichas tablas de consulta de 15 colores estándar y de barrido de color en dicha posición.
- 7. Método de decodificación de barrido de color de subtítulos según la reivindicación 6, que comprende además la etapa de mezclar dichos datos de vídeo decodificados mediante dicha etapa de decodificación de vídeo con dichos datos de subtítulos decodificados mediante dicha etapa de decodificación de subtítulos de acuerdo con relaciones de mezcla definidas por las tablas de consulta de colores. 20
- 8. Método de decodificación de barrido de color de subtítulos según la reivindicación 7, en el que la tabla de consulta estándar tiene, por lo menos en algunas direcciones, relaciones de mezcla diferentes con respecto a las mismas direcciones de la tabla de consulta de colores de barrido de color.
- 9. Método de decodificación de barrido de color de subtítulos según la reivindicación 6, 7 u 8, en el que la etapa de barrido de color comprende: 25recibir códigos que representan dicha posición de conmutación como un recuento de píxeles en una línea de vídeo,retener dicho recuento en la línea de vídeo de dicha imagen de vídeo,decrementar dicho recuento píxel a píxel en la línea de vídeo de dicha imagen de vídeo yconmutar entre dicha tabla estándar de consulta de colores y dicha tabla de consulta de colores de 30 barrido de color cuando dicho recuento llega a cero.
- 10. Método de decodificación de barrido de color de subtítulos según la reivindicación 6, 7, 8 ó 9, que comprende además controlar la posición del subtítulo en la imagen de vídeo de acuerdo con los datos de posición del subtítulo de dichos datos de subtítulos.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP7-99436 | 1995-04-03 | ||
| JP9943695A JPH08275205A (ja) | 1995-04-03 | 1995-04-03 | データ符号化/復号化方法および装置、および符号化データ記録媒体 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2355288T3 true ES2355288T3 (es) | 2011-03-24 |
Family
ID=14247380
Family Applications (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES03075808T Expired - Lifetime ES2402090T3 (es) | 1995-04-03 | 1996-04-02 | Barrido de color y posicionamiento de subtítulos |
| ES96302342T Expired - Lifetime ES2355288T3 (es) | 1995-04-03 | 1996-04-02 | Barrido de color y posicionamiento de subtítulos. |
Family Applications Before (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES03075808T Expired - Lifetime ES2402090T3 (es) | 1995-04-03 | 1996-04-02 | Barrido de color y posicionamiento de subtítulos |
Country Status (13)
| Country | Link |
|---|---|
| US (1) | US5889564A (es) |
| EP (2) | EP0737016B1 (es) |
| JP (1) | JPH08275205A (es) |
| KR (1) | KR100384611B1 (es) |
| CN (3) | CN1150509C (es) |
| AT (1) | ATE491308T1 (es) |
| AU (1) | AU707272B2 (es) |
| BR (1) | BR9601263A (es) |
| CA (1) | CA2173177C (es) |
| DE (1) | DE69638300D1 (es) |
| ES (2) | ES2402090T3 (es) |
| MY (1) | MY113592A (es) |
| TW (1) | TW293980B (es) |
Families Citing this family (45)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6788709B1 (en) * | 1996-05-16 | 2004-09-07 | Kabushiki Kaisha Infocity | Method for transmitting and displaying information and device for displaying information |
| US6310918B1 (en) * | 1997-07-31 | 2001-10-30 | Lsi Logic Corporation | System and method for motion vector extraction and computation meeting 2-frame store and letterboxing requirements |
| JP3422686B2 (ja) * | 1998-06-12 | 2003-06-30 | 三菱電機株式会社 | データ復号装置及びデータ復号方法 |
| JP3057055B2 (ja) * | 1998-07-21 | 2000-06-26 | インターナショナル・ビジネス・マシーンズ・コーポレイション | コンピュータ、オーバーレイ処理装置、及びオーバーレイ処理実施方法 |
| JP2000100073A (ja) * | 1998-09-28 | 2000-04-07 | Sony Corp | 記録装置および方法、再生装置および方法、記録媒体、並びに提供媒体 |
| US6891859B2 (en) * | 1998-11-10 | 2005-05-10 | Kunihiro Hyakutake | Information transmission, information display method and information display apparatus |
| AU745947B2 (en) * | 1999-02-05 | 2002-04-11 | Canon Kabushiki Kaisha | Color advisor |
| FR2806227B1 (fr) * | 2000-03-09 | 2003-09-05 | Auteuil Participation Et Conse | Procede pour le codage d'images |
| CA2411038A1 (en) | 2000-06-09 | 2001-12-13 | British Broadcasting Corporation | Generation subtitles or captions for moving pictures |
| CA2468867C (en) | 2002-10-02 | 2011-05-03 | Lg Electronics Inc. | Recording medium having a data structure for managing reproduction of graphic data and recording and reproducing methods and apparatuses |
| WO2004032136A1 (en) | 2002-10-04 | 2004-04-15 | Lg Electronics Inc. | Recording medium having a data structure for managing reproduction of graphic data and recording and reproducing methods and apparatuses |
| EP1576809B1 (en) * | 2002-11-15 | 2007-06-20 | Thomson Licensing | Method and apparatus for composition of subtitles |
| BRPI0409251B1 (pt) | 2003-04-09 | 2017-02-21 | Lg Electronics Inc | meio de gravação tendo uma estrutura de dados para gerenciar reprodução de dados de subtítulo de texto e métodos e aparelhos de gravação e reprodução |
| US7616865B2 (en) * | 2003-04-30 | 2009-11-10 | Lg Electronics Inc. | Recording medium having a data structure for managing reproduction of subtitle data and methods and apparatuses of recording and reproducing |
| UA93180C2 (uk) * | 2003-09-04 | 2011-01-25 | Конінклійке Філіпс Електронікс Н.В. | Носій запису, що містить відеосигнал і щонайменше один додатковий інформаційний сигнал |
| KR20050072255A (ko) | 2004-01-06 | 2005-07-11 | 엘지전자 주식회사 | 고밀도 광디스크의 서브타이틀 구성방법 및 재생방법과기록재생장치 |
| KR20050078907A (ko) * | 2004-02-03 | 2005-08-08 | 엘지전자 주식회사 | 고밀도 광디스크의 서브타이틀 재생방법과 기록재생장치 |
| BRPI0507542A (pt) | 2004-02-10 | 2007-07-03 | Lg Electronics Inc | meio fìsico de gravação para reprodução de fluxos de subtìtulo de texto, método e aparelho para decodificar um fluxo de subtìtulo de texto |
| EP1716567A2 (en) | 2004-02-10 | 2006-11-02 | Lg Electronics Inc. | Recording medium and method and apparatus for decoding text subtitle streams |
| EP1716701A1 (en) | 2004-02-10 | 2006-11-02 | LG Electronic Inc. | Text subtitle decoder and method for decoding text subtitle streams |
| RU2377669C2 (ru) * | 2004-02-10 | 2009-12-27 | ЭлДжи ЭЛЕКТРОНИКС ИНК. | Носитель записи, имеющий структуру данных для управления различными данными, и способ и устройство записи и воспроизведения |
| KR100739680B1 (ko) * | 2004-02-21 | 2007-07-13 | 삼성전자주식회사 | 스타일 정보를 포함하는 텍스트 기반 서브타이틀을 기록한저장 매체, 재생 장치 및 그 재생 방법 |
| KR20060129067A (ko) | 2004-02-26 | 2006-12-14 | 엘지전자 주식회사 | 기록매체 및 텍스트 서브타이틀 스트림 기록 재생 방법과장치 |
| KR100727921B1 (ko) * | 2004-02-28 | 2007-06-13 | 삼성전자주식회사 | 텍스트 기반의 서브타이틀 스트림을 기록한 저장 매체,재생 장치 및 그 재생 방법 |
| US7529467B2 (en) | 2004-02-28 | 2009-05-05 | Samsung Electronics Co., Ltd. | Storage medium recording text-based subtitle stream, reproducing apparatus and reproducing method for reproducing text-based subtitle stream recorded on the storage medium |
| WO2005088634A1 (en) | 2004-03-17 | 2005-09-22 | Lg Electronics Inc. | Recording medium, method, and apparatus for reproducing text subtitle streams |
| ES2351033T3 (es) * | 2004-03-26 | 2011-01-31 | Lg Electronics Inc. | Médio de grabación y método y aparato para reproducir y grabar flujos de subtítulos de texto. |
| KR20060047266A (ko) | 2004-04-26 | 2006-05-18 | 엘지전자 주식회사 | 기록매체, 기록매체의 재생방법과 재생장치 |
| US7571386B2 (en) | 2004-05-03 | 2009-08-04 | Lg Electronics Inc. | Recording medium having a data structure for managing reproduction of text subtitle data and methods and apparatuses associated therewith |
| TWI248762B (en) * | 2004-11-10 | 2006-02-01 | Realtek Semiconductor Corp | Video processing device and method thereof |
| JP4792458B2 (ja) * | 2005-02-28 | 2011-10-12 | パナソニック株式会社 | 字幕表示装置 |
| US20070211169A1 (en) * | 2006-03-06 | 2007-09-13 | Dotsub Llc | Systems and methods for rendering text onto moving image content |
| US9426479B2 (en) * | 2007-08-09 | 2016-08-23 | Cisco Technology, Inc. | Preserving captioning through video transcoding |
| CN101552877B (zh) * | 2008-04-03 | 2013-06-05 | 技嘉科技股份有限公司 | 以像素为单元的字幕涂色方法 |
| US20110090563A1 (en) * | 2008-04-11 | 2011-04-21 | Molecular Devices, Inc. | Uniformity in slide scanning |
| US20110090397A1 (en) * | 2008-06-30 | 2011-04-21 | William Gibbens Redmann | Method and apparatus for dynamic displays for digital cinema |
| US8786781B2 (en) * | 2009-04-09 | 2014-07-22 | Ati Technologies Ulc | Detection and enhancement of in-video text |
| US20120249879A1 (en) * | 2010-05-14 | 2012-10-04 | Yuan yan-wei | Method for eliminating subtitles of a video program, and associated video display system |
| CN102523389A (zh) * | 2011-12-14 | 2012-06-27 | 武汉市兑尔科技有限公司 | 一种基于sopc的双路视频融合处理装置及其融合方法 |
| GB2510116A (en) * | 2013-01-23 | 2014-07-30 | Sony Corp | Translating the language of text associated with a video |
| CN104038827B (zh) * | 2014-06-06 | 2018-02-02 | 小米科技有限责任公司 | 多媒体播放方法及装置 |
| CN106098088B (zh) * | 2016-06-01 | 2018-09-04 | 广州酷狗计算机科技有限公司 | 一种显示歌词的方法和装置 |
| EP3407612A1 (en) | 2017-05-22 | 2018-11-28 | Vestel Elektronik Sanayi ve Ticaret A.S. | Apparatus for a subtitle positioning and a method thereof |
| CN116489454A (zh) * | 2018-06-25 | 2023-07-25 | 华为技术有限公司 | 一种包含字幕的高动态范围视频处理的方法及装置 |
| CN109409474A (zh) * | 2018-09-28 | 2019-03-01 | 明基智能科技(上海)有限公司 | 编码方法 |
Family Cites Families (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4420770A (en) * | 1982-04-05 | 1983-12-13 | Thomson-Csf Broadcast, Inc. | Video background generation system |
| JPS628193A (ja) * | 1985-07-04 | 1987-01-16 | インタ−ナショナル ビジネス マシ−ンズ コ−ポレ−ション | カラー画像表示装置 |
| IT1215206B (it) * | 1986-12-18 | 1990-01-31 | Sip | Modulo interfaccia per la sovrapposizione di caratteri alfanumerici e segnale video rgb |
| JPH07118798B2 (ja) * | 1988-02-29 | 1995-12-18 | パイオニア株式会社 | 画像情報の記録方法及び再生方法 |
| KR910006465B1 (ko) * | 1988-12-31 | 1991-08-26 | 삼성전자 주식회사 | 영상신호와 보색관계를 가지는 문자를 영상신호에 삽입하는 문자 합성장치 |
| GB8909115D0 (en) * | 1989-04-21 | 1989-06-07 | Rca Licensing Corp | Improvements in applications for information transmitted in the vertical retrace interval of a television signal |
| KR950005937B1 (ko) * | 1992-10-12 | 1995-06-07 | 주식회사엘지전자 | 캡션자막 표시 제어장치와 표시 제어방법 |
| CA2164290A1 (en) * | 1993-06-07 | 1994-12-22 | David B. Burleson | Display system for a subscriber terminal |
| CN1113098A (zh) * | 1993-06-30 | 1995-12-06 | 索尼公司 | 字幕数据编码/译码装置及其方法 |
| US5610665A (en) * | 1993-10-12 | 1997-03-11 | Berman; John L. | Interactive television graphics interface |
| US5537151A (en) * | 1994-02-16 | 1996-07-16 | Ati Technologies Inc. | Close caption support with timewarp |
| US5489947A (en) * | 1994-06-17 | 1996-02-06 | Thomson Consumer Electronics, Inc. | On screen display arrangement for a digital video signal processing system |
| US5568167A (en) * | 1994-09-23 | 1996-10-22 | C-Cube Microsystems, Inc. | System for providing antialiased video overlays |
| JPH08265661A (ja) * | 1995-03-23 | 1996-10-11 | Sony Corp | 字幕データ符号化/復号化方法および装置、および符号化字幕データ記録媒体 |
-
1995
- 1995-04-03 JP JP9943695A patent/JPH08275205A/ja active Pending
-
1996
- 1996-04-01 CA CA 2173177 patent/CA2173177C/en not_active Expired - Lifetime
- 1996-04-02 EP EP19960302342 patent/EP0737016B1/en not_active Expired - Lifetime
- 1996-04-02 EP EP20030075808 patent/EP1326451B1/en not_active Expired - Lifetime
- 1996-04-02 US US08/627,742 patent/US5889564A/en not_active Expired - Lifetime
- 1996-04-02 DE DE69638300T patent/DE69638300D1/de not_active Expired - Lifetime
- 1996-04-02 AU AU50457/96A patent/AU707272B2/en not_active Expired
- 1996-04-02 ES ES03075808T patent/ES2402090T3/es not_active Expired - Lifetime
- 1996-04-02 ES ES96302342T patent/ES2355288T3/es not_active Expired - Lifetime
- 1996-04-02 TW TW85103885A patent/TW293980B/zh not_active IP Right Cessation
- 1996-04-02 AT AT96302342T patent/ATE491308T1/de active
- 1996-04-03 MY MYPI96001238A patent/MY113592A/en unknown
- 1996-04-03 KR KR1019960010570A patent/KR100384611B1/ko not_active Expired - Lifetime
- 1996-04-03 CN CNB961057718A patent/CN1150509C/zh not_active Expired - Lifetime
- 1996-04-03 CN CNB2004100315309A patent/CN1237815C/zh not_active Expired - Lifetime
- 1996-04-03 BR BR9601263A patent/BR9601263A/pt not_active IP Right Cessation
- 1996-04-03 CN CNB200510118736XA patent/CN100463503C/zh not_active Expired - Lifetime
Also Published As
| Publication number | Publication date |
|---|---|
| EP1326451B1 (en) | 2013-01-23 |
| EP0737016A3 (en) | 1999-01-13 |
| EP0737016A2 (en) | 1996-10-09 |
| ES2402090T3 (es) | 2013-04-26 |
| MY113592A (en) | 2002-04-30 |
| EP1326451A1 (en) | 2003-07-09 |
| CN1139273A (zh) | 1997-01-01 |
| ATE491308T1 (de) | 2010-12-15 |
| BR9601263A (pt) | 1998-01-06 |
| CA2173177A1 (en) | 1996-10-04 |
| CN1527606A (zh) | 2004-09-08 |
| AU5045796A (en) | 1996-10-17 |
| AU707272B2 (en) | 1999-07-08 |
| DE69638300D1 (de) | 2011-01-20 |
| CN1150509C (zh) | 2004-05-19 |
| US5889564A (en) | 1999-03-30 |
| KR960040008A (ko) | 1996-11-25 |
| CN1237815C (zh) | 2006-01-18 |
| JPH08275205A (ja) | 1996-10-18 |
| CN1770827A (zh) | 2006-05-10 |
| KR100384611B1 (ko) | 2003-08-21 |
| TW293980B (es) | 1996-12-21 |
| EP0737016B1 (en) | 2010-12-08 |
| CN100463503C (zh) | 2009-02-18 |
| CA2173177C (en) | 2004-06-22 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2355288T3 (es) | Barrido de color y posicionamiento de subtítulos. | |
| AU700439B2 (en) | Multiple data stream searching method and apparatus | |
| EP0757484B1 (en) | Subtitle recording and reproduction | |
| KR100390593B1 (ko) | 서브타이틀데이터인코딩/디코딩방법및장치및그기록매체 | |
| KR100381989B1 (ko) | 자막인코딩/디코딩방법및장치및자막프로세서 | |
| MXPA96002842A (es) | Metodo y aparato de busqueda de corriente de datos multiples | |
| MXPA96003105A (es) | Metodo y dispositivo para codificar/decodificar datos y medio de decodificacion de datos codificados | |
| US5742352A (en) | Video caption data decoding device | |
| ES2259117T3 (es) | Metodo y sistema para descodificar. | |
| KR960038899A (ko) | 재생 데이타를 전송하는 통신 시스템 | |
| JPH08241068A (ja) | 情報記録媒体およびビットマップデータ復号化装置とビットマップデータ復号化方法 | |
| JPH07250279A (ja) | 字幕データ復号化装置 | |
| AU726256B2 (en) | Subtitle positioning method and apparatus | |
| JPH07231435A (ja) | 字幕データ符号化装置、その復号化装置、並びに記録媒体 | |
| KR100215622B1 (ko) | 정보 집합체의 디코드 방법 | |
| JPH0622331A (ja) | 画像合成装置 |