MXPA00007798A - Proceso y dispositivo para sincronizar un descodificador mpeg. - Google Patents

Proceso y dispositivo para sincronizar un descodificador mpeg.

Info

Publication number
MXPA00007798A
MXPA00007798A MXPA00007798A MXPA00007798A MXPA00007798A MX PA00007798 A MXPA00007798 A MX PA00007798A MX PA00007798 A MXPA00007798 A MX PA00007798A MX PA00007798 A MXPA00007798 A MX PA00007798A MX PA00007798 A MXPA00007798 A MX PA00007798A
Authority
MX
Mexico
Prior art keywords
video
image
decoder
data
presentation
Prior art date
Application number
MXPA00007798A
Other languages
English (en)
Inventor
Chapel Claude
Original Assignee
Thomson Multimedia Sa
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Multimedia Sa filed Critical Thomson Multimedia Sa
Publication of MXPA00007798A publication Critical patent/MXPA00007798A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4305Synchronising client clock from received content stream, e.g. locking decoder clock with encoder clock, extraction of the PCR packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Time-Division Multiplex Systems (AREA)
  • Synchronisation In Digital Transmission Systems (AREA)

Abstract

Un proceso y dispositivo para sincronizar un descodificador MPEG. El proceso esta caracterizado porque comprende: una etapa de calcular un instante real de presentacion Tpres del video de una imagen, este instante se relaciona con el reloj local LSTC, una etapa de calcular una desviacion STCO entre este instante calculado de presentacion y la etiqueta PTS que corresponde al instante de presentacion deseado por el codificador para el video de esta imagen, de manera que define un reloj virtual VSTC ûSTCO + LSTC, una presentacion del video y del audio que corresponden a esta imagen en las fechas PTS que se relacionan con el reloj virtual VSTC. Las solicitudes se relacionan con descodificadores de satelite, receptores de television digital que utilizan un disco duro para registrar datos codificados, y un descodificador MPEG.

Description

PROCESO Y DISPOSITIVO PAR SINCRONIZAR UN DESCODIFICADOR MPEG DESCRIPCIÓN DE LA INVENCIÓN La invención se relaciona con un proceso para sincronizar un descodificador MPEG para descodificar datos comprimidos que se originan de un medio de grabación. La invención también se relaciona con un descodificador MPEG que implementa tal proceso, un descodificador satélite o un receptor de televisión que comprende tal descodificador . La figura 1 representa una configuración de un descodificador de satélite que utiliza una grabación de una corriente de datos MPEG en un disco duro. Se recibe una corriente de programa MPEG (PS) en la entrada de un multiplexor 1. Este último transmite los datos de un programa en forma de paquetes de datos PES (las iniciales que indican una corriente elemental en paquetes) . Estos datos son enviados a una memoria 2 y después a un disco duro 4 por medio de una interfase 3 de disco, para su grabación. Para la lectura de los datos, el disco duro 4 se une a una interfase 5 de disco y después a una memoria 6. Se enlaza una primera salida de memoria a un circuito 7 de descodificación MPEG de video y una segunda salida de memoria se enlaza a un circuito 8 de descodificación de MPEG de audio. La salida desde cada uno de estos circuitos corresponde con los puntos de referencia de video y de audio transmitidos a convertidores digitales/analógicos y después a un receptor de televisión (el cual no se representa en la figura) . El circuito 6 de memoria hace posible, entre otras cosas, desmultiplexar los datos de audio y de video almacenados en el disco duro. Estos datos PES de video y PES de audio posteriormente se procesan por descodificadores respectivos . Los datos almacenados en el disco duro son los datos obtenidos después de desmultiplexar la corriente. Por lo tanto, alguien quien no está trabajando con el almacenamiento de la corriente de programa PES, por lo tanto se evita la regeneración de tal corriente en la lectura, y el almacenamiento de todos los programas que constituyen esta corriente, o el almacenamiento de datos mezclados con el registro de palabras clave, etc. La manera de funcionamiento de un descodificador de acuerdo con el estándar MPEG, en una configuración convencional, es decir, una la cual recibe la corriente de datos directamente con una velocidad de bitio de transmisión dada por ejemplo vía transmisión satélite o por vía cable, se vuelva a denominar en lo siguiente, de manera que resalta las características particulares en relación a un ambiente con un disco duro, es decir, con un almacenamiento intermedio de datos en un disco duro antes de descodificación . El manejo de la memoria intermedia de un descodificador se realiza, en el estándar MPEG, en base en el modelado al que se hace referencia como memoria virtual . En realidad, la codificación de cada imagen que constituye una secuencia no se lleva a cabo a costo constante y una memoria intermedia en la salida del codificador se utiliza para suministrar una corriente de datos a una velocidad constante de bitios media. En el lado del descodificador, también se requiere una memoria intermedia de manera que suministre, desde la corriente de datos de velocidad de bitios constante, imágenes de costo variable. El manejo de la memoria intermedia del descodificador se realiza en base, entre otras cosas, de los relojes transmitidos por el codificador en la corriente de datos y en las etiquetas asignadas a las imágenes transmitidas y que definen el instante de salida de la memoria del descodificador, el intervalo de tiempo entre el instante de almacenamiento de una imagen en la memoria del descodificador y el instante de lectura de la memoria del descodificador debe ser el mismo para cada imagen. Esto involucra al reloj PCR, que indica referencia de reloj de programa en el estándar MPEG, el cual es un punto de referencia de tiempo transmitido en la corriente de datos y en base en el cual se realiza la sincronización del descodificador. Esto también involucra la etiqueta DTS, que indica una estampa de tiempo de descodificación en el estándar MPEG, el cual es un campo transmitido en la corriente y el cual indica el instante en el cual una imagen va a ser descodificada en el descodificador .
El punto de referencia de PCR en la corriente PC de transporte se utiliza por el descodificador para calcular el tiempo. Por lo tanto, el PCR suministra la etiqueta de protocolo a nivel de descodificador. El DTS proporciona los protocolos de descodificación, es decir, el instante en el cual la imagen debe ser leída de la memoria intermedia del descodificador y ser descodificada. Los puntos de referencia PCR y DTS se transmiten respectivamente en los encabezados de paquetes de 188 octetos de la corriente de transporte TS y los encabezados de paquete de corriente PES, la primera etapa de empaquetado necesaria en la producción de una corriente de transporte TS . Las iniciales PTS, que indican estampa de tiempo de presentación, corresponden al instante de exhibición de imagen y permiten el reordenamiento de las imágenes después de descodificación; el PTS está presente en los encabezados de paquete de la corriente PES. Cuando el descodificador MPEG opera en base en los datos que se originan desde el disco duro, estos datos se consumen en el tiempo del descodificador . Las señales de sincronización de los descodificadores de audio y video para exhibir las imágenes descodificadas (VSYNC) son reguladas por el reloj local de 27 MHz de manera que suministran 25 imágenes por segundo aproximadamente .
Puesto que la grabación se lleva a cabo al nivel de PES de audio y video, los puntos de referencia en relación al PCR de la corriente PS pierden y por lo tanto no pueden servir en el control del reloj local. Esta ausencia de control genera un problema de administración a nivel de los punteros de escritura y lectura del disco duro así como un problema de sincronización a nivel de las señales de audio y video. Respecto a la administración de los punteros, se consideran dos modos: el modo de sólo lectura, es decir, sin escritura simultánea del disco duro, para el cual el problema no es demasiado problemático, y el modo de lectura/escritura. En el modo de sólo lectura, cuando se reproduce nuevamente una corriente registrada previamente, la precisión del reloj local en la oscilación libre es suficiente. La variación relativa al valor nominal del registro se encuentra dentro de la duración de imagen de video de 40 ms . La tolerancia a nivel de televisión y de observador es lo suficientemente grande para ser capaz de trabajar con una presión mucho menor que los estándares de la televisión profesional. Esto se debe a que la señal de sincronización de imagen (VSYNC) se define en base a un reloj de 27 MHz. Tiene un período de 40 ms . Un desplazamiento lento de esta señal debido a la precisión del reloj local, no es problemática, de manera alguna debido al hecho de que la televisión se encuentra al final de la cadena de transmisión.
Por otra parte, en el modo de escritura/lectura (lectura desplazada con respecto al modo de escritura, más comúnmente conocida como desplazamiento de tiempo) , se pueden presentar malos funcionamientos debido al hecho de que este reloj está en oscilación libre, y no es posible controlarlo a la lectura de la corriente de regreso al disco. Cuando el registro y la lectura son simultáneos, el caso de reproducción desplazada en tiempo, existe el riesgo de que la escritura sea sobretomada por la lectura en el disco o que exista un incremento en el retardo. Puesto que el desplazamiento es lento, este segundo caso no es tan problemático. Por otra parte, si la lectura se superpone a la escritura, es decir, si el puntero de lectura se superpone al puntero de escritura y se sale de la lectura a áreas de memoria aún no escritas, la imagen mostrada puede, como máximo ser la que se registró en esta área durante una grabación previa y las imágenes que son grabadas ya no pueden ser reproducidas. Esta situación se puede presentar cuando el desplazamiento entre el registro y la lectura se debe a una pausa corta en la lectura. En este caso, y si el reloj de 27 MHz es ligeramente más rápido que el utilizado por el codificador cuando se codifican los datos, la reproducción de los datos es más rápido que su grabado y durante un período prolongado, es decir, durante un programa grabado de cierta duración, el puntero de lectura puede sobretomar el puntero de escritura. En este modo, por lo tanto es necesario prohibir tal deslizamiento entre la escritura y la lectura. Una idea sería controlar el reloj local para las PCR (referencias de reloj de programa) de la corriente incidente mientras son grabadas. Sin embargo, esto no puede resolver otro mal funcionamiento el cual se puede presentar al considerar el hecho de que la validez de los datos registrados no se conoce a priori. Puesto que la escritura y la lectura son sincrónicas, en el caso en donde el reloj local se sincroniza con los PCR de la corriente incidente, se mantendrá el retardo entre la lectura y la escritura a menos que el descodificador comience a consumir los datos muy rápidamente. Esto puede suceder si los datos están corrompidos. En realidad, aunque en el caso de la transmisión en tiempo real (en vivo) , estos datos erróneos se pueden detectar de inmediato ante la lectura de la memoria intermedia del descodificador, lo mismo no es válido cuando se registra sobre un disco duro el cual permite que tales datos erróneos se detecten únicamente después de la lectura y almacenamiento de estos datos en la memoria intermedia del descodificador . Cuando se detectan datos corrompidos por el descodificador, este último vuelve a sincronizarse y vacía instantáneamente la memoria intermedia, lo que provoca la pérdida de los datos y acceso al disco duro, el cual se repite para el llenado de esta memoria intermedia. En este caso, puede suceder que el puntero de lectura se superponga al puntero de escritura. Esto se puede presentar ante una transmisión de puntos de referencia erróneos o ante la pérdida de transmisión de datos debido, .por ejemplo, a condiciones de transmisión pobres. En lo que respecta a la sincronización de los datos de audio y video, que se encuentran en el modo de sólo lectura o en modo de lectura/escritura, el hecho de no ser capaces de inicializar y sincronizar el reloj local con el punto de referencia PCR, por ejemplo en el modo de sólo lectura, puede generar un problema de sincronización entre el video y el audio. Esto se debe a que los puntos de referencia en relación a los instantes de presentación en relación al reloj local no se pueden utilizar para tomar en consideración el hecho de que este reloj ya no está sincronizado con el del codificador. El objetivo de la invención es resolver los inconvenientes mencionados antes . Su objetivo es un proceso para sincronizar un descodificador MPEG para la descodificación de datos comprimidos que se originan de un medio de grabación, estos datos consisten de paquetes de datos de audio y de video PES (corriente elemental empaquetada), caracterizada porque comprende: una etapa para calcular el instante real de presentación Tpres del video de una imagen, este instante se relaciona con el reloj local LSTC, una etapa para calcular el desplazamiento de STCO entre el instante calculado de presentación y la etiqueta PTS que corresponde al instante de presentación descrito por el codificador para el video de esta imagen, de manera que define un reloj virtual VSTC = STCO + LSTC, una presentación del video y del audio que corresponde a esta imagen en los datos PTS en relación con el reloj virtual VSTC. De acuerdo con una característica particular, el tiempo de tránsito del video a través de la memoria intermedia del descodificador de video se impone en un valor predeterminado TVBV. De acuerdo con una variante, la determinación de TVBV es dependiente de la velocidad de bitios de registro de los datos PES en el medio de grabación. De acuerdo con una variante, la determinación de TVBV depende de VBV_delay (VBV_retardo) . De acuerdo con una característica particular, el desplazamiento es igual a: STCO = PTS - TVBV - TVSYNC - (TimeRef x 40 ms) - TDEC - LSTCpic en donde : TVSYNC corresponde a un período de marco, TDEC corresponde a la duración de descodificación de la imagen, redondeado al número superior de períodos de marco, TimeRef representa la referencia temporal de la imagen para el reordenamiento, LSTCpic se relaciona con el instante de detección de la primera imagen . De acuerdo con un modo particular de operación, los datos de lectura en el modo desplazado (desplazamiento de tiempo) , los datos son registrados en base a un puntero de escritura, los datos registrados son leídos en tiempo desplazado en base a un puntero de lectura, y se impone una separación mínima entre el puntero de lectura y de escritura y, cuando se obtiene esta separación, se acciona el modo de congelación del descodificador . El objetivo de la invención también es un -dispositivo para sincronizar un descodificador MPEG con una corriente MPEG registrada, los datos registrados consisten de paquetes de datos PES, caracterizados en que comprenden un medio para calcular una desviación de STCO que se va a aplicar al reloj local LSTC del descodificador de manera que se define un reloj virtual VSTC, este desplazamiento es igual a la diferencia entre el instante de presentación Tpres del video de una imagen, calculado en la etiqueta LSTC, y el valor PTS de presentación de esta imagen que se origina desde el codificador y en donde la descodificación de los datos de audio y video se lleva a cabo cuando este reloj virtual VSTC es igual al valor de PTS .
Su objetivo es un descodificador satélite caracterizado porque comprende un descodificador MPEG y un dispositivo de sincronización de acuerdo con la reivindicación 11, o además un receptor de televisión, caracterizado porque comprende un descodificador MPEG y un dispositivo de sincronización, de conformidad con la reivindicación 11. El registro local en un disco duro de un programa en forma de PES por lo tanto requiere que se tomen precauciones en la reproducción: control de los relojes locales y sincronización de los descodificadores de video y audio. El método propuesto aquí se esfuerza por emular los componentes de la transmisión de satélite de manera tal que sea capaz de operar los descodificadores de audio y video en modos los cuales son tan similares como sea posible a su manera nominal de operación. La ventaja principal de la invención es que propone un proceso de sincronización el cual es fácil de implementar, no requiere utilización de los PCR y evita malos funcionamientos los cuales generalmente se encuentran ante los datos de lectura de un disco duro. Las características y ventajas de la presente invención serán más evidentes a partir de la siguiente descripción dada a modo de ejemplo y con referencia a las figuras anexas, en donde: La figura 1 representa un diagrama simplificado de un descodificador satélite con disco duro.
La figura 2 representa la operación de escritura de los datos de audio y de video al disco. La figura 2b representa la operación de lectura de los datos de audio y de video del disco. La figura 3 representa los punteros de escritura y lectura en relación a los datos registrados. La figura 4 representa la manera de funcionamiento del descodificador de video para arrancar de acuerdo con la técnica anterior. La figura 5 representa las diversas etapas necesarias en la presentación de una imagen descodificada.
Manejo de los punteros.
Las figuras 2a y 2b representan diagramáticamente la manera de llevar a cabo el almacenamiento y desalmacenamiento de los puntos de referencia de audio y de video en el disco duro. La figura 2a corresponde a la operación de escritura al disco duro. Los PES de video y de audio se registran en el disco y el mismo bloque de 128 kB (bloques de dirección de 256) [o Iba, el acrónimo que se establece para direccionamiento de bloque lógico] de 512 octetos) . El video ocupa 112 kB y el sonido ocupa una parte de los 16 kB restantes, proporcionalmente a la tasa de bitios de audio. El valor q corresponde a la cantidad de audio el cual llega mientras se colocan en memoria intermedia 112 kB de video, se escribe en el inicio del bloque de 128 kB y por lo tanto corresponde a la cantidad de audio almacenada. Al registrar un bloque, la relación de tasas de bitios de video/audio se satisface. La figura 2b corresponde a la operación de lectura del disco duro, los 112 kB de video se leen de manera que forman la corriente PES de video al mismo tiempo que la cantidad q kB de la información de audio (parte variable) , de manera que forma la corriente PES de audio . La figura 3 representa una sucesión de bloques de datos, cada uno de 128 kB, de manera que son almacenados en el disco duro y la posición de la lectura y escritura de los punteros para este disco duro. La flecha doble con el número de referencia 9 representa el retardo entre el puntero de escritura (flecha vertical a la derecha) y el puntero de lectura (flecha vertical a la izquierda) . La doble flecha con referencia 10 representa una separación estipulada, aqui en 5 bloques, la cual es la separación, predefinida en la salida, entre los punteros y la flecha doble a la que se le da el número de referencia 11 que representa una separación de congelamiento, es decir, la separación mínima que provoca congelamiento de imagen. La idea aquí es asegurar, vía software, una separación mínima, por ejemplo de un bloque de 128 kB entre los punteros. Cuando se obtiene esto, la descodificación temporalmente se suspende al detener la lectura de la memoria del descodificador, por lo que se provoca que la imagen en la pantalla se congele, hasta que un bloque por lo menos separa la escritura y la lectura. Uno no desea, de hecho, restablecer la separación inicial puesto que los datos, en cualquier caso, se han perdido y no hay beneficio en mantener la imagen congelada con el único objetivo de volver a establecer el retardo inicial.
Sincronización de audio y video.
Dado el modo "entrelazado" de almacenamiento de los datos de audio y de video, la reproducción de los dos componentes del programa necesariamente se realiza de manera simultánea. Como una primera aproximación, se puede decir que el primer octeto de video y el primer octeto de audio alcanza sus descodificadores respectivos al mismo tiempo. Esto no significa que se diga que se descodificarán al mismo tiempo, al considerar el tiempo de tránsito del video a través de su descodificador. Se sabe que, con el fin de evitar el uso de una memoria intermedia de audio de gran capacidad, el audio se retarda en fase desde el momento de codificación. Por lo tanto, cuando se da la reproducción, en el modo estándar (transmisión directa) el audio está en fase con el video. Este retardo se determina en el codificador y es dependiente de la tasa de bitios de video. Cuando los datos se registran en el disco duro y debido a que ya no se transmiten a los descodificadores de audio y de video con esta tasa de bitios de video, reaparece un desplazamiento de fase entre el audio y el video. La manera de operación del descodificador de video en el inicio, en el caso general, está representado en la figura 4 con la ayuda de un diagrama de flujo. Este inicio se lleva a cabo como sigue: El procedimiento de descodificación, etapa 12, recibe la corriente de datos de manera que extrae, entre otras cosas, los encabezados . La etapa 13 lleva a cabo un rizo hasta que se detecta el primer encabezador de secuencia. Cuando tal es el caso, la etapa 14 simplemente consiste en la lectura del encabezador de imagen el cual sigue a este encabezador de secuencia. Si el punto de referencia PTS es utilizable, se lleva a cabo una verificación en la etapa 15, el punto de referencia DTS después se deduce durante la etapa 16. La etapa 17 consiste de un ciclo que comparte DTS con el reloj local LSTC. La salida de ciclo corresponde con igualdad y, al recibir la siguiente señal de sincronización (VSYNC) , se realiza una prueba de paridad durante una etapa 18 activando el descodificador de la imagen, etapa 19, ante la detección de la paridad correcta. Si no es utilizable el punto de referencia PTS, una etapa 20 consiste en llenar la memoria intermedia del descodificador. La etapa 21 verifica el nivel de llenado de esta memoria intermedia. Cuando se alcance el nivel mínimo requerido para descodificación y al recibir la siguiente señal de sincronización, se realiza una prueba de paridad, etapa 18. La descodificación de la etapa 19 de imagen se lleva a cabo ante la detección de la paridad correcta. La descodificación de una corriente PES de video por lo tanto comienza bajo varias condiciones. En primer lugar, el descodificador no es capaz de iniciar la corriente hasta que se encuentra una secuencia de arranque o inicio, etapa 13. Por lo tanto, identifica el primer encabezador de secuencia (SEQ) el cual constituye el punto de entrada de la corriente. Después los datos se acumulan en la memoria intermedia del descodificador a un tiempo que corresponde a la tasa de bitios de la transmisión.
Después del encabezador de secuencia, la imagen de encabezador (picture_header) se recibe por el descodificador, etapa 14. El punto de referencia en relación a un nivel de memoria intermedia mínima necesaria para el inicio del descodificador de esta primera imagen está en este encabezador.
Una vez que este nivel se alcance en la memoria intermedia (etapa 21) , y por lo tanto después de cierto tipo en relación a la tasa de bitios de video, el descodificador verifica la paridad correcta (etapa 18) de la señal de sincronización vertical (VSYNC) de manera que ordena la descodificación (etapa 19) . En el caso en donde VBV_delay no está disponible en la secuencia, es el punto de referencia PTS (estampa de tiempo de presentación) el cual fija el inicio de la descodificación. respecto al inicio, las diferencias principales entre la recepción directa (es decir sin que involucre el almacenamiento en disco) y la reproducción nuevamente de los datos del disco duro son: - la velocidad de bitios de lectura la cual se puede ver como infinita con respecto al disco, la ausencia de un reloj local (reloj de tiempo de sistema local LSTC) sincronizado para el punto de referencia PCR (Programa de reloj de referencia) . En virtud de la elevada velocidad de bitios de video la cual es posible durante la presentación de la memoria intermedia a partir del disco duro durante el inicio de una secuencia, la descodificación de la primera imagen se producirá más pronto que para la recepción directa, lo que provoca un desplazamiento de fase entre el audio y el video. La sincronización del audio asociado con el video, tal como se implementa en la invención como se explica en lo siguiente, hace posible evitar tal desplazamiento de fase. El LSTC normalmente tiene un papel principal en el control de la corriente y en la sincronización del audio con el video. El control de la corriente no es un problema cuando los datos que se originan desde el disco puesto que la transmisión se detiene tan pronto como las memorias intermedias estén llenas . Por lo tanto, no hay riesgo de pérdida de datos. Por otra parte, aún es necesario un reloj de referencia de manera que permite la sincronización del audio con el video. La utilización de un reloj STC virtual (VSTC) regenerada a partir de los puntos de referencia PTS del video permite esta sincronización. El STC virtual se debe inicializar tan pronto como sea posible por el procedimiento de video de manera que permita al audio sincronizarse a sí misma con este reloj . Los puntos de referencia necesarios para su inicialización son: El valor del contador STC local (LSTC) . El PTS de la primera imagen. El VBV_delay de la primera imagen (si está presente) . La referencia de tiempo de la primera imagen (TimeRef) utilizada para reordenamiento de las imágenes. La paridad de la sincronización vertical VSYNC. Dada la alta velocidad de bitios disponibles en la lectura del disco, estas claves las cuales se obtienen al adquirir el primer encabezador de imagen (encabezador PIC) están disponibles muy rápidamente. La figura 5 representa, diagramaticamente, las diversas etapas en el tiempo las cuales se requieren para la presentación de una imagen descodificada. El extremo superior representa la sucesión de datos los cuales han sido almacenados en el disco y los cuales ahora se van a leer. Esta banda se corta en períodos de marcos . A continuación, se adoptará la siguiente notación: Tpic para representar una flecha (letras minúsculas después de la T) . TVBV para representar una duración (letras en mayúsculas) . Después de la detección del primer encabezador de imagen después del encabezador de secuencia, la lectura y registro de los bloques se lleva a cabo en la memoria intermedia del descodificador durante el tiempo TVBV que corresponde a VBV_delay. Después de este tiempo, se realiza una verificación de paridad. Si la señal de sincronización es de paridad opuesta a la de la imagen la cual está lista para ser descodificada, el caso en la figura, se agrega una duración igual a TVSYNC (20 ms) para determinar el instante de descodificación. Este instante se denomina Tdec. Si la duración real de la descodificación es mayor que un período de marco (el caso en la figura en la cual la duración está representada por un rectángulo que contiene la instrucción "descodificar"), la duración de la descodificación tomando en consideración TDEC se elige igual a un número entero de duraciones de TVSYNC, el cual es inmediatamente mayor que el de la duración real. Si se copia Tpres es el instante real de exhibición de la imagen descodificada, la separación entre Tpres y Tdec es igual a TDEC + TimeRef x TVSYNC, TimeRef es la referencia de tiempo que sirve en el reordenamiento de las imágenes .
Tan pronto como es posible, la descodificación de la imagen, instante Tdec, comienza en la primera sincronización VSYNC de la paridad correcta la cual sigue el instante en el cual el nivel de la memoria intermedia ha alcanzado el nivel que corresponde al retardo VBV_delay en la velocidad de bitios nominal. Aquí nuevamente, una velocidad de bitios elevada en la lectura del disco significa que el tiempo de llenado del descodificador intermedio es pequeño y mucho menor que el de VBV_delay. Esta velocidad de bitios puede ser fácilmente 20 veces mayor que la de la transmisión por satélite. Para proporcionar • alguna clase de idea, el llenado de la memoria intermedia del descodificador de capacidad de 1.8 Mbit, con una velocidad de bitios de transmisión por satélite de 4 Mbit/s, requiere 0.45 s.
Este retardo se reduce a 0.03 s cuando el llenado se lleva a cabo desde el disco duro. Uno por lo tanto sería capaz de comenzar la descodificación del video más pronto, sin necesidad de esperar la duración de VBV_delay. Sin embargo, el audio y el video deben permanecer sincronizados. Puesto que la descodificación del audio en sí misma no se puede llevar hacia adelante de la misma manera, el audio debe retrasarse detrás del video. Tal situación es deseable puesto que demanda que los datos de audio sean ignorados rápidamente tan pronto como son captados . Para resolver este inconveniente y por lo tanto compensar la alta velocidad de bitios ofrecida por el disco, se impone deliberadamente un retardo denominado TVBV en el video. Este retardo hace posible simular el VBV_delay original .
TVBV = VBV_delay Si el punto de referencia VBV_deláy no está disponible en la corriente, se puede sustituir, en la fórmula, con el tamaño del descodificador intermedio (std_buffer) : TVBV = stdJouffer/BitRatSat) - stdJouffer/BitRateDisk) Esta duración depende de la velocidad de bitios de video (velocidad de bitios de transmisión de satélite BitRateSat) y la tasa de bitios del disco (BitRateDisk) . Puesto que la velocidad de bitios del disco es mucho mayor que la del satélite, se puede realizar la siguiente aproximación : TVBV = stdJouffer/BitRateSat.
Se calcula el valor BitRateSat mientras se escribe. Esto es debido a que el número de octetos escritos durante la unidad de tiempo es un valor conocido. El tamaño de la memoria generalmente es de 1.8 Mbits .
Una vez que ha transcurrido este retardo, puede comenzar la descodificación. Sin embargo, en ciertas instalaciones, la adición de 20 ms de retardo a su vez puede ser necesario con el fin de esperar por la paridad correcta de la sincronización vertical . Puesto que es preferible garantizar que el audio se inicie sin que presente retardo en relación al video en vez del inverso, se introduce por omisión un retardo de 20 ms (TVSYNC) el cual permite este reajuste de fases con la sincronización vertical (VSY?C) . La fecha de inicio de la descodificación (Tdec) en relación a la fecha de detección de la primera imagen (Tpic) entonces es : Tdec = Tpic + TVBV + TVSY?C Al conocer el instante de inicio de la descodificación (Tdec) , el instante de presentación (Tpres) depende de la referencia de tiempo de la imagen (TimeRef) y del retardo necesario para su descodificación (TDEC) : Tpres = Tdec + TimeRef * 40 ms + TDEC Tdec es dependiente de la implementación del descodificador (típicamente 20 ms ó 40 ms) . En la aplicación, el tiempo de implementación es de 40 ms . Al sustituir Tdec por el valor calculado antes: Tpres = Tpic + TVBV + TVSYNC + TimeRef * 40 ms + TDEC La fecha Tpic, la cual es el valor del reloj local LSTC en el momento exacto en el que se detecta la primera imagen, no necesariamente es un valor conocido. Esto es debido, por ejemplo, en nuestro sistema a que la implementación del reloj LSTC permite que su valor sea muestreado sólo cada 20 ms . Por lo tanto, es aconsejable sustituirlo con la siguiente fórmula en la cual LSTCpic representa el valor del reloj LSTC disponible (muestreado en la sincronización vertical previa) en el momento en el que se detecta la primera imagen: Tpic = LSTCpic y Tpres = LSTCpic + TVBV + TVSYNC + TimeRef * 40 ms + TDEC Ahora se calcula un valor de desplazamiento, que corresponde a la separación entre el instante real de presentación de la imagen, Tpres, y el instante de presentación deseado por el codificador, PTS . Este instante PTS únicamente es de importancia con la condición de que el reloj del descodificador se halla inicializado y sincronizado PCR. Aquí, este valor PTS se utiliza no sólo para definir un tiempo de presentación en el absoluto, sino también para permitir que se sincronicen los instantes de audio y de video de descodificación (mismos PTS) . Por lo tanto, el desplazamiento es la corrección de STCO (Sistema de desplazamiento de reloj de tiempo) realizado sobre el reloj local de manera que el instante de presentación de la imagen, Tpres, definido en base en este reloj local, corresponde con la etiqueta PTS: Tpres + STCO = PTS STCO = PTS - TVBV - TVSYNC (TimeRef x 40 ms) - TDEC - LSTCpic Por lo tanto, hemos definido un reloj virtual VSTC de manera que : VSTC = LSTC + STCO Este reloj virtual sirve como referencia para la sincronización del audio. Cuando el valor de VSTC es igual a PTS, la presentación de audio se puede llevar a cabo y por lo tanto estará en fase con la presentación de video. El propósito de estos cálculos es pronosticar el instante efectivo de presentación del video en relación a una imagen (tiempo LSTC, cualquier múltiplo de 20 ms) de manera que se calcula el desplazamiento con el valor teórico PTS en relación al video para esta imagen. Este desplazamiento después se utiliza para definir el instante efectivo de presentación de los datos de audio . El audio PTS también se puede utilizar para inicializar el VSTC y, en este caso, el audio sería quien lleve la pauta o master. Esta solución no se adopta puesto que la frecuencia de presencia de los PTS en el marco de audio es baja. Se puede observar que, si no hay discontinuidad en el procedimiento de descodificación, el video descodificado y VSTC permanecen sincronizados . Posteriormente se puede verificar que VSTC = PTS en la presentación de cada imagen. Dos tipos de imponderables pueden alterar el procedimiento de descodificación de video: - alteraciones relacionadas con la corriente leída fuera del disco lo cual puede dar lugar a retardos en la presentación de ciertas imágenes o además saltos hacia adelante después de la reinicialización del descodificador y seguido por pérdida de datos . - la ejecución de "modos de truco" solicitados para la aplicación (el término utilizado en el estándar y que corresponde a los modos especiales de operación tales como congelamiento de cuadro, etc.) durante los cuales el LSTC ya no tiene significado.
En todos los casos, es aconsejable reinicializar el VSTC como en el inicio o al ahorrar un valor de recurso de emergencia (en el caso de una pausa) . El desplazamiento debe ser reactualizado regularmente (deslizamiento del reloj LSTC en relación a PTS el cual se _> __ sincroniza con el PCR) . El período de imagen puede tomarse como un período de regeneración. El inicio de la descodificación del audio es más inmediato que el de video. Es suficiente tomar en consideración VSTC con el fin de saber en qué momento iniciar. Por supuesto, es necesario esperar a que se inicialice VSTC por el video. En la medida en que uno esté seguro de que VSTC permanece sincronizado adecuadamente con la descodificación del video, la sincronización del audio con el video se lleva a cabo de manera completamente natural al controlar el mismo para el VSTC. Sin embargo, puede suceder que el descodificador de audio no esté sincronizado con el reloj de referencia de 27 MHz el cual regula al descodificador de video, sino con un reloj independiente. En este caso, el descodificador de audio puede ser controlado hacia el VSTC.
Por supuesto, el descodificador MPEG y el disco duro se deben presentar integrados dentro de un descodificador de satélite. Estos elementos o uno de estos elementos puede formar parte muy fácilmente de un receptor de televisión digital que recibe los datos comprimidos . La corriente que entra se describe como una corriente de programa PS . También, sin apartarse del campo del campo de la invención, puede pertenecer a la corriente de transporte TS .

Claims (13)

REIVINDICACIONES
1. Un proceso para sincronizar un descodificador MPEG para la descodificación de datos comprimidos que se originan de un medio de grabación, estos datos consisten en paquetes de datos de audio y video PES (corriente elemental empacada) , el proceso está caracterizado porque comprende : una etapa de calcular un instante real de presentación Tpres del video de una imagen, éste instante se relaciona con un reloj local, LSTC, una etapa de calcular un desplazamiento STCO entre este instante calculado de presentación y la etiqueta PTS que corresponde al instante de presentación deseado por el codificador para el video de esta imagen, de manera que define un reloj virtual, VSTC = STCO + LSTC, una presentación del video y del audio que corresponde a esta imagen en las fechas PTS en "relación al reloj virtual VSTC.
2. El proceso como se describe en la reivindicación 1, caracterizado porque el tiempo de tránsito en el video a través de la memoria intermedia del descodificador de video se impone en un valor predeterminado TVBV.
3. El proceso como se describe en la reivindicación 2, caracterizado porque la determinación de TVBV es dependiente de la velocidad de bitios de grabación de los datos PES en el medio de grabación.
4. El proceso como se describe en la reivindicación 2, caracterizado porque la determinación de TVBV es dependiente de VBV_delay (VBV_retardo) .
5. El proceso como se describe en la reivindicación 1, caracterizado porque el desplazamiento es dependiente de la duración de descodificación de la imagen (TDEC), redondeado al número mayor de periodos de marco.
6. El proceso como se describe en la reivindicación 1, caracterizado porque el desplazamiento calculado se implementa por un período de marco.
7. El proceso como se describe en la reivindicación 2, caracterizado porque el desplazamiento STCO es igual a : STCO = PTS -TVBV - TVSYNC - (TimeRef x 40 ms) - TDEC - LSTCpic en donde: TVSYNC corresponde a un período de marco, TDEC corresponde a la duración de descodificación de la imagen redondeada al número mayor de períodos de marco, TimeRef representa la referencia temporal de imagen para el reordenamiento, LSTCpic se relaciona con el instante de detección de la primera imagen.
8. El proceso como se describe en la reivindicación 1, caracterizado porque el reloj virtual VSTC se vuelve a actualizar al inicio, cuando se ejecutan "modos de truco" o en la reinicialización del descodificador de video.
9. El proceso como se describe en la reivindicación 1, caracterizado porque el reloj virtual VSTC se vuelve a actualizar con cada imagen.
10. El proceso como se describe en la reivindicación 1, para leer datos en modo desplazado (desplazamiento de tiempo) , los datos son registrados en base en un puntero de escritura, los datos registrados son leídos en tiempo desplazado en base en el puntero de lectura, caracterizado porque la separación mínima es impuesta entre el puntero de lectura y de escritura y en donde, cuando se obtiene esta separación, se acciona el modo de congelamiento del descodificador.
11. El dispositivo para sincronizar un descodificador MPEG a una corriente MPEG registrada, los datos registrados consisten de paquetes de datos PES, caracterizado porque comprende un medio para calcular una desviación STCO que se va a aplicar al reloj local LSTC del descodificador de manera que define un reloj virtual VSTC, esta desviación es igual a la diferencia entre el instante de presentación Tpres del video de una imagen, calculado en la etiqueta LSTC, y el valor PTS de presentación de esta imagen que se origina desde el codificador y en donde la descodificación de los datos de audio y de video se llevan a cabo cuando este reloj virtual VSTC es igual al valor PTS correspondiente .
12. Un descodificador de satélite, caracterizado porque comprende un descodificador MPEG y un dispositivo de sincronización, como se describe en la reivindicación 11.
13. Un receptor de televisión, caracterizado porque comprende un descodificador MPEG y un dispositivo de sincronización, como se describe en la reivindicación 11.
MXPA00007798A 1999-08-13 2000-08-09 Proceso y dispositivo para sincronizar un descodificador mpeg. MXPA00007798A (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR9910466A FR2797549B1 (fr) 1999-08-13 1999-08-13 Procede et dispositif de synchronisation d'un decodeur mpeg

Publications (1)

Publication Number Publication Date
MXPA00007798A true MXPA00007798A (es) 2002-06-04

Family

ID=9549124

Family Applications (1)

Application Number Title Priority Date Filing Date
MXPA00007798A MXPA00007798A (es) 1999-08-13 2000-08-09 Proceso y dispositivo para sincronizar un descodificador mpeg.

Country Status (8)

Country Link
US (1) US6948185B1 (es)
EP (1) EP1076461A1 (es)
JP (1) JP4778608B2 (es)
KR (1) KR100649656B1 (es)
CN (1) CN100354965C (es)
FR (1) FR2797549B1 (es)
HU (1) HUP0003278A3 (es)
MX (1) MXPA00007798A (es)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7490344B2 (en) 2000-09-29 2009-02-10 Visible World, Inc. System and method for seamless switching
US6931071B2 (en) * 2001-08-31 2005-08-16 Stmicroelectronics, Inc. Apparatus and method for synchronizing video and audio MPEG streams in a video playback device
US6842802B2 (en) * 2001-11-30 2005-01-11 Aftg-Tg, L.L.C. Programmatic time-gap defect correction apparatus and method
DE10226030A1 (de) * 2002-06-12 2003-12-24 Bosch Gmbh Robert Verfahren zur Generierung eines Systemaktes einer Empfangseinrichtung und Empfangseinrichtung hierzu
KR100981693B1 (ko) * 2002-12-16 2010-09-13 코닌클리케 필립스 일렉트로닉스 엔.브이. 비디오 신호의 타임-베이스를 변경하는 시스템
KR20040096718A (ko) * 2003-05-10 2004-11-17 삼성전자주식회사 멀티미디어 데이터 재생장치, 오디오 데이터 수신방법 및오디오 데이터 구조
JP4459590B2 (ja) * 2003-10-10 2010-04-28 パナソニック株式会社 Dtvデータ処理装置
DE10355345A1 (de) * 2003-11-25 2005-06-23 Deutsche Thomson-Brandt Gmbh Verfahren und Vorrichtung zum Speichern oder Wiederfinden von definierten Positionen in einem Datenstrom
US8233540B2 (en) 2005-03-10 2012-07-31 Qualcomm Incorporated Method of time base reconstruction for discrete time labeled video
JP2007158461A (ja) * 2005-11-30 2007-06-21 Toshiba Corp 情報再生装置及び情報再生方法
US9679602B2 (en) 2006-06-14 2017-06-13 Seagate Technology Llc Disc drive circuitry swap
JP4793247B2 (ja) 2006-12-18 2011-10-12 株式会社日立製作所 記録装置、記録方法、再生装置及び再生方法
US7765315B2 (en) 2007-01-08 2010-07-27 Apple Inc. Time synchronization of multiple time-based data streams with independent clocks
US9305590B2 (en) 2007-10-16 2016-04-05 Seagate Technology Llc Prevent data storage device circuitry swap
CN101420622B (zh) * 2007-10-22 2010-07-14 北京永新同方数字电视技术有限公司 一种描述数字电视事件状态的标签电视系统及描述方法
FR2926694B1 (fr) * 2008-01-18 2010-04-16 Sagem Comm Decodeur de donnees video et procede de decodage de donnees video
US9819604B2 (en) * 2013-07-31 2017-11-14 Nvidia Corporation Real time network adaptive low latency transport stream muxing of audio/video streams for miracast
US9998634B2 (en) 2014-11-03 2018-06-12 Google Llc Video frame playback scheduling
KR20170068946A (ko) * 2015-12-10 2017-06-20 삼성전자주식회사 방송 수신 장치 및 방송 수신 장치의 제어 방법

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3575100B2 (ja) * 1994-11-14 2004-10-06 ソニー株式会社 データ送信/受信装置及び方法並びにデータ記録/再生装置及び方法
JP4297518B2 (ja) * 1995-03-06 2009-07-15 沖電気工業株式会社 音声・ビデオ復号装置
KR100209880B1 (ko) * 1995-10-30 1999-07-15 윤종용 Mpeg-2 영상복호화장치의 시스템클럭 복구장치
JPH09205618A (ja) * 1996-01-29 1997-08-05 Mitsubishi Electric Corp 動画像音声伸張再生装置および動画像音声同期制御器
JPH1056620A (ja) * 1996-02-08 1998-02-24 Matsushita Electric Ind Co Ltd テレビジョン受信機,記録再生装置,データ記録方法及びデータ再生方法
US6181383B1 (en) * 1996-05-29 2001-01-30 Sarnoff Corporation Method and apparatus for preserving synchronization of audio and video presentation when splicing transport streams
KR100247978B1 (ko) * 1997-08-08 2000-03-15 윤종용 픽쳐 디코딩 동기화 회로 및 그 방법
JPH11220695A (ja) * 1997-11-12 1999-08-10 Sony Corp 動画像データの復号装置及び復号方法
US6480667B1 (en) * 1997-12-23 2002-11-12 Intel Corporation Method of time shifting to simultaneously record and play a data stream
CN1138270C (zh) * 1998-06-05 2004-02-11 皇家菲利浦电子有限公司 信息信号在记录载体上的轨迹中的记录和重放
EP1034656A2 (en) * 1998-06-11 2000-09-13 Koninklijke Philips Electronics N.V. Trick play signal generation for a digital video recorder

Also Published As

Publication number Publication date
JP2001094943A (ja) 2001-04-06
CN1284718A (zh) 2001-02-21
FR2797549B1 (fr) 2001-09-21
EP1076461A1 (en) 2001-02-14
HUP0003278A2 (en) 2002-06-29
JP4778608B2 (ja) 2011-09-21
HU0003278D0 (en) 2000-08-11
CN100354965C (zh) 2007-12-12
US6948185B1 (en) 2005-09-20
KR20010021247A (ko) 2001-03-15
FR2797549A1 (fr) 2001-02-16
HUP0003278A3 (en) 2002-07-29
KR100649656B1 (ko) 2006-11-24

Similar Documents

Publication Publication Date Title
MXPA00007798A (es) Proceso y dispositivo para sincronizar un descodificador mpeg.
US5905768A (en) MPEG audio synchronization system using subframe skip and repeat
US5588029A (en) MPEG audio synchronization system using subframe skip and repeat
CA2432930C (en) Data stream control system for selectively storing selected data packets from incoming transport stream
US5619337A (en) MPEG transport encoding/decoding system for recording transport streams
KR100984638B1 (ko) 오디오와 비디오의 동기화 방법 및 수신기
US5903324A (en) Transport processor interface for a digital television system
JP2007102997A (ja) Mpeg情報信号変換システム
KR100981378B1 (ko) 비디오 데이터 및 보조 데이터의 판독-동기화를 위한 디바이스 및 방법, 및 이와 연관된 제품
JP2002359818A (ja) 再生画像伝送装置
CN101933332B (zh) 视频数据解码器和用于解码视频数据并与字幕显示同步的方法
KR100982890B1 (ko) 특정 모드를 구현하기 위한 비디오 데이터 전송 방법 및장치
JPH0730886A (ja) 画像および音声信号処理方法とその装置
EP1221815A2 (en) Transport stream multiplexing method, transport stream multiplexing apparatus, and storage and reproduction system
US8369354B2 (en) Method for synchronizing a transmission of applications data frames, corresponding sender and receiver devices and storage means
TW269092B (es)
JPH09135424A (ja) デジタルvtrの伝送ビットストリーム記録/再生装置及びその制御方法
AU767952B2 (en) Method for storing digital audio and video dataflow, storage device and receiver for implementing said method
JP3350365B2 (ja) 映像同期信号補正装置
KR100817248B1 (ko) Ieee 1394 버스로 전송되는 mpeg 기록된 데이터를판독하는 방법 및 장치
JP2002344890A (ja) データ記録再生装置
JPH11252058A (ja) 多重化装置及び方法
JPH09224243A (ja) 画像データ圧縮・伝送装置

Legal Events

Date Code Title Description
FG Grant or registration