MXPA04010330A - Aparato y metodo para la sincronizacion de corrientes de audio y video. - Google Patents

Aparato y metodo para la sincronizacion de corrientes de audio y video.

Info

Publication number
MXPA04010330A
MXPA04010330A MXPA04010330A MXPA04010330A MXPA04010330A MX PA04010330 A MXPA04010330 A MX PA04010330A MX PA04010330 A MXPA04010330 A MX PA04010330A MX PA04010330 A MXPA04010330 A MX PA04010330A MX PA04010330 A MXPA04010330 A MX PA04010330A
Authority
MX
Mexico
Prior art keywords
audio
video
pdf
access units
delay
Prior art date
Application number
MXPA04010330A
Other languages
English (en)
Inventor
Satish Mody Sachin
Original Assignee
Thomson Licensing Sa
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing Sa filed Critical Thomson Licensing Sa
Publication of MXPA04010330A publication Critical patent/MXPA04010330A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04JMULTIPLEX COMMUNICATION
    • H04J3/00Time-division multiplex systems
    • H04J3/02Details
    • H04J3/06Synchronising arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4305Synchronising client clock from received content stream, e.g. locking decoder clock with encoder clock, extraction of the PCR packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals

Abstract

Se describe un metodo y aparato para reducir los problemas de sincronizacion audiovisual (por ejemplo, problemas de "sincronizacion de borde") en corrientes de audio y video correspondientes al adaptar la distribucion estadistica de los errores (510) temporales para crear una nueva distribucion estadistica de errores (520) temporales. La nueva distribucion estadistica de errores (520) temporales esta esencialmente dentro de una ventana (410) de tolerancia de sincronizacion aceptable que es menos ofensivo para el televidente/oyente.

Description

APARATO Y MÉTODO PARA LA SINCRO IZACIÓN DE CORRIENTES DE AUDIO Y VIDEO REFERENCIA CRUZADA DE SOLICITUDES RELACIONADAS Esta solicitud de patente reclama el beneficio de la Solicitud Provisional de Estados Unidos número de serie 60/374269, presentada el 19 de abril de 2002, la cual se incorpora aquí como referencia .
CAMPO DE LA INVENCIÓN La invención se relaciona con el campo de sistemas de comunicación multimedia y más específicamente, a la reducción al mínimo de errores de sincronización de borde inducidos por redes de transporte de retardo variable.
ANTECEDENTES DE LA INVENCIÓN El problema de la "sincronización borde" es bien conocida. En breve, los errores temporales en la presentación de corrientes de audio y video por un dispositivo de presentación puede dar como resultado una condición por la cual la información de audio se presenta antes (adelantada) o después (retrasada) correspondiente a la información de video, lo que resulta por ejemplo, en una sincronización deficiente entre la representación de audio de una voz en la bocina y la representación de video de los labios del hablante.
Las técnicas del arte previo para resolver el problema llamado sincronización de borde son relativamente complejas y algunas veces pueden provocar la degradación en la información de audio y/o video. Por ejemplo, se conoce dejar caer cuadros de video de modo que se induzca un avance temporal en el video para corregir la señal de audio adelantada. Los errores de sincronización de borde se pueden provocar por muchas razones. Un problema particular es el uso de redes de retardo variable como la Internet y las redes de conmutación en paquetes. En tales redes, la información de audio y video es transportada como corrientes independientes y separadas. Durante el procesamiento de transporte previo a la introducción de estas corrientes en la red de retardo variable, un encabezado de estrato de transporte que contiene una marca de tiempo así como otros metadatos (por ejemplo, la velocidad de muestreo del codificador, el orden de los paquetes y sus semejantes) se agregan a ciertos o a todos los paquetes de transporte. Las marcas de tiempo para la información de audio y video típicamente se derivan de una fuente común, como un reloj en tiempo real. Desafortunadamente, conforme los paquetes de audio y video atraviesan la red de retardo variable, se imparten anomalías temporales, los paquetes se caen, el orden de los paquetes no se conserva y el tiempo de retardo del paquete varía debido a las condiciones de la red. El resultado de la red es un error de sincronización de borde dentro de las corrientes de audio y video recibidas que se pasan a través de la red de retardo variable.
BREVE DESCRIPCIÓN DE LA INVENCIÓN La invención comprende un método y aparato para reducir los problemas de sincronización de borde en corrientes de audio y video correspondientes al adaptar la distribución estadística de los errores temporales dentro de un intervalo de error considerado menos ofensivo o notorio para el oyente. Específicamente, el método de conformidad con una modalidad de la invención comprende: recibir unidades de acceso de video y unidades de acceso de audio correspondientes, las unidades de acceso de audio y video correspondientes representan la información audiovisual que tiende a exhibir el error de sincronización de borde descrito por una primera función de distribución de probabilidad (pdf); y retardar temporalmente una de las unidades de acceso de audio y video recibidas por un factor de tiempo, las unidades de acceso retardadas y no retardadas correspondientes representan la información audiovisual que tiende a presentar un error de sincronización de borde descrito por una segunda pdf, la segunda pdf utiliza una porción más grande de una ventana de tolerancia de sincronización de borde que la primera pdf. En otra modalidad, un método para producir las corrientes de audio y video codificadas adaptadas para usarse en una red de retardo variable comprende codificar temporalmente la información de audio y video correspondientes para producir las corrientes de audio y video codificadas correspondientes, cada una de las corrientes de audio y video codificadas comprende una pluralidad de paquetes de audio y video respectivos que incluyen los paquetes de audio y video con marcas de tiempo, y adaptar por lo menos uno de los paquetes con marca de tiempo de video y los paquetes de marca de tiempo de audio por un factor de tiempo para reducir la probabilidad de un error de sincronización de borde de video atrasado . En otra modalidad, un estimador pdf de error de sincronización de borde se implementa en un receptor para calcular en forma dinámica la pdf. Con base en la pdf calculada, un tiempo de retardo de audio se calcula en términos de una función objetiva. El retardo calculado entonces se introduce en el lado del receptor.
BREVE DESCRIPCIÓN DE LOS DIBUJOS Las enseñanzas de la presente invención se podrán entender fácilmente al considerar la siguiente descripción detallada junto con los dibujos acompañantes, en los cuales: La Figura 1 ilustra un diagrama en bloque de alto nivel de un sistema de comunicación. La Figura 2 ilustra un diagrama en bloque de alto nivel de un controlador. La Figura 3 ¡lustra una representación gráfica de una función de densidad de probabilidad p(e) de un error de sincronización de borde y útil para entender la presente invención.
La Figura 4 ilustra una representación gráfica de una ventana de tolerancia de error de sincronización de borde (LSET) útil para entender la presente invención. La Figura 5 ¡lustra una representación gráfica de un desplazamiento pdf dentro de la ventana de tolerancia. La Figura 6 ilustra un método para procesar paquetes de audio/video de conformidad con la invención. La Figura 7 ¡lustra un diagrama en bloque de alto nivel de un sistema de comunicación de conformidad con una modalidad alternativa de la invención. La Figura 8 ilustra un diagrama en bloque de alto nivel de una modalidad de la invención en donde se implementa un estimador pdf en el extremo receptor. Para facilitar la comprensión, se han utilizado números de referencia idénticos, en donde fue posible para designar los elementos idénticos que son comunes en las Figuras.
DESCRIPCIÓN DETALLADA DE LA INVENCIÓN La invención será descrita dentro del contexto de una red de retardo variable, como la Internet, en donde la red de retardo variable tiende a impartir errores temporales en los paquetes de audio y/o video que atraviesan, de modo que dan como resultado tales errores de sincronización de borde. Sin embargo, la metodología de la presente invención se puede adaptar fácilmente en cualquier fuente de errores temporales. La invención opera en unidades de presentación de audio y/o video como cuadros de audio y video, las unidades de presentación pueden estar en paquetes para un transporte apropiado a través de la red, tal como una red de retardo variable. Además, aunque la definición estándar de comunicaciones de "sincronización de borde" se relaciona con la sincronización (o proceso de sincronización) de habla o canción para el video, de modo que los movimientos labiales del video parezcan coincidir con el sonido, para propósitos de la invención, la definición no se debe considerar como limitada. Más bien, el "error de borde" se relaciona con la sincronización de cualquier acción representada en el video a un rastreo de audio o corriente de bits, de modo que el sonido generado a propósito por la acción coincide apropiadamente con el video destinado a producir ese sonido. En otras palabras, la "sincronización de borde" para los propósitos de la presente invención, se refiere a la sincronización entre los sonidos representados por una señal de información de audio y el video correspondiente representados por la señal de información de video, a pesar de la materia correspondiente del audio y video. Por lo tanto, la referencia a "error de sincronización de borde" es general en su naturaleza y se debe considerar como cualquier clase de "error de sincronización temporal audiovisual". La Figura 1 ilustra un diagrama en bloque de alto nivel de un sistema de comunicaciones que incluye la presente invención. Específicamente, el sistema 100 de comunicaciones comprende una fuente 110 audiovisual, como un dispositivo de almacenamiento en masa, una cámara, un micrófono, un suministro de red u otra fuente de información audiovisual. La fuente 110 audiovisual proporciona la corriente V de video a un codificador 120V de video y una corriente A de audio correspondiente a un codificador 120A de audio, respectivamente. Los codificadores 120V y 120A, ilustrativamente forman una MPEG u otros codificadores de compresión, que codifican la corriente V de video y una corriente A de audio para producir, respectivamente, la corriente de video VE codificada y una corriente AE de audio codificada. Las corrientes VE de video y AE de audio codificadas se procesan por un procesador 130 de transporte de conformidad con el formato de transporte particular adecuado para la red 140 de retardo variable, ilustrativamente una Ethernet, ATM u otro codificador de corriente de transporte, que codifica las corrientes AE de audio y VE de video de conformidad con el formato de transporte particular adecuado para la red 140 de retardo variable. La corriente T de transporte se propagan por una red 140 de retardo variable, como la Internet, Intranet, ATM, Ethernet, LAN, WAN; una red de teléfono pública conmutada (PSTN), satélite u otra red a un destino en donde es recibida como una corriente T' de transporte. La corriente T' de transporte comprende la corriente T de transporte original que incluye cualquier retardo y otros errores introducidos por el transporte sobre la red 140 de retardo variable.
La corriente T' de transporte resultante es recibida por un procesador 150 de transporte, ilustrativamente una Ethernet, ATM y otro decodificador de corriente de transporte, que extrae de la corriente T' de transporte recibida una corriente VE' de video codificada y una corriente AE' de audio codificada correspondiente. Las corrientes de audio AE' y de video VE' codificadas comprenden las corrientes iniciales de video VE y audio AE codificadas que incluyen los errores, como errores temporales inducidos por el procesador 130 de transporte, la red 140 de retardo variable y/o un procesador 150 de transporte. Las corrientes de video VE' y de audio AE' recibidas se decodifican por un decodificador 160 para producir las corrientes de video V y de audio V resultantes. Las corrientes de video V y de audio A' resultantes se presentan por un dispositivo 170 de presentación, como una televisión o un dispositivo de despliegue 170V que tiene asociado un medio de presentación de audio como las bocinas 170A. La Figura 2 ilustra un diagrama en variable de un controlador apropiado para usarse en los sistemas y aparatos de conformidad con los principios de la presente invención. Específicamente, el controlador 200 de la Figura 2 se puede utilizar para implementar uno o más de los elementos funcionales antes con respecto a la Figura 1, así como los diferentes elementos funcionales descritos más adelante con respecto a las Figuras 7 y 8. El controlador 200 ejemplificativo de la Figura 2 comprende un procesador 230 así como una memoria 240 para almacenar diferentes programas 245. El procesador 230 coopera con la circuitería 220 convencional de soporte como los suministros de energía, circuitos de reloj, memoria caché y sus semejantes, así como circuitos que cooperan para ejecutar la rutina del software almacenada en la memoria 240. Como tal, se contempla que algunos de los pasos del proceso descritos aquí como procesos de software se pueden implementar dentro del hardware, por ejemplo, como circuitería que coopera con el procesador 230 para llevar a cabo varios pasos. El controlador 200 también contiene circuitería 210 de entrada/salida (10) que forma una interfaz entre los diferentes elementos funcionales que se comunican con un elemento funcional que incluye al controlador 200. Aunque el controlador 200 de la Figura 2 se ilustra como una computadora de propósitos generales, que está programada para llevar a cabo algunas modificaciones temporales de las corrientes de audio y/o video de conformidad con la presente invención, la invención se pueden implementar en hardware por ejemplo, como un circuito integrado de aplicación específica (ASIC). Como tal, los pasos del proceso descritos aquí tienen la intención de ser interpretados ampliamente como llevados a cabo equivalentemente en software, hardware o una combinación de los mismos. El error de sincronización de borde (LSE) se puede definir de conformidad con la ecuación 1, que sigue: e=( -0-V,a- (Ecuación 1) En la ecuación 1, t y tvd son el tiempo de los cuadros de video y audio relacionados que llevan al dispositivo 170 de presentación en el lado receptor, respectivamente, y t y tve es el tiempo de los cuadros de audio y video que llegan a los codificadores de audio y video, respectivamente. La Figura 3 ilustra una representación gráfica de una función de densidad de probabilidad p(e) de un error de sincronización de borde e útil para entender la presente invención. Debido al retardo aleatorio introducido, por ejemplo, por una red 140 de retardo variable, el retardo entre un paquete de audio y su paquete de video correspondiente en el lado del receptor es una variable aleatoria. Esta variable aleatoria está confinada por su función de densidad de probabilidad (pdf), p(e), como una línea sólida 310 de la Figura 3. Específicamente, la representación gráfica de la Figura 3 ilustra un eje horizontal que define una relación temporal entre datos de video y los datos de audio correspondientes. Un tiempo cero se selecciona para representar un tiempo en el cual los datos de video representan el contenido que tiene asociados con el mismo los datos de audio sincronizado. Mientras que esta distribución se ilustra como una distribución Gaussiana, se pueden utilizar otras curvas pdf asimétricas o simétricas, dependiendo de la fuente de error particular modelada, así como el número de fuentes de error modeladas (es decir, se puede utilizar una curva pdf simétrica o asimétrica para múltiples fuentes de audio y video).
Conforme el tiempo aumenta de cero en la dirección positiva, los datos de audio retrasan con aumentos los datos de video (es decir, paquetes de audio se retrasan con aumentos con respecto a los paquetes de video correspondientes). Conforme el tiempo aumenta en la dirección negativa con respecto a cero, se dice que los datos de audio adelantan con aumentos los datos de video (es decir, paquetes de video se retrasan con aumentos con respecto a los paquetes de audio correspondientes). La Figura 4 ilustra una representación gráfica de una ventana 410 de tolerancia de error de sincronización de borde (LSET) útil para entender la presente invención. Específicamente, la ventana LSET se define por la función de la ecuación (2) que sigue, en donde a y b son los límites superior e inferior de la tolerancia de la ventana LSET.
(Ecuación 2). Los inventores han notado que las tolerancias de error asimétricas para los paquetes de audio y video y los problemas que surgen de los casos cuando se recibe un paquete de audio antes del paquete de video correspondiente. El intervalo típico de los valores varía, por ejemplo, (a,b) = (-20ms, 40ms). La Figura 5 ilustra una representación gráfica de un desplazamiento pdf dentro de una ventana de tolerancia.
Específicamente, la representación gráfica de la Figura 5 ilustra un eje horizontal que define una relación temporal entre los datos de video y los datos de audio correspondientes. Se selecciona un tiempo cero en la manera antes descrita con respecto a las Figuras 3 y 4. La ventana 410 de tolerancia de retardo representa la tolerancia de retardo o los errores temporales asociados con la sincronización de borde que no será objetable por el televidente. Se debe notar que la ventana 410 de tolerancia de retardo de la Figura 5 se extiende de -20 milisegundos (es decir, paquetes de audio que adelantan paquetes de video hasta por 20 milisegundos) hasta +40 milisegundos (es decir, paquetes de audio que retrasan paquetes de video por hasta 40 milisegundos). Se debe notar que los errores de sincronización de borde en donde la información de audio se adelanta la información de video tiende a ser más objetable (por ejemplo, más notoria y/o molesta para el televidente), que en donde la información de audio retrasa la información de video, por esto la asimetría en la ventana 410 de tolerancia de retardo de la Figura 5.
Con referencia a la Figura 5, la porción "de cola" izquierda de una curva 510 pdf cae dentro de una región 540 más allá del intervalo de ventana de tolerancia de retardo inferior. Se debe notar que la porción "de cola" derecha de la curva 510 pdf es esencialmente cero antes del extremo superior del intervalo de tolerancia de ventana superior. El intervalo de tolerancia de ventana de error se define como el intervalo en donde los errores temporales como los errores de sincronización de borde se consideran menos ofensivo. De este modo, los retardos que exceden, ya sea en forma positiva o negativa, el intervalo de tolerancia de retardo (es decir, retardos fuera de una ventana de tolerancia de error) comprenden los retardos que se consideran objetables o altamente objetables para el televidente normal. Una curva 520 pdf desplazada representa la curva 510 de distribución de probabilidad inicial desplazada en tiempo de modo que un área más grande debajo de la curva pdf está dentro de la ventana 410 de tolerancia de error. De este modo, la primera pdf o inicial ha sido desplazada en tiempo de modo que un área incrementada (de preferencia, un área máxima), debajo de la segunda pdf o final se incluye dentro de la ventana 410 de tolerancia de error. Este desplazamiento en el pdf es provocado por la adaptación de los parámetros de tiempo asociados con la información de audio y/o video, como las marcas de tiempo de presentación de las unidades de acceso de audio y/o video. De esta manera, cuando la información temporal de audio y/o video se adapta para efectuar tal desplazamiento en la pdf correspondiente, entonces la probabilidad de errores de sincronización de borde objetables se reduce al mínimo o por lo menos se reduce por una cantidad equiparable con la reducción pdf debajo del error de curva provocado por el desplazamiento. Por lo tanto, la solución óptima para la maximización del área debajo de la curva LSE dentro de la LSER es maximizar la función objetiva determinada como la ecuación 3 que sigue: = j''p(e-tayie = P(b-t0)-P(a-t0) (Ecuación 3) En la ecuación 3, p(e) es la pdf del LSE, P(e) es la función de distribución acumulativa y W(e) en la función de la ventana LSET definido en (2), respectivamente. El proceso de la optimización es maximizar el área encerrada por la curva pdf limitada por (a, b). Esto es equivalente al proceso de minimización del área "de cola" fuera de la ventana. El problema de optimización se puede resolver al tomar la derivada de J con respecto a t0 y resolver la ecuación 4 para t0, como sigue: (Ecuación 4) Se puede demostrar que la solución óptima de t0 para la pdf LSE Gaussiana simétrica como se muestra en la Figura 2, es el promedio de los límites superior e inferior de la ventana LSET: a + b (Ecuación 5) Para otra pdf LSE, el t0 óptimo puede tener un valor negativo o positivo, dependiendo de las ubicaciones geográficas relativas entre el pdf y la ventana de tolerancia de error. Un t0 positivo significa los retardos en los cuadros de audio y t0 negativo los retardos en los cuadros de video para desplazar el LSE y para maximizar la ecuación 4. La Figura 6 ilustra un método para procesar los paquetes de audio y/o video de conformidad con la invención. Específicamente, la Figura 6 ilustra un método para adaptar el cuadro de audio y/o video correspondiente o los paquetes de unidad de acceso, de modo que se reducen al mínimo los errores de sincronización de borde, y más en particular, los errores de sincronización de borde tipo audio adelantado. Dentro del contexto de la Figura 6, los errores de sincronización de borde se inducen por caja 605, una fuente de error que comprende una o más redes de retardo variable, un codificador, un procesador de transporte u otra fuente de error. En el paso 610, los errores temporales se producen por una fuente de error y están representados como una función de densidad de probabilidad (pdf). Por ejemplo, como se describe antes con respecto a la Figura 5, se muestra una pdf asociada con los errores temporales, es probable, que sea inducida por una red de retardo variable. La pdf comprende, en forma ilustrativa, una distribución de número aleatorio que tiene una forma Gaussiana (puede o no estar centrada en cero), en donde cero representa ningún error de sincronización de borde (es decir, la alineación temporal de los datos de audio y video).
En el paso 620, se muestra una ventana de tolerancia de error asociada con la pdf. Como se puede observar en la caja 615, la ventana de tolerancia de error se puede definir con respecto al error de sincronización de borde u otros errores. Como se observa en la Figura 5, una ventana de tolerancia de error asociada con los errores de sincronización de borde se define, ilustrativamente, como los retardos entre -20 milisegundos y +40 milisegundos. Esto es, un valor de tolerancia de retardo de audio asimétrico (con respecto al punto de tiempo cero) es provisto con las unidades de acceso de audio que adelantan las unidades de acceso de video correspondientes por hasta 20 milisegundos o los paquetes de video correspondientes retrasados por hasta 40 milisegundos se consideran tolerables. Otras ventanas de tolerancia de retardo se pueden definir, dependiendo de los factores asociados con un sistema de comunicaciones que utiliza la presente invención. En el paso 630, el método adapta los parámetros de tiempo como marcas de tiempo asociadas con por lo menos uno de los cuadros de video y audio que forman una corriente de contenido. Opcionalmente, una o ambas de las corrientes de video y audio no comprimidos se retrasan antes de la codificación. Esta adaptación se lleva a cabo en una forma que tiende a provocar un desplazamiento en la pdf asociada con la fuente de error desde una posición inicial (por ejemplo, centrado alrededor de cero) hacia una posición que utiliza máximamente la ventana de tolerancia de retardo. Se debe observar que en la caja 625 tal adaptación puede ocurrir durante un proceso de codificación, un proceso de transporte u otro proceso. Con referencia otra vez a la Figura 5, se muestra un desplazamiento pdf apropiado como uno que incrementa la cantidad de área debajo de la curva de distribución de probabilidad que está dentro de los límites establecidos por la ventana de tolerancia de retardo. La Figura 7 ilustra un diagrama en bloque de alto nivel de un sistema de comunicación de conformidad con la modalidad alternativa de la invención. Específicamente, el sistema 700 de comunicación de la Figura 7 es esencialmente el mismo que el sistema 100 de comunicación de la Figura 1. La diferencia principal es que un elemento 710A de retardo se utiliza para retrasar la corriente de audio A inicial antes de la codificación de esta corriente de audio por el codificador 120A de audio. El elemento 710A de retardo imparte un retardo de t0 con la corriente de audio para desplazar una pdf correspondiente de conformidad con el modelo de tolerancia de error de sincronización de borde (LSET) descrito antes. Se debe notar que el sistema 700 de comunicación de la Figura 7 se puede modificar para incluir un elemento 710V de retardo de video correspondiente (no mostrado) para retardar la señal V de fuente de video antes de codificarse por el codificador 120V de video. Se pueden utilizar uno o ambos de los elementos de retardo de video 710V o de audio 710A. En esta modalidad de la invención, en donde se utiliza la ventana 410 de tolerancia de error mostrada en la Figura 5, cada cuadro de audio o unidad de acceso se retarda por aproximadamente t0 milisegundos con respecto a cada cuadro de video antes de su codificación. Al desplazar cada cuadro de audio de regreso en tiempo por t0 milisegundos, la pdf asociada con los errores inducidos por la red de retardo variable se desplaza en la manera descrita antes con respecto a la Figura 5. Esto es, la pdf se desplaza hacia delante o hacia atrás, dependiendo del signo de t0 en tiempo desde una tendencia para tener un error de sincronización de borde del paquete de audio adelantado a una tendencia para que no haya error de sincronización de borde o un error de sincronización de borde de paquete de audio retardado (que es menos objetable que un error de sincronización de borde en paquete de audio adelantado). De esta manera, la probabilidad se incrementa, de modo que el retardo de paquete de audio se quedará dentro de los límites de tolerancia de error establecidos por la ventana 410 de tolerancia de error. En una modalidad de la invención, se supone una pdf Gaussiana simétrica tal como la mostrada en la Figura 2, las marcas de tiempo de los cuadros de audio y video se modifican para reducir al mínimo la falta de coincidencia en el tiempo. Para un codificador de audio de velocidad de bit constante, la marca de tiempo del video se modifica opcionalmente en una manera que tiende a incrementar la probabilidad de tal falta de coincidencia en tiempo que queda dentro del LSET en el lado del decodificador. En esta modalidad, ilustrativamente, las marcas de tiempo de video se redondean a decenas descendentes de milisegundos, como se indica por la ecuación 6, que sigue (en donde tve y tve son marcas de tiempo originales y redondeadas para un cuadro de video en milisegundos): ¡ 1 = /'.' -(¡ modlO) (Ecuación 6) La técnica anterior introduce un retardo distribuido uniformemente en paquetes de audio en el intervalo de 0 a 9 milisegundos. Se pueden seleccionar otros intervalos (por ejemplo, mod 15, mod 20, etc.) y los paquetes de audio también se pueden procesar de esta manera. En las modalidades antes descritas, las pdf del LSE son conocidas y se cree que son estables. Como resultado, un desplazamiento de tiempo predeterminado se lleva a cabo en todas las unidades de acceso de audio (o video), En una modalidad más avanzada, en donde la pdf LSE puede no conocerse o no es estable, la pdf LSE se monitorea y se calcula, y el desplazamiento de tiempo no es predeterminado. La Figura 8 ilustra el LSE en la modalidad en donde el calculador pdf se implementa en el lado del receptor. Específicamente, el aparato del lado del receptor como el ilustrado antes en las Figuras 1 y 7 se modifica para incluir un calculador 810 pdf LSE y un elemento 820A de retardo de audio. Aunque no se muestra, se puede utilizar un elemento 820V de retardo de video. El calculador 810 pdf LSE recibe las señales de video V y de audio A' y en respuesta a la información del modelo LSET, produce una señal t0 indicativa de retardo. En la modalidad de la Figura 8, la señal t0 indicativa de retardo se procesa por el elemento 820A para impartir una cantidad correspondiente de retardo a la corriente A' de audio decodif ¡cada, lo cual produce una corriente A" de audio retardada. El calculador 810 constantemente recolecta las marcas de tiempo de presentación de las unidades de acceso de audio y video. Cada LSE e se calcula con el uso de la ecuación 1. Todos los LSE se utilizan para formar la pdf del LSE. Con el uso del modelo LSET, el t0 de desplazamiento de tiempo óptimo se puede derivar al resolver la ecuación 4 para el t0 de desplazamiento de tiempo. El retardo en cualquiera del cuadro de audio (t0>0) o el cuadro de video (t0<0) se agrega para desplazar la pdf LSE. En una modalidad, el desplazamiento de tiempo óptico determinado se propaga desde el receptor a un codificador de tal modo que por lo menos una de las corrientes de audio y video a ser codificada y transmitida se retarda antes de su codificación, antes del procesamiento de transporte y/o antes del transporte hacia el receptor. Aunque varias modalidades que incorporan las enseñanzas de la presente invención han sido mostradas y descritas con detalle, las personas experimentadas en la técnica podrán reconocer que otras modalidades también incorporan estas enseñanzas.

Claims (20)

REIVINDICACIONES
1. Un método caracterizado porque comprende: recibir (610) unidades de acceso de video y unidades de acceso de audio correspondientes, las unidades de acceso de audio y video correspondientes representan la información audiovisual que tiende a exhibir el error de sincronización de borde temporal audiovisual descrito por una primera función de distribución de probabilidad (pdf) (510); y retardar temporalmente (630) una de las unidades de acceso de audio y video recibidas por una cantidad de retardo, las unidades de acceso retardadas y no retardadas correspondientes representan la información audiovisual que tiende a presentar un error de sincronización de temporal audiovisual descrito por una segunda pdf (520), la segunda pdf utiliza una porción más grande de una ventana (410) de tolerancia de sincronización de borde que la primera pdf.
2. El método de conformidad con la reivindicación 1, caracterizado porque: la primera pdf tiene asociada un valor de falta de coincidencia temporal negativo y un valor de falta de coincidencia temporal positivo, los valores de falta de coincidencia temporal tienen diferentes valores absolutos; y la cantidad de retardo se selecciona para reducir la diferencia en el valor absoluto de los valores (630) de falta de coincidencia temporal positivo y negativo.
3. El método de conformidad con la reivindicación 2, caracterizado porque el valor de falta de coincidencia temporal negativo es de aproximadamente 20 milisegundos, el valor de falta de coincidencia temporal positivo es de aproximadamente 40 milisegundos y las unidades de acceso de audio se retrasan por aproximadamente 10 milisegundos.
4. El método de conformidad con la reivindicación 1, caracterizado porque la cantidad de retardo se imparte antes de una codificación de las corrientes de audio y video que produce las unidades (710) de acceso de audio y video.
5. El método de conformidad con la reivindicación 1, caracterizado porque la cantidad de retardo se imparte durante una codificación de las corriente de audio y video que produce las unidades de acceso de audio y video.
6. El método de conformidad con la reivindicación 1, caracterizado porque además comprende: adaptar (810, 820) la cantidad de retardo en respuesta a los cambios en la primera pdf.
7. El método de conformidad con la reivindicación 6, caracterizado porque los cambios se determinan por examinar las marcas de tiempo de presentación de las unidades de acceso de audio y video en el receptor.
8. El método de conformidad con la reivindicación 1, caracterizado porque además comprende: adaptar una cantidad de retardo en respuesta a los cambios en una fuente inductora de error de sincronización temporal audiovisual.
9. El método de conformidad con la reivindicación 8, caracterizado porque la fuente inductora de error de sincronización temporal audiovisual comprende una red (140) de retardo variable.
10. Un método para producir corrientes de audio y video correspondientes codificadas, caracterizado porque comprende: codificar (120) temporalmente la información de audio y video correspondientes para producir las corrientes de audio y video codificadas que comprenden las unidades de acceso de audio y video respectivas; y retardar (710) temporalmente una de las corrientes de audio y video codificadas por una cantidad de retardo correspondiente a un modelo de tolerancia de error de sincronización.
11. El método de conformidad con la reivindicación 10, caracterizado porque el paso de retardar temporalmente comprende retardar una de las corrientes de audio y video antes de su codificación .
12. El método de conformidad con la reivindicación 10, caracterizado porque las corrientes de audio y video codificadas comprenden una pluralidad de unidades de acceso de audio y video respectivas, y el paso de retardar temporalmente comprende adaptar marcas de tiempo asociadas con por lo menos una de las unidades de acceso de audio y video por la cantidad de retardo.
13. El método de conformidad con la reivindicación 10, caracterizado porque las marcas de tiempo asociadas con una de las corrientes de audio y video codificadas se redondean por una cantidad predeterminada.
14. El método de conformidad con la reivindicación 13, caracterizado porque las marcas de tiempo de la corriente de video se calculan al reducir cada marca de tiempo de video por la marca de tiempo de corriente de video respectiva según procesada por una operación de módulo.
15. El método de conformidad con la reivindicación 10, caracterizado porque la cantidad de retardo temporal se adapta en respuesta a los cambios en la fuente productora del error de sincronización temporal audiovisual.
16. Un aparato caracterizado porque comprende: un elemento (710) de retraso para impartir un retardo temporal con por lo menos una señal de audio y una señal de video correspondiente en respuesta a un modelo de tolerancia de error; y un codificador (120) para codificar las señales de audio y video para producir las corrientes de audio y video codificadas.
17. El aparato de conformidad con la reivindicación 16, caracterizado porque: el modelo de tolerancia de error define una ventana (410) de tolerancia de sincronización; y el retardo temporal provoca una función de distribución de probabilidad (pdf) (310) que describe el error de sincronización entre la señal de audio y la señal de video correspondiente para ser desplazada hacia una correspondencia más favorable con la ventana (410) de tolerancia de sincronización.
18. El aparato de conformidad con la reivindicación 17, caracterizado porque la ventana (410) de tolerancia tiene asociado un valor de falta de coincidencia temporal negativo y un valor de falta de coincidencia temporal positivo, los valores de falta de coincidencia temporal tienen diferentes valores absolutos, la pdf tiene valores de falta de coincidencia temporal positivo y negativo respectivos que se desplazan hacia la alineación con los valores de falta de coincidencia temporal de la ventana de tolerancia de sincronización.
19. Un medio legible por computadora que tiene instrucciones ejecutables por computadora para llevar a cabo los pasos de: recibir (610) unidades de acceso de video y unidades de acceso de audio correspondientes, las unidades de acceso de audio y video correspondientes representan la información audiovisual que tienden a exhibir el error de sincronización de borde temporal audiovisual descrito por una primera función de distribución de probabilidad (pdf) (510); y retardar temporalmente (630) una de las unidades de acceso de audio y video recibidas por una cantidad de retardo, las unidades de acceso retardadas y no retardadas correspondientes representan la información audiovisual que tiende a presentar un error de sincronización de temporal audiovisual descrito por una segunda pdf (520), la segunda pdf utiliza una porción más grande de una ventana (410) de tolerancia de sincronización de borde que la primera pdf.
20. El medio legible por computadora de conformidad con la reivindicación 19, caracterizado porque los pasos también com prenden : impartir la cantidad de retardo antes de codificar las corrientes de audio y video que producen las unidades de acceso de audio y video.
MXPA04010330A 2002-04-19 2003-04-15 Aparato y metodo para la sincronizacion de corrientes de audio y video. MXPA04010330A (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US37426902P 2002-04-19 2002-04-19
US10/340,477 US6956871B2 (en) 2002-04-19 2003-01-10 Apparatus and method for synchronization of audio and video streams
PCT/US2003/011630 WO2003090443A2 (en) 2002-04-19 2003-04-15 Apparatus and method for synchronization of audio and video streams

Publications (1)

Publication Number Publication Date
MXPA04010330A true MXPA04010330A (es) 2005-02-03

Family

ID=29218754

Family Applications (1)

Application Number Title Priority Date Filing Date
MXPA04010330A MXPA04010330A (es) 2002-04-19 2003-04-15 Aparato y metodo para la sincronizacion de corrientes de audio y video.

Country Status (10)

Country Link
US (1) US6956871B2 (es)
EP (1) EP1497937B1 (es)
JP (1) JP4472360B2 (es)
KR (1) KR100968928B1 (es)
CN (1) CN1745526B (es)
AU (1) AU2003221949A1 (es)
BR (2) BRPI0304532B1 (es)
MX (1) MXPA04010330A (es)
MY (1) MY136919A (es)
WO (1) WO2003090443A2 (es)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7120168B2 (en) * 2001-11-20 2006-10-10 Sony Corporation System and method for effectively performing an audio/video synchronization procedure
US8133115B2 (en) 2003-10-22 2012-03-13 Sony Computer Entertainment America Llc System and method for recording and displaying a graphical path in a video game
JP3856792B2 (ja) * 2004-01-16 2006-12-13 松下電器産業株式会社 信号処理装置
DE102004017215A1 (de) * 2004-04-05 2005-10-20 Sennheiser Electronic Audiovisuelles System
US7333150B2 (en) * 2004-05-14 2008-02-19 Pixel Instruments Corporation Method, system, and program product for eliminating error contribution from production switchers with internal DVEs
US7471337B2 (en) * 2004-06-09 2008-12-30 Lsi Corporation Method of audio-video synchronization
US7400653B2 (en) * 2004-06-18 2008-07-15 Dolby Laboratories Licensing Corporation Maintaining synchronization of streaming audio and video using internet protocol
US20060071933A1 (en) 2004-10-06 2006-04-06 Sony Computer Entertainment Inc. Application binary interface for multi-pass shaders
US7636126B2 (en) * 2005-06-22 2009-12-22 Sony Computer Entertainment Inc. Delay matching in audio/video systems
US20070067472A1 (en) * 2005-09-20 2007-03-22 Lsi Logic Corporation Accurate and error resilient time stamping method and/or apparatus for the audio-video interleaved (AVI) format
CN100442858C (zh) * 2005-10-11 2008-12-10 华为技术有限公司 分组网络中多媒体实时传输的唇同步方法及其装置
US7822073B2 (en) * 2005-11-03 2010-10-26 George Mason Intellectual Properties, Inc. Packet flow side channel
DK1801786T3 (en) * 2005-12-20 2015-03-16 Oticon As An audio system with different time delay and a method of processing audio signals
US7965859B2 (en) 2006-05-04 2011-06-21 Sony Computer Entertainment Inc. Lighting control of a user environment via a display device
US7880746B2 (en) 2006-05-04 2011-02-01 Sony Computer Entertainment Inc. Bandwidth management through lighting control of a user environment via a display device
US20080043144A1 (en) * 2006-08-21 2008-02-21 International Business Machines Corporation Multimodal identification and tracking of speakers in video
US7953118B2 (en) * 2006-12-08 2011-05-31 Microsoft Corporation Synchronizing media streams across multiple devices
US20080147728A1 (en) * 2006-12-15 2008-06-19 Tal Reichert Exposure-based scheduling
JP4948147B2 (ja) 2006-12-15 2012-06-06 富士通株式会社 複合コンテンツファイルの編集方法および装置
US20080148327A1 (en) * 2006-12-18 2008-06-19 General Instrument Corporation Method and Apparatus for Providing Adaptive Trick Play Control of Streaming Digital Video
CN101212690B (zh) * 2006-12-26 2011-04-20 中兴通讯股份有限公司 多媒体视音频流唇音同步的调测方法
KR20090015455A (ko) * 2007-08-08 2009-02-12 삼성전자주식회사 오디오 신호 및 비디오 신호를 상호 의존적으로 제어하는방법과 그 장치
US8400566B2 (en) 2008-08-21 2013-03-19 Dolby Laboratories Licensing Corporation Feature optimization and reliability for audio and video signature generation and detection
US8731370B2 (en) * 2009-01-12 2014-05-20 At&T Intellectual Property I, L.P. Method and device for transmitting audio and video for playback
ATE540529T1 (de) * 2009-11-03 2012-01-15 Tektronix Int Sales Gmbh Verfahren und vorrichtung zum messen der verzögerung innerhalb eines komprimierten digitalen stroms
US9819840B2 (en) * 2010-01-11 2017-11-14 Bryan Nunes Audio device that extracts the audio of a multimedia stream and serves the audio on a network while the video is displayed
US10786736B2 (en) 2010-05-11 2020-09-29 Sony Interactive Entertainment LLC Placement of user information in a game space
US8878894B2 (en) 2010-09-15 2014-11-04 Hewlett-Packard Development Company, L.P. Estimating video cross-talk
US8988489B2 (en) 2010-09-15 2015-03-24 Hewlett-Packard Development Company, L. P. Determining a synchronization relationship
US9565426B2 (en) 2010-11-12 2017-02-07 At&T Intellectual Property I, L.P. Lip sync error detection and correction
US9014170B2 (en) * 2011-02-11 2015-04-21 Interdigital Patent Holdings, Inc. Method and apparatus for synchronizing mobile station media flows during a collaborative session
US9342817B2 (en) 2011-07-07 2016-05-17 Sony Interactive Entertainment LLC Auto-creating groups for sharing photos
US9525900B2 (en) 2011-09-15 2016-12-20 Google Inc. Video management system
US9516262B2 (en) * 2012-05-07 2016-12-06 Comigo Ltd. System and methods for managing telephonic communications
CN103475906B (zh) * 2012-06-08 2016-08-10 华为技术有限公司 用于多媒体流的测量方法和测量装置
CN103581604A (zh) * 2012-08-01 2014-02-12 希姆通信息技术(上海)有限公司 视频通话装置及方法
US10158927B1 (en) * 2012-09-05 2018-12-18 Google Llc Systems and methods for detecting audio-video synchronization using timestamps
CN105704506A (zh) * 2016-01-19 2016-06-22 北京流金岁月文化传播股份有限公司 一种解决视音频编码唇音同步的装置和方法
US11871068B1 (en) * 2019-12-12 2024-01-09 Amazon Technologies, Inc. Techniques for detecting non-synchronization between audio and video
CN112770165B (zh) * 2020-12-28 2022-11-18 杭州电子科技大学 一种音视频流分布式同步方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5467139A (en) * 1993-09-30 1995-11-14 Thomson Consumer Electronics, Inc. Muting apparatus for a compressed audio/video signal receiver
US5559999A (en) * 1994-09-09 1996-09-24 Lsi Logic Corporation MPEG decoding system including tag list for associating presentation time stamps with encoded data units
US5818514A (en) * 1994-12-01 1998-10-06 Lucent Technologies Inc. Video conferencing system and method for providing enhanced interactive communication
US5588029A (en) * 1995-01-20 1996-12-24 Lsi Logic Corporation MPEG audio synchronization system using subframe skip and repeat
US5543853A (en) * 1995-01-19 1996-08-06 At&T Corp. Encoder/decoder buffer control for variable bit-rate channel
US5623483A (en) * 1995-05-11 1997-04-22 Lucent Technologies Inc. Synchronization system for networked multimedia streams
US5570372A (en) * 1995-11-08 1996-10-29 Siemens Rolm Communications Inc. Multimedia communications with system-dependent adaptive delays
US5703877A (en) * 1995-11-22 1997-12-30 General Instrument Corporation Of Delaware Acquisition and error recovery of audio data carried in a packetized data stream
US6169843B1 (en) * 1995-12-01 2001-01-02 Harmonic, Inc. Recording and playback of audio-video transport streams
US5617502A (en) * 1996-03-22 1997-04-01 Cirrus Logic, Inc. System and method synchronizing audio and video digital data signals during playback
KR100244745B1 (ko) * 1996-06-29 2000-02-15 김영환 싱크 워드 검출회로
US5949410A (en) * 1996-10-18 1999-09-07 Samsung Electronics Company, Ltd. Apparatus and method for synchronizing audio and video frames in an MPEG presentation system
US6151443A (en) * 1997-05-16 2000-11-21 Indigita Corporation Digital video and data recorder
GB2326781B (en) * 1997-05-30 2001-10-10 British Broadcasting Corp Video and audio signal processing
US6115422A (en) * 1997-09-26 2000-09-05 International Business Machines Corporation Protocol and procedure for time base change in an MPEG-2 compliant datastream
DE19754296A1 (de) * 1997-12-08 1999-06-10 Thomson Brandt Gmbh Synchronisationseinrichtung
KR100294663B1 (ko) * 1997-12-29 2001-09-17 구자홍 엠펙디코더및디코딩제어방법
AU2632399A (en) 1998-02-27 1999-09-15 Ridgeway Systems And Software Limited Audio-video packet synchronisation at network gateway
US6285405B1 (en) * 1998-10-14 2001-09-04 Vtel Corporation System and method for synchronizing data signals
US6363429B1 (en) * 1999-04-20 2002-03-26 3Com Corporation Method and system for automatic determination of priority data streams on computer networks
US7346698B2 (en) * 2000-12-20 2008-03-18 G. W. Hannaway & Associates Webcasting method and system for time-based synchronization of multiple, independent media streams

Also Published As

Publication number Publication date
KR20040105869A (ko) 2004-12-16
CN1745526B (zh) 2010-09-29
BRPI0304532B1 (pt) 2018-02-06
WO2003090443A3 (en) 2004-04-22
US6956871B2 (en) 2005-10-18
EP1497937B1 (en) 2015-04-01
KR100968928B1 (ko) 2010-07-14
AU2003221949A1 (en) 2003-11-03
CN1745526A (zh) 2006-03-08
EP1497937A2 (en) 2005-01-19
MY136919A (en) 2008-11-28
WO2003090443A2 (en) 2003-10-30
JP4472360B2 (ja) 2010-06-02
US20030198256A1 (en) 2003-10-23
EP1497937A4 (en) 2010-01-20
BR0304532A (pt) 2004-07-06
JP2005523650A (ja) 2005-08-04
AU2003221949A8 (en) 2003-11-03

Similar Documents

Publication Publication Date Title
MXPA04010330A (es) Aparato y metodo para la sincronizacion de corrientes de audio y video.
US9426335B2 (en) Preserving synchronized playout of auxiliary audio transmission
US8406288B2 (en) Methods for reducing channel change times in a digital video apparatus
KR100918598B1 (ko) 이산 시간 레이블된 비디오를 아날로그 출력 신호로변환하는 시간 기반 복원
US8275233B2 (en) System and method for an early start of audio-video rendering
KR20090018853A (ko) 오디오 디코딩을 위한 클록 드리프트 보상 기술
CN108259964B (zh) 一种视频播放速率调整方法及系统
EP0985319B1 (en) Video and audio signal processing
JP4475650B2 (ja) ドリフトしたデータ・ストリームを最低限の感知できるアーティファクトで再同期させる方法およびシステム
KR100643270B1 (ko) 비디오 스트림을 재생하는 클라이언트 및 재생 방법
EP1860884A1 (en) Video processing
US8854964B2 (en) Method and apparatus for determining a transport bit rate for a Multiprogram transport stream
KR100864009B1 (ko) 오디오/비디오 동기화 방법
EP2200025B1 (en) Bandwidth scalable codec and control method thereof
WO2006040827A1 (ja) 送信装置、受信装置、並びに再生装置
Baba et al. Adaptive multimedia playout method based on semantic structure of media stream
Steinbach et al. Adaptive media playout
Reid An MPEG-2 digital decoder design: A practical approach with emphasis on elementary stream data flows
JP2000183830A (ja) 遅延補正方式

Legal Events

Date Code Title Description
FG Grant or registration