ES2719735T3 - Dispositivo y método para la sincronización de diferentes partes de un servicio digital - Google Patents

Dispositivo y método para la sincronización de diferentes partes de un servicio digital Download PDF

Info

Publication number
ES2719735T3
ES2719735T3 ES05816179T ES05816179T ES2719735T3 ES 2719735 T3 ES2719735 T3 ES 2719735T3 ES 05816179 T ES05816179 T ES 05816179T ES 05816179 T ES05816179 T ES 05816179T ES 2719735 T3 ES2719735 T3 ES 2719735T3
Authority
ES
Spain
Prior art keywords
delay
audio
video
data
digital service
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES05816179T
Other languages
English (en)
Inventor
Philippe Leyendecker
Rainer Zwing
Franck Abelard
Patrick Morvan
Sebastien Desert
Didier Doyen
Original Assignee
Thomson Licensing
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing filed Critical Thomson Licensing
Application granted granted Critical
Publication of ES2719735T3 publication Critical patent/ES2719735T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • H04N5/06Generation of synchronising signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2353Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4135Peripherals receiving signals from specially adapted client devices external recorder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4392Processing of audio elementary streams involving audio buffer management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/633Control signals issued by server directed to the network components or client
    • H04N21/6332Control signals issued by server directed to the network components or client directed to client
    • H04N21/6336Control signals issued by server directed to the network components or client directed to client directed to decoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • H04N5/935Regeneration of digital synchronisation signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Television Receiver Circuits (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Systems (AREA)

Abstract

Un dispositivo que actúa como una fuente de servicio digital (20, 30, 50, 140, 150), que comprende primeros medios (200) para proporcionar, a la salida, datos de vídeo que forman una primera parte de un servicio digital, segundos medios (201) para proporcionar, a la salida, datos de audio que forman una segunda parte del servicio digital, actuando dicho dispositivo como una fuente de servicio digital que incluye, además: medios para la recuperación (302), a partir de un dispositivo (142) para la reproducción de dichos datos de vídeo y dichos datos de audio, de una primera indicación de retardo relacionada con dichos datos de vídeo y una segunda indicación de retardo relacionada con dichos datos de audio; primeros medios de retardo (141) para aplicar un retardo programable a los datos de salida que forman la parte de audio del servicio digital, de conformidad con dichas primeras y segundas indicaciones de retardo recuperadas, si dichos datos de vídeo y dichos datos de audio son reproducidos por dicho dispositivo de reproducción (142), en donde dicho retardo programable es igual a la diferencia entre dicha primera indicación de retardo y dicha segunda indicación de retardo, y segundos medios de retardo (300) para aplicar un retardo programable a los datos de salida que forman la parte de audio del servicio digital, de conformidad con dicha primera indicación de retardo recuperada, si dichos datos de audio se reproducen por un dispositivo externo (31) distinto de dicho dispositivo de reproducción (142), en donde dicho retardo programable es igual a dicha primera indicación de retardo.

Description

DESCRIPCIÓN
Dispositivo y método para la sincronización de diferentes partes de un servicio digital
1. Campo de la invención
La invención se refiere a un dispositivo y un método para sincronizar diferentes partes de un servicio digital. La invención puede, a modo de ejemplo, referirse con la sincronización de audio/vídeo de un servicio digital audiovisual.
2. Descripción de la técnica anterior
Durante muchos años, tecnologías relacionadas con la pantalla se basaron en pantallas de tubos de rayos catódicos. Estas tecnologías eran entonces puramente analógicas. Desde la década de los años 1990, las tecnologías digitales se han vuelto cada vez más frecuentes en el sistema de imágenes, desde la adquisición por la cámara de la señal de vídeo hasta su visualización en las pantallas (a modo de ejemplo, pantallas de 100 Hz que utilizan una compensación de movimiento). Inicialmente, ninguna de estas nuevas tecnologías introdujo ningún retardo significativo en el vídeo. La sincronización de audio/vídeo (en lo sucesivo, denominada A/V) se realiza por el decodificador, sobre la base del supuesto de que los flujos de audio y vídeo suministrados por el decodificador se reproducen, de forma instantánea, por el dispositivo de reproducción audiovisual. En el caso de los decodificadores, el principio de sincronización A/V consiste en utilizar marcadores temporales ("Referencias de Reloj de Programa" y "Marcas temporales de presentación"), que se insertan por el codificador MPEG en los paquetes de audio y vídeo, lo que permite al decodificador presentar el vídeo y audio en relación con una referencia temporal común. El Apéndice D de la norma ISO/IEC 13818-1 describe, en detalle, cómo realizar esta sincronización A/V (denominada "LIPSYNC"). En la actualidad, el procedimiento para sintonizar el módulo de sincronización A/V de un decodificador consiste en la decodificación de paquetes de audio y vídeo derivados a partir de un flujo de prueba de MPEG y son presentados a un dispositivo de reproducción (a modo de ejemplo, un televisor CRT) para el que se considera que el tiempo de respuesta ha de ser instantánea. De forma similar, en el caso de reproductores de DVD, la sincronización A/V se gestiona por el propio reproductor, lo que garantiza la sincronización de los flujos de audio y vídeo en la salida del reproductor.
Mediante los avances recientes en la tecnología de pantalla, se ha podido comercializar una gama de nuevas pantallas y dispositivos de reproducción audiovisual más o menos complejos, que incluyen:
- Dispositivos de reproducción audiovisual ("home cinema” (cine doméstico), a modo de ejemplo), en los que la señal de audio puede suministrarse en una forma decodificada (formato PCM, modulación por código-pulsos) o en una forma codificada (a modo de ejemplo, Dolby Digital).
- Televisor de alta definición (en adelante denominado HD) que se está haciendo cada vez más y más popular en algunos países. Podría convertirse en un mercado de consumo con, a modo de ejemplo, la tecnología MPEG-4 para reducir los costos. Un número de formatos de HD debería coexistir con el formato de definición estándar (en adelante denotado SD). El formato HD requiere un procesamiento significativo de vídeo en la pantalla antes de la reproducción del vídeo, lo que puede generar retardos.
- Numerosas tecnologías de pantalla (a modo de ejemplo, LCD, LCOS, DLP, Plasma, etc.) están disponibles en el mercado para formatos tanto HD como SD. Estas diversas pantallas requieren sus propios procesadores de vídeo para una reproducción óptima y, por lo tanto, pueden introducir retardos.
En el pasado, los estudios sobre el sistema audiovisual han demostrado que el ser humano es sensible a los desplazamientos de fase de A/V. El estudio realizado por los laboratorios Bell en 1940 mostró que surgen dificultades con un retardo de audio superior a 100 ms, o un avance de audio superior a 35 ms. En la práctica, el ser humano es, naturalmente, más tolerante a un retardo de audio que a un avance puesto que no es natural escuchar el sonido de un evento antes de su reproducción en la pantalla. En consecuencia, y con el fin de tener reglas comunes, la ITU normalizó los errores de sincronización A/V aceptables e inaceptables a través del sistema A/V. En 1993, la norma ITU [DOC11/59] definió el rango de detección como siendo un retardo de audio superior a 100 ms, o un avance de audio superior a 20 ms. El rango de objeción se define como un retardo de audio superior a 160 ms, o un avance de audio superior a 40 ms. En 1998, sin ninguna razón en particular, la UIT redujo el rango de detección a un retardo de audio superior a 125 ms o un avance de audio superior a 45 ms. El rango de objeción se define, entonces, como siendo un retardo de audio superior a 185 ms, o un avance de audio superior a 90 ms. Estos rangos están definidos por la norma ITU-R BT 1359-1.
En la actualidad el ATSC ("Comité de Sistema de Televisión Avanzado", una organización internacional para el desarrollo de normas de televisión digital) indica que esta norma no es adecuada y no se ajusta al estudio realizado por BELL. Por lo tanto, propone normalizar los errores de sincronización dentro del rango [-90 ms, 30 ms] que se distribuirán a través del sistema A/V como sigue: [-45 ms, 15 ms] para adquisición y [-45 ms, 15 ms] para el codificador/decodificador/TV.
Hoy en día, los dispositivos de reproducción de vídeo (por ejemplo, pantallas LCD) introducen retardos medidos en decenas de milisegundos (a menudo casi un centenar) en el sistema de procesamiento de vídeo. El retardo introducido puede variar, de forma significativa, de un dispositivo a otro y puede, además, variar en función del formato de la imagen que se puede intercalar (por ejemplo, 576i25 para s D o 1080i25 para HD) o progresivo (a modo de ejemplo, 576p25 para SD o 720p50 para HD), especialmente cuando la pantalla está provista de una función de desintercalado. Estos procesos requieren la utilización de memorias de imagen (por ejemplo, FIFOs, SDRAM, etc.) que en aumentan, en consecuencia, los retardos en la señal de vídeo en comparación con la señal de audio. Lo que antecede significa que una señal de audio a menudo precede a la señal de vídeo con la que está asociada. En la práctica, por su parte, los dispositivos de reproducción de audio no suelen presentar un retardo importante en el uso normal. Pueden introducir retardos si se añaden efectos de sonido. Sin embargo, estos retardos siguen siendo tolerables para el usuario.
A diferencia de las pantallas de tubos de rayos catódicos, las nuevas pantallas planas actualmente utilizadas no responden instantáneamente. En la práctica, sus diversos módulos de componentes introducen retardos. La Figura 1 ilustra, en la forma de bloques 10, 11 y 12, algunos módulos de un dispositivo de reproducción audiovisual 1 (por ejemplo, un televisor de pantalla plana) de conformidad con el estado de la técnica. Este dispositivo incluye un dispositivo de reproducción de vídeo 12 (a modo de ejemplo, una pantalla) y un dispositivo de reproducción de audio 13 (por ejemplo, un altavoz externo o incorporado). Los módulos convencionales del dispositivo de reproducción de vídeo (a modo de ejemplo, un sintonizador, un decodificador PAL y convertidores A/D) no se describirán con más detalle. Los módulos 10, 11 y 12 introducen retardos de vídeo que pueden ser fijos o variables de una trama a otra. Estos retardos varían de conformidad con el procesamiento aplicado y según el tipo de pantalla. Si no se compensan, provocarán errores de sincronización de A/V que pueden ser detectados por los usuarios puesto que se encuentran fuera del rango de tolerancia según se definió con anterioridad.
El primer módulo de desintercalado y control de formato 10 convierte un vídeo intercalado en un vídeo progresivo y ajusta la resolución de la señal de entrada a la de la pantalla (a modo de ejemplo, mediante la conmutación desde 1920 x 1080i a 1280 x 720p). Este bloque utiliza una memoria de trama (SDRa M, DDRAM) que introduce un retardo variable (Dd) de conformidad con el formato de vídeo (intercalado/progresivo, 50 Hz/60 Hz).
El segundo módulo de controlador de pantalla 11 convierte un vídeo progresivo en un formato compatible para la pantalla. El controlador dirige la pantalla y realiza, además, procesos de mejora de la calidad de la imagen. Estos, a menudo, introducen retardos Dc que dependen del tipo de pantalla.
Por lo tanto, en el caso de pantalla LCD-LCOS (LCD abreviatura de "Pantalla de Cristal Líquido" y LCOS abreviatura de "Cristal Líquido sobre Silicio"), es posible aplicar los siguientes procesos que introducen retardos:
- Sobreimpulsión, para mejorar los tiempos de respuesta del cristal líquido cuando necesita cambiar de un nivel de gris a otro. Esta operación, que utiliza una memoria de tramas, introduce un retardo fijo Rc_lcd_overdriving.
- La duplicación de trama, en los sistemas LCOS de tres válvulas, se utiliza habitualmente para reducir los efectos fluctuantes de un área amplia. Esta operación, que utiliza una memoria de trama, introduce un retardo fijo Rc_lcos_double.
En las pantallas de color secuenciales DLP™LCOS (DLP significa "Procesamiento de Luz Digital"), los siguientes procesos y operaciones introducen retardos:
- La conversión a color secuencial se realiza utilizando una memoria de trama que introduce un retardo fijo Rc_dlp-lcos_sequential.
- El direccionamiento de pantalla DLP se realiza por sucesivos planos de bits. Esta operación introduce un retardo fijo Rc-dlp_bitplane.
Para las pantallas de plasma, los siguientes procesos y operaciones introducen retardos debido a:
- El direccionamiento de la pantalla mediante sucesivas operaciones de sub-escaneo. Lo anterior introduce un retardo Rc_plasma_bitplane.
- La compensación de movimiento para reducir efectos de contorno falso y efectos de desenfoque. Esta operación, que utiliza una memoria de trama, introduce un retardo fijo Rc_plasma_artefact.
De forma similar, las pantallas OLED (Diodo Orgánico Emisor de Luz) pueden introducir retardos.
El tercer módulo 12 comprende la propia pantalla. La luz emitida por la pantalla LCD/LCOS se obtiene modulando la tensión aplicada al cristal líquido. En el caso de un DMD™ (Dispositivo de Micro-Espejo Digital), la luz se modula, de forma binaria, utilizando micro-espejos giratorios. En el caso de un panel de PLASMA, la luz también es modulada, de forma binaria, mediante la excitación de gas. Por lo tanto, la luz reacciona con un retardo relativo a la modulación.
Este retardo depende, principalmente, de las propiedades físicas de los componentes de la pantalla (cristal líquido, gas, etc.). Además, algunas pantallas incorporan, además, una memoria interna (DLP - LCOS secuencial) que provoca un retardo adicional. Por lo tanto, la pantalla introduce retardos De directamente vinculados a su tipo.
Por lo tanto, las pantallas LCD-LCOS introducen, entre otras cosas, los retardos siguientes:
- Puesto que la pantalla se dirige fila por fila, la última fila se actualiza un período de trama después de la primera fila. Esta operación de direccionamiento introduce un retardo fijo Re_lcd_addressing.
- El cristal líquido tarda un cierto tiempo en configurarse después de la aplicación de la tensión de modulación.
Este tiempo se divide en un retardo y un tiempo de establecimiento. Estos 2 tiempos dependen del nivel de transición de gris entre la trama precedente y la trama actual. Estos dos tiempos se añaden juntos con el fin de proporcionar un retardo variable Re_lcdjiquid-crystal.
Otros tipos de pantalla (a modo de ejemplo, paneles de plasma, DLP, OLED) pueden introducir otros tipos de retardo.
Por lo tanto, las pantallas de plasma introducen, entre otras cosas, el siguiente retardo:
- El gas encerrado en la pantalla tiene un tiempo de respuesta que varía en función del contenido del vídeo y, por lo tanto, corresponde a un retardo variable Re_plasma_gas.
Las pantallas DLP™ introducen, en particular, los siguientes retardos:
- El dispositivo de pantalla contiene una memoria interna y está direccionado en la forma de sub-escaneo. Esto introduce un retardo fijo Re_dlp_addressing.
- DMD™ tiene tiempos de respuesta muy rápidos. No introduce ningún retardo particular.
La tabla siguiente resume ejemplos de varios tipos de retardo para diferentes pantallas. En la tabla, T representa el período de trama (20 ms/50 Hz, 16.7 ms/60 Hz).
Figure imgf000004_0001
Dependiendo de las tecnologías de pantalla utilizadas, es posible que existan retardos en el vídeo que sean más o menos significativos, fijos o variables, de una trama a otra, de conformidad con el contenido de la imagen (a modo de ejemplo, los niveles de gris). Estos retardos pueden variar, además, en función del formato de vídeo. En el caso de la televisión o DVDs, existen cuatro formatos posibles:
- Entrada intercalada de 50 Hz;
- Entrada progresiva de 50 Hz;
- Entrada intercalada de 60 Hz;
- Entrada progresiva de 60 Hz.
Estos retardos entre los flujos de audio y vídeo dependen, además, del formato de audio que se utiliza (a modo de ejemplo, MPEG1, MPEG2, capas 1 y 2, DOLBY AC-3). Pueden provocar errores de sincronización A/V fuera de tolerancia (dicho de otro modo, errores más allá del rango de tolerancia) que pueden ser extremadamente inaceptables para el usuario.
El análisis anterior muestra que, por lo tanto, es necesario sincronizar los flujos de A/V con el fin de mejorar la comodidad de percepción del usuario, y mantener el retardo (o avance) en la reproducción del flujo de vídeo en relación con el flujo de audio dentro del rango de tolerancia definido por las normas. Más en general, es necesario sincronizar las diversas partes de un servicio digital con el fin de mantener el retardo (o avance) en la reproducción de una de las partes del servicio, en relación con la otra, dentro de un rango de tolerancia para este retardo (o este avance) que no sea inaceptable para el usuario.
3. Sumario de la invención
El objeto de la invención es superar estos inconvenientes en la técnica anterior. A este propósito, la presente invención da a conocer un dispositivo y un método para sincronizar varias partes de un servicio digital que tenga en cuenta los retardos introducidos por los diversos procesos aplicados a al menos una parte del servicio digital, y los retardos introducidos por los propios dispositivos de reproducción. El objetivo es evitar desviarse de los rangos de tolerancia que serían inaceptables para el usuario.
La solicitud internacional WO2004/077825 describe un procesador de datos que comprende una sección de configuración de retardo de audio que retiene información de retardo, que define la cantidad de retardo que se debe causar en el tiempo de presentación de audio, y modifica la información de tiempo de presentación de audio de conformidad con la información de retardo.
La invención se define en las reivindicaciones y se ilustra en la Figura 14.
La invención se refiere, además, a un dispositivo que actúa como una fuente de servicio digital, que incluye medios para emitir datos que forman una primera parte de un servicio digital, segundos medios para emitir los datos que forman una segunda parte del servicio digital, y medios para la comunicación con un dispositivo para reproducir los datos que forman la primera parte del servicio digital. El dispositivo fuente incluye, además, medios para aplicar un retardo programable a los datos de salida que forman la segunda parte del servicio digital, medios para la recepción, a partir del dispositivo, para reproducir los datos que forman la primera parte del servicio digital, en una indicación de retardo, y medios para programar los medios para aplicar un retardo programable de conformidad con la indicación de retardo recibida.
De conformidad una forma de realización particular, el dispositivo que actúa como fuente de servicios digitales es un decodificador digital. De conformidad con otra forma de realización, el dispositivo que actúa como fuente de servicios digitales es un reproductor de DVD.
De conformidad con una forma de realización preferida, los datos que forman la primera parte del servicio digital son datos de vídeo, y los datos que forman la segunda parte del servicio digital son datos de audio.
De conformidad con otra forma de realización, los datos que forman la primera parte y la segunda parte del servicio digital son datos de vídeo.
Preferiblemente, los medios para aplicar un retardo programable compensan un retardo debido a uno o más elementos siguientes de los medios de reproducción:
- un módulo para el desintercalado de los datos de vídeo (10);
- un controlador de formato (10);
- un controlador de pantalla (11);
- una pantalla (12).
De conformidad con una característica particular, los medios para aplicar un retardo programare contienen una memoria que almacena, de forma temporal, los datos que forman la segunda parte del servicio digital antes de su restablecimiento, de conformidad con la indicación de retardo recibida.
Por último, la invención se refiere a un método para sincronizar dos partes de un servicio digital en un sistema que incluye un dispositivo fuente y al menos un dispositivo de reproducción, en donde el dispositivo fuente incluye primeros medios para emitir los datos que forman la primera parte del servicio digital, segundos medios para emitir los datos que forman la segunda parte del servicio digital, medios para la comunicación con el dispositivo para reproducir los datos que forman la primera parte del servicio digital, medios para aplicar un retardo programable a los datos de salida que forman el segunda parte del servicio digital y en el que el dispositivo de reproducción incluye medios para recibir los datos que forman al menos una primera parte del servicio digital que se genera en el dispositivo de origen del servicio digital, medios para el procesamiento de al menos una parte de los datos recibidos para reproducir al menos una parte del servicio digital, incluyendo las etapas siguientes:
- en el lado del dispositivo de reproducción, transmitir al dispositivo fuente el retardo total introducido por el dispositivo de reproducción cuando se procesan y reproducen los datos recibidos que forman al menos una primera parte del servicio digital; y
- en el lado del dispositivo fuente, la programación del retardo programable, utilizando las indicaciones de retardo recibidas, con el fin de retrasar la salida de los datos que forman la segunda parte del servicio digital.
De conformidad con una forma de realización particular, una parte del retardo se debe a las características de la pantalla y se puede estimar para cada trama, en el caso de pantallas de cristal líquido, de conformidad con las etapas siguientes:
- el cálculo para cada píxel de la diferencia de nivel de gris entre dos tramas sucesivas;
- la estimación para cada píxel del tiempo de respuesta entre dichas dos tramas sucesivas a partir de dicha diferencia de nivel de gris calculada para dicho píxel;
- la creación de un histograma de los retardos en todos los píxeles;
- el cálculo de un retardo medio a partir de dicho histograma.
De conformidad con una característica particular, los datos que forman la primera parte del servicio digital son datos de vídeo, y los datos que forman la segunda parte del servicio digital son datos de audio.
Según otra característica, los datos que forman la primera parte del servicio digital, y la segunda parte del servicio digital son datos de vídeo.
4. Breve descripción de los dibujos
La invención se ilustrará y entenderá mejor por intermedio de formas de realización ejemplo, preferidas, no limitativas, con referencia a las Figuras adjuntas en las que:
- La Figura 1, ya descrita, ilustra un diagrama de un televisor de pantalla plana, de conformidad con el estado de la técnica;
- La Figura 2 representa un dispositivo para recibir y reproducir un servicio de audio/vídeo digital de conformidad con la invención que utiliza un dispositivo de reproducción de audio interno;
- La Figura 3 representa un dispositivo para recibir y reproducir un servicio de audio/vídeo digital de conformidad con la invención, que utiliza un dispositivo de reproducción de audio externo;
- La Figura 4 representa un dispositivo para recibir y reproducir un servicio de audio/vídeo digital de conformidad con la invención, en el que el dispositivo de reproducción estima un retardo compensado en la fuente;
- La Figura 5 representa un dispositivo para recibir y reproducir un servicio de audio/vídeo digital de conformidad con la invención, en donde el dispositivo de recepción estima y compensa un retardo;
- La Figura 6 representa un dispositivo para recibir y reproducir un servicio de audio/vídeo digital de conformidad con la invención, en donde el dispositivo de reproducción estima y compensa un retardo;
- La Figura 7 ilustra un método de estimación de retardo para pantallas de cristal líquido de conformidad con la invención;
- La Figura 8 ilustra un gráfico que representa los tiempos de respuesta de cristales líquidos para diferentes niveles de transición de gris;
- La Figura 9 ilustra un método de selección de retardo manual de conformidad con la invención;
- La Figura 10 ilustra un método de selección de retardos para diferentes formatos de vídeo;
- La Figura 11 ilustra un dispositivo de estimación de retardo manual de conformidad con la invención;
- La Figura 12 ilustra un dispositivo de estimación de retardo semiautomático de conformidad con la invención;
- La Figura 13 ilustra un método de estimación de retardo semiautomático de conformidad con la invención;
- La Figura 14 representa un dispositivo para recibir y reproducir un servicio de audio/vídeo digital de conformidad con la invención, que utiliza un dispositivo de reproducción de audio externo, incluyendo el dispositivo de recepción 2 módulos de retardo; y
- La Figura 15 representa un dispositivo para recibir y reproducir un servicio de audio/vídeo digital de conformidad con la invención, estando conectado el dispositivo de recepción a dos dispositivos de reproducción de vídeo.
5. Descripción detallada de la invención
Las formas de realización se describirán con referencia particular a un servicio digital audiovisual. La fuente de A/V se compara con un decodificador, pero puede ser cualquier otro tipo de fuente de A/V (a modo de ejemplo, un reproductor de DVD). El dispositivo de reproducción audiovisual se compara con un televisor que incluye una pantalla y una salida de audio (es decir, un altavoz integrado), pero puede ser, además, cualquier otro tipo de dispositivo de reproducción audiovisual (a modo de ejemplo, un ordenador). El dispositivo de reproducción de audio puede ser externo al televisor y comparado con un dispositivo que incluye un amplificador conectado a uno o más altavoces (a modo de ejemplo, un amplificador de audio de un dispositivo de cine doméstico), pero puede ser, además, cualquier otro tipo de dispositivo de reproducción de audio.
Algunos circuitos de desintercalado tienen entradas de audio de compensación a las que se aplica el mismo retardo que el vídeo para permanecer en fase. Sin embargo, en el caso en donde el usuario elije utilizar el sonido procedente de un dispositivo de reproducción de audio externo (a modo de ejemplo, del tipo de cine doméstico), no se aplica ninguna compensación de retardo. Por lo tanto, parece natural colocar el módulo de sincronización de A/V en el decodificador digital, siendo este último la fuente de las señales de A/V y, además, siendo necesariamente compatible con los equipos de A/V que ya existen en el mercado. Uno de los principios de la invención es proporcionar medios automáticos al televisor de modo este último pueda dar a conocer al decodificador el valor del retardo entre el vídeo en la entrada del televisor, y el vídeo mostrado en la pantalla.
Las Figuras 2 y 3 representan dos variantes de un dispositivo para recibir y visualizar un servicio digital audiovisual de conformidad con la invención. Solamente se ilustran los elementos principales del dispositivo. La Figura 2 representa un dispositivo de servicio audiovisual que incluye un decodificador digital 20 conectado a un televisor 21, en particular, mediante enlaces 220, 221 y 222. El decodificador 20 recibe en su entrada un flujo audiovisual codificado 22 (a modo de ejemplo, en codificación MPEG). Este flujo de A/V 22 se demultiplexa por un demultiplexor 204 en al menos una señal de audio y una señal de vídeo. La señal de vídeo se decodificada, a continuación, por un decodificador de vídeo 200. En cuanto a la señal de audio, ésta se decodifica por un decodificador de audio 201. Los dos flujos se sincronizan utilizando el módulo de sincronización A/V 202 que se comunica con los dos decodificadores 200 y 201. Además, el módulo de sincronización A/V 202 está, además, vinculado a una unidad de procesamiento 203. El decodificador de vídeo 200 está vinculado al televisor 21 a través de un enlace DVI/HDMI 220 (DVI/HDMI que significa Interfaz de Vídeo Digital/Interfaz Multimedia de Alta Definición). Más concretamente, el decodificador de vídeo 200 está vinculado a un módulo de procesamiento de vídeo 210 del televisor 21. Este módulo de procesamiento está, a su vez, vinculado a una pantalla 211. En cuanto al decodificador de audio, está vinculado a un dispositivo de reproducción de audio del televisor 212, a través de un enlace 222. El módulo de sincronización 202 está vinculado a través de la unidad 203 a una memoria no volátil 213 (a modo de ejemplo, EDID EPROM, en donde EDID significa Datos de Identificación de Pantalla Extendidos) del televisor 21 a través de un bus I2C 221, mediante el uso, a modo de ejemplo, del protocolo de comunicación DDC (Protocolo de Canal de Datos de Pantalla para la recuperación de datos relacionados con la pantalla).
La Figura 3 representa un dispositivo similar en el que el flujo de audio se reproduce mediante un dispositivo externo de reproducción de audio 31 (a modo de ejemplo, un amplificador de un dispositivo de cine doméstico). Este dispositivo 31 incluye un amplificador de audio 310 conectado a los altavoces 33. El decodificador 30 incluye elementos (en particular, decodificador de audio, decodificador de vídeo, demultiplexor, módulo de sincronización A/V) similares a los del decodificador 20, elementos a los que se les da el mismo número de referencia. También incluye un módulo de retardo de audio programable 300, una interfaz HDMI 302 y un módulo de gestión de formato de vídeo 301. Se conecta a un televisor 32 que incluye un módulo de procesamiento de vídeo 320 que, a su vez, está vinculado a una pantalla 321. El decodificador se enlaza con el dispositivo de reproducción de audio externo 31 a través de un enlace 340, a modo de ejemplo, a través de una interfaz SPDIF (Interfaz digital de Sony/Philips) y al televisor 32 a través de un enlace DVI/h Dm I. El objetivo de las dos soluciones propuestas (Figuras 2 y 3) es compensar un retardo Ddc, en el que Ddc = Dd Dc, inducido por procesos de vídeo (por ejemplo, desintercalado, conversión de formato, mejora de la calidad de imagen, etc.) 320210 y/o un retardo De debido a la pantalla (a modo ejemplo, el tiempo de respuesta de los cristales líquidos) 211. El retardo De puede ser la suma de un número de retardos tales como los definidos en la tabla anterior. En el resto del documento, el retardo general, es decir, D = Ddc De, se indica como D. Ddc y De pueden ser fijos o variables en el tiempo, como es el caso del retardo De para pantallas de cristal líquido para las que el tiempo de respuesta es variable de trama a trama. En el caso en donde la pantalla no introduce ningún retardo, D = Ddc. Del mismo modo, Ddc puede ser cero.
De conformidad con la invención, al menos un retardo programable D se aplica a la señal de audio memorizándola en su forma comprimida o en su forma decodificada. El retardo D se aplica a la señal de audio en el módulo 300. De conformidad con una variante de la invención, el retardo se aplica, directamente, a la señal de audio en el módulo de sincronización A/V 202 presente en el decodificador. El decodificador es responsable de aplicar el valor de retardo apropiado D en el módulo de retardo de audio 300, o en el módulo de sincronización A/V del decodificador 202, con el fin de compensar el retardo inducido por los procesos de vídeo y/o el retardo debido al tipo de pantalla 210320.
De conformidad con la invención, el retardo D inducido por el televisor 21 o 32 puede variar en función del formato del vídeo de entrada, cuya gestión se controla por el módulo 301. De este modo, se puede programar un nuevo valor de retardo D en el módulo de retardo de audio 300, o en el módulo de sincronización A/V del decodificador 202 cada vez que cambia el formato de vídeo si este retardo depende del formato de vídeo. Este retardo se indica como Dx, en donde x es el formato de vídeo con el que se asocia el retardo. El valor de retardo programado puede ser, además, un valor global D que funciona con independencia del formato de vídeo de entrada.
La solución propuesta, por lo tanto, consiste en mejorar los protocolos de control HDMI/DVI con parámetros que indican los retardos Dx, a modo de ejemplo, para diferentes formatos de vídeo, o incluso el retardo global D con independencia del formato de entrada de vídeo. Estos protocolos permiten que las pantallas compartan con el decodificador información con respecto a sus características y capacidades. De conformidad con estos protocolos, la fuente de vídeo utiliza el canal DDC 221 para realizar la lectura de una memoria no volátil 213, situada en el televisor 21 o 32, con el fin de determinar, a modo de ejemplo, la resolución, las polaridades de las señales de sincronización y los datos colorimétricos. Estos datos se representan utilizando los descriptores EDID que se definen en el documento EIA/CEA-861B. Se pueden proporcionar por los fabricantes de pantallas y programarse en la memoria EPROM EDID 213.
Por lo tanto, la invención consiste en añadir descriptores de información de EDID distintos de los ya normalizados, con el fin de memorizar en el televisor, información de las características de los retardos introducidos, bien sea por el procesamiento de vídeo digital del televisor (Ddc), o por el tiempo de respuesta de la pantalla (De), o por ambos (D o Dx). La información de retardo para cada televisor 21 o 32, equipado de conformidad con la invención, se memoriza en una memoria no volátil del televisor 213. Esta información puede incluir los 4 retardos Dx correspondientes a los 4 formatos de vídeo descritos anteriormente (entrada intercalada de 50 Hz, entrada progresiva de 50 Hz, entrada intercalada de 60 Hz, entrada progresiva de 60 Hz). Puede estar prevista, además, la memorización de los retardos relacionados con otros formatos de vídeo.
De conformidad con la invención, el decodificador recupera estos valores de modo que el módulo de sincronización A/V 202, o el módulo de retardo 300, sincronicen los flujos de audio y vídeo. La información con respecto a los retardos Ddc y De se puede proporcionar por el fabricante del televisor 21 o 32, y puede ser transmitida por el televisor 21 32, al decodificador 20 en forma electrónica. La información de retardo global D o Dx debe transferirse, entonces, al activar el decodificador. Esta información puede, además, de forma opcional, transferirse en un cambio de canal si es necesario o si se demanda al decodificador.
Una solución alternativa al uso del canal DDC es utilizar el protocolo de intercambio interactivo CEC (Control de Electrónica de Consumo), que se especifica en HDMI.
La Figura 4 ilustra una forma de realización particular de la invención. El decodificador 20 es el mismo que el descrito en la Figura 2 y no se describirá aquí de forma adicional. El televisor 41 incluye elementos similares al televisor 21 a los que se proporcionan las mismas referencias y, por lo tanto, no se describirán con más detalle. El televisor incluye, además, un módulo 410 para la estimación de un retardo De. En la práctica, para televisores que introducen un retardo que es variable en el tiempo de conformidad con el tipo de pantalla, este retardo debe ser estimado. Este retardo estimado De se añade, a continuación, al retardo Ddc inducido por los diversos procesos de vídeo (a modo de ejemplo, desintercalado). El valor del retardo global D se memoriza en una memoria EPROM EDID 411 que ha de utilizarse por el módulo de sincronización A/V 202 o el módulo de retardo 300, que se coloca en el decodificador 20. Por lo tanto, el decodificador recupera este retardo a través del enlace DDC 221 con el fin de sincronizar los flujos de audio y vídeo. Además, se puede considerar la memorización de los diferentes retardos (Ddc y De) por separado en la memoria EDID EPROM, y el decodificador recuperará, entonces, estos diferentes retardos a través del enlace DDC 221. Con el fin de estimar el retardo variable De debido al tipo de pantalla, se puede utilizar el método de estimación descrito a continuación para pantallas de visualización de cristal líquido.
En otra forma de realización representada en la Figura 5, el retardo vinculado a la pantalla De se estima en un módulo de estimación 500 situado en la unidad de procesamiento del decodificador 50. Los elementos similares a las Figuras anteriores se indican por las mismas referencias y no serán ser descrito de forma adicional. De conformidad con la invención, se propone, por lo tanto, definir descriptores para la memorización, en la memoria EDID EPROM de la pantalla, los datos necesarios para estimar el retardo (a modo de ejemplo, la representación gráfica se proporciona por los proveedores de cristal líquido y se ilustran en la Figura 8). A continuación, el decodificador recupera estos datos a través del enlace 221, que a su vez estima el retardo promedio en el módulo 500. Para esta finalidad, se puede utilizar el método de estimación que se describe más adelante en el documento.
Una ventaja de las soluciones descritas es la sincronización de los flujos de audio y vídeo cuando se utiliza un televisor y un dispositivo de salida de audio externo 31 (a modo de ejemplo, sistema HiFi, dispositivo de cine doméstico).
En otra forma de realización ilustrada en la Figura 6, el retardo De vinculado a la pantalla se estima, además, en el bloque 410 del televisor 61 como se describe con anterioridad. Sin embargo, la sincronización se realiza directamente en el televisor. En este caso, se puede utilizar una memoria 610 en el televisor con el fin de memorizar los datos de audio y restablecerlos para el usuario de conformidad con el retardo promedio. A continuación, se describe un método para estimar el retardo medio.
La Figura 7 ilustra un dispositivo de conformidad con la invención para la estimación 7 del retardo De para pantallas de cristal líquido. El dispositivo incluye una memoria de trama 71 y un módulo de cálculo de retardo 70. La memoria de trama 71 se usa para retrasar la entrada de vídeo (vídeo tN) en una trama (vídeo tN-1). El dispositivo 7 puede utilizar la memoria de trama 71 del dispositivo mejorado. El módulo de cálculo de retardo 70 calcula, para cada píxel, la diferencia en los niveles de gris entre dos tramas sucesivas. Este módulo utiliza, a continuación, las representaciones gráficas (Figura 8) que se proporcionan por los fabricantes de cristal líquido. Estas representaciones gráficas dan a conocer los tiempos de respuesta para diferentes transiciones de nivel de gris. Por lo tanto, se pueden utilizar para estimar, para cada píxel, el tiempo de respuesta entre dos tramas. Mediante la construcción de un histograma en todos los píxeles, se puede estimar un retardo promedio De (por ejemplo, calculando una media ponderada que tiene en cuenta el número de píxeles que tienen un tiempo de respuesta determinado) que se utiliza por el dispositivo de sincronización A/V. En el caso en donde la estimación del retardo De se realiza en el decodificador (Figura 5), estas representaciones gráficas se pueden almacenar en la memoria EDID EPROM y el decodificador las puede recuperar a través del enlace DDC 221. En este caso, el dispositivo de estimación de retardo 7 recupera, entonces, los datos EDID a través del enlace 72.
Las siguientes soluciones proponen otras formas de realización para dar a conocer, de forma manual o semiautomáticamente, a la fuente de vídeo los parámetros de retardo D inducidos tanto por los procesos de vídeo como por la pantalla. Estas soluciones se utilizan, en particular, cuando no existe un enlace HDMI entre la fuente de A/V y el dispositivo de reproducción de vídeo.
La Figura 9 ilustra un método de ajuste manual que permite al usuario seleccionar parámetros de retardo, de forma empírica, utilizando un menú. El dispositivo de selección se ilustra en la Figura 11. Este método es útil cuando el fabricante no proporciona información de retardo. En este caso, el decodificador 110 genera una secuencia A/V que permite al usuario sincronizar el retardo D de forma manual y precisa. De conformidad con la invención, en una etapa 91, el decodificador 110 conmuta al formato de vídeo adecuado (indicado por X, a modo de ejemplo, intercalado a 50 Hz). En una etapa 92, el usuario 115 selecciona, a continuación, un valor de retardo Dx a partir del menú para este formato. El valor se programa en el módulo de retardo de audio del decodificador 300, o en el módulo de sincronización A/V 202. En una etapa 93, el decodificador envía, entonces, la secuencia A/V sincronizada 111 utilizando el valor de retardo seleccionado. El vídeo se muestra, entonces, en la pantalla 112. La señal de audio sincronizada es amplificada por el amplificador de audio 113 y el sonido se reproduce utilizando los altavoces 114. El usuario puede determinar la calidad de la sincronización observando la pantalla 112 y escuchando el sonido producido por los altavoces 114. En una etapa 94, el usuario informa al decodificador mediante el uso del menú si la sincronización es lo suficientemente precisa para él. Si no es así, el proceso se repite, entonces, con un nuevo valor de retardo Dx. Si la sincronización es satisfactoria, la selección finaliza y el valor de Dx se memoriza en el módulo de retardo programable 300, o en el módulo de sincronización A/V 202. Esta operación se puede repetir para cualquier formato de vídeo con el fin de determinar, para cada uno, el retardo que debe aplicarse al flujo de audio. Este método se ilustra en la Figura 10. Los retardos D25 i (relacionados con el formato de vídeo intercalado de 50 Hz), D 50p (relacionados con el formato de vídeo progresivo de 50 Hz), D30 i (relacionados con el formato de vídeo intercalado de 60 Hz) y D60p (relacionados con el formato de vídeo progresivo de 60 Hz) determinados, en las etapas 101, 102, 103 y 104 respectivamente, se seleccionan, a su vez, de conformidad con el método descrito en la Figura 9.
De conformidad con otra forma de realización, puesto que el retardo es conocido debido a que, por ejemplo, lo suministra el fabricante, el usuario puede usar un menú para introducir, de forma manual, los valores de retardo Dx que se aplicarán en el módulo de retardo 300, o en el módulo de sincronización A/V 202, del decodificador, a modo de ejemplo, para diferentes formatos de vídeo. Estos valores pueden ser, por ejemplo, introducidos en la instalación del dispositivo de servicio digital.
De conformidad con otro dispositivo ilustrado en la Figura 12, se utiliza una sonda 122, fijado a la pantalla con el fin de detectar características de lo que se muestra en la pantalla y reenviar esta información al decodificador. Este método semiautomático de estimación del retardo D se ilustra en la Figura 13.
De conformidad con este método, el decodificador 120 genera una serie de imágenes en negro 130 (es decir, de niveles bajos de gris), a continuación, una única imagen en blanco 131 (es decir, de niveles altos de gris) y una serie de imágenes en negro 132 de nuevo, se envían al televisor 121. La primera serie de imágenes en negro se muestra, entonces, 133 en la pantalla, seguida de la imagen en blanco 134 y, por último, la segunda serie de imágenes en negro 135. La sonda 122 es capaz de detectar una imagen en blanco en la pantalla y enviar un mensaje instantáneo al decodificador 120 para informarle de la visualización 134 de esta imagen en blanco. El decodificador 120 calcula el tiempo transcurrido entre el momento 138 en el que el decodificador envió la imagen en blanco y el momento 139 en el que se mostró en la pantalla del televisor 121. La sonda 122 suele ser un dispositivo que es sensible a la intensidad de la luz y que se puede colocar contra la pantalla, a modo de ejemplo, en la esquina superior izquierda de la pantalla o incluso en el centro de la pantalla. Además, es capaz de evaluar, instantáneamente, la intensidad de la luz en un área limitada de la pantalla. La sonda 122 tiene 2 estados lógicos. Es en un primer estado 136 cuando el nivel de intensidad de luz detectado está por debajo de un determinado umbral (es decir, en la visualización de la primera serie de imágenes en negro), y en un segundo estado 137 cuando el nivel está por encima del umbral (es decir, en la visualización de la primera serie de imágenes en blanco). El umbral se determina de tal manera que, cuando se muestra una imagen en negro, la sonda está en el primer estado y, cuando se muestra una imagen en blanco, la sonda está en el segundo estado. La imagen en negro se puede sustituir con una imagen de baja intensidad de luz y la imagen en blanco se puede sustituir con una imagen de alta intensidad. Todo lo que se necesita es que la sonda sea capaz de detectar la transición desde una a la otra. Su estado lógico se puede traducir en una señal eléctrica que tiene 2 valores. Esta señal se puede recuperar, entonces, por el decodificador. El decodificador memoriza el tiempo 138 a partir del cual la imagen en blanco comienza a enviarse a la pantalla, y memoriza el tiempo 139 en el que la sonda detecta la transición desde el primer estado al segundo estado. La diferencia D 140 entre estos 2 marcadores temporales representa el retardo inducido por los procesos de vídeo y la pantalla. Esta operación se puede repetir para varios formatos de vídeo con el fin de obtener un conjunto de retardos Dx para todos los formatos de vídeo. Este método es semiautomático, puesto que, incluso si no se utiliza ningún menú, el usuario debe conectar la sonda al decodificador, aplicarlo a la pantalla y comenzar el proceso de forma manual.
También es posible prever tener una pantalla azul con un cuadrado negro en algún lugar de esta pantalla. Con la sonda 122 situado en el cuadrado negro, el blanco se envía al cuadrado negro con el fin de que la sonda detecte el cambio de intensidad de la luz. Conocer la posición de la sonda en la pantalla significa que se puede medir el retardo, de forma más precisa, para pantallas que no reproducen todos los píxeles simultáneamente (a modo de ejemplo, para el escaneo de pantallas).
Otra aplicación de la presente invención se da a conocer en la Figura 14. Los elementos comunes a las Figuras 2 y 3 reciben las mismas referencias y no se describen de forma adicional. El decodificador 140 incluye un módulo de retardo de audio programable adicional 141. Este segundo módulo se utiliza para sincronizar los flujos de audio y vídeo que serán reproducidos por el mismo dispositivo de reproducción 142 (a modo de ejemplo, un televisor). Este televisor 142 incluye un módulo de procesamiento de vídeo 320 que induce un retardo Ddc en el vídeo. Además, incluye un módulo de procesamiento de audio 144 que induce un retardo Dta en el flujo de audio. Este módulo está, a su vez, conectado a altavoces 151 integrados en el televisor. Con el fin de que los flujos de audio y vídeo, reproducidos por los altavoces integrados 151 y la pantalla 321, se sincronicen, el segundo módulo de retardo de audio programable 141 aplica a la salida del flujo de audio procedente del decodificador, un retardo (Ddc-Dta). En este ejemplo, se propone añadir a la tabla EDID 4 parámetros relacionados con los retardos de vídeo Ddc introducidos por el dispositivo de reproducción que dependen del formato de vídeo:
- Entrada intercalada de 50 Hz
- Entrada progresiva de 50 Hz
- Entrada intercalada de 60 Hz
- Entrada progresiva de 60 Hz.
Se añadieron, además, 4 parámetros relacionados con el retardo Dta que se introduce por el sistema de procesamiento de audio para los 4 formatos de vídeo anteriores. Los valores de retardo se pueden codificar en 1 byte con el fin de representar valores de retardo que varían desde 0 a 255 milisegundos. Por lo tanto, en el caso en donde el flujo de audio se reproduce por un dispositivo externo 31 (a modo de ejemplo, SPDIF), la fuente aplica un retardo Ddc (módulo 300) al flujo de audio en la salida del decodificador 201. En el caso en donde el flujo de audio se reproduce por el dispositivo de reproducción HDMI (a modo de ejemplo, un televisor) 142 la fuente 140 le aplica un retardo (Ddc-Dta), a través del módulo 141, que tiene en cuenta los retardos de audio y vídeo introducidos por los diferentes sistemas de procesamiento de dicho dispositivo HDMI 142.
En la Figura 15 se ilustra una aplicación diferente. A los elementos comunes a las Figuras 2 y 3 se les dan las mismas referencias y no se describirán con más detalle. El decodificador 150 está conectado a dos televisores 152 y 155, situados en dos habitaciones diferentes. El televisor 152 está vinculado a un dispositivo de tipo de cine doméstico 31 para salida de audio (a modo de ejemplo, a través de una interfaz SPDIF). El televisor 155 que incluye, principalmente, una pantalla 157 y que está situado en otra habitación, recibe los flujos de audio y vídeo juntos a través de un enlace 162 (a modo de ejemplo, RF analógico o digital). El televisor 152 incluye un módulo de procesamiento de vídeo 153 que introduce un retardo Ddc y una pantalla 154. En cuanto al televisor 155, mantiene la sincronización de los flujos de audio y vídeo que se transmiten juntos. De conformidad con la invención, se da a conocer un dispositivo que tiene una única salida de audio que está sincronizada con una cualquiera de las salidas de vídeo. La solución de conformidad con la invención consiste en la sincronización, en el decodificador, del flujo de audio con la primera salida de vídeo 158, tal como ya se describió con referencia a la Figura 3 (es decir, aplicando un retardo de compensación al audio). Se añade un segundo módulo de retardo programable 161 que aplicará a la segunda salida de vídeo 159 el mismo retardo D = Ddc que, a la salida de audio, de modo que la segunda salida de vídeo 159 se sincronice con la salida de audio 160. Esta solución, en particular, hace es posible utilizar el segundo televisor 155 en otra sala, con la salida de audio de este mismo televisor y tener solamente una, y la misma, salida de audio 160 en funcionamiento con ambas salidas de vídeo 158 y 159.
La invención se describe en el contexto de los protocolos de comunicación DVI y HDMI y podría extenderse a cualquier protocolo de control desarrollado en el futuro, a condición de que siempre permita el intercambio de dichos datos de retardo, o datos de cálculo de retardos, en el decodificador (a modo de ejemplo, representaciones gráficas).
La invención se da a conocer en el contexto de la sincronización de flujos de audio y vídeo de un servicio digital, en el caso en donde la pantalla introduce un ardo mientras que la parte de audio del servicio digital está asociada con un proceso instantáneo. Se puede aplicar, en general, a cualquier tipo de dispositivo para la reproducción de cualquier servicio digital, estando dicho servicio separado en diferentes partes procesadas por diferentes dispositivos de reproducción, cada uno de los cuales aplica retardos específicos a la parte del servicio que gestiona. En este caso, la capacidad de comunicación del retardo específico del dispositivo de reproducción al dispositivo de origen permite a este último sincronizar entre sí todas las partes del servicio digital para una buena reproducción del servicio completo.

Claims (4)

REIVINDICACIONES
1. Un dispositivo que actúa como una fuente de servicio digital (20, 30, 50, 140, 150), que comprende primeros medios (200) para proporcionar, a la salida, datos de vídeo que forman una primera parte de un servicio digital, segundos medios (201) para proporcionar, a la salida, datos de audio que forman una segunda parte del servicio digital, actuando dicho dispositivo como una fuente de servicio digital que incluye, además:
medios para la recuperación (302), a partir de un dispositivo (142) para la reproducción de dichos datos de vídeo y dichos datos de audio, de una primera indicación de retardo relacionada con dichos datos de vídeo y una segunda indicación de retardo relacionada con dichos datos de audio;
primeros medios de retardo (141) para aplicar un retardo programable a los datos de salida que forman la parte de audio del servicio digital, de conformidad con dichas primeras y segundas indicaciones de retardo recuperadas, si dichos datos de vídeo y dichos datos de audio son reproducidos por dicho dispositivo de reproducción (142), en donde dicho retardo programable es igual a la diferencia entre dicha primera indicación de retardo y dicha segunda indicación de retardo, y
segundos medios de retardo (300) para aplicar un retardo programable a los datos de salida que forman la parte de audio del servicio digital, de conformidad con dicha primera indicación de retardo recuperada, si dichos datos de audio se reproducen por un dispositivo externo (31) distinto de dicho dispositivo de reproducción (142), en donde dicho retardo programable es igual a dicha primera indicación de retardo.
2. El dispositivo según la reivindicación 1, en donde los medios de retardo contienen una memoria que almacena, de forma temporal, dichos datos de salida que forman la segunda parte del servicio digital, de conformidad con dicho retardo programable antes de restablecer dichos datos.
3. Un método para transmitir datos correspondientes a al menos un servicio digital, que comprende las etapas de:
- proporcionar, a la salida, datos de vídeo que forman una primera parte del servicio digital;
- proporcionar, a la salida, datos de audio que forman una segunda parte del servicio digital;
comprendiendo dicho método para la transmisión, además:
- la recuperación desde un dispositivo (142) para la reproducción de dichos datos de vídeo y dichos datos de audio, de una primera indicación de retardo relacionada con un retardo introducido al procesar y/o reproducir dichos datos de vídeo y una segunda indicación de retardo relacionada con un retardo introducido al procesar y/o reproducir dichos datos de audio; y
- la aplicación de un retardo programable a los datos de salida que forman la parte de audio del servicio digital, de conformidad con dichas primeras y segundas indicaciones de retardo recuperadas, si dichos datos de vídeo y dichos datos de audio se reproducen por dicho dispositivo de reproducción (142) y en donde dicho retardo programable es igual a la diferencia entre dicha primera indicación de retardo y dicha segunda indicación de retardo, o
- la aplicación de un retardo programable a los datos de salida que forman la parte de audio del servicio digital, de conformidad con dicha primera indicación de retardo recuperada si dichos datos de audio son reproducidos por un dispositivo externo (31) distinto de dicho dispositivo de reproducción (142) y en donde dicho retardo programable es igual a dicha primera indicación de retardo.
4. El método según la reivindicación 3, en donde dicho primer retardo es variable en el tiempo.
ES05816179T 2004-11-16 2005-11-08 Dispositivo y método para la sincronización de diferentes partes de un servicio digital Active ES2719735T3 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
FR0412169 2004-11-16
EP04292712 2004-11-16
EP05100072A EP1657929A1 (fr) 2004-11-16 2005-01-07 Dispositif et méthode de synchronisation de différentes parties d'un service numérique
PCT/EP2005/055829 WO2006053847A1 (en) 2004-11-16 2005-11-08 Device and method for synchronizing different parts of a digital service

Publications (1)

Publication Number Publication Date
ES2719735T3 true ES2719735T3 (es) 2019-07-12

Family

ID=35708683

Family Applications (1)

Application Number Title Priority Date Filing Date
ES05816179T Active ES2719735T3 (es) 2004-11-16 2005-11-08 Dispositivo y método para la sincronización de diferentes partes de un servicio digital

Country Status (7)

Country Link
US (4) US8606070B2 (es)
EP (2) EP1657929A1 (es)
JP (4) JP5384006B2 (es)
KR (2) KR101291933B1 (es)
CN (2) CN102291523B (es)
ES (1) ES2719735T3 (es)
WO (1) WO2006053847A1 (es)

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9281794B1 (en) 2004-08-10 2016-03-08 Bongiovi Acoustics Llc. System and method for digital signal processing
US9413321B2 (en) 2004-08-10 2016-08-09 Bongiovi Acoustics Llc System and method for digital signal processing
US10848118B2 (en) 2004-08-10 2020-11-24 Bongiovi Acoustics Llc System and method for digital signal processing
US10158337B2 (en) 2004-08-10 2018-12-18 Bongiovi Acoustics Llc System and method for digital signal processing
US8284955B2 (en) 2006-02-07 2012-10-09 Bongiovi Acoustics Llc System and method for digital signal processing
US11431312B2 (en) 2004-08-10 2022-08-30 Bongiovi Acoustics Llc System and method for digital signal processing
EP1657929A1 (fr) * 2004-11-16 2006-05-17 Thomson Licensing Dispositif et méthode de synchronisation de différentes parties d'un service numérique
US8451375B2 (en) * 2005-04-28 2013-05-28 Panasonic Corporation Lip-sync correcting device and lip-sync correcting method
US10701505B2 (en) 2006-02-07 2020-06-30 Bongiovi Acoustics Llc. System, method, and apparatus for generating and digitally processing a head related audio transfer function
US11202161B2 (en) 2006-02-07 2021-12-14 Bongiovi Acoustics Llc System, method, and apparatus for generating and digitally processing a head related audio transfer function
US10069471B2 (en) 2006-02-07 2018-09-04 Bongiovi Acoustics Llc System and method for digital signal processing
US9348904B2 (en) 2006-02-07 2016-05-24 Bongiovi Acoustics Llc. System and method for digital signal processing
US9195433B2 (en) 2006-02-07 2015-11-24 Bongiovi Acoustics Llc In-line signal processor
US10848867B2 (en) 2006-02-07 2020-11-24 Bongiovi Acoustics Llc System and method for digital signal processing
US9615189B2 (en) 2014-08-08 2017-04-04 Bongiovi Acoustics Llc Artificial ear apparatus and associated methods for generating a head related audio transfer function
JP4575324B2 (ja) * 2006-03-29 2010-11-04 株式会社東芝 Av装置及びその制御方法
US8441576B2 (en) * 2006-11-07 2013-05-14 Sony Corporation Receiving device, delay-information transmitting method in receiving device, audio output device, and delay-control method in audio output device
KR101306706B1 (ko) * 2006-11-09 2013-09-11 엘지전자 주식회사 디지털 티브이와 연결된 외부기기 자동 설정 장치 및 방법
JP4360400B2 (ja) * 2006-12-05 2009-11-11 セイコーエプソン株式会社 コンテンツ再生システムおよびこれに用いられる再生装置、並びにコンテンツ再生方法
JP4814803B2 (ja) * 2007-01-12 2011-11-16 富士通株式会社 コンピュータと家電によるリモコン信号を用いた双方向制御装置
KR101416249B1 (ko) * 2007-08-01 2014-07-07 삼성전자 주식회사 신호처리장치 및 그 제어방법
BRPI0816903A2 (pt) * 2007-09-21 2015-03-17 Thomson Licensing Aparelho e método para a sincronização de sinais observáveis por usuário
JP5242111B2 (ja) * 2007-10-02 2013-07-24 株式会社ソニー・コンピュータエンタテインメント 送信装置、画像データ送信方法、受信装置および受信装置における画像表示方法
JP2009124223A (ja) * 2007-11-12 2009-06-04 Sharp Corp Avシステム
KR101450100B1 (ko) 2007-11-22 2014-10-15 삼성전자주식회사 멀티미디어기기 및 그의 동기설정방법
KR20080011457A (ko) 2008-01-15 2008-02-04 주식회사 엔터기술 음성 또는 영상신호의 딜레이 컨트롤 기능을 가지는노래반주기 및 그의 컨트롤 방법
US8947870B2 (en) 2008-03-17 2015-02-03 Cby Holdings, Llc Sliding and rotating apparatus and device having same
US8692937B2 (en) * 2010-02-25 2014-04-08 Silicon Image, Inc. Video frame synchronization
CN102413335A (zh) * 2010-09-20 2012-04-11 深圳Tcl新技术有限公司 一种手动调节节目音画同步的装置及方法
WO2012047304A1 (en) * 2010-10-04 2012-04-12 Vidyo, Inc. Delay aware rate control in the context of hierarchical p picture coding
JP2012119924A (ja) * 2010-11-30 2012-06-21 Toshiba Corp 映像表示装置及び映像表示方法、音声再生装置及び音声再生方法、映像音声同期制御システム
JP5768383B2 (ja) * 2011-01-24 2015-08-26 セイコーエプソン株式会社 画像表示装置および画像表示方法
US8913104B2 (en) * 2011-05-24 2014-12-16 Bose Corporation Audio synchronization for two dimensional and three dimensional video signals
EP2880867B1 (en) * 2012-08-01 2018-06-13 Thomson Licensing Method and apparatus for adapting audio delays to picture frame rates
EP2891315B1 (en) * 2012-08-28 2018-05-30 Koninklijke Philips N.V. Audio forwarding device and corresponding method.
US9344828B2 (en) 2012-12-21 2016-05-17 Bongiovi Acoustics Llc. System and method for digital signal processing
DE102013200171A1 (de) * 2013-01-09 2014-07-10 Lufthansa Technik Ag Datennetzwerk, Verfahren sowie Abspielgerät zur Wiedergabe von Audio- und Videodaten in einem In-flight Entertainment System
US9264004B2 (en) 2013-06-12 2016-02-16 Bongiovi Acoustics Llc System and method for narrow bandwidth digital signal processing
US9398394B2 (en) 2013-06-12 2016-07-19 Bongiovi Acoustics Llc System and method for stereo field enhancement in two-channel audio systems
US9883318B2 (en) 2013-06-12 2018-01-30 Bongiovi Acoustics Llc System and method for stereo field enhancement in two-channel audio systems
US9906858B2 (en) 2013-10-22 2018-02-27 Bongiovi Acoustics Llc System and method for digital signal processing
US9397629B2 (en) 2013-10-22 2016-07-19 Bongiovi Acoustics Llc System and method for digital signal processing
US20150146099A1 (en) * 2013-11-25 2015-05-28 Anthony Bongiovi In-line signal processor
US10820883B2 (en) 2014-04-16 2020-11-03 Bongiovi Acoustics Llc Noise reduction assembly for auscultation of a body
US10639000B2 (en) 2014-04-16 2020-05-05 Bongiovi Acoustics Llc Device for wide-band auscultation
US9615813B2 (en) 2014-04-16 2017-04-11 Bongiovi Acoustics Llc. Device for wide-band auscultation
WO2015187631A1 (en) 2014-06-02 2015-12-10 Tethis, Inc. Modified biopolymers and methods of producing and using the same
US9811459B1 (en) * 2014-06-16 2017-11-07 Amazon Technologies, Inc. Data storage optimization for non-volatile memory
US9564146B2 (en) 2014-08-01 2017-02-07 Bongiovi Acoustics Llc System and method for digital signal processing in deep diving environment
US9638672B2 (en) 2015-03-06 2017-05-02 Bongiovi Acoustics Llc System and method for acquiring acoustic information from a resonating body
CN104902317A (zh) * 2015-05-27 2015-09-09 青岛海信电器股份有限公司 音视频同步方法及装置
JP2017063392A (ja) * 2015-09-25 2017-03-30 ブラザー工業株式会社 映像処理装置及び映像処理システム
JP6632864B2 (ja) * 2015-10-27 2020-01-22 シナプティクス・ジャパン合同会社 表示ドライバ及び表示装置
JP2018537910A (ja) 2015-11-16 2018-12-20 ボンジョビ アコースティックス リミテッド ライアビリティー カンパニー 表面音響変換器
US9621994B1 (en) 2015-11-16 2017-04-11 Bongiovi Acoustics Llc Surface acoustic transducer
CN108779387B (zh) 2015-11-23 2022-07-01 艾纳沃技术有限责任公司 涂层颗粒以及该涂层颗粒的制备方法和使用方法
DE102016201680A1 (de) 2016-02-04 2017-08-10 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zum synchronen Wiedergeben von Audiosignalen und Videosignalen
JP2019004401A (ja) * 2017-06-19 2019-01-10 セイコーエプソン株式会社 プロジェクションシステム、プロジェクター及びプロジェクションシステムの制御方法
CN112236812A (zh) 2018-04-11 2021-01-15 邦吉欧维声学有限公司 音频增强听力保护系统
US10959035B2 (en) 2018-08-02 2021-03-23 Bongiovi Acoustics Llc System, method, and apparatus for generating and digitally processing a head related audio transfer function
US10834296B2 (en) * 2018-09-12 2020-11-10 Roku, Inc. Dynamically adjusting video to improve synchronization with audio
CN109587546B (zh) * 2018-11-27 2020-09-22 Oppo广东移动通信有限公司 视频处理方法、装置、电子设备和计算机可读介质
CN113439445B (zh) * 2019-02-20 2023-03-28 华为技术有限公司 用于启用超高清联盟指定参考模式(uhda-srm)的技术
US11032447B2 (en) 2019-07-08 2021-06-08 Sling Media Pvt. Ltd. Method and system for automatically synchronizing audio-video inputs in a multi camera environment
US11323766B2 (en) * 2019-10-03 2022-05-03 Dolby International Ab Method and device for providing audio/video content to a rendering device
KR102618617B1 (ko) * 2021-03-09 2023-12-27 주식회사 케이티 콘텐츠 출력 장치 및 콘텐츠 출력 장치의 지연 보상 방법

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997003508A1 (fr) * 1995-07-13 1997-01-30 Sony Corporation Procede, appareil et systeme de transmission de donnees
JPH09128330A (ja) * 1995-11-06 1997-05-16 Sony Corp 映像表示装置
US5570372A (en) 1995-11-08 1996-10-29 Siemens Rolm Communications Inc. Multimedia communications with system-dependent adaptive delays
JPH113565A (ja) * 1997-06-11 1999-01-06 Hitachi Ltd データ記録再生方法及びその装置
DE19930824C2 (de) * 1999-07-03 2001-05-31 Grundig Ag Bild- und Tonwiedergabegerät und Verfahren für dessen Betrieb
JP2001136138A (ja) 1999-11-05 2001-05-18 Toshiba Corp デジタル映像・デジタル音声伝送方法
GB0000874D0 (en) 2000-01-14 2000-03-08 Koninkl Philips Electronics Nv Latency handling for interconnected devices
US6778493B1 (en) * 2000-02-07 2004-08-17 Sharp Laboratories Of America, Inc. Real-time media content synchronization and transmission in packet network apparatus and method
JP2002290932A (ja) * 2001-03-27 2002-10-04 Toshiba Corp デジタル放送受信装置とその制御方法
JP2002344898A (ja) * 2001-05-17 2002-11-29 Pioneer Electronic Corp 映像表示装置、音声調整装置及び映像音声出力装置、並びに映像音声同期方法
FR2850820B1 (fr) 2003-01-31 2005-06-03 Thomson Licensing Sa Dispositif et procede de synchronisation en lecture de donnees video et de donnees annexes et produits associes
EP1603336B1 (en) * 2003-02-27 2017-07-19 Panasonic Intellectual Property Management Co., Ltd. Data processing device and method
JP2004282667A (ja) * 2003-03-19 2004-10-07 Matsushita Electric Ind Co Ltd 再生同期ずれ補正機能を備えた送信機及び受信機、並びにそれらを有する伝送装置
CN1973536A (zh) * 2004-04-07 2007-05-30 皇家飞利浦电子股份有限公司 视频-音频同步
JP4427733B2 (ja) * 2004-07-16 2010-03-10 ソニー株式会社 映像音声処理システム、アンプ装置および音声遅延処置方法
EP1657929A1 (fr) * 2004-11-16 2006-05-17 Thomson Licensing Dispositif et méthode de synchronisation de différentes parties d'un service numérique

Also Published As

Publication number Publication date
JP2015015745A (ja) 2015-01-22
EP1657929A1 (fr) 2006-05-17
KR20120097537A (ko) 2012-09-04
CN102291523B (zh) 2015-08-19
KR101291933B1 (ko) 2013-07-31
JP2008521302A (ja) 2008-06-19
US8606070B2 (en) 2013-12-10
EP1813116B1 (en) 2019-02-06
US9509887B2 (en) 2016-11-29
JP5789797B2 (ja) 2015-10-07
WO2006053847A1 (en) 2006-05-26
CN102291523A (zh) 2011-12-21
CN101088292B (zh) 2012-02-08
US8903217B2 (en) 2014-12-02
JP5384006B2 (ja) 2014-01-08
US9826126B2 (en) 2017-11-21
US20130242191A1 (en) 2013-09-19
US20170064155A1 (en) 2017-03-02
JP5806785B2 (ja) 2015-11-10
JP2015149752A (ja) 2015-08-20
KR20070084235A (ko) 2007-08-24
US20080138032A1 (en) 2008-06-12
US20140341525A1 (en) 2014-11-20
JP5806770B2 (ja) 2015-11-10
JP2012090271A (ja) 2012-05-10
KR101287728B1 (ko) 2013-07-19
CN101088292A (zh) 2007-12-12
EP1813116A1 (en) 2007-08-01

Similar Documents

Publication Publication Date Title
ES2719735T3 (es) Dispositivo y método para la sincronización de diferentes partes de un servicio digital
US8004609B2 (en) Amplifier, correcting method of correcting difference in processing time between video signal and audio signal, and correcting system
US8810563B2 (en) Transmitting apparatus, stereoscopic image data transmitting method, receiving apparatus, and stereoscopic image data receiving method
US8238726B2 (en) Audio-video data synchronization method, video output device, audio output device, and audio-video output system
JP4283806B2 (ja) データ再生装置、映像表示装置、それらを用いたソフトウェア更新システムおよびソフトウェア更新方法
US7142245B2 (en) Conversion of frame rate according to image date
JP5045756B2 (ja) 映像連動型照明制御システム
US9117396B2 (en) Three-dimensional image playback method and three-dimensional image playback apparatus
BRPI0721414A2 (pt) Sistema de comunicação, e, aparelhos e métodos de transmissão e de recepção
JP2012090006A (ja) 映像表示装置
JP2006340251A (ja) 音声出力装置および同期調整方法
JP2024063512A (ja) 画像投射装置、制御方法、プログラムおよび制御装置