BR112013008587B1 - Método para processar dados de multimídia em um dispositivo de recepção, e dispositivo de recepção - Google Patents

Método para processar dados de multimídia em um dispositivo de recepção, e dispositivo de recepção Download PDF

Info

Publication number
BR112013008587B1
BR112013008587B1 BR112013008587-8A BR112013008587A BR112013008587B1 BR 112013008587 B1 BR112013008587 B1 BR 112013008587B1 BR 112013008587 A BR112013008587 A BR 112013008587A BR 112013008587 B1 BR112013008587 B1 BR 112013008587B1
Authority
BR
Brazil
Prior art keywords
data
multimedia data
network
content
stream
Prior art date
Application number
BR112013008587-8A
Other languages
English (en)
Other versions
BR112013008587A2 (pt
Inventor
Anthony Laurent
Eric Gautier
Yvon Legallais
Original Assignee
Interdigital Ce Patent Holdings
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Interdigital Ce Patent Holdings filed Critical Interdigital Ce Patent Holdings
Publication of BR112013008587A2 publication Critical patent/BR112013008587A2/pt
Publication of BR112013008587B1 publication Critical patent/BR112013008587B1/pt

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2389Multiplex stream processing, e.g. multiplex stream encrypting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
    • H04N21/4385Multiplex stream processing, e.g. multiplex stream decrypting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44004Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6112Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving terrestrial transmission, e.g. DVB-T
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6125Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/631Multimode Transmission, e.g. transmitting basic layers and enhancement layers of the content over different transmission paths or transmitting with different error corrections, different keys or with different transmission protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/6437Real-time Transport Protocol [RTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8455Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

método para sincronizar fluxos de multimídia e dispositivo correspondente. a presente invenção se refere a um dispositivo de recepção e a um método para processamento de fluxos de multimídia no dispositivo compreendendo uma interface para uma primeira rede e uma interface para uma segunda rede, o método compreendendo as seguintes etapas: receber, a partir da primeira rede, um fluxo compreendendo dados de multimídia através de um primeiro protocolo de transporte adaptado com um primeiro sistema de sincronização de dados; receber, a partir da segunda rede, um segundo fluxo compreendendo dados de multimídia através de um segundo protocolo de transporte adaptado com um segundo sistema de sincronização de dados, o segundo sistema de sincronização sendo baseado em referências de temporização diferentes daquelas do primeiro sistema de sincronização de dados; caracterizado em que o primeiro e o segundo fluxo transportam a mesma informação de sincronização no campo de carga útil do primeiro e do segundo protocolo de transporte, a informação de sincronização compreendendo os dados indicando o momento a partir do qual os dados de multímidia devem ser renderizados; sincronizar o primeiro e o segundo fluxo mediante uso da informação de sincronização; e realizar uma etapa para renderizar o primeiro e o segundo fluxo de multimídia.

Description

DOMÍNIO TÉCNICO DA INVENÇÃO
A presente invenção se refere ao processamento de fluxos de multimídia a partir de diferentes fontes de multimídia ou transmitidos por intermédio de diferentes protocolos de transporte e restaurados em um dispositivo de renderização.
FUNDAMENTOS TECNOLÓGICOS DA INVENÇÃO
Em TV de difusão, os fluxos de áudio e vídeo são tradicionalmente transmitidos em conjunto. Eles geralmente são providos por uma única fonte de multimídia, por exemplo, um provedor de conteúdo de multimídia, então transportados por um único protocolo de transporte através de uma determinada rede de transporte, entregues então a um único dispositivo de usuário final, por exemplo, um decodificador ou uma televisão, encarregada de ler esses fluxos, exibir os dados de vídeo em uma tela e transmitir os dados de áudio em um altofalante.
Com o rápido desenvolvimento da rede Internet e das redes de telecomunicação móveis, novas aplicações de multimídia pareceram nas quais as fontes e/ou os protocolos de transporte podem ser diferentes para os fluxos de áudio e os fluxos de vídeo. Aplicações interativas também apareceram para as quais as fontes e os protocolos de transporte também podem ser diferentes daqueles dos conteúdos de áudio/vídeo aos quais eles se referem. Essas aplicações podem desse modo ser transportadas através de redes de banda larga.
Para essas novas aplicações, é necessário ter certeza de que a renderização do fluxo de áudio seja síncrona com a renderização do fluxo de vídeo, ou que a aplicação interativa seja renderizada de forma síncrona com o fluxo de áudio/vídeo.
Um exemplo de aplicação de multimídia nova é a geração de um fluxo de áudio por intermédio de uma fonte diferente daquela do fluxo de vídeo, esse fluxo de áudio sendo des-tinado a substituir ele próprio por um fluxo de áudio básico o qual pode ser provido com o fluxo de vídeo. Por exemplo, no caso de uma transmissão de jogo de futebol na televisão, é possível substituir o fluxo de áudio básico provido com o fluxo de vídeo do jogo por um fluxo de áudio compreendendo os comentários exemplares em uma linguagem diferente daquela do fluxo de áudio básico que seria fornecido por outro provedor de multimídia e não pela transmissora do jogo. Para que o fluxo de áudio possa ser sincronizado com o fluxo de vídeo, os fluxos devem conter referências de temporização comuns ou equivalentes. Como uma regra geral, o protocolo de transporte fornece essas referências ou marcações de tempo ao dispositivo de renderização de modo que ele regula e sincroniza a renderização dos dois fluxos.
A marcação de tempo geralmente é um valor de contador que indica o tempo du rante o qual ocorre o evento associado a essa marcação de tempo. A frequência de relógio do contador deve ser um valor conhecido pelo dispositivo de renderização de modo que ele regule de forma correta a renderização do fluxo. A forma na qual essa frequência de relógio é fornecida ao dispositivo de renderização é descrita nas especificações das camadas de transporte (MPEG-TS, RTP, etc.).
Para que o dispositivo de renderização possa sincronizar os dois fluxos, o mencionado por último geralmente se refere a um relógio comum normalmente denominado “relógio de parede”. Por exemplo, no caso do protocolo RTP (Protocolo de Transporte em Tempo Real) especificado pela IETF de acordo com RFC 3550, um transmissor transmite periodicamente uma mensagem denominada informe de transmissão RTCP (para Protocolo de Controle de Transporte em Tempo Real) indicando a equivalência entre a marcação de tempo e o tempo determinado pelo relógio comum. Se os fluxos de áudio de vídeo forem providos por fontes diferentes, essas duas fontes devem compartilhar o mesmo relógio comum. O protocolo NTP (Protocolo de Tempo de Rede) é usado tipicamente para sincronizar as duas fontes no mesmo relógio.
Contudo, quando as duas fontes não são conectadas por uma rede suficientemente confiável em termos de tempo de transporte, outro mecanismo de sincronização é então necessário.
Esse problema de sincronização também pode existir entre dois fluxos de vídeo que são exibidos em um único dispositivo de renderização, um dos conteúdos de vídeo sendo exibido mediante imagem em imagem naquele outro, quando os dois fluxos não forem providos pela mesma fonte ou no mesmo protocolo de transporte. A função de Imagem em Imagem é um exemplo disso. Outro exemplo se refere aos casos de transição 2D para 3D onde um vídeo 2D é recebido no fluxo de transmissão e o complemento 3D possibilitando que uma exibição 3D seja recebida no fluxo de banda larga.
DESCRIÇÃO GERAL DA INVENÇÃO
A presente invenção se refere a um objeto capaz de resolver os problemas de sin-cronização quando os fluxos são distribuídos através de redes que têm diferentes bases de tempo.
Com essa finalidade, o propósito da invenção é um método para o processamento de fluxos de dados de multimídia no dispositivo compreendendo uma interface para uma primeira rede e uma interface para uma segunda rede, o método compreendendo as seguintes etapas: receber, a partir da primeira rede, um primeiro fluxo compreendendo dados de multimídia através de um primeiro protocolo de transporte adaptado com um primeiro sistema de sincronização de dados; receber, a partir da segunda rede, um segundo fluxo compreendendo dados de multimídia através de um segundo protocolo de transporte adaptado com um segundo sistema de sincronização de dados, o segundo sistema de sincronização se baseando em referências de temporização diferentes daquelas do primeiro sistema de sincronização de dados; o primeiro e o segundo fluxo transportando a mesma informação de sincronização no campo de dados do primeiro e do segundo protocolo de transporte, a in-formação de sincronização compreendendo os dados indicando o momento a partir do qual os dados de multimídia devem ser renderizados; sincronizar o primeiro e o segundo fluxo mediante uso da informação de sincronização; e realizar uma etapa para renderizar o primeiro e o segundo fluxo de multimídia.
A invenção tem as vantagens de propor um sistema de sincronização complementar àqueles usados pelos protocolos de transporte respectivos.
De acordo com uma modalidade, os protocolos de transporte são do tipo MPEG-2 TS e/ou RTP.
De acordo com uma modalidade, a informação de sincronização se baseia nas refe-rências de temporização de um dos protocolos de transporte.
De acordo com uma modalidade, a etapa de sincronização compreende uma etapa de retardar o conteúdo recebido antecipadamente mediante uma memorização, até que o conteúdo possa ser renderizado de forma síncrona.
De acordo com uma modalidade, o primeiro fluxo é recebido na primeira rede no modo de transmissão, e compreende informação de contagem descendente indicando quando os primeiros dados de multimídia a serem recebidos na primeira rede terão que ser renderizados, os segundos dados de multimídia do segundo fluxo sendo pré-carregados mediante solicitação do dispositivo de recepção na segunda rede suficientemente antecipada para possibilitar que o dispositivo de recepção renderize os mesmos de forma síncrona com os primeiros dados de multimídia quando eles forem recebidos.
Outro propósito da invenção se refere a um dispositivo de recepção compreendendo uma interface para uma primeira rede possibilitando um primeiro fluxo compreendendo dados de multimídia a serem recebidos através de um primeiro protocolo de transporte adaptado com um primeiro sistema de sincronização de dados; e uma interface para uma segunda rede, possibilitando um segundo fluxo compreendendo dados de multimídia a serem recebidos através de um segundo protocolo de transporte adaptado com um segundo sistema de sincronização de dados, o segundo sistema de sincronização sendo baseado em referências de temporização diferentes daquelas do primeiro sistema de sincronização de dados; um sincronizador para sincronizar o primeiro e o segundo fluxo mediante uso de informação de sincronização transportada no primeiro e segundo fluxo e compreendendo dados indicando quando os dados de multimídia devem ser renderizados; e uma terceira interface possibilitando que o primeiro e o segundo fluxo de multimídia sejam transmitidos de forma síncrona.
A invenção também se aplica a um produto de programa de computador compre- endendo instruções de código de programa para a execução das etapas do método de acordo com a invenção, quando esse programa é executado em um computador. “Produto de programa de computador” é entendido como significando um meio de programa de computador que pode consistir não apenas em um espaço de armazenamento contendo o programa, tal como uma memória de computador, mas também um sinal, tal como um sinal elétrico ou ótico.
BREVE DESCRIÇÃO DAS FIGURAS
A invenção será mais bem-entendida e ilustrada por intermédio das modalidades e das implementações seguintes, de forma alguma limitadoras, com referência às Figuras anexas no apêndice, em que:- A Figura 1 é um sistema de distribuição de conteúdo de acordo com uma modalidade da invenção;- A Figura 2 é um diagrama de blocos de distribuição de conteúdo de acordo com uma modalidade da invenção;- A Figura 3 é um diagrama de blocos de distribuição de conteúdo de acordo com outra modalidade da invenção; e- A Figura 4 é um decodificador de acordo com uma modalidade da invenção.
Nas Figuras 1 e 4, os módulos mostrados são unidades funcionais que podem ou não corresponder às unidades fisicamente distinguíveis. Por exemplo, esses módulos ou alguns deles podem ser agrupados em conjunto em um único componente, ou constituir funções do mesmo software. Ao contrário, alguns módulos podem ser compostos de entidades físicas separadas.
DESCRIÇÃO DE UMA MODALIDADE PREFERIDA DA INVENÇÃO
As modalidades são colocadas dentro da estrutura de distribuição de conteúdo através de duas redes de comunicação e de acordo com dois protocolos de transporte de dados, diferentes, isto é, RTP e MPEG-2 TS, mas a invenção não é limitada a esse ambiente específico e pode ser aplicada dentro de outros sistemas de distribuição de dados.
Um sistema de distribuição de conteúdo de acordo com uma modalidade da invenção é ilustrado na Figura 1. O mesmo compreende um servidor 1 do tipo de servidor de áu- dio/vídeo. O servidor transmite um conteúdo de áudio/vídeo através de uma rede de transmissão assinalada como rede de transmissão 7. A rede de transmissão é do tipo DVB-T e transporta dados de áudio/vídeo de acordo com o protocolo de transporte de fluxo de transporte MPEG-2, assinalado como MPEG-2 TS, e especificado no padrão ISO/padrão IEC 13818-1: “Information technology - generic coding of moving pictures and associated audio information: Systems”, e assinalado como ISO/IEC 13818-1. A rede de transmissão é aqui do tipo unidirecional, porém a invenção se aplica naturalmente a qualquer tipo de rede de transmissão e também não é limitada ao protocolo de transporte MPEG-2 TS.
O conteúdo de áudio/vídeo é recebido por um decodificador de vídeo 4, assinalado como STB (para conversor de sinal de frequência). O STB decodifica o conteúdo de áudio e vídeo e transmite o conteúdo decodificado para um aparelho de televisão, TV 5.
De acordo com o protocolo MPEG-2 TS, referências de temporização são transmitidas para o decodificador. O fluxo de transporte compreende pacotes de Referência de Relógio de Programa (também assinalada como PCR) que são amostras do relógio de tempo do sistema (STC) contidas no servidor. Elas são usadas para sincronizar o sistema de relógio no decodificador. Os fluxos elementares de um determinado serviço contêm pacotes que contêm uma marcação de tempo de apresentação (também assinalada como PTS) que representa o tempo durante o qual os dados transportados no pacote devem ser renderizados.
O mesmo servidor é acessível pelo STB através de uma rede de distribuição de banda larga, ou rede de banda larga 2. Particularmente, a rede de banda larga utiliza a rede Internet 2 acessível ao STB através de um portal nativo, assinalado como HG 3. Essa rede é do tipo bidirecional e possibilita ao portal transmitir e receber dados para/a partir do servidor e mais geralmente a qualquer tipo de servidor acessível através da rede Internet.
De acordo com a modalidade, o servidor torna acessível ao STB um segundo fluxo de áudio complementar ao conteúdo de áudio/vídeo de transmissão. Esse segundo fluxo de áudio pode ser recebido pelo STB por intermédio do protocolo de transporte RTP/RTCP. Portanto, quando recebido, o fluxo de áudio é decodificado e transmitido para o aparelho de televisão. O protocolo RTCP indica ao decodificador a equivalência entre a marcação de tempo de apresentação e o tempo dado pelo relógio comum de acordo com o Protocolo de Tempo de Rede (NTP).
De acordo com a modalidade da invenção, embora o fluxo de áudio/vídeo e o segundo fluxo de áudio sejam transmitidos por duas redes diferentes utilizando diferentes protocolos de transporte, eles são reproduzidos de forma síncrona no aparelho de televisão. Na realidade, um item de informação de sincronização é transmitido pelo servidor na forma de pacote de dados, auxiliar. Essa informação possibilita que o STB sincronize o tempo de ren- derização de fluxo de áudio/vídeo naquele do segundo áudio. Na prática, apenas a parte de vídeo do fluxo de áudio-vídeo é renderizada, e o segundo áudio é renderizado de forma síncrona.
A Figura 2 ilustra o transporte de dados de acordo com o protocolo MPEG-2 TS no modo de transmissão e de acordo com o protocolo RTP/RTCP no modo de banda larga. No modo de transmissão, os quadros de vídeo V0 a V3 são transmitidos com pacotes de marcação de tempo de apresentação, correspondentes, PTSv0 a PTSv3. No modo de banda larga, os quadros de áudio A0 a A2 são transportados com pacotes de marcação de tempo de apresentação, correspondentes, TSA0 a TSA2.
De acordo com a modalidade, pacotes de dados auxiliares T0 a T2 são associados com os fluxos de vídeo e áudio e são transmitidos através de duas redes mediante uso do mesmo protocolo de transporte que os fluxos com os quais eles são associados. Em cada rede, os pacotes de dados auxiliares e o fluxo de multimídia são sincronizados por intermédio do protocolo de sincronização específico para o protocolo de transporte. Os pacotes de dados auxiliares transportam dados de sincronização temporal. Esses dados podem ser assimilados com uma linha de tempo e representam um valor de contador a partir de um tempo determinado, por exemplo, o início do evento atual. Uma transmissão de quadro de vídeo através da rede de transmissão e uma transmissão de quadro de áudio através da rede de banda larga que devem ser renderizadas ao mesmo tempo se referirão ao mesmo valor de linha de tempo.
Os dados de sincronização transportados através das duas redes utilizam o mesmo formato. Esse formato pode ser diferente daqueles das referências de temporização usadas pelos protocolos de transporte.
Eles habilitam o receptor a equiparar a referência de relógio PCR com a referência de relógio NTP. Em outras palavras, isso possibilita que se meça o tempo entre a apresentação de conteúdos.
O decodificador pode ajustar dessa forma a apresentação de áudio com relação ao vídeo. Particularmente, se o vídeo for recebido antecipadamente, ele é memorizado por um tempo suficientemente longo para possibilitar a renderização de áudio de forma síncrona. Mais geralmente, o receptor memoriza os dados recebidos antecipadamente para apresentar os mesmos de forma síncrona com os dados recebidos mais tarde.
Contudo, dentro da estrutura de MPEG-2 TS, um modelo temporal impõe o não retardo da renderização de dados. Mais precisamente, o tempo entre a codificação de dados e a apresentação de dados deve permanecer constante. Portanto, isso não permite retardo na renderização dos dados de vídeo no caso da modalidade.
Esse é o motivo pelo qual em uma segunda modalidade, o decodificador recebe in-formação indicando a ele antecipadamente quando um conteúdo vindouro será exigido. Essas são informações de contagem regressiva indicando o início de uma linha de tempo. Mais precisamente, conforme ilustrado na Figura 3, se o conteúdo deve começar a ser ren- derizado no momento correspondendo àquele indicado nos dados auxiliares T0, um item de informação T-3, T-2, T-1 é recebido antecipadamente pelo receptor indicando a ele quando começará esse tempo T0. Isso possibilita que ele recupere antecipadamente, em um modo chamado de modo de pré-busca, os dados de áudio correspondendo ao vídeo que será ren- derizado no tempo T0. Essas informações são recebidas através das redes do tipo transmissão e se destinam a possibilitar que os terminais sejam pré-carregados antecipadamente ao componente de banda larga. Elas permitem que o decodificador emita solicitações para receber os dados antecipadamente.
Um STB de acordo com as modalidades é ilustrado na Figura 4. O mesmo compreende uma interface 44 para a rede de distribuição 7, uma interface 43 para a rede de banda larga 6, e uma interface 47 para um aparelho de televisão 5. Isso compreende um decodifi- cador de áudio/vídeo 45. Isso também compreende um sincronizador 46 que possibilita a sincronização de renderização de conteúdos de acordo com o que é indicado acima. Mais particularmente, o sincronizador identifica os dados auxiliares associados com os fluxos de áudio e vídeo. Ele mede desse modo o tempo entre a renderização dos dois fluxos. De acordo com o valor de tempo, o sincronizador memoriza 42 um dos conteúdos de modo que as renderizações sejam sincronizadas. Os conteúdos são decodificados e sincronizados desse modo para serem entregues a um aparelho de televisão através da interface de TV 47. O STB compreende naturalmente um processador 41 que possibilita a implementação de várias aplicações tal como decodificação ou o sincronizador. Naturalmente, os conteúdos sincronizados poderiam ser transmitidos para qualquer tipo de dispositivo possibilitando que esses conteúdos sejam reproduzidos.
Os pacotes de dados auxiliares são descritos agora em detalhe para o MPEG-2 TS e para o RTP. Os campos são indicados no idioma inglês para facilitar a leitura com relação às especificações indicadas.
Com relação ao MPEG-2 TS, a especificação "ETSI TS 102 823 v1.1.1 (2005-11) over Digital Video Broadcasting (DVB); Specification for the carriage of synchronized auxiliary data in DVB transport streams", assinalada como TS102823, descreve um método usado para transportar, em um fluxo de transporte do tipo DVB, os dados auxiliares que devem ser sincronizados com os assim chamados dados lineares tal como dados de áudio ou vídeo. O mesmo oferece a possibilidade de codificar o campo de carga útil da estrutura de dados auxiliar sob vários formatos. Particularmente, os formatos usados são aqueles indicados nas seções 5.2.2 e 5.2.4 de TS102823. Esses são o Descritor de Linha de Tempo de Transmissão e o Descritor de Rotulagem de Conteúdo. O Descritor de Linha de Tempo de Transmissão é um elemento de conteúdo linear com uma linha de tempo inerente que aumenta na mesma taxa à medida que ele flui. Ele é usado para indicar o valor da linha de tempo. O Descritor de Rotulagem de Conteúdo é um meio de associar um rótulo, uma forma de um identificador com um elemento de conteúdo.
Isto é, o pacote de dados auxiliares compreende os seguintes dados: Informação de Cabeçalho de Pacote de Fluxo de Transporte, Informação de Cabeçalho de Pacote de Fluxo Elementar e estruturas de dados auxiliar. Essa última compreende o Descritor de Linha de Tempo de Transmissão e o Descritor de Rotulagem de Conteúdo.
O formato do pacote de transporte é tal como definido na especificação ISO/IEC 13818-1, seção 2.4.3.2. O pacote de dados auxiliar compreende nenhum campo de adaptação. O PCR é transportado em um componente separado ou no campo de adaptação do componente de áudio ou vídeo do mesmo programa. Os campos e valores de pacote de transporte são indicados na seguinte tabela:
Figure img0001
O formato do pacote Fluxo Elemen tar é tal como de finido na especificação ISO/IEC13818-1, seção 2.4.3.6. Os campos e valores são indicados na tabela seguinte:
Figure img0002
Figure img0003
O formato da estrutura de dados auxiliar é tal como definido na especificação TS102823, seção 4.5. Os campos e valores são indicados na tabela seguinte:
Figure img0004
O valor do campo Payload_format é 0x1 para indicar que o campo de carga útil éum dos descritores definidos na especificação TS 102823, seção 5, e mais particularmente 5 isso envolve o descritor de linha de tempo de transmissão.
O descritor de linha de tempo de transmissão é definido na especificação TS102823, seção 5.5.2. De acordo com a modalidade, a linha de tempo de transmissão é do tipo direto, ela é linear e não está sujeita a descontinuidades. O valor do campo de status Executando é “executando”. O formato de tick é 90.000 ticks por segundo. Os campos e 10 valores são indicados na tabela seguinte:
Figure img0005
Figure img0006
Com relação à segunda moda idade, o descritor de linha de tempo de transmissãoé diferente nos seguintes pontos. O valor do campo status Executando é “contagem regres-siva”. Esse é um valor privado o qual não é especificado no padrão. O valor de um campo de informação de linha de tempo de transmissão é “Prefetch_period_duration_ticks” paraindicar o período de pré-busca em número de tiks. Um campo “Absolute_ticks” representa o avanço do contador. A combinação do valor desse campo com o “Prefe-tch_period_duration_ticks” possibilita indicação do momento no qual o conteúdo será exibido. Portanto, um valor igual a zero significa que o conteúdo será exibido em tiks “Prefe- tch_period_duration_ticks”. Um valor “Prefetch_period_duration_ticks” significa que o conte-údo começa a ser exibido. Os campos e valores são indicados na tabela seguinte:
Figure img0007
O formato do descritor de rotulagem de conteúdo é tal como definido em TS102823,seção 5.2.4. Os campos e valores são indicados na tabela seguinte:
Figure img0008
O campo content_reference_id_data é definido na tabela seguinte:
Figure img0009
O campo content_labeling_id_type especifica o tipo de identificador. Os valores são indicados na tabela seguinte:
Figure img0010
O campo content_labeling_id_lenght indica a extensão do campo con-tent_labeling_id. O campo content_labeling_id_byte identifica o conteúdo. O campo de rotulagem de conteúdo pode ser referido no descritor de identificador de conteúdo tal como definido na seção 12.1 do padrão ETSI TS 102 323 em "Digital Video Broadcasting (DVB); Carriage and signalling of TV-Anytime information in DVB transport streams". Isso possibilita que o ID de rotulagem de conteúdo seja tornado público. Isto é, uma entidade externa pode se referir ao conteúdo referenciado pela linha de tempo associada com o descritor de identificador de conteúdo sem ter que analisar o componente de linha de tempo auxiliar.
Com relação ao transporte pelo RTP, os dados auxiliares são transportados na parte de campo de carga útil do pacote RTP. O campo de carga útil contém um Descritor de Linha de Tempo de Transmissão e um Descritor de Rotulagem de Conteúdo similar àqueles indicados acima. Os campos de pacote RTP e valores são indicados na tabela seguinte:
Figure img0011
BT desc type (8 bits): tipo de descritor. Valor ajustado para 0x2 para indicar que o descritor é do tipo de linha de tempo de transmissão.BT desc length (8 bits): linha de tempo de transmissão descriptor_length. Representa, para esse descritor, o número total de bytes após o byte que define o valor desse campo. Valor ajustado para 0x8.BT Id (8 bits): Id de linha de tempo de transmissão.R (1 bit): reservado, valor ‘1’.T (1 bits): do tipo de linha de tempo de transmissão. Valor ajustado para ‘0’ para indicar uma codificação de tipo direto.C (1 bit): Continuity_indicator. Valor ajustado para ‘0’ para indicar uma linha de tempo de transmissão linear não sujeita às descontinuidades.P (1 bit): Prev_discontinuity_flag. Valor ajustado para ‘0’ para indicar que não há descontinuidade anterior.N (1 bit): Next_discontinuity_flag. Valor ajustado para ‘0’ para indicar que não há continuidade futura.RS (3 bits): status em execução. Valor ajustado para “0x4” para indicar que o status é “executando”.res (2 bits): reservado. Valor ajustado para “11”.tick format (6 bits): tick_format. Valor ajustado para “0x11” para indicar 90.000 ticks por segundo.Ticks absolutos (32 bits): valor de ticks absolutos.
Comprimento de informação (8 bits): valor ajustado para 0x0 para indicar que ne-nhuma informação de linha de tempo de transmissão está presente.
CL desc type (8 bits): tipo de descritor. Valor ajustado para 0x4 para indicar que o descritor é do tipo de rotulagem de conteúdo.
Comprimento de descritor CL (8 bits): comprimento de descritor de rotulagem de conteúdo. Representa, para esse descritor, o número total de bytes após o byte que define o valor desse campo.
Formato de aplicação de metadados (16 bits): formato de aplicação de metadados. Valor ajustado para 0x4444 para indicar que ele é definido pelo usuário.F (1 bit): sinalizador de gravação de id de referência de conteúdo. Valor ajustado para ‘1’ para sinalizar a presença de um content_reference_id_record nesse descritor.CTBI (4 bits): indicador de base de tempo de conteúdo. Valor ajustado para 0x8 para indicar o uso da linha de tempo de transmissão DVB.Res (3 bits): reservado. Valor ajustado para ‘111’
Comprimento CRIR (8 bits): comprimento de gravação de id de referência de con-teúdo. Especifica o número de bytes do content_reference_id após esse campoCLI_type (8 bits): tipo de id de rotulagem de conteúdo. Especifica o tipo de identifi-cação de referência do conteúdo.CLI_length (8 bits): comprimento de ide de rotulagem de conteúdo. Especifica o comprimento em número de bytes do id de rotulagem de conteúdo, isto é, os bytes de CLI.CLI bytes (CLI_length bytes): id de rotulagem de conteúdo que identifica o conteúdo.
Comprimento de TBAD (8 bits): comprimento de dados de associação de base de tempo. Ajustado para 0x2.Reservado (7 bits): reservado. Valor ajustado para ‘111111’.M (1 bit): sinalizador de mapeamento de base de tempo. Valor ajustado para ‘0’ para indicar que nenhum mapeamento explícito a partir da base de tempo externa para a linha de tempo de transmissão é provido.BT ID (8 bits): ID de linha de tempo de transmissão ao qual a rotulagem de conteúdo se refere.
Para a segunda modalidade, as diferenças em comparação com o pacote RTP pre-cedente são indicadas abaixo. Os campos de pacote RTP e os valores são indicados na tabela a seguir:
Figure img0012
O campo ‘BT desc length’ representa o comprimento do descritor de linha de tempo de transmissão, particularmente o número total de bytes após o byte que define o valor desse campo. O campo RS representa o status de execução e seu valor é “contagem regressiva”. O campo de comprimento de informação representa o comprimento do campo “informação de linha de tempo de transmissão”. Os campos Prefetch_period_duration_ticks e “ticks absolutos” têm o mesmo significado como no caso MPEG-2 TS indicado acima.
Portanto, a linha de tempo se baseia no mesmo relógio qualquer que seja o protocolo de transporte e a rede, utilizados.
As modalidades da invenção se baseiam em dois protocolos de transporte diferentes com diferentes referências de temporização. Naturalmente, a invenção se aplica da mesma maneira a dois protocolos de transporte idênticos baseados em diferentes referências de temporização. Similarmente, a primeira modalidade poderia se basear em duas redes de banda larga ou duas redes de transmissão.
Nas modalidades, os dados de sincronização transmitidos nos pacotes de dados auxiliares se baseiam em um dos relógios, isto é, aquele relacionado ao MPEG-2 TS. Natu-ralmente, esses dados de sincronização poderia também se basear em um relógio indepen-dentemente daqueles dos protocolos de transporte.
As modalidades são baseadas em um receptor. Alternativamente, os conteúdos de áudio e de vídeo poderiam ser renderizados em equipamento distinto. Um primeiro equipa-mento é então considerado como o mestre. Ele periodicamente comunica ao segundo equi-pamento a informação temporal correspondendo ao conteúdo comumente renderizado. O sincronizador do segundo equipamento utiliza essa informação como uma referência. O tempo de comunicação entre os dois equipamentos presumidamente é conhecido ou é sufi-cientemente baixo.A invenção é descrita no texto precedente como um exemplo. Entende-se que aqueles versados na técnica são capazes de produzir variantes da invenção sem sair do escopo da patente. Especificamente, a modalidade é colocada dentro da estrutura de uma rede de transmissão e de uma rede de banda larga, e para conteúdos de áudio e de vídeo.

Claims (8)

1. Método para processar dados de multimídia em um dispositivo de recepção (4) compreendendo uma interface (43) para uma primeira rede (6) e uma interface (44) para uma segunda rede (7), CARACTERIZADO pelo fato de que compreende as seguintes etapas de:receber, a partir da primeira rede, através de um primeiro protocolo de transporte, um primeiro fluxo compreendendo primeiros dados de multimídia, e dados de sincronização temporal relacionados com uma linha de tempo para renderização de conteúdo, os dados de sincronização temporal sendo transportados em pacotes de dados auxiliares sincronizados com os primeiros dados multimídia usando um protocolo de sincronização específico para o primeiro protocolo;receber, a partir da segunda rede, através de um segundo protocolo de transporte, um segundo fluxo compreendendo segundos dados de multimídia e os dados de sincroniza-ção temporal relacionados com a linha de tempo para renderização de conteúdo, os dados de sincronização temporal sendo transportados em pacotes de dados auxiliares sincronizados com os segundos dados de multimídia usando um protocolo de sincronização específico para o segundo protocolo, os segundos dados de multimídia sendo pré-carregados mediante solicitação do dispositivo de recepção, para possibilitar que o dispositivo de recepção renderize os próprios de forma síncrona com os primeiros dados de multimídia;sincronizar a renderização dos primeiros e segundos dados de multimídia usando dados de sincronização temporal relacionados com a linha de tempo para renderização de conteúdo;o método compreendendo as etapas de, antes de renderizar o primeiro fluxo:receber, a partir da primeira rede, informação de contagem regressiva indicando quando a linha de tempo para renderização de conteúdo inicia, a informação de contagem regressiva sendo transportada no primeiro fluxo; eemitir, com base na contagem regressiva, a solicitação para receber os segundos dados de multimídia antes do início da linha de tempo para renderização de conteúdo, de modo que os segundos dados de multimídia são renderizados de forma síncrona com os primeiros dados de multimídia.
2. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o primeiro protocolo de transporte é do tipo MPEG-2 TS.
3. Método, de acordo com a reivindicação 1 ou 2, CARACTERIZADO pelo fato de que o segundo protocolo de transporte é do tipo RTP.
4. Método, de acordo com qualquer uma das reivindicações precedentes, CARACTERIZADO pelo fato de que a etapa de sincronização compreende uma etapa para retardar o conteúdo recebido antecipadamente por memorização, até que os conteúdos possam ser renderizados de forma síncrona.
5. Método, de acordo com qualquer uma das reivindicações precedentes, CARACTERIZADO pelo fato de que o primeiro fluxo é recebido na primeira rede em modo de transmissão.
6. Dispositivo de recepção (4) CARACTERIZADO pelo fato de que compreende:uma interface (44) para uma primeira rede para receber, através de um primeiro protocolo de transporte, um primeiro fluxo compreendendo primeiros dados de multimídia, e dados de sincronização temporal relacionados com uma linha temporal para renderização de conteúdo, os dados de sincronização temporal sendo transportados em pacotes de dados auxiliares sincronizados com os primeiros dados multimídia usando um protocolo de sincronização específico para o primeiro protocolo;uma interface (43) para uma segunda rede para receber, através de um segundo protocolo de transporte, um segundo fluxo compreendendo segundos dados de multimídia e os dados de sincronização temporal relacionados com a linha de tempo para renderização de conteúdo, os dados de sincronização temporal sendo transportados em pacotes de dados auxiliares sincronizados com os segundos dados de multimídia usando um protocolo de sincronização específico para o segundo protocolo, os segundos dados de multimídia sendo pré-carregados mediante solicitação do dispositivo de recepção, para possibilitar que o dispositivo de recepção renderize os próprios de forma síncrona com os primeiros dados de multimídia;um sincronizador (46) para:sincronizar a renderização dos primeiros e segundos dados de multimídia usando dados de sincronização temporal relacionados com a linha de tempo para renderização de conteúdo,receber, a partir da primeira rede, informação de contagem regressiva indicando quando a linha de tempo para renderização de conteúdo inicia, a informação de contagem regressiva sendo transportada no primeiro fluxo; eemitir, com base na contagem regressiva, a solicitação para receber os segundos dados de multimídia antes do início da linha de tempo para renderização de conteúdo, de modo que os segundos dados de multimídia são renderizados de forma síncrona com os primeiros dados de multimídia.
7. Dispositivo de recepção, de acordo a reivindicação 6, CARACTERIZADO pelo fato de que a etapa de sincronização compreende uma etapa para retardar o conteúdo re-cebido antecipadamente por memorização, até que os conteúdos possam ser renderizados de forma síncrona.
8. Dispositivo de recepção, de acordo a reivindicação 6 ou 7, CARACTERIZADO pelo fato de que o primeiro fluxo é recebido na primeira rede em modo de transmissão.
BR112013008587-8A 2010-10-15 2011-10-14 Método para processar dados de multimídia em um dispositivo de recepção, e dispositivo de recepção BR112013008587B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1058421 2010-10-15
FR1058421 2010-10-15
PCT/EP2011/068016 WO2012049305A1 (en) 2010-10-15 2011-10-14 Method for synchronizing multimedia flows and corresponding device

Publications (2)

Publication Number Publication Date
BR112013008587A2 BR112013008587A2 (pt) 2016-07-12
BR112013008587B1 true BR112013008587B1 (pt) 2021-09-21

Family

ID=44063507

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112013008587-8A BR112013008587B1 (pt) 2010-10-15 2011-10-14 Método para processar dados de multimídia em um dispositivo de recepção, e dispositivo de recepção

Country Status (8)

Country Link
US (1) US9729762B2 (pt)
EP (1) EP2628297B1 (pt)
JP (1) JP6053686B2 (pt)
KR (1) KR101828639B1 (pt)
CN (1) CN103155584A (pt)
AU (1) AU2011315435B2 (pt)
BR (1) BR112013008587B1 (pt)
WO (1) WO2012049305A1 (pt)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2680599A1 (en) 2012-06-29 2014-01-01 Thomson Licensing Provision of a personalized media content
EP2704449A1 (en) 2012-08-30 2014-03-05 Thomson Licensing Rendering time control
EP3013058A4 (en) * 2013-06-19 2017-02-15 LG Electronics Inc. Broadcasting transmission/reception apparatus and broadcasting transmission/reception method
JP6625318B2 (ja) * 2013-08-29 2019-12-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 送信方法および受信方法
JP6505996B2 (ja) * 2013-08-30 2019-04-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 受信方法、及び、受信装置
JP6418162B2 (ja) * 2013-09-30 2018-11-07 ソニー株式会社 受信装置および受信方法
US10080055B2 (en) 2013-12-23 2018-09-18 Lg Electronics Inc. Apparatuses and methods for transmitting or receiving a broadcast content via one or more networks
CN105917655B (zh) * 2014-01-13 2019-07-09 Lg电子株式会社 经由一个或者多个网络发送或者接收广播内容的设备和方法
WO2015105400A1 (en) 2014-01-13 2015-07-16 Lg Electronics Inc. Apparatuses and methods for transmitting or receiving a broadcast content via one or more networks
WO2015108309A1 (en) * 2014-01-14 2015-07-23 Lg Electronics Inc. Broadcast transmission device and operating method thereof, broadcast reception device and operating method thereof
US9560421B2 (en) * 2014-03-27 2017-01-31 Samsung Electronics Co., Ltd. Broadcast and broadband hybrid service with MMT and DASH
US10897636B2 (en) * 2014-04-18 2021-01-19 Lg Electronics Inc. Broadcast signal transmitting apparatus and broadcast signal transmitting method
CN104135667B (zh) 2014-06-10 2015-06-24 腾讯科技(深圳)有限公司 一种视频异地解说同步方法、终端设备,及系统
CN104079957B (zh) * 2014-06-25 2017-09-01 广东欧珀移动通信有限公司 一种多媒体设备同步操作的方法及系统
RU2687065C2 (ru) * 2014-07-18 2019-05-07 Сони Корпорейшн Устройство передачи, способ передачи, устройство приема и способ приема
JP6318953B2 (ja) * 2014-07-30 2018-05-09 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
EP3032766A1 (en) 2014-12-08 2016-06-15 Thomson Licensing Method and device for generating personalized video programs
DE102015001622A1 (de) 2015-02-09 2016-08-11 Unify Gmbh & Co. Kg Verfahren zur Übertragung von Daten in einem Multimedia-System, sowie Softwareprodukt und Vorrichtung zur Steuerung der Übertragung von Daten in einem Multimedia-System
US10986421B2 (en) * 2017-07-03 2021-04-20 Dolby Laboratories Licensing Corporation Identification and timing data for media content
US10009862B1 (en) * 2017-09-06 2018-06-26 Texas Instruments Incorporated Bluetooth media device time synchronization
WO2019053853A1 (ja) * 2017-09-14 2019-03-21 株式会社メディアリンクス 映像切替システム
JP6504294B2 (ja) * 2018-03-23 2019-04-24 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP6743931B2 (ja) * 2019-03-26 2020-08-19 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
CN114223211A (zh) * 2019-10-01 2022-03-22 索尼集团公司 信息处理装置和信息处理方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001069459A (ja) * 1999-06-22 2001-03-16 Matsushita Electric Ind Co Ltd カウントダウン音声作成装置、及びカウントダウン音声作成システム
US6778756B1 (en) 1999-06-22 2004-08-17 Matsushita Electric Industrial Co., Ltd. Countdown audio generation apparatus and countdown audio generation system
US6415438B1 (en) * 1999-10-05 2002-07-02 Webtv Networks, Inc. Trigger having a time attribute
US6583821B1 (en) 1999-07-16 2003-06-24 Thomson Licensing S.A. Synchronizing apparatus for a compressed audio/video signal receiver
CA2313979C (en) 1999-07-21 2012-06-12 Thomson Licensing Sa Synchronizing apparatus for a compressed audio/video signal receiver
JP4407007B2 (ja) 2000-05-02 2010-02-03 ソニー株式会社 データ送信装置及び方法
US7313313B2 (en) 2002-07-25 2007-12-25 Microsoft Corporation Audio/video synchronization with no clean points
JP2004088366A (ja) * 2002-08-26 2004-03-18 Matsushita Electric Ind Co Ltd デジタル放送受信機およびデジタル放送システム
FR2859859A1 (fr) 2003-09-16 2005-03-18 France Telecom Procede et module de reception de signaux de television
US7657645B2 (en) 2004-02-05 2010-02-02 Sharp Laboratories Of America, Inc. System and method for transporting MPEG2TS in RTP/UDP/IP
JP4718275B2 (ja) * 2005-08-26 2011-07-06 三菱電機株式会社 複数メディアの同期再生システム及び同期再生方法
EP1855402A1 (en) 2006-05-11 2007-11-14 Koninklijke Philips Electronics N.V. Transmission, reception and synchronisation of two data streams
CN101179484A (zh) * 2006-11-09 2008-05-14 华为技术有限公司 一种不同媒体流间的同步方法及系统
EP1954054A1 (en) 2007-02-02 2008-08-06 Thomson Licensing System and method for transporting interactive marks
EP2073548A1 (en) 2007-12-17 2009-06-24 Alcatel Lucent Method for synchronizing at least two streams
CN102057687B (zh) * 2008-06-11 2013-06-12 皇家飞利浦电子股份有限公司 媒体流成分的同步
US8776144B2 (en) 2008-10-16 2014-07-08 Industrial Technology Research Institute Mobile TV system and method for synchronizing the rendering of streaming services thereof

Also Published As

Publication number Publication date
AU2011315435B2 (en) 2016-05-12
BR112013008587A2 (pt) 2016-07-12
CN103155584A (zh) 2013-06-12
US20130335629A1 (en) 2013-12-19
AU2011315435A1 (en) 2013-05-09
JP2013545355A (ja) 2013-12-19
KR101828639B1 (ko) 2018-03-22
KR20130138777A (ko) 2013-12-19
WO2012049305A1 (en) 2012-04-19
EP2628297B1 (en) 2017-07-12
US9729762B2 (en) 2017-08-08
JP6053686B2 (ja) 2016-12-27
EP2628297A1 (en) 2013-08-21

Similar Documents

Publication Publication Date Title
BR112013008587B1 (pt) Método para processar dados de multimídia em um dispositivo de recepção, e dispositivo de recepção
ES2848116T3 (es) Transmisión basada en formato de archivo con formatos DASH basados en LCT
ES2710702T3 (es) Temporización en vivo para la transmisión continua dinámica adaptativa sobre el HTTP (DASH)
TWI668982B (zh) 用於多媒體和檔案傳輸的傳輸介面的方法及伺服器設備、及用於記錄相關指令於其上的電腦可讀取儲存媒體
JP4766473B2 (ja) メディアデータコンテナとメタデータコンテナとを有するファイルを処理し読出すための装置および方法
US20170272840A1 (en) Method for transceiving media files and device for transmitting/receiving using same
ES2726772T3 (es) Grupos de representación de medios para transmisión continua en red de datos de vídeo codificados
BR112020015214A2 (pt) inserção dinâmica de anúncio condicional
JP6302274B2 (ja) 送信装置及び受信装置
WO2016145913A1 (zh) 自适应流媒体处理方法及装置
BR112016022965B1 (pt) Aparelhos e métodos de transmissão e recepção
BR112020000307A2 (pt) processamento de dados de mídia que utiliza trilhas de arquivo para conteúdo de web
JP2019169948A (ja) 送信方法、受信方法、送信装置および受信装置
BR112016023984B1 (pt) Aparelho e método de transmissão e de recepção
BR112020022899A2 (pt) sinalizar, em um arquivo de manifesto, seções ausentes de dados de mídia para rede de fluxo contínuo
BR112020014495A2 (pt) processamento de conteúdo de rede dinâmica de uma faixa de recurso de rede iso bmff
TW202041039A (zh) 促進使用包括設定檔指示之串流資訊清單之方法及裝置
US9250646B2 (en) Clock recovery using remote arrival timestamps
US10231007B2 (en) Transmission device, transmitting method, reception device, and receiving method
JP2018182677A (ja) 情報処理装置、情報処理方法、プログラム、および記録媒体製造方法
JP2018182617A (ja) 情報処理装置、情報処理方法、プログラム、および記録媒体製造方法
EP2479984A1 (en) Device and method for synchronizing content received from different sources
BR112014027993B1 (pt) Método implementado por computador através dos um ou mais dispositivos de computação para determinar uma porcentagem de uma propaganda reproduzível por um aparelho inteligente, sistema de computador para reportar uma porcentagem de uma propaganda reproduzível por um aparelho inteligente, e mídia de armazenamento não transitório legível por computador
JP2022064531A (ja) 送信装置および受信装置
BR112016022245B1 (pt) Método e dispositivo de recuperar dados de mídia

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B25G Requested change of headquarter approved

Owner name: THOMSON LICENSING (FR)

B25A Requested transfer of rights approved

Owner name: INTERDIGITAL CE PATENT HOLDINGS (FR)

B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 14/10/2011, OBSERVADAS AS CONDICOES LEGAIS.