BR112013008587B1 - Método para processar dados de multimídia em um dispositivo de recepção, e dispositivo de recepção - Google Patents
Método para processar dados de multimídia em um dispositivo de recepção, e dispositivo de recepção Download PDFInfo
- Publication number
- BR112013008587B1 BR112013008587B1 BR112013008587-8A BR112013008587A BR112013008587B1 BR 112013008587 B1 BR112013008587 B1 BR 112013008587B1 BR 112013008587 A BR112013008587 A BR 112013008587A BR 112013008587 B1 BR112013008587 B1 BR 112013008587B1
- Authority
- BR
- Brazil
- Prior art keywords
- data
- multimedia data
- network
- content
- stream
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 14
- 238000012545 processing Methods 0.000 title claims abstract description 5
- 230000005540 biological transmission Effects 0.000 claims description 31
- 238000009877 rendering Methods 0.000 claims description 30
- 230000001360 synchronised effect Effects 0.000 claims description 11
- 230000032258 transport Effects 0.000 description 42
- 238000002372 labelling Methods 0.000 description 10
- 241000238876 Acari Species 0.000 description 5
- 230000000295 complement effect Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 101100208128 Arabidopsis thaliana TSA1 gene Proteins 0.000 description 1
- 101100201844 Homo sapiens RSPH1 gene Proteins 0.000 description 1
- 102100035089 Radial spoke head 1 homolog Human genes 0.000 description 1
- 101150104676 TSA2 gene Proteins 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/236—Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/04—Synchronising
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/242—Synchronization processes, e.g. processing of PCR [Program Clock References]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/238—Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
- H04N21/2389—Multiplex stream processing, e.g. multiplex stream encrypting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43072—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/438—Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
- H04N21/4385—Multiplex stream processing, e.g. multiplex stream decrypting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44004—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/61—Network physical structure; Signal processing
- H04N21/6106—Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
- H04N21/6112—Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving terrestrial transmission, e.g. DVB-T
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/61—Network physical structure; Signal processing
- H04N21/6106—Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
- H04N21/6125—Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/63—Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/63—Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
- H04N21/631—Multimode Transmission, e.g. transmitting basic layers and enhancement layers of the content over different transmission paths or transmitting with different error corrections, different keys or with different transmission protocols
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/63—Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
- H04N21/643—Communication protocols
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/63—Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
- H04N21/643—Communication protocols
- H04N21/6437—Real-time Transport Protocol [RTP]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8455—Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
método para sincronizar fluxos de multimídia e dispositivo correspondente. a presente invenção se refere a um dispositivo de recepção e a um método para processamento de fluxos de multimídia no dispositivo compreendendo uma interface para uma primeira rede e uma interface para uma segunda rede, o método compreendendo as seguintes etapas: receber, a partir da primeira rede, um fluxo compreendendo dados de multimídia através de um primeiro protocolo de transporte adaptado com um primeiro sistema de sincronização de dados; receber, a partir da segunda rede, um segundo fluxo compreendendo dados de multimídia através de um segundo protocolo de transporte adaptado com um segundo sistema de sincronização de dados, o segundo sistema de sincronização sendo baseado em referências de temporização diferentes daquelas do primeiro sistema de sincronização de dados; caracterizado em que o primeiro e o segundo fluxo transportam a mesma informação de sincronização no campo de carga útil do primeiro e do segundo protocolo de transporte, a informação de sincronização compreendendo os dados indicando o momento a partir do qual os dados de multímidia devem ser renderizados; sincronizar o primeiro e o segundo fluxo mediante uso da informação de sincronização; e realizar uma etapa para renderizar o primeiro e o segundo fluxo de multimídia.
Description
A presente invenção se refere ao processamento de fluxos de multimídia a partir de diferentes fontes de multimídia ou transmitidos por intermédio de diferentes protocolos de transporte e restaurados em um dispositivo de renderização.
Em TV de difusão, os fluxos de áudio e vídeo são tradicionalmente transmitidos em conjunto. Eles geralmente são providos por uma única fonte de multimídia, por exemplo, um provedor de conteúdo de multimídia, então transportados por um único protocolo de transporte através de uma determinada rede de transporte, entregues então a um único dispositivo de usuário final, por exemplo, um decodificador ou uma televisão, encarregada de ler esses fluxos, exibir os dados de vídeo em uma tela e transmitir os dados de áudio em um altofalante.
Com o rápido desenvolvimento da rede Internet e das redes de telecomunicação móveis, novas aplicações de multimídia pareceram nas quais as fontes e/ou os protocolos de transporte podem ser diferentes para os fluxos de áudio e os fluxos de vídeo. Aplicações interativas também apareceram para as quais as fontes e os protocolos de transporte também podem ser diferentes daqueles dos conteúdos de áudio/vídeo aos quais eles se referem. Essas aplicações podem desse modo ser transportadas através de redes de banda larga.
Para essas novas aplicações, é necessário ter certeza de que a renderização do fluxo de áudio seja síncrona com a renderização do fluxo de vídeo, ou que a aplicação interativa seja renderizada de forma síncrona com o fluxo de áudio/vídeo.
Um exemplo de aplicação de multimídia nova é a geração de um fluxo de áudio por intermédio de uma fonte diferente daquela do fluxo de vídeo, esse fluxo de áudio sendo des-tinado a substituir ele próprio por um fluxo de áudio básico o qual pode ser provido com o fluxo de vídeo. Por exemplo, no caso de uma transmissão de jogo de futebol na televisão, é possível substituir o fluxo de áudio básico provido com o fluxo de vídeo do jogo por um fluxo de áudio compreendendo os comentários exemplares em uma linguagem diferente daquela do fluxo de áudio básico que seria fornecido por outro provedor de multimídia e não pela transmissora do jogo. Para que o fluxo de áudio possa ser sincronizado com o fluxo de vídeo, os fluxos devem conter referências de temporização comuns ou equivalentes. Como uma regra geral, o protocolo de transporte fornece essas referências ou marcações de tempo ao dispositivo de renderização de modo que ele regula e sincroniza a renderização dos dois fluxos.
A marcação de tempo geralmente é um valor de contador que indica o tempo du rante o qual ocorre o evento associado a essa marcação de tempo. A frequência de relógio do contador deve ser um valor conhecido pelo dispositivo de renderização de modo que ele regule de forma correta a renderização do fluxo. A forma na qual essa frequência de relógio é fornecida ao dispositivo de renderização é descrita nas especificações das camadas de transporte (MPEG-TS, RTP, etc.).
Para que o dispositivo de renderização possa sincronizar os dois fluxos, o mencionado por último geralmente se refere a um relógio comum normalmente denominado “relógio de parede”. Por exemplo, no caso do protocolo RTP (Protocolo de Transporte em Tempo Real) especificado pela IETF de acordo com RFC 3550, um transmissor transmite periodicamente uma mensagem denominada informe de transmissão RTCP (para Protocolo de Controle de Transporte em Tempo Real) indicando a equivalência entre a marcação de tempo e o tempo determinado pelo relógio comum. Se os fluxos de áudio de vídeo forem providos por fontes diferentes, essas duas fontes devem compartilhar o mesmo relógio comum. O protocolo NTP (Protocolo de Tempo de Rede) é usado tipicamente para sincronizar as duas fontes no mesmo relógio.
Contudo, quando as duas fontes não são conectadas por uma rede suficientemente confiável em termos de tempo de transporte, outro mecanismo de sincronização é então necessário.
Esse problema de sincronização também pode existir entre dois fluxos de vídeo que são exibidos em um único dispositivo de renderização, um dos conteúdos de vídeo sendo exibido mediante imagem em imagem naquele outro, quando os dois fluxos não forem providos pela mesma fonte ou no mesmo protocolo de transporte. A função de Imagem em Imagem é um exemplo disso. Outro exemplo se refere aos casos de transição 2D para 3D onde um vídeo 2D é recebido no fluxo de transmissão e o complemento 3D possibilitando que uma exibição 3D seja recebida no fluxo de banda larga.
A presente invenção se refere a um objeto capaz de resolver os problemas de sin-cronização quando os fluxos são distribuídos através de redes que têm diferentes bases de tempo.
Com essa finalidade, o propósito da invenção é um método para o processamento de fluxos de dados de multimídia no dispositivo compreendendo uma interface para uma primeira rede e uma interface para uma segunda rede, o método compreendendo as seguintes etapas: receber, a partir da primeira rede, um primeiro fluxo compreendendo dados de multimídia através de um primeiro protocolo de transporte adaptado com um primeiro sistema de sincronização de dados; receber, a partir da segunda rede, um segundo fluxo compreendendo dados de multimídia através de um segundo protocolo de transporte adaptado com um segundo sistema de sincronização de dados, o segundo sistema de sincronização se baseando em referências de temporização diferentes daquelas do primeiro sistema de sincronização de dados; o primeiro e o segundo fluxo transportando a mesma informação de sincronização no campo de dados do primeiro e do segundo protocolo de transporte, a in-formação de sincronização compreendendo os dados indicando o momento a partir do qual os dados de multimídia devem ser renderizados; sincronizar o primeiro e o segundo fluxo mediante uso da informação de sincronização; e realizar uma etapa para renderizar o primeiro e o segundo fluxo de multimídia.
A invenção tem as vantagens de propor um sistema de sincronização complementar àqueles usados pelos protocolos de transporte respectivos.
De acordo com uma modalidade, os protocolos de transporte são do tipo MPEG-2 TS e/ou RTP.
De acordo com uma modalidade, a informação de sincronização se baseia nas refe-rências de temporização de um dos protocolos de transporte.
De acordo com uma modalidade, a etapa de sincronização compreende uma etapa de retardar o conteúdo recebido antecipadamente mediante uma memorização, até que o conteúdo possa ser renderizado de forma síncrona.
De acordo com uma modalidade, o primeiro fluxo é recebido na primeira rede no modo de transmissão, e compreende informação de contagem descendente indicando quando os primeiros dados de multimídia a serem recebidos na primeira rede terão que ser renderizados, os segundos dados de multimídia do segundo fluxo sendo pré-carregados mediante solicitação do dispositivo de recepção na segunda rede suficientemente antecipada para possibilitar que o dispositivo de recepção renderize os mesmos de forma síncrona com os primeiros dados de multimídia quando eles forem recebidos.
Outro propósito da invenção se refere a um dispositivo de recepção compreendendo uma interface para uma primeira rede possibilitando um primeiro fluxo compreendendo dados de multimídia a serem recebidos através de um primeiro protocolo de transporte adaptado com um primeiro sistema de sincronização de dados; e uma interface para uma segunda rede, possibilitando um segundo fluxo compreendendo dados de multimídia a serem recebidos através de um segundo protocolo de transporte adaptado com um segundo sistema de sincronização de dados, o segundo sistema de sincronização sendo baseado em referências de temporização diferentes daquelas do primeiro sistema de sincronização de dados; um sincronizador para sincronizar o primeiro e o segundo fluxo mediante uso de informação de sincronização transportada no primeiro e segundo fluxo e compreendendo dados indicando quando os dados de multimídia devem ser renderizados; e uma terceira interface possibilitando que o primeiro e o segundo fluxo de multimídia sejam transmitidos de forma síncrona.
A invenção também se aplica a um produto de programa de computador compre- endendo instruções de código de programa para a execução das etapas do método de acordo com a invenção, quando esse programa é executado em um computador. “Produto de programa de computador” é entendido como significando um meio de programa de computador que pode consistir não apenas em um espaço de armazenamento contendo o programa, tal como uma memória de computador, mas também um sinal, tal como um sinal elétrico ou ótico.
A invenção será mais bem-entendida e ilustrada por intermédio das modalidades e das implementações seguintes, de forma alguma limitadoras, com referência às Figuras anexas no apêndice, em que:- A Figura 1 é um sistema de distribuição de conteúdo de acordo com uma modalidade da invenção;- A Figura 2 é um diagrama de blocos de distribuição de conteúdo de acordo com uma modalidade da invenção;- A Figura 3 é um diagrama de blocos de distribuição de conteúdo de acordo com outra modalidade da invenção; e- A Figura 4 é um decodificador de acordo com uma modalidade da invenção.
Nas Figuras 1 e 4, os módulos mostrados são unidades funcionais que podem ou não corresponder às unidades fisicamente distinguíveis. Por exemplo, esses módulos ou alguns deles podem ser agrupados em conjunto em um único componente, ou constituir funções do mesmo software. Ao contrário, alguns módulos podem ser compostos de entidades físicas separadas.
As modalidades são colocadas dentro da estrutura de distribuição de conteúdo através de duas redes de comunicação e de acordo com dois protocolos de transporte de dados, diferentes, isto é, RTP e MPEG-2 TS, mas a invenção não é limitada a esse ambiente específico e pode ser aplicada dentro de outros sistemas de distribuição de dados.
Um sistema de distribuição de conteúdo de acordo com uma modalidade da invenção é ilustrado na Figura 1. O mesmo compreende um servidor 1 do tipo de servidor de áu- dio/vídeo. O servidor transmite um conteúdo de áudio/vídeo através de uma rede de transmissão assinalada como rede de transmissão 7. A rede de transmissão é do tipo DVB-T e transporta dados de áudio/vídeo de acordo com o protocolo de transporte de fluxo de transporte MPEG-2, assinalado como MPEG-2 TS, e especificado no padrão ISO/padrão IEC 13818-1: “Information technology - generic coding of moving pictures and associated audio information: Systems”, e assinalado como ISO/IEC 13818-1. A rede de transmissão é aqui do tipo unidirecional, porém a invenção se aplica naturalmente a qualquer tipo de rede de transmissão e também não é limitada ao protocolo de transporte MPEG-2 TS.
O conteúdo de áudio/vídeo é recebido por um decodificador de vídeo 4, assinalado como STB (para conversor de sinal de frequência). O STB decodifica o conteúdo de áudio e vídeo e transmite o conteúdo decodificado para um aparelho de televisão, TV 5.
De acordo com o protocolo MPEG-2 TS, referências de temporização são transmitidas para o decodificador. O fluxo de transporte compreende pacotes de Referência de Relógio de Programa (também assinalada como PCR) que são amostras do relógio de tempo do sistema (STC) contidas no servidor. Elas são usadas para sincronizar o sistema de relógio no decodificador. Os fluxos elementares de um determinado serviço contêm pacotes que contêm uma marcação de tempo de apresentação (também assinalada como PTS) que representa o tempo durante o qual os dados transportados no pacote devem ser renderizados.
O mesmo servidor é acessível pelo STB através de uma rede de distribuição de banda larga, ou rede de banda larga 2. Particularmente, a rede de banda larga utiliza a rede Internet 2 acessível ao STB através de um portal nativo, assinalado como HG 3. Essa rede é do tipo bidirecional e possibilita ao portal transmitir e receber dados para/a partir do servidor e mais geralmente a qualquer tipo de servidor acessível através da rede Internet.
De acordo com a modalidade, o servidor torna acessível ao STB um segundo fluxo de áudio complementar ao conteúdo de áudio/vídeo de transmissão. Esse segundo fluxo de áudio pode ser recebido pelo STB por intermédio do protocolo de transporte RTP/RTCP. Portanto, quando recebido, o fluxo de áudio é decodificado e transmitido para o aparelho de televisão. O protocolo RTCP indica ao decodificador a equivalência entre a marcação de tempo de apresentação e o tempo dado pelo relógio comum de acordo com o Protocolo de Tempo de Rede (NTP).
De acordo com a modalidade da invenção, embora o fluxo de áudio/vídeo e o segundo fluxo de áudio sejam transmitidos por duas redes diferentes utilizando diferentes protocolos de transporte, eles são reproduzidos de forma síncrona no aparelho de televisão. Na realidade, um item de informação de sincronização é transmitido pelo servidor na forma de pacote de dados, auxiliar. Essa informação possibilita que o STB sincronize o tempo de ren- derização de fluxo de áudio/vídeo naquele do segundo áudio. Na prática, apenas a parte de vídeo do fluxo de áudio-vídeo é renderizada, e o segundo áudio é renderizado de forma síncrona.
A Figura 2 ilustra o transporte de dados de acordo com o protocolo MPEG-2 TS no modo de transmissão e de acordo com o protocolo RTP/RTCP no modo de banda larga. No modo de transmissão, os quadros de vídeo V0 a V3 são transmitidos com pacotes de marcação de tempo de apresentação, correspondentes, PTSv0 a PTSv3. No modo de banda larga, os quadros de áudio A0 a A2 são transportados com pacotes de marcação de tempo de apresentação, correspondentes, TSA0 a TSA2.
De acordo com a modalidade, pacotes de dados auxiliares T0 a T2 são associados com os fluxos de vídeo e áudio e são transmitidos através de duas redes mediante uso do mesmo protocolo de transporte que os fluxos com os quais eles são associados. Em cada rede, os pacotes de dados auxiliares e o fluxo de multimídia são sincronizados por intermédio do protocolo de sincronização específico para o protocolo de transporte. Os pacotes de dados auxiliares transportam dados de sincronização temporal. Esses dados podem ser assimilados com uma linha de tempo e representam um valor de contador a partir de um tempo determinado, por exemplo, o início do evento atual. Uma transmissão de quadro de vídeo através da rede de transmissão e uma transmissão de quadro de áudio através da rede de banda larga que devem ser renderizadas ao mesmo tempo se referirão ao mesmo valor de linha de tempo.
Os dados de sincronização transportados através das duas redes utilizam o mesmo formato. Esse formato pode ser diferente daqueles das referências de temporização usadas pelos protocolos de transporte.
Eles habilitam o receptor a equiparar a referência de relógio PCR com a referência de relógio NTP. Em outras palavras, isso possibilita que se meça o tempo entre a apresentação de conteúdos.
O decodificador pode ajustar dessa forma a apresentação de áudio com relação ao vídeo. Particularmente, se o vídeo for recebido antecipadamente, ele é memorizado por um tempo suficientemente longo para possibilitar a renderização de áudio de forma síncrona. Mais geralmente, o receptor memoriza os dados recebidos antecipadamente para apresentar os mesmos de forma síncrona com os dados recebidos mais tarde.
Contudo, dentro da estrutura de MPEG-2 TS, um modelo temporal impõe o não retardo da renderização de dados. Mais precisamente, o tempo entre a codificação de dados e a apresentação de dados deve permanecer constante. Portanto, isso não permite retardo na renderização dos dados de vídeo no caso da modalidade.
Esse é o motivo pelo qual em uma segunda modalidade, o decodificador recebe in-formação indicando a ele antecipadamente quando um conteúdo vindouro será exigido. Essas são informações de contagem regressiva indicando o início de uma linha de tempo. Mais precisamente, conforme ilustrado na Figura 3, se o conteúdo deve começar a ser ren- derizado no momento correspondendo àquele indicado nos dados auxiliares T0, um item de informação T-3, T-2, T-1 é recebido antecipadamente pelo receptor indicando a ele quando começará esse tempo T0. Isso possibilita que ele recupere antecipadamente, em um modo chamado de modo de pré-busca, os dados de áudio correspondendo ao vídeo que será ren- derizado no tempo T0. Essas informações são recebidas através das redes do tipo transmissão e se destinam a possibilitar que os terminais sejam pré-carregados antecipadamente ao componente de banda larga. Elas permitem que o decodificador emita solicitações para receber os dados antecipadamente.
Um STB de acordo com as modalidades é ilustrado na Figura 4. O mesmo compreende uma interface 44 para a rede de distribuição 7, uma interface 43 para a rede de banda larga 6, e uma interface 47 para um aparelho de televisão 5. Isso compreende um decodifi- cador de áudio/vídeo 45. Isso também compreende um sincronizador 46 que possibilita a sincronização de renderização de conteúdos de acordo com o que é indicado acima. Mais particularmente, o sincronizador identifica os dados auxiliares associados com os fluxos de áudio e vídeo. Ele mede desse modo o tempo entre a renderização dos dois fluxos. De acordo com o valor de tempo, o sincronizador memoriza 42 um dos conteúdos de modo que as renderizações sejam sincronizadas. Os conteúdos são decodificados e sincronizados desse modo para serem entregues a um aparelho de televisão através da interface de TV 47. O STB compreende naturalmente um processador 41 que possibilita a implementação de várias aplicações tal como decodificação ou o sincronizador. Naturalmente, os conteúdos sincronizados poderiam ser transmitidos para qualquer tipo de dispositivo possibilitando que esses conteúdos sejam reproduzidos.
Os pacotes de dados auxiliares são descritos agora em detalhe para o MPEG-2 TS e para o RTP. Os campos são indicados no idioma inglês para facilitar a leitura com relação às especificações indicadas.
Com relação ao MPEG-2 TS, a especificação "ETSI TS 102 823 v1.1.1 (2005-11) over Digital Video Broadcasting (DVB); Specification for the carriage of synchronized auxiliary data in DVB transport streams", assinalada como TS102823, descreve um método usado para transportar, em um fluxo de transporte do tipo DVB, os dados auxiliares que devem ser sincronizados com os assim chamados dados lineares tal como dados de áudio ou vídeo. O mesmo oferece a possibilidade de codificar o campo de carga útil da estrutura de dados auxiliar sob vários formatos. Particularmente, os formatos usados são aqueles indicados nas seções 5.2.2 e 5.2.4 de TS102823. Esses são o Descritor de Linha de Tempo de Transmissão e o Descritor de Rotulagem de Conteúdo. O Descritor de Linha de Tempo de Transmissão é um elemento de conteúdo linear com uma linha de tempo inerente que aumenta na mesma taxa à medida que ele flui. Ele é usado para indicar o valor da linha de tempo. O Descritor de Rotulagem de Conteúdo é um meio de associar um rótulo, uma forma de um identificador com um elemento de conteúdo.
Isto é, o pacote de dados auxiliares compreende os seguintes dados: Informação de Cabeçalho de Pacote de Fluxo de Transporte, Informação de Cabeçalho de Pacote de Fluxo Elementar e estruturas de dados auxiliar. Essa última compreende o Descritor de Linha de Tempo de Transmissão e o Descritor de Rotulagem de Conteúdo.
O formato do pacote de transporte é tal como definido na especificação ISO/IEC 13818-1, seção 2.4.3.2. O pacote de dados auxiliar compreende nenhum campo de adaptação. O PCR é transportado em um componente separado ou no campo de adaptação do componente de áudio ou vídeo do mesmo programa. Os campos e valores de pacote de transporte são indicados na seguinte tabela:
O formato do pacote Fluxo Elemen tar é tal como de finido na especificação ISO/IEC13818-1, seção 2.4.3.6. Os campos e valores são indicados na tabela seguinte:
O formato da estrutura de dados auxiliar é tal como definido na especificação TS102823, seção 4.5. Os campos e valores são indicados na tabela seguinte:
O valor do campo Payload_format é 0x1 para indicar que o campo de carga útil éum dos descritores definidos na especificação TS 102823, seção 5, e mais particularmente 5 isso envolve o descritor de linha de tempo de transmissão.
O descritor de linha de tempo de transmissão é definido na especificação TS102823, seção 5.5.2. De acordo com a modalidade, a linha de tempo de transmissão é do tipo direto, ela é linear e não está sujeita a descontinuidades. O valor do campo de status Executando é “executando”. O formato de tick é 90.000 ticks por segundo. Os campos e 10 valores são indicados na tabela seguinte:
Com relação à segunda moda idade, o descritor de linha de tempo de transmissãoé diferente nos seguintes pontos. O valor do campo status Executando é “contagem regres-siva”. Esse é um valor privado o qual não é especificado no padrão. O valor de um campo de informação de linha de tempo de transmissão é “Prefetch_period_duration_ticks” paraindicar o período de pré-busca em número de tiks. Um campo “Absolute_ticks” representa o avanço do contador. A combinação do valor desse campo com o “Prefe-tch_period_duration_ticks” possibilita indicação do momento no qual o conteúdo será exibido. Portanto, um valor igual a zero significa que o conteúdo será exibido em tiks “Prefe- tch_period_duration_ticks”. Um valor “Prefetch_period_duration_ticks” significa que o conte-údo começa a ser exibido. Os campos e valores são indicados na tabela seguinte:
O formato do descritor de rotulagem de conteúdo é tal como definido em TS102823,seção 5.2.4. Os campos e valores são indicados na tabela seguinte:
O campo content_reference_id_data é definido na tabela seguinte:O campo content_labeling_id_type especifica o tipo de identificador. Os valores são indicados na tabela seguinte:
O campo content_labeling_id_lenght indica a extensão do campo con-tent_labeling_id. O campo content_labeling_id_byte identifica o conteúdo. O campo de rotulagem de conteúdo pode ser referido no descritor de identificador de conteúdo tal como definido na seção 12.1 do padrão ETSI TS 102 323 em "Digital Video Broadcasting (DVB); Carriage and signalling of TV-Anytime information in DVB transport streams". Isso possibilita que o ID de rotulagem de conteúdo seja tornado público. Isto é, uma entidade externa pode se referir ao conteúdo referenciado pela linha de tempo associada com o descritor de identificador de conteúdo sem ter que analisar o componente de linha de tempo auxiliar.
Com relação ao transporte pelo RTP, os dados auxiliares são transportados na parte de campo de carga útil do pacote RTP. O campo de carga útil contém um Descritor de Linha de Tempo de Transmissão e um Descritor de Rotulagem de Conteúdo similar àqueles indicados acima. Os campos de pacote RTP e valores são indicados na tabela seguinte:BT desc type (8 bits): tipo de descritor. Valor ajustado para 0x2 para indicar que o descritor é do tipo de linha de tempo de transmissão.BT desc length (8 bits): linha de tempo de transmissão descriptor_length. Representa, para esse descritor, o número total de bytes após o byte que define o valor desse campo. Valor ajustado para 0x8.BT Id (8 bits): Id de linha de tempo de transmissão.R (1 bit): reservado, valor ‘1’.T (1 bits): do tipo de linha de tempo de transmissão. Valor ajustado para ‘0’ para indicar uma codificação de tipo direto.C (1 bit): Continuity_indicator. Valor ajustado para ‘0’ para indicar uma linha de tempo de transmissão linear não sujeita às descontinuidades.P (1 bit): Prev_discontinuity_flag. Valor ajustado para ‘0’ para indicar que não há descontinuidade anterior.N (1 bit): Next_discontinuity_flag. Valor ajustado para ‘0’ para indicar que não há continuidade futura.RS (3 bits): status em execução. Valor ajustado para “0x4” para indicar que o status é “executando”.res (2 bits): reservado. Valor ajustado para “11”.tick format (6 bits): tick_format. Valor ajustado para “0x11” para indicar 90.000 ticks por segundo.Ticks absolutos (32 bits): valor de ticks absolutos.
Comprimento de informação (8 bits): valor ajustado para 0x0 para indicar que ne-nhuma informação de linha de tempo de transmissão está presente.
CL desc type (8 bits): tipo de descritor. Valor ajustado para 0x4 para indicar que o descritor é do tipo de rotulagem de conteúdo.
Comprimento de descritor CL (8 bits): comprimento de descritor de rotulagem de conteúdo. Representa, para esse descritor, o número total de bytes após o byte que define o valor desse campo.
Formato de aplicação de metadados (16 bits): formato de aplicação de metadados. Valor ajustado para 0x4444 para indicar que ele é definido pelo usuário.F (1 bit): sinalizador de gravação de id de referência de conteúdo. Valor ajustado para ‘1’ para sinalizar a presença de um content_reference_id_record nesse descritor.CTBI (4 bits): indicador de base de tempo de conteúdo. Valor ajustado para 0x8 para indicar o uso da linha de tempo de transmissão DVB.Res (3 bits): reservado. Valor ajustado para ‘111’
Comprimento CRIR (8 bits): comprimento de gravação de id de referência de con-teúdo. Especifica o número de bytes do content_reference_id após esse campoCLI_type (8 bits): tipo de id de rotulagem de conteúdo. Especifica o tipo de identifi-cação de referência do conteúdo.CLI_length (8 bits): comprimento de ide de rotulagem de conteúdo. Especifica o comprimento em número de bytes do id de rotulagem de conteúdo, isto é, os bytes de CLI.CLI bytes (CLI_length bytes): id de rotulagem de conteúdo que identifica o conteúdo.
Comprimento de TBAD (8 bits): comprimento de dados de associação de base de tempo. Ajustado para 0x2.Reservado (7 bits): reservado. Valor ajustado para ‘111111’.M (1 bit): sinalizador de mapeamento de base de tempo. Valor ajustado para ‘0’ para indicar que nenhum mapeamento explícito a partir da base de tempo externa para a linha de tempo de transmissão é provido.BT ID (8 bits): ID de linha de tempo de transmissão ao qual a rotulagem de conteúdo se refere.
Para a segunda modalidade, as diferenças em comparação com o pacote RTP pre-cedente são indicadas abaixo. Os campos de pacote RTP e os valores são indicados na tabela a seguir:
O campo ‘BT desc length’ representa o comprimento do descritor de linha de tempo de transmissão, particularmente o número total de bytes após o byte que define o valor desse campo. O campo RS representa o status de execução e seu valor é “contagem regressiva”. O campo de comprimento de informação representa o comprimento do campo “informação de linha de tempo de transmissão”. Os campos Prefetch_period_duration_ticks e “ticks absolutos” têm o mesmo significado como no caso MPEG-2 TS indicado acima.
Portanto, a linha de tempo se baseia no mesmo relógio qualquer que seja o protocolo de transporte e a rede, utilizados.
As modalidades da invenção se baseiam em dois protocolos de transporte diferentes com diferentes referências de temporização. Naturalmente, a invenção se aplica da mesma maneira a dois protocolos de transporte idênticos baseados em diferentes referências de temporização. Similarmente, a primeira modalidade poderia se basear em duas redes de banda larga ou duas redes de transmissão.
Nas modalidades, os dados de sincronização transmitidos nos pacotes de dados auxiliares se baseiam em um dos relógios, isto é, aquele relacionado ao MPEG-2 TS. Natu-ralmente, esses dados de sincronização poderia também se basear em um relógio indepen-dentemente daqueles dos protocolos de transporte.
As modalidades são baseadas em um receptor. Alternativamente, os conteúdos de áudio e de vídeo poderiam ser renderizados em equipamento distinto. Um primeiro equipa-mento é então considerado como o mestre. Ele periodicamente comunica ao segundo equi-pamento a informação temporal correspondendo ao conteúdo comumente renderizado. O sincronizador do segundo equipamento utiliza essa informação como uma referência. O tempo de comunicação entre os dois equipamentos presumidamente é conhecido ou é sufi-cientemente baixo.A invenção é descrita no texto precedente como um exemplo. Entende-se que aqueles versados na técnica são capazes de produzir variantes da invenção sem sair do escopo da patente. Especificamente, a modalidade é colocada dentro da estrutura de uma rede de transmissão e de uma rede de banda larga, e para conteúdos de áudio e de vídeo.
Claims (8)
1. Método para processar dados de multimídia em um dispositivo de recepção (4) compreendendo uma interface (43) para uma primeira rede (6) e uma interface (44) para uma segunda rede (7), CARACTERIZADO pelo fato de que compreende as seguintes etapas de:receber, a partir da primeira rede, através de um primeiro protocolo de transporte, um primeiro fluxo compreendendo primeiros dados de multimídia, e dados de sincronização temporal relacionados com uma linha de tempo para renderização de conteúdo, os dados de sincronização temporal sendo transportados em pacotes de dados auxiliares sincronizados com os primeiros dados multimídia usando um protocolo de sincronização específico para o primeiro protocolo;receber, a partir da segunda rede, através de um segundo protocolo de transporte, um segundo fluxo compreendendo segundos dados de multimídia e os dados de sincroniza-ção temporal relacionados com a linha de tempo para renderização de conteúdo, os dados de sincronização temporal sendo transportados em pacotes de dados auxiliares sincronizados com os segundos dados de multimídia usando um protocolo de sincronização específico para o segundo protocolo, os segundos dados de multimídia sendo pré-carregados mediante solicitação do dispositivo de recepção, para possibilitar que o dispositivo de recepção renderize os próprios de forma síncrona com os primeiros dados de multimídia;sincronizar a renderização dos primeiros e segundos dados de multimídia usando dados de sincronização temporal relacionados com a linha de tempo para renderização de conteúdo;o método compreendendo as etapas de, antes de renderizar o primeiro fluxo:receber, a partir da primeira rede, informação de contagem regressiva indicando quando a linha de tempo para renderização de conteúdo inicia, a informação de contagem regressiva sendo transportada no primeiro fluxo; eemitir, com base na contagem regressiva, a solicitação para receber os segundos dados de multimídia antes do início da linha de tempo para renderização de conteúdo, de modo que os segundos dados de multimídia são renderizados de forma síncrona com os primeiros dados de multimídia.
2. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o primeiro protocolo de transporte é do tipo MPEG-2 TS.
3. Método, de acordo com a reivindicação 1 ou 2, CARACTERIZADO pelo fato de que o segundo protocolo de transporte é do tipo RTP.
4. Método, de acordo com qualquer uma das reivindicações precedentes, CARACTERIZADO pelo fato de que a etapa de sincronização compreende uma etapa para retardar o conteúdo recebido antecipadamente por memorização, até que os conteúdos possam ser renderizados de forma síncrona.
5. Método, de acordo com qualquer uma das reivindicações precedentes, CARACTERIZADO pelo fato de que o primeiro fluxo é recebido na primeira rede em modo de transmissão.
6. Dispositivo de recepção (4) CARACTERIZADO pelo fato de que compreende:uma interface (44) para uma primeira rede para receber, através de um primeiro protocolo de transporte, um primeiro fluxo compreendendo primeiros dados de multimídia, e dados de sincronização temporal relacionados com uma linha temporal para renderização de conteúdo, os dados de sincronização temporal sendo transportados em pacotes de dados auxiliares sincronizados com os primeiros dados multimídia usando um protocolo de sincronização específico para o primeiro protocolo;uma interface (43) para uma segunda rede para receber, através de um segundo protocolo de transporte, um segundo fluxo compreendendo segundos dados de multimídia e os dados de sincronização temporal relacionados com a linha de tempo para renderização de conteúdo, os dados de sincronização temporal sendo transportados em pacotes de dados auxiliares sincronizados com os segundos dados de multimídia usando um protocolo de sincronização específico para o segundo protocolo, os segundos dados de multimídia sendo pré-carregados mediante solicitação do dispositivo de recepção, para possibilitar que o dispositivo de recepção renderize os próprios de forma síncrona com os primeiros dados de multimídia;um sincronizador (46) para:sincronizar a renderização dos primeiros e segundos dados de multimídia usando dados de sincronização temporal relacionados com a linha de tempo para renderização de conteúdo,receber, a partir da primeira rede, informação de contagem regressiva indicando quando a linha de tempo para renderização de conteúdo inicia, a informação de contagem regressiva sendo transportada no primeiro fluxo; eemitir, com base na contagem regressiva, a solicitação para receber os segundos dados de multimídia antes do início da linha de tempo para renderização de conteúdo, de modo que os segundos dados de multimídia são renderizados de forma síncrona com os primeiros dados de multimídia.
7. Dispositivo de recepção, de acordo a reivindicação 6, CARACTERIZADO pelo fato de que a etapa de sincronização compreende uma etapa para retardar o conteúdo re-cebido antecipadamente por memorização, até que os conteúdos possam ser renderizados de forma síncrona.
8. Dispositivo de recepção, de acordo a reivindicação 6 ou 7, CARACTERIZADO pelo fato de que o primeiro fluxo é recebido na primeira rede em modo de transmissão.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1058421 | 2010-10-15 | ||
FR1058421 | 2010-10-15 | ||
PCT/EP2011/068016 WO2012049305A1 (en) | 2010-10-15 | 2011-10-14 | Method for synchronizing multimedia flows and corresponding device |
Publications (2)
Publication Number | Publication Date |
---|---|
BR112013008587A2 BR112013008587A2 (pt) | 2016-07-12 |
BR112013008587B1 true BR112013008587B1 (pt) | 2021-09-21 |
Family
ID=44063507
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BR112013008587-8A BR112013008587B1 (pt) | 2010-10-15 | 2011-10-14 | Método para processar dados de multimídia em um dispositivo de recepção, e dispositivo de recepção |
Country Status (8)
Country | Link |
---|---|
US (1) | US9729762B2 (pt) |
EP (1) | EP2628297B1 (pt) |
JP (1) | JP6053686B2 (pt) |
KR (1) | KR101828639B1 (pt) |
CN (1) | CN103155584A (pt) |
AU (1) | AU2011315435B2 (pt) |
BR (1) | BR112013008587B1 (pt) |
WO (1) | WO2012049305A1 (pt) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2680599A1 (en) | 2012-06-29 | 2014-01-01 | Thomson Licensing | Provision of a personalized media content |
EP2704449A1 (en) | 2012-08-30 | 2014-03-05 | Thomson Licensing | Rendering time control |
EP3013058A4 (en) * | 2013-06-19 | 2017-02-15 | LG Electronics Inc. | Broadcasting transmission/reception apparatus and broadcasting transmission/reception method |
JP6625318B2 (ja) * | 2013-08-29 | 2019-12-25 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 送信方法および受信方法 |
JP6505996B2 (ja) * | 2013-08-30 | 2019-04-24 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 受信方法、及び、受信装置 |
JP6418162B2 (ja) * | 2013-09-30 | 2018-11-07 | ソニー株式会社 | 受信装置および受信方法 |
US10080055B2 (en) | 2013-12-23 | 2018-09-18 | Lg Electronics Inc. | Apparatuses and methods for transmitting or receiving a broadcast content via one or more networks |
CN105917655B (zh) * | 2014-01-13 | 2019-07-09 | Lg电子株式会社 | 经由一个或者多个网络发送或者接收广播内容的设备和方法 |
WO2015105400A1 (en) | 2014-01-13 | 2015-07-16 | Lg Electronics Inc. | Apparatuses and methods for transmitting or receiving a broadcast content via one or more networks |
WO2015108309A1 (en) * | 2014-01-14 | 2015-07-23 | Lg Electronics Inc. | Broadcast transmission device and operating method thereof, broadcast reception device and operating method thereof |
US9560421B2 (en) * | 2014-03-27 | 2017-01-31 | Samsung Electronics Co., Ltd. | Broadcast and broadband hybrid service with MMT and DASH |
US10897636B2 (en) * | 2014-04-18 | 2021-01-19 | Lg Electronics Inc. | Broadcast signal transmitting apparatus and broadcast signal transmitting method |
CN104135667B (zh) | 2014-06-10 | 2015-06-24 | 腾讯科技(深圳)有限公司 | 一种视频异地解说同步方法、终端设备,及系统 |
CN104079957B (zh) * | 2014-06-25 | 2017-09-01 | 广东欧珀移动通信有限公司 | 一种多媒体设备同步操作的方法及系统 |
RU2687065C2 (ru) * | 2014-07-18 | 2019-05-07 | Сони Корпорейшн | Устройство передачи, способ передачи, устройство приема и способ приема |
JP6318953B2 (ja) * | 2014-07-30 | 2018-05-09 | ソニー株式会社 | 送信装置、送信方法、受信装置および受信方法 |
EP3032766A1 (en) | 2014-12-08 | 2016-06-15 | Thomson Licensing | Method and device for generating personalized video programs |
DE102015001622A1 (de) | 2015-02-09 | 2016-08-11 | Unify Gmbh & Co. Kg | Verfahren zur Übertragung von Daten in einem Multimedia-System, sowie Softwareprodukt und Vorrichtung zur Steuerung der Übertragung von Daten in einem Multimedia-System |
US10986421B2 (en) * | 2017-07-03 | 2021-04-20 | Dolby Laboratories Licensing Corporation | Identification and timing data for media content |
US10009862B1 (en) * | 2017-09-06 | 2018-06-26 | Texas Instruments Incorporated | Bluetooth media device time synchronization |
WO2019053853A1 (ja) * | 2017-09-14 | 2019-03-21 | 株式会社メディアリンクス | 映像切替システム |
JP6504294B2 (ja) * | 2018-03-23 | 2019-04-24 | ソニー株式会社 | 送信装置、送信方法、受信装置および受信方法 |
JP6743931B2 (ja) * | 2019-03-26 | 2020-08-19 | ソニー株式会社 | 送信装置、送信方法、受信装置および受信方法 |
CN114223211A (zh) * | 2019-10-01 | 2022-03-22 | 索尼集团公司 | 信息处理装置和信息处理方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001069459A (ja) * | 1999-06-22 | 2001-03-16 | Matsushita Electric Ind Co Ltd | カウントダウン音声作成装置、及びカウントダウン音声作成システム |
US6778756B1 (en) | 1999-06-22 | 2004-08-17 | Matsushita Electric Industrial Co., Ltd. | Countdown audio generation apparatus and countdown audio generation system |
US6415438B1 (en) * | 1999-10-05 | 2002-07-02 | Webtv Networks, Inc. | Trigger having a time attribute |
US6583821B1 (en) | 1999-07-16 | 2003-06-24 | Thomson Licensing S.A. | Synchronizing apparatus for a compressed audio/video signal receiver |
CA2313979C (en) | 1999-07-21 | 2012-06-12 | Thomson Licensing Sa | Synchronizing apparatus for a compressed audio/video signal receiver |
JP4407007B2 (ja) | 2000-05-02 | 2010-02-03 | ソニー株式会社 | データ送信装置及び方法 |
US7313313B2 (en) | 2002-07-25 | 2007-12-25 | Microsoft Corporation | Audio/video synchronization with no clean points |
JP2004088366A (ja) * | 2002-08-26 | 2004-03-18 | Matsushita Electric Ind Co Ltd | デジタル放送受信機およびデジタル放送システム |
FR2859859A1 (fr) | 2003-09-16 | 2005-03-18 | France Telecom | Procede et module de reception de signaux de television |
US7657645B2 (en) | 2004-02-05 | 2010-02-02 | Sharp Laboratories Of America, Inc. | System and method for transporting MPEG2TS in RTP/UDP/IP |
JP4718275B2 (ja) * | 2005-08-26 | 2011-07-06 | 三菱電機株式会社 | 複数メディアの同期再生システム及び同期再生方法 |
EP1855402A1 (en) | 2006-05-11 | 2007-11-14 | Koninklijke Philips Electronics N.V. | Transmission, reception and synchronisation of two data streams |
CN101179484A (zh) * | 2006-11-09 | 2008-05-14 | 华为技术有限公司 | 一种不同媒体流间的同步方法及系统 |
EP1954054A1 (en) | 2007-02-02 | 2008-08-06 | Thomson Licensing | System and method for transporting interactive marks |
EP2073548A1 (en) | 2007-12-17 | 2009-06-24 | Alcatel Lucent | Method for synchronizing at least two streams |
CN102057687B (zh) * | 2008-06-11 | 2013-06-12 | 皇家飞利浦电子股份有限公司 | 媒体流成分的同步 |
US8776144B2 (en) | 2008-10-16 | 2014-07-08 | Industrial Technology Research Institute | Mobile TV system and method for synchronizing the rendering of streaming services thereof |
-
2011
- 2011-10-14 US US13/878,216 patent/US9729762B2/en active Active
- 2011-10-14 WO PCT/EP2011/068016 patent/WO2012049305A1/en active Application Filing
- 2011-10-14 AU AU2011315435A patent/AU2011315435B2/en not_active Ceased
- 2011-10-14 JP JP2013533234A patent/JP6053686B2/ja active Active
- 2011-10-14 BR BR112013008587-8A patent/BR112013008587B1/pt active IP Right Grant
- 2011-10-14 KR KR1020137009471A patent/KR101828639B1/ko active IP Right Grant
- 2011-10-14 EP EP11770759.6A patent/EP2628297B1/en active Active
- 2011-10-14 CN CN2011800497729A patent/CN103155584A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
AU2011315435B2 (en) | 2016-05-12 |
BR112013008587A2 (pt) | 2016-07-12 |
CN103155584A (zh) | 2013-06-12 |
US20130335629A1 (en) | 2013-12-19 |
AU2011315435A1 (en) | 2013-05-09 |
JP2013545355A (ja) | 2013-12-19 |
KR101828639B1 (ko) | 2018-03-22 |
KR20130138777A (ko) | 2013-12-19 |
WO2012049305A1 (en) | 2012-04-19 |
EP2628297B1 (en) | 2017-07-12 |
US9729762B2 (en) | 2017-08-08 |
JP6053686B2 (ja) | 2016-12-27 |
EP2628297A1 (en) | 2013-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
BR112013008587B1 (pt) | Método para processar dados de multimídia em um dispositivo de recepção, e dispositivo de recepção | |
ES2848116T3 (es) | Transmisión basada en formato de archivo con formatos DASH basados en LCT | |
ES2710702T3 (es) | Temporización en vivo para la transmisión continua dinámica adaptativa sobre el HTTP (DASH) | |
TWI668982B (zh) | 用於多媒體和檔案傳輸的傳輸介面的方法及伺服器設備、及用於記錄相關指令於其上的電腦可讀取儲存媒體 | |
JP4766473B2 (ja) | メディアデータコンテナとメタデータコンテナとを有するファイルを処理し読出すための装置および方法 | |
US20170272840A1 (en) | Method for transceiving media files and device for transmitting/receiving using same | |
ES2726772T3 (es) | Grupos de representación de medios para transmisión continua en red de datos de vídeo codificados | |
BR112020015214A2 (pt) | inserção dinâmica de anúncio condicional | |
JP6302274B2 (ja) | 送信装置及び受信装置 | |
WO2016145913A1 (zh) | 自适应流媒体处理方法及装置 | |
BR112016022965B1 (pt) | Aparelhos e métodos de transmissão e recepção | |
BR112020000307A2 (pt) | processamento de dados de mídia que utiliza trilhas de arquivo para conteúdo de web | |
JP2019169948A (ja) | 送信方法、受信方法、送信装置および受信装置 | |
BR112016023984B1 (pt) | Aparelho e método de transmissão e de recepção | |
BR112020022899A2 (pt) | sinalizar, em um arquivo de manifesto, seções ausentes de dados de mídia para rede de fluxo contínuo | |
BR112020014495A2 (pt) | processamento de conteúdo de rede dinâmica de uma faixa de recurso de rede iso bmff | |
TW202041039A (zh) | 促進使用包括設定檔指示之串流資訊清單之方法及裝置 | |
US9250646B2 (en) | Clock recovery using remote arrival timestamps | |
US10231007B2 (en) | Transmission device, transmitting method, reception device, and receiving method | |
JP2018182677A (ja) | 情報処理装置、情報処理方法、プログラム、および記録媒体製造方法 | |
JP2018182617A (ja) | 情報処理装置、情報処理方法、プログラム、および記録媒体製造方法 | |
EP2479984A1 (en) | Device and method for synchronizing content received from different sources | |
BR112014027993B1 (pt) | Método implementado por computador através dos um ou mais dispositivos de computação para determinar uma porcentagem de uma propaganda reproduzível por um aparelho inteligente, sistema de computador para reportar uma porcentagem de uma propaganda reproduzível por um aparelho inteligente, e mídia de armazenamento não transitório legível por computador | |
JP2022064531A (ja) | 送信装置および受信装置 | |
BR112016022245B1 (pt) | Método e dispositivo de recuperar dados de mídia |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
B06F | Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette] | ||
B25G | Requested change of headquarter approved |
Owner name: THOMSON LICENSING (FR) |
|
B25A | Requested transfer of rights approved |
Owner name: INTERDIGITAL CE PATENT HOLDINGS (FR) |
|
B06U | Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette] | ||
B09A | Decision: intention to grant [chapter 9.1 patent gazette] | ||
B16A | Patent or certificate of addition of invention granted [chapter 16.1 patent gazette] |
Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 14/10/2011, OBSERVADAS AS CONDICOES LEGAIS. |