BRPI1007695B1 - método para prover pontos de entrada para um streaming de dados de vídeo, dispositivo para prover pontos de entrada para um streaming de dados de vídeo, dispositivo para reproduzir dados de vídeo, meio de armazenamento que compreende um sinal que transporta dados de vídeo e método para renderizar dados de vídeo à base de um sinal de um meio de armaznamento - Google Patents

método para prover pontos de entrada para um streaming de dados de vídeo, dispositivo para prover pontos de entrada para um streaming de dados de vídeo, dispositivo para reproduzir dados de vídeo, meio de armazenamento que compreende um sinal que transporta dados de vídeo e método para renderizar dados de vídeo à base de um sinal de um meio de armaznamento Download PDF

Info

Publication number
BRPI1007695B1
BRPI1007695B1 BRPI1007695-6A BRPI1007695A BRPI1007695B1 BR PI1007695 B1 BRPI1007695 B1 BR PI1007695B1 BR PI1007695 A BRPI1007695 A BR PI1007695A BR PI1007695 B1 BRPI1007695 B1 BR PI1007695B1
Authority
BR
Brazil
Prior art keywords
stream
video data
auxiliary
sub
entry
Prior art date
Application number
BRPI1007695-6A
Other languages
English (en)
Inventor
Philip S. Newton
Francesco Scalori
Original Assignee
Koninklijke Philips N.V.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips N.V. filed Critical Koninklijke Philips N.V.
Publication of BRPI1007695A2 publication Critical patent/BRPI1007695A2/pt
Publication of BRPI1007695A8 publication Critical patent/BRPI1007695A8/pt
Publication of BRPI1007695B1 publication Critical patent/BRPI1007695B1/pt

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/005Reproducing at a different information rate from the information rate of recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/782Television signal recording using magnetic recording on tape
    • H04N5/783Adaptations for reproducing at a rate different from the recording rate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2387Stream processing in response to a playback request from an end-user, e.g. for trick-play
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

MÉTODO PARA PROVER PONTOS DE ENTRADA PARA UM STREAMING DE DADOS DE VÍDEO, DISPOSITIVO PARA PROVER PONTOS DE ENTRADA PARA UM STREAMING DE DADOS DE VÍDEO, DISPOSITIVO PARA REPRODUZIR DADOS DE VÍDEO, SINAL QUE TRANSPORTA DADOS DE VÍDEO, MEIO DE ARMAZENAMENTO, MÉTODO PARA RENDERIZAR DADOS DE VÍDEO À BASE DE UM SINAL E PROGRAMA DE COMPUTADOR. É descrita a provisão de pontos de entrada para dados de vídeo em 3D. Uma unidade de ponto de entrada (18) gera uma tabela de ponto de entrada definindo pontos de entrada em streaming de entrada de dados de vídeo em 3D e armazenando endereços de ponto de entrada que são a localização dos pontos de entrada definidos. O streaming de dados de vídeo compreende uma grande quantidade de substreams, e essa grande quantidade codifica um streaming de dados de vídeo em 3D e compreende mínimo um sub-stream 2D que codifica independentemente uma versão em 2D dos dados de vídeo em 3D e no mínimo um sub-stream auxiliar que codifica dependentemente parte dos dados de vídeo em 3D. Os pontos de entrada incluem pontos de entrada principais no sb-stream em 2D e pontos de entrada auxiliares no sub-stream auxiliar para habilitar (...).

Description

CAMPO DA INVENÇÃO
A invenção se refere a um método para prover pontos de entrada para um streaming de dados de vídeo, em que o método compreende - gerar uma tabela de ponto de entrada para habilitar o trickplay; - definir pontos de entrada no streaming de dados de vídeo, em que os pontos de entrada são definidos com um intervalo de tempo entre um e outro; - armazenar os pontos de entrada definidos a tabela de ponto de entrada por meio do armazenamento de endereços de pontos de entrada que são a localização dos pontos de entrada definidos.
A invenção se refere ainda a um dispositivo para prover pontos de entrada, um dispositivo para reproduzir dados de vídeo, um sinal, um método para renderização e um programa de computador.
A invenção se refere ao campo de renderização de dados de vídeo em 3D no modo trickplay, ou seja, reprodução de vídeo em 3D com maior velocidade de avanço ou recuo em um dispositivo de exibição em 3D.
HISTÓRICO DA INVENÇÃO
Dispositivos para renderização de dados de vídeo em 2D são conhecidos, por exemplo, aparelhos de reprodução de vídeo como aparelhos de DVD ou conversores que fornecem sinais de vídeo digital. O dispositivo de origem deve ser acoplado a um dispositivo de exibição como uma TV ou monitor.
Os dados de imagem são transferidos do dispositivo de origem por meio de uma interface adequada, preferivelmente uma interface digital de alta velocidade como HDMI. Atualmente, estão sendo propostos dispositivos em 3D aprimorados para se obter dados de imagem tridimensionais (3D).
Para conteúdo em 3D, como filmes ou programas de TV, pode ser provido controle adicional para habilitar o trickplay em combinação com dados de imagem, por exemplo, uma lista de apontadores para locais subsequentes de quadros que podem ser renderizados em velocidade maior. Trickplay é qualquer modo de renderização do conteúdo de vídeo em 3D em uma velocidade diferente da original, como em avanço rápido ou recuo rápido, ou slow motion, em várias velocidades.
O documento US 2006/0117357 descreve um sistema para render ização de dados de vídeo em 2D nos modos trickplay. Um sinal de vídeo digital é reproduzido em várias velocidades de playback em modo trickmode. índices de quadros associados a quadros de vídeo de um streaming de vídeo digital são monitorados e é determinado um tamanho de grupo de imagens (GOP) pelos índices de quadros. São calculados um ou mais parâmetros de velocidade de modo trickplay baseado no tamanho de GOP determinado. A apresentação dos quadros é controlada com base nos parâmetros calculados de velocidade do modo trickplay. Em uma realização, os parâmetros de velocidade em modo trickplay incluem uma contagem de intervalos de quadro e uma contagem de repetição de quadros.
Para conteúdo em 3D, o trickplay também tem de ser desenvolvido. Um exemplo de conteúdo em 3D é uma imagem bidimensional e um mapa de profundidade associado. Outro exemplo de conteúdo em 3D é uma pluralidade de imagens bidimensionais, por exemplo, o conhecido conteúdo estereoscópico tendo uma imagem de olho direito e uma imagem de olho esquerdo. Outro exemplo de conteúdo em 3D é conteúdo estereoscópico tendo uma pluralidade de imagens de olho direito e imagens de olho esquerdo, a serem exibidas em um visor de múltiplas exibições.
SUMÁRIO DA INVENÇÃO
Um problema de trickplay com vídeo em 3D é que a carga no decodificador de vídeo aumenta conforme o decodificador tem de decodificar mais quadros em menos tempo (para um trickplay estável). Com o vídeo estereoscópico, o decodificador tem de decodificar dois ou mais streamings e isso aumenta a dificuldade em comparação ao 2D. Além disso, se o vídeo Multiview for codificado usando-se codificação dependente de sub-stream Multiview, a decodificação dos streamings adicionais se torna dependente do streaming de visão de base.
Para prover o trickplay em 2D, o padrão em disco Blu-ray especifica uma tabela de Ponto de Entrada (EP-map) para cada streaming de vídeo elementar. 0 vídeo é codificado em quadros de vários tipos conforme definido nos padrões de MPEG conhecidos. A tabela lista o local no streaming dos pontos onde a decodificação pode começar. Normalmente, os pontos de entrada estão nos limites de quadros de MPEG I. A tabela lista apenas os pontos de entrada de um streaming, não levando em conta o fato de que vários streamings de vídeo que também são dependentes uns dos outros podem ser decodificados simultaneamente.
É um objetivo da invenção prover um sistema para trickplay em 3D de forma mais conveniente.
Para esse fim, de acordo com um primeiro aspecto da invenção, no método conforme descrito no parágrafo de abertura, o streaming de dados de vídeo compreende uma grande quantidade de sub-streams, e essa grande quantidade representa um streaming de dados de vídeo em 3D e compreende no mínimo um sub-stream em 2D que compreende uma versão em 2D codificada independentemente dos dados de vídeo em 3D e no mínimo um sub-stream auxiliar que compreende uma parte dependentemente codificada dos dados de vídeo em 3D; definindo os pontos de entrada compreende associar a tabela de ponto de entrada aos dados de vídeo em 3D definindo pontos de entrada principais no sub-stream em 2D e pontos de entrada auxiliares no sub-stream auxiliar para habilitar o trickplay em 3D dos dados de vídeo em 3D carregando e decodificado fragmentos não adjacentes do sub-stream em 2D e carregando e decodificando dependentemente os fragmentos correspondentes do sub-stream auxiliar baseados no carregamento dos pontos de entrada principais e dos pontos de entrada auxiliares.
Para esse fim, de acordo com um segundo aspecto da invenção, o dispositivo para prover pontos de entrada para um streaming de dados de vídeo, compreende meio para gerar uma tabela de ponto de entrada, definindo pontos de entrada no streaming de dados de vídeo, em que os pontos de entrada são definidos com um intervalo de tempo entre um e outro para habilitar o trickplay, e armazenar os pontos de entrada definidos a tabela de ponto de entrada por meio do armazenamento de endereços de pontos de entrada, que são a localização dos pontos de entrada definidos, em que o streaming de dados de vídeo compreende uma grande quantidade de sub-streams, e essa grande quantidade representa um streaming de dados de vídeo em 3D e compreende no mínimo um sub-stream em 2D, que compreende uma versão em 2D codificada independentemente dos dados de vídeo em 3D e no mínimo um sub-stream auxiliar que compreende uma parte dependentemente codificada dos dados de vídeo em 3D, e meios para gerar uma tabela de ponto de entrada são dispostos para associar a tabela de ponto de entrada aos dados de vídeo em 3D definindo os pontos de entrada principais no sub-stream em 2D e pontos de entrada auxiliares no sub-stream auxiliar para habilitar o trickplay em 3D dos dados de video em 3D carregando e decodificando os fragmentos não adjacentes do sub-stream em 2D e carregando e decodificando dependentemente os fragmentos correspondentes do sub-stream auxiliar baseado no carregamento dos pontos de entrada principais e dos pontos de entrada auxiliares.
Para esse fim, de acordo com outro aspecto da invenção, o dispositivo para reproduzir dados de vídeo compreende meio para receber um streaming de dados de vídeo e uma tabela de ponto de entrada conforme definida acima, em que o streaming de dados de vídeo compreende uma grande quantidade de sub-streams, e essa grande quantidade representa um streaming de dados de vídeo em 3D e compreende no mínimo um sub-stream em 2D que compreende uma versão em 2D dos dados independentemente codificados de vídeo em 3D e no mínimo um sub-stream auxiliar que compreende uma dependentemente codificada dos dados de vídeo em 3D e o dispositivo compreende meios para trickplay em 3D dos dados de vídeo em 3D reproduzindo os dados de vídeo em 3D carregando e decodificando fragmentos não adjacentes do sub- stream em 2D e carregando e decodificando dependentemente os fragmentos correspondentes do sub-stream auxiliar baseado no carregamento dos pontos de entrada principais no sub-stream em 2D e pontos de entrada auxiliares no sub-stream auxiliar.
Para esse fim, de acordo com outro aspecto da invenção, o sinal que transporta os dados de vídeo compreende um streaming de dados de vídeo tendo pontos de entrada definidos com um intervalo de tempo entre um e outro e uma tabela de ponto de entrada conforme definida acima, compreendendo os pontos de entrada definidos por endereços de ponto de entrada armazenados dado o local dos pontos de entrada definidos, em que o streaming de dados de vídeo compreende uma grande quantidade de sub-streams, e essa grande quantidade representa—um streaming de dados de vídeo em 3D e compreende no mínimo um sub-stream em 2D que compreende uma versão em 2D dos dados independentemente codificados de vídeo em 3D e no mínimo um sub-stream auxiliar . 5 que compreende uma parte dependentemente codificada dos dados de vídeo em 3D; e a tabela de ponto de entrada é associada aos dados de vídeo em 3D e compreende pontos de entrada principais no sub-stream em 2D e pontos de entrada auxiliares no sub-stream auxiliar para habilitar o trickplay em 3D dos 10 dados de vídeo em 3D carregando e decodificando os fragmentos não adjacentes do sub-stream em 2D e carregando e decodificando dependentemente os fragmentos correspondentes do sub-stream auxiliar baseado no carregamento dos pontos de entrada principais e dos pontos de entrada auxiliares.
Para esse fim, de acordo com outro aspecto da invenção, o método de renderização de dados de vídeo na base do sinal conforme definido acima compreende receber um streaming de dados de vídeo e uma tabela de ponto de entrada conforme definida acima, em que o streaming de dados de vídeo compreende uma grande quantidade de sub-streams, e essa grande quantidade representa um streaming de dados de vídeo em 3D e compreende no mínimo um sub-stream em 2D que compreende uma versão em 2D dos dados independentemente codificados de vídeo em 3D e no mínimo um sub-stream auxiliar 25 que compreende a parte dependentemente codificada dos dados de vídeo em 3D; e o método compreende renderizar o trickplay em 3D dos dados de vídeo em 3D reproduzindo os dados de vídeo em 3D carregando e decodificando fragmentos não adjacentes do sub-stream em 2D e carregando e decodificando dependentemente 30 os fragmentos correspondentes do sub-stream auxiliar baseado no carregamento dos pontos de entrada principais no sub- stream em 2D e pontos de entrada auxiliares no sub-stream auxiliar.
As medidas têm o efeito de que o trickplay dos múltiplos sub-streams de dados de vídeo em 3D codificados, por exemplo, vídeo Multiview codificado para disco Blu-ray, é agora fornecido com uma tabela de ponto de entrada estendida.
A tabela de ponto de entrada tradicional fornece um único ponto de entrada de um instante específico em um streaming de vídeo. A tabela de ponto de entrada de acordo com a invenção provê no mínimo mais um ponto de entrada para um instante específico que tem um ponto de entrada principal para avaliar 10 diretamente o streaming de vídeo auxiliar correspondente. Por exemplo, isso é obtido alterando-se a definição da tabela de ponto de entrada de modo que o EP-map relacionado ao streaming de vídeo de visão de base também contenha os pontos de entrada dos streamings auxiliares associados, que por si 15 não podem ser decodificados. Ao decodificar um fragmento de vídeo em 3D específico para ser reproduzido em modo trickplay, os dados necessários do streaming principal e do streaming auxiliar podem ser acessados diretamente. Vantajosamente, um espectador não terá de experimentar os 20 efeitos perturbadores na percepção de profundidade quando nem todos os sub-streams são decodificados adequadamente ou disponíveis em função de referências faltantes.
A invenção também se baseia no reconhecimento a seguir. 0 sistema de trickplay em 2D da técnica anterior não 25 conhece os problemas do trickplay em 3D. Especificamente, em um único streaming de vídeo, um único conjunto de pontos de entrada é fornecido. No entanto, além de um sub-stream principal que é descodificável independentemente, um ou mais sub-streams auxiliares estão presentes em um sinal de vídeo 3 0 em 3D. Os inventores viram que esses sub-streams, que em velocidade normal de reprodução, são apenas decodificáveis em dependência do streaming principal. Portanto, esses streamings auxiliares tradicionalmente não teriam pontos de entrada, pois os pontos de entrada de qualquer streaming não descodificável aparentemente não têm mérito. Não obstante, os inventores adicionaram ponto de entrada ao streaming auxiliar não descodificável. Somente fornecendo-se os endereços do ponto de entrada principal e os endereços do auxiliar, os dois streamings poderão ser convenientemente decodificados em fragmentos não adjacentes para trickplay, pois para esse fragmento o fragmento correspondente do streaming auxiliar pode ser carregado imediatamente, de acordo com a tabela avançada de ponto de entrada.
Em uma realização do sistema, o streaming de dados de vídeo compreende dados de vídeo em 3D Multiview, cujo Multiview inclui no mínimo uma visão esquerda e uma visão direita. O vídeo em 3D Multiview fornece visões múltiplas separadas do olho direito e do esquerdo. As visões múltiplas da cena em 3D têm grande sobreposição, e são normalmente codificadas dependentemente, conforme explicado, por exemplo, na referência [1] ou [2] . A tabela avançada de ponto de entrada fornece convenientemente o trickplay para esses streamings de vídeo Multiview em 3D.
Em uma realização do sistema, o streaming de dados de vídeo compreende sub-streams auxiliares múltiplos e os pontos de entrada compreendem apenas pontos de entrada auxiliares para um subconjunto selecionado dos ditos sub- streams auxiliares múltiplos para renderizar uma versão reduzida dos dados de vídeo em 3D durante o trickplay. Vantajosamente, o tamanho da tabela de ponto de entrada permanece limitado. A realização também se baseia no reconhecimento de que, durante o trickplay, é aceitável um pouco de degradação do vídeo em 3D renderizado. Por exemplo, o número de visões do vídeo Multiview em 3D pode ser reduzido se não for decodificado cada sub-stream, os dados de transparência podem ser ignorados em um formato estruturado de vídeo em 3D.
Outras realizações preferidas do método, dispositivos em 3D e sinal de acordo com a invenção são dados nas reivindicações anexadas, cuja revelação é aqui incorporada por referência.
BREVE DESCRIÇÃO DOS DESENHOS
Esses e outros aspectos da invenção serão evidenciados e elucidados com referência às realizações descritas por meio de exemplos na descrição a seguir e com referência aos desenhos anexados, nos quais A Figura 1 mostra um sistema de geração de vídeo em 3D, A Figura 2 mostra um visor Multiview, A Figura 3 mostra a visão do olho direito e do esquerdo por meio de lentes lenticulares, A Figura 4 mostra uma estrutura básica de uma lista de reprodução, A Figura 5 mostra um sistema para exibir dados de vídeos tridimensionais (3D), A Figura 6 mostra uma tabela indicadora de tabela de ponto de entrada, A Figura 7 mostra uma tabela avançada de tabela indicadora de ponto de entrada, A Figura 8 mostra uma tabela avançada de tipo de streaming, A Figura 9 mostra um streaming de vídeo em 3D tendo dois sub-streams, A Figura 10 mostra uma definição de um mapa de ponto de entrada e A Figura 11 mostra uma tabela de ponto de entrada de um streaming principal e um sub-stream combinados. Nas Figuras, os elementos que correspondem aos elementos já descritos têm os mesmos números de referência.
DESCRIÇÃO DETALHADA DAS REALIZAÇÕES
A Figura 1 mostra um sistema de geração de vídeo em 3D. 0 sistema de geração de vídeo em 3D compreende um par de câmeras, uma câmera direita 11 e uma câmera esquerda 12, um processador de vídeo em 3D 13 que gera um sinal de vídeo 15 a ser armazenado em um meio de armazenamento 14. A câmera direita e a câmera esquerda podem ser uma câmera convencional cada. Um scanner de profundidade pode ser associado à câmera esquerda, compreendendo, por exemplo, um feixe de laser que pode ser direcionado em várias direções e um sensor que detecta reflexos do feixe de laser. As informações de profundidade também podem ser geradas por computação das informações da câmera. O par de câmeras é direcionado para uma cena 10 para capturar um vídeo em 3D da cena. A cena 10 compreende vários objetos como, por exemplo, uma pessoa, uma árvore, uma casa e o sol brilhando no céu. Cada objeto tem uma determinada distância com relação ao par de câmeras, que podem ser consideradas como um observador virtual observando a cena.
O processador de vídeo em 3D pode compreender, por exemplo, um dispositivo de execução de instruções e uma memória de programa em que um conjunto de instruções foi carregado, que define as operações do processador de vídeo em 3D, que serão descritas a seguir. 0 meio de armazenamento 14 pode ser na forma de, por exemplo, um disco rígido, um disco ótico agravável, um sistema de masterização para fabricar discos óticos somente para leitura ou uma memória de estado solido.
O sistema de geração de vídeo em 3D opera basicamente da seguinte forma. O par de câmeras fornece um vídeo em 3D básico da cena, que é formado por uma sequência de pares de fotos. Um par de fotos compreende uma foto direita e uma foto esquerda. A foto direita, que é capturada pela câmera direita, é intencionada para o olho direito da pessoa que observa. A foto esquerda, que é capturada pela câmera esquerda, é intencionada para o olho esquerdo da pessoa que observa.
A câmera direita e a câmera esquerda têm uma relação posicionai particular em relação uma à outra. Essa • relação posicionai pode ser definida por um contexto de renderização típico em termos de, por exemplo, tamanho de tela e distância de visualização. Por exemplo, o vídeo básico em 3D, que compreende uma sequência de fotos direitas e uma sequência de fotos esquerdas que são inter-relacionadas, pode ser voltado para exibição em um cinema com tamanho de tela típico de 12 metros e uma distância de visualização típica de 18 metros. Um streaming de dados de vídeo Multiview em 3D pode ser gerado das informações da câmera e/ou profundidade. O vídeo Multiview em 3D fornece visões múltiplas separadas para o olho direito e o esquerdo. As visões múltiplas da cena em 3D têm grande sobreposição, e normalmente são codificadas dependentemente, conforme explicado, por exemplo, na referência [1] de [2].
Um formato em 3D diferente se baseia em duas visões utilizando uma imagem em 2D e uma imagem de profundidade adicional, chamada de mapa de profundidade, que transporta informações sobre a profundidade dos objetos na imagem em 2D.
O formato chamado de imagem + profundidade é uma combinação de uma imagem em 2D com uma chamada "profundidade", ou mapa de disparidade. Ê uma imagem em escala de cinza, no qual o valor de escala de cinza de um pixel indica a quantidade de disparidade (ou profundidade, no caso de um mapa de profundidade) do pixel correspondente na imagem em 2D associada. O dispositivo de exibição usa a disparidade, profundidade ou mapa de paralaxe para calcular as visualizações adicionais tomando a imagem em 2D como input.
Isso pode ser feito de muitas formas, na forma mais simples é uma questão de trocar os pixels para a esquerda ou direita dependendo do valor de disparidade associado a esses píxeis. A referência [3] fornece uma visão geral excelente da tecnologia.
No sistema mostrado na Figura 1, o processador de vídeo em 3D 13 tem uma unidade de ponto de entrada 18 para processar os dados de entrada de vídeo em 3D e gerar uma tabela de ponto de entrada para trickplay em modo 3D. A unidade de ponto de entrada é disposta para definir pontos de entrada no streaming de dados de vídeo. Os pontos de entrada são armazenados na tabela de ponto de entrada. Os pontos de entrada são definidos no streaming de dados de vídeo com um intervalo de tempo entre um e outro. Em seguida, os pontos de entrada definidos são armazenados na tabela de ponto de entrada, por exemplo, por meio do armazenamento de endereços de pontos de entrada que são a localização dos pontos de entrada definidos. Em formatos de streaming de dados de vídeo em 3D, o streaming de dados de vídeo compreende normalmente uma grande quantidade de sub-streams, e essa grande quantidade codifica um streaming de dados de vídeo em 3D e compreende no mínimo um sub-stream em 2D que codifica independentemente uma versão em 2D dos dados de vídeo em 3D e no mínimo um sub-stream auxiliar que codifica dependentemente parte dos dados de vídeo em 3D. Por exemplo, a parte pode ser uma visão direita (dependendo de um streaming de visão esquerda codificado independentemente), ou um mapa de profundidade. Para esse streaming de vídeo em 3D, os pontos de entrada são gerados para compreender pontos de entrada principais no sub-stream em 2D e pontos de entrada auxiliares no sub-stream auxiliar para habilitar o trickplay em 3D dos dados de vídeo em 3D.
Durante a renderização, fragmentos selecionados do sub-stream principal (2D) são carregados com base nos pontos de entrada principais e decodificados como fragmentos não adjacentes do sub-stream em 2D. Em seguida, partes do sub- stream auxiliar, dependente, que correspondem às partes selecionadas do sub-stream em 2D, são carregados com base nos pontos de entrada auxiliares e decodificados dependentemente como fragmentos do sub-stream auxiliar. A Figura 2 mostra um visor Multiview 21, que utiliza lentes lenticulares 22 em frente a uma tela de LCD para gerar uma visão diferente para o olho esquerdo e para o olho direito. Duas imagens intercaladas disparadas de ângulos levemente diferentes criam a percepção de 3D. Esse efeito se baseia na disparidade binocular, o olho esquerdo e o direito normalmente veem um objeto de ângulos levemente diferentes. Eles são fundidos por acomodação e convergência e isso age como uma poderosa sugestão de profundidade para o cérebro. A Figura 3 mostra a visão do olho esquerdo e do olho direito por meio de lentes lenticulares 30. 0 olho direito 32 vê apenas a parte esquerda do pixel 3 3 e o olho esquerdo 31 vê a parte direita. As partes do pixel são chamadas de subpíxeis 34. A fusão da parte direita e da parte esquerda de uma imagem no espectador humano, por acomodação e convergência, cria uma sugestão de profundidade apresentando uma única imagem estereoscópica. Visões esquerda e direita múltiplas podem ser criadas subdividindo-se cada pixel em múltiplos subpíxeis.
Por exemplo, em contraste com a figura 3 em que apenas duas imagens intercaladas são mostradas, um visor prático pode usar, por exemplo, 9 imagens intercaladas, o que dá um campo de visão e contorno mais amplo para a imagem, conforme indicado esquematicamente na Figura 2. Conduzir esse tipo de visor requer um vídeo baseado em imagem-mais- profundidade, que é processado para gerar visões múltiplas ou vídeo codificado em Multiview. Para esse fim, o padrão disco Blu-ray pode ser estendido para incluir suporte para esses streamings de vídeo em 3D. Um tocador de mídia pode então conduzir não apenas os monitores autoestereoscópicos, mas também outros tipos de monitores estéreo em 3D como um monitor que alterna visões e que usa óculos estereoscópicos para separar as visões de ambos os olhos individualmente, ou no futuro podem até incluir visores holográficos.
Uma alternativa à tela lenticular é o visor de barreira, que usa uma barreira de paralaxe atrás do LCD e na frente da backlight para separar a luz dos píxeis no LCD. A barreira fica em uma posição estabelecida na frente na tela, o olho esquerdo vê píxeis diferentes do olho direito. A barreira pode estar também entre o LCD e o espectador humano de modo que os pixels em uma linha do visor são alternadamente visíveis pelo olho direito e o esquerdo.
Dos experimentos com trickplay de vídeo em 3D, foi descoberto que a qualidade da impressão de "profundidade em 3D" se deteriora durante o trickplay. Uma explicação possível é que o vídeo estereoscópico exige um esforço maior e mais duradouro ao sistema ótico humano (acomodação e convergência) do que o vídeo em 2D normal, para que o cérebro funda as duas imagens recebidas pelos olhos em uma imagem mental em "3D" . Quando o número de quadros mostrados por segundo aumenta consideravelmente durante o trickplay, o sistema ótico humano aparentemente é incapaz de acompanhar completamente a taxa de quadros mais alta.
Outro problema do trickplay com vídeo estéreo em 3D é que o decodificador de vídeo aumenta conforme o decodificador tem de decodificar mais quadros em menos tempo (para um trickplay estável). Com o vídeo estereoscópico, o decodificador tem de decodificar dois ou mais streamings e isso aumenta o problema em comparação com o 2D. Além disso, se o vídeo em Multiview for codificado usando-se codificação escalável em Multiview conforme definido pelo MPEG, a decodificação dos streamings adicionais se torna dependente do streaming de visão de base, portanto a forma como o trickplay pode ser feito no tocador de mídia muda. Esses streamings que não podem ser decodificados independentemente são chamados de sub-streams auxiliares no presente documento. Esses streamings devem ser decodificados dependentemente com base no streaming principal correspondente.
Na explicação a seguir, um exemplo de uma tabela de ponto de entrada é discutido com referência ao sistema do disco Blu-ray. Observe que a tabela de ponto de entrada pode ser aplicada a qualquer sistema de vídeo em 3D que se baseie em streamings de vídeo principal e auxiliar, e os detalhes do sistema de disco Blu-ray não são necessários para se implementar a invenção. O padrão disco Blu-ray especifica uma tabela de Ponto de Entrada (incluindo um mapa de ponto de entrada: EP-map) de cada streaming de vídeo elementar. A tabela de ponto de entrada define a tabela que lista o local no streaming de pontos onde a decodificação pode começar. Normalmente, eles estão nos limites de quadro MPEG I. Essa tabela lista apenas os pontos de entrada de um streaming, não se leva em conta que vários streamings de vídeo podem ser simultaneamente decodificados que também são dependentes uns dos outros.
Foi descoberto que a percepção de profundidade durante o trickplay aumenta ao se pular quadros para criar uma espécie de efeito de slideshow. Quando separados, não adjacentes, os fragmentos do streaming de vídeo em 3D original são exibidos em uma sequência. Surpreendentemente, quanto mais quadros são pulados, melhor se torna a profundidade percebida. Isso de certa forma contrasta com o vídeo em 2D normal, em que o trickplay estável - no qual o decodificador decodifica todos os quadros mais rapidamente - é percebido como sendo melhor. Isso pode ser explicado levando-se em conta o fato de que leva tempo para o sistema ótico fundir as duas imagens dos olhos em uma imagem estereoscópica (por acomodação e convergência) e gerar uma imagem mental em 3D. Na vida normal isso não é problema, pois a percepção de profundidade depende de muitos fatores e uma disparidade binocular (estereopsia) é somente eficaz em objetos que estão próximos do espectador. Em objetos que se movem rapidamente, a paralaxe do movimento exerce um papel maior do que a oclusão. Em um visor em 3D, no entanto, isso é um problema, pois o efeito em 3D depende principalmente da disparidade binocular, portanto em objetos que se movem rapidamente a percepção de profundidade é diminuída.
Para resolver o problema 'de trickplay acima, é necessário definir os pontos de entrada da sequência de fragmentos selecionados que devem ser reproduzidos no respectivo modo de trickplay, conforme descrito acima.
Em uma realização, a tabela de Ponto de Entrada de disco Blu-ray se estende para acomodar os pontos de entrada definidos adicionalmente. Essa tabela lista agora os pontos de entrada do vídeo e fornece o link entre as posições de tempo no vídeo e as posições no arquivo em disco. A extensão é que em adição a uma entrada do streaming de vídeo em 2D, a tabela agora também lista os pontos de entrada do segundo streaming de vídeo, auxiliar, que é codificado usando-se codificação de vídeo escalável e é dependente do streaming de vídeo primário para decodificação. Essa segunda entrada estabelece uma associação de cada entrada no primeiro streaming ao ponto de entrada correspondente no segundo streaming. Este pode conter um quadro I ou P, em que o quadro P pode por sua vez fazer referência ao quadro I do streaming primário. Essa abordagem é aplicada ao se usar os valores dos
Selos de Tempo da Apresentação (PTS) . Observe que um EP-map separado do segundo streaming pode não funcionar sozinho, pois o streaming auxiliar é apenas descodificável dependentemente, por exemplo, pode conter apenas quadros P ou B nos mesmos tempos de PTS. Assim, o streaming auxiliar não é um streaming válido quando decodificado sozinho. Por exemplo, para vídeo Multiview codificado em disco Blu-ray, a tabela de ponto de entrada pode ser estendida e a forma como o Blu-ray tocador de mídia usa o EP-map é adaptada para carregar os pontos de entrada principais e os pontos de entrada auxiliares. A especificação é aprimorada de modo que o EP-map relacionado ao streaming de vídeo de base também contenha os pontos de entrada dos streamings auxiliares associados, que não podem ser decodificados sozinhos.
As referências [1] e [2] descrevem os princípios por trás de streamings de vídeo codificados juntamente e o formato de transporte associado. Por exemplo, antes da codificação, as visões em 3D são intercaladas e codificadas usando-se quadros B hierárquicos. Antes do transporte, o bitstream é divido em um streaming primário e um streaming auxiliar. Isso é feito para compatibilidade retroativa, de modo que um decodif icador 2D possa decodificar e usar o streaming primário e ignorar o streaming auxiliar. Em um decodificador modificado, o streaming primário e o auxiliar são intercalados novamente e decodificados. Isso cria um problema para o trickplay em disco Blu-ray no qual o streaming primário e o auxiliar são armazenados separadamente em disco. Para resolver isso, é necessário que a tabela de EP-map seja estendida de modo que o tocador de mídia saiba quais clips, ou seja, partes dos streamings, primário e auxiliar, devem ser intercalados e decodificados para exibição da seção do vídeo para a qual o tocador de mídia pulou. Pela tabela avançada de ponto de entrada conforme proposto, esse problema é resolvido. A Figura 4 mostra uma estrutura básica de uma lista de reprodução. O exemplo se baseia no disco Blu-ray e o papel que o EP-map 41 (tabela de ponto de entrada na CPI de informações de controle) exerce nessa estrutura. Para um determinado valor de PTS, o EP-map fornece um endereço lógico, por exemplo, o número de pacote de origem correspondente no arquivo de streaming AV em clipe que é um streaming elementar MPEG codificado. A estrutura é descrita com referência às Figuras 6 a 11. A Figura 5 mostra um sistema para exibir dados de vídeo tridimensionais (3D) . Um dispositivo de origem em 3D 50, por exemplo, um tocador de mídia, é acoplado a um dispositivo de exibição em 3D 53 para transferir um sinal de exibição em 3D 56. O dispositivo de origem em 3D tem uma unidade de entrada 51 para receber informações de imagem. Por exemplo, o dispositivo de unidade de entrada pode incluir uma unidade de disco ótico 58 para carregar vários tipos de informações de imagem de um portador de gravação ótico 54 como um disco de DVD ou Blu-Ray. Alternativamente, uma unidade de entrada pode incluir uma unidade de interface de rede 59 para acoplar a uma rede 55, por exemplo, internet ou rede de radiodifusão, tal dispositivo é normalmente chamado de conversor. Os dados de imagem podem ser carregados de um servidor remoto de mídia 57. O dispositivo de origem também pode ser um receptor de satélite ou um servidor de mídia fornecendo diretamente os sinais do visor, ou seja, qualquer dispositivo adequado que gera como saída um sinal de exibição em 3D a ser acoplado diretamente a uma unidade de exibição.
O dispositivo de exibição em 3D 53 é para exibir dados de imagem em 3D. O dispositivo tem uma unidade de interface de entrada para receber o sinal de exibição em 3D 56 incluindo os dados de imagem em 3D transferidos do dispositivo de origem 10. O dispositivo tem um visor em 3D para exibir os dados de imagem processados, por exemplo, um LCD duplo ou lenticular. O dispositivo de exibição 53 pode ser qualquer tipo de visor estereoscópico, também chamado de visor em 3D e tem um intervalo de profundidade de visor indicado pela seta 44.
O dispositivo de origem em 3D 50 tem uma unidade de processamento de imagem 52 acoplada à unidade de entrada 51 para processar as informações de imagem para gerar um sinal de exibição em 3D 56 a ser transferido por uma unidade de interface de saída 12 para o dispositivo de exibição. A unidade de processamento 52 é disposta de modo a gerar os dados de imagem incluídos no sinal de exibição em 3D 56 para exibir no dispositivo de exibição 13. 0 dispositivo de origem é fornecido com elementos de controle do usuário, para controlar parâmetros de exibição dos dados de imagem, como parâmetro de contraste ou cor. Os elementos de controle do usuário são conhecidos e podem incluir uma unidade de controle remoto tendo vários botões e/ou funções de controle por cursor para controlar as várias funções do dispositivo de origem em 3D, como funções de reprodução normal e gravação e para selecionar modos de trickplay, por exemplo, por botões diretos ou por uma interface gráfica de usuário e/ou menus.
O dispositivo de origem 50 tem uma unidade de processamento de trickplay 48 para processar os dados de vídeo em 3D o modo trickplay. Os dados de vídeo em 3D são reproduzidos durante o trickplay, de acordo com a tabela de ponto de entrada, carregando e decodificando fragmentos não adjacentes do sub-stream em 2D e carregando e decodificando dependentemente os fragmentos correspondentes do sub-stream auxiliar. O sub-stream em 2D é decodificado independentemente para o respectivo fragmento, e as informações de 3D são adicionadas com base no fragmento correspondente do streaming auxiliar conforme carregado do streaming de dados de vídeo com base no ponto de entrada auxiliar. A Figura 5 mostra ainda o portador de gravação 54 como um portador dos dados de imagem em 3D. O portador de gravação tem formato de disco e tem uma trilha e um orifício central. A trilha, constituída de uma série de marcas fisicamente detectáveis, é disposta de acordo com um padrão espiral ou concêntrico de voltas constituindo trilhas substancialmente paralelas em uma camada de informações. 0 portador de gravação pode ser legível oticamente, chamado de disco ótico, por exemplo, um CD, DVD ou BD (disco Blu-ray) . As informações são representadas na camada de informações pelas marcas detectáveis oticamente ao longo da trilha, por exemplo, regiões altas e baixas. A estrutura de trilhas também compreende informações de posição, por exemplo, cabeçalhos e endereços, para indicação da localização das unidades de informação, normalmente chamadas de blocos de informação. 0 portador de gravação 54 carrega informações representando dados de vídeo em 3D digitalmente codificados, por exemplo, codificados de acordo com o sistema de codificação MPEG2 ou MPEG4, em um formato de gravação predefinido como o DVD ou Blu-ray.
É descrita a seguir, a parte relevante da sintaxe da tabela de EP-map com base na especificação do disco Blu- ray. Nós propomos estender essa tabela de modo que possa conter todas as entradas dos streamings associados que são dependentes para decodificar o streaming principal listado no topo da tabela de EP-map.
Na prática, isso significa que para cada streaming auxiliar que é juntamente codificado com outro streaming, há um EP-map na mesma tabela como o streaming que é dependente para ser decodificado. O oposto, ou seja, uma tabela adicional para o streaming auxiliar, também é possível e é mais eficiente em caso de compatibilidade retroativa com decodificação em 2D. Nesse caso, há um EP-map para os clips contendo os streamings auxiliares. Nesse EP-map, há também as localizações do ponto de entrada da parte do streaming de visão de base do qual o ponto de entrada no streaming auxiliar é dependente para decodificação. No caso da reprodução de vídeo Multiview codificado, o tocador de mídia precisa então apenas carregar o EP-map do streaming auxiliar e terá então os pontos de acesso do streaming de visão de base que deve ser decodificado para poder decodificar o quadro no ponto de acesso do streaming auxiliar.
Em detalhes, é proposto um novo EP-map que contém um mapeamento de pontos de entrada do local do arquivo de um streaming múltiplo de vídeo em 3D codificado. A especificação de disco Blu-ray atualmente define somente um tipo de EP-map, isso é indicado em uma tabela na especificação conforme mostrado abaixo. A Figura 6 mostra uma tabela indicadora da tabela de ponto de entrada. A tabela mostra os tipos existentes de EP-map. Os valores do indicador para indicar o tipo de EP-map podem ser definidos em um padrão descrevendo um formato de gravação, por exemplo, disco Blu-ray. Ê proposto adicionar um novo tipo de vídeo codificado para Multiview (MVC) em 3D nessa tabela, chamado de "EP_map_MVC" ou algum nome similar como EP_map_ST para vídeo estereoscópico em 3D. Esse EP_MVC_map_type pode ser indicado pelo valor 2. A Figura 7 mostra uma tabela indicadora de tabela de ponto de entrada avançada. A tabela mostra os tipos existentes de EP-map e o novo tipo proposto para vídeo MVC em 3D nessa tabela chamada de "EP_map_MVC". Em uma realização, o respectivo tipo de EP-map é incluído na estrutura de dados de EP-map ao gerar o streaming de dados de vídeo em 3D e transferido para um dispositivo de playback. O dispositivo de playback pode agora detectar facilmente o novo tipo de tabela de EP-map e adaptar a operação de trickplay ao respectivo EP- map. A Figura 8 mostra uma tabela avançada de tipo de streaming. Alternativamente às Figuras 6, 7o novo EP-map é agora indicado usando o valor de EP_stream_type conforme mostrado na tabela com um valor novo (8 na tabela) para o tipo de streaming referido no EP-map. Em uma realização, o respectivo tipo de streaming de ponto de entrada é incluído na estrutura de dados de streaming de vídeo sD ao gerar o streaming de dados de vídeo em 3D, e transferido para um dispositivo de playback. O dispositivo de playback pode agora detectar facilmente o novo tipo de streaming de ponto de entrada EP e carregar a tabela avançada de ponto de entrada do streaming, e adaptar a operação de trickplay à tabela avançada de ponto de entrada. A Figura 9 mostra um streaming de vídeo em 3D tendo dois sub-streams. A figura mostra um exemplo de codificação MVC de uma seção de dois streamings utilizando imagens B hierárquicas. A sequência superior marcada com L é um sub- stream em 2D independentemente descodificável, enquanto a sequência mais inferior marcada com R é dependentemente descodificável, porque requer dados do primeiro streaming. Uma seta indica que os dados da primeira imagem I são usados para codificar a primeira imagem P do sub-stream inferior.
No exemplo mostrado na Figura 9, há três pontos de entrada no streaming L e R. No streaming L há uma imagem I, B(T2) e B(T4) e no streaming R há uma imagem P, B(T2) e B(T4) . As imagens B entre elas são quadros de não referência e não servem como ponto de entrada. Observe que, na prática, a distância entre os pontos de entrada serão substancialmente maiores.
Continuaremos agora investigando o que acontece se o usuário deseja pular para o local T2. Se a decodificação iniciar em T2, o decodificador deve também ter acesso à imagem I em TO do streaming Leo streaming R deve ter acesso à imagem I do streaming Lea imagem P do streaming R. Portanto, requer o local da imagem I no streaming Leo local da imagem P no streaming R. Portanto, requer um vetor temporal para o local da imagem P e um vetor espacial para a imagem I do quadro L.
No disco, os streamings L e R podem ser cada um intercalados em diferentes seções no disco ou podem ser contidos em um streaming. Portanto, um local no arquivo e um local no disco podem ser necessários para um ponto de entrada, pois para as informações de um ponto de entrada os streamings L e R são necessários, conforme explicado anteriormente. Assim, um ponto de entrada principal no sub- stream L e um ponto de entrada auxiliar no sub-stream R dependentemente descodificável devem ser providos.
Portanto, nós propomos em detalhes estender o EP- map para vídeo MVC codificado de modo que cada ponto de entrada contenha dois endereços, também chamados de vetores. Um vetor temporal aponta para o PTS e um vetor especial aponta para um número de pacote de quadros que serve de quadro de referência para o ponto de entrada. A Figura 10 mostra a definição de um mapa de ponto de entrada, também chamada de sintaxe de EP-map. A tabela mostra um exemplo do EP-map atual estendido para uso com vídeo MVC codificado. O mapa compreende subtabelas para os respectivos sub-streams. Observe que a tabela define a estrutura de dados da tabela de ponto de entrada que é incluída com o streaming de dados de vídeo em 3D, por exemplo, nas informações de controle em um portador de gravação como CPI de informações de controle 41 no formato de disco Blu-ray. A Figura 11 mostra uma tabela de ponto de entrada de um streaming principal e a sub-stream combinados, também chamada de EP-map de um PID de streaming. Nessa realização, nenhuma seção de MVC específica é adicionada, conforme mostrado na Figura 10, mas a tabela é estendida com entradas adicionais de modo que cada ponto de entrada também indica a lista de números de pacote e valores de PTS nos streamings de dados dependentes.
Em uma realização de um sistema playback para vídeo em 3D Multiview codificado, o trickplay é disposto da seguinte forma. O streaming de vídeo em 3D tem sub-streams auxiliares múltiplas e os pontos de entrada compreendem pontos de entrada auxiliares somente para um subconjunto selecionado das ditas sub-streams auxiliares múltiplas. Durante o trickplay, uma versão reduzida dos dados de vídeo em 3D é renderizada, decodificando somente os sub-streams tendo pontos de entrada. Vantajosamente, o tamanho da tabela de ponto de entrada permanece limitado.
Alternativamente, o decodificador reduz automaticamente o número de visões ao se realizar o trickplay para reduzir os problemas no decodificador. O número de visões pode ser reduzido dinamicamente nas etapas com aumento de velocidade, por exemplo, 9-7-S-3-2. Os respectivos pontos de entrada do número reduzido de visões podem ser carregados de uma tabela de ponto de entrada. Alternativamente, um número reduzido de visões pode ser gerado durante o trickplay em uma unidade de processamento que produz a dita grande quantidade de visões durante o playback em velocidade padrão.
Deve ser observado que a invenção pode ser implementada em hardware e/ou software, utilizando-se componentes programáveis. Um método para implementar a invenção tem as etapas de processamento correspondentes ao processamento de dados de vídeo em 3D elucidadas com referência à Figura 1. Embora a invenção tenha sido principalmente explicada pelas realizações utilizando-se portadores de gravação óticos ou a internet, a invenção é também adequada para qualquer ambiente com interface de imagens, como a interface de um monitor em 3D de um computador pessoal (PC), ou um centro de mídia em 3D acoplado a um dispositivo sem fio de exibição em 3D.
Deve ser observado que, neste documento, a palavra 'compreendendo' não exclui a presença de outros elementos ou etapas que não os listados, e que a palavra 'um' ou 'uma' que precede um elemento não exclui a presença de uma pluralidade desses mesmos elementos, que qualquer sinal de referência não limita o escopo das reivindicações, que a invenção pode ser implementada por meios tanto de hardware como de software, e que vários dos 'meios' ou 'unidades' podem ser representados pelo mesmo item de hardware ou software, e um processador pode preencher a função de uma ou mais unidades, possivelmente em cooperação com elementos de hardware. Além disso, a invenção não se limita às realizações, e se baseia em cada característica inovadora ou combinação de características inovadoras acima descritas.
Referência [1] : "A novel Multi-View Video Coding- Scheme Based on H.264; de GuopingLi, Yun He; ICICS-PCM 2003, 15 a 18 de dezembro de 2003, Cingapura, IEEE 0-7893-8185- 8/03/$17.00"
Referência [2] : "Efficient Prediction Structures for Multi-View Video Coding"; de Philipp Merkle et al; IEEE 2007"
Referência [3]: "Depth image based rendering, compression e transmission for a new approach on 3D TV” de Christoph Fehn (consulte http://iphome.hhi.de/fehn/Publications/fehn_EI2004.pdf)

Claims (23)

1. MÉTODO PARA PROVER PONTOS DE ENTRADA PARA UM STREAMING DE DADOS DE VÍDEO, em que o streaming de dados de vídeo compreende uma grande quantidade de sub-streams, e essa grande quantidade representa um streaming de dados de vídeo em 3D e compreende no mínimo um sub-stream em 2D que compreende uma versão em 2D independentemente codificada dos dados de vídeo em 3D e no mínimo um sub-stream auxiliar que compreende uma parte dependentemente codificada dos dados de vídeo em 3D que representa uma informação de profundidade no streaming de dados ou representa a visão esquerda ou a visão direita, enquanto o sub-stream em 2D representa a outa visão esquerda ou direita, em que o método compreende: - definir os pontos de entrada no streaming de dados de vídeo, em que os pontos de entrada são definidos em um intervalo de tempo entre um e outro para habilitar o trickplay em 3D que é um modo de renderização dos dados de vídeo 3D em uma velocidade diferente da velocidade original através do carregamento e da decodificação de fragmentos não adjacentes do sub-stream em 2D e carregando e decodificando dependentemente fragmentos correspondentes do sub-stream auxiliar baseado no carregamento de pontos de entrada, - armazenar os pontos de entrada definidos por meio do armazenamento de endereços de pontos de entrada que fornecem a localização dos pontos de entrada definidos; o método caracterizado por compreender: - armazenar o sub-steam em 2D e o sub-tream auxiliar separadamente em um portador de gravação, - gerar uma tabela de ponto de entrada que compreende associar a tabela de ponto de entrada com os dados de vídeos em 3D através da definição dos pontos de entrada principais no sub-stream em 2D e dos pontos de entrada auxiliar no sub-stream auxiliar, e - armazenar a tabela de ponto de entrada no portador de gravação para habilitar o dito trickplay em 3D baseado no carregamento dos pontos de entrada principais e dos pontos de entrada auxiliares a partir da tabela de ponto de entrada armazenada.
2. MÉTODO, de acordo com a reivindicação 1, em que a associação da tabela de ponto de entrada é caracterizada por compreender estabilizar uma associação dos respectivos pontos de entrada principais aos pontos de entrada auxiliares correspondentes usando os mesmos valores do selo de tempo da apresentação (PTS).
3. MÉTODO, de acordo com qualquer uma das reivindicações 1 ou 2, em que a associação da tabela de ponto de entrada é caracterizada por compreender fornecer os pontos de entrada auxiliares em uma tabela de ponto de entrada separada do sub-stream auxiliar.
4. MÉTODO, de acordo com a reivindicação 1, caracterizado pelo streaming de dados de vídeo compreender: - dados de vídeo Multiview em 3D, em que o Multiview inclui no mínimo uma visão esquerda e uma visão direita; ou em que o no mínimo um sub-stream auxiliar compreende no mínimo um dos seguintes: - um streaming de dados de informações de profundidade; - um streaming de dados de informações de transparência; - um streaming de dados de informações de oclusão; ou em que o streaming de dados de vídeo compreende múltiplos sub-streams auxiliares e os pontos de entrada compreendem pontos de entrada auxiliares somente para um subconjunto selecionado dos ditos múltiplos sub-streams auxiliares para renderizar uma versão reduzida dos dados de vídeo em 3D durante o trickplay.
5. MÉTODO, de acordo com a reivindicação 1, caracterizado por compreender as etapas de: gerar uma primeira subtabela de ponto de entrada, associada ao sub-stream em 2D, e gerar uma segunda subtabela de ponto de entrada, associada ao sub-stream auxiliar, e formar a tabela de ponto de entrada associada aos dados de vídeo em 3D pela primeira subtabela de ponto de entrada e pela segunda subtabela de ponto de entrada.
6. MÉTODO, de acordo com a reivindicação 1, caracterizado por compreender a etapa de: definir, em cada ponto de entrada, um conjunto de múltiplos endereços de ponto de entrada, que incluem no mínimo um primeiro endereço de ponto de entrada para um ponto de entrada principal e no mínimo um segundo endereço de ponto de entrada para um correspondente endereço de ponto de entrada auxiliar.
7. MÉTODO, de acordo com a reivindicação 1, caracterizado por compreender fornecer o portador de gravação tendo o streaming de dados e a tabela de ponto de entrada armazenados nele.
8. DISPOSITIVO PARA PROVER PONTOS DE ENTRADA PARA UM STREAMING DE DADOS DE VÍDEO, em que o streaming de dados de vídeo compreende uma grande quantidade de sub-streams, e essa grande quantidade representa um streaming de dados de vídeo em 3D e compreende no mínimo um sub-stream em 2D que compreende uma versão em 2D independentemente codificada dos dados de vídeo em 3D e no mínimo um sub-stream auxiliar que compreende uma parte dependentemente codificada dos dados de vídeo em 3D que representa uma informação de profundidade no streaming de dados ou representa a visão esquerda ou a visão direita, enquanto o sub-stream em 2D representa a outa visão esquerda ou direita, em que o dispositivo compreende: - meios (18) para definir os pontos de entrada no streaming de dados de vídeo, em que os pontos de entrada são definidos em um intervalo de tempo entre um e outro para habilitar o trickplay em 3D que é um modo de renderização dos dados de vídeo 3D em uma velocidade diferente da velocidade original através do carregamento e da decodificação de fragmentos não adjacentes do sub-stream em 2D e carregando e decodificando dependentemente fragmentos correspondentes do sub-stream auxiliar baseado no carregamento de pontos de entrada, e - meios (13) para armazenar os pontos de entrada definidos por meio do armazenamento de endereços de pontos de entrada que fornecem a localização dos pontos de entrada definidos; sendo o dispositivo caracterizado por ser disposto para armazenar o sub-stream em 2D e o sub-stream auxiliar separadamente em um portador de gravação (14), e - os meios (18) para definir os pontos de entrada que são disposto para: - gerar uma tabela de ponto de entrada que compreende associar a tabela de ponto de entrada com os dados de vídeo em 3D através da definição dos pontos de entrada principais no sub-stream em 2D e dos pontos de entrada auxiliar no sub-stream auxiliar, e - meios (13) para armazenamento são dispostos para armazenar a tabela de ponto de entrada no portador de gravação para habilitar o dito trickplay em 3D baseado no carregamento dos pontos de entrada principais e dos pontos de entrada auxiliares a partir da tabela de ponto de entrada armazenada.
9. DISPOSITIVO, de acordo com a reivindicação 8, caracterizado pelo dispositivo compreender meio de gravação para armazenar o streaming de dados de vídeo e a tabela de ponto de entrada em um portador de gravação.
10. DISPOSITIVO PARA REPRODUZIR DADOS DE VÍDEO, sendo que o dispositivo compreende: - meios (51,58) para receber um streaming de dados de vídeo, - o streaming de dados de vídeo compreende uma grande quantidade de sub-streams, e essa grande quantidade representa um streaming de dados de vídeo em 3D e compreende no mínimo um sub-stream em 2D que compreende uma versão em 2D independentemente codificada dos dados de vídeo em 3D e no mínimo um sub-stream auxiliar que compreende uma parte dependentemente codificada dos dados de vídeo em 3D que representa uma informação de profundidade no streaming de dados ou representa a visão esquerda ou a visão direita, enquanto o sub-stream em 2D representa a outa visão esquerda ou direita, e - meios (48) para trickplay em 3D que é um modo de renderização dos dados de vídeo 3D em uma velocidade diferente da velocidade original através da reprodução dos dados de vídeos 3D pelo carregamento e decodificação dos fragmentos não adjacentes do sub-stream em 2D e carregando e decodificando dependentemente os fragmentos correspondentes do sub-stream auxiliar baseado no carregamento dos pontos de entrada, o dispositivo sendo caracterizado por: - os meios (51, 58) que recebem um streaming de dados de vídeo serem dispostos para carregar o sub-stream em 2D e o sub-stream auxiliar separadamente do portador de gravação, e por carregar uma tabela de ponto de entrada do portador de gravação, conforme definido em qualquer uma das reivindicações 1 a 7, e - os meios (48) para o trickplay em 3D serem dispostos para reproduzir os dados de vídeo em 3D baseados no carregamento dos pontos de entrada principais no sub-stream em 2D e os pontos de entradas auxiliares no sub-stream auxiliar a partir da tabela de ponto de entrada carregada.
11. DISPOSITIVO, de acordo com a reivindicação 10, caracterizado pelos meios (48) para trickplay em 3D serem dispostos para carregar, para os respectivos pontos de entrada principais, os pontos de entrada auxiliares correspondentes usando os mesmos valores do selo de tempo da apresentação (PTS).
12. DISPOSITIVO, de acordo com qualquer uma das reivindicações 10 ou 11, caracterizado pelos meios (48) para trickplay em 3D serem dispostos para carregar os pontos de entrada auxiliares de uma tabela de ponto de entrada separada do sub-stream auxiliar.
13. DISPOSITIVO, de acordo com a reivindicação 10, caracterizado pelos meios (48) para trickplay em 3D serem dispostos para carregar: - os pontos de entrada principais de uma primeira subtabela de ponto de entrada associada ao sub-stream em 2D, e - os pontos de entrada auxiliares de uma segunda subtabela de ponto de entrada associada ao sub-stream auxiliar.
14. DISPOSITIVO, de acordo com a reivindicação 10, caracterizado pelo dispositivo compreender meios de leitura (58) para ler o streaming de dados de vídeo e a tabela de ponto de entrada de um portador de gravação.
15. MEIO DE ARMAZENAMENTO (14, 54) QUE COMPREENDE UM SINAL QUE TRANSPORTA DADOS DE VÍDEO, sendo que o sinal compreende: - um streaming de dados de vídeo compreende uma grande quantidade de sub-streams, e essa grande quantidade representa um streaming de dados de vídeo em 3D e compreende no mínimo um sub-stream em 2D que compreende uma versão em 2D independentemente codificada dos dados de vídeo em 3D e no mínimo um sub-stream auxiliar que compreende uma parte dependentemente codificada dos dados de vídeo em 3D que representa uma informação de profundidade no streaming de dados ou representa a visão esquerda ou a visão direita, enquanto o sub-stream em 2D representa a outa visão esquerda ou direita; - um streaming de dados de vídeo que possui pontos de entrada que são definidos em um intervalo de tempo entre um e outro para habilitar o trickplay em 3D que é um modo de renderização dos dados de vídeo 3D em uma velocidade diferente da velocidade original através do carregamento e da decodificação de fragmentos não adjacentes do sub-stream em 2D e carregando e decodificando dependentemente fragmentos correspondentes do sub-stream auxiliar baseado no carregamento de pontos de entrada; sendo o sinal (15) caracterizado por compreender: - uma tabela de ponto de entrada conforme definida em qualquer uma das reivindicações 1 a 7, compreendendo os pontos de entrada definidos por endereços de ponto de entrada armazenados, dando a localização dos pontos de entrada definidos, e em que - o sub-stream em 2D e o sub-stream auxiliar são armazenados separadamente no meio de armazenamento, e - a tabela de ponto de entrada é associada aos dados de vídeo em 3D e compreende pontos de entrada principais no sub-stream em 2D e pontos de entrada auxiliares no sub-stream auxiliar para habilitar o dito trickplay em 3D baseado no carregamento dos pontos de entrada principais e dos pontos de entrada auxiliares da tabela de ponto de entrada armazenada.
16. MEIO DE ARMAZENAMENTO, de acordo com a reivindicação 15, em que a tabela de ponto de entrada é caracterizada por compreender uma associação de cada ponto de entrada principal a um ponto de entrada auxiliar correspondente usando os mesmos valores do selo de tempo da apresentação (PTS).
17. MEIO DE ARMAZENAMENTO, de acordo com qualquer uma das reivindicações 15 ou 16, em que o sinal é caracterizado por compreender os pontos de entrada auxiliares em uma tabela de ponto de entrada separada do sub-stream auxiliar.
18. MEIO DE ARMAZENAMENTO, de acordo com a reivindicação 15, em que o sinal é caracterizado por compreender: - os pontos de entrada principais em uma primeira subtabela de ponto de entrada associada ao sub-stream em 2D, e - os pontos de entrada auxiliares em uma segunda subtabela de ponto de entrada associada ao sub-stream auxiliar.
19. MEIO DE ARMAZENAMENTO, de acordo com qualquer uma das reivindicações 15 a 18, caracterizado pelo meio de armazenamento ser um portador de gravação (54) de um tipo legível oticamente tendo uma trilha com marcas detectáveis oticamente, propriedades detectáveis oticamente das marcas representando o sinal.
20. MÉTODO PARA RENDERIZAR DADOS DE VÍDEO À BASE DE UM SINAL DE UM MEIO DE ARMAZNAMENTO (14), conforme definido na reivindicação 15, em que o método compreende: - receber um sinal (15) que compreende o streaming de dados de vídeo, - o streaming de dados de vídeo compreende uma grande quantidade de sub-streams, e essa grande quantidade representa um streaming de dados de vídeo em 3D e compreende no mínimo um sub-stream em 2D que compreende uma versão em 2D independentemente codificada dos dados de vídeo em 3D e no mínimo um sub-stream auxiliar que compreende uma parte dependentemente codificada dos dados de vídeo em 3D que representa uma informação de profundidade no streaming de dados ou representa a visão esquerda ou a visão direita, enquanto o sub-stream em 2D representa a outa visão esquerda ou direita, e - a renderização do trickplay em 3D é um modo de renderização dos dados de vídeo 3D em uma velocidade diferente da velocidade original através da reprodução dos dados de vídeos 3D pelo carregamento e decodificação dos fragmentos não adjacentes do sub-stream em 2D e carregando e decodificando dependentemente os fragmentos correspondentes do sub-stream auxiliar baseado no carregamento dos pontos de entrada, sendo o método caracterizado por compreender: - carregar o sub-stream em 2D e o sub-stream auxiliar separadamente do meio de armazenamento e carregar uma tabela de ponto de entrada do meio de armazenamento conforme definido em qualquer uma das reivindicações 1 a 7, e - renderizar trickplay em 3D dos dados de vídeo em 3D reproduzindo os dados de vídeo em 3D que é baseado no carregamento dos pontos de entrada principais no sub-stream em 2D e pontos de entrada auxiliares no sub-stream auxiliar a partir da tabela de ponto de entrada carregada.
21. MÉTODO, de acordo com a reivindicação 20, em que a renderização do trickplay em 3D é caracterizada por compreender carregamento para os respectivos pontos de entrada principais, pontos de entrada auxiliares correspondentes usando os mesmos valores do selo de tempo da apresentação (PTS).
22. MÉTODO, de acordo com qualquer uma das reivindicações 20 ou 21, em que a renderização do trickplay em 3D é caracterizada por compreender carregamento dos pontos 5 de entrada auxiliares de uma tabela de ponto de entrada separada do sub-stream auxiliar.
23. MÉTODO, de acordo com a reivindicação 20, caracterizado por compreender carregamento dos: - pontos de entrada principais de uma primeira 10 subtabela do ponto de entrada associada ao sub-stream em 2D, e - pontos de entrada auxiliares de uma segunda subtabela do ponto de entrada associada ao sub-stream auxiliar.
BRPI1007695-6A 2009-05-18 2010-05-12 método para prover pontos de entrada para um streaming de dados de vídeo, dispositivo para prover pontos de entrada para um streaming de dados de vídeo, dispositivo para reproduzir dados de vídeo, meio de armazenamento que compreende um sinal que transporta dados de vídeo e método para renderizar dados de vídeo à base de um sinal de um meio de armaznamento BRPI1007695B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP09160453.8 2009-05-18
EP09160453 2009-05-18
PCT/IB2010/052101 WO2010134003A1 (en) 2009-05-18 2010-05-12 Entry points for 3d trickplay

Publications (3)

Publication Number Publication Date
BRPI1007695A2 BRPI1007695A2 (pt) 2016-08-02
BRPI1007695A8 BRPI1007695A8 (pt) 2017-07-25
BRPI1007695B1 true BRPI1007695B1 (pt) 2021-05-11

Family

ID=41100665

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI1007695-6A BRPI1007695B1 (pt) 2009-05-18 2010-05-12 método para prover pontos de entrada para um streaming de dados de vídeo, dispositivo para prover pontos de entrada para um streaming de dados de vídeo, dispositivo para reproduzir dados de vídeo, meio de armazenamento que compreende um sinal que transporta dados de vídeo e método para renderizar dados de vídeo à base de um sinal de um meio de armaznamento

Country Status (16)

Country Link
US (2) US20120063742A1 (pt)
EP (1) EP2433429B1 (pt)
JP (1) JP5829604B2 (pt)
KR (1) KR101714776B1 (pt)
CN (1) CN102428706B (pt)
AU (1) AU2010250871B2 (pt)
BR (1) BRPI1007695B1 (pt)
CA (1) CA2762385C (pt)
ES (1) ES2700227T3 (pt)
HU (1) HUE040291T2 (pt)
MX (1) MX2011012221A (pt)
PL (1) PL2433429T3 (pt)
RU (1) RU2552137C2 (pt)
SG (1) SG175863A1 (pt)
TW (1) TWI517643B (pt)
WO (1) WO2010134003A1 (pt)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110025123A (ko) 2009-09-02 2011-03-09 삼성전자주식회사 비디오 영상 배속 재생 방법 및 장치
US10448083B2 (en) * 2010-04-06 2019-10-15 Comcast Cable Communications, Llc Streaming and rendering of 3-dimensional video
KR101767045B1 (ko) 2010-12-17 2017-08-10 삼성전자 주식회사 영상처리장치 및 영상처리방법
CN102055984B (zh) * 2011-01-27 2012-10-03 山东大学 2d和3d播放模式平滑切换的立体视频解码结构及工作方法
CN102158733B (zh) * 2011-01-28 2015-08-19 华为技术有限公司 辅助视频补充信息承载方法、处理方法、装置与系统
US10033968B2 (en) 2011-06-27 2018-07-24 Oncam Global, Inc. Method and systems for providing video data streams to multiple users
US10555012B2 (en) 2011-06-27 2020-02-04 Oncam Global, Inc. Method and systems for providing video data streams to multiple users
JP2014523179A (ja) * 2011-06-27 2014-09-08 オンカム グローバル,インコーポレイテッド 複数の利用者にビデオデータストリームを提供するための方法及びシステム
US9065983B2 (en) 2011-06-27 2015-06-23 Oncam Global, Inc. Method and systems for providing video data streams to multiple users
US20140354770A1 (en) * 2011-12-27 2014-12-04 Lg Electronics Inc. Digital broadcast receiving method for displaying three-dimensional image, and receiving device thereof
KR101369146B1 (ko) * 2012-07-16 2014-03-06 옵티시스 주식회사 영상 시스템
US9432730B2 (en) * 2012-12-26 2016-08-30 Huawei Technologies Co., Ltd. Multimedia file playback method and apparatus
EP3761654A1 (en) * 2019-07-04 2021-01-06 THEO Technologies Media streaming

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6075817A (en) * 1991-12-23 2000-06-13 Digital Compression Technology Compressive communication and storage system
US6064794A (en) * 1995-03-30 2000-05-16 Thomson Licensing S.A. Trick-play control for pre-encoded video
GB9506493D0 (en) * 1995-03-30 1995-05-17 Thomson Consumer Electronics The implementation of trick-play modes for pre-encoded video
EP2271090B1 (en) 1996-02-28 2013-12-11 Panasonic Corporation High-resolution optical disk for recording stereoscopic video, optical disk reproducing device and optical disk recording device
JP3719758B2 (ja) * 1996-03-19 2005-11-24 パイオニア株式会社 情報記録装置及び方法並びに情報再生装置及び方法
FR2756399B1 (fr) * 1996-11-28 1999-06-25 Thomson Multimedia Sa Procede et dispositif de compression video pour images de synthese
BR9906523A (pt) * 1998-06-11 2000-07-25 Koninkl Philips Electonics N V Aparelho e processo para gravar um sinal de informação de vìdeo digital em um portador de gravação, e, portador de gravação
KR100972559B1 (ko) * 2002-04-25 2010-07-28 코닌클리케 필립스 일렉트로닉스 엔.브이. 데이터 스트림에 엔트리 포인트들을 규정하는 방법 및 장치
US7720350B2 (en) 2004-11-30 2010-05-18 General Instrument Corporation Methods and systems for controlling trick mode play speeds
EP1873776B1 (en) * 2005-04-07 2011-11-30 Panasonic Corporation Recording medium, reproducing device, recording method, and reproducing method
KR100657322B1 (ko) * 2005-07-02 2006-12-14 삼성전자주식회사 로컬 3차원 비디오를 구현하기 위한 인코딩/디코딩 방법 및장치
CN101702319B (zh) * 2005-08-09 2013-06-12 松下电器产业株式会社 重放设备
WO2008038205A2 (en) 2006-09-28 2008-04-03 Koninklijke Philips Electronics N.V. 3 menu display
EP2105032A2 (en) 2006-10-11 2009-09-30 Koninklijke Philips Electronics N.V. Creating three dimensional graphics data
US8594180B2 (en) 2007-02-21 2013-11-26 Qualcomm Incorporated 3D video encoding
US20080240230A1 (en) * 2007-03-29 2008-10-02 Horizon Semiconductors Ltd. Media processor with an integrated TV receiver
US9648325B2 (en) * 2007-06-30 2017-05-09 Microsoft Technology Licensing, Llc Video decoding implementations for a graphics processing unit
JP5351039B2 (ja) 2007-11-01 2013-11-27 パナソニック株式会社 記録媒体、再生装置、記録装置、再生方法、及び記録方法
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
KR101506217B1 (ko) * 2008-01-31 2015-03-26 삼성전자주식회사 스테레오스코픽 영상의 부분 데이터 구간 재생을 위한스테레오스코픽 영상 데이터스트림 생성 방법과 장치, 및스테레오스코픽 영상의 부분 데이터 구간 재생 방법과 장치
KR101472332B1 (ko) * 2008-04-15 2014-12-15 삼성전자주식회사 3차원 디지털 컨텐츠의 제공 방법, 수신 방법 및 그 장치
KR20110074823A (ko) * 2008-09-30 2011-07-04 파나소닉 주식회사 3d 영상에 관한 기록매체, 재생장치, 시스템 lsi, 재생방법, 안경 및 표시장치
US8913657B2 (en) * 2008-10-27 2014-12-16 Lg Electronics Inc. Virtual view image synthesis method and apparatus
WO2010071291A1 (ko) * 2008-12-18 2010-06-24 (주)엘지전자 3차원 영상신호 처리 방법과 이를 구현하기 위한 영상표시 장치
CN102484727B (zh) * 2009-03-19 2015-01-21 Lg电子株式会社 用于处理三维(3d)视频信号的方法和用于执行该处理方法的数字广播接收机
JP5267886B2 (ja) * 2009-04-08 2013-08-21 ソニー株式会社 再生装置、記録媒体、および情報処理方法
EP2425626A2 (en) * 2009-05-01 2012-03-07 Thomson Licensing Inter-layer dependency information for 3dv
WO2010143439A1 (ja) * 2009-06-12 2010-12-16 パナソニック株式会社 再生装置、集積回路、記録媒体

Also Published As

Publication number Publication date
RU2011151601A (ru) 2013-06-27
SG175863A1 (en) 2011-12-29
US20120063742A1 (en) 2012-03-15
US20100289875A1 (en) 2010-11-18
ES2700227T3 (es) 2019-02-14
AU2010250871B2 (en) 2015-07-09
US9007434B2 (en) 2015-04-14
KR20120027366A (ko) 2012-03-21
WO2010134003A1 (en) 2010-11-25
HUE040291T2 (hu) 2019-02-28
PL2433429T3 (pl) 2019-03-29
JP2012527814A (ja) 2012-11-08
CA2762385A1 (en) 2010-11-25
CA2762385C (en) 2018-11-20
KR101714776B1 (ko) 2017-03-09
JP5829604B2 (ja) 2015-12-09
TW201105109A (en) 2011-02-01
MX2011012221A (es) 2011-12-08
EP2433429A1 (en) 2012-03-28
BRPI1007695A2 (pt) 2016-08-02
TWI517643B (zh) 2016-01-11
BRPI1007695A8 (pt) 2017-07-25
RU2552137C2 (ru) 2015-06-10
CN102428706A (zh) 2012-04-25
EP2433429B1 (en) 2018-09-12
AU2010250871A1 (en) 2012-01-19
CN102428706B (zh) 2014-11-05

Similar Documents

Publication Publication Date Title
BRPI1007695B1 (pt) método para prover pontos de entrada para um streaming de dados de vídeo, dispositivo para prover pontos de entrada para um streaming de dados de vídeo, dispositivo para reproduzir dados de vídeo, meio de armazenamento que compreende um sinal que transporta dados de vídeo e método para renderizar dados de vídeo à base de um sinal de um meio de armaznamento
ES2931199T3 (es) Conmutación entre vídeo 3D y vídeo 2D
JP5351353B1 (ja) 記録媒体、再生装置、及び集積回路
JP4588120B2 (ja) 再生装置、記録方法、記録媒体再生システム
JP4847631B2 (ja) 記録媒体、再生装置、及び集積回路
JP5732094B2 (ja) 再生装置、記録媒体、および情報処理方法
TWI428016B (zh) A playback device, a playback method, and a recording method
BRPI0820739B1 (pt) método de reprodução de informação de vídeo, dispositivo de reprodução para reproduzir a informação de vídeo, sinal, e, portador de gravação

Legal Events

Date Code Title Description
B25D Requested change of name of applicant approved

Owner name: KONINKLIJKE PHILIPS N.V. (NL)

B25G Requested change of headquarter approved

Owner name: KONINKLIJKE PHILIPS N.V. (NL)

B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 10 (DEZ) ANOS CONTADOS A PARTIR DE 11/05/2021, OBSERVADAS AS CONDICOES LEGAIS.