BR112013000580B1 - Método de processamento tridimensional [3d] de informações em vídeo para a geração de um fluxo de transporte de dados para a transferência das informações de vídeo em 3d, dispositivo de processamento tridimensional [3d] de informações em vídeo para a geração de um fluxo de transporte de dados para a transferência das informações de vídeo em 3d, sinal para a transferência de informações de vídeo em três dimensões [3d] e receptor para o processamento tridimensional [3d] das informações de vídeo - Google Patents
Método de processamento tridimensional [3d] de informações em vídeo para a geração de um fluxo de transporte de dados para a transferência das informações de vídeo em 3d, dispositivo de processamento tridimensional [3d] de informações em vídeo para a geração de um fluxo de transporte de dados para a transferência das informações de vídeo em 3d, sinal para a transferência de informações de vídeo em três dimensões [3d] e receptor para o processamento tridimensional [3d] das informações de vídeo Download PDFInfo
- Publication number
- BR112013000580B1 BR112013000580B1 BR112013000580-7A BR112013000580A BR112013000580B1 BR 112013000580 B1 BR112013000580 B1 BR 112013000580B1 BR 112013000580 A BR112013000580 A BR 112013000580A BR 112013000580 B1 BR112013000580 B1 BR 112013000580B1
- Authority
- BR
- Brazil
- Prior art keywords
- data
- auxiliary
- video
- auxiliary data
- disparity
- Prior art date
Links
- 238000012545 processing Methods 0.000 title claims abstract description 31
- 238000012546 transfer Methods 0.000 title claims abstract description 16
- 230000010365 information processing Effects 0.000 title claims abstract description 5
- 238000003672 processing method Methods 0.000 title claims abstract 3
- 230000005540 biological transmission Effects 0.000 claims abstract description 34
- 238000000034 method Methods 0.000 claims description 25
- 239000000203 mixture Substances 0.000 claims description 23
- 238000009826 distribution Methods 0.000 claims description 11
- 230000000694 effects Effects 0.000 claims description 11
- 238000004590 computer program Methods 0.000 abstract description 3
- 230000011664 signaling Effects 0.000 description 9
- 238000009877 rendering Methods 0.000 description 7
- 238000006073 displacement reaction Methods 0.000 description 6
- 238000004806 packaging method and process Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 239000002131 composite material Substances 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000012856 packing Methods 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 230000000153 supplemental effect Effects 0.000 description 2
- NLZUEZXRPGMBCV-UHFFFAOYSA-N Butylhydroxytoluene Chemical compound CC1=CC(C(C)(C)C)=C(O)C(C(C)(C)C)=C1 NLZUEZXRPGMBCV-UHFFFAOYSA-N 0.000 description 1
- 102000020897 Formins Human genes 0.000 description 1
- 108091022623 Formins Proteins 0.000 description 1
- 206010048865 Hypoacusis Diseases 0.000 description 1
- 230000004308 accommodation Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000037433 frameshift Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/139—Format conversion, e.g. of frame-rate or size
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/23439—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/488—Data services, e.g. news ticker
- H04N21/4884—Data services, e.g. news ticker for displaying subtitles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/183—On-screen display [OSD] information, e.g. subtitles or menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/194—Transmission of image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
MÉTODO DE PROCESSAMENTO TRIDIMENSIONAL [3D] DE INFORMAÇÕES EM VÍDEO PARA A GERAÇÃO DE UM FLUXO DE TRANSPORTE DE DADOS PARA A TRANSFERÊNCIA DAS INFORMAÇÕES DE VÍDEO EM 3D, DE ACORDO COM UM FORMATO DE TRANSMISSÃO EM 2D, DISPOSITIVO DE PROCESSAMENTO TRIDIMENSIONAL [3D] DE INFORMAÇÕES EM VÍDEO PARA A GERAÇÃO DE UM FLUXO DE TRANSPORTE DE DADOS PARA A TRANFERÊNCIA DAS INFORMAÇÕES DE VÍDEO EM 3D, DE ACORDO COM UM FORMATO DE TRANSMISSÃO EM 2D, SINAL PARA A TRANSFERÊNCIA DE INFORMAÇÕES DE VÍDEO EM TRÊS DIMENSÕES [3D] DAS INFORMAÇÕES DE VÍDEO E PRODUTO DE PROGRAMA DE COMPUTADOR PARA O PROCESSAMENTO TRIDIMENSIONAL [3D] DAS INFORMAÇÕES DE VÍDEO. Um sistema para a transferência de informações de vídeo em 3D tem um transmissor (100) para transmitir um sinal (104) para um receptor (110). As informações de vídeo em 3D incluem os dados auxiliares para a exibição em uma área de sobreposição nos dados de vídeo em 3D, como legendas. Os dados de vídeo em 3D têm uma vista da esquerda e uma vista da direita dispostas em um quadro em 2D em uma disposição principal, por exemplo, lado a lado. As vistas auxiliares da esquerda e da direita dos dados auxiliares são dispostas em um fluxo de (...).
Description
A invenção se refere a um método de processamento tridimensional [3D] de informações de vídeo para a geração de um fluxo de transporte de dados para a transferência das informações de vídeo em 3D de acordo com um formato de transmissão em 2D, cujas informações de vídeo em 3D compreendem dados de vídeo em 3D e dados auxiliares, - os dados de vídeo em 3D compreendem pelo menos uma vista da esquerda e uma vista da direita que são exibidas para os respectivos olhos de um espectador para a geração de um efeito em 3D, sendo os dados auxiliares dispostos para a exibição em uma área de sobreposição com os dados de vídeo em 3D, cujo método compreende - a disposição dos dados de vídeo em 3D da vista da esquerda e da vista da direita em um quadro em 2D para os dados de vídeo principais, de acordo com o formato de transmissão em 2D em uma disposição principal, - a provisão de dados de controle que compreendem os parâmetros de um receptor para permitir que o receptor reproduza os dados de vídeo principais e sobreponha os dados auxiliares, - a montagem do fluxo de transporte de dados que inclui os dados de video em 3D na disposição principal, os dados auxiliares e os dados de controle.
A invenção se refere ainda a um dispositivo para o 5 processamento de informações de video em 3D, um sinal para a transferência das informações de video em 3D, e urn receptor para o processamento das informações de video em três dimensões [3D].
A invenção se refere ao campo da transmissão de 10 videos em 3D. Um número crescente de produções da indústria do entretenimento visa às salas de cinema em 3D. Estas produções usam um formato de duas vistas (uma vista da esquerda e uma vista da direita que são exibidas para os respectivos olhos de um espectador para a geração de um 15 efeito em 3D) , destinado principalmente à visualização assistida por equipamento ocular. Há interesse da indústria em levar essas produções em 3D para as casas. Além disso, as emissoras iniciaram uma transmissão experimental de conteúdo em 3D, especialmente de eventos esportivos ao vivo.
Atualmente, um padrão para a transmissão de vídeos digitais (DVB) está sendo adaptado para a transferência de conteúdo estereoscópico. O formato que será utilizado, certamente na fase inicial, será o formato estéreo comumente utilizado que compreende pelo menos uma vista da esquerda e uma vista da - 25 direita que são exibidas para os respectivos olhos de um espectador para a geração de um efeito em 3D, dados de ambas as vistas que são formadas em um quadro de vídeo em 2D, por exemplo, em uma disposição lado a lado (SBS) ou superior- inferior (TB). Os quadros em 2D que contêm as vistas em 3D da 30 esquerda e da direita são transmitidos e recebidos através de canais de vídeo existentes (2D).
Os sistemas e os dispositivos para a geração de dados de vídeo em 2D são conhecidos; por exemplo, os servidores de vídeo, os estúdios de transmissão, ou os dispositivos de autoria. Atualmente, são necessários dispositivos de vídeo em 3D semelhantes para a provisão de dados de imagem em 3D, e são propostos dispositivos de vídeo 5 em 3D complementares para a renderização dos dados de vídeo em 3D, como os conversores que processam os sinais de vídeo em 3D recebidos. 0 dispositivo de vídeo em 3D pode ser acoplado a um dispositivo de visualização, como um aparelho de televisão ou um monitor, para a transferência dos dados de 10 vídeo em 3D através de uma interface adequada, de preferência uma interface digital de alta velocidade, como HDMI. A exibição em 3D também pode ser integrada ao dispositivo de vídeo em 3D, por exemplo, uma televisão (TV) com uma seção de recepção e um visor em 3D.
O padrão público internacional ISO/IEC 14496-10 "Tecnologia da informação - Codificação de objetos audiovisuais - Parte 10: Codificação de Vídeo Avançada", quinta edição, 15/05/2009, descreve a codificação digital de 20 informações de vídeo, por exemplo, para a transmissão de vídeo digital (DVB). Os dados de vídeo definem o conteúdo do vídeo principal a ser exibido. Os dados auxiliares definem quaisquer outros dados que possam ser exibidos em combinação com os dados de vídeo principais, tais como os dados gráficos -25 ou as legendas. O padrão, e outros documentos relacionados, também definem os dados de controle para a indicação de parâmetros a um receptor para permitir que o receptor reproduza os dados de vídeo principais e sobreponha os dados auxiliares, e monte um fluxo de transporte de dados que 30 inclua os dados de vídeo, os dados auxiliares e os dados de controle para a transmissão. O padrão AVC é um exemplo; por exemplo, um vídeo MPEG-2 também pode ser usado para alta definição, como descrito no documento ISO/IEC 13818-2
Codificação genérica de imagens em movimento e informações de áudio associadas: Vídeo. Para permitir a codificação e a transferência de dados de vídeo em 3D, os padrões acima estão sendo adaptados.
Em particular, foi proposta a definição de um sistema para a indicação de que as informações de vídeo em 3D são transmitidas através de canais de vídeo em 2D, formatadas em um quadro de vídeo em 2D, por exemplo, na dita disposição lado a lado (SBS) ou superior-inferior (TB) . Assim, os dados de vídeo em 3D têm pelo menos uma vista da esquerda e uma vista da direita que são exibidas para os respectivos olhos de um espectador para a geração de um efeito em 3D, e os dados auxiliares são dispostos para a exibição em uma área de sobreposição com os dados de vídeo em 3D. Os dados de vídeo em 3D da vista da esquerda e da vista da direita são formatados em um quadro em 2D para os dados de vídeo principais, de acordo com o formato de transmissão em 2D em uma disposição principal. Por exemplo, em uma alteração do padrão ISO acima, foi proposta a extensão das mensagens de dados de controle, as chamadas mensagens de informação de reforço suplementar (SEI), através da definição de uma nova mensagem de SEI que indica a intercalação espacial das vistas da esquerda e da direita dos dados de vídeo no quadro de vídeo em 2D para uso como distribuição de vídeo - 25 estereoscópico. A intercalação espacial pode, por exemplo, ser uma dita disposição lado a lado (SBS) ou superior- inferior (TB), ou uma intercalação xadrez.
O documento WO 2009/078678 descreve um formato de dados estereoscópico com base em MPEG4. O formato define os 30 dados de vídeo e os dados de texto que devem ser sobrepostos.
Em uma primeira realização, um nó de texto é incluído em um Descritor de Cena. A primeira realização define os campos leftstring e rightstring, com dois textos correspondentes aos pontos de vista da esquerda e da direita.
Além disso, em uma segunda realização, um nó de texto diferente é incluído em um Descritor de Cena. A segunda realização define um único campo de sequência estereoscópica 5 e os dados de disparidade, com um texto idêntico usado para os pontos de vista da esquerda e da direita.
A transferência proposta de informações de vídeo em 3D através de um canal de vídeo em 2D permite que os dados de vídeo principais sejam transferidos em 3D. No entanto, quaisquer dados auxiliares, como legendas, também devem ser transferidos, por exemplo, com a utilização do padrão de DVB para Legendagem: ETSI EN 300 743 - Transmissão de Vídeos Digitais (DVB); Sistemas de legendagem. Deve-se notar que os ditos dados auxiliares são transferidos separadamente, por exemplo, em um fluxo de dados auxiliares em um fluxo de transporte. Um exemplo do dito fluxo de transporte, chamado de DVB, está definido no padrão: ISO/IEC 13818-1 Codificação genérica de imagens em movimento e informação de áudio associadas: Sistemas. A sobreposição de dados auxiliares, geralmente com base em uma configuração selecionada pelo usuário, é acomodada na extremidade de recepção. Ela pode ser considerada para a formatação dos dados auxiliares em uma disposição auxiliar semelhante ao vídeo principal, por exemplo, também em um SBS. No entanto, o dito formato pode resultar em dificuldades ou custos adicionais no receptor.
Ê um objeto da presente invenção prover um sistema para a transferência de informações de vídeo em 3D que inclui dados auxiliares que evitam dificuldades e custos adicionais 30 para o receptor.
Para este efeito, de acordo com um primeiro aspecto da invenção, o método, como descrito no parágrafo de abertura, compreende ainda - a provisão de uma vista auxiliar da esquerda e uma vista auxiliar da direita dos dados auxiliares que devem ser sobrepostas na vista da esquerda e na vista da direita dos dados de vídeo em 3D, e uma versão em 2D dos dados 5 auxiliares e os dados auxiliares de disparidade indicativos da disparidade que deve ser aplicada à versão em 2D dos dados auxiliares quando sobrepostos na vista da esquerda e na vista da direita, a disposição dos dados auxiliares da vista 10 auxiliar da esquerda e na vista auxiliar da direita de um fluxo de dados auxiliares de acordo com o formato de transmissão em 2D em uma disposição auxiliar que corresponde à disposição principal, - a disposição dos dados auxiliares da versão em 2D 15 em um fluxo de dados auxiliar adicional, - inclusão, no fluxo de transporte, do fluxo de dados auxiliar adicional, dos dados de disparidade auxiliares e de um indicador de formato de disparidade indicativo do fluxo de dados auxiliar adicional.
Para este propósito, de acordo com outros aspectos da invenção, é provido um dispositivo que compreende um processador de vídeo para - a disposição dos dados de vídeo em 3D da vista da esquerda e da vista da direita em um quadro em 2D para os • 25 dados de vídeo principais, de acordo com o formato de transmissão em 2D em uma disposição principal, - a provisão de dados de controle que compreendem os parâmetros de um receptor para permitir que o receptor reproduza os dados de vídeo principais e sobreponha os dados 30 auxiliares, - a montagem do fluxo de transporte de dados que inclui os dados de vídeo em 3D na disposição principal, os dados auxiliares e os dados de controle,
O processador de vídeo ainda é disposto para - a provisão de uma vista auxiliar da esquerda e uma vista auxiliar da direita dos dados auxiliares que devem ser sobrepostas na vista da esquerda e na vista da direita 5 dos dados de vídeo em 3D, e uma versão em 2D dos dados auxiliares e os dados auxiliares de disparidade indicativos da disparidade que deve ser aplicada à versão em 2D dos dados auxiliares quando sobrepostos na vista da esquerda e na vista da direita, - a disposição dos dados auxiliares da vista auxiliar da esquerda e na vista auxiliar da direita de um fluxo de dados auxiliares de acordo com o formato de transmissão em 2D em uma disposição auxiliar que corresponde à disposição principal, - a disposição dos dados auxiliares da versão em 2D em um fluxo de dados auxiliar adicional, - inclusão, no fluxo de transporte, do fluxo de dados auxiliar adicional, dos dados de disparidade auxiliares e de um indicador de formato de disparidade indicativo do 20 fluxo de dados auxiliar adicional.
Além disso, um sinal compreende os dados de vídeo em 3D da vista da esquerda e da vista da direita em um quadro em 2D para os dados de vídeo principais, de acordo com um o formato de transmissão em 2D em uma disposição principal, os dados de controle que compreendem os parâmetros de um receptor para permitir que o receptor reproduza os dados de vídeo principais e sobreponha os dados auxiliares, e um fluxo de transporte de dados que inclui os dados de vídeo em 3D na disposição principal, os dados auxiliares e os dados 30 de controle para a transmissão, e o sinal compreende ainda uma vista auxiliar da esquerda e uma vista auxiliar da direita dos dados auxiliares que devem ser sobrepostas na vista da esquerda e na vista da direita dos dados de video em 3D, e uma versão em 2D dos dados auxiliares e os dados auxiliares de disparidade indicativos da disparidade que deve ser aplicada à versão em 2D dos dados auxiliares quando sobrepostos na vista da esquerda e na vista 5 da direita, - os dados auxiliares da vista auxiliar da esquerda e na vista auxiliar da direita de um fluxo de dados auxiliares de acordo com o formato de transmissão em 2D em uma disposição auxiliar que corresponde à disposição 10 principal, - os dados auxiliares da versão em 2D em um fluxo de dados auxiliar adicional, e, no fluxo de transporte, o fluxo de dados auxiliar adicional, os dados de disparidade auxiliares e um 15 indicador de formato de disparidade indicativo do fluxo de dados auxiliar adicional.
Além disso, um receptor compreende uma unidade de entrada para a recepção do sinal, e um processador de vídeo para a recuperação dos dados auxiliares a partir do fluxo de 20 dados auxiliar adicional, enquanto descarta os dados auxiliares na disposição auxiliar provida no fluxo de dados auxiliar, e a geração de dados de sobreposição para a exibição na área de sobreposição dos dados de vídeo em 3D com base na versão em 2D dos dados auxiliares e dos dados de • 25 disparidade auxiliares.
Além disso, um produto de programa de computador para o processamento de informação de vídeo em 3D é operativo para fazer com que um processador execute o método como definido acima.
Os dados de controle podem compreender tanto os dados de controle que indica o formato de vídeo (SBS. TB, etc) como os dados de controle que contém a disparidade para os dados auxiliares. As medições têm o efeito de que os dados auxiliares são transferidos em uma disposição auxiliar que corresponde à disposição de vídeo principal. Além disso, os dados auxiliares são transferidos simultaneamente também em uma versão em 2D, em combinação com dados auxiliares de 5 disparidade indicativos da disparidade que deve ser aplicada à versão em 2D dos dados auxiliares quando sobreposta na vista da esquerda e na vista da direita. A dita transmissão binária de dados auxiliares permite que qualquer receptor recupere a configuração de dados auxiliares que facilita a 10 renderização em 3D fácil do conjunto de vídeo principal e dados auxiliares. Vantajosamente, ambos os legados dos dispositivos de recepção em 2D legados e dos novos dispositivos de recepção em 3D permitem a operação de forma eficiente com base na transmissão binária de dados 15 auxiliares. Além disso, enquanto a qualidade das vistas auxiliares embaladas na disposição auxiliar pode ser limitada devido à resolução reduzida da dita embalagem, uma qualidade elevada para a renderização das informações auxiliares é permitida devido à presença de dados auxiliares de 20 disparidade e à versão em 2D, que tem a resolução completa.
A invenção também tem base no seguinte reconhecimento. Durante extensão do sistema de transmissão em 2D existente para 3D com o empacotamento dos quadros de vídeo principais das vistas da esquerda e da direita em um único • 25 quadro em 2D, pode parecer haver uma solução semelhante para os dados auxiliares, ou seja, a utilização de uma disposição auxiliar semelhante a dos dados de vídeo principais, por exemplo, lado a lado. Os inventores observaram que esta disposição pode ser tratada por arquiteturas de processamento 30 de vídeo comuns que processam o vídeo de entrada principal primeiro através da decodificação do vídeo principal e dos dados auxiliares e, em seguida, através da sobreposição. O sinal é tratado como um sinal em 2D até esse ponto e, posteriormente, ele é dimensionado para a resolução de tela necessária para a exibição. No caso de as vistas em 3D serem dispostas no quadro em 2D, a etapa de dimensionamento é modificada. A exibição sequencial dos quadros da esquerda e da direita é assumida como sendo vista através de óculos obturadores para os respectivos olhos. Primeiro, a parte da vista da esquerda, por exemplo, a metade esquerda do quadro no SBS, é tomada, dimensionada para a resolução da tela e exibida. Depois, a parte da vista da direita, por exemplo, a metade direita do quadro no SBS, é tomada, dimensionada para a resolução da tela e exibida. Na prática, a arquitetura pode estar presente ao usar um legado do conversor em 2D (STB) e uma TV em 3D. O conversor gera primeiro os dados de exibição que devem ser exibidos, por exemplo, que devem ser transferidos através de uma interface digital como HDMI. A TV em 3D recebe os dados de exibição que ainda estão no formato SBS. O STB vai sobrepor os dados auxiliares de SBS no vídeo SBS principal; a TV em 3D vai separar a vista da esquerda e a vista da direita, ambas com os respectivos dados auxiliares sobrepostos.
No entanto, os inventores observaram que, em outros receptores em 3D, uma arquitetura diferente pode estar presente. Os dados de vídeo principais são primeiro analisados e, quando uma vista da esquerda e uma da direita estão dispostas em um formato de quadro em 2D, os ditos dados de vídeo são primeiro recuperados a partir do quadro em 2D e separados, e depois (re-)dimensionados para a regeneração completa das vistas da esquerda e da direita. Um fluxo selecionado de dados auxiliares pode então ser sobreposto às vistas da esquerda e da direita. A utilização dos dados auxiliares na disposição auxiliar requer agora etapas adicionais como a seleção da respectiva parte e o dimensionamento dos dados auxiliares. No entanto, a versão em 2D dos dados auxiliares, que tem a resolução completa, é sobreposta diretamente sem qualquer outro dimensionamento. Os mesmos dados auxiliares são sobrepostos em ambas as vistas da esquerda e da direita, diferindo apenas na posição horizontal por uma quantidade predefinida, chamada disparidade. A disparidade resulta em uma posição de profundidade correspondente dos dados auxiliares. O valor da disparidade que deve ser aplicada ao sobrepor a versão em 2D dos dados auxiliares está diretamente disponível através dos dados de disparidade auxiliares que também estão incluídos no fluxo de transporte. Vantajosamente, a disparidade aplicada pode ainda ser ajustada com base no tamanho da tela, na distância de visualização ou em outros parâmetros ou preferências de visualização. Uma explicação detalhada dos problemas de vários ambientes de processamento na renderização dos dados de vídeo em 3D e dos dados auxiliares é provida a seguir com referência às Figuras 2 a 4.
Ao analisar as várias arquiteturas de processamento de vídeo, os inventores observaram que parece haver problemas para lidar com os formatos em 2D e de disparidade em arquiteturas que primeiro sobrepõem os dados auxiliares e depois aplicam a recuperação das vistas do quadro em 2D e dimensionado. Uma etapa adicional de sobreposição deve ser adicionada às ditas arquiteturas, o que requer um hardware e/ou um software substancial de processamento adicional. Além disso, a disposição auxiliar resulta em uma resolução menor para os dados auxiliares. Os inventores investigaram os efeitos da dita resolução reduzida que parecia ser mais visível nos dados auxiliares, como em objetos gráficos ou
O legendas, enquanto o vídeo principal em 3D é menos prejudicado por uma resolução reduzida. A solução proposta, ou seja, a alteração do sistema de transmissão com a inclusão dos dados auxiliares na disposição auxiliar e na versão em 2D com dados auxiliares de disparidade no fluxo de transporte, elimina convenientemente os vários problemas e desvantagens nas arquiteturas de processamento de vídeo usadas na prática enquanto permite, em muitos casos, uma atualização dos dispositivos de processamento em 2D através da atualização do software. Finalmente, pode-se notar que o alargamento da quantidade de dados que devem ser transferidos através do fluxo de transporte por adição de uma segunda versão dos mesmos dados auxiliares pode ser considerado contrário ao senso comum, mas é, contudo, aceitável em vista da quantidade relativamente pequena de dados adicionais e das vantagens substanciais na acomodação de várias arquiteturas do receptor para sobrepor de forma eficiente os dados auxiliares de vídeo em 3D.
Em uma realização do sistema para a transferência de informações de vídeo em 3D, os dados de controle incluem um indicador de formato em 3D de acordo com uma extensão em 3D do formato de transmissão em 2D, indicativo da dita disposição dos dados de vídeo em 3D da vista da esquerda e da vista da direita no quadro em 2D. Isto tem a vantagem de que um receptor está diretamente consciente da presença e do formato dos dados de vídeo em 3D no quadro em 2D.
Em uma realização do sistema, a disposição auxiliar está indicada apenas pelo indicador de formato em 3D indicativo da disposição principal. Deve-se notar que o fluxo de dados auxiliares é, na verdade, formatado de forma diferente de um fluxo de dados auxiliar em 2D comum, uma vez que não há nenhuma sinalização adicional ou modificada que indique a diferença. Isto é vantajoso porque qualquer legado do componente em 2D no canal de transferência de vídeo não estará ciente da diferença, e transmitirá ou processará normalmente os dados auxiliares. Além disso, os novos receptores de acordo com a presente invenção podem acomodar os dados auxiliares em 3D com base na detecção da disposição dos dados de vídeo principais, e aplicar uma disposição correspondente aos dados auxiliares.
Em uma realização do sistema, os dados de disparidade auxiliares compreendem os dados de disparidade de região para pelo menos uma região na área de sobreposição indicativa da disparidade dos dados auxiliares na respectiva região, quando sobrepostos na vista da esquerda e na vista da direita. Isto tem a vantagem de que os dados de disparidade de uma região são transferidos de forma eficiente.
Em uma realização do sistema, o fluxo de dados auxiliares compreende objetos, cujos objetos definem os dados de pixel de objetos gráficos que devem ser sobrepostos, e o fluxo de dados auxiliar e o fluxo de dados auxiliar adicional compreendem referências aos mesmos objetos para o compartilhamento dos mesmos respectivos objetos entre a vista auxiliar da esquerda, a vista auxiliar da direita e/ou a versão em 2D dos dados auxiliares. Os objetos definem os dados de pixel reais, ou seja, um nível baixo de representação dos dados gráficos que devem ser sobrepostos. Os dados de pixel reais requerem uma parte relativamente grande do total de dados auxiliares. Os inventores observaram que, embora as vistas da esquerda e da direita das legendas devam ser combinadas na disposição auxiliar, os mesmos objetos podem ser utilizados em ambas as vistas enquanto mantêm as restrições do padrão de DVB. Em outras extensões do padrão ou de outros sistemas, os objetos também podem ser utilizados para a versão em 2D porque o conteúdo da versão em 2D é igual à configuração disposta das vistas auxiliares da esquerda e da direita. Nesse caso, os objetos podem ser dimensionados para se ajustarem tanto à versão em 2D como às vistas auxiliares da esquerda e da direita. Vantajosamente, a capacidade total de transferência de dados adicionais necessários para o fluxo de dados auxiliares adicionais é relativamente pequena, porque os objetos são compartilhados e devem ser transmitidos apenas uma vez para uma respectiva sobreposição gráfica.
Outras realizações preferidas do dispositivo e do método de acordo com a invenção são dadas nas reivindicações em anexo, cuja revelação é incorporada aqui por referência. As características definidas nas reivindicações dependentes para um método ou dispositivo em particular se aplicam correspondentemente a outros dispositivos ou métodos.
Estes e outros aspectos da invenção ficarão aparentes e também serão elucidados com referência às realizações descritas a título de exemplo na descrição a seguir e com referência aos desenhos em anexo, nos quais A Figura IA mostra um sistema para a transferência de informações de vídeo em três dimensões (3D), A Figura 1B mostra os dados de vídeo em 3D e os dados auxiliares, A Figura 2 mostra um sistema de processamento de vídeo em um dispositivo de recepção, A Figura 3 mostra as disposições de vídeo em 3D e os dados auxiliares, A Figura 4 mostra o processamento de uma disposição auxiliar, A Figura 5 mostra uma estrutura de composição de página, A Figura 6 mostra (uma parte de) um descritor de componente, A Figura 7 mostra uma estrutura de definição de exibição, A Figura 8 mostra uma estrutura de composição de região, A Figura 9 mostra um tipo de segmento para o descritor de disparidade estereoscópica, A Figura 10 mostra um pacote de dados de um fluxo 5 elementar em pacotes (PES) que define a disparidade, e A Figura 11 mostra os valores do identificador de dados para os pacotes de PES. As figuras são puramente esquemáticas, e não estão desenhadas em escala. Nas figuras, elementos que correspondem 10 a elementos já descritos têm os mesmos números de referência.
A Figura IA mostra um sistema para a transferência de informações de vídeo em três dimensões (3D). O sistema tem um transmissor 100 que provê um sinal 104 que deve ser 15 transmitido através de uma rede de transmissão 130. Um receptor 110 recebe o sinal a partir da rede de transmissão em uma entrada 111 de uma unidade de entrada 112. O receptor provê os dados de exibição 114 para um dispositivo de visualização em 3D 120, por exemplo, uma TV em 3D ou um 20 sistema de projeção em 3D. O receptor pode ser um dispositivo separado, como conversor (STB) ou receptor via satélite. Alternativamente, o receptor 110 e o visor em 3D 120 são combinados em um único dispositivo, como uma TV digital em 3D com um sintonizador digital e um processador em 3D embutidos.
O sistema está disposto para a transferência das informações de vídeo em 3D 105 que incluem os dados de vídeo em 3D e os dados auxiliares. Os dados de vídeo em 3D, por exemplo, providos na entrada principal 101 do receptor 100, compreendem pelo menos uma vista da esquerda e uma vista da 3 0 direita que são exibidas para os respectivos olhos de um espectador para a geração de um efeito em 3D. Os dados auxiliares providos, por exemplo, na entrada auxiliar 102 do receptor 100, são dispostos para exibição em uma área de sobreposição com os dados de vídeo em 3D, tais como as legendas. Deve-se notar que fluxos múltiplos de dados auxiliares podem ser incluídos.
O sistema, no lado do transmissor, acomoda as funções a seguir. As funções podem ser implementadas em um processador de vídeo 103 no transmissor, mas também podem ser executadas em um sistema de autoria com base em programas de computador dedicados.
O vídeo principal é processado com a disposição dos dados de vídeo em 3D da vista da esquerda e da vista da direita em um quadro em 2D para os dados de vídeo principais, de acordo com um formato de transmissão em 2D em uma disposição principal. A dita embalagem de vídeo em 3D em um quadro em 2D geralmente é chamada de embalagem de quadro. De acordo com o padrão de transmissão aplicável, o sistema provê dados de controle para a indicação dos parâmetros para de um receptor para permitir que o receptor reproduza os dados de vídeo principais e sobreponha os dados auxiliares. Finalmente, um fluxo de transporte de dados em um sinal 104 é montado com a inclusão dos dados de vídeo em 3D na disposição principal, dos dados auxiliares e dos dados de controle para a transmissão através da rede de transmissão 130.
O sistema envolve ainda a provisão de uma vista auxiliar da esquerda e uma vista auxiliar da direita dos dados auxiliares que são sobrepostos na vista da esquerda e na vista da direita dos dados de vídeo em 3D, e a disposição dos dados auxiliares da vista auxiliar da esquerda e da vista auxiliar da direita em um fluxo de dados auxiliares, de acordo com o formato de transmissão em 2D em uma disposição auxiliar que corresponde à disposição principal. O fluxo de dados auxiliares é incluído no fluxo de transporte, como indicado acima.
Em uma realização, a disposição auxiliar, por exemplo, as legendas na vista auxiliar da esquerda e na vista auxiliar da direita são ajustadas lado a lado no espaço de dados disponível para as legendas. No DVB, a configuração de exibição pode ser definida por meio de um segmento de 5 definição de exibição. Existem três opções para a utilização de legendas de DVB em um serviço de full HD: a) A resolução gráfica é 720 x 576, e é convertida para a resolução de full HD do serviço. b) A resolução gráfica é 720 x 576, e está 10 posicionada no centro do vídeo de full HD. c) A resolução gráfica é 1920 x 1080, a mesma resolução do serviço de HD.
Em a) , uma vista tem apenas 3 60 pixels para uma legenda porque a tela deve ser dividida em duas metades. Os 15 pixels 360 estão espalhados em toda a largura da tela por dimensionamento, portanto, a resolução é relativamente baixa. Para DVB, a opção b resulta em legendas que estão apenas em uma seção pequena das vistas da esquerda e da direita (menos da metade) . A opção c) é boa como tal. No entanto, outras 20 restrições são listadas, tais como uma região para a exibição real de, no máximo, 720 pixels que são utilizados, e apenas uma região que é permitida em uma linha horizontal (sem regiões próximas umas das outras). No entanto, pelo menos uma ou ambas as restrições podem ser ajustadas para a acomodação ' 25 das legendas de SbS que são sobrepostas no vídeo principal de SbS com um nível de qualidade melhorado depois de uma atualização de firmware, se necessário.
Além disso, uma versão em 2D dos dados auxiliares e os dados auxiliares de disparidade indicativos da disparidade 3 0 que deve ser aplicada à versão em 2D dos dados auxiliares quando sobrepostos na vista da esquerda e na vista da direita também estão incluídos no fluxo de transporte. Assim, uma segunda versão dos mesmos dados auxiliares é incluída, por exemplo, disposta em um fluxo de dados auxiliar separado adicional. Deve-se notar que, de forma vantajosa, o fluxo de dados auxiliar adicional pode satisfazer o formato de transmissão em 2D, para não perturbar o legado de receptores 5 em 2D que também recebe o sinal. No entanto, os dados de disparidade auxiliares podem ser armazenados em vários locais nas estruturas de dados disponíveis no fluxo de transporte, tal como elucidado abaixo. Finalmente, o fluxo de dados auxiliares adicional, os dados de disparidade auxiliares e um 10 indicador de formato de disparidade são incluídos no fluxo de transporte. O indicador de formato de disparidade é indicativo do fluxo de dados auxiliares adicional, por exemplo, indicativo da presença e do formato específico dos dados auxiliares no fluxo de dados auxiliares adicional.
O sinal 104 para a transferência das informações de vídeo em 3D 105, como descrito acima, é transferido através de uma rede de transmissão 13 0, por exemplo, uma rede de transmissão de TV pública, uma rede via satélite, internet, etc. No sinal, um fluxo de transporte representa as informações de vídeo em 3D 105. Os dados de vídeo em 3D da vista da esquerda e da vista da direita em um quadro em 2D para os dados de vídeo principais estão dispostos de acordo com o formato de transmissão em 2D como DVB em uma disposição principal. Assim, o formato de transmissão em 2D pode ser ■ 25 prolongado pela adição de uma definição da estrutura de dados usada para a informação de vídeo em 3D, e os dados de controle correspondentes para a indicação dos parâmetros de um receptor para permitir que o receptor reproduza os dados de vídeo principais e a sobreposição dos dados auxiliares. 0 30 fluxo de transporte de dados inclui os dados de vídeo em 3D na disposição principal, os dados auxiliares e os dados de controle para a transmissão. O sinal compreende ainda as vistas auxiliares da esquerda e da direita e uma versão em 2D dos dados auxiliares e dos dados auxiliares de disparidade, como descrito acima. Os dados auxiliares da vista auxiliar da esquerda e da vista auxiliar da direita são embalados em um fluxo de dados auxiliar, de acordo com o formato de 5 transmissão em 2D em uma disposição auxiliar que corresponde à disposição principal, e os dados auxiliares da versão em 2D são embalados em um fluxo de dado auxiliar adicional. O fluxo de transporte contém o fluxo de dados auxiliar adicional, os dados de disparidade auxiliares e um indicador de formato de 10 disparidade indicativo do fluxo de dados auxiliar adicional.
O receptor 110 tem a unidade de entrada 112 para a recepção do sinal a partir da rede de transmissão, como descrito acima. O fluxo de transporte é recuperado e acoplado a um processador de vídeo 113 para a recuperação dos dados 15 auxiliares a partir do fluxo de dados auxiliar adicional enquanto descarta os dados auxiliares na disposição auxiliar provida no fluxo de dados auxiliar. 0 processador de vídeo gera ainda dados de sobreposição para a exibição na área de sobreposição com os dados de vídeo em 3D com base na versão 2 0 em 2D dos dados auxiliares e dos dados auxiliares de disparidade, como explicado em detalhes abaixo. A Figura 1B mostra os dados de vídeo em 3D e os dados auxiliares. Os dados de vídeo têm uma vista da esquerda 150 e uma vista da direita 151. Ambas as vistas são mostradas ■25 com uma sobreposição de informações auxiliares. A vista da esquerda tem os dados auxiliares 160, uma legenda que diz Vermelho e verde é mostrada em uma posição de partida horizontal X, e a vista da direita têm os dados auxiliares 161, ou seja, a mesma legenda mostrada em uma posição de 30 partida horizontal X-n. O valor n representa uma disparidade entre as versões da esquerda e da direita da legenda. A Figura mostra uma imagem estereoscópica, como uma representação de um quadro em estéreo de um filme com uma legenda em 2D composta na parte superior do vídeo, enquanto o deslocamento horizontal n é aplicado para ajustar a profundidade da legenda.
Uma das principais plataformas de distribuição de 5 conteúdo para a transmissão de vídeos estereoscópicos é a dos canais de televisão digital comuns, neste documento chamada de Transmissão de Vídeos Digitais (DVB). A DVB aplica vários padrões ao transporte terrestre, a cabo, via satélite e móvel, e à sinalização associada de áudio/vídeo, gráficos 10 (legendas, etc.) e aos aplicativos interativos (aplicativos Java de HTML/XML). Os avanços atuais na tecnologia de exibição estão tornando possível a introdução de vídeos em 3D para um público de mercado em massa. Portanto, para permitir uma ampla distribuição de conteúdo em 3D, os padrões de DVB 15 devem ser prolongados para permitir a transmissão do conteúdo em 3D.
O conteúdo em 3D requer significativamente mais armazenamento, largura de banda e processamento, em comparação ao conteúdo em 2D. Devido a isso, estão sendo 20 investigadas soluções que provejam uma experiência em 3D com um mínimo de custo adicional e que sejam compatíveis com a base de instalação atual dos conversores (STB) . Uma das soluções que está sendo investigada é a de prolongar os decodificadores avançados existentes para permitir que eles '25 reproduzam em 3D através de uma embalagem de quadro das vistas da esquerda e da direita de uma imagem estereoscópica em um quadro em 2D.
O vídeo estereoscópico também requer dados estereoscópicos auxiliares, como legendas. Neste documento, 30 as legendas serão utilizadas como um exemplo de dados auxiliares. Os dados auxiliares podem ainda ser de qualquer tipo de dados gráficos adicionais que são sobrepostos no vídeo principal. A sobreposição das legendas no vídeo estéreo requer cuidados especiais para decidir onde posicionar as legendas em sentido horizontal, vertical e profundidade na parte superior do vídeo. Caso não seja feita corretamente, a sobreposição de legenda pode interferir no vídeo de fundo, o 5 que causa artefatos visuais e cria sugestões de profundidade conflitantes nas bordas das legendas. Isto pode acontecer quando a profundidade das legendas é menor do que a profundidade do vídeo no local da legenda. A legenda oclui partes do vídeo, então o cérebro espera que a legenda esteja 10 na frente do vídeo. Além disso, devido à legenda ser copiada na parte superior do vídeo, parece que a legenda perfura o vídeo, o que cria artefatos nas bordas da legenda.
A colocação correta das legendas pode ser feita com a mudança da disparidade das imagens Esquerda e Direita de 15 uma legenda estereoscópica, e a garantia de que esta disparidade ou "profundidade" esteja mais próxima do espectador do que a profundidade do vídeo. Uma desvantagem do ajuste da disparidade das legendas deste modo é que isso requer o processamento das imagens durante a autoria, e isso 20 requer o uso de legendas estereoscópicas, o que dobra a largura de banda e o processamento no dispositivo de reprodução.
Uma abordagem alternativa é a utilização de legendas em 2D e a cópia da legenda na parte superior da 25 imagem da esquerda e da direita do vídeo estereoscópico. Isso funciona com a cópia da legenda sobre a parte esquerda da imagem do vídeo estereoscópico e a movimentação em uma direção horizontal antes de copiá-la na parte direita da imagem do vídeo estereoscópico. A quantidade de deslocamento 30 horizontal de objetos entre as vistas da esquerda e da direita, geralmente chamada de disparidade, determina a profundidade da legenda, e este valor deve ser mais elevado do que a disparidade do vídeo na localização das legendas.
Um problema com a implementação de legendas estereoscópicas para sistemas com base em DVB é a compatibilidade com a cadeia de distribuição de video em 2D existente. Uma opção é o uso de legendas estereoscópicas que 5 utilizam o mesmo formato de embalagem que o vídeo, por exemplo, superior-inferior, lado a lado, etc. Tal embalagem é chamada de disposição auxiliar neste documento. A Figura 2 mostra um sistema de processamento de vídeo em um dispositivo de recepção. O dispositivo pode ser, 10 por exemplo, um aparelho de TV digital ou um conversor. Uma unidade de entrada 201 compreende um desmodulador para a recepção do sinal de transmissão de vídeo, por exemplo, de uma rede à cabo, uma antena satélite, etc. O desmodulador recupera o fluxo de transporte do sinal de entrada, o qual é 15 acoplado a uma unidade de-multiplexadora 202 que também pode incluir um decodificador para a recuperação dos vários fluxos de dados e dos dados de controle do fluxo de transporte. Os fluxos de dados são acoplados a um decodificador principal 203 para a decodificação dos dados de vídeo e áudio, e a um 20 decodificador auxiliar 204 para a decodificação dos dados auxiliares e dos dados de controle. Os decodificadores e elementos adicionais são acoplados através de um barramento de sistema 209 a uma unidade de processamento central (CPU), um processador de gráficos 206, uma memória 207, e uma fase de saída 208, por exemplo, de acordo com HDMI, ou LVDS etc.
Em algumas implementações, o pipeline de processamento de vídeo e legendas é diferente e separado. As operações de processamento e de largura de banda elevada, tais como a decodificação A/V e o processamento gráfico 30 (operações de filtro, etc.), são feitas em um ASIC dedicado, enquanto o processamento de informação de largura de banda baixa, tais como as legendas, é feito por um processador de finalidade geral de baixa potência. As legendas e o vídeo não são combinados até o final do pipeline de processamento.
Devido a vários dos blocos na figura 200 serem combinados em uma única unidade de hardware em algumas implementações, alguns problemas inesperados podem ocorrer 5 com a acomodação das legendas em combinação com o vídeo em 3D.
Se não houvesse nenhuma sinalização para as legendas e as legendas fossem em 2D, então o dispositivo de reprodução assumiria que as legendas devem ser copiadas em 10 ambos os lados esquerdo e direito do vídeo. Em tal caso, a legenda ficaria localizada a uma profundidade de tela e poderia interferir com o vídeo estéreo caso o vídeo estéreo na localização das legendas saia da tela. Ê proposta a utilização de legendas estereoscópicas com uma disparidade 15 adequada entre a legenda da esquerda e a da direita, de modo que as legendas apareçam na frente estéreo do vídeo. Para as legendas, será usado o mesmo método de embalagem que é utilizado para o vídeo, para tornar possível a transmissão da legenda na cadeia de distribuição existente para 2D. Como 20 indicado acima, os dados auxiliares são embalados em uma disposição auxiliar correspondente à disposição principal dos dados de vídeo em 3D. A Figura 3 mostra as disposições de vídeo em 3D e os dados auxiliares. A Figura mostra uma vista da esquerda * 25 301 e uma vista direita 302 do vídeo estereoscópico. As vistas 301, 302 são subamostradas na direção horizontal em 50% para se ajustar em um quadro em 2D 303. O método de embalagem da disposição principal é chamado de lado a lado (SBS). Outras disposições como a Superior-Inferior ou a 30 Xadrez também são possíveis. A mesma disposição é aplicada às legendas em uma vista da esquerda 3 04 e em uma vista da direita 305, o que resulta na disposição auxiliar 306. Ambas as disposições principal e auxiliar são então transmitidas para um dispositivo de recepção, por exemplo, um dispositivo de reprodução como um conversor ou uma TV com receptor integrado.
Em uma realização do dispositivo de reprodução com um receptor integrado, tal como uma TV com 3D habilitado, a arquitetura do processador de vídeo pode ser de acordo com a Figura 2, na qual os blocos 206 e 203 estão integrados em um ASIC. Primeiro, um mau funcionamento de tal realização sem a aplicação da invenção é discutido. No ASIC, o quadro de vídeo SBS 3 07 será dividido em uma parte esquerda 3 08 e uma parte direita (não mostrada). Primeiro, a parte esquerda é copiada e dimensionada de volta para seu tamanho original 309 antes de ser copiada para uma memória de vídeo. Na realização, as legendas serão processadas pelo bloco 205, a CPU e copiadas para a memória de vídeo na parte superior do vídeo. 0 resultado indevido 310 para o quadro da esquerda é mostrado na Figura, devido à escala e ao processamento serem realizados no vídeo antes de as legendas serem adicionadas à esquerda e à direita combinadas, e a legenda de SBS combinada acabar no quadro da esquerda. 0 mesmo pode ocorrer para o quadro da direita.
Para evitar o resultado indevido acima, uma realização do dispositivo de reprodução é provida com uma ordem de processamento modificada. As legendas SBS devem ser copiadas para o vídeo SBS antes que as partes da esquerda e direita da imagem do vídeo SBS e as legendas sejam copiadas para um buffer de quadros e dimensionadas de volta ao tamanho original. A Figura 4 mostra o processamento de uma disposição auxiliar. A Figura mostra uma representação do processamento com a utilização da ordem de processamento modificada acima. Primeiro, o vídeo na disposição principal 401 é mostrado como decodificado pelo decodificador de A/V 203, e é copiado para uma memória de quadro. A legenda na disposição auxiliar 404 é decodificada pelo decodificador de dados 204 e, posteriormente, copiada pela CPU 2 05 para a imagem de vídeo na memória de quadro. Em seguida, para o quadro da esquerda da saída estereoscópica, o processador gráfico 206 copia a parte esquerda do vídeo e das legendas combinada à memória de quadro, como indicado pelo retângulo 402. Então o processador de gráficos 206 dimensiona a dita parte esquerda até seu tamanho original e copia o resultado para a memória de vídeo de saída. A vista esquerda resultante 403 é mostrada.
Deve-se notar que a qualidade das legendas na saída é limitada, como pode ser visto na vista da esquerda 403. Isto faz todo o sentido, uma vez que as legendas foram subamostradas em 50% antes de serem transmitidas e dimensionadas ao tamanho normal no dispositivo de reprodução. Além disso, no dispositivo de reprodução comumente disponível, não é fácil alterar a ordem das etapas de processamento para permitir que as legendas sejam processadas com o vídeo, uma vez que a largura de banda do barramento do sistema 209 pode não ser suficientemente elevada para suportar as cópias frequentes dos dados de imagem de vídeo para e do ASIC para a memória. Por isso, embora esta configuração proveja legendas corretas, ela pode não ser satisfatória em todas as situações.
Os problemas acima ocorrem devido às diferenças na forma como as legendas e o vídeo são processados em dispositivos de reprodução diferentes. Para acomodar as legendas melhoradas e o processamento eficiente, é proposta não só a utilização da legenda estereoscópica na disposição auxiliar, mas também a provisão de uma legenda em 2D e a sinalização no fluxo, de modo que o dispositivo de reprodução possa determinar como compor a legenda na parte superior do vídeo estéreo sem os artefatos causados por conflitos de profundidade.
Em sistemas práticos, como os sistemas de DVB, existem várias maneiras de transmitir gráficos ou textos, tais como as legendas. O mais comum é usar o padrão de 5 legenda em DVB (ETSI EN 300 743) ou dados adicionais, como descrito no Perfil de transmissão MHEG-5 (Multimedia & Hypermedia Experts Group; ETSI ES 202 184), mas outras abordagens podem usar teletexto. Os parâmetros de sinalização podem ser transmitidos, como definido no padrão DVB-SI 10 (Especificação DVB para Informações de Serviço; ETSI EN 300 468) . Tais sistemas exigem uma solução para indicar como sobrepor elementos gráficos, tais como legendas, no vídeo estereoscópico de uma forma que não requeira alterações nas plataformas de hardware existentes dos dispositivos de 15 reprodução compatíveis com DVB. Na seção a seguir, várias opções para o formato de sinalização dos dados auxiliares e da disparidade auxiliar são discutidas.
Em um conversor compatível com DVB ou TV, as legendas são tratadas separadamente a partir do vídeo por um 20 processador de finalidade geral de baixa potência que também cuida da detecção e da interpretação dos parâmetros de sinalização como transmitidos. Assim, a solução adequada é levar a sinalização de disparidade para o fluxo de legendas ou a sinalização de legenda, em oposição à sinalização no ' 25 fluxo elementar de vídeo.
O padrão de legendas em DVB define três tipos de informações de sinalização chamados de segmentos para a sinalização do posicionamento do texto ou dos objetos gráficos. O segmento de definição de exibição sinaliza o 30 tamanho de visualização desejado. A composição da página sinaliza como o texto e os gráficos são posicionados no quadro de vídeo. Um segmento de composição de região divide o quadro em duas regiões não sobrepostas. Os objetos que contêm texto ou gráficos podem ser utilizados e reutilizados em páginas e regiões diferentes.
Devido às legendas em DVB das regiões poderem estar localizadas em posições diferentes em um quadro, a 5 disparidade por região para os gráficos ou o texto naquela região pode ser diferente. Em uma realização, a disparidade auxiliar é transferida por região, por exemplo, como um parâmetro de deslocamento. A seguir são descritas opções para que isso seja feito de uma forma compatível.
A quantidade de deslocamento necessário pode ser bastante limitada. Uma disparidade entre a imagem da esquerda e a imagem da direita de 100 pixels normalmente será suficiente. Uma vez que o deslocamento pode ser realizado de forma simétrica, o campo que segura a disparidade precisa 15 apenas indicar a metade do deslocamento dos pixels. Assim, 6 bits devem ser suficientes para a maioria dos propósitos. A Figura 5 mostra uma estrutura de composição de página. A Figura mostra uma tabela que representa a estrutura de composição da página 50 em uma sequência de campos. O tipo 20 de segmento e o comprimento do segmento são indicados, e a página à qual a estrutura é aplicada no campo page_id. Em uma realização, a presença de dados de disparidade é indicada em outro campo reservado A 51.
Em uma realização, os dados de disparidade ’ 25 auxiliares compreendem os dados de disparidade de região para pelo menos uma região na área de sobreposição indicativa da disparidade dos dados auxiliares na respectiva região, quando sobrepostos na vista da esquerda e na vista da direita. A tabela da Figura 5 mostra uma definição de uma série de 30 regiões em um circuito Durante. Para cada região, uma identificação no campo Region_id e a posição em campos de endereço horizontais e verticais são providas.
Em uma realização, o fluxo de dados auxiliares compreende a estrutura de composição da página 50 que define uma composição de uma página de dados auxiliares que são exibidos na área de sobreposição. A estrutura de composição da página 50 tem pelo menos uma região de definição 53 que 5 define um local e os dados de disparidade da região de uma respectiva região.
Olhando para o segmento de definição de exibição na Figura 7 e o segmento de composição de região na Figura 8, vemos apenas uma pequena quantidade de bits disponíveis, 10 insuficiente para indicar com precisão um campo disparidade.
No segmento de composição de página mostrado na Figura 5, no entanto, há um circuito por região, cujo circuito define uma sequência de definições da região 53. Neste circuito, para cada região existem 8 bits reservados no campo reservado B 15 52. Os 8 bits são suficientes para indicar a disparidade ou deslocamento aplicado a essa região. O valor da disparidade auxiliar é indicado em outro campo reservado B 52. Neste campo, a Subtitle_disparity pode ser representada por 0-127 para uma disparidade positiva (deslocar a vista da esquerda 20 para a esquerda e a vista da direita para a direita), e 128- 255 para uma disparidade negativa (deslocar a vista da esquerda para a direita e a vista da direita para a esquerda).
Além de receber a disparidade de legenda, o • 25 dispositivo de reprodução deve ser capaz de reconhecer qual fluxo de legendas transporta os dados de disparidade. Em uma realização em DVB, uma tabela do mapa de programa é utilizada (Especificação de DVB para Informações de Serviço; ETSI EN 3 00 468) . A tabela do mapa de programa ou PMT define quais 30 fluxos são parte do programa na transmissão. A PMT também inclui um chamado "descritor de componente", para descrever os vários fluxos de modo que o dispositivo de reprodução saiba quais dados estão presentes em cada fluxo. A Figura 6 mostra (uma parte de) um descritor de componente. A Figura mostra uma tabela do descritor de componente 60 que define o conteúdo de um fluxo. O campo de conteúdo de fluxo identifica o tipo de dados, por exemplo, 0 5 para dados de vídeo, 1 para de áudio e 2 para de legenda. O component_type 61 indica o formato no caso de legendas que indicam o tipo de legenda, por exemplo, legendas para um visor de 21:9 ou legendas destinadas à dificuldade de audição. Uma lista de valores completa pode ser encontrada na 10 tabela 26 do ETSI EN 300 468. Um novo valor de tipo de componente deve ser incluído, por exemplo, 0x14, para indicar que um fluxo de legendas transporta os dados de disparidade. Assim, no fluxo de transporte, o fluxo de dados auxiliar adicional é incluído, enquanto o novo valor de tipo de componente provê um indicador de formato de disparidade indicativo do fluxo de dados auxiliar adicional. Deve-se notar que o indicador de formato disparidade pode, alternativamente, ser provido de uma maneira diferente, seja por adição ou alteração dos respectivos dados de controle no 20 fluxo de transporte.
Em uma realização, os dados de controle do fluxo de transporte incluem um indicador de formato em 3D de acordo com a extensão em 3D do formato de transmissão em 2D. O indicador de formato em 3D é indicativo da dita disposição ’ 25 principal dos dados de vídeo em 3D da vista da esquerda e da vista da direita no quadro em 2D. Um exemplo de um padrão de transmissão em 2D é o padrão ISO/IEC 14496-10 mencionado anteriormente. Em uma alteração A, o indicador de formato em 3D pode ser adicionado ao padrão, por exemplo, em uma 30 mensagem de informação de reforço suplementar (SEI) que indica a intercalação espacial. O indicador de formato em 3D pode definir ainda o formato da informação auxiliar.
Em outra realização, a disposição auxiliar está indicada apenas pelo indicador de formato em 3D indicativo da disposição principal. Assim, não há informação de controle adicional incluída no fluxo de transporte que indique explicitamente a disposição auxiliar, além do indicador de 5 formato em 3D que basicamente define a disposição principal.
O receptor deve assumir que a informação auxiliar deve ter a disposição auxiliar correspondente à disposição principal quando nenhum outro indicador estiver presente.
Deve-se notar que um dispositivo capaz de 10 reprodução não-3D existente não reconhecerá o novo tipo de componente como definido na Figura 6 e, portanto, utilizará o fluxo de legendas em 2D e o vídeo em 2D. Então, caso o vídeo e as legendas sejam formatados como Lado a Lado ou Superior- Inferior, então isso vai funcionar em tal dispositivo legado, 15 por exemplo, um conversor capaz de HD existente ligado a uma TV em 3D. O STB vai sobrepor corretamente as legendas enquanto a TV em 3D vai dividir a imagem e dimensionar as vistas da esquerda e da direita. A Figura 7 mostra uma estrutura de definição de 20 exibição. A Figura mostra uma tabela que representa a estrutura de definição de exibição 70 em uma sequência de campos. O tipo de segmento e o comprimento do segmento são indicados, e a página à qual a estrutura é aplicada no campo page_id. A estrutura define a área de sobreposição para uma 25 página de dados auxiliares, como definido nos campos display_window que definem uma posição da área de sobreposição. Apenas alguns bits estão disponíveis para a indicação da disposição de dados auxiliares em um campo reservado 71.
Em alternativa, um campo adicional no segmento de definição de exibição é definido. Na realização, o fluxo de dados auxiliar compreende a estrutura de definição de exibição 70. No campo adicional, são definidos os dados de disparidade auxiliares que são aplicados à área de sobreposição. A Figura 8 mostra uma estrutura de composição de região. A Figura mostra uma tabela de segmento de composição de região que representa a estrutura de composição da região 80 em uma sequência de campos. O tipo de segmento e o comprimento do segmento são indicados, e a página à qual a estrutura é aplicada no campo page_id. Em uma série de campos, os bits estão disponíveis para a indicação da disposição de dados auxiliares, em particular, 3 bits em um campo reservado-1 81, 2 bits em um campo reservado-2 82, 2 bits em um campo reservado-3 83, e 4 bits em um campo reservado-4 84.
Para definir o formato da disparidade no segmento de composição de região, o segmento de composição de região mostrado na Figura 8 tem 4 bits reservados por objeto, como definido em uma sequência de definições de objetos 85 na parte inferior, tendo cada objeto um campo reservado-4. Isto por si só pode ser suficiente para indicar uma disparidade. No entanto, em alternativa, isso pode ser utilizado para indicar o deslocamento ou a disparidade por objeto em relação à posição da região, em termos de precisão de pixel.
No resto da tabela de segmentos de composição de região 80 existem alguns outros campos reservados. Esses outros campos reservados 81, 82, 83 podem ser usados para indicar o deslocamento por região. Isto poderia ser menos preciso, por exemplo, com uma precisão de pixel dupla com a utilização dos 3 bits reservados no campo 81, enquanto 2 bits no campo 82 indicam o sinal do deslocamento e os 2 bits no campo 83 indicam que o segmento de região contém campos de deslocamento. Outra realização alternativa deve definir um novo tipo de segmento, o descritor de disparidade estereoscópica.
Com um novo tipo de segmento não estamos limitados à utilização dos campos reservados. A Figura 9 mostra um tipo de segmento para o descritor de disparidade estereoscópica. A Figura mostra uma 5 tabela 90. O tipo de segmento novo, chamado de segmento de disparidade, possui campos correspondentes (tal como conhecido a partir do ETSI EN 300 743) , como os outros segmentos, como mostrado nas Figuras 7 e 8. Em um primeiro campo novo 91, é provido um valor de disparidade da legenda.
A Subtitle_disparity pode ser indicada por 0-127 para uma disparidade positiva (deslocar a vista da esquerda para a esquerda e a vista da direita para a direita), e 128-255 para uma disparidade negativa (deslocar a vista da esquerda para a direita e a vista da direita para a esquerda) . Em outros 15 campos novos, outro valor de disparidade pode ser provido, como um segundo campo novo 92 para a disparidade de dados de Exibição na Tela.
A OSD_disparity pode usar a mesma definição que a disparidade da legenda, mas pode ser utilizada pelo autor do 20 conteúdo como uma dica para o dispositivo de reprodução para a determinação de onde posicionar qualquer OSD. Os valores 0 & FF podem indicar que nenhum dado auxiliar está presente.
Em outra realização, a manipulação de Exibições na Tela (OSD) serão discutidas. Durante a operação normal, um - 25 receptor pode ter que exibir algum tipo de mensagem de Exibição na Tela (OSD) para o usuário em resposta a um evento causado pelo usuário, pelo sistema de Cl, ou do canal de transmissão. Durante uma transmissão em 3D, a exibição daquela mesma OSD na profundidade errada de tela pode fazer 3 0 com que ela seja ilegível. Durante a transmissão em 3D, é essencial que o receptor saiba em qual profundidade colocar uma OSD, e caso nenhuma profundidade adequada possa ser encontrada, o receptor pode deslocar todo o vídeo "para trás" ou mudar para 2D. A informação que um receptor precisa sobre a transmissão é o "volume" da imagem em 3D que pode ser expressa em termos de disparidade "mín e máx". A disparidade "máxima" é a distância do usuário, um número grande positivo, 5 e a disparidade "mínima" é a distância na direção do usuário, um número grande negativo. A disparidade mínima pode ser utilizada pelo receptor para garantir que sua OSD esteja ainda mais próxima ao usuário. No entanto, caso ela fique muito próxima, a disparidade máxima pode ser usada de modo 10 que o receptor possa escolher deslocar todo o vídeo para trás, para trás da tela. No entanto, um receptor pode nunca deslocar o vídeo além de "infinito". Então, nesse caso, o receptor pode optar por mudar o vídeo para 2D. Na escolha de onde comunicar as disparidades mín e máx, a capacidade da 15 emissora deve ser levada em consideração. A emissora, certamente durante as transmissões ao vivo, pode nunca transmitir em tempo real as disparidades mín e máx exatas da transmissão, uma vez que isso muda muito rápido. Além disso, a partir dos experimentos é sabido que a OSD também não deve 20 alterar a disparidade rapidamente, especialmente se apenas transmitir uma mensagem que é constante durante vários minutos. Com base nas capacidades e na legibilidade das emissoras, um lugar lógico para as disparidades mín e máx é o IET ou, caso o serviço seja sempre em 3D, na SDT. O EIT é o • 25 lugar adequado caso qualquer um dos serviços alterne entre 2D e 3D ou caso os eventos possam mudar significativamente as variações de disparidade. O SDT é um lugar melhor caso o serviço seja sempre em 3D e a emissora se mantenha em certos limites de disparidade. A PMT também é um local possível 3 0 somente caso o serviço não seja sempre em 3D mas, caso ele mude, muda depois de muitos eventos, basicamente durante as mudanças "do tipo fluxo" que causam uma atualização de versão do PMT.
Aqui damos uma implementação detalhada da realização para a manipulação do visor de OSD. Deve-se notar que estas medidas para a implementação da manipulação de OSD podem ser tomadas de forma independente da manipulação da legenda. No caso de um receptor desejar sobrepor as informações de Exibições na Tela sobre o 3D estereoscópico corretamente, ele precisa de informações sobre a variação de profundidade do vídeo em 3D. Este descritor identifica a variação de profundidade através de mudanças de pixel. As mudanças de pixel identificadas aqui, bem como a resolução do vídeo, definem o compartimento volumétrico do vídeo durante o evento no qual este descritor está contido. Com a informação volumétrica do vídeo, um receptor pode escolher uma série de maneiras para exibir adequadamente as informações de OSD. Isso pode deslocar todo o vídeo para trás, por trás da tela antes de exibir o OSD na frente. Isso também pode determinar que o volume é muito grande e precisa voltar para 2D. Isso também pode determinar que o volume é suficientemente pequeno para simplesmente colocar o OSD para frente sem afetar a profundidade do vídeo.
Os campos relevantes são Maximum_horizontal_shift identifica o maior deslocamento horizontal que corresponde a "mais distante", enquanto o minimum_horizontal_shift identifica o menor deslocamento horizontal que corresponde ao objeto "mais próximo".
Por exemplo, os valores de deslocamento horizontal indicam um deslocamento horizontal em uma série de pixels na direção horizontal em cada vista. Um valor de zero significa que nenhum deslocamento é aplicado. No caso de o valor de deslocamento horizontal ser negativo, os pixels identificados são deslocados para a direita na vista da esquerda e para a esquerda na vista da direita. No caso de o valor de deslocamento horizontal ser positivo, os pixels identificados são deslocados para a esquerda na vista da esquerda e para a direita na vista da direita. O tamanho de um pixel é um fora da largura horizontal de exibição de pixels, como identificado no nível PES pelo vídeo. No entanto, outras unidades (por exemplo, percentagem de tamanho da tela) podem ser consideradas.
Voltando às realizações que descrevem segmentos de disparidade, em outra realização o segmento de disparidade é aplicado para transportar a disparidade da legenda, ou seja, em um fluxo de dados de vídeo com a legenda em 2D com dados de disparidade auxiliares que podem ou não ser combinados com a provisão da disposição auxiliar das mesmas legendas. Devido a tal segmento de disparidade estar no fluxo elementar em pacotes (PES), muitos segmentos diferentes podem ser transmitidos por segundo. Como alternativa, os segmentos de disparidade podem conter uma lista de disparidades com informações implícitas ou explícitas de tempo relacionado em relação ao tempo de início. Vantajosamente, um controle da disparidade muito dinâmico é alcançado. Como mostrado na Figura 9, o segmento de disparidade conterá as informações de disparidade da legenda e pode, adicionalmente, conter a disparidade de OSD. 0 segmento também pode ser prolongado para identificar a disparidade de regiões e/ou objetos específicos. Em tal segmento de disparidade, as regiões são identificadas através da respectiva Region_id. A page_id da região atual deve ser igual à page_id do novo segmento de disparidade. Além disso, no segmento prolongado, os objetos são identificados através do respectivo object_id. No segmento de disparidade prolongado poderia haver uma lista de objetos e regiões, cada um com sua disparidade preferida. Para a disposição auxiliar, o comportamento dinâmico da posição de profundidade pode ser conseguido através da atualização dos region_composition_segments com os novos valores das posições horizontais dos objetos, devido à posição horizontal corresponder à disparidade.
A vantagem do comportamento dinâmico é que a disparidade (profundidade) das legendas pode ser atualizada em uma base de quadro a quadro. Isto é útil pelas razões a seguir. Os conflitos de profundidade entre o vídeo e as legendas devem ser evitados, uma vez que isso realmente machuca. No entanto, colocar legendas muito na frente da tela para evitar qualquer possível conflito é extremamente desconfortável para o espectador. Portanto, os inventores perceberam a necessidade de legendas que se movam suavemente para frente e para trás. Além disso, enquanto assiste um filme, os olhos do espectador alternam entre o personagem que fala e as legendas. É difícil mudar para trás e para frente caso a legenda esteja em uma profundidade diferente da do personagem. Então, colocar as legendas na mesma profundidade que o personagem (se possível, enquanto tenta evitar conflitos de profundidade!) é melhor. Mas o personagem pode mudar a posição de profundidade, de modo que as legendas devem se mover com ele.
Em uma realização, o fluxo de dados auxiliares compreende uma estrutura de composição da região que define uma composição de uma região em uma página de dados auxiliares que são exibidos na área de sobreposição, e a estrutura de composição de região compreende uma sequência de estruturas de objeto que define a posição de um objeto gráfico, e as estruturas de objeto incluem um objeto de disparidade que compreende os dados de disparidade auxiliares.
O novo object_type é definido para o transporte dos dados de disparidade. Em legendas de DVB, os dados de pixel para a legenda são transportados em object_data_fragments. O padrão em 2D suporta objetos de bitmap ou personagem. Isso pode ser estendido para 3D com um novo objeto que só transporta dados de disparidade. A seção de dados do objeto pode consistir em um único byte para indicar a disparidade da página e das regiões associadas ou um bitmap completo que descreve a disparidade por pixel de uma região associada ou mesmo do objeto.
Em uma realização, o fluxo de dados auxiliar compreende objetos, cujos objetos definem os dados de pixel de objetos gráficos que são sobrepostos, por exemplo, como definido acima. 0 fluxo de dados auxiliar e o fluxo de dados auxiliar adicional agora usam as referências aos mesmos objetos para o compartilhamento dos mesmos respectivos objetos entre a vista auxiliar da esquerda, a vista auxiliar da direita e/ou a versão em 2D dos dados auxiliares. As referências podem ser aplicadas ao fluxo adicional, por exemplo, para prover informações de endereçamento relativas que referenciam a página correspondente do outro fluxo. Alternativamente, ambos os fluxos podem ser combinados em um único fluxo multiplexado.
A sinalização no fluxo de legendas de DVB para indicar um deslocamento ou uma disparidade das legendas é uma solução adequada, mas tem a desvantagem de que não provê diretamente a sinalização de disparidade para o MHEG ou o teletexto, ambos os quais também podem ser utilizados para as legendas. A Figura 10 mostra um pacote de dados de um fluxo elementar em pacotes (PES) que define a disparidade. A figura mostra uma tabela 95 que representa um pacote PES. Como tal, o pacote de dados de um fluxo elementar em pacotes (PES) é definido no ISO/IEC 13818-1. Em uma realização alternativa, é proposta a definição de um novo pacote de dados PES sinalizada separadamente no PMT que define a disparidade por quadro de vídeo ou marca de hora de apresentação (PTS) , por exemplo, como indicado no campo adicional 96. Com base neste descritor, o dispositivo de reprodução pode determinar quanto deslocamento aplicar às legendas ou aos objetos gráficos.
O campo Video_min_disparity pode ter um valor de 0- 255 para indicar a disparidade negativa do vídeo no PTS deste pacote PES (deslocamento do quadro da esquerda para a direita, e do quadro da direita para a esquerda) . Um campo Data_identifier 97 pode indicar o novo tipo de pacote PES. Um novo valor pode ser atribuído em um dos campos reservados para o identificador de dados para indicar "descritor de sinalização de disparidade". A Figura 11 mostra os valores do identificador de dados para os pacotes de PES. A figura mostra uma tabela 98 98 com valores que indicam os vários tipos de pacotes PES. O valor do identificador de dados é um valor de 8 bits que identifica o tipo de dados transportados em um pacote PES. Um novo valor deve ser adicionado para indicar "descritor de sinalização de disparidade".
Deve-se notar que a invenção pode ser implementada em hardware e/ou software, com a utilização de componentes programáveis. Um método para a implementação da invenção tem as etapas correspondentes às funções definidas para o sistema, como descrito com referência à Figura 1.
Embora a invenção tenha sido explicada principalmente pelas realizações com a utilização de transmissão através do DVB, a invenção também é adequada para qualquer distribuição de vídeo através de um canal digital, por exemplo, através da internet.
Pode-se afirmar que a descrição acima, por clareza, descreveu realizações da invenção com referência a diferentes unidades funcionais e processadores. No entanto, ficará claro que qualquer outra distribuição adequada de funcionalidade entre diferentes unidades funcionais ou processadores pode ser utilizada sem se desviar da invenção. Por exemplo, a funcionalidade ilustrada que é realizada por unidades, processadores ou controladores separados pode ser executada pelo mesmo processador ou controladores. Assim, as referências a unidades funcionais específicas são apenas para ser vistas como referências a meios adequados para provisão da funcionalidade descrita, em vez de ser indicativas de uma lógica estrita ou estrutura física ou organização. A invenção pode ser implementada de qualquer forma adequada, o que inclui hardware, software, firmware ou qualquer combinação destes.
Deve-se notar que, no presente documento, o termo "compreende" não exclui a presença de outros elementos ou etapas além daqueles listados, e o termo "um" ou "uma" que precede um elemento não exclui a presença de uma pluralidade de tais elementos, que quaisquer sinais de referência não limitam o âmbito das reivindicações, que a invenção pode ser implementada por meio de hardware e software, e que vários "meios" ou "unidades" podem ser representados por um mesmo item de hardware ou software, e um processador pode cumprir a função de uma ou mais unidades, eventualmente em colaboração com os elementos de hardware. Além disso, a invenção não está limitada às realizações, e a invenção reside em cada nova característica ou combinação de características descrita acima ou recitada em reivindicações dependentes mutuamente diferentes.
Claims (14)
1. MÉTODO DE PROCESSAMENTO TRIDIMENSIONAL [3D] DE INFORMAÇÕES EM VÍDEO PARA A GERAÇÃO DE UM FLUXO DE TRANSPORTE DE DADOS PARA A TRANSFERÊNCIA DAS INFORMAÇÕES DE VÍDEO EM 3D, compatível com uma distribuição principal de vídeo 2D predefinida, - as informações de vídeo em 3D compreendem os dados de vídeo em 3D e os dados auxiliares, e os dados de vídeo em 3D compreendem pelo menos uma vista da esquerda e uma vista da direita que são exibidas para os respectivos olhos de um espectador para a geração de um efeito em 3D, sendo os dados auxiliares dispostos para a exibição em uma área de sobreposição com os dados de vídeo em 3D, cujo método compreende - a disposição dos dados de vídeo em 3D da vista da esquerda e da vista da direita em um quadro em 2D para os dados de vídeo principais, em uma disposição principal, , - a provisão uma versão 2D dos dados auxiliares e dados de disparidade auxiliares indicativos da disparidade a ser aplicada à versão 2D dos dados auxiliares quando sobrepostos na vista esquerda e na vista direita e organizar os dados auxiliares da versão 2D em um fluxo de dados auxiliar, - a provisão de dados de controle que compreendem os parâmetros de um receptor para permitir que o receptor reproduza os dados de vídeo principais e sobreponha os dados auxiliares, - a montagem do fluxo de transporte de dados que inclui os dados de vídeo em 3D na disposição principal, o fluxo de dados auxiliares, os dados de disparidade auxiliares e os dados de controle, caracterizado pelo método compreender adicionalmente - a provisão de uma vista auxiliar da esquerda e uma vista auxiliar da direita dos dados auxiliares que devem ser sobrepostos na vista da esquerda e na vista da direita dos dados de vídeo em 3D, - a disposição dos dados auxiliares da vista auxiliar da esquerda e na vista auxiliar da direita em um quadro em 2D para dados auxiliares em uma disposição auxiliar que corresponde à disposição principal, - a disposição dos dados auxiliares na disposição auxiliar em outro fluxo de dados auxiliar, e - inclusão, no fluxo de transporte, de outro fluxo de dados auxiliar, e de um indicador de formato de disparidade indicativo de outro fluxo de dados auxiliar.
2. MÉTODO, de acordo com a reivindicação 1, caracterizado pelos dados de controle incluírem um indicador de formato em 3D, indicativo da disposição principal dos dados de vídeo em 3D da vista da esquerda e da vista da direita no quadro em 2D.
3. MÉTODO, de acordo com a reivindicação 2, caracterizado pela disposição auxiliar estar indicada apenas pelo indicador de formato em 3D indicativo da disposição principal.
4. MÉTODO, de acordo com a reivindicação 1, caracterizado pelos dados de disparidade auxiliares compreenderem os dados de disparidade de região para pelo menos uma região na área de sobreposição indicativa da disparidade dos dados auxiliares na respectiva região, quando sobrepostos na vista da esquerda e na vista da direita.
5. MÉTODO, de acordo com a reivindicação 4, caracterizado pelo fluxo de dados auxiliares compreender uma estrutura de composição da página que define uma composição de uma página de dados auxiliares que são exibidos na área de sobreposição, a estrutura de composição da página compreende pelo menos uma região de definição que define um local e os dados de disparidade da região de uma respectiva região.
6. MÉTODO, de acordo com a reivindicação 4, caracterizado pelo fluxo de dados auxiliares compreender uma estrutura de composição da região que define uma composição de uma região em uma página de dados auxiliares, e a estrutura de composição da região compreende os dados de disparidade de região da região.
7. MÉTODO, de acordo com a reivindicação 1, caracterizado pelo fluxo de dados auxiliares compreender uma estrutura de composição da região que define uma composição de uma região em uma página de dados auxiliares que são exibidos na área de sobreposição, e a estrutura de composição de região compreende uma sequência de estruturas de objeto que define uma posição de um objeto gráfico, e as estruturas de objeto incluem um objeto de disparidade que compreende os dados de disparidade auxiliares, ou o fluxo de dados auxiliares compreende uma definição de exibição que define a área de sobreposição para uma página de dados auxiliares, e a definição de exibição define uma posição da área de sobreposição e dos dados de disparidade auxiliares.
8. MÉTODO, de acordo com a reivindicação 1, caracterizado pelo fluxo de dados auxiliares compreender objetos, cujos objetos definem os dados de pixel de objetos gráficos que devem ser sobrepostos, e o fluxo de dados auxiliares e fluxo de dados auxiliares adicional compreendem referências aos mesmos objetos para o compartilhamento dos mesmos respectivos objetos entre a vista auxiliar da esquerda, a vista auxiliar da direita e/ou a versão em 2D dos dados auxiliares.
9. MÉTODO, de acordo com a reivindicação 1, caracterizado pelo fluxo de dados de transporte compreender um tipo de segmento adicional, o tipo de segmento adicional compreende um descritor de disparidade estereoscópico que compreende os dados de disparidade auxiliares.
10. MÉTODO, de acordo com a reivindicação 1, caracterizado pelo fluxo de dados de transporte compreender um pacote de dados de um fluxo elementar em pacotes (PES) que, compreende os dados de disparidade auxiliares.
11. MÉTODO, de acordo com a reivindicação 1, caracterizado pelos dados auxiliares compreenderem as legendas.
12. DISPOSITIVO (100) DE PROCESSAMENTO TRIDIMENSIONAL [3D] DE INFORMAÇÕES EM VÍDEO PARA A GERAÇÃO DE UM FLUXO DE TRANSPORTE DE DADOS PARA A TRANSFERÊNCIA DAS INFORMAÇÕES DE VÍDEO EM 3D, compatível com uma distribuição principal de vídeo 2D predefinida, - as informações de vídeo em 3D compreendem os dados de vídeo em 3D e dados auxiliares, os dados de vídeo em 3D compreendem pelo menos uma vista da esquerda e uma vista da direita que são exibidas para os respectivos olhos de um espectador para a geração de um efeito em 3D, sendo os dados auxiliares dispostos para a exibição em uma área de sobreposição com os dados de vídeo em 3D, o dispositivo compreende um processador de vídeo (103) para - a disposição dos dados de vídeo em 3D da vista da esquerda e da vista da direita em um quadro em 2D para os dados de vídeo principais, em uma disposição principal, - a provisão uma versão 2D dos dados auxiliares e dados de disparidade auxiliares indicativos da disparidade a ser aplicada à versão 2D dos dados auxiliares quando sobrepostos na vista esquerda e na vista direita e organizar os dados auxiliares da versão 2D em um fluxo de dados auxiliar, - a provisão dos dados de controle que compreendem os parâmetros de um receptor para permitir que o receptor reproduza os dados de vídeo principais e sobreponha os dados auxiliares, - a montagem do fluxo de transporte de dados que inclui os dados de vídeo em 3D na disposição principal, o fluxo de dados auxiliares, os dados de disparidade auxiliares e os dados de controle, caracterizado pelo processador de vídeo ser adicionalmente disposto para - a provisão de uma vista auxiliar da esquerda e uma vista auxiliar da direita dos dados auxiliares que devem ser sobrepostos na vista da esquerda e na vista da direita dos dados de vídeo em 3D, - a disposição dos dados auxiliares da vista auxiliar da esquerda e na vista auxiliar da direita em um quadro em 2D para dados auxiliares em uma disposição auxiliar que corresponde à disposição principal, - a disposição dos dados auxiliares na disposição auxiliar em outro fluxo de dados auxiliar, e - inclusão, no fluxo de transporte, de outro fluxo de dados auxiliar, e de um indicador de formato de disparidade indicativo de outro fluxo de dados auxiliar.
13. SINAL PARA A TRANSFERÊNCIA DE INFORMAÇÕES DE VÍDEO EM TRÊS DIMENSÕES [3D], - e as informações de vídeo em 3D compreendem os dados de vídeo em 3D e os dados auxiliares, e os dados de vídeo em 3D compreendem pelo menos uma vista da esquerda e uma vista da direita que são exibidas para os respectivos olhos de um espectador para a geração de um efeito em 3D, sendo os dados auxiliares dispostos para a exibição em uma área de sobreposição com os dados de vídeo em 3D, o sinal compreendendo - os dados de vídeo em 3D da vista da esquerda e da vista da direita em um quadro em 2D para os dados de vídeo principais, em uma disposição principal, - uma versão 2D dos dados auxiliares e dados de disparidade auxiliares indicativos da disparidade a ser aplicada à versão 2D dos dados auxiliares quando sobrepostos na vista esquerda e na vista direita e organizar os dados auxiliares da versão 2D em um fluxo de dados auxiliar, - dados de controle que compreendem os parâmetros de um receptor para permitir que o receptor reproduza os dados de vídeo principais e sobreponha os dados auxiliares, e - um fluxo de transporte de dados que inclui os dados de vídeo em 3D na disposição principal, os dados auxiliares e os dados de controle para a transmissão compatível com uma distribuição principal de vídeo 2D predefinida, caracterizado pelo sinal compreender ainda - uma vista auxiliar da esquerda e uma vista auxiliar da direita dos dados auxiliares que devem ser sobrepostas na vista da esquerda e na vista da direita dos dados de vídeo em 3D, - os dados auxiliares da vista auxiliar esquerda e na vista auxiliar direita, - em um quadro de 2D para os dados auxiliares em uma disposição auxiliar que corresponde à disposição principal, - os dados auxiliares da disposição auxiliar em outro fluxo de dados auxiliar, - e, no fluxo de transporte, outro fluxo de dados auxiliar, e um indicador de formato de disparidade indicativo de outro fluxo de dados auxiliar.
14. RECEPTOR (110) PARA O PROCESSAMENTO TRIDIMENSIONAL [3D] DAS INFORMAÇÕES DE VÍDEO, para um fluxo de transporte compatível com uma distribuição principal de vídeo 2D predefinida - as informações de vídeo em 3D compreendem os dados de vídeo em 3D e os dados auxiliares, os dados de vídeo em 3D compreendem pelo menos uma vista da esquerda e uma vista da direita que são exibidas para os respectivos olhos de um espectador para a geração de um efeito em 3D, sendo os dados auxiliares dispostos para a exibição em uma área de sobreposição com os dados de vídeo em 3D, caracterizado pelo receptor compreender - uma unidade de entrada (112) para a recepção do sinal (111), como definido na reivindicação 13, e - um processador de vídeo (113) para a recuperação dos dados auxiliares do fluxo de dados auxiliares enquanto descarta os dados auxiliares na disposição auxiliar provida no fluxo de dados auxiliar adicionais, e a geração de dados de sobreposição para a exibição na área de sobreposição com os dados de vídeo em 3D com base na versão em 2D dos dados auxiliares e dos dados auxiliares de disparidade.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP10169203A EP2408211A1 (en) | 2010-07-12 | 2010-07-12 | Auxiliary data in 3D video broadcast |
EP10169203.6 | 2010-07-12 | ||
EP10188536.6 | 2010-10-22 | ||
EP10188536 | 2010-10-22 | ||
PCT/IB2011/052993 WO2012007876A1 (en) | 2010-07-12 | 2011-07-06 | Auxiliary data in 3d video broadcast |
Publications (2)
Publication Number | Publication Date |
---|---|
BR112013000580A2 BR112013000580A2 (pt) | 2016-07-05 |
BR112013000580B1 true BR112013000580B1 (pt) | 2022-03-29 |
Family
ID=44501769
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BR112013000580-7A BR112013000580B1 (pt) | 2010-07-12 | 2011-07-06 | Método de processamento tridimensional [3d] de informações em vídeo para a geração de um fluxo de transporte de dados para a transferência das informações de vídeo em 3d, dispositivo de processamento tridimensional [3d] de informações em vídeo para a geração de um fluxo de transporte de dados para a transferência das informações de vídeo em 3d, sinal para a transferência de informações de vídeo em três dimensões [3d] e receptor para o processamento tridimensional [3d] das informações de vídeo |
Country Status (11)
Country | Link |
---|---|
US (1) | US9986220B2 (pt) |
EP (1) | EP2594079B1 (pt) |
JP (1) | JP5960133B2 (pt) |
KR (1) | KR101819736B1 (pt) |
CN (1) | CN103026713B (pt) |
BR (1) | BR112013000580B1 (pt) |
ES (1) | ES2670663T3 (pt) |
MX (1) | MX2013000348A (pt) |
RU (1) | RU2589307C2 (pt) |
TW (1) | TWI568239B (pt) |
WO (1) | WO2012007876A1 (pt) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101648455B1 (ko) * | 2009-04-07 | 2016-08-16 | 엘지전자 주식회사 | 방송 송신기, 방송 수신기 및 3d 비디오 데이터 처리 방법 |
JP2013066075A (ja) * | 2011-09-01 | 2013-04-11 | Sony Corp | 送信装置、送信方法および受信装置 |
US9872008B2 (en) * | 2012-01-18 | 2018-01-16 | Panasonic Corporation | Display device and video transmission device, method, program, and integrated circuit for displaying text or graphics positioned over 3D video at varying depths/degrees |
JPWO2013128765A1 (ja) * | 2012-02-27 | 2015-07-30 | ソニー株式会社 | 画像処理装置、画像処理方法およびコンピュータプログラム |
EP2803197A1 (en) * | 2012-04-10 | 2014-11-19 | Huawei Technologies Co., Ltd | Method and apparatus for providing a display position of a display object and for displaying a display object in a three-dimensional scene |
US9544566B2 (en) * | 2012-12-14 | 2017-01-10 | Qualcomm Incorporated | Disparity vector derivation |
US9716737B2 (en) * | 2013-05-08 | 2017-07-25 | Qualcomm Incorporated | Video streaming in a wireless communication system |
WO2015011877A1 (ja) | 2013-07-26 | 2015-01-29 | パナソニックIpマネジメント株式会社 | 映像受信装置、付加情報表示方法および付加情報表示システム |
WO2015033500A1 (ja) | 2013-09-04 | 2015-03-12 | パナソニックIpマネジメント株式会社 | 映像受信装置、映像認識方法および付加情報表示システム |
WO2015033501A1 (ja) | 2013-09-04 | 2015-03-12 | パナソニックIpマネジメント株式会社 | 映像受信装置、映像認識方法および付加情報表示システム |
CN105144735A (zh) | 2014-03-26 | 2015-12-09 | 松下知识产权经营株式会社 | 影像接收装置、影像识别方法以及附加信息显示系统 |
WO2015145491A1 (ja) * | 2014-03-26 | 2015-10-01 | パナソニックIpマネジメント株式会社 | 映像受信装置、映像認識方法および付加情報表示システム |
JP6471359B2 (ja) | 2014-07-17 | 2019-02-20 | パナソニックIpマネジメント株式会社 | 認識データ生成装置、画像認識装置および認識データ生成方法 |
CN106233746B (zh) | 2014-08-21 | 2019-07-09 | 松下知识产权经营株式会社 | 内容辨识装置、内容辨识方法以及记录介质 |
JP2016081553A (ja) * | 2014-10-17 | 2016-05-16 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 記録媒体、再生方法、および再生装置 |
CN106412718A (zh) * | 2016-09-18 | 2017-02-15 | 乐视控股(北京)有限公司 | 一种字幕在3d空间中的渲染方法及其装置 |
CN108881877B (zh) | 2017-05-12 | 2020-07-24 | 京东方科技集团股份有限公司 | 显示处理装置及其显示处理方法以及显示装置 |
KR102138536B1 (ko) * | 2018-06-08 | 2020-07-28 | 엘지전자 주식회사 | 360 비디오 시스템에서 오버레이 처리 방법 및 그 장치 |
KR20220121574A (ko) * | 2021-02-25 | 2022-09-01 | 삼성전자주식회사 | Ar/vr 환경을 제공하는 전자 장치 및 그 운용 방법 |
US11743440B2 (en) | 2021-04-19 | 2023-08-29 | Apple Inc. | Transmission and consumption of multiple image subframes via superframe |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2301461C2 (ru) * | 2003-07-07 | 2007-06-20 | Самсунг Электроникс Ко., Лтд. | Носитель информации, хранящий многоракурсные данные и способ записи и устройство воспроизведения для него |
US7650036B2 (en) * | 2003-10-16 | 2010-01-19 | Sharp Laboratories Of America, Inc. | System and method for three-dimensional video coding |
JP2009135686A (ja) * | 2007-11-29 | 2009-06-18 | Mitsubishi Electric Corp | 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置 |
KR100955578B1 (ko) | 2007-12-18 | 2010-04-30 | 한국전자통신연구원 | 스테레오스코픽 콘텐츠 장면 재생 방법 및 그 장치 |
US8335425B2 (en) * | 2008-11-18 | 2012-12-18 | Panasonic Corporation | Playback apparatus, playback method, and program for performing stereoscopic playback |
EP2374280A1 (en) * | 2008-11-24 | 2011-10-12 | Koninklijke Philips Electronics N.V. | Combining 3d video and auxiliary data |
US8358331B2 (en) * | 2008-12-02 | 2013-01-22 | Lg Electronics Inc. | 3D caption display method and 3D display apparatus for implementing the same |
WO2010076846A1 (ja) * | 2008-12-29 | 2010-07-08 | パナソニック株式会社 | 記録媒体、再生装置、及び集積回路 |
WO2010085074A2 (en) * | 2009-01-20 | 2010-07-29 | Lg Electronics Inc. | Three-dimensional subtitle display method and three-dimensional display device for implementing the same |
WO2010095381A1 (ja) * | 2009-02-20 | 2010-08-26 | パナソニック株式会社 | 記録媒体、再生装置、集積回路 |
US8723927B2 (en) * | 2009-03-31 | 2014-05-13 | Daniel Rosen | Subtitling stereographic imagery |
KR20110018261A (ko) * | 2009-08-17 | 2011-02-23 | 삼성전자주식회사 | 텍스트 서브타이틀 데이터 처리 방법 및 재생 장치 |
WO2011046338A2 (en) * | 2009-10-13 | 2011-04-21 | Lg Electronics Inc. | Broadcast receiver and 3d video data processing method thereof |
US20110310235A1 (en) * | 2009-12-28 | 2011-12-22 | Taiji Sasaki | Display device and method, recording medium, transmission device and method, and playback device and method |
CN102845067B (zh) * | 2010-04-01 | 2016-04-20 | 汤姆森许可贸易公司 | 三维(3d)呈现中的字幕 |
CN102918857B (zh) * | 2010-04-02 | 2015-11-25 | 三星电子株式会社 | 用于发送用于提供二维和三维内容的数字广播内容的方法和设备以及用于接收数字广播内容的方法和设备 |
US9055281B2 (en) * | 2010-05-20 | 2015-06-09 | Samsung Electronics Co., Ltd. | Source device and sink device and method of transmitting and receiving multimedia service and related data |
CA2799704C (en) * | 2010-05-30 | 2016-12-06 | Jongyeul Suh | Method and apparatus for processing and receiving digital broadcast signal for 3-dimensional subtitle |
-
2011
- 2011-07-06 KR KR1020137003095A patent/KR101819736B1/ko active IP Right Grant
- 2011-07-06 CN CN201180034477.6A patent/CN103026713B/zh active Active
- 2011-07-06 RU RU2013105715/08A patent/RU2589307C2/ru active
- 2011-07-06 JP JP2013519192A patent/JP5960133B2/ja active Active
- 2011-07-06 MX MX2013000348A patent/MX2013000348A/es active IP Right Grant
- 2011-07-06 WO PCT/IB2011/052993 patent/WO2012007876A1/en active Application Filing
- 2011-07-06 EP EP11743369.8A patent/EP2594079B1/en active Active
- 2011-07-06 US US13/809,204 patent/US9986220B2/en active Active
- 2011-07-06 BR BR112013000580-7A patent/BR112013000580B1/pt active IP Right Grant
- 2011-07-06 ES ES11743369.8T patent/ES2670663T3/es active Active
- 2011-07-11 TW TW100124495A patent/TWI568239B/zh active
Also Published As
Publication number | Publication date |
---|---|
CN103026713B (zh) | 2016-02-24 |
CN103026713A (zh) | 2013-04-03 |
US20130106999A1 (en) | 2013-05-02 |
RU2589307C2 (ru) | 2016-07-10 |
TWI568239B (zh) | 2017-01-21 |
JP5960133B2 (ja) | 2016-08-02 |
ES2670663T3 (es) | 2018-05-31 |
MX2013000348A (es) | 2013-03-08 |
TW201223246A (en) | 2012-06-01 |
KR20130135828A (ko) | 2013-12-11 |
EP2594079A1 (en) | 2013-05-22 |
WO2012007876A1 (en) | 2012-01-19 |
KR101819736B1 (ko) | 2018-02-28 |
JP2013540374A (ja) | 2013-10-31 |
BR112013000580A2 (pt) | 2016-07-05 |
EP2594079B1 (en) | 2018-03-21 |
RU2013105715A (ru) | 2014-08-20 |
US9986220B2 (en) | 2018-05-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
BR112013000580B1 (pt) | Método de processamento tridimensional [3d] de informações em vídeo para a geração de um fluxo de transporte de dados para a transferência das informações de vídeo em 3d, dispositivo de processamento tridimensional [3d] de informações em vídeo para a geração de um fluxo de transporte de dados para a transferência das informações de vídeo em 3d, sinal para a transferência de informações de vídeo em três dimensões [3d] e receptor para o processamento tridimensional [3d] das informações de vídeo | |
US8878913B2 (en) | Extended command stream for closed caption disparity | |
US20120033039A1 (en) | Encoding method, display device, and decoding method | |
CA2747106C (en) | Method and device for overlaying 3d graphics over 3d video | |
CN102177724B (zh) | 立体图像数据传输装置、立体图像数据发送方法、立体图像数据接收装置和立体图像数据接收方法 | |
TWI511553B (zh) | 資訊處理裝置、資訊處理方法、播放裝置、播放方法、程式和記錄媒體 | |
TWI573425B (zh) | 產生三維視訊信號 | |
RU2559735C2 (ru) | Компенсация размера трехмерного экрана | |
CN103297794B (zh) | 数据结构、记录介质、播放设备和播放方法以及程序 | |
JP2013066075A (ja) | 送信装置、送信方法および受信装置 | |
US20130250058A1 (en) | Transferring of 3d image data | |
WO2012026342A1 (ja) | 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 | |
EP2408211A1 (en) | Auxiliary data in 3D video broadcast | |
Zink | Blu-Ray 3D™ |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
B25D | Requested change of name of applicant approved |
Owner name: KONINKLIJKE PHILIPS N. V. (NL) |
|
B25G | Requested change of headquarter approved |
Owner name: KONINKLIJKE PHILIPS N. V. (NL) |
|
B06F | Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette] | ||
B06U | Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette] | ||
B15K | Others concerning applications: alteration of classification |
Free format text: A CLASSIFICACAO ANTERIOR ERA: H04N 13/00 Ipc: H04N 13/122 (2018.01), H04N 13/156 (2018.01), H04N |
|
B350 | Update of information on the portal [chapter 15.35 patent gazette] | ||
B07A | Application suspended after technical examination (opinion) [chapter 7.1 patent gazette] | ||
B09A | Decision: intention to grant [chapter 9.1 patent gazette] | ||
B16A | Patent or certificate of addition of invention granted [chapter 16.1 patent gazette] |
Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 06/07/2011, OBSERVADAS AS CONDICOES LEGAIS. PATENTE CONCEDIDA CONFORME ADI 5.529/DF, QUE DETERMINA A ALTERACAO DO PRAZO DE CONCESSAO. |