BR112012020471B1 - Aparelho e método para processar conteúdo de vídeo, e aparelho e método para processar um sinal - Google Patents

Aparelho e método para processar conteúdo de vídeo, e aparelho e método para processar um sinal Download PDF

Info

Publication number
BR112012020471B1
BR112012020471B1 BR112012020471-8A BR112012020471A BR112012020471B1 BR 112012020471 B1 BR112012020471 B1 BR 112012020471B1 BR 112012020471 A BR112012020471 A BR 112012020471A BR 112012020471 B1 BR112012020471 B1 BR 112012020471B1
Authority
BR
Brazil
Prior art keywords
video signal
image
signal
video
resolution
Prior art date
Application number
BR112012020471-8A
Other languages
English (en)
Other versions
BR112012020471A2 (pt
Inventor
Thomas Edward Horlander
Original Assignee
Interdigital Madison Patent Holdings
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Interdigital Madison Patent Holdings filed Critical Interdigital Madison Patent Holdings
Publication of BR112012020471A2 publication Critical patent/BR112012020471A2/pt
Publication of BR112012020471B1 publication Critical patent/BR112012020471B1/pt

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • H04N21/440272Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA for performing aspect ratio conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/44029Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/007Aspects relating to detection of stereoscopic image format, e.g. for adaptation to the display format

Abstract

aparelho e método para processar conteúdo de vídeo. são fornecidos sistemas e métodos de baixa largura de banda para codificar e transmitir um multiplex de vídeo que permita que um dispositivo de recebimento, por exemplo, um dispositivo de conexão à internet via tv, para selecionar e decodificar vídeo tridimensional estereoscópico de resolução reduzida, vídeo bidimensional de resolução total e vídeo tridimensional estereoscópico de resolução total. os sistemas e métodos preparam-se para receber (702) um sinal de dados, o sinal de dados incluindo um primeiro sinal de vídeo representando uma imagem bidimensional em uma primeira resolução de vídeo e um segundo sinal de vídeo representando uma imagem tridimensional em uma segunda resolução; decodificar (706) o primeiro sinal de vídeo se um tipo de tela de saída é um tipo de tela bidimensional; decodificar (704) o segundo sinal de vídeo se o tipo de tela de saída é um primeiro tipo de tela tridimensional; e decodificar (706,704) o primeiro sinal de vídeo e o segundo sinal de vídeo simultaneamente se o tipo de tela de saída é um segundo tipo de tela tridimensional.

Description

Referência a Pedido Provisório Relacionado
Este pedido reivindica o benefício sob 35 U.S.C § 119 do pedido provisório No. 61/304.718 depositado nos Estados Unidos em 15 de fevereiro de 2010.
Campo da Invenção
A presente descrição geralmente refere-se a sistemas de conteúdo digital e métodos para entregar conteúdo a um usuário final, e mais particularmente, a sistemas e métodos de baixa largura de banda para codificar e transmitir um multiplex de vídeo que permita que um receptor selecione e decodifique qualquer um dos seguintes: vídeo estéreo com tela dividida de metade da resolução, vídeo bidimensional (2D) de resolução total, vídeo estéreo de resolução total.
Fundamentos da Invenção
Os sistemas de entretenimento residenciais, incluindo centros de televisão (TV) e mídia, estão convergindo com a Internet e fornecendo acesso para um grande número de fontes disponíveis de conteúdo, tal como vídeo, filmes, programas de TV, música, etc. Como um resultado, numerosos desafios emergiram relacionados ao processo de exibição e nave-gação para esse conteúdo acessível.
Transmissores, ávidos por testar essa exibição tridimensional (3D) no mercado de vídeo residencial, querem adotar um formato de transmissão que seja retrocompatível com todos os dispositivos de conexão à Internet via TV de alta definição (HD) existentes no cam-po, Os transmissores escolheram recentemente começar transmissões de vídeo 3D com uma tela dividida de metade da resolução horizontal codificando as visualizações de vídeo estéreo esquerda e direita. Nesse cenário, bem como em outros cenários de vídeo de tela dividida, é o dispositivo de visualização que converte do formato de tela dividida para um formato que possa ser percebido como vídeo estéreo pelo observador.
A Associação de Disco Blu-ray (BDA) elegeu o algoritmo de compressão multivistas, também conhecido como Codificação de Vídeos Multivistas (MVC), para suportar a compressão eficaz de vídeo estéreo em discos Blu-ray 3D. A BDA também especificou que o vídeo 3D seja codificado com resolução 1280 x 720p60 ou 1920 x 1080p24 e a taxa de quadro disponível para cada olho. Os dispositivos de conexão à Internet via TV atuais e an-teriores não são capazes de suportar a decodificação de vídeo codificado por MVC, e não são também capazes de suportar qualquer outro método conhecido que entregaria um fluxo de vídeo de resolução equivalente e taxa de quadro como dito pela BDA. Como um resultado, os transmissores serão pressionados a mostrar um caminho de atualização para vídeo 3D de qualidade Blu-ray no futuro. Entretanto, os transmissores serão também obrigados a continuar o suporte do grupo inicial de consumidores de vídeo 3D usando decodificadores legados e vídeo de tela dividida de metade da resolução horizontal. Essa obrigação exclui uma comutação para a compressão MVC, a menos que o transmissor deseje pagar por uma troca de equipamento para atualizar os decodificadores usados pelos consumidores 3D iniciais.
Então, há necessidade de técnicas para fornecer codificação e transmissão de vídeo 3D de resolução total enquanto suportando vídeo 2D e 3D legado.
Sumário da Invenção
De acordo com um aspecto da presente descrição, é fornecido um método incluindo as etapas de receber um sinal de dados, o sinal de dados incluindo um primeiro sinal de vídeo representando uma imagem bidimensional em uma primeira resolução de vídeo e um segundo sinal de vídeo representando uma imagem tridimensional em uma segunda resolu-ção, decodificar o primeiro sinal de vídeo se um tipo de exibição de saída é um tipo de exibi-ção bidimensional, decodificar o segundo sinal de vídeo se o tipo de exibição de saída é um tipo de exibição tridimensional, e decodificar o primeiro sinal de vídeo e o segundo sinal de vídeo simultaneamente se o tipo de exibição de saída é um segundo tipo de exibição tridi-mensional.
De acordo com outro aspecto da presente descrição, um aparelho para processar conteúdo inclui um receptor de sinal que recebe o sinal de dados, o sinal de dados incluindo um primeiro sinal de vídeo representando uma imagem bidimensional em uma primeira re-solução de vídeo e um segundo sinal de vídeo representando uma imagem tridimensional e uma segunda resolução, e pelo menos um decodificador que decodifica o primeiro sinal de vídeo se um tipo de exibição de saída é um tipo de exibição bidimensional, decodifica o se-gundo sinal de vídeo se o tipo de exibição de saída é um primeiro tipo de exibição tridimen-sional, e decodifica o primeiro sinal de vídeo e o segundo sinal de vídeo simultaneamente se o tipo de exibição de saída é um segundo tipo de exibição tridimensional.
Em outro aspecto, um método para processar um sinal é descrito. O método inclui receber um sinal de dados, o sinal de dados incluindo um primeiro sinal de vídeo represen-tando uma imagem bidimensional em uma primeira resolução de vídeo e um segundo sinal de vídeo representando uma imagem tridimensional em uma segunda resolução, determinar um tipo de dispositivo de visualização para visualizar o conteúdo de vídeo, decodificar o primeiro sinal de vídeo, decodificar o segundo sinal de vídeo, e fornecer um sinal de saída para o dispositivo de visualização, o sinal de saída incluindo uma combinação do primeiro sinal de vídeo decodificado e uma parte do segundo sinal de vídeo decodificado se o tipo de dispositivo de ela é um dispositivo de visualização tridimensional.
Breve Descrição dos Desenhos
Esses, e outros aspectos, características e vantagens da presente descrição serão descritos e se tornarão claros a partir da seguinte descrição detalhada das modalidades pre- ferenciais, que é lida em conjunto com os desenhos em anexo.
Nos desenhos, números de referência similares denotam elementos similares por todas as vistas.
A FIG. 1 é um diagrama de bloco de uma modalidade exemplificada de um sistema para entregar conteúdo de vídeo de acordo com a presente descrição.
A FIG. 2 é um diagrama de bloco de uma modalidade exemplificada de um sistema para transmissões de tela dividida tridimensional (3D) com metade da resolução que fornece suporte legado bidimensional (2D) de acordo com a presente descrição.
A FIG. 3 é um fluxograma de uma modalidade exemplificada de um processo para codificar transmissões de tela dividida com metade da resolução de acordo com a presente descrição.
A FIG. 4 é um fluxograma de uma modalidade exemplificada de um processo para decodificar transmissões de tela dividida com metade da resolução de acordo com a presente descrição.
A FIG. 5 é um diagrama de bloco de uma modalidade exemplificada de um sistema para transmissões tridimensionais (3D) de legado e transmissões 3D de resolução total de acordo com a presente descrição.
A FIG. 6 é um fluxograma de uma modalidade exemplificada de um processo para codificar transmissões tridimensionais (3D) de legado e transmissões 3D de resolução total de acordo com a presente descrição.
A FIG. 7 é um fluxograma de uma modalidade exemplificada de um processo para decodificar transmissões tridimensionais (3D) de legado e transmissões 3D de resolução total de acordo com a presente descrição.
A FIG. 8 é uma modalidade exemplificada de um dispositivo de recebimento para gerar um mapa denso de disparidade de acordo com a presente descrição.
A FIG. 9 é um fluxograma de uma modalidade exemplificada de um processo para gerar um mapa denso de disparidade de acordo com a presente descrição.
Dever-se-ia entender que os desenhos são para propósitos de ilustrar os conceitos da descrição e não são necessariamente a única configuração possível para ilustrar a descrição.
Descrição Detalhada da Invenção
Dever-se-ia entender que os elementos mostrados nas figuras podem ser imple-mentados em várias formas de hardware, software ou combinações desses. Preferencial-mente, esses elementos são implementados em uma combinação de hardware e software em um ou mais dispositivos de propósito geral apropriadamente programados, que podem incluir um processador, memória e interfaces entrada/saída. Aqui, a frase “acoplado” é defi-nida para significar diretamente conectado ou indiretamente conectado com um ou mais componentes intermediários. Tais componentes intermediários podem incluir tanto compo-nentes baseados em hardware quando em software.
A presente descrição ilustra os princípios da invenção. Os versados na técnica serão capazes de conceber vários arranjos que, embora não explicitamente descritos ou mostrados aqui, incorporem os princípios da descrição e estejam incluídos dentro de seu espírito e escopo.
Todos os exemplos e linguagem condicional citados aqui são destinados a propósitos educacionais para ajudar o leitor a entender os princípios da descrição e os conceitos contribuídos pelo inventor para adicionar à técnica, e são interpretados como sem limitação a tais exemplos e condições especificamente citados.
Ademais, todas as declarações feitas aqui citando os princípios, aspectos e modali-dades da descrição, bem como seus exemplos específicos, são destinados a abranger seus equivalentes estruturais e funcionais. Adicionalmente, pretende-se que tais equivalentes incluam equivalentes atualmente conhecidos bem como equivalentes desenvolvidos no futu-ro, isto é, quaisquer elementos desenvolvidos que executem a mesma função, independente da estrutura.
Assim, por exemplo, os versados na técnica apreciam que os diagramas de bloco apresentados aqui representam vistas conceituais de circuito ilustrativo incorporando os princípios da descrição. Similarmente, aprecia-se que quaisquer fluxogramas, diagramas de fluxo, diagramas de transição de estado, pseudocódigo, e similares representam vários pro-cessos que podem ser substancialmente representados em meios legíveis por computador e assim executados por um computador ou processador, se ou não tal computador ou proces-sador é explicitamente mostrado.
As funções dos vários elementos mostrados nas figuras podem ser fornecidas atra-vés do uso de hardware dedicado bem como hardware capaz de executar software em as-sociação com software apropriado. Quando fornecidas por um processador, as funções po-dem ser fornecidas por um único processador dedicado, por um único processador compar-tilhado, ou por uma pluralidade de processadores individuais, alguns dos quais podem ser compartilhados. Ademais, o uso explícito do termo “processador” ou “controlador” não deveria ser interpretado para se referir exclusivamente a hardware capaz de executar software, e pode incluir implicitamente, sem limitação, hardware de processador de sinal digital (“DSP”), memória somente de leitura (“ROM”) para armazenar software, memória de acesso aleatório (“RAM”), e armazenamento não volátil.
Outro hardware, convencional e/ou padrão, pode também ser incluído. Similarmente, quaisquer comutadores mostrados nas figuras são conceitualmente somente. Sua função pode ser executada através da operação de lógica de programa, através de lógica dedicada, através da interação de controle de programa e lógica dedicada, ou até manualmente, a técnica particular sendo selecionável pelo implementador à medida que mais especificamente entendida a partir do contexto.
Nas reivindicações, qualquer elemento expresso como um dispositivo para executar uma função específica é destinado a abranger qualquer forma de executar essa função, in-cluindo, por exemplo, (a) uma combinação de elementos de circuito que executam essa fun-ção, ou (b) software em qualquer forma, incluindo, então, suporte lógico inalterável, micro- código ou similar, combinado com circuito apropriado para executar esse software para exe-cutar a função. A descrição como definida por tais reivindicações reside no fato de que as funcionalidades fornecidas pelos vários dispositivos citados são combinadas e unidas da maneira que as reivindicações recomendam.
A presente descrição refere-se a sistemas e métodos para permitir a transmissão e recepção de conteúdo de vídeo tridimensional (3D) junto com conteúdo bidimensional (2D) para servir a várias condições de recepção diferentes, incluindo receber e decodificar so-mente uma imagem 2D, receber e decodificar somente um único quadro de vídeo contendo tanto imagens de visão esquerda quanto de visão direita em uma resolução reduzida, e re-ceber e decodificar ambos os sinais juntos de modo a exibir uma imagem 3D de melhor re-solução. Os sistemas e métodos indicam transmitir, por exemplo, a imagem de visão es-querda em resolução total junto com um segundo sinal tendo tanto imagens de visão esquerda quanto de visão direita combinadas em uma resolução reduzida (isto é, metade da resolução). O receptor pode decodificar um ou o outro sinal e pode alternativamente decodificar ambos se ele tem a capacidade. Se o receptor decodifica ambos, ele pode também converter ascendentemente a taxa de amostra, por exemplo, a visão do olho direito de resolução reduzida para corresponder ao tamanho da imagem do sinal da visão esquerda de resolução total decodificado.
Inicialmente, os sistemas para entregar vários tipos de conteúdo de vídeo a um usuário serão descritos. Voltando agora para a FIG. 1, um diagrama de bloco de uma moda-lidade de um sistema 100 para entregar conteúdo a uma residência ou um usuário final é mostrado. O conteúdo se origina de uma fonte de conteúdo 102, tal como um estúdio de cinema ou produtora. O conteúdo pode ser fornecido em pelo menos uma de duas formas. Uma forma pode ser uma forma de transmissão de conteúdo. O conteúdo de transmissão é fornecido ao gerenciador afiliado de transmissão 104, que é tipicamente um serviço de transmissão nacional, tal como a American Broadcasting Company (ABC), National Broad-casting Company (NBC), Columbia Broadcasting System (CBS), etc. O gerenciador afiliado de transmissão pode coletar e armazenar o conteúdo, e pode programar a entregar do con-teúdo ao longo de uma rede de entrega, mostrada como a rede de entrega 1 (106). A rede de entrega 1 (106) pode incluir transmissão via satélite a partir de um centro nacional para um ou mais centros regionais ou locais. A rede de entrega 1 (106) pode também incluir en- trega de conteúdo local usando sistemas de entrega local tal como por transmissão aérea, transmissão via satélite, ou transmissão por cabo. O conteúdo localmente entregue é forne-cido a um dispositivo de recebimento 108 na residência de um usuário, onde o conteúdo será subsequentemente buscado pelo usuário. Aprecia-se que o dispositivo de recebimento 108 pode ter muitas formas e pode ser incorporado como um gravador de vídeo digi- tal/decodificador de sinal de televisão (DVR), um gateway, um modem, etc.
Uma segunda forma de conteúdo é chamada de conteúdo especial. O conteúdo especial pode incluir conteúdo entregue como conteúdo premium, pagar para ver (“pay-per- view”), ou outro conteúdo que não fornecido ao gerenciador afiliado de transmissão, por exemplo, filmes, videogames, ou outros elementos de vídeo. Em muitos casos, o conteúdo especial pode ser conteúdo solicitado pelo usuário. O conteúdo especial pode ser entregue a um gerenciador de conteúdo 110. O gerenciador de conteúdo 110 pode ser um provedor de serviços, tal como um sítio da rede de Internet, afiliado, por exemplo, com um provedor de conteúdo, serviço de transmissão, ou serviço de rede de entrega. O gerenciador de conteúdo 110 pode também incorporar conteúdo de Internet no sistema de entrega. O gerenciador de conteúdo 110 pode entregar o conteúdo ao dispositivo de recebimento do usuário 108 ao longo de uma rede de entrega separada, a rede de entrega 2 (112). A rede de entrega 2 (112) pode incluir sistemas de comunicações do tipo Internet de banda larga de alta velocidade. É importante notar que o conteúdo do gerenciador afiliado de transmissão 104 pode também ser entregue usando toda ou partes da rede de entrega 2 (112) e o conteúdo do gerenciador de conteúdo 110 pode ser entregue usando toda ou partes da rede de entrega 1 (106). Em adição, o usuário pode também obter conteúdo diretamente da Internet via a rede de entrega 2 (112) sem necessariamente ter o conteúdo gerenciado pelo gerenciador de conteúdo 110.
Várias adaptações para utilizar o conteúdo entregue separadamente podem ser possíveis. Em uma abordagem possível, o conteúdo especial é fornecido com um aumento no conteúdo de transmissão, tal como fornecer exibições alternativas, opções de compra e comercialização, material de otimização, e itens similares. Em outra modalidade, o conteúdo especial pode substituir completamente algum conteúdo de programação fornecido como conteúdo de transmissão. Finalmente, o conteúdo especial pode ser completamente separado do conteúdo de transmissão, e pode ser simplesmente um meio alternativo que o usuário pode escolher utilizar. Por exemplo, o conteúdo especial pode ser uma biblioteca de filmes que não estão ainda disponíveis como conteúdo de transmissão.
Com relação à FIG. 2, um diagrama de bloco de uma modalidade de um sistema 200 para transmissões de tela dividida tridimensional de metade da resolução que também fornece suporte legado bidimensional (2D) é mostrado. O sistema 200 inclui um transmissor 202 para codificar, decodificar o conteúdo de vídeo e fornecer o conteúdo de vídeo decodifi- cado a um dispositivo de visualização. O transmissor 202 pode ser tipicamente incluído com equipamento localizado em um centro de transmissão de sinal, tal como o gerenciador afiliado de transmissão 104 descrito na FIG. 1. O sinal produzido pelo transmissor 202 é transmitido por uma rede de transmissão, tal como a rede de entrega 1 (106) ao receptor 204. O receptor 204 pode ser um decodificador de sinal de televisão (“set-top box”), gateway, ou outro dispositivo de interface de rede que está tipicamente localizado na residência do usuário ou próximo a ela. O receptor 204 pode também estar incluído em um dispositivo móvel, tal como um assistente pessoal digital, tablet, ou telefone celular.
O transmissor 202 inclui uma fonte para, ou de outra forma, adquire, uma imagem de visão direita de resolução total 206 e uma imagem de visão esquerda de resolução total 208 de um par de imagens estéreo. A imagem de visão direita 206 e a imagem de visão esquerda 208 podem ser fornecidas a partir de uma fonte de conteúdo, tal como a fonte de conteúdo 102 descrita na FIG. 1. Cada uma dentre a imagem de visão direita 206 e a imagem de visão esquerda 208 é passada para a os respectivos conversores de taxa de amostragem 210, 212. Os conversores de taxa de amostragem 210, 212 convertem a taxa de amostragem horizontal de cada imagem em metade do tamanho horizontal original. A imagem de visão direita de metade do tamanho 214 e a imagem de visão esquerda de metade do tamanho 216 são combinadas em uma única imagem em um processador de imagens 218.
A imagem combinada a partir do processador de imagens 218 é então transmitida ao codificador 220, onde a imagem combinada é codificada de acordo com o padrão de Grupos de Entretenimento de Imagem em Movimento (MPEG) H.264/MPEG-4 Parte 10, o padrão de Codificação de Vídeo Avançado (AVC), ou algoritmo de compressão similar, para criar o primeiro fluxo de bits 222. Adicionalmente, a imagem de visão esquerda de resolução total adquirida 208 é fornecida ao codificador 224, onde a imagem de visão esquerda 208 é codificada de acordo com H.264/MPEG-4 Parte 10, AVC, ou algoritmo de compressão simi-lar, para criar um segundo fluxo de bits 226. É importante notar que os dois fluxos podem não usar os algoritmos de compressão idênticos. Por exemplo, o codificador 220 pode codificar o primeiro fluxo de bits 222 usando um algoritmo H.264 com taxa de compressão maior ou menor que o codificador 224 usa para o segundo fluxo de bits 226. Adicionalmente, embora a imagem de resolução total 208 seja identificada como uma imagem de visão esquerda, sua descrição é para propósitos de convenção somente. A imagem de resolução total 208 pode, ao invés, ser identificada como uma imagem de visão direita. Como um resultado, entende-se que as descrições para o sinal de imagem de visão esquerda e de imagem de visão direita por toda esta descrição podem ser revertidas.
O primeiro e o segundo fluxo de bits 222, 226 a partir do codificador 238 e codifica-dor 244 são fornecidos ao processador de sinal de saída 228. O controlador 230 cria ou de- termina informação de identificação e fornece essa informação junto com qualquer outra informação de controle para o processador de sinal de saída 228. Em uma modalidade, o controlador 230 ajusta um ID de pacote para cada fluxo de bits. O processador de sinal de saída 228 combina o primeiro e o segundo fluxo de bits 222, 226 em um único fluxo de bits 232 para a transmissão como parte de um sinal para o dispositivo de recebimento 204 ba-seado na informação de ID de pacote e na informação de controle fornecida pelo controlador 230. O controlador 230 também anexa informação adicional ao único fluxo de bits 232 inclu-indo, mas não limitado, a um bit de identificação, um byte de identificação, ou pacote de identificação. Ademais, o controlador 230 pode criar um guia de programação que é também transmitido como parte do sinal ao dispositivo de recebimento usando a identificação. A in-clusão da informação de guia de programação permite que o receptor 204 identifique o con-teúdo de programação que o fluxo de bits 232 contém.
O receptor 204 processa o sinal de chegada incluindo o fluxo de bits 232 e fornece uma separação do conteúdo baseado no guia de programação. O receptor 204 pode incluir um dispositivo de armazenamento 237, tal como um disco rígido ou unidade de disco óptico, para gravar e reproduzir conteúdo de áudio e vídeo. O conteúdo processado é fornecido a um dispositivo de visualização, tal como o dispositivo de visualização 114 descrito na FIG. 1. O dispositivo de visualização pode ser um dispositivo do tipo 2D convencional ou pode ser alternativamente uma tela 3D avançada. O dispositivo de recebimento 204 pode também ser incorporado em outros sistemas incluindo o próprio dispositivo de visualização. Em qualquer caso, vários componentes necessários para completar a operação do sistema não são mos-trados com o propósito de concisão, à medida que são bem conhecidos pelos versados na técnica.
No dispositivo de recebimento 204, um sinal incluindo conteúdo, tal como o fluxo de bits 232, é recebido em um receptor de sinal de entrada 234. O receptor de sinal de entrada 234 pode ser um dos vários circuitos receptores conhecidos usados para receber, demodu- lar, e decodificar sinais fornecidos ao longo de uma das várias redes possíveis incluindo redes aéreas, por cabo, via satélite, Ethernet, por linha telefônica e por fibra. O sinal de entrada desejado pode ser selecionado e restaurado no receptor de sinal de entrada 234 com base em entrada de usuário fornecida através de uma interface de controle (não mostrada). O sinal de saída a partir do receptor de sinal de entrada 234 é fornecido a um processador de fluxo de entrada 236. O processador de fluxo de entrada 236 executa a seleção e processamento de sinal, e determina qual dentre o primeiro e o segundo fluxo de bits é enviado ao decodificador apropriado. O processador de fluxo de entrada 236 distinguirá o primeiro e o segundo fluxo de bits com base no guia de programação enviado pelo dispositivo 202 e o ID de pacote ou outra informação de identificação para cada fluxo de bits (por exemplo, o fluxo de bits 222 e o fluxo de bits 226).
Adicionalmente, o processador de fluxo de entrada 236 pode enviar os fluxos de bits recebidos ao dispositivo de armazenamento 237. O dispositivo de armazenamento 237 permite a posterior restauração e reprodução do conteúdo sob o controle de um controlador 254 e também baseado em comandos, por exemplo, instruções de navegação tal como avanço rápido (FF) e retroceder (Rew), recebidas a partir uma interface de usuário (não mostrada). O dispositivo de armazenamento 237 pode ser uma unidade de disco rígido, uma ou mais memórias eletrônicas integradas de grande capacidade, tal como memória de acesso aleatório estática, ou memória de acesso aleatório dinâmica, ou pode ser um sistema de armazenamento em disco óptico intercambiável tal como uma unidade de disco compacto ou unidade de disco de vídeo digital.
Como descrito, o processador de fluxo de entrada 236 separará os fluxos de bits e encaminhará um dentre o primeiro e o segundo fluxo de bits ao decodificador apropriado, ou o decodificador 238 ou o decodificador 244. Em uma modalidade, se o processador de fluxo de entrada 236 determina que o fluxo de bits inclui a imagem combinada, o fluxo de bits será enviado ao decodificador 238. O decodificador 238 decodifica a imagem combinada de acordo com um ou mais algoritmos de decodificação de compressão de vídeo, tal como H.264/MPEG-4 Parte 10 ou AVC, em uma imagem combinada 240 tendo uma visão esquer-da e direita de metade da resolução. A saída 3D de metade da resolução 242 é fornecida ao seletor 250. O controlador 254 é usado para determinar e controlar qual dos fluxos de bits é fornecido através do seletor 250 à interface de áudio/vídeo 252. A operação do seletor 250 e do controlador 254 será descrita abaixo.
Se o processador de fluxo de entrada 236 determina que o fluxo de bits inclui a imagem de visão esquerda de resolução total 208, o fluxo de bits será enviado ao decodifi- cador 244. O decodificador 244 decodifica a imagem de visão esquerda 208 de acordo com um ou mais algoritmos de decodificação de compressão para gerar uma imagem de visão esquerda 246. A imagem de visão esquerda é então emitida como um sinal de saída 2D de resolução total 248. O sinal de saída 2D de resolução total 248 é também emitido ao seletor 250.
O controlador 254 determina um tipo de dispositivo de visualização acoplado ao dispositivo de recebimento 204 via uma interface de áudio/vídeo 252. A interface de áu- dio/vídeo 252 pode ser uma interface de sinal analógico tal como vermelho-verde-azul (RGB) ou pode ser uma interface digital tal como a interface multimídia de alta definição (HDMI). O controlador 254 se comunica com a interface de áudio/vídeo 252 e recebe informação a partir da interface de áudio/vídeo 252 se um dispositivo de visualização 2D ou 3D estiver conectado a essa. Por exemplo, no caso de HDMI, o controlador 254 determina as capacidades do dispositivo d tela através de comunicação através da interface HDMI com o dispositivo de visualização. Entretanto, geralmente isso não é possível com uma interface de áudio/vídeo (A/V) analógica. Quando conectado por uma interface AV analógica, a configu-ração do dispositivo de visualização é normalmente alcançada com botões no dispositivo de recebimento 204 que pode ser lida pelo controlador, ou com telas de interface de usuário onde um usuário insere o tipo de tela com uma seleção acionada por controle remoto.
Com base no tipo do dispositivo de visualização, o controlador 254 controla o sele- tor 250 para emitir o sinal de saída apropriado, ou o sinal de vídeo 3D de metade da resolução ou o sinal de vídeo 2D de resolução total. Por exemplo, se o controlador 254 determina que um dispositivo de visualização 3D está acoplado à interface de áudio/vídeo 252, a saída 3D de metade da resolução 242 será enviada à interface de áudio/vídeo 252 via o seletor 250. Se o controlador 254 determina que um dispositivo de visualização 2D está acoplado à interface de áudio/vídeo 252, a saída 2D de resolução total 248 será enviada à interface de áudio/vídeo 252 via o seletor 250. Aprecia-se que o processamento acima pode se originar dos sinais recebidos no receptor de sinal de entrada ou a partir do conteúdo restaurado a partir do dispositivo de armazenamento 237,
Aprecia-se ainda que o controlador 230 e o controlador 254 podem estar interco- nectados via um barramento a vários dos componentes contidos dentro do transmissor 202 e do decodificador de sinal de televisão, respectivamente. Por exemplo, o controlador 254 pode gerenciar o processo de conversão para converter o sinal de fluxo de entrada em um sinal para armazenamento no dispositivo de armazenamento 237 ou para exibir em um dispositivo de visualização, não mostrado. O controlador 254 também gerencia a restauração e reprodução de conteúdo armazenado. O controlador 230 e o controlador 254 podem ainda ser acoplados a uma memória de controle, não mostrada (por exemplo, memória volátil ou não volátil, incluindo memória de acesso aleatório, RAM estática, RAM dinâmica, memória somente de leitura, ROM programável, memória rápida, EPROM, EEPROM, etc.) para ar-mazenar informação e código de instrução para o controlador 230 e o controlador 254. Ademais, a implementação da memória pode incluir várias modalidades possíveis, tal como um único dispositivo de memória ou, alternativamente, mais do que um circuito de memória juntos para formar uma memória comum ou compartilhada. Ademais, a memória pode ser incluída com outro circuito, tal como partes do circuito de comunicações de barramento, em um circuito maior.
Com relação à FIG. 3, um fluxograma de uma modalidade de um processo 300 para codificar transmissões de tela dividida de metade da resolução é mostrado. O processo 300 será principalmente descrito com relação ao transmissor 202 descrito na FIG. 2, mas pode ser similarmente incluído no equipamento encontrado no gerenciador afiliado de transmissão 104 descrito na FIG. 1. Na etapa 302, uma imagem de visão direita de resolução total é adquirida. Similarmente, na etapa 304, uma imagem de visão esquerda de resolução total é adquirida. A imagem de visão direita e a imagem de visão esquerda formam um par de imagens estéreo e pode ser fornecido a partir de uma fonte de conteúdo, tal como a fonte de conteúdo 102 descrita na FIG. 1. Adicionalmente, uma das duas imagens pode ser gerada por um dispositivo transmissor, tal como o transmissor 202, usando uma imagem 2D e técnicas de processamento 2D-3D. Na etapa 306, cada uma dentre a imagem de visão direita e a imagem de visão esquerda é convertida alterando-se a taxa de amostragem horizontal de cada imagem para metade do tamanho horizontal original. Em seguida, na etapa 308, a imagem de visão direita de metade do tamanho e a imagem de visão esquerda de metade do tamanho são combinadas em uma única imagem. É importante notar que cada imagem de metade do tamanho ocupa tipicamente metade da largura horizontal total do sinal de imagem. Alternativamente, cada imagem de metade do tamanho pode ser espalhada em um padrão através do sinal de imagem inteiro, tal como em um padrão quadriculado.
Na etapa 310, a imagem combinada é então codificada usando um algoritmo de codificação de compressão de vídeo para criar um primeiro fluxo de bits codificado. Em uma modalidade, a imagem combinada pode ser codificada de acordo com H.264/MPEG-4 Parte 10, AVC, ou algum algoritmo de compressão similar. Na etapa 312, a imagem de visão es-querda de resolução total a partir da etapa 304 é codificada usando um algoritmo de codifi-cação de compressão de vídeo, similar ao descrito na etapa 310, para criar um segundo fluxo de bits codificado.
Em seguida na etapa 314, a informação sobre o primeiro fluxo de bits e o segundo fluxo de bits é restaurada e processada para formar um ou mais segmentos (por exemplo, bits, bytes, pacotes) de informação de programa. Também na etapa 314, o primeiro fluxo de bits e o segundo fluxo de bits são combinados para formar um único sinal ou fluxo de bits e a informação para o primeiro fluxo de bits e o segundo fluxo de bits é anexada no único fluxo de bits. Em uma modalidade, a informação é anexada como uma identificação de programa (PID). O PID para o único fluxo de bits pode também ser combinado com PIDs a partir de outros fluxos de bits para formar um fluxo de bits de guia de programação separado. Por último, na etapa 316, um sinal de saída contendo o único fluxo de bits é transmitido. O sinal de saída pode ser transmitido como um sinal de transmissão por uma rede de entrega, tal como a rede de entrega 106 descrita na FIG. 1. A etapa de transmissão 316 pode também incluir processamento de sinal adicional necessário para transmitir o sinal, tal como codificação para correção de erros, codificação por modulação, conversão digital-analógico, filtração, e conversão ascendente do sinal analógico. O sinal de saída pode conter outros fluxos de bits, bem como informação adicional, tal como um fluxo de guia de programação. É importante notar que a informação de guia de programação pode ser anexada ao único fluxo de bits ao invés de ser criada como um fluxo de bits separado.
Com relação à FIG. 4, um fluxograma de um processo exemplificado 400 para de-codificar transmissões de tela dividida de metade da resolução é mostrado. O processo 400 será principalmente descrito com relação ao receptor 204 descrito na FIG. 2. O Processo 400 pode também ser usado como parte da operação de um dispositivo de recebimento, tal como o dispositivo de recebimento 108 descrito na FIG. 1. Na etapa 402, um sinal, contendo o fluxo de bits desejado (por exemplo, o fluxo de bits 232) bem como outro conteúdo, é recebido a partir de uma rede de transmissão. O sinal e o conteúdo podem ser fornecidos por um provedor de serviço de rede, tal como o gerenciador afiliado de transmissão 104 descrito na FIG. 1, e recebidos em um receptor de sinal de entrada, tal como o receptor 234. O conteúdo, incluindo o fluxo de bits, tal como o fluxo de bits desejado 232, pode também ser fornecido a partir de um dispositivo de armazenamento, tal como o dispositivo de armazenamento 237 ou outro dispositivo de mídia, tal como um disco versátil digital (DVD) ou outra mídia.
Na etapa 404, o sinal de entrada recebido é separado em múltiplos fluxos de bits. À medida que necessário, cada um dentre o primeiro e o segundo fluxo de bits a partir do fluxo de bits desejado 232 é fornecido ao decodificador apropriado. A etapa 404 pode incluir uma determinação de se o fluxo de bits inclui a imagem combinada. Se o fluxo de bits inclui a imagem combinada, o fluxo de bits será decodificado de acordo com um ou mais algoritmos de decodificação de compressão de vídeo, tal como H.264/MPEG-4 Parte 10, AVC, ou outro processo de decodificação de compressão similar. A decodificação na etapa 404 produz uma imagem combinada tendo uma visão esquerda e direita de metade da resolução. Na etapa 406, uma decodificação similar ocorre se um dos fluxos de bits separados inclui uma imagem de visão esquerda de resolução total. A decodificação na etapa 406 pode usar um algoritmo de decodificação de compressão de vídeo similar ao descrito na etapa 404.
Na etapa 408, o tipo de dispositivo de visualização usado para exibir o conteúdo de vídeo é determinado. Em uma modalidade, o dispositivo de visualização é acoplado ao de- codificador de sinal de televisão 204 via uma interface de áudio/vídeo, tal como a interface de áudio/vídeo 252. A interface de áudio/vídeo 252 pode ser uma interface de sinal analógica tal como vermelho-verde-azul (RGB) ou pode ser uma interface digital tal como uma interface multimídia de alta definição (HDMI). O dispositivo de visualização pode também ser integrado com os componentes de recebimento e processamento no decodificador de sinal de televisão 204. A determinação na etapa 408 pode ser executada automaticamente através de um processo de identificação de dispositivo de visualização, ou pode ser selecionada pelo usuário.
Com base no tipo da tela determinada na etapa 408, então, na etapa 410, o sinal de saída apropriado é fornecido ao dispositivo de visualização. Em uma modalidade, as etapas 408 e 410 são executadas pelo controlador 254 e pelo seletor 250. Por exemplo, se o con-trolador 254 determina que um dispositivo de visualização 3D está acoplado à interface de áudio/vídeo 252, a saída 3D de metade da resolução 242 será enviada à interface de áu dio/vídeo 252 via o seletor 250. Se o controlador 254 determina que um dispositivo de visua-lização 2D está acoplado à interface de áudio/vídeo 252, a saída 2D de resolução total 248 será enviada à interface de áudio/vídeo 252 via o seletor 250. Alternativamente, as etapas 408 e 410 podem ser executadas usando outros elementos, tal como a interface de áu- dio/vídeo 252 ou decodificadores 238 e 244. Aprecia-se também que o processamento acima pode se originar dos sinais recebidos no receptor de sinal de entrada ou a partir de conteúdo restaurado a partir do dispositivo de armazenamento 237.
Com relação agora à FIG. 5, um diagrama de bloco de uma modalidade de um sis-tema para transmissões tridimensionais (3D) de legado, transmissões 2D de legado e transmissões 3D de resolução total é mostrado. O sistema 500 inclui um transmissor 502 para codificar e transmitir conteúdo de vídeo e um dispositivo de recebimento 504, por exemplo, um decodificador de sinal de televisão, gateway, ou outro dispositivo de interface de rede, para receber o conteúdo de vídeo, decodificar o conteúdo de vídeo e fornecer o conteúdo de vídeo decodificado a um dispositivo de visualização. O dispositivo de recebimento 504 pode também ser incluído em um dispositivo móvel, tal como um assistente pessoal digital, tablet, ou telefone celular. Exceto como descrito abaixo, tanto o transmissor 502 quanto o dispositivo de recebimento 504 operam e fazem interface entre si de uma maneira similar ao sistema 200 descrito na FIG. 2.
O transmissor 502 adquire uma imagem de visão direita de resolução total e uma imagem de visão esquerda de resolução total de um par de imagens estéreo. A imagem de visão direita e a imagem de visão esquerda de resolução total podem ser fornecidas a partir de uma fonte de conteúdo ou de alguma outra maneira como descrito acima. A imagem de visão direita e a imagem de visão esquerda são combinadas em uma única imagem no cir-cuito de entrelaçamento 511 e fornecidas a um conversor de taxa de amostragem 510. O conversor de taxa de amostragem 510 converte a taxa de amostragem horizontal da imagem combinada na metade do tamanho horizontal original.
A saída do conversor de taxa de amostragem 510 fornece uma imagem convertida 518 ao codificador 520. O codificador 520 codifica a imagem usando um ou mais algoritmos de compressão de vídeo, tal como os descritos acima. Adicionalmente, a imagem de visão esquerda de resolução total adquirida é fornecida ao codificador 524, e codificada usando um ou mais algoritmos de compressão de vídeo como descrito acima. A saída do codificador 520 e a saída do codificador 524, identificadas como o primeiro fluxo de bits 522 e o segundo fluxo de bits 526, respectivamente, são fornecidas ao processador de sinal de saída 528. A saída do processador de sinal 528 opera sob o controle do controlador 530. O controlador 530 configura o ID de pacote, ou outra identificação de fluxo, para cada fluxo de bits e o pro-cessador de sinal de saída 528 combina o primeiro fluxo de bits 522 e o segundo fluxo de bits 526 em um único fluxo de bits 532, junto com o ID de pacote ou outra identificação de fluxo. O processador de sinal de saída 528 fornece um sinal de saída, incluindo o fluxo de bits 532, que é transmitido do transmissor 502 para o dispositivo de recebimento 504. Adici-onalmente, o controlador 530 cria um guia de programação que é também transmitido ao dispositivo de recebimento 504. O guia de programação pode incluir o ID de pacote ou outra informação sobre o fluxo de saída 532, bem como a informação sobe outros fluxos de bits transmitidos ao dispositivo de recebimento 504. O guia de programação é usado para infor-mar o dispositivo de recebimento 504 o que o fluxo de bits 532, bem como quaisquer outros fluxos de bits incluídos e transmitidos como parte do sinal de saída, contém. O guia de pro-gramação pode ser transmitido como um fluxo de bits separado ou pode ser anexado ao fluxo de bits de saída 532.
O dispositivo de recebimento 504 processa o fluxo de bits 532, e fornece uma sepa-ração do conteúdo baseado no guia de programação. O dispositivo de recebimento 504 pode incluir um dispositivo de armazenamento, tal como uma unidade de disco rígido ou de disco óptico, para gravar e reproduzir conteúdo de áudio e vídeo. O conteúdo processado é fornecido a um dispositivo de visualização, tal como o dispositivo de visualização 114 descrito na FIG. 1. O dispositivo de visualização pode ser uma tela tipo 2D convencional ou pode ser alternativamente uma tela 3D avançada. O dispositivo de recebimento 504 pode também ser incorporado em outros sistemas incluindo o próprio dispositivo de visualização. Em qualquer caso, vários componentes necessários para completar a operação do sistema não são mostrados com o propósito de concisão, à medida que eles são bem conhecidos pelos versados na técnica.
No dispositivo de recebimento 504, o sinal recebido, incluindo conteúdo tal como o fluxo de bits 532, é recebido em um receptor de sinal de entrada 534. O receptor de sinal de entrada 534 pode ser um de vários circuitos receptores conhecidos usados para receber, demodular, e decodificar sinais fornecidos por uma das várias redes possíveis incluindo por redes aéreas, por cabo, via satélite, Ethernet, por linha telefônica e fibra. O sinal de entrada desejado pode ser selecionado e restaurado no receptor de sinal de entrada 534 com base na entrada de usuário fornecida através de uma interface de controle (não mostrada). O sinal de saída a partir do receptor de sinal de entrada 534 é fornecido a um processador de fluxo de entrada 536. O processador de fluxo de entrada 536 executa a seleção e processamento de sinal, e determina qual dentre o primeiro e o segundo fluxo de bits é enviado ao decodificador apropriado, ou decodificador 538 ou decodificador 544. O processador de fluxo de entrada 536 identifica e distingue o primeiro e o segundo fluxo de bits com base na informação de guia de programação enviada pelo dispositivo 502 e na identificação do ID de pacote, ou outra identificação de fluxo, para um fluxo de bits recebido, tal como o fluxo de bits 532. Adicionalmente, o processador de fluxo de entrada 536 pode enviar os fluxos de bits recebidos, se necessário, a um dispositivo de armazenamento 537, como descrito aci- ma.
Como descrito acima, o processador de fluxo de entrada 536 separará os fluxos de bits e, se identificados ou distinguidos, fornece um dentre o primeiro e o segundo fluxo de bits ao decodificador apropriado, ou o decodificador 538 ou o decodificador 544. Em uma modalidade, se o processador de fluxo de entrada 536 determina que o fluxo de bits inclui o fluxo de bits de imagem combinada (por exemplo, o fluxo de bits 522), então o fluxo de bits de imagem combinada será enviado ao decodificador 538. O decodificador 538 decodifica o fluxo de bits de imagem combinada usando um algoritmo de compressão de vídeo de acordo com H.264/MPEG-4 Parte 10, AVC (Codificação de Vídeo Avançada), ou outro algoritmo. O decodificador 538 produz um sinal de imagem de saída 3D de alta resolução 542 que é uma imagem combinada 540 tendo uma visão esquerda e direita de metade da resolução. A saída 3D de metade da resolução 542 é fornecida ao seletor 550 que está sob o controle do controlador 554. A operação do seletor 550 e do controlador 554 é similar ao seletor e con-trolador descritos acima em relação à FIG. 2.
Se o processador de fluxo de entrada 536 determina, identifica ou distingue que o fluxo de bits incluindo a imagem de visão esquerda de resolução total (por exemplo, o fluxo de bits 526) é fornecido como parte do sinal recebido, esse fluxo de bits é fornecido ao de- codificador 544. No decodificador 544, a imagem de visão esquerda é decodificada de acordo com H.264/MPEG-4 Parte 10, AVC, ou outro processo de decodificação para produzir um sinal de saída 2D de resolução total 548 que é uma imagem de visão esquerda 546. O sinal de saída 2D de resolução total 548 a partir do decodificador 544, como a saída do decodifi- cador 538, é também enviado ao seletor 550, que está sob o controle do controlador 554.
A parte de visão direita de metade da resolução do sinal de saída 3D de metade da resolução 542 é também fornecida ao conversor de taxa de amostragem 556. O conversor de taxa de amostragem 556 converte ascendentemente a taxa de amostragem horizontal da parte de visão direita da imagem de volta para resolução total. Alternativamente, o sinal de saída 3D de metade da resolução 542 pode ser fornecido ao conversor de taxa de amostra-gem 556. Este pode ser operado para descartar a parte de visão esquerda do sinal antes de converter ascendentemente a parte de visão direita. A imagem de visão direita amostrada ascendentemente pode ser uma imagem dividida horizontal 1080i ou imagem dividida vertical 720p. O sinal de imagem de visão direita convertido ascendentemente é fornecido junto com o sinal de saída 2D de resolução total 548 a partir do decodificador 544 para o circuito de entrelaçamento 557. O circuito de entrelaçamento combina a imagem de visão direita convertida ascendentemente com a imagem de visão esquerda de resolução total para pro-duzir o sinal de saída de resolução total esquerdo e direito 558. O sinal de saída de resolução total é também fornecido ao seletor 550, que está sob o controle do controlador 554.
É importante notar que, com base na conversão ascendente executada no conver- sor de taxa de amostragem 556 na parte de visão direita do sinal de saída 3D de metade da resolução 542, alguma forma de conversão de taxa de amostragem pode também ser executada no sinal de saída 2D de resolução total 548. Por exemplo, o sinal de saída 2D de resolução total 548 pode ter formato 1080i, enquanto o sinal de parte direita convertido ascendentemente pode ser 720p. De modo a combinar as imagens, a conversão de taxa de amostragem do sinal de saída 2D de resolução total 548 de 1080i para 720p pode ser necessária. A conversão de taxa de amostragem pode ser executada no decodificador 544, ou pode ser executada em um conversor de taxa de amostragem separado, não mostrado.
Embora uma conversão de taxa de amostragem adicional da parte de imagem de visão esquerda do sinal de saída 3D de metade da resolução 542 possa também ser execu-tada junto com a parte de imagem de visão direita no conversor de taxa de amostragem 556, o uso do sinal de saída 2D de resolução total 548 para a imagem de visão esquerda resulta em uma imagem de maior qualidade visual. O processo de conversão de taxa de amostragem pode produzir artefatos visíveis, tal como erros ou distorções na imagem. Usando o sinal de saída 2D de resolução total 548, o observador pode estar menos ciente dos artefatos de conversão de taxa de amostragem porque esses artefatos podem somente estar presentes na visão do olho direito.
O controlador 554 determina um tipo de dispositivo de visualização acoplado ao dispositivo de recebimento 504 via uma interface de áudio/vídeo 552. A mesma pode ser uma interface de sinal analógica tal como vermelho-verde-azul (RGB) ou pode ser uma interface digital tal como interface multimídia de alta definição (HDMI). O controlador 554 se comunica com a interface de áudio/vídeo 552 e recebe informação a partir da interface de áudio/vídeo 552 se um dispositivo de visualização 2D, um dispositivo de visualização 3D de legado, ou dispositivo de visualização 3D de resolução total está conectado a essa. Com base no tipo do dispositivo de visualização, o controlador 554 controla o seletor 550 para emitir o sinal de saída apropriado. Por exemplo, se o controlador 554 determina que um dispositivo de visualização 3D de legado está acoplado à interface de áudio/vídeo 552, a saída 3D de metade da resolução 542 será enviada à interface de áudio/vídeo 552 via o seletor 550. Se o controlador 554 determina que um dispositivo de visualização 2D está acoplado à interface de áudio/vídeo 552, a saída 2D de resolução total 548 será enviada à interface de áudio/vídeo 552 via o seletor 550. Se o controlador 554 determina que um dispositivo de visualização 3D de resolução total está acoplado à interface de áudio/vídeo 552, a saída 3D de resolução total 558 será enviada à interface de áudio/vídeo 552 via o seletor 550. Aprecia-se que o processamento acima pode se originar dos sinais recebidos no receptor de sinal de entrada ou a partir de conteúdo restaurado a partir do dispositivo de armazenamento 537.
Com relação à FIG. 6, um fluxograma de um processo exemplificado 600 para codi- ficar transmissões 3D de legado, transmissões 3D de legado, e transmissões 3D de resolução total é mostrado. O processo 600 será principalmente descrito com relação ao transmissor 502 descrito na FIG. 5, mas pode ser similarmente descrito com relação ao transmissor 202 descrito na FIG. 2 ou pode ser incluído no equipamento encontrado no gerenciador afiliado de transmissão 104 descrito na FIG. 1. Na etapa 602, uma imagem de visão direita de resolução total é adquirida. Similarmente, na etapa 604, uma imagem de visão esquerda de resolução total é adquirida. A imagem de visão direita e a imagem de visão esquerda formam um par de imagens estéreo e podem ser fornecidas a partir de uma fonte de conteúdo, tal como a fonte de conteúdo 102 descrita na FIG. 1. Adicionalmente, uma das duas imagens pode ser gerada por um dispositivo transmissor, tal como o transmissor 502, usando uma imagem 2D e técnicas de processamento 2D-3D. Na etapa 606, cada uma dentre a imagem de visão direita e a imagem de visão esquerda é convertida alterando-se a taxa de amostragem horizontal de cada imagem para metade do tamanho horizontal original. Em seguida, na etapa 608, a imagem de visão direita de metade do tamanho e a imagem de visão esquerda de metade do tamanho são combinadas em uma única imagem. É importante notar que cada imagem de metade do tamanho ocupa tipicamente metade da largura horizontal total do sinal de imagem. Alternativamente, cada imagem de metade do tamanho pode ser espalhada em um padrão através do sinal de imagem inteiro, tal como em um padrão quadriculado.
É importante notar que dependendo do formato da tela para os sinais de imagem recebidos originalmente na etapa 502 e 504, pode ser vantajoso ajustar a taxa de amostragem de modo a reformatar a única imagem resultante no maior formato de tela possível. Por exemplo, se a imagem de visão esquerda e a imagem de visão direita originais estivessem em um formato 720p, então a conversão de taxa de amostragem na etapa 606 e o entrela-çamento na etapa 608 deveriam ser executados para criar uma única imagem combinada que está em um formato 1080p. Como um resultado, a maior qualidade de vídeo possível para o sinal de imagem combinado é mantida e transmitida para uso por um receptor, tal como o dispositivo de recebimento 504.
Na etapa 610, a imagem combinada é então codificada usando um algoritmo de codificação de compressão de vídeo para criar um primeiro fluxo de bits codificado. Em uma modalidade, a imagem combinada pode ser codificada de acordo com H.264/MPEG-4 Parte 10, AVC, ou algum algoritmo de compressão similar. Na etapa 612, a imagem de visão es-querda de resolução total a partir da etapa 604 é codificada usando um algoritmo de codifi-cação de compressão de vídeo, similar ao descrito na etapa 610, para criar um segundo fluxo de bits codificado.
Em seguida na etapa 614, a informação sobre o primeiro fluxo de bits e sobre o se-gundo fluxo de bits é restaurada e processada para formar um ou mais segmentos (por exemplo, bits, bytes, pacotes) de informação de programa. Também na etapa 614, o primeiro e o segundo fluxo de bits são combinados para formar um único sinal ou fluxo de bits e a informação para o primeiro e para o segundo fluxo de bits é anexada ao único fluxo de bits. Em uma modalidade, a informação é anexada como uma identificação de programa (PID). O PID para o único fluxo de bits pode ser também combinado com PIDs de outros fluxos de bits para formar um fluxo de bits de guia de programação separado. Finalmente, na etapa 616, um sinal de saída contendo o único fluxo de bits é transmitido. O sinal de saída pode ser transmitido como um sinal de transmissão ao longo de uma rede de entrega, tal como a rede de entrega 106 descrita na FIG. 1. A etapa de transmissão 616 pode também incluir processamento de sinal adicional necessário para transmitir o sinal, como descrito anterior-mente. O sinal de saída pode conter outros fluxos de bits, bem como informação adicional, tal como um fluxo de guia de programação. É importante notar que a informação de guia de programação pode ser anexada ao único fluxo de bits ao invés de ser criada como um fluxo de bits separado.
Com relação agora à FIG. 7, um fluxograma de um processo exemplificado 700 para decodificar transmissões 3D de legado, transmissões 2D de legado e transmissões 3D de resolução total é mostrado. O processo 700 será principalmente descrito com relação ao dispositivo de recebimento 504 descrito na FIG. 5, mas pode ser similarmente descrito com relação ao receptor 202 descrito na FIG. 2. O processo 700 pode também ser usado como parte da operação de um dispositivo de recebimento, tal como o dispositivo de recebimento 108 descrito na FIG. 1. Na etapa 702, um sinal, contendo o conteúdo de vídeo desejado em um fluxo de bits, bem com outro conteúdo, é recebido a partir de uma rede de transmissão. O sinal e o conteúdo podem ser fornecidos por um provedor de serviço de rede, tal como o gerenciador afiliado de transmissão 104 descrito na FIG. 1, e recebidos em um receptor de sinal de entrada, tal como o receptor 534. O conteúdo, incluindo o fluxo de bits, pode também ser fornecido a partir de um dispositivo de armazenamento, tal como o dispositivo de armazenamento 237 ou outro dispositivo de mídia, tal como o disco versátil digital (DVD) ou outra mídia.
Na etapa 703, o sinal de entrada recebido é separado em múltiplos fluxos de bits. A etapa de separação 703 inclui a identificação dos fluxos de bits individuais, tal como uma determinação e identificação de um primeiro fluxo de bits como uma imagem de vídeo 3D de metade da resolução combinada e a identificação de um segundo fluxo de bits como uma imagem 2D de resolução total como a imagem de visão esquerda. A etapa de separação 703 também fornece cada um dentre o primeiro e o segundo fluxo de bits a partir do fluxo de bits desejado ao decodificador apropriado. Com base na determinação e na identificação na etapa 703, na etapa 704, o primeiro fluxo de bits, um sinal de vídeo 3D de metade da resolução, é decodificado de acordo com um ou mais algoritmos de decodificação de compres- são de vídeo, tal como H.264/MPEG-4 Parte 10, AVC, ou outro processo de decodificação de compressão similar. O sinal 3D de metade da resolução pode estar em vários formatos, incluindo um sinal de vídeo 3D de tela dividida ou um sinal de vídeo quadriculado. A decodi- ficação na etapa 704 produz uma imagem combinada tendo uma visão esquerda e direita de metade da resolução. Na etapa 706, uma decodificação similar ocorre para o segundo fluxo de bits, um sinal de imagem 2D de resolução total. A decodificação na etapa 706 pode usar um algoritmo de decodificação de compressão de vídeo similar ao descrito na etapa 704.
Na etapa 708, uma parte de visão direita do sinal de imagem combinada de metade da resolução é convertida para produzir um sinal de imagem de visão direita de tamanho total e de resolução total. Embora o sinal de imagem de visão direita seja um sinal de resolução total, entende-se que a conversão de taxa de amostragem introduzirá artefatos de imagem à imagem de visão direita de resolução total. Na etapa 710, a imagem de visão direita de resolução total decodificada e convertida gerada na etapa 708 e a imagem de visão esquerda de resolução total decodificada são combinadas em um único sinal de saída 3D de resolução total. É importante notar que o único sinal de saída 3D de resolução total a partir da etapa 710, o sinal de saída 3D de metade da resolução a partir da etapa 704, e o sinal de saída (visão esquerda) 2D de resolução total a partir da etapa 706 estão disponíveis e fornecidos para exibição.
Em seguida, na etapa 712, o tipo do dispositivo de visualização usado para exibir um dos sinais de saída gerados acima é determinado. Em uma modalidade, o dispositivo de visualização é acoplado ao dispositivo de recebimento 504 via uma interface de áudio/vídeo, tal como a interface de áudio/vídeo 552. A determinação na etapa 712 pode ser executada automaticamente através de um processo de identificação de dispositivo de visualização, ou pode ser selecionada pelo usuário. Em uma modalidade, se um dispositivo de visualização 2D for usado, o sinal de saída 2D de resolução total é selecionado. Se um dispositivo de visualização 3D for usado, ou o sinal de saída 3D de metade da resolução ou o sinal de saída 3D de resolução total é selecionado. A escolha do sinal de saída 3D de metade da resolução ou de resolução total pode ser feita por um usuário através de uma seleção de interface de usuário. Em outra modalidade, o sinal de saída 3D de resolução total é sempre selecionado se estiver disponível, como determinado na etapa 703.
Com base no tipo da tela determinada na etapa 712, então, na etapa 714, o sinal de saída selecionado, ou um sinal de imagem de visão esquerda 2D de resolução total, um sinal de imagem de visão esquerda e de visão direita 3D de metade da resolução, ou um sinal de imagem de visão esquerda e de visão direita 3D de resolução total, é fornecido ao dispositivo de visualização.
É importante notar que embora o sistema 500, o processo 600, e o processo 700 sejam descritos como operando em um sinal de imagem de visão esquerda e de visão direi- ta 3D de metade da resolução, outros sinais 3D de resolução parcial ou reduzida podem também ser usados. Por exemplo, o sinal 3D incluindo uma imagem de visão esquerda de resolução reduzida (que não metade) e uma imagem de visão direita de resolução reduzida (que não metade) pode ser usado, com a resolução da imagem de visão esquerda sendo diferente da resolução da imagem de visão direita.
Certas etapas no processo 800 podem ser modificadas ou omitidas com base em uma implementação específica. Por exemplo, a etapa de determinação de tela 712 pode ser executada antes das etapas de decodificação 704 e 706. Com base no tipo de dispositivo de visualização usado, uma ou as outras etapas de decodificação podem ser omitidas ou desa- bilitadas.
Um sistema e um método para transmissões tridimensionais (3D) de legado, trans-missões 2D de legado, e transmissões 3D de resolução total foram descritos. O dispositivo de recebimento 504 decodificará a transmissão 2D de legado para a visão do olho esquerdo e a transmissão de tela dividida 3D de legado. A visão direita de resolução total é criada escalando-se a metade direita da transmissão de tela dividida 3D de legado. Dessa maneira, a imagem 3D de resolução total pode ser fornecida sem novas técnicas de compressão exi-gidas.
Como descrito acima, as modalidades nas FIGs. 2 a 7 referem-se ao recebimento e processamento dos fluxos de bits usados para transmissões 3D e incluem receber um sinal de dados que inclui dois fluxos de bits diferentes combinados no sinal de dados. O primeiro sinal de vídeo representa uma imagem bidimensional em uma primeira resolução de vídeo e o segundo sinal de vídeo representa uma imagem tridimensional em uma segunda resolução. As modalidades também incluem decodificar o primeiro sinal de vídeo se um tipo de tela de saída é um tipo de tela bidimensional, decodificar o segundo sinal de vídeo se o tipo de tela de saída é um primeiro tipo de tela tridimensional, e decodificar o primeiro sinal de vídeo e o segundo sinal de vídeo simultaneamente se o tipo de tela de saída é um segundo tipo de tela tridimensional.
As modalidades nas FIGs. 2 a 7 referem-se ao processamento de um sinal recebido para fornecer uma saída de vídeo 3D. As modalidades incluem receber um sinal, o sinal incluindo um primeiro sinal de vídeo representando uma imagem bidimensional em uma primeira resolução de vídeo e um segundo sinal de vídeo representando uma imagem tridi-mensional em uma segunda resolução, determinar o tipo de dispositivo de visualização para visualizar o conteúdo de vídeo, decodificar o primeiro sinal de vídeo, decodificar o segundo sinal de vídeo, e fornecer um sinal de saída ao dispositivo de visualização, o sinal de saída incluindo uma combinação do primeiro sinal de vídeo decodificado e uma parte do segundo sinal de vídeo decodificado se o tipo de dispositivo de visualização é um dispositivo de visu-alização tridimensional.
Em outra modalidade, um sistema e um método para mapeamento de disparidade ajustável por usuário em um dispositivo de recebimento são fornecidos. O sistema e o método usam um codificador H.264 no dispositivo de recebimento para ajudar a gerar um mapa denso de disparidade de um par recebido e decodificado de imagens estéreo, isto é, uma imagem de visão direita e uma imagem de visão esquerda. As duas imagens são alinhadas consecutivamente no tempo e passadas através do codificador para gerar informação de codificação tal como vetores de movimento. A informação de movimento resultante é usada para gerar um mapa de disparidade que pode ser usado como um controle de usuário para ajustar a profundidade de imagem no conjunto de imagens estéreo. Tal sistema é útil se a transmissão do sinal inclui enviar imagens estereoscópicas, mas omite a transmissão de um mapa de profundidade.
Com relação agora à FIG. 8, uma modalidade exemplificada de um dispositivo de recebimento 800 para gerar um mapa denso de disparidade é mostrada. Aprecia-se que, exceto como descrito abaixo, elementos similares aos descrito acima em relação às FIGs. 2 e 5 não serão descritos em detalhes. Por exemplo, o receptor de sinal de entrada 834, o processador de fluxo de entrada 836, o dispositivo de armazenamento 837, os decodificado- res 838 e 844 e o conversor de taxa de amostra 856 funcionam substancialmente como descrito acima para fornecer a saída em alta resolução 842, a saída 2D em resolução total 848 e a saída 3D de resolução total 858 ao seletor 850.
O dispositivo de recebimento 800 ainda inclui um codificador 860 acoplado à saída do seletor 850. O codificador 860 é também acoplado à memória 862. O controlador 854 é também acoplado ao codificador 860 bem como à memória 862. Uma interface de usuário 870 é acoplada ao controlador 854.
Em operação, quando o seletor 850 emite um sinal 3D de metade da resolução 842 ou um sinal 3D de resolução total 858, o codificador 860 recebe o par decodificado de ima-gens da visão esquerda e da visão direita e armazena as imagens no armazenador temporário de imagens codificadas 864, mostrado como parte da memória 862. O codificador 860 configura a imagem de visão esquerda como sendo a imagem de referência, também co-nhecida como quadro de restauração instantânea de decodificação (IDR). O codificador 860 reparte a imagem de referência para selecionar blocos de movimento de 4 pixels por 4 pixels (4 x 4) e usa a predição unidirecional de quadros P para gerar um vetor de movimento para cada sub-bloco 4x4 da imagem de visão direita. É importante notar que o uso de um bloco de 4 pixels por 4 pixels é baseado na prática padrão. Entretanto, outros tamanhos de bloco podem ser usados com nível correspondente de diferenças nos resultados. O vetor de movimento para cada bloco 4x4 é usado para codificar a imagem de visão direita que é ar-mazenada no armazenador temporário de imagens codificadas 864. Como a saída desejada do processo de codificação é os vetores de movimento ao invés da imagem codificada real, os vetores de movimento são extraídos do sinal de imagem codificada e armazenados em um armazenador temporário de vetores de movimento 866, também mostrado como parte da memória 862. A informação armazenada no armazenador temporário de imagens codificadas 864 após a criação e o armazenamento dos vetores de movimento no armazenador temporário de vetores de movimento 866. À medida que necessário, o codificador 860 passa através das partes restantes do sinal de imagem para codificar o próximo par de imagens até que todas as imagens sejam processadas.
Aprecia-se que o armazenador temporário de imagens codificadas 864 e que o ar- mazenador temporário de movimento 866 podem residir em um único dispositivo de memória compartilhado 862 ou podem ser armazenadores temporários individuais separados. Na modalidade mostrada na FIG. 8 com um único dispositivo de memória compartilhado 862, um árbitro 863 é incluído. O árbitro 863 arbitra, ou gerencia, o acesso aos elementos de memória compartilhados da memória 862. Embora a FIG. 8 mostre somente dois clientes (isto é, o codificador 860 e o controlador 854) acessando o dispositivo de memória 862, na maioria dos sistemas práticos, há vários clientes independentes todos tentando acessar o mesmo dispositivo de memória, tal como o dispositivo de memória 862. Em outras modalidades, o acesso à memória pode ser individualmente controlado ou controlado por um controlador similar ao controle 854. É a função do árbitro 863 ter certeza de que cada cliente obtém acesso a um nível atribuído de prioridade e com suficiente largura de banda e latên- cia baixa o bastante para executar a tarefa atribuída a cada uma das unidades funcionais.
O sinal armazenado no armazenador temporário de vetores de movimento 866 é fil-trado para remover qualquer componente vertical de qualquer vetor de movimento gerado. O resultado filtrado é usado como uma indicação, com granularidade de nível de imagem de regiões de imagem de quatro pixels por quatro pixels, da disparidade horizontal entre as imagens da visão esquerda e da visão direita. Esse resultado filtrado, representado como uma entrada numérica, ou como algum outro indicador de diferença quantificável, é armazenado no armazenador temporário de disparidades 868, também mostrado como parte do dispositivo de memória 862. Aprecia-se que embora as funções acima sejam ilustradas e descritas como sendo executadas pelo codificador 860, uma ou mais das funções poderiam também ser implementadas pelo controlador 854 ou por hardware de função fixa ou uma combinação de hardware e software.
O arranjo de valores de disparidade horizontal armazenados no armazenador tem-porário de disparidade 868 pode ser ainda filtrado (por exemplo, espacialmente) levando em conta as diferenças no valor entre os valores de disparidade horizontalmente adjacentes. Por exemplo, considera-se um bloco de imagem 4x4 B com um bloco de imagem 4x4 A à sua esquerda imediata e um bloco de imagem 4x4 C à sua direita imediata. Se a disparidade entre as imagens da visão esquerda e da visão direita no bloco A é 6, e se a disparidade entre as imagens da visão esquerda e da visão direita no bloco B é 4, e se a disparidade entre as imagens da visão esquerda e da visão direita no bloco C é 2, então um deslocamento gradual é indicado na disparidade como uma função da progressão da posição espacial esquerda no par de imagens para a posição espacial direita no par de imagens. Assumindo-se que esse deslocamento é suave, o controlador 854 pode interpolar através do bloco de imagem 4x4 B atribuindo os pixels mais à esquerda com uma disparidade entre 4 e 6 e os pixels mais à direita com uma disparidade entre 4 e 2. Embora este exemplo somente considere, ou incorpore e processe, uma região 4x4 à esquerda e direita, outros filtros pode-riam ser empregados para incorporar regiões adicionais em qualquer direção. Em adição, os mesmos princípios de filtro podem ser aplicados na direção vertical para criar e processar um mapa de disparidade com granularidade de nível de pixel.
À medida que necessário, o codificador 860, ou alternativamente o controlador 854, gera um mapa de oclusão. Mudanças bruscas no valor de disparidade entre os blocos 4x4 horizontal ou verticalmente adjacentes fornecem uma indicação da existência de bordas entre objetos de campo adjacentes e objetos de campo distantes no par de imagens estéreo. Nessas bordas, é tipicamente o caso que o olho esquerdo é capaz de ver parte do objeto próximo ao campo que é bloqueada da visão para o olho direito; e igualmente, o olho direito terá uma visão de parte do objeto que é bloqueado para o olho esquerdo. Essas áreas de exclusividade mútua visual da visão entre o olho esquerdo e o direito criam oclusões que podem ser detectadas enquanto processando os vetores de disparidade e sinalizados para uma etapa de processamento de imagem posterior. Nas etapas de processamento de ima-gem posteriores, pode ser vantajoso aplicar um processamento diferente dessas regiões obstruídas versus o processamento aplicado à imagem total. Juntos, o mapa de disparidade de nível de pixel descrito acima e o mapa de oclusão formam um mapa denso de disparidade. Aprecia-se que há várias técnicas conhecidas na área para gerar um mapa denso de disparidade a partir do mapa de disparidade de nível de pixel e do mapa de oclusão.
Um mapa denso de disparidade de um sinal de vídeo estéreo revela a profundidade de convergência de cada par de pixels dentro do par de imagens estéreo. Quando essa in-formação é conhecida e identificada, o dispositivo de recebimento 800 é capaz de determinar como e onde nos gráficos de imagem sobreposições podem ser apresentadas de modo a evitar conflitos de profundidade desagradáveis entre vídeos e gráficos. Em adição, o mapa denso de disparidade pode ser usado de modo a permitir que o dispositivo de recebimento 800 modifique a profundidade 3D percebida de uma imagem estéreo aplicando um algoritmo de escalabilidade sensível à disparidade e à oclusão para uma ou ambas as imagens do par estéreo. Isso possibilita que o dispositivo de recebimento 800 implemente recursos tais como a profundidade 3D controlada por usuário.
A escalabilidade de profundidade usando escalabilidade sensível à disparidade e à oclusão permite a fácil modificação da faixa de profundidade percebida no par de imagens estéreo. Por exemplo, a faixa de profundidade em uma imagem pode ser identificada como a distância percebida entre o objeto mais distante atrás do plano da superfície de renderiza- ção da imagem e o objeto mais adiante na frente do plano da superfície de renderização da imagem. Essa faixa de profundidade representa um ‘volume’ estereoscópico visual. Em uma modalidade, o usuário pode controlar esse ‘volume’ estereoscópico visual com um simples controle de usuário, tal como um controle para cima/para baixo via a interface de usuário 870. O controle pode ser usado para aumentar ou diminuir a faixa percebida de profundidade na imagem estéreo. A interface de usuário 870 pode ser qualquer interface de usuário conhecida incluindo, mas não limitada a um dispositivo de controle remoto, uma pluralidade de botões dispostos no dispositivo de recebimento 804, uma tela de preferências de usuário gerada pelo dispositivo de recebimento 804 e exibida em um dispositivo de visualização, etc. Então, ao gerar um mapa denso de disparidade no dispositivo de recebimento 804, a esca- labilidade de profundidade controlada por usuário pode ser alcançada. Com relação à FIG. 9, um fluxograma de um processo exemplificado 900 para gerar o mapa denso de disparidade é mostrado. As etapas do processo 900 podem ser executadas no dispositivo de recebimento 800. As etapas do processo 900 podem ser similarmente executadas em outros receptores ou dispositivos de conexão à Internet via TV, tal como o receptor 204 descrito na FIG. 2 ou o dispositivo de recebimento 504 descrito na FIG. 5. Na etapa 902, o par decodificado de imagens da visão esquerda e da visão direita, como parte de um sinal, é recebido. O par decodificado de imagens da visão esquerda e da visão direita é fornecido por um sele- tor e pode ser um sinal de imagem 3D de metade da resolução ou um sinal de imagem 3D de resolução total. Ademais, o sinal de imagem 3D de resolução total pode incluir uma parte convertida de taxa de amostragem do sinal de imagem 3D de metade da resolução como descrito acima. A etapa 902 pode também incluir armazenar as imagens na memória, tal como o armazenador temporário de imagens codificadas 864.
Na etapa 904, a imagem de visão esquerda é configurada como sendo a imagem de referência ou IDR. Embora cada imagem possa ser configurada como a imagem de refe-rência, é vantajoso usar a imagem de visão esquerda porque, como descrito acima, a ima-gem de visão esquerda é uma imagem de resolução total, reduzindo ou eliminando assim a presença de artefatos de imagem na imagem de referência. Em seguida, na etapa 906, o tamanho e a repartição dos blocos de movimento são selecionados. Como descrito acima, o tamanho do bloco de movimento pode de 4x4 pixels, entretanto, outros tamanhos de blocos são possíveis. Na etapa 908, os vetores de movimento são gerados usando a predição uni- direcional de quadros P para cada um dos sub-blocos correspondentes da imagem de visão direita com relação à imagem de visão esquerda. Em seguida, na etapa 910, os vetores de movimento gerados para os sub-blocos são usados para codificar a imagem de visão direita.
Na etapa 612, o conjunto final de vetores de movimento das etapas 908 e 910 é armazenado em uma memória, tal como o armazenador temporário de vetores de movimento 866. No processo 900 descrito dessa maneira, as imagens da visão esquerda e da visão direita são processadas como elas existissem temporalmente ao invés de espacialmente. Em outras palavras, embora as imagens esquerda e direita sejam destinadas a serem visualizadas simultaneamente no tempo, o processamento de movimento é executado como se as ima-gens da visão esquerda e da visão direita ocorressem consecutivamente no tempo.
Na etapa 914, os conteúdos da memória armazenando as imagens codificadas (por exemplo, armazenador temporário de imagens codificadas 864) são descartados, ou apaga-dos, uma vez que a saída desejada das etapas de processo de codificação descritas acima é os vetores de movimento ao invés da imagem codificada real. A partir da etapa 914, o pro-cesso 900 retorna para a etapa 904 para codificar quaisquer pares ou partes de imagem restantes até que todos os pares de imagem são codificados e os vetores de movimento processados.
Em seguida, na etapa 916, um mapa granular de disparidade é gerado e armazenado por conjuntos de filtração de vetores de movimento. O mapa granular de disparidade é uma indicação, com granularidade de nível de imagem de tamanho de sub-bloco igual selecionado na etapa 906, da disparidade horizontal entre as imagens da visão esquerda e da visão direita. Em uma modalidade, os vetores de movimento para um conjunto de três sub- blocos de movimento consecutivamente localizados são comparados e quantificados para determinar valores de disparidade adjacentes. O arranjo de valores de disparidade horizontais pode então ser filtrado, ou interpolado, na etapa 920, levando em conta as diferenças em valor entre os valores de disparidade horizontalmente adjacentes e ainda verticalmente interpolados de uma maneira similar à descrita acima para determinar um mapa de disparidade de nível de pixel.
Em seguida, na etapa 922, um mapa de oclusão é gerado. Como discutido acima, quaisquer mudanças no valor de disparidade entre os blocos horizontal ou verticalmente adjacentes podem ser uma indicação de bordas entre objetos próximos ao campo e distantes do campo no par de imagens estéreo. O mapa de oclusão pode ser gerado na etapa 922 usando quaisquer vetores de movimento originais armazenados na etapa 912, ou os mapas de disparidade gerados nas etapas 916 e/ou 920. Na última, o mapa de oclusão pode ser gerado a partir dos vetores de movimento por filtração ou interpolação dos vetores de movi-mento de maneira a reforçar a presença de bordas. Finalmente, na etapa 924, o mapa de disparidade de nível de pixel gerado na etapa 920 e o mapa de oclusão gerado na etapa 922 são combinados para formar um mapa denso de disparidade. Aprecia-se que há várias técnicas conhecidas na área para gerar um mapa denso de disparidade a partir do mapa de disparidade de nível de pixel e o mapa de oclusão. Como descrito acima, a disparidade den- sa pode ser usada para permitir tais recursos como uma faixa de profundidade ajustável pelo usuário na imagem 3D.
As modalidades descritas nas FIGs. 8 e 9 referem-se a gerar um mapa denso de disparidade em um dispositivo de recebimento. As modalidades incluem receber um sinal que inclui um fluxo de bits desejado. O fluxo de bits desejado pode ainda incluir, e ser separado em um ou mais fluxos de bits representando um sinal de imagem 2D de resolução total como uma única imagem do olho esquerdo ou do olho direito e um sinal de imagem 3D de resolução parcial ou reduzida (por exemplo, metade) contendo uma imagem do olho esquerdo de resolução reduzida e uma imagem do olho direito de resolução reduzida. Os fluxos de bits são decodificados de modo a produzir um sinal tendo uma imagem do olho esquerdo e uma imagem do olho direito, ou em resolução total ou em resolução reduzida. As modalidades ainda descrevem codificar a imagem do olho esquerdo como uma imagem de referência, codificar preditivamente a imagem do olho direito usando a imagem do olho esquerdo codificada como a imagem de referência, capturar os indicadores de movimento gerados durante a codificação da imagem do olho direito, e gerar um mapa denso de disparidade entre a imagem do olho esquerdo e a imagem do olho direito usando os indicadores de movimento.
Embora as modalidades que incorporam os ensinamentos da presente descrição tenham sido mostradas e descritas em detalhes aqui, os versados na técnica podem pron-tamente desenvolver muitas outras modalidades variadas que ainda incorporem esses ensi-namentos. Tendo descrito as modalidades preferenciais de sistemas e métodos de baixa largura de banda para codificar e transmitir vídeo 2D de resolução total, vídeo 3D de resolu-ção total e vídeo 3D de metade da resolução (que são destinadas a serem ilustrativas e não limitantes), nota-se que as modificações e variações podem ser feitas por versados na técnica face aos ensinamentos acima. Entende-se então que mudanças podem ser feitas nas modalidades particulares da descrição descrita, as quais estão dentro do escopo da descrição traçada pelas reivindicações em anexo.

Claims (16)

1. Método, CARACTERIZADO pelo fato de que compreende as etapas de: receber (702) um sinal de dados, o sinal de dados incluindo um primeiro sinal de ví-deo representando uma imagem bidimensional em uma primeira resolução de vídeo e um segundo sinal de vídeo representando uma imagem tridimensional, o segundo sinal de vídeo incluindo pelo menos uma imagem de tela dividida de metade da resolução incluindo uma imagem de visão esquerda de metade da resolução e uma imagem de visão direita de me-tade da resolução; decodificar (706) o primeiro sinal de vídeo se um tipo de tela de saída é um tipo de tela bidimensional; decodificar (704) o segundo sinal de vídeo se o tipo de tela de saída é um primeiro tipo de tela tridimensional; e decodificar (706, 704) o primeiro sinal de vídeo e o segundo sinal de vídeo simulta-neamente se o tipo de tela de saída é um segundo tipo de tela tridimensional.
2. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o primeiro sinal de vídeo inclui uma imagem de visão esquerda.
3. Método, de acordo com a reivindicação 2, CARACTERIZADO pelo fato de que a etapa de decodificar o primeiro e o segundo sinais inclui converter (708) uma parte do se-gundo sinal de vídeo para corresponder a um tamanho de imagem do primeiro sinal de vídeo.
4. Método, de acordo com a reivindicação 3, CARACTERIZADO pelo fato de que a etapa de converter (708) uma parte do segundo sinal de vídeo para corresponder a um ta-manho de imagem do primeiro sinal de vídeo inclui escalar a imagem de visão direita de resolução reduzida para a resolução do primeiro sinal de vídeo.
5. Método, de acordo com a reivindicação 4, CARACTERIZADO pelo fato de que a imagem de visão direita escalada é pelo menos uma dentre uma imagem dividida na hori-zontal 1080i e uma imagem dividida na vertical 720p.
6. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que as etapas de receber o sinal de dados e decodificar são executadas em um decodificador de sinal de televisão.
7. Aparelho para processar conteúdo, CARACTERIZADO pelo fato de que compre-ende: um receptor de sinal (534) que recebe um sinal de dados (532), o sinal de dados in-cluindo um primeiro sinal de vídeo (526) representando uma imagem bidimensional em uma primeira resolução de vídeo e um segundo sinal de vídeo (522) representando uma imagem tridimensional, o segundo sinal de vídeo (522) incluindo pelo menos uma imagem de tela dividida de metade da resolução incluindo uma imagem de visão esquerda de metade da resolução e uma imagem de visão direita de metade da resolução; pelo menos um decodificador (538, 544) que decodifica o primeiro sinal de vídeo (526) se um tipo de tela de saída é um tipo de tela bidimensional, decodifica o segundo sinal de vídeo (522) se o tipo de tela de saída é um primeiro tipo de tela tridimensional, e decodifica o primeiro sinal de vídeo e o segundo sinal de vídeo (526, 522) simulta-neamente se o tipo de tela de saída é um segundo tipo de tela tridimensional.
8. Aparelho, de acordo com a reivindicação 7, CARACTERIZADO pelo fato de que compreende adicionalmente: uma interface (552) acoplada ao pelo menos um decodificador (538, 544) que recebe o sinal decodificado e emite o sinal decodificado a um dispositivo de visualização, em que a interface (552) determina o tipo de tela de saída.
9. Aparelho, de acordo com a reivindicação 8, CARACTERIZADO pelo fato de que o primeiro sinal de vídeo (526) inclui pelo menos uma imagem de visão esquerda.
10. Aparelho, de acordo com a reivindicação 9, CARACTERIZADO pelo fato de que compreende adicionalmente um conversor de taxa de amostragem (556) que converte uma parte do segundo sinal de vídeo para corresponder a um tamanho de imagem do primeiro sinal de vídeo.
11. Aparelho, de acordo com a reivindicação 10, CARACTERIZADO pelo fato de que o conversor de taxa de amostragem (556) escala a imagem de visão direita de metade da resolução para a resolução da pelo menos uma imagem de visão esquerda.
12. Aparelho para processar conteúdo, CARACTERIZADO pelo fato de que com-preende: dispositivo para receber (534) um sinal de dados, o sinal de dados incluindo um primeiro sinal de vídeo representando uma imagem bidimensional em uma primeira resolução de vídeo e um segundo sinal de vídeo representando uma imagem tridimensional, o segundo sinal de vídeo (522) incluindo pelo menos uma imagem de tela dividida de metade da resolução incluindo uma imagem de visão esquerda de metade da resolução e uma imagem de visão direita de metade da resolução; dispositivo para decodificar (554) o primeiro sinal de vídeo se um tipo de tela de saída é um tipo de tela bidimensional; dispositivo para decodificar (538) o segundo sinal de vídeo se o tipo de tela de saída é um primeiro tipo de tela tridimensional; e dispositivo para decodificar (538, 554) o primeiro sinal de vídeo e o segundo sinal de vídeo simultaneamente se o tipo de tela de saída é um segundo tipo de tela tridimensional.
13. Aparelho, de acordo com a reivindicação 12, CARACTERIZADO pelo fato de que o primeiro sinal de vídeo inclui pelo menos uma imagem de visão esquerda.
14. Aparelho, de acordo com a reivindicação 12, CARACTERIZADO pelo fato de que o dispositivo para decodificar (538, 554) o primeiro e o segundo sinais inclui dispositivo para converter (556) uma parte do segundo sinal de vídeo para corresponder a um tamanho de imagem do primeiro sinal de vídeo.
15. Método para processar um sinal, CARACTERIZADO pelo fato de que compre-ende: receber (702) um sinal, o sinal incluindo um primeiro sinal de vídeo representando uma imagem bidimensional em uma primeira resolução de vídeo e um segundo sinal de vídeo representando uma imagem tridimensional, o segundo sinal de vídeo incluindo pelo menos uma imagem de tela dividida de metade da resolução incluindo uma imagem de visão esquerda de metade da resolução e uma imagem de visão direita de metade da resolução; determinar (712) um tipo de dispositivo de visualização para visualizar conteúdo de vídeo; decodificar (706) o primeiro sinal de vídeo; decodificar (704) o segundo sinal de vídeo; e fornecer (714) um sinal de saída ao dispositivo de visualização, o sinal de saída in-cluindo uma combinação do primeiro sinal de vídeo decodificado e uma parte do segundo sinal de vídeo decodificado se o tipo de dispositivo de visualização é um dispositivo de visu-alização tridimensional.
16. Aparelho para processar um sinal, CARACTERIZADO pelo fato de que com-preende: dispositivo para receber (534) um sinal de dados, o sinal de dados incluindo um primeiro sinal de vídeo representando uma imagem bidimensional em uma primeira resolução de vídeo e um segundo sinal de vídeo representando uma imagem tridimensional, o segundo sinal de vídeo (522) incluindo pelo menos uma imagem de tela dividida de metade da resolução incluindo uma imagem de visão esquerda de metade da resolução e uma imagem de visão direita de metade da resolução; dispositivo para determinar (554) um tipo de dispositivo de visualização para visua-lizar conteúdo de vídeo; dispositivo para decodificar (544) o primeiro sinal de vídeo; dispositivo para decodificar (538) o segundo sinal de vídeo; e dispositivo para fornecer (552) um sinal de saída ao dispositivo de visualização, o sinal de saída incluindo uma combinação do primeiro sinal de vídeo decodificado e uma parte do segundo sinal de vídeo decodificado se o tipo de dispositivo de visualização é um dis-positivo de visualização tridimensional.
BR112012020471-8A 2010-02-15 2011-02-15 Aparelho e método para processar conteúdo de vídeo, e aparelho e método para processar um sinal BR112012020471B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US30471810P 2010-02-15 2010-02-15
US61/304,718 2010-02-15
PCT/US2011/024831 WO2011100735A1 (en) 2010-02-15 2011-02-15 Apparatus and method for processing video content

Publications (2)

Publication Number Publication Date
BR112012020471A2 BR112012020471A2 (pt) 2016-05-17
BR112012020471B1 true BR112012020471B1 (pt) 2021-09-21

Family

ID=43897306

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112012020471-8A BR112012020471B1 (pt) 2010-02-15 2011-02-15 Aparelho e método para processar conteúdo de vídeo, e aparelho e método para processar um sinal

Country Status (7)

Country Link
US (2) US9077966B2 (pt)
EP (1) EP2537347B1 (pt)
JP (1) JP6013920B2 (pt)
KR (1) KR101787133B1 (pt)
CN (1) CN102763421B (pt)
BR (1) BR112012020471B1 (pt)
WO (1) WO2011100735A1 (pt)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102484729B (zh) 2009-04-07 2016-08-24 Lg电子株式会社 广播发送器、广播接收器及其3d视频数据处理方法
US20120314023A1 (en) * 2010-02-24 2012-12-13 Jesus Barcons-Palau Split screen for 3d
US9930316B2 (en) * 2013-08-16 2018-03-27 University Of New Brunswick Camera imaging systems and methods
US9521418B2 (en) 2011-07-22 2016-12-13 Qualcomm Incorporated Slice header three-dimensional video extension for slice header prediction
US11496760B2 (en) 2011-07-22 2022-11-08 Qualcomm Incorporated Slice header prediction for depth maps in three-dimensional video codecs
US9288505B2 (en) 2011-08-11 2016-03-15 Qualcomm Incorporated Three-dimensional video with asymmetric spatial resolution
EP2742693A4 (en) * 2011-08-12 2015-04-08 Motorola Mobility Inc METHOD AND DEVICE FOR CODING AND TRANSMITTING 3D VIDEO SEQUENCES IN A WIRELESS COMMUNICATION SYSTEM
CN102271272B (zh) * 2011-08-19 2014-12-17 深圳超多维光电子有限公司 2d图像和3d图像的图像数据存储、传输方法和装置
JP2013066075A (ja) * 2011-09-01 2013-04-11 Sony Corp 送信装置、送信方法および受信装置
JP5813236B2 (ja) 2011-09-16 2015-11-17 ドルビー ラボラトリーズ ライセンシング コーポレイション フレーム互換なフル解像度立体視3d圧縮および復元
US9485503B2 (en) 2011-11-18 2016-11-01 Qualcomm Incorporated Inside view motion prediction among texture and depth view components
CN102413350B (zh) * 2011-11-30 2014-04-16 四川长虹电器股份有限公司 蓝光3d视频处理方法
WO2013089770A1 (en) 2011-12-16 2013-06-20 Intel Corporation Resolution loss mitigation for 3d displays
CN103379357B (zh) * 2012-04-26 2015-12-16 联咏科技股份有限公司 图像处理装置
CN104662898A (zh) * 2012-08-17 2015-05-27 摩托罗拉移动有限责任公司 从三维视频回退
US10264241B2 (en) * 2013-02-12 2019-04-16 Comcast Cable Communications, Llc Complimentary video content
WO2015016913A1 (en) * 2013-07-31 2015-02-05 Empire Technology Development Llc Encoding scheme
US9348495B2 (en) 2014-03-07 2016-05-24 Sony Corporation Control of large screen display using wireless portable computer and facilitating selection of audio on a headphone
JP2016032227A (ja) * 2014-07-29 2016-03-07 日立マクセル株式会社 映像表示システム、三次元映像ポインティング装置、および映像表示装置
KR102288087B1 (ko) * 2014-11-25 2021-08-10 엘지전자 주식회사 멀티미디어 디바이스 및 그 제어 방법
WO2018101514A1 (ko) * 2016-12-01 2018-06-07 엘지전자 주식회사 영상표시장치, 및 이를 구비하는 영상표시 시스템
CN108833878A (zh) * 2018-06-15 2018-11-16 深圳超多维科技有限公司 视频拍摄方法、装置及系统
CN108769643A (zh) * 2018-06-15 2018-11-06 深圳超多维科技有限公司 视频拍摄方法、装置及系统
KR102581186B1 (ko) 2018-10-12 2023-09-21 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5612735A (en) 1995-05-26 1997-03-18 Luncent Technologies Inc. Digital 3D/stereoscopic video compression technique utilizing two disparity estimates
JP4056154B2 (ja) 1997-12-30 2008-03-05 三星電子株式会社 2次元連続映像の3次元映像変換装置及び方法並びに3次元映像の後処理方法
JP3365333B2 (ja) * 1999-03-03 2003-01-08 日本電気株式会社 解像度変換装置
KR100397511B1 (ko) * 2001-11-21 2003-09-13 한국전자통신연구원 양안식/다시점 3차원 동영상 처리 시스템 및 그 방법
KR100523052B1 (ko) * 2002-08-30 2005-10-24 한국전자통신연구원 다중 디스플레이 방식을 지원하는 다시점 동영상의 객체 기반 부호화 장치 및 그 방법과 그를 이용한 객체 기반 송수신 시스템 및 그 방법
KR100523930B1 (ko) 2003-01-13 2005-10-26 전자부품연구원 다시점 영상의 압축/복원장치
US7046306B2 (en) * 2003-03-31 2006-05-16 Texas Instruments Incorporated Processing a video signal using motion estimation to separate luminance information from chrominance information in the video signal
KR100556826B1 (ko) * 2003-04-17 2006-03-10 한국전자통신연구원 Mpeg-4 기반의 양안식 3차원 동영상을 서비스하기 위한 인터넷 방송 시스템 및 그 방법
US7515759B2 (en) * 2004-07-14 2009-04-07 Sharp Laboratories Of America, Inc. 3D video coding using sub-sequences
EP1781046A4 (en) * 2004-08-18 2010-01-20 Sharp Kk IMAGE DATA DISPLAY APPARATUS
JP4602737B2 (ja) 2004-10-25 2010-12-22 シャープ株式会社 映像表示装置
KR100813961B1 (ko) * 2005-06-14 2008-03-14 삼성전자주식회사 영상 수신장치
KR100657322B1 (ko) * 2005-07-02 2006-12-14 삼성전자주식회사 로컬 3차원 비디오를 구현하기 위한 인코딩/디코딩 방법 및장치
JP2007066012A (ja) * 2005-08-31 2007-03-15 Toshiba Corp 映像描画装置、方法およびプログラム
US7742046B2 (en) * 2005-08-31 2010-06-22 Kabushiki Kaisha Toshiba Method, device, and program for producing elemental image array for three-dimensional image display
JP4706638B2 (ja) 2006-09-29 2011-06-22 セイコーエプソン株式会社 表示装置、画像処理方法並びに電子機器
US8594180B2 (en) * 2007-02-21 2013-11-26 Qualcomm Incorporated 3D video encoding
KR101345303B1 (ko) 2007-03-29 2013-12-27 삼성전자주식회사 스테레오 또는 다시점 영상의 입체감 조정 방법 및 장치
KR100839429B1 (ko) 2007-04-17 2008-06-19 삼성에스디아이 주식회사 전자 영상 기기 및 그 구동방법
US8373744B2 (en) 2007-06-07 2013-02-12 Reald Inc. Stereoplexing for video and film applications
MY162861A (en) * 2007-09-24 2017-07-31 Koninl Philips Electronics Nv Method and system for encoding a video data signal, encoded video data signal, method and system for decoding a video data signal
KR20090035427A (ko) 2007-10-05 2009-04-09 한국전자통신연구원 단일시점 또는 다시점 비디오 부호화와 복호화 방법 및 그 장치
WO2009091383A2 (en) 2008-01-11 2009-07-23 Thomson Licensing Video and depth coding
JP5351146B2 (ja) * 2008-05-01 2013-11-27 パナソニック株式会社 再生装置、光ディスク再生システム、プログラム、集積回路
JP5338166B2 (ja) 2008-07-16 2013-11-13 ソニー株式会社 送信装置、立体画像データ送信方法、受信装置および立体画像データ受信方法
US20100177162A1 (en) 2009-01-15 2010-07-15 Charles Macfarlane Method and system for enabling 3d video and image processing using one full resolution video stream and one lower resolution video stream
CA2760100C (en) * 2009-04-27 2015-12-08 Lg Electronics Inc. Broadcast transmitter, broadcast receiver and 3d video data processing method thereof

Also Published As

Publication number Publication date
US20150201177A1 (en) 2015-07-16
EP2537347A1 (en) 2012-12-26
KR20130008548A (ko) 2013-01-22
US20120300031A1 (en) 2012-11-29
CN102763421B (zh) 2015-08-26
US9077966B2 (en) 2015-07-07
CN102763421A (zh) 2012-10-31
WO2011100735A1 (en) 2011-08-18
EP2537347B1 (en) 2019-06-05
JP2013526094A (ja) 2013-06-20
BR112012020471A2 (pt) 2016-05-17
JP6013920B2 (ja) 2016-10-25
US9148646B2 (en) 2015-09-29
KR101787133B1 (ko) 2017-10-18

Similar Documents

Publication Publication Date Title
US9148646B2 (en) Apparatus and method for processing video content
US8988506B2 (en) Transcoder supporting selective delivery of 2D, stereoscopic 3D, and multi-view 3D content from source video
JP5890318B2 (ja) ディスプレイにビデオ・コンテンツを供給する方法および装置
TWI520567B (zh) ㄧ種用於視頻處理的方法和系統
JP2007536825A (ja) 立体テレビジョン信号処理方法、送信システムおよびビユーア拡張装置
US8836758B2 (en) Three-dimensional image processing apparatus and method of controlling the same
US20110149020A1 (en) Method and system for video post-processing based on 3d data
JP6040932B2 (ja) 立体視に対応したビデオストリームを生成、再構築する方法、および関連する符号化および復号化デバイス
JP2013526094A5 (pt)
US20120050476A1 (en) Video processing device
BR112012022448A2 (pt) método e aparelho para conversão de conteúdo de vídeo bidimensional para inserção em conteúdo de vídeo tridimensional
US9628769B2 (en) Apparatus and method for generating a disparity map in a receiving device
US20110149040A1 (en) Method and system for interlacing 3d video
Coll et al. 3D TV at home: Status, challenges and solutions for delivering a high quality experience
EP2309766A2 (en) Method and system for rendering 3D graphics based on 3D display capabilities
US20110150355A1 (en) Method and system for dynamic contrast processing for 3d video
US20110149021A1 (en) Method and system for sharpness processing for 3d video
Cubero et al. Providing 3D video services: The challenge from 2D to 3DTV quality of experience
JP2012222426A (ja) 映像配信システム、映像送信装置、及び映像再生装置
Vetro 3D in the Home: Mass Market or Niche?

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B25A Requested transfer of rights approved

Owner name: THOMSON LICENSING DTV (FR)

B25A Requested transfer of rights approved

Owner name: INTERDIGITAL MADISON PATENT HOLDINGS (FR)

B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 15/02/2011, OBSERVADAS AS CONDICOES LEGAIS. PATENTE CONCEDIDA CONFORME ADI 5.529/DF, QUE DETERMINA A ALTERACAO DO PRAZO DE CONCESSAO.