BRPI0710048A2 - método e aparelho para decodificar / codificar um sinal de vìdeo - Google Patents

método e aparelho para decodificar / codificar um sinal de vìdeo Download PDF

Info

Publication number
BRPI0710048A2
BRPI0710048A2 BRPI0710048-5A BRPI0710048A BRPI0710048A2 BR PI0710048 A2 BRPI0710048 A2 BR PI0710048A2 BR PI0710048 A BRPI0710048 A BR PI0710048A BR PI0710048 A2 BRPI0710048 A2 BR PI0710048A2
Authority
BR
Brazil
Prior art keywords
image
view
information
reference image
macroblock
Prior art date
Application number
BRPI0710048-5A
Other languages
English (en)
Inventor
Byeong Moon Jeon
Seung Wook Park
Han Suh Koo
Yong Joon Jeon
Ji Ho Park
Original Assignee
Lg Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lg Electronics Inc filed Critical Lg Electronics Inc
Publication of BRPI0710048A2 publication Critical patent/BRPI0710048A2/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Abstract

MéTODO E APARELHO PARA DECODIFICAR 1 CODIFICAR UM SINAL DE VIDEO A presente invenção fornece um método para decodificar um sinal de vídeo. O método inclui as etapas de verificar um esquema de codificação do sinal de vídeo, obter informação de configuração para o sinal de vídeo de acordo com o esquema de codificação, reconhecer um número total de visualizações usando a informação de configuração, reconhecer informação de referência inter-visualização com base no número total de visualizações, e decodificar o sinal de vídeo com base na informação de referência inter-visualização, em que a informação de configuração inclui pelo menos informação de visualização para identificar uma visualização do sinal de vídeo.

Description

"MÉTODO E APARELHO PARA DECODIFICAR / CODIFICAR UM 'SINAL DEVÍDEO"
CAMPO TÉCNICO
A presente invenção diz respeito a um método para codificar / decodificar um sinalde vídeo e a um aparelho deste.
ANTECEDENTES DA INVENÇÃO
Codificação de compressão significa uma série de técnicas de processamento desinal para transmitir informação digitalizada por meio de circuito de comunicação ou paraarmazenar informação digitalizada de uma forma adequada em uma mídia dearmazenamento. Objetos para a codificação de compressão incluem áudio, vídeo, texto econgêneres. Em particular, uma técnica para realizar codificação de compressão em umaseqüência é chamada de compressão de seqüência de vídeo. No geral, a seqüência devídeo é caracterizada por ter redundância espacial e redundância temporal.
DIVULGAÇÃO DA INVENÇÃOOBJETIVO TÉCNICO
O objetivo da presente invenção é melhorar a eficiência de codificação de um sinalde vídeo.
SOLUÇÃO TÉCNICA
Um objetivo da presente invenção é codificar um sinal de vídeo eficientemente peladefinição de informação de visualização para identificar uma visualização de imagem.
Um outro objetivo da presente invenção é melhorar a eficiência de codificação pelacodificação de um sinal de vídeo com base em informação de referência intervisualização.
Um outro objetivo da presente invenção é fornecer escalabilidade de visualizaçãode um sinal de vídeo pela definição de informação de nível de visualização.
Um outro objetivo da presente invenção é codificar um sinal de vídeoeficientemente pela definição de um identificador de prognóstico de síntese intervisualizaçãoque indica se deve-se obter uma imagem de uma visualização virtual.
EFEITOS VANTAJOSOS
Na codificação de um sinal de vídeo, a presente invenção permite que a codificaçãoseja mais eficientemente realizada pela execução de prognóstico intervisualização usandoinformação de visualização para identificar uma visualização de imagem. E, pela recém-definição de informação de nível que indica informação para uma estrutura hierárquica parafornecer escalabilidade de visualização, a presente invenção pode fornecer uma seqüênciade visualização adequada para um usuário. Além do mais, pela definição de umavisualização correspondente a um nível mais inferior como uma visualização de referência, apresente invenção fornece compatibilidade com um decodificador convencional. Além disto,a presente invenção melhora a eficiência de codificação, decidindo se prognostica umaimagem de uma visualização virtual na realização do prognóstico intervisualização. No casode prognosticar uma imagem de uma visualização virtual, a presente invenção habilitaprognóstico mais preciso, reduzindo assim o número de bits a ser transmitidos.
DESCRIÇÃO RESUMIDA DOS DESENHOS
A figura 1 é um diagrama de blocos esquemático de um aparelho para decodificarum sinal de vídeo de acordo com a presente invenção.
A figura 2 é um diagrama de informação de configuração para um vídeomultivisualização adicionável em um fluxo contínuo de bits de vídeo multivisualizaçãocodificado de acordo com uma modalidade da presente invenção.
A figura 3 é um diagrama de blocos interno de uma unidade de construção de listade imagem de referência 620 de acordo com uma modalidade da presente invenção.
A figura 4 é um diagrama de uma estrutura hierárquica da informação de nível parafornecer escalabilidade de visualização de um sinal de vídeo de acordo com umamodalidade da presente invenção.
A figura 5 é um diagrama de uma configuração de unidade NAL que incluiinformação de nível em uma área de extensão de um cabeçalho NAL de acordo com umamodalidade da presente invenção.
A figura 6 é um diagrama de uma estrutura de prognóstico geral de um sinal devídeo multivisualização de acordo com uma modalidade da presente invenção para explicarum conceito de um grupo de imagem intervisualização.
A figura 7 é um diagrama de uma estrutura de prognóstico de acordo com umamodalidade da presente invenção para explicar um conceito de um grupo de imagemintervisualização recém-definido.
A figura 8 é um diagrama de blocos esquemático de um aparelho para decodificarum vídeo multivisualização que usa informação de identificação de grupo de imagemintervisualização de acordo com uma modalidade da presente invenção.
A figura 9 é um fluxograma de um processo para construir uma lista de imagem dereferência de acordo com uma modalidade da presente invenção.
A figura 10 é um diagrama para explicar um método para a inicialização de umalista de imagem de referência quando uma fatia atual for uma fatia P de acordo com umamodalidade da presente invenção.
A figura 11 é um diagrama para explicar um método para inicializar uma lista deimagem de referência quando uma fatia atual for uma fatia B de acordo com umamodalidade da presente invenção.
A figura 12 é um diagrama de blocos interno de uma unidade de reordenação delista de imagem de referência 630 de acordo com uma modalidade da presente invenção.
A figura 13 é um diagrama de blocos interno de uma unidade de mudança deatribuição de índice de referência 643B ou 645B de acordo com uma modalidade da ··'presente invenção.
A figura 14 é um diagrama para explicar um processo para reordenar uma lista deimagem de referência usando informação de visualização de acordo com uma modalidadeda presente invenção.
A figura 15 é um diagrama de blocos interno de uma unidade de reordenação delista de imagem de referência 630 de acordo com uma outra modalidade da presenteinvenção.
A figura 16 é um diagrama de blocos interno de uma unidade de reordenação delista de imagem de referência 970 para prognóstico intervisualização de acordo com umamodalidade da presente invenção.
A figura 17 e a figura 18 são diagramas de sintaxe para reordenação de lista deimagem de referência de acordo com uma modalidade da presente invenção.
A figura 19 é um diagrama de sintaxe para reordenação de lista de imagem dereferência de acordo com uma outra modalidade da presente invenção.
A figura 20 é um diagrama de um processo para obter um valor de diferença deiluminação de um bloco atual de acordo com uma modalidade da presente invenção.
A figura 21 é um fluxograma de um processo para realizar compensação deiluminação de um bloco atual de acordo com uma modalidade da presente invenção.
A figura 22 é um diagrama de um processo para obter um valor de prognóstico dediferença de iluminação de um bloco atual usando informação para um bloco vizinho deacordo com uma modalidade da presente invenção.
A figura 23 é um fluxograma de um processo para realizar compensação deiluminação usando informação para um bloco vizinho de acordo com uma modalidade dapresente invenção.
A figura 24 é um fluxograma de um processo para realizar compensação deiluminação usando informação para um bloco vizinho de acordo com uma outra modalidadeda presente invenção.
A figura 25 é um diagrama de um processo para prognosticar uma imagem atualusando uma imagem em uma visualização virtual de acordo com uma modalidade dapresente invenção.
A figura 26 é um fluxograma de um processo para sintetizar uma imagem em umavisualização virtual na realização de um prognóstico intervisualização na MVC de acordocom uma modalidade da presente invenção.
A figura 27 é um fluxograma de um método para executar um prognósticoponderado de acordo com um tipo de fatia na codificação de sinal de vídeo de acordo com apresente invenção.A figura 28 é um diagrama de tipos de macroblocos permitidos em um tipo de fatiana codificação de sinal de vídeo de acordo com a presente invenção.
A figura 29 e a figura 30 são diagramas de sintaxe para executar um prognósticoponderado de acordo com um tipo de fatia recém-definido de acordo com uma modalidadeda presente invenção.
A figura 31 é um fluxograma de um método para executar um prognósticoponderado usando informação de indicador que indica se deve-se executar prognósticoponderado intervisualização na codificação de sinal de vídeo de acordo com a presenteinvenção.
A figura 32 é um diagrama para explicar um método de prognóstico ponderado deacordo com uma informação de indicador que indica se deve-se executar um prognósticoponderado usando informação para uma imagem em uma visualização diferente daquela deuma imagem atual de acordo com uma modalidade da presente invenção.
A figura 33 é um diagrama de sintaxe para executar um prognóstico ponderado deacordo com uma informação de indicador recém-definida de acordo com uma modalidadeda presente invenção.
A figura 34 é um fluxograma de um método para executar um prognósticoponderado de acordo com um tipo de unidade NAL (camada de abstração de rede) deacordo com uma modalidade da presente invenção.
A figura 35 e a figura 36 são diagramas de sintaxe para executar um prognósticoponderado no caso em que um tipo de unidade NAL for para codificação de vídeomultivisualização de acordo com uma modalidade da presente invenção.
A figura 37 é um diagrama de blocos parcial de um aparelho de decodificação desinal de vídeo de acordo com um tipo de fatia recém-definido de acordo com umamodalidade da presente invenção.
A figura 38 é um fluxograma para explicar um método para decodificar um sinal devídeo no aparelho mostrado na figura 37 de acordo com a presente invenção.
A figura 39 é um diagrama de um modo de prognóstico de macrobloco de acordocom uma modalidade da presente invenção.
A figura 40 e a figura 41 são diagramas de sintaxe com modo de tipo de fatia e demacrobloco aplicados de acordo com a presente invenção.
A figura 42 é um diagrama de modalidades nas quais os tipos de fatia da figura 41são aplicados.
A figura 43 é um diagrama de várias modalidades do tipo de fatia incluído nos tiposde fatia mostrados na figura 41.
A figura 44 é um diagrama de um macrobloco permitido para um tipo de fatiamisturado pelo prognóstico de dois prognósticos misturados de acordo com uma modalidadeda presente invenção. '
As figuras 45 a 47 são diagramas de um tipo de macrobloco de um macroblocoexistente em uma fatia misturada pelo prognóstico de dois prognósticos misturados deacordo com uma modalidade da presente invenção.
A figura 48 é um diagrama de blocos parcial de um aparelho de codificação de sinalde vídeo de acordo com um tipo de fatia recém-definido de acordo com uma modalidade dapresente invenção.
A figura 49 é um fluxograma de um método para codificar um sinal de vídeo noaparelho mostrado na figura 48 de acordo com a presente invenção.
MELHOR MODO PARA REALIZAR A INVENÇÃO
Para alcançar estas e outras vantagens e, de acordo com o propósito da presenteinvenção, da forma concebida e descrita no geral, um método para decodificar um sinal devídeo inclui as etapas de verificar e codificar esquema do sinal de vídeo, obter informaçãode configuração para o sinal de vídeo de acordo com o esquema de codificação, reconhecerum número total de visualizações usando a informação de configuração, reconhecerinformação de referência intervisualização com base no número total de visualizações, edecodificar o sinal de vídeo com base na informação de referência intervisualização, em quea informação de configuração inclui pelo menos informação de visualização para identificaruma visualização do sinal de vídeo.
Para alcançar adicionalmente estas e ainda outras vantagens e, de acordo com opropósito da presente invenção, um método para decodificar um sinal de vídeo inclui asetapas de verificar um esquema de codificação do sinal de vídeo, obter informação deconfiguração para o sinal de vídeo de acordo com o'esquema de codificação, verificar umnível para escalabilidade de visualização do sinal de vídeo a partir da informação deconfiguração, reconhecer informação de referência de intervisualização usando ainformação de configuração, e decodificar o sinal de vídeo com base no nível e nainformação de referência intervisualização, em que a informação de configuração incluiinformação de visualização para identificar uma visualização da imagem.MODO PARA A INVENÇÃO
Agora, será feita referência com detalhes às modalidades preferidas da presenteinvenção, exemplos das quais estão ilustrados nos desenhos anexos.
A técnica para comprimir e codificar dados de sinal de vídeo considera redundânciaespacial, redundância temporal, redundância escalável e redundância intervisualização. Eela também pode realizar uma codificação de compressão considerando uma redundânciamútua entre visualizações no processo de codificação de compressão. A técnica para acodificação de compressão, que considera a redundância intervisualização, é somente umamodalidade da presente invenção. E a idéia técnica da presente invenção é aplicável àredundância temporal, à redundância escalável, etc.
Examinando uma configuração de um fluxo contínuo de bits em H.264/AVC, existeuma estrutura de camada separada, chamada de NAL (camada de abstração de rede), entreuma VCL (camada de codificação de vídeo), que lida com o próprio processo de codificaçãode imagem em movimento, e um sistema inferior, que transporta e armazena informaçãocodificada. Uma saída de um processo de codificação são dados VCL que são mapeadospela unidade NAL antes do transporte ou do armazenamento. Cada unidade NAL incluidados de vídeo comprimidos ou RBSP (carga útil de seqüência de bytes brutos: dados deresultado da compressão da imagem em movimento) que são os dados correspondentes àinformação de cabeçalho.
Basicamente, a unidade NAL inclui um cabeçalho NAL e uma RBSP. O cabeçalhoNAL inclui informação de indicador (nal_ref_idc) que indica se uma fatia, como uma imagemde referência da unidade NAL, está incluída, e um identificador (nal_unit_type) que indica otipo da unidade NAL. Dados originais comprimidos são armazenados na RBSP. E bitdelimitador da RBSP é adicionado na última parte da RBSP para representar umcomprimento da RBSP como um múltiplo de 8 bits. Como o tipo da unidade NAL, háimagem IDR (atualização de decodificação instantânea), SPS (ajuste de parâmetro deseqüência), PPS (ajuste de parâmetro de imagem), SEI (informação de melhoriacomplementar), ou congêneres.
Na padronização, restrições para vários perfis e níveis são ajustadas para habilitara implementação de um produto alvo com um custo apropriado. Neste caso, umdecodificador deve satisfazer a restrição decidida de acordo com o perfil e nívelcorrespondentes. Assim, dois conceitos, "perfil" e "nível", são definidos para indicar umafunção ou parâmetro para representar quão distante o decodificador pode lidar com umafaixa de uma seqüência comprimida. E um indicador de perfil (profilejdc) pode identificarque um fluxo contínuo de bits é baseado em um perfil prescrito. O indicador de perfilsignifica um indicador que indica um perfil no qual um fluxo contínuo de bits é baseado. Porexemplo, em H.264/AVC, se um indicador de perfil for 66, isto significa que um fluxocontínuo de bits é baseado em um perfil de valor de referência. Se um indicador de perfil for77, isto significa que um fluxo contínuo de bits é baseado em um perfil principal. Se umindicador de perfil for 88, isto significa que um fluxo contínuo de bits é baseado em um perfilestendido. E o identificador de perfil pode ser incluído em um ajuste de parâmetro deseqüência.
Então, a fim de lidar com um vídeo multivisualização, é necessário identificar se umperfil de um fluxo contínuo de bits inserido é um perfil multivisualização. Se o perfil do fluxocontínuo de bits inserido for o perfil multivisualização, é necessário adicionar sintaxe parahabilitar pelo menos uma informação adicional para que multivisualização seja transmitida.Neste caso, o perfil multivisualização indica um modo de perfil que trata vídeomultivisualização como uma técnica de correção de H.264/AVC. Na MVC1 pode ser maiseficiente adicionar sintaxe como informação adicional para um modo MVC em vez desintaxe incondicional. Por exemplo, quando um indicador de perfil do AVC indicar um perfilmultivisualização, se informação para um vídeo multivisualização for adicionada, é possívelmelhorar a eficiência de codificação.
Um ajuste de parâmetro de seqüência indica informação de cabeçalho contendoinformação que transpõe codificação para uma seqüência geral, tais como um perfil, umnível e congêneres. Uma imagem em movimento completa comprimida, isto é, umaseqüência, deve começar em um cabeçalho de seqüência. Então, um ajuste de parâmetrode seqüência correspondente à informação de cabeçalho deve chegar em um decodificadorantes que os dados relacionados ao ajuste de parâmetro cheguem. A saber, a RBSP doajuste de parâmetro de seqüência desempenha um papel como a informação de cabeçalhopara os dados de resultado da compressão da imagem em movimento. Preferivelmente,uma vez que um fluxo contínuo de bits é inserido, um indicador de perfil identifica em qualde uma pluralidade de perfis o fluxo contínuo de bits inserido é baseado. Então, pela adiçãode uma parte para decidir se um fluxo contínuo de bits inserido diz respeito a um perfilmultivisualização na sintaxe (por exemplo, 'Se (profile_idc==MULTI_VIEW_PROFILE)'),decide-se se o fluxo contínuo de bits inserido diz respeito ao perfil multivisualização. Váriostipos de informação de configuração podem ser adicionados somente se o fluxo contínuo debits inserido for aprovado como relacionado ao perfil multivisualização. Por exemplo, pode-se adicionar inúmeras visualizações totais, inúmeras imagens de referência intervisualização(Lista0/1) no caso de um grupo de imagem intervisualização, inúmeras imagens dereferência intervisualização (Lista0/1) no caso de um grupo de imagem não intervisualizaçãoe congêneres, e várias informações para visualização são usadas para a geração e para ogerenciamento de uma lista de imagem de referência em um armazenamento temporário deimagem decodificada.
A figura 1 é um diagrama de blocos esquemático de um aparelho para decodificarum sinal de vídeo de acordo com a presente invenção.
Em relação à figura 1, um aparelho para decodificar um sinal de vídeo de acordocom a presente invenção inclui um analisador NAL 100, uma unidade de decodificação deentropia 200, uma unidade de quantização invertida / transformação invertida 300, umaunidade de intraprognóstico 400, uma unidade de filtro de desagrupamento 500, umaunidade de armazenamento temporário de imagem decodificada 600, uma unidade deinterprognóstico 700 e congêneres.
A unidade de armazenamento temporário de imagem decodificada 600 inclui umaunidade de armazenamento de imagem de referência 610, uma unidade de construção delista de imagem de referência 620, uma unidade de gerenciamento de imagem de referência650 e congêneres, e a unidade de construção de lista de imagem de referência 620 incluiuma unidade de derivação variável 625, uma unidade de inicialização de lista de imagem dereferência 630 e uma unidade de reordenação de lista de imagem de referência 640.
Ea unidade de interprognóstico 700 inclui uma unidade de compensação demovimento 710, uma unidade de compensação de iluminação 720, uma unidade deprognóstico de diferença de iluminação 730, uma unidade de prognóstico de síntese devisualização 740 e congêneres.
O analisador NAL 100 realiza análise pela unidade NAL para decodificar uma seqüência de vídeo recebida. No geral, pelo menos um ajuste de parâmetro de seqüência epelo menos um ajuste de parâmetro de imagem são transferidos para um decodificadorantes de um cabeçalho de fatia e de dados de fatia ser decodificados. Neste caso, váriostipos de informações de configuração podem ser incluídos em uma área do cabeçalho NALou em uma área de extensão de um cabeçalho NAL. Uma vez que MVC é uma técnica de correção para uma técnica AVC convencional, ela pode ser mais eficiente para adicionar asinformações de configuração no caso de somente um fluxo contínuo de bits MVC do que aadição incondicional. Por exemplo, ela pode adicionar informação de indicador paraidentificar presença ou não presença de um fluxo contínuo de bits MVC na área docabeçalho NAL ou na área de extensão do cabeçalho NAL. Somente se um fluxo contínuo de bits inserido for um fluxo contínuo de bits codificado de vídeo multivisualização de acordocom a informação do indicador, pode-se adicionar informações de configuração para umvídeo multivisualização. Por exemplo, as informações de configuração podem incluirinformação de nível temporal, informação de nível de visualização, informação deidentificação de grupo de imagem intervisualização, informação de identificação de visualização e congêneres. Isto é explicado com detalhes em relação à figura 2, comosegue.
A figura 2 é um diagrama de informação de configuração para um vídeomultivisualização adicionável em um fluxo contínuo de bits codificado de vídeomultivisualização de acordo com uma modalidade da presente invenção. Detalhes da informação de configuração para um vídeo multivisualização são explicados na seguintedescrição.
Antes de mais nada, informação de nível temporal indica informação para umaestrutura hierárquica para fornecer escalabilidade temporal de um sinal de vídeo (1). Pormeio da informação de nível temporal, pode-se fornecer a um usuário seqüências sobre várias zonas de tempo.
Informação de nível de visualização indica informação para uma estruturahierárquica para fornecer escalabilidade de visualização de um sinal de vídeo (2). Em umvídeo multivisualização, é necessário definir um nível para um tempo e um nível para umavisualização para fornecer a um usuário várias seqüências temporais e de visualização. Nocaso da definição da informação de nível supracitada, pode-se usar escalabilidade temporale escalabilidade de visualização. Portanto, um usuário pode selecionar uma seqüência emum tempo específico e visualização, ou uma seqüência selecionada pode ser restrita poruma condição.
As informações de nível podem ser ajustadas de várias maneiras de acordo comuma condição específica. Por exemplo, a informação de nível pode ser ajustadadiferentemente de acordo com a localização da câmera ou com o alinhamento da câmera. ea informação de nível pode ser determinada pela consideração da dependência devisualização. Por exemplo, um nível para uma visualização com imagem I em um grupo deimagem intervisualização é ajustado em 0, um nível para uma visualização com imagem Pno grupo de imagem intervisualização é ajustado em 1, e um nível para uma visualizaçãocom imagem B no grupo de imagem intervisualização é ajustado em 2. Além do mais, asinformações de nível podem ser aleatoriamente ajustadas, não com base em uma condiçãoespecial. A informação de nível de visualização será explicada com detalhes em relação àfigura 4 e à figura 5, posteriormente.
Informação de identificação de grupo de imagem intervisualização indicainformação para identificar se uma imagem codificada de uma unidade NAL atual é umgrupo de imagem intervisualização (3). Neste caso, o grupo de imagem intervisualizaçãosignifica uma imagem codificada na qual todas as fatias referenciam somente fatias com amesma contagem de ordem de imagem. Por exemplo, o grupo de imagem intervisualizaçãosignifica uma imagem codificada que diz respeito a fatias em uma diferente visualizaçãosomente, sem referência às fatias em uma visualização atual. Em um processo dedecodificação de um vídeo multivisualização, um acesso aleatório intervisualização pode sernecessário. A informação de identificação de grupo de imagem intervisualização pode sernecessária para realizar um acesso aleatório eficiente, e informação de referênciaintervisualização pode ser necessária para prognóstico intervisualização. Então, informaçãode identificação de grupo de imagem intervisualização pode ser usada para obter ainformação de referência intervisualização. Além do mais, a informação de identificação degrupo de imagem intervisualização pode ser usada para adicionar imagens de referênciapara prognóstico intervisualização na construção de uma lista de imagem de referência.Além disso, a informação de identificação de grupo de imagem intervisualização pode serusada para gerenciar as imagens de referência adicionadas para o prognósticointervisualização. Por exemplo, as imagens de referência podem ser classificadas emgrupos de imagem intervisualização e grupos de imagem não intervisualização e, então, asimagens de referência classificadas podem ser marcadas em que as imagens de referênciaque deixam de ser usadas para o prognóstico intervisualização não devem ser usadas.Neste ínterim, a informação de identificação de grupo de imagem intervisualização éaplicável a um decodificador de referência hipotético. Detalhes da informação deidentificação de grupo de imagem intervisualização serão explicados em relação à figura 6,posteriormente.
A informação de identificação significa informação para discriminar uma imagem emuma visualização atual de uma imagem em uma visualização diferente (4). Na codificaçãode um sinal de vídeo, POC (contagem de ordem de imagem) ou 'frame_num' podem serusados para identificar cada imagem. No caso de uma seqüência de vídeomultivisualização, prognóstico intervisualização pode ser executado. Então, informação deidentificação para discriminar uma imagem em uma visualização atual de uma imagem emuma outra visualização é necessária. Então, é necessário definir informação de identificaçãode visualização para identificar uma visualização de uma imagem. A informação deidentificação de visualização pode ser obtida a partir de uma área de cabeçalho de um sinalde vídeo. Por exemplo, a área de cabeçalho pode ser uma área de cabeçalho NAL, umaárea de extensão de um cabeçalho NAL, ou uma área de cabeçalho de fatia. Informaçãopara uma imagem em uma visualização diferente daquela de uma imagem atual é obtidausando a informação de identificação de visualização e pode-se decodificar o sinal de vídeousando a informação da imagem na visualização diferente. A informação de identificação devisualização é aplicável a um processo de codificação / decodificação geral do sinal devídeo, e a informação de identificação de visualização pode ser aplicada à codificação devídeo multivisualização usando o 'frame_num' que considera uma visualização em vez deconsiderar um identificador de visualização específico.
Neste ínterim, a unidade de decodificação de entropia 200 realiza decodificação deentropia em um fluxo contínuo de bits analisado e então, um coeficiente de cadamacrobloco, um vetor de movimento e congêneres são extraídos. A unidade de quantizaçãoinvertida / transformação invertida 300 obtém um valor de coeficiente transformado pelamultiplicação de um valor quantizado recebido por uma constante e, então, transforma ovalor do coeficiente inversamente para reconstruir um valor de pixel. Usando o valor de pixelreconstruído, a unidade de intraprognóstico 400 realiza um intraprognóstico a partir de umaamostra decodificada em uma imagem atual. Neste ínterim, a unidade de filtro dedesagrupamento 500 é aplicada em cada macrobloco codificado para reduzir a distorção debloco. Um filtro suaviza a borda de um bloco para melhorar uma qualidade de imagem deum quadro decodificado. Uma seleção de um processo de filtragem depende da força docontorno e do gradiente de uma amostra de imagem ao redor de um contorno. Por meio defiltragem, imagens são transmitidas ou armazenadas na unidade de armazenamentotemporário de imagem decodificada 600 para ser usadas como imagens de referência.A unidade de armazenamento temporário de imagem decodificada 600desempenha um papel no armazenamento ou na abertura das imagens previamentecodificadas para realizar um interprognóstico. Neste caso, para armazenar as imagens naunidade de armazenamento temporário de imagem decodificada 600 ou para abrir asimagens, 'frame_num' e POC (contagem de ordem de imagem) de cada imagem sãousados. Então, já que existem imagens em uma visualização diferente daquela de umaimagem atual entre as imagens previamente codificadas, informação de visualização paraidentificar uma visualização de uma imagem pode ser usada juntamente com o 'frame_num'e o POC. A unidade de armazenamento temporário de imagem codificada 600 inclui aunidade de armazenamento de imagem de referência 610, a unidade de construção de listade imagem de referência 620, e a unidade de gerenciamento de imagem de referência 650.A unidade de armazenamento de imagem de referência 610 armazena imagens que serãoreferidas para a codificação da imagem atual. A unidade de construção de lista de imagemde referência 620 constrói uma lista e imagens de referência para o prognósticointerimagem. Na codificação de vídeo multivisualização, o prognóstico intervisualizaçãopode ser necessário. Então, se uma imagem atual diz respeito a uma imagem em uma outravisualização, pode ser necessário construir uma lista de imagem de referência para oprognóstico intervisualização. Neste caso, a unidade de construção de lista de imagem dereferência 620 pode usar informação para visualização na geração da lista de imagem dereferência para o prognóstico intervisualização. Detalhes da unidade de construção de listade imagem de referência 620 serão explicados em relação à figura 3, posteriormente.
A figura 3 é um diagrama de blocos interno de uma unidade de construção de listade imagem de referência 620 de acordo com uma modalidade da presente invenção.
A unidade de construção de lista de imagem de referência 620 inclui a unidade dederivação variável 625, a unidade de inicialização de lista de imagem de referência 630, e aunidade de reordenação de lista de referência 640.
A unidade de derivação variável 625 deriva variáveis usadas para a inicialização dalista de imagem de referência. Por exemplo, a variável pode ser derivada usando'frame_num' que indica um número de identificação de imagem. Em particular, as variáveisFrameNum e FrameNumWrap podem ser usadas para cada imagem de referência de curtoprazo. Antes de mais nada, a variável FrameNum é igual a um valor de um elemento desintaxe frame_num. A variável FrameNumWrap pode ser usada para a unidade dearmazenamento temporário de imagem decodificada 600 para atribuir um número pequenoa cada imagem de referência, e a variável FrameNumWrap pode ser derivada da variávelFrameNum. Então, pode-se derivar uma variável PicNum usando a variável derivadaFrameNumWrap. Neste caso, a variável PicNum pode significar um número de identificaçãode uma imagem usado pela unidade de armazenamento temporário de imagemdecodificada 600. No caso da indicação de uma imagem de referência de longo prazo, umavariável LongTermPicNum pode ser usada.
A fim de construir uma lista de imagem de referência para prognósticointervisualização, pode-se derivar uma primeira variável (por exemplo, ViewNum) paraconstruir uma lista de imagem de referência para prognóstico intervisualização. Porexemplo, pode-se derivar uma segunda variável (por exemplo, Viewld) usando 'viewjd'para identificar uma visualização de uma imagem. Antes de mais nada, a segunda variávelpode ser igual a um valor do elemento de sintaxe 'viewjd'. e a terceira variável (porexemplo, ViewIdWrap) pode ser usada para a unidade de armazenamento temporário deimagem decodificada 600 para atribuir um pequeno número de identificação de visualizaçãoa cada imagem de referência, e pode ser derivada da segunda variável. Neste caso, aprimeira variável ViewNum pode significar um número de identificação de visualização daimagem usado pela unidade de armazenamento temporário de imagem decodificada 600.Ainda, já que inúmeras imagens de referência usadas para prognóstico intervisualização nacodificação de vídeo multivisualização podem ser relativamente menores do que aquelasusadas para prognóstico temporal, pode-se não definir uma outra variável para indicar umnúmero de identificação de visualização de uma imagem de referência de longo prazo.
A unidade de inicialização de lista de imagem de referência 630 inicializa uma listade imagem de referência usando as variáveis supramencionadas. Neste caso, um processode inicialização para a lista de imagem de referência pode diferir de acordo com um tipo defatia. Por exemplo, no caso da decodificação de uma fatia P, pode-se atribuir um índice dereferência com base em uma ordem de decodificação. No caso da decodificação de umafatia B, pode-se atribuir um índice de referência com base em uma ordem de transmissão deimagem. No caso da inicialização de uma lista de imagem de referência para prognósticointervisualização, pode-se atribuir um índice a uma imagem de referência com base naprimeira variável, isto é, a variável derivada da informação de visualização.
A unidade de reordenação de lista de imagem de referência 640 desempenha umpapel na melhoria da eficiência de compressão pela atribuição de um índice menor a umaimagem freqüentemente referida na lista de imagem de referência inicializada. Isto é emvirtude de um pequeno bit ser atribuído se um índice de referência para codificação ficarmenor.
E, a unidade de reordenação de lista de imagem de referência 640 inclui umaunidade de verificação de tipo de fatia 642, uma unidade de reordenação de lista-O deimagem de referência 643, e uma unidade de reordenação de lista-1 de imagem dereferência 645. Se uma lista de imagem de referência inicializada for inserida, a unidade deverificação de tipo de fatia 642 verifica o tipo de uma fatia a ser decodificada e, então,decide se reordena-se uma lista-O de imagem de referência ou uma lista-1 de imagem dereferência. Então, a unidade de reordenação de lista-0/1 de imagem de referência 643, 645realiza a reordenação da lista-O de imagem de referência se o tipo de fatia não for uma fatiaI, e também realiza a reordenação da lista-1 de imagem de referência adicionalmente, se otipo de fatia for uma fatia B. Assim, depois do fim do processo de reordenação, uma lista deimagem de referência é construída.
A unidade de reordenação de lista-0/1 de imagem de referência 643, 645 inclui umaunidade de obtenção de informação de identificação 643A, 645A e uma unidade demudança de atribuição de índice de referência 643B, 645B, respectivamente. A unidade deobtenção de informação de identificação 643A, 645A recebe informação de identificação(reordening_of_pic_nums_idc) que indica um método de atribuição de um índice dereferência se a reordenação de uma lista de imagem de referência for realizado de acordocom a informação do indicador que indica se deve-se executar a reordenação da lista deimagem de referência, e a unidade de mudança de atribuição de índice de referência 643B,645B reordena a lista de imagem de referência trocando uma atribuição de um índice dereferência de acordo com a informação de identificação.
E, a unidade de reordenação de lista de imagem de referência 640 é operável porum outro método. Por exemplo, a reordenação pode ser executada pela verificação de umtipo de unidade NAL transferido antes de passar através da unidade de verificação de tipode fatia 642 e, então, pela classificação do tipo de unidade NAL em um caso de MVC NAL eum caso não MVC NAL.
A unidade de gerenciamento de imagem de referência 650 gerencia imagens dereferência para executar interprognóstico de forma mais flexível. Por exemplo, um métodode operação de controle de gerenciamento de memória e um método de janela deslizantesão usados. Isto é para gerenciar uma memória de imagem de referência e uma memória deimagem não referência pela unificação das memórias em uma memória, e para realizar umeficiente gerenciamento de memória com uma memória pequena. Na codificação de vídeomultivisualização, já que imagens em uma direção de visualização têm a mesma contagemde ordem de imagem, informação para identificação de uma visualização de cada uma dasimagens é usada na marcação das imagens em uma direção de visualização, e imagens dereferência gerenciadas da maneira exposta podem ser usadas pela unidade deinterprognóstico 700.
A unidade de interprognóstico 700 realiza interprognóstico usando imagens dereferência armazenadas na unidade de armazenamento temporário de imagem decodificada600. Um macrobloco intercodificado pode ser dividido em partições de macrobloco. e cadauma das partições de macrobloco pode ser prognosticada a partir de uma ou duas imagensde referência. A unidade de interprognóstico 700 inclui a unidade de compensação demovimento 710, a unidade de compensação de iluminação 720, a unidade de prognósticode diferença de iluminação 730, a unidade de prognóstico de síntese de visualização 740, ea unidade de prognóstico ponderado 750 e congêneres.
A unidade de compensação de movimento 710 compensa um movimento de umbloco atual usando informações transferidas da unidade de codificação de entropia 200.
Vetores de movimento dos blocos vizinhos do bloco atual são extraídos de um sinal devídeo e, então, um preditor de vetor de movimento do bloco atual é derivado dos vetores demovimento dos blocos vizinhos, e o movimento do bloco atual é compensado usando opreditor de vetor de movimento derivado e um vetor de movimento diferencial extraído dosinal de vídeo, e pode-se realizar a compensação de movimento usando uma imagem dereferência ou uma pluralidade de imagens. Na codificação de vídeo multivisualização, nocaso em que uma imagem atual diz respeito a imagens em diferentes visualizações, pode-se realizar compensação de movimento usando informação da lista de imagem dereferência para o prognóstico intervisualização armazenado na unidade de armazenamentotemporário de imagem decodificada 600. e também pode-se realizar compensação demovimento usando informação concorrente para identificar uma visualização da imagem dereferência. Um modo direto é um modo de codificação para prognosticar informação demovimento de um bloco atual da informação de movimento para um bloco codificado. Já queeste método pode economizar inúmeros bits exigidos para codificação da informação demovimento, a eficiência de compressão aumenta. Por exemplo, um modo de direçãotemporal prognostica informação de movimento para um bloco atual usando uma correlaçãode informação de movimento em uma direção temporal. Usando um método similar a estemétodo, a presente invenção pode prognosticar informação de movimento para um blocoatual usando uma correlação da informação de movimento em uma direção de visualização.
Neste ínterim, no caso em que um fluxo contínuo de bits inserido corresponde a umvídeo multivisualização, já que as respectivas seqüências de visualização são obtidas pordiferentes câmeras, uma diferença de iluminação é gerada por fatores internos e externosdas câmeras. Para impedir isto, a unidade de compensação de iluminação 720 compensa adiferença de iluminação. Na realização da compensação de iluminação, pode-se usarinformação de indicador que indica se deve-se realizar compensação de iluminação em umacamada específica de um sinal de vídeo. Por exemplo, pode-se realizar uma compensaçãode iluminação usando informação de indicador que indica se deve-se realizar acompensação de iluminação em uma fatia ou macrobloco correspondentes. Na realizaçãoda compensação de iluminação usando a informação de indicador, a compensação deiluminação é aplicável a vários tipos de macroblocos (por exemplo, modo inter 16 χ 16, modo salto B1 modo direto, etc.).
Na realização da compensação de iluminação, pode-se usar informação para umbloco vizinho ou informação para um bloco em uma visualização diferente daquela de umbloco atual para reconstruir o bloco atual, e também pode-se usar um valor de diferença deiluminação do bloco atual. Neste caso, se o bloco atual diz respeito a blocos em umavisualização diferente, pode-se realizar compensação de iluminação usando a informaçãoda lista de imagem de referência para o prognóstico intervisualização armazenada naunidade de armazenamento temporário de imagem decodificada 600. Neste caso, o valor dadiferença de iluminação do bloco atual indica uma diferença entre um valor médio de pixeldo bloco atual e um valor médio de pixel de um bloco de referência correspondente ao blocoatual. Por exemplo, usando o valor de diferença de iluminação, o valor do prognóstico dediferença de iluminação do bloco atual é obtido usando blocos vizinhos do bloco atual, e umvalor de diferença (diferença de iluminação residual) entre o valor de diferença deiluminação e o valor do prognóstico de diferença de iluminação é usado. Portanto, a unidadede decodificação pode reconstruir o valor da diferença de iluminação do bloco atual usandoa diferença de iluminação residual e o valor de prognóstico da diferença de iluminação. Naobtenção de um valor de prognóstico de diferença de iluminação de um bloco atual, pode-seusar informação para um bloco vizinho. Por exemplo, pode-se prognosticar um valor dediferença de iluminação de um bloco atual usando um valor de diferença de iluminação deum bloco vizinho. Antes do prognóstico, verifica-se se um índice de referência do bloco atualé igual àquele do bloco vizinho. Então, de acordo com o resultado da verificação, decide-sequal tipo de um bloco vizinho ou de um valor serão usados.
A unidade de prognóstico de síntese de visualização 740 é usada para sintetizarimagens em uma visualização virtual usando imagens em uma visualização vizinha a umavisualização de uma imagem atual, e para prognosticar a imagem atual usando as imagenssintetizadas na visualização virtual. A unidade de decodificação pode decidir se deve-sesintetizar uma imagem em uma visualização virtual de acordo com um identificador deprognóstico de síntese intervisualização transferido de uma unidade de codificação. Porexemplo, se view_synthetize_pred_flag = ou view_syn_pred_flag = 1, uma fatia oumacrobloco em uma visualização virtual é sintetizado. Neste caso, quando o identificador deprognóstico de síntese intervisualização informar que uma visualização virtual será gerada,pode-se gerar uma imagem na visualização virtual usando informação de visualização paraidentificar uma visualização da imagem, e no prognóstico de uma imagem atual dasimagens sintetizadas na visualização virtual, pode-se usar a informação de visualizaçãopara usar a imagem na visualização virtual como uma imagem de referência.
A unidade de prognóstico ponderado 750 é usada para compensar um fenômenoem que a qualidade de uma imagem de uma seqüência é consideravelmente degradada nocaso da codificação da seqüência da qual o brilho varia temporariamente. Na MVC,prognóstico ponderado pode ser realizado para compensar uma diferença de brilho de umaseqüência em uma visualização diferente, bem como ele é realizado para uma seqüência daqual o brilho varia temporariamente. Por exemplo, o método do prognóstico ponderado podeser classificado em método de prognóstico ponderado explícito e método de prognósticoponderado implícito.
Em particular, o prognóstico ponderado explícito pode usar uma imagem dereferência ou duas imagens de referência. No caso do uso de uma imagem de referência,um sinal de prognóstico é gerado a partir da multiplicação de um sinal de prognósticocorrespondente à compensação de movimento por um coeficiente ponderado. No caso douso de duas imagens de referência, um sinal de prognóstico é gerado a partir da adição deum valor de deslocamento a um valor resultante da multiplicação de um sinal de prognósticocorrespondente à compensação de movimento por um coeficiente ponderado.
Ε, o prognóstico ponderado implícito realiza um prognóstico ponderado usandouma distância de uma imagem de referência. Como um método para obter a distância daimagem de referência, pode-se usar POC (contagem de ordem de imagem), que indica umaordem de transmissão de imagem, por exemplo. Neste caso, a POC pode ser obtidaconsiderando a identificação de uma visualização de cada imagem. Na obtenção de umcoeficiente ponderado para uma imagem em uma visualização diferente, pode-se usarinformação de visualização para identificar uma visualização de uma imagem para obteruma distância entre visualizações das respectivas imagens.
Na codificação de sinal de vídeo, informação de profundidade é usada para umaaplicação específica ou com outro propósito. Neste caso, a informação de profundidadepode significar informação que pode indicar uma diferença de disparidade intervisualização.Por exemplo, pode-se obter um vetor de disparidade por prognóstico intervisualização. e ovetor de disparidade obtido deve ser transferido a um aparelho de decodificação paracompensação de disparidade de um bloco atual. Ainda, se um mapa de profundidade forobtido e, então, transferido ao aparelho de decodificação, o vetor de disparidade pode serinferido do mapa de profundidade (ou mapa de densidade) sem transferir o vetor dedisparidade ao aparelho de decodificação. Neste caso, ele é vantajoso em que o número debits da informação de profundidade a ser transferida ao aparelho de decodificação pode serreduzido. Então, pela derivação do vetor de disparidade do mapa de profundidade, pode-sefornecer um novo método de compensação de disparidade. Assim, no caso do uso de umaimagem em uma diferente visualização no curso da derivação do vetor de disparidade domapa de profundidade, informação de visualização para identificar uma visualização daimagem pode ser usada.
As imagens interprognosticadas ou intraprognosticadas por meio do processoexposto são selecionadas de acordo com um modo de prognóstico para reconstruir umaimagem atual. Na descrição seguinte, várias modalidades que fornecem um método dedecodificação eficiente de um sinal de vídeo são explicadas.A figura 4 é um diagrama de uma estrutura hierárquica da informação de nível parafornecer escalabilidade de visualização de um sinal de vídeo de acordo com umamodalidade da presente invenção.
Em relação à figura 4, informação de nível para cada visualização pode serdecidida pela consideração de informação de referência intervisualização. Por exemplo, jáque é impossível decodificar uma imagem P e uma imagem B sem uma imagem I, pode-seatribuir 'nível = 0' a uma visualização base da qual grupo de imagem intervisualização é aimagem I, 'nível = 1' a uma visualização base da qual o grupo de imagem intervisualização éa imagem P, e 'nível = 2' a uma visualização base da qual o grupo de imagemintervisualização é a imagem B. Ainda, também pode-se decidir informação de nívelaleatoriamente de acordo com um padrão específico.
Informação de nível pode ser aleatoriamente decidida de acordo com um padrãoespecífico ou sem um padrão. Por exemplo, no caso em que informação de nível é decididacom base em uma visualização, pode-se ajustar uma visualização V0 como umavisualização base ao nível de visualização 0, uma visualização das imagens prognosticadasusando imagens em uma visualização ao nível de visualização 1, e uma visualização dasimagens prognosticadas usando imagens em uma pluralidade de visualizações ao nível devisualização 2. Neste caso, pelo menos uma seqüência de visualização com compatibilidadecom um decodificador convencional (por exemplo, H.264/AVC, MPEG-2, MPEG-4, etc.)pode ser necessária. Esta visualização base se torna uma base da codificação demultivisualização, que pode corresponder a uma visualização de referência para oprognóstico de uma outra visualização. Uma seqüência correspondente a uma visualizaçãobase na MVC (codificação de vídeo multivisualização) pode ser configurada em um fluxocontínuo de bits independente, sendo codificada por um esquema de codificação comseqüência convencional (MPEG-2, MPEG-4, H.263, H.264, etc.). Uma seqüênciacorrespondente a uma visualização base é compatível com H.264/AVC ou pode não ser.Ainda, uma seqüência em uma visualização compatível com H.264/AVC corresponde a umavisualização base.
Como pode-se ver na figura 4, pode-se ajustar uma visualização V2 das imagensprognosticadas usando imagens na visualização V0, uma visualização V4 das imagensprognosticadas usando imagens na visualização V2, uma visualização V6 das imagensprognosticadas usando imagens na visualização V4, e uma visualização V7 das imagensprognosticadas usando imagens na visualização V6 ao nível 1. e pode-se ajustar umavisualização V1 das imagens prognosticadas usando imagens nas visualizações V0 e V2 euma visualização V3 prognosticada da mesma maneira, e uma visualização V5prognosticada da mesma maneira ao nível 2. Então, no caso em que um decodificador dousuário não pode visualizar uma seqüência de vídeo multivisualização, ele somentedecodifica seqüências na visualização correspondentes ao nível de visualização 0. No casoem que o decodificador do usuário é restrito pela informação de perfil, somente pode-sedecodificar a informação de um nível de visualização restrito. Neste caso, um perfil significaque elementos técnicos para algoritmos em um processo de codificação / decodificação devídeo são padronizados. Em particular, o perfil é um ajuste dos elementos técnicos exigidospara decodificar uma seqüência de bits de uma seqüência comprimida, e pode ser um tipode uma subpadronização.
De acordo com uma outra modalidade da presente invenção, a informação de nívelpode variar de acordo com a localização de uma câmera. Por exemplo, considerando que asvisualizações VO e V1 são seqüências obtidas por uma câmera localizada na frente, que asvisualizações V2 e V3 são seqüências localizadas atrás, que as visualizações V4 e V5 sãoseqüências localizadas na esquerda, e que as visualizações V6 e V7 são seqüênciaslocalizadas na direita, pode-se ajustar as visualizações VO e V1 ao nível de visualização 0,as visualizações V2 e V3 ao nível de visualização 1, as visualizações V4 e V5 ao nível devisualização 2, e as visualizações V6 e V7 ao nível de visualização 3. Alternativamente,informação de nível pode variar de acordo com o alinhamento da câmera. Alternativamente,informação de nível pode ser aleatoriamente decidida não com base em um padrãoespecífico.
A figura 5 é um diagrama de uma configuração de unidade NAL que incluiinformação de nível em uma área de extensão de um cabeçalho NAL de acordo com umamodalidade da presente invenção.
Em relação à figura 5, basicamente, uma unidade NAL inclui um cabeçalho NAL euma RBSP. O cabeçalho NAL inclui informação de indicador (nal_ref_idc) que indica se umafatia que está se tornando uma imagem de referência da unidade NAL está incluída, e umidentificador (nal_unit_type) que indica o tipo da unidade NAL. e o cabeçalho NAL podeincluir adicionalmente informação de nível (viewjevel) que indica informação para umaestrutura hierárquica para fornecer escalabilidade de visualização.
Dados originais comprimidos são armazenados na RBSP, e bit delimitador daRBSP é adicionado em uma última parte da RBSP para representar um comprimento daRBSP como um número múltiplo de 8 bits. Como os tipos da unidade NAL, há IDR(atualização de decodificação instantânea), SPS (ajuste de parâmetro de seqüência), PPS(ajuste de parâmetro de imagem), SEI (informação de melhoria complementar), etc.
O cabeçalho NAL inclui informação para um identificador de visualização, e umaseqüência de vídeo de um nível de visualização correspondente é decodificada em relaçãoao identificador de visualização no curso da realização da decodificação de acordo com umnível de visualização.
A unidade NAL inclui um cabeçalho NAL 51 e uma camada de fatia 53. Ocabeçalho NAL 51 inclui uma extensão de cabeçalho NAL 52. e a camada de fatia 53 incluium cabeçalho de fatia 54 e dados de fatia 55.
O cabeçalho NAL 51 inclui um identificador (nal_unit_type) que indica um tipo daunidade NAL. Por exemplo, o identificador que indica o tipo de unidade NAL pode ser umidentificador tanto para codificação escalável quanto para codificação de vídeomultivisualização. Neste caso, a extensão do cabeçalho NAL 52 pode incluir informação deindicador que discrimina se uma NAL atual é a NAL para a codificação de vídeo escalávelou a NAL para a codificação de vídeo multivisualização. e a extensão de cabeçalho NAL 52pode incluir informação de extensão para a NAL atual de acordo com a informação deindicador. Por exemplo, no caso em que a NAL atual for a NAL para a codificação de vídeomultivisualização de acordo com a informação do indicador, a extensão de cabeçalho NAL52 pode incluir informação de nível (viewjevel) que indica informação para uma estruturahierárquica para fornecer escalabilidade de visualização.
A figura 6 é um diagrama de uma estrutura de prognóstico geral de um sinal devídeo multivisualização de acordo com uma modalidade da presente invenção para explicarum conceito de um grupo de imagem intervisualização.
Em relação à figura 6, TO a T100, em um eixo geométrico horizontal, indicamquadros de acordo com o tempo e SO a S7, em um eixo geométrico vertical, indicamquadros de acordo com a visualização. Por exemplo, imagens em TO significam quadroscapturados por diferentes câmeras na mesma zona de tempo TO, enquanto que imagens emSO significam seqüências capturadas por uma única câmera em diferentes zonas de tempo,e setas no desenho indicam direções de prognóstico e ordens de prognóstico dasrespectivas imagens. Por exemplo, uma imagem PO em uma visualização S2 em uma zonade tempo TO é uma imagem prognosticada a partir de I0, que se torna uma imagem dereferência de uma imagem PO em uma visualização S4 na mesma zona de tempo TO. e elase torna uma imagem de referência das imagens B1 e B2 nas zonas de tempo T4 e T2 navisualização S2, respectivamente.
Em um processo de decodificação de vídeo multivisualização, um acesso aleatóriointervisualização pode ser necessário. Então, um acesso a uma visualização aleatória deveser possível pela minimização do esforço de decodificação. Neste caso, um conceito de umgrupo de imagem intervisualização pode ser necessário para realizar um acesso eficiente. Ogrupo de imagem intervisualização significa uma imagem codificada na qual todas as fatiasreferenciam somente fatias com a mesma contagem de ordem de imagem. Por exemplo, ogrupo de imagem intervisualização significa uma imagem codificada que diz respeito a fatiasem uma visualização diferente somente sem referenciar fatias em uma visualização atual.Na figura 6, se uma imagem IO em uma visualização SO em uma zona de tempo TO for umgrupo de imagem intervisualização, todas as imagens em diferentes visualizações namesma zona de tempo, isto é, a zona de tempo TO, se tornam grupos de imagemintervisualização. Como um outro exemplo, se uma imagem 10 em uma visualização SO emuma zona de tempo T8 for um grupo de imagem intervisualização, todas as imagens emdiferentes visualizações na mesma zona de tempo, isto é, a zona de tempo T8, são gruposde imagem intervisualização. Igualmente, todas as imagens em T16,..., T96 e T100 tambémse tornam grupos de imagem intervisualização.
A figura 7 é um diagrama de uma estrutura de prognóstico de acordo com umamodalidade da presente invenção para explicar um conceito de um grupo de imagemintervisualização recém-definido.
Em uma estrutura de prognóstico geral da MVC, GOP pode começar com umaimagem I. e a imagem I é compatível com H.264/AVC. Então, todos os grupos de imagemintervisualização compatíveis com H.264/AVC sempre podem se tornar a imagem I. Ainda,no caso em que as imagens I são substituídas por uma imagem P, codificação maiseficiente é habilitada. Em particular, codificação mais eficiente é habilitada usando a estrutura de prognóstico que habilita GOP a começar com a imagem P compatível comH.264/AVC.
Neste caso, se o grupo de imagem intervisualização for redefinido, todas as fatiasse tornam imagem codificada que pode se referir não somente a uma fatia em um quadroem uma mesma zona de tempo, mas também a uma fatia na mesma visualização em umadiferente zona de tempo. Ainda. No caso da referência a uma fatia em uma diferente zonade tempo em uma mesma visualização, pode-se restringir somente ao grupo de imagemintervisualização compatível com H.264/AVC. Por exemplo, uma imagem P em um ponto desincronia T8 em uma visualização SO na figura 6 pode se tornar um grupo de imagemintervisualização recém-definido. Igualmente, uma imagem P em um ponto de sincronia T96em uma visualização SO ou uma imagem P em um ponto de sincronia T100 em umavisualização SO pode se tornar um grupo de imagem intervisualização recém-definido. e ogrupo de imagem intervisualização pode ser definido somente se ele for uma visualizaçãobase.
Depois que o grupo de imagem intervisualização foi decodificado, todas as imagensseqüencialmente codificadas são decodificadas a partir das imagens decodificadas adiantedo grupo de imagem intervisualização em uma ordem de transmissão sem interprognóstico.
Considerando a estrutura de codificação geral do vídeo multivisualização mostradona figura 6 e na figura 7, já que informação de referência intervisualização de um grupo deimagem intervisualização difere daquela de um grupo de imagem não intervisualização, énecessário discriminar o grupo de imagem intervisualização e o grupo de imagem nãointervisualização, um em relação ao outro, de acordo com a informação de identificação degrupo de imagem intervisualização.A informação de referência intervisualização significa a informação que podereconhecer uma estrutura de prognóstico entre as imagens intervisualização. Isto pode serobtido a partir de uma área de dados de um sinal de vídeo. Por exemplo, ela pode ser obtidade uma área de ajuste de parâmetro de seqüência, e a informação de referênciaintervisualização pode ser reconhecida usando o número de imagens de referência e ainformação de visualização para as imagens de referência. Por exemplo, o número devisualizações total é obtido e, então, a informação de visualização para identificar cadavisualização pode ser obtida com base no número de visualizações total, e pode-se obter onúmero das imagens de referência para uma direção de referência para cada visualização.
De acordo com o número das imagens de referência, pode-se obter a informação devisualização para cada uma das imagens de referência. Desta maneira, a informação dereferência intervisualização pode ser obtida, e a informação de referência intervisualizaçãopode ser reconhecida pela discriminação de um grupo de imagem intervisualização e de umgrupo de imagem não intervisualização. Esta pode ser reconhecida usando informação deidentificação de grupo de imagem intervisualização que indica se uma fatia codificada emuma NAL atual é um grupo de imagem intervisualização. Detalhes da informação deidentificação do grupo de imagem intervisualização são explicados em relação à figura 8,como segue:
A figura 8 é um diagrama de blocos esquemático de um aparelho para decodificarum vídeo multivisualização que usa informação de identificação de grupo de imagem deacordo com uma modalidade da presente invenção.
Em relação à figura 8, um aparelho de decodificação de acordo com umamodalidade da presente invenção inclui uma unidade de decisão de fluxo contínuo de bits81, uma unidade de obtenção de informação de identificação de grupo de imagemintervisualização 82, e uma unidade de decodificação de vídeo multivisualização 83.
Se um fluxo contínuo de bits for inserido, a unidade de decisão de fluxo contínuo debits 81 decide se o fluxo contínuo de bits inserido é um fluxo contínuo de bits codificado parauma codificação de vídeo escalável ou um fluxo contínuo de bits codificado para codificaçãode vídeo multivisualização. Isto pode ser decidido pela informação de indicador incluída nofluxo contínuo de bits.
A unidade de obtenção de informação de identificação de grupo de imagemintervisualização 82 pode obter informação de identificação de grupo de imagemintervisualização se o fluxo contínuo de bits inserido for o fluxo contínuo de bits para umacodificação de vídeo multivisualização em decorrência da decisão. Se a informação deidentificação do grupo de imagem intervisualização obtida for 'verdadeiro', isto significa queuma fatia codificada de uma NAL atual é um grupo de imagem intervisualização. E se ainformação de identificação do grupo de imagem intervisualização for 'falso', isto significaque uma fatia codificada de uma NAL atual é um grupo de imagem não intervisualização. Ainformação de identificação do grupo de imagem intervisualização pode ser obtida a partirde uma área de extensão de um cabeçalho NAL ou de uma área de camada de fatia.
A unidade de decodificação de vídeo multivisualização 83 decodifica um vídeomultivisualização de acordo com a informação de identificação do grupo de imagemintervisualização. De acordo com uma estrutura de codificação geral de uma seqüência devídeo multivisualização, informação de referência intervisualização de um grupo de imagemintervisualização difere daquela de um grupo de imagem não intervisualização. Então, pode-se usar a informação de identificação do grupo de imagem intervisualização na adição dasimagens de referência para o prognóstico intervisualização para gerar uma lista de imagemde referência, por exemplo, e também pode-se usar a informação de identificação do grupode imagem intervisualização para gerenciar as imagens de referência para o prognósticointervisualização. Além do mais, a informação de identificação do grupo de imagemintervisualização é aplicável a um decodificador de referência hipotético.
Como um outro exemplo de uso da informação de identificação de grupo deimagem intervisualização, no caso do uso de informação em uma visualização diferentepara cada processo de decodificação, informação de referência intervisualização incluídaem um ajuste de parâmetro de seqüência é usada. Neste caso, informação para discriminarse uma imagem atual é um grupo de imagem intervisualização ou um grupo de imagem nãointervisualização, isto é, informação de identificação de grupo de imagem intervisualizaçãopode ser exigida. Então, pode-se usar diferentes informações de referência intervisualizaçãopara cada processo de decodificação.
A figura 9 é um fluxograma de um processo para gerar uma lista de imagem dereferência de acordo com uma modalidade da presente invenção.
Em relação à figura 9, a unidade de armazenamento temporário de imagemdecodificada 600 desempenha um papel no armazenamento ou na abertura das imagenspreviamente codificadas para realizar prognóstico interimagem.
Antes de mais nada, imagens codificadas antes de uma imagem atual sãoarmazenadas na unidade de armazenamento de imagem de referência 610 para ser usadascomo imagem de referência (S91).
Na codificação de vídeo multivisualização, já que algumas das imagenspreviamente codificadas estão em uma visualização diferente daquela da imagem atual, ainformação de visualização para identificar uma visualização de uma imagem pode serusada para utilizar estas imagens como imagens de referência. Então, o decodificador deveobter informação de visualização para identificar uma visualização de uma imagem (S92).Por exemplo, a informação de visualização pode incluir 'viewjd' para identificar umavisualização de uma imagem.A unidade de armazenamento temporário de imagem decodificada 600 precisaderivar uma variável ali usada para gerar uma lista de imagem de referência. Já queprognóstico intervisualização pode ser exigido para codificação de vídeo multivisualização,se uma imagem atual diz respeito a uma imagem em uma visualização diferente, pode sernecessário gerar uma lista de imagem de referência para prognóstico intervisualização.Neste caso, a unidade de armazenamento temporário de imagem decodificada 600 precisaderivar uma variável usada para gerar a lista de imagem de referência para o prognósticointervisualização usando a informação de visualização obtida (S93).
Uma lista de imagem de referência para prognóstico temporal ou uma lista deimagem de referência para prognóstico intervisualização podem ser geradas por um métododiferente de acordo com o tipo de fatia de uma fatia atual (S94). Por exemplo, se um tipo defatia for uma fatia P/SP, uma lista 0 de imagem de referência é gerada (S95). No caso emque um tipo de fatia for uma fatia B1 uma lista 0 de imagem de referência e uma lista 1 deimagem de referência são geradas (S96). Neste caso, a lista 0 de imagem de referência oua lista 1 de imagem de referência podem incluir a lista de imagem de referência para oprognóstico temporal somente ou tanto a lista de imagem de referência para o prognósticotemporal quanto a lista de imagem de referência para o prognóstico intervisualização. Istoserá explicado com detalhes em relação à figura 8 e à figura 9, posteriormente.
A lista de imagem de referência inicializada passa por um processo para atribuir ummenor número a uma imagem freqüentemente referida para melhorar adicionalmente umataxa de compressão (S97). e este pode ser chamado de um processo de reordenação parauma lista de imagem de referência, o que será explicado com detalhes em relação às figuras12 até 19, posteriormente. A imagem atual é decodificada usando a lista da imagem dereferência reordenada e a unidade de armazenamento temporário de imagem decodificada600 precisa gerenciar as imagens de referência decodificadas para operar umarmazenamento temporário mais eficientemente (S98). As imagens de referênciagerenciadas pelo processo exposto são lidas pela unidade de interprognóstico 700 para serusadas para interprognóstico. Na codificação de vídeo multivisualização, o interprognósticopode incluir prognóstico intervisualização. Neste caso, a lista de imagem de referência parao prognóstico intervisualização é usada.
Exemplos detalhados para um método para gerar uma lista de imagem dereferência de acordo com um tipo de fatia são explicados em relação à figura 10 e à figura11 como segue.
A figura 10 é um diagrama para explicar um método para inicializar uma lista deimagem de referência quando uma fatia atual for uma fatia P de acordo com umamodalidade da presente invenção.
Em relação à figura 10, um tempo é indicado por T0, T1, ..., TN, enquanto que umavisualização é indicada por VO1 V1..... V4. Por exemplo, uma imagem atual indica umaimagem em um tempo T3 em uma visualização V4. e um tipo de fatia da imagem atual éuma fatia P. 'PN' é uma abreviatura de uma variável PicNum1 'LPN' é uma abreviatura deuma variável LongTermPicNum1 e 'VN' é uma abreviatura de uma variável ViewNum. Umnumerai anexado a uma parte final de cada uma das variáveis indica um índice que indicaum tempo de cada imagem (para PN ou LPN) ou uma visualização de cada imagem (paraVN). Isto é aplicável à figura 11 da mesma maneira.
Uma lista de imagem de referência para prognóstico temporal ou uma lista deimagem de referência para prognóstico intervisualização pode ser gerada de uma maneiradiferente de acordo com o tipo de fatia de uma fatia atual. Por exemplo, um tipo de fatia nafigura 12 é uma fatia P/SP. Neste caso, uma lista 0 de imagem de referência é gerada. Emparticular, a lista 0 de imagem de referência pode incluir uma lista de imagem de referênciapara prognóstico temporal e/ou uma lista de imagem de referência para prognósticointervisualização. Na presente modalidade, considera-se que uma lista de imagem dereferência inclui tanto uma lista de imagem de referência para prognóstico temporal quantouma lista de imagem de referência para prognóstico intervisualização.
Há vários métodos para ordenar imagens de referência. Por exemplo, imagens dereferência podem ser alinhadas de acordo com uma ordem de decodificação ou detransmissão da imagem. Alternativamente, imagens de referência podem ser alinhadas combase em uma variável derivada usando informação de visualização. Alternativamente,imagens de referência podem ser alinhadas de acordo com informação de referênciaintervisualização que indica uma estrutura de prognóstico intervisualização.
No caso de uma lista de imagem de referência para prognóstico temporal, imagensde referência de curto prazo e imagens de referência de longo prazo podem ser alinhadascom base em uma ordem de decodificação. Por exemplo, elas podem ser alinhadas deacordo com um valor de uma variável PicNum ou LongTermPicNum derivadas de um valorque indica um número de identificação de imagem (por exemplo, frame_num ouLongtetrframeidx). Antes de mais nada, imagens de referência de curto prazo podem serinicializadas antes das imagens de referência de longo prazo. Uma ordem de alinhamentodas imagens de referência de curto prazo pode ser ajustada de uma imagem de referênciacom um valor mais alto da variável PicNum até uma imagem de referência com um valor decâmara de reação mais baixo. Por exemplo, as imagens de referência de curto prazo podemser alinhadas na ordem de PN1 com uma variável mais alta, PN2 com uma variávelintermediária, e PNO com uma variável mais baixa entre PNO até PN2. Uma ordem dealinhamento das imagens de referência de longo prazo pode ser ajustada de uma imagemde referência com um valor mais baixo da variável LongTermPicNum até uma imagem dereferência com um valor de variável mais alto. Por exemplo, as imagens de referência delongo prazo podem ser alinhadas na ordem de LPNO com uma variável mais alta e LPN1com uma variável mais baixa.
No caso de uma lista de imagem de referência para prognóstico intervisualização,imagens de referência podem ser alinhadas com base em uma primeira variável ViewNumderivada usando informação de visualização. Em particular, imagens de referência podemser alinhadas na ordem de uma imagem de referência com o valor de uma primeira variávelmais alto (ViewNum) até uma imagem de referência com um valor de uma primeira variável(ViewNum) mais baixo. Por exemplo, imagens de referência podem ser alinhadas na ordemde VN3 com uma variável mais alta, VN2, VN1 e VNO com uma variável mais baixa entreVNO1 VN1, VN2 e VN3.
Assim, tanto a lista de imagem de referência para o prognóstico temporal quanto alista de imagem de referência para o prognóstico intervisualização podem ser gerenciadascomo uma lista de imagem de referência. Alternativamente, tanto a lista de imagem dereferência para o prognóstico temporal quanto a lista de imagem de referência para oprognóstico intervisualização podem ser gerenciadas como listas de imagem de referênciaseparadas, respectivamente. No caso de gerenciar tanto a lista de imagem de referênciapara o prognóstico temporal quanto a lista de imagem de referência para o prognósticointervisualização como uma lista de imagem de referência, elas podem ser inicializadas deacordo com uma ordem, ou simultaneamente. Por exemplo, no caso da inicialização tantoda lista de imagem de referência para o prognóstico temporal quanto da lista de imagem dereferência para o prognóstico intervisualização de acordo com uma ordem, a lista deimagem de referência para o prognóstico temporal é preferivelmente inicializado e, então, alista de imagem de referência para o prognóstico intervisualização adicionalmenteinicializada. Este conceito também é aplicável à figura 11.
Um caso em que um tipo de fatia da imagem atual é fatia B é explicado em relaçãoà figura 11, como segue.
A figura 11 é um diagrama para explicar um método para inicializar uma lista deimagem de referência quando uma fatia atual for uma fatia B de acordo com umamodalidade da presente invenção.
Em relação à figura 9, no caso em que um tipo de fatia é uma fatia B1 uma lista 0 deimagem de referência e uma lista 1 de imagem de referência são geradas. Neste caso, alista 0 de imagem de referência ou a lista 1 de imagem de referência podem incluir uma listade imagem de referência para prognóstico temporal somente ou tanto uma lista de imagemde referência para prognóstico temporal quanto uma lista de imagem de referência paraprognóstico intervisualização.
No caso da lista de imagem de referência para o prognóstico temporal, um métodode alinhamento de imagem de referência de curto prazo pode diferir de um método dealinhamento de imagem de referência de longo prazo. Por exemplo, no caso das imagensde referência de curto prazo, imagens de referência podem ser alinhadas de acordo comuma contagem de ordem de imagem (doravante abreviado como POC). No caso dasimagens de referência de longo prazo, imagens de referência podem ser alinhadas deacordo com um valor de variável (LongtermPicNum). e as imagens de referência de longoprazo podem ser inicializadas antes das imagens de referência de longo prazo.
A fim de alinhar imagens de referência de curto prazo da lista O de imagem dereferência, imagens de referência são preferivelmente alinhadas de uma imagem dereferência com um valor POC mais alto até uma imagem de referência com um valor POCmais baixo entre imagens de referência com valores POC menores do que aqueles daimagem atual e, então, são alinhadas de uma imagem de referência com um valor POCmais baixo até uma imagem de referência com um valor POC mais alto entre imagens dereferência com valores POC maiores do que aqueles da imagem atual. Por exemplo,imagens de referência podem ser preferivelmente alinhadas da PN1 com um valor POCmais alto em relação às imagens PNO e PN1 com valores POC menores do que aqueles daimagem atual até PNO e, então, alinhadas de PN3 com um valor POC mais baixo emrelação às imagens PN3 e PN4 com um valor POC menor do que aquele da imagem atualaté PN4.
A fim de alinhar imagens de referência de longo prazo da lista O de imagem dereferência, imagens de referência são alinhadas de uma imagem de referência com umavariável LongtermPicNum mais baixa até uma imagem de referência com uma variável maisalta. Por exemplo, imagens de referência são alinhadas de LPNO com um valor mais baixoem LPNO e LPN1 até LPN1 com uma segunda variável mais baixa.
No caso da lista de imagem de referência para o prognóstico intervisualização,imagens de referência podem ser alinhadas com base em uma primeira variável ViewNumderivada usando informação de visualização. Por exemplo, no caso da lista O de imagem dereferência para o prognóstico intervisualização, imagens de referência podem ser alinhadasde uma imagem de referência com um valor da primeira variável mais alto entre imagens dereferência com valores de primeira variável mais baixos do que aqueles da imagem atual atéuma imagem de referência com um primeiro veículo de variável mais baixo. Então, asimagens de referência são alinhadas de uma imagem de referência com um primeiro valorde variável mais baixo entre imagens de referência com primeiro valores de variável maioresdo que aqueles da imagem atual até uma imagem de referência com um valor de primeiravariável mais alto. Por exemplo, preferivelmente, imagens de referência são alinhadas deVN1 com um valor de primeira variável mais alto em VNO e VN com valores de primeiravariável menores do que aqueles da imagem atual até VNO com um valor de primeiravariável mais baixo e então alinhadas de VN3 com um valor de primeira variável mais baixoem VN3 e VN4 com valores de primeira variável maiores do que aqueles da imagem atualata VN4 com um valor de primeira variável mais alto.
No caso da lista 1 de imagem de referência, o método de alinhamento exposto dalista de referência O é similarmente aplicável.
Antes de mais nada, no caso da lista de imagem de referência para o prognósticotemporal, a fim de alinhar imagens de referência de curto prazo da lista 1 de imagem dereferência, imagens de referência são preferivelmente alinhadas de uma imagem dereferência com um valor POC mais baixo até uma imagem de referência com um valor POCmais alto entre imagens de referência com valores POC maiores do que aqueles da imagematual e, então, são alinhadas de uma imagem de referência com um valor POC mais alto atéuma imagem de referência com um valor POC mais baixo entre imagens de referência comvalores POC menores do que aqueles da imagem atual. Por exemplo, imagens dereferência podem ser preferivelmente alinhadas de PN3 com um valor POC mais baixo emrelação às imagens PN3 e PN4 com valores POC maiores do que aqueles da imagem atualaté PN4 e, então, alinhadas de PN1 com um valor POC mais alto nas imagens de referênciaPNO e PN1 com valores POC maiores do que aqueles da imagem atual até PNO.
A fim de alinhar imagens de referência de longo prazo da lista 1 de imagem dereferência, imagens de referência são alinhadas de uma imagem de referência com umavariável LongtermPicNum mais baixa até uma imagem de referência com uma variável maisalta. Por exemplo, imagens de referência são alinhadas de LPNO com um valor mais baixoem LPNO e LPN1 até LPN1 com uma variável mais baixa.
No caso da lista de imagem de referência para o prognóstico intervisualização,imagens de referência podem ser alinhadas com base em uma primeira variável ViewNumderivada usando informação de visualização. Por exemplo, no caso da lista 1 de imagem dereferência para o prognóstico intervisualização, imagens de referência podem ser alinhadasde uma imagem de referência com um valor de primeira variável mais baixo entre imagensde referência com valores de primeira variável maiores do que aqueles da imagem atual atéuma imagem de referência com um valor de primeira variável mais alto. Então, as imagensde referência são alinhadas de uma imagem de referência com um valor de primeira variávelmais alto entre imagens de referência com valores de primeira variável menores do queaqueles da imagem atual até uma imagem de referência com um valor de primeira variávelmais baixo. Por exemplo, imagens de referência são preferivelmente alinhadas de VN3 comum valor de primeira variável mais baixo em VN3 e VN4 com valores de primeira variávelmaiores do que aqueles da imagem atual até VN4 com um valor de primeira variável maisalto e, então, alinhadas de VN1 com um valor de primeira variável mais alto em VNO e VN1com valores de primeira variável menores do que aqueles da imagem atual até VNO com umvalor de primeira variável mais baixo.A lista de imagem de referência inicializada pelo processo exposto é transferida àunidade de reordenação de lista de imagem de referência 640. Então, a lista de imagem dereferência inicializada é reordenada para codificação mais eficiente. O processo dereordenação é para reduzir uma taxa de bit pela atribuição de um pequeno número a umaimagem de referência com probabilidade mais alta de ser selecionada como uma imagemde referência pela operação de um armazenamento temporário de imagem decodificada.Vários métodos de reordenação de uma lista de imagem de referência são explicados emrelação às figuras 12 a 19, como segue.
A figura 12 é um diagrama de blocos interno da unidade de reordenação de lista deimagem de referência 640 de acordo com uma modalidade da presente invenção.
Em relação à figura 12, a unidade de reordenação de lista de imagem de referência640 inclui, basicamente, uma unidade de verificação de tipo de fatia 642, uma unidade dereordenação de lista 0 de imagem de referência 643, e uma unidade de reordenação de lista1 de imagem de referência 645.
Em particular, a unidade de reordenação de lista 0 de imagem de referência 643inclui uma primeira unidade de obtenção de informação de identificação 643A e umaprimeira unidade de mudança de atribuição de índice de referência 643B. e a unidade dereordenação de lista 1 de imagem de referência 645 inclui uma segunda unidade deobtenção de identificação 645A e uma segunda unidade de mudança de atribuição de índicede referência 645B.
A unidade de verificação de tipo de fatia 642 verifica um tipo de fatia de uma fatiaatual. Então, é decidido se deve-se reordenar uma lista 0 de imagem de referência e/ou umalista 1 de imagem de referência de acordo com o tipo de fatia. Por exemplo, se o tipo de fatiade uma fatia atual for uma fatia I, nem a lista O de imagem de referência nem a lista 1 deimagem de referência são reordenadas. Se o tipo de fatia da fatia atual for fatia P, somentea lista O de imagem de referência é reordenada. Se o tipo de fatia de uma fatia atual for fatiaB, tanto a lista O de imagem de referência quanto a lista 1 de imagem de referência sãoreordenadas.
A unidade de reordenação de lista 0 de imagem de referência 643 é ativada seinformação de indicador para executar a reordenação da lista O de imagem de referência for'verdadeiro' e se o tipo de fatia da fatia atual não for a fatia I. A primeira unidade deobtenção de informação de identificação 643A obtém informação de identificação que indicaum método de atribuição de índice de referência. A primeira unidade de mudança deatribuição de índice de referência 643B muda um índice de referência atribuído a cadaimagem de referência da lista 0 de imagem de referência de acordo com a informação deidentificação.
Igualmente, a unidade de reordenação de lista 1 de imagem de referência 645 éativada se informação de indicador para executar a reordenação da lista 1 de imagem dereferência for 'verdadeiro' e se o tipo de fatia da fatia atual for fatia Β. A segunda unidade deobtenção de informação de identificação 645A obtém informação de identificação que indicaum método de atribuição de índice de referência. A segunda unidade de mudança deatribuição de índice de referência 645B muda um índice de referência atribuído a cadaimagem de referência da lista 1 de imagem de referência de acordo com a informação deidentificação.
Então, informação da lista de imagem de referência usada para interprognósticoreal é gerada por meio da unidade de reordenação de lista 0 de imagem de referência 643 eda unidade de reordenação de lista 1 de imagem de referência 645.
Um método para mudar um índice de referência atribuído a cada imagem dereferência pelas primeira ou segunda unidades de mudança de atribuição de índice dereferência 643B ou 645B é explicado em relação à figura 13, como segue.
A figura 13 é um diagrama de blocos interno de uma unidade de mudança deatribuição de índice de referência 643B ou 645B de acordo com uma modalidade dapresente invenção. Na seguinte descrição, a unidade de reordenação de lista 0 de imagemde referência 643 e a unidade de reordenação de lista 1 de imagem de referência 645mostradas na figura 12 são explicadas juntamente.
Em relação à figura 13, cada uma das primeira e segunda unidades de mudança deatribuição de índice de referência 643B e 645B inclui uma unidade de mudança deatribuição de índice de referência para prognóstico temporal 644A, uma unidade demudança de atribuição de índice de referência para imagem de referência de longo prazo644B, uma unidade de mudança de atribuição de índice de referência para prognósticointervisualização 644C, e uma unidade de término de mudança de atribuição de índice dereferência 644D. De acordo com informações de identificação obtidas pelas primeira esegunda unidades de obtenção de informação de identificação 643A e 645A, partes nasprimeira e segunda unidades de mudança de atribuição de índice de referência 643B e 645Bsão ativadas, respectivamente, e o processo de reordenação continua sendo executado atéque a informação de identificação para o término da mudança de atribuição do índice dereferência seja inserida.
Por exemplo, se informação de identificação para mudar atribuição de um índice dereferência para prognóstico temporal for recebida das primeira ou segunda unidades deobtenção de informação de identificação 643A ou 645A, a unidade de mudança deatribuição de índice de referência para prognóstico temporal 644A é ativada. A unidade demudança de atribuição de índice de referência para prognóstico temporal 644A obtém umadiferença de número de imagem de acordo com a informação de identificação recebida.Neste caso, a diferença de unidade de mapeamento de imagem significa uma diferençaentre um número de imagem de uma imagem atual e um número de imagem prognosticado,e o número de imagem prognosticado pode indicar um número de uma imagem dereferência atribuída exatamente antes. Então, pode-se mudar a atribuição do índice dereferência usando a diferença do número de imagem obtida. Neste caso, a diferença do número de imagem pode ser adicionada / subtraída do número de imagem prognosticado deacordo com a informação de identificação.
Como um outro exemplo, se informação de identificação para mudar atribuição deum índice de referência a uma imagem de referência de longo prazo designada for recebida,a unidade de mudança de atribuição de índice de referência para uma imagem de referência de longo prazo 644B é ativada. A unidade de mudança de atribuição de índice de referênciapara uma imagem de referência de longo prazo 644B obtém um número de imagem dereferência de longo prazo de uma imagem designada de acordo com o número deidentificação.
Como um outro exemplo, se informação de identificação para mudar atribuição de um índice de referência para prognóstico intervisualização for recebida, a unidade demudança de atribuição de índice de referência para prognóstico intervisualização 644C éativada. A unidade de mudança de atribuição de índice de referência para prognósticointervisualização 644C obtém diferença de informação de visualização de acordo com ainformação de identificação. Neste caso, a diferença de informação de visualização significa uma diferença entre um número de visualização de uma imagem atual e um número devisualização prognosticado, e o número de visualização prognosticado pode indicar umnúmero de visualização de uma imagem de referência atribuída exatamente antes. Então,pode-se mudar a atribuição de um índice de referência usando a diferença de informação devisualização obtida. Neste caso, a diferença de informação de visualização pode ser adicionada / subtraída do número de visualização prognosticado de acordo com ainformação de identificação.
Como um outro exemplo, se informação de identificação para terminar umamudança de atribuição de índice de referência for recebida, a unidade de término demudança de atribuição de índice de referência 644D é ativada. A unidade de término de mudança de atribuição de índice de referência 644D termina uma mudança de atribuição deum índice de referência de acordo com a informação de identificação recebida. Então, aunidade de reordenação de lista de imagem de referência 640 gera informação de lista deimagem de referência.
Assim, imagens de referência usadas para prognóstico intervisualização podem ser gerenciadas juntamente em relação às imagens usadas para prognóstico temporal.Alternativamente, imagens de referência usadas para prognóstico intervisualização podemser gerenciadas separadas das imagens de referência usadas para prognóstico temporal.Para isto, novas informações para gerenciar as imagens de referência usadas para oprognóstico intervisualização podem ser exigidas. Isto será explicado em relação às figuras15a 19, posteriormente.
Detalhes da unidade de mudança de atribuição de índice de referência paraprognóstico intervisualização 644C são explicados em relação à figura 14, como segue.
A figura 14 é um diagrama para explicar um processo para reordenar uma lista deimagem de referência usando invólucro de visualização de acordo com uma modalidade dapresente invenção.
Em relação à figura 14, se um número de visualização VN de uma imagem atual for3, se o tamanho de um armazenamento temporário de imagem decodificada DPBzise for 4,e se o tipo de fatia de uma fatia atual for fatia P, um processo de reordenação para uma lista0 de imagem de referência é explicado como segue.
Antes de mais nada, um número de visualização inicialmente prognosticado é '3',que é o número de visualização da imagem atual, e um alinhamento inicial da lista 0 deimagem de referência para prognóstico intervisualização é '4, 5, 6, 2' (1). Neste caso, seinformação de identificação para mudar atribuição de um índice de referência paraprognóstico intervisualização pela subtração de uma diferença de informação devisualização for recebida, Ί' é obtida como a diferença de informação de visualização deacordo com a informação de identificação recebida. Um número de visualizaçãoprognosticado (=2) é calculado pela subtração da diferença de informação de visualização(=1) do num de visualização prognosticado (=3). Em particular, um primeiro índice da lista 0de imagem de referência para o prognóstico intervisualização é atribuído a uma imagem dereferência com o número de visualização 2. e uma imagem previamente atribuída aoprimeiro índice pode ser movida para uma parte mais atrás da lista 0 de imagem dereferência. Então, a lista 0 de imagem de referência reordenada é '2, 5, 6, 4' (2).Subseqüentemente, se informação de identificação para mudar atribuição de um índice dereferência para prognóstico intervisualização pela subtração da diferença de informação devisualização for recebida, '-2' é obtido como a diferença de informação de visualização deacordo com a informação de identificação. Então, um número de visualização recém-prognosticado (=4) é calculado pela subtração da diferença de informação de visualização(=-2) do número de visualização prognosticado (=2). Em particular, um segundo índice dalista 0 de imagem de referência para o prognóstico intervisualização é atribuído a umaimagem de referência com um número de visualização 4. Portanto, a lista 0 de imagem dereferência reordenada é '2, 4, 6, 5' (3). Subseqüentemente, se informação de identificaçãopara terminar a mudança de atribuição de índice de referência for recebida, a lista 0 deimagem de referência com a lista 0 de imagem de referência reordenada como um fim égerada de acordo com a informação de identificação recebida (4). Portanto, a ordem da listaO de imagem de referência finalmente gerada para o prognóstico intervisualização é '2, 4, 6,5'.
Como um outro exemplo de reordenação do resto das imagens depois que oprimeiro índice da lista 0 de imagem de referência para o prognóstico intervisualização foiatribuído, uma imagem atribuída a cada índice pode ser movida até uma posiçãoexatamente atrás daquela da imagem correspondente. Em particular, um segundo índice éatribuído a uma imagem com um número de visualização 4, um terceiro índice é atribuído auma imagem (número de visualização 5) à qual o segundo índice foi atribuído, e um quartoíndice é atribuído a uma imagem (número de visualização 6) à qual o terceiro índice foiatribuído. Portanto, a lista 0 de imagem de referência reordenada se torna '2, 4, 5, 6'. e umprocesso de reordenação subseqüente pode ser executado da mesma maneira.
A lista de imagem de referência gerada pelo processo exposto é usada parainterprognóstico. Tanto a lista de imagem de referência para o prognóstico intervisualizaçãoquanto a lista de imagem de referência para o prognóstico temporal podem ser gerenciadascomo uma lista de imagem de referência. Alternativamente, cada uma da lista de imagem dereferência para o prognóstico intervisualização e da lista de imagem de referência para oprognóstico temporal pode ser gerenciada como uma lista de imagem de referênciaseparada. Isto é explicado em relação às figuras 15 a 19, como segue.
A figura 15 é um diagrama de blocos interno de uma unidade de reordenação delista de imagem de referência 640 de acordo com uma outra modalidade da presenteinvenção.
Em relação à figura 15, a fim de gerenciar uma lista de imagem de referência paraprognóstico intervisualização como uma lista de imagem de referência separada, novasinformações podem ser necessárias. Por exemplo, uma lista de imagem de referência paraprognóstico temporal é reordenada e, então, uma lista de imagem de referência paraprognóstico intervisualização é reordenada em alguns casos.
Basicamente, a unidade de reordenação de lista de imagem de referência 640 incluiuma unidade de reordenação de lista de imagem de referência para prognóstico temporal910, uma unidade de verificação de tipo NAL 960, e uma unidade de reordenação de lista deimagem de referência para prognóstico intervisualização 970.
A unidade de reordenação de lista de imagem de referência para prognósticotemporal 910 inclui uma unidade de verificação de tipo de fatia 642, uma terceira unidade deobtenção de informação de identificação 920, uma terceira unidade de mudança deatribuição de índice de referência 930, uma quarta unidade de obtenção de informação deidentificação 940, e uma quarta unidade de mudança de atribuição de índice de referência950. A terceira unidade de mudança de atribuição de índice de referência 930 inclui umaunidade de mudança de atribuição de índice de referência para prognóstico temporal 930A,uma unidade de mudança de atribuição de índice de referência para uma imagem dereferência de longo prazo 930B, e uma unidade de término de mudança de atribuição deíndice de referência 930C. Igualmente, a quarta unidade de mudança de atribuição de índicede referência 950 inclui uma unidade de mudança de atribuição de índice de referência paraprognóstico temporal 950A, uma unidade de mudança de atribuição de índice de referênciapara imagem de referência de longo prazo 950B, e uma unidade de término de mudança deatribuição de índice de referência 950C.
A unidade de reordenação de lista de imagem de referência para prognósticotemporal 910 reordena imagens de referência usadas para prognóstico temporal. Operaçõesda unidade de reordenação de lista de imagem de referência para prognóstico temporal 910são idênticas àquelas da unidade de reordenação de lista de imagem de referência 640exposta mostrada na figura 10, exceto informações para as imagens de referência para oprognóstico intervisualização. Então, detalhes da unidade de reordenação de lista deimagem de referência para prognóstico temporal 910 são omitidos na seguinte descrição.
A unidade de verificação de tipo NAL 960 verifica um tipo NAL de um fluxo contínuode bits recebido. Se o tipo NAL for uma NAL para codificação de vídeo multivisualização,imagens de referência usadas para o prognóstico intervisualização são reordenadas pelaunidade de reordenação de lista de imagem de referência para prognóstico temporal 970. Alista de imagem de referência gerada para o prognóstico intervisualização é usada parainterprognóstico juntamente com a lista de imagem de referência gerada pela unidade dereordenação de lista de imagem de referência para prognóstico temporal 910. Ainda, se otipo NAL não for a NAL para a codificação de vídeo multivisualização, a lista de imagem dereferência para o prognóstico intervisualização não é reordenada. Neste caso, somente umalista de imagem de referência para prognóstico temporal é gerada, e a unidade dereordenação de lista de imagem de referência para prognóstico intervisualização 970reordena imagens de referência usadas para prognóstico intervisualização. Isto é explicadocom detalhes em relação à figura 16, como segue.
A figura 16 é um diagrama de blocos interno da unidade de reordenação de lista deimagem de referência 970 para prognóstico intervisualização de acordo com umamodalidade da presente invenção.
Em relação à figura 16, a unidade de reordenação de lista de imagem de referênciapara prognóstico intervisualização 970 inclui uma unidade de verificação de tipo de fatia 642,uma quinta unidade de obtenção de informação de identificação 971, uma quinta unidade demudança de atribuição de índice de referência 972, uma sexta unidade de obtenção deinformação de identificação 973, e uma sexta unidade de mudança de atribuição de índicede referência 974.
A unidade de verificação de tipo de fatia 642 verifica o tipo de fatia da fatia atual. Sefor o caso, então, decide-se se deve-se executar a reordenação de uma lista 0 de imagemde referência e/ou de uma lista 1 de imagem de referência de acordo com o tipo de fatia.Detalhes da unidade de verificação do tipo de fatia 642 que são omitidos na seguintedescrição podem ser inferidos da figura 10.
Cada uma da quinta e da sexta unidades de obtenção de informação deidentificação 971 e 973 obtém informação de identificação que indica um método deatribuição de índice de referência, e cada uma das quinta e sexta unidades de mudança deatribuição de índice de referência 972 e 974 muda um índice de referência atribuído a cadaimagem de referência da lista 0 de imagem de referência e/ou da lista 1 de imagem dereferência. Neste caso, o índice de referência pode significar um número de visualizaçãosomente de uma imagem de referência, e a informação de identificação que indica o métodode atribuição de índice de referência pode ser informação de indicador. Por exemplo, se ainformação de indicador for verdadeiro, uma atribuição de um número de visualização émudada. Se a informação de identificação for falso, um processo de reordenação de umnúmero de visualização pode ser transmitido. Se a informação de identificação forverdadeiro, cada uma das quinta e sexta unidades de mudança de atribuição de índice dereferência 972 e 974 pode obter uma diferença do número de visualização de acordo com ainformação do indicador. Neste caso, a diferença do número de visualização significa umadiferença entre um número de visualização de uma imagem atual e um número devisualização de uma imagem prognosticada, e o número de visualização da imagemprognosticada pode significar um número de visualização de uma imagem de referênciaatribuída exatamente antes. Então, pode-se mudar a atribuição do número de visualizaçãousando a diferença do número de visualização. Neste caso, a diferença do número devisualização pode ser adicionada / subtraída do número de visualização da imagemprognosticada de acordo com a informação de identificação.
Assim, para gerenciar a lista de imagem de referência para o prognósticointervisualização como uma lista de imagem de referência separada, é necessário definirnovamente uma estrutura de sintaxe. Como uma modalidade dos conteúdos explicados nafigura 15 e na figura 16, a sintaxe é explicada em relação à figura 17, à figura 18 e à figura19, como segue.
A figura 17 e a figura 18 são diagramas de sintaxe para a reordenação da lista deimagem de referência de acordo com uma modalidade da presente invenção.
Em relação à figura 17, uma operação da unidade de reordenação de lista deimagem de referência para o prognóstico temporal 910 mostrada na figura 15 érepresentada como sintaxe. Comparado com os blocos mostrados na figura 15, a unidadede verificação de tipo de fatia 642 corresponde a S1 e S6, e a quarta unidade de obtençãode informação de identificação 940 corresponde a S7. Os blocos internos da terceiraunidade de mudança de atribuição de índice de referência 930 correspondem a S3, S4 e S5,respectivamente, e os blocos internos da quarta unidade de mudança de atribuição deíndice de referência 950 correspondem a S8, S9 e S10, respectivamente.
Em relação à figura 18, operações da unidade de verificação do tipo NAL 960 e aunidade de reordenação de lista de imagem de referência intervisualização 920 sãorepresentadas como sintaxe. Comparado com os respectivos blocos mostrados na figura 15e na figura 16, a unidade de verificação tipo NAL 960 corresponde a S13 e S16, a quintaunidade de obtenção de informação de identificação 971 corresponde a S14, e a sextaunidade de obtenção de informação de identificação 973 corresponde a S17. A quintaunidade de mudança de atribuição de índice de referência 972 corresponde a S15 e a sextaunidade de mudança de atribuição de índice de referência 974 corresponde a S18.
A figura 19 é um diagrama de sintaxe para a reordenação da lista de imagem dereferência de acordo com uma outra modalidade da presente invenção.
Em relação à figura 19, operações da unidade de verificação de tipo NAL 960 e aunidade de reordenação de lista de imagem de referência intervisualização 970 sãorepresentadas como sintaxe. Comparado com os respectivos blocos mostrados na figura 15e na figura 16, a unidade de verificação do tipo NAL 960 corresponde a S21, a unidade deverificação do tipo de fatia 642 corresponde a S22 e S25, a quinta unidade de obtenção deinformação de identificação 971 corresponde a S23, e a sexta unidade de obtenção deinformação de identificação 973 corresponde a S26. A quinta unidade de mudança deatribuição de índice de referência 972 corresponde a S24 e a sexta unidade de mudança deatribuição de índice de referência 974 corresponde a S27.
Da forma mencionada na descrição exposta, a lista de imagem de referência para oprognóstico intervisualização pode ser usada pela unidade de interprognóstico 700 etambém é usada para realizar compensação de iluminação. A compensação de iluminaçãoé aplicável no curso da realização da estimativa de movimento / compensação demovimento. No caso em que uma imagem atual usa uma imagem de referência em umavisualização diferente, pode-se realizar a compensação de iluminação mais eficientementeusando a lista de imagem de referência para o prognóstico intervisualização. Ascompensações de iluminação de acordo com modalidades da presente invenção sãoexplicadas como segue.
A figura 20 é um diagrama para um processo para obter um valor de diferença deiluminação do bloco atual de acordo com uma modalidade da presente invenção.
Compensação de iluminação significa um processo para decodificar uma solicitaçãocompensada adaptativamente em relação ao movimento de acordo com a mudança deiluminação, e ela é aplicável a uma estrutura de prognóstico de um sinal de vídeo, porexemplo, prognóstico intervisualização, prognóstico intravisualização e congêneres.Compensação de iluminação significa um processo para decodificar um sinal devídeo usando uma diferença de iluminação residual e um valor de prognóstico de diferençade iluminação correspondente a um bloco a ser decodificado. Neste caso, o valor deprognóstico de diferença de iluminação pode ser obtido de um bloco vizinho do bloco atual.Um processo para obter um valor de prognóstico de diferença de iluminação do blocovizinho pode ser decidido usando informação de referência para o bloco vizinho, e umaseqüência e direção podem ser levadas em consideração no curso da busca por blocosvizinhos. O bloco vizinho significa um bloco já decodificado e também significa um blocodecodificado pela consideração da redundância na mesma imagem para uma visualizaçãoou tempo ou uma seqüência decodificados pela consideração da redundância nas diferentesimagens.
Na comparação de similaridades entre um bloco atual e um bloco de referênciacandidato, uma diferença de iluminação entre os dois blocos deve ser levada emconsideração. A fim de compensar a diferença de iluminação, nova estimação /compensação de movimento é executada. Novo SAD pode ser encontrado usando aFórmula 1.
[Fórmula 1]
<formula>formula see original document page 37</formula>
[Fórmula 2]
<formula>formula see original document page 37</formula>
Neste caso, 'Mcurr' indica um valor de pixel médio de um bloco atual e 'Mref indicaum valor de pixel médio de um bloco de referência. lf(i,j)' indica um valor de pixel de umbloco atual e 'r(i+x, j+y)' indica um valor de pixel de um bloco de referência. Pela realizaçãode estimativa de movimento com base no novo SAD de acordo com a Fórmula 2, pode-seobter um valor de diferença de pixel médio entre o bloco atual e o bloco de referência, e ovalor de diferença de pixel médio obtido pode ser chamado de um valor de diferença deiluminação (IC_offset).
No caso da realização de estimativa de movimento na qual a compensação deiluminação é aplicada, um valor de diferença de iluminação e um vetor de movimento sãogerados, e a compensação de iluminação é executada de acordo com a Fórmula 3 usando ovalor de diferença de iluminação e o vetor de movimento.
[Fórmula 3]
<formula>formula see original document page 38</formula>
Neste caso, NewR(i,j) indica um valor de erro compensado (residual) e (x\ y') indicaum vetor de movimento.
Um valor de diferença de iluminação (Mcurr - Mref) deve ser transferido à unidadede decodificação. A unidade de decodificação realiza a compensação de iluminação daseguinte maneira.
[Fórmula 4]
<formula>formula see original document page 38</formula>
Na Fórmula 4, NewR"(i,j) indica um valor de erro compensado com iluminaçãoreconstruída (residual) e f'(i,j) indica um valor de pixel de um bloco atual reconstruído.
A fim de reconstruir um bloco atual, um valor de diferença de iluminação deve sertransferido à unidade de decodificação. e o valor de diferença de iluminação pode serprognosticado a partir da informação dos blocos vizinhos. A fim de reduzir adicionalmente onúmero de bits para codificar o valor da diferença de iluminação, pode-se transmitir um valorde diferença (RIC_offset) entre o valor da diferença de iluminação do bloco atual (IC_offset)e o valor da diferença de iluminação do bloco vizinho (predlC_offset) somente. Isto érepresentado pela Fórmula 5.
[Fórmula 5]
<formula>formula see original document page 38</formula>
A figura 21 é um fluxograma de um processo para realizar compensação deiluminação de um bloco atual de acordo com uma modalidade da presente invenção.
Em relação à figura 21, antes de mais nada, um valor de diferença de iluminação deum bloco vizinho que indica um valor de diferença de pixel médio entre o bloco vizinho dobloco atual e de um bloco referido pelo bloco vizinho é extraído do sinal de vídeo. (S2110).
Subseqüentemente, um valor de prognóstico de diferença de iluminação paracompensação de iluminação do bloco atual é obtido usando o valor de diferença deiluminação (S2120). Então, pode-se reconstruir um valor de diferença de iluminação dobloco atual usando o valor de prognóstico de diferença de iluminação obtido.
Na obtenção do valor de prognóstico de diferença de iluminação, pode-se usarvários métodos. Por exemplo, antes de o valor da diferença de iluminação do bloco atual serprognosticado a partir do valor da diferença de iluminação do bloco vizinho, verifica-se seum índice de referência do bloco atual é igual àquele do bloco vizinho. Então, pode-sedecidir qual tipo de bloco vizinho ou qual valor será usado de acordo com o resultado daverificação. Como um outro exemplo, na obtenção do valor de prognóstico da diferença deiluminação, pode ser usada informação de indicador (IC_flag) que indica se deve-seexecutar uma compensação de iluminação do bloco atual, e informação do indicador para obloco atual também pode ser prognosticada usando a informação dos blocos vizinhos.Como um outro exemplo, pode-se obter o valor de prognóstico de diferença de iluminaçãousando tanto o método de verificação de índice de referência quanto o método deprognóstico de informação do indicador. Estes são explicados com detalhes em relação àsfiguras 22 a 24, como segue.
A figura 22 é um diagrama de blocos de um processo para obter um valor deprognóstico de diferença de iluminação de um bloco atual usando informação para um blocovizinho de acordo com uma modalidade da presente invenção.
Em relação à figura 22, pode-se usar informação para um bloco vizinho naobtenção da um valor de prognóstico de diferença de iluminação do bloco atual. Na presentedivulgação, um bloco pode incluir um macrobloco ou um submacrobloco. Por exemplo,pode-se prognosticar um valor de diferença de iluminação do bloco atual usando um valorde diferença de iluminação do bloco vizinho. Antes disto, verifica-se se um índice dereferência do bloco atual é igual àquele do bloco vizinho. Então, de acordo com o resultadoda verificação, pode-se decidir qual tipo de bloco vizinho ou qual valor será usado. Na figura22, 'refldxLx' indica um índice de referência do bloco atual, 'refldxLXN' indica um índice dereferência de um bloco N. Neste caso, 'N' é uma arca de um bloco vizinho ao bloco atual eindica A, B ou C. E, 'PredlC_offsetN' indica um valor de diferença de iluminação paracompensação de iluminação de um bloco N vizinho. Se o bloco C que está localizado emuma extremidade superior direita do bloco atual não puder ser usado, pode-se usar umbloco D, em vez do bloco C. Em particular, informação para o bloco D é usada comoinformação para o bloco C. Se nem o bloco B nem o bloco C puderem ser usados, em vezdisto, pode-se usar o bloco A. A saber, pode-se usar a informação para o bloco A como ainformação para o bloco B ou para o bloco C.
Como um outro exemplo, na obtenção do valor de prognóstico da diferença deiluminação, pode-se usar informação do indicador (IC_flag) que indica se deve-se executaruma compensação de iluminação do bloco atual. Alternativamente, pode-se usar tanto ométodo de verificação de índice de referência quanto o método de prognóstico deinformação de indicador na obtenção do valor de prognóstico de diferença de iluminação.Neste caso, se a informação do indicador para o bloco vizinho indicar que a compensaçãode iluminação não é executada, isto é, se IC_flag==0, o valor da diferença de iluminação'PredlC_offsetN' do bloco vizinho é ajustado em 0.
A figura 23 é um fluxograma de um processo para realizar compensação deiluminação usando informação para um bloco vizinho de acordo com uma modalidade dapresente invenção.
Em relação à figura 23, a unidade de decodificação extrai um valor de pixel médiode um bloco de referência, um índice de referência do bloco atual, um índice de referênciado bloco de referência e congêneres de um sinal de vídeo e, então, pode obter um valor deprognóstico de diferença de iluminação do bloco atual usando a informação extraída. Aunidade de decodificação obtém um valor de diferença (diferença de iluminação residual)entre um valor de diferença de iluminação do bloco atual e o valor de prognóstico dediferença de iluminação e, então, pode reconstruir um valor de diferença de iluminação dobloco atual usando a diferença de iluminação residual obtida e o valor de prognóstico dadiferença de iluminação. Neste caso, pode-se usar informação para um bloco vizinho paraobter o valor de prognóstico da diferença de iluminação do bloco atual. Por exemplo, pode-se prognosticar um valor de diferença de iluminação do bloco atual usando o valor dediferença de iluminação do bloco vizinho. Antes disto, verifica-se se um índice de referênciado bloco atual é igual àquele do bloco vizinho. Então, de acordo com o resultado daverificação, pode-se decidir qual tipo de bloco vizinho ou de valor será usado.
Em particular, um valor de diferença de iluminação de um bloco vizinho que indicaum valor de diferença de pixel médio entre o bloco vizinho de um bloco atual e um blocoreferido pelo bloco vizinho é extraído de um sinal de vídeo. (S2310).
Subseqüentemente, verifica-se se um índice de referência do bloco atual é igual aum índice de referência de um bloco vizinho de uma pluralidade de blocos vizinhos (S2320).
Em decorrência da etapa de verificação S2320, se existir pelo menos um blocovizinho com o mesmo índice de referência daquele do bloco atual, verifica-se se existe umbloco vizinho correspondente ou não (S2325).
Em decorrência da etapa de verificação S2325, se existir somente um bloco vizinhocom o mesmo índice de referência do bloco atual, um valor de diferença de iluminação dobloco vizinho com o mesmo índice de referência do bloco atual é atribuído a um valor deprognóstico de diferença de iluminação do bloco atual (S2330). Em particular, ele é'PredlC_offset = Predlc_offsetN'.
Se o bloco vizinho com o mesmo índice de referência daquele do bloco atual deixarde existir em decorrência da etapa de verificação S2320 ou se existir pelo menos doisblocos vizinhos com o mesmo índice de referência daquele do bloco atual em decorrênciada etapa de verificação S2325, uma mediana dos valores de diferença de iluminação(PredlC_offsetN, N = A, B ou C) dos blocos vizinhos é atribuída a um valor de prognósticode diferença de iluminação do bloco atual (S650). Em particular, ele é 'PredlC_offset =Median(PredlC_offsetA, PredlC_offsetB, PredlC_offsetC').
A figura 24 é um fluxograma de um processo para realizar compensação deiluminação usando informação para um bloco vizinho de acordo com uma outra modalidadeda presente invenção.
Em relação à figura 24, uma unidade de decodificação deve reconstruir um valor dediferença de iluminação do bloco atual para realizar a compensação de iluminação. Nestecaso, pode-se usar informação para um bloco vizinho para obter um valor de prognóstico dediferença de iluminação do bloco atual. Por exemplo, pode-se prognosticar um valor dediferença de iluminação do bloco atual usando o valor de diferença de iluminação do blocovizinho. Antes disto, verifica-se se um índice de referência do bloco atual é igual àquele dobloco vizinho. Então, de acordo com o resultado da verificação, pode-se decidir qual de umbloco vizinho ou de um valor será usado.
Em particular, um valor de diferença de iluminação de um bloco vizinho que indicaum valor de diferença de pixel médio entre o bloco vizinho do bloco atual e um bloco referidopelo bloco vizinho é extraído de um sinal de vídeo (S2410).
Subseqüentemente, verifica-se se um índice de referência do bloco atual é igual aum índice de referência de um de uma pluralidade de blocos vizinhos (S2420).
Em decorrência da etapa de verificação S720, se existir pelo menos um blocovizinho com o mesmo índice de referência daquele do bloco atual, verifica-se se existe umbloco vizinho correspondente ou não (S2430).
Em decorrência da etapa de verificação S2430, se existir somente um bloco vizinhocom o mesmo índice de referência daquele do bloco atual, um valor de diferença deiluminação do bloco vizinho com o mesmo índice de referência daquele do bloco atual éatribuído a um valor de prognóstico de diferença de iluminação do bloco atual (S2440). Emparticular, ele é 'PredlC_offset = PredlC_offsetN'.
Se o bloco vizinho com o mesmo índice de referência daquele do bloco atual deixarde existir em decorrência da etapa de verificação S2420, o valor de prognóstico da diferençade iluminação do bloco atual é ajustado em 0 (S2460). Em particular, ele é 'PredlC_offset =0'.Se existir pelo menos dois blocos vizinhos com o mesmo índice de referênciadaquele do bloco atual em decorrência da etapa de verificação S2430, o bloco vizinho comum índice de referência diferente daquele do bloco atual é ajustado em 0, e uma medianados valores de diferença de iluminação dos blocos vizinhos, incluindo o valor ajustado em 0,é atribuída ao valor de prognóstico da diferença de iluminação do bloco atual (S2450). Emparticular, ele é 'PredlC_offset = Median(PredlC_offsetA, PredlC_offsetB, PredlC_offsetC)'.Ainda, no caso em que existe o bloco vizinho com o índice de referência diferente daqueledo bloco atual, o valor Ό' pode ser incluído em PredlC_offsetA, em PredlC_offsetB ou emPredlC_offsetC.
Neste ínterim, informação de visualização para identificar uma visualização de umaimagem e uma lista de imagem de referência para prognóstico intervisualização é aplicávelà sintetização de uma imagem em uma visualização virtual. Em um processo para sintetizaruma imagem em uma visualização virtual, uma imagem em uma visualização diferente podeser referida. Então, se a informação de visualização e a lista de imagem de referência para oprognóstico intervisualização forem usadas, pode-se sintetizar uma imagem em umavisualização virtual mais eficientemente. Na seguinte descrição, são explicados métodospara sintetizar uma imagem em uma visualização virtual de acordo com modalidades dapresente invenção.
A figura 25 é um diagrama de blocos de um processo para prognosticar umaimagem atual usando uma imagem em uma visualização virtual de acordo com umamodalidade da presente invenção.
Em relação à figura 25, na realização de prognóstico intervisualização nacodificação de vídeo multivisualização, pode-se prognosticar uma imagem atual usando umaimagem em uma visualização diferente daquela da visualização atual como uma imagem dereferência. Ainda, uma imagem em uma visualização virtual é obtida usando imagens emuma visualização vizinha àquela de uma imagem atual e, então, a imagem atual éprognosticada usando a imagem obtida na visualização virtual. Se for o caso, o prognósticopode ser realizado mais precisamente. Neste caso, um identificador de visualização, queindica uma visualização de uma imagem, pode ser usado para utilizar imagens emvisualizações ou imagens vizinhas em uma visualização específica. NO caso em que avisualização virtual for gerada, deve existir sintaxe específica para indicar se deve-se gerar avisualização virtual. Se a sintaxe indicar que a visualização virtual deve ser gerada, pode-segerar a visualização virtual usando o identificador de visualização. As imagens navisualização virtual obtidas pela unidade de prognóstico de síntese de visualização 740 sãousadas como imagens de referência. Neste caso, o identificador de visualização pode seratribuído às imagens na visualização virtual. Em um processo para realizar prognóstico devetor de movimento para transferir um vetor de movimento, blocos vizinhos do bloco atualpodem se referir às imagens obtidas pela unidade de prognóstico de síntese de visualização740. Neste caso, para usar a imagem na visualização virtual como a imagem de referência,um identificador de visualização que indica uma visualização de uma imagem pode serutilizado.
A figura 26 é um fluxograma de um processo para sintetizar uma imagem de umavisualização virtual na realização de prognóstico intervisualização na MVC de acordo comuma modalidade da presente invenção.
Em relação à figura 26, uma imagem em uma visualização virtual é sintetizadausando imagens em uma visualização vizinha àquela da imagem atual. Então, a imagematual é prognosticada usando a imagem sintetizada na visualização virtual. Se for o caso,pode-se alcançar prognóstico mais preciso. No caso em que uma imagem em umavisualização virtual é sintetizada, existe sintaxe específica indicando se deve-se executar umprognóstico de uma imagem atual pela sintetização da imagem na visualização virtual. Sefor decidido executar o prognóstico da imagem atual, é possível codificação mais eficiente. Asintaxe específica é definida como um identificador de prognóstico de sínteseintervisualização, que é explicado como segue. Por exemplo, uma imagem em umavisualização virtual é sintetizada por uma camada de fatia para definir'view_synthesize_pred_flag' que indica se deve-se executar um prognóstico de uma imagematual, e uma imagem em uma visualização virtual é sintetizada por uma camada demacrobloco para definir 'view_syn_pred_flag' que indica se deve-se executar umprognóstico de uma imagem atual. Se 'view_synthsize_pred_flag = 1', uma fatia atualsintetiza uma fatia em uma visualização virtual usando uma fatia em uma visualizaçãovizinha àquela da fatia atual. Então, pode-se prognosticar a fatia atual usando a fatiasintetizada. Se 'view_synthesize_pred_flag = 0', uma fatia em uma visualização virtual não ésintetizada. Igualmente, se 'view_syn_pred_flag = 1', um macrobloco atual sintetiza ummacrobloco em uma visualização virtual usando um macrobloco em uma visualizaçãovizinha àquela do macrobloco atual. Então, pode-se prognosticar o macrobloco atual usandoo macrobloco sintetizado. Se 'view_syn_pred_flag = 0', um macrobloco em uma visualizaçãovirtual não é sintetizado. Portanto, na presente invenção, o identificador de prognóstico desíntese intervisualização que indica se deve-se obter uma imagem em uma visualizaçãovirtual é extraído de um sinal de vídeo. Então, pode-se obter a imagem na visualizaçãovirtual usando o identificador de prognóstico de síntese intervisualização.
Da forma mencionada na descrição exposta, informação de visualização paraidentificar uma visualização de uma imagem e uma lista de imagem de referência paraprognóstico intervisualização podem ser usadas pela unidade de interprognóstico 700. eelas também podem ser usadas na realização de prognóstico ponderado. O prognósticoponderado é aplicável a um processo para realizar compensação de movimento. Fazendoisto, se uma imagem atual usar uma imagem de referência em uma visualização diferente,pode-se realizar o prognóstico ponderado mais eficientemente usando a informação devisualização e a lista de imagem de referência para o prognóstico intervisualização. Métodosde prognóstico ponderado de acordo com modalidades da presente invenção são explicadoscomo segue.
A figura 27 é um fluxograma de um método para executar prognóstico ponderadode acordo com um tipo de fatia na codificação de sinal de vídeo de acordo com a presenteinvenção.
Em relação à figura 27, prognóstico ponderado é um método para escalar umaamostra de dados de prognóstico compensados em relação ao movimento em ummacrobloco da fatia P ou da fatia B. Um método de prognóstico ponderado inclui um modoexplícito para realizar prognóstico ponderado para uma imagem atual usando umainformação de coeficiente ponderado obtida da informação para imagens de referência, eum modo implícito para realizar prognóstico ponderado para uma imagem atual usando umainformação de coeficiente ponderado obtida da informação para uma distância entre aimagem atual e um das imagens de referência. O método de prognóstico ponderado podeser diferentemente aplicado de acordo com um tipo de fatia do macrobloco atual. Porexemplo, no modo explícito, a informação de coeficiente ponderado pode variar de acordocom se o macrobloco atual, no qual prognóstico ponderado é realizado, é um macrobloco deuma fatia P ou um macrobloco de uma fatia B. e o coeficiente ponderado do modo explícitopode ser decidido por um codificador e pode ser transferido sendo incluído em umcabeçalho da fatia. Por outro lado, no modo implícito, um coeficiente ponderado pode serobtido com base em uma posição relativamente temporal da Lista 0 e da Lista 1. Porexemplo, se uma imagem de referência estiver temporariamente próxima de uma imagematual, um grande coeficiente ponderado é aplicável. Se uma imagem de referência estivertemporariamente distante de uma imagem atual, um pequeno coeficiente ponderado éaplicável.
Antes de mais nada, um tipo de fatia de um macrobloco para aplicar prognósticoponderado é extraído de um sinal de vídeo (S2710).Subseqüentemente, prognóstico ponderado pode ser realizado em um macroblocode acordo com o tipo de fatia extraído (S2720).
Neste caso, o tipo de fatia pode incluir um macrobloco no qual prognósticointervisualização é aplicado. O prognóstico intervisualização significa que uma imagem atualé prognosticada usando informação para uma imagem em uma visualização diferentedaquela da imagem atual. Por exemplo, o tipo de fatia pode incluir um macrobloco no qualprognóstico temporal para realizar prognóstico usando informação para uma imagem emuma mesma visualização daquela da imagem atual é aplicado, um macrobloco no qual oprognóstico intervisualização é aplicado, e um macrobloco no qual tanto o prognósticotemporal quanto o prognóstico intervisualização são aplicados, e o tipo de fatia pode incluirum macrobloco no qual somente prognóstico temporal é aplicado, um macrobloco no qualsomente prognóstico intervisualização é aplicado, ou um macrobloco no qual tanto oprognóstico temporal quanto o prognóstico intervisualização são aplicados. Além do mais, otipo de fatia pode incluir dois dos tipos de macrobloco ou todos os três tipos de macrobloco.Isto será explicado com detalhes em relação à figura 28, posteriormente. Assim, no caso emque um tipo de fatia que inclui um prognóstico intervisualização aplicado em macrobloco éextraído de um sinal de vídeo, prognóstico ponderado é realizado usando informação parauma imagem em juma visualização diferente daquela de uma imagem atual. Fazendo isto,um identificador de visualização para identificar uma visualização de uma imagem pode serutilizado para usar informação para uma imagem em uma visualização diferente.
A figura 28 é um diagrama de tipos de macrobloco permitidos em um tipo de fatiana codificação de sinal de vídeo de acordo com uma modalidade da presente invenção.
Em relação à figura 28, se um tipo de fatia P por prognóstico intervisualização fordefinido como VP (View_P), um intramacrobloco I, um macrobloco P prognosticado de umaimagem em uma visualização atual, ou um macrobloco VP prognosticado de uma imagemem uma visualização diferente é permitido para o tipo de fatia P pelo prognósticointervisualização (2810).
No caso em que um tipo de fatia B por prognóstico intervisualização for definidocomo VB (View_B), um macrobloco P ou B prognosticado de pelo menos uma imagem emuma visualização atual ou um macrobloco VP ou VB prognosticado de pelo menos umaimagem em uma visualização diferente é permitido (2820).
No caso em que um tipo de fatia, no qual o prognóstico é realizado usandoprognóstico temporal, prognóstico intervisualização, ou tanto o prognóstico temporal quantoo prognóstico intervisualização, é definido como 'Misturado', um intramacrobloco I, ummacrobloco P ou B prognosticado a partir de pelo menos uma imagem em uma visualizaçãoatual, um macrobloco VP ou VB prognosticado a partir de pelo menos uma imagem em umavisualização diferente, ou um macrobloco 'Misturado' prognosticado usando tanto a imagemna visualização atual quanto a imagem na visualização diferente são permitidos para o tipode fatia misturado (2830). Neste caso, a fim de usar a imagem na visualização diferente,pode-se usar um identificador de visualização para identificar uma visualização de umaimagem.
A figura 29 e a figura 30 são diagramas de sintaxe para executar prognósticoponderado de acordo com um tipo de fatia recém-definido de acordo com uma modalidadeda presente invenção.
Da forma mencionada na descrição exposta da figura 28, se o tipo de fatia fordecidido como VP1 VB ou Misturado, a sintaxe para realizar o prognóstico ponderadoconvencional (por exemplo, H.264) pode ser modificada na figura 29 ou na figura 30.
Por exemplo, se um tipo de fatia for fatia P por prognóstico temporal, uma parte'se(slice_type != VP || slice_type != VB)' é adicionada (2910).
Se um tipo de fatia for uma fatia B pode prognóstico temporal, a declaração se podeser modificada em 'se(slice_type == B || slice_type == Misturado)' (2920).
Definindo novamente um tipo de fatia VP e um tipo de fatia VB, um formato similar àfigura 29 pode ser novamente adicionado (2930, 2940). Neste caso, já que informação parauma visualização é adicionada, elementos de sintaxe incluem partes de 'visualização',respectivamente. Por exemplo, há 'luma_log2_view_weight_denom,chroma_log2_view_weight_denom'.
A figura 31 é um fluxograma de um método para executar prognóstico ponderadousando informação de indicador que indica se deve-se executar prognóstico ponderadointervisualização na codificação de sinal de vídeo de acordo com a presente invenção.
Em relação à figura 31, na codificação de sinal de vídeo à qual a presente invençãoé aplicada, no caso de usar informação de indicador que indica se prognóstico ponderadoserá executado, codificação mais eficiente é habilitada.
A informação do indicador pode ser definida com base em um tipo de fatia. Porexemplo, pode existir informação de indicador que indica se prognóstico ponderado seráaplicado em uma fatia P ou em uma fatia SP, ou informação de indicador que indica seprognóstico ponderado será aplicado em uma fatia B.
Em particular, a informação de indicador pode ser definida como'weighted_pred_flag' ou 'weighted_bipred_idc'. Se 'weighted_pred_flag = 0', ele indica queprognóstico ponderado não é aplicado na fatia P nem na fatia SP. Se 'weighted_pred_flag =1', ele indica que prognóstico ponderado é aplicado na fatia P e na fatia SP. Se'weighted_bipred_idc = 0', ele indica que prognóstico ponderado padrão é aplicado na fatiaB. Se 'weighted_bipred_idc = 1', ele indica que prognóstico ponderado explícito é aplicadona fatia B. Se 'weighted_bipred_idc = 2', ele indica que prognóstico ponderado implícito éaplicado na fatia B.
Na codificação de vídeo multivisualização, informação de indicador que indica seprognóstico ponderado será executado usando informação para uma imagemmultivisualização pode ser definida com base em um tipo de fatia.
Antes de mais nada, um tipo de fatia e informação de indicador que indica seprognóstico ponderado intervisualização será executado são extraídos de um sinal de vídeo(S3110, S3120). Neste caso, o tipo de fatia pode incluir um macrobloco no qual prognósticotemporal para realizar prognóstico usando informação para uma imagem em uma mesmavisualização daquela de uma imagem atual é aplicado, e um macrobloco no qualprognóstico intervisualização para realizar prognóstico usando informação para umaimagem em uma visualização diferente daquela de uma imagem atual é aplicado.
Então, pode-se decidir um modo de prognóstico ponderado com base no tipo defatia extraída e na informação de indicador extraída (S3130).
Subseqüentemente, pode-se realizar prognóstico ponderado de acordo com omodo de prognóstico ponderado (S3140). Neste caso, a informação do indicador podeincluir informação de indicador que indica se prognóstico ponderado será executado usandoinformação para uma imagem em uma visualização diferente daquela de uma imagem atual,bem como os supramencionados 'weighted_pred_flag' e 'weighted_bipred_flag'. Isto seráexplicado com detalhes em relação à figura 32, posteriormente.
Portanto, no caso em que um tipo de fatia de um macrobloco atual é um tipo defatia que inclui um macrobloco no qual prognóstico intervisualização é aplicado, codificaçãomais eficiente é habilitada em vez de um caso de usar informação de indicador que indica seprognóstico ponderado será executado usando informação para uma imagem em umavisualização diferente.
A figura 32 é um diagrama para explicar um método de prognóstico ponderado deacordo com informação de indicador que indica se deve-se executar prognóstico ponderadousando informação para uma imagem em uma visualização diferente daquela da imagematual de acordo com uma modalidade da presente invenção.
Em relação à figura 32, por exemplo, informação de indicador que indica seprognóstico ponderado será executado usando informação para uma imagem em umavisualização diferente daquela de uma imagem atual pode ser definida como'view_weighted_pred_flag' ou 'view_weighted_bipred_flag'.
Se 'view_weighted_pred_flag = 0', ele indica que prognóstico ponderado não éaplicado em uma fatia VP. Se 'view_weighted_pred_flag = 1', prognóstico ponderadoexplícito é aplicado em uma fatia VP. Se 'view_weighted_pred_flag = 0', ele indica queprognóstico ponderado padrão é aplicado em uma fatia VB. Se 'view_weighted_pred_flag =1', ele indica que prognóstico ponderado explícito é aplicado a uma fatia VB. Se'view_weighted_pred_flag = 2', ele indica que prognóstico ponderado padrão implícito éaplicado em uma fatia VB.
No caso em que prognóstico ponderado implícito for aplicado em uma fatia VB, umcoeficiente ponderado pode ser obtido a partir de uma distância relativa entre umavisualização atual e uma visualização diferente. No caso em que prognóstico ponderadoimplícito é aplicado e uma fatia VB, prognóstico ponderado pode ser realizado usando umidentificador de visualização que identifica uma visualização de uma imagem ou umacontagem de ordem de imagem (POC) renderizada pela consideração da discriminação decada visualização.As informações de. indicador expostas podem ser incluídas em um ajuste deparâmetro de imagem (PPS). Neste caso, o ajuste de parâmetro de imagem (PPS) significainformação de cabeçalho que indica um modo de codificação de todas as imagens (porexemplo, modo de codificação de entropia, valor inicial de parâmetro de quantização porunidade de imagem, etc.). Ainda, o ajuste de parâmetro de imagem não é anexado a todasas imagens. Se um ajuste de parâmetro de imagem não existir, um ajuste de parâmetro deimagem existente exatamente antes é usado como informação de cabeçalho.
A figura 33 é um diagrama de sintaxe para executar prognóstico ponderado deacordo com a informação de indicador recém-definida de acordo com uma modalidade dapresente invenção.
Em relação à figura 33, na codificação de vídeo multivisualização na qual apresente invenção é aplicada, no caso em que um tipo de fatia que inclui um macroblocoaplicado no prognóstico intervisualização e informação de indicador que indica seprognóstico ponderado será executado usando informação para uma imagem em umavisualização diferente daquela de uma imagem atual são definidos, é necessário decidir qualtipo de prognóstico ponderado será executado de acordo com o tipo de fatia.
Por exemplo, se um tipo de fatia, mostrado na figura 33, extraído de um sinal devídeo for uma fatia P ou uma fatia SP, prognóstico ponderado pode ser executado se'weighted_pred_flag = 1'. No caso em que um tipo de fatia for uma fatia B, prognósticoponderado pode ser executado se 'weighted_bipred_flag = 1'. No caso em que um tipo defatia for uma fatia VP, prognóstico ponderado pode ser executado se'view_weighted_pred_flag = 1'. No caso em que um tipo de fatia for uma fatia VB,prognóstico ponderado pode ser executado se 'view_weighted_bipred_flag = 1'.
A figura 34 é um fluxograma de um método para executar prognóstico ponderadode acordo com uma unidade NAL (camada de abstração de rede) de acordo com umamodalidade da presente invenção.
Em relação à figura 34, antes de mais nada, um tipo de unidade NAL(nal_unit_type) é extraído de um sinal de vídeo (S910). Neste caso, o tipo de unidade NALsignifica um identificador que indica um tipo de unidade NAL. Por exemplo, se 'nal_unit_type5', uma unidade NAL é uma fatia de uma imagem IDR. e a imagem IDR (atualização dedecodificação instantânea) significa uma imagem de cabeçalho de uma seqüência de vídeo.
Subseqüentemente, verifica-se se o tipo de unidade NAL extraído é um tipo deunidade NAL para codificação de vídeo multivisualização (S3420).
Se o tipo de unidade NAL for o tipo de unidade NAL para codificação de vídeomultivisualização, prognóstico ponderado é realizado usando informação para uma imagemem uma visualização diferente daquela de uma imagem atual (S3430). O tipo de unidadeNAL pode ser um tipo de unidade NAL aplicável tanto a codificação de vídeo escalávelquanto a codificação de vídeo multivisualização ou um tipo de unidade NAL parâcodificaçãode vídeo multivisualização somente. Assim, se o tipo de unidade NAL for para codificaçãode vídeo multivisualização, o prognóstico ponderado deve ser executado usando ainformação para a imagem na visualização diferente daquela da imagem atual. Então, énecessário definir nova sintaxe. Isto será explicado com detalhes em relação à figura 35 e àfigura 36, como segue.
A figura 35 e a figura 36 são diagramas de sintaxe para executar prognósticoponderado no caso em que um tipo de unidade NAL é para codificação de vídeomultivisualização de acordo com uma modalidade da presente invenção.
Antes de mais nada, se um tipo de unidade NAL for um tipo de unidade NAL paracodificação de vídeo multivisualização, sintaxe para executar prognóstico ponderadoconvencional (por exemplo, H.264) pode ser modificada na sintaxe mostrada na figura 35 ouna figura 36. Por exemplo, um número de referência 3510 indica uma parte de sintaxe pararealizar prognóstico ponderado convencional e um número de referência 3520 indica umaparte de sintaxe para realizar prognóstico ponderado em codificação de vídeomultivisualização. Então, o prognóstico ponderado é realizado pela parte de sintaxe 3520somente se o tipo de unidade NAL for o tipo de unidade NAL para codificação de vídeomultivisualização. Neste caso, já que informação para uma visualização é adicionada, cadaelemento de sintaxe inclui uma parte de 'visualização'. Por exemplo, há'luma_view_log2_weight_denom, chroma_view_log2_weight_denom' ou congêneres, e umnúmero de referência 3530 na figura 36 indica uma parte de sintaxe para realizarprognóstico ponderado convencional, e um número de referência 3540 na figura 36 indicauma parte de sintaxe para realizar prognóstico ponderado em codificação de vídeomultivisualização. Então, o prognóstico ponderado é realizado pela parte de sintaxe 3540somente se o tipo de unidade NAL for o tipo de unidade NAL para codificação de vídeomultivisualização. Igualmente, já que informação para uma visualização é adicionada, cadaelemento de sintaxe inclui uma parte de 'visualização'. Por exemplo, há'Iuma_view_weight_l1_flag, chroma_view_weight_M_flag' ou congêneres. Assim, se um tipode unidade NAL para codificação de vídeo multivisualização for definido, codificação maiseficiente é habilitada em uma maneira de realizar prognóstico ponderado usando informaçãopara uma imagem em uma visualização diferente daquela de uma imagem atual.
A figura 37 é um diagrama de blocos de um aparelho para decodificar um sinal devídeo de acordo com uma modalidade da presente invenção.
Em relação à figura 37, um aparelho para decodificar um sinal de vídeo de acordocom a presente invenção inclui uma unidade de extração de tipo de fatia 3710, uma unidadede extração de modo de prognóstico 3720 e uma unidade de decodificação 3730.
A figura 38 é um fluxograma de um método para decodificar um sinal de vídeo noaparelho de decodificação mostrado na figura 37 de acordo com uma modalidade dapresente invenção.
Em relação à figura 38, um método para decodificar um sinal de vídeo de acordocom uma modalidade da presente invenção inclui uma etapa S3810 de extrair um tipo defatia e um modo de prognóstico de macrobloco, e uma etapa S3820 de decodificar ummacrobloco atual de acordo com o tipo de fatia e/ou modo de prognóstico de macrobloco.
Primeiro, um esquema de prognóstico usado por uma modalidade da presenteinvenção é explicado para ajudar no entendimento da presente invenção. O esquema deprognóstico pode ser classificado em um prognóstico intravisualização (por exemplo,prognóstico entre imagens em uma mesma visualização) e um prognóstico intervisualização(por exemplo, prognóstico entre imagens em diferentes visualizações), e o prognósticointravisualização pode ser o mesmo esquema de prognóstico de um prognóstico temporalgeral.
De acordo com a presente invenção, a unidade de extração de tipo de fatia 3710extrai um tipo de fatia de uma fatia que inclui um macrobloco atual (S3810).
Neste caso, um campo de tipo de fatia (slice_type) que indica um tipo de fatia paraprognóstico intravisualização e/ou um campo de tipo de fatia (view_slice_type) que indicaum tipo de fatia para prognóstico intervisualização podem ser fornecidos como parte dasintaxe do sinal de vídeo para fornecer o tipo de fatia. Isto será descrito com mais detalhes aseguir em relação às figuras 6(a) e 6(b). e cada um do tipo de fatia (slice_type) paraprognóstico intravisualização do tipo de fatia (view_slice_type) para prognósticointervisualização pode indicar, por exemplo, um tipo de fatia I (l_SLICE), um tipo de fatia P(P_SLICE) ou um tipo de fatia B (B_SLICE).
Por exemplo, se 'slice_type' de uma fatia específica for uma fatia B e'view_slice_type' for uma fatia P, um macrobloco na fatia específica é decodificado por umesquema de codificação de fatia B (B_SLICE) em uma direção de intravisualização (isto é,uma direção temporal) e/ou por um esquema de codificação de fatia P (P_SLICE) em umadireção de visualização.
Neste ínterim, o tipo de fatia pode incluir um tipo de fatia P (VP) para prognósticointervisualização, um tipo de fatia B (VB) para prognóstico intervisualização e um tipo defatia misturado (Misturado) pelo prognóstico resultante da mistura de ambos os tipos deprognóstico. A saber, o tipo de fatia misturado fornece prognóstico usando uma combinaçãode prognóstico intravisualização e intervisualização.
Neste caso, um tipo de fatia P para prognóstico intervisualização significa um casoem que cada macrobloco ou partição de macrobloco incluído em uma fatia é prognosticadoa partir de uma imagem em uma visualização atual ou de uma imagem em uma visualizaçãodiferente. Um tipo de fatia B para prognóstico intervisualização significa um caso em quecada macrobloco ou partição de macrobloco incluído em uma fatia é prognosticado a partirde 'uma ou duas imagens em uma visualização atual' ou de 'uma imagem em umavisualização diferente ou duas imagens em visualizações diferentes, respectivamente', e umtipo de fatia misturado para prognóstico resultante da mistura de ambos os prognósticossignifica um caso em que cada macrobloco ou partição de macrobloco incluído em uma fatiaé prognosticado a partir de 'uma ou duas imagens em uma visualização atual', de 'umaimagem em uma visualização diferente ou duas imagens em visualizações diferentes,respectivamente', ou de 'uma ou duas imagens em uma visualização atual e uma imagemem uma visualização diferente ou duas imagens em visualizações diferentes,respectivamente'.
Em outras palavras, uma imagem referida e tipo de macrobloco permitido diferemem cada tipo de fatia, o que será explicado com detalhes em relação à figura 43 e à figura44, posteriormente.
E, a sintaxe entre as modalidades expostas do tipo de fatia será explicada comdetalhes em relação à figura 40 e à figura 41, posteriormente.
A unidade de extração de modo de prognóstico 3720 pode extrair um indicador demodo de prognóstico de macrobloco que indica se o macrobloco atual é um macrobloco porprognóstico intravisualização, um macrobloco por prognóstico intervisualização ou ummacrobloco por prognóstico resultante da mistura de ambos os tipos de prognóstico(S3820). Para isto, a presente invenção define um modo de prognóstico de macrobloco(mb_pred_mode). Uma modalidade dos modos de prognóstico de macrobloco seráexplicada com detalhes em relação às figuras 39, 40 e à figura 41, posteriormente.
A unidade de decodificação 370 decodifica o macrobloco atual de acordo com o tipode fatia e/ou com o modo de prognóstico de macrobloco para receber / produzir omacrobloco atual (S3820). Neste caso, o macrobloco atual pode ser decodificado de acordocom o tipo de macrobloco do macrobloco atual decidido a partir da informação tipomacrobloco. e o tipo de macrobloco pode ser decidido de acordo com o modo deprognóstico de macrobloco e com o tipo de fatia.
No caso em que o modo de prognóstico de macrobloco é um modo paraprognóstico intravisualização, o tipo de macrobloco é decidido de acordo com um tipo defatia para prognóstico intravisualização e então o macrobloco atual é decodificado porprognóstico intravisualização de acordo com o tipo de macrobloco decidido.
No caso em que o modo de prognóstico de macrobloco é um modo paraprognóstico intervisualização, o tipo de macrobloco é decidido de acordo com um tipo defatia para prognóstico intervisualização e, então, o macrobloco atual é decodificado peloprognóstico intervisualização de acordo com o tipo de macrobloco decidido.
No caso em que o modo de prognóstico do macrobloco for um modo paraprognóstico resultante da mistura de ambos os prognósticos, o tipo de macrobloco édecidido de acordo com um tipo de fatia para prognóstico intravisualização e com um tipo defatia para prognóstico intervisualização e, então, o macrobloco atual é decodificado peloprognóstico resultante da mistura de ambos os prognósticos de acordo com cada um dostipos de macrobloco decididos.
Neste caso, o tipo de macrobloco depende de um modo de prognóstico demacrobloco e de um tipo de fatia. Em particular, um esquema de prognóstico a ser usadopara um tipo de macrobloco pode ser determinado a partir de um modo de prognóstico demacrobloco e, então, um tipo de macrobloco é decidido a partir da informação de tipo demacrobloco por um tipo de fatia de acordo com o esquema de prognóstico. A saber, um ouambos os slicejype e view_slice_type extraídos são selecionados com base no modo deprognóstico de macrobloco.
Por exemplo, se um modo de prognóstico de macrobloco for um modo paraprognóstico intervisualização, um tipo de macrobloco pode ser decidido a partir de umatabela de macrobloco dos tipos de fatia (I, Ρ, B) correspondentes a um tipo de fatia(view_slice_type) para prognóstico intervisualização. A relação entre um modo deprognóstico de macrobloco e um tipo de macrobloco será explicada com detalhes emrelação às figuras 39, 40 e à figura 41, posteriormente.
A figura 39 é um diagrama de um modo de prognóstico de macrobloco de acordocom modalidades de exemplo da presente invenção.
Na figura 39(a), é mostrada uma tabela correspondente a uma modalidade dosmodos de prognóstico de macrobloco (mb_pred_mode) de acordo com a presente invenção.
No caso em que prognóstico intravisualização, isto é, prognóstico temporal, forusado para um macrobloco somente, Ό' é atribuído a um valor do 'mb_pred_mode'. No casoem que prognóstico intervisualização for usado para um macrobloco somente, Ύ é atribuídoa um valor do 'mb_pred_mode'. No caso em que tanto prognóstico temporal quantointervisualização for usado para um macrobloco, '2' é atribuído a um valor do'mb_pred_mode'.
Neste caso, se um valor do 'mb_pred_mode' for T1 isto é, se o 'mb_pred_mode'indicar o prognóstico intervisualização, Lista 0 de direção de visualização (ViewListO) ouLista 1 de direção de visualização (ViewListI) é definida como uma lista de imagem dereferência para o prognóstico intervisualização.
Na figura 39(b), é mostrada a relação entre um modo de prognóstico de macroblocoe um tipo de macrobloco de acordo com uma outra modalidade.
Se um valor de 'mb_pred_mode' for Ό', somente prognóstico temporal é usado, eum tipo de macrobloco é decidido de acordo com um tipo de fatia (slice_type) paraprognóstico intravisualização.Se um valor de 'mb_pred_mode' for T, somente prognóstico intervisualização éusado, e um tipo de macrobloco é decidido de acordo com um tipo de fatia (view_slice_type)para prognóstico intervisualização.
Se um valor de 'mb_pred_mode' for '2', prognóstico misturado tanto do prognósticotemporal quanto do prognóstico intravisualização é usado. E dois tipos de macrobloco sãodecididos de acordo com um tipo de fatia (slice_type) para prognóstico intravisualização, eum tipo de fatia (view_slice_type) para prognóstico intervisualização.
Com base no modo de prognóstico de macrobloco, o tipo de macrobloco é dadocom base no tipo de fatia mostrado nas tabelas 1-3, a seguir. [Favor inserir tabelas 7-12 - 7-14 em N6540 aqui como tabelas 1-3]
Em outras palavras, nesta modalidade, um esquema de prognóstico usado para ummacrobloco e um tipo de fatia referido são decididos por um modo de prognóstico demacrobloco. e um tipo de macrobloco é decidido de acordo com o tipo de fatia.
A figura 40 e a figura 41 são diagramas de modalidades de exemplo da sintaxe deuma parte do sinal de vídeo recebido pelo aparelho para decodificar o sinal de vídeo. Daforma mostrada, a sintaxe tem informação de tipo de fatia e de modo de prognóstico demacrobloco de acordo com uma modalidade da presente invenção.
Na figura 40, uma sintaxe de exemplo é mostrada. Na sintaxe, o campo 'slice_type'e o campo 'view_slice_type' fornecem tipos de fatia, e o campo 'mb_pred_mode' fornece ummodo de prognóstico de macrobloco.
De acordo com a presente invenção, o campo 'slice_type' fornece um tipo de fatiapara prognóstico intravisualização, e o campo 'view_slice_type' fornece um tipo de fatia paraprognóstico intervisualização. Cada tipo de fatia pode se tornar tipo de fatia I, tipo de fatia Pou tipo de fatia B. Se um valor do 'mb_pred_mode' for Ό' ou Ί', um tipo de macrobloco édecidido. Ainda, no caso em que um valor do 'mb_pred_mode' for '2', pode-se ver que umoutro tipo de macrobloco (ou dois tipos) é adicionalmente decidido. Em outras palavras, asintaxe mostrada em (a) da figura 40 indica que 'view_slice_type' é adicionado para aplicaradicionalmente os tipos de fatia convencionais (I, Ρ, B) na codificação de vídeomultivisualização.
Na figura 41, uma outra sintaxe de exemplo é mostrada. Na sintaxe, um campo'slice_type' é empregado para fornecer um tipo de fatia e um campo 'mb_pred_mode' éempregado para fornecer um modo de prognóstico de macrobloco.
De acordo com a presente invenção, o campo 'slice_type' pode incluir, entre outros,um tipo de fatia (VP) para prognóstico intervisualização, um tipo de fatia B (VB) paraprognóstico intervisualização, e um tipo de fatia misturado (Misturado) para prognósticoresultante da mistura de ambos os prognósticos intravisualização e intervisualização.
Se um valor do campo 'mb_pred_mode' for Ό' ou Ί', um tipo de macrobloco édecidido. Ainda, no caso em que um valor do campo 'mb_pred_mode' for '2', pode-se verque um tipo de macrobloco adicional (isto é, total de dois) é decidido. Nesta modalidade, ainformação do tipo de fatia existe em um cabeçalho de fatia, o que será explicado comdetalhes em relação às figuras 42. Em outras palavras, a sintaxe mostrada na figura 41indica que os tipos de fatia VP, VB e Misturado são adicionados no tipo de fatiaconvencional (slice_type).
As figuras 42 são diagramas de exemplo para aplicar os tipos de fatia mostrados nafigura 41.
O diagrama da figura 42(a) mostra que um tipo de fatia P (VP) para prognósticointervisualização, um tipo de fatia B (VB) para prognóstico intervisualização e um tipo defatia misturado (Misturado) para prognóstico resultante da mistura de ambos os prognósticospode existir como o tipo de fatia, além dos outros tipos de fatia, em um cabeçalho de fatia.
Em particular, os tipos de fatia VP, VB e Misturado de acordo com uma modalidade deexemplo são adicionados nos tipos de fatia que podem existir em um cabeçalho de fatiageral.
O diagrama da figura 42(b) mostra que um tipo de fatia P (VP) para prognósticointervisualização, um tipo de fatia B (VB) para prognóstico intervisualização e um tipo defatia misturado (Misturado) para prognóstico resultante da mistura de ambos os prognósticospodem existir como o tipo de fatia em um cabeçalho de fatia para codificação de vídeomultivisualização (MVC). Em particular, os tipos de fatia de acordo com uma modalidade deexemplo são definidos em um cabeçalho de fatia para codificação de vídeomultivisualização.
O diagrama da figura 42(c) mostra que um tipo de fatia (VP) para prognósticointervisualização, um tipo de fatia B (VB) para prognóstico intervisualização e um tipo defatia misturado (Misturado) para prognóstico resultante da mistura de ambos os prognósticospode existir como o tipo de fatia, além do tipo de fatia existente para codificação de vídeoescalável, em um cabeçalho de fatia para codificação de vídeo escalável (SVC). Emparticular, os tipos de fatia VP, VB e Misturado de acordo com uma modalidade de exemplosão adicionados nos tipos de fatia que podem existir em um cabeçalho de fatia do padrão decodificação de vídeo escalável (SVC).
A figura 43 é um diagrama de vários exemplos de tipo de fatia incluídos no tipo defatia mostrado na figura 41.
Na figura 43(a), é mostrado um caso em que um tipo de fatia é prognosticado apartir de uma imagem em uma visualização diferente. Então, um tipo de fatia se torna umtipo de fatia (VP) para prognóstico intervisualização.
Na figura 43(b), é mostrado um caso em que um tipo de fatia é prognosticado apartir de duas imagens em diferentes visualizações, respectivamente. Então, um tipo de fatiase toma um tipo de fatia B (VB) para prognóstico intervisualização.
Nas figuras 43(c) e 43(f), é mostrado um caso em que um tipo de fatia éprognosticado a partir de uma ou de duas imagens em uma visualização atual e de umaimagem em uma visualização diferente. Então, um tipo de fatia se torna um tipo de fatiamisturado (Misturado) para prognóstico resultante da mistura de ambos os prognósticos.Também, nas figuras 43(d) e 43(e), é mostrado um caso em que um tipo de fatia éprognosticado a partir de uma ou de duas imagens em uma visualização atual e de duasimagens em visualizações diferentes. Então, um tipo de fatia também se torna um tipo defatia misturado (Misturado).
A figura 44 é um diagrama de um macrobloco permitido para os tipos de fatiamostrados na figura 41.
Em relação à figura 44, um intramacrobloco (I), um macrobloco (P) prognosticado apartir de uma imagem em uma visualização atual ou um macrobloco (VP) prognosticado apartir de uma imagem em uma visualização diferente é permitido para um tipo de fatia P(VP) por prognóstico intervisualização.
Um intramacrobloco (I), um macrobloco (P ou B) prognosticado a partir de uma oude duas imagens em uma visualização atual, ou um macrobloco VP ou VB prognosticado apartir de uma imagem em uma visualização diferente ou de duas imagens em visualizaçõesdiferentes, respectivamente, são permitidos para um tipo de fatia B (VB) por prognósticointervisualização.
E, um intramacrobloco (I), um macrobloco (P ou B) prognosticado a partir de umaou de duas imagens em uma visualização atual, um macrobloco (VP ou VB) prognosticado apartir de uma imagem em uma visualização diferente ou de duas imagens em visualizaçõesdiferentes, respectivamente, ou um macrobloco (Misturado) prognosticado a partir de umaou de duas imagens em uma visualização atual, de uma imagem em uma visualizaçãodiferente ou de duas imagens em visualizações diferentes, respectivamente, são permitidospara um tipo de fatia misturado (Misturado).
As figuras 45-47 são diagramas de um tipo de macrobloco de um macroblocoexistente em um tipo de fatia misturado (Misturado) de acordo com as modalidades dapresente invenção.
Nas figuras 45(a) e 45(b), são mostrados esquemas de configuração para um tipode macrobloco (mb_type) e um tipo de submacrobloco (sub_mb_type) de um macroblocoexistente em uma fatia misturada, respectivamente.
Nas figuras 46 e 47, são mostradas representações binárias de direção(s)preditiva(s) de um macrobloco existente em uma fatia misturada e direção(s) preditiva(s) realda fatia misturada, respectivamente.
De acordo com uma modalidade da presente invenção, um tipo de macrobloco(mb_type) é preparada pela consideração tanto do tamanho de uma partição de macrobloco(Partition_Size) quanto de uma direção preditiva (Direction) de uma partição de macrobloco.
E, um tipo de submacrobloco (sub_mb_type) é preparado pela consideração tantodo tamanho de uma partição de submacrobloco (Sub_Partition_Size) quanto de uma direçãopreditiva (Sub_Direction) de cada partição de submacrobloco.
Em relação à figura 45(a), 'DirectionO' e 'Directionl' indicam uma direção preditivade uma primeira partição de macrobloco e uma direção preditiva de uma segunda partiçãode macrobloco, respectivamente. Em particular, no caso de um macrobloco 8x16,'DirectionO' indica uma direção preditiva para uma partição de macrobloco 8x16 esquerda e'Directionl' indica uma direção preditiva para uma partição de macrobloco 8x16 direita. Umprincípio de configuração do tipo de macrobloco (mb_type) é explicado em detalhes comosegue. Primeiro, os primeiros dois bits indicam o tamanho da partição (Partition_Size) de ummacrobloco correspondente, e um valor de 0-3 fica disponível para os primeiros dois bits. equatro bits depois dos primeiros dois bits indicam uma direção preditiva (Direction) no casoem que um macrobloco é dividido em partições.
Por exemplo, no caso de um macrobloco 16x16, quatro bits que indicam umadireção preditiva do macrobloco são anexados atrás dos primeiros dois bits. No caso de ummacrobloco 16x8, quatro bits depois dos primeiros dois bits indicam uma direção preditiva(DirectionO) de uma primeira partição e outros quatro bits são anexados nos quatro bitsanteriores para indicar uma direção preditiva (DirectionI) de uma segunda partição.Igualmente, no caso de um macrobloco 8x16, oito bits são anexados atrás dos primeirosdois bits. Neste caso, os primeiros quatro bits dos oito bits anexados nos primeiros dois bitsindicam uma direção preditiva de uma primeira partição, e os próximos quatro bits indicamuma direção preditiva de uma segunda partição.
Em relação à figura 45(b), uma direção preditiva (Sub_Direction) de umsubmacrobloco é usada da mesma maneira da direção preditiva (Direction) da partição demacrobloco mostrada na figura 45(a). Um princípio de configuração do tipo desubmacrobloco (sub_mb_type) é explicado com detalhes a seguir.
Primeiro, os primeiros dois bits indicam um tamanho de partição (Partition_Size) deum macrobloco correspondente, e os segundos dois bits, depois dos dois bits anteriores,indicam tamanho de partição (Sub_Partition_Size) de um submacrobloco do macroblococorrespondente. Um valor de 0-3 fica disponível para cada um dos primeiros e segundosdois bits. Subseqüentemente, quatro bits anexados depois dos segundos dois bits indicamuma direção preditiva (Sub_Direction) no caso em que um macrobloco é dividido empartições de submacrobloco. Por exemplo, se o tamanho (Partition_Size) de uma partiçãode um macrobloco for 8x8 e se o tamanho (Sub_Partition_Size) de uma partição de umsubmacrobloco for 4x8, os primeiros dois bits têm um valor de 3, os segundos dois bits têmum valor de 2, os primeiros quatro bits depois dos segundos dois bits indicam uma direçãopreditiva para um bloco 4x8 à esquerda dos dois blocos 4x8, e os segundos quatro bitsdepois dos primeiros quatro bits indicam uma direção preditiva para um bloco 4x8 à direita.
Em relação à figura 46, uma direção preditiva de um macrobloco é construída comquatro bits. e pode-se ver que cada representação binária se torna T de acordo com umcaso de referência a uma imagem na posição à esquerda (L)1 no topo (T)1 à direita (R) ou nabase (B) de uma imagem atual.
Em relação à figura 47, por exemplo, no caso em que uma direção preditiva é topo(T), uma imagem localizada no topo em uma direção de visualização de uma imagem atualé referida. No caso em que uma direção preditiva corresponde a todas as direções (LTRB),pode-se ver que imagens em todas as direções (LTBR) de uma imagem atual são referidas.
A figura 48 é um diagrama de blocos de um aparelho para codificar um sinal devídeo de acordo com uma modalidade da presente invenção.
Em relação à figura 48, é mostrado um aparelho para codificar um sinal de vídeo deacordo com uma modalidade da presente invenção. O aparelho inclui uma unidade dedecisão de tipo de macrobloco 4810, uma unidade de geração de macrobloco 4820 e umaunidade de codificação 4830.
A figura 49 é um fluxograma de um método para codificar um sinal de vídeo noaparelho de codificação mostrado na figura 48 de acordo com uma modalidade da presenteinvenção.
Em relação à figura 49, um método para codificar um sinal de vídeo de acordo comuma modalidade da presente invenção inclui uma etapa S4910 para decidir um primeiro tipode macrobloco para prognóstico intravisualização e um segundo tipo de macrobloco paraprognóstico intervisualização, uma etapa S4920 para gerar um primeiro macrobloco com oprimeiro tipo de macrobloco e um segundo macrobloco com o segundo tipo de macrobloco,uma etapa S4930 para gerar um terceiro macrobloco usando os primeiro e segundomacroblocos, e uma etapa S4940 para codificar um tipo de macrobloco de um macroblocoatual e um modo de prognóstico de macrobloco.
De acordo com a presente invenção, a unidade de decisão de tipo de macrobloco4810 decide um primeiro tipo de macrobloco para prognóstico intravisualização e umsegundo tipo de macrobloco para prognóstico intervisualização (S4910) como descrito comdetalhes anteriormente.
Subseqüentemente, a unidade de geração de macrobloco 4820 gera um primeiromacrobloco com o primeiro tipo de macrobloco e um segundo macrobloco com o segundotipo de macrobloco (S4920) usando técnicas de prognóstico bem conhecidas e, então, geraum terceiro macrobloco usando os primeiro e segundo macroblocos (S4930). Neste caso, oterceiro macrobloco é gerado de acordo com um valor médio entre o primeiro e o segundomacroblocos.
Finalmente, a unidade de codificação 4830 codifica um tipo de macrobloco(mb_type) de um macrobloco atual e um modo de prognóstico de macrobloco(mb_pred_mode) do macrobloco atual pela comparação de eficiências de codificação dosprimeiro até terceiro macroblocos (S4940).
Neste caso, há vários métodos para medir as eficiências de codificação. Emparticular, um método que usa custo RD (taxa de distorção) é usado nesta modalidade dapresente invenção. Como é bem conhecido, no método do custo RD, um custocorrespondente é calculado com dois componentes: um número de bits de codificaçãogerado a partir da codificação de um bloco correspondente e um valor de distorção queindica um erro de uma seqüência atual.
Os primeiro e segundo tipos de macrobloco podem ser decididos de uma maneirapara selecionar um tipo de macrobloco com um valor mínimo do custo RD explicadoanteriormente. Por exemplo, um tipo de macrobloco com um valor mínimo do custo RD entretipos de macrobloco por prognóstico intravisualização é decidido como o primeiro tipo demacrobloco. e um tipo de macrobloco com um valor mínimo do custo RD entre tipos domacrobloco por prognóstico intervisualização é decidido como o segundo tipo demacrobloco.
Na etapa de codificação do tipo de macrobloco e do modo de prognóstico domacrobloco, o tipo de macrobloco e o modo de prognóstico associado com um dos primeiroe segundo macroblocos com o menor custo RD podem ser selecionados.Subseqüentemente, o custo RD do terceiro macrobloco é determinado. Finalmente, o tipo demacrobloco e o modo de prognóstico do macrobloco do macrobloco atual são codificadospela comparação do custo RD dos primeiro ou segundo macrobloco selecionado e do custoRD do terceiro macrobloco entre si.
Se o custo RD do primeiro ou segundo macrobloco selecionado for igual ou maiorao custo RD do terceiro macrobloco, o tipo de macrobloco se torna um tipo de macroblococorrespondente ao primeiro ou segundo macrobloco selecionados.
Por exemplo, se o custo RD do primeiro macrobloco for menor do que aquele dosegundo e terceiro macroblocos, o macrobloco atual é ajustado como o primeiro tipo demacrobloco. E o modo de prognóstico de macrobloco (isto é, intravisualização) se torna umesquema de prognóstico de um macrobloco correspondente ao custo RD.
Por exemplo, se o custo RD do segundo macrobloco for menor do que aquele dosprimeiro e terceiro macroblocos, um esquema de prognóstico intervisualização como oesquema de prognóstico do segundo macrobloco se torna o modo de prognóstico domacrobloco do macrobloco atual.
Neste ínterim, se o custo RD do terceiro macrobloco for menor do que os custos RDdo primeiro e do segundo macroblocos, tipos de macrobloco correspondem tanto aoprimeiro quanto ao segundo tipos de macrobloco. Em particular, tipos de macrobloco deprognóstico intravisualização e prognóstico intervisualização se tornam tipos de macroblocodo macrobloco atual, e o modo de prognóstico do macrobloco se torna um esquema deprognóstico misturado resultante da mistura dos prognósticos intravisualização eintervisualização.
Dessa maneira, a presente invenção fornece pelo menos o seguinte efeito ouvantagem.
A presente invenção pode excluir a informação de redundância entre visualizaçõesem função de vários esquemas de prognóstico entre visualizações e informações, tais comotipos de fatia, tipos de macrobloco e modos de prognóstico de macrobloco, desse modo,melhorando o desempenho da eficiência de codificação / decodificação.
APLICABILIDADE INDUSTRIAL
Embora a presente invenção tenha sido aqui descrita e ilustrada em relação àssuas modalidades preferidas, ficará aparente aos versados na técnica que váriasmodificações e variações podem ser feitas sem fugir do espírito e do escopo da invenção.Assim, pretende-se que a presente invenção cubra as modificações e variações destainvenção que caiam no escopo das reivindicações anexas e dos seus equivalentes.

Claims (15)

1. Método para decodificar um dado de vídeo multi visualização em um fluxocontinuo de vídeo multi visualização, CARACTERIZADO pelo fato de compreender:Receber o fluxo contínuo de dados de vídeo multi visualização incluindo imagem deacesso randômico incluindo uma parte de acesso randômico , a parte de acesso randômicofazendo referencia somente a parte que corresponde a um mesmo tempo e umavisualização diferente da imagem de acesso randômico;Obter sinalizador de acesso randômico para predição inter visualização o mesmoindicando se um tipo de imagem é uma imagem de acesso randômico;Obter informação de inicialização de uma lista de imagem de referencia para aparte de acesso randômico baseada na sinalização de acesso randômico, a informação deinicialização representando uma relação de referencia entre a pluralidade de visualizaçõescom informação de numero de visualização e informação de identificação de visualização;Inicializar a lista de imagem de referencia usando a informação de numero devisualização e a informação de identificação de visualização;Obter informação de modificação para a lista de imagem de referencia inicializada apartir de um fluxo de dados contínuo de vídeo multi visualização, a informação demodificação representando como especificar um índex de referencia de inter visualização nalista de imagem de referencia inicializada;Determinar um valor de modificação de especificação para modificar o índex dereferencia inter visualização na lista de imagem de referencia inicializada de acordo com ainformação de modificação;Modificar a lista de imagem de referência inicializada para predição intervisualização usando o valor de modificação de especificação determinado;Determinar um valor de predição de um macro bloco na imagem de acessorandômico baseado na lista de imagem de referencia modificada ; eDecodificar o macro bloco usando o valor de predição, onde a informação deinicialização é obtida com base em um valor indicando ordem de decodificação entre apluralidade de visualizações.
2. Método de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que ainformação de numero de visualização indica um numero de visualizações de referencia daimagem de acesso randômico, e a informação de identificação de visualização prove umidentificador de visualização de cada visualização de referencia para a imagem de acessorandômico.
3. Método de acordo com a reivindicação 1, CARACTERIZADO pelo fato de queos dados de vídeo multi visualização incluem dados de vídeo de visualização debase independentes de outras visualizações, a visualização de base sendo umavisualização decodificada sem uso de predição inter visualização.
4. Método de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que oíndex de referencia inter visualização é especificado pela realização de uma operação desubtração ou uma operação de adição de acordo com a informação de modificação.
5. Método de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que ainformação de modificação é obtida a partir de um cabeçalho parcial.
6. Método de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que ovalor de modificação de especificação determinado é usado para especificar um índex dereferencia inter visualização para a imagem de acesso randômico na lista de imagem dereferencia inicializada.
7. Método de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que ovalor de modificação de especificação representa uma variável associada com umidentificador de visualização de uma imagem de referencia inter visualização na lista deimagem de referencia inicializada.
8. Método de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que aposição de qualquer outra imagem remanescente é deslocada para depois na lista deimagem de referencia inicializada.
9. Aparelho para decodificar dados de vídeo multi visualização em um fluxocontinuo de vídeo multi visualização, CARACTERIZADO pelo fato de que compreende:Uma unidade de análise nal recebendo o fluxo continuo de dados de vídeo multivisualização incluindo uma imagem de acesso randômico incluindo uma parte de acessorandômico, a parte de acesso randômico fazendo referencia somente a partecorrespondente a um mesmo tempo e uma visualização diferente da imagem de acessorandômico, e obter identificação de acesso randômico para predição inter visualização, aidentificação de acesso randômico indicando se um tipo de imagem é a imagem de acessorandômico, e obter informação de inicialização de uma lista de imagem de referência para aparte de acesso randômico baseada na identificação de acesso randômico , a informação deinicialização representando uma relação de referencia entre uma pluralidade de vistas cominformação de numero de vista e informação de identificação de vista;Uma unidade de armazenamento temporário de imagem decodificada inicializandoa lista de imagem de referencia usando a informação de numero de vista e a informação deidentificação de vista, e obter informação de modificação para a lista de imagem dereferencia inicializada a partir do fluxo de dados de vídeo multi visualização, a informação demodificação representando a maneira como assinar um índex de referencia inter vista nalista de imagem de referencia inicializada, e determinar um valor de modificação desentença para modificar o índex de referencia inter visualização na lista de imagem dereferencia inicializada de acordo com a informação de modificação, e modificar a lista deimagem de referencia inicializada para predição inter vista usando o valor de modificação desentença determinado; eUma unidade de inter predição que determina um valor de predição de ummacrobloco na imagem de acesso randômico baseada na lista de imagem de referenciamodificada, e decodificar o macrobloco usando o valor de predição,Em que a informação de inicialização é obtida com base em um valor indicandoordem de decodificação entre a pluralidade de visualizações.
10. Aparelho de acordo com a reivindicação 9, CARACTERIZADO pelo fato de quea informação do numero de visualizações indica um numero de visualizações de referenciada imagem de acesso randômico, e a informação de identificação de visualização forneceum identificador de visualização para cada visualização de referencia para a imagem deacesso randômico.
11. Aparelho de acordo com a reivindicação 9, CARACTERIZADO pelo fato de queos dados de vídeo multi visualização incluem dados de vídeo de uma visualização de baseindependente de outras visualizações, a visualização de base sendo uma visualizaçãodecodificada sem uso de predição inter visualização.
12. Aparelho de acordo com a reivindicação 9, CARACTERIZADO pelo fato de queo índex de referencia inter visualização é especificado através de uma operação de adiçãoou subtração de acordo com a informação de modificação.
13. Aparelho de acordo com a reivindicação 9, CARACTERIZADO pelo fato de queo valor de modificação de especificação determinado é usado para especificar um índex dereferencia inter visualização para a imagem de acesso randômico na lista de imagem dereferencia inicializada.
14. Aparelho de acordo com a reivindicação 9, CARACTERIZADO pelo fato de queo valor de modificação de especificação representa uma variável associada com umidentificador de visualização de uma imagem de referencia inter visualização na lista deimagem de referencia inicializada.
15. Aparelho de acordo com a reivindicação 9, CARACTERIZADO pelo fato de quea posição de quaisquer outras imagens remanescentes é deslocada para depois na lista deimagem de referencia inicializada.
BRPI0710048-5A 2006-03-30 2007-03-30 método e aparelho para decodificar / codificar um sinal de vìdeo BRPI0710048A2 (pt)

Applications Claiming Priority (17)

Application Number Priority Date Filing Date Title
US78717106P 2006-03-30 2006-03-30
US60/787.171 2006-03-30
US80139806P 2006-05-19 2006-05-19
US60/801.398 2006-05-19
US81064206P 2006-06-05 2006-06-05
US60/810.642 2006-06-05
US83060106P 2006-07-14 2006-07-14
US60/830.601 2006-07-14
US83215306P 2006-07-21 2006-07-21
US60/832.153 2006-07-21
US83792506P 2006-08-16 2006-08-16
US60/837.925 2006-08-16
US84003206P 2006-08-25 2006-08-25
US60/840.032 2006-08-25
US84215206P 2006-09-05 2006-09-05
US60/842.152 2006-09-05
PCT/KR2007/001580 WO2007114608A1 (en) 2006-03-30 2007-03-30 A method and apparatus for decoding/encoding a video signal

Publications (1)

Publication Number Publication Date
BRPI0710048A2 true BRPI0710048A2 (pt) 2011-08-02

Family

ID=38563848

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI0710048-5A BRPI0710048A2 (pt) 2006-03-30 2007-03-30 método e aparelho para decodificar / codificar um sinal de vìdeo

Country Status (13)

Country Link
US (29) US8565303B2 (pt)
EP (7) EP2005753B1 (pt)
JP (5) JP5054092B2 (pt)
KR (26) KR100959536B1 (pt)
AU (1) AU2007232607B2 (pt)
BR (1) BRPI0710048A2 (pt)
CA (1) CA2647735C (pt)
DE (4) DE202007019458U1 (pt)
ES (3) ES2636917T3 (pt)
MX (1) MX2008012437A (pt)
PL (2) PL2008460T3 (pt)
RU (1) RU2530310C2 (pt)
WO (5) WO2007114608A1 (pt)

Families Citing this family (246)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007081135A1 (en) * 2006-01-09 2007-07-19 Lg Electronics Inc. Inter-layer prediction method for video signal
KR100943912B1 (ko) 2006-01-12 2010-03-03 엘지전자 주식회사 다시점 비디오의 처리 방법 및 장치
US20070177671A1 (en) * 2006-01-12 2007-08-02 Lg Electronics Inc. Processing multiview video
KR101276847B1 (ko) 2006-01-12 2013-06-18 엘지전자 주식회사 다시점 비디오의 처리
US8767836B2 (en) 2006-03-27 2014-07-01 Nokia Corporation Picture delimiter in scalable video coding
US20090304068A1 (en) * 2006-07-06 2009-12-10 Purvin Bibhas Pandit Method and Apparatus for Decoupling Frame Number and/or Picture Order Count (POC) for Multi-View Video Encoding and Decoding
ZA200900857B (en) 2006-07-06 2010-05-26 Thomson Licensing Method and apparatus for decoupling frame number and/or picture order count (POC) for multi-view video encoding and decoding
CN101491096B (zh) * 2006-07-12 2012-05-30 Lg电子株式会社 信号处理方法及其装置
EP2044777A2 (en) * 2006-07-20 2009-04-08 Thomson Licensing Method and apparatus for signaling view scalability in multi-view video coding
WO2008038513A1 (en) * 2006-09-26 2008-04-03 Panasonic Corporation Decoding device, decoding method, decoding program, and integrated circuit
JP5184539B2 (ja) 2006-10-13 2013-04-17 トムソン ライセンシング 多視点ビデオ符号化のための参照ピクチャ・リスト管理方法
KR101366092B1 (ko) 2006-10-13 2014-02-21 삼성전자주식회사 다시점 영상의 부호화, 복호화 방법 및 장치
EP2087738B1 (en) * 2006-10-13 2016-04-13 Thomson Licensing Method for reference picture management involving multiview video coding
BRPI0719860B1 (pt) * 2006-10-18 2021-09-08 Interdigital Vc Holdings, Inc. Aparelhos, métodos e meio de armazenamento não transitório para compensação de iluminação e cor local sem sinalização explícita
FR2907575B1 (fr) * 2006-10-18 2009-02-13 Canon Res Ct France Soc Par Ac Procede et dispositif de codage d'images representant des vues d'une meme scene
BRPI0718421A2 (pt) * 2006-10-24 2013-11-12 Thomson Licensing Gerenciamento de quadro para codificação de vídeo de multivistas
US8875199B2 (en) 2006-11-13 2014-10-28 Cisco Technology, Inc. Indicating picture usefulness for playback optimization
US8416859B2 (en) 2006-11-13 2013-04-09 Cisco Technology, Inc. Signalling and extraction in compressed video of pictures belonging to interdependency tiers
US8155207B2 (en) 2008-01-09 2012-04-10 Cisco Technology, Inc. Processing and managing pictures at the concatenation of two video streams
KR101370287B1 (ko) * 2006-11-22 2014-03-07 세종대학교산학협력단 디블록킹 필터링 방법 및 장치
EP2418851A3 (en) * 2006-12-21 2012-05-23 Thomson Licensing Methods and apparatus for improved signaling using high level syntax for multi-view video coding and decoding
WO2008085887A2 (en) * 2007-01-04 2008-07-17 Thomson Licensing Method and apparatus for video error concealment in multi-view coded video using high level syntax
KR100801968B1 (ko) * 2007-02-06 2008-02-12 광주과학기술원 변위를 측정하는 방법, 중간화면 합성방법과 이를 이용한다시점 비디오 인코딩 방법, 디코딩 방법, 및 인코더와디코더
US8644379B2 (en) * 2007-03-07 2014-02-04 Himax Technologies Limited De-interlacing method and method of compensating a de-interlaced pixel
WO2008117963A1 (en) * 2007-03-23 2008-10-02 Lg Electronics Inc. A method and an apparatus for decoding/encoding a video signal
US20100118933A1 (en) * 2007-04-04 2010-05-13 Thomson Licensing Reference picture list management
KR101301181B1 (ko) * 2007-04-11 2013-08-29 삼성전자주식회사 다시점 영상의 부호화, 복호화 방법 및 장치
US8548261B2 (en) 2007-04-11 2013-10-01 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view image
BRPI0809585A2 (pt) * 2007-04-17 2014-09-23 Thomson Licensing Decodificador de referência hipotética para codificação de vídeo multivisualização
KR101427647B1 (ko) * 2007-04-25 2014-08-07 삼성전자주식회사 패킷 생성과 처리에 관한 방법 및 그 장치
US8917775B2 (en) * 2007-05-02 2014-12-23 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view video data
KR20080107965A (ko) * 2007-06-08 2008-12-11 삼성전자주식회사 객체 경계 기반 파티션을 이용한 영상의 부호화, 복호화방법 및 장치
KR101244917B1 (ko) * 2007-06-11 2013-03-18 삼성전자주식회사 조도 보상 방법 및 장치, 이를 이용한 영상의 부호화,복호화 방법 및 장치
KR101366250B1 (ko) * 2007-06-19 2014-02-25 삼성전자주식회사 영상 분할을 이용한 영상 부호화, 복호화 방법 및 장치
TW200910975A (en) * 2007-06-25 2009-03-01 Nippon Telegraph & Telephone Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media for storing the programs
US20080317124A1 (en) * 2007-06-25 2008-12-25 Sukhee Cho Multi-view video coding system, decoding system, bitstream extraction system for decoding base view and supporting view random access
US9648325B2 (en) * 2007-06-30 2017-05-09 Microsoft Technology Licensing, Llc Video decoding implementations for a graphics processing unit
US8804845B2 (en) * 2007-07-31 2014-08-12 Cisco Technology, Inc. Non-enhancing media redundancy coding for mitigating transmission impairments
US8958486B2 (en) 2007-07-31 2015-02-17 Cisco Technology, Inc. Simultaneous processing of media and redundancy streams for mitigating impairments
WO2009020542A1 (en) * 2007-08-06 2009-02-12 Thomson Licensing Methods and apparatus for motion skip mode with multiple inter-view reference pictures
BRPI0814843A2 (pt) * 2007-08-15 2015-01-27 Thomson Licensing Método e aparelho para encobrimento de erro em vídeo codificado em multivista
JP4739295B2 (ja) * 2007-08-27 2011-08-03 日本電信電話株式会社 映像信号生成装置、映像信号生成方法、映像信号生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
BR122012021950A2 (pt) * 2007-10-05 2015-08-04 Thomson Licensing Aparelho para incorporação de informação de usabilidade de vídeo (vui) em um sistema de codificação de vídeo com múltiplos visualizações (mvc)
EP2213097A2 (en) * 2007-10-16 2010-08-04 Cisco Technology, Inc. Conveyance of concatenation properties and picture orderness in a video stream
US8121191B1 (en) * 2007-11-13 2012-02-21 Harmonic Inc. AVC to SVC transcoder
US8718388B2 (en) 2007-12-11 2014-05-06 Cisco Technology, Inc. Video processing with tiered interdependencies of pictures
KR101524465B1 (ko) * 2008-01-10 2015-06-02 삼성전자주식회사 색차 보상을 이용한 다시점 비디오 부호화 방법과 그 장치 및 다시점 비디오 복호화 방법과 그 장치
US8416858B2 (en) 2008-02-29 2013-04-09 Cisco Technology, Inc. Signalling picture encoding schemes and associated picture properties
EP2250812A1 (en) * 2008-03-04 2010-11-17 Thomson Licensing Virtual reference view
JP5474838B2 (ja) * 2008-03-10 2014-04-16 トムソン ライセンシング 改善された効率及び主観的な品質をサポートする予測フレームの選択方法及び装置
JP5056560B2 (ja) * 2008-03-17 2012-10-24 富士通株式会社 符号化装置、復号化装置、符号化方法および復号化方法
EP2109047A1 (en) * 2008-04-07 2009-10-14 Global Digital Technologies SA Video characterization, identification and search system
EP2114076B1 (en) * 2008-04-21 2013-09-11 Samsung Electronics Co., Ltd. Apparatus and method for composing scenes using rich media contents
US20090279614A1 (en) * 2008-05-10 2009-11-12 Samsung Electronics Co., Ltd. Apparatus and method for managing reference frame buffer in layered video coding
KR101591085B1 (ko) * 2008-05-19 2016-02-02 삼성전자주식회사 영상 파일 생성 및 재생 장치 및 방법
CN101803388B (zh) 2008-05-23 2012-11-21 松下电器产业株式会社 图像解码装置、图像解码方法、图像编码装置、以及图像编码方法
US8886022B2 (en) 2008-06-12 2014-11-11 Cisco Technology, Inc. Picture interdependencies signals in context of MMCO to assist stream manipulation
US8699578B2 (en) 2008-06-17 2014-04-15 Cisco Technology, Inc. Methods and systems for processing multi-latticed video streams
US8971402B2 (en) 2008-06-17 2015-03-03 Cisco Technology, Inc. Processing of impaired and incomplete multi-latticed video streams
US8705631B2 (en) * 2008-06-17 2014-04-22 Cisco Technology, Inc. Time-shifted transport of multi-latticed video for resiliency from burst-error effects
CN102396221B (zh) * 2008-06-25 2015-03-25 思科技术公司 阻止特技模式操作的支持
CA2767794A1 (en) * 2008-10-07 2010-04-15 Telefonaktiebolaget Lm Ericsson (Publ) Multi-view media data
KR101697598B1 (ko) 2008-10-27 2017-02-01 엘지전자 주식회사 가상 뷰 이미지 합성 방법 및 장치
WO2010053332A2 (ko) * 2008-11-10 2010-05-14 엘지전자 주식회사 시점간 예측을 이용한 비디오 신호 처리 방법 및 장치
US8259817B2 (en) 2008-11-12 2012-09-04 Cisco Technology, Inc. Facilitating fast channel changes through promotion of pictures
EP2365694B1 (en) * 2008-11-18 2017-01-04 LG Electronics Inc. Method and apparatus for processing image signal
KR101158491B1 (ko) 2008-12-08 2012-06-20 한국전자통신연구원 다시점 영상 부호화, 복호화 방법 및 그 장치.
KR101233627B1 (ko) * 2008-12-23 2013-02-14 한국전자통신연구원 스케일러블 부호화 장치 및 방법
CN102427534B (zh) * 2009-01-19 2014-06-18 松下电器产业株式会社 编码方法和编码装置
US8326131B2 (en) * 2009-02-20 2012-12-04 Cisco Technology, Inc. Signalling of decodable sub-sequences
CA2752567C (en) 2009-02-23 2014-11-18 Nippon Telegraph And Telephone Corporation Multi-view image coding method, multi-view image decoding method, multi-view image coding device, multi-view image decoding device, multi-view image coding program, and multi-viewimage decoding program
US20100218232A1 (en) * 2009-02-25 2010-08-26 Cisco Technology, Inc. Signalling of auxiliary information that assists processing of video according to various formats
US9485299B2 (en) * 2009-03-09 2016-11-01 Arris Canada, Inc. Progressive download gateway
US8767832B2 (en) * 2009-03-10 2014-07-01 Mediatek Inc. Method and apparatus for processing a multimedia bitstream
US8782261B1 (en) 2009-04-03 2014-07-15 Cisco Technology, Inc. System and method for authorization of segment boundary notifications
JP4947389B2 (ja) * 2009-04-03 2012-06-06 ソニー株式会社 画像信号復号装置、画像信号復号方法、および画像信号符号化方法
JP4962525B2 (ja) * 2009-04-08 2012-06-27 ソニー株式会社 再生装置、再生方法、およびプログラム
US8982183B2 (en) * 2009-04-17 2015-03-17 Lg Electronics Inc. Method and apparatus for processing a multiview video signal
KR20120027194A (ko) * 2009-04-21 2012-03-21 엘지전자 주식회사 다시점 비디오 신호 처리 방법 및 장치
EP2424240A4 (en) * 2009-04-22 2013-04-10 Lg Electronics Inc METHOD FOR MODIFYING REFERENCE COPY LISTS FOR A MORE VIEWED VIDEO
WO2010126613A2 (en) * 2009-05-01 2010-11-04 Thomson Licensing Inter-layer dependency information for 3dv
US8949883B2 (en) 2009-05-12 2015-02-03 Cisco Technology, Inc. Signalling buffer characteristics for splicing operations of video streams
TWI384887B (zh) * 2009-06-11 2013-02-01 Univ Nat Central 多視點影像編解碼方法
US8411746B2 (en) 2009-06-12 2013-04-02 Qualcomm Incorporated Multiview video coding over MPEG-2 systems
US8780999B2 (en) 2009-06-12 2014-07-15 Qualcomm Incorporated Assembling multiview video coding sub-BITSTREAMS in MPEG-2 systems
US8279926B2 (en) 2009-06-18 2012-10-02 Cisco Technology, Inc. Dynamic streaming with latticed representations of video
US9161057B2 (en) * 2009-07-09 2015-10-13 Qualcomm Incorporated Non-zero rounding and prediction mode selection techniques in video encoding
US8995526B2 (en) * 2009-07-09 2015-03-31 Qualcomm Incorporated Different weights for uni-directional prediction and bi-directional prediction in video coding
US8711930B2 (en) * 2009-07-09 2014-04-29 Qualcomm Incorporated Non-zero rounding and prediction mode selection techniques in video encoding
KR20110007928A (ko) * 2009-07-17 2011-01-25 삼성전자주식회사 다시점 영상 부호화 및 복호화 방법과 장치
JPWO2011013257A1 (ja) * 2009-07-29 2013-01-07 パナソニック株式会社 マルチビュービデオ復号装置およびその方法
CA2711311C (en) * 2009-08-10 2016-08-23 Seawell Networks Inc. Methods and systems for scalable video chunking
JP5791618B2 (ja) * 2009-10-29 2015-10-07 ベステル エレクトロニク サナイー ベ ティカレト エー.エス. ビデオ・シーケンスを処理する方法及び装置
KR101282552B1 (ko) 2009-11-04 2013-07-04 한국전자통신연구원 병렬 처리 스케일러블 비디오 부/복호화 방법 및 장치
TW201121331A (en) * 2009-12-10 2011-06-16 Novatek Microelectronics Corp Picture decoder
KR101444691B1 (ko) * 2010-05-17 2014-09-30 에스케이텔레콤 주식회사 참조영상 구성 및 인덱싱 장치 및 방법
CN105791860B (zh) * 2010-05-26 2018-10-16 Lg电子株式会社 用于处理视频信号的方法和设备
KR20110135786A (ko) * 2010-06-11 2011-12-19 삼성전자주식회사 깊이 전이 데이터를 이용한 3d 비디오 인코딩/디코딩 장치 및 방법
JP2012023651A (ja) * 2010-07-16 2012-02-02 Sony Corp 画像処理装置と画像処理方法
WO2012011525A1 (ja) * 2010-07-21 2012-01-26 株式会社プランネット・アソシエイツ 三次元ビデオストリームへの映像変換方法
WO2012036903A1 (en) 2010-09-14 2012-03-22 Thomson Licensing Compression methods and apparatus for occlusion data
KR102006443B1 (ko) * 2010-09-30 2019-08-02 한국전자통신연구원 오차 보상을 이용한 영상 부호화/복호화 방법 및 장치
US9521424B1 (en) * 2010-10-29 2016-12-13 Qualcomm Technologies, Inc. Method, apparatus, and manufacture for local weighted prediction coefficients estimation for video encoding
US9106916B1 (en) 2010-10-29 2015-08-11 Qualcomm Technologies, Inc. Saturation insensitive H.264 weighted prediction coefficients estimation
KR20120050725A (ko) * 2010-11-11 2012-05-21 삼성전자주식회사 데이터 재생 방법 및 장치
US8824558B2 (en) * 2010-11-23 2014-09-02 Mediatek Inc. Method and apparatus of spatial motion vector prediction
EP2645720A4 (en) 2010-11-23 2015-12-16 Lg Electronics Inc METHOD FOR ENCODING AND DECODING IMAGES, AND DEVICE USING THE SAME
JP5092011B2 (ja) * 2010-12-17 2012-12-05 株式会社東芝 動画像復号装置及び動画像復号方法
WO2012093879A2 (ko) * 2011-01-06 2012-07-12 삼성전자주식회사 경쟁 기반의 다시점 비디오 부호화/복호화 장치 및 방법
KR20120080122A (ko) * 2011-01-06 2012-07-16 삼성전자주식회사 경쟁 기반의 다시점 비디오 부호화/복호화 장치 및 방법
WO2012096164A1 (ja) * 2011-01-12 2012-07-19 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置
RU2480941C2 (ru) 2011-01-20 2013-04-27 Корпорация "Самсунг Электроникс Ко., Лтд" Способ адаптивного предсказания кадра для кодирования многоракурсной видеопоследовательности
US9008181B2 (en) 2011-01-24 2015-04-14 Qualcomm Incorporated Single reference picture list utilization for interprediction video coding
US9215473B2 (en) 2011-01-26 2015-12-15 Qualcomm Incorporated Sub-slices in video coding
CN102158733B (zh) * 2011-01-28 2015-08-19 华为技术有限公司 辅助视频补充信息承载方法、处理方法、装置与系统
WO2012115434A2 (ko) * 2011-02-21 2012-08-30 한국전자통신연구원 복수 참조 영상을 이용한 영상 부복호화 방법 및 이러한 방법을 사용하는 장치
KR20120095814A (ko) * 2011-02-21 2012-08-29 한밭대학교 산학협력단 복수 참조 영상을 이용한 영상 부복호화 방법 및 이러한 방법을 사용하는 장치
KR20120118780A (ko) * 2011-04-19 2012-10-29 삼성전자주식회사 다시점 비디오의 움직임 벡터 부호화 방법 및 장치, 그 복호화 방법 및 장치
US9485517B2 (en) 2011-04-20 2016-11-01 Qualcomm Incorporated Motion vector prediction with motion vectors from multiple views in multi-view video coding
US20140044347A1 (en) * 2011-04-25 2014-02-13 Sharp Kabushiki Kaisha Mage coding apparatus, image coding method, image coding program, image decoding apparatus, image decoding method, and image decoding program
US9154804B2 (en) * 2011-06-04 2015-10-06 Apple Inc. Hint based adaptive encoding
TWI530161B (zh) * 2011-06-07 2016-04-11 Sony Corp Image processing apparatus and method
KR20120140592A (ko) * 2011-06-21 2012-12-31 한국전자통신연구원 움직임 보상의 계산 복잡도 감소 및 부호화 효율을 증가시키는 방법 및 장치
WO2012177063A2 (ko) 2011-06-24 2012-12-27 엘지전자 주식회사 스킵 모드 부호화 복호화 방법 및 장치
WO2013001813A1 (ja) * 2011-06-29 2013-01-03 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置
US9060173B2 (en) * 2011-06-30 2015-06-16 Sharp Kabushiki Kaisha Context initialization based on decoder picture buffer
US11647197B2 (en) 2011-06-30 2023-05-09 Velos Media, Llc Context initialization based on slice header flag and slice type
US9338465B2 (en) 2011-06-30 2016-05-10 Sharp Kabushiki Kaisha Context initialization based on decoder picture buffer
MX2014000159A (es) * 2011-07-02 2014-02-19 Samsung Electronics Co Ltd Metodo y aparato para la codificacion de video, y metodo y aparato para la decodificacion de video acompañada por inter prediccion utilizando imagen co-localizada.
PL2728861T3 (pl) * 2011-07-02 2017-12-29 Samsung Electronics Co., Ltd. Sposób i urządzenie do multipleksowania i demultipleksowania danych wideo w celu identyfikowania stanu odtwarzania danych wideo
US9948938B2 (en) 2011-07-21 2018-04-17 Texas Instruments Incorporated Methods and systems for chroma residual data prediction
US9635355B2 (en) * 2011-07-28 2017-04-25 Qualcomm Incorporated Multiview video coding
US9674525B2 (en) * 2011-07-28 2017-06-06 Qualcomm Incorporated Multiview video coding
US10237565B2 (en) * 2011-08-01 2019-03-19 Qualcomm Incorporated Coding parameter sets for various dimensions in video coding
WO2013022281A2 (ko) 2011-08-09 2013-02-14 삼성전자 주식회사 다시점 비디오 예측 부호화 방법 및 그 장치, 다시점 비디오 예측 복호화 방법 및 그 장치
EP2749027B1 (en) 2011-08-25 2020-04-29 Sun Patent Trust Methods and apparatuses for encoding and decoding video using updated buffer description
ES2685431T3 (es) * 2011-09-07 2018-10-09 Sun Patent Trust Procedimiento de decodificación de imágenes y aparato de decodificación de imágenes
EP3179723B1 (en) 2011-09-09 2023-01-25 KT Corporation Method for deriving a temporal predictive motion vector, and apparatus using the method
US9736489B2 (en) 2011-09-17 2017-08-15 Qualcomm Incorporated Motion vector determination for video coding
AU2012311021B2 (en) * 2011-09-19 2016-07-14 Sun Patent Trust Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus
HUE045736T2 (hu) * 2011-09-22 2020-01-28 Lg Electronics Inc Videokódoló eljárás és videokódoló berendezés
ES2705251B1 (es) * 2011-09-23 2020-01-29 Kt Corp Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
US9338474B2 (en) 2011-09-23 2016-05-10 Qualcomm Incorporated Reference picture list construction for video coding
WO2013048324A1 (en) * 2011-09-29 2013-04-04 Telefonaktiebolaget L M Ericsson (Publ) Reference picture list handling
WO2013055148A2 (ko) 2011-10-12 2013-04-18 엘지전자 주식회사 영상 인코딩 방법 및 디코딩 방법
US8768079B2 (en) * 2011-10-13 2014-07-01 Sharp Laboratories Of America, Inc. Tracking a reference picture on an electronic device
US8855433B2 (en) * 2011-10-13 2014-10-07 Sharp Kabushiki Kaisha Tracking a reference picture based on a designated picture on an electronic device
US8787688B2 (en) * 2011-10-13 2014-07-22 Sharp Laboratories Of America, Inc. Tracking a reference picture based on a designated picture on an electronic device
EP4024871A1 (en) 2011-10-19 2022-07-06 Sun Patent Trust Image encoding method, image decoding method, image encoding device, image decoding device, and image encoding and decoding device
US9264717B2 (en) 2011-10-31 2016-02-16 Qualcomm Incorporated Random access with advanced decoded picture buffer (DPB) management in video coding
US9124895B2 (en) 2011-11-04 2015-09-01 Qualcomm Incorporated Video coding with network abstraction layer units that include multiple encoded picture partitions
WO2013067436A1 (en) * 2011-11-04 2013-05-10 Huawei Technologies Co., Ltd. Binarization of prediction residuals for lossless video coding
US9077998B2 (en) 2011-11-04 2015-07-07 Qualcomm Incorporated Padding of segments in coded slice NAL units
US10003817B2 (en) 2011-11-07 2018-06-19 Microsoft Technology Licensing, Llc Signaling of state information for a decoded picture buffer and reference picture lists
US20130113882A1 (en) * 2011-11-08 2013-05-09 Sony Corporation Video coding system and method of operation thereof
KR101841914B1 (ko) * 2011-11-08 2018-03-27 한국전자통신연구원 컬러 영상 및 깊이 영상을 포함하는 다시점 비디오의 부호화 및 복호화 방법, 그리고 부호화 및 복호화 장치
KR102332492B1 (ko) * 2011-11-11 2021-12-01 엘지전자 주식회사 영상 정보 전송 방법 및 장치와 이를 이용한 복호화 방법 및 장치
US10158873B2 (en) 2011-11-30 2018-12-18 Qualcomm Incorporated Depth component removal for multiview video coding (MVC) compatible three-dimensional video coding (3DVC)
US9131217B2 (en) * 2011-12-09 2015-09-08 Qualcomm Incorporated Reference picture list modification for view synthesis reference pictures
US9258559B2 (en) * 2011-12-20 2016-02-09 Qualcomm Incorporated Reference picture list construction for multi-view and three-dimensional video coding
US9762904B2 (en) 2011-12-22 2017-09-12 Qualcomm Incorporated Performing motion vector prediction for video coding
US9288506B2 (en) * 2012-01-05 2016-03-15 Qualcomm Incorporated Signaling view synthesis prediction support in 3D video coding
JP6078927B2 (ja) * 2012-01-10 2017-02-15 サン パテント トラスト 動画像符号化方法、動画像符号化装置、動画像復号方法、及び、動画像復号装置
US9451252B2 (en) 2012-01-14 2016-09-20 Qualcomm Incorporated Coding parameter sets and NAL unit headers for video coding
JP5944013B2 (ja) 2012-01-17 2016-07-05 テレフオンアクチーボラゲット エルエム エリクソン(パブル) 参照画像リストの取り扱い
US8693793B2 (en) * 2012-01-19 2014-04-08 Sharp Laboratories Of America, Inc. Reducing reference picture set signal overhead on an electronic device
KR102273741B1 (ko) 2012-01-19 2021-07-05 브이아이디 스케일, 인크. 비디오 코딩 기준 화상 목록들을 시그널링하고 구성하는 방법 및 장치
US8867852B2 (en) 2012-01-19 2014-10-21 Sharp Kabushiki Kaisha Decoding a picture based on a reference picture set on an electronic device
US9538200B2 (en) * 2012-01-19 2017-01-03 Qualcomm Incorporated Signaling of deblocking filter parameters in video coding
AU2013210955B2 (en) * 2012-01-20 2017-11-09 Nokia Technologies Oy Method for video coding and an apparatus, a computer-program product, a system, and a module for the same
US9560353B2 (en) * 2012-01-27 2017-01-31 Sun Patent Trust Video encoding method, video encoding device, video decoding method and video decoding device
US9451277B2 (en) 2012-02-08 2016-09-20 Qualcomm Incorporated Restriction of prediction units in B slices to uni-directional inter prediction
JPWO2013128832A1 (ja) * 2012-03-02 2015-07-30 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置および画像符号化復号装置
US20130243085A1 (en) * 2012-03-15 2013-09-19 Samsung Electronics Co., Ltd. Method of multi-view video coding and decoding based on local illumination and contrast compensation of reference frames without extra bitrate overhead
US10200709B2 (en) * 2012-03-16 2019-02-05 Qualcomm Incorporated High-level syntax extensions for high efficiency video coding
US9503720B2 (en) 2012-03-16 2016-11-22 Qualcomm Incorporated Motion vector coding and bi-prediction in HEVC and its extensions
US9712887B2 (en) 2012-04-12 2017-07-18 Arris Canada, Inc. Methods and systems for real-time transmuxing of streaming media content
CN108337526B (zh) 2012-04-13 2020-10-30 Ge视频压缩有限责任公司 一种低延迟图像编码解码方法、设备及计算机可读介质
US9503702B2 (en) 2012-04-13 2016-11-22 Qualcomm Incorporated View synthesis mode for three-dimensional video coding
CN104541510B (zh) * 2012-04-15 2018-08-24 三星电子株式会社 参考画面列表能够被改变的帧间预测方法及其设备
US9979959B2 (en) 2012-04-20 2018-05-22 Qualcomm Incorporated Video coding with enhanced support for stream adaptation and splicing
CN104412602A (zh) 2012-04-23 2015-03-11 三星电子株式会社 多视点视频编码方法和装置以及多视点视频解码方法和装置
EP2838264A4 (en) * 2012-04-23 2016-01-06 Samsung Electronics Co Ltd METHOD FOR ENCODING MULTIVUE VIDEO USING A MULTIVUE VIDEO PREDICTION REFERENCE LIST AND DEVICE THEREFOR, AND METHOD FOR DECODING MULTIVUE VIDEO USING A MULTIVUE VIDEO PREDICTION REFERENCE LIST AND DEVICE THEREOF
US10205961B2 (en) 2012-04-23 2019-02-12 Qualcomm Incorporated View dependency in multi-view coding and 3D coding
US9762903B2 (en) 2012-06-01 2017-09-12 Qualcomm Incorporated External pictures in video coding
US20130329007A1 (en) * 2012-06-06 2013-12-12 Qualcomm Incorporated Redundancy removal for advanced motion vector prediction (amvp) in three-dimensional (3d) video coding
US9225978B2 (en) 2012-06-28 2015-12-29 Qualcomm Incorporated Streaming adaption based on clean random access (CRA) pictures
BR122020007914B1 (pt) 2012-06-29 2023-03-07 Ge Video Compression, Llc Fluxo contínuo de dados de vídeo, entidade de rede para receber o fluxo contínuo de dados de vídeo e método para decodificar o fluxo contínuo de dados recebido
JP5743968B2 (ja) * 2012-07-02 2015-07-01 株式会社東芝 動画像復号方法及び動画像符号化方法
CA2878206C (en) * 2012-07-02 2016-05-17 Samsung Electronics Co., Ltd. Method and apparatus for encoding video and method and apparatus for decoding video determining inter-prediction reference picture list depending on block size
CN103533374B (zh) * 2012-07-06 2018-02-16 乐金电子(中国)研究开发中心有限公司 一种视频编码、解码的方法及装置
WO2014010894A1 (ko) 2012-07-11 2014-01-16 한국전자통신연구원 Mpeg 데이터의 랜덤 억세스를 지원하는 방법 및 시스템
KR102185384B1 (ko) 2012-07-11 2020-12-02 한국전자통신연구원 Mpeg 데이터의 랜덤 억세스를 지원하는 방법 및 시스템
CN103688535B (zh) * 2012-07-19 2017-02-22 太阳专利托管公司 图像编码方法、图像解码方法、图像编码装置及图像解码装置
WO2014049205A1 (en) * 2012-09-28 2014-04-03 Nokia Corporation An apparatus, a method and a computer program for video coding and decoding
WO2014050989A1 (ja) 2012-09-28 2014-04-03 シャープ株式会社 画像復号装置
US9313500B2 (en) 2012-09-30 2016-04-12 Microsoft Technology Licensing, Llc Conditional signalling of reference picture list modification information
US20140092976A1 (en) * 2012-09-30 2014-04-03 Sharp Laboratories Of America, Inc. System for signaling idr and bla pictures
CN110996100B (zh) * 2012-10-01 2022-11-25 Ge视频压缩有限责任公司 解码器、解码方法、编码器和编码方法
US9854234B2 (en) * 2012-10-25 2017-12-26 Qualcomm Incorporated Reference picture status for video coding
KR102338919B1 (ko) * 2012-11-21 2021-12-13 엘지전자 주식회사 영상 디코딩 방법 및 이를 이용하는 장치
US10334259B2 (en) * 2012-12-07 2019-06-25 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
US9621906B2 (en) 2012-12-10 2017-04-11 Lg Electronics Inc. Method for decoding image and apparatus using same
MY185254A (en) * 2012-12-11 2021-04-30 Sony Corp Encoding device and encoding method, and decoding device and decoding method
US10805605B2 (en) * 2012-12-21 2020-10-13 Telefonaktiebolaget Lm Ericsson (Publ) Multi-layer video stream encoding and decoding
JP6233656B2 (ja) * 2012-12-21 2017-11-22 ソニー株式会社 画像処理装置および方法
US9774927B2 (en) * 2012-12-21 2017-09-26 Telefonaktiebolaget L M Ericsson (Publ) Multi-layer video stream decoding
TWI669950B (zh) 2012-12-21 2019-08-21 日商新力股份有限公司 影像處理裝置及方法
KR101737595B1 (ko) * 2012-12-27 2017-05-18 니폰 덴신 덴와 가부시끼가이샤 화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치, 화상 복호 장치, 화상 부호화 프로그램 및 화상 복호 프로그램
WO2014109563A1 (ko) * 2013-01-09 2014-07-17 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
US10136119B2 (en) * 2013-01-10 2018-11-20 Qualcomm Incoporated View synthesis in 3D video
US10491458B2 (en) * 2013-01-31 2019-11-26 Dell Products L.P. System and method for reporting peer-to-peer transfer events
WO2014163466A1 (ko) 2013-04-05 2014-10-09 삼성전자 주식회사 정수 픽셀의 위치와 관련하여 비디오의 부호화 및 복호화를 수행하는 방법과 그 장치
WO2014163454A1 (ko) * 2013-04-05 2014-10-09 삼성전자주식회사 휘도차를 보상하기 위한 인터 레이어 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
US9485508B2 (en) 2013-04-08 2016-11-01 Qualcomm Incorporated Non-entropy encoded set of profile, tier, and level syntax structures
CN105122810B (zh) * 2013-04-11 2018-07-03 Lg电子株式会社 处理视频信号的方法及装置
US9930363B2 (en) 2013-04-12 2018-03-27 Nokia Technologies Oy Harmonized inter-view and view synthesis prediction for 3D video coding
WO2014166104A1 (en) 2013-04-12 2014-10-16 Mediatek Singapore Pte. Ltd. Removal of parsing dependency for illumination compensation
KR102105323B1 (ko) * 2013-04-15 2020-04-28 인텔렉추얼디스커버리 주식회사 객체 기반 적응적 밝기 보상 방법 및 장치
WO2015005746A1 (ko) * 2013-07-12 2015-01-15 삼성전자 주식회사 잔차 예측을 이용한 인터 레이어 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
KR101712110B1 (ko) 2013-07-12 2017-03-13 삼성전자 주식회사 변이 벡터 유도를 사용하는 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
US10075735B2 (en) * 2013-07-14 2018-09-11 Sharp Kabushiki Kaisha Video parameter set signaling
KR101869882B1 (ko) * 2013-10-11 2018-06-25 브이아이디 스케일, 인크. Hevc 확장을 위한 하이 레벨 구문
JP2016213519A (ja) * 2013-10-15 2016-12-15 シャープ株式会社 画像復号装置、画像符号化装置
US9674544B2 (en) * 2013-11-25 2017-06-06 Qualcomm Incorporated POC value design for multi-layer video coding
US9942546B2 (en) 2013-12-12 2018-04-10 Qualcomm Incorporated POC value design for multi-layer video coding
CN111031323B (zh) 2014-11-27 2023-11-28 株式会社Kt 视频信号处理方法
CN111147845B (zh) 2014-11-27 2023-10-10 株式会社Kt 对视频信号进行解码的方法和对视频信号进行编码的方法
RU2605237C1 (ru) * 2015-07-16 2016-12-20 Общество с ограниченной ответственностью "МАКИНТЕХ" Управляющее устройство, система и способ управления освещением
CN105100549B (zh) * 2015-07-27 2018-06-29 京东方科技集团股份有限公司 图像补偿方法及装置
GB2553315A (en) 2016-09-01 2018-03-07 Nokia Technologies Oy Determining inter-view prediction areas
KR20180057789A (ko) 2016-11-22 2018-05-31 광운대학교 산학협력단 전방향 카메라에서 효과적인 차분 움직임 백터 전송방법을 이용한 비디오 코딩 방법 및 방법 및 장치
KR20180074000A (ko) * 2016-12-23 2018-07-03 삼성전자주식회사 비디오 디코딩 방법, 이를 수행하는 비디오 디코더, 비디오 인코딩 방법, 및 이를 수행하는 비디오 인코더
AT519902B1 (de) 2017-05-11 2022-07-15 Blum Gmbh Julius Führungssystem zur Führung eines Türflügels
EP3468198A1 (en) * 2017-10-05 2019-04-10 Thomson Licensing Method and apparatus for video encoding and decoding based on illumination compensation
US11290730B2 (en) 2017-10-05 2022-03-29 Interdigital Vc Holdings, Inc. Method and apparatus for adaptive illumination compensation in video encoding and decoding
JP2022503464A (ja) 2018-07-17 2022-01-12 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ ビデオコーディング用動きベクトル予測
WO2020062184A1 (zh) * 2018-09-29 2020-04-02 深圳市大疆创新科技有限公司 一种图像处理方法、装置、可移动平台及存储介质
US11166048B2 (en) * 2018-10-02 2021-11-02 Tencent America LLC Method and apparatus for video coding
WO2020071829A1 (ko) 2018-10-04 2020-04-09 엘지전자 주식회사 히스토리 기반 영상 코딩 방법 및 그 장치
US10708626B2 (en) * 2018-11-19 2020-07-07 Google Llc Iterative IDCT with adaptive non-linear filtering
US11184607B2 (en) * 2019-06-13 2021-11-23 Qualcomm Incorporated Same picture order count (POC) numbering for scalability support
WO2021054720A1 (ko) * 2019-09-16 2021-03-25 엘지전자 주식회사 가중 예측을 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
WO2021132962A1 (ko) * 2019-12-23 2021-07-01 엘지전자 주식회사 Nal 유닛 타입 기반 영상 또는 비디오 코딩
JP2023510858A (ja) * 2020-01-12 2023-03-15 ホアウェイ・テクノロジーズ・カンパニー・リミテッド 重み付き予測を非矩形マージモードと調和させる方法および装置
KR20220143023A (ko) * 2020-02-19 2022-10-24 바이트댄스 아이엔씨 비트스트림에서의 비디오 성분들에 대한 가중치 값들의 추론

Family Cites Families (98)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US262856A (en) * 1882-08-15 Car-heater
US10A (en) * 1836-08-10 Gtttlslto andi
US89412A (en) * 1869-04-27 Improvement in mowing-machines
US202594A (en) * 1878-04-16 Improvement in fence-posts
US147850A (en) * 1874-02-24 Improvement in cutting-nippers
US116558A (en) * 1871-07-04 Improvement in smelting iron ores
US106191A (en) * 1870-08-09 Fire-place heater
US28498A (en) * 1860-05-29 Improvement in corn-planters
US159638A (en) * 1875-02-09 Improvement in grain-drills
DE1098653B (de) * 1959-06-27 1961-02-02 Hoechst Ag Verfahren zur Herstellung von Sensibilisierungsfarbstoffen
US3093928A (en) * 1961-02-16 1963-06-18 Robert K Ostrander Multivoice unit
TW352384B (en) * 1992-03-24 1999-02-11 Hoechst Ag Sulfonamido- or sulfonamidocarbonylpyridine-2-carboxamides, process for their preparation and their use as pharmaceuticals
US5473379A (en) 1993-11-04 1995-12-05 At&T Corp. Method and apparatus for improving motion compensation in digital video coding
TW406076B (en) * 1993-12-30 2000-09-21 Hoechst Ag Substituted heterocyclic carboxamides, their preparation and their use as pharmaceuticals
GB9402857D0 (en) * 1994-02-15 1994-04-06 Isis Innovation Targeting gene therapy
DE4410423A1 (de) * 1994-03-25 1995-09-28 Hoechst Ag Sulfonamidocarbonylpyridin-2-carbonsäureamide sowie ihre Pyridin-N-oxide, Verfahren zu ihrer Herstellung und ihre Verwendung als Arzneimittel
DE4410480A1 (de) * 1994-03-25 1995-09-28 Hoechst Ag Sulfonamidocarbonylpyridin-2-carbonsäureesteramide sowie ihre Pyridin-N-oxide, Verfahren zu ihrer Herstellung und ihre Verwendung als Arzneimittel
IL135495A (en) * 1995-09-28 2002-12-01 Hoechst Ag Intermediate compounds for the preparation of quinoline-converted amines - 2 - carboxylic acid
US6055012A (en) * 1995-12-29 2000-04-25 Lucent Technologies Inc. Digital multi-view video compression with complexity and compatibility constraints
US5659933A (en) * 1996-04-01 1997-08-26 Mcwilliams; Edward L. Odor-proof sealable container for bodily remains
JP4159606B2 (ja) 1996-05-24 2008-10-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 動き推定
US5886736A (en) 1996-10-24 1999-03-23 General Instrument Corporation Synchronization of a stereoscopic video sequence
DE19650215A1 (de) * 1996-12-04 1998-06-10 Hoechst Ag 3-Hydroxypyridin-2-carbonsäureamidester, ihre Herstellung und ihre Verwendung als Arzneimittel
JP3931392B2 (ja) 1997-08-25 2007-06-13 ソニー株式会社 立体画像用ビデオ信号生成装置、立体画像用ビデオ信号送出装置および立体画像用ビデオ信号受信装置
DE19746287A1 (de) * 1997-10-20 1999-04-22 Hoechst Marion Roussel De Gmbh Substituierte Isochinolin-2-Carbonsäureamide, ihre Herstellung und ihre Verwendung als Arzneimittel
US5916898A (en) * 1997-10-24 1999-06-29 Zeneca Limited Phenanthroline derivatives
US6200974B1 (en) * 1997-10-24 2001-03-13 Zeneca Limited Phenanthroline derivatives
IL136454A0 (en) * 1997-12-04 2001-06-14 Genzyme Corp Compositions and methods for inducing gene expression
US6124131A (en) * 1998-08-25 2000-09-26 The Johns Hopkins University School Of Medicine Mutant hypoxia inducible factor-1 HIF-1
US6005012A (en) * 1998-10-29 1999-12-21 The Regents Of The University Of California Method for producing hydrophobic aerogels
US6408301B1 (en) * 1999-02-23 2002-06-18 Eastman Kodak Company Interactive image storage, indexing and retrieval system
EP1075147A1 (en) 1999-08-02 2001-02-07 Koninklijke Philips Electronics N.V. Motion estimation
US6735249B1 (en) 1999-08-11 2004-05-11 Nokia Corporation Apparatus, and associated method, for forming a compressed motion vector field utilizing predictive motion coding
KR100680452B1 (ko) 2000-02-22 2007-02-08 주식회사 팬택앤큐리텔 움직임 벡터 메모리의 갱신방법 및 장치
IT1321181B1 (it) 2000-05-04 2003-12-30 Magneti Marelli Spa Metodo e dispositivo per la stima della posizione di un corpoattuatore in un azionatore elettromagnetico per il comando di una
FR2811791B1 (fr) * 2000-07-13 2002-11-22 France Telecom Estimateur de mouvement pour le codage et le decodage de sequences d'images
US6516501B2 (en) * 2000-07-31 2003-02-11 Vazquez-Perez Jose Fernando Method and apparatus for ecological burial
KR100375708B1 (ko) 2000-10-28 2003-03-15 전자부품연구원 3차원 입체영상을 위한 다시점 비디오 시스템 및영상제조방법
US20020106191A1 (en) 2001-01-05 2002-08-08 Vm Labs, Inc. Systems and methods for creating a video montage from titles on a digital video disk
CN100383889C (zh) * 2001-01-16 2008-04-23 松下电器产业株式会社 信息记录装置和方法
AU2002248571B2 (en) * 2001-03-07 2007-01-18 Merck Patent Gmbh Expression technology for proteins containing a hybrid isotype antibody moiety
JP4157686B2 (ja) * 2001-05-15 2008-10-01 株式会社モノリス 画像符号化および復号のための方法および装置
US6804301B2 (en) * 2001-08-15 2004-10-12 General Instrument Corporation First pass encoding of I and P-frame complexity for compressed digital video
US6985231B2 (en) * 2001-09-20 2006-01-10 Strainoptics, Inc. Method and apparatus for measuring the optical quality of a reflective surface
KR100397511B1 (ko) 2001-11-21 2003-09-13 한국전자통신연구원 양안식/다시점 3차원 동영상 처리 시스템 및 그 방법
KR100480787B1 (ko) * 2001-11-27 2005-04-07 삼성전자주식회사 좌표 인터폴레이터의 키 값 데이터 부호화/복호화 방법 및 장치
US7200275B2 (en) 2001-12-17 2007-04-03 Microsoft Corporation Skip macroblock coding
US20030123546A1 (en) 2001-12-28 2003-07-03 Emblaze Systems Scalable multi-level video coding
FI114527B (fi) * 2002-01-23 2004-10-29 Nokia Corp Kuvakehysten ryhmittely videokoodauksessa
PT1486065E (pt) * 2002-03-15 2016-03-30 Nokia Technologies Oy Método para codificação de movimento numa sequência de vídeo
KR100481732B1 (ko) 2002-04-20 2005-04-11 전자부품연구원 다 시점 동영상 부호화 장치
US7831990B2 (en) 2002-04-29 2010-11-09 Sony Corporation Generic adaptation layer for JVT video
US7023921B2 (en) 2002-08-06 2006-04-04 Motorola, Inc. Method and apparatus for determining block match quality
KR100475060B1 (ko) * 2002-08-07 2005-03-10 한국전자통신연구원 다시점 3차원 동영상에 대한 사용자 요구가 반영된 다중화장치 및 방법
US6925622B2 (en) * 2002-09-30 2005-08-02 Freescale Semiconductor, Inc. System and method for correlated clock networks
US7801217B2 (en) * 2002-10-01 2010-09-21 Thomson Licensing Implicit weighting of reference pictures in a video encoder
US20040080078A1 (en) * 2002-10-25 2004-04-29 Collins David C. Methods and systems for producing a desired apparent coloring in an object produced through rapid prototyping
KR100513732B1 (ko) * 2002-12-05 2005-09-08 삼성전자주식회사 3차원 객체 데이터 부호화 및 복호화 방법 및 장치
GB0229354D0 (en) 2002-12-18 2003-01-22 Robert Gordon The University Video encoding
KR100693669B1 (ko) 2003-03-03 2007-03-09 엘지전자 주식회사 피일드 매크로 블록의 레퍼런스 픽쳐 결정 방법
US7949047B2 (en) 2003-03-17 2011-05-24 Qualcomm Incorporated System and method for partial intraframe encoding for wireless multimedia transmission
US7489342B2 (en) * 2004-12-17 2009-02-10 Mitsubishi Electric Research Laboratories, Inc. Method and system for managing reference pictures in multiview videos
US8135683B2 (en) * 2003-12-16 2012-03-13 International Business Machines Corporation Method and apparatus for data redundancy elimination at the block level
TWI238651B (en) 2004-04-30 2005-08-21 Benq Corp Method and apparatus for determining frame status of video data
JP4421940B2 (ja) * 2004-05-13 2010-02-24 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置および方法、並びに動画像復号化装置および方法
KR100679740B1 (ko) 2004-06-25 2007-02-07 학교법인연세대학교 시점 선택이 가능한 다시점 동영상 부호화/복호화 방법
US8184108B2 (en) 2004-06-30 2012-05-22 Poa Sana Liquidating Trust Apparatus and method for a folded optical element waveguide for use with light based touch screens
US7142209B2 (en) 2004-08-03 2006-11-28 Microsoft Corporation Real-time rendering system and process for interactive viewpoint video that was generated using overlapping images of a scene captured from viewpoints forming a grid
US20060083298A1 (en) 2004-10-14 2006-04-20 Nokia Corporation Reference picture management in video coding
TWI254571B (en) 2004-12-07 2006-05-01 Sunplus Technology Co Ltd Method for fast multiple reference frame motion estimation
CN102263962A (zh) 2004-12-10 2011-11-30 韩国电子通信研究院 对多视图视频进行统一编码的装置
US7728877B2 (en) * 2004-12-17 2010-06-01 Mitsubishi Electric Research Laboratories, Inc. Method and system for synthesizing multiview videos
US7671894B2 (en) * 2004-12-17 2010-03-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using skip and direct modes
US7710462B2 (en) 2004-12-17 2010-05-04 Mitsubishi Electric Research Laboratories, Inc. Method for randomly accessing multiview videos
US20060146932A1 (en) * 2004-12-30 2006-07-06 Krit Panusopone Method and apparatus for providing motion estimation with weight prediction
US20060233247A1 (en) 2005-04-13 2006-10-19 Visharam Mohammed Z Storing SVC streams in the AVC file format
US20060254010A1 (en) * 2005-05-13 2006-11-16 Eugene Wagner Interproximal tool
US8228994B2 (en) * 2005-05-20 2012-07-24 Microsoft Corporation Multi-view video coding based on temporal and view decomposition
US8559515B2 (en) * 2005-09-21 2013-10-15 Samsung Electronics Co., Ltd. Apparatus and method for encoding and decoding multi-view video
KR101244911B1 (ko) * 2005-10-11 2013-03-18 삼성전자주식회사 카메라 파라미터를 이용한 다시점 동영상 부호화 및 복호화장치 및 방법과 이를 수행하기 위한 프로그램이 기록된기록매체
KR100667830B1 (ko) 2005-11-05 2007-01-11 삼성전자주식회사 다시점 동영상을 부호화하는 방법 및 장치
US7903737B2 (en) * 2005-11-30 2011-03-08 Mitsubishi Electric Research Laboratories, Inc. Method and system for randomly accessing multiview videos with known prediction dependency
ZA200805337B (en) * 2006-01-09 2009-11-25 Thomson Licensing Method and apparatus for providing reduced resolution update mode for multiview video coding
JP5224458B2 (ja) * 2006-01-09 2013-07-03 トムソン ライセンシング マルチビュービデオ符号化のための低解像度アップデートモードを提供する方法及び装置
KR100943912B1 (ko) 2006-01-12 2010-03-03 엘지전자 주식회사 다시점 비디오의 처리 방법 및 장치
US20090052599A1 (en) * 2006-03-01 2009-02-26 Matsushita Electric Industrial Co., Ltd. Transmitter and transmitter/receiver
KR101353193B1 (ko) 2006-03-29 2014-01-21 톰슨 라이센싱 멀티-뷰 비디오 코딩 시스템에서 사용하기 위한 방법 및 장치
US20090304068A1 (en) * 2006-07-06 2009-12-10 Purvin Bibhas Pandit Method and Apparatus for Decoupling Frame Number and/or Picture Order Count (POC) for Multi-View Video Encoding and Decoding
JP5013993B2 (ja) * 2006-07-12 2012-08-29 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 或るシーンの複数のマルチビュービデオを処理する方法及びシステム
JP4793366B2 (ja) * 2006-10-13 2011-10-12 日本ビクター株式会社 多視点画像符号化装置、多視点画像符号化方法、多視点画像符号化プログラム、多視点画像復号装置、多視点画像復号方法、及び多視点画像復号プログラム
JP5184539B2 (ja) 2006-10-13 2013-04-17 トムソン ライセンシング 多視点ビデオ符号化のための参照ピクチャ・リスト管理方法
EP2087738B1 (en) 2006-10-13 2016-04-13 Thomson Licensing Method for reference picture management involving multiview video coding
CN101627634B (zh) * 2006-10-16 2014-01-01 诺基亚公司 用于将可并行解码片用于多视点视频编码的系统和方法
BRPI0718421A2 (pt) 2006-10-24 2013-11-12 Thomson Licensing Gerenciamento de quadro para codificação de vídeo de multivistas
KR100823287B1 (ko) 2007-01-03 2008-04-21 삼성전자주식회사 전역 차이 벡터를 이용한 다시점 영상의 부호화, 복호화방법 및 장치
JP2011501497A (ja) * 2007-10-15 2011-01-06 ノキア コーポレイション マルチビュー映像コンテンツのための動きスキップおよびシングルループ符号化
US8553781B2 (en) * 2007-12-07 2013-10-08 Thomson Licensing Methods and apparatus for decoded picture buffer (DPB) management in single loop decoding for multi-view video
JP4569635B2 (ja) * 2008-01-17 2010-10-27 カシオ計算機株式会社 電波受信装置および電波時計

Also Published As

Publication number Publication date
PL2008460T3 (pl) 2017-10-31
EP2008460A1 (en) 2008-12-31
DE202007019458U1 (de) 2012-09-13
MX2008012437A (es) 2008-11-18
KR20090006095A (ko) 2009-01-14
US20100027654A1 (en) 2010-02-04
KR20090004996A (ko) 2009-01-12
DE202007019446U1 (de) 2012-09-05
ES2533765T3 (es) 2015-04-15
US20100316360A1 (en) 2010-12-16
JP2009532932A (ja) 2009-09-10
WO2007114608A1 (en) 2007-10-11
JP5055353B2 (ja) 2012-10-24
EP2005752A4 (en) 2010-06-09
DE202007019459U1 (de) 2012-09-13
US8611427B2 (en) 2013-12-17
US8526504B2 (en) 2013-09-03
US8571113B2 (en) 2013-10-29
KR20090007331A (ko) 2009-01-16
US20100091843A1 (en) 2010-04-15
WO2007114609A1 (en) 2007-10-11
US20100026882A1 (en) 2010-02-04
US20100091885A1 (en) 2010-04-15
US20100215100A1 (en) 2010-08-26
WO2007114610A1 (en) 2007-10-11
KR20090099090A (ko) 2009-09-21
US20100091884A1 (en) 2010-04-15
US20100027653A1 (en) 2010-02-04
ES2636917T3 (es) 2017-10-10
KR100949980B1 (ko) 2010-03-29
US20100091883A1 (en) 2010-04-15
PL2005753T3 (pl) 2017-07-31
RU2530310C2 (ru) 2014-10-10
RU2010111711A (ru) 2011-10-10
KR20090099092A (ko) 2009-09-21
KR20090099585A (ko) 2009-09-22
DE202007019454U1 (de) 2012-09-03
WO2007114612A1 (en) 2007-10-11
KR100949982B1 (ko) 2010-03-29
KR100959537B1 (ko) 2010-05-27
US8576920B2 (en) 2013-11-05
KR100949977B1 (ko) 2010-03-29
AU2007232607A1 (en) 2007-10-11
JP5055355B2 (ja) 2012-10-24
KR20090099089A (ko) 2009-09-21
KR20090101496A (ko) 2009-09-28
US20100260265A1 (en) 2010-10-14
KR20090101502A (ko) 2009-09-28
KR100966567B1 (ko) 2010-06-29
US7782949B2 (en) 2010-08-24
US20100027682A1 (en) 2010-02-04
US7782945B2 (en) 2010-08-24
EP2008460B1 (en) 2017-05-17
US7782943B2 (en) 2010-08-24
US20100080293A1 (en) 2010-04-01
JP5247677B2 (ja) 2013-07-24
US8611419B2 (en) 2013-12-17
KR100949978B1 (ko) 2010-03-29
US20100128787A1 (en) 2010-05-27
KR100949983B1 (ko) 2010-03-29
EP2008461B1 (en) 2015-09-16
KR100966569B1 (ko) 2010-06-30
US20100316361A1 (en) 2010-12-16
KR100959536B1 (ko) 2010-05-27
US8483273B2 (en) 2013-07-09
KR20090099096A (ko) 2009-09-21
KR100949979B1 (ko) 2010-03-29
EP2008461A4 (en) 2010-02-03
US8565319B2 (en) 2013-10-22
US20100316362A1 (en) 2010-12-16
KR20090101501A (ko) 2009-09-28
CA2647735C (en) 2013-08-06
KR100966570B1 (ko) 2010-06-29
KR100959538B1 (ko) 2010-05-27
KR100934674B1 (ko) 2009-12-31
US20100086036A1 (en) 2010-04-08
KR20090099586A (ko) 2009-09-22
WO2007114611A1 (en) 2007-10-11
KR20090099095A (ko) 2009-09-21
US7782946B2 (en) 2010-08-24
KR20090096651A (ko) 2009-09-11
KR100934671B1 (ko) 2009-12-31
US8472519B2 (en) 2013-06-25
US7782947B2 (en) 2010-08-24
US8428130B2 (en) 2013-04-23
US8565303B2 (en) 2013-10-22
KR20090099584A (ko) 2009-09-22
US20100091844A1 (en) 2010-04-15
KR20090101499A (ko) 2009-09-28
EP2025170A4 (en) 2010-02-17
ES2619522T3 (es) 2017-06-26
US20100091886A1 (en) 2010-04-15
EP2005753B1 (en) 2016-12-21
KR100943911B1 (ko) 2010-02-24
KR20090099093A (ko) 2009-09-21
US20100074334A1 (en) 2010-03-25
AU2007232607B2 (en) 2010-09-16
KR100949975B1 (ko) 2010-03-29
US8559523B2 (en) 2013-10-15
KR100934673B1 (ko) 2009-12-31
US20090296811A1 (en) 2009-12-03
US7782944B2 (en) 2010-08-24
EP2025170A1 (en) 2009-02-18
KR20090101497A (ko) 2009-09-28
KR100949974B1 (ko) 2010-03-29
US8170108B2 (en) 2012-05-01
EP2005752A1 (en) 2008-12-24
US7782948B2 (en) 2010-08-24
US20100020870A1 (en) 2010-01-28
US8457207B2 (en) 2013-06-04
US20100316136A1 (en) 2010-12-16
US20100026883A1 (en) 2010-02-04
EP2008461A1 (en) 2008-12-31
JP2009532930A (ja) 2009-09-10
EP2005753A4 (en) 2010-02-03
KR100966568B1 (ko) 2010-06-29
KR20090101500A (ko) 2009-09-28
US20100111169A1 (en) 2010-05-06
US20100316135A1 (en) 2010-12-16
US20090279608A1 (en) 2009-11-12
US8432972B2 (en) 2013-04-30
EP2008460A4 (en) 2010-02-03
EP3139615A1 (en) 2017-03-08
US8411744B2 (en) 2013-04-02
EP2005753A1 (en) 2008-12-24
US7782950B2 (en) 2010-08-24
US20100026884A1 (en) 2010-02-04
KR100949981B1 (ko) 2010-03-29
US8363732B2 (en) 2013-01-29
KR20090006093A (ko) 2009-01-14
KR100934672B1 (ko) 2009-12-31
JP2009532934A (ja) 2009-09-10
KR20090099094A (ko) 2009-09-21
US8559505B2 (en) 2013-10-15
EP3151564A1 (en) 2017-04-05
JP2009532931A (ja) 2009-09-10
KR100937431B1 (ko) 2010-01-18
KR20090006094A (ko) 2009-01-14
JP2009532933A (ja) 2009-09-10
KR20100074314A (ko) 2010-07-01
KR20090099091A (ko) 2009-09-21
KR100998912B1 (ko) 2010-12-08
EP2025170B1 (en) 2015-01-07
KR20090101498A (ko) 2009-09-28
KR20090099587A (ko) 2009-09-22
CA2647735A1 (en) 2007-10-11
US20100027659A1 (en) 2010-02-04
KR100934675B1 (ko) 2009-12-31
JP5054092B2 (ja) 2012-10-24
KR100949976B1 (ko) 2010-03-29
US8634475B2 (en) 2014-01-21
US20100027660A1 (en) 2010-02-04
JP5055354B2 (ja) 2012-10-24

Similar Documents

Publication Publication Date Title
BRPI0710048A2 (pt) método e aparelho para decodificar / codificar um sinal de vìdeo

Legal Events

Date Code Title Description
B15K Others concerning applications: alteration of classification

Ipc: H04N 19/573 (2014.01), H04N 19/50 (2014.01), H04N

B08F Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette]

Free format text: REFERENTE A 12A ANUIDADE.

B08K Patent lapsed as no evidence of payment of the annual fee has been furnished to inpi [chapter 8.11 patent gazette]

Free format text: EM VIRTUDE DO ARQUIVAMENTO PUBLICADO NA RPI 2508 DE 29-01-2019 E CONSIDERANDO AUSENCIA DE MANIFESTACAO DENTRO DOS PRAZOS LEGAIS, INFORMO QUE CABE SER MANTIDO O ARQUIVAMENTO DO PEDIDO DE PATENTE, CONFORME O DISPOSTO NO ARTIGO 12, DA RESOLUCAO 113/2013.