BR112014004922B1 - Aparelho para decodificação de informações de movimento em modo de fusão - Google Patents

Aparelho para decodificação de informações de movimento em modo de fusão Download PDF

Info

Publication number
BR112014004922B1
BR112014004922B1 BR112014004922-0A BR112014004922A BR112014004922B1 BR 112014004922 B1 BR112014004922 B1 BR 112014004922B1 BR 112014004922 A BR112014004922 A BR 112014004922A BR 112014004922 B1 BR112014004922 B1 BR 112014004922B1
Authority
BR
Brazil
Prior art keywords
block
candidate
merge
unit
temporal
Prior art date
Application number
BR112014004922-0A
Other languages
English (en)
Other versions
BR112014004922A2 (pt
Inventor
Kwangje KIM
Hyunoh OH
Original Assignee
Ibex Pt Holdings Co., Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=47756522&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=BR112014004922(B1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Ibex Pt Holdings Co., Ltd filed Critical Ibex Pt Holdings Co., Ltd
Priority to BR122015001354-2A priority Critical patent/BR122015001354B1/pt
Publication of BR112014004922A2 publication Critical patent/BR112014004922A2/pt
Publication of BR112014004922B1 publication Critical patent/BR112014004922B1/pt

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/1887Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a variable length codeword
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/198Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including smoothing of a sequence of encoding parameters, e.g. by averaging, by choice of the maximum, minimum or median value
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

APARELHO PARA DECODIFICAÇÃO DE INFORMAÇÕES DE MOVIMENTO EM MODO DE FUSÃO. Descreve- se um aparelho para decodificação de informações de movimento em modo de fusão, para reconstruir um sinal de imagem em movimento, codificado a uma baixa frequência de dados, enquanto mantendo uma alta qualidade de uma imagem. O aparelho para decodificação de informações de movimento em modo de fusão descreve a posição de um candidato em modo de fusão e a configuração de um candidato para prever eficientemente as informações de movimento em modo de fusão. Além do mais, um candidato de fusão, indicado pelo índice de fusão de um bloco atual, pode ser reconstruído eficientemente, independentemente de um meio físico de rede, por geração adaptativa de um candidato de fusão, com base no número de candidatos de fusão válidos.

Description

Campo técnico
[001] A presente invenção se refere a um aparelho para decodificação de informações de movimento, e, mais particularmente, a um aparelho para decodificação de informações de movimento em modo de fusão, para reconstrução de informações de movimento codificadas em modo de fusão.
Antecedentes
[002] Muitas técnicas para comprimir efetivamente um sinal de imagem móvel, enquanto mantendo a qualidade de uma imagem, foram propostas. Em particular, um método de codificação de interprevisão, isto é, um método de extração de um bloco similar a um bloco atual de uma imagem prévia, e codificação de uma diferença entre o bloco extraído e o bloco atual, é um dos métodos mais efetivos na compressão de uma imagem.
[003] No caso de um método de codificação de interprevisão, as informações de movimento correspondentes a cada bloco devem ser transmitidas adicionalmente, em vez de codificação de um bloco residual e transmissão do bloco residual codificado. Por essa razão, o outro método de compressão de imagem vai reduzir a quantidade de dados por codificação efetiva das informações de movimento.
[004] Como o tamanho de um bloco de previsão e o número de imagens a serem referidas ficam diferentes, a quantidade de dados de um bloco residual é reduzida, enquanto a quantidade de informações de movimento a serem transmitidas (por exemplo, um vetor de movimento e um índice de imagens de referência) é aumentada gradualmente.
[005] Consequentemente, há uma necessidade para um aparelho capaz de reduzir a quantidade de informações de movimento, a serem transmitidas mais efetivamente.
Descrição Problema técnico
[006] A presente invenção proporciona um aparelho para decodificação de informações de movimento em um modo de fusão, para reconstruir efetivamente as informações de movimento codificadas em modo de fusão.
Solução técnica
[007] O aparelho para decodificação de informações de movimento em um modo de fusão, de acordo com a presente invenção, inclui: uma unidade de decodificação de índice de preditor de fusão, configurada para reconstruir o índice de preditor de fusão de um bloco atual, usando uma chave de código (CODEWORD) de fusão recebida; uma unidade de derivação de candidato de fusão espacial, configurada para derivar o candidato de fusão espacial do bloco atual; uma unidade de configuração de candidato de fusão temporal, configurada para gerar o candidato de fusão temporal do bloco atual; uma unidade de geração de candidato de fusão, configurada para gerar um candidato de fusão, quando o número de candidatos de fusão válidos do bloco atual é menor do que um número predeterminado; uma unidade de seleção de preditor de fusão, configurada para gerar uma lista de candidatos de fusão usando o candidato de fusão espacial, derivado pela unidade de derivação de candidato de fusão, o candidato de fusão temporal gerado pela unidade de configuração de candidato de fusão temporal, e o candidato de fusão gerado pela unidade de geração de candidato de fusão, e selecionar um preditor de fusão com base no índice de preditor de fusão reconstruído pela unidade de decodificação de índice de preditor de fusão; e uma unidade de geração de informações de movimento, configurada para gerar o índice de imagens de referência e o vetor de movimento de um candidato de fusão, selecionado pela unidade de seleção de preditor de fusão, como o índice de imagens de referência e o vetor de movimento do bloco atual.
Efeitos vantajosos
[008] De acordo com a presente invenção, o índice de preditor de fusão de um bloco atual é reconstruído e o candidato de fusão espacial e o candidato de fusão temporal são gerados, usando uma chave de código de fusão recebida. Se o número de candidatos de fusão válidos do bloco atual for menor do que um número predeterminado, uma lista de candidatos de fusão é feita por geração dos candidatos de fusão. Além do mais, um preditor de fusão é selecionado com base no índice de preditor de fusão reconstruído. Consequentemente, há vantagens pelo fato de que uma velocidade de decodificação pode ser aumentada e as informações de movimento podem ser decodificadas eficientemente, porque o número de candidatos de fusão é fixo e uma tabela de decodificação é usada. Descrição dos desenhos A Figura 1 é um diagrama de blocos de um aparelho de codificação de interprevisão, de acordo com a presente invenção. A Figura 2 é um diagrama de blocos de uma unidade de determinação de modo de codificação de informações de movimento, de acordo com a presente invenção. A Figura 3 é um diagrama mestrando a posição de um candidato de fusão, de acordo com uma concretização da presente invenção. A Figura 4 é um diagrama de blocos de um aparelho de codificação de interprevisão, de acordo com a presente invenção. A Figura 5 é um diagrama de blocos de uma unidade de decodificação de informações de movimento em modo de fusão, de acordo com uma primeira concretização da presente invenção. A Figura 6 é um diagrama de blocos de uma unidade de decodificação de informações de movimento em modo de fusão, de acordo com uma segunda concretização da presente invenção. A Figura 7 é um diagrama de blocos de uma unidade de decodificação de informações de movimento em modo de fusão, de acordo com uma terceira concretização da presente invenção. A Figura 8 é um diagrama de blocos de uma unidade de decodificação de informações de movimento em modo AMVP, de acordo com uma primeira concretização da presente invenção. A Figura 9 é um diagrama de blocos de uma unidade de decodificação de informações de movimento em modo AMVP, de acordo com uma segunda concretização da presente invenção.
Modo para invenção
[009] A Figura 1 é um diagrama de blocos de um aparelho de codificação de interprevisão, de acordo com a presente invenção.
[010] Com referência à Figura 1, o aparelho de codificação de interprevisão inclui uma unidade de determinação de informações de movimento 110, uma unidade de determinação de modo de codificação de informações de movimento 120, uma unidade de codificação de informações de movimento 130, uma unidade de geração de blocos de previsão 140, uma unidade de geração de blocos residuais 150, uma unidade de codificação de blocos residuais 160, e um multiplexador 170.
[011] A unidade de determinação de informações de movimento 110 determina as informações de movimento de um bloco atual. As informações de movimento incluem um índice de imagens de referência e um vetor de movimento. O índice de imagens de referência indica qualquer uma de imagens previamente codificadas e reconstruídas. Se um bloco atual for codificado usando uma previsão única, o índice de imagens de referência indica uma das imagens de referência que pertencem a uma lista 0 L0. Em comparação, se um bloco atual for codificado usando uma previsão dupla, o índice de imagens de referência pode indicar uma das imagens de referência incluídas em uma lista 0 L0 e uma das imagens de referência incluídas em uma lista 1 L1. Além do mais, se um bloco atual for codificado usando uma previsão dupla, o índice de imagens de referência pode indicar uma ou duas imagens das imagens de referência incluídas em uma lista complexa LC, gerada por combinação de uma lista 0 e uma lista 1.
[012] O vetor de movimento indica uma posição de um bloco de previsão dentro de uma imagem, indicada por cada índice de imagens de referência. O vetor de movimento pode ser uma unidade de pixel (por exemplo, uma unidade pixel inteiro), e pode ser também uma unidade de subpixel. Por exemplo, o vetor de movimento pode ter uma resolução de 1/2, 1/4, 1/8 ou 1/16 pixel. Se um vetor de movimento não for uma unidade de pixel inteiro, um bloco de previsão é gerado de pixels inteiros.
[013] A unidade de determinação de modo de codificação de informações de movimento 120 determina se as informações de movimento de um bloco atual vão ser codificadas em modo de salto, modo de fusão ou modo AMVP.
[014] O modo de salto é aplicado quando um candidato de salto, tendo as mesmas informações de movimento de um bloco atual, está presente e um sinal residual é 0. Além do mais, o modo de salto é aplicado quando um bloco atual tem o mesmo tamanho que a unidade de codificação. O bloco atual pode ser considerado como sendo uma unidade de previsão.
[015] O modo de fusão é aplicado quando um candidato de fusão, tendo as mesmas informações de movimento de um bloco atual, está presente. O modo de fusão é aplicado quando um bloco atual tem um tamanho diferente de uma unidade de codificação, ou quando um sinal residual está presente se um bloco atual tiver o mesmo tamanho que uma unidade de codificação. Um candidato de fusão pode ser idêntico a um candidato de salto.
[016] O modo AMVP é aplicado é aplicado quando o modo de salto e o modo de fusão não são aplicados. Um candidato AMVP, que tem o vetor de movimento mais similar que um bloco atual, é selecionado como um preditor AMVP.
[017] A unidade de codificação de informações de movimento 130 codifica as informações de movimento, de acordo com um método determinado pela unidade de determinação de modo de codificação de informações de movimento 120. Se o modo de codificação de informações de movimento for o modo de salto ou o modo de fusão, a unidade de codificação de informações de movimento 130 executa um processo de codificação de vetor de movimento. Se o modo de codificação de informações de movimento for o modo AMVP, a unidade de codificação de informações de movimento 130 executa um processo de codificação AMVP.
[018] A unidade de geração de blocos de previsão 140 gera um bloco de previsão, usando as informações de movimento de um bloco atual. Se um vetor de movimento for uma unidade de pixel inteiro, a unidade de geração de blocos de previsão 140 gera o bloco de previsão de um bloco atual por cópia de um bloco correspondente a uma posição, que é indicada por um vetor de movimento dentro de uma imagem indicada por um índice de imagens de referência.
[019] Se um vetor de movimento não for uma unidade de pixel inteiro, no entanto, a unidade de geração de blocos de previsão 140 gera pixels de um bloco de previsão de pixels inteiros dentro de uma imagem, indicada por um índice de imagens de referência. Nesse caso, no caso de um pixel de luminância, um bloco de previsão pode ser gerado usando um filtro de interpolação de 8 derivações. No caso de um pixel de crominância, um pixel de preditor pode ser gerado usando um filtro de interpolação de 4 derivações.
[020] A unidade de geração de blocos residuais 150 gera um bloco residual, usando o bloco atual e o bloco de previsão do bloco atual. Se um bloco atual tiver um tamanho de 2Nx2N, a unidade de geração de blocos residuais 150 gera um bloco residual, usando o bloco atual e um bloco de previsão, tendo um tamanho de 2Nx2N, correspondente ao bloco atual. Se um bloco atual, usado para previsão, tiver um tamanho de 2NxN ou Nx2N, a unidade de geração de blocos residuais 150 pode obter um bloco de previsão para cada um dos dois blocos 2NxN, que formam o tamanho de 2Nx2N, e depois geram um bloco de previsão final tendo um tamanho de 2Nx2N, usando os dois blocos de previsão 2NxN. Além do mais, a unidade de geração de blocos residuais 150 pode gerar um bloco residual tendo um tamanho de 2Nx2N, usando um bloco residual tendo um tamanho de 2Nx2N. Os pixels, localizados próximos de um limite dos dois blocos de previsão, tendo cada um deles o tamanho de 2NxN, podem ser nivelados por sobreposição para solucionar a descontinuidade no limite.
[021] A unidade de codificação de blocos residuais 160 classifica um bloco residual gerado em uma ou mais unidades de transformação. Além do mais, cada uma das unidades de transformação é codificada por execução de codificação de transformação, quantização, e codificação por entropia. Nesse caso, um tamanho da unidade de transformação pode ser determinado por um método de árvore quádrupla, dependendo de um tamanho do bloco residual.
[022] A unidade de codificação de blocos residuais 160 transforma um bloco residual, gerado pelo método de interprevisão, usando uma matriz de transformação baseada em número inteiro. A matriz de transformação é uma matriz DCT à base de número inteiro. A unidade de codificação de blocos residuais 160 usa uma matriz de quantização, para quantizar os coeficientes do bloco residual transformado pela matriz de transformação. A matriz de quantização é determinada por um parâmetro de quantização. O parâmetro de quantização é determinado para cada unidade de codificação, tendo um tamanho predeterminado ou maior. O tamanho predeterminado pode ser 8x8 ou 16x16. Consequentemente, se uma unidade de codificação atual for menor do que o tamanho predeterminado, apenas o parâmetro de quantização de uma primeira unidade de codifica em uma ordem de codificação, de entre várias unidades de codificação dentro do tamanho predeterminado, é codificado, e os parâmetros de quantização das unidades de codificação remanescentes não precisam ser codificados, porque são iguais ao parâmetro de quantização da primeira unidade de codificação. Além do mais, os coeficientes do bloco de transformação são quantizados usando o parâmetro de quantização determinado e uma matriz de quantização determinada, dependendo do modo de previsão.
[023] Um parâmetro de quantização, determinado para cada unidade de codificação, tendo o tamanho predeterminado ou maior, é codificado por execução de uma codificação de previsão, usando o parâmetro de quantização de uma unidade de codificação, que é adjacente a uma unidade de codificação de corrente. Os parâmetros de quantização podem ser buscados em ordem da unidade de codificação esquerda e da unidade de codificação superior da unidade de codificação atual, e um preditor de parâmetro de quantização de uma unidade de codificação atual pode ser gerado usando um ou dois parâmetros de quantização válidos buscados. Por exemplo, um parâmetro de quantização válido, recuperado primeiro como descrito acima, pode ser determinado como um preditor de parâmetro de quantização. Em outra concretização, os parâmetros de quantização podem ser buscados em ordem de uma unidade de codificação esquerda e uma unidade de codificação à direita, antes em ordem de codificação, e um parâmetro de quantização válido recuperado primeiro pode ser determinado como um preditor de parâmetro de quantização.
[024] Os coeficientes de um bloco de transformação quantizado são escaneados e transformados em coeficientes de quantização unidimensionais. Um método de escaneamento pode ser, diferentemente, baseado em um modo de codificação por entropia. Por exemplo, no caso de Codificação Aritmética Binária Adaptativa à Base de Contexto (CABAC), os coeficientes de quantização, codificados por uso de interprevisão, podem ser escaneados usando um método predeterminado (por exemplo, um escaneamento em ziguezague, ou um escaneamento de rastreio diagonal). Em comparação, no caso de CAVLC, os coeficientes de quantização, codificados por uso de interprevisão, podem ser escaneados usando um método diferente do método mencionado acima. Por exemplo, o método de escaneamento pode ser determinado com base no escaneamento em ziguezague, no caso de modo de interprevisão, e pode ser determinado com base em modo de intraprevisão, no caso de intraprevisão. Além do mais, um método de escaneamento de coeficiente pode ser determinado diferentemente, com base no tamanho de uma unidade de transformação. Um modelo de escaneamento pode variar com base em um modo de intraprevisão direcional. Os coeficientes de quantização são escaneados em uma ordem inversa.
[025] O multiplexador 170 multiplica as informações de movimento, codificadas pela unidade de codificação de informações de movimento 130, e os sinais residuais, codificados pela unidade de codificação de blocos residuais 160. As informações de movimento podem incluir diferentes informações, dependendo do modo de codificação. Isto é, em um modo de salto ou em fusão, as informações de movimento incluem apenas um índice indicativo de um preditor. Em comparação, no modo AMVP, as informações de movimento incluem um índice de imagens de referência, um vetor de movimento diferencial e um índice AMVP de um bloco atual.
[026] A Figura 2 é um diagrama de blocos da unidade de determinação de modo de codificação de informações de movimento 120, de acordo com a presente invenção.
[027] A unidade de determinação de modo de codificação de informações de movimento 120, de acordo com a presente invenção, inclui uma unidade de derivação de candidato de fusão espacial 121, uma unidade de derivação de índice de imagens de referência 122 para um candidato de fusão temporal, uma unidade de derivação de vetor de movimento 123 para um candidato de fusão / AMVP temporal, uma unidade de derivação de vetor de movimento 124 para um candidato AMVP espacial, uma unidade de configuração de candidato de fusão temporal 125, uma unidade de geração de lista de candidatos de fusão 126, uma unidade de geração de lista de candidatos AMVP 127, e uma unidade de determinação de modo de codificação 128.
[028] A unidade de derivação de candidato de fusão espacial 121 coloca as informações de movimento válidas nos blocos adjacentes a um bloco atual, como os candidatos de fusão espacial. Quatro candidatos do bloco esquerdo (por exemplo, um bloco A) de um bloco atual, o bloco superior (por exemplo, um bloco B) do bloco atual, o bloco direito superior (por exemplo, um bloco C) do bloco atual, o bloco esquerdo inferior (por exemplo, um bloco D) do bloco atual, e o bloco esquerdo superior (por exemplo, um bloco E) do bloco atual podem vir a ser os candidatos de fusão espaciais, como mostrado na Figura 3. Nesse caso, o bloco E pode ser usado quando um ou mais dos blocos A, B, C e D não são válidos.
[029] Além do mais, o bloco esquerdo (por exemplo, o bloco A') do bloco atual, o bloco superior (por exemplo, um bloco B') do bloco atual, e o bloco de canto (por exemplo, qualquer um dos blocos C, D e E) do bloco atual podem ser colocados como os candidatos de fusão espacial. O bloco de canto é o primeiro bloco, que é válido, quando o escaneamento é feito para o bloco direito superior (por exemplo, um bloco C) do bloco atual, o bloco esquerdo inferior (por exemplo, um bloco D) do bloco atual, e o bloco esquerdo superior (por exemplo, um bloco E) do bloco atual.
[030] Além do mais, dois candidatos, que são válidos quando o escaneamento é feito na ordem dos bloco esquerdo (por exemplo, um bloco A') do bloco atual, bloco superior (por exemplo, um bloco B') do bloco atual, bloco direito superior (por exemplo, um bloco C) do bloco atual, bloco esquerdo inferior (por exemplo, um bloco D) do bloco atual, e bloco esquerdo superior (por exemplo, um bloco E) do bloco atual podem vir a ser os candidatos de fusão espacial.
[031] Nesse caso, o bloco esquerdo pode ser um bloco que não é adjacente ao bloco D, mas adjacente ao bloco E. Igualmente, o bloco superior B' pode ser um bloco que não é adjacente ao bloco C, mas adjacente ao bloco E.
[032] A unidade de derivação de índice de imagens de referência 122, para um candidato de fusão temporal, obtém um índice de imagens de referência para os candidatos de fusão temporal de um bloco atual. O índice de imagens de referência de um dos blocos (por exemplo, as unidades de previsão), que é espacialmente adjacente a um bloco atual, pode ser colocado como o índice de imagens de referência para os candidatos de fusão temporal.
[033] Para obter os índices de referência dos candidatos de fusão temporal do bloco atual, alguns ou todos dos índices de imagens de referência dos bloco esquerdo A, bloco superior B, bloco direito superior C, bloco esquerdo inferior D e bloco esquerdo superior E do bloco atual podem ser usados.
[034] Por exemplo, os índices de imagens de referência dos bloco esquerdo A, bloco superior B e bloco de canto (por exemplo, qualquer um dos blocos C, D e E) do bloco atual podem ser usados. Nesse caso, o índice de imagens de referência de um bloco, que é válido primeiro quando os blocos são escaneados na ordem dos bloco direito superior C, bloco esquerdo inferior D e bloco esquerdo superior E, podem ser determinados como o índice de imagens de referência do bloco de canto. Por exemplo, um índice de imagens de referência tendo a frequência mais alta, de entre os índices de imagens de referência válidos dos índices de imagens de referência, pode ser adotado com um índice de imagens de referência de um candidato de salto temporal. Se o número de índices de imagens de referência tiver a frequência mais alta, de entre os candidatos válidos, for plural, um índice de imagens de referência tendo um valor mínimo, de entre os vários índices de imagens de referência, pode ser adotado como um índice de imagens de referência para o candidato de salto temporal.
[035] Para obter os índices de referência dos candidatos de fusão temporal do bloco atual, os índices de imagens de referência de três blocos, que são válidos quando os blocos são escaneados na ordem dos bloco esquerdo A, bloco superior B, bloco direito superior C, bloco esquerdo inferior D e bloco esquerdo superior E do bloco atual, podem ser usados. Embora três ou mais índices de imagens de referência sejam ilustrados como sendo usados, todos os índices de imagens de referência podem ser usados, ou apenas um índice de imagens de referência, em uma posição predeterminada, pode ser usado. Se não houver qualquer índice de imagens de referência, o índice de imagens de referência pode ser ajustado como 0.
[036] A unidade de derivação de vetor de movimento 123 para um candidato de fusão / AMVP temporal determina uma imagem, à qual um bloco de candidato de fusão temporal pertence (a seguir, referida como uma imagem de candidato de fusão temporal). A imagem de candidato de fusão temporal pode ser adotada como uma imagem tendo um índice de imagens de referência de 0. Nesse caso, ser um tipo fatia for P, a imagem de candidato de fusão temporal é adotada como a primeira imagem de uma lista 0 (isto é, uma imagem tendo um índice de 0). Se um tipo de fatia for B, a imagem de candidato de fusão temporal é adotada como a primeira imagem de uma lista de imagens de referência indicada por um marcador, o marcador sendo indicativo de uma lista de candidatos de fusão temporal em um cabeçalho de fatia. Por exemplo, a imagem de candidato de fusão temporal pode ser adotada como uma imagem em uma lista 0, quando o marcador é 1, e como uma imagem em uma lista 1, quando o marcador é 0.
[037] A unidade de derivação de vetor de movimento 123 obtém um bloco de candidato de fusão temporal dentro da imagem de candidato de fusão temporal. Um de vários blocos correspondentes a um bloco atual, dentro da imagem de candidato de fusão temporal, pode ser selecionado como o bloco de candidato de fusão temporal. Nesse caso, a ordem de prioridade pode ser atribuída à pluralidade de blocos correspondentes, e um primeiro bloco correspondente válido pode ser selecionado como o bloco de candidato de fusão temporal, com base na ordem de prioridade.
[038] Por exemplo, um bloco de canto esquerdo inferior BR_C, que é adjacente a um bloco correspondente a um bloco atual, dentro da imagem de candidato de fusão temporal, ou um bloco esquerdo inferior BR, dentro de um bloco correspondente a um bloco atual, dentro da imagem de candidato de fusão temporal, pode ser adotado como um primeiro bloco de candidato, e um bloco C1, que inclui um pixel esquerdo superior na posição central de um bloco correspondente a um bloco atual, dentro da imagem de candidato de fusão temporal, ou um bloco C2, que inclui um pixel direito inferior na posição central de um bloco correspondente a um bloco atual, dentro da imagem de candidato de fusão temporal, pode ser adotado como um segundo bloco de candidato.
[039] Quando o primeiro bloco de candidato é válido, o bloco de candidato de fusão temporal pode ser adotado como o primeiro bloco de candidato. Quando o primeiro bloco de candidato não é válido e o segundo bloco de candidato é válido, o bloco de candidato de fusão temporal pode ser adotado como o segundo bloco de candidato. Em outra concretização, apenas o segundo bloco de candidato é adjacente ao limite inferior de uma fatia ou ao limite inferior de um LCU, apenas o segundo bloco de candidato pode ser usado. Se o segundo bloco de candidato não estiver presente, o candidato de fusão temporal não é determinado como sendo válido.
[040] Após o bloco de candidato de fusão temporal ser determinado, um vetor de movimento de um candidato de fusão temporal é adotado como um vetor de movimento do bloco de candidato de fusão temporal.
[041] Enquanto isso, o candidato de fusão temporal pode não ser usado adaptativamente, dependendo do tamanho de um bloco atual. Por exemplo, no caso de um bloco 4x4, o candidato de fusão temporal pode não ser usado para reduzir a complexidade.
[042] A unidade de derivação de vetor de movimento 124 para um candidato AMVP espacial pode selecionar um do bloco esquerdo (por exemplo, um bloco A) e o bloco esquerdo inferior (por exemplo, um bloco D) de um bloco atual como o candidato espacial esquerdo, e pode selecionar um do bloco superior (por exemplo, um bloco B) do bloco atual, o bloco direito superior (por exemplo, um bloco C) do bloco atual, e o bloco esquerdo superior (por exemplo, o bloco E) do bloco atual como um candidato espacial superior. Nesse caso, um vetor de movimento, que é primeiro válido que os blocos são escaneados em uma ordem predeterminada, é determinado como o candidato espacial esquerdo ou superior. A ordem predeterminada pode ser a ordem dos bloco A e do bloco D, ou uma ordem inversa dela, no caso de um bloco esquerdo, e pode ser a ordem dos bloco B, bloco C e bloco E, ou a ordem dos bloco C, bloco B e bloco E, no caso de um bloco superior. O vetor de movimento válido pode ser um vetor de movimento que satisfaça uma condição predeterminada. A condição predeterminada é estabelecida com base nas informações de movimento de um bloco atual. Um candidato espacial superior pode não ser adotado com base em um candidato espacial esquerdo.
[043] A unidade de configuração de candidato de fusão temporal 125 gera um candidato de fusão temporal, usando um índice de imagens de referência do candidato de fusão temporal, obtido pela unidade de derivação de índice de imagens de referência 122 para o candidato de fusão temporal, e um vetor de movimento do candidato de fusão temporal, obtido pela unidade de derivação de vetor de movimento 123 para o candidato de fusão / AMVP temporal.
[044] A unidade de geração de lista de candidatos de fusão 126 gera uma lista de candidatos de fusão, em uma ordem predeterminada, usando os candidatos de fusão válidos. Se vários candidatos de fusão tiverem as mesmas informações de movimento (por exemplo, o mesmo vetor de movimento e o mesmo índice de imagens de referência), os candidatos de fusão tendo uma ordem de prioridade inferior são eliminados da lista. Por exemplo, a ordem predeterminada pode ser a ordem dos blocos A, B, Col, C e D. Nesse caso, Col significa um candidato de fusão temporal. Se um ou mais dos blocos A, B, C e D não são válidos, as informações de movimento de um bloco válido E podem ser inseridas na posição do primeiro bloco inválido. Além do mais, as informações de movimento do bloco válido E podem ser inseridas na última posição.
[045] Enquanto isso, se o número de candidatos de fusão for menor do que um número predeterminado, um candidato de fusão pode ser gerado. O candidato de fusão adicionado pode ser gerado por combinação das informações de movimento de dois candidatos de fusão válidos. Por exemplo, um candidato de fusão pode ser gerado por combinação por combinação de um índice de imagens de referência de um candidato de fusão temporal e um vetor de movimento espacial válido de um candidato de fusão espacial. Se vários candidatos de fusão puderem ser gerados, os candidatos de fusão gerados podem ser adicionados a uma lista em uma ordem predeterminada. Um candidato de fusão, gerado por combinação do índice de imagens de referência de um candidato de fusão temporal, e o vetor de movimento de um candidato de fusão espacial podem ser primeiro adicionados à lista. Se o número de candidatos de fusão a ser gerado for insuficiente, um candidato de fusão, tendo um vetor de movimento de 0 e um índice de imagens de referência de 0, pode ser adicionado. O número predeterminado pode ser determinado para cada imagem ou fatia.
[046] A unidade de geração de lista de candidatos AMVP 127 gera uma lista de candidatos AMVP, em uma ordem predeterminada, usando candidatos AMVP válidos. Se os vários candidatos AMVP tiverem o mesmo vetor de movimento (mas as imagens de referência não precisam ser iguais), os candidatos AMVP, tendo uma ordem de prioridade inferior, são eliminados da lista. A ordem predeterminada pode ser a ordem do lado esquerdo, o lado superior e Col, ou pode ser a ordem de Col, lado esquerdo e lado superior.
[047] Além do mais, a unidade de geração de lista de candidatos AMVP 127 determina se é necessário gerar ou não um candidato AMVP. Considerando que o número de candidatos AMVP é estabelecido como sendo um valor fixo na configuração de candidatos AMVP apresentada acima, se o número de candidatos AMVP válidos for menor do que o valor fixo, um candidato AMVP é gerado. Além do mais, o candidato AMVP gerado é adicionado a uma posição seguinte a um candidato AMVP, tendo a ordem de prioridade mais baixa na lista. O candidato AMVP adicionado pode ser um candidato tendo um vetor de movimento de 0.
[048] A unidade de determinação de modo de codificação 128 determina se as informações de movimento de um bloco atual vão ser codificadas em um modo de salto, um modo de fusão ou um modo AMVP.
[049] O modo de salto é aplicado quando há um candidato de salto tendo as mesmas informações de movimento que um bloco atual e o sinal residual é 0. Além do mais, o modo de salto é aplicado quando um bloco atual tem o mesmo tamanho que uma unidade de codificação. O bloco atual pode ser considerado como sendo uma unidade de previsão.
[050] O modo de fusão é aplicado quando um candidato de fusão, tendo as mesmas informações de movimento que um bloco atual, está presente. O modo de fusão é aplicado quando um bloco atual tem um tamanho diferente de uma unidade de codificação, ou quando um sinal residual está presente, se um bloco atual tiver o mesmo tamanho que uma unidade de codificação. Um candidato de fusão pode ser idêntico a um candidato de salto.
[051] O modo AMVP é aplicado quando o modo de salto e o modo de fusão não são aplicados. Um candidato AMVP, que tem o vetor de movimento mais similar que o bloco atual, é selecionado como um preditor AMVP.
[052] A Figura 4 é um diagrama de blocos de um aparelho de decodificação de interprevisão 200, de acordo com a presente invenção.
[053] O aparelho de codificação de interprevisão 200, de acordo com a presente invenção, inclui um desmultiplexador 210, uma unidade de determinação de modo de codificação de informações de movimento 220, uma unidade de decodificação de informações de movimento em modo de fusão 230, uma unidade de decodificação de informações de movimento em modo AMVP 240, uma unidade de geração de blocos de previsão 250, uma unidade de codificação de blocos residuais 260 e uma unidade de geração de blocos de reconstrução 270.
[054] O desmultiplexador 210 desmultiplica as informações de movimento codificadas de um bloco atual e os sinais residuais codificados de um fluxo de bits recebido. O desmultiplexador 210 transmite as informações de movimento desmultiplicadas para a unidade de determinação de modo de codificação de informações de movimento 220, e transmite os sinais residuais desmultiplicados para a unidade de decodificação de blocos residuais 260.
[055] A unidade de determinação de modo de codificação de informações de movimento 220 determina o modo de codificação das informações de movimento do bloco atual. Se o marcador de salto, incluído em um fluxo de bits recebido, tiver um valor de 1, a unidade de determinação de modo de codificação de informações de movimento 220 determina que as informações de movimento do bloco atual foram codificadas em modo de salto. Se o skip_flag, incluído no fluxo de bits recebido, tiver um valor de 0, e as informações de movimento, recebidas do desmultiplexador 210, tiverem apenas um índice de fusão, a unidade de determinação de modo de codificação de informações de movimento 220 determina que as informações de movimento do bloco atual foram codificadas em modo de fusão. Se o skip_flag, incluído no fluxo de bits recebido, tiver um valor de 0, e as informações de movimento, recebidas do desmultiplexador 210, tiverem um índice de imagens de referência, um vetor de movimento diferencial e um índice AMVP, a unidade de determinação de modo de codificação de informações de movimento 220 determina que as informações de movimento do bloco atual foram codificadas em modo AMVP.
[056] A unidade de decodificação de informações de movimento em modo de fusão 230 é ativada quando a unidade de determinação de modo de codificação de informações de movimento 220 determina que as informações de movimento do bloco atual foram codificadas em modo de salto ou modo de fusão.
[057] A unidade de decodificação de informações de movimento em modo AMVP 240 é ativada quando a unidade de determinação de modo de codificação de informações de movimento 220 determina que as informações de movimento de um bloco atual foram codificadas em modo AMVP.
[058] A unidade de geração de blocos de previsão 250 gera o bloco de previsão do bloco atual, usando as informações de movimento reconstruídas pela unidade de decodificação de informações de movimento em modo de fusão 230 ou unidade de decodificação de informações de movimento em modo AMVP 240. Se um vetor de movimento tiver uma unidade de pixel inteiro, a unidade de geração de blocos de previsão 250 gera o bloco de previsão do bloco atual por cópia de um bloco correspondente a uma posição que é indicada por um vetor de movimento dentro de uma imagem indicada por um índice de imagens de referência. Se um vetor de movimento não tiver uma unidade de pixel inteiro, no entanto, a unidade de geração de blocos de previsão 250 gera pixels de um bloco de previsão de pixels inteiros dentro de uma imagem indicada por um índice de imagens de referência. No caso de um pixel de luminância, um pixel de previsão pode ser gerado usando um filtro de interpolação de 8 derivações. No caso de um pixel de crominância, um pixel de previsão pode ser gerado usando um filtro de interpolação de 4 derivações. um filtro de interpolação de 8 derivações. No caso de um pixel de crominância, um pixel de previsão pode ser gerado usando um filtro de interpolação de 4 derivações.
[059] A unidade de codificação de blocos residuais 260 executa decodificação por entropia em um sinal residual. Além do mais, a unidade de codificação de blocos residuais 260 gera um bloco de coeficiente quantizado bidimensional por coeficientes decodificados por escaneamento inverso. Um método de escaneamento inverso pode variar com base em um método de decodificação por entropia. Isto é, o método de escaneamento inverso de um sinal residual de interprevisão, no caso de decodificação baseada em Codificação Aritmética Binária Adaptativa a Contexto (CABAC), pode ser diferente do método de escaneamento inverso de um sinal residual de interprevisão, no caso de decodificação baseada em Codificação de Comprimento Variável Adaptativo com Base em Contexto (CAVLC). Por exemplo, um método de escaneamento inverso de rastreio diagonal pode ser usado no caso de decodificação baseada em CABAC. e um método de escaneamento inverso em ziguezague pode ser usado no caso de decodificação baseada em CAVLC. Além do mais, o método de escaneamento inverso pode ser determinado com base em um tamanho de um bloco de previsão.
[060] A unidade de codificação de blocos residuais 260 quantiza inversamente um bloco de coeficiente gerado usando uma matriz de quantização inversa. Para derivar a matriz de quantização, um parâmetro de quantização é reconstruído. Um tamanho de etapa de quantização é reconstruído para cada unidade de codificação tendo um tamanho igual ou superior a um predeterminado. O tamanho predeterminado pode ser 8x8 ou 16x16. Consequentemente, de uma unidade de codificação atual for menor do que o tamanho predeterminado, apenas o parâmetro de quantização da primeira unidade de codificação, na ordem de codificação, de entre várias unidades de codificação dentro do tamanho predeterminado, é reconstruído, e os parâmetros de quantização das unidades de codificação remanescentes não precisam ser codificados porque são iguais ao parâmetro de quantização da primeira unidade de codificação.
[061] Para reconstruir um parâmetro de quantização determinado para cada unidade de codificação, tendo o tamanho predeterminado ou maior, o parâmetro de quantização de uma unidade de codificação, vizinha a uma unidade de codificação atual, é usado. O primeiro parâmetro de quantização, que é válido quando o escaneamento é conduzido, na ordem da unidade de codificação esquerda e da unidade de codificação superior de uma unidade de codificação atual, pode ser determinado como um preditor de parâmetro de quantização da unidade de codificação atual. Além do mais, o primeiro parâmetro de quantização, que é válido quando o escaneamento é feito na ordem da unidade de codificação esquerda e da unidade de codificação direita, antes da ordem de codificação da unidade de codificação atual, pode ser determinado como um preditor de parâmetro de quantização. O parâmetro de quantização de uma unidade de previsão atual é reconstruído usando o preditor de parâmetro de quantização determinado e um parâmetro de quantização diferencial.
[062] A unidade de codificação de blocos residuais 260 reconstrói um bloco residual por transformação inversa do bloco de coeficiente quantizado inversamente.
[063] A unidade de geração de blocos de reconstrução 270 gera um bloco de reconstrução por adição de um bloco de previsão, gerado pela unidade de geração de blocos de previsão 250, a um bloco residual, gerado pela unidade de codificação de blocos residuais 260.
[064] A Figura 5 é um diagrama de blocos da unidade de decodificação de informações de movimento em modo de fusão 230, de acordo com uma primeira concretização da presente invenção.
[065] A unidade de decodificação de informações de movimento em modo de fusão 230, de acordo com a primeira concretização da presente invenção, inclui uma unidade de determinação de chave de código 231, uma unidade de derivação de candidatos de fusão espacial 232, uma unidade de derivação de índices de imagens de referência 233 para um candidato de fusão temporal, uma unidade de derivação de vetor de movimento 234 para um candidato de fusão temporal, uma unidade de configuração de candidatos de fusão temporal 235, uma unidade de geração de lista de candidatos de fusão 236, uma unidade de decodificação de índices de candidatos de fusão 237, e uma unidade de geração de informações de movimento 238. Nesse caso, o número de candidatos de fusão não é fixo.
[066] A unidade de determinação de chave de código 231 determina se há ou não uma chave de código, correspondente a um índice de candidatos de fusão. Se, em consequência da determinação, uma chave de código, correspondente ao índice de candidatos de fusão, for determinado como não estando presente, a unidade de determinação de chave de código 231 determina que um candidato de fusão estão ou não presente. Se, em consequência da determinação, um candidato de fusão for determinado como não estando presente, as informações de movimento de um bloco atual são reconstruídas como as informações de movimento tendo um vetor de movimento de 0 e um índice de imagens de referência de 0. Se, em consequência da determinação, um candidato de fusão for determinado como estando presente, as informações de movimento do bloco atual são reconstruídas como as informações de movimento do candidato de fusão.
[067] A unidade de derivação de candidatos de fusão espacial 232 estabelece nas informações de movimento válidas de um bloco, que é adjacente a um bloco atual, como um candidato de fusão espacial. Como mostrado na Figura 3, quatro candidatos do bloco esquerdo (por exemplo, um bloco A) de um bloco atual, o bloco superior (por exemplo, um bloco B) do bloco atual, o bloco direito superior (por exemplo, um bloco C) do bloco atual, o bloco esquerdo inferior (por exemplo, um bloco D) do bloco atual, e o bloco esquerdo superior (por exemplo, um bloco E) do bloco atual podem ser usados para estabelecer os candidatos de fusão espaciais. Nesse caso, o bloco E pode ser usado quando um ou mais dos blocos A, B, C e D não são válidos.
[068] Além do mais, o bloco esquerdo (por exemplo, um bloco A') de um bloco atual, o bloco superior (por exemplo, um bloco B') do bloco atual, e o bloco de canto (por exemplo, qualquer um dos blocos C, D e E) do bloco atual podem ser estabelecidos como os candidatos de fusão espacial. O bloco de canto é o primeiro bloco que é válido, quando o escaneamento é feito na ordem dos bloco direito superior (por exemplo, um bloco C), bloco esquerdo inferior (por exemplo, um bloco D) do bloco atual e bloco esquerdo superior (por exemplo, um bloco E) do bloco atual.
[069] Além do mais, dois candidatos que são válidos quando o escaneamento é feito na ordem dos bloco esquerdo (por exemplo, um bloco A') do bloco atual, bloco superior (bloco B') do bloco atual, bloco direito superior (por exemplo, um bloco C) do bloco atual, bloco esquerdo inferior (por exemplo, um bloco D) do bloco atual, e bloco esquerdo superior (por exemplo, um bloco E) do bloco atual podem ser adotados como os candidatos de fusão espacial.
[070] Nesse caso, o bloco esquerdo A' pode ser um bloco que não é adjacente ao bloco D, mas é adjacente ao bloco E. Igualmente, o bloco superior B1 pode ser um bloco que não é adjacente ao bloco C, mas é adjacente ao bloco E.
[071] Nas concretizações mencionadas acima, as informações de movimento de candidatos de fusão colocadas no lado superior de uma unidade de previsão atual, de entre os candidatos de fusão espacial, podem ser estabelecidas diferentemente, com base na posição da unidade de previsão atual. Por exemplo, se a unidade de previsão atual ficar em contato com o limite superior de um LCU, as informações de movimento da unidade de previsão superior (por exemplo, um bloco B, C ou E) da unidade de previsão atual podem ser suas próprias informações de movimento ou informações de movimento de uma unidade de previsão adjacente. As informações de movimento da unidade de previsão superior podem ser determinadas como suas próprias informações de movimento ou informações de movimento (por exemplo, um índice de imagens de referência e um vetor de movimento) de uma unidade de previsão vizinha, com base nos tamanho e posição da unidade de previsão atual.
[072] A unidade de derivação de índices de imagens de referência 233 obtém o índice de imagens de referência dos candidatos de fusão temporal de um bloco atual. O índice de imagens de referência do candidato de fusão temporal pode ser estabelecido como o índice de imagens de referência de um dos blocos (isto é, unidades de previsão), que é espacialmente adjacente a um bloco atual. Em outra concretização, o índice de imagens de referência do candidato de fusão temporal pode ser estabelecido como 0.
[073] Para obter os índices de referência dos candidatos de fusão temporal de um bloco atual, alguns ou todos os índices de imagens de referência dos bloco esquerdo A, bloco superior B, bloco direito superior C, bloco esquerdo inferior D e bloco esquerdo superior E de um bloco atual podem ser usados.
[074] Por exemplo, os índices de imagens de referência dos bloco esquerdo A, bloco superior B e bloco de canto (por exemplo, qualquer um dos blocos C, D e E) de um bloco atual podem ser usados. Nesse caso, o índice de imagens de referência do primeiro bloco que é válido, quando o escaneamento é feito na ordem dos bloco direito superior C, bloco esquerdo inferior D e bloco E, pode ser determinado como o índice de imagens de referência do bloco de canto. Por exemplo, um índice de imagens de referência tendo a frequência mais alta, de entre os índices de imagens de referência válidos dos índices de imagens de referência, pode ser estabelecido como o índice de imagens de referência de um candidato de salto temporal. Se houver vários índices de imagens de referência, tendo a frequência mais alta de entre os candidatos válidos, um índice de imagens de referência, tendo um valor mínimo de entre os vários índices de imagens de referência, pode ser estabelecido como um índice de imagens de referência de um candidato de salto temporal.
[075] Para obter os índices de referência dos candidatos de fusão temporal de um bloco atual, os índices de imagens de referência de três blocos, que são válidos quando o escaneamento é feito na ordem dos bloco esquerdo, A, bloco superior B, bloco direito superior C, bloco esquerdo inferior D e bloco esquerdo superior E de um bloco atual, podem ser usados. Embora três ou mais índices de imagens de referência sejam ilustrados como sendo usados, todos os índices de imagens de referência válidos podem ser usados, ou apenas um índice de imagens de referência, em uma posição predeterminada, pode ser usado. Se não houver qualquer índice de imagens de referência, o índice de imagens de referência pode ser estabelecido como 0.
[076] A unidade de derivação de vetor de movimento 234 determina uma imagem à qual o candidato de fusão temporal pertence (referida a seguir como uma imagem de candidato de fusão temporal). A imagem de candidato de fusão temporal pode ser estabelecida como uma imagem tendo um índice de imagens de referência de 0. Nesse caso, se um tipo de fatia for P, a imagem de candidato de fusão temporal é estabelecida como a primeira imagem incluída em uma lista 0 (isto é, uma imagem tendo um índice de 0). Se um tipo de fatia for B, a imagem de candidato de fusão temporal é estabelecida como a primeira imagem de uma lista de imagens de referência indicada por um marcador, o marcador sendo indicativo de uma lista de candidatos de fusão temporal em um cabeçalho de fatia. Por exemplo, a imagem de candidato de fusão temporal pode ser estabelecida como uma imagem em uma lista 0, quando o marcador é 1, e como uma imagem em uma lista 1, quando o marcador é 0.
[077] A unidade de derivação de vetor de movimento 234 obtém um bloco de candidato de fusão temporal dentro da imagem de candidato de fusão temporal. Um de vários blocos correspondentes, relacionado a um bloco atual dentro da imagem de candidato de fusão temporal, pode ser selecionado como o bloco de candidato de fusão temporal. Nesse caso, a ordem de prioridade pode ser atribuída aos vários blocos correspondentes, e um primeiro bloco de validação pode ser selecionado como o bloco de candidato de fusão temporal, com base na ordem de prioridade.
[078] Por exemplo, o bloco de canto esquerdo inferior BR_C, que é adjacente a um bloco correspondente a um bloco atual, dentro da imagem de candidato de fusão temporal, ou um bloco esquerdo inferior BR, dentro de um bloco correspondente a um bloco atual, dentro da imagem de candidato de fusão temporal, pode ser estabelecido como um primeiro bloco de candidato, e um bloco C1, que inclui um pixel esquerdo superior na posição central de um bloco correspondente a um bloco atual, dentro da imagem de candidato de fusão temporal, ou um bloco C2, que inclui um pixel direito inferior na posição central de um bloco correspondente a um bloco atual, dentro da imagem de candidato de fusão temporal, pode ser estabelecido como um segundo bloco de candidato.
[079] Quando o primeiro bloco de candidato é válido, o primeiro bloco de candidato pode ser estabelecido como o bloco de candidato de fusão temporal. Quando o primeiro bloco de candidato não é válido e o segundo bloco de candidato é válido, o bloco de candidato de fusão temporal pode ser estabelecido como o segundo bloco de candidato. Em outra concretização, apenas o segundo bloco de candidato pode ser usado, dependendo da posição de um bloco atual. Por exemplo, se um bloco atual é adjacente ao limite inferior de uma fatia ou ao limite inferior de um LCU, apenas o segundo bloco de candidato pode ser usado. Se o segundo bloco de candidato não estiver presente, o candidato de fusão temporal é determinado como sendo não válido.
[080] Após o bloco de previsão de candidato de fusão temporal ser determinado, o vetor de movimento de um candidato de fusão temporal é estabelecido como o vetor de movimento do bloco de previsão de candidato de fusão temporal.
[081] Enquanto isso, o candidato de fusão temporal pode não ser usado adaptativamente, dependendo do tamanho de um bloco atual. Por exemplo, no caso de um bloco 4x4, o candidato de fusão temporal pode não ser usado, para reduzir a complexidade.
[082] A unidade de configuração de candidato de fusão temporal 235 determina um índice de imagens de referência, obtido pela unidade de derivação de índice de imagens de referência 233, e um vetor de movimento, obtido pela unidade de derivação de vetor de movimento 234, como o índice de imagens de referência e o vetor de movimento de um candidato de fusão temporal.
[083] A unidade de geração de lista de candidatos de fusão 236 gera uma lista de candidatos de fusão, em uma ordem predeterminada, usando os candidatos de fusão válidos. Se vários candidatos de fusão tiverem as mesmas informações de movimento (por exemplo, o mesmo vetor de movimento e o mesmo índice de imagens de referência), os candidatos de fusão tendo uma ordem de prioridade mais baixa são eliminados da lista. Por exemplo, a ordem predeterminada pode ser a ordem dos blocos A, B, Col, C e D. Nesse caso, Col significa um candidato de fusão temporal. Se um ou mais dos blocos A, B, C e D não são válidos, as informações de movimento de um bloco válido E podem ser inseridas na posição do primeiro bloco inválido. Além do mais, as informações de movimento do bloco válido E podem ser inseridas na última posição.
[084] A unidade de decodificação de índices de candidatos de fusão 237 seleciona uma tabela de decodificação correspondente ao número de candidatos válidos, obtidos pela unidade de geração de lista de candidatos de fusão 236. Além do mais, a unidade de decodificação de índices de candidatos de fusão 237 determina um índice, correspondente à chave de código de candidato de fusão dentro da tabela de decodificação, como o índice de candidato de fusão de um bloco atual.
[085] A unidade de geração de informações de movimento 238 seleciona um preditor de fusão, correspondente ao índice de candidato de fusão, da lista gerada pela unidade de geração de lista de candidatos de fusão 236, e determina as informações de movimento (isto é, um vetor de movimento e um índice de imagens de referência) do preditor de fusão selecionado, como as informações de movimento de um bloco atual.
[086] A Figura 6 é um diagrama de blocos da unidade de decodificação de informações de movimento em modo de fusão 230, de acordo com uma segunda dispositivo da presente invenção.
[087] A unidade de decodificação de informações de movimento em modo de fusão 230, de acordo com a segunda concretização da presente invenção, inclui uma unidade de decodificação de índice de preditor de fusão 331, uma unidade de derivação de candidato de fusão espacial 332, uma unidade de derivação de índice de imagens de referência 333 para um candidato de fusão temporal, uma unidade de derivação de vetor de movimento 334 para um candidato de fusão temporal, uma unidade de configuração de candidato de fusão temporal 335, uma unidade de seleção de preditor de fusão 336 e uma unidade de geração de informações de movimento 337. Nesse caso, considera-se que o número de candidatos de fusão é fixo. O número de candidatos de fusão pode ser fixo para cada imagem ou fatia.
[088] A unidade de decodificação de índice de preditor de fusão 331 reconstrói um índice de preditor de fusão, correspondente a uma chave de código de preditor de fusão recebida, usando uma tabela predeterminada, correspondente ao número de candidatos de fusão.
[089] A operação da unidade de derivação de candidato de fusão espacial 332 é igual àquela da unidade de derivação de candidato de fusão espacial 232, mostrada na Figura 5, e, desse modo, uma descrição dela é omitida.
[090] As operações das unidade de derivação de índice de imagens de referência 333, unidade de derivação de vetor de movimento 334 e unidade de configuração de candidato de fusão temporal 335 são iguais àquelas das unidade de derivação de índice de imagens de referência 233, unidade de derivação de vetor de movimento 234 e unidade de configuração de candidato de fusão temporal 235, mostradas na Figura 5, respectivamente, e, desse modo, uma descrição delas é omitida.
[091] A unidade de seleção de preditor de fusão 336 seleciona um candidato de fusão, correspondente a um índice de preditor de fusão, reconstruído pela unidade de decodificação de índice de preditor de fusão 331, de uma lista de candidatos de fusão, e seleciona o candidato de fusão selecionado como o preditor de fusão de um bloco atual. A lista de candidatos de fusão é gerada por uso de um candidato de fusão válido. Nesse caso, se vários candidatos de fusão tiverem as mesmas informações de movimento (por exemplo, o mesmo vetor de movimento e o mesmo índice de imagens de referência), os candidatos de fusão tendo uma ordem de prioridade mais baixa são eliminados da lista. Por exemplo, a ordem predeterminada pode ser a ordem dos blocos A, B, Col, C e D. Nesse caso, Col significa um candidato de fusão temporal. No entanto, se um ou mais dos blocos A, B, C e D não são válidos, as informações de movimento de um bloco válido E podem ser inseridas na posição do primeiro bloco inválido. Além do mais, as informações de movimento do bloco válido E podem ser inseridas na última posição.
[092] Enquanto isso, se o número de candidatos de fusão for menor do que um número predeterminado, um candidato de fusão pode ser gerado. O candidato de fusão adicionado pode ser gerado por combinação das informações de movimento de dois candidatos de fusão válidos. Por exemplo, um candidato de fusão pode ser gerado por combinação por combinação de um índice de imagens de referência de um candidato de fusão temporal e o vetor de movimento espacial válido de um candidato de fusão espacial. Se vários candidatos de fusão puderem ser gerados, os candidatos de fusão gerados podem ser adicionados a uma lista em uma ordem predeterminada. Um candidato de fusão, gerado por combinação do índice de imagens de referência de um candidato de fusão temporal, e o vetor de movimento de um candidato de fusão espacial podem ser primeiro adicionados à lista. Se o número de candidatos de fusão a ser gerado for insuficiente, um candidato de fusão, tendo um vetor de movimento de 0 e um índice de imagens de referência de 0, pode ser adicionado. O número predeterminado pode ser determinado para cada imagem ou fatia.
[093] A unidade de geração de informações de movimento 337 seleciona um preditor de fusão, correspondente ao índice de candidato de fusão, da lista gerada pela unidade de geração de lista de candidatos de fusão 236, e determina as informações de movimento (isto é, um vetor de movimento e um índice de imagens de referência) do preditor de fusão selecionado, como as informações de movimento de um bloco atual.
[094] A Figura 7 é um diagrama de blocos de uma unidade de decodificação de informações de movimento em modo de fusão, de acordo com uma segunda concretização da presente invenção.
[095] A unidade de decodificação de informações de movimento em modo de fusão 230, de acordo com a terceira concretização da presente invenção, inclui ainda uma unidade de geração de candidato de fusão 437, que é adicionada à configuração da unidade de decodificação de informações de movimento em modo de fusão 230, de acordo com a segunda concretização da presente invenção. Consequentemente, as operações de uma unidade de decodificação de índice de preditor de fusão 431, uma unidade de derivação de candidato de fusão espacial 432, uma unidade de derivação de índice de imagens de referência 433 para um candidato de fusão temporal, uma unidade de derivação de vetor de movimento 434 para um candidato de fusão temporal, uma unidade de configura de candidato de fusão temporal 435, uma unidade de sele de preditor de fusão 436 e uma unidade de geração de informações de movimento 438 são iguais àquelas da segunda concretização, e, desse modo, uma descrição delas é omitida.
[096] A unidade de geração de candidato de fusão 437 pode gerar um candidato de fusão, quando o número de candidatos de fusão é menor do que um número predeterminado. Nesse caso, um candidato de fusão adicionado pode ser gerado por combinação das informações de movimento de dois candidatos de fusão válidos. Por exemplo, um candidato de fusão adicionado pode ser gerado por combinação do índice de imagens de referência de um candidato de fusão temporal e do vetor de movimento espacial válido de um candidato de fusão espacial. Se vários candidatos de fusão puderem ser gerados, os vários candidatos de fusão podem ser adicionados a uma lista em uma ordem predeterminada. Um candidato de fusão, gerado por combinação do índice de imagens de referência de um candidato de fusão temporal e o vetor de movimento de um candidato de fusão espacial, pode ser adicionado primeiro a uma lista. O número de candidatos de fusão adicionados como descrito acima pode ser predeterminado. Se o número de candidatos de fusão a serem gerados for insuficiente, um candidato de fusão tendo um vetor de movimento de 0 e um índice de imagens de referência de 0 pode ser adicionado à lista. O número predeterminado pode ser determinado para cada imagem ou fatia.
[097] A unidade de sele de preditor de fusão 436 obtém uma lista de candidatos de fusão usando um candidato de fusão espacial, derivado pela unidade de derivação de candidato de fusão espacial 432, um candidato de fusão temporal, gerado pela unidade de configura de candidato de fusão temporal 435, e candidatos de fusão, gerados pela unidade de geração de candidato de fusão 437. Se vários candidatos de fusão tiverem as mesmas tiverem as mesmas informações de movimento (isto é, o mesmo vetor de movimento e o mesmo índice de imagens de referência), um candidato de fusão tendo uma ordem de prioridade mais baixa é eliminado da lista. Por exemplo, a ordem predeterminada é a ordem dos blocos A, B, Col, C e D. Nesse caso, Col significa um candidato de fusão temporal. No entanto, se um ou mais dos blocos A, B, C e D não são válidos, as informações de movimento de um bloco válido E podem ser inseridas na posição do primeiro bloco inválido. Além do mais, as informações de movimento do bloco válido E podem ser inseridas na última posição. A unidade de sele de preditor de fusão 436 seleciona um candidato de fusão, correspondente a um índice de fusão, reconstruído pela unidade de decodificação de índice de preditor de fusão 431, da lista de candidatos de fusão, e seleciona o candidato de fusão selecionado como o preditor de fusão de um bloco atual.
[098] A Figura 8 é um diagrama de blocos de uma unidade de decodificação de informações de movimento em modo AMVP, de acordo com uma primeira concretização da presente invenção.
[099] A unidade de decodificação de informações de movimento em modo AMVP, de acordo com uma primeira concretização da presente invenção, inclui uma unidade de decodificação de índice de previsão AMVP 341, uma unidade de leitura de informações de movimento residuais 342, uma unidade de derivação de candidato AMVP espacial 343, uma unidade de derivação de candidato AMVP temporal 344, uma unidade de seleção de preditor AMVP 345, uma unidade de geração de preditor de vetor de movimento 346 e uma unidade de geração de informações de movimento 347. A presente invenção é aplicada quando o número de candidatos AMVP é variável.
[0100] A unidade de decodificação de índice de previsão AMVP 341 determina se há ou não uma chave de código correspondente a um índice de previsão AMVP. Se, em consequência da determinação, uma chave de código correspondente a um índice de previsão AMVP for determinada como não estando presente, a unidade de decodificação de índice de previsão AMVP 341 determina que um candidato AMVP está ou não presente. Se um candidato AMVP for determinado como não estando presente, a unidade de geração de preditor de vetor de movimento 346 reconstrói um vetor de movimento de 0 no vetor de movimento de um bloco atual. Em comparação, se um candidato AMVP for determinado como estando presente, a unidade de geração de preditor de vetor de movimento 346 reconstrói o vetor de movimento do candidato AMVP no vetor de movimento de um bloco atual.
[0101] A unidade de leitura de informações de movimento residuais 342 lê o índice de imagens de referência e o vetor de movimento de um bloco atual.
[0102] A unidade de derivação de candidato AMVP espacial 343 pode selecionar um dos bloco esquerdo (por exemplo, um bloco A) e bloco esquerdo inferior (por exemplo, um bloco D) de um bloco atual como um candidato espacial esquerdo, e selecionar um dos bloco superior (por exemplo, um bloco B) do bloco atual, bloco direito superior (por exemplo, um bloco C) do bloco atual e bloco esquerdo superior (por exemplo, um bloco E) do bloco atual, como um candidato espacial superior. Nesse caso, o vetor de movimento do primeiro bloco, que é válido quando o escaneamento é executado em uma ordem predeterminada, é selecionado como o candidato. A ordem predeterminada pode ser a ordem do bloco A e do bloco D, ou uma ordem inversa a ela, no caso de um bloco esquerdo, e pode ser a ordem dos bloco B, bloco C e bloco E, ou a ordem dos bloco C, bloco B e bloco E, no caso de um bloco superior. A posição do bloco do candidato AMVP é idêntica à posição do bloco de um candidato de fusão.
[0103] A unidade de derivação de candidato AMVP temporal 344 obtém um candidato de fusão temporal usando o vetor de movimento de um candidato de fusão temporal, obtido pela unidade de derivação de vetor de movimento 123 da Figura 2.
[0104] A unidade de seleção de preditor AMVP 345 gera uma lista usando os candidatos AMVP válidos, derivados pela unidade de derivação de candidato AMVP espacial 343 e a unidade de derivação de candidato AMVP temporal 344. A unidade de seleção de preditor AMVP 345 gera uma lista de candidatos AMVP, em uma ordem predeterminada, usando os candidatos AMVP válidos. Nesse caso, se vários candidatos AMVP tiverem o mesmo vetor de movimento (nesse caso, os vários candidatos AMVP não precisam ter a mesma imagem de referência), os candidatos AMVP tendo uma ordem de prioridade mais baixa são eliminados da lista. A ordem predeterminada pode ser a ordem dos lado esquerdo, lado superior e Col, ou pode ser a ordem de Col, lado esquerdo e lado superior.
[0105] Além do mais, a unidade de seleção de preditor AMVP 345 seleciona uma tabela de decodificação, correspondente ao número de candidatos AMVP válidos dentro da lista gerada, e seleciona o preditor AMVP de um bloco atual, usando a tabela de decodificação selecionada.
[0106] A unidade de geração de preditor de vetor de movimento 346 determina o vetor de movimento de um candidato, selecionado pela unidade de seleção de preditor AMVP 345, como um preditor de vetor de movimento de um bloco atual.
[0107] A unidade de geração de informações de movimento 347 gera o vetor de movimento de um bloco atual por adição de um preditor de vetor de movimento, gerado pela unidade de geração de preditor de vetor de movimento 346, e um vetor de movimento diferencial, lido pela unidade de leitura de informações de movimento residuais 342. Além do mais, a unidade de geração de informações de movimento 347 estabelece um índice de imagens de referência, lido pela unidade de leitura de informações de movimento residuais 342, como o índice de imagens de referência do bloco atual.
[0108] A Figura 9 é um diagrama de blocos de uma unidade de decodificação de informações de movimento em modo AMVP, de acordo com uma segunda concretização da presente invenção.
[0109] A unidade de decodificação de informações de movimento em modo AMVP, de acordo com a segunda concretização da presente invenção, inclui uma unidade de decodificação de índice de previsão AMVP 441, uma unidade de leitura de informações de movimento residuais 442, uma unidade de derivação de candidato AMVP espacial 443, uma unidade de derivação de candidato AMVP temporal 444, uma unidade de seleção de preditor AMVP 445, uma unidade de geração de candidato AMVP 446, uma unidade de geração de preditor de vetor de movimento 447 e uma unidade de geração de informações de movimento 448. A presente concretização é aplicada quando o número de candidatos AMVP é variável.
[0110] As operações das unidade de decodificação de índice de previsão AMVP 441, unidade de leitura de informações de movimento residuais 442, unidade de derivação de candidato AMVP espacial 443, unidade de derivação de candidato AMVP temporal 444 e unidade de geração de informações de movimento 448 são iguais àquelas dos respectivos elementos da Figura 11, e, desse modo, uma descrição delas é omitida.
[0111] A unidade de geração de candidato AMVP 446 determina se é necessário gerar ou não um candidato AMVP. Considerando que o número de candidatos água tratada é estabelecido a um valor fixo na configuração de candidato AMVP acima, se o número de candidatos AMVP válidos for menor do que um valor fixo, um candidato AMVP é gerado. Além do mais, o candidato AMVP gerado é adicionado a uma posição seguinte a um candidato AMVP, tendo a ordem de prioridade mais baixa em uma lista. Se os vários candidatos AMVP forem pedidos para serem adicionados, os vários candidatos AMVP são adicionados em uma ordem predeterminada. Os candidatos AMVP adicionados podem incluir um candidato tendo um vetor de movimento de 0.
[0112] A unidade de seleção de preditor AMVP 445 gera uma lista de candidatos AMVP usando um candidato AMVP espacial, derivado pela unidade de derivação de candidato AMVP espacial 443, um candidato AMVP temporal gerado pela unidade de derivação de candidato AMVP temporal 444, e os candidatos AMVP gerados pela unidade de geração de candidato AMVP 446. Se vários candidatos AMVP têm o mesmo vetor de movimento (isto é, o mesmo vetor de movimento e o mesmo índice de imagens de referência), os candidatos AMVP tendo uma ordem de prioridade mais baixa são eliminados da lista. A ordem predeterminada pode ser a ordem dos lado esquerdo, lado superior e Col, ou pode ser a ordem de Col, lado esquerdo e lado superior. Além do mais, uma tabela de decodificação, correspondente ao número de candidatos AMVP válidos na lista gerada, é selecionada, e o preditor AMVP de um bloco atual é selecionado usando a tabela de decodificação selecionada.
[0113] Embora algumas concretizações exemplificativas da presente invenção tenham sido descritas, uma pessoa versada na técnica vai considerar que a presente invenção pode ser modificada e variada de vários modos, sem que se afaste dos espírito e âmbito da presente invenção, que estão escritos nas reivindicações a seguir.

Claims (5)

1. Aparelho para decodificação de informações de movimento em um modo de fusão, CARACTERIZADO pelo fato de que compreende: uma unidade de decodificação de índice de preditor de fusão configurada para reconstruir um índice de preditor de fusão de um bloco atual, usando uma chave de código de fusão recebida; uma unidade de derivação de candidato de fusão espacial configurada para derivar candidatos de fusão espacial do bloco atual; uma unidade de configuração de candidato de fusão temporal configurada para gerar um candidato de fusão temporal do bloco atual; uma unidade de geração de candidato de fusão configurada para gerar um ou mais candidatos de fusão, quando o número de candidatos de fusão válidos do bloco atual é menor do que um número predeterminado; uma unidade de seleção de preditor de fusão configurada para gerar uma lista de candidatos de fusão usando os candidatos de fusão e selecionar um preditor de fusão com base no índice de preditor de fusão; uma unidade de geração de bloco de predição configurada para gerar um bloco de predição do bloco atual, usando informações de movimentação do preditor de fusão; e uma unidade de geração de bloco residual configurada para executar um processo de decodificação de entropia e um processo de escaneamento inverso em sinais de resíduos para gerar um bloco quantizado, e para executar um processo de quantização inversa e um processo de transformação inversa no bloco quantizado para gerar um bloco residual, em que a unidade de configuração de candidato de fusão temporal é configurada para definir um índice de imagens de referência do candidato de fusão temporal como 0, e em que um vetor de movimento do candidato de fusão temporal é selecionado entre vetores de movimento de um primeiro bloco de candidato de fusão e um segundo bloco de candidato de fusão baseado em uma posição do bloco atual dentro de uma fatia ou de uma unidade de codificação maior, e o vetor de movimento do segundo bloco de candidato de fusão é selecionado como o vetor de movimento do candidato de fusão temporal se o bloco atual for adjacente à um limite inferior da unidade de codificação maior.
2. Aparelho, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que: a unidade de configuração de candidato de fusão temporal determina uma imagem de candidato de fusão temporal e determina um bloco de candidato de fusão temporal dentro da imagem de candidato de fusão temporal, de modo a gerar um vetor de movimento do candidato de fusão temporal.
3. Aparelho, de acordo com a reivindicação 2, CARACTERIZADO pelo fato de que o bloco de candidato de fusão temporal é um bloco válido recuperado quando o primeiro bloco de candidato e o segundo bloco de candidato são buscados em uma ordem devida, dependendo de uma posição do bloco atual.
4. Aparelho, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a unidade de geração de bloco de predição gera um pixel de predição de componente de luminância usando um filtro de interpolação 8-tap e gera um pixel de predição de componente de crominância usando um filtro de interpolação 4-tap.
5. Aparelho, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o escaneamento inverso de raster diagonal é usada durante o processo de escaneamento inverso.
BR112014004922-0A 2011-08-29 2012-01-20 Aparelho para decodificação de informações de movimento em modo de fusão BR112014004922B1 (pt)

Priority Applications (1)

Application Number Priority Date Filing Date Title
BR122015001354-2A BR122015001354B1 (pt) 2011-08-29 2012-01-20 Aparelho para decodificação de informações de movimento em modo de fusão

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR20110086524 2011-08-29
KR10-2011-0086524 2011-08-29
PCT/KR2012/000523 WO2013032074A1 (ko) 2011-08-29 2012-01-20 머지 모드 움직임 정보 복호화 장치

Publications (2)

Publication Number Publication Date
BR112014004922A2 BR112014004922A2 (pt) 2017-04-11
BR112014004922B1 true BR112014004922B1 (pt) 2022-04-05

Family

ID=47756522

Family Applications (2)

Application Number Title Priority Date Filing Date
BR122015001354-2A BR122015001354B1 (pt) 2011-08-29 2012-01-20 Aparelho para decodificação de informações de movimento em modo de fusão
BR112014004922-0A BR112014004922B1 (pt) 2011-08-29 2012-01-20 Aparelho para decodificação de informações de movimento em modo de fusão

Family Applications Before (1)

Application Number Title Priority Date Filing Date
BR122015001354-2A BR122015001354B1 (pt) 2011-08-29 2012-01-20 Aparelho para decodificação de informações de movimento em modo de fusão

Country Status (6)

Country Link
US (9) US8774279B2 (pt)
KR (2) KR101210894B1 (pt)
CN (8) CN105376576B (pt)
BR (2) BR122015001354B1 (pt)
MX (8) MX346819B (pt)
WO (1) WO2013032074A1 (pt)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101279573B1 (ko) * 2008-10-31 2013-06-27 에스케이텔레콤 주식회사 움직임 벡터 부호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
KR101762819B1 (ko) * 2010-09-02 2017-07-28 엘지전자 주식회사 영상 부호화 및 복호화 방법과 이를 이용한 장치
CN107105281B (zh) * 2010-12-14 2019-11-12 M&K控股株式会社 用于解码运动画面的设备
EP3139611A1 (en) * 2011-03-14 2017-03-08 HFI Innovation Inc. Method and apparatus for deriving temporal motion vector prediction
CN105376576B (zh) * 2011-08-29 2017-07-28 苗太平洋控股有限公司 用于解码合并模式下的运动信息的装置
PL409214A1 (pl) * 2011-11-08 2015-07-20 Kt Corporation Sposób i urządzenie do skanowania współczynników na podstawie trybu podziału jednostki predykcji
US8693551B2 (en) 2011-11-16 2014-04-08 Vanguard Software Solutions, Inc. Optimal angular intra prediction for block-based video coding
KR102072124B1 (ko) * 2011-11-24 2020-02-04 에스케이텔레콤 주식회사 세밀한 예측 단위를 사용하는 효과적인 부호화/복호화 방법 및 장치
US9106922B2 (en) * 2012-12-19 2015-08-11 Vanguard Software Solutions, Inc. Motion estimation engine for video encoding
US10904551B2 (en) * 2013-04-05 2021-01-26 Texas Instruments Incorporated Video coding using intra block copy
US20150271512A1 (en) * 2014-03-18 2015-09-24 Texas Instruments Incorporated Dynamic frame padding in a video hardware engine
CN108965888B (zh) * 2014-03-19 2021-05-04 株式会社Kt 针对多视图视频信号生成合并候选列表的方法及解码装置
CN111031323B (zh) * 2014-11-27 2023-11-28 株式会社Kt 视频信号处理方法
US10805627B2 (en) * 2015-10-15 2020-10-13 Cisco Technology, Inc. Low-complexity method for generating synthetic reference frames in video coding
CN113115036A (zh) * 2015-11-24 2021-07-13 三星电子株式会社 视频解码方法和设备及其编码方法和设备
CN116708783A (zh) * 2016-07-12 2023-09-05 韩国电子通信研究院 图像编码/解码方法以及用于该方法的记录介质
KR102471208B1 (ko) 2016-09-20 2022-11-25 주식회사 케이티 비디오 신호 처리 방법 및 장치
KR102559063B1 (ko) 2017-02-24 2023-07-24 주식회사 케이티 비디오 신호 처리 방법 및 장치
US11172203B2 (en) * 2017-08-08 2021-11-09 Mediatek Inc. Intra merge prediction
EP3780608A4 (en) 2018-04-02 2021-12-01 SZ DJI Technology Co., Ltd. IMAGE PROCESSING PROCESS AND IMAGE PROCESSING DEVICE
WO2019192170A1 (zh) * 2018-04-02 2019-10-10 深圳市大疆创新科技有限公司 视频图像处理方法与装置
WO2020003259A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Improved tmvp derivation
TWI728389B (zh) 2018-07-01 2021-05-21 大陸商北京字節跳動網絡技術有限公司 基於優先級的非相鄰merge設計
TWI719524B (zh) * 2018-07-01 2021-02-21 大陸商北京字節跳動網絡技術有限公司 降低非相鄰Merge設計的複雜度
US20220038682A1 (en) * 2018-09-18 2022-02-03 Electronics And Telecommunications Research Institute Image encoding/decoding method and device, and recording medium in which bitstream is stored
SG11202103661XA (en) 2018-10-10 2021-05-28 Huawei Tech Co Ltd Inter prediction method and apparatus
CN112236996A (zh) * 2018-12-21 2021-01-15 株式会社 Xris 视频信号编码/解码方法及其装置
EP3955569A4 (en) * 2019-04-25 2022-07-27 Huawei Technologies Co., Ltd. METHOD AND APPARATUS FOR IMAGE PREDICTION AND COMPUTER READABLE INFORMATION MEDIA
CN111866502A (zh) * 2019-04-25 2020-10-30 华为技术有限公司 图像预测方法、装置和计算机可读存储介质
CN114762332A (zh) 2019-09-19 2022-07-15 阿里巴巴集团控股有限公司 构建合并候选列表的方法
CN113840148A (zh) * 2020-06-24 2021-12-24 Oppo广东移动通信有限公司 帧间预测方法、编码器、解码器以及计算机存储介质

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6195389B1 (en) 1998-04-16 2001-02-27 Scientific-Atlanta, Inc. Motion estimation system and methods
JP2001086508A (ja) * 1999-09-13 2001-03-30 Victor Co Of Japan Ltd 動画像復号方法及び動画像復号装置
US7162080B2 (en) * 2001-02-23 2007-01-09 Zoran Corporation Graphic image re-encoding and distribution system and method
JP4015934B2 (ja) 2002-04-18 2007-11-28 株式会社東芝 動画像符号化方法及び装置
CN100466735C (zh) * 2004-07-15 2009-03-04 三星电子株式会社 视频编码和解码方法以及视频编码器和解码器
KR100678949B1 (ko) 2004-07-15 2007-02-06 삼성전자주식회사 비디오 코딩 및 디코딩 방법, 비디오 인코더 및 디코더
KR100584603B1 (ko) * 2004-08-03 2006-05-30 학교법인 대양학원 다시점 영상의 다이렉트 모드 움직임 예측 방법 및 장치
KR20060098514A (ko) 2005-03-03 2006-09-19 김정재 의료용 부목
CN1658673A (zh) * 2005-03-23 2005-08-24 南京大学 视频压缩编解码方法
KR20070020994A (ko) * 2005-08-17 2007-02-22 삼성전자주식회사 영상신호 변환장치 및 그 방법
JP5658033B2 (ja) * 2007-09-02 2015-01-21 エルジー エレクトロニクス インコーポレイティド ビデオ信号処理方法及び装置
EP2210421A4 (en) * 2007-10-16 2013-12-04 Lg Electronics Inc METHOD AND APPARATUS FOR PROCESSING A VIDEO SIGNAL
JP4829867B2 (ja) 2007-10-30 2011-12-07 日本放送協会 画像符号化装置及び画像復号装置
ES2812473T3 (es) * 2008-03-19 2021-03-17 Nokia Technologies Oy Vector de movimiento combinado y predicción de índice de referencia para la codificación de vídeo
CN101860754B (zh) * 2009-12-16 2013-11-13 香港应用科技研究院有限公司 运动矢量编码和解码的方法和装置
KR20110071047A (ko) 2009-12-20 2011-06-28 엘지전자 주식회사 비디오 신호 디코딩 방법 및 장치
JP2011151775A (ja) 2009-12-22 2011-08-04 Jvc Kenwood Holdings Inc 画像復号装置、画像復号方法および画像復号プログラム
WO2011077632A1 (ja) * 2009-12-22 2011-06-30 Jvc・ケンウッド・ホールディングス株式会社 画像符号化装置、画像符号化方法および画像符号化プログラム、ならびに画像復号装置、画像復号方法および画像復号プログラム
KR101878148B1 (ko) * 2010-05-04 2018-07-13 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
KR20120016991A (ko) * 2010-08-17 2012-02-27 오수미 인터 프리딕션 방법
CN107105281B (zh) * 2010-12-14 2019-11-12 M&K控股株式会社 用于解码运动画面的设备
EP3139611A1 (en) 2011-03-14 2017-03-08 HFI Innovation Inc. Method and apparatus for deriving temporal motion vector prediction
US9143795B2 (en) * 2011-04-11 2015-09-22 Texas Instruments Incorporated Parallel motion estimation in video coding
EP2698999B1 (en) * 2011-04-12 2017-01-04 Sun Patent Trust Motion-video encoding method, motion-video encoding apparatus, motion-video decoding method, motion-video decoding apparatus, and motion-video encoding/decoding apparatus
US9247266B2 (en) * 2011-04-18 2016-01-26 Texas Instruments Incorporated Temporal motion data candidate derivation in video coding
CN105376576B (zh) * 2011-08-29 2017-07-28 苗太平洋控股有限公司 用于解码合并模式下的运动信息的装置
JP6308495B2 (ja) * 2011-10-19 2018-04-11 サン パテント トラスト 画像復号方法、および、画像復号装置

Also Published As

Publication number Publication date
USRE49907E1 (en) 2024-04-02
CN107360432A (zh) 2017-11-17
CN107222745A (zh) 2017-09-29
BR122015001354B1 (pt) 2022-06-14
US9025668B2 (en) 2015-05-05
MX2019013757A (es) 2020-01-15
US9036709B1 (en) 2015-05-19
CN104837024A (zh) 2015-08-12
CN105376577A (zh) 2016-03-02
US20150382014A1 (en) 2015-12-31
US20130148735A1 (en) 2013-06-13
MX340913B (es) 2016-07-29
BR122015001354A2 (pt) 2019-08-20
US9161043B2 (en) 2015-10-13
US9025669B1 (en) 2015-05-05
WO2013032074A1 (ko) 2013-03-07
US20150124886A1 (en) 2015-05-07
MX369711B (es) 2019-11-19
US8774279B2 (en) 2014-07-08
US8654855B2 (en) 2014-02-18
US20130136183A1 (en) 2013-05-30
US8855209B2 (en) 2014-10-07
US20150131733A1 (en) 2015-05-14
US20140153641A1 (en) 2014-06-05
US20150124887A1 (en) 2015-05-07
CN104837024B (zh) 2016-04-27
US20140286432A1 (en) 2014-09-25
KR101210894B1 (ko) 2012-12-11
CN107295347B (zh) 2020-06-26
MX337284B (es) 2016-02-23
KR101210893B1 (ko) 2012-12-11
MX341355B (es) 2016-08-16
MX346819B (es) 2017-03-30
CN105376575A (zh) 2016-03-02
CN105376576B (zh) 2017-07-28
CN107295347A (zh) 2017-10-24
MX2014002347A (es) 2014-04-25
CN103765891B (zh) 2017-07-28
CN103765891A (zh) 2014-04-30
CN105376576A (zh) 2016-03-02
CN105376575B (zh) 2018-04-03
BR112014004922A2 (pt) 2017-04-11
MX340912B (es) 2016-07-29

Similar Documents

Publication Publication Date Title
BR112014004922B1 (pt) Aparelho para decodificação de informações de movimento em modo de fusão
TWI666927B (zh) 用於四叉樹加二叉樹拆分塊的候選集決定的方法與裝置
CN108702501B (zh) 用于色度分量预测的方法及装置
TWI634783B (zh) 用於二叉樹分割塊的確定候選集的方法及裝置
US10785477B2 (en) Method for processing video on basis of inter prediction mode and apparatus therefor
TWI554086B (zh) 解碼器、編碼器、及相關聯方法和電腦程式
CN109891883A (zh) 视频编码/解码方法和设备以及存储比特流的记录介质
KR100727969B1 (ko) 영상의 부호화 및 복호화 장치와, 그 방법, 및 이를수행하기 위한 프로그램이 기록된 기록 매체
CN109691099A (zh) 视频编码/解码方法和装置以及在其中存储比特流的记录介质
KR100750137B1 (ko) 영상의 부호화,복호화 방법 및 장치
BR112014004914B1 (pt) Método de codificação de uma imagem em um modo amvp
TW201739253A (zh) 圖像和視訊處理中畫面內預測方法和裝置
BR122020015319B1 (pt) Aparelho de decodificação de dados de vídeo
BR122020018032B1 (pt) Método para remover artefatos de blocagem
BR112021000750A2 (pt) método e aparelho para codificar/decodificar imagens e mídia de gravação na qual um fluxo de bits é armazenado
BR112021008625A2 (pt) método de decodificação e codificação de vídeo e aparelho de decodificação e codificação de vídeo
CN113906740A (zh) 帧间预测信息编码/解码方法和装置
CN114503566A (zh) 图像编码/解码方法和设备以及存储比特流的记录介质
KR101576200B1 (ko) 계층적 데이터 단위의 스캔 순서에 기반한 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치
KR101576199B1 (ko) 계층적 데이터 단위의 스캔 순서에 기반한 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치

Legal Events

Date Code Title Description
B15K Others concerning applications: alteration of classification

Ipc: H04N 19/52 (2014.01), H04N 19/124 (2014.01), H04N

B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 20/01/2012, OBSERVADAS AS CONDICOES LEGAIS. PATENTE CONCEDIDA CONFORME ADI 5.529/DF, QUE DETERMINA A ALTERACAO DO PRAZO DE CONCESSAO.