BR122020013720B1 - Método de construção de lista de candidatos à mesclagem - Google Patents

Método de construção de lista de candidatos à mesclagem Download PDF

Info

Publication number
BR122020013720B1
BR122020013720B1 BR122020013720-7A BR122020013720A BR122020013720B1 BR 122020013720 B1 BR122020013720 B1 BR 122020013720B1 BR 122020013720 A BR122020013720 A BR 122020013720A BR 122020013720 B1 BR122020013720 B1 BR 122020013720B1
Authority
BR
Brazil
Prior art keywords
block
quantization parameter
candidate
merge
unit
Prior art date
Application number
BR122020013720-7A
Other languages
English (en)
Other versions
BR122020013720A8 (pt
BR122020013720A2 (pt
Inventor
Soo Mi Oh
Moonock Yang
Original Assignee
Gensquare Llc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=48208141&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=BR122020013720(B1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Gensquare Llc filed Critical Gensquare Llc
Publication of BR122020013720A2 publication Critical patent/BR122020013720A2/pt
Publication of BR122020013720A8 publication Critical patent/BR122020013720A8/pt
Publication of BR122020013720B1 publication Critical patent/BR122020013720B1/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/198Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including smoothing of a sequence of encoding parameters, e.g. by averaging, by choice of the maximum, minimum or median value
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Abstract

A presente invenção se refere à disponibilidade de métodos de verificação de candidatos à mesclagem espacial e de um candidato à mesclagem temporal, à construção de uma lista de candidatos à mesclagem mediante o uso de candidatos à mesclagem espacial e temporária, à adição de um ou mais candidatos se o número de candidatos à mesclagem espacial e temporal disponíveis é menor que um número predeterminado. O candidato à mesclagem espacial é a informação de movimento de um bloco candidato à mesclagem espacial, o bloco candidato à mesclagem espacial é um bloco à esquerda, um bloco acima, um bloco acima à direita, um bloco abaixo à esquerda ou um bloco acima à esquerda do bloco atual, e se o bloco atual é uma segunda unidade de predição particionada por particionamento assimétrico, o candidato à mesclagem espacial correspondente a uma primeira unidade de predição particionada pelo particionamento é definido como indisponível. Sendo assim, a eficiência da codificação da informação de movimento é aperfeiçoada ao se remover os candidatos à mesclagem não disponíveis e ao se adicionar novos candidatos à mesclagem a partir da lista de mesclagem.

Description

CAMPO DA TÉCNICA
[001] A presente invenção refere-se a um método de construção de lista de mes- clagem, e, mais particularmente, a um método de derivação de candidatos à mescla- gem espacial com base em um tamanho e em um índice de partição de uma unidade de predição e de derivação de um candidato à mesclagem temporal.
FUNDAMENTOS DA INVENÇÃO
[002] Os métodos para a compressão de dados de vídeo incluem o padrão MPEG- 2, o padrão MPEG-4 e o padrão H.264/MPEG-4 AVC. De acordo com estes métodos, uma imagem é dividida em macroblocos para a codificação de uma imagem, os respectivos macroblocos são codificados por meio da geração de um bloco de predição usando uma interpredição ou uma intrapredição. A diferença entre um bloco original e o bloco de predição é transformada de modo a gerar um bloco de transformada, e o bloco de transformada é quantizado usando um parâmetro de quantização e um dentre uma pluralidade de matrizes de quantização predeterminadas. O coeficiente quan- tizado do bloco quantizado é digitalizado por um tipo de digitalização predeterminado e, em seguida, codificado por entropia. Os parâmetros de quantização são ajustados por macrobloco e codificados usando um parâmetro de quantização anterior.
[003] No padrão H.264/MPEG-4 AVC, é usada uma estimativa de movimento no sentido de eliminar a redundância temporal entre quadros consecutivos. A fim de detectar a redundância temporal, uma ou mais imagens de referência são usadas no sentido de estimar o movimento de um bloco atual, e uma compensação de movimento é realizada de modo a gerar um bloco de predição usando as informações de movimento. A informação de movimento inclui um ou mais índices de imagem de re-ferência e um ou mais vetores de movimento. O vetor de movimento da informação de movimento é codificado preditivamente usando vetores de movimento vizinhos, e os índices de imagem de referência são codificados sem índices de imagem de referência vizinhos.
[004] No entanto, quando vários tamanhos são usados para uma interpredição, a relação entre a informação de movimento de um bloco atual e a informação de movimento de um ou mais blocos vizinhos aumenta. Além disso, quando um movimento de um bloco atual é semelhante ou igual ao de um dos blocos vizinhos, torna-se mais eficaz codificar preditivamente a informação de movimento usando a informação de movimento dos blocos vizinhos.
SUMÁRIO DA INVENÇÃO Problema da Técnica
[005] A presente invenção se refere a um método de derivação de candidatos à mesclagem espacial com base em um tamanho e em um índice de partição de uma unidade de predição e à derivação de um candidato à mesclagem temporal a fim de construir uma lista de mesclagem.
Solução da Técnica
[006] Um aspecto da presente invenção provê um método de construção de uma lista de candidatos à mesclagem, compreendendo as etapas de: verificar a disponibilidade de candidatos à mesclagem espacial; verificar a disponibilidade de um candidato à mesclagem temporal; construir a lista de candidatos à mesclagem usando os candidatos à mesclagem espacial e temporal disponíveis, e adicionar um ou mais can-didatos quando o número de candidatos à mesclagem espacial e temporal disponíveis é menor que um número predeterminado. O candidato à mesclagem espacial é a informação de movimento de um bloco candidato à mesclagem espacial, o bloco candidato à mesclagem espacial é um bloco à esquerda, um bloco acima, um bloco acima à direita, um bloco abaixo à esquerda ou um bloco acima à esquerda do bloco atual, e quando o bloco atual é uma segunda unidade de predição particionada por particio- namento assimétrico, o candidato à mesclagem espacial correspondente a uma primeira unidade de predição particionada pelo particionamento assimétrico é definido como indisponível.
Efeitos Vantajosos
[007] Um método de acordo com a presente invenção verifica a disponibilidade de candidatos à mesclagem espacial e temporal e constrói a lista de candidatos à mes- clagem usando os candidatos à mesclagem espacial e temporal disponíveis, e adiciona um ou mais candidatos quando o número de candidatos à mesclagem espacial e temporal disponíveis é menor que um número predeterminado. O candidato à mes- clagem espacial é a informação de movimento de um bloco candidato à mesclagem espacial, o bloco candidato à mesclagem espacial é um bloco à esquerda, um bloco acima, um bloco acima à direita, um bloco abaixo à esquerda ou um bloco acima à esquerda do bloco atual, e, quando o bloco atual é uma segunda unidade de predição particionada por particionamento assimétrico, o candidato à mesclagem espacial correspondente a uma primeira unidade de predição particionada pelo particionamento assimétrico é definido como indisponível. Além disso, a eficiência de codificação de um bloco residual é aperfeiçoada ao se ajustar adaptativamente um parâmetro de quantização por uma unidade de quantização e ao gerar um preditor de parâmetro de quantização usando múltiplos parâmetros de quantização vizinhos.
DESCRIÇÃO DOS DESENHOS
[008] A Figura 1 é um diagrama em bloco de um aparelho de codificação de imagem de acordo com a presente invenção.
[009] A Figura 2 é um fluxograma que ilustra um procedimento de codificação de dados de vídeo de acordo com a presente invenção.
[010] A Figura 3 é um fluxograma que ilustra um método de codificação de informação de movimento no modo de mesclagem de acordo com a presente invenção.
[011] A Figura 4 é um diagrama conceitual que ilustra as posições dos blocos candidatos à mesclagem espacial de acordo com a presente invenção.
[012] A Figura 5 é um diagrama em bloco conceitual ilustrando as posições de blocos candidatos à mesclagem espacial de acordo com a presente invenção.
[013] A Figura 6 é um outro diagrama em bloco conceitual ilustrando as posições de blocos candidatos à mesclagem espacial de acordo com a presente invenção.
[014] A Figura 7 é um outro diagrama em bloco conceitual ilustrando as posições de blocos candidatos à mesclagem espacial de acordo com a presente invenção.
[015] A Figura 8 é um outro diagrama em bloco conceitual ilustrando as posições de blocos candidatos à mesclagem espacial de acordo com a presente invenção.
[016] A Figura 9 é um diagrama conceitual que ilustra a posição de um bloco candidato à mesclagem temporal de acordo com a presente invenção.
[017] A Figura 10 é um diagrama em bloco de um aparelho de decodificação de imagem de acordo com a presente invenção.
[018] A Figura 11 é um fluxograma que ilustra um método de decodificação de uma imagem em um modo de interpredição de acordo com a presente invenção.
[019] A Figura 12 é um fluxograma que ilustra um método de derivação de informação de movimento em um modo de mesclagem.
[020] A Figura 13 é um fluxograma ilustrando um procedimento de geração de um bloco residual em um modo de interpredição de acordo com a presente invenção.
[021] A Figura 14 é um fluxograma que ilustra um método de derivação de um parâmetro de quantização de acordo com a presente invenção.
DESCRIÇÃO DAS MODALIDADES DA INVENÇÃO
[022] Daqui em diante, várias modalidades da presente invenção serão descritas em detalhe com referência aos desenhos em anexo. No entanto, a presente invenção não se limita às modalidades exemplares descritas abaixo, e pode ser implementada de diversas maneiras. Sendo assim, muitas outras modificações e variações da presente invenção são possíveis, e deve ser entendido que, dentro do âmbito de aplicação do conceito descrito, a presente invenção pode ser praticada de outras maneiras diferentes das que se encontram especificamente descritas no presente documento.
[023] Um aparelho de codificação de imagem e um aparelho de decodificação de imagem de acordo com a presente invenção podem ser um terminal de usuário, tal como um computador pessoal, um terminal móvel pessoal, um leitor de multimídia móvel, um smartfone ou de um terminal de comunicação sem fio. O dispositivo de codificação de imagem e o dispositivo de decodificação de imagem podem incluir uma unidade de comunicação que se comunica com vários dispositivos, uma memória para o armazenamento de vários programas, e dados usados para codificar ou decodificar imagens.
[024] A Figura 1 é um diagrama em bloco de um aparelho de codificação de imagem 100 de acordo com a presente invenção.
[025] Com referência à Figura 1, o aparelho de codificação de imagem 100 de acordo com a presente invenção inclui uma unidade de divisão de imagem 110, uma unidade de intrapredição 120, uma unidade de interpredição 130, uma unidade de transformada 140, uma unidade de quantização 150, uma unidade de digitalização 160, um aparelho de codificação por entropia 170, uma unidade de quantização / transformada inversa 180, uma unidade de pós-processamento 190 e uma unidade de armazenamento de imagem 195.
[026] A unidade de divisão de imagem 110 divide uma imagem ou uma fatia em uma pluralidade de unidades de codificação maiores (LCU) e divide cada unidade LCU em uma ou mais unidades de codificação.
[027] O tamanho da unidade LCU pode ser de 32x32, 64x64 ou 128x128. A unidade de divisão de imagem 110 determina o modo de predição e o modo de particionamento de cada unidade de codificação.
[028] Uma unidade LCU inclui uma ou mais unidades de codificação. A unidade LCU tem uma estrutura de árvore quadrática recursiva para especificar uma estrutura de divisão da unidade LCU. Parâmetros para a especificação do tamanho máximo e do tamanho mínimo da unidade de codificação são incluídos em um conjunto de parâmetros de sequência. A estrutura de divisão é especificada por meio de uma ou mais sinalizações de unidade de codificação divididas (split_cu_flags). O tamanho de uma unidade de codificação é de 2Nx2N. Quando o tamanho da unidade LCU é 64x64 e o tamanho de uma unidade de codificação menor (SCU) é 8x8, o tamanho da unidade de codificação poderá ser de 64x64, 32x32, 16x16 ou 8x8.
[029] A unidade de codificação inclui uma ou mais unidades de predição. Na intra- predição, o tamanho da unidade de predição é 2Nx2N ou NxN. Na interpredição, o tamanho da unidade de predição é especificado pelo modo de particionamento. O modo de particionamento é um dentre 2Nx2N, 2NxN, Nx2N e NxN quando a unidade de codificação é particionada simetricamente. O modo de particionamento é um dentre 2NxnU, 2NxnD, nLx2N e nRx2N quando a unidade de codificação é particionada simetricamente. Os modos de particionamento são permitidos com base no tamanho da unidade de codificação de modo a reduzir a complexidade de um hardware. Quando a unidade de codificação tem um tamanho mínimo, o particionamento assimétrico não poderá ser permitido. Além disso, quando a unidade de codificação tem o tamanho mínimo, NxN, o modo de particionamento não poderá ser permitido.
[030] Uma unidade de codificação inclui uma ou mais unidades de transformada. A unidade de transformada tem uma estrutura de árvore quadrática recursiva para a especificação de uma estrutura de divisão da unidade de codificação. A estrutura de divisão é especificada por uma ou mais sinalizações de unidade de transformada divididas (split_tu_flags). Parâmetros para a especificação do tamanho máximo e do tamanho mínimo da unidade de transformada são incluídos em um conjunto de parâmetros de sequência.
[031] A unidade de intrapredição 120 determina um modo de intrapredição de uma unidade de predição atual e gera um bloco de predição usando o modo de intrapredi- ção.
[032] A unidade de interpredição 130 determina a informação de movimento de uma unidade de predição atual usando uma ou mais imagens de referência armazenadas na unidade de armazenamento de imagem 195, e gera um bloco de predição da unidade de predição. A informação de movimento inclui um ou mais índices de imagem de referência e um ou mais vetores de movimento.
[033] A unidade de transformada 140 transforma um bloco residual no sentido de gerar um bloco transformado. O bloco residual tem o mesmo tamanho da unidade de transformada. Quando a unidade de predição é maior que a unidade de transformada, os sinais residuais entre o bloco atual e o bloco de predição são particionadas em múltiplos blocos residuais.
[034] A unidade de quantização 150 determina um parâmetro de quantização de modo a quantizar o bloco transformado. O parâmetro de quantização é um tamanho de etapa de quantização. O parâmetro de quantização é determinado pela unidade de quantização. O tamanho da unidade de quantização pode variar e ser um dentre os tamanhos permissíveis da unidade de codificação. Quando o tamanho da unidade de codificação é igual ao ou maior que o tamanho mínimo da unidade de quantização, a unidade de codificação se torna a unidade de quantização. Uma pluralidade de unidades de codificação pode ser incluída em uma unidade de quantização de um tamanho mínimo. O tamanho mínimo da unidade de quantização é determinado por imagem, e um parâmetro para a especificação do tamanho mínimo da unidade de quantização é incluído em um conjunto de parâmetros de imagem
[035] A unidade de quantização 150 gera um preditor de parâmetro de quantização e gera um parâmetro de quantização diferencial ao se subtrair o preditor de parâmetro de quantização do parâmetro de quantização. O parâmetro de quantização diferencial é codificado por entropia.
[036] O preditor de parâmetro de quantização é gerado usando os parâmetros de quantização das unidades de codificação vizinhas e um parâmetro de quantização da unidade de codificação anterior, tal como se segue.
[037] Um parâmetro de quantização à esquerda, um parâmetro de quantização acima e um parâmetro de quantização anterior são sequencialmente recuperados nesta ordem. Uma média dos dois primeiros parâmetros de quantização disponíveis recuperados nessa ordem é definida como o preditor de parâmetro de quantização quando dois ou mais parâmetros de quantização se encontram disponíveis, e quando apenas um parâmetro de quantização se encontra disponível, o parâmetro de quanti- zação disponível é definido como o preditor de parâmetro de quantização. Ou seja, quando os parâmetros de quantização à esquerda e acima se encontram disponíveis, uma média dos parâmetros de quantização à esquerda e acima é definida como o preditor de parâmetro de quantização. Quando apenas um dos parâmetros de quan- tização à esquerda e acima se encontra disponível, uma média do parâmetro de quan- tização e dos parâmetros de quantização anteriores disponíveis é definida como o preditor de parâmetro de quantização. Quando ambos os parâmetros de quantização à esquerda e acima não se encontram disponíveis, o parâmetro de quantização anterior é definido como o preditor de parâmetro de quantização. A média é arredondada.
[038] O parâmetro de quantização diferencial é convertido em binários para o valor absoluto do parâmetro de quantização diferencial e em um binário para o sinal de indicação do parâmetro de quantização diferencial através de um processo de binari- zação, e os binários são codificados aritmeticamente. Quando o valor absoluto do parâmetro de quantização diferencial é 0, o binário para o sinal de indicação poderá ser omitido. Um unário truncado é usado para binarização do absoluto.
[039] A unidade de quantização 150 quantiza o bloco transformado usando uma matriz de quantização e o parâmetro de quantização de modo a gerar um bloco quan- tizado. O bloco quantizado é provido para a unidade de quantização / transformada inversa 180 e para a unidade de digitalização 160.
[040] A unidade de digitalização 160 determina e se aplica a um padrão de digitalização para o bloco quantizado.
[041] Na interpredição, uma varredura diagonal é usada como o padrão de digitalização quando uma codificação CABAC é usada para uma codificação por entropia. Os coeficientes quantizados do bloco quantizado são divididos em componentes de coeficiente. Os componentes de coeficiente são as sinalizações significativas, os sinais de coeficientes e os níveis de coeficiente. A varredura diagonal é aplicada a cada um dos componentes de coeficiente. O coeficiente significativo indica se o coeficiente quantizado correspondente é zero ou não. O sinal de coeficiente indica um sinal de coeficiente quantizado diferente de zero, e o nível de coeficiente indica um valor absoluto do coeficiente quantizado diferente de zero.
[042] Quando o tamanho da unidade de transformada é maior que um tamanho predeterminado, o bloco quantizado é dividido em múltiplos subconjuntos e a varredura diagonal é aplicada a cada um dos subconjuntos. As sinalizações significativas, os sinais de coeficientes e os níveis de coeficiente de cada subconjunto são digitalizados, respectivamente, de acordo com a varredura diagonal. O tamanho predeterminado é de 4x4. O subconjunto é um bloco 4x4 contendo 16 coeficientes de transformada.
[043] O padrão de digitalização para digitalizar os subconjuntos é o mesmo que o padrão de digitalização para digitalizar os componentes de coeficiente. As sinalizações significativas, os sinais de coeficiente e os níveis de coeficiente de cada subconjunto são digitalizados na direção inversa. Os subconjuntos são também digitalizados na direção inversa.
[044] Um parâmetro que indica a última posição de coeficiente diferente de zero é codificado e transmitido para um lado de decodificação. O parâmetro que indica a última posição de coeficiente diferente de zero especifica uma posição do último coeficiente quantizado diferente de zero dentro do bloco quantizado. Uma sinalização de subconjunto diferente de zero é definida para cada subconjunto diferente do primeiro subconjunto e do último subconjunto e é transmitida para o lado de decodificação. O primeiro subconjunto inclui um coeficiente DC. O último subgrupo abrange o último coeficiente diferente de zero. A sinalização de subconjunto diferente de zero indica se o subconjunto contém coeficientes diferentes de zero ou não.
[045] A unidade de codificação por entropia 170 codifica por entropia o componente digitalizado por meio da unidade de digitalização 160, a informação de intrapredição recebida da unidade de intrapredição 120, a informação de movimento recebida da unidade de interpredição 130, e assim por diante.
[046] A unidade de quantização / transformada inversa 180 quantiza inversamente os coeficientes quantizados do bloco quantizado, e transforma inversamente o bloco quantizado inverso de modo a gerar um bloco residual.
[047] A unidade de pós-processamento 190 realiza um processo de filtragem de desbloqueio para a remoção do artefato de bloqueio gerado em uma imagem reconstruída.
[048] A unidade de armazenamento de imagem 195 recebe uma imagem pós-pro- cessada a partir da unidade de pós-processamento 190, e armazena a imagem em unidades de imagem. Uma imagem pode ser um quadro ou um campo.
[049] A Figura 2 é um fluxograma que ilustra um método de codificação de dados de vídeo em um modo de interpredição de acordo com a presente invenção.
[050] A informação de movimento de um bloco atual é determinada (S110). O bloco atual é uma unidade de predição. Um tamanho do bloco atual é determinado por um tamanho e um modo de particionamento da unidade de codificação.
[051] A informação de movimento varia de acordo com um tipo de predição. Quando o tipo de predição é uma predição unidirecional, a informação de movimento inclui um índice de referência, especificando uma imagem de uma lista de referência 0, e um vetor de movimento. Quando o tipo de predição é uma predição bidirecional, a informação de movimento inclui dois índices de referência especificando uma imagem de uma lista de referência 0 e uma imagem de uma lista de referência 1, e uma lista de vetor de movimento 0 e uma lista de vetor de movimento 1.
[052] Um bloco de predição do bloco atual é gerado usando a informação de movimento (S120). Quando o vetor de movimento indica uma posição de pixel, o bloco de predição é gerado por meio da cópia de um bloco da imagem de referência especifi-cada pelo vetor de movimento. Quando o vetor de movimento indica uma posição de sub-pixel, o bloco de predição é gerado por meio da interpolação dos pixels da imagem de referência.
[053] Um bloco residual é gerado usando o bloco atual e o bloco de predição (S130). O bloco residual tem o mesmo tamanho da unidade de transformada. Quando a unidade de predição é maior que a unidade de transformada, os sinais residuais entre o bloco atual e o bloco de predição vão para os múltiplos blocos residuais.
[054] O bloco residual é codificado (S140). O bloco residual é codificado pela unidade de transformada 140, pela unidade de quantização 150, pela unidade de digitalização 160 e pela unidade de codificação por entropia 170 da Figura 1.
[055] A informação de movimento é codificada (S150). A informação de movimento pode ser codificada preditivamente usando candidatos espaciais e um candidato temporal do bloco atual. A informação de movimento é codificada em um modo de salto, em um modo de mesclagem ou em um modo AMVP. No modo de salto, a unidade de predição tem o tamanho da unidade de codificação e a informação de movimento é codificada usando o mesmo método do modo de mesclagem. No modo de mescla- gem, a informação de movimento da unidade de predição atual é igual à informação de movimento de um candidato. No modo AMVP, o vetor de movimento da informação de movimento é codificado preditivamente usando um ou mais candidatos de vetor de movimento.
[056] A Figura 3 é um fluxograma que ilustra um método de codificação de informação de movimento no modo de mesclagem de acordo com a presente invenção.
[057] Os candidatos à mesclagem espacial são derivados (S210). A Figura 4 é um diagrama conceitual que ilustra as posições dos blocos candidatos à mesclagem espacial de acordo com a presente invenção.
[058] Tal como mostrado na Figura 4, o bloco candidato à mesclagem é um bloco à esquerda (bloco A), um bloco acima (bloco B), um bloco acima à direita (bloco C), um bloco abaixo à esquerda (bloco D) ou um bloco acima à esquerda (bloco E) do bloco atual. Os blocos são blocos de predição. O bloco acima à esquerda (bloco E) é definido como um bloco candidato à mesclagem quando um ou mais dentre os blocos A, B, C e D se encontram não disponíveis. A informação de movimento de um bloco candidato à mesclagem disponível N é definida como um candidato à mesclagem espacial N. N é A, B, C, D ou E.
[059] O candidato à mesclagem espacial pode ser definido como indisponível de acordo com a forma do bloco atual e a posição do bloco atual. Por exemplo, quando a unidade de codificação é dividida em duas unidades de predição (bloco P0 e bloco PI) usando um particionamento assimétrico, é provável que a informação de movimento do bloco P0 não seja igual à informação de movimento do bloco PI. Portanto, quando o bloco atual é o bloco assimétrico PI, o bloco P0 é definido como o bloco candidato indisponível, tal como mostrado nas Figuras 5 a 8.
[060] A Figura 5 é um diagrama em bloco conceitual ilustrando as posições dos blocos candidatos à mesclagem espacial de acordo com a presente invenção.
[061] Tal como mostrado na Figura 5, uma unidade de codificação é particionada em dois blocos de predição assimétricos P0 e PI, e o modo de particionamento é um modo nLx2N. O tamanho do bloco P0 é hNx2N P0 e o tamanho do bloco PI é (2- h)Nx2N. O valor de h é 1/2. O bloco atual é o bloco PI. Os blocos A, B, C, D e E são blocos candidatos à mesclagem espacial. O bloco P0 é o bloco candidato à mescla- gem espacial A.
[062] Na presente invenção, o candidato à mesclagem espacial A é definido como indisponível para ser listado na lista de candidatos à mesclagem. Além disso, os blocos candidatos à mesclagem espacial B, C, D ou E com a mesma informação de movimento do bloco candidato à mesclagem espacial A são definidos como não disponí-veis.
[063] A Figura 6 é um outro diagrama em bloco conceitual ilustrando as posições dos blocos candidatos à mesclagem espacial de acordo com a presente invenção.
[064] Tal como mostrado na Figura 6, uma unidade de codificação é particionada em dois blocos de predição assimétricos P0 e PI e o modo de particionamento é um modo nRx2N. O tamanho do bloco P0 é (2-h)Nx2N e o tamanho do bloco PI é hNx2N. O valor de h é 1/2. O bloco atual é o bloco PI. Os blocos A, B, C, D e E são blocos candidatos à mesclagem espacial. O bloco P0 é o bloco candidato à mesclagem espacial A.
[065] Na presente invenção, o candidato à mesclagem espacial A é definido como indisponível para ser listado na lista de candidatos à mesclagem. Além disso, o bloco candidato à mesclagem espacial B, C, D ou E com a mesma informação de movimento do bloco candidato à mesclagem espacial A é definido como indisponível.
[066] A Figura 7 é um outro diagrama em bloco conceitual ilustrando as posições dos blocos candidatos à mesclagem espacial de acordo com a presente invenção.
[067] Tal como mostrado na Figura 7, uma unidade de codificação é particionado em dois blocos de predição assimétricos P0 e PI e o modo de particionamento é um modo 2NxnU. O tamanho do bloco P0 é 2NxhN e o tamanho do bloco PI é 2NX(2-h)N. O valor de h é de 1/2. O bloco atual é o bloco PI. Os blocos A, B, C, D e E são blocos candidatos à mesclagem espacial. O bloco P0 é o bloco candidato à mesclagem espacial B.
[068] Na presente invenção, o candidato à mesclagem espacial B é definido como indisponível para ser listado na lista de candidatos à mesclagem. Além disso, os blocos candidatos à mesclagem espacial C, D ou E com a mesma informação de movimento do bloco candidato à mesclagem espacial B são definidos como não disponíveis.
[069] A Figura 8 é um outro diagrama em bloco conceitual ilustrando as posições dos blocos candidatos à mesclagem espacial de acordo com a presente invenção.
[070] Tal como mostrado na Figura 8, uma unidade de codificação é particionada em dois blocos de predição assimétricos P0 e PI e o modo de particionamento é um modo 2NxnD. O tamanho do bloco P0 é 2NX (2-h)N e o tamanho do bloco PI é 2NxhN. O valor de h é 1/2. O bloco atual é o bloco PI. Os blocos A, B, C, D e E são blocos candidatos à mesclagem espacial. O bloco P0 é o bloco candidato à mesclagem espacial B.
[071] Na presente invenção, o candidato à mesclagem espacial B é definido como indisponível para ser listado na lista de candidatos à mesclagem. Além disso, os blocos candidatos à mesclagem espacial C, D ou E com a mesma informação de movimento do bloco candidato à mesclagem espacial B são definidos como não disponíveis.
[072] O candidato à mesclagem espacial pode também ser definido como indisponível com base na área de mesclagem. Quando o bloco atual e o bloco candidato à mesclagem espacial pertencem à mesma área de mesclagem, o bloco candidato à mesclagem espacial é definido como indisponível. A área de mesclagem é uma unidade de área na qual a estimativa de movimento é realizada e as informações que especificam a área de mesclagem são incluídas em um fluxo de bits.
[073] Um candidato à mesclagem temporal é derivado (S220). O candidato à mes- clagem temporal inclui um índice de imagem de referência e um vetor de movimento do candidato à mesclagem temporal.
[074] O índice de imagem de referência do candidato à mesclagem temporal pode ser derivado usando um ou mais índices de imagem de referência do bloco vizinho. Por exemplo, um dos índices de imagem de referência de um bloco vizinho à esquerda, um bloco vizinho acima e de um bloco vizinho no canto é definido como o índice de imagem de referência do candidato à mesclagem temporal. O bloco vizinho no canto é um dentre um bloco vizinho acima à direita, um bloco vizinho abaixo à esquerda e um bloco vizinho acima à esquerda. Em alternativa, o índice de imagem de referência do candidato à mesclagem temporal pode ser definido para zero a fim de reduzir a complexidade.
[075] O vetor de movimento do candidato à mesclagem temporal pode ser derivado da seguinte maneira.
[076] Em primeiro lugar, uma imagem candidata à mesclagem temporal é determinada. A imagem candidata à mesclagem temporal inclui um bloco candidato à mes- clagem temporal. Uma imagem candidata à mesclagem temporal é usada dentro de uma fatia. Um índice de imagem de referência da imagem candidata à mesclagem temporal pode ser definido para zero.
[077] Quando a fatia atual é uma fatia P, uma das imagens de referência da lista de imagem de referência 0 é definida como a imagem candidata à mesclagem temporal. Quando a fatia atual é uma fatia B, uma das imagens de referência das listas de imagem de referência 0 e 1 é definida como a imagem candidata à mesclagem temporal. Um indicador de lista que especifica se a imagem candidata à mesclagem temporal pertence às listas de imagem de referência 0 ou 1 é incluído em um cabeçalho de fatia quando a fatia atual é uma fatia B. O índice de imagem de referência que especifica a imagem candidata à mesclagem temporal pode ser incluído no cabeçalho de fatia.
[078] Em seguida, o bloco candidato à mesclagem temporal é determinado. O bloco candidato à mesclagem temporal pode ser um primeiro bloco candidato ou um segundo bloco candidato. Quando o primeiro bloco candidato se encontra disponível, o primeiro bloco candidato é definido como o bloco candidato à mesclagem temporal. Quando o primeiro bloco candidato não se encontra disponível, o segundo bloco candidato é definido como o bloco candidato à mesclagem temporal. Quando o segundo bloco candidato se encontra indisponível, o bloco candidato à mesclagem temporal é definido como indisponível.
[079] A Figura 9 é um diagrama conceitual que ilustra a posição do bloco candidato à mesclagem temporal de acordo com a presente invenção. Tal como mostrado na Figura 9, o primeiro bloco candidato à mesclagem pode ser um bloco no canto abaixo à direita (bloco H) do bloco C. O bloco C tem o mesmo tamanho e mesma localização do bloco atual e está localizado dentro da imagem candidata à mesclagem temporal. O segundo bloco candidato à mesclagem é um bloco que cobre um pixel superior à esquerda do centro do bloco C.
[080] Quando o bloco candidato à mesclagem temporal é determinado, o vetor de movimento do bloco candidato à mesclagem temporal é definido como o vetor de movimento do candidato à mesclagem temporal.
[081] A lista de candidatos à mesclagem é construída (S230). Os candidatos espaciais disponíveis e o candidato temporal disponível são listados em uma ordem predeterminada. Os candidatos à mesclagem espacial são listados até quatro na ordem de A, B, C, D e E. O candidato à mesclagem temporal pode ser listado entre B e C ou após os candidatos espaciais.
[082] É determinado se um ou mais candidatos à mesclagem são gerados ou não (S240). A determinação é feita através da comparação do número de candidatos à mesclagem listados na lista de candidatos à mesclagem com um número predeterminado dos candidatos à mesclagem. O número predeterminado pode ser determinado por imagem ou fatia.
[083] Quando o número de candidatos à mesclagem listados na lista de candidatos à mesclagem é menor que um número predeterminado dos candidatos à mesclagem, um ou mais candidatos à mesclagem são gerados (S250). O candidato à mesclagem gerado é listado após o último candidato à mesclagem disponível.
[084] Quando o número de candidatos à mesclagem disponíveis é igual a ou maior que 2, um dos dois candidatos à mesclagem disponíveis tem a informação de movimento da lista 0 e o outro tem a informação de movimento da lista 1, e o candidato à mesclagem poderá ser gerado ao se combinar a informação de movimento da lista 0 e a informação de movimento da lista 1. Vários candidatos à mesclagem podem ser gerados se houver várias combinações.
[085] Um ou mais candidatos à mesclagem zero podem ser adicionados à lista. Quando o tipo de fatia é P, o candidato à mesclagem zero terá apenas a informação de movimento da lista 0. Quando o tipo de fatia é B, o candidato à mesclagem zero terá a informação de movimento da lista 0 e a informação de movimento da lista 1.
[086] Um preditor de mesclagem é selecionado entre os candidatos à mesclagem da lista de mesclagem, um índice de mesclagem que especifica o preditor de mescla- gem é codificado (S260).
[087] A Figura 10 é um diagrama em bloco de um aparelho de decodificação de imagem 200 de acordo com a presente invenção.
[088] O aparelho de decodificação de imagem 200 de acordo com a presente invenção inclui uma unidade de decodificação por entropia 210, uma unidade de digitalização inversa 220, uma unidade de quantização inversa 230, uma unidade de trans-formada inversa 240, uma unidade de intrapredição 250, uma unidade de interpredi- ção 260, uma unidade de pós-processamento 270, uma unidade de armazenamento de imagem 280 e um adicionador 290.
[089] A unidade de decodificação por entropia 210 extrai as informações de intra- predição, as informações de interpredição e os componentes de coeficiente quanti- zado a partir de um fluxo de bits recebido usando um método de decodificação aritmética binária adaptativa ao contexto.
[090] A unidade de digitalização inversa 220 aplica um padrão de digitalização inversa aos componentes de coeficiente quantizado de modo a gerar um bloco quanti- zado. Na interpredição, o padrão de digitalização inversa é uma varredura diagonal. Os componentes de coeficiente quantizado incluem as sinalizações significativas, os sinais de coeficiente e os níveis de coeficiente.
[091] Quando o tamanho da unidade de transformada é maior que um tamanho predeterminado, as sinalizações significativas, os sinais de coeficiente e os níveis de coeficiente são inversamente digitalizados na unidade de subconjunto usando a varredura diagonal no sentido de gerar subconjuntos, e os subconjuntos são inversamente digitalizados usando a varredura diagonal no sentido de gerar o bloco quanti- zado. O tamanho predeterminado é igual ao tamanho do subconjunto. O subconjunto é um bloco 4x4 incluindo 16 coeficientes de transformada. As sinalizações significativas, os sinais de coeficiente e os níveis de coeficiente são inversamente digitalizados na direção inversa. Os subconjuntos são também inversamente digitalizados na direção inversa.
[092] Um parâmetro que indica a última posição de coeficiente diferente de zero e as sinalizações de subconjunto diferentes de zero é extraído do fluxo de bits. O número de subconjuntos codificados é determinado com base na última posição de coeficiente diferente de zero. A sinalização de subconjunto diferente de zero é usada para determinar se o subconjunto correspondente tem pelo menos um coeficiente diferente de zero. Quando a sinalização de subconjunto diferente de zero é igual a 1, o subconjunto é gerado usando a varredura diagonal. O primeiro subconjunto e o último subconjunto são gerados usando o padrão de digitalização inversa.
[093] A unidade de quantização inversa 230 recebe o parâmetro de quantização diferencial da unidade de decodificação por entropia 210 e gera o preditor de parâmetro de quantização de modo a gerar o parâmetro de quantização da unidade de codificação. A operação de geração do preditor de parâmetro de quantização é a mesma que a operação da unidade de quantização 150 da Figura 1. Em seguida, o parâmetro de quantização da unidade de codificação atual é gerado ao se adicionar o parâmetro de quantização diferencial e o preditor de parâmetro de quantização. Quando o parâmetro de quantização diferencial não é transmitido a partir de um lado de codificação, o parâmetro de quantização diferencial é definido como zero.
[094] A unidade de quantização inversa 230 quantiza inversamente o bloco quanti- zado. A unidade de transformada inversa 240 transforma inversamente o bloco quan- tizado inverso de modo a gerar um bloco residual. Uma matriz de transformada inversa é determinada adaptativamente de acordo com o modo de predição e o tamanho da unidade de transformada. A matriz de transformada inversa é uma matriz de transformada de inteiro com base na transformada DCT ou uma matriz de transformada de inteiro com base na transformada DST. Na interpredição, as transformadas de inteiro com base na transformada DCT são usadas.
[095] A unidade de predição 250 deriva um modo de intrapredição da unidade de predição atual usando as informações de intrapredição recebidas, e gera um bloco de predição de acordo com o modo de intrapredição derivado.
[096] A unidade de interpredição 260 deriva da informação de movimento da unidade de predição atual usando a informação de interpredição recebida, e gera um bloco de predição usando a informação de movimento.
[097] A unidade de pós-processamento 270 opera da mesma forma que a unidade de pós-processamento 180 da Figura 1.
[098] A unidade de armazenamento de imagem 280 recebe uma imagem pós-pro- cessada a partir da unidade de pós-processamento 270, e armazena a imagem em unidades de imagem. A imagem pode ser um quadro ou um campo.
[099] O adicionador 290 adiciona o bloco residual restaurado e um bloco de predição de modo a gerar um bloco reconstruído.
[0100] A Figura 11 é um fluxograma que ilustra um método de decodificação de uma imagem no modo de interpredição de acordo com a presente invenção.
[0101] Informações de movimento de um bloco atual são derivadas (S310). O bloco atual é uma unidade de predição. Um tamanho do bloco atual é determinado pelo tamanho da unidade de codificação e pelo modo de particionamento.
[0102] A informação de movimento varia de acordo com um tipo de predição. Quando o tipo de predição é uma predição unidirecional, a informação de movimento incluirá um índice de referência que especifica uma imagem de uma lista de referência 0, e um vetor de movimento. Quando o tipo de predição é uma predição bidirecional, a informação de movimento incluirá um índice de referência que especifica a imagem de uma lista de referência 0, um índice de referência que especifica uma imagem de uma lista de referência 1, e um vetor de movimento da lista 0 e um vetor de movimento da lista 1.
[0103] A informação de movimento é decodificada adaptativamente de acordo com o modo de codificação da informação de movimento. O modo de codificação da informação de movimento é determinado por uma sinalização de salto e uma sinalização de mesclagem. Quando a sinalização de salto é igual a 1, a sinalização de mesclagem não existe e o modo de codificação é um modo de salto. Quando a sinalização de salto é igual a 0 e a sinalização de mesclagem é igual a 1, o modo de codificação será um modo de mesclagem. Quando a sinalização de salto e a sinalização de mesclagem são iguais a 0, o modo de codificação será um modo AMVP.
[0104] Um bloco de predição do bloco atual é gerado usando a informação de movimento (S320).
[0105] Quando o vetor de movimento indica uma posição de pixel, o bloco de predição é gerado ao se copiar um bloco da imagem de referência especificada pelo vetor de movimento.
[0106] Quando o vetor de movimento indica uma posição de sub-pixel, o bloco de predição é gerado ao se interpolar os pixels da imagem de referência.
[0107] Um bloco residual é gerado (S330). O bloco residual é gerado pela unidade de decodificação por entropia 210, pela unidade de digitalização inversa 220, pela unidade de quantização inversa 230 e pela unidade de transformada inversa da Figura 10.
[0108] Um bloco reconstruído é gerado usando o bloco de predição e o bloco residual (S340).
[0109] O bloco de predição tem o mesmo tamanho da unidade de predição, e o bloco residual tem o mesmo tamanho da unidade de transformada. Portanto, os sinais residuais e os sinais de predição do mesmo tamanho são adicionados de modo a gerar os sinais reconstruídos.
[0110] A Figura 12 é um fluxograma que ilustra um método de derivação de informação de movimento em modo de mesclagem.
[0111] Um índice de mesclagem é extraído a partir de um fluxo de bits (S410). Quando o índice de mesclagem não existe, o número de candidatos à mesclagem é definido como um.
[0112] Os candidatos à mesclagem espacial são derivados (S420). Os candidatos à mesclagem espacial disponíveis são os mesmos que os descritos na etapa S210 da Figura 3.
[0113] Um candidato à mesclagem temporal é derivado (S430). O candidato à mes- clagem temporal inclui um índice de imagem de referência e um vetor de movimento do candidato à mesclagem temporal. O índice de referência e o vetor de movimento do candidato à mesclagem temporal são os mesmos que os descritos na etapa S220 da Figura 3.
[0114] A lista de candidatos à mesclagem é construída (S440). A lista de mesclagem é a mesma que a descrita na etapa S230 da Figura 3.
[0115] É determinado se um ou mais candidatos à mesclagem são gerados ou não (S450). A determinação é feita ao se comparar o número de candidatos à mesclagem listados na lista de candidatos à mesclagem com um número predeterminado dos candidatos à mesclagem. O número predeterminado é determinado por imagem ou fatia.
[0116] Quando o número de candidatos à mesclagem listados na lista de candidatos à mesclagem é menor que um número predeterminado de candidatos à mesclagem, um ou mais candidatos à mesclagem são gerados (S460). O candidato à mesclagem gerado é listado após o último candidato à mesclagem disponível. O candidato à mes- clagem é gerado tal como o mesmo método descrito na etapa S250 da Figura 3.
[0117] O candidato à mesclagem especificado pelo índice de mesclagem é definido como a informação de movimento do bloco atual (S470).
[0118] A Figura 13 é um fluxograma ilustrando um procedimento de geração de um bloco residual no modo de interpredição de acordo com a presente invenção.
[0119] Os componentes de coeficiente quantizado são gerados pela unidade de de- codificação por entropia (S510).
[0120] Um bloco quantizado é gerado ao se digitalizar inversamente os componentes de coeficiente quantizado de acordo com a varredura diagonal (S520). Os componentes de coeficiente quantizado incluem as sinalizações significativas, os sinais de coeficiente e os níveis de coeficiente.
[0121] Quando o tamanho da unidade de transformada é maior que um tamanho predeterminado, as sinalizações significativas, as sinalizações de coeficiente e os níveis de coeficiente são digitalizados inversamente na unidade de subconjunto usando a varredura diagonal de modo a gerar subconjuntos, e os subconjuntos são digitalizados inversamente usando a varredura diagonal de modo a gerar o bloco quantizado. O tamanho predeterminado é igual ao tamanho do subconjunto. O subconjunto é um bloco 4x4 incluindo 16 coeficientes de transformada. As sinalizações significativas, os sinais de coeficiente e os níveis de coeficiente são inversamente digitalizados na direção inversa. Os subconjuntos são também inversamente digitalizados na direção inversa.
[0122] O parâmetro que indica a última posição de coeficiente diferente de zero e as sinalizações de subconjunto diferentes de zero é extraído do fluxo de bits. O número de subconjuntos codificados é determinado com base na última posição de coeficiente diferente de zero. A sinalização de subconjunto diferente de zero é usada para determinar se o subconjunto correspondente tem pelo menos um coeficiente diferente de zero. Quando a sinalização de subconjunto diferente de zero é igual a 1, o subconjunto é gerado usando a varredura diagonal. O primeiro subconjunto e o último subconjunto são gerados usando o padrão de digitalização inversa.
[0123] O bloco quantizado é inversamente quantizado usando uma matriz de quanti- zação inversa e um parâmetro de quantização (S530).
[0124] A Figura 14 é um fluxograma que ilustra um método de derivação de um parâmetro de quantização de acordo com a presente invenção.
[0125] Um tamanho mínimo da unidade de quantização é determinado (S531). Um parâmetro cu_qp_delta_enabled_info que especifica o tamanho mínimo é extraído a partir de um fluxo de bits, e o tamanho mínimo da unidade de quantização é determinado pela seguinte equação.
[0126] Log2 (MinQUSize) = Log2 (MaxCUSize) -cu_qp_delta_enabled_info
[0127] O MinQUSize indica o tamanho mínimo da unidade de quantização, o MaxCU- Size indica o tamanho da unidade LCU. O parâmetro cu_qp_delta_enabled_info é extraído de um conjunto de parâmetros de imagem.
[0128] Um parâmetro de quantização diferencial da unidade de codificação atual é derivado (S532). O parâmetro de quantização diferencial é incluído por unidade de quantização. Portanto, quando o tamanho da unidade de codificação atual é igual ou maior que o tamanho mínimo, o parâmetro de quantização diferencial para a unidade de codificação atual é restabelecido. Quando o parâmetro de quantização diferencial não existe, o parâmetro de quantização diferencial é definido como zero. Quando múl-tiplas unidades de codificação pertencem a uma unidade de quantização, a primeira unidade de codificação contendo pelo menos um coeficiente diferente de zero na ordem de decodificação conterá a unidade de quantização diferencial.
[0129] Um parâmetro de quantização diferencial codificado é aritmeticamente decodificado de modo a gerar uma cadeia binária indicando o valor absoluto do parâmetro de quantização diferencial e um binário indicando o sinal do parâmetro de quantização diferencial. A cadeia binária pode ser um código unário truncado. Quando o valor absoluto do parâmetro de quantização diferencial é zero, o binário que indica o sinal não existe. O parâmetro de quantização diferencial é derivado usando a cadeia binária que indica o valor absoluto e o binário que indica o sinal.
[0130] Um preditor de parâmetro de quantização da unidade de codificação atual é derivado (S533). O preditor de parâmetro de quantização é gerado usando os parâmetros de quantização das unidades de codificação vizinhas e o parâmetro de quan- tização da unidade de codificação anterior da seguinte maneira.
[0131] Um parâmetro de quantização à esquerda, um parâmetro de quantização acima e um parâmetro de quantização anterior são sequencialmente recuperados nesta ordem. Uma média dos dois primeiros parâmetros de quantização disponíveis recuperados nessa ordem é definida como o preditor de parâmetro de quantização quando dois ou mais parâmetros de quantização se encontram disponíveis, e quando apenas um parâmetro de quantização se encontra disponível, o parâmetro de quanti- zação disponível é definida como o preditor de parâmetro de quantização. Ou seja, quando os parâmetros de quantização à esquerda e acima se encontram disponíveis, a média dos parâmetros de quantização à esquerda e acima é definida como o preditor de parâmetro de quantização. Quando apenas um dentre os parâmetros de quantiza- ção à esquerda e acima se encontra disponível, a média do parâmetro de quantização disponível e do parâmetro de quantização anterior é definida como o preditor de parâmetro de quantização. Quando ambos os parâmetros de quantização à esquerda e acima não se encontram disponíveis, o parâmetro de quantização anterior será definido como o preditor de parâmetro de quantização.
[0132] Quando múltiplas unidades de codificação pertencem a uma unidade de quantização de tamanho mínimo, o preditor de parâmetro de quantização para a primeira unidade de codificação na ordem de decodificação será derivado e usado para as demais unidades de codificação.
[0133] O parâmetro de quantização da unidade de codificação atual é gerado usando o parâmetro de quantização diferencial e o preditor de parâmetro de quantização (S534).
[0134] Um bloco residual é gerado ao se transformar inversamente o bloco quanti- zado inverso (S540). Transformadas baseadas em uma transformada DCT inversa horizontal e vertical unidimensional são usadas.
[0135] Embora a presente invenção tenha sido mostrada e descrita com referência a certas modalidades exemplares da mesma, deverá ser entendido pelos versados na técnica que várias alterações na forma e detalhes poderão ser feitas sem se afastar do espírito e do âmbito de aplicação da presente invenção, tal como definida pelas reivindicações em apenso.

Claims (7)

1. Método de construção de uma lista de candidatos à mesclagem, CARACTERIZADO por compreender: construir uma lista de candidatos à mesclagem usando candidatos à mescla- gem espacial e temporal disponíveis, e derivar informação de movimento usando um índice de mesclagem e a lista de candidatos à mesclagem; gerar um bloco de predição usando a informação de movimento; gerar um bloco de quantização por varredura inversa de componentes de coeficiente quantizado de acordo com uma varredura diagonal, quantizar inversamente o bloco de quantização usando um parâmetro de quantização e uma matriz de quan- tização, e transformar inversamente o bloco de quantização inversamente quantizado para gerar um bloco residual; e derivar um bloco reconstruído usando o bloco de predição e o bloco residual, em que os candidatos à mesclagem espacial são informações de movimento de blocos candidatos à mesclagem espacial, e os blocos candidatos à mesclagem espacial são um bloco à esquerda, um bloco acima, um bloco acima à direita, um bloco abaixo à esquerda ou um bloco acima à esquerda do bloco atual, em que o candidato à mesclagem espacial correspondendo a uma primeira unidade de predição particionada por particionamento assimétrico é definido como indisponível se uma unidade de predição atual for uma segunda unidade de predição particionada por particionamento assimétrico, em que se o tamanho da unidade de predição atual for (3/2)Nx2N, o candidato à mesclagem espacial à esquerda é definido como indisponível, em que um vetor de movimento do candidato à mesclagem temporal é um vetor de movimento de um bloco de candidato à mesclagem temporal dentro de uma imagem de candidato à mesclagem temporal, e uma posição do bloco de candidato à mesclagem temporal é determinada dependendo de uma posição da unidade de predição atual dentro de uma LCU, em que o parâmetro de quantização é gerado usando um parâmetro de quan- tização diferencial e um preditor de parâmetro de quantização, em que o preditor de parâmetro de quantização é gerado usando um parâmetro de quantização à esquerda e um parâmetro de quantização acima quando tanto o parâmetro de quantização à esquerda como o parâmetro de quantização acima estão disponíveis, e em que o parâmetro de quantização anterior é definido como o preditor de parâmetro de quantização quando tanto o parâmetro de quantização à esquerda como o parâmetro de quantização acima estão indisponíveis.
2. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o candidato à mesclagem espacial à esquerda é informação de movimento da unidade de predição à esquerda da unidade de predição atual.
3. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que se um candidato à mesclagem espacial acima tem a mesma informação de movimento do candidato à mesclagem espacial à esquerda, o candidato à mesclagem espacial acima é definido como indisponível.
4. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o tamanho da unidade de predição atual é determinado com base em um modo de particionamento e em um tamanho da unidade de codificação.
5. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que se uma unidade de codificação atual tem um tamanho mínimo permitido, o parti- cionamento assimétrico não é permitido.
6. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que um bloco acima à esquerda disponível é definido como um bloco candidato à mesclagem quando pelo menos um dentre o bloco à esquerda, o bloco acima, o bloco acima à direita e o bloco abaixo à esquerda está indisponível.
7. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que um vetor de movimento do candidato à mesclagem temporal é um vetor de movimento de um bloco candidato à mesclagem temporal dentro de uma imagem candidata à mesclagem temporal, e imagens candidatas à mesclagem temporal são as mesmas em uma fatia.
BR122020013720-7A 2011-11-07 2012-11-07 Método de construção de lista de candidatos à mesclagem BR122020013720B1 (pt)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR1020110115219A KR20130050406A (ko) 2011-11-07 2011-11-07 머지 모드에서의 움직임 정보 생성 방법
KR10-2011-0115219 2011-11-07
PCT/CN2012/084240 WO2013067938A1 (en) 2011-11-07 2012-11-07 Method of constructing merge list
BR112014007871-8A BR112014007871B1 (pt) 2011-11-07 2012-11-07 Método de construção de lista de candidatos à mesclagem

Publications (3)

Publication Number Publication Date
BR122020013720A2 BR122020013720A2 (pt) 2020-10-06
BR122020013720A8 BR122020013720A8 (pt) 2022-10-04
BR122020013720B1 true BR122020013720B1 (pt) 2023-12-12

Family

ID=48208141

Family Applications (5)

Application Number Title Priority Date Filing Date
BR112014007871-8A BR112014007871B1 (pt) 2011-11-07 2012-11-07 Método de construção de lista de candidatos à mesclagem
BR122020013720-7A BR122020013720B1 (pt) 2011-11-07 2012-11-07 Método de construção de lista de candidatos à mesclagem
BR122020013719-3A BR122020013719B1 (pt) 2011-11-07 2012-11-07 Método de construção de lista de candidatos à mesclagem
BR122020013723-1A BR122020013723B1 (pt) 2011-11-07 2012-11-07 Método de construção de lista de candidatos à mesclagem
BR122020013725-8A BR122020013725B1 (pt) 2011-11-07 2012-11-07 Método de construção de lista de candidatos à mesclagem

Family Applications Before (1)

Application Number Title Priority Date Filing Date
BR112014007871-8A BR112014007871B1 (pt) 2011-11-07 2012-11-07 Método de construção de lista de candidatos à mesclagem

Family Applications After (3)

Application Number Title Priority Date Filing Date
BR122020013719-3A BR122020013719B1 (pt) 2011-11-07 2012-11-07 Método de construção de lista de candidatos à mesclagem
BR122020013723-1A BR122020013723B1 (pt) 2011-11-07 2012-11-07 Método de construção de lista de candidatos à mesclagem
BR122020013725-8A BR122020013725B1 (pt) 2011-11-07 2012-11-07 Método de construção de lista de candidatos à mesclagem

Country Status (20)

Country Link
US (7) US8917772B2 (pt)
EP (6) EP3829174B1 (pt)
JP (6) JP5823628B2 (pt)
KR (5) KR20130050406A (pt)
CN (7) CN103096073B (pt)
BR (5) BR112014007871B1 (pt)
CY (1) CY1123872T1 (pt)
DK (5) DK3829175T3 (pt)
ES (5) ES2859550T3 (pt)
HR (1) HRP20210659T1 (pt)
HU (5) HUE062196T2 (pt)
IN (1) IN2014CN03913A (pt)
LT (1) LT2752006T (pt)
MX (6) MX336815B (pt)
PL (5) PL3829175T3 (pt)
PT (5) PT3829172T (pt)
RS (1) RS61740B1 (pt)
SI (1) SI2752006T1 (pt)
TW (1) TWI537881B (pt)
WO (1) WO2013067938A1 (pt)

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10264276B2 (en) 2011-06-14 2019-04-16 Samsung Electronics Co., Ltd. Method and apparatus for encoding motion information and method and apparatus for decoding same
KR20130050406A (ko) * 2011-11-07 2013-05-16 오수미 머지 모드에서의 움직임 정보 생성 방법
EP4009640A1 (en) * 2011-11-08 2022-06-08 Electronics and Telecommunications Research Institute Method and device for sharing a candidate list
EP2942961A1 (en) 2011-11-23 2015-11-11 HUMAX Holdings Co., Ltd. Methods for encoding/decoding of video using common merging candidate set of asymmetric partitions
JP5561348B2 (ja) * 2011-12-16 2014-07-30 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法、及び動画像復号プログラム、並びに、受信装置、受信方法、及び受信プログラム
JP5900308B2 (ja) * 2011-12-16 2016-04-06 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム
EP3703371B1 (en) 2011-12-16 2021-08-04 JVCKENWOOD Corporation Dynamic image encoding device, dynamic image encoding method, dynamic image encoding program, dynamic image decoding device, dynamic image decoding method, and dynamic image decoding program
CN102883163B (zh) * 2012-10-08 2014-05-28 华为技术有限公司 用于运动矢量预测的运动矢量列表建立的方法、装置
US9832478B2 (en) 2013-05-14 2017-11-28 Mediatek Inc. Video encoding method and apparatus for determining size of parallel motion estimation region based on encoding related information and related video decoding method and apparatus
CN104159106B (zh) * 2013-05-14 2017-12-01 联发科技股份有限公司 视频编码方法和视频解码方法及其装置
US9948915B2 (en) 2013-07-24 2018-04-17 Qualcomm Incorporated Sub-PU motion prediction for texture and depth coding
CN105393538B (zh) 2013-07-24 2018-12-04 高通股份有限公司 用于视频编解码的方法、装置及计算机可读存储介质
US9554150B2 (en) * 2013-09-20 2017-01-24 Qualcomm Incorporated Combined bi-predictive merging candidates for 3D video coding
CN105612749A (zh) * 2013-10-17 2016-05-25 日本电信电话株式会社 视频编码装置及方法以及视频解码装置及方法
CN104768012B (zh) * 2014-01-03 2018-04-20 华为技术有限公司 非对称运动分割方式编码的方法和编码设备
EP3114839A4 (en) 2014-03-07 2018-02-14 Qualcomm Incorporated Simplified sub-prediction unit (sub-pu) motion parameter inheritence (mpi)
WO2015180014A1 (en) * 2014-05-26 2015-12-03 Mediatek Singapore Pte. Ltd. An improved merge candidate list construction method for intra block copy
KR102378459B1 (ko) 2014-06-30 2022-03-24 한국전자통신연구원 움직임 병합 모드에서 시점 합성 예측 후보의 중복성 제거 장치 및 방법
WO2016003074A1 (ko) * 2014-06-30 2016-01-07 한국전자통신연구원 움직임 병합 모드에서 시점 합성 예측 후보의 중복성 제거 장치 및 방법
US10757437B2 (en) 2014-07-17 2020-08-25 Apple Inc. Motion estimation in block processing pipelines
US9762919B2 (en) 2014-08-28 2017-09-12 Apple Inc. Chroma cache architecture in block processing pipelines
US11477477B2 (en) 2015-01-26 2022-10-18 Qualcomm Incorporated Sub-prediction unit based advanced temporal motion vector prediction
KR20180085714A (ko) * 2015-12-17 2018-07-27 삼성전자주식회사 머지 후보 리스트를 이용한 비디오 복호화 방법 및 비디오 복호화 장치
WO2017138761A1 (ko) * 2016-02-11 2017-08-17 삼성전자 주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
KR20180021941A (ko) * 2016-08-22 2018-03-06 광운대학교 산학협력단 부호화 유닛들의 병합을 사용하는 비디오 부호화 방법 및 장치, 그리고 비디오 복호화 방법 및 장치
CN109845253B (zh) 2016-10-04 2023-09-12 株式会社Kt 一种用于对二维视频进行解码、编码的方法
EP3306927A1 (en) * 2016-10-05 2018-04-11 Thomson Licensing Encoding and decoding methods and corresponding devices
US11172203B2 (en) * 2017-08-08 2021-11-09 Mediatek Inc. Intra merge prediction
KR20200044967A (ko) 2017-09-18 2020-04-29 인텔렉추얼디스커버리 주식회사 블록 분할에 따른 병합 후보 리스트를 사용하는 비디오 코딩 방법 및 장치
US10694188B2 (en) * 2017-12-18 2020-06-23 Arris Enterprises Llc System and method for constructing a plane for planar prediction
US11128887B2 (en) 2018-03-19 2021-09-21 Kt Corporation Method and apparatus for processing video signal
WO2019194653A1 (ko) * 2018-04-06 2019-10-10 가온미디어 주식회사 움직임 정보의 복합적 머지 모드 처리를 제공하는 영상 처리 방법, 그를 이용한 영상 복호화, 부호화 방법 및 그 장치
CN112166612A (zh) * 2018-05-23 2021-01-01 株式会社Kt 用于处理视频信号的方法和设备
CA3100970A1 (en) 2018-05-24 2019-11-28 Kt Corporation Method and apparatus for processing video signal
JP7141463B2 (ja) 2018-06-27 2022-09-22 エルジー エレクトロニクス インコーポレイティド インター予測モードに基づいた映像処理方法およびそのための装置
CN114845108A (zh) 2018-06-29 2022-08-02 抖音视界(北京)有限公司 查找表的更新:fifo、约束的fifo
KR20210025537A (ko) 2018-06-29 2021-03-09 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 하나 또는 다수의 룩업 테이블들을 사용하여 이전에 코딩된 모션 정보를 순서대로 저장하고 이를 사용하여 후속 블록들을 코딩하는 개념
CN110662056B (zh) 2018-06-29 2022-06-07 北京字节跳动网络技术有限公司 哪个查找表需要更新或不更新
KR20240005239A (ko) 2018-06-29 2024-01-11 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut와 amvp 사이의 상호작용
CN114885173A (zh) 2018-06-29 2022-08-09 抖音视界(北京)有限公司 Lut中的运动候选的检查顺序
BR112020024142A2 (pt) 2018-06-29 2021-03-02 Beijing Bytedance Network Technology Co., Ltd. método para processamento de vídeo, aparelho para codificação de dados de vídeo, meio de armazenamento e meio de gravação legíveis por computador não transitório
TWI744661B (zh) 2018-06-29 2021-11-01 大陸商北京字節跳動網絡技術有限公司 要根據模式檢查的查找表中的運動候選的數量
CN110662052B (zh) 2018-06-29 2022-07-08 北京字节跳动网络技术有限公司 更新查找表(lut)的条件
TWI731364B (zh) 2018-07-02 2021-06-21 大陸商北京字節跳動網絡技術有限公司 Hmvp+非相鄰運動
KR102545728B1 (ko) * 2018-07-16 2023-06-20 엘지전자 주식회사 서브블록 단위의 시간적 움직임 정보 예측을 위한 인터 예측 방법 및 그 장치
GB2590310B (en) 2018-09-12 2023-03-22 Beijing Bytedance Network Tech Co Ltd Conditions for starting checking HMVP candidates depend on total number minus K
WO2020056143A1 (en) * 2018-09-12 2020-03-19 Beijing Dajia Internet Information Technology Co., Ltd. Modifications of the construction of the merge candidate list
US20220038734A1 (en) * 2018-09-20 2022-02-03 Lg Electronics Inc. Method and device for processing image signal
EP3861737A4 (en) * 2018-10-05 2022-07-13 OP Solutions, LLC METHODS AND SYSTEMS FOR CONSTRUCTING A LIST OF FUSION CANDIDATES INCLUDING ADDING A NON-ADJACENT DIAGONAL SPATIAL FUSION CANDIDATE
CN116634170A (zh) * 2018-10-10 2023-08-22 华为技术有限公司 帧间预测方法及装置
KR20240010576A (ko) 2019-01-10 2024-01-23 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut 업데이트의 호출
WO2020143824A1 (en) 2019-01-13 2020-07-16 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and shared merge list
WO2020147773A1 (en) 2019-01-16 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Inserting order of motion candidates in lut
US20220109835A1 (en) * 2019-03-11 2022-04-07 Apple Inc. Method for encoding/decoding image signal, and device therefor
CN113615193A (zh) 2019-03-22 2021-11-05 北京字节跳动网络技术有限公司 Merge列表构建和其他工具之间的交互
EP4032297A4 (en) * 2019-09-19 2022-11-23 Alibaba Group Holding Limited METHODS FOR CONSTRUCTING A LIST OF MERGER CANDIDATES
US11145614B2 (en) 2019-10-18 2021-10-12 Taiwan Semiconductor Manufacturing Company, Ltd. Semiconductor device and method of manufacture

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6232786A (ja) * 1985-08-05 1987-02-12 Fujitsu Ltd 平均値予測形ベクトル量子化方式
DE69709835T2 (de) * 1996-05-28 2002-08-22 Matsushita Electric Ind Co Ltd Vorrichtung zur bildvorhersage und decodierung
JP3662171B2 (ja) * 2000-06-05 2005-06-22 三菱電機株式会社 符号化装置及び符号化方法
EP1453004A2 (en) * 2003-02-28 2004-09-01 NTT DoCoMo, Inc. Image encoding apparatus and method
US8625680B2 (en) * 2003-09-07 2014-01-07 Microsoft Corporation Bitstream-controlled post-processing filtering
KR100631768B1 (ko) * 2004-04-14 2006-10-09 삼성전자주식회사 비디오 코딩에서 프레임간 예측방법 및 비디오 인코더와,비디오 디코딩방법 및 비디오 디코더
WO2006058921A1 (en) * 2004-12-03 2006-06-08 Thomson Licensing Method for scalable video coding
US20070025441A1 (en) * 2005-07-28 2007-02-01 Nokia Corporation Method, module, device and system for rate control provision for video encoders capable of variable bit rate encoding
US20070274385A1 (en) * 2006-05-26 2007-11-29 Zhongli He Method of increasing coding efficiency and reducing power consumption by on-line scene change detection while encoding inter-frame
EP2106666B1 (en) 2007-01-08 2019-06-12 Nokia Technologies Oy Improved inter-layer prediction for extended spatial scalability in video coding
US8031267B2 (en) * 2007-02-12 2011-10-04 Intel Corporation Motion adaptive upsampling of chroma video signals
US20080240242A1 (en) * 2007-03-27 2008-10-02 Nokia Corporation Method and system for motion vector predictions
JP4325708B2 (ja) * 2007-07-05 2009-09-02 ソニー株式会社 データ処理装置、データ処理方法およびデータ処理プログラム、符号化装置、符号化方法および符号化プログラム、ならびに、復号装置、復号方法および復号プログラム
TWI392372B (zh) * 2007-09-12 2013-04-01 Sony Corp Image processing apparatus and image processing method
US8908765B2 (en) * 2007-11-15 2014-12-09 General Instrument Corporation Method and apparatus for performing motion estimation
US8542730B2 (en) * 2008-02-22 2013-09-24 Qualcomm, Incorporated Fast macroblock delta QP decision
US8897359B2 (en) * 2008-06-03 2014-11-25 Microsoft Corporation Adaptive quantization for enhancement layer video coding
WO2009157581A1 (ja) * 2008-06-27 2009-12-30 ソニー株式会社 画像処理装置及び画像処理方法
CN101617638B (zh) 2008-07-04 2011-08-31 中国科学院海洋研究所 一种三疣梭子蟹抗病品系的构建方法
US8514942B2 (en) * 2008-12-31 2013-08-20 Entropic Communications, Inc. Low-resolution video coding content extraction
US20100166073A1 (en) * 2008-12-31 2010-07-01 Advanced Micro Devices, Inc. Multiple-Candidate Motion Estimation With Advanced Spatial Filtering of Differential Motion Vectors
EP3668098A1 (en) * 2009-01-27 2020-06-17 InterDigital VC Holdings, Inc. Methods and apparatus for transform selection in video encoding and decoding
CN102577389A (zh) * 2009-10-16 2012-07-11 夏普株式会社 运动图像编码装置和运动图像解码装置
US8418387B2 (en) 2009-11-13 2013-04-16 Manufacturing Resources International, Inc. Isolated access assembly for back-to-back electronic display and static display
US20110274162A1 (en) * 2010-05-04 2011-11-10 Minhua Zhou Coding Unit Quantization Parameters in Video Coding
US8588297B2 (en) * 2009-12-23 2013-11-19 Oracle America, Inc. Quantization parameter prediction
KR101768207B1 (ko) * 2010-01-19 2017-08-16 삼성전자주식회사 축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치
WO2011096770A2 (ko) * 2010-02-02 2011-08-11 (주)휴맥스 영상 부호화/복호화 장치 및 방법
CN101917615A (zh) * 2010-06-03 2010-12-15 北京邮电大学 一种混合视频编码框架中的增强型双向运动矢量预测方法
EP4024865B1 (en) * 2010-06-10 2023-10-25 InterDigital VC Holdings, Inc. Methods and apparatus for determining quantization parameter predictors from a plurality of neighboring quantization parameters
CN101888550A (zh) * 2010-06-28 2010-11-17 中兴通讯股份有限公司 一种slice头信息中量化参数编码方法和装置
RS57809B1 (sr) * 2010-07-09 2018-12-31 Samsung Electronics Co Ltd Metod za dekodiranje video zapisa korišćenjem objedinjavanja blokova
US9137544B2 (en) * 2010-11-29 2015-09-15 Mediatek Inc. Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes
US10992958B2 (en) * 2010-12-29 2021-04-27 Qualcomm Incorporated Video coding using mapped transforms and scanning modes
US20120170648A1 (en) * 2011-01-05 2012-07-05 Qualcomm Incorporated Frame splitting in video coding
US10171813B2 (en) * 2011-02-24 2019-01-01 Qualcomm Incorporated Hierarchy of motion prediction video blocks
WO2012140821A1 (ja) * 2011-04-12 2012-10-18 パナソニック株式会社 動画像符号化方法、動画像符号化装置、動画像復号化方法、動画像復号化装置、および動画像符号化復号化装置
US10264276B2 (en) * 2011-06-14 2019-04-16 Samsung Electronics Co., Ltd. Method and apparatus for encoding motion information and method and apparatus for decoding same
WO2013003777A1 (en) * 2011-06-29 2013-01-03 General Instrument Corporation Methods and system for using a scan coding pattern during intra coding
KR20130050406A (ko) * 2011-11-07 2013-05-16 오수미 머지 모드에서의 움직임 정보 생성 방법

Also Published As

Publication number Publication date
ES2951910T3 (es) 2023-10-25
US20180152710A1 (en) 2018-05-31
KR20140074945A (ko) 2014-06-18
PL3829174T3 (pl) 2023-10-16
KR20140071433A (ko) 2014-06-11
TW201320766A (zh) 2013-05-16
CN108134934B (zh) 2020-10-20
KR20130050406A (ko) 2013-05-16
CN108347610A (zh) 2018-07-31
EP3829176B1 (en) 2023-06-07
EP2752006A4 (en) 2015-06-17
CN103096073B (zh) 2018-02-13
PL3829172T3 (pl) 2023-10-16
CN108134933B (zh) 2021-10-01
ES2951961T3 (es) 2023-10-26
PL3829175T3 (pl) 2023-10-16
JP6291613B2 (ja) 2018-03-14
JP2016029818A (ja) 2016-03-03
BR122020013719A8 (pt) 2022-10-04
PT3829172T (pt) 2023-06-07
EP3829175B1 (en) 2023-05-31
TWI537881B (zh) 2016-06-11
WO2013067938A1 (en) 2013-05-16
US20150071347A1 (en) 2015-03-12
KR20140074946A (ko) 2014-06-18
PT2752006T (pt) 2021-03-26
US9338459B2 (en) 2016-05-10
EP3829174A1 (en) 2021-06-02
JP2016029819A (ja) 2016-03-03
PT3829175T (pt) 2023-06-07
HUE062197T2 (hu) 2023-10-28
JP6140237B2 (ja) 2017-05-31
CN108282661A (zh) 2018-07-13
CN108347609A (zh) 2018-07-31
EP3829176A1 (en) 2021-06-02
US9338460B2 (en) 2016-05-10
US20140294087A1 (en) 2014-10-02
JP2016027754A (ja) 2016-02-18
DK2752006T3 (da) 2021-05-03
EP3829175A1 (en) 2021-06-02
LT2752006T (lt) 2021-04-12
US20160234497A1 (en) 2016-08-11
CN108134933A (zh) 2018-06-08
US10158857B2 (en) 2018-12-18
US20160234502A1 (en) 2016-08-11
US20190320182A1 (en) 2019-10-17
US11089307B2 (en) 2021-08-10
JP2014534758A (ja) 2014-12-18
BR122020013719B1 (pt) 2023-12-12
PL2752006T3 (pl) 2021-08-16
KR20140076583A (ko) 2014-06-20
DK3829175T3 (da) 2023-08-28
EP3829172A1 (en) 2021-06-02
BR122020013723A2 (pt) 2020-10-06
ES2859550T3 (es) 2021-10-04
KR101496961B1 (ko) 2015-03-02
JP6138885B2 (ja) 2017-05-31
US8917772B2 (en) 2014-12-23
CN108111853A (zh) 2018-06-01
HRP20210659T1 (hr) 2021-09-03
IN2014CN03913A (pt) 2015-10-16
CY1123872T1 (el) 2022-05-27
JP2016029820A (ja) 2016-03-03
BR122020013720A8 (pt) 2022-10-04
MX336814B (es) 2016-02-02
MX340481B (es) 2016-07-08
BR122020013723B1 (pt) 2023-12-12
BR122020013725A2 (pt) 2020-10-06
JP6138883B2 (ja) 2017-05-31
CN108111853B (zh) 2021-06-18
CN108347609B (zh) 2021-05-11
ES2951960T3 (es) 2023-10-26
HUE054509T2 (hu) 2021-09-28
BR112014007871B1 (pt) 2022-05-10
CN108134934A (zh) 2018-06-08
PT3829176T (pt) 2023-07-18
DK3829176T3 (da) 2023-09-04
MX2014004003A (es) 2014-08-08
JP2017163584A (ja) 2017-09-14
US20150071348A1 (en) 2015-03-12
JP6138884B2 (ja) 2017-05-31
BR122020013720A2 (pt) 2020-10-06
CN108347610B (zh) 2020-10-20
EP2752006A1 (en) 2014-07-09
US10362312B2 (en) 2019-07-23
ES2951959T3 (es) 2023-10-26
CN103096073A (zh) 2013-05-08
EP3829172B1 (en) 2023-05-31
HUE062196T2 (hu) 2023-10-28
MX336815B (es) 2016-02-02
HUE062027T2 (hu) 2023-09-28
HUE062049T2 (hu) 2023-09-28
EP2752006B1 (en) 2021-02-17
BR122020013719A2 (pt) 2020-10-06
CN108282661B (zh) 2021-01-15
MX345047B (es) 2017-01-16
US9912953B2 (en) 2018-03-06
PT3829174T (pt) 2023-06-07
EP4224855A1 (en) 2023-08-09
RS61740B1 (sr) 2021-05-31
JP5823628B2 (ja) 2015-11-25
MX336816B (es) 2016-02-02
BR122020013725B1 (pt) 2023-12-12
BR122020013723A8 (pt) 2022-10-04
BR112014007871A2 (pt) 2017-04-18
EP3829174B1 (en) 2023-05-31
DK3829174T3 (da) 2023-08-28
BR122020013725A8 (pt) 2022-10-04
PL3829176T3 (pl) 2023-10-23
DK3829172T3 (da) 2023-08-28
SI2752006T1 (sl) 2021-04-30

Similar Documents

Publication Publication Date Title
JP6680925B2 (ja) マージモードにおける映像復号化方法
BR122020013720B1 (pt) Método de construção de lista de candidatos à mesclagem
KR101484058B1 (ko) 영상 복호화 방법
BR122015027425B1 (pt) Método de decodificação de dados de vídeo em uma predição unidirecional
KR20140076581A (ko) 영상 복호화 장치

Legal Events

Date Code Title Description
B07A Application suspended after technical examination (opinion) [chapter 7.1 patent gazette]
B25A Requested transfer of rights approved

Owner name: GENSQUARE LLC (KR)

B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 07/11/2012, OBSERVADAS AS CONDICOES LEGAIS. PATENTE CONCEDIDA CONFORME ADI 5.529/DF, QUE DETERMINA A ALTERACAO DO PRAZO DE CONCESSAO.