BR112014007871B1 - Método de construção de lista de candidatos à mesclagem - Google Patents

Método de construção de lista de candidatos à mesclagem Download PDF

Info

Publication number
BR112014007871B1
BR112014007871B1 BR112014007871-8A BR112014007871A BR112014007871B1 BR 112014007871 B1 BR112014007871 B1 BR 112014007871B1 BR 112014007871 A BR112014007871 A BR 112014007871A BR 112014007871 B1 BR112014007871 B1 BR 112014007871B1
Authority
BR
Brazil
Prior art keywords
block
candidate
spatial
unit
merge candidate
Prior art date
Application number
BR112014007871-8A
Other languages
English (en)
Other versions
BR112014007871A2 (pt
Inventor
Soo Mi Oh
Moonock Yang
Original Assignee
Infobridge Pte. Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=48208141&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=BR112014007871(B1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Infobridge Pte. Ltd. filed Critical Infobridge Pte. Ltd.
Priority to BR122020013719-3A priority Critical patent/BR122020013719B1/pt
Priority to BR122020013720-7A priority patent/BR122020013720B1/pt
Priority to BR122020013723-1A priority patent/BR122020013723B1/pt
Priority to BR122020013725-8A priority patent/BR122020013725B1/pt
Publication of BR112014007871A2 publication Critical patent/BR112014007871A2/pt
Publication of BR112014007871B1 publication Critical patent/BR112014007871B1/pt

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/198Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including smoothing of a sequence of encoding parameters, e.g. by averaging, by choice of the maximum, minimum or median value
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Electrotherapy Devices (AREA)
  • Control Of Motors That Do Not Use Commutators (AREA)
  • Transition And Organic Metals Composition Catalysts For Addition Polymerization (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Nonmetallic Welding Materials (AREA)

Abstract

MÉTODO DE CONSTRUÇÃO DE LISTA DE INTERCALAÇÃO A presente invenção se refere à disponibilidade de métodos de verificação de candidatos de intercalação espacial e de um candidato de intercalação temporal, à construção de uma lista candidata de intercalação mediante o uso de candidatos de intercalação espacial e temporária, à adição de um ou mais candidatos se o número de candidatos de intercalação espacial e temporal disponíveis é menor que um número predeterminado. O candidato de intercalação espacial é a informação de movimento de um bloco candidato de intercalação espacial, o bloco candidato de intercalação espacial é um bloco à esquerda, um bloco acima, um bloco acima à direita, um bloco abaixo à esquerda ou um bloco acima à esquerda do bloco corrente, e se o bloco corrente é uma segunda unidade de predição particionada por particionamento assimétrico, o candidato de intercalação espacial correspondente a uma primeira unidade de predição particionada pelo particionamento é definido como não disponível. Sendo assim, a eficiência da codificação da informação de movimento é aperfeiçoada ao se remover os candidatos de intercalação não disponíveis e ao se adicionar novos candidatos de intercalação a partir da lista de intercalação.

Description

CAMPO DA TÉCNICA
[001] A presente invenção refere-se a um método de construção de lista de mes- clagem, e, mais particularmente, a um método de derivação de candidatos à mes- clagem espacial com base em um tamanho e em um índice de partição de uma unidade de predição e de derivação de um candidato à mesclagem temporal.
FUNDAMENTOS DA INVENÇÃO
[002] Os métodos para a compressão de dados de vídeo incluem o padrão MPEG- 2, o padrão MPEG-4 e o padrão H.264/MPEG-4 AVC. De acordo com estes métodos, uma imagem é dividida em macroblocos para a codificação de uma imagem, os respectivos macroblocos são codificados por meio da geração de um bloco de predição usando uma interpredição ou uma intrapredição. A diferença entre um bloco original e o bloco de predição é transformada de modo a gerar um bloco de transformada, e o bloco de transformada é quantizado usando um parâmetro de quantiza- ção e um dentre uma pluralidade de matrizes de quantização predeterminadas. O coeficiente quantizado do bloco quantizado é digitalizado por um tipo de digitalização predeterminado e, em seguida, codificado por entropia. Os parâmetros de quantiza- ção são ajustados por macrobloco e codificados usando um parâmetro de quantiza- ção anterior.
[003] No padrão H.264/MPEG-4 AVC, é usada uma estimativa de movimento no sentido de eliminar a redundância temporal entre quadros consecutivos. A fim de detectar a redundância temporal, uma ou mais imagens de referência são usadas no sentido de estimar o movimento de um bloco atual, e uma compensação de movimento é realizada de modo a gerar um bloco de predição usando as informações de movimento. A informação de movimento inclui um ou mais índices de imagem de referência e um ou mais vetores de movimento. O vetor de movimento da informa- ção de movimento é codificado preditivamente usando vetores de movimento vizinhos, e os índices de imagem de referência são codificados sem índices de imagem de referência vizinhos.
[004] No entanto, quando vários tamanhos são usados para uma interpredição, a relação entre a informação de movimento de um bloco atual e a informação de movimento de um ou mais blocos vizinhos aumenta. Além disso, quando um movimento de um bloco atual é semelhante ou igual ao de um dos blocos vizinhos, torna-se mais eficaz codificar preditivamente a informação de movimento usando a informação de movimento dos blocos vizinhos.
SUMÁRIO DA INVENÇÃO Problema da Técnica
[005] A presente invenção se refere a um método de derivação de candidatos à mesclagem espacial com base em um tamanho e em um índice de partição de uma unidade de predição e à derivação de um candidato à mesclagem temporal a fim de construir uma lista de mesclagem.
Solução da Técnica
[006] Um aspecto da presente invenção provê um método de construção de uma lista de candidatos à mesclagem, compreendendo as etapas de: verificar a disponibilidade de candidatos à mesclagem espacial; verificar a disponibilidade de um candidato à mesclagem temporal; construir a lista de candidatos à mesclagem usando os candidatos à mesclagem espacial e temporal disponíveis, e adicionar um ou mais candidatos quando o número de candidatos à mesclagem espacial e temporal disponíveis é menor que um número predeterminado. O candidato à mesclagem espacial é a informação de movimento de um bloco candidato à mesclagem espacial, o bloco candidato à mesclagem espacial é um bloco à esquerda, um bloco acima, um bloco acima à direita, um bloco abaixo à esquerda ou um bloco acima à esquerda do bloco atual, e quando o bloco atual é uma segunda unidade de predição particionada por particionamento assimétrico, o candidato à mesclagem espacial correspondente a uma primeira unidade de predição particionada pelo particionamento assimétrico é definido como indisponível.
Efeitos Vantajosos
[007] Um método de acordo com a presente invenção verifica a disponibilidade de candidatos à mesclagem espacial e temporal e constrói a lista de candidatos à mes- clagem usando os candidatos à mesclagem espacial e temporal disponíveis, e adiciona um ou mais candidatos quando o número de candidatos à mesclagem espacial e temporal disponíveis é menor que um número predeterminado. O candidato à mesclagem espacial é a informação de movimento de um bloco candidato à mescla- gem espacial, o bloco candidato à mesclagem espacial é um bloco à esquerda, um bloco acima, um bloco acima à direita, um bloco abaixo à esquerda ou um bloco acima à esquerda do bloco atual, e, quando o bloco atual é uma segunda unidade de predição particionada por particionamento assimétrico, o candidato à mesclagem espacial correspondente a uma primeira unidade de predição particionada pelo par- ticionamento assimétrico é definido como indisponível. Além disso, a eficiência de codificação de um bloco residual é aperfeiçoada ao se ajustar adaptativamente um parâmetro de quantização por uma unidade de quantização e ao gerar um preditor de parâmetro de quantização usando múltiplos parâmetros de quantização vizinhos.
DESCRIÇÃO DOS DESENHOS
[008] A Figura 1 é um diagrama em bloco de um aparelho de codificação de imagem de acordo com a presente invenção.
[009] A Figura 2 é um fluxograma que ilustra um procedimento de codificação de dados de vídeo de acordo com a presente invenção.
[010] A Figura 3 é um fluxograma que ilustra um método de codificação de informação de movimento no modo de mesclagem de acordo com a presente invenção.
[011] A Figura 4 é um diagrama conceitual que ilustra as posições dos blocos candidatos à mesclagem espacial de acordo com a presente invenção.
[012] A Figura 5 é um diagrama em bloco conceitual ilustrando as posições de blocos candidatos à mesclagem espacial de acordo com a presente invenção.
[013] A Figura 6 é um outro diagrama em bloco conceitual ilustrando as posições de blocos candidatos à mesclagem espacial de acordo com a presente invenção.
[014] A Figura 7 é um outro diagrama em bloco conceitual ilustrando as posições de blocos candidatos à mesclagem espacial de acordo com a presente invenção.
[015] A Figura 8 é um outro diagrama em bloco conceitual ilustrando as posições de blocos candidatos à mesclagem espacial de acordo com a presente invenção.
[016] A Figura 9 é um diagrama conceitual que ilustra a posição de um bloco candidato à mesclagem temporal de acordo com a presente invenção.
[017] A Figura 10 é um diagrama em bloco de um aparelho de decodificação de imagem de acordo com a presente invenção.
[018] A Figura 11 é um fluxograma que ilustra um método de decodificação de uma imagem em um modo de interpredição de acordo com a presente invenção.
[019] A Figura 12 é um fluxograma que ilustra um método de derivação de informação de movimento em um modo de mesclagem.
[020] A Figura 13 é um fluxograma ilustrando um procedimento de geração de um bloco residual em um modo de interpredição de acordo com a presente invenção.
[021] A Figura 14 é um fluxograma que ilustra um método de derivação de um parâmetro de quantização de acordo com a presente invenção.
DESCRIÇÃO DAS MODALIDADES DA INVENÇÃO
[022] Daqui em diante, várias modalidades da presente invenção serão descritas em detalhe com referência aos desenhos em anexo. No entanto, a presente invenção não se limita às modalidades exemplares descritas abaixo, e pode ser implementada de diversas maneiras. Sendo assim, muitas outras modificações e variações da presente invenção são possíveis, e deve ser entendido que, dentro do âmbi- to de aplicação do conceito descrito, a presente invenção pode ser praticada de outras maneiras diferentes das que se encontram especificamente descritas no presente documento.
[023] Um aparelho de codificação de imagem e um aparelho de decodificação de imagem de acordo com a presente invenção podem ser um terminal de usuário, tal como um computador pessoal, um terminal móvel pessoal, um leitor de multimídia móvel, um smartfone ou de um terminal de comunicação sem fio. O dispositivo de codificação de imagem e o dispositivo de decodificação de imagem podem incluir uma unidade de comunicação que se comunica com vários dispositivos, uma memória para o armazenamento de vários programas, e dados usados para codificar ou decodificar imagens.
[024] A Figura 1 é um diagrama em bloco de um aparelho de codificação de imagem 100 de acordo com a presente invenção.
[025] Com referência à Figura 1, o aparelho de codificação de imagem 100 de acordo com a presente invenção inclui uma unidade de divisão de imagem 110, uma unidade de intrapredição 120, uma unidade de interpredição 130, uma unidade de transformada 140, uma unidade de quantização 150, uma unidade de digitalização 160, um aparelho de codificação por entropia 170, uma unidade de quantização / transformada inversa 180, uma unidade de pós-processamento 190 e uma unidade de armazenamento de imagem 195.
[026] A unidade de divisão de imagem 110 divide uma imagem ou uma fatia em uma pluralidade de unidades de codificação maiores (LCU) e divide cada unidade LCU em uma ou mais unidades de codificação.
[027] O tamanho da unidade LCU pode ser de 32x32, 64x64 ou 128x128. A unidade de divisão de imagem 110 determina o modo de predição e o modo de partici- onamento de cada unidade de codificação.
[028] Uma unidade LCU inclui uma ou mais unidades de codificação. A unidade LCU tem uma estrutura de árvore quadrática recursiva para especificar uma estrutura de divisão da unidade LCU. Parâmetros para a especificação do tamanho máximo e do tamanho mínimo da unidade de codificação são incluídos em um conjunto de parâmetros de sequência. A estrutura de divisão é especificada por meio de uma ou mais sinalizações de unidade de codificação divididas (split_cu_flags). O tamanho de uma unidade de codificação é de 2Nx2N. Quando o tamanho da unidade LCU é 64x64 e o tamanho de uma unidade de codificação menor (SCU) é 8x8, o tamanho da unidade de codificação poderá ser de 64x64, 32x32, 16x16 ou 8x8.
[029] A unidade de codificação inclui uma ou mais unidades de predição. Na intra- predição, o tamanho da unidade de predição é 2Nx2N ou NxN. Na interpredição, o tamanho da unidade de predição é especificado pelo modo de particionamento. O modo de particionamento é um dentre 2Nx2N, 2NxN, Nx2N e NxN quando a unidade de codificação é particionada simetricamente. O modo de particionamento é um dentre 2NxnU, 2NxnD, nLx2N e nRx2N quando a unidade de codificação é particionada simetricamente. Os modos de particionamento são permitidos com base no tamanho da unidade de codificação de modo a reduzir a complexidade de um hardware. Quando a unidade de codificação tem um tamanho mínimo, o particionamento assimétrico não poderá ser permitido. Além disso, quando a unidade de codificação tem o tamanho mínimo, NxN, o modo de particionamento não poderá ser permitido.
[030] Uma unidade de codificação inclui uma ou mais unidades de transformada. A unidade de transformada tem uma estrutura de árvore quadrática recursiva para a especificação de uma estrutura de divisão da unidade de codificação. A estrutura de divisão é especificada por uma ou mais sinalizações de unidade de transformada divididas (split_tu_flags). Parâmetros para a especificação do tamanho máximo e do tamanho mínimo da unidade de transformada são incluídos em um conjunto de parâmetros de sequência.
[031] A unidade de intrapredição 120 determina um modo de intrapredição de uma unidade de predição atual e gera um bloco de predição usando o modo de intrapre- dição.
[032] A unidade de interpredição 130 determina a informação de movimento de uma unidade de predição atual usando uma ou mais imagens de referência armazenadas na unidade de armazenamento de imagem 195, e gera um bloco de predição da unidade de predição. A informação de movimento inclui um ou mais índices de imagem de referência e um ou mais vetores de movimento.
[033] A unidade de transformada 140 transforma um bloco residual no sentido de gerar um bloco transformado. O bloco residual tem o mesmo tamanho da unidade de transformada. Quando a unidade de predição é maior que a unidade de transformada, os sinais residuais entre o bloco atual e o bloco de predição são particionadas em múltiplos blocos residuais.
[034] A unidade de quantização 150 determina um parâmetro de quantização de modo a quantizar o bloco transformado. O parâmetro de quantização é um tamanho de etapa de quantização. O parâmetro de quantização é determinado pela unidade de quantização. O tamanho da unidade de quantização pode variar e ser um dentre os tamanhos permissíveis da unidade de codificação. Quando o tamanho da unidade de codificação é igual ao ou maior que o tamanho mínimo da unidade de quanti- zação, a unidade de codificação se torna a unidade de quantização. Uma pluralidade de unidades de codificação pode ser incluída em uma unidade de quantização de um tamanho mínimo. O tamanho mínimo da unidade de quantização é determinado por imagem, e um parâmetro para a especificação do tamanho mínimo da unidade de quantização é incluído em um conjunto de parâmetros de imagem
[035] A unidade de quantização 150 gera um preditor de parâmetro de quantiza- ção e gera um parâmetro de quantização diferencial ao se subtrair o preditor de parâmetro de quantização do parâmetro de quantização. O parâmetro de quantização diferencial é codificado por entropia.
[036] O preditor de parâmetro de quantização é gerado usando os parâmetros de quantização das unidades de codificação vizinhas e um parâmetro de quantização da unidade de codificação anterior, tal como se segue.
[037] Um parâmetro de quantização à esquerda, um parâmetro de quantização acima e um parâmetro de quantização anterior são sequencialmente recuperados nesta ordem. Uma média dos dois primeiros parâmetros de quantização disponíveis recuperados nessa ordem é definida como o preditor de parâmetro de quantização quando dois ou mais parâmetros de quantização se encontram disponíveis, e quando apenas um parâmetro de quantização se encontra disponível, o parâmetro de quantização disponível é definido como o preditor de parâmetro de quantização. Ou seja, quando os parâmetros de quantização à esquerda e acima se encontram disponíveis, uma média dos parâmetros de quantização à esquerda e acima é definida como o preditor de parâmetro de quantização. Quando apenas um dos parâmetros de quantização à esquerda e acima se encontra disponível, uma média do parâmetro de quantização e dos parâmetros de quantização anteriores disponíveis é definida como o preditor de parâmetro de quantização. Quando ambos os parâmetros de quantização à esquerda e acima não se encontram disponíveis, o parâmetro de quantização anterior é definido como o preditor de parâmetro de quantização. A média é arredondada.
[038] O parâmetro de quantização diferencial é convertido em binários para o valor absoluto do parâmetro de quantização diferencial e em um binário para o sinal de indicação do parâmetro de quantização diferencial através de um processo de bina- rização, e os binários são codificados aritmeticamente. Quando o valor absoluto do parâmetro de quantização diferencial é 0, o binário para o sinal de indicação poderá ser omitido. Um unário truncado é usado para binarização do absoluto.
[039] A unidade de quantização 150 quantiza o bloco transformado usando uma matriz de quantização e o parâmetro de quantização de modo a gerar um bloco quantizado. O bloco quantizado é provido para a unidade de quantização / transformada inversa 180 e para a unidade de digitalização 160.
[040] A unidade de digitalização 160 determina e se aplica a um padrão de digitalização para o bloco quantizado.
[041] Na interpredição, uma varredura diagonal é usada como o padrão de digitalização quando uma codificação CABAC é usada para uma codificação por entropia. Os coeficientes quantizados do bloco quantizado são divididos em componentes de coeficiente. Os componentes de coeficiente são as sinalizações significativas, os sinais de coeficientes e os níveis de coeficiente. A varredura diagonal é aplicada a cada um dos componentes de coeficiente. O coeficiente significativo indica se o coeficiente quantizado correspondente é zero ou não. O sinal de coeficiente indica um sinal de coeficiente quantizado diferente de zero, e o nível de coeficiente indica um valor absoluto do coeficiente quantizado diferente de zero.
[042] Quando o tamanho da unidade de transformada é maior que um tamanho predeterminado, o bloco quantizado é dividido em múltiplos subconjuntos e a varredura diagonal é aplicada a cada um dos subconjuntos. As sinalizações significativas, os sinais de coeficientes e os níveis de coeficiente de cada subconjunto são digitalizados, respectivamente, de acordo com a varredura diagonal. O tamanho predeterminado é de 4x4. O subconjunto é um bloco 4x4 contendo 16 coeficientes de transformada.
[043] O padrão de digitalização para digitalizar os subconjuntos é o mesmo que o padrão de digitalização para digitalizar os componentes de coeficiente. As sinalizações significativas, os sinais de coeficiente e os níveis de coeficiente de cada subconjunto são digitalizados na direção inversa. Os subconjuntos são também digitalizados na direção inversa.
[044] Um parâmetro que indica a última posição de coeficiente diferente de zero é codificado e transmitido para um lado de decodificação. O parâmetro que indica a última posição de coeficiente diferente de zero especifica uma posição do último coeficiente quantizado diferente de zero dentro do bloco quantizado. Uma sinalização de subconjunto diferente de zero é definida para cada subconjunto diferente do primeiro subconjunto e do último subconjunto e é transmitida para o lado de decodi- ficação. O primeiro subconjunto inclui um coeficiente DC. O último subgrupo abrange o último coeficiente diferente de zero. A sinalização de subconjunto diferente de zero indica se o subconjunto contém coeficientes diferentes de zero ou não.
[045] A unidade de codificação por entropia 170 codifica por entropia o componente digitalizado por meio da unidade de digitalização 160, a informação de intrapredi- ção recebida da unidade de intrapredição 120, a informação de movimento recebida da unidade de interpredição 130, e assim por diante.
[046] A unidade de quantização / transformada inversa 180 quantiza inversamente os coeficientes quantizados do bloco quantizado, e transforma inversamente o bloco quantizado inverso de modo a gerar um bloco residual.
[047] A unidade de pós-processamento 190 realiza um processo de filtragem de desbloqueio para a remoção do artefato de bloqueio gerado em uma imagem reconstruída.
[048] A unidade de armazenamento de imagem 195 recebe uma imagem pós- processada a partir da unidade de pós-processamento 190, e armazena a imagem em unidades de imagem. Uma imagem pode ser um quadro ou um campo.
[049] A Figura 2 é um fluxograma que ilustra um método de codificação de dados de vídeo em um modo de interpredição de acordo com a presente invenção.
[050] A informação de movimento de um bloco atual é determinada (S110). O bloco atual é uma unidade de predição. Um tamanho do bloco atual é determinado por um tamanho e um modo de particionamento da unidade de codificação.
[051] A informação de movimento varia de acordo com um tipo de predição. Quando o tipo de predição é uma predição unidirecional, a informação de movimento inclui um índice de referência, especificando uma imagem de uma lista de referência 0, e um vetor de movimento. Quando o tipo de predição é uma predição bidirecional, a informação de movimento inclui dois índices de referência especificando uma imagem de uma lista de referência 0 e uma imagem de uma lista de referência 1, e uma lista de vetor de movimento 0 e uma lista de vetor de movimento 1.
[052] Um bloco de predição do bloco atual é gerado usando a informação de movimento (S120). Quando o vetor de movimento indica uma posição de pixel, o bloco de predição é gerado por meio da cópia de um bloco da imagem de referência especificada pelo vetor de movimento. Quando o vetor de movimento indica uma posição de sub-pixel, o bloco de predição é gerado por meio da interpolação dos pixels da imagem de referência.
[053] Um bloco residual é gerado usando o bloco atual e o bloco de predição (S130). O bloco residual tem o mesmo tamanho da unidade de transformada. Quando a unidade de predição é maior que a unidade de transformada, os sinais residuais entre o bloco atual e o bloco de predição vão para os múltiplos blocos residuais.
[054] O bloco residual é codificado (S140). O bloco residual é codificado pela unidade de transformada 140, pela unidade de quantização 150, pela unidade de digitalização 160 e pela unidade de codificação por entropia 170 da Figura 1.
[055] A informação de movimento é codificada (S150). A informação de movimento pode ser codificada preditivamente usando candidatos espaciais e um candidato temporal do bloco atual. A informação de movimento é codificada em um modo de salto, em um modo de mesclagem ou em um modo AMVP. No modo de salto, a unidade de predição tem o tamanho da unidade de codificação e a informação de movimento é codificada usando o mesmo método do modo de mesclagem. No modo de mesclagem, a informação de movimento da unidade de predição atual é igual à informação de movimento de um candidato. No modo AMVP, o vetor de movimento da informação de movimento é codificado preditivamente usando um ou mais candida- tos de vetor de movimento.
[056] A Figura 3 é um fluxograma que ilustra um método de codificação de informação de movimento no modo de mesclagem de acordo com a presente invenção.
[057] Os candidatos à mesclagem espacial são derivados (S210). A Figura 4 é um diagrama conceitual que ilustra as posições dos blocos candidatos à mesclagem espacial de acordo com a presente invenção.
[058] Tal como mostrado na Figura 4, o bloco candidato à mesclagem é um bloco à esquerda (bloco A), um bloco acima (bloco B), um bloco acima à direita (bloco C), um bloco abaixo à esquerda (bloco D) ou um bloco acima à esquerda (bloco E) do bloco atual. Os blocos são blocos de predição. O bloco acima à esquerda (bloco E) é definido como um bloco candidato à mesclagem quando um ou mais dentre os blocos A, B, C e D se encontram não disponíveis. A informação de movimento de um bloco candidato à mesclagem disponível N é definida como um candidato à mescla- gem espacial N. N é A, B, C, D ou E.
[059] O candidato à mesclagem espacial pode ser definido como indisponível de acordo com a forma do bloco atual e a posição do bloco atual. Por exemplo, quando a unidade de codificação é dividida em duas unidades de predição (bloco P0 e bloco PI) usando um particionamento assimétrico, é provável que a informação de movimento do bloco P0 não seja igual à informação de movimento do bloco PI. Portanto, quando o bloco atual é o bloco assimétrico PI, o bloco P0 é definido como o bloco candidato indisponível, tal como mostrado nas Figuras 5 a 8.
[060] A Figura 5 é um diagrama em bloco conceitual ilustrando as posições dos blocos candidatos à mesclagem espacial de acordo com a presente invenção.
[061] Tal como mostrado na Figura 5, uma unidade de codificação é particionada em dois blocos de predição assimétricos P0 e PI, e o modo de particionamento é um modo nLx2N. O tamanho do bloco P0 é hNx2N P0 e o tamanho do bloco PI é (2- h)Nx2N. O valor de h é 1/2. O bloco atual é o bloco PI. Os blocos A, B, C, D e E são blocos candidatos à mesclagem espacial. O bloco P0 é o bloco candidato à mescla- gem espacial A.
[062] Na presente invenção, o candidato à mesclagem espacial A é definido como indisponível para ser listado na lista de candidatos à mesclagem. Além disso, os blocos candidatos à mesclagem espacial B, C, D ou E com a mesma informação de movimento do bloco candidato à mesclagem espacial A são definidos como não disponíveis.
[063] A Figura 6 é um outro diagrama em bloco conceitual ilustrando as posições dos blocos candidatos à mesclagem espacial de acordo com a presente invenção.
[064] Tal como mostrado na Figura 6, uma unidade de codificação é particionada em dois blocos de predição assimétricos P0 e PI e o modo de particionamento é um modo nRx2N. O tamanho do bloco P0 é (2-h)Nx2N e o tamanho do bloco PI é hNx2N. O valor de h é 1/2. O bloco atual é o bloco PI. Os blocos A, B, C, D e E são blocos candidatos à mesclagem espacial. O bloco P0 é o bloco candidato à mescla- gem espacial A.
[065] Na presente invenção, o candidato à mesclagem espacial A é definido como indisponível para ser listado na lista de candidatos à mesclagem. Além disso, o bloco candidato à mesclagem espacial B, C, D ou E com a mesma informação de movimento do bloco candidato à mesclagem espacial A é definido como indisponível.
[066] A Figura 7 é um outro diagrama em bloco conceitual ilustrando as posições dos blocos candidatos à mesclagem espacial de acordo com a presente invenção.
[067] Tal como mostrado na Figura 7, uma unidade de codificação é particionado em dois blocos de predição assimétricos P0 e PI e o modo de particionamento é um modo 2NxnU. O tamanho do bloco P0 é 2NxhN e o tamanho do bloco PI é 2NX(2- h)N. O valor de h é de 1/2. O bloco atual é o bloco PI. Os blocos A, B, C, D e E são blocos candidatos à mesclagem espacial. O bloco P0 é o bloco candidato à mescla- gem espacial B.
[068] Na presente invenção, o candidato à mesclagem espacial B é definido como indisponível para ser listado na lista de candidatos à mesclagem. Além disso, os blocos candidatos à mesclagem espacial C, D ou E com a mesma informação de movimento do bloco candidato à mesclagem espacial B são definidos como não disponíveis.
[069] A Figura 8 é um outro diagrama em bloco conceitual ilustrando as posições dos blocos candidatos à mesclagem espacial de acordo com a presente invenção.
[070] Tal como mostrado na Figura 8, uma unidade de codificação é particionada em dois blocos de predição assimétricos P0 e PI e o modo de particionamento é um modo 2NxnD. O tamanho do bloco P0 é 2NX (2-h)N e o tamanho do bloco PI é 2NxhN. O valor de h é 1/2. O bloco atual é o bloco PI. Os blocos A, B, C, D e E são blocos candidatos à mesclagem espacial. O bloco P0 é o bloco candidato à mescla- gem espacial B.
[071] Na presente invenção, o candidato à mesclagem espacial B é definido como indisponível para ser listado na lista de candidatos à mesclagem. Além disso, os blocos candidatos à mesclagem espacial C, D ou E com a mesma informação de movimento do bloco candidato à mesclagem espacial B são definidos como não disponíveis.
[072] O candidato à mesclagem espacial pode também ser definido como indisponível com base na área de mesclagem. Quando o bloco atual e o bloco candidato à mesclagem espacial pertencem à mesma área de mesclagem, o bloco candidato à mesclagem espacial é definido como indisponível. A área de mesclagem é uma unidade de área na qual a estimativa de movimento é realizada e as informações que especificam a área de mesclagem são incluídas em um fluxo de bits.
[073] Um candidato à mesclagem temporal é derivado (S220). O candidato à mes- clagem temporal inclui um índice de imagem de referência e um vetor de movimento do candidato à mesclagem temporal.
[074] O índice de imagem de referência do candidato à mesclagem temporal pode ser derivado usando um ou mais índices de imagem de referência do bloco vizinho. Por exemplo, um dos índices de imagem de referência de um bloco vizinho à esquerda, um bloco vizinho acima e de um bloco vizinho no canto é definido como o índice de imagem de referência do candidato à mesclagem temporal. O bloco vizinho no canto é um dentre um bloco vizinho acima à direita, um bloco vizinho abaixo à esquerda e um bloco vizinho acima à esquerda. Em alternativa, o índice de imagem de referência do candidato à mesclagem temporal pode ser definido para zero a fim de reduzir a complexidade.
[075] O vetor de movimento do candidato à mesclagem temporal pode ser derivado da seguinte maneira.
[076] Em primeiro lugar, uma imagem candidata à mesclagem temporal é determinada. A imagem candidata à mesclagem temporal inclui um bloco candidato à mes- clagem temporal. Uma imagem candidata à mesclagem temporal é usada dentro de uma fatia. Um índice de imagem de referência da imagem candidata à mesclagem temporal pode ser definido para zero.
[077] Quando a fatia atual é uma fatia P, uma das imagens de referência da lista de imagem de referência 0 é definida como a imagem candidata à mesclagem temporal. Quando a fatia atual é uma fatia B, uma das imagens de referência das listas de imagem de referência 0 e 1 é definida como a imagem candidata à mesclagem temporal. Um indicador de lista que especifica se a imagem candidata à mesclagem temporal pertence às listas de imagem de referência 0 ou 1 é incluído em um cabeçalho de fatia quando a fatia atual é uma fatia B. O índice de imagem de referência que especifica a imagem candidata à mesclagem temporal pode ser incluído no cabeçalho de fatia.
[078] Em seguida, o bloco candidato à mesclagem temporal é determinado. O bloco candidato à mesclagem temporal pode ser um primeiro bloco candidato ou um segundo bloco candidato. Quando o primeiro bloco candidato se encontra disponível, o primeiro bloco candidato é definido como o bloco candidato à mesclagem temporal. Quando o primeiro bloco candidato não se encontra disponível, o segundo bloco candidato é definido como o bloco candidato à mesclagem temporal. Quando o segundo bloco candidato se encontra indisponível, o bloco candidato à mesclagem temporal é definido como indisponível.
[079] A Figura 9 é um diagrama conceitual que ilustra a posição do bloco candidato à mesclagem temporal de acordo com a presente invenção. Tal como mostrado na Figura 9, o primeiro bloco candidato à mesclagem pode ser um bloco no canto abaixo à direita (bloco H) do bloco C. O bloco C tem o mesmo tamanho e mesma localização do bloco atual e está localizado dentro da imagem candidata à mescla- gem temporal. O segundo bloco candidato à mesclagem é um bloco que cobre um pixel superior à esquerda do centro do bloco C.
[080] Quando o bloco candidato à mesclagem temporal é determinado, o vetor de movimento do bloco candidato à mesclagem temporal é definido como o vetor de movimento do candidato à mesclagem temporal.
[081] A lista de candidatos à mesclagem é construída (S230). Os candidatos espaciais disponíveis e o candidato temporal disponível são listados em uma ordem predeterminada. Os candidatos à mesclagem espacial são listados até quatro na ordem de A, B, C, D e E. O candidato à mesclagem temporal pode ser listado entre B e C ou após os candidatos espaciais.
[082] É determinado se um ou mais candidatos à mesclagem são gerados ou não (S240). A determinação é feita através da comparação do número de candidatos à mesclagem listados na lista de candidatos à mesclagem com um número predeterminado dos candidatos à mesclagem. O número predeterminado pode ser determinado por imagem ou fatia.
[083] Quando o número de candidatos à mesclagem listados na lista de candida- tos à mesclagem é menor que um número predeterminado dos candidatos à mes- clagem, um ou mais candidatos à mesclagem são gerados (S250). O candidato à mesclagem gerado é listado após o último candidato à mesclagem disponível.
[084] Quando o número de candidatos à mesclagem disponíveis é igual a ou maior que 2, um dos dois candidatos à mesclagem disponíveis tem a informação de movimento da lista 0 e o outro tem a informação de movimento da lista 1, e o candidato à mesclagem poderá ser gerado ao se combinar a informação de movimento da lista 0 e a informação de movimento da lista 1. Vários candidatos à mesclagem podem ser gerados se houver várias combinações.
[085] Um ou mais candidatos à mesclagem zero podem ser adicionado à lista. Quando o tipo de fatia é P, o candidato à mesclagem zero terá apenas a informação de movimento da lista 0. Quando o tipo de fatia é B, o candidato à mesclagem zero terá a informação de movimento da lista 0 e a informação de movimento da lista 1.
[086] Um preditor de mesclagem é selecionado entre os candidatos à mesclagem da lista de mesclagem, um índice de mesclagem que especifica o preditor de mes- clagem é codificado (S260).
[087] A Figura 10 é um diagrama em bloco de um aparelho de decodificação de imagem 200 de acordo com a presente invenção.
[088] O aparelho de decodificação de imagem 200 de acordo com a presente invenção inclui uma unidade de decodificação por entropia 210, uma unidade de digitalização inversa 220, uma unidade de quantização inversa 230, uma unidade de transformada inversa 240, uma unidade de intrapredição 250, uma unidade de inter- predição 260, uma unidade de pós-processamento 270, uma unidade de armazenamento de imagem 280 e um adicionador 290.
[089] A unidade de decodificação por entropia 210 extrai as informações de intra- predição, as informações de interpredição e os componentes de coeficiente quanti- zado a partir de um fluxo de bits recebido usando um método de decodificação arit- mética binária adaptativa ao contexto.
[090] A unidade de digitalização inversa 220 aplica um padrão de digitalização inversa aos componentes de coeficiente quantizado de modo a gerar um bloco quanti- zado. Na interpredição, o padrão de digitalização inversa é uma varredura diagonal. Os componentes de coeficiente quantizado incluem as sinalizações significativas, os sinais de coeficiente e os níveis de coeficiente.
[091] Quando o tamanho da unidade de transformada é maior que um tamanho predeterminado, as sinalizações significativas, os sinais de coeficiente e os níveis de coeficiente são inversamente digitalizados na unidade de subconjunto usando a varredura diagonal no sentido de gerar subconjuntos, e os subconjuntos são inversamente digitalizados usando a varredura diagonal no sentido de gerar o bloco quanti- zado. O tamanho predeterminado é igual ao tamanho do subconjunto. O subconjunto é um bloco 4x4 incluindo 16 coeficientes de transformada. As sinalizações significativas, os sinais de coeficiente e os níveis de coeficiente são inversamente digitalizados na direção inversa. Os subconjuntos são também inversamente digitalizados na direção inversa.
[092] Um parâmetro que indica a última posição de coeficiente diferente de zero e as sinalizações de subconjunto diferentes de zero é extraído do fluxo de bits. O número de subconjuntos codificados é determinado com base na última posição de coeficiente diferente de zero. A sinalização de subconjunto diferente de zero é usada para determinar se o subconjunto correspondente tem pelo menos um coeficiente diferente de zero. Quando a sinalização de subconjunto diferente de zero é igual a 1, o subconjunto é gerado usando a varredura diagonal. O primeiro subconjunto e o último subconjunto são gerados usando o padrão de digitalização inversa.
[093] A unidade de quantização inversa 230 recebe o parâmetro de quantização diferencial da unidade de decodificação por entropia 210 e gera o preditor de parâmetro de quantização de modo a gerar o parâmetro de quantização da unidade de codificação. A operação de geração do preditor de parâmetro de quantização é a mesma que a operação da unidade de quantização 150 da Figura 1. Em seguida, o parâmetro de quantização da unidade de codificação atual é gerado ao se adicionar o parâmetro de quantização diferencial e o preditor de parâmetro de quantização. Quando o parâmetro de quantização diferencial não é transmitido a partir de um lado de codificação, o parâmetro de quantização diferencial é definido como zero.
[094] A unidade de quantização inversa 230 quantiza inversamente o bloco quan- tizado. A unidade de transformada inversa 240 transforma inversamente o bloco quantizado inverso de modo a gerar um bloco residual. Uma matriz de transformada inversa é determinada adaptativamente de acordo com o modo de predição e o tamanho da unidade de transformada. A matriz de transformada inversa é uma matriz de transformada de inteiro com base na transformada DCT ou uma matriz de transformada de inteiro com base na transformada DST. Na interpredição, as transformadas de inteiro com base na transformada DCT são usadas.
[095] A unidade de predição 250 deriva um modo de intrapredição da unidade de predição atual usando as informações de intrapredição recebidas, e gera um bloco de predição de acordo com o modo de intrapredição derivado.
[096] A unidade de interpredição 260 deriva da informação de movimento da unidade de predição atual usando a informação de interpredição recebida, e gera um bloco de predição usando a informação de movimento.
[097] A unidade de pós-processamento 270 opera da mesma forma que a unidade de pós-processamento 180 da Figura 1.
[098] A unidade de armazenamento de imagem 280 recebe uma imagem pós- processada a partir da unidade de pós-processamento 270, e armazena a imagem em unidades de imagem. A imagem pode ser um quadro ou um campo.
[099] O adicionador 290 adiciona o bloco residual restaurado e um bloco de predição de modo a gerar um bloco reconstruído.
[0100] A Figura 11 é um fluxograma que ilustra um método de decodificação de uma imagem no modo de interpredição de acordo com a presente invenção.
[0101] Informações de movimento de um bloco atual são derivadas (S310). O bloco atual é uma unidade de predição. Um tamanho do bloco atual é determinado pelo tamanho da unidade de codificação e pelo modo de particionamento.
[0102] A informação de movimento varia de acordo com um tipo de predição. Quando o tipo de predição é uma predição unidirecional, a informação de movimento incluirá um índice de referência que especifica uma imagem de uma lista de referência 0, e um vetor de movimento. Quando o tipo de predição é uma predição bidirecional, a informação de movimento incluirá um índice de referência que especifica a imagem de uma lista de referência 0, um índice de referência que especifica uma imagem de uma lista de referência 1, e um vetor de movimento da lista 0 e um vetor de movimento da lista 1.
[0103] A informação de movimento é decodificada adaptativamente de acordo com o modo de codificação da informação de movimento. O modo de codificação da informação de movimento é determinado por uma sinalização de salto e uma sinalização de mesclagem. Quando a sinalização de salto é igual a 1, a sinalização de mes- clagem não existe e o modo de codificação é um modo de salto. Quando a sinalização de salto é igual a 0 e a sinalização de mesclagem é igual a 1, o modo de codificação será um modo de mesclagem. Quando a sinalização de salto e a sinalização de mesclagem são iguais a 0, o modo de codificação será um modo AMVP.
[0104] Um bloco de predição do bloco atual é gerado usando a informação de movimento (S320).
[0105] Quando o vetor de movimento indica uma posição de pixel, o bloco de predição é gerado ao se copiar um bloco da imagem de referência especificada pelo vetor de movimento.
[0106] Quando o vetor de movimento indica uma posição de sub-pixel, o bloco de predição é gerado ao se interpolar os pixels da imagem de referência.
[0107] Um bloco residual é gerado (S330). O bloco residual é gerado pela unidade de decodificação por entropia 210, pela unidade de digitalização inversa 220, pela unidade de quantização inversa 230 e pela unidade de transformada inversa da Figura 10.
[0108] Um bloco reconstruído é gerado usando o bloco de predição e o bloco residual (S340).
[0109] O bloco de predição tem o mesmo tamanho da unidade de predição, e o bloco residual tem o mesmo tamanho da unidade de transformada. Portanto, os sinais residuais e os sinais de predição do mesmo tamanho são adicionados de modo a gerar os sinais reconstruídos.
[0110] A Figura 12 é um fluxograma que ilustra um método de derivação de informação de movimento em modo de mesclagem.
[0111] Um índice de mesclagem é extraído a partir de um fluxo de bits (S410). Quando o índice de mesclagem não existe, o número de candidatos à mesclagem é definido como um.
[0112] Os candidatos à mesclagem espacial são derivados (S420). Os candidatos à mesclagem espacial disponíveis são os mesmos que os descritos na etapa S210 da Figura 3.
[0113] Um candidato à mesclagem temporal é derivado (S430). O candidato à mes- clagem temporal inclui um índice de imagem de referência e um vetor de movimento do candidato à mesclagem temporal. O índice de referência e o vetor de movimento do candidato à mesclagem temporal são os mesmos que os descritos na etapa S220 da Figura 3.
[0114] A lista de candidatos à mesclagem é construída (S440). A lista de mescla- gem é a mesma que a descrita na etapa S230 da Figura 3.
[0115] É determinado se um ou mais candidatos à mesclagem são gerados ou não (S450). A determinação é feita ao se comparar o número de candidatos à mescla- gem listados na lista de candidatos à mesclagem com um número predeterminado dos candidatos à mesclagem. O número predeterminado é determinado por imagem ou fatia.
[0116] Quando o número de candidatos à mesclagem listados na lista de candidatos à mesclagem é menor que um número predeterminado de candidatos à mescla- gem, um ou mais candidatos à mesclagem são gerados (S460). O candidato à mes- clagem gerado é listado após o último candidato à mesclagem disponível. O candidato à mesclagem é gerado tal como o mesmo método descrito na etapa S250 da Figura 3.
[0117] O candidato à mesclagem especificado pelo índice de mesclagem é definido como a informação de movimento do bloco atual (S470).
[0118] A Figura 13 é um fluxograma ilustrando um procedimento de geração de um bloco residual no modo de interpredição de acordo com a presente invenção.
[0119] Os componentes de coeficiente quantizado são gerados pela unidade de de- codificação por entropia (S510).
[0120] Um bloco quantizado é gerado ao se digitalizar inversamente os componentes de coeficiente quantizado de acordo com a varredura diagonal (S520). Os componentes de coeficiente quantizado incluem as sinalizações significativas, os sinais de coeficiente e os níveis de coeficiente.
[0121] Quando o tamanho da unidade de transformada é maior que um tamanho predeterminado, as sinalizações significativas, as sinalizações de coeficiente e os níveis de coeficiente são digitalizados inversamente na unidade de subconjunto usando a varredura diagonal de modo a gerar subconjuntos, e os subconjuntos são digitalizados inversamente usando a varredura diagonal de modo a gerar o bloco quantizado. O tamanho predeterminado é igual ao tamanho do subconjunto. O subconjunto é um bloco 4x4 incluindo 16 coeficientes de transformada. As sinalizações significativas, os sinais de coeficiente e os níveis de coeficiente são inversamente digitalizados na direção inversa. Os subconjuntos são também inversamente digitalizados na direção inversa.
[0122] O parâmetro que indica a última posição de coeficiente diferente de zero e as sinalizações de subconjunto diferentes de zero é extraído do fluxo de bits. O número de subconjuntos codificados é determinado com base na última posição de coeficiente diferente de zero. A sinalização de subconjunto diferente de zero é usada para determinar se o subconjunto correspondente tem pelo menos um coeficiente diferente de zero. Quando a sinalização de subconjunto diferente de zero é igual a 1, o subconjunto é gerado usando a varredura diagonal. O primeiro subconjunto e o último subconjunto são gerados usando o padrão de digitalização inversa.
[0123] O bloco quantizado é inversamente quantizado usando uma matriz de quan- tização inversa e um parâmetro de quantização (S530).
[0124] A Figura 14 é um fluxograma que ilustra um método de derivação de um parâmetro de quantização de acordo com a presente invenção.
[0125] Um tamanho mínimo da unidade de quantização é determinado (S531). Um parâmetro cu_qp_delta_enabled_info que especifica o tamanho mínimo é extraído a partir de um fluxo de bits, e o tamanho mínimo da unidade de quantização é determinado pela seguinte equação.
[0126] Log2 (MinQUSize) = Log2 (MaxCUSize) -cu_qp_delta_enabled_info
[0127] O MinQUSize indica o tamanho mínimo da unidade de quantização, o MaxCUSize indica o tamanho da unidade LCU. O parâmetro cu_qp_delta_enabled_info é extraído de um conjunto de parâmetros de imagem.
[0128] Um parâmetro de quantização diferencial da unidade de codificação atual é derivado (S532). O parâmetro de quantização diferencial é incluído por unidade de quantização. Portanto, quando o tamanho da unidade de codificação atual é igual ou maior que o tamanho mínimo, o parâmetro de quantização diferencial para a unida de de codificação atual é restabelecido. Quando o parâmetro de quantização diferencial não existe, o parâmetro de quantização diferencial é definido como zero. Quando múltiplas unidades de codificação pertencem a uma unidade de quantiza- ção, a primeira unidade de codificação contendo pelo menos um coeficiente diferente de zero na ordem de decodificação conterá a unidade de quantização diferencial.
[0129] Um parâmetro de quantização diferencial codificado é aritmeticamente decodificado de modo a gerar uma cadeia binária indicando o valor absoluto do parâmetro de quantização diferencial e um binário indicando o sinal do parâmetro de quantização diferencial. A cadeia binária pode ser um código unário truncado. Quando o valor absoluto do parâmetro de quantização diferencial é zero, o binário que indica o sinal não existe. O parâmetro de quantização diferencial é derivado usando a cadeia binária que indica o valor absoluto e o binário que indica o sinal.
[0130] Um preditor de parâmetro de quantização da unidade de codificação atual é derivado (S533). O preditor de parâmetro de quantização é gerado usando os parâmetros de quantização das unidades de codificação vizinhas e o parâmetro de quan- tização da unidade de codificação anterior da seguinte maneira.
[0131] Um parâmetro de quantização à esquerda, um parâmetro de quantização acima e um parâmetro de quantização anterior são sequencialmente recuperados nesta ordem. Uma média dos dois primeiros parâmetros de quantização disponíveis recuperados nessa ordem é definida como o preditor de parâmetro de quantização quando dois ou mais parâmetros de quantização se encontram disponíveis, e quando apenas um parâmetro de quantização se encontra disponível, o parâmetro de quantização disponível é definida como o preditor de parâmetro de quantização. Ou seja, quando os parâmetros de quantização à esquerda e acima se encontram disponíveis, a média dos parâmetros de quantização à esquerda e acima é definida como o preditor de parâmetro de quantização. Quando apenas um dentre os parâ-metro de quantização à esquerda e acima se encontra disponível, a média do parâ- metro de quantização disponível e do parâmetro de quantização anterior é definida como o preditor de parâmetro de quantização. Quando ambos os parâmetros de quantização à esquerda e acima não se encontram disponíveis, o parâmetro de quantização anterior será definido como o preditor de parâmetro de quantização.
[0132] Quando múltiplas unidades de codificação pertencem a uma unidade de quantização de tamanho mínimo, o preditor de parâmetro de quantização para a primeira unidade de codificação na ordem de decodificação será derivado e usado para as demais unidades de codificação.
[0133] O parâmetro de quantização da unidade de codificação atual é gerado usando o parâmetro de quantização diferencial e o preditor de parâmetro de quantização (S534).
[0134] Um bloco residual é gerado ao se transformar inversamente o bloco quanti- zado inverso (S540). Transformadas baseadas em uma transformada DCT inversa horizontal e vertical unidimensional são usadas.
[0135] Embora a presente invenção tenha sido mostrada e descrita com referência a certas modalidades exemplares da mesma, deverá ser entendido pelos versados na técnica que várias alterações na forma e detalhes poderão ser feitas sem se afastar do espírito e do âmbito de aplicação da presente invenção, tal como definida pelas reivindicações em apenso.

Claims (7)

1. Método de construção de uma lista de candidatos à mesclagem, CARACTERIZADO por compreender: verificar disponibilidade de um candidato à mesclagem espacial, em que o candidato à mesclagem espacial correspondendo a uma primeira unidade de predição particionada por uma partição assimétrica é definido como indisponível se um bloco atual é uma segunda unidade de predição particionada pela partição assimétrica, em que se o tamanho da unidade de predição atual é (3/2)Nx2N, o candidato à mesclagem espacial à esquerda é definido como indisponível; derivar o candidato à mesclagem temporal; construir a lista de candidatos à mesclagem usando os candidatos à mes- clagem espacial e temporal disponíveis; e adicionar um ou mais candidatos se o número de candidatos à mesclagem espacial e temporal disponíveis é menor que um número predeterminado, em que o candidato à mesclagem espacial é a informação de movimento de um bloco candidato à mesclagem espacial, e em que o bloco candidato à mesclagem espacial é um bloco à esquerda, um bloco acima, um bloco acima à direita, um bloco abaixo à esquerda ou um bloco acima à esquerda do bloco atual.
2. Método de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o candidato à mesclagem espacial à esquerda é informação de movimento do bloco à esquerda do bloco atual.
3. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que se um candidato à mesclagem espacial acima tem a mesma informação de movimento do candidato à mesclagem espacial à esquerda, o candidato à mesclagem espacial acima é definido como indisponível.
4. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o tamanho da unidade de predição atual é determinado com base em um modo de particionamento e em um tamanho da unidade de codificação, em que o tamanho da unidade de predição atual é um dentre 2Nx2N, 2NxN, Nx2N e NxN quando o modo de particionamento é um modo simétrico, em que o tamanho da unidade de predição atual é um dentre 2NxnU, 2NxnD, nLx2N e nRx2N quando o modo de particionamento é um modo assimétrico, e em que o modo de particionamento não é o modo assimétrico quando o tamanho ou a unidade de codificação é um tamanho mínimo.
5. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que se a unidade de codificação tem um tamanho mínimo permitido, o particiona- mento assimétrico não é permitido.
6. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a informação do bloco acima à esquerda é definida como o bloco candidato à mesclagem quando pelo menos um dentre o bloco à esquerda, o bloco acima, o bloco acima à direita, e o bloco abaixo à esquerda é definido como indisponível.
7. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que um vetor de movimento do candidato à mesclagem temporal é um vetor de movimento de um bloco candidato à mesclagem temporal dentro de uma imagem candidata à mesclagem temporal, e em que o bloco candidato à mesclagem temporal é um bloco de canto abaixo à direita de um bloco tendo o mesmo tamanho e a mesma localização do bloco atual quando o bloco de canto abaixo à direita está disponível.
BR112014007871-8A 2011-11-07 2012-11-07 Método de construção de lista de candidatos à mesclagem BR112014007871B1 (pt)

Priority Applications (4)

Application Number Priority Date Filing Date Title
BR122020013719-3A BR122020013719B1 (pt) 2011-11-07 2012-11-07 Método de construção de lista de candidatos à mesclagem
BR122020013720-7A BR122020013720B1 (pt) 2011-11-07 2012-11-07 Método de construção de lista de candidatos à mesclagem
BR122020013723-1A BR122020013723B1 (pt) 2011-11-07 2012-11-07 Método de construção de lista de candidatos à mesclagem
BR122020013725-8A BR122020013725B1 (pt) 2011-11-07 2012-11-07 Método de construção de lista de candidatos à mesclagem

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020110115219A KR20130050406A (ko) 2011-11-07 2011-11-07 머지 모드에서의 움직임 정보 생성 방법
KR10-2011-0115219 2011-11-07
PCT/CN2012/084240 WO2013067938A1 (en) 2011-11-07 2012-11-07 Method of constructing merge list

Publications (2)

Publication Number Publication Date
BR112014007871A2 BR112014007871A2 (pt) 2017-04-18
BR112014007871B1 true BR112014007871B1 (pt) 2022-05-10

Family

ID=48208141

Family Applications (5)

Application Number Title Priority Date Filing Date
BR112014007871-8A BR112014007871B1 (pt) 2011-11-07 2012-11-07 Método de construção de lista de candidatos à mesclagem
BR122020013720-7A BR122020013720B1 (pt) 2011-11-07 2012-11-07 Método de construção de lista de candidatos à mesclagem
BR122020013719-3A BR122020013719B1 (pt) 2011-11-07 2012-11-07 Método de construção de lista de candidatos à mesclagem
BR122020013723-1A BR122020013723B1 (pt) 2011-11-07 2012-11-07 Método de construção de lista de candidatos à mesclagem
BR122020013725-8A BR122020013725B1 (pt) 2011-11-07 2012-11-07 Método de construção de lista de candidatos à mesclagem

Family Applications After (4)

Application Number Title Priority Date Filing Date
BR122020013720-7A BR122020013720B1 (pt) 2011-11-07 2012-11-07 Método de construção de lista de candidatos à mesclagem
BR122020013719-3A BR122020013719B1 (pt) 2011-11-07 2012-11-07 Método de construção de lista de candidatos à mesclagem
BR122020013723-1A BR122020013723B1 (pt) 2011-11-07 2012-11-07 Método de construção de lista de candidatos à mesclagem
BR122020013725-8A BR122020013725B1 (pt) 2011-11-07 2012-11-07 Método de construção de lista de candidatos à mesclagem

Country Status (20)

Country Link
US (7) US8917772B2 (pt)
EP (6) EP2752006B1 (pt)
JP (6) JP5823628B2 (pt)
KR (5) KR20130050406A (pt)
CN (7) CN103096073B (pt)
BR (5) BR112014007871B1 (pt)
CY (1) CY1123872T1 (pt)
DK (5) DK3829172T3 (pt)
ES (5) ES2951960T3 (pt)
HR (1) HRP20210659T1 (pt)
HU (5) HUE062196T2 (pt)
IN (1) IN2014CN03913A (pt)
LT (1) LT2752006T (pt)
MX (6) MX336816B (pt)
PL (5) PL3829172T3 (pt)
PT (5) PT3829172T (pt)
RS (1) RS61740B1 (pt)
SI (1) SI2752006T1 (pt)
TW (1) TWI537881B (pt)
WO (1) WO2013067938A1 (pt)

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2723076A4 (en) * 2011-06-14 2015-03-04 Samsung Electronics Co Ltd METHOD AND APPARATUS FOR ENCODING MOVEMENT INFORMATION, AND METHOD AND APPARATUS FOR DECODING THE SAME
KR20130050406A (ko) 2011-11-07 2013-05-16 오수미 머지 모드에서의 움직임 정보 생성 방법
CN109996082B (zh) * 2011-11-08 2022-01-25 韩国电子通信研究院 用于共享候选者列表的方法和装置
EP2597872A3 (en) 2011-11-23 2013-12-25 Humax Co., Ltd. Methods for encoding/decoding of video using common merging candidate set of asymmetric partitions
JP5561348B2 (ja) * 2011-12-16 2014-07-30 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法、及び動画像復号プログラム、並びに、受信装置、受信方法、及び受信プログラム
JP5900308B2 (ja) * 2011-12-16 2016-04-06 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム
DK2802146T3 (en) 2011-12-16 2019-04-15 Jvc Kenwood Corp DYNAMIC PICTURE DECODING DEVICE, DYNAMIC PICTURE DECODING PROCEDURE AND DYNAMIC PICTURE DECODING PROGRAM
CN102883163B (zh) * 2012-10-08 2014-05-28 华为技术有限公司 用于运动矢量预测的运动矢量列表建立的方法、装置
CN104159106B (zh) * 2013-05-14 2017-12-01 联发科技股份有限公司 视频编码方法和视频解码方法及其装置
US9832478B2 (en) 2013-05-14 2017-11-28 Mediatek Inc. Video encoding method and apparatus for determining size of parallel motion estimation region based on encoding related information and related video decoding method and apparatus
US10158885B2 (en) 2013-07-24 2018-12-18 Qualcomm Incorporated Simplified advanced motion prediction for 3D-HEVC
US9948915B2 (en) 2013-07-24 2018-04-17 Qualcomm Incorporated Sub-PU motion prediction for texture and depth coding
US9554150B2 (en) * 2013-09-20 2017-01-24 Qualcomm Incorporated Combined bi-predictive merging candidates for 3D video coding
KR20160045121A (ko) * 2013-10-17 2016-04-26 니폰 덴신 덴와 가부시끼가이샤 영상 부호화 장치 및 방법, 및 영상 복호 장치 및 방법
CN104768012B (zh) * 2014-01-03 2018-04-20 华为技术有限公司 非对称运动分割方式编码的方法和编码设备
WO2015131387A1 (en) * 2014-03-07 2015-09-11 Qualcomm Incorporated Simplified sub-prediction unit (sub-pu) motion parameter inheritence (mpi)
WO2015180014A1 (en) * 2014-05-26 2015-12-03 Mediatek Singapore Pte. Ltd. An improved merge candidate list construction method for intra block copy
WO2016003074A1 (ko) * 2014-06-30 2016-01-07 한국전자통신연구원 움직임 병합 모드에서 시점 합성 예측 후보의 중복성 제거 장치 및 방법
KR102378459B1 (ko) 2014-06-30 2022-03-24 한국전자통신연구원 움직임 병합 모드에서 시점 합성 예측 후보의 중복성 제거 장치 및 방법
US10757437B2 (en) 2014-07-17 2020-08-25 Apple Inc. Motion estimation in block processing pipelines
US9762919B2 (en) 2014-08-28 2017-09-12 Apple Inc. Chroma cache architecture in block processing pipelines
US11477477B2 (en) * 2015-01-26 2022-10-18 Qualcomm Incorporated Sub-prediction unit based advanced temporal motion vector prediction
KR20180085714A (ko) 2015-12-17 2018-07-27 삼성전자주식회사 머지 후보 리스트를 이용한 비디오 복호화 방법 및 비디오 복호화 장치
KR20180104603A (ko) * 2016-02-11 2018-09-21 삼성전자주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
KR20180021941A (ko) * 2016-08-22 2018-03-06 광운대학교 산학협력단 부호화 유닛들의 병합을 사용하는 비디오 부호화 방법 및 장치, 그리고 비디오 복호화 방법 및 장치
WO2018066959A1 (ko) * 2016-10-04 2018-04-12 주식회사 케이티 비디오 신호 처리 방법 및 장치
EP3306927A1 (en) * 2016-10-05 2018-04-11 Thomson Licensing Encoding and decoding methods and corresponding devices
US11172203B2 (en) * 2017-08-08 2021-11-09 Mediatek Inc. Intra merge prediction
WO2019054838A1 (ko) * 2017-09-18 2019-03-21 인텔렉추얼디스커버리 주식회사 블록 분할에 따른 병합 후보 리스트를 사용하는 비디오 코딩 방법 및 장치
DE112018005899T5 (de) * 2017-12-18 2020-08-13 Arris Enterprises Llc System und Verfahren zum Konstruieren einer Ebene für planare Prädiktion
KR20190110044A (ko) * 2018-03-19 2019-09-27 주식회사 케이티 비디오 신호 처리 방법 및 장치
WO2019194653A1 (ko) * 2018-04-06 2019-10-10 가온미디어 주식회사 움직임 정보의 복합적 머지 모드 처리를 제공하는 영상 처리 방법, 그를 이용한 영상 복호화, 부호화 방법 및 그 장치
CN112166612A (zh) * 2018-05-23 2021-01-01 株式会社Kt 用于处理视频信号的方法和设备
CA3100970A1 (en) * 2018-05-24 2019-11-28 Kt Corporation Method and apparatus for processing video signal
JP7141463B2 (ja) 2018-06-27 2022-09-22 エルジー エレクトロニクス インコーポレイティド インター予測モードに基づいた映像処理方法およびそのための装置
SG11202012293RA (en) 2018-06-29 2021-01-28 Beijing Bytedance Network Technology Co Ltd Update of look up table: fifo, constrained fifo
EP3791585A1 (en) 2018-06-29 2021-03-17 Beijing Bytedance Network Technology Co. Ltd. Partial/full pruning when adding a hmvp candidate to merge/amvp
WO2020003284A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and amvp
JP7460617B2 (ja) 2018-06-29 2024-04-02 北京字節跳動網絡技術有限公司 Lut更新条件
JP7328330B2 (ja) 2018-06-29 2023-08-16 北京字節跳動網絡技術有限公司 Lutにおける動き候補のチェック順序
KR20210025537A (ko) 2018-06-29 2021-03-09 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 하나 또는 다수의 룩업 테이블들을 사용하여 이전에 코딩된 모션 정보를 순서대로 저장하고 이를 사용하여 후속 블록들을 코딩하는 개념
TWI719523B (zh) * 2018-06-29 2021-02-21 大陸商北京字節跳動網絡技術有限公司 哪個查找表需要更新或不更新
CN110662053B (zh) 2018-06-29 2022-03-25 北京字节跳动网络技术有限公司 使用查找表的视频处理方法、装置和存储介质
CN110677669B (zh) 2018-07-02 2021-12-07 北京字节跳动网络技术有限公司 具有lic的lut
WO2020017861A1 (ko) * 2018-07-16 2020-01-23 엘지전자 주식회사 서브블록 단위의 시간적 움직임 정보 예측을 위한 인터 예측 방법 및 그 장치
WO2020053800A1 (en) 2018-09-12 2020-03-19 Beijing Bytedance Network Technology Co., Ltd. How many hmvp candidates to be checked
WO2020056143A1 (en) * 2018-09-12 2020-03-19 Beijing Dajia Internet Information Technology Co., Ltd. Modifications of the construction of the merge candidate list
US20220038734A1 (en) * 2018-09-20 2022-02-03 Lg Electronics Inc. Method and device for processing image signal
CN113056913A (zh) * 2018-10-05 2021-06-29 Op方案有限责任公司 包括添加非相邻对角空间合并候选的构造合并候选列表的方法和系统
CN114584788B (zh) * 2018-10-10 2022-09-23 华为技术有限公司 帧间预测方法及装置
KR102648159B1 (ko) 2019-01-10 2024-03-18 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut 업데이트의 호출
CN113383554B (zh) 2019-01-13 2022-12-16 北京字节跳动网络技术有限公司 LUT和共享Merge列表之间的交互
WO2020147773A1 (en) 2019-01-16 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Inserting order of motion candidates in lut
CN113574878A (zh) * 2019-03-11 2021-10-29 株式会社 Xris 用于对视频信号进行编码/解码的方法及其设备
CN113615193A (zh) 2019-03-22 2021-11-05 北京字节跳动网络技术有限公司 Merge列表构建和其他工具之间的交互
EP4032297A4 (en) 2019-09-19 2022-11-23 Alibaba Group Holding Limited METHODS FOR CONSTRUCTING A LIST OF MERGER CANDIDATES
US11145614B2 (en) 2019-10-18 2021-10-12 Taiwan Semiconductor Manufacturing Company, Ltd. Semiconductor device and method of manufacture
WO2024106750A1 (ko) * 2022-11-18 2024-05-23 삼성전자 주식회사 비디오 코딩 방법 및 이를 위한 장치

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6232786A (ja) * 1985-08-05 1987-02-12 Fujitsu Ltd 平均値予測形ベクトル量子化方式
CN100361536C (zh) * 1996-05-28 2008-01-09 松下电器产业株式会社 图像预测编码/解码装置和方法以及记录媒体
JP3662171B2 (ja) * 2000-06-05 2005-06-22 三菱電機株式会社 符号化装置及び符号化方法
EP1453004A2 (en) * 2003-02-28 2004-09-01 NTT DoCoMo, Inc. Image encoding apparatus and method
US8625680B2 (en) * 2003-09-07 2014-01-07 Microsoft Corporation Bitstream-controlled post-processing filtering
KR100631768B1 (ko) 2004-04-14 2006-10-09 삼성전자주식회사 비디오 코딩에서 프레임간 예측방법 및 비디오 인코더와,비디오 디코딩방법 및 비디오 디코더
WO2006058921A1 (en) 2004-12-03 2006-06-08 Thomson Licensing Method for scalable video coding
US20070025441A1 (en) * 2005-07-28 2007-02-01 Nokia Corporation Method, module, device and system for rate control provision for video encoders capable of variable bit rate encoding
US20070274385A1 (en) * 2006-05-26 2007-11-29 Zhongli He Method of increasing coding efficiency and reducing power consumption by on-line scene change detection while encoding inter-frame
WO2008084423A1 (en) 2007-01-08 2008-07-17 Nokia Corporation Improved inter-layer prediction for extended spatial scalability in video coding
US8031267B2 (en) 2007-02-12 2011-10-04 Intel Corporation Motion adaptive upsampling of chroma video signals
US20080240242A1 (en) 2007-03-27 2008-10-02 Nokia Corporation Method and system for motion vector predictions
JP4325708B2 (ja) * 2007-07-05 2009-09-02 ソニー株式会社 データ処理装置、データ処理方法およびデータ処理プログラム、符号化装置、符号化方法および符号化プログラム、ならびに、復号装置、復号方法および復号プログラム
EP2187648A4 (en) * 2007-09-12 2012-07-11 Sony Corp IMAGE PROCESSING DEVICE AND IMAGE PROCESSING METHOD
US8908765B2 (en) * 2007-11-15 2014-12-09 General Instrument Corporation Method and apparatus for performing motion estimation
US8542730B2 (en) * 2008-02-22 2013-09-24 Qualcomm, Incorporated Fast macroblock delta QP decision
US8897359B2 (en) * 2008-06-03 2014-11-25 Microsoft Corporation Adaptive quantization for enhancement layer video coding
RU2479935C2 (ru) * 2008-06-27 2013-04-20 Сони Корпорейшн Устройство для обработки изображения и способ обработки изображения
CN101617638B (zh) 2008-07-04 2011-08-31 中国科学院海洋研究所 一种三疣梭子蟹抗病品系的构建方法
US20100166073A1 (en) * 2008-12-31 2010-07-01 Advanced Micro Devices, Inc. Multiple-Candidate Motion Estimation With Advanced Spatial Filtering of Differential Motion Vectors
US8514942B2 (en) * 2008-12-31 2013-08-20 Entropic Communications, Inc. Low-resolution video coding content extraction
KR101834825B1 (ko) * 2009-01-27 2018-03-06 톰슨 라이센싱 비디오 인코딩 및 디코딩에서 변환 선택을 위한 방법 및 장치
JPWO2011046008A1 (ja) 2009-10-16 2013-03-04 シャープ株式会社 動画像符号化装置、および、動画像復号装置
US8418387B2 (en) 2009-11-13 2013-04-16 Manufacturing Resources International, Inc. Isolated access assembly for back-to-back electronic display and static display
US20110274162A1 (en) * 2010-05-04 2011-11-10 Minhua Zhou Coding Unit Quantization Parameters in Video Coding
US8588297B2 (en) * 2009-12-23 2013-11-19 Oracle America, Inc. Quantization parameter prediction
KR101768207B1 (ko) * 2010-01-19 2017-08-16 삼성전자주식회사 축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치
US20120300850A1 (en) 2010-02-02 2012-11-29 Alex Chungku Yie Image encoding/decoding apparatus and method
CN101917615A (zh) * 2010-06-03 2010-12-15 北京邮电大学 一种混合视频编码框架中的增强型双向运动矢量预测方法
MY191461A (en) * 2010-06-10 2022-06-28 Thomson Licensing Methods and apparatus for determining quantization parameter predictors from a plurality of neighboring quantization parameters
CN101888550A (zh) * 2010-06-28 2010-11-17 中兴通讯股份有限公司 一种slice头信息中量化参数编码方法和装置
SI2924995T1 (sl) * 2010-07-09 2018-10-30 Samsung Electronics Co., Ltd. Postopek za dekodiranje videa z uporabo združevanja blokov
US9137544B2 (en) * 2010-11-29 2015-09-15 Mediatek Inc. Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes
US10992958B2 (en) * 2010-12-29 2021-04-27 Qualcomm Incorporated Video coding using mapped transforms and scanning modes
US20120170648A1 (en) * 2011-01-05 2012-07-05 Qualcomm Incorporated Frame splitting in video coding
US10171813B2 (en) * 2011-02-24 2019-01-01 Qualcomm Incorporated Hierarchy of motion prediction video blocks
JP5837575B2 (ja) * 2011-04-12 2015-12-24 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 動画像符号化方法、動画像符号化装置、動画像復号化方法、動画像復号化装置、および動画像符号化復号化装置
EP2723076A4 (en) * 2011-06-14 2015-03-04 Samsung Electronics Co Ltd METHOD AND APPARATUS FOR ENCODING MOVEMENT INFORMATION, AND METHOD AND APPARATUS FOR DECODING THE SAME
WO2013003791A1 (en) * 2011-06-29 2013-01-03 General Instrument Corporation Methods and system for using a scan coding pattern during inter coding
KR20130050406A (ko) * 2011-11-07 2013-05-16 오수미 머지 모드에서의 움직임 정보 생성 방법

Also Published As

Publication number Publication date
BR122020013719A2 (pt) 2020-10-06
ES2859550T3 (es) 2021-10-04
JP2016027754A (ja) 2016-02-18
PT3829174T (pt) 2023-06-07
CN108282661A (zh) 2018-07-13
CN108347610A (zh) 2018-07-31
EP3829176B1 (en) 2023-06-07
KR101496961B1 (ko) 2015-03-02
EP3829172A1 (en) 2021-06-02
MX340481B (es) 2016-07-08
KR20140071433A (ko) 2014-06-11
PL3829176T3 (pl) 2023-10-23
DK3829174T3 (da) 2023-08-28
US9338459B2 (en) 2016-05-10
CN108134934A (zh) 2018-06-08
US11089307B2 (en) 2021-08-10
EP2752006A4 (en) 2015-06-17
CN108134934B (zh) 2020-10-20
ES2951961T3 (es) 2023-10-26
EP3829174B1 (en) 2023-05-31
US20190320182A1 (en) 2019-10-17
US20180152710A1 (en) 2018-05-31
CN108111853B (zh) 2021-06-18
MX336815B (es) 2016-02-02
MX336816B (es) 2016-02-02
CN108347609B (zh) 2021-05-11
LT2752006T (lt) 2021-04-12
PT2752006T (pt) 2021-03-26
PT3829172T (pt) 2023-06-07
JP6140237B2 (ja) 2017-05-31
US10158857B2 (en) 2018-12-18
US20160234502A1 (en) 2016-08-11
KR20140074946A (ko) 2014-06-18
US8917772B2 (en) 2014-12-23
PL3829174T3 (pl) 2023-10-16
SI2752006T1 (sl) 2021-04-30
PL3829172T3 (pl) 2023-10-16
EP3829176A1 (en) 2021-06-02
HUE062049T2 (hu) 2023-09-28
MX336814B (es) 2016-02-02
ES2951960T3 (es) 2023-10-26
HRP20210659T1 (hr) 2021-09-03
IN2014CN03913A (pt) 2015-10-16
EP2752006B1 (en) 2021-02-17
JP5823628B2 (ja) 2015-11-25
BR112014007871A2 (pt) 2017-04-18
JP6138884B2 (ja) 2017-05-31
ES2951959T3 (es) 2023-10-26
US20150071348A1 (en) 2015-03-12
MX345047B (es) 2017-01-16
CN108347609A (zh) 2018-07-31
KR20140076583A (ko) 2014-06-20
EP3829175B1 (en) 2023-05-31
US9912953B2 (en) 2018-03-06
CN108347610B (zh) 2020-10-20
ES2951910T3 (es) 2023-10-25
CY1123872T1 (el) 2022-05-27
HUE062197T2 (hu) 2023-10-28
RS61740B1 (sr) 2021-05-31
CN103096073A (zh) 2013-05-08
JP2017163584A (ja) 2017-09-14
KR20140074945A (ko) 2014-06-18
PT3829176T (pt) 2023-07-18
BR122020013720B1 (pt) 2023-12-12
CN108111853A (zh) 2018-06-01
US10362312B2 (en) 2019-07-23
JP2016029818A (ja) 2016-03-03
CN108134933B (zh) 2021-10-01
BR122020013723A2 (pt) 2020-10-06
JP2016029819A (ja) 2016-03-03
HUE062027T2 (hu) 2023-09-28
PT3829175T (pt) 2023-06-07
BR122020013723A8 (pt) 2022-10-04
US20160234497A1 (en) 2016-08-11
US9338460B2 (en) 2016-05-10
DK3829172T3 (da) 2023-08-28
JP6138885B2 (ja) 2017-05-31
JP6138883B2 (ja) 2017-05-31
BR122020013725A8 (pt) 2022-10-04
EP2752006A1 (en) 2014-07-09
US20150071347A1 (en) 2015-03-12
PL3829175T3 (pl) 2023-10-16
EP3829172B1 (en) 2023-05-31
JP2014534758A (ja) 2014-12-18
TW201320766A (zh) 2013-05-16
DK3829175T3 (da) 2023-08-28
US20140294087A1 (en) 2014-10-02
WO2013067938A1 (en) 2013-05-16
DK2752006T3 (da) 2021-05-03
BR122020013719A8 (pt) 2022-10-04
BR122020013725A2 (pt) 2020-10-06
JP6291613B2 (ja) 2018-03-14
EP4224855A1 (en) 2023-08-09
HUE054509T2 (hu) 2021-09-28
KR20130050406A (ko) 2013-05-16
EP3829175A1 (en) 2021-06-02
BR122020013723B1 (pt) 2023-12-12
CN108282661B (zh) 2021-01-15
PL2752006T3 (pl) 2021-08-16
CN103096073B (zh) 2018-02-13
BR122020013719B1 (pt) 2023-12-12
TWI537881B (zh) 2016-06-11
CN108134933A (zh) 2018-06-08
EP3829174A1 (en) 2021-06-02
JP2016029820A (ja) 2016-03-03
HUE062196T2 (hu) 2023-10-28
BR122020013720A2 (pt) 2020-10-06
BR122020013720A8 (pt) 2022-10-04
DK3829176T3 (da) 2023-09-04
BR122020013725B1 (pt) 2023-12-12
MX2014004003A (es) 2014-08-08

Similar Documents

Publication Publication Date Title
BR112014007871B1 (pt) Método de construção de lista de candidatos à mesclagem
JP6680925B2 (ja) マージモードにおける映像復号化方法
BR112014007593B1 (pt) Método de decodificação de dados de vídeo em uma predição unidirecional
EP3907989A1 (en) Apparatus for decoding video data
BR112014007597B1 (pt) Aparelho de decodificação de dados de vídeo
BR122020014036B1 (pt) Método de quantizar inversamente um bloco quantizado
KR20140060579A (ko) 영상 복호화 방법

Legal Events

Date Code Title Description
B15K Others concerning applications: alteration of classification

Ipc: H04N 19/139 (2014.01), H04N 19/124 (2014.01), H04N

B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 07/11/2012, OBSERVADAS AS CONDICOES LEGAIS

B25A Requested transfer of rights approved

Owner name: GENSQUARE LLC (SG)