BR122020013720B1 - Método de construção de lista de candidatos à mesclagem - Google Patents
Método de construção de lista de candidatos à mesclagem Download PDFInfo
- Publication number
- BR122020013720B1 BR122020013720B1 BR122020013720-7A BR122020013720A BR122020013720B1 BR 122020013720 B1 BR122020013720 B1 BR 122020013720B1 BR 122020013720 A BR122020013720 A BR 122020013720A BR 122020013720 B1 BR122020013720 B1 BR 122020013720B1
- Authority
- BR
- Brazil
- Prior art keywords
- block
- quantization parameter
- candidate
- merge
- unit
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 230000002123 temporal effect Effects 0.000 claims abstract description 56
- 238000000638 solvent extraction Methods 0.000 claims abstract description 24
- 238000013139 quantization Methods 0.000 claims description 139
- 239000013598 vector Substances 0.000 claims description 28
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 21
- 239000011159 matrix material Substances 0.000 claims description 7
- 230000001131 transforming effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 16
- 238000012805 post-processing Methods 0.000 description 7
- 239000000203 mixture Substances 0.000 description 6
- 238000004891 communication Methods 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
- H04N19/126—Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/109—Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/174—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/196—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/196—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
- H04N19/198—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including smoothing of a sequence of encoding parameters, e.g. by averaging, by choice of the maximum, minimum or median value
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
Abstract
A presente invenção se refere à disponibilidade de métodos de verificação de candidatos à mesclagem espacial e de um candidato à mesclagem temporal, à construção de uma lista de candidatos à mesclagem mediante o uso de candidatos à mesclagem espacial e temporária, à adição de um ou mais candidatos se o número de candidatos à mesclagem espacial e temporal disponíveis é menor que um número predeterminado. O candidato à mesclagem espacial é a informação de movimento de um bloco candidato à mesclagem espacial, o bloco candidato à mesclagem espacial é um bloco à esquerda, um bloco acima, um bloco acima à direita, um bloco abaixo à esquerda ou um bloco acima à esquerda do bloco atual, e se o bloco atual é uma segunda unidade de predição particionada por particionamento assimétrico, o candidato à mesclagem espacial correspondente a uma primeira unidade de predição particionada pelo particionamento é definido como indisponível. Sendo assim, a eficiência da codificação da informação de movimento é aperfeiçoada ao se remover os candidatos à mesclagem não disponíveis e ao se adicionar novos candidatos à mesclagem a partir da lista de mesclagem.
Description
[001] A presente invenção refere-se a um método de construção de lista de mes- clagem, e, mais particularmente, a um método de derivação de candidatos à mescla- gem espacial com base em um tamanho e em um índice de partição de uma unidade de predição e de derivação de um candidato à mesclagem temporal.
[002] Os métodos para a compressão de dados de vídeo incluem o padrão MPEG- 2, o padrão MPEG-4 e o padrão H.264/MPEG-4 AVC. De acordo com estes métodos, uma imagem é dividida em macroblocos para a codificação de uma imagem, os respectivos macroblocos são codificados por meio da geração de um bloco de predição usando uma interpredição ou uma intrapredição. A diferença entre um bloco original e o bloco de predição é transformada de modo a gerar um bloco de transformada, e o bloco de transformada é quantizado usando um parâmetro de quantização e um dentre uma pluralidade de matrizes de quantização predeterminadas. O coeficiente quan- tizado do bloco quantizado é digitalizado por um tipo de digitalização predeterminado e, em seguida, codificado por entropia. Os parâmetros de quantização são ajustados por macrobloco e codificados usando um parâmetro de quantização anterior.
[003] No padrão H.264/MPEG-4 AVC, é usada uma estimativa de movimento no sentido de eliminar a redundância temporal entre quadros consecutivos. A fim de detectar a redundância temporal, uma ou mais imagens de referência são usadas no sentido de estimar o movimento de um bloco atual, e uma compensação de movimento é realizada de modo a gerar um bloco de predição usando as informações de movimento. A informação de movimento inclui um ou mais índices de imagem de re-ferência e um ou mais vetores de movimento. O vetor de movimento da informação de movimento é codificado preditivamente usando vetores de movimento vizinhos, e os índices de imagem de referência são codificados sem índices de imagem de referência vizinhos.
[004] No entanto, quando vários tamanhos são usados para uma interpredição, a relação entre a informação de movimento de um bloco atual e a informação de movimento de um ou mais blocos vizinhos aumenta. Além disso, quando um movimento de um bloco atual é semelhante ou igual ao de um dos blocos vizinhos, torna-se mais eficaz codificar preditivamente a informação de movimento usando a informação de movimento dos blocos vizinhos.
[005] A presente invenção se refere a um método de derivação de candidatos à mesclagem espacial com base em um tamanho e em um índice de partição de uma unidade de predição e à derivação de um candidato à mesclagem temporal a fim de construir uma lista de mesclagem.
[006] Um aspecto da presente invenção provê um método de construção de uma lista de candidatos à mesclagem, compreendendo as etapas de: verificar a disponibilidade de candidatos à mesclagem espacial; verificar a disponibilidade de um candidato à mesclagem temporal; construir a lista de candidatos à mesclagem usando os candidatos à mesclagem espacial e temporal disponíveis, e adicionar um ou mais can-didatos quando o número de candidatos à mesclagem espacial e temporal disponíveis é menor que um número predeterminado. O candidato à mesclagem espacial é a informação de movimento de um bloco candidato à mesclagem espacial, o bloco candidato à mesclagem espacial é um bloco à esquerda, um bloco acima, um bloco acima à direita, um bloco abaixo à esquerda ou um bloco acima à esquerda do bloco atual, e quando o bloco atual é uma segunda unidade de predição particionada por particio- namento assimétrico, o candidato à mesclagem espacial correspondente a uma primeira unidade de predição particionada pelo particionamento assimétrico é definido como indisponível.
[007] Um método de acordo com a presente invenção verifica a disponibilidade de candidatos à mesclagem espacial e temporal e constrói a lista de candidatos à mes- clagem usando os candidatos à mesclagem espacial e temporal disponíveis, e adiciona um ou mais candidatos quando o número de candidatos à mesclagem espacial e temporal disponíveis é menor que um número predeterminado. O candidato à mes- clagem espacial é a informação de movimento de um bloco candidato à mesclagem espacial, o bloco candidato à mesclagem espacial é um bloco à esquerda, um bloco acima, um bloco acima à direita, um bloco abaixo à esquerda ou um bloco acima à esquerda do bloco atual, e, quando o bloco atual é uma segunda unidade de predição particionada por particionamento assimétrico, o candidato à mesclagem espacial correspondente a uma primeira unidade de predição particionada pelo particionamento assimétrico é definido como indisponível. Além disso, a eficiência de codificação de um bloco residual é aperfeiçoada ao se ajustar adaptativamente um parâmetro de quantização por uma unidade de quantização e ao gerar um preditor de parâmetro de quantização usando múltiplos parâmetros de quantização vizinhos.
[008] A Figura 1 é um diagrama em bloco de um aparelho de codificação de imagem de acordo com a presente invenção.
[009] A Figura 2 é um fluxograma que ilustra um procedimento de codificação de dados de vídeo de acordo com a presente invenção.
[010] A Figura 3 é um fluxograma que ilustra um método de codificação de informação de movimento no modo de mesclagem de acordo com a presente invenção.
[011] A Figura 4 é um diagrama conceitual que ilustra as posições dos blocos candidatos à mesclagem espacial de acordo com a presente invenção.
[012] A Figura 5 é um diagrama em bloco conceitual ilustrando as posições de blocos candidatos à mesclagem espacial de acordo com a presente invenção.
[013] A Figura 6 é um outro diagrama em bloco conceitual ilustrando as posições de blocos candidatos à mesclagem espacial de acordo com a presente invenção.
[014] A Figura 7 é um outro diagrama em bloco conceitual ilustrando as posições de blocos candidatos à mesclagem espacial de acordo com a presente invenção.
[015] A Figura 8 é um outro diagrama em bloco conceitual ilustrando as posições de blocos candidatos à mesclagem espacial de acordo com a presente invenção.
[016] A Figura 9 é um diagrama conceitual que ilustra a posição de um bloco candidato à mesclagem temporal de acordo com a presente invenção.
[017] A Figura 10 é um diagrama em bloco de um aparelho de decodificação de imagem de acordo com a presente invenção.
[018] A Figura 11 é um fluxograma que ilustra um método de decodificação de uma imagem em um modo de interpredição de acordo com a presente invenção.
[019] A Figura 12 é um fluxograma que ilustra um método de derivação de informação de movimento em um modo de mesclagem.
[020] A Figura 13 é um fluxograma ilustrando um procedimento de geração de um bloco residual em um modo de interpredição de acordo com a presente invenção.
[021] A Figura 14 é um fluxograma que ilustra um método de derivação de um parâmetro de quantização de acordo com a presente invenção.
[022] Daqui em diante, várias modalidades da presente invenção serão descritas em detalhe com referência aos desenhos em anexo. No entanto, a presente invenção não se limita às modalidades exemplares descritas abaixo, e pode ser implementada de diversas maneiras. Sendo assim, muitas outras modificações e variações da presente invenção são possíveis, e deve ser entendido que, dentro do âmbito de aplicação do conceito descrito, a presente invenção pode ser praticada de outras maneiras diferentes das que se encontram especificamente descritas no presente documento.
[023] Um aparelho de codificação de imagem e um aparelho de decodificação de imagem de acordo com a presente invenção podem ser um terminal de usuário, tal como um computador pessoal, um terminal móvel pessoal, um leitor de multimídia móvel, um smartfone ou de um terminal de comunicação sem fio. O dispositivo de codificação de imagem e o dispositivo de decodificação de imagem podem incluir uma unidade de comunicação que se comunica com vários dispositivos, uma memória para o armazenamento de vários programas, e dados usados para codificar ou decodificar imagens.
[024] A Figura 1 é um diagrama em bloco de um aparelho de codificação de imagem 100 de acordo com a presente invenção.
[025] Com referência à Figura 1, o aparelho de codificação de imagem 100 de acordo com a presente invenção inclui uma unidade de divisão de imagem 110, uma unidade de intrapredição 120, uma unidade de interpredição 130, uma unidade de transformada 140, uma unidade de quantização 150, uma unidade de digitalização 160, um aparelho de codificação por entropia 170, uma unidade de quantização / transformada inversa 180, uma unidade de pós-processamento 190 e uma unidade de armazenamento de imagem 195.
[026] A unidade de divisão de imagem 110 divide uma imagem ou uma fatia em uma pluralidade de unidades de codificação maiores (LCU) e divide cada unidade LCU em uma ou mais unidades de codificação.
[027] O tamanho da unidade LCU pode ser de 32x32, 64x64 ou 128x128. A unidade de divisão de imagem 110 determina o modo de predição e o modo de particionamento de cada unidade de codificação.
[028] Uma unidade LCU inclui uma ou mais unidades de codificação. A unidade LCU tem uma estrutura de árvore quadrática recursiva para especificar uma estrutura de divisão da unidade LCU. Parâmetros para a especificação do tamanho máximo e do tamanho mínimo da unidade de codificação são incluídos em um conjunto de parâmetros de sequência. A estrutura de divisão é especificada por meio de uma ou mais sinalizações de unidade de codificação divididas (split_cu_flags). O tamanho de uma unidade de codificação é de 2Nx2N. Quando o tamanho da unidade LCU é 64x64 e o tamanho de uma unidade de codificação menor (SCU) é 8x8, o tamanho da unidade de codificação poderá ser de 64x64, 32x32, 16x16 ou 8x8.
[029] A unidade de codificação inclui uma ou mais unidades de predição. Na intra- predição, o tamanho da unidade de predição é 2Nx2N ou NxN. Na interpredição, o tamanho da unidade de predição é especificado pelo modo de particionamento. O modo de particionamento é um dentre 2Nx2N, 2NxN, Nx2N e NxN quando a unidade de codificação é particionada simetricamente. O modo de particionamento é um dentre 2NxnU, 2NxnD, nLx2N e nRx2N quando a unidade de codificação é particionada simetricamente. Os modos de particionamento são permitidos com base no tamanho da unidade de codificação de modo a reduzir a complexidade de um hardware. Quando a unidade de codificação tem um tamanho mínimo, o particionamento assimétrico não poderá ser permitido. Além disso, quando a unidade de codificação tem o tamanho mínimo, NxN, o modo de particionamento não poderá ser permitido.
[030] Uma unidade de codificação inclui uma ou mais unidades de transformada. A unidade de transformada tem uma estrutura de árvore quadrática recursiva para a especificação de uma estrutura de divisão da unidade de codificação. A estrutura de divisão é especificada por uma ou mais sinalizações de unidade de transformada divididas (split_tu_flags). Parâmetros para a especificação do tamanho máximo e do tamanho mínimo da unidade de transformada são incluídos em um conjunto de parâmetros de sequência.
[031] A unidade de intrapredição 120 determina um modo de intrapredição de uma unidade de predição atual e gera um bloco de predição usando o modo de intrapredi- ção.
[032] A unidade de interpredição 130 determina a informação de movimento de uma unidade de predição atual usando uma ou mais imagens de referência armazenadas na unidade de armazenamento de imagem 195, e gera um bloco de predição da unidade de predição. A informação de movimento inclui um ou mais índices de imagem de referência e um ou mais vetores de movimento.
[033] A unidade de transformada 140 transforma um bloco residual no sentido de gerar um bloco transformado. O bloco residual tem o mesmo tamanho da unidade de transformada. Quando a unidade de predição é maior que a unidade de transformada, os sinais residuais entre o bloco atual e o bloco de predição são particionadas em múltiplos blocos residuais.
[034] A unidade de quantização 150 determina um parâmetro de quantização de modo a quantizar o bloco transformado. O parâmetro de quantização é um tamanho de etapa de quantização. O parâmetro de quantização é determinado pela unidade de quantização. O tamanho da unidade de quantização pode variar e ser um dentre os tamanhos permissíveis da unidade de codificação. Quando o tamanho da unidade de codificação é igual ao ou maior que o tamanho mínimo da unidade de quantização, a unidade de codificação se torna a unidade de quantização. Uma pluralidade de unidades de codificação pode ser incluída em uma unidade de quantização de um tamanho mínimo. O tamanho mínimo da unidade de quantização é determinado por imagem, e um parâmetro para a especificação do tamanho mínimo da unidade de quantização é incluído em um conjunto de parâmetros de imagem
[035] A unidade de quantização 150 gera um preditor de parâmetro de quantização e gera um parâmetro de quantização diferencial ao se subtrair o preditor de parâmetro de quantização do parâmetro de quantização. O parâmetro de quantização diferencial é codificado por entropia.
[036] O preditor de parâmetro de quantização é gerado usando os parâmetros de quantização das unidades de codificação vizinhas e um parâmetro de quantização da unidade de codificação anterior, tal como se segue.
[037] Um parâmetro de quantização à esquerda, um parâmetro de quantização acima e um parâmetro de quantização anterior são sequencialmente recuperados nesta ordem. Uma média dos dois primeiros parâmetros de quantização disponíveis recuperados nessa ordem é definida como o preditor de parâmetro de quantização quando dois ou mais parâmetros de quantização se encontram disponíveis, e quando apenas um parâmetro de quantização se encontra disponível, o parâmetro de quanti- zação disponível é definido como o preditor de parâmetro de quantização. Ou seja, quando os parâmetros de quantização à esquerda e acima se encontram disponíveis, uma média dos parâmetros de quantização à esquerda e acima é definida como o preditor de parâmetro de quantização. Quando apenas um dos parâmetros de quan- tização à esquerda e acima se encontra disponível, uma média do parâmetro de quan- tização e dos parâmetros de quantização anteriores disponíveis é definida como o preditor de parâmetro de quantização. Quando ambos os parâmetros de quantização à esquerda e acima não se encontram disponíveis, o parâmetro de quantização anterior é definido como o preditor de parâmetro de quantização. A média é arredondada.
[038] O parâmetro de quantização diferencial é convertido em binários para o valor absoluto do parâmetro de quantização diferencial e em um binário para o sinal de indicação do parâmetro de quantização diferencial através de um processo de binari- zação, e os binários são codificados aritmeticamente. Quando o valor absoluto do parâmetro de quantização diferencial é 0, o binário para o sinal de indicação poderá ser omitido. Um unário truncado é usado para binarização do absoluto.
[039] A unidade de quantização 150 quantiza o bloco transformado usando uma matriz de quantização e o parâmetro de quantização de modo a gerar um bloco quan- tizado. O bloco quantizado é provido para a unidade de quantização / transformada inversa 180 e para a unidade de digitalização 160.
[040] A unidade de digitalização 160 determina e se aplica a um padrão de digitalização para o bloco quantizado.
[041] Na interpredição, uma varredura diagonal é usada como o padrão de digitalização quando uma codificação CABAC é usada para uma codificação por entropia. Os coeficientes quantizados do bloco quantizado são divididos em componentes de coeficiente. Os componentes de coeficiente são as sinalizações significativas, os sinais de coeficientes e os níveis de coeficiente. A varredura diagonal é aplicada a cada um dos componentes de coeficiente. O coeficiente significativo indica se o coeficiente quantizado correspondente é zero ou não. O sinal de coeficiente indica um sinal de coeficiente quantizado diferente de zero, e o nível de coeficiente indica um valor absoluto do coeficiente quantizado diferente de zero.
[042] Quando o tamanho da unidade de transformada é maior que um tamanho predeterminado, o bloco quantizado é dividido em múltiplos subconjuntos e a varredura diagonal é aplicada a cada um dos subconjuntos. As sinalizações significativas, os sinais de coeficientes e os níveis de coeficiente de cada subconjunto são digitalizados, respectivamente, de acordo com a varredura diagonal. O tamanho predeterminado é de 4x4. O subconjunto é um bloco 4x4 contendo 16 coeficientes de transformada.
[043] O padrão de digitalização para digitalizar os subconjuntos é o mesmo que o padrão de digitalização para digitalizar os componentes de coeficiente. As sinalizações significativas, os sinais de coeficiente e os níveis de coeficiente de cada subconjunto são digitalizados na direção inversa. Os subconjuntos são também digitalizados na direção inversa.
[044] Um parâmetro que indica a última posição de coeficiente diferente de zero é codificado e transmitido para um lado de decodificação. O parâmetro que indica a última posição de coeficiente diferente de zero especifica uma posição do último coeficiente quantizado diferente de zero dentro do bloco quantizado. Uma sinalização de subconjunto diferente de zero é definida para cada subconjunto diferente do primeiro subconjunto e do último subconjunto e é transmitida para o lado de decodificação. O primeiro subconjunto inclui um coeficiente DC. O último subgrupo abrange o último coeficiente diferente de zero. A sinalização de subconjunto diferente de zero indica se o subconjunto contém coeficientes diferentes de zero ou não.
[045] A unidade de codificação por entropia 170 codifica por entropia o componente digitalizado por meio da unidade de digitalização 160, a informação de intrapredição recebida da unidade de intrapredição 120, a informação de movimento recebida da unidade de interpredição 130, e assim por diante.
[046] A unidade de quantização / transformada inversa 180 quantiza inversamente os coeficientes quantizados do bloco quantizado, e transforma inversamente o bloco quantizado inverso de modo a gerar um bloco residual.
[047] A unidade de pós-processamento 190 realiza um processo de filtragem de desbloqueio para a remoção do artefato de bloqueio gerado em uma imagem reconstruída.
[048] A unidade de armazenamento de imagem 195 recebe uma imagem pós-pro- cessada a partir da unidade de pós-processamento 190, e armazena a imagem em unidades de imagem. Uma imagem pode ser um quadro ou um campo.
[049] A Figura 2 é um fluxograma que ilustra um método de codificação de dados de vídeo em um modo de interpredição de acordo com a presente invenção.
[050] A informação de movimento de um bloco atual é determinada (S110). O bloco atual é uma unidade de predição. Um tamanho do bloco atual é determinado por um tamanho e um modo de particionamento da unidade de codificação.
[051] A informação de movimento varia de acordo com um tipo de predição. Quando o tipo de predição é uma predição unidirecional, a informação de movimento inclui um índice de referência, especificando uma imagem de uma lista de referência 0, e um vetor de movimento. Quando o tipo de predição é uma predição bidirecional, a informação de movimento inclui dois índices de referência especificando uma imagem de uma lista de referência 0 e uma imagem de uma lista de referência 1, e uma lista de vetor de movimento 0 e uma lista de vetor de movimento 1.
[052] Um bloco de predição do bloco atual é gerado usando a informação de movimento (S120). Quando o vetor de movimento indica uma posição de pixel, o bloco de predição é gerado por meio da cópia de um bloco da imagem de referência especifi-cada pelo vetor de movimento. Quando o vetor de movimento indica uma posição de sub-pixel, o bloco de predição é gerado por meio da interpolação dos pixels da imagem de referência.
[053] Um bloco residual é gerado usando o bloco atual e o bloco de predição (S130). O bloco residual tem o mesmo tamanho da unidade de transformada. Quando a unidade de predição é maior que a unidade de transformada, os sinais residuais entre o bloco atual e o bloco de predição vão para os múltiplos blocos residuais.
[054] O bloco residual é codificado (S140). O bloco residual é codificado pela unidade de transformada 140, pela unidade de quantização 150, pela unidade de digitalização 160 e pela unidade de codificação por entropia 170 da Figura 1.
[055] A informação de movimento é codificada (S150). A informação de movimento pode ser codificada preditivamente usando candidatos espaciais e um candidato temporal do bloco atual. A informação de movimento é codificada em um modo de salto, em um modo de mesclagem ou em um modo AMVP. No modo de salto, a unidade de predição tem o tamanho da unidade de codificação e a informação de movimento é codificada usando o mesmo método do modo de mesclagem. No modo de mescla- gem, a informação de movimento da unidade de predição atual é igual à informação de movimento de um candidato. No modo AMVP, o vetor de movimento da informação de movimento é codificado preditivamente usando um ou mais candidatos de vetor de movimento.
[056] A Figura 3 é um fluxograma que ilustra um método de codificação de informação de movimento no modo de mesclagem de acordo com a presente invenção.
[057] Os candidatos à mesclagem espacial são derivados (S210). A Figura 4 é um diagrama conceitual que ilustra as posições dos blocos candidatos à mesclagem espacial de acordo com a presente invenção.
[058] Tal como mostrado na Figura 4, o bloco candidato à mesclagem é um bloco à esquerda (bloco A), um bloco acima (bloco B), um bloco acima à direita (bloco C), um bloco abaixo à esquerda (bloco D) ou um bloco acima à esquerda (bloco E) do bloco atual. Os blocos são blocos de predição. O bloco acima à esquerda (bloco E) é definido como um bloco candidato à mesclagem quando um ou mais dentre os blocos A, B, C e D se encontram não disponíveis. A informação de movimento de um bloco candidato à mesclagem disponível N é definida como um candidato à mesclagem espacial N. N é A, B, C, D ou E.
[059] O candidato à mesclagem espacial pode ser definido como indisponível de acordo com a forma do bloco atual e a posição do bloco atual. Por exemplo, quando a unidade de codificação é dividida em duas unidades de predição (bloco P0 e bloco PI) usando um particionamento assimétrico, é provável que a informação de movimento do bloco P0 não seja igual à informação de movimento do bloco PI. Portanto, quando o bloco atual é o bloco assimétrico PI, o bloco P0 é definido como o bloco candidato indisponível, tal como mostrado nas Figuras 5 a 8.
[060] A Figura 5 é um diagrama em bloco conceitual ilustrando as posições dos blocos candidatos à mesclagem espacial de acordo com a presente invenção.
[061] Tal como mostrado na Figura 5, uma unidade de codificação é particionada em dois blocos de predição assimétricos P0 e PI, e o modo de particionamento é um modo nLx2N. O tamanho do bloco P0 é hNx2N P0 e o tamanho do bloco PI é (2- h)Nx2N. O valor de h é 1/2. O bloco atual é o bloco PI. Os blocos A, B, C, D e E são blocos candidatos à mesclagem espacial. O bloco P0 é o bloco candidato à mescla- gem espacial A.
[062] Na presente invenção, o candidato à mesclagem espacial A é definido como indisponível para ser listado na lista de candidatos à mesclagem. Além disso, os blocos candidatos à mesclagem espacial B, C, D ou E com a mesma informação de movimento do bloco candidato à mesclagem espacial A são definidos como não disponí-veis.
[063] A Figura 6 é um outro diagrama em bloco conceitual ilustrando as posições dos blocos candidatos à mesclagem espacial de acordo com a presente invenção.
[064] Tal como mostrado na Figura 6, uma unidade de codificação é particionada em dois blocos de predição assimétricos P0 e PI e o modo de particionamento é um modo nRx2N. O tamanho do bloco P0 é (2-h)Nx2N e o tamanho do bloco PI é hNx2N. O valor de h é 1/2. O bloco atual é o bloco PI. Os blocos A, B, C, D e E são blocos candidatos à mesclagem espacial. O bloco P0 é o bloco candidato à mesclagem espacial A.
[065] Na presente invenção, o candidato à mesclagem espacial A é definido como indisponível para ser listado na lista de candidatos à mesclagem. Além disso, o bloco candidato à mesclagem espacial B, C, D ou E com a mesma informação de movimento do bloco candidato à mesclagem espacial A é definido como indisponível.
[066] A Figura 7 é um outro diagrama em bloco conceitual ilustrando as posições dos blocos candidatos à mesclagem espacial de acordo com a presente invenção.
[067] Tal como mostrado na Figura 7, uma unidade de codificação é particionado em dois blocos de predição assimétricos P0 e PI e o modo de particionamento é um modo 2NxnU. O tamanho do bloco P0 é 2NxhN e o tamanho do bloco PI é 2NX(2-h)N. O valor de h é de 1/2. O bloco atual é o bloco PI. Os blocos A, B, C, D e E são blocos candidatos à mesclagem espacial. O bloco P0 é o bloco candidato à mesclagem espacial B.
[068] Na presente invenção, o candidato à mesclagem espacial B é definido como indisponível para ser listado na lista de candidatos à mesclagem. Além disso, os blocos candidatos à mesclagem espacial C, D ou E com a mesma informação de movimento do bloco candidato à mesclagem espacial B são definidos como não disponíveis.
[069] A Figura 8 é um outro diagrama em bloco conceitual ilustrando as posições dos blocos candidatos à mesclagem espacial de acordo com a presente invenção.
[070] Tal como mostrado na Figura 8, uma unidade de codificação é particionada em dois blocos de predição assimétricos P0 e PI e o modo de particionamento é um modo 2NxnD. O tamanho do bloco P0 é 2NX (2-h)N e o tamanho do bloco PI é 2NxhN. O valor de h é 1/2. O bloco atual é o bloco PI. Os blocos A, B, C, D e E são blocos candidatos à mesclagem espacial. O bloco P0 é o bloco candidato à mesclagem espacial B.
[071] Na presente invenção, o candidato à mesclagem espacial B é definido como indisponível para ser listado na lista de candidatos à mesclagem. Além disso, os blocos candidatos à mesclagem espacial C, D ou E com a mesma informação de movimento do bloco candidato à mesclagem espacial B são definidos como não disponíveis.
[072] O candidato à mesclagem espacial pode também ser definido como indisponível com base na área de mesclagem. Quando o bloco atual e o bloco candidato à mesclagem espacial pertencem à mesma área de mesclagem, o bloco candidato à mesclagem espacial é definido como indisponível. A área de mesclagem é uma unidade de área na qual a estimativa de movimento é realizada e as informações que especificam a área de mesclagem são incluídas em um fluxo de bits.
[073] Um candidato à mesclagem temporal é derivado (S220). O candidato à mes- clagem temporal inclui um índice de imagem de referência e um vetor de movimento do candidato à mesclagem temporal.
[074] O índice de imagem de referência do candidato à mesclagem temporal pode ser derivado usando um ou mais índices de imagem de referência do bloco vizinho. Por exemplo, um dos índices de imagem de referência de um bloco vizinho à esquerda, um bloco vizinho acima e de um bloco vizinho no canto é definido como o índice de imagem de referência do candidato à mesclagem temporal. O bloco vizinho no canto é um dentre um bloco vizinho acima à direita, um bloco vizinho abaixo à esquerda e um bloco vizinho acima à esquerda. Em alternativa, o índice de imagem de referência do candidato à mesclagem temporal pode ser definido para zero a fim de reduzir a complexidade.
[075] O vetor de movimento do candidato à mesclagem temporal pode ser derivado da seguinte maneira.
[076] Em primeiro lugar, uma imagem candidata à mesclagem temporal é determinada. A imagem candidata à mesclagem temporal inclui um bloco candidato à mes- clagem temporal. Uma imagem candidata à mesclagem temporal é usada dentro de uma fatia. Um índice de imagem de referência da imagem candidata à mesclagem temporal pode ser definido para zero.
[077] Quando a fatia atual é uma fatia P, uma das imagens de referência da lista de imagem de referência 0 é definida como a imagem candidata à mesclagem temporal. Quando a fatia atual é uma fatia B, uma das imagens de referência das listas de imagem de referência 0 e 1 é definida como a imagem candidata à mesclagem temporal. Um indicador de lista que especifica se a imagem candidata à mesclagem temporal pertence às listas de imagem de referência 0 ou 1 é incluído em um cabeçalho de fatia quando a fatia atual é uma fatia B. O índice de imagem de referência que especifica a imagem candidata à mesclagem temporal pode ser incluído no cabeçalho de fatia.
[078] Em seguida, o bloco candidato à mesclagem temporal é determinado. O bloco candidato à mesclagem temporal pode ser um primeiro bloco candidato ou um segundo bloco candidato. Quando o primeiro bloco candidato se encontra disponível, o primeiro bloco candidato é definido como o bloco candidato à mesclagem temporal. Quando o primeiro bloco candidato não se encontra disponível, o segundo bloco candidato é definido como o bloco candidato à mesclagem temporal. Quando o segundo bloco candidato se encontra indisponível, o bloco candidato à mesclagem temporal é definido como indisponível.
[079] A Figura 9 é um diagrama conceitual que ilustra a posição do bloco candidato à mesclagem temporal de acordo com a presente invenção. Tal como mostrado na Figura 9, o primeiro bloco candidato à mesclagem pode ser um bloco no canto abaixo à direita (bloco H) do bloco C. O bloco C tem o mesmo tamanho e mesma localização do bloco atual e está localizado dentro da imagem candidata à mesclagem temporal. O segundo bloco candidato à mesclagem é um bloco que cobre um pixel superior à esquerda do centro do bloco C.
[080] Quando o bloco candidato à mesclagem temporal é determinado, o vetor de movimento do bloco candidato à mesclagem temporal é definido como o vetor de movimento do candidato à mesclagem temporal.
[081] A lista de candidatos à mesclagem é construída (S230). Os candidatos espaciais disponíveis e o candidato temporal disponível são listados em uma ordem predeterminada. Os candidatos à mesclagem espacial são listados até quatro na ordem de A, B, C, D e E. O candidato à mesclagem temporal pode ser listado entre B e C ou após os candidatos espaciais.
[082] É determinado se um ou mais candidatos à mesclagem são gerados ou não (S240). A determinação é feita através da comparação do número de candidatos à mesclagem listados na lista de candidatos à mesclagem com um número predeterminado dos candidatos à mesclagem. O número predeterminado pode ser determinado por imagem ou fatia.
[083] Quando o número de candidatos à mesclagem listados na lista de candidatos à mesclagem é menor que um número predeterminado dos candidatos à mesclagem, um ou mais candidatos à mesclagem são gerados (S250). O candidato à mesclagem gerado é listado após o último candidato à mesclagem disponível.
[084] Quando o número de candidatos à mesclagem disponíveis é igual a ou maior que 2, um dos dois candidatos à mesclagem disponíveis tem a informação de movimento da lista 0 e o outro tem a informação de movimento da lista 1, e o candidato à mesclagem poderá ser gerado ao se combinar a informação de movimento da lista 0 e a informação de movimento da lista 1. Vários candidatos à mesclagem podem ser gerados se houver várias combinações.
[085] Um ou mais candidatos à mesclagem zero podem ser adicionados à lista. Quando o tipo de fatia é P, o candidato à mesclagem zero terá apenas a informação de movimento da lista 0. Quando o tipo de fatia é B, o candidato à mesclagem zero terá a informação de movimento da lista 0 e a informação de movimento da lista 1.
[086] Um preditor de mesclagem é selecionado entre os candidatos à mesclagem da lista de mesclagem, um índice de mesclagem que especifica o preditor de mescla- gem é codificado (S260).
[087] A Figura 10 é um diagrama em bloco de um aparelho de decodificação de imagem 200 de acordo com a presente invenção.
[088] O aparelho de decodificação de imagem 200 de acordo com a presente invenção inclui uma unidade de decodificação por entropia 210, uma unidade de digitalização inversa 220, uma unidade de quantização inversa 230, uma unidade de trans-formada inversa 240, uma unidade de intrapredição 250, uma unidade de interpredi- ção 260, uma unidade de pós-processamento 270, uma unidade de armazenamento de imagem 280 e um adicionador 290.
[089] A unidade de decodificação por entropia 210 extrai as informações de intra- predição, as informações de interpredição e os componentes de coeficiente quanti- zado a partir de um fluxo de bits recebido usando um método de decodificação aritmética binária adaptativa ao contexto.
[090] A unidade de digitalização inversa 220 aplica um padrão de digitalização inversa aos componentes de coeficiente quantizado de modo a gerar um bloco quanti- zado. Na interpredição, o padrão de digitalização inversa é uma varredura diagonal. Os componentes de coeficiente quantizado incluem as sinalizações significativas, os sinais de coeficiente e os níveis de coeficiente.
[091] Quando o tamanho da unidade de transformada é maior que um tamanho predeterminado, as sinalizações significativas, os sinais de coeficiente e os níveis de coeficiente são inversamente digitalizados na unidade de subconjunto usando a varredura diagonal no sentido de gerar subconjuntos, e os subconjuntos são inversamente digitalizados usando a varredura diagonal no sentido de gerar o bloco quanti- zado. O tamanho predeterminado é igual ao tamanho do subconjunto. O subconjunto é um bloco 4x4 incluindo 16 coeficientes de transformada. As sinalizações significativas, os sinais de coeficiente e os níveis de coeficiente são inversamente digitalizados na direção inversa. Os subconjuntos são também inversamente digitalizados na direção inversa.
[092] Um parâmetro que indica a última posição de coeficiente diferente de zero e as sinalizações de subconjunto diferentes de zero é extraído do fluxo de bits. O número de subconjuntos codificados é determinado com base na última posição de coeficiente diferente de zero. A sinalização de subconjunto diferente de zero é usada para determinar se o subconjunto correspondente tem pelo menos um coeficiente diferente de zero. Quando a sinalização de subconjunto diferente de zero é igual a 1, o subconjunto é gerado usando a varredura diagonal. O primeiro subconjunto e o último subconjunto são gerados usando o padrão de digitalização inversa.
[093] A unidade de quantização inversa 230 recebe o parâmetro de quantização diferencial da unidade de decodificação por entropia 210 e gera o preditor de parâmetro de quantização de modo a gerar o parâmetro de quantização da unidade de codificação. A operação de geração do preditor de parâmetro de quantização é a mesma que a operação da unidade de quantização 150 da Figura 1. Em seguida, o parâmetro de quantização da unidade de codificação atual é gerado ao se adicionar o parâmetro de quantização diferencial e o preditor de parâmetro de quantização. Quando o parâmetro de quantização diferencial não é transmitido a partir de um lado de codificação, o parâmetro de quantização diferencial é definido como zero.
[094] A unidade de quantização inversa 230 quantiza inversamente o bloco quanti- zado. A unidade de transformada inversa 240 transforma inversamente o bloco quan- tizado inverso de modo a gerar um bloco residual. Uma matriz de transformada inversa é determinada adaptativamente de acordo com o modo de predição e o tamanho da unidade de transformada. A matriz de transformada inversa é uma matriz de transformada de inteiro com base na transformada DCT ou uma matriz de transformada de inteiro com base na transformada DST. Na interpredição, as transformadas de inteiro com base na transformada DCT são usadas.
[095] A unidade de predição 250 deriva um modo de intrapredição da unidade de predição atual usando as informações de intrapredição recebidas, e gera um bloco de predição de acordo com o modo de intrapredição derivado.
[096] A unidade de interpredição 260 deriva da informação de movimento da unidade de predição atual usando a informação de interpredição recebida, e gera um bloco de predição usando a informação de movimento.
[097] A unidade de pós-processamento 270 opera da mesma forma que a unidade de pós-processamento 180 da Figura 1.
[098] A unidade de armazenamento de imagem 280 recebe uma imagem pós-pro- cessada a partir da unidade de pós-processamento 270, e armazena a imagem em unidades de imagem. A imagem pode ser um quadro ou um campo.
[099] O adicionador 290 adiciona o bloco residual restaurado e um bloco de predição de modo a gerar um bloco reconstruído.
[0100] A Figura 11 é um fluxograma que ilustra um método de decodificação de uma imagem no modo de interpredição de acordo com a presente invenção.
[0101] Informações de movimento de um bloco atual são derivadas (S310). O bloco atual é uma unidade de predição. Um tamanho do bloco atual é determinado pelo tamanho da unidade de codificação e pelo modo de particionamento.
[0102] A informação de movimento varia de acordo com um tipo de predição. Quando o tipo de predição é uma predição unidirecional, a informação de movimento incluirá um índice de referência que especifica uma imagem de uma lista de referência 0, e um vetor de movimento. Quando o tipo de predição é uma predição bidirecional, a informação de movimento incluirá um índice de referência que especifica a imagem de uma lista de referência 0, um índice de referência que especifica uma imagem de uma lista de referência 1, e um vetor de movimento da lista 0 e um vetor de movimento da lista 1.
[0103] A informação de movimento é decodificada adaptativamente de acordo com o modo de codificação da informação de movimento. O modo de codificação da informação de movimento é determinado por uma sinalização de salto e uma sinalização de mesclagem. Quando a sinalização de salto é igual a 1, a sinalização de mesclagem não existe e o modo de codificação é um modo de salto. Quando a sinalização de salto é igual a 0 e a sinalização de mesclagem é igual a 1, o modo de codificação será um modo de mesclagem. Quando a sinalização de salto e a sinalização de mesclagem são iguais a 0, o modo de codificação será um modo AMVP.
[0104] Um bloco de predição do bloco atual é gerado usando a informação de movimento (S320).
[0105] Quando o vetor de movimento indica uma posição de pixel, o bloco de predição é gerado ao se copiar um bloco da imagem de referência especificada pelo vetor de movimento.
[0106] Quando o vetor de movimento indica uma posição de sub-pixel, o bloco de predição é gerado ao se interpolar os pixels da imagem de referência.
[0107] Um bloco residual é gerado (S330). O bloco residual é gerado pela unidade de decodificação por entropia 210, pela unidade de digitalização inversa 220, pela unidade de quantização inversa 230 e pela unidade de transformada inversa da Figura 10.
[0108] Um bloco reconstruído é gerado usando o bloco de predição e o bloco residual (S340).
[0109] O bloco de predição tem o mesmo tamanho da unidade de predição, e o bloco residual tem o mesmo tamanho da unidade de transformada. Portanto, os sinais residuais e os sinais de predição do mesmo tamanho são adicionados de modo a gerar os sinais reconstruídos.
[0110] A Figura 12 é um fluxograma que ilustra um método de derivação de informação de movimento em modo de mesclagem.
[0111] Um índice de mesclagem é extraído a partir de um fluxo de bits (S410). Quando o índice de mesclagem não existe, o número de candidatos à mesclagem é definido como um.
[0112] Os candidatos à mesclagem espacial são derivados (S420). Os candidatos à mesclagem espacial disponíveis são os mesmos que os descritos na etapa S210 da Figura 3.
[0113] Um candidato à mesclagem temporal é derivado (S430). O candidato à mes- clagem temporal inclui um índice de imagem de referência e um vetor de movimento do candidato à mesclagem temporal. O índice de referência e o vetor de movimento do candidato à mesclagem temporal são os mesmos que os descritos na etapa S220 da Figura 3.
[0114] A lista de candidatos à mesclagem é construída (S440). A lista de mesclagem é a mesma que a descrita na etapa S230 da Figura 3.
[0115] É determinado se um ou mais candidatos à mesclagem são gerados ou não (S450). A determinação é feita ao se comparar o número de candidatos à mesclagem listados na lista de candidatos à mesclagem com um número predeterminado dos candidatos à mesclagem. O número predeterminado é determinado por imagem ou fatia.
[0116] Quando o número de candidatos à mesclagem listados na lista de candidatos à mesclagem é menor que um número predeterminado de candidatos à mesclagem, um ou mais candidatos à mesclagem são gerados (S460). O candidato à mesclagem gerado é listado após o último candidato à mesclagem disponível. O candidato à mes- clagem é gerado tal como o mesmo método descrito na etapa S250 da Figura 3.
[0117] O candidato à mesclagem especificado pelo índice de mesclagem é definido como a informação de movimento do bloco atual (S470).
[0118] A Figura 13 é um fluxograma ilustrando um procedimento de geração de um bloco residual no modo de interpredição de acordo com a presente invenção.
[0119] Os componentes de coeficiente quantizado são gerados pela unidade de de- codificação por entropia (S510).
[0120] Um bloco quantizado é gerado ao se digitalizar inversamente os componentes de coeficiente quantizado de acordo com a varredura diagonal (S520). Os componentes de coeficiente quantizado incluem as sinalizações significativas, os sinais de coeficiente e os níveis de coeficiente.
[0121] Quando o tamanho da unidade de transformada é maior que um tamanho predeterminado, as sinalizações significativas, as sinalizações de coeficiente e os níveis de coeficiente são digitalizados inversamente na unidade de subconjunto usando a varredura diagonal de modo a gerar subconjuntos, e os subconjuntos são digitalizados inversamente usando a varredura diagonal de modo a gerar o bloco quantizado. O tamanho predeterminado é igual ao tamanho do subconjunto. O subconjunto é um bloco 4x4 incluindo 16 coeficientes de transformada. As sinalizações significativas, os sinais de coeficiente e os níveis de coeficiente são inversamente digitalizados na direção inversa. Os subconjuntos são também inversamente digitalizados na direção inversa.
[0122] O parâmetro que indica a última posição de coeficiente diferente de zero e as sinalizações de subconjunto diferentes de zero é extraído do fluxo de bits. O número de subconjuntos codificados é determinado com base na última posição de coeficiente diferente de zero. A sinalização de subconjunto diferente de zero é usada para determinar se o subconjunto correspondente tem pelo menos um coeficiente diferente de zero. Quando a sinalização de subconjunto diferente de zero é igual a 1, o subconjunto é gerado usando a varredura diagonal. O primeiro subconjunto e o último subconjunto são gerados usando o padrão de digitalização inversa.
[0123] O bloco quantizado é inversamente quantizado usando uma matriz de quanti- zação inversa e um parâmetro de quantização (S530).
[0124] A Figura 14 é um fluxograma que ilustra um método de derivação de um parâmetro de quantização de acordo com a presente invenção.
[0125] Um tamanho mínimo da unidade de quantização é determinado (S531). Um parâmetro cu_qp_delta_enabled_info que especifica o tamanho mínimo é extraído a partir de um fluxo de bits, e o tamanho mínimo da unidade de quantização é determinado pela seguinte equação.
[0126] Log2 (MinQUSize) = Log2 (MaxCUSize) -cu_qp_delta_enabled_info
[0127] O MinQUSize indica o tamanho mínimo da unidade de quantização, o MaxCU- Size indica o tamanho da unidade LCU. O parâmetro cu_qp_delta_enabled_info é extraído de um conjunto de parâmetros de imagem.
[0128] Um parâmetro de quantização diferencial da unidade de codificação atual é derivado (S532). O parâmetro de quantização diferencial é incluído por unidade de quantização. Portanto, quando o tamanho da unidade de codificação atual é igual ou maior que o tamanho mínimo, o parâmetro de quantização diferencial para a unidade de codificação atual é restabelecido. Quando o parâmetro de quantização diferencial não existe, o parâmetro de quantização diferencial é definido como zero. Quando múl-tiplas unidades de codificação pertencem a uma unidade de quantização, a primeira unidade de codificação contendo pelo menos um coeficiente diferente de zero na ordem de decodificação conterá a unidade de quantização diferencial.
[0129] Um parâmetro de quantização diferencial codificado é aritmeticamente decodificado de modo a gerar uma cadeia binária indicando o valor absoluto do parâmetro de quantização diferencial e um binário indicando o sinal do parâmetro de quantização diferencial. A cadeia binária pode ser um código unário truncado. Quando o valor absoluto do parâmetro de quantização diferencial é zero, o binário que indica o sinal não existe. O parâmetro de quantização diferencial é derivado usando a cadeia binária que indica o valor absoluto e o binário que indica o sinal.
[0130] Um preditor de parâmetro de quantização da unidade de codificação atual é derivado (S533). O preditor de parâmetro de quantização é gerado usando os parâmetros de quantização das unidades de codificação vizinhas e o parâmetro de quan- tização da unidade de codificação anterior da seguinte maneira.
[0131] Um parâmetro de quantização à esquerda, um parâmetro de quantização acima e um parâmetro de quantização anterior são sequencialmente recuperados nesta ordem. Uma média dos dois primeiros parâmetros de quantização disponíveis recuperados nessa ordem é definida como o preditor de parâmetro de quantização quando dois ou mais parâmetros de quantização se encontram disponíveis, e quando apenas um parâmetro de quantização se encontra disponível, o parâmetro de quanti- zação disponível é definida como o preditor de parâmetro de quantização. Ou seja, quando os parâmetros de quantização à esquerda e acima se encontram disponíveis, a média dos parâmetros de quantização à esquerda e acima é definida como o preditor de parâmetro de quantização. Quando apenas um dentre os parâmetros de quantiza- ção à esquerda e acima se encontra disponível, a média do parâmetro de quantização disponível e do parâmetro de quantização anterior é definida como o preditor de parâmetro de quantização. Quando ambos os parâmetros de quantização à esquerda e acima não se encontram disponíveis, o parâmetro de quantização anterior será definido como o preditor de parâmetro de quantização.
[0132] Quando múltiplas unidades de codificação pertencem a uma unidade de quantização de tamanho mínimo, o preditor de parâmetro de quantização para a primeira unidade de codificação na ordem de decodificação será derivado e usado para as demais unidades de codificação.
[0133] O parâmetro de quantização da unidade de codificação atual é gerado usando o parâmetro de quantização diferencial e o preditor de parâmetro de quantização (S534).
[0134] Um bloco residual é gerado ao se transformar inversamente o bloco quanti- zado inverso (S540). Transformadas baseadas em uma transformada DCT inversa horizontal e vertical unidimensional são usadas.
[0135] Embora a presente invenção tenha sido mostrada e descrita com referência a certas modalidades exemplares da mesma, deverá ser entendido pelos versados na técnica que várias alterações na forma e detalhes poderão ser feitas sem se afastar do espírito e do âmbito de aplicação da presente invenção, tal como definida pelas reivindicações em apenso.
Claims (7)
1. Método de construção de uma lista de candidatos à mesclagem, CARACTERIZADO por compreender: construir uma lista de candidatos à mesclagem usando candidatos à mescla- gem espacial e temporal disponíveis, e derivar informação de movimento usando um índice de mesclagem e a lista de candidatos à mesclagem; gerar um bloco de predição usando a informação de movimento; gerar um bloco de quantização por varredura inversa de componentes de coeficiente quantizado de acordo com uma varredura diagonal, quantizar inversamente o bloco de quantização usando um parâmetro de quantização e uma matriz de quan- tização, e transformar inversamente o bloco de quantização inversamente quantizado para gerar um bloco residual; e derivar um bloco reconstruído usando o bloco de predição e o bloco residual, em que os candidatos à mesclagem espacial são informações de movimento de blocos candidatos à mesclagem espacial, e os blocos candidatos à mesclagem espacial são um bloco à esquerda, um bloco acima, um bloco acima à direita, um bloco abaixo à esquerda ou um bloco acima à esquerda do bloco atual, em que o candidato à mesclagem espacial correspondendo a uma primeira unidade de predição particionada por particionamento assimétrico é definido como indisponível se uma unidade de predição atual for uma segunda unidade de predição particionada por particionamento assimétrico, em que se o tamanho da unidade de predição atual for (3/2)Nx2N, o candidato à mesclagem espacial à esquerda é definido como indisponível, em que um vetor de movimento do candidato à mesclagem temporal é um vetor de movimento de um bloco de candidato à mesclagem temporal dentro de uma imagem de candidato à mesclagem temporal, e uma posição do bloco de candidato à mesclagem temporal é determinada dependendo de uma posição da unidade de predição atual dentro de uma LCU, em que o parâmetro de quantização é gerado usando um parâmetro de quan- tização diferencial e um preditor de parâmetro de quantização, em que o preditor de parâmetro de quantização é gerado usando um parâmetro de quantização à esquerda e um parâmetro de quantização acima quando tanto o parâmetro de quantização à esquerda como o parâmetro de quantização acima estão disponíveis, e em que o parâmetro de quantização anterior é definido como o preditor de parâmetro de quantização quando tanto o parâmetro de quantização à esquerda como o parâmetro de quantização acima estão indisponíveis.
2. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o candidato à mesclagem espacial à esquerda é informação de movimento da unidade de predição à esquerda da unidade de predição atual.
3. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que se um candidato à mesclagem espacial acima tem a mesma informação de movimento do candidato à mesclagem espacial à esquerda, o candidato à mesclagem espacial acima é definido como indisponível.
4. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o tamanho da unidade de predição atual é determinado com base em um modo de particionamento e em um tamanho da unidade de codificação.
5. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que se uma unidade de codificação atual tem um tamanho mínimo permitido, o parti- cionamento assimétrico não é permitido.
6. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que um bloco acima à esquerda disponível é definido como um bloco candidato à mesclagem quando pelo menos um dentre o bloco à esquerda, o bloco acima, o bloco acima à direita e o bloco abaixo à esquerda está indisponível.
7. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que um vetor de movimento do candidato à mesclagem temporal é um vetor de movimento de um bloco candidato à mesclagem temporal dentro de uma imagem candidata à mesclagem temporal, e imagens candidatas à mesclagem temporal são as mesmas em uma fatia.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110115219A KR20130050406A (ko) | 2011-11-07 | 2011-11-07 | 머지 모드에서의 움직임 정보 생성 방법 |
KR10-2011-0115219 | 2011-11-07 | ||
PCT/CN2012/084240 WO2013067938A1 (en) | 2011-11-07 | 2012-11-07 | Method of constructing merge list |
BR112014007871-8A BR112014007871B1 (pt) | 2011-11-07 | 2012-11-07 | Método de construção de lista de candidatos à mesclagem |
Publications (3)
Publication Number | Publication Date |
---|---|
BR122020013720A2 BR122020013720A2 (pt) | 2020-10-06 |
BR122020013720A8 BR122020013720A8 (pt) | 2022-10-04 |
BR122020013720B1 true BR122020013720B1 (pt) | 2023-12-12 |
Family
ID=48208141
Family Applications (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BR112014007871-8A BR112014007871B1 (pt) | 2011-11-07 | 2012-11-07 | Método de construção de lista de candidatos à mesclagem |
BR122020013720-7A BR122020013720B1 (pt) | 2011-11-07 | 2012-11-07 | Método de construção de lista de candidatos à mesclagem |
BR122020013719-3A BR122020013719B1 (pt) | 2011-11-07 | 2012-11-07 | Método de construção de lista de candidatos à mesclagem |
BR122020013723-1A BR122020013723B1 (pt) | 2011-11-07 | 2012-11-07 | Método de construção de lista de candidatos à mesclagem |
BR122020013725-8A BR122020013725B1 (pt) | 2011-11-07 | 2012-11-07 | Método de construção de lista de candidatos à mesclagem |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BR112014007871-8A BR112014007871B1 (pt) | 2011-11-07 | 2012-11-07 | Método de construção de lista de candidatos à mesclagem |
Family Applications After (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BR122020013719-3A BR122020013719B1 (pt) | 2011-11-07 | 2012-11-07 | Método de construção de lista de candidatos à mesclagem |
BR122020013723-1A BR122020013723B1 (pt) | 2011-11-07 | 2012-11-07 | Método de construção de lista de candidatos à mesclagem |
BR122020013725-8A BR122020013725B1 (pt) | 2011-11-07 | 2012-11-07 | Método de construção de lista de candidatos à mesclagem |
Country Status (20)
Country | Link |
---|---|
US (7) | US8917772B2 (pt) |
EP (6) | EP3829174B1 (pt) |
JP (6) | JP5823628B2 (pt) |
KR (5) | KR20130050406A (pt) |
CN (7) | CN103096073B (pt) |
BR (5) | BR112014007871B1 (pt) |
CY (1) | CY1123872T1 (pt) |
DK (5) | DK3829175T3 (pt) |
ES (5) | ES2859550T3 (pt) |
HR (1) | HRP20210659T1 (pt) |
HU (5) | HUE062196T2 (pt) |
IN (1) | IN2014CN03913A (pt) |
LT (1) | LT2752006T (pt) |
MX (6) | MX336815B (pt) |
PL (5) | PL3829175T3 (pt) |
PT (5) | PT3829172T (pt) |
RS (1) | RS61740B1 (pt) |
SI (1) | SI2752006T1 (pt) |
TW (1) | TWI537881B (pt) |
WO (1) | WO2013067938A1 (pt) |
Families Citing this family (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10264276B2 (en) | 2011-06-14 | 2019-04-16 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding motion information and method and apparatus for decoding same |
KR20130050406A (ko) * | 2011-11-07 | 2013-05-16 | 오수미 | 머지 모드에서의 움직임 정보 생성 방법 |
EP4009640A1 (en) * | 2011-11-08 | 2022-06-08 | Electronics and Telecommunications Research Institute | Method and device for sharing a candidate list |
EP2942961A1 (en) | 2011-11-23 | 2015-11-11 | HUMAX Holdings Co., Ltd. | Methods for encoding/decoding of video using common merging candidate set of asymmetric partitions |
JP5561348B2 (ja) * | 2011-12-16 | 2014-07-30 | 株式会社Jvcケンウッド | 動画像復号装置、動画像復号方法、及び動画像復号プログラム、並びに、受信装置、受信方法、及び受信プログラム |
JP5900308B2 (ja) * | 2011-12-16 | 2016-04-06 | 株式会社Jvcケンウッド | 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム |
EP3703371B1 (en) | 2011-12-16 | 2021-08-04 | JVCKENWOOD Corporation | Dynamic image encoding device, dynamic image encoding method, dynamic image encoding program, dynamic image decoding device, dynamic image decoding method, and dynamic image decoding program |
CN102883163B (zh) * | 2012-10-08 | 2014-05-28 | 华为技术有限公司 | 用于运动矢量预测的运动矢量列表建立的方法、装置 |
US9832478B2 (en) | 2013-05-14 | 2017-11-28 | Mediatek Inc. | Video encoding method and apparatus for determining size of parallel motion estimation region based on encoding related information and related video decoding method and apparatus |
CN104159106B (zh) * | 2013-05-14 | 2017-12-01 | 联发科技股份有限公司 | 视频编码方法和视频解码方法及其装置 |
US9948915B2 (en) | 2013-07-24 | 2018-04-17 | Qualcomm Incorporated | Sub-PU motion prediction for texture and depth coding |
CN105393538B (zh) | 2013-07-24 | 2018-12-04 | 高通股份有限公司 | 用于视频编解码的方法、装置及计算机可读存储介质 |
US9554150B2 (en) * | 2013-09-20 | 2017-01-24 | Qualcomm Incorporated | Combined bi-predictive merging candidates for 3D video coding |
CN105612749A (zh) * | 2013-10-17 | 2016-05-25 | 日本电信电话株式会社 | 视频编码装置及方法以及视频解码装置及方法 |
CN104768012B (zh) * | 2014-01-03 | 2018-04-20 | 华为技术有限公司 | 非对称运动分割方式编码的方法和编码设备 |
EP3114839A4 (en) | 2014-03-07 | 2018-02-14 | Qualcomm Incorporated | Simplified sub-prediction unit (sub-pu) motion parameter inheritence (mpi) |
WO2015180014A1 (en) * | 2014-05-26 | 2015-12-03 | Mediatek Singapore Pte. Ltd. | An improved merge candidate list construction method for intra block copy |
KR102378459B1 (ko) | 2014-06-30 | 2022-03-24 | 한국전자통신연구원 | 움직임 병합 모드에서 시점 합성 예측 후보의 중복성 제거 장치 및 방법 |
WO2016003074A1 (ko) * | 2014-06-30 | 2016-01-07 | 한국전자통신연구원 | 움직임 병합 모드에서 시점 합성 예측 후보의 중복성 제거 장치 및 방법 |
US10757437B2 (en) | 2014-07-17 | 2020-08-25 | Apple Inc. | Motion estimation in block processing pipelines |
US9762919B2 (en) | 2014-08-28 | 2017-09-12 | Apple Inc. | Chroma cache architecture in block processing pipelines |
US11477477B2 (en) | 2015-01-26 | 2022-10-18 | Qualcomm Incorporated | Sub-prediction unit based advanced temporal motion vector prediction |
KR20180085714A (ko) * | 2015-12-17 | 2018-07-27 | 삼성전자주식회사 | 머지 후보 리스트를 이용한 비디오 복호화 방법 및 비디오 복호화 장치 |
WO2017138761A1 (ko) * | 2016-02-11 | 2017-08-17 | 삼성전자 주식회사 | 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치 |
KR20180021941A (ko) * | 2016-08-22 | 2018-03-06 | 광운대학교 산학협력단 | 부호화 유닛들의 병합을 사용하는 비디오 부호화 방법 및 장치, 그리고 비디오 복호화 방법 및 장치 |
CN109845253B (zh) | 2016-10-04 | 2023-09-12 | 株式会社Kt | 一种用于对二维视频进行解码、编码的方法 |
EP3306927A1 (en) * | 2016-10-05 | 2018-04-11 | Thomson Licensing | Encoding and decoding methods and corresponding devices |
US11172203B2 (en) * | 2017-08-08 | 2021-11-09 | Mediatek Inc. | Intra merge prediction |
KR20200044967A (ko) | 2017-09-18 | 2020-04-29 | 인텔렉추얼디스커버리 주식회사 | 블록 분할에 따른 병합 후보 리스트를 사용하는 비디오 코딩 방법 및 장치 |
US10694188B2 (en) * | 2017-12-18 | 2020-06-23 | Arris Enterprises Llc | System and method for constructing a plane for planar prediction |
US11128887B2 (en) | 2018-03-19 | 2021-09-21 | Kt Corporation | Method and apparatus for processing video signal |
WO2019194653A1 (ko) * | 2018-04-06 | 2019-10-10 | 가온미디어 주식회사 | 움직임 정보의 복합적 머지 모드 처리를 제공하는 영상 처리 방법, 그를 이용한 영상 복호화, 부호화 방법 및 그 장치 |
CN112166612A (zh) * | 2018-05-23 | 2021-01-01 | 株式会社Kt | 用于处理视频信号的方法和设备 |
CA3100970A1 (en) | 2018-05-24 | 2019-11-28 | Kt Corporation | Method and apparatus for processing video signal |
JP7141463B2 (ja) | 2018-06-27 | 2022-09-22 | エルジー エレクトロニクス インコーポレイティド | インター予測モードに基づいた映像処理方法およびそのための装置 |
CN114845108A (zh) | 2018-06-29 | 2022-08-02 | 抖音视界(北京)有限公司 | 查找表的更新:fifo、约束的fifo |
KR20210025537A (ko) | 2018-06-29 | 2021-03-09 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 하나 또는 다수의 룩업 테이블들을 사용하여 이전에 코딩된 모션 정보를 순서대로 저장하고 이를 사용하여 후속 블록들을 코딩하는 개념 |
CN110662056B (zh) | 2018-06-29 | 2022-06-07 | 北京字节跳动网络技术有限公司 | 哪个查找表需要更新或不更新 |
KR20240005239A (ko) | 2018-06-29 | 2024-01-11 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Lut와 amvp 사이의 상호작용 |
CN114885173A (zh) | 2018-06-29 | 2022-08-09 | 抖音视界(北京)有限公司 | Lut中的运动候选的检查顺序 |
BR112020024142A2 (pt) | 2018-06-29 | 2021-03-02 | Beijing Bytedance Network Technology Co., Ltd. | método para processamento de vídeo, aparelho para codificação de dados de vídeo, meio de armazenamento e meio de gravação legíveis por computador não transitório |
TWI744661B (zh) | 2018-06-29 | 2021-11-01 | 大陸商北京字節跳動網絡技術有限公司 | 要根據模式檢查的查找表中的運動候選的數量 |
CN110662052B (zh) | 2018-06-29 | 2022-07-08 | 北京字节跳动网络技术有限公司 | 更新查找表(lut)的条件 |
TWI731364B (zh) | 2018-07-02 | 2021-06-21 | 大陸商北京字節跳動網絡技術有限公司 | Hmvp+非相鄰運動 |
KR102545728B1 (ko) * | 2018-07-16 | 2023-06-20 | 엘지전자 주식회사 | 서브블록 단위의 시간적 움직임 정보 예측을 위한 인터 예측 방법 및 그 장치 |
GB2590310B (en) | 2018-09-12 | 2023-03-22 | Beijing Bytedance Network Tech Co Ltd | Conditions for starting checking HMVP candidates depend on total number minus K |
WO2020056143A1 (en) * | 2018-09-12 | 2020-03-19 | Beijing Dajia Internet Information Technology Co., Ltd. | Modifications of the construction of the merge candidate list |
US20220038734A1 (en) * | 2018-09-20 | 2022-02-03 | Lg Electronics Inc. | Method and device for processing image signal |
EP3861737A4 (en) * | 2018-10-05 | 2022-07-13 | OP Solutions, LLC | METHODS AND SYSTEMS FOR CONSTRUCTING A LIST OF FUSION CANDIDATES INCLUDING ADDING A NON-ADJACENT DIAGONAL SPATIAL FUSION CANDIDATE |
CN116634170A (zh) * | 2018-10-10 | 2023-08-22 | 华为技术有限公司 | 帧间预测方法及装置 |
KR20240010576A (ko) | 2019-01-10 | 2024-01-23 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Lut 업데이트의 호출 |
WO2020143824A1 (en) | 2019-01-13 | 2020-07-16 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between lut and shared merge list |
WO2020147773A1 (en) | 2019-01-16 | 2020-07-23 | Beijing Bytedance Network Technology Co., Ltd. | Inserting order of motion candidates in lut |
US20220109835A1 (en) * | 2019-03-11 | 2022-04-07 | Apple Inc. | Method for encoding/decoding image signal, and device therefor |
CN113615193A (zh) | 2019-03-22 | 2021-11-05 | 北京字节跳动网络技术有限公司 | Merge列表构建和其他工具之间的交互 |
EP4032297A4 (en) * | 2019-09-19 | 2022-11-23 | Alibaba Group Holding Limited | METHODS FOR CONSTRUCTING A LIST OF MERGER CANDIDATES |
US11145614B2 (en) | 2019-10-18 | 2021-10-12 | Taiwan Semiconductor Manufacturing Company, Ltd. | Semiconductor device and method of manufacture |
Family Cites Families (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6232786A (ja) * | 1985-08-05 | 1987-02-12 | Fujitsu Ltd | 平均値予測形ベクトル量子化方式 |
DE69709835T2 (de) * | 1996-05-28 | 2002-08-22 | Matsushita Electric Ind Co Ltd | Vorrichtung zur bildvorhersage und decodierung |
JP3662171B2 (ja) * | 2000-06-05 | 2005-06-22 | 三菱電機株式会社 | 符号化装置及び符号化方法 |
EP1453004A2 (en) * | 2003-02-28 | 2004-09-01 | NTT DoCoMo, Inc. | Image encoding apparatus and method |
US8625680B2 (en) * | 2003-09-07 | 2014-01-07 | Microsoft Corporation | Bitstream-controlled post-processing filtering |
KR100631768B1 (ko) * | 2004-04-14 | 2006-10-09 | 삼성전자주식회사 | 비디오 코딩에서 프레임간 예측방법 및 비디오 인코더와,비디오 디코딩방법 및 비디오 디코더 |
WO2006058921A1 (en) * | 2004-12-03 | 2006-06-08 | Thomson Licensing | Method for scalable video coding |
US20070025441A1 (en) * | 2005-07-28 | 2007-02-01 | Nokia Corporation | Method, module, device and system for rate control provision for video encoders capable of variable bit rate encoding |
US20070274385A1 (en) * | 2006-05-26 | 2007-11-29 | Zhongli He | Method of increasing coding efficiency and reducing power consumption by on-line scene change detection while encoding inter-frame |
EP2106666B1 (en) | 2007-01-08 | 2019-06-12 | Nokia Technologies Oy | Improved inter-layer prediction for extended spatial scalability in video coding |
US8031267B2 (en) * | 2007-02-12 | 2011-10-04 | Intel Corporation | Motion adaptive upsampling of chroma video signals |
US20080240242A1 (en) * | 2007-03-27 | 2008-10-02 | Nokia Corporation | Method and system for motion vector predictions |
JP4325708B2 (ja) * | 2007-07-05 | 2009-09-02 | ソニー株式会社 | データ処理装置、データ処理方法およびデータ処理プログラム、符号化装置、符号化方法および符号化プログラム、ならびに、復号装置、復号方法および復号プログラム |
TWI392372B (zh) * | 2007-09-12 | 2013-04-01 | Sony Corp | Image processing apparatus and image processing method |
US8908765B2 (en) * | 2007-11-15 | 2014-12-09 | General Instrument Corporation | Method and apparatus for performing motion estimation |
US8542730B2 (en) * | 2008-02-22 | 2013-09-24 | Qualcomm, Incorporated | Fast macroblock delta QP decision |
US8897359B2 (en) * | 2008-06-03 | 2014-11-25 | Microsoft Corporation | Adaptive quantization for enhancement layer video coding |
WO2009157581A1 (ja) * | 2008-06-27 | 2009-12-30 | ソニー株式会社 | 画像処理装置及び画像処理方法 |
CN101617638B (zh) | 2008-07-04 | 2011-08-31 | 中国科学院海洋研究所 | 一种三疣梭子蟹抗病品系的构建方法 |
US8514942B2 (en) * | 2008-12-31 | 2013-08-20 | Entropic Communications, Inc. | Low-resolution video coding content extraction |
US20100166073A1 (en) * | 2008-12-31 | 2010-07-01 | Advanced Micro Devices, Inc. | Multiple-Candidate Motion Estimation With Advanced Spatial Filtering of Differential Motion Vectors |
EP3668098A1 (en) * | 2009-01-27 | 2020-06-17 | InterDigital VC Holdings, Inc. | Methods and apparatus for transform selection in video encoding and decoding |
CN102577389A (zh) * | 2009-10-16 | 2012-07-11 | 夏普株式会社 | 运动图像编码装置和运动图像解码装置 |
US8418387B2 (en) | 2009-11-13 | 2013-04-16 | Manufacturing Resources International, Inc. | Isolated access assembly for back-to-back electronic display and static display |
US20110274162A1 (en) * | 2010-05-04 | 2011-11-10 | Minhua Zhou | Coding Unit Quantization Parameters in Video Coding |
US8588297B2 (en) * | 2009-12-23 | 2013-11-19 | Oracle America, Inc. | Quantization parameter prediction |
KR101768207B1 (ko) * | 2010-01-19 | 2017-08-16 | 삼성전자주식회사 | 축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치 |
WO2011096770A2 (ko) * | 2010-02-02 | 2011-08-11 | (주)휴맥스 | 영상 부호화/복호화 장치 및 방법 |
CN101917615A (zh) * | 2010-06-03 | 2010-12-15 | 北京邮电大学 | 一种混合视频编码框架中的增强型双向运动矢量预测方法 |
EP4024865B1 (en) * | 2010-06-10 | 2023-10-25 | InterDigital VC Holdings, Inc. | Methods and apparatus for determining quantization parameter predictors from a plurality of neighboring quantization parameters |
CN101888550A (zh) * | 2010-06-28 | 2010-11-17 | 中兴通讯股份有限公司 | 一种slice头信息中量化参数编码方法和装置 |
RS57809B1 (sr) * | 2010-07-09 | 2018-12-31 | Samsung Electronics Co Ltd | Metod za dekodiranje video zapisa korišćenjem objedinjavanja blokova |
US9137544B2 (en) * | 2010-11-29 | 2015-09-15 | Mediatek Inc. | Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes |
US10992958B2 (en) * | 2010-12-29 | 2021-04-27 | Qualcomm Incorporated | Video coding using mapped transforms and scanning modes |
US20120170648A1 (en) * | 2011-01-05 | 2012-07-05 | Qualcomm Incorporated | Frame splitting in video coding |
US10171813B2 (en) * | 2011-02-24 | 2019-01-01 | Qualcomm Incorporated | Hierarchy of motion prediction video blocks |
WO2012140821A1 (ja) * | 2011-04-12 | 2012-10-18 | パナソニック株式会社 | 動画像符号化方法、動画像符号化装置、動画像復号化方法、動画像復号化装置、および動画像符号化復号化装置 |
US10264276B2 (en) * | 2011-06-14 | 2019-04-16 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding motion information and method and apparatus for decoding same |
WO2013003777A1 (en) * | 2011-06-29 | 2013-01-03 | General Instrument Corporation | Methods and system for using a scan coding pattern during intra coding |
KR20130050406A (ko) * | 2011-11-07 | 2013-05-16 | 오수미 | 머지 모드에서의 움직임 정보 생성 방법 |
-
2011
- 2011-11-07 KR KR1020110115219A patent/KR20130050406A/ko not_active Application Discontinuation
-
2012
- 2012-11-07 CN CN201210442102.XA patent/CN103096073B/zh active Active
- 2012-11-07 PT PT202165478T patent/PT3829172T/pt unknown
- 2012-11-07 HU HUE20216550A patent/HUE062196T2/hu unknown
- 2012-11-07 KR KR1020147009934A patent/KR101496961B1/ko active IP Right Review Request
- 2012-11-07 MX MX2015010510A patent/MX336815B/es unknown
- 2012-11-07 LT LTEP12848743.6T patent/LT2752006T/lt unknown
- 2012-11-07 MX MX2014004003A patent/MX2014004003A/es active IP Right Grant
- 2012-11-07 ES ES12848743T patent/ES2859550T3/es active Active
- 2012-11-07 HU HUE20216553A patent/HUE062197T2/hu unknown
- 2012-11-07 BR BR112014007871-8A patent/BR112014007871B1/pt active IP Right Grant
- 2012-11-07 MX MX2015010507A patent/MX336814B/es unknown
- 2012-11-07 WO PCT/CN2012/084240 patent/WO2013067938A1/en active Application Filing
- 2012-11-07 CN CN201810045668.6A patent/CN108134934B/zh active Active
- 2012-11-07 DK DK20216553.6T patent/DK3829175T3/da active
- 2012-11-07 JP JP2014539242A patent/JP5823628B2/ja active Active
- 2012-11-07 PL PL20216553.6T patent/PL3829175T3/pl unknown
- 2012-11-07 ES ES20216550T patent/ES2951959T3/es active Active
- 2012-11-07 KR KR1020147009947A patent/KR20140071433A/ko not_active Application Discontinuation
- 2012-11-07 BR BR122020013720-7A patent/BR122020013720B1/pt active IP Right Grant
- 2012-11-07 PT PT202165502T patent/PT3829174T/pt unknown
- 2012-11-07 TW TW101141395A patent/TWI537881B/zh active
- 2012-11-07 EP EP20216550.2A patent/EP3829174B1/en active Active
- 2012-11-07 HU HUE20216558A patent/HUE062027T2/hu unknown
- 2012-11-07 PT PT202165536T patent/PT3829175T/pt unknown
- 2012-11-07 PL PL20216547.8T patent/PL3829172T3/pl unknown
- 2012-11-07 ES ES20216558T patent/ES2951961T3/es active Active
- 2012-11-07 DK DK12848743.6T patent/DK2752006T3/da active
- 2012-11-07 CN CN201810044642.XA patent/CN108347609B/zh active Active
- 2012-11-07 ES ES20216553T patent/ES2951960T3/es active Active
- 2012-11-07 PL PL20216558.5T patent/PL3829176T3/pl unknown
- 2012-11-07 DK DK20216550.2T patent/DK3829174T3/da active
- 2012-11-07 DK DK20216547.8T patent/DK3829172T3/da active
- 2012-11-07 BR BR122020013719-3A patent/BR122020013719B1/pt active IP Right Grant
- 2012-11-07 CN CN201810045212.XA patent/CN108134933B/zh active Active
- 2012-11-07 RS RS20210490A patent/RS61740B1/sr unknown
- 2012-11-07 CN CN201810045657.8A patent/CN108347610B/zh active Active
- 2012-11-07 CN CN201810045222.3A patent/CN108111853B/zh active Active
- 2012-11-07 CN CN201810044636.4A patent/CN108282661B/zh active Active
- 2012-11-07 KR KR1020147009948A patent/KR20140076583A/ko not_active Application Discontinuation
- 2012-11-07 ES ES20216547T patent/ES2951910T3/es active Active
- 2012-11-07 IN IN3913CHN2014 patent/IN2014CN03913A/en unknown
- 2012-11-07 PT PT128487436T patent/PT2752006T/pt unknown
- 2012-11-07 PL PL20216550.2T patent/PL3829174T3/pl unknown
- 2012-11-07 EP EP20216547.8A patent/EP3829172B1/en active Active
- 2012-11-07 PT PT202165585T patent/PT3829176T/pt unknown
- 2012-11-07 KR KR1020147009946A patent/KR20140074946A/ko not_active Application Discontinuation
- 2012-11-07 PL PL12848743T patent/PL2752006T3/pl unknown
- 2012-11-07 MX MX2015010509A patent/MX336816B/es unknown
- 2012-11-07 BR BR122020013723-1A patent/BR122020013723B1/pt active IP Right Grant
- 2012-11-07 HU HUE12848743A patent/HUE054509T2/hu unknown
- 2012-11-07 HU HUE20216547A patent/HUE062049T2/hu unknown
- 2012-11-07 EP EP20216553.6A patent/EP3829175B1/en active Active
- 2012-11-07 EP EP23176701.3A patent/EP4224855A1/en active Pending
- 2012-11-07 US US14/350,013 patent/US8917772B2/en active Active
- 2012-11-07 BR BR122020013725-8A patent/BR122020013725B1/pt active IP Right Grant
- 2012-11-07 DK DK20216558.5T patent/DK3829176T3/da active
- 2012-11-07 SI SI201231897T patent/SI2752006T1/sl unknown
- 2012-11-07 EP EP12848743.6A patent/EP2752006B1/en active Active
- 2012-11-07 EP EP20216558.5A patent/EP3829176B1/en active Active
-
2014
- 2014-04-02 MX MX2016009076A patent/MX345047B/es unknown
- 2014-04-02 MX MX2015010508A patent/MX340481B/es unknown
- 2014-11-12 US US14/539,969 patent/US9338459B2/en active Active
- 2014-11-12 US US14/539,976 patent/US9338460B2/en active Active
-
2015
- 2015-10-07 JP JP2015199312A patent/JP6138883B2/ja active Active
- 2015-10-07 JP JP2015199314A patent/JP6138885B2/ja active Active
- 2015-10-07 JP JP2015199311A patent/JP6140237B2/ja active Active
- 2015-10-07 JP JP2015199313A patent/JP6138884B2/ja active Active
-
2016
- 2016-04-19 US US15/132,901 patent/US10158857B2/en active Active
- 2016-04-19 US US15/132,926 patent/US9912953B2/en active Active
-
2017
- 2017-04-28 JP JP2017090267A patent/JP6291613B2/ja active Active
-
2018
- 2018-01-24 US US15/879,125 patent/US10362312B2/en active Active
-
2019
- 2019-06-25 US US16/452,105 patent/US11089307B2/en active Active
-
2021
- 2021-03-05 CY CY20211100171T patent/CY1123872T1/el unknown
- 2021-04-26 HR HRP20210659TT patent/HRP20210659T1/hr unknown
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6680925B2 (ja) | マージモードにおける映像復号化方法 | |
BR122020013720B1 (pt) | Método de construção de lista de candidatos à mesclagem | |
KR101484058B1 (ko) | 영상 복호화 방법 | |
BR122015027425B1 (pt) | Método de decodificação de dados de vídeo em uma predição unidirecional | |
KR20140076581A (ko) | 영상 복호화 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
B07A | Application suspended after technical examination (opinion) [chapter 7.1 patent gazette] | ||
B25A | Requested transfer of rights approved |
Owner name: GENSQUARE LLC (KR) |
|
B09A | Decision: intention to grant [chapter 9.1 patent gazette] | ||
B16A | Patent or certificate of addition of invention granted [chapter 16.1 patent gazette] |
Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 07/11/2012, OBSERVADAS AS CONDICOES LEGAIS. PATENTE CONCEDIDA CONFORME ADI 5.529/DF, QUE DETERMINA A ALTERACAO DO PRAZO DE CONCESSAO. |