BR112013018993A2 - método para induzir um bloco candidato de mesclagem e dispositivo que usa o mesmo - Google Patents

método para induzir um bloco candidato de mesclagem e dispositivo que usa o mesmo Download PDF

Info

Publication number
BR112013018993A2
BR112013018993A2 BR112013018993-2A BR112013018993A BR112013018993A2 BR 112013018993 A2 BR112013018993 A2 BR 112013018993A2 BR 112013018993 A BR112013018993 A BR 112013018993A BR 112013018993 A2 BR112013018993 A2 BR 112013018993A2
Authority
BR
Brazil
Prior art keywords
block
mer
merge candidate
forecast
spatial merge
Prior art date
Application number
BR112013018993-2A
Other languages
English (en)
Other versions
BR112013018993B1 (pt
Inventor
Bae Keun Lee
Jae Cheol Kwon
Joo Young Kim
Original Assignee
Kt Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020120039500A external-priority patent/KR101197176B1/ko
Application filed by Kt Corporation filed Critical Kt Corporation
Publication of BR112013018993A2 publication Critical patent/BR112013018993A2/pt
Publication of BR112013018993B1 publication Critical patent/BR112013018993B1/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/625Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

  MÉTODO PARA INDUZIR UM BLOCO CANDIDATO DE MESCLAGEM E DISPOSITIVO QUE USA O MESMO. A presente invenção refere-se a um método para induzir um bloco candidato de mesclagem e um dispositivo que usa o mesmo. Um método de decodificação de imagem envolve decodificar as informações relacionadas à região de estimativa (MER); determinar se um bloco alvo previsto e um bloco candidato de mescla-gem espacial estão ou não incluídos na mesma MER; e determinar o bloco candidato de mesclagem espacial para ser um bloco candidato de mesclagem indisponível quando o bloco alvo previsto e o bloco candidato de mesclagem espacial espacial estiverem incluídos na mesma MER. Consequentemente, ao realizar paralelamente o método para induzir um candidato de mesclagem, o processamento paralelo é permitido e a quantidade de computação e a comple-xidade de implantação são reduzidas.

Description

Relatório Descritivo da Patente de Invenção para "MÉTODO PARA INDUZIR UM BLOCO CANDIDATO DE MESCLAGEM E DISPOSITI- VO QUE USA O MESMO". Campa da Técnica 5 A presente invenção refere-se a um método de codificação e de- codificação de vídeo e, mais particularmente, a um método de derivação de um bloco candidato de mesclagem e um aparelho que usa o mesmo.
Antecedentes da Técnica Recentemente, uma demanda por um vídeo com uma alta reso- 10 lução e uma alta qualidade, como um vídeo de alta definição (HD) e um vi- deo de ultra-alta definição (UHD) aumentou em vários campos de aplicação.
Conforme a resolução e qualidade de vídeo se tornam maiores, uma quanti- dade de video aumenta relativamente em comparação a um vídeo existente, e portanto, em um caso em que o vídeo é transmitido com o uso de um mei- 15 o, como uma rede de banda larga com ou sem fio existente ou armazenado em um meio de armazenamento existente, um custo de transmissão e um custo de armazenamento seria aumentado.
A fim de solucionar esses pro- blemas gerados, como resolução e qualidade que ficam maiores, técnicas de compressão de vídeo de alta eficácia podem ser utilizadas. 20 As técnicas de compressão de vídeo incluem várias técnicas, como uma técnica de previsão de inter(retrato) para prever um valor de pixel incluído em um retrato atual de um retrato de antes ou depois do retrato atu- al, uma técnica de previsão de inter(retrato) para prever o valor de pixel in- cluído em um retrato atual pelo uso de informações de pixel no interior do 25 retrato atual, e uma técnica de codificação de entropia para designar um có- digo mais curto para um valor de frequência de alta ocorrência e designar um código mais longo a um valor de frequência de baixa ocorrência, e os dados do video podem ser eficazmente comprimidos para serem transmiti- dos ou armazenados ao usar tal técnica de compressão de vídeo. 30 Descrição Problema da Técnica O primeiro propósito da presente invenção é o de fornecer um método de derivação de um candidato de mesclagem com um processamen- to paralelo.
O segundo propósito da presente invenção é o de fornecer um aparelho para realizar um método de derivação de um candidato de mescla- 5 gem com um processamento paralelo.
Solução Técnica De acordo com um aspecto da presente invenção para alcançar o primeiro objetivo da presente invenção descrito acima, um método de deri- vação de um candidato de mesclagem é fornecido.
O método pode incluir 10 informações relacionadas à região de estimativa de movimento de decodifi- 1 cação (MER); que determina se um bloco de objeto de previsão e um bloco candidato de mesclagem espacial são incluídos no mesmo MER; e decidir o bloco candidato de mesclagem espacial como um bloco candidato de mes- clagem indisponível se for determinado que um bloco candidato de mescla- 15 gem que não usa o bloco candidato de mesclagem espacial quando o bloco de objeto de previsão e o bloco candidato de mesclagem espacial são inclu- ídos na mesma MER.
O método pode incluir ainda determinar de modo a- daptativo um bloco candidato de mesclagem espacial de acordo com um tamanho da MER e um tamanho do bloco de objeto de previsão se o bloco 20 de objeto de previsão e o bloco candidato de mesciagem espacial forem in- cluídos na mesma MER.
Se o tamanho da MER é de 8x8 e o tamanho do bloco de objeto de previsão é de 8x4 ou 4x8, pelo menos um dos blocos candidatos de mesclagem espacial do bloco de objeto de previsão pode ser substituído por um bloco que inclui um ponto localizado fora da MER.O mé- 25 todo pode incluir ainda determinar se o bloco candidato de mesclagem es- pacial é incluído em uma MER que não foi ainda decodificada.
O método pode incluir ainda substituir o bloco candidato de mesclagem espacial por um bloco incluído na outra MER se o bloco de objeto de previsão e o bloco candidato de mesclagem espacial forem incluídos na mesma MER.
O bloco 30 candidato de mesclagem espacial substituído pode ser um bloco candidato de mesclagem espacial que é substituído de modo adaptativo para ser inclu- ido em uma MER diferente do bloco de objeto de previsão de acordo com uma localização do bloco candidato de mesclagem espacial incluído na mesma MER.
As informações relacionadas à MER podem ser informações relacionadas ao tamanho da MER e transmitidas em unidade de um retra- to.A determinação se o bloco de objeto de previsão e o bloco candidato de 5 mesclagem espacial são incluídos na mesma MER pode incluir determinar se o bloco de objeto de previsão e o bloco candidato de mesclagem espacial são incluídos na mesma MER de acordo com uma equação de determinação com base em informações de localização do bloco de objeto de previsão, informações de localização do bloco candidato de mesclagem espacial, e 10 informações de tamanho da MER.
De acordo com outro aspecto da presente invenção para alcan- çar o segundo objetivo da presente invenção descrito acima, um aparelho de decodificação de imagem é fornecido.
O aparelho pode incluir uma unidade de decodificação de entropia para informações relacionadas à região de es- timativa de movimento de decodificação (MER) e uma unidade de previsão para determinar se um bloco de objeto de previsão e um bloco candidato de mesclagem espacial são incluídos na mesma MER e decidir o bloco candi- dato de mesclagem espacial como um bloco candidato de mesclagem indis- ponível se o bloco de objeto de previsão e o bloco candidato de mesclagem espacial forem incluídos na mesma MER.
A unidade de previsão pode ser uma unidade de previsão que determina de forma adaptativa um bloco can- didato de mesclagem espacial de acordo com um tamanho da MER e um tamanho do bloco de objeto de previsão se o bloco de objeto de previsão e o bloco candidato de mesclagem espacial forem incluídos na mesma MER.
Se o tamanho da MER é 8x8 e o tamanho do bloco de objeto de previsão for 8x4 ou 4x8, a unidade de previsão pode substituir pelo menos um dos blocos candidatos de mesclagem espacial do bloco de objeto de previsão com um bloco que inclui um ponto localizado fora da MER.
A unidade de previsão pode determinar se o bloco candidato de mesciagem espacial é incluído em uma MER que ainda não foi decodificada.
A unidade de previsão pode ser uma unidade de previsão que substitui o bloco candidato de mesclagem es- pacial por um bloco incluído em outra MER quando o bloco de objeto de pre-
visão e o bloco candidato de mesclagem espacial são incluídos na mesma MER.
Q bloco candidato de mesclagem espacial substituído pode ser um bloco candidato de mesclagem espacial que é substituído de modo adaptati- vo para ser incluído em uma MER diferente do bloco de objeto de previsão 5 de acordo com uma localização do bloco candidato de mesclagem espacial incluído na mesma MER.
As informações relacionadas à MER podem ser informações relacionadas ao tamanho da MER, e transmitidas em unidade de um retrato.
A unidade de previsão pode ser uma unidade de previsão que determina se o bloco de objeto de previsão e o bloco candidato de mescla- gem espacial são incluídos na mesma MER com base em uma equação de determinação de acordo com informações de localização do bloco de objeto de previsão, informações de localização do bloco candidato de mesclagem espacial, e informações de tamanho da MER.
Efeitos Vantajosos 15 De acordo com um método de derivação um bloco candidato de mesclagem e um aparelho que usa o mesmo descrito nas modalidades e- xemplificativas da presente invenção, um processamento paralelo pode ser alcançado ao realizar o método de derivação do bloco candidato de mescla- gem em paralelo, portanto, uma qualidade computacional e complexidade de 20 implantação podem ser reduzidas.
Descricão dos Desenhos A Figura 1 é um diagrama em blocos que ilustra um codificador de vídeo de acordo com uma modalidade exemplificativa da presente inven- ção. 25 A Figura 2 é um diagrama em blocos que ilustra um decodifica- dor de vídeo de acordo com outra modalidade exemplificativa da presente invenção.
A Figura 3 é uma vista conceitual que ilustra blocos candidatos para aplicar um modo de mesclagem e um modo de salto de acordo com 30 uma modalidade exemplificativa da presente invenção.
A Figura 4 é uma vista conceitual que ilustra um método para decidir um bloco candidato de mesclagem de acordo com uma modalidade exemplificativa da presente invenção.
A Figura 5 é uma vista conceitua) que ilustra um método para decidir um bloco candidato de mesclagem de acordo com um tamanho de uma MER de acordo com uma modalidade exemplificativa da presente in- 5 venção.
A Figura 6 é uma vista conceitual que ilustra um método para determinar se um bloco candidato de mesclagem espacial de um bloco atual está disponível.
A Figura 7 é um fluxograma que ilustra um método de obtenção 10 de um bloco candidato de mesclagem espacial em um modo de mesclagem de acordo com uma modalidade exemplificativa da presente invenção.
A Figura 8 é um fluxograma que ilustra um método de interprevi- são que aplica um modo de mesclagem de acordo com uma modalidade exemplificativa da presente invenção. 15 Modo para a Invenção Embora várias modificações e modalidades exemplificativas possam ser feitas, apenas modalidades exemplificativas particulares serão descritas mais completamente no presente documento com referência aos desenhos anexos.
Entretanto, a presente invenção não deve ser entendida como limitada apenas às modalidades exemplificativas apresentadas no presente documento, mas, ao invés disso, deve ser entendida por cobrir to- das as modificações, equivalentes ou alternativas que se encaixam dentro do escopo e termos técnicos da invenção.
Números similares referem-se a elementos similares nos desenhos. 25 Será entendido que, embora os termos primeiro, segundo, etc. possam ser usados no presente documento para descrever vários elemen- tos, esses elementos não devem ser limitados por esses termos.
Esses ter- mos são apenas usados para distinguir um elemento do outro.
Esses termos são apenas usados para distinguir um elemento de outro elemento.
Por e- 30 xemplo, um primeiro elemento poderia ser denominado um segundo elemen- to sem divergir dos ensinamentos da presente invenção e, similarmente, o segundo elemento poderia ser denominado o primeiro elemento.
O termo
"e/ou" inclui uma combinação de urna pluralidade de itens listados associa- dos ou qualquer um da pluralidade dos itens listados associados.
Será entendido que, quando um recurso ou elemento é referido como sendo "conectado" ou "acoplado" a outro recurso ou elemento, o 5 mesmo pode ser diretamente conectado ou acoplado ao outro elemento ou elementos intervenientes podem estar presentes.
Em contraste, quando um recurso ou elemento é referido como sendo "diretamente conectado" ou "di- retamente acoplado" a outro elemento, será entendido que não há elemen- tos intervenientes presentes. 10 A terminologia usada no presente documento é para o propósito de descrever modalidades particulares apenas e não se destinam a serem limitantes das modalidades exemplificativas da invenção.
As formas singula- res "um", "uma" e "o", "a" são destinadas a incluírem as formas plurais tam- bém, a não ser que o contexto indique claramente de outra forma.
Será en- 15 tendido que os termos "compreende", ou "inclui", quando usados no presen- te documento, especificam a presença de recursos, números inteiros, eta- pas, operações, elementos, componentes citados ou quaisquer combinações dos mesmos, mas não excluem a presença ou adição de um ou mais outros recursos, números inteiros, etapas, operações, elementos, componentes, ou 20 qualquer combinações dos mesmos.
Doravante no presente documento, a presente invenção será descrita em detalhes com referência aos desenhos anexos.
Doravante no presente documento, os mesmos números de referência são usados por to- dos os desenhos para se referir às mesmas partes e uma explicação repeti- 25 tiva das mesmas partes será omitida.
A Figura 1 é um diagrama em blocos que ilustra um codificador de video de acordo com outra modalidade exemplificativa da presente in- venção.
Referindo-se à Figura 1, um codificador de vídeo 100 pode inclu- 30 ir um módulo de particionamento de retrato 110, um módulo de interprevisão 120, um módulo de intraprevisão 125, um módulo de transformada 130, um módulo de quantização 135, um módulo de redisposição 160, um módulo de codificação de entropia 165, um módulo de desquantização 140, um módulo de transformada inversa 145, um módulo de filtragem 150, e uma memória
155. Cada módulo mostrado na Figura 1 é independentemente ilus- 5 trado a fim de fornecer diferentes recursos de funções no codificador de ví- deo e não se destina a significar que cada módulo é configurado como um hardware separado ou uma unidade de componente de software. Isto é, ca- da módulo é listado como respectivo elemento para fins ilustrativos, e pelo menos dois módulos entre os módulos podem ser combinados em um ele- 10 mento ou um módulo pode ser dividido em uma pluralidade de elementos - para realizar uma função, e uma modalidade na qual os respectivos módulos são combinados ou divididos é incluída no escopo reivindicado da presente invenção sem divergir da essência da presente invenção. Além disso, uma parte dos elementos pode não ser um elemento 15 indispensável para realizar uma função essencial na presente invenção, mas meramente um elemento seletivo para aprimorar o desempenho. A presente invenção pode ser implantada apenas com elementos essenciais para im- plantar a essência da presente invenção e excluir elementos usados mera- mente para aprimorar o desempenho, e uma configuração que inclui apenas 20 os elementos essenciais exclui os elementos seletivos, que são usados ape- nas para aprimorar o desempenho, é também incluído no escopo reivindica- do da presente invenção. O módulo de particionamento de retrato 110 pode dividir um re- trato de entrada em pelo menos uma unidade de processamento. Aqui, a 25 unidade de processamento pode ser uma unidade de previsão (PU), uma unidade de transformada (TU), ou uma unidade de codificação (CU). O mó- dulo de particionamento de retrato 110 pode dividir um retrato em uma com- binação de uma pluralidade de unidades de codificação, unidades de previ- são e unidades de transformada e pode codificar o retrato ao selecionar uma 30 combinação de uma unidade de codificação, unidade de previsão(s) e uni- dade de transformada(s) com base em um critério predeterminado (por e- xemplo, uma função de custo).
Por exemplo, um retrato pode ser particionado em uma plurali- dade das unidades de codificação.
A fim de particionar a unidade de codifi- cação, uma estrutura de árvore recursiva como uma estrutura de quad tree pode ser usada, e uma unidade de codificação que é dividida em outras uni- 5 dades de codificação com um retrato ou uma unidade de codificação maior como uma raiz pode ser dividir para ter um nó filho, tantos quantos forem os números de unidades de codificação divididas.
Uma unidade de codificação que não é mais dividida, de acordo com certa restrição, se torna um nó folha.
Em outras palavras, quando é assumido que apenas um particionamento 10 quadrado está disponível para uma unidade de codificação, uma unidade de codificação pode ser dividida em até quatro unidades de codificação diferen- tes.
Doravante no presente documento, em modalidades exemplifica- tivas da presente invenção, a unidade de codificação pode ser usada para 15 se referir a não apenas uma unidade para codificação, mas também uma unidade para decodificação.
A unidade de previsão pode ser particionada com uma forma de quadrados ou retângulos que tem o mesmo tamanho no interior de uma uni- dade de codificação. 20 Ao gerar a unidade de previsão para realizar uma intraprevisão com base na unidade de codificação, se a unidade de codificação não for uma unidade de codificação menor, a intraprevisão pode ser realizada sem ser dividida em uma pluralidade de unidades de previsão em uma unidade NxN. 25 0 módulo de previsão pode incluir o módulo de interprevisão 120 para realizar uma interprevisão e o módulo de intraprevisão 125 para realizar uma intraprevisão.
Em relação à unidade de previsão, o módulo de previsão pode determinar se desempenha a interprevisão ou se desempenha a intra- previsão, e informações específicas (por exemplo, um modo de intraprevi- 30 são, um vetor de movimento, um retrato de referência, etc.) de acordo com cada método de previsão podem determinar.
Aqui, uma unidade de proces- sarnento para realizar a previsão e uma unidade de processamento para determinar o método de previsão e um detalhe específico pode ser diferente.
Por exemplo, o método de previsão e o modo de previsão podem ser deter- minados na unidade de previsão e a previsão pode ser realizada na unidade de transformada.
Um valor residual (um bloco residual) entre um bloco de 5 previsão gerado e um bloco original pode ser inserido ao módulo de trans- formada 130. Além disso, informações de modo de previsão, informações de vetor de movimento, etc. usadas para a previsão podem ser codificadas no módulo de codificação de entropia 135 juntamente com o valor residual a ser transmitido para o decodificador.
Quando um modo de codificação específico 10 é usado, é possível que o bloco de previsão não seja gerado através do mó- dulo de previsão 120, 125, mas o bloco original é codificado conforme deve ser transmitido para um decodificador.
O módulo de interprevisão pode prever na unidade de previsão com base em informações de pelo menos um retrato entre retratos antes ou 15 após um retrato atual.
O módulo de interprevisão pode incluir um módulo de interpolação de retrato de referência, um módulo de previsão de movimento, e um módulo de compensação de movimento.
O módulo de interpolação de retrato de referência pode ser for- necido com informações de retrato de referência da memória 155 e pode 20 gerar informações de pixel em menos do que uma unidade de pixel de nú- mero inteiro do retrato de referência.
No caso de um pixel fuma, um filtro de interpolação de 8 toques com base em DCT pode ser usado no qual um coe- ficiente de filtro é variado para gerar informações de pixel menores do que a unidade de pixel de número inteiro por uma unidade de 1/4 de pixel.
No caso 25 de um sinal cromático, um filtro de interpolação de 4 toques com base em DCT pode ser usado no qual um coeficiente de filtro é variado para gerar informações de pixel menores do que a unidade de pixel de número inteiro por uma unidade de 118 de pixel.
O módulo de previsão de movimento pode realizar previsão de 30 movimento com base em um retrato de referência interpolado pelo módulo de interpolação de retrato de referência.
Para um método de obtenção do vetor de movimento, vários métodos como FBMA (Algoritmo de Correspon-
dência de Bloco com Base em Pesquisa Completa), TSS (Pesquisa em Três Etapas), ou NTS (Novo Algoritmo de Pesquisa em Três Etapas) podem ser usados.
O vetor de movimento pode ter um valor de vetor de movimento em uma unidade de 112 ou 114 de pixel com base no pixel interpolado.
O módulo 5 de previsão de movimento pode prever uma unidade de previsão atual ao variar o método de previsão de movimento.
Como um método de previsão de movimento, vários métodos como um modo de salto, um modo de mes- clagem, ou modo de vetor de movimento previsão avançado (AMVP) podem ser usados. 10 De acordo com modalidades exemplificativas da presente inven- ção, no momento do desempenho da interprevisão, a região de estimativa de movimento (MER) pode ser definida para realizar a previsão em paralelo.
Por exemplo, no momento do desempenho da interprevisão que usa o modo de mesciagem ou o modo de salto, se um bloco de objeto de previsão e um 15 bloco candidato de mesclagem espacial são incluídos na mesma MER po- dem ser determinados, e quando o bloco de objeto de previsão e o bloco candidato de mesclagem espacial são não incluídos na mesma MER, o blo- co candidato de mesclagem espacial pode ser determinado como não dis- ponível ou um bloco candidato de mesclagem pode ser determinado ao de- 20 termina se o bloco candidato de mesclagem espacial é incluído em uma MER que ainda não foi decodificada.
Doravante no presente documento, em modalidades exemplificativas da presente invenção, uma operação da uni- dade de previsão no momento do desempenho da interprevisão é descrita.
A unidade de interprevisão pode gerar a unidade de previsão 25 com base em informações em pixels de referência próximos a um bloco atu- ai, em que os pixels de referência são pixels no interior do retrato atual.
Se um bloco próximo da unidade de previsão atual é um bloco no qual a inter- previsão é realizada, de modo que pixels de referência são pixels nos quais a interprevisão é realizada, os pixels de referência incluídos no bloco no qual 30 a interprevisão é realizada podem ser substituídos pelos pixels de referência do bloco próximo no qual a intraprevisão é realizada.
Em outras palavras, quando o pixel de referência não está disponível, pixels de referência que não estão disponíveis podem ser substituídos por pelo menos um pixel de referência entre pixels de referência disponíveis.
A intraprevisão pode ter modos de previsão direcionais que u- sam informações nos pixels de referência de acordo com uma direção de 5 previsão e modos não direcionais que não usam as informações direcionais no momento do desempenho da previsão.
Um modo para prever informa- ções em amostras de luma e um modo para prever informações em amos- tras de croma pode ser diferente.
Adicionalmente, informações sobre modo de intraprevisão que é usado para as amostras de luma ou informações so- 10 bre sinal de fuma previsto podem ser utilizadas para prever informações so- bre amostras de croma.
No caso em que um tamanho da unidade de previsão e um ta- manho da unidade de transformada são os mesmos no momento do desem- penho da intraprevisão, a intraprevisão pode ser realizada na unidade de 15 previsão com base em pixels que existem em um lado esquerdo da unidade de previsão, pixels que existem em uma região superior esquerda, e pixels que existem em uma região superior.
Entretanto, em um caso em que o ta- manho da unidade de previsão e o tamanho da unidade de transformada são diferentes no momento do desempenho da intraprevisão, a intraprevisão po- 20 de ser realizada ao usar os pixels de referência com base na unidade de transformada.
Além disso, a intraprevisão que usa divisão NxN apenas em relação à menor unidade de codificação pode ser usada.
No método de intraprevisão, de acordo com o modo de previsão, um filtro de intrassuavização dependente de modo (MDIS) pode ser aplicado 25 no pixel de referência para gerar o bloco de previsão.
Um tipo do filtro de MDIS que se aplica ao pixel de referência pode ser diferente.
A fim de reali- zar a intraprevisão, o modo de intraprevisão da unidade de previsão atual pode ser previsto a partir do modo de intraprevisão da unidade de previsão próxima à unidade de previsão atual.
No momento da previsão do modo de 30 previsão da unidade de previsão atual, ao usar informações de modo previs- tas de uma unidade de previsão próxima, se os modos de intraprevisão da unidade de previsão atual e da unidade de previsão próxima são os mes-
mos, informações de que os modos de previsão da unidade de previsão atu- al e da unidade de previsão próxima são os mesmos podem ser transmitidas ao usar informações de sinalizador predeterminadas, e se os modos de pre- visão da unidade de previsão atual e da unidade de previsão próxima são 5 diferentes, as informações de modo de previsão do bloco atual podem ser decodificadas por codificação de entropia.
Além disso, um bloco residual que inclui informações de valor residuais que são uma diferença entre a unidade de previsão na qual a pre- visão é realizada com base na unidade de previsão gerada no módulo de 10 previsão 120, 125 e um bloco original da unidade de previsão.
O bloco resi- dual gerado pode ser inserido no módulo de transformação 130. 0 módulo de transformação 130 pode transformar o bloco residual que inclui as infor- mações de valor residuais do bloco original e a unidade de previsão gerada no módulo de previsão 120, 125 ao usar um método de transformada como 15 uma transformada de cosseno discreta (DCT) ou uma transformada de seno discreta (DST). A aplicação da DCT ou da DST a fim de transformar o bloco residual pode ser determinada com base nas informações de modo de intra- previsão da unidade de previsão usadas para gerar o bloco residual.
O módulo de quantização 135 pode quantizar valores transfor- 20 mados em um domínio de frequência pelo módulo de transformação 130. Dependendo de um bloco ou uma importância de uma imagem, um parâme- tro de quantização pode ser variado.
Um valor emitido pelo módulo de quan- tização 135 pode ser fornecido ao módulo de desquantização 140 e ao mó- dulo de redisposição 160. 25 0 módulo de redisposição 160 pode redispor o valor de coefici- ente quantizado em relação ao valor residual.
O módulo de redisposição 160 pode modificar um coeficiente de um arranjo bidimensional de uma forma de bloco para uma forme de um ve- tor dimensional através de um método de varredura de coeficiente.
Por e-- 30 xemplo, no módulo de redisposição 160, a de um coeficiente de DC a um coeficiente em um domínio de frequência alta pode sofrer varredura para serem redispostos a uma forma de vetor de dimensão com o uso de um mo-
do de varredura diagonal. De acordo com um tamanho de uma unidade de transformação e do modo de intraprevisão, um modo de varredura vertical de varredura de dois coeficientes dimensionais em uma forma de bloco em uma direção de coluna ou um modo de varredura horizontal de varredura de 5 dois coeficientes dimensionais na forma de bloco em uma direção de fileira pode ser usado ao invés do modo de varredura diagonal. Em outras pala- vras, pode ser determinado qual modo de varredura dentre o modo de var- redura diagonal, o modo de varredura vertical e o modo de varredura hori- zontal é usado de acordo com o tamanho da unidade de transformação e do 10 modo de intraprevisão. O módulo de codificação de entropia 165 desempenha a codifi- cação de entropia com base nos valores emitidos do módulo de redisposição
160. A codificação de entropia pode usar vários métodos de codificação tais como, por exemplo, Codificação Aritmética binária Adaptativa ao Contexto 15 (CABAC), Golomb Exponencial. A unidade de codificação de entropia 165 pode codificar várias informações como informações de coeficiente residuais de unidade de codi- ficação e informações do tipo bloco, informações de modo de previsão, in- formações de unidade de partição, informações de unidade de previsão, in- 20 formações de unidade de transmissão, informações de vetores de movimen- to, informações de retrato de referência, informações de interpolação em um bloco, informações de filtragem, informações de MER, etc., a partir do módu- lo de redisposição 160 e do módulo de previsão 120, 125. A unidade de codificação de entropia 165 pode realizar a codifi- 25 cação de entropia no valor de coeficiente na unidade de codificação inserida a partir do módulo de redisposição 160 com o uso do método de codificação de entropia como CABAC. O módulo de desquantização 140 e o módulo de transformação inversa 145 desquantizam os valores quantizados pelo módulo de quantiza- 30 ção 135 e transformam inversamente os valores transformados pelo módulo de transformação 130. 0 valor residual gerado pelo módulo de desquantiza- ção 140 e pelo módulo de transformação inversa 145 pode ser adicionado à unidade de previsão prevista através do módulo de estimativa de movimen- to, do módulo de compensação de movimento e do módulo de intraprevisão incluídos no módulo de previsão 120, 125 para gerar um bloco reconstruído.
O módulo de filtragem 150 pode incluir pelo menos um dentre 5 um filtro de desbloqueio, um módulo de correção de desvio, e um filtro de laço adaptativo (ALF). O filtro de desbloqueio pode remover uma distorção de bloco ge- rada devido a um limite entre blocos em um retrato reconstruído.
A fim de determinar a necessidade de realização da filtragem de desbloqueio, pode 10 ser determinada a aplicação do filtro de desbloqueio ao bloco atual com ba- se nos pixels incluídos em diversas colunas ou fileiras incluídas no bloco.
Durante a aplicação do filtro de desbloqueio ao bloco, um filtro forte ou um filtro fraco pode ser aplicado dependendo de uma resistência de filtragem de desbloqueio requerida.
Além disso, aplicando-se o filtro de desbloqueio, du- 15 rante a realização de uma filtragem vertical e uma filtragem horizontal, uma filtragem de direção horizontal e uma filtragem de direção vertical podem ser processadas em paralelo.
O módulo de correção de desvio pode corrigir um desvio a partir de uma imagem original através de uma unidade de pixel em relação à ima- 20 gem na qual a filtragem de desbloqueio é realizada.
A fim de realizar a corre- ção de desvio em relação a um retrato específico, um método de classifica- ção de pixels incluídos na imagem em um número predeterminado de regi- ões, que determina uma região na qual o desvio deve ser realizado e que aplica o desvio a uma região correspondente ou um método de aplicação do 25 desvio considerando-se as informações de borda de cada pixel pode ser u- sado.
O filtro de laço adaptativo (ALF) pode realizar a filtragem com base em uma comparação entre a imagem reconstruída filtrada e a imagem original.
Após classificar os pixels incluídos na imagem em um grupo prede- 30 terminado e determinar um filtro a ser aplicado a um grupo correspondente, a filtragem pode ser aplicada a cada grupo determinado diferencialmente com cada filtro.
As informações sobre a aplicação do ALF podem ser trans-
mitidas pela unidade de codificação (CU) e um tamanho e um coeficiente do ALF a ser aplicado podem ser diferentes para cada bloco.
O ALF pode ter vários formatos e, portanto, vários coeficientes no filtro podem ser diferentes para cada filtro.
As informações relacionadas à filtragem do ALF (informa- 5 ções de coeficiente de filtro, informações de desligamento/ligamento do ALF, informações de formato de filtro, etc.) podem ser incluídas e transmitidas em um conjunto de parâmetros predeterminado em uma corrente de bits.
A memória 155 pode armazenar um retrato ou bloco reconstruí- do emitido do módulo de filtragem 150, e o retrato ou bloco reconstruído ar- 10 mazenado pode ser fornecido ao módulo de previsão 120, 125 durante a realização da interprevisão.
A Figura 2 é um diagrama em blocos que ilustra um codificador de imagem de acordo com outra modalidade exemplificativa da presente invenção. 15 Referindo-se à Figura 2, um decodificador de vídeo pode incluir um módulo de decodificação por entropia 210, um módulo de redisposição 215, um módulo de desquantização 220, um módulo de transformação in- versa 225, um módulo de previsão 230, 235, um módulo de filtro 240 e uma memória 245. 20 Quando um fluxo de bits de vídeo é inserida a partir do codifica- dor de vídeo, o fluxo de bits de entrada pode ser decodificada em uma or- dem oposta à ordem de processamento no codificador de vídeo.
O módulo de decodificação por entropia 210 pode realizar a de- codificação por entropia em um uma ordem oposta à realização da codifica- 25 ção por entropia no módulo de codificação por entropia do codificador de vídeo.
As informações para gerar o bloco de previsão dentre as informações decodificadas pelo módulo de decodificação por entropia 210 podem ser for- necidas ao módulo de previsão 230, 235 e os valores residuais que são de- codificada por entropia no módulo de decodificação por entropia podem ser 30 inseridos no módulo de redisposição 215. O módulo de decodificação por entropia 210 pode decodificar as informações relacionadas à intraprevisão e a interprevisão realizada pelo codificador.
Conforme descrito acima, quando há uma restrição predetermi- nada para a intraprevisão e para a interprevisão no codificador de vídeo, as informações relacionadas à intraprevisão e à interprevisão do bloco atual podem ser fornecidas ao realizar a decodificação por entropia com base na 5 restrição.
O módulo de redisposição 215 pode realizar a redisposição do fluxo de bits que é decodificado por entropia pelo módulo de decodificação por entropia 210 com base em um método de redisposição do codificador.
Os coeficientes representados em uma forma de vetor dimensional podem 10 ser reconstruídos e redispostos em uma forma de bloco bidimensional.
O módulo de desquantização 220 pode realizar a desquantiza- ção com base no parâmetro de quantização fornecido a partir do codificador e do bloco de coeficientes redispostos.
O módulo de transformação inversa 225 pode realizar uma DCT 15 inversa e uma DST inversa em um resultado da quantização realizada pelo codificador de vídeo em relação à DCT e à DST realizadas pelo módulo de transformação.
A transformação inversa pode ser realizada com base na unidade de transmissão determinada pelo codificador de vídeo.
No módulo de transformação do codificador de vídeo, a DCT e a DST podem ser reali- 20 zadas seletivamente de acordo com uma pluralidade de informações como método de previsão, o tamanho do bloco atual e a direção de previsão e o módulo de transformação inversa 225 do decodificador de vídeo pode reali- zar a transformação inversa com base nas informações de transformação realizadas no módulo de transformação do codificador de vídeo. 25 O módulo de previsão 230, 235 pode gerar p bloco de previsão com base nas informações relacionadas à geração do bloco de previsão for- necidas a partir do módulo de decodificação por entropia 210 e nas informa- ções do bloco ou retrato anteriormente decodificado fornecido a partir da memória 245. 30 0 módulo de previsão 230, 235 pode incluir um módulo de de- terminação de unidade de previsão, um módulo de interprevisão e um módu- lo de intraprevisão.
O módulo de determinação de unidade de previsão pode receber várias informações como as informações de unidade de previsão, informações de modo de previsão do método de intraprevisão e as informa- ções relacionadas à previsão de movimento do método de interprevisão in- sendas a partir do decodificados por entropia, distingue a unidade de previ- 5 são na unidade de codificação atual com base nas informações recebidas e determina se a interprevisão é realizada na unidade de previsão ou se a in- traprevisão é realizada na unidade de previsão.
A unidade de interprevisão pode realizar a interprevisão em relação à unidade de previsão atual com base nas informações incluídas em pelo menos um retrato entre os retratos 10 anteriores e o retrato subsequente do retrato atual que inclui a unidade de previsão atual ao usar as informações exigidas para a interprevisão da uni- dade de previsão atual fornecidas pelo codificador de vídeo.
A fim de realizar a interprevisão, pode ser determinado com ba- se na unidade de codificação se o método de previsão de movimento na u- 15 nidade de previsão incluída em uma unidade de codificação correspondente é o modo de salto, o modo de mesclagem ou o modo de AMVP.
De acordo com uma modalidade exemplificativa da presente in- venção, ao realizar a interprevisão, a região de estimativa de movimento (MER) pode ser definida para realizar a previsão em paralelo.
Por exemplo, 20 ao realizar a interprevisão que usa a mesclagem ou o salto, se o bloco de objeto de previsão e o bloco candidato de mesclagem espacial estão incluí- dos na mesma MER pode ser determinado.
Quando o bloco de objeto de previsão e o bloco candidato de mesclagem espacial não estão incluídos na mesma MER, o bloco candidato de mesclagem espacial pode ser determi- 25 nado como indisponível ou o bloco candidato de mesclagem espacial pode ser determinado como o bloco candidato de mesciagem determinando-se se o bloco candidato de mesclagem espacial está incluído em uma MER que ainda não foi decodificada.
Um operação do módulo de previsão será descri- ta em detalhes em uma modalidade exemplificativa da presente invenção. 30 0 módulo de intraprevisão pode gerar um bloco de previsão com base nas informações de pixel no interior do retrato atual.
Quando a unidade de previsão é uma unidade de previsão para realizar a intraprevisão, a intra-
previsão pode ser realizada com base nas informações de modo de intrapre- visão da unidade de previsão fornecidas pelo codificador de vídeo.
O módulo de intraprevisão pode incluir o filtro MDIS, um módulo de interpolação de pixel de referência e um filtro DC.
O filtro MDIS é um módulo para realizar a 5 filtragem do pixel de referência do bloco atual e se deve aplicar o filtro pode ser determinado e aplicado de acordo com p modo de previsão da unidade de previsão atual.
A filtragem pode ser realizada no pixel de referência do bloco atual ao usar o modo de previsão da unidade de previsão e as infor- mações de filtro MDIS fornecida pelo codificador de vídeo.
Quando o modo 10 de previsão do bloco atual é um modo que não realiza a filtragem, o filtro MDIS pode não aplicar.
O módulo de interpolação de pixel de referência pode gerar um pixel de referência em unidade de pixel menos que um valor de número intei- ro pela interpolação do pixel de referência quando o modo de previsão da 15 unidade de previsão é a unidade de previsão para realizar a intraprevisão com base em um valor de pixel do pixel de referência interpolado.
Quando o modo de previsão da unidade de previsão atual é um modo de previsão que gera o bloco de previsão sem a interpolação do pixel de referência, o pixel de referência pode não ser interpolado.
O filtro DC pode gerar o bloco de 20 previsão através da filtragem se o modo de previsão do bloco atual for um modo DC.
O bloco ou retrato reconstruído pode ser fornecido para o módu- lo de filtro 240. 0 módulo de filtro 240 pode incluir um filtro de desbloqueio, um módulo de correção de deslocamento, um ALF. 25 As informações de se o filtro de desbloqueio é aplicado a um bloco ou retrato correspondente e se um filtro forte ou um filtro fraco é apli- cado se o filtro de desbloqueio for aplicado podem ser fornecidas a partir de um codificador de vídeo.
O filtro de desbloqueio do decodificador de vídeo pode ser fornecido com as informações sobre o filtro de desbloqueio a partir 30 do codificador de vídeo e realizar a filtragem de desbloqueio para o bloco correspondente no decodificador de video.
Assim como o codificador de ví- deo, uma filtragem de desbloqueio vertical e uma filtragem de desbloqueio horizontal são primeiro realizadas enquanto pelo menos um dentre o desblo- queio vertical e o desbloqueio horizontal pode ser realizado em uma área sobreposta.
Na área sobreposta da filtragem de desbloqueio vertical e da filtragem de desbloqueio horizontal, a filtragem de desbloqueio vertical ou a 5 filtragem de desbloqueio horizontal que não foi anteriormente realizada pode ser realizada Através desse processo de filtragem de desbloqueio, um pro- cessamento paralelo da filtragem de desbloqueio pode ser possível.
O módulo de correção de deslocamento pode realizar a correção de deslocamento na imagem reconstruída com base em um tipo da correção 10 de deslocamento aplicada à imagem e informações de valor de deslocamen- to.
O ALF pode realizar a filtragem com base em um valor da com- paração da imagem original e da imagem reconstruída através da filtragem.
O ALF pode ser aplicado à unidade de codificação com base nas informa- 15 ções sobre se aplicar o ALF, informações sobre um coeficiente de ALF forne- cido a partir do decodificador.
As informações de ALF podem ser incluídas em um conjunto de parâmetro particular a ser fornecido.
A memória 245 pode armazenar o retrato ou bloco reconstruído a ser usado como o retrato de referência ou o bloco de referência e o retrato 20 de referência podem ser fornecido para o módulo de saída.
Conforme descrito acima, embora a unidade de codificação seja usada para se referir a uma unidade de codificação em uma modalidade e- xemplificativa, a unidade de codificação pode ser uma unidade para realizar não somente a codificação, mas também a decodificação.
Doravante, o mé- 25 todo de previsão descrito nas Figuras 3 a 11 de acordo com uma modalidade exemplificativa da presente invenção pode ser realizado por um elemento tal como o módulo de previsão incluído na Figura 1 e na Figura 2. A Figura 3 é uma vista conceitual que ilustra blocos candidatos para aplicar o modo de mesclagem e modo de salto de acordo com uma 30 modalidade exemplificativa da presente invenção.
Doravante, por propósitos ilustrativos, uma descrição é feita em relação ao modo de mesciagem em uma modalidade exemplificativa da pre-
sente invenção; entretanto, o mesmo método pode ser aplicado ao modo de salto e tal modalidade é também incluída no escopo das reivindicações na presente invenção.
Referindo-se à Figura 3, a fim de realizar a interprevisão através 5 do modo de mesclagem, os blocos candidatos de mesclagem espaciais 300, 305, 310, 315, 320 e blocos candidatos de mesclagem temporais 350, 355 podem ser usados.
Quando um ponto (xP, yP) localizado em uma porção esquerda superior do bloco de objeto de previsão em relação a uma localização do bloco 10 de objeto de previsão, com uma largura do bloco de objeto de previsão, nPSW e uma altura do bloco de objeto de previsão, sPSH, cada bloco dos blocos can- didatos de mesclagem espaciais 300, 305, 310, 315, 320 pode ser um dentre um primeiro bloco 300 que inclui um ponto (xP-1, yP+nPSH-MinPuSize), um segundo bloco 305 que inclui um ponto (xP+nPSW-MinPuSize, yP-1), um ter- 15 ceiro bloco 310 que inclui um ponto (xP+nPSW, yP-1), um quarto bloco 315 que inclui um ponto (xP-1, yP+nPSH) e um quinto bloco 320 que inclui um ponto (xP-MinPuSize, yP-1). O candidato de mesclagem temporal pode usar uma pluralidade de blocos candidatos e um primeiro bloco Col (bloco colocalizado) 350 pode ser 20 um bloco que inclui um ponto (xP+nPSW, yP+nPSH) localizado em um retrato Col (retrato colocalizado). Se o primeiro bloco Col 350 não existir ou não es- tiver disponível (por exemplo, se o primeiro bloco Col não realizar a interprevi- são), um segundo bloco Col 355 que inclui um ponto (xP+(nPSW»1), yP+(nPSH»1)) localizado no retrato Col pode ser usado ao invés disso. 25 De acordo com uma modalidade exemplificativa da presente in- venção, a fim de realizar a interprevisão com o uso do modo de mesclagem em paralelo ao realizar a previsão de movimento, se deve usar o bloco can- didato de mesciagem em relação a uma determinada área pode ser determi- nado.
Por exemplo, a fim de determinar o bloco candidato de mesclagem 30 para realizar o modo de mesclagem, em relação a uma área predeterminada de um determinado tamanho, pode ser determinado se o bloco candidato de mesclagem existe dentro da área predeterminada juntamente com o bloco de objeto de previsão para determinar se deve usar o bloco candidato de mesciagem ou não ou substituir por outro bloco candidato de mesciagem, através disso realizando a previsão de movimento em paralelo em relação à área predeterminada.
Doravante, um método de previsão de movimento pa- 5 ralelo com o uso do modo de mesclagem será descrito em uma modalidade exemplificativa da presente invenção.
A Figura 4 é uma vista conceitual que ilustra um método para de- terminar um bloco candidato de mesclagem de acordo com uma modalidade exemplificativa da presente invenção. 10 Referindo-se à Figura 4, presume-se que uma unidade de codifi- cação maior (LCU) é dividida em quatro regiões de estimativa de movimento (MER). No caso de um primeiro bloco de previsão PUO incluído em uma primeira MER (MERO), similar à Figura 4, quando a interprevisão é realizada 15 usando-se o modo de mesclagem em relação ao primeiro bloco de previsão PUO, cinco blocos candidatos de mesclagem espaciais 400, 405, 410, 415, 420 podem existir como os blocos candidatos de mesclagem espaciais.
Os cinco blocos candidatos de mesciagem 400, 405, 410, 415, 420 podem exis- tir em uma localização não incluída na primeira MER (MERO) e podem ser 20 os blocos em quais a codificação/decodificação já foi realizada.
O segundo bloco de previsão (PUI) é um bloco de previsão inclu- ído em uma segunda MER (MER1) e quatro blocos candidatos de mescla- gem 430, 435, 445, 450 dentre os blocos candidatos de mesclagem espaci- ais 430, 435, 440, 445, 450 para realizar a interprevisão com o uso do modo 25 de mesclagem podem ser os blocos que existem dentro da segunda MER (MER1) e os blocos que pertencem à mesma MER que realiza atualmente a previsão.
O um bloco candidato de mesclagem restante 440 pode ser um bloco que existe em um lado direito da MER atual e um bloco incluído na LCU ou MER na qual a codificação/decodificação ainda não foi realizada. 30 De acordo com uma modalidade exemplificativa da presente in- venção, quando o bloco candidato de mesclagem do bloco atual e o bloco atual pertencem à mesma MER, o bloco candidato de mesclagem do bloco atual é excluído e as informações de movimento de pelo menos um bloco em outra localização podem ser adicionadas como o candidato de mescla- gem de acordo com um tamanho do bloco atual e um tamanho de MER.
Um bloco que inclui um ponto que existe em outra MER em uma 5 direção vertical ou horizontal pode ser adicionado como o bloco candidato de mesclagem.
Alternativamente, um bloco que pertence à outra MER em uma localização mais próxima ao bloco candidato pode ser adicionado como o bloco candidato de mesclagem.
Alternativamente, um bloco em uma locali- zação predeterminada de acordo com um formato e um tamanho do bloco 10 atual pode ser adicionado como um bloco candidato de mesclagem.
Por um exemplo, em um caso do bloco candidato de mesciagem 435 localizado em um lado superior da segunda unidade de previsão (PU1) e o bloco candidato de mesclagem 450 localizado em um lado esquerdo su- perior da segunda unidade de previsão, os blocos 455, 460 que incluem pon- 15 tos localizados fora da segunda MER na direção vertical podem ser usados como blocos candidatos de mesclagem substituídos.
Para o bloco candidato de mesclagem 430 localizado em um lado esquerdo da segunda unidade de previsão e o bloco candidato de mesclagem 445 localizado em um lado es- querdo inferior da segunda unidade de previsão, os blocos 465, 470 que in- 20 cluem pontos fora da MER na direção horizontal podem ser usados como blocos candidatos de mesclagem substituídos.
Quando um bloco é incluído na mesma MER com a unidade de previsão atual e assim não pode ser usa- do como o bloco candidato de mesclagem, o bloco candidato de mesclagem pode ser substituído por outro bloco que inclui um ponto em outra MER de 25 acordo com uma localização do bloco candidato de mesclagem.
Em caso de um terceiro bloco de previsão (PU2), um bloco can- didato de mesclagem 475 incluído na mesma MER com o terceiro bloco de previsão pode ser substituído para ser usado por um bloco 480, que existe em um lado superior na direção vertical.
Ademais, como outra modalidade 30 exemplificativa da presente invenção, é possível substituir a localização do bloco candidato de mesclagem substituindo-se uma localização do bloco candidato de mesclagem espacial com um bloco incluído em outra MER em uma direção não a direção vertical ou horizontal e essa modalidade exempli- ficativa é também incluída no escopo da reivindicação da presente invenção.
As seguintes etapas podem ser realizadas a fim de realizar um método para determinar os blocos candidatos de mesclagem. 5 1) Etapa de decodificar as informações relacionadas à região de estimação de movimento (MER) As informações relacionadas à MER podem incluir informações em um tamanho da MER.
Se o bloco de objeto de previsão está incluído na MER pode ser determinado com base nas informações no tamanho da MER 10 e no tamanho do bloco de objeto de previsão. 2) Etapa de determinar se o bloco de objeto de predição e o blo- co de candidato de mesclagem espacial estão incluídos na mesma MER No caso em que o bloco de objeto de previsão e o bloco candi- dato de mesclagem espacial estão incluídos na mesma MER, as seguintes 15 etapas podem ser realizadas para determinar de modo adaptável o bloco candidato de mesclagem espacial de acordo com o tamanho da MER e o tamanho do bloco de objeto de previsão. 3) Etapa de determinar que o bloco candidato de mesclagem es- pacial está indisponível quando o bloco de objeto de predição e o bloco can- 20 didato de mesclagem espacial estão incluídos na mesma MER Quando o bloco de objeto de previsão e o bloco candidato de mesclagem espacial estão incluídos na mesma MER, o bloco candidato de mesclagem espacial pode ser determinado como indisponível e o bloco can- didato de mesclagem espacial incluído na mesma MER pode ser substituído 25 por outro bloco candidato de mesclagem.
Também, conforme descrito abai- xo, é possível que o bloco candidato de mesclagem que é determinado co- mo indisponível não seja usado na interprevisão com o modo de mesclagem.
De acordo com outra modalidade exemplificativa da presente in- venção, um método que não usa o bloco candidato de mesclagem incluído na 30 mesma MER com o bloco de objeto de previsão também pode ser aplicado.
Por exemplo, dentre os blocos candidatos de mesclagem, os blocos que são incluídos em uma MER na qual que a codificação/decodi-
ficação já é realizada e se diferente de uma MER atual na qual a previsão é atualmente realizada estão disponíveis para a interprevisão que aplica o modo de mesciagem em paralelo.
Os blocos podem ser usados como os blocos candidatos de interprevisão com o modo de mesciagem.
Entretanto, 5 os blocos que pertencem à MER na qual a previsão é atualmente realizada podem não ser usados como o bloco candidato de interprevisão para a in- terprevisão com o modo de mesclagem.
O bloco em que a codificação/deco- dificação não é realizada pode também não ser usado como o bloco candi- dato de interprevisão.
Essa modalidade exemplificativa é também incluída no 10 escopo da reivindicação da presente invenção.
A Figura 5 é uma vista conceitual que ilustra um método para de- terminar um bloco candidato de mesclagem com base em um tamanho de uma MER de acordo com uma modalidade exemplificativa da presente in- venção. 15 Referindo-se à Figura 5, o candidato de mesclagem pode ser de- terminado de modo adaptável de acordo com o tamanho da MER e o tama- nho da unidade de previsão atual.
Por exemplo, em um caso em que um candidato de mesclagem que corresponde a uma dentre as localizações dos candidatos de mesclagem A, B, C, D, E está incluído na mesma MER com a 20 unidade de previsão atual, o candidato de mesclagem é determinado como indisponível.
Aqui, as informações de movimento de pelo menos um bloco em outra localização podem ser adicionadas como o candidato de mescla- gem de acordo com o tamanho do bloco atual e o tamanho da MER.
Na Figura 5, presume-se que o tamanho da MER é 8x8 e o blo- 25 co de objeto de previsão é 4x8. Quando o tamanho de MER é 8x8, um bloco de A incluído no bloco de objeto de previsão pertence à mesma MER com o bloco de objeto de previsão e os blocos de B, C, D e são incluídos em uma MER diferente do bloco de objeto de previsão.
No caso do bloco de A, o bloco pode ser substituído com uma 30 localização de um bloco (por exemplo, o bloco de A') que é incluído na MER diferente.
Portanto, de acordo com uma modalidade exemplificativa da pre- sente invenção, quando o bloco candidato de mesclagem do bloco atual e o bloco atual pertencem à mesma MER, o bloco candidato de mesclagem do bloco atual pode ser excluído de um bloco para o candidato de mesclagem de tal modo que as informações de movimento de pelo menos um bloco em outra localização possam ser adicionadas como o candidato de mesclagem 5 de acordo com o tamanho do bloco atual e o tamanho de MER.
De acordo com uma modalidade exemplificativa da presente in- venção, as informações de tamanho da MER podem ser incluídas em infor- mações de sintaxe de nível superior a serem transmitidas.
A Tabela 1 abaixo é associada a um método para transmitir as 10 informações de tamanho na MER na sintaxe de nível superior. _ cn,cº 1~
Ic arameter setrbspO{ ._.__ .__ Descritor pic_parameter_set_id ue(v) plc_parameter_set_id ue(v) entropy_ coding_ mode_ flag uO___ num tem oral la et_switchIn oi nt fla s (v ) para i = 0; i < num tem oral la er switchin oint fla s: i -- temporal_layerswitching_ point flag [i] u(1) num ref idx 10 default active minus1 ue(v) num ref idx 11 default active minus1 ue(v) mac init qp minus26 *relativo a 26* sem_ constrained intra pred fla u(1 shared p s info enabled fla u(1 ) se shared pps info enabled flag) se (ada tive loo filter enabled fla alf aram se cu delta enabled fla max cu delta de th u~4 l0 2 arallel rner e level minus2 ue(v) rbsptrailing_bitsO }
Referindo-se à Tabela 1, as informações de tamanho da MER po- dem ser obtidas com base em um elemento de sintaxe log2_parallel_merge_ level minus2 incluído em uma estrutura de sintaxe de nível alto tal como um conjunto de parâmetros de retrato.
Um elemento de sintaxe log2_parallel_ 5 merge_level_minus2 pode também ser incluído em uma estrutura de sintaxe de nível alto diferente do conjunto de parâmetros de retrato e essa modali- dade exemplificativa é também incluída no escopo das reivindicações da presente invenção.
A Tabela 2 abaixo descreve uma relação entre um valor de 10 log2 parallel merge level minus2 e o tamanho da MER. <Tabela 2> Tamanho log2_parallel_merge_level_minus2 Observação de ER Modo de salto de mesciagem se- quencial para todas as PUs em o 4x4 uma [CU porque o tamanho de PU mínimo permitido pela HEVC é 4x4 Busca de modo de salto de mes- clagem paralelo permitida para 8x8 todas as PUs dentro de um bloco 8x8 Busca de modo de salto de mas- clagem paralelo permitida para 2 16x16 todas as PUs dentro de um bloco 16x16 Busca de modo de salto de mas- clagem paralelo permitida para 3 32x32 todas as PUs dentro de um bloco 32x32 Busca de modo de salto de mes- ; clagem paralelo permitida para 4 64x64 todas as PUs dentro de um bloco 64x64
Referindo-se à Tabela 2, o valor de log2_parallel merge_level_ minus2 pode ter um valor de 0 a 4 inclusive e o tamanho do tamanho de MER pode ser especificado de modo diferente de acordo com o valor do e- 15 lemento de sintaxe.
Quando a MER é 0, é o mesmo que realizar a interprevi-
são com o uso do modo de mesclagem sem usar a MER.
O elemento de sintaxe que inclui as informações de tamanho da MER podem ser, em uma modalidade exemplificativa da presente invenção, representadas e usadas como o termo "elemento de sintaxe de informações 5 de tamanho de MER" e definindo o elemento de sintaxe de informações de tamanho de MER como na Tabela 2 é um exemplo e é possível especificar o tamanho de MER com o uso de vários métodos diferentes e tal método de expressão de elemento de sintaxe é também incluído no escopo das reivin- dicações da presente invenção. 10 A Figura 6 é uma vista conceitual que ilustra um método para de- terminar se um bloco candidato de mesclagem espacial do bloco atual está disponível.
Referindo-se à Figura 6, com base nas localizações de um bloco de objeto de previsão 600 e um bloco candidato de mesclagem espacial 650 15 vizinho ao bloco de objeto de previsão 600 e elemento de sintaxe de infor- mações de tamanho de MER, a disponibilidade do bloco candidato de mes- clagem espacial pode ser determinada.
Quando é presumido que (xP, yP) é um ponto em um topo es- querdo do bloco de objeto de previsão e (xN, yN) é um ponto em um topo 20 esquerdo do bloco candidato de mesclagem, se o bloco candidato de mes- clagem espacial está disponível pode ser determinado através das seguintes Matemática 1 e Matemática 2. Matemática 1>
(xP ::: ( Iog2_parillel r»erge level mi itus2+2)) _= (xN » ( log2_harallel merge_lev el minus2+2))
< Matemática 2>
(yP :- = log?_parallel_nierge lev- el_iuínus2+2) ) (yN » log2_parallel_inerge level_niinus2+2)) A Matemática l e a Matemática 2 acima são equações exempli-
ficativas para determinar se o bloco candidato de mesclagem e o bloco de objeto de previsão estão incluídos na mesma MER.
Adicionalmente, se o bloco candidato de mesclagem e o bloco de objeto de previsão estiverem incluídos na mesma MER pode ser determinado usando-se um método dife- 5 rente do método de determinação acima contanto que o mesmo não se afas- te da essência da presente invenção.
A Figura 7 é um fluxograma que ilustra um método para obter um bloco candidato de mesclagem espacial em um modo de mesclagem de acordo com uma modalidade exemplificativa da presente invenção. 10 Referindo-se à Figura 7, as informações relacionadas à MER são decodificadas (etapa S700). As informações relacionadas à MER podem ser informações de elemento de sintaxe conforme descrito acima e podem ser incluídas na es- trutura de sintaxe de nível alto.
Com base nas informações relacionadas à 15 MER decodificadas, pode ser determinado se o bloco candidato de mescla- gem espacial e o bloco de objeto de previsão estão incluídos na mesma MER ou em MERs diferentes.
É determinado se o bloco de candidato de mesclagem espacial e o bloco de objeto de predição estão incluídos na mesma MER (etapa S710). 20 De acordo com uma modalidade exemplificativa da presente in- venção, quando o bloco candidato de mesclagem do bloco atual e o bloco atual estão incluídos na mesma MER, o bloco candidato de mesclagem do bloco atual pode ser excluído e as informações de movimento de pelo me- nos um bloco de localização diferente do bloco candidato de mesclagem po- 25 dem ser adicionadas como um candidato de mesclagem de acordo com o tamanho do bloco atual e o tamanho de MER (etapa S720). De acordo com outra modalidade exemplificativa da presente invenção, quando um bloco candidato de mesclagem espacial e o bloco de objeto de previsão estão in- cluídos na mesma MER, ao invés de usar o bloco candidato de mesclagem 30 espacial incluído na MER como o bloco candidato de mesclagem, um bloco incluído em outra MER com outra localização pode substituir o bloco candi- dato de mesclagem espacial para realizar a interprevisão.
Também, em outra modalidade exemplificativa, quando um bloco candidato de mesclagem espacial e o bloco de objeto de previsão estão in- cluídos na mesma MER, o bloco candidato de mesclagem espacial incluído na MER pode não ser usado como o bloco candidato de mesclagem, con- 5 forme descrito acima.
Quando o bloco candidato de mesclagem espacial e o bloco candidato de previsão não estação incluídos na mesma MER, a interprevi- são é realizada com base em um bloco candidato de mesclagem espacial correspondente (etapa S730). 10 A Figura 8 é um fluxograma que ilustra um método de interprevi- são com o uso de um modo de mesciagem de acordo com uma modalidade exemplificativa da presente invenção.
Referindo-se à Figura 8, as informações relacionadas à previsão de movimento são derivadas do candidato de mesclagem espacial (etapa 15 S800). O candidato de mesclagem espacial pode ser derivado da uni- dade de previsão vizinha do bloco de objeto de previsão.
A fim de derivar o candidato de mesclagem espacial, as informações de largura e altura da u- nidade de previsão, as informações de MER, as informações de singleMCL- 20 Flag e as informações sobre a localização da partição podem ser fornecidas.
Com base nas informações inseridas acima, as informações (available- FlagN) sobre a disponibilidade do candidato de mesciagem espacial, as in- formações de retrato de referência (refldxLO, refldxL1), as informações de utilização de lista (predFlagLON, predFlagLlN) e as informações de vetor de 25 movimento (mvLON, mvL1 N) podem ser derivadas de acordo com uma loca- lização do candidato de mesclagem espacial.
O candidato de mesclagem espacial pode ser uma pluralidade de blocos vizinhos ao bloco de objeto de previsão.
De acordo com uma modalidade exemplificativa da presente in- 30 venção, o bloco candidato de mesclagem espacial pode ser classificado em três conforme os seguintes: 1) um bloco candidato de mesciagem espacial que não está incluído na mesma MER e já está codificado ou decodificado,
2) um bloco candidato de mesclagem espacial que está incluído na mesma MER e 3) um bloco candidato de mesclagem espacial no qual a codificação e a decodificação ainda não foram processadas.
De acordo com uma modalidade exemplificativa da presente in- 5 venção, a fim de realizar a interprevisão em paralelo na unidade da MER, dentre os blocos candidatos de mesclagem espaciais para realizar a inter- previsão, o bloco candidato de mesclagem espacial que não está incluído na mesma MER e já está codificado ou decodificado pode ser usado como o bloco candidato de mesclagem espacial.
Ademais, o bloco candidato de 10 mesclagem espacial que substitui uma localização do bloco candidato de mesclagem espacial incluído na mesma MER pode ser usado como o bloco candidato de mesclagem espacial.
Em outras palavras, de acordo com uma modalidade exemplificativa da presente invenção, quando o bloco candidato de mesclagem do bloco atual está incluídos na mesma MER como o bloco 15 atual, o bloco candidato de mesclagem do bloco atual é excluído e as infor- mações de movimento de pelo menos um bloco de outra localização podem ser adicionadas como o candidato de mesclagem de acordo com o tamanho do bloco atual e o tamanho de MER.
Conforme descrito acima, um método para determinar o bloco candidato de mesclagem pode ser realizado através 20 de uma etapa de decodificação de informações relacionadas à MER (Região de Estimativa de Movimento), uma etapa de determinar se o bloco de objeto de previsão e o bloco candidato de mesclagem estão incluídos na mesma MER e uma etapa de determinar que o bloco candidato de mesclagem está indisponível para a interprevisão com o modo de mesclagem quando o bloco 25 candidato de mesclagem e o bloco de objeto de previsão estão incluídos na
De acordo com outra modalidade exemplificativa da presente in- venção, dentre os blocos candidatos de mesclagem espaciais para realizar a interprevisão, somente o bloco candidato de mesclagem espacial que não 30 está incluído na mesma MER e já está codificado ou decodificado pode ser usado para realizar a interprevisão.
Um valor de índice de retrato de referência do candidato de mesclagem temporal é derivado (etapa S810). O valor de índice de retrato de referência do candidato de mes- clagem temporal é um valor de índice do retrato Col que inclui o candidato de mesclagem temporal (bloco Col) e pode ser derivado através de uma 5 condição particular conforme abaixo.
Por exemplo, quando um ponto na es- querda superior do bloco de objeto de previsão é (xP, yP), uma largura do é nPSW e uma altura do bloco de objeto de previsão é nPSH, o valor de índice de retrato de referência do candidato de mesclagem temporal pode ser de- terminado como o mesmo valor que o valor de índice de retrato de referência 10 da unidade de previsão vizinha (doravante, referida como "unidade de previ- são vizinha para derivar o índice de retrato de referência") se 1) houver a unidade de previsão vizinha do bloco de objeto de previsão que corresponde a uma localização (xP-1, yP+nPSH-1), 2) um valor de índice de partição da unidade de previsão vizinha para derivar o índice de retrato de referência for 15 0, 3) a unidade de previsão vizinha derivar o índice de retrato de referência não for um bloco que realiza a previsão com o uso do modo de intraprevisão e 4) o bloco de objeto de previsão e a unidade de previsão vizinha derivar o índice de retrato de referência não estiverem incluídos na mesma MER (Re- gião de Estimativa de Movimento). Se as condições acima não forem satis- 20 feitas, o valor de índice de retrato de referência do candidato de mesclagem temporal pode ser estabelecido a 0. O candidato de mesciagem temporal é determinado e as infor- mações relacionadas à previsão de movimento são derivadas a partir do candidato de mesclagem temporal (etapa 5820). 25 A fim de determinar o bloco candidato de mesclagem temporal (bloco Col) e derivar as informações relacionadas à previsão de movimento com base no bloco candidato de mesclagem determinado temporal (bloco Col), uma localização do bloco Col que é usado para derivar um vetor de movimento de previsão temporal pode ser determinada com base nas condi- 30 ções tais como, por exemplo, se o bloco Col está disponível para o bloco de objeto de previsão ou se uma localização do bloco de objeto de previsão é relativa à LCU (por exemplo, se a localização do bloco de objeto de previsão é localizada em um limite inferior ou um limite direito em relação à LCU). A- través da derivação das informações relacionadas à previsão de movimento com base nas informações de retrato de referência determinadas do bloco Col e as informações de vetor de previsão de movimento, as informações 5 relacionadas à previsão de movimento podem ser derivadas a partir do bloco candidato de mesciagem temporal (bloco Col). Uma lista de candidato de mesclagem é construída (etapa S830). A lista de candidato de mesclagem pode ser construída incluin- 10 do-se pelo menos um dentre o candidato de mesclagem espacial e o candi- dato de mesciagem temporal.
O candidato de mesciagem espacial e o can- didato de mesclagem temporal incluídos na lista de candidato de mesciagem podem ser dispostos com uma prioridade fixa.
A lista de candidato de mesclagem pode ser construída incluin- do-se uma quantidade fixa de candidatos de mesclagem.
Quando os candi- datos de mesclagem são deficientes para gerar a quantidade fixa dos candi- datos de mesclagem, um candidato de mesclagem pode ser gerado combi- nando-se as informações relacionadas à previsão de movimento do candida- to de mesclagem ou a lista de candidato de mesclagem pode ser gerada 20 adicionando-se um vetor zero como o candidato de mesclagem.
Conforme descrito acima, o método acima para derivar o candi- dato de mesclagem pode ser usado não somente no método de previsão entre quadros que usa o modo de mesclagem, mas também no modo de previsão entre quadros que usa o modo de salto e essa modalidade exempli- ficativa está também incluída no escopo das reivindicações da presente in- venção.
Embora a revelação presente tenha sido descrita em referência às modalidades exemplificativas da mesma, será entendido por aqueles ver- sados na técnica que várias alterações e modificações podem ser feitas na mesma sem que se afaste do espírito e escopo da presente invenção con- forme definido pelas seguintes reivindicações.

Claims (16)

REIVINDICAÇÕES
1. Método de derivação de um candidato de mesclagem, sendo que o método compreende: decodificar as informações relacionadas à região de estimativa 5 de movimento (MER); determinar se um bloco de objeto de previsão e um bloco candi- dato de mesclagem espacial estão incluídos na mesma MER; e decidir o bloco candidato de mesclagem espacial como um bloco candidato de mesclagem indisponível se o bloco de objeto de previsão e o 10 bloco candidato de mesclagem espacial estiverem incluídos na mesma MER.
2. Método, de acordo com a reivindicação 1, que compreende adicionalmente: se o bloco de objeto de previsão e o bloco candidato de mescla- 15 gem espacial estiverem incluídos na mesma MER, decidir de modo adaptá- vel um bloco candidato de mesclagem espacial de acordo com um tamanho da MER e um tamanho do bloco de objeto de previsão.
3. Método, de acordo com a reivindicação 2, em que, se o tama- nho da MER for 8x8 e o tamanho do bloco de objeto de previsão for 8x4 ou 20 4x8, pelo menos um dentre os blocos candidatos de mesclagem espaciais do bloco de objeto de previsão é substituído por um bloco que inclui um pon- ái7
4. Método, de acordo com a reivindicação 1, que compreende adicionalmente: 25 determinar se o bloco candidato de mesclagem espacial está in- cluído em uma MER que ainda não está decodificada.
5. Método, de acordo com a reivindicação 1, que compreende adicionalmente: se o bloco de objeto de previsão e o bloco candidato de mescla= 30 gem espacial estiverem incluídos na mesma MER, substituir o bloco candi- dato de mesciagem espacial por um bloco incluído em outra MER.
6. Método, de acordo com a reivindicação 5, em que o bloco candidato de mesclagem espacial substituído é um bloco candidato de mes- clagem espacial que é substituído de modo adaptável para ser incluído em uma MER diferente do bloco de objeto de previsão de acordo com uma loca- lização do bloco candidato de mesclagem espacial incluído na mesma MER. 5
7. Método, de acordo com a reivindicação 1, em que as informa- ções relacionadas à MER são informações relacionadas ao tamanho da MER e são transmitidas em uma unidade de retrato.
8. Método, de acordo com a reivindicação 1, em que determinar se o bloco de objeto de previsão e o bloco candidato de mesclagem espacial 10 estão incluídos na mesma MER constitui uma etapa que determina se o blo- co de objeto de previsão e o bloco candidato de mesclagem espacial estão incluídos na mesma MER de acordo com uma equação de determinação com base nas informações de localização do bloco de objeto de previsão, nas informações de localização do bloco candidato de mesclagem espacial e 15 nas informações de tamanho da MER.
9. Aparelho de decodificação de vídeo que compreende: um módulo de decodificação de entropia para decodificar as in- formações relacionadas à região de estimativa de movimento (MER); e um módulo de previsão para determinar se um bloco de objeto 20 de previsão e um bloco candidato de mesciagem espacial estão incluídos na mesma MER e decidir o bloco candidato de mesclagem espacial como um bloco candidato de mesclagem indisponível se o bloco de objeto de previsão e o bloco candidato de mesclagem espacial estiverem incluídos na mesma MER. 25
10. Aparelho de decodificação de vídeo, de acordo com a reivin- dicação 9, em que o módulo de previsão decide de modo adaptável um blo- co candidato de mesclagem espacial de acordo com um tamanho da MER e um tamanho do bloco de objeto de previsão se o bloco de objeto de previsão e o bloco candidato de mesclagem espacial estiverem incluídos na mesma 30 MER.
11. Aparelho de decodificação de vídeo, de acordo com a reivin- dicação 10, em que, se o tamanho da MER for 8x8 e o tamanho do bloco de objeto de predição for 8x4 ou 4x8, o módulo de previsão substitui pelo me- nos um dentre os blocos candidatos de mesclagem espaciais do bloco de objeto de predição por um bloco que inclui um ponto localizado fora da MER.
12. Aparelho de decodificação de vídeo, de acordo com a reivin- 5 dicação 9, em que o módulo de previsão determina se o bloco candidato de mesclagem espacial está incluído em uma MER que ainda não está decodi- ficada.
13. Aparelho de decodificação de vídeo, de acordo com a reivin- dicação 9, em que, se o bloco de objeto de previsão e o bloco candidato de 10 mesclagem espacial estiverem incluídos na mesma MER, o módulo de pre- visão substitui o bloco candidato de mesclagem espacial por um bloco inclu- ido em outra MER.
14. Aparelho de decodificação de vídeo, de acordo com a reivin- dicação 13, em que o bloco candidato de mesclagem espacial substituído é 15 um bloco candidato de mesclagem espacial que é substituído de modo a- daptável para ser incluído em uma MER diferente do bloco de objeto de pre- visão de acordo com uma localização do bloco candidato de mesclagem es- pacial incluído na mesma MER.
15. Aparelho de decodificação de vídeo, de acordo com a reivin- 20 dicação 9, em que as informações relacionadas à MER são informações re- lacionadas a um tamanho da MER e são transmitidas em uma unidade de retrato.
16. Aparelho de decodificação de vídeo, de acordo com a reivin- dicação 9, em que o módulo de previsão determina se o bloco de objeto de 25 previsão e o bloco candidato de mesclagem espacial estão incluídos na mesma MER de acordo com uma equação de determinação com base nas informações de localização do bloco de objeto de previsão, nas informações de localização do bloco candidato de mesclagem espacial e nas informações de tamanho da MER.
BR112013018993-2A 2011-09-23 2012-09-06 Método de derivação de candidato de mesclagem BR112013018993B1 (pt)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR20110096138 2011-09-23
KR10-2011-0096138 2011-09-23
KR1020120039500A KR101197176B1 (ko) 2011-09-23 2012-04-17 머지 후보 블록 유도 방법 및 이러한 방법을 사용하는 장치
KR10-2012-0039500 2012-04-17
PCT/KR2012/007176 WO2013042888A2 (ko) 2011-09-23 2012-09-06 머지 후보 블록 유도 방법 및 이러한 방법을 사용하는 장치

Publications (2)

Publication Number Publication Date
BR112013018993A2 true BR112013018993A2 (pt) 2021-02-02
BR112013018993B1 BR112013018993B1 (pt) 2022-05-03

Family

ID=47914988

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112013018993-2A BR112013018993B1 (pt) 2011-09-23 2012-09-06 Método de derivação de candidato de mesclagem

Country Status (14)

Country Link
US (10) US9253498B2 (pt)
EP (2) EP3754990B1 (pt)
JP (10) JP5746792B2 (pt)
CN (10) CN107071456B (pt)
AU (1) AU2012310514B2 (pt)
BR (1) BR112013018993B1 (pt)
CA (2) CA2968598C (pt)
ES (16) ES2612493B1 (pt)
GB (5) GB2507910B (pt)
MX (4) MX2013008349A (pt)
PL (2) PL231926B1 (pt)
RU (6) RU2696229C2 (pt)
SE (10) SE539969C2 (pt)
WO (1) WO2013042888A2 (pt)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2549170C2 (ru) 2009-03-23 2015-04-20 Нтт Докомо, Инк. Устройство кодирования с предсказанием изображений, способ кодирования с предсказанием изображений, программа кодирования с предсказанием изображений, устройство декодирования с предсказанием изображений, способ декодирования с предсказанием изображений, программа декодирования с предсказанием изображений
FR2959376A1 (fr) * 2010-04-22 2011-10-28 France Telecom Procede de traitement d'une information de mouvement, procedes de codage et de decodage, dispositifs, signal et programme d'ordinateur correspondants
ES2887236T3 (es) * 2010-07-20 2021-12-22 Ntt Docomo Inc Método de decodificación predictiva de imágenes
EP2727357A1 (en) * 2011-07-01 2014-05-07 Motorola Mobility LLC Motion vector prediction design simplification
US9819963B2 (en) * 2011-07-12 2017-11-14 Electronics And Telecommunications Research Institute Inter prediction method and apparatus for same
SI4009641T1 (sl) * 2011-09-09 2023-12-29 Lg Electronics Inc. Postopek za dekodiranje slik, postopek za kodiranje slik, postopek za prenos podatkov za informacije o sliki in računalniško berljiv pomnilniški medij s shranjenim bitnim tokom, ki vključuje informacije o zakodirani sliki
CN107071456B (zh) 2011-09-23 2020-09-04 株式会社Kt 解码视频信号的方法
JP2013118627A (ja) * 2011-10-31 2013-06-13 Jvc Kenwood Corp 動画像復号装置、動画像復号方法、動画像復号プログラム、受信装置、受信方法及び受信プログラム
JP5969041B2 (ja) * 2011-11-08 2016-08-10 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute 候補リスト共有方法及びこのような方法を使用する装置
JP5835208B2 (ja) * 2011-12-28 2015-12-24 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム、並びに、送信装置、送信方法、及び送信プログラム
JP5842803B2 (ja) * 2011-12-28 2016-01-13 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム、並びに、送信装置、送信方法、及び送信プログラム
US11317101B2 (en) 2012-06-12 2022-04-26 Google Inc. Inter frame candidate selection for a video encoder
US9544612B2 (en) * 2012-10-04 2017-01-10 Intel Corporation Prediction parameter inheritance for 3D video coding
US9503746B2 (en) 2012-10-08 2016-11-22 Google Inc. Determine reference motion vectors
US9485515B2 (en) 2013-08-23 2016-11-01 Google Inc. Video coding using reference motion vectors
US9432685B2 (en) * 2013-12-06 2016-08-30 Qualcomm Incorporated Scalable implementation for parallel motion estimation regions
WO2016085229A1 (ko) 2014-11-27 2016-06-02 주식회사 케이티 비디오 신호 처리 방법 및 장치
WO2016085231A1 (ko) * 2014-11-27 2016-06-02 주식회사 케이티 비디오 신호 처리 방법 및 장치
WO2017105097A1 (ko) * 2015-12-17 2017-06-22 삼성전자 주식회사 머지 후보 리스트를 이용한 비디오 복호화 방법 및 비디오 복호화 장치
CN116506597A (zh) * 2016-08-03 2023-07-28 株式会社Kt 视频解码方法、视频编码方法和视频数据的传送方法
CN116866568A (zh) * 2016-10-04 2023-10-10 株式会社Kt 用于处理视频信号的方法和装置
US10484703B2 (en) 2017-02-07 2019-11-19 Mediatek Inc. Adapting merge candidate positions and numbers according to size and/or shape of prediction block
US10602180B2 (en) 2017-06-13 2020-03-24 Qualcomm Incorporated Motion vector prediction
US10655846B2 (en) 2017-09-18 2020-05-19 Haier Us Appliance Solutions, Inc. Gas burner assembly for a cooktop appliance
US11350118B2 (en) * 2018-05-30 2022-05-31 Digitalinsights Inc. Image encoding/decoding method and device
US11412246B2 (en) 2018-06-08 2022-08-09 Kt Corporation Method and apparatus for processing video signal
CN116320489A (zh) 2018-06-29 2023-06-23 北京字节跳动网络技术有限公司 视频处理方法、编码装置和解码装置
EP3831062A4 (en) * 2018-08-17 2022-07-06 HFI Innovation Inc. SIMPLIFIED SUBMODE METHOD AND APPARATUS FOR VIDEO CODING
WO2020048366A1 (en) 2018-09-03 2020-03-12 Huawei Technologies Co., Ltd. Coding method, device, system with merge mode
CN110650344B (zh) * 2018-09-14 2022-01-21 北京达佳互联信息技术有限公司 生成合并候选列表的方法、装置以及电子设备、存储介质
KR102616766B1 (ko) * 2018-09-22 2023-12-27 엘지전자 주식회사 인터 예측을 기반으로 비디오 신호를 처리하기 위한 방법 및 장치
CN110944184B (zh) * 2018-09-25 2022-05-31 华为技术有限公司 视频解码方法及视频解码器
CN110958452B (zh) * 2018-09-27 2023-11-03 华为技术有限公司 视频解码方法及视频解码器
US11172214B2 (en) * 2018-12-21 2021-11-09 Qualcomm Incorporated Derivation of processing area for parallel processing in video coding
WO2020140218A1 (zh) * 2019-01-02 2020-07-09 深圳市大疆创新科技有限公司 用于视频编码或解码的运动信息获取方法与装置
WO2020164544A1 (en) 2019-02-13 2020-08-20 Beijing Bytedance Network Technology Co., Ltd. Updating of history based motion vector prediction tables
CN111240622B (zh) * 2020-01-07 2022-01-25 卡莱特云科技股份有限公司 一种绘制方法及装置

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1234567A (pt) * 1967-06-22 1971-06-03
CH682614A5 (fr) * 1990-02-21 1993-10-15 Kudelski Sa Procédé d'embrouillage et de désembrouillage d'un signal vidéo.
US5122875A (en) * 1991-02-27 1992-06-16 General Electric Company An HDTV compression system
KR0134483B1 (ko) * 1994-06-14 1998-05-15 배순훈 디코더에 있어서 어드레스 보정 회로(address correction circuit of the decoder)
US5666170A (en) * 1995-07-12 1997-09-09 Thomson Consumer Electronics, Inc. Apparatus for decoding video signals encoded in different formats
US7099949B1 (en) * 1995-10-23 2006-08-29 Imec Vzw Interprocess communication protocol system
CN1293759C (zh) * 2001-09-06 2007-01-03 佳能株式会社 图象处理方法和装置,图象处理系统以及存储介质
CN1219283C (zh) * 2001-08-07 2005-09-14 北京大恒鼎芯科技有限公司 可视音带的图文数据生成和编码方法及图文数据播放装置
JP2003299103A (ja) * 2002-03-29 2003-10-17 Toshiba Corp 動画像符号化方法と装置及び動画像復号化方法と装置
JP2004007379A (ja) * 2002-04-10 2004-01-08 Toshiba Corp 動画像符号化方法及び動画像復号化方法
US20040001546A1 (en) 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
US7154952B2 (en) 2002-07-19 2006-12-26 Microsoft Corporation Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures
JP3977716B2 (ja) * 2002-09-20 2007-09-19 株式会社東芝 動画像符号化/復号化方法及び装置
JP2005175997A (ja) * 2003-12-12 2005-06-30 Sony Corp 復号化装置、電子機器、コンピュータ、復号化方法、プログラム及び記録媒体
KR20050075483A (ko) * 2004-01-15 2005-07-21 삼성전자주식회사 비디오 코딩 및 디코딩 방법, 및 이를 위한 장치
KR100703770B1 (ko) * 2005-03-25 2007-04-06 삼성전자주식회사 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치
JP5089878B2 (ja) * 2005-10-28 2012-12-05 パナソニック株式会社 画像符号化装置
KR100934674B1 (ko) * 2006-03-30 2009-12-31 엘지전자 주식회사 비디오 신호를 디코딩/인코딩하기 위한 방법 및 장치
US8213509B2 (en) * 2006-10-06 2012-07-03 Calos Fund Limited Liability Company Video coding on parallel processing systems
JP4793366B2 (ja) * 2006-10-13 2011-10-12 日本ビクター株式会社 多視点画像符号化装置、多視点画像符号化方法、多視点画像符号化プログラム、多視点画像復号装置、多視点画像復号方法、及び多視点画像復号プログラム
TWI368443B (en) * 2006-11-09 2012-07-11 Lg Electronics Inc Method and apparatus for decoding/encoding a video signal
EP2106666B1 (en) * 2007-01-08 2019-06-12 Nokia Technologies Oy Improved inter-layer prediction for extended spatial scalability in video coding
EP2453655A1 (en) * 2007-04-09 2012-05-16 NTT DoCoMo, Inc. Image coding using template matching
KR100921465B1 (ko) * 2007-04-19 2009-10-13 엘지전자 주식회사 디지털 방송 신호 송수신기 및 그 제어 방법
US8605786B2 (en) * 2007-09-04 2013-12-10 The Regents Of The University Of California Hierarchical motion vector processing method, software and devices
KR101123285B1 (ko) * 2007-10-25 2012-03-20 니폰덴신뎅와 가부시키가이샤 동화상 스케일러블 부호화 방법 및 복호 방법, 그 장치, 그 프로그램 및 프로그램을 기록한 기록매체
US7844937B2 (en) * 2007-12-06 2010-11-30 Freescale Semiconductor, Inc. Method and apparatus for making a semiconductor device using hardware description having merged functional and test logic blocks
KR101591825B1 (ko) * 2008-03-27 2016-02-18 엘지전자 주식회사 비디오 신호의 인코딩 또는 디코딩 방법 및 장치
KR101578052B1 (ko) * 2008-04-02 2015-12-17 삼성전자주식회사 움직임 추정 장치 및 이를 구비하는 동영상 부호화 장치
JP5406465B2 (ja) * 2008-04-24 2014-02-05 株式会社Nttドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
JP4670918B2 (ja) * 2008-08-26 2011-04-13 ソニー株式会社 フレーム補間装置及びフレーム補間方法
KR101306834B1 (ko) 2008-09-22 2013-09-10 에스케이텔레콤 주식회사 인트라 예측 모드의 예측 가능성을 이용한 영상 부호화/복호화 장치 및 방법
US8665964B2 (en) * 2009-06-30 2014-03-04 Qualcomm Incorporated Video coding based on first order prediction and pre-defined second order prediction mode
KR20110008653A (ko) * 2009-07-20 2011-01-27 삼성전자주식회사 움직임 벡터 예측 방법과 이를 이용한 영상 부호화/복호화 장치 및 방법
KR101452859B1 (ko) 2009-08-13 2014-10-23 삼성전자주식회사 움직임 벡터를 부호화 및 복호화하는 방법 및 장치
US8379718B2 (en) 2009-09-02 2013-02-19 Sony Computer Entertainment Inc. Parallel digital picture encoding
KR20110033676A (ko) 2009-09-25 2011-03-31 삼성중공업 주식회사 해수 유입 차단 장치
KR101348613B1 (ko) * 2009-12-23 2014-01-10 한국전자통신연구원 영상의 부호화/복호화 장치 및 그 방법
US9124898B2 (en) 2010-07-12 2015-09-01 Mediatek Inc. Method and apparatus of temporal motion vector prediction
US8824558B2 (en) 2010-11-23 2014-09-02 Mediatek Inc. Method and apparatus of spatial motion vector prediction
US9137544B2 (en) 2010-11-29 2015-09-15 Mediatek Inc. Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes
US8711940B2 (en) 2010-11-29 2014-04-29 Mediatek Inc. Method and apparatus of motion vector prediction with extended motion vector predictor
US10397599B2 (en) 2010-12-17 2019-08-27 Electronics And Telecommunications Research Institute Method and apparatus for inter prediction using motion vector candidate based on temporal motion prediction
WO2012081949A2 (ko) 2010-12-17 2012-06-21 한국전자통신연구원 인터 예측 방법 및 그 장치
US8755437B2 (en) 2011-03-17 2014-06-17 Mediatek Inc. Method and apparatus for derivation of spatial motion vector candidate and motion vector prediction candidate
AU2012208842B2 (en) 2011-01-19 2014-08-07 Hfi Innovation Inc. Method and apparatus for parsing error robustness of temporal Motion Vector Prediction
CN103583047B (zh) * 2011-03-14 2017-03-29 寰发股份有限公司 导出运动矢量预测子的方法与装置
KR101532665B1 (ko) 2011-03-14 2015-07-09 미디어텍 인크. 시간적 움직임 백터 예측을 도출하기 위한 방법 및 장치
US9143795B2 (en) 2011-04-11 2015-09-22 Texas Instruments Incorporated Parallel motion estimation in video coding
US9247266B2 (en) 2011-04-18 2016-01-26 Texas Instruments Incorporated Temporal motion data candidate derivation in video coding
US9313494B2 (en) * 2011-06-20 2016-04-12 Qualcomm Incorporated Parallelization friendly merge candidates for video coding
SI4009641T1 (sl) 2011-09-09 2023-12-29 Lg Electronics Inc. Postopek za dekodiranje slik, postopek za kodiranje slik, postopek za prenos podatkov za informacije o sliki in računalniško berljiv pomnilniški medij s shranjenim bitnim tokom, ki vključuje informacije o zakodirani sliki
KR101391829B1 (ko) * 2011-09-09 2014-05-07 주식회사 케이티 시간적 후보 움직임 벡터 유도 방법 및 이러한 방법을 사용하는 장치
GB2559226B (en) * 2011-09-09 2018-11-28 Kt Corp Method for deriving a temporal predictive motion vector
CN107071456B (zh) 2011-09-23 2020-09-04 株式会社Kt 解码视频信号的方法
JP5969041B2 (ja) 2011-11-08 2016-08-10 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute 候補リスト共有方法及びこのような方法を使用する装置
US20130125904A1 (en) 2011-11-18 2013-05-23 R.J. Reynolds Tobacco Company Smokeless tobacco product comprising pectin component
DK3503554T3 (da) 2011-12-16 2020-05-11 Jvc Kenwood Corp Dynamisk billedkodningsapparat, dynamisk billedkodningsfremgangsmåde, dynamisk billedkodningsprogram
EP2797325A4 (en) 2011-12-23 2015-09-16 Korea Electronics Telecomm METHOD AND DEVICE FOR DETERMINING A REFERENCE FILE INDEX OF A TIMELY COMBINATION CANDIDATE
WO2013099285A1 (ja) * 2011-12-28 2013-07-04 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、並びに動画像復号装置、動画像復号方法及び動画像復号プログラム
EP2806636A1 (en) * 2012-01-19 2014-11-26 Sony Corporation Image processing device and method

Also Published As

Publication number Publication date
PL407774A1 (pl) 2015-05-25
GB201803930D0 (en) 2018-04-25
CN107105269A (zh) 2017-08-29
ES2705331R1 (es) 2019-04-23
CN107105269B (zh) 2020-01-10
EP3754990A1 (en) 2020-12-23
RU2016101148A3 (pt) 2019-05-27
US20130279595A1 (en) 2013-10-24
ES2580278B1 (es) 2017-07-05
CA2824755A1 (en) 2013-03-28
ES2647600B1 (es) 2018-11-07
CN107087193A (zh) 2017-08-22
US20180152718A1 (en) 2018-05-31
US9253499B2 (en) 2016-02-02
CN107094259A (zh) 2017-08-25
SE1651051A1 (sv) 2016-07-13
ES2647622B1 (es) 2018-11-07
US9930359B2 (en) 2018-03-27
ES2647572B1 (es) 2019-01-17
ES2647572A2 (es) 2017-12-22
ES2705251R1 (es) 2019-04-23
RU2696229C2 (ru) 2019-07-31
RU2016101150A3 (pt) 2019-05-29
JP5969654B2 (ja) 2016-08-17
RU2696304C2 (ru) 2019-08-01
US20170094309A1 (en) 2017-03-30
JP6279700B2 (ja) 2018-02-14
ES2612493R1 (es) 2017-05-31
US9924185B2 (en) 2018-03-20
SE1850158A1 (en) 2018-02-14
ES2612494B1 (es) 2018-01-26
RU2016100984A (ru) 2018-11-19
US10182237B2 (en) 2019-01-15
US20150172695A1 (en) 2015-06-18
CA2824755C (en) 2018-01-16
ES2647622R1 (es) 2018-02-28
GB201402657D0 (en) 2014-04-02
US20160105683A1 (en) 2016-04-14
ES2647572R1 (es) 2018-04-02
CN103444172A (zh) 2013-12-11
ES2580278A2 (es) 2016-08-23
RU2016100984A3 (pt) 2019-05-29
GB201717601D0 (en) 2017-12-13
WO2013042888A2 (ko) 2013-03-28
GB2556695B (en) 2018-11-14
US9578348B2 (en) 2017-02-21
RU2015153835A3 (pt) 2019-05-29
RU2013134438A (ru) 2015-10-27
CN107105268A (zh) 2017-08-29
EP2787728B1 (en) 2020-11-11
CN103444172B (zh) 2017-02-08
ES2572577R1 (es) 2016-07-01
US20160323593A1 (en) 2016-11-03
CA2968598C (en) 2019-04-30
RU2696237C2 (ru) 2019-07-31
SE542454C2 (sv) 2020-05-05
ES2631477B1 (es) 2018-09-20
RU2015153835A (ru) 2019-01-16
CN107071456B (zh) 2020-09-04
ES2705251B1 (es) 2020-01-29
SE1651203A1 (sv) 2016-09-07
GB2557516A (en) 2018-06-20
JP2018088695A (ja) 2018-06-07
JP2014520478A (ja) 2014-08-21
SE1850140A2 (sv) 2018-12-11
ES2705355R1 (es) 2019-04-23
GB2557517A8 (en) 2018-07-11
SE1651199A2 (en) 2017-01-10
RU2696301C2 (ru) 2019-08-01
CN106878744A (zh) 2017-06-20
GB2562132B (en) 2019-01-23
ES2612494R1 (es) 2017-06-08
ES2612493A2 (es) 2017-05-17
ES2705251A2 (es) 2019-03-22
GB2557516B (en) 2018-11-14
US20160100182A1 (en) 2016-04-07
GB2556695A (en) 2018-06-06
ES2532857B1 (es) 2015-12-04
ES2647600R1 (es) 2018-03-06
RU2016101150A (ru) 2018-11-19
ES2647600A2 (es) 2017-12-22
SE1450126A1 (sv) 2014-04-23
SE1651203A2 (en) 2017-01-10
CN107105279A (zh) 2017-08-29
JP5746792B2 (ja) 2015-07-08
ES2602201A2 (es) 2017-02-20
ES2705357A2 (es) 2019-03-22
ES2572577B1 (es) 2017-06-13
WO2013042888A3 (ko) 2013-05-30
ES2631477R1 (es) 2017-12-12
SE542455C2 (sv) 2020-05-05
JP2017085609A (ja) 2017-05-18
JP6595019B2 (ja) 2019-10-23
AU2012310514A1 (en) 2013-08-08
MX2013008349A (es) 2013-11-04
ES2705334R1 (es) 2019-04-23
SE1651199A1 (sv) 2016-09-07
JP6595020B2 (ja) 2019-10-23
ES2705334A2 (es) 2019-03-22
AU2012310514B2 (en) 2014-12-04
CN106878744B (zh) 2020-06-19
GB201717600D0 (en) 2017-12-13
EP2787728A2 (en) 2014-10-08
US20180160135A1 (en) 2018-06-07
GB2557517A (en) 2018-06-20
CN107105267B (zh) 2020-09-04
ES2532857A2 (es) 2015-04-01
ES2602201B1 (es) 2018-01-26
SE1850159A1 (en) 2018-02-14
RU2016101153A3 (pt) 2019-05-06
ES2612494A2 (es) 2017-05-17
SE1651202A2 (en) 2017-01-10
GB2557516A8 (en) 2018-07-11
JP2015180074A (ja) 2015-10-08
CN107071456A (zh) 2017-08-18
SE1850159A2 (sv) 2018-12-11
GB2507910A (en) 2014-05-14
ES2580278R1 (es) 2016-09-28
US10165294B2 (en) 2018-12-25
ES2705337A2 (es) 2019-03-22
ES2705337B1 (es) 2020-02-05
JP6062509B2 (ja) 2017-01-18
US9554144B2 (en) 2017-01-24
MX352017B (es) 2017-11-06
SE1850158A2 (sv) 2018-12-11
CN104349170A (zh) 2015-02-11
ES2705357R1 (es) 2019-04-23
EP3754990B1 (en) 2024-05-08
RU2016101153A (ru) 2018-11-19
JP6545838B2 (ja) 2019-07-17
GB2507910B (en) 2018-12-12
ES2705331B1 (es) 2020-01-29
JP2016007043A (ja) 2016-01-14
SE1651201A2 (en) 2017-01-10
SE1651201A1 (sv) 2016-09-07
MX341932B (es) 2016-09-08
GB2557517B (en) 2018-11-14
ES2705355B1 (es) 2020-01-29
PL231926B1 (pl) 2019-04-30
JP2016007044A (ja) 2016-01-14
ES2532857R1 (es) 2015-04-30
JP2015180075A (ja) 2015-10-08
ES2631477A2 (es) 2017-08-31
JP6279699B2 (ja) 2018-02-14
US10165295B2 (en) 2018-12-25
JP2018088696A (ja) 2018-06-07
US9253498B2 (en) 2016-02-02
CN107094259B (zh) 2020-10-13
BR112013018993B1 (pt) 2022-05-03
JP6009633B2 (ja) 2016-10-19
ES2705331A2 (es) 2019-03-22
EP2787728A4 (en) 2015-07-08
ES2705337R1 (es) 2019-04-29
US20180152717A1 (en) 2018-05-31
SE539969C2 (sv) 2018-02-13
CA2968598A1 (en) 2013-03-28
GB2562132A (en) 2018-11-07
ES2602201R1 (es) 2017-05-23
JP6130430B2 (ja) 2017-05-17
CN107105279B (zh) 2020-03-06
JP2018088697A (ja) 2018-06-07
CN107105268B (zh) 2020-10-23
PL2787728T3 (pl) 2021-05-17
SE542456C2 (sv) 2020-05-05
ES2572577A2 (es) 2016-06-01
SE1651202A1 (en) 2016-09-07
SE542569C2 (sv) 2020-06-09
ES2705355A2 (es) 2019-03-22
SE1850140A1 (en) 2018-02-09
US20160295236A1 (en) 2016-10-06
CN107105267A (zh) 2017-08-29
JP2017085611A (ja) 2017-05-18
RU2576499C2 (ru) 2016-03-10
CN106878743B (zh) 2020-07-17
GB201803926D0 (en) 2018-04-25
US9357225B2 (en) 2016-05-31
RU2016101148A (ru) 2018-11-16
ES2647622A2 (es) 2017-12-22
RU2694018C2 (ru) 2019-07-08
ES2705334B1 (es) 2020-01-29
ES2705357B1 (es) 2020-01-29
ES2612493B1 (es) 2018-01-26
MX352016B (es) 2017-11-06
SE1651050A1 (sv) 2016-07-13
CN106878743A (zh) 2017-06-20
CN107087193B (zh) 2020-10-09

Similar Documents

Publication Publication Date Title
BR112013018993A2 (pt) método para induzir um bloco candidato de mesclagem e dispositivo que usa o mesmo
KR102531738B1 (ko) 영상 부호화/복호화 방법 및 장치
RU2705435C1 (ru) Способ и устройство для кодирования информации движения, а также способ и устройство для ее декодирования
DK2950540T3 (en) METHOD OF DECODING VIDEO CONSIDERING SCAN SEQUENCES OF CODING UNITS HAVING A Hierarchical Structure.
ES2694041T3 (es) Aparato para codificar una imagen
KR20230113262A (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한기록 매체
DK2911401T3 (en) METHOD OF DECODING PICTURES
KR20180061046A (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
KR101931950B1 (ko) 비디오 신호 처리 방법 및 장치
BR112013022641B1 (pt) Método para derivar um vetor de predição de movimento candidato
KR102668281B1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
KR102088383B1 (ko) 비디오의 부호화 방법 및 장치, 비디오의 복호화 방법 및 장치
KR101197176B1 (ko) 머지 후보 블록 유도 방법 및 이러한 방법을 사용하는 장치
BR112021000750A2 (pt) método e aparelho para codificar/decodificar imagens e mídia de gravação na qual um fluxo de bits é armazenado
KR20210035062A (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
CN108432247B (zh) 用于预测残差信号的方法和装置
CN113841399A (zh) 图像编码/解码方法和设备
AU2015200359B2 (en) Method for inducing a merge candidate block and device using same
KR102040316B1 (ko) 계층적 부호화 단위의 스캔 순서를 고려한 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
KR20230074682A (ko) 영상 부호화/복호화 방법 및 장치
AU2016200597A1 (en) Method for inducing a merge candidate block and device using same

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B15K Others concerning applications: alteration of classification

Free format text: AS CLASSIFICACOES ANTERIORES ERAM: H04N 7/20 , H04N 7/00

Ipc: H04N 19/436 (2014.01), H04N 19/52 (2014.01), H04N

B350 Update of information on the portal [chapter 15.35 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 06/09/2012, OBSERVADAS AS CONDICOES LEGAIS.