BR122015027404B1 - Método de decodificação de dados de vídeo em predição unidirecional - Google Patents

Método de decodificação de dados de vídeo em predição unidirecional Download PDF

Info

Publication number
BR122015027404B1
BR122015027404B1 BR122015027404-4A BR122015027404A BR122015027404B1 BR 122015027404 B1 BR122015027404 B1 BR 122015027404B1 BR 122015027404 A BR122015027404 A BR 122015027404A BR 122015027404 B1 BR122015027404 B1 BR 122015027404B1
Authority
BR
Brazil
Prior art keywords
block
quantization parameter
unit
prediction
quantization
Prior art date
Application number
BR122015027404-4A
Other languages
English (en)
Other versions
BR122015027404B8 (pt
BR122015027404A2 (pt
Inventor
Soo Mi Oh
Moonock Yang
Original Assignee
Infobridge Pte. Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Infobridge Pte. Ltd. filed Critical Infobridge Pte. Ltd.
Publication of BR122015027404A2 publication Critical patent/BR122015027404A2/pt
Publication of BR122015027404B1 publication Critical patent/BR122015027404B1/pt
Publication of BR122015027404B8 publication Critical patent/BR122015027404B8/pt

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • H04N19/635Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by filter definition or implementation details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • H04N19/615Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding using motion compensated temporal filtering [MCTF]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

MÉTODO DE DECODIFICAÇÃO DE DADOS DE VÍDEO Tem-se a provisão de um método derivando um índice de imagem de referência e um vetor de movimento de uma unidade de predição presente, gerando um bloco de predição da unidade de predição presente e utilizando o índice de imagem de referência e o vetor de movimento, gerando um bloco residual por meio de varredura invertida, quantização invertida e transformada inversa, e gerando os pixéis reconstruídos pelo emprego do bloco de predição e do bloco residual. Os pixéis de predição do bloco de predição são gerados utilizando-se um filtro de interpolação selecionado com base no vetor de movimento. Consequentemente, a eficiência da codificação da informação de movimento é aperfeiçoada pela inclusão de diversos candidatos a intercalação. Além disso, se reduz a complexidade computacional de um codificador e de um decodificador pela seleção de filtros diferenciados de acordo com a localização dos pixéis de predição determinada pelo vetor de movimento.

Description

Campo Técnico
[001] A presente invenção está relacionada a um método de decodificação de dados de vídeo, e mais em particular, a um método de derivação de informação de movimento no modo de fusão através da construção de uma lista de candidatos a fusão empregando candidatos a fusão espacial e temporal e gerando um bloco de predição utilizando a informação de movimento.
Fundamentos Técnicos
[002] Métodos para a compressão de dados de vídeo incluem os padrões MPEG-2, MPEG-4 e o H.264/MPEG-4 AVC. De acordo com esses métodos, uma imagem é dividida em macroblocos para a codificação de uma imagem, os respectivos macroblocos são codificados para a geração de um bloco de predição utilizando inter ou intrapredição. A diferença entre um bloco original e o bloco de predição é transformada para geração de um bloco de transformada, e o bloco de transformada é quantizado fazendo uso de um parâmetro de quantização e de uma da pluralidade de matrizes de quantização pré-determinadas. O coeficiente quantizado do bloco quantizado é escaneado por um tipo pré-determinado de varredor e em seguida codificado entropicamente. O parâmetro de quantização é ajustado por macrobloco e codificado fazendo uso de um parâmetro de quantização prévio.
[003] No padrão H.264/MPEG-4 AVC, a estimativa de movimento é utilizada para a eliminação da redundância temporal entre as imagens consecutivas. Para a detecção da redundância temporal são utilizadas uma ou mais imagens de referência para a estimativa de movimento de um bloco corrente, e a compensação de movimento é realizada para gerar um bloco de predição utilizando informação de movimento. A informação de movimento inclui um ou mais indexadores de imagem de referência e um ou mais vetores de movimento.
[004] De acordo com o padrão H.264/MPEG-4 AVC, somente os vetores de movimento são previstos e codificados empregando vetores de movimento vizinhos, e os indexadores de imagem de referência são codificados sem a presença dos indexadores de imagem de referência vizinhos. Além disso, a complexidade computacional para a geração de um bloco de predição é elevada devido ao bloco de predição ser interpolado utilizando um filtro de longa derivação.
[005] Contudo, se diversos tamanhos são empregados para interpredição, aumenta a correlação entre a informação de movimento de um bloco atual de um ou mais blocos vizinhos. A correlação entre o vetor de movimento de um bloco atual e o vetor de movimento do bloco vizinho dentro de uma imagem de referência torna-se mais elevada conforme o tamanho da imagem vá aumentando, caso o movimento da imagem seja quase constante ou lento. Consequentemente, o método de compressão convencional descrito acima diminui a eficiência da compressão da informação de movimento caso o tamanho da imagem seja maior do que aquele referente a imagem de alta definição e diversos tamanhos são viabilizados para estimativa de movimento e da compensação de movimento.
Descrição Problema Técnico
[006] A presente invenção é direcionada a um método de decodificação de dados de vídeo através da derivação da informação de movimento pela construção de uma lista de candidatos a fusão empregando candidatos a fusão espacial e candidatos temporais e gerando-se blocos de predição empregando- se um filtro determinado pelo vetor de movimento.
Solução Técnica
[007] Um aspecto da presente invenção proporciona com um método de decodificação de dados de vídeo, compreendendo: da derivação de um índice de imagem de referência e um vetor de movimento de uma unidade de predição atual; geração de um bloco de predição da unidade de predição atual empregando o índice de imagem de referência e o vetor de movimento; geração de um bloco quantizado por varredura invertida dos componentes de coeficientes quantizados; geração de um bloco de transformada por quantização invertida do bloco quantizado utilizando um parâmetro de quantização; geração de um bloco residual através da transformada inversa do bloco de transformada; e geração de pixels reconstruídos utilizando o bloco de predição e o bloco residual. Os pixels de predição do bloco de predição são gerados empregando-se um filtro de interpolação selecionado com base no vetor de movimento.
Efeitos Vantajosos
[008] Um método de acordo com a presente invenção deriva um índice de imagem de referência e um vetor de movimento de uma unidade de predição atual, gera um bloco de predição da unidade de predição atual utilizando o índice de imagem de referência e o vetor de movimento, gera um bloco residual por varredura invertida, e quantização invertida e transformada inversa, e gera pixels reconstruídos utilizando o bloco de predição e o bloco residual. Os pixels de predição do bloco de predição são gerados utilizando-se um filtro de interpolação selecionado com base no vetor de movimento. Por consequência, a eficiência da codificação da informação de movimento é melhorada com a inclusão de diversos candidatos de fusão. Além disso, a complexidade computacional de um codificador e de um decodificador é reduzida pela seleção de um filtro diferente de acordo com a localização dos pixels de predição determinados pelo vetor de movimento.
Descrição dos Desenhos
[009] A Fig. 1 consiste de um diagrama em blocos de uma aparelhagem de codificação de imagem de acordo com a presente invenção.
[010] A Fig.2 consiste do fluxograma ilustrando um método de codificação de dados de vídeo em um modo de interpredição de acordo com a presente invenção.
[011] A Fig. 3 consiste de um diagrama conceitual ilustrando as posições de pixels indicadas por um vetor de movimento de acordo com a presente invenção.
[012] A Fig. 4 consiste de um fluxograma ilustrando um método de codificação da informação de movimento em um modo de fusão de acordo com a presente invenção.
[013] A FIG. 5 consiste de um diagrama conceitual ilustrando as posições dos blocos de candidatos a fusão espacial de acordo com a presente invenção.
[014] A FIG. 6 consiste de um diagrama conceitual ilustrando as posições dos blocos de candidatos a fusão espacial em um modo de partição assimétrica de acordo com a presente invenção.
[015] A FIG. 7 compreende de outro diagrama conceitual ilustrando as posições dos blocos de candidatos a fusão espacial em outro modo de partição assimétrica de acordo com a presente invenção.
[016] A FIG. 8 compreende de outro diagrama conceitual ilustrando as posições dos blocos de candidatos a fusão espacial em outro modo de partição assimétrica de acordo com a presente invenção.
[017] A FIG. 9 compreende de outro diagrama conceitual ilustrando posições dos blocos de candidatos a fusão espacial em outro modo de partição assimétrica de acordo com a presente invenção.
[018] A FIG. 10 compreende de um diagrama conceitual ilustrando a posição do bloco candidato a fusão temporal de acordo com a presente invenção.
[019] A FIG. 11 consiste de um diagrama conceitual ilustrando um método de armazenagem da informação de movimento de acordo com a presente invenção.
[020] A FIG. 12 consiste de um diagrama em blocos de uma aparelhagem de decodificação de imagem 200 de acordo com a presente invenção.
[021] A FIG. 13 consiste de um fluxograma ilustrando um método de decodificação de uma imagem em modo de interpredição de acordo com a presente invenção.
[022] A FIG. 14 consiste de um fluxograma ilustrando um método de derivação da informação de movimento em modo de fusão.
[023] A FIG. 15 consiste de um fluxograma ilustrando um procedimento de geração de um bloco residual em modo de interpredição de acordo com a presente invenção.
Modalidade da Invenção
[024] Daqui em diante, diversas modalidades da presente invenção serão descritas em detalhes com referência aos desenhos de acompanhamento. Entretanto, a presente invenção não fica restrita as modalidades de exemplo descritas abaixo, podendo ser implementadas em tipos diversificados. Portanto, muitas outras modificações e variações são possíveis para a presente invenção, e deve ser entendido que dentro do escopo da conceituação descrita, a presente invenção pode ser desenvolvida de outra forma além daquela especificamente descrita.
[025] Uma aparelhagem de decodificação de imagem e uma aparelhagem de decodificação de imagem de acordo com a presente invenção podem consistir de um terminal de usuário, tal como um computador de uso pessoal, um terminal móvel pessoal, um reprodutor de multimídia player móvel, um smartphone ou um terminal de comunicação sem fio. O dispositivo de codificação de imagem e o dispositivo de decodificação de imagem podem ser incluídos em uma unidade de comunicação para comunicação com os diversos dispositivos, uma memória para a armazenagem de diversos programas e dados utilizados para a codificação ou decodificação de imagens.
[026] A FIG. 1 consiste de um diagrama de blocos de uma aparelhagem de codificação de imagem 100 de acordo com a presente invenção.
[027] Com referência a FIG. 1, a aparelhagem de codificação de imagem 100 de acordo com a presente invenção inclui uma unidade de divisão de imagem 110, uma unidade de intrapredição 120, uma unidade de interpredição 130, uma unidade de transformada 140, uma unidade de quantização 150, uma unidade de varredura 160, uma unidade de codificação de entropia 170, uma unidade de quantização/transformada invertida 180, uma unidade de pós-processamento 190 e uma unidade de armazenagem de imagem 195.
[028] A unidade de divisão de imagem 110 divide uma imagem ou um pedaço de imagem em uma pluralidade de unidades de codificação maiores (LCUs), e divide cada LCU em uma ou mais unidades de codificação. O tamanho da LCU pode ser 32x32, 64x64 ou 128x128. A unidade de divisão de imagem 110 determina o modo de predição e o modo de partição de cada unidade de codificação.
[029] Uma LCU inclui uma ou mais unidades de codificação. A LCU apresenta uma estrutura quad tree recursiva especificando uma estrutura de divisão da LCU. Os parâmetros para a especificação do tamanho máximo e do tamanho mínimo da unidade de codificação são incluídos em um conjunto de parâmetros sequenciados. A estrutura de divisão é especificada por um ou mais sinalizadores da unidade de codificação de divisão (split_cu_flags). O tamanho de uma unidade de codificação é de 2Nx2N. Caso o tamanho da LCU é de 64x64 e o tamanho da menor unidade de codificação (SCU) é de 8x8, o tamanho da unidade de codificação pode ser 64x64m 32x32m 16x16 ou 8x8.
[030] Uma unidade de codificação inclui uma ou mais unidades de predição. No modo de intrapredição, o tamanho da unidade de predição é de 2Nx2N ou de NxN. Na interpredição, o tamanho da unidade de predição é especificado pelo modo de partição. O modo de partição é um dentre 2Nx2N, 2NxN, Nx2N e NxN, caso a unidade de codificação seja fracionada simetricamente. O modo de partição é um dentre 2NxnU, 2NxnD, nLx2N e nRx2N, caso a unidade de codificação seja fracionada assimetricamente. Os modos de partição são viabilizados com base no tamanho da unidade de codificação para redução da complexidade do hardware. Caso a unidade de codificação apresente um tamanho mínimo, o fracionamento assimétrico não é viabilizado. Além disso, caso a unidade de codificação apresente um tamanho mínimo, o modo de partição NxN pode não ser viabilizado.
[031] Uma unidade de codificação inclui uma ou mais unidades de transformada. A unidade de transformada apresenta uma estrutura quad tree recursiva especificando uma estrutura de divisão da unidade de codificação. A estrutura de divisão é especificada através de sinalizadores de unidade de transformada de divisão (split_tu_flags). Os parâmetros para a especificação do tamanho máximo e do tamanho mínimo da unidade de transformada luma são incluídos em um conjunto de parâmetros sequenciados.
[032] A unidade de intrapredição 120 determina um modo de intrapredição de uma unidade de predição atual e gera um bloco de predição empregando o modo de intrapredição.
[033] A unidade de interpredição 130 determina a informação de movimento de uma unidade de predição atual utilizando uma ou mais imagens de referência armazenadas na unidade de armazenagem de imagem 195, e gera um bloco de predição da unidade de predição. A informação de movimento inclui um ou mais indexadores de imagem de referência e um ou mais vetores de movimento.
[034] A unidade de transformada 140 transforma um bloco residual para geração de um bloco de transformada. O bloco residual apresenta o mesmo tamanho da unidade de transformada. Caso a unidade de predição seja maior do que a unidade de transformada, os sinais residuais entre o bloco atual e o bloco de predição são fracionados em múltiplos blocos residuais.
[035] A unidade de quantização 150 determina um parâmetro de quantização para a quantização do bloco de transformada. O parâmetro de quantização consiste em um tamanho da etapa de quantização. O parâmetro de quantização é determinado por unidade de quantização. O tamanho da unidade de quantização pode variar e pode consistir dos tamanhos viabilizados da unidade de codificação caso um tamanho da unidade de codificação seja igual ou maior do que um tamanho mínimo da unidade de quantização, a unidade de codificação torna-se a unidade de quantização. Uma pluralidade de unidades de codificação podem ser inclusas em uma unidade de quantização de tamanho mínimo. O tamanho mínimo da unidade de quantização é determinado por imagem e um parâmetro para a especificação do tamanho mínimo da unidade de quantização é incluído em um conjunto de parâmetros de imagens.
[036] A unidade de quantização 150 gera um preditor de parâmetro de quantização e gera um parâmetro de diferencial de quantização através da subtração do preditor de parâmetro de quantização a partir do parâmetro de quantização. O parâmetro de diferencial de quantização é codificado entropicamente. O preditor de parâmetro de quantização é gerado através do uso de parâmetros de quantização das unidades de codificação vizinhas e de um parâmetro de quantização da unidade de codificação anterior da maneira como segue adiante.
[037] Um parâmetro de quantização à esquerda, um parâmetro de quantização acima e um parâmetro de quantização anterior são restabelecidos sequencialmente nesta ordem. Ajusta-se uma média do primeiro dos dois parâmetros de quantização disponíveis restabelecidos naquela ordem como sendo o preditor de parâmetro de quantização quando dois ou mais parâmetros de quantização fazem-se disponíveis, e quando somente um parâmetro de quantização é ajustado como o preditor de parâmetro de quantização. Ou seja, caso os parâmetros de quantização à esquerda e acima se encontrem disponíveis, estabelece-se uma média dos parâmetros de quantização à esquerda e acima na forma do preditor de parâmetro de quantização. Caso somente um dos parâmetros de quantização à esquerda e acima se encontre disponível, uma média entre o parâmetro de quantização disponível e os parâmetros de quantização anteriores é estabelecida como o preditor de parâmetro de quantização. Caso ambos parâmetros de quantização à esquerda e acima se encontrem indisponíveis, o parâmetro de quantização anterior é ajustado na forma do preditor de parâmetro de quantização. A média é arredondada.
[038] O parâmetro de diferencial de quantização é convertido em binários para o valor absoluto do parâmetro de diferencial de quantização e um binário para sinal indicativo do parâmetro de diferencial de quantização através de um processo de conversão binária, e com os binários sendo aritmeticamente codificados. Caso o valor absoluto do parâmetro de diferencial de quantização seja 0, o binário do sinal indicativo pode ser omitido. O unário truncado é utilizado para a conversão binária do absoluto.
[039] A unidade de quantização 150 quantifica o bloco de transformada utilizando uma matriz de quantização e o parâmetro de quantização para geração de um bloco quantizado. O bloco quantizado é disponibilizado junto à unidade de transformada/quantização invertida 180 e a unidade de varredura 160.
[040] A unidade de varredura 160 determina e aplica um padrão de varredura junto ao bloco quantizado.
[041] Na interpredição, utiliza-se uma varredura diagonal como o padrão de varredura caso o CABAC seja empregado para codificação de entropia. Os coeficientes quantizados do bloco quantizado são divididos em componentes de coeficientes. Os componentes de coeficientes representam sinalizadores significativos, sinais de coeficientes e níveis de coeficientes. A varredura diagonal é aplicada para cada um dos componentes de coeficientes. O coeficiente de significância indica se o coeficiente quantizado correspondente é zero ou não. O sinal de coeficiente indica um sinal de coeficiente quantizado não-zerado, e o nível de coeficiente indica um valor absoluto do coeficiente quantizado não-zerado.
[042] Quando o tamanho da unidade de transformada é maior do que um tamanho pré-determinado, o bloco quantizado é dividido em múltiplos subconjuntos e a varredura diagonal é aplicada a cada subconjunto. Os sinalizadores de significância, os sinais de coeficientes e os níveis de coeficientes de cada subconjunto são varridos respectivamente de acordo com a varredura diagonal. O tamanho pré-determinado é de 4x4. O subconjunto é de um bloco 4x4 contendo 16 coeficientes de transformada.
[043] O padrão de varredura para varredura dos subconjuntos é idêntico ao padrão de varredura para a varredura dos componentes de coeficientes. Os sinalizadores de significância, os sinais de coeficiente e os níveis de coeficiente de cada subconjunto são varridos na direção contrária. Os subconjuntos são ainda varridos na direção contrária.
[044] Um parâmetro indicativo da última posição de coeficiente não- zerado é codificado e transmitido para um lado de decodificação. O parâmetro indicativo da última posição de coeficiente não-zerado especifica uma posição do último coeficiente quantizado não-zerado contido no bloco quantizado. Um sinalizador de subconjunto não-zerado é definido para cada subconjunto que não seja o primeiro subconjunto e o último subconjunto e é transmitido para o lado da decodificação. O primeiro subconjunto abrange um coeficiente DC. O último subconjunto abrange o último coeficiente não-zerado. A sinalização de subconjunto não-zerado indica se o subconjunto contém ou não coeficientes não-zerados.
[045] A unidade de codificação de entropia 170 codifica entropicamente o componente varrido pela unidade de varredura 160, a informação de intrapredição recebida pela unidade de intrapredição 120, a informação de movimento recebida a partir da unidade de interpredição 130, e assim por diante.
[046] A unidade de quantização/transformada invertida 180 efetua a quantização invertida dos coeficientes quantizados do bloco quantizado, e transforma inversamente o bloco quantizado invertido para gerar os sinais residuais.
[047] A unidade de pós-processamento 190 efetua um processo de filtragem de desbloqueio para a remoção do artefato de bloqueio gerado em uma imagem reconstruída.
[048] A unidade de armazenamento de imagem 195 recebe a imagem pós-processada a partir da unidade de pós-processamento 190, e armazena a imagem nas unidades de imagem. Uma imagem pode ser um quadro ou um campo.
[049] A FIG. 2 consiste de um fluxograma ilustrando um método de codificação de dados de vídeo em um modo de interpredição de acordo com a presente invenção.
[050] A informação de movimento de um bloco atual é determinada (S110). O bloco atual consiste de uma unidade de predição. Um tamanho do bloco atual é determinado pelo tamanho e pelo modo de partição da unidade de codificação.
[051] A informação de movimento varia de acordo com um tipo de predição. Caso o tipo de predição seja uma predição unidirecional, a informação de movimento inclui um índice de referência especificando uma imagem de uma lista de referência 0, e um vetor de movimento. Caso o tipo de predição seja uma predição bidirecional, a informação de movimento inclui dois índices de referência especificando uma imagem de uma lista de referência 0 e uma imagem de uma lista de referência 1, e um vetor de movimento de lista 0 e um vetor de movimento de lista 1.
[052] Um bloco de predição do bloco atual é gerado empregando a informação de movimento (S120).
[053] Caso o vetor de movimento indique uma localização de pixel integral, o bloco de predição é gerado pela cópia de um bloco da imagem de referência especificado pelo vetor de movimento. Caso o vetor de movimento indique uma localização de sub-pixel, o bloco de predição é gerado pela interpolação dos pixels da imagem de referência. O vetor de movimento é fornecido em unidades de quarta parte de pixel.
[054] A FIG. 3 consiste de um diagrama conceitual ilustrando as posições de pixels indicadas por um vetor de movimento de acordo com a presente invenção.
[055] Na FIG.3, os pixels aferidos como L0, R0, R1, L1, A0 e B0 compreendem de pixels de posição integrais da imagem de referência e os pixels aferidos como aL0 a rL0 junto às localizações de sub-pixels consistem de pixels fracionados a serem interpolados utilizando-se um filtro de interpolação que é selecionado com base no vetor de movimento.
[056] Caso deva de haver a interpolação de um pixel localizado junto a uma localização de sub-pixel aL0, bL0 ou cL0, o pixel aferido como aL0, bL0 ou cL0 é gerado através da aplicação de um filtro de interpolação junto aos pixels de posição integrais horizontalmente mais próximos. Caso deva de haver a interpolação de um pixel localizado junto a uma localização de sub-pixel dL0, hL0 ou nL0, o pixel aferido como dL0, hL0 ou nL0 é gerado pela aplicação de um filtro de interpolação junto aos pixels de posição integrais verticalmente mais próximos. verticalmente. Caso deva haver uma interpolação de um pixel localizado junto a uma localização de sub-pixel eL0, iL0 ou pL0, o pixel aferido como eL0, iL0 ou pL0 é gerado através da aplicação de um filtro de interpolação junto aos pixels interpolados verticalmente mais próximos, com cada um dos quais incluindo um caractere ‘a’ no domínio de sua aferição. Caso um pixel a ser interpolado esteja localizado junto a uma localização de sub-pixel gL0, kL0 ou rL0, o pixel aferido como gL0, kL0 ou rL0 é gerado pela aplicação de um filtro de interpolação junto aos pixels interpolados verticalmente mais próximos, com cada um dos quais incluindo um caractere ‘c’ no domínio de sua aferição. Caso um pixel a ser interpolado esteja localizado junto a uma localização de subpixel fL0, jL0 ou qL0, o pixel aferido como fL0, jL0 ou qL0 é gerado pela aplicação de um filtro de interpolação junto aos pixels interpolados verticalmente vizinhos com cada um dos quais incluindo um caractere ‘c’ no domínio de sua aferição.
[057] O filtro de interpolação é determinado com base na localização do sub-pixel do pixel a ser interpolado ou com base em um modo de predição e uma localização de um sub-pixel do pixel a ser interpolado.
[058] A Tabela 1 apresenta exemplos de filtros. A localização de subpixel H indica uma localização de uma metade de pixel na direção de interpolação. Por exemplo, as localizações bL0, hL0, iL0, jL0, e kL0 correspondem a localização de sub-pixel H. As localizações de sub-pixel FL e FR indicam a localização de uma quarta parte de pixel na direção de interpolação. Por exemplo, as localizações aL0, dL0, eL0, fL0, e gL0 correspondem a localização de sub-pixel FL, e as localizações cL0, nL0, pL0, qL0, e rL0 correspondem a localização de sub-pixel FR.
[059] TABELA 1
Figure img0001
[060] Conforme mostrado na Tabela 1, na predição unidirecional, o filtro simétrico de 6-derivações pode ser utilizado para interpolar pixels da localização de metade de pixel H, e um filtro assimétrico de 5-derivações pode ser utilizado para interpolar pixels da localização de quarta parte de pixel FL ou FR. Na predição bidirecional, pode ser usado um filtro simétrico de 8- derivações para a localização de metade de pixel H e um filtro assimétrico de 8-derivações pode ser utilizado para a localização da quarta parte de pixel FL ou FR.
[061] Alternativamente, o filtro pode ser determinado somente pela localização de sub-pixel do pixel a ser interpolado. Na predição unidirecional, pode ser utilizado um filtro simétrico de 8-derivações para a interpolação de pixels de localizações de metade de pixel e um filtro assimétrico de 7- derivações ou filtro assimétrico de 6-derivações podem ser empregados para a interpolação de pixels de localizações de quarta parte de pixel. Na predição bidirecional, o mesmo filtro ou um outro filtro contendo a mesma quantidade de derivações podem ser usados para a interpolação de pixels de localizações de sub-pixels.
[062] Um bloco residual é gerado empregando-se o bloco atual e o bloco de predição (S130). O bloco residual apresenta o mesmo tamanho da unidade de transformada. Caso a unidade de predição seja maior do que a unidade de transformada, os sinais residuais entre o bloco atual e o bloco de predição se encontram no domínio de múltiplos blocos residuais.
[063] O bloco residual é codificado (S140). O bloco residual é codificado pela unidade de transformada 140, a unidade de quantização 150, a unidade de varredura 160 e a unidade de codificação de entropia 170 da FIG.1.
[064] A informação de movimento é codificada (S150). A informação de movimento pode ser codificada de modo previsto utilizando candidatos espaciais e um candidato temporal do bloco atual.
[065] A informação de movimento é codificada em um modo de escape, um modo de fusão ou um modo AMVP. No modo de escape, a unidade de predição apresenta o tamanho da unidade de codificação e a informação de movimento é codificada empregando o mesmo método conforme aquele dado para o modo de fusão. No modo de fusão, a informação de movimento da unidade de predição atual é igual a informação de movimento de um candidato. No modo AMVP, o vetor de movimento da informação de movimento é codificado da forma prevista utilizando um ou mais candidatos de vetor de movimento.
[066] A FIG. 4 consiste de um fluxograma ilustrando um método de codificação de informação de movimento na modo de fusão de acordo com a presente invenção.
[067] Os candidatos a fusão espacial são derivados (S210). A FIG. 5 consiste de um diagrama conceitual ilustrando as posições dos blocos candidatos a fusão espacial de acordo com a presente invenção.
[068] Conforme mostrado na FIG. 5, o bloco candidato a fusão consiste de um bloco à esquerda (bloco A), um bloco acima (bloco B), um bloco acima à direita (bloco C), um bloco abaixo à esquerda (bloco D) ou um bloco acima à esquerda (bloco E) do bloco atual.
[069] Os blocos compreendem de blocos de predição. O bloco acima à esquerda (bloco E) é ajustado como bloco candidato a fusão quando um ou mais blocos A, B, C e D se encontram indisponíveis. A informação de movimento de um bloco candidato a fusão disponível N é ajustado como um candidato a fusão espacial N. Aonde N é A, B, C, D ou E.
[070] O candidato a fusão espacial pode ser ajustado como indisponível de acordo com o formato do bloco atual e a posição do bloco atual. Por exemplo, caso a unidade de codificação seja dividida em duas unidades de predição (bloco P0 e bloco P1) utilizando-se o fracionamento assimétrico, é provável que a informação de movimento do bloco P0 não seja igual a informação de movimento do bloco P1. Portanto, caso o bloco atual seja um bloco assimétrico P1, o bloco P0 é ajustado como bloco candidato indisponível conforme mostrado nas FIGs de 6 a 9.
[071] A FIG. 6 consiste de um diagrama conceitual ilustrando as posições dos blocos candidatos a fusão espacial em um modo de partição assimétrico de acordo com a presente invenção.
[072] Conforme mostrado na FIG. 6, uma unidade de codificação é fracionada em dois blocos de predição assimétricos P0 e P1 e o modo de partição é um modo nLx2N. O tamanho do bloco P0 é hNx2N e o tamanho do bloco P1 é (2-h)Nx2N. O valor de h é 1/2. O bloco atual é o bloco P1. Os blocos A, B, C, D e E compreendem de blocos candidatos a fusão espacial. O bloco P0 é o bloco candidato a fusão espacial A.
[073] Na presente invenção, o candidato a fusão espacial A é ajustado como indisponível, não devendo ser listado na listagem de candidatos a fusão. Além disso, o bloco candidato a fusão espacial A, B, C, D ou E apresentando a mesma informação de movimento do bloco candidato a fusão espacial A é ajustado como indisponível.
[074] A FIG. 7 constitui em outro diagrama conceitual ilustrando as posições dos blocos candidatos a fusão espacial em um modo de partição assimétrico de acordo com a presente invenção.
[075] Conforme mostrado na FIG. 7, uma unidade de codificação é fracionada em dois blocos de predição assimétricos P0 e P1 e o modo de partição é um modo nRx2N. O tamanho do bloco P0 é (2-h)Nx2N e o tamanho do bloco P1 é hNx2N. O valor de h é 1/2. O bloco atual é o bloco P1. Os blocos A, B, C, D e E compreendem de blocos candidatos a fusão espacial. O bloco P0 compreende do bloco candidato a fusão espacial A.
[076] Na presente invenção, o candidato a fusão espacial A é ajustado como indisponível não devendo ser listado na lista de candidatos a fusão. Além disso, os blocos candidatos a fusão espacial B, C, D ou E apresentando a mesma informação de movimento do bloco candidato a fusão espacial A é ajustado como indisponível.
[077] A FIG. 8 consiste de outro diagrama conceitual ilustrando as posições de blocos de candidatos a fusão espacial em outro modo de partição assimétrico de acordo com a presente invenção.
[078] Conforme mostrado na FIG. 8, uma unidade de codificação é fracionada em dois blocos de predição assimétrico P0 e P1 e o modo de partição consiste do modo 2NxnU. O tamanho do bloco P0 é de 2NxhN e o tamanho do bloco P1 é de 2Nx(2-h)N. O valor de h é1/2. O bloco atual é o bloco P1. Os blocos A, B, C, D e E compreendem de blocos de candidatos a fusão espacial. O bloco P0 consiste do bloco candidato a fusão espacial B.
[079] Na presente invenção, o candidato a fusão espacial B é ajustado como indisponível, não sendo listado na listagem de candidatos a fusão. Além disso, os blocos de candidatos a fusão espacial C, D ou E apresentando a mesma informação de movimento do bloco candidato a fusão espacial B é ajustado como indisponível.
[080] A FIG. 9 consiste de outro diagrama conceitual ilustrando as posições dos blocos candidatos a fusão espacial em outro modo de partição assimétrico de acordo com a presente invenção.
[081] Conforme mostrado na FIG. 9, uma unidade de codificação é fracionada em dois blocos de predição assimétricos P0 e P1 e o modo de partição consiste de um modo 2NxnD. O tamanho do bloco P0 é 2Nx(2-h)N e o tamanho do bloco P1 é 2NxhN. O valor de h é 1/2. O bloco atual consiste do bloco P1. Os blocos A, B, C, D e E compreendem dos blocos candidatos a fusão espacial. O bloco P0 consiste do bloco candidato a fusão espacial B.
[082] Na presente invenção, o candidato a fusão espacial B é ajustado como indisponível, não sendo listado na listagem de candidatos a fusão. Além disso, os blocos candidatos a fusão espacial C, D ou E apresentando a mesma informação de movimento do bloco candidato a fusão espacial B são ajustados como indisponíveis.
[083] O candidato a fusão espacial pode ser também ajustado como indisponível com base na área de fusão. Caso o bloco atual e o bloco candidato a fusão espacial pertençam a mesma área de fusão, o bloco candidato a fusão é ajustado como indisponível. A área de fusão consiste da área de unidade aonde a estimativa do movimento é realizada e a informação especificando a área de fusão é incluída em um fluxo de bits.
[084] Um candidato a fusão temporal é derivado (S220). O candidato a fusão temporal inclui um índice de imagem de referência e um vetor de movimento do candidato a fusão temporal.
[085] O índice de imagem de referência do candidato a fusão temporal pode ser derivado empregando um ou mais índices de imagem de referência do bloco vizinho. Por exemplo, um dos índices de imagem de referência de um bloco vizinho à esquerda, um bloco vizinho acima e um bloco vizinho de canto é ajustado como o índice de imagem de referência do candidato a fusão temporal. O bloco vizinho de canto consiste de um dos blocos, o bloco vizinho acima à direita, o bloco vizinho abaixo à esquerda e um bloco vizinho acima à esquerda. Alternativamente, o índice de imagem de referência do candidato a fusão temporal pode ser ajustado como zero para redução da complexidade.
[086] O vetor de movimento do candidato a fusão temporal pode ser derivado da maneira como segue.
[087] Primeiramente, determina-se uma imagem de candidato a fusão temporal. A imagem candidata a fusão temporal inclui um bloco candidato a fusão temporal. Uma imagem candidata a fusão temporal é utilizada dentro de uma partição. Um índice de imagem de referência da imagem candidata a fusão temporal pode ser ajustado como zero.
[088] Caso a partição presente seja uma partição P, uma das imagens de referência da lista de imagem de referência 0 é ajustada como a imagem candidata a fusão temporal. Caso a partição presente seja uma partição B, uma das imagens de referência das listas de imagens de referência 0 e 1 é ajustada como a imagem candidata a fusão temporal. Um indicador de listagem especificando se a imagem candidata a fusão temporal pertence as listas de imagens de referências 0 e 1 é incluído em um cabeçalho na partição caso a partição presente compreenda de uma partição B. O índice de imagem de referência especificando a imagem candidata a fusão temporal pode ser incluído no cabeçalho da partição.
[089] Em seguida, determina-se o bloco candidato a fusão temporal. A FIG. 10 consiste de um diagrama conceitual ilustrando a posição do bloco candidato a fusão temporal de acordo com a presente invenção. Conforme mostrado na FIG. 10, um primeiro bloco candidato pode ser um bloco no canto inferior à direita (bloco H) do bloco C. O bloco C apresenta o mesmo tamanho e a mesma localização do bloco atual e se faz localizado no domínio da imagem candidata a fusão temporal. Um segundo bloco candidato consiste de um bloco abrangendo um pixel superior à esquerda do centro do bloco C.
[090] O bloco candidato a fusão temporal pode ser o primeiro bloco candidato ou o segundo bloco candidato. Caso o primeiro bloco candidato se encontre disponível, o primeiro bloco candidato é ajustado como o bloco candidato a fusão temporal. Caso o primeiro bloco candidato se encontre indisponível, o segundo bloco candidato é ajustado como sendo o bloco candidato a fusão temporal. Caso o segundo bloco candidato se encontre indisponível, o bloco candidato a fusão temporal é ajustado como indisponível.
[091] O bloco candidato a fusão temporal é determinado com base na posição do bloco atual. Por exemplo, caso o bloco atual seja adjacente a uma LCU inferior (ou seja, caso o primeiro bloco candidato pertença a uma LCU inferior), o primeiro bloco candidato pode ser alterado em um bloco dentro do domínio de uma LCU presente ou é ajustado como indisponível.
[092] Além disso, o primeiro e segundo blocos candidatos podem ser alterados em outros blocos baseados em cada posição do bloco candidato no domínio de uma unidade de armazenamento de vetor de movimento. A unidade de armazenamento de vetor de movimento compreende de uma unidade básica armazenando informação de movimento das imagens de referência.
[093] A FIG. 11 consiste de um diagrama conceitual ilustrando um método de armazenagem da informação de movimento de acordo com a presente invenção. Conforme mostrado na FIG. 11, a unidade de armazenamento de movimento pode compreender de um bloco 16x16. A unidade de armazenamento de vetor de movimento pode ser dividida em dezesseis blocos 4x4. Caso a unidade de armazenamento de vetor de movimento seja um bloco 16x16, a informação de movimento é armazenada por unidade de armazenamento de vetor de movimento. Caso a unidade de armazenamento de vetor de movimento inclua múltiplas unidades de predição de imagem de referência, a informação de movimento de uma pré-determinada unidade de predição das múltiplas unidades de predição é armazenada na memória para a redução da quantidade de informação de movimento a ser armazenada na memória. A unidade de predição pré-determinada pode compreender de um bloco abrangendo um dos dezesseis blocos 4x4. A unidade de predição pré-determinada pode compreender de um bloco abrangendo um bloco C3, um bloco BR. Ou a unidade de predição pré- determinada pode compreender de um bloco abrangendo um bloco UL.
[094] Portanto, caso o bloco candidato não venha a incluir o bloco pré- determinado, o bloco candidato é alterado em um bloco incluindo o bloco pré- determinado.
[095] Caso seja determinado o bloco candidato a fusão temporal, o vetor de movimento do bloco candidato a fusão temporal é ajustado como o vetor de movimento do candidato a fusão temporal.
[096] Uma lista de candidatos a fusão é construída (S230). Os candidatos espaciais disponíveis e o candidato temporal disponível são listados em uma ordem pré-determinada. Os candidatos a fusão espacial são listado até quatro na ordem A, B, C, D e E. O candidato a fusão temporal pode ser listado entre B e C ou após os candidatos espaciais.
[097] Determina-se se um ou mais candidatos a fusão são gerados ou não (S240). A determinação é realizada através de comparação da quantidade de candidatos a fusão listados na lista de candidato a fusão com um pré- determinado número de candidatos a fusão. A quantidade pré-determinada pode ser determinada por imagem ou partição.
[098] Caso o número de candidatos a fusão listados na lista de candidato a fusão seja menor do que uma quantidade pré-determinada de candidatos a fusão, são gerados um ou mais candidatos a fusão (S250). O candidato a fusão gerado é listado após o último candidato a fusão disponível.
[099] Caso o número de candidatos a fusão disponíveis seja igual ou maior do que 2, um dos dois candidatos a fusão disponíveis apresenta a informação de movimento na lista 0 e o outro tem a informação de movimento na lista 1, o candidato a fusão pode ser gerado através da combinação da informação de movimento na lista 0 e a informação de movimento na lista 1. Os múltiplos candidatos a fusão podem ser gerados caso ocorram múltiplas combinações.
[0100] Um ou mais candidatos a fusão podem ser adicionados à lista. Caso o tipo de partição seja P, o candidato a fusão zero apresenta somente a informação de movimento da lista 0. Caso o tipo de partição seja B, o candidato a fusão zero apresenta a informação de movimento da lista 0 e a informação de movimento da lista 1.
[0101] Um preditor de fusão é selecionado entre os candidatos a fusão da lista de fusão, um índice de fusão especifica o preditor de fusão é codificado (S260).
[0102] A FIG. 12 consiste de um diagrama de blocos de uma aparelhagem de decodificação de imagem 200 de acordo com a presente invenção.
[0103] A aparelhagem de decodificação de imagem 200 de acordo com a presente invenção inclui uma unidade de decodificação de entropia 210, uma unidade de varredura invertida 220, uma unidade de quantização invertida 230, uma unidade transformada inversa 240, uma unidade de intrapredição 250, uma unidade de interpredição 260, uma unidade de pós-processamento 270, uma unidade de armazenamento de imagem 280, e um adicionador 290.
[0104] A unidade de decodificação de entropia 210 extrai a informação de intrapredição, a informação de intrapredição e os componentes de coeficientes quantizados a partir de um fluxo de bits recebido utilizando um método de decodificação aritmética binária adaptável ao contexto.
[0105] A unidade de varredura invertida 220 aplica um padrão de varredura invertido junto aos componentes de coeficientes quantizados para gerar o bloco quantizado. Na interpredição, o padrão de varredura invertido consiste de uma varredura diagonal. Os componentes de coeficientes quantizados incluem os sinalizadores de significância, os sinais de coeficientes e os níveis de coeficientes.
[0106] Quando o tamanho da unidade de transformada é maior do que o tamanho pré-determinado, os sinalizadores de significância, os sinais de coeficientes e os níveis de coeficientes são varridos de forma invertida na unidade do subconjunto fazendo uso da varredura diagonal para a geração de subconjuntos, e os subconjuntos são varridos de forma invertida fazendo-se uso da varredura diagonal para gerar o bloco quantizado. O tamanho pré- determinado é igual ao tamanho do subconjunto. O subconjunto compreende de um bloco 4x4 incluindo 16 coeficientes de transformadas. Os sinalizadores de significância, os sinais de coeficientes e os níveis de coeficientes são varridos de forma invertida na direção oposta. Os subconjuntos são ainda varridos de forma invertida na direção oposta.
[0107] Um parâmetro indicando a última posição do coeficiente não- zero e dos sinalizadores de subconjunto não-zero é extraído a partir do fluxo de bits. O número de subconjuntos codificados é determinado com base no parâmetro indicando a última posição do coeficiente não-zero. A sinalização de subconjunto não-zero é empregada para determinar se o subconjunto correspondente apresenta pelo menos um coeficiente não-zero. Caso o sinalizador de subconjunto não-zero seja igual a 1, o subconjunto é gerado fazendo emprego da varredura diagonal. O primeiro subconjunto e o último subconjunto são gerados utilizando o padrão de varredura invertida.
[0108] A unidade de quantização invertida 230 recebe o parâmetro de quantização diferencial a partir da unidade de decodificação de entropia 210 e gera o preditor de parâmetro de entropia para gerar o parâmetro de quantização da unidade de codificação. A operação de geração do preditor de parâmetro de quantização é a mesma da operação da unidade de quantização 150 da FIG. 1. Em seguida, o parâmetro de quantização da unidade de codificação presente é gerado pela adição do parâmetro de diferencial de quantização e do preditor de parâmetro de quantização. Caso o parâmetro de diferencial quantização para a unidade de codificação presente não seja transmitido a partir de um lado de codificação, o parâmetro de diferencial de quantização é ajustado como zero.
[0109] A unidade de quantização invertida 230 efetua a quantização invertida do bloco quantizado.
[0110] A unidade de transformada inversa 240 realiza as transformadas inversas do bloco quantizado invertido para gerar um bloco residual. Uma matriz de transformada inversa é determinada de forma adaptável de acordo com o modo e o tamanho da unidade de transformada. A matriz de transformada inversa consiste de uma matriz de transformada integral com base no DCT ou DST. Na interpredição, faz-se emprego das transformadas integrais com base no DCT.
[0111] A unidade de intrapredição 250 deriva um modo de intrapredição de uma unidade de predição atual utilizando a informação de intrapredição recebida, e gera um bloco de predição de acordo com o modo de intrapredição derivado.
[0112] A unidade de interpredição 260 deriva a informação de movimento da unidade de predição atual fazendo emprego da informação de interpredição recebida, e gera um bloco de predição utilizando a informação de movimento.
[0113] A unidade de pós-processamento 270 opera da mesma maneira como a unidade de pós-processamento 180 da FIG. 1.
[0114] A unidade de pós-processamento 280 recebe a imagem pós- processada a partir da unidade de pós-processamento 270, e armazena a imagem em unidades de imagem. Uma imagem pode compreender de um quadro ou de um campo.
[0115] O adicionador 290 adiciona o bloco residual restaurado e um bloco de predição para gerar um bloco reconstruído.
[0116] A FIG. 13 consiste de um fluxograma ilustrando um método de decodificação de uma imagem em modo de interpredição de acordo com a presente invenção.
[0117] A informação de movimento de um bloco atual é derivada (S310). O bloco atual consiste de uma unidade de predição. Um tamanho do bloco atual é determinado pelo tamanho da unidade de codificação e do modo de partição.
[0118] A informação de movimento varia de acordo com o tipo de predição. Caso o tipo de predição seja uma predição unidirecional, a informação de movimento inclui um índice de referência especificando uma imagem de uma lista de referência 0, e um vetor de movimento. Caso o tipo de predição seja uma predição bidirecional, a informação de movimento inclui um índice de referência especificando uma imagem de uma lista de referência 1, e um vetor de movimento na lista 0 e um vetor de movimento na lista 1.
[0119] A informação de movimento é decodificada adaptada de acordo com o modo de codificação da informação de movimento. O modo de codificação da informação de movimento é determinado através de um sinalizador de escape e de um sinalizador de fusão. Caso o sinalizador de escape seja igual a 1, o sinalizador de fusão não existe e o modo de codificação consiste de um modo de escape. Caso o sinalizador de escape seja igual a 0 e o sinalizador de fusão seja igual a 1, o modo de codificação consiste em um modo de fusão. Caso o sinalizador de escape e o sinalizador de fusão sejam iguais a 0, o modo de codificação compreende de um modo AMVP.
[0120] Um bloco de predição do bloco atual é gerado utilizando a informação de movimento (S320).
[0121] Caso o vetor de movimento indique uma localização de pixel integral, o bloco de predição é gerado através de cópia de um bloco da imagem de referência especificada pelo vetor de movimento. Caso o vetor de movimento indique uma localização de sub-pixel, o bloco de predição é gerado por interpolação dos pixels da imagem de referência. O vetor de movimento é fornecido em unidades de quartas partes de pixel.
[0122] Conforme mostrado na FIG. 3, os pixels aferidos como L0, R0, R1, L1, A0 e B0 compreendem de pixels integrais de posição da imagem de referência e os pixels aferidos como de aL0 a rL0 junto às localizações de subpixels compreendem de pixels fracionados a serem interpolados empregando- se um filtro de interpolação selecionado com base no vetor de movimento.
[0123] Caso um pixel a ser interpolado se apresente localizado junto a uma localização de sub-pixel, o pixel aferido como aL0, bL0 ou cL0 é gerado pela aplicação de um filtro de interpolação junto aos pixels integrais de posição horizontalmente mais próxima. Caso um pixel a ser interpolado se apresente localizado junto a uma localização de sub-pixel dL0, hL0 ou nL0, o pixel aferido como dL0, hL0 ou nL0 é gerado pela aplicação de um filtro de interpolação junto aos pixels integrais de posição verticalmente mais próxima.
[0124] Caso um pixel a ser interpolado se apresente localizado junto a uma localização de sub-píxel eL0, iL0 ou pL0, o pixel aferido como eL0, iL0 ou pL0 é gerado pela aplicação de um filtro de interpolação junto as pixels interpolados verticalmente mais próximos, cada um dos quais incluindo um caractere ‘a’ no domínio de sua aferição. Caso um pixel a ser interpolado se localize junto a uma localização de sub-pixel gL0, kL0 ou rL0, o pixel aferido como gL0, kL0 ou rL0 é gerado pela aplicação de um filtro de interpolação junto aos pixels interpolados verticalmente mais próximos, aonde cada um dos quais inclui um caractere ‘c’ no domínio de sua aferição. Caso um pixel a ser interpolado se localize junto a uma localização de sub-pixel fL0, jL0 ou qL0, o pixel aferido como fL0, jL0 ou qL0 é gerado pela aplicação de um filtro de interpolação junto aos pixels interpolados verticalmente vizinhos aonde cada um dos quais inclui um caractere ‘c’ no domínio de sua aferição.
[0125] O filtro de interpolação é determinado com base na localização de sub-pixel a ser interpolado, ou com base em um modo de predição e uma localização de sub-pixel do pixel a ser interpolado.
[0126] Conforme mostrado na Tabela 1, na predição unidirecional, pode ser utilizado um filtro simétrico de 6-derivações para interpolar os pixels da localização de meio pixel H, e pode ser utilizado um filtro assimétrico de 5- derivações para interpolação de pixels de localização de quarta parte de pixel FL ou FR. Na predição bidirecional, pode ser usado um filtro simétrico de 8- derivações para a localização de meio pixel H e pode ser usado um filtro assimétrico de 8-derivações para a localização de quarta parte de pixel FL e FR.
[0127] Alternativamente, o filtro pode ser determinado somente através da localização do sub-pixel do pixel a ser interpolado. Na predição unidirecional, pode ser utilizado um filtro simétrico de 8-derivações para interpolar pixels de localizações de meio pixel e filtro assimétrico de 7- derivações ou 6-derivações podem ser utilizados para interpolar pixels de localizações uma quarta parte de pixel. Na predição bidirecional, o mesmo filtro ou um outro filtro apresentando uma menor quantidade de derivações podem ser usados para interpolação de pixels de localizações de sub-pixel.
[0128] Um bloco residual é gerado (S330). O bloco residual é gerado pela unidade de decodificação de entropia 210, a unidade de varredura invertida 220, a unidade de quantização invertida 230 e a unidade de transformada inversa 240 da FIG. 12.
[0129] Um bloco reconstruído é gerado utilizando o bloco de predição e o bloco residual (S340).
[0130] O bloco de predição apresenta o mesmo tamanho da unidade de predição, e o bloco residual apresenta o mesmo tamanho da unidade de transformada. Portanto, os sinais residuais e os sinais de predição de mesmo tamanho são adicionados para gerarem sinais reconstruídos.
[0131] A FIG. 14 consiste de um fluxograma ilustrando um método de derivação de informação de movimento no modo de fusão.
[0132] Um índice de fusão é extraído a partir de um fluxo de bits (S410). Caso o índice de fusão não exista, o número de candidatos a fusão é ajustado em um.
[0133] Os candidatos a fusão espacial são derivados (S420). Os candidatos a fusão espacial disponíveis são os mesmos aos descritos em S210 da FIG. 4.
[0134] Deriva-se um candidato a fusão temporal (S430). O candidato a fusão temporal inclui um índice de imagem de referência e um vetor de movimento do candidato a fusão temporal. O índice de referência e o vetor de movimento do candidato a fusão temporal são os mesmos dos descritos em S220 da FIG. 4.
[0135] Uma lista de candidatos a fusão é construída (S440). A lista de fusão é a mesma da descrita em S230 da FIG. 4.
[0136] Determina-se se são gerados ou não um ou mais candidatos a fusão (S450). A determinação é realizada através de comparação do número de candidatos a fusão listados na lista de candidatos a fusão com o número pré-determinado dos candidatos a fusão. O número pré-determinado é estabelecido por imagem ou partição. Caso o número de candidatos a fusão listados na lista de candidatos a fusão seja menor do que um número pré- determinado de candidatos a fusão, um ou mais candidatos a fusão são gerados (S460). O candidato a fusão gerado é listado após o último candidato a fusão disponível. O candidato a fusão é gerado pelo mesmo método descrito em S250 da FIG. 4
[0137] O candidato a fusão especificado pelo índice de fusão é ajustado como a informação de movimento do bloco atual (S470).
[0138] A FIG. 15 consiste de um fluxograma ilustrando um procedimento de geração de um bloco residual no modo de interpredição de acordo com a presente invenção.
[0139] Os componentes de coeficientes quantizados são gerados pela unidade de decodificação de entropia (S510).
[0140] Um bloco quantizado é gerado pela varredura invertida dos componentes de coeficientes quantizados de acordo com a varredura diagonal (S520). Os componentes de coeficientes quantizados incluem os sinalizadores de significância, os sinais de coeficientes e os níveis de coeficientes.
[0141] Quando o tamanho da unidade de transformada é maior do que um tamanho pré-determinado, os sinalizadores de significância, os sinais de coeficientes e os níveis de coeficientes são varridos de forma inversa na unidade de subconjunto utilizando a varredura diagonal para geração dos subconjuntos, com os subconjuntos sendo varridos de forma inversa empregando-se a varredura diagonal para geração do bloco quantizado. O tamanho pré-determinado é igual ao tamanho do subconjunto. O subconjunto consiste de um bloco 4x4 incluindo 16 coeficientes de transformadas. Os sinalizadores de significância, os sinais de coeficientes e os níveis de coeficientes são varridos de forma invertida na direção oposta. Os subconjuntos são varridos também de forma inversa na direção oposta.
[0142] O parâmetro indica a última posição do coeficiente não-zero e os sinalizadores de subconjunto não-zerado são extraídos do fluxo de bits. O número de subconjuntos codificados é determinado com base no parâmetro indicando a última posição do coeficiente não-zero. Os sinalizadores de subconjunto não-zerado são utilizados para a determinação de se o subconjunto apresenta pelo menos um coeficiente não-zerado. Caso o sinalizador de subconjunto não-zerado seja igual a 1, o subconjunto é gerado utilizando a varredura diagonal. O primeiro subconjunto e o último subconjunto são gerados empregando-se o padrão de varredura invertida.
[0143] O bloco quantizado é quantizado de forma invertida empregando-se uma matriz de quantização invertida e um parâmetro de quantização (S530).
[0144] Um tamanho mínimo da unidade de quantização é determinado. Um parâmetro cu_qp_delta_enabled_info especificando o tamanho mínimo é extraído a partir de um fluxo de bits, e o tamanho o mínimo da unidade de quantização é determinado pela equação a seguir.
[0145] Log2(MinQUSize) = Log2(MaxCUSize) - cu_qp_delta_enabled_info
[0146] O termo MinQUSize indica o tamanho mínimo da unidade de quantização, o termo MaxCUSize indica o tamanho da LCU. O parâmetro cu_qp_delta_enabled_info é extraído a partir de um conjunto de parâmetros de imagem.
[0147] Deriva-se um parâmetro de diferencial de quantização da unidade de codificação presente. O parâmetro de diferencial de quantização é incluído por unidade de quantização. Portanto, caso o tamanho da unidade de codificação presente seja igual ou maior do que o tamanho mínimo da unidade de quantização, o parâmetro de diferencial de quantização para a unidade de codificação presente é restabelecido. Caso o parâmetro de diferencial de quantização não exista, o parâmetro de diferencial de quantização é ajustado como zero. Caso as múltiplas unidades de codificação façam parte de uma unidade de quantização, a primeira unidade de codificação contendo pelo menos um coeficiente não-zero na ordem de decodificação contém a unidade de diferencial de quantização.
[0148] Um parâmetro de diferencial codificado de quantização é decodificado aritmeticamente para a geração de uma cadeia de bits indicando o valor absoluto do parâmetro de diferencial de quantização e um bit indicando o sinal do parâmetro de diferencial de quantização. A cadeia de bits pode compreender de um código unário truncado. Caso o valor absoluto do parâmetro de diferencial de quantização seja zero, o bit indicativo do sinal não existe. O parâmetro de diferencial de quantização é derivado empregando-se a cadeia de bits indicando o valor absoluto e o bit indicativo do sinal.
[0149] Um preditor de parâmetro de quantização da unidade de codificação presente é derivado. O preditor de parâmetro de quantização é gerado pelo uso de parâmetros de quantização das unidades de codificação vizinhas e do parâmetro de quantização da unidade de codificação anterior como segue adiante.
[0150] Um parâmetro de quantização à esquerda, um parâmetro de quantização acima e um parâmetro de quantização anterior são restabelecidos em sequência nesta ordem.
[0151] Uma média do primeiro dos dois parâmetros de quantização disponíveis restabelecidos naquela ordem é estabelecida como o preditor de parâmetro de quantização quando dois ou mais parâmetros de quantização encontram-se disponíveis, e quando somente um parâmetro de quantização encontra-se disponível, o parâmetro de quantização disponível é ajustado como o preditor do parâmetro de quantização. Ou seja, caso sejam disponíveis os parâmetros de quantização acima e à esquerda, a média entre o parâmetro de quantização acima e à esquerda é estabelecida como o preditor do parâmetro de quantização. Caso somente um dos parâmetros à esquerda ou acima esteja disponível, a média entre o parâmetro de quantização disponível e o parâmetro de quantização anterior é estabelecida como o preditor do parâmetro de quantização. Caso sejam ambos indisponíveis, o parâmetro de quantização à esquerda e acima, o parâmetro de quantização anterior é ajustado como o preditor de parâmetro de quantização.
[0152] Caso múltiplas unidades pertençam a uma unidade de quantização de tamanho mínimo, o preditor de parâmetro de quantização para a primeira unidade de codificação na ordem de decodificação é derivado e utilizado para as demais unidades de codificação.
[0153] O parâmetro de quantização da unidade de codificação presente é gerado utilizando o parâmetro de diferencial de quantização e o preditor de parâmetro de quantização.
[0154] Um bloco residual é gerado pela transformada inversa do bloco quantizado invertido (S540). São utilizados transformadas unidimensionais baseadas em DCT invertido vertical e horizontalmente.
[0155] Enquanto que a invenção foi descrita e mostrada com referência a algumas de suas modalidades de exemplo, deve ser entendido pelos especialistas da área que diversas mudanças no formato e detalhes podem ser efetuadas sem haver o desvio do escopo e espírito da invenção definida de acordo com o quadro de reivindicações apenso.

Claims (8)

1. Método de decodificação de dados de vídeo em predição unidirecional, CARACTERIZADO por compreender: derivar um índice de imagem de referência e um vetor de movimento de uma unidade de predição atual; gerar um bloco de predição da unidade de predição atual empregando o índice de imagem de referência e o vetor de movimento; gerar um bloco quantizado varrendo inversamente componentes de coeficientes quantizados; gerar um bloco de transformada por quantização invertida do bloco quantizado empregando um parâmetro de quantização; gerar um bloco residual por transformada invertida do bloco de transformada; e gerar pixels reconstruídos empregando o bloco de predição e o bloco residual, em que os pixels de predição do bloco de predição são gerados pelo emprego de um filtro de interpolação selecionado com base no vetor de movimento, o filtro de interpolação consiste de um filtro de assimetria de 7- derivações (7-tap asymmetry filter) caso o vetor de movimento indique uma posição de quarta parte de pixel, o filtro de interpolação consiste de um filtro de simetria de 8-derivações (8-tap symmetry filter) caso o vetor de movimento indique uma posição de metade de pixel, e em que o parâmetro de quantização é derivado usando um parâmetro de quantização diferencial e um preditor de parâmetro de quantização, se apenas um dentre um parâmetro de quantização à esquerda e um parâmetro de quantização acima estiver disponível, o preditor de parâmetro de quantização é uma média de um parâmetro de quantização prévio e o um disponível dentre o parâmetro de quantização à esquerda e o parâmetro de quantização acima, e o parâmetro de quantização diferencial é restaurado usando uma sequência binária (bin string) indicando um valor absoluto do parâmetro de quantização diferencial e um binário (bin) indicando um sinal do parâmetro de quantização diferencial.
2. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato do parâmetro de quantização ser derivado por unidade de quantização, e um tamanho da unidade de quantização ser um dos tamanhos possibilitados de uma unidade de codificação.
3. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato do número de derivações do filtro de interpolação ser determinado pela predição da posição de pixel indicada pelo vetor de movimento.
4. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato do índice de imagem de referência e do vetor de movimento da unidade de predição atual serem um índice de imagem de referência e um vetor de movimento de um candidato a fusão temporal ou espacial especificado pelo índice de fusão, e caso a unidade de predição atual seja uma segunda unidade de predição particionada por partição assimétrica, o candidato a fusão espacial correspondendo a uma primeira unidade de predição particionada pela partição assimétrica é definido como sendo indisponível.
5. Método, de acordo com a reivindicação 4, CARACTERIZADO pelo fato de caso o tamanho da unidade de predição atual seja de (3/2)Nx2N, o candidato a fusão espacial à esquerda é definido como indisponível.
6. Método, de acordo com a reivindicação 4, CARACTERIZADO pelo fato de um vetor de movimento do candidato a fusão temporal ser um vetor de movimento de um bloco candidato a fusão temporal em uma imagem de candidato a fusão temporal, e uma posição do bloco de candidato a fusão temporal ser determinada dependendo da posição do bloco atual em uma unidade de codificação maior LCU.
7. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de caso ambos os parâmetros de quantização à esquerda e os parâmetros de quantização acima estiverem indisponíveis, o preditor de parâmetro de quantização é definido como o parâmetro de quantização prévio.
8. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de caso o parâmetro de quantização à esquerda e o parâmetro de quantização acima estiverem disponíveis, o preditor de parâmetro de quantização é uma média do parâmetro de quantização à esquerda e do parâmetro de quantização acima.
BR122015027404A 2011-11-07 2012-11-02 Método de decodificação de dados de vídeo em predição unidirecional BR122015027404B8 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2011-0115348 2011-11-07
KR1020110115348A KR20130050149A (ko) 2011-11-07 2011-11-07 인터 모드에서의 예측 블록 생성 방법
PCT/CN2012/084018 WO2013067903A1 (en) 2011-11-07 2012-11-02 Method of decoding video data

Publications (3)

Publication Number Publication Date
BR122015027404A2 BR122015027404A2 (pt) 2019-08-27
BR122015027404B1 true BR122015027404B1 (pt) 2022-06-28
BR122015027404B8 BR122015027404B8 (pt) 2022-10-04

Family

ID=48288520

Family Applications (5)

Application Number Title Priority Date Filing Date
BR112014007593-0A BR112014007593B1 (pt) 2011-11-07 2012-11-02 Método de decodificação de dados de vídeo em uma predição unidirecional
BR122015027425-7A BR122015027425B1 (pt) 2011-11-07 2012-11-02 Método de decodificação de dados de vídeo em uma predição unidirecional
BR122015027402A BR122015027402B8 (pt) 2011-11-07 2012-11-02 Método de decodificação de dados de vídeo em predição unidirecional
BR122015027404A BR122015027404B8 (pt) 2011-11-07 2012-11-02 Método de decodificação de dados de vídeo em predição unidirecional
BR122015027407A BR122015027407B8 (pt) 2011-11-07 2012-11-02 Método de decodificação de dados de vídeo em predição unidirecional

Family Applications Before (3)

Application Number Title Priority Date Filing Date
BR112014007593-0A BR112014007593B1 (pt) 2011-11-07 2012-11-02 Método de decodificação de dados de vídeo em uma predição unidirecional
BR122015027425-7A BR122015027425B1 (pt) 2011-11-07 2012-11-02 Método de decodificação de dados de vídeo em uma predição unidirecional
BR122015027402A BR122015027402B8 (pt) 2011-11-07 2012-11-02 Método de decodificação de dados de vídeo em predição unidirecional

Family Applications After (1)

Application Number Title Priority Date Filing Date
BR122015027407A BR122015027407B8 (pt) 2011-11-07 2012-11-02 Método de decodificação de dados de vídeo em predição unidirecional

Country Status (16)

Country Link
US (8) US8982957B2 (pt)
EP (5) EP3930326A1 (pt)
JP (6) JP5827412B2 (pt)
KR (4) KR20130050149A (pt)
CN (7) CN104883568B (pt)
AU (5) AU2012334553B2 (pt)
BR (5) BR112014007593B1 (pt)
CA (5) CA2849029C (pt)
HK (6) HK1199588A1 (pt)
IL (5) IL231707A (pt)
MX (5) MX339984B (pt)
MY (2) MY201095A (pt)
PH (6) PH12015500841B1 (pt)
RU (5) RU2621972C2 (pt)
SG (5) SG10201503443YA (pt)
WO (1) WO2013067903A1 (pt)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120068743A (ko) * 2010-12-17 2012-06-27 한국전자통신연구원 인터 예측 방법 및 그 장치
AU2012276477B2 (en) * 2011-06-28 2016-02-18 Samsung Electronics Co., Ltd. Method for image interpolation using asymmetric interpolation filter and apparatus therefor
KR20130050149A (ko) * 2011-11-07 2013-05-15 오수미 인터 모드에서의 예측 블록 생성 방법
JP5900308B2 (ja) * 2011-12-16 2016-04-06 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム
FR3032583B1 (fr) * 2015-02-06 2018-03-02 Orange Procede de codage d'une image numerique, procede de decodage, dispositifs, et programmes d'ordinateurs associes
KR102162856B1 (ko) * 2015-05-21 2020-10-07 후아웨이 테크놀러지 컴퍼니 리미티드 비디오 모션 보상을 위한 장치 및 방법
WO2017030198A1 (ja) * 2015-08-20 2017-02-23 日本放送協会 画像符号化装置、画像復号化装置、及びこれらのプログラム
WO2017122997A1 (ko) * 2016-01-11 2017-07-20 삼성전자 주식회사 영상 부호화 방법 및 장치와 영상 복호화 방법 및 장치
WO2017176092A1 (ko) * 2016-04-08 2017-10-12 한국전자통신연구원 움직임 예측 정보를 유도하는 방법 및 장치
US10602176B2 (en) * 2016-04-15 2020-03-24 Google Llc Coding interpolation filter type
ES2699748B2 (es) 2016-07-05 2021-05-13 Kt Corp Metodo y aparato para procesar senal de video
US10721489B2 (en) * 2016-09-06 2020-07-21 Qualcomm Incorporated Geometry-based priority for the construction of candidate lists
US10341659B2 (en) * 2016-10-05 2019-07-02 Qualcomm Incorporated Systems and methods of switching interpolation filters
EP3525460A4 (en) * 2016-10-06 2020-06-17 LG Electronics Inc. -1- METHOD FOR PROCESSING A VIDEO BASED ON AN INTRAPREDICATION MODE AND DEVICE THEREFOR
US10623746B2 (en) * 2017-12-07 2020-04-14 Tencent America LLC Method and apparatus for video coding
CN110662065A (zh) * 2018-06-29 2020-01-07 财团法人工业技术研究院 图像数据解码方法及解码器、图像数据编码方法及编码器
RU2768375C1 (ru) 2018-12-28 2022-03-24 ДжейВиСиКЕНВУД Корпорейшн Устройство декодирования динамических изображений, способ декодирования динамических изображений, программа декодирования динамических изображений, устройство кодирования динамических изображений, способ кодирования динамических изображений и программа кодирования динамических изображений
CN112565784B (zh) * 2018-12-28 2022-05-27 杭州海康威视数字技术股份有限公司 一种编解码方法及其设备
KR102600746B1 (ko) * 2019-04-01 2023-11-09 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 히스토리 기반 움직임 벡터 예측을 위한 보간 필터 사용
BR112022002480A2 (pt) 2019-08-20 2022-04-26 Beijing Bytedance Network Tech Co Ltd Método para processamento de vídeo, aparelho em um sistema de vídeo, e, produto de programa de computador armazenado em uma mídia legível por computador não transitória
JP7267885B2 (ja) * 2019-09-20 2023-05-02 Kddi株式会社 画像復号装置、画像復号方法及びプログラム
JP2021052241A (ja) * 2019-09-20 2021-04-01 Kddi株式会社 画像復号装置、画像復号方法及びプログラム
WO2023028964A1 (en) 2021-09-02 2023-03-09 Nvidia Corporation Parallel processing of video frames during video encoding
CN116076073A (zh) * 2021-09-02 2023-05-05 辉达公司 用于高性能视频编码的硬件编解码器加速器
CN117255205A (zh) * 2022-06-16 2023-12-19 北京三星通信技术研究有限公司 视频编解码方法及相应的设备

Family Cites Families (109)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3853554T2 (de) * 1987-06-09 1995-08-24 Sony Corp Bewegungsvektorabschätzung in Fernsehbildern.
US5339108A (en) * 1992-04-09 1994-08-16 Ampex Corporation Ordering and formatting coded image data and reconstructing partial images from the data
US5867602A (en) * 1994-09-21 1999-02-02 Ricoh Corporation Reversible wavelet transform and embedded codestream manipulation
US5881176A (en) * 1994-09-21 1999-03-09 Ricoh Corporation Compression and decompression with wavelet style and binary style including quantization by device-dependent parser
US6009236A (en) * 1994-09-26 1999-12-28 Mitsubishi Denki Kabushiki Kaisha Digital video signal record and playback device and method for giving priority to a center of an I frame
US5982935A (en) * 1997-04-11 1999-11-09 National Semiconductor Corporation Method and apparatus for computing MPEG video reconstructed DCT coefficients
US6208692B1 (en) * 1997-12-31 2001-03-27 Sarnoff Corporation Apparatus and method for performing scalable hierarchical motion estimation
US6639942B1 (en) * 1999-10-21 2003-10-28 Toshiba America Electronic Components, Inc. Method and apparatus for estimating and controlling the number of bits
US7663695B2 (en) * 2000-05-05 2010-02-16 Stmicroelectronics S.R.L. Method and system for de-interlacing digital images, and computer program product therefor
US6696993B2 (en) * 2001-03-23 2004-02-24 Nokia Corporation Variable length coding
US6735254B2 (en) * 2001-06-29 2004-05-11 Qualcomm, Inc. DCT compression using Golomb-Rice coding
EP2373035B1 (en) * 2001-11-30 2015-11-25 NTT DoCoMo, Inc. Moving picture encoding device, moving picture decoding device, moving picture encoding method, moving picture decoding method, program, and computer readable recording medium storing program
CN101448162B (zh) * 2001-12-17 2013-01-02 微软公司 处理视频图像的方法
US7620109B2 (en) * 2002-04-10 2009-11-17 Microsoft Corporation Sub-pixel interpolation in motion estimation and compensation
US7305034B2 (en) * 2002-04-10 2007-12-04 Microsoft Corporation Rounding control for multi-stage interpolation
MXPA04010318A (es) * 2002-04-23 2005-02-03 Nokia Corp Metodo y dispositivo para indicar parametros del cuantificador en un sistema de codificacion de video.
JP2004023458A (ja) * 2002-06-17 2004-01-22 Toshiba Corp 動画像符号化/復号化方法及び装置
JP4724351B2 (ja) * 2002-07-15 2011-07-13 三菱電機株式会社 画像符号化装置、画像符号化方法、画像復号装置、画像復号方法、および通信装置
US7227901B2 (en) * 2002-11-21 2007-06-05 Ub Video Inc. Low-complexity deblocking filter
US7609763B2 (en) * 2003-07-18 2009-10-27 Microsoft Corporation Advanced bi-directional predictive coding of video frames
US7724827B2 (en) * 2003-09-07 2010-05-25 Microsoft Corporation Multi-layer run level encoding and decoding
NO319629B1 (no) * 2003-11-28 2005-09-05 Tandberg Telecom As Fremgangsmate for korrigering av interpolerte pikselverdier
US7599435B2 (en) * 2004-01-30 2009-10-06 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Video frame encoding and decoding
US20050207495A1 (en) * 2004-03-10 2005-09-22 Jayaram Ramasastry Methods and apparatuses for compressing digital image data with motion prediction
US7894530B2 (en) * 2004-05-07 2011-02-22 Broadcom Corporation Method and system for dynamic selection of transform size in a video decoder based on signal content
US8823821B2 (en) * 2004-12-17 2014-09-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using motion vector predictor list
JP4074868B2 (ja) * 2004-12-22 2008-04-16 株式会社東芝 画像符号化制御方法及びその装置
US7583844B2 (en) * 2005-03-11 2009-09-01 Nokia Corporation Method, device, and system for processing of still images in the compressed domain
US8208564B2 (en) 2005-06-24 2012-06-26 Ntt Docomo, Inc. Method and apparatus for video encoding and decoding using adaptive interpolation
WO2007020516A1 (en) * 2005-08-15 2007-02-22 Nokia Corporation Method and apparatus for sub-pixel interpolation for updating operation in video coding
US20080137732A1 (en) * 2005-09-20 2008-06-12 Mitsubishi Electric Corporation Image encoding method and image decoding method, image encoder and image decoder, and image encoded bit stream and recording medium
US8879857B2 (en) 2005-09-27 2014-11-04 Qualcomm Incorporated Redundant data encoding methods and device
AU2006320064B2 (en) * 2005-11-30 2010-09-09 Kabushiki Kaisha Toshiba Image encoding/image decoding method and image encoding/image decoding apparatus
US8265151B1 (en) * 2005-12-14 2012-09-11 Ambarella Taiwan Ltd. Mode decision using approximate 1/2 pel interpolation
US20090067503A1 (en) * 2006-01-07 2009-03-12 Electronics And Telecommunications Research Institute Method and apparatus for video data encoding and decoding
AU2006338425B2 (en) * 2006-02-13 2010-12-09 Kabushiki Kaisha Toshiba Moving image encoding/decoding method and device and program
JP4820191B2 (ja) 2006-03-15 2011-11-24 富士通株式会社 動画像符号化装置及びプログラム
CA2646538C (en) * 2006-04-03 2015-11-24 British Telecommunications Public Limited Company Two-pass video coding using a measure of predictive power of reference regions
US20070274396A1 (en) * 2006-05-26 2007-11-29 Ximin Zhang Complexity adaptive skip mode estimation for video encoding
US20070274385A1 (en) * 2006-05-26 2007-11-29 Zhongli He Method of increasing coding efficiency and reducing power consumption by on-line scene change detection while encoding inter-frame
US8208545B2 (en) * 2006-06-01 2012-06-26 Electronics And Telecommunications Research Institute Method and apparatus for video coding on pixel-wise prediction
US8422555B2 (en) * 2006-07-11 2013-04-16 Nokia Corporation Scalable video coding
BRPI0714859A2 (pt) * 2006-08-02 2013-05-21 Thomson Licensing mÉtodo e aparelho para particionamento geomÉtrico adaptativo para codificaÇço de vÍdeo e estrutura de sinal de vÍdeo para codificaÇço de vÍdeo
US20080170611A1 (en) * 2007-01-17 2008-07-17 Srikrishna Ramaswamy Configurable functional multi-processing architecture for video processing
US8238432B2 (en) * 2007-03-05 2012-08-07 Nec Corportion Weighted prediction information calculation method, apparatus, and program, and video coding method, apparatus, and program
US8107571B2 (en) * 2007-03-20 2012-01-31 Microsoft Corporation Parameterized filters and signaling techniques
KR101366242B1 (ko) * 2007-03-29 2014-02-20 삼성전자주식회사 움직임 모델 파라메터의 부호화, 복호화 방법 및 움직임모델 파라메터를 이용한 영상의 부호화, 복호화 방법 및장치
WO2008132890A1 (ja) * 2007-04-16 2008-11-06 Kabushiki Kaisha Toshiba 画像符号化と画像復号化の方法及び装置
JPWO2009001793A1 (ja) * 2007-06-26 2010-08-26 株式会社東芝 画像符号化と画像復号化の方法及び装置
DE602007009730D1 (de) * 2007-06-29 2010-11-18 Fraunhofer Ges Forschung Skalierbare videocodierung, die pixelwert-verfeinerungsskalierbarkeit unterstützt
US8265144B2 (en) * 2007-06-30 2012-09-11 Microsoft Corporation Innovations in video decoder implementations
US8254455B2 (en) * 2007-06-30 2012-08-28 Microsoft Corporation Computing collocated macroblock information for direct mode macroblocks
JP4876048B2 (ja) * 2007-09-21 2012-02-15 株式会社日立製作所 映像送受信方法、受信装置、映像蓄積装置
US8938005B2 (en) * 2007-11-05 2015-01-20 Canon Kabushiki Kaisha Image encoding apparatus, method of controlling the same, and computer program
US8885726B2 (en) * 2007-12-04 2014-11-11 Vixs Systems, Inc. Neighbor management for use in entropy encoding and methods for use therewith
US8542730B2 (en) * 2008-02-22 2013-09-24 Qualcomm, Incorporated Fast macroblock delta QP decision
KR20090094595A (ko) * 2008-03-03 2009-09-08 삼성전자주식회사 복수 참조에 의한 움직임 예측을 이용한 부호화 방법 및장치, 그리고 복수 참조에 의한 움직임 예측을 이용한복호화 방법 및 장치
US9077971B2 (en) * 2008-04-10 2015-07-07 Qualcomm Incorporated Interpolation-like filtering of integer-pixel positions in video coding
KR101549823B1 (ko) * 2008-09-02 2015-09-04 삼성전자주식회사 적응적 이진화를 이용한 영상 부호화, 복호화 방법 및 장치
EP2161936A1 (en) * 2008-09-04 2010-03-10 Panasonic Corporation Locally adaptive filters for video coding controlled by local correlation data
US8724697B2 (en) * 2008-09-26 2014-05-13 Qualcomm Incorporated Locating motion vectors for video data units
US8483285B2 (en) * 2008-10-03 2013-07-09 Qualcomm Incorporated Video coding using transforms bigger than 4×4 and 8×8
US20100166073A1 (en) * 2008-12-31 2010-07-01 Advanced Micro Devices, Inc. Multiple-Candidate Motion Estimation With Advanced Spatial Filtering of Differential Motion Vectors
TWI387314B (zh) * 2009-03-10 2013-02-21 Univ Nat Central Image processing apparatus and method thereof
EP2237557A1 (en) * 2009-04-03 2010-10-06 Panasonic Corporation Coding for filter coefficients
KR101557504B1 (ko) * 2009-04-13 2015-10-07 삼성전자주식회사 채널 적응형 비디오 전송 방법, 이를 이용한 장치 및 이를 제공하는 시스템
US20110002391A1 (en) * 2009-06-11 2011-01-06 Motorola, Inc. Digital image compression by resolution-adaptive macroblock coding
KR101675116B1 (ko) * 2009-08-06 2016-11-10 삼성전자 주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
KR101452859B1 (ko) * 2009-08-13 2014-10-23 삼성전자주식회사 움직임 벡터를 부호화 및 복호화하는 방법 및 장치
EP2490449A1 (en) * 2009-10-16 2012-08-22 Sharp Kabushiki Kaisha Video coding device and video decoding device
US9237355B2 (en) * 2010-02-19 2016-01-12 Qualcomm Incorporated Adaptive motion resolution for video coding
RS55761B1 (sr) * 2010-04-23 2017-07-31 M&K Holdings Inc Uređaj za kodiranje slike
US20120075436A1 (en) * 2010-09-24 2012-03-29 Qualcomm Incorporated Coding stereo video data
US10349070B2 (en) * 2010-09-30 2019-07-09 Texas Instruments Incorporated Simplified binary arithmetic coding engine
US8787443B2 (en) * 2010-10-05 2014-07-22 Microsoft Corporation Content adaptive deblocking during video encoding and decoding
US10327008B2 (en) * 2010-10-13 2019-06-18 Qualcomm Incorporated Adaptive motion vector resolution signaling for video coding
US8755438B2 (en) * 2010-11-29 2014-06-17 Ecole De Technologie Superieure Method and system for selectively performing multiple video transcoding operations
US9288496B2 (en) * 2010-12-03 2016-03-15 Qualcomm Incorporated Video coding using function-based scan order for transform coefficients
US20120163448A1 (en) * 2010-12-22 2012-06-28 Qualcomm Incorporated Coding the position of a last significant coefficient of a video block in video coding
US9172972B2 (en) * 2011-01-05 2015-10-27 Qualcomm Incorporated Low complexity interpolation filtering with adaptive tap size
US9008176B2 (en) * 2011-01-22 2015-04-14 Qualcomm Incorporated Combined reference picture list construction for video coding
US9008181B2 (en) * 2011-01-24 2015-04-14 Qualcomm Incorporated Single reference picture list utilization for interprediction video coding
US9930366B2 (en) * 2011-01-28 2018-03-27 Qualcomm Incorporated Pixel level adaptive intra-smoothing
US10171813B2 (en) * 2011-02-24 2019-01-01 Qualcomm Incorporated Hierarchy of motion prediction video blocks
JP5982734B2 (ja) * 2011-03-11 2016-08-31 ソニー株式会社 画像処理装置および方法
US9143795B2 (en) * 2011-04-11 2015-09-22 Texas Instruments Incorporated Parallel motion estimation in video coding
US9143799B2 (en) * 2011-05-27 2015-09-22 Cisco Technology, Inc. Method, apparatus and computer program product for image motion prediction
US9313494B2 (en) * 2011-06-20 2016-04-12 Qualcomm Incorporated Parallelization friendly merge candidates for video coding
US9942573B2 (en) * 2011-06-22 2018-04-10 Texas Instruments Incorporated Systems and methods for reducing blocking artifacts
US10536701B2 (en) * 2011-07-01 2020-01-14 Qualcomm Incorporated Video coding using adaptive motion vector resolution
US9756360B2 (en) * 2011-07-19 2017-09-05 Qualcomm Incorporated Coefficient scanning in video coding
US9699456B2 (en) * 2011-07-20 2017-07-04 Qualcomm Incorporated Buffering prediction data in video coding
US9824426B2 (en) * 2011-08-01 2017-11-21 Microsoft Technology Licensing, Llc Reduced latency video stabilization
US9344743B2 (en) * 2011-08-24 2016-05-17 Texas Instruments Incorporated Flexible region based sample adaptive offset (SAO) and adaptive loop filter (ALF)
US10070152B2 (en) * 2011-08-24 2018-09-04 Texas Instruments Incorporated Sample adaptive offset (SAO) parameter signaling
US20130083844A1 (en) * 2011-09-30 2013-04-04 In Suk Chong Coefficient coding for sample adaptive offset and adaptive loop filter
US9083983B2 (en) * 2011-10-04 2015-07-14 Qualcomm Incorporated Motion vector predictor candidate clipping removal for video coding
US9762899B2 (en) * 2011-10-04 2017-09-12 Texas Instruments Incorporated Virtual memory access bandwidth verification (VMBV) in video coding
US9699457B2 (en) * 2011-10-11 2017-07-04 Qualcomm Incorporated Most probable transform for intra prediction coding
US9357235B2 (en) * 2011-10-13 2016-05-31 Qualcomm Incorporated Sample adaptive offset merged with adaptive loop filter in video coding
US20130101033A1 (en) * 2011-10-14 2013-04-25 Qualcomm Incorporated Coding non-symmetric distributions of data
US8915706B2 (en) 2011-10-18 2014-12-23 General Electric Company Transition nozzle
PL3402199T3 (pl) * 2011-10-24 2020-08-24 Innotive Ltd Sposób dekodowania obrazu
KR20130050149A (ko) * 2011-11-07 2013-05-15 오수미 인터 모드에서의 예측 블록 생성 방법
US10129540B2 (en) * 2012-04-10 2018-11-13 Texas Instruments Incorporated Reduced complexity coefficient transmission for adaptive loop filtering (ALF) in video coding
US9420280B2 (en) * 2012-06-08 2016-08-16 Qualcomm Incorporated Adaptive upsampling filters
US9648318B2 (en) * 2012-09-30 2017-05-09 Qualcomm Incorporated Performing residual prediction in video coding
US10334259B2 (en) * 2012-12-07 2019-06-25 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
US10462480B2 (en) * 2014-12-31 2019-10-29 Microsoft Technology Licensing, Llc Computationally efficient motion estimation

Also Published As

Publication number Publication date
AU2012334553B2 (en) 2015-07-30
CN107517382B (zh) 2020-07-10
IL231707A (en) 2016-10-31
US9641860B2 (en) 2017-05-02
CA2931709C (en) 2019-05-21
CN104869400B (zh) 2018-03-27
CA2931709A1 (en) 2013-05-16
PH12015500841A1 (en) 2016-08-15
US8982957B2 (en) 2015-03-17
RU2621966C1 (ru) 2017-06-08
JP2016028518A (ja) 2016-02-25
PH12017502132A1 (en) 2018-07-02
SG11201400667QA (en) 2014-04-28
JP2016028519A (ja) 2016-02-25
AU2015249103B2 (en) 2017-08-03
EP3926951A1 (en) 2021-12-22
SG10201503443YA (en) 2015-06-29
JP5827412B2 (ja) 2015-12-02
BR122015027404B8 (pt) 2022-10-04
JP6076438B2 (ja) 2017-02-08
EP3930325A1 (en) 2021-12-29
CN104012094B (zh) 2017-11-10
CN107517382A (zh) 2017-12-26
JP6074476B2 (ja) 2017-02-01
PH12015500839B1 (en) 2016-08-15
BR122015027402B1 (pt) 2022-06-28
AU2015249102B2 (en) 2017-08-03
PH12015500844B1 (en) 2016-08-15
CN104012094A (zh) 2014-08-27
PH12017502131B1 (en) 2018-07-02
KR20130050149A (ko) 2013-05-15
CN104869401A (zh) 2015-08-26
US10873757B2 (en) 2020-12-22
PH12015500843A1 (en) 2016-08-15
CA2931745C (en) 2019-05-21
KR20140077919A (ko) 2014-06-24
PH12015500844A1 (en) 2016-08-15
BR122015027407B1 (pt) 2022-06-28
RU2621967C1 (ru) 2017-06-08
PH12015500839A1 (en) 2016-08-15
SG10201503437RA (en) 2015-06-29
US20150229951A1 (en) 2015-08-13
US20150229950A1 (en) 2015-08-13
AU2015249105A1 (en) 2015-11-12
CA2849029A1 (en) 2013-05-16
CN104869401B (zh) 2018-03-23
PH12017502131A1 (en) 2018-07-02
CN104869402B (zh) 2017-10-24
PH12015500843B1 (en) 2016-08-15
AU2015249103A1 (en) 2015-11-12
CN104869402A (zh) 2015-08-26
AU2012334553A1 (en) 2014-04-17
MX347162B (es) 2017-04-17
AU2015249104B2 (en) 2017-08-03
HK1199588A1 (en) 2015-07-03
SG10201503444WA (en) 2015-06-29
RU2621972C2 (ru) 2017-06-08
AU2015249102A1 (en) 2015-11-12
MX347163B (es) 2017-04-17
MX356738B (es) 2018-06-12
BR122015027404A2 (pt) 2019-08-27
US9635384B2 (en) 2017-04-25
EP3930325A3 (en) 2022-03-09
CN104967847A (zh) 2015-10-07
US20150229953A1 (en) 2015-08-13
CA3092392C (en) 2022-04-12
CA3092392A1 (en) 2013-05-16
KR20140082702A (ko) 2014-07-02
HK1214701A1 (zh) 2016-07-29
EP3930326A1 (en) 2021-12-29
CA3039421C (en) 2020-10-27
JP6074475B2 (ja) 2017-02-01
CA3039421A1 (en) 2013-05-16
CA2931745A1 (en) 2013-05-16
JP2016028516A (ja) 2016-02-25
IL239728B (en) 2019-07-31
BR112014007593A2 (pt) 2017-04-11
HK1214443A1 (zh) 2016-07-22
US9648343B2 (en) 2017-05-09
MY201790A (en) 2024-03-18
US20170214934A1 (en) 2017-07-27
MX339984B (es) 2016-06-20
US20190141349A1 (en) 2019-05-09
PH12017502132B1 (en) 2018-07-02
US20150229952A1 (en) 2015-08-13
BR122015027407A2 (pt) 2019-08-27
WO2013067903A1 (en) 2013-05-16
CN104869400A (zh) 2015-08-26
BR122015027402B8 (pt) 2022-10-04
AU2015249105B2 (en) 2017-08-03
IL239725A0 (en) 2015-08-31
MY201095A (en) 2024-02-05
MX2014003962A (es) 2014-08-01
JP2017085646A (ja) 2017-05-18
US20150156510A1 (en) 2015-06-04
BR112014007593B1 (pt) 2022-06-21
BR122015027425A8 (pt) 2022-10-04
IL231707A0 (en) 2014-05-28
RU2015131333A (ru) 2015-11-27
JP2016028517A (ja) 2016-02-25
JP6345815B2 (ja) 2018-06-20
US9351012B2 (en) 2016-05-24
IL239727B (en) 2019-02-28
CA2849029C (en) 2016-08-09
JP6074477B2 (ja) 2017-02-01
CN104883568B (zh) 2018-04-17
EP3934248A1 (en) 2022-01-05
BR122015027402A2 (pt) 2019-08-27
SG10201503439UA (en) 2015-06-29
US10212449B2 (en) 2019-02-19
AU2015249104A1 (en) 2015-11-12
CN104967847B (zh) 2018-04-13
IL239728A0 (en) 2015-08-31
BR122015027407B8 (pt) 2022-10-04
HK1214442A1 (zh) 2016-07-22
JP2014534753A (ja) 2014-12-18
IL239725A (en) 2017-07-31
US9615106B2 (en) 2017-04-04
RU2014113082A (ru) 2015-12-20
KR20140074949A (ko) 2014-06-18
BR122015027425B1 (pt) 2023-01-10
CN104883568A (zh) 2015-09-02
RU2621970C1 (ru) 2017-06-08
EP2752007A1 (en) 2014-07-09
US20140269926A1 (en) 2014-09-18
EP2752007A4 (en) 2015-06-17
HK1214703A1 (zh) 2016-07-29
IL239727A0 (en) 2015-08-31
HK1214444A1 (zh) 2016-07-22
PH12015500841B1 (en) 2016-08-15
BR122015027425A2 (pt) 2019-08-27
IL239726A0 (en) 2015-08-31
RU2589866C2 (ru) 2016-07-10

Similar Documents

Publication Publication Date Title
BR122015027404B1 (pt) Método de decodificação de dados de vídeo em predição unidirecional
DK2752005T3 (en) PROCEDURE FOR DERIVING MOVEMENT INFORMATION
BR122020013725B1 (pt) Método de construção de lista de candidatos à mesclagem
BR112014007597B1 (pt) Aparelho de decodificação de dados de vídeo
BR122020014037B1 (pt) Método de quantizar inversamente um bloco quantizado
IL307586A (en) A method for encoding/decoding image signals and a device therefor
KR20210035062A (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2023164245A1 (en) Methods and devices for decoder-side intra mode derivation

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 02/11/2012, OBSERVADAS AS CONDICOES LEGAIS

B25A Requested transfer of rights approved

Owner name: GENSQUARE LLC (SG)