BR112017010468B1 - Método de decodificação de vídeo para blocos codificados no modo de interpredição e método de codificação de vídeo para blocos codificados no modo de interpredição - Google Patents

Método de decodificação de vídeo para blocos codificados no modo de interpredição e método de codificação de vídeo para blocos codificados no modo de interpredição Download PDF

Info

Publication number
BR112017010468B1
BR112017010468B1 BR112017010468-7A BR112017010468A BR112017010468B1 BR 112017010468 B1 BR112017010468 B1 BR 112017010468B1 BR 112017010468 A BR112017010468 A BR 112017010468A BR 112017010468 B1 BR112017010468 B1 BR 112017010468B1
Authority
BR
Brazil
Prior art keywords
fusion
motion vector
prediction
list
candidates
Prior art date
Application number
BR112017010468-7A
Other languages
English (en)
Other versions
BR112017010468A2 (pt
BR112017010468A8 (pt
Inventor
Chih-Wei Hsu
Original Assignee
Hfi Innovation Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hfi Innovation Inc filed Critical Hfi Innovation Inc
Publication of BR112017010468A2 publication Critical patent/BR112017010468A2/pt
Publication of BR112017010468A8 publication Critical patent/BR112017010468A8/pt
Publication of BR112017010468B1 publication Critical patent/BR112017010468B1/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

método de codificação de vídeo de bi-predição vetores de movimento a partir de candidato de fusão e unipredicção. é divulgado um método de modo de interpredição bi- preditivo utilizando um vetor de movimento uni-preditivo e um segundo vetor de movimento associado com um candidato de fusão. no lado de codificador, a informação de movimento codificada para um vetor de movimento de uni-predição para o bloco atual é gerada utilizando um preditor de vetor de movimento selecionado de uma lista de candidatos de predição de vetor de movimento (mvp) . além disso, um candidato de fusão com um segundo vetor de movimento apontando para a outra direção de predição é identificado de acordo com um índice de fusão. o vetor de movimento de uni-predição e o segundo vetor de movimento do candidato de fusão são usados para codificação de bi-predição do bloco atual. no lado de decodificador, o processo de decodificação correspondente é revelado.

Description

REFERÊNCIA CRUZADA A PEDIDOS RELACIONADOS
[001] A presente invenção reivindica prioridade ao Pedido de Patente Provisória No. US 62/081.128, depositado em 18 de novembro de 2014. O Pedido de Patente Provisória dos Estados Unidos é aqui incorporado por referência na sua totalidade.
CAMPO TÉCNICO
[002] A presente invenção refere-se à codificação de vídeo. Em particular, a presente invenção refere-se à combinação do modo uni-predição e modo de Fusão na outra direção de predição para formar um novo tipo de bi-predição.
FUNDAMENTOS
[003] Codificação de vídeo de Alta Eficiência (HEVC) é um novo padrão de codificação de vídeo internacional desenvolvido pela Equipe de Colaboração Conjunta em Codificação de vídeo (JCT-VC). HEVC baseia-se na arquitetura de codificação de transformada tipo-DCT compensada de movimento com base em blocos híbrida. A unidade básica para compressão, denominada unidade de codificação (CU), é um bloco quadrado de 2Nx2N. A CU pode começar com uma CU maior (LCU), que também é referida como unidade de árvore codificada (CTU) em HEVC e cada CU pode ser recursivamente dividida em quatro unidades CUs menores até o tamanho mínimo predefinido ser atingido. Uma vez que a divisão da árvore hierárquica de CU é feita, cada CU é dividida em uma ou mais unidades de predição (PUs) de acordo com o tipo de predição e partição de PU.
[004] Para obter a melhor eficiência de codificação da arquitetura de codificação híbrida em HEVC, um modo de predição é determinado adaptativamente para cada PU para selecionar Intrapredição ou Interpredição. Para os modos de Intrapredição, os pixels reconstruídos vizinhos espaciais podem ser usados para gerar as predições direcionais. Há até 35 direções em HEVC. Para os modos de Interpredição, os quadros de referência reconstruídos temporalmente podem ser usados para gerar predições compensadas de movimento. Existem três Intermodos diferentes, incluindo os modos de Salto, Fusão e Interpredição de Vetor de Movimento Avançada (AMVP).
[005] Quando uma PU é codificada no modo Inter AMVP, predição compensada de movimento é realizada usando diferenças de vetor de movimento transmitidas (MVDs) que podem ser usadas em conjunto com Preditores de Vetor de Movimento (MVPs) para derivar vetores de movimento (MVs). Para decidir MVP no modo Inter AMVP, o esquema predição de vetor de movimento avançada (AMVP) é usado para selecionar um preditor de vetor de movimento entre um conjunto de candidatos de AMVP incluindo dois MVPs espaciais e um MVP temporal. No modo AMVP, índice de MVP para o MVP e os MVDs correspondentes são obrigados a ser codificados e transmitidos. Além disso, a direção de Interpredição para especificar as direções de predição entre bi-predição e uni- predição (ou seja, lista 0 (L0) ou lista 1 (L1)) é codificada e transmitida. Além disso, o índice de quadro de referência para cada lista também é codificado e transmitido.
[006] Quando uma PU é codificada no modo de Salto ou Fusão, nenhuma informação de movimento é transmitida, exceto o índice de Fusão do candidato selecionado. Nos modos de Salto e Fusão, a MVD é zero e não há necessidade de transmitir MVD. Consequentemente, o MV decodificado é recuperado utilizando métodos de inferência de movimento (isto é, MV = MVP) uma vez que a MVD é igual a zero. O MVP pode corresponder a blocos espacialmente vizinhos (candidatos espaciais) ou a um bloco temporal (candidato temporal) localizado em uma imagem colocalizada. De acordo com HEVC, a imagem colocalizada é a primeira imagem de referência na lista 0 ou lista 1 como sinalizado no cabeçalho de fatia. No caso de uma PU de Salto, o sinal residual também é omitido. Para determinar o índice de Fusão para os modos de Salto e Fusão, o esquema de fusão é usado para selecionar um preditor de vetor de movimento entre um conjunto de candidatos de Fusão contendo quatro MVPs espaciais e um MVP temporal.
[007] A Figura 1 mostra as PUs vizinhas referidas para derivar os MVPs espaciais e temporais tanto para AMVP como para esquema de Fusão. Em AMVP, os MVPs espaciais incluem um MVP esquerdo e um MVP superior. O MVP esquerdo é o primeiro disponível a partir de blocos vizinhos blocos A0 e A1, e o MVP superior é o primeiro disponível a partir de blocos vizinhos bloco B0, B1 e B2. Por outro lado, o MVP temporal é o primeiro MV disponível a partir de bloco de referência colocalizado TBR ou TCTR, onde TBR é usado primeiro e se TBR não está disponível, TCTR é usado em vez disso. Se o MVP esquerdo não está disponível e o MVP superior é um MVP não dimensionado, um segundo MVP superior pode ser derivado, se há um MVP dimensionado entre B0, B1, B2 e. O tamanho da lista de MVPs de AMVP é 2 em HEVC. Portanto, após o processo de derivação dos dois MVPs espaciais e um MVP temporal, apenas os dois primeiros MVPs podem ser incluídos na lista de MVP. Depois de remover a redundância, se o número de MVPs disponíveis for menor que dois, zero candidato (s) de vetor será adicionado à lista de candidatos.
[008] Para modos de Salto e Fusão, até quatro índices de fusão espaciais são derivados a partir de A0, A1, B0 e B1, e um índice de Fusão temporal é derivado a partir de TBR ou TCTR como mostrado na Figura 1. Note que se qualquer um dos quatro índices de fusão espaciais não está disponível, a posição B2 é então utilizada como uma posição substituta para derivar índice de Fusão. Após o processo de derivação dos quatro índices de fusão espaciais e um índice de Fusão temporal, remoção de redundância é aplicada para remover qualquer índice de Fusão redundante. Depois de remover redundância, se o número de índices de Fusão disponíveis for menor que cinco, três tipos de candidatos adicionais podem ser derivados e adicionados à lista de candidatos.
[009] Os candidatos de Fusão bi-preditivos adicionais são derivados com base em candidatos de Fusão originais. Os candidatos adicionais são classificados em três tipos de candidatos: 1. Candidato de Fusão bi-preditivo combinado (candidato tipo 1) 2. Candidato de Fusão bi-preditivo escalonado (candidato tipo 2) 3. Candidato de AMVP / Fusão de vetor zero (candidato tipo 3).
[0010] No candidato tipo 1, candidatos de Fusão bi- preditivos combinados são criados pela combinação de candidato de Fusão original. Em particular, dois candidatos originais, que têm mvL0 (isto é, o vetor de movimento na lista 0) com refIdxL0 (isto é, o índice de imagem de referência na lista 0) e mvL1 (ou seja, o vetor de movimento na lista 1) com refIdxL1 (isto é, o índice de imagem de referência na lista 1), respectivamente, são usados para criar candidatos de Fusão bi-preditivos. Um exemplo do processo de derivação do candidato de Fusão bi-preditivo combinado é mostrado na Figura 2A e Figura 2B, onde mvL0_A e mvL1_B são dois candidatos de Fusão uni-preditivo. A Figura 2A ilustra uma lista de candidatos de Fusão originais (210) e a lista de candidatos de Fusão depois de adicionar um candidato combinado (220), onde os candidatos de Fusão adicionados são realçados por fundo pontilhado. Além disso, índice de Fusão 0 é atribuído ao candidato de Fusão uni- preditivo, mvL0_A, índice de Fusão 1 é atribuído ao candidato de Fusão uni-preditivo, mvL1_B e índice de Fusão 2 é atribuído ao candidato de Fusão bi-preditivo adicionado (mvL0_A, mvL1_B). O candidato mvL0_A aponta para imagem de referência ref0 na lista de referências L0 e o candidato mvL1_B aponta para imagem de referência ref0 na lista de referências L1 como mostrado na Figura 2B. Os dois candidatos de Fusão uni-preditivo são combinados em um candidato de Fusão bi-preditivo (230) como mostrado na Figura 2B.
[0011] No candidato tipo 2, candidatos de Fusão bi- preditivos escalonados são criados por escalonar candidato de Fusão original. Em particular, o candidato original, que tem o vetor de movimento, mvLX (isto é, o vetor de movimento na lista X) e a imagem de referência associada refIdxLX (isto é, o índice de imagem de referência na lista X), é usado para gerar candidatos de Fusão bi-preditivos, onde X é igual a 0 ou 1. Por exemplo, candidato A pode ter um vetor de movimento uni-preditivo mvL0_A associado com a imagem de referência ref0 na lista 0. O índice de referência ref0 é primeiro copiado para o índice de referência ref0’ na lista 1. Um vetor de movimento escalonado MvL0’_B é calculado por escalonar mvL0_A em relação a ref0 e ref0' de acordo com a distância da contagem de ordem de imagem (POC). O candidato de Fusão bi-preditivo é gerado a partir de mvL0_A com ref0 na lista 0 e mvL0’_B com ref0' na lista 1. O candidato de Fusão bidimensional escalonado gerado é adicionado à lista de candidatos de Fusão. Um exemplo do processo de derivação do candidato de Fusão bi-preditivo escalonado é mostrado na Figura 3A e Figura 3B, onde mvL0_A e mvL1_B são dois candidatos de Fusão uni-preditivos. A Figura 3A ilustra uma lista de candidatos de Fusão original (310) e a lista de candidatos de Fusão depois de adicionar candidatos escalonados (320), onde os candidatos de Fusão adicionados são realçados por fundo pontilhado. O índice de Fusão 2 é atribuído ao candidato de Fusão bi-preditivo escalonado, ((mvL0_A, ref0), (mvL0’_B, ref0')). O índice de Fusão 3 é atribuído ao candidato de Fusão bi-preditivo escalonado, ((mvL1’_A, ref1'), (mvL1_B, ref1)). Os dois candidatos de Fusão bi-preditivos escalonados são mostrados na Figura 3B.
[0012] No candidato tipo 3, os candidatos de AMVP / Fusão de vetor zero são criados por combinação de vetores zero e índice de referência que podem ser referidos. A Figura 4A mostra um exemplo de adição de candidatos de Fusão com valor zero à lista de candidatos de Fusão originais (410) para formar uma lista de candidatos de Fusão preenchida (420). A Figura 4B mostra um exemplo de adição de candidatos de AMVP de valor zero para listas de candidatos de AMVP originais (430) para formar listas de candidatos de AMVP preenchida (440). Se os candidatos de valor zero não forem duplicados, serão adicionados ao conjunto de candidatos de AMVP / Fusão.
[0013] Como mencionado acima, bi-predição pode ser derivada a partir de vetor (es) de movimento de uni-predição por combinar os vetores de movimento de uni-predição ou por escalonar o vetor (es) de movimento de uni-predição. É desejável melhorar ainda mais a eficiência de codificação para o caso de uni-predição.
SUMÁRIO
[0014] Um método de modo de Interpredição bi- preditivo usando um vetor de movimento uni-preditivo apontando em uma direção de predição e um segundo vetor de movimento associado com um candidato de Fusão apontando para a outra direção de predição. No lado de codificador, quando o codificador seleciona uma direção de predição uni- preditiva, a informação de movimento codificada para um vetor de movimento correspondente para o bloco atual é gerada utilizando um preditor de vetor de movimento selecionado a partir de uma lista de candidatos de predição de vetor de movimento (MVP). Além disso, um candidato de Fusão com um segundo vetor de movimento apontando para a outra direção de predição é identificado de acordo com um índice de Fusão. O vetor de movimento de uni-predição e o segundo vetor de movimento a partir do candidato de Fusão são usados para codificação de bi-predição do bloco atual. No lado de decodificador, quando a direção de predição é uni-predição como indicado em um fluxo de bits codificado, informação de movimento codificada é determinada a partir do fluxo de bits codificado para derivar o vetor de movimento de uni-predição. O candidato de Fusão é determinado com base no índice de Fusão no fluxo de bits codificado. O vetor de movimento de uni-predição e o segundo vetor de movimento do candidato de Fusão são usados para decodificação de bi-predição do bloco atual.
[0015] A informação de movimento codificada em relação ao preditor de vetor de movimento inclui um índice de referência apontando para a primeira imagem de referência, um índice de MVP apontando para o preditor de vetor de movimento no conjunto de candidatos de MVP, e uma diferença de vetor de movimento (MVD) entre o primeiro vetor de movimento e o preditor de vetor de movimento. Se a uni- predição corresponde à lista L0, o segundo vetor de movimento do candidato de Fusão apontando para a lista L1. Da mesma forma, se a uni-predição corresponde à lista L1, o segundo vetor de movimento do candidato de Fusão apontando para a lista L0.
[0016] O conjunto de candidatos de Fusão pode ser derivado de acordo com um processo de geração de conjunto de candidatos de Fusão para codificação de modo de Fusão. O conjunto de candidatos de Fusão também pode ser derivado a partir de um conjunto de candidatos de Fusão iniciais por realocar um candidato de Fusão de bi-predição para dois candidatos de uni-predição, onde o conjunto de candidatos de Fusão iniciais é gerado de acordo com um processo de geração de conjunto de candidatos de Fusão para a codificação de modo de Fusão. O conjunto de candidatos de Fusão também pode ser gerado por inserir no conjunto de candidatos de Fusão com diferentes candidatos de Fusão a partir de candidatos de Fusão iniciais para conjunto de candidatos de Fusão iniciais. Além disso, o conjunto de candidatos de Fusão para a segunda lista de referências pode ser derivado de outro conjunto de candidatos de Fusão para a primeira lista de referências.
[0017] Se aplicar a decodificação compensada de movimento de bi-predição ao bloco atual pode ser de acordo com uma bandeira explicitamente sinalizada ou implicitamente deduzida. Se aplicar a decodificação compensada de movimento de bi-predição ao bloco atual também pode ser de acordo com uma dimensão do bloco atual, em que o bloco atual corresponde a uma unidade de codificação (CU) ou a uma unidade de predição (PU).
BREVE DESCRIÇÃO DOS DESENHOS
[0018] A Figura 1 ilustra configuração de blocos vizinhos para o modo de Predição de Vetor de Movimento Avançada (AMVP) e modos de Fusão de acordo com a Codificação de Vídeo Alta Eficiência.
[0019] As Figuras 2A-B ilustram um exemplo de gerar um candidato de Fusão bi-preditivo com base em dois vetores de movimento de uni-predição.
[0020] As Figuras 3A-B ilustram um exemplo de geração de candidatos de fusão de bi-predição com base em vetores de movimento de uni-predição e vetores de movimento de uni- predição escalonados.
[0021] As Figuras 4A-B ilustram exemplos de adição de candidato (s) de vetor de movimento de valor zero na lista de candidatos de Fusão e lista de candidatos de predição de vetor de movimento avançada (AMVP), respectivamente.
[0022] A Figura 5 ilustra a informação de movimento sinalizada associada com uni-predição e bi-predição.
[0023] A Figura 6 ilustra exemplos de bi-predição com base na informação de movimento sinalizada associada com uni-predição e índice de Fusão sinalizado de acordo com uma modalidade da presente invenção.
[0024] A Figura 7 ilustra um exemplo de relocalizar candidatos de Fusão para reduzir o número total de candidatos de Fusão de acordo com uma modalidade da presente invenção.
[0025] A Figura 8 ilustra um fluxograma exemplar de um decodificador incorporando bi-predição com base em um vetor de movimento de uni-predição apontando para uma direção e um segundo vetor de movimento associado com um candidato de Fusão apontando para a outra direção de acordo com uma modalidade da presente invenção.
DESCRIÇÃO DETALHADA
[0026] Como mencionado anteriormente, entre os dois modos de codificação de informação de movimento (isto é, modos de AMVP e Fusão) utilizados no padrão de Codificação de Vídeo de Alta Eficiência (HEVC), AMVP pode fornecer representação de alta qualidade da informação de movimento à custa de mais bits. Por outro lado, o modo de Fusão usa uma representação compacta que só precisa sinalizar o índice de candidato para recuperar a informação de movimento. Para o modo de fusão, a informação de movimento incluindo direção de Interpredição, lista de imagens de referência e vetor de movimento, é restrita para ser a mesma de um candidato de Fusão selecionado.
[0027] A presente invenção descreve um método para Interpredição que converte um candidato de uni-predição em um candidato de bi-predição utilizando um candidato de Fusão na outra direção do candidato de uni-predição. O método de formação de um novo candidato de bi-predição combinando um candidato de uni-predição e um candidato de Fusão de acordo com a presente invenção é designado como modo de Bi-predição de Uni-Fusão (UMB) para Interpredição. Os detalhes do modo de UMB são descritos a seguir.
[0028] Quando uma PU é codificada no modo Inter AMVP, a direção de Interpredição pode ser escolhida entre Bi- predição, L0 ou L1, onde L0 e L1 são uni-predição. De acordo com o padrão HEVC convencional, o índice de referência (isto é, ref_idx), o índice de MVP e MVD são codificados e transmitidos para cada lista 0 (510), lista 1 (520) e bi- predição (530), como mostrado na Figura 5. Quando uma PU é codificada no modo de fusão, somente o índice de Fusão será codificado e transmitido. No entanto, de acordo com o modo de UMB, se a direção de Interpredição é L0, um índice de Fusão será usado para especificar o candidato de vetor de movimento para L1. Se a direção de Interpredição é L1, um índice de Fusão será usado para especificar o candidato de vetor de movimento para L0. A Figura 6 ilustra um exemplo de modo de UMB de acordo com uma modalidade da presente invenção para a direção de predição L0 (610) e L1 (620), respectivamente. UMB alcança bi-predição usando predição em uma direção com base no esquema de AMVP e predição na outra direção com base no esquema de Fusão.
[0029] De acordo com isto, um codificador de acordo com uma modalidade da presente invenção pode utilizar o modo de UMB por sinalizar a informação de movimento codificada com base no esquema de AMVP e sinalizar o índice de Fusão para identificar um segundo vetor de movimento do candidato de Fusão apontando para a outra direção de predição. Como mencionado anteriormente, a informação de movimento codificada inclui o índice de referência apontando para uma imagem de referência na lista de referências para a direção de uni-predição, um índice de MVP apontando para o preditor de vetor de movimento no conjunto de candidatos de AMVP, e uma diferença de vetor de movimento (MVD) entre o vetor de movimento atual e o preditor de vetor de movimento. Uma estrutura sintática exemplificativa para uma modalidade da presente invenção é mostrada como segue:
[0030] Como mostrado acima, a sintaxe inter_dir indicando a direção de Interpredição é incorporada. Se inter_dir indica uni-predição (ou seja, inter_dir! = Bi- predição), uma bandeira UMB_flag indicando se UMB é usado é incorporado no fluxo de bits. Se o modo de UMB é usado (ou seja, UMB_flag == true), um índice de Fusão merge_dix é incorporado no fluxo de bits. Se a direção de uni-predição é L0 (isto é, Inter_dir! = L1), a informação de movimento codificada para L0 (ou seja, motion data L0) é incorporada no fluxo de bits. Se a direção de uni-predição é L1 (isto é, Inter_dir! = L0), a informação de movimento codificada para L1 (ou seja, motion data L1) é incorporada no fluxo de bits. A informação de movimento codificada para L0 ou L1 será combinada com um vetor de movimento do candidato de Fusão apontando para a outra predição para formar bi-predição. Se a direção de uni-predição for L0, o vetor de movimento do candidato de Fusão apontando para L1 será usado para bi- predição. Por outro lado, se a direção de uni-predição for L1, o vetor de movimento do candidato de Fusão apontando para L0 será usado para bi-predição. A sintaxe exemplificativa mostrada acima é para fins ilustrativos e não deve ser interpretada como limitações da presente invenção. Um especialista na técnica pode utilizar outras variações da sintaxe para praticar a presente invenção.
[0031] No esquema de fusão original, o índice de Fusão é usado para derivar um candidato de movimento a partir do conjunto de candidatos de Fusão, onde os candidatos são derivados com base em vizinhos espaciais e temporais e podem ser uni-predição ou bi-predição. No modo de UMB, uma vez que o índice de Fusão só é utilizado para especificar o candidato de movimento para uma lista, o conjunto de candidatos de Fusão ainda pode utilizar o conjunto original como derivado de acordo com o esquema de Fusão. No entanto, um conjunto de candidatos de Fusão diferente do conjunto de candidatos de Fusão convencional também pode ser usado. Por exemplo, os candidatos de vetor de movimento diferentes dos candidatos de vetor de movimento para a lista de candidatos de Fusão convencionais podem ser inseridos em um novo conjunto de candidatos de Fusão. Noutra modalidade, o conjunto de candidatos Fusão derivado para uma lista atual pode ser utilizado para a outra lista. O correspondente MV requerido para o modo de UMB é selecionado a partir do conjunto de candidatos de Fusão com base no índice de Fusão transmitido. A Figura 7 mostra exemplos de modos de UMB. Para a lista de candidatos de Fusão 710, existem quatro possibilidades de modo de UMB correspondentes a L0 + mrg_idx1, L0 + mrg_idx2, L1 + mrg_idx0 e L1 + mrg_idx2. De acordo com o UMB, apenas o candidato L1 do candidato de Fusão de bi-predição será utilizado para uni-predição L0 como vetor de movimento na outra direção de predição. Similarmente, apenas o candidato L0 do candidato de Fusão de bi-predição será usado para uni- predição L1 como o vetor de movimento na outra direção de predição. Há redundância na lista de fusão convencional. A eficiência de codificação pode ser melhorada por rearranjar o conjunto de candidatos de Fusão predeterminado compatível com o esquema de fusão convencional. Por conseguinte, um processo de re-localização de candidato como re-localização de um candidato de Fusão de bi-predição para dois candidatos de uni-predição é indicado pelas setas e o conjunto de candidatos de Fusão re-localizado 720 é mostrado na Figura 7. Após re-localização, o conjunto de candidatos Fusão torna- se mais compacto e os quatro modos de UMB tornam-se L0 + mrg_idx 0, L0 + mrg_idx 1, L1 + mrg_idx 0 e L1 + mrg_idx 1. Em uma outra modalidade, o processo de re-localização de candidato pode ser feito por re-localizar um candidato de Fusão de uni-predição para uma entrada vazia do conjunto de candidatos de Fusão iniciais com relação à lista de referências associada com o candidato de Fusão de uni- predição. Por exemplo, o candidato de Fusão de uni-predição apontando para L1 e correspondente a mrg_idx1 na lista de candidatos de Fusão 710 pode ser movido para frente para corresponder com mrg_idx0 como o candidato de Fusão correspondente a mrg_idx0 é uni-predição e está apontando para L0. Em seguida, o candidato de Fusão de bi-predição correspondente a mrg_idx2 pode ser movido para a frente para corresponder com mrg_idx1.
[0032] Com o modo de UMB, a bi-predição usa um MV transmitido em uma direção e usa um MV selecionado do candidato de Fusão na outra direção. A quantidade de acesso a dados é aproximadamente a mesma que um modo de bi-predição regular e, portanto, a largura de banda de memória de pior caso é inalterada para compensação de movimento como no modo de bi-predição normal. Além disso, espera-se que o modo de UMB resulte em uma melhor predição do que o modo de Fusão e menos sobrecarga de bits do que o modo de bi-predição de AMVP. Uma modalidade com base na presente invenção foi testada em algumas sequências de teste sob várias configurações de codificação. Por exemplo, sob a configuração de codificação de acesso aleatório (RA), uma modalidade de UMB utilizando ambos os modos L0_mrg_idx e L1 + mrg_idx mostrou uma melhoria de 0,6% em termos de taxa de RD sobre o modo de fusão convencional. A taxa de RD é uma medida de desempenho bem conhecida para a codificação de vídeo. Para configuração de codificação de imagem B de atraso baixo (LD-B), a modalidade da presente invenção mostrou uma melhoria de 0,5% na taxa de BD.
[0033] O esquema de UMB como revelado acima pode ser ligado ou desligado explicitamente ou implicitamente. Na abordagem explícita, uma bandeira pode ser sinalizada para indicar se UMB é ligado ou desligado. Na abordagem implícita, a decisão de ligar / desligar pode ser derivada com base em estatísticas de blocos vizinhos. Em uma outra modalidade, a decisão de desligar UMB pode ser feita com base no tamanho da unidade de codificação (CU) ou no tamanho da unidade de predição (PU).
[0034] A Figura 8 ilustra um fluxograma exemplar de um decodificador incorporando bi-predição com base em um vetor de movimento de uni-predição apontando para uma direção e um segundo vetor de movimento associado a um candidato de Fusão apontando para a outra direção de acordo com uma modalidade da presente invenção. O decodificador recebe um fluxo de bits codificado associado a um bloco atual no passo 810. O fluxo de bits pode ser recuperado da memória (por exemplo, memória de computador, memória intermediária (RAM ou DRAM) ou outro meio) ou a partir de um processador. A partir do fluxo de bits codificado, uma direção de predição de movimento atual para o bloco atual é determinada no passo 820, em que a direção de predição de movimento atual é bi- predição ou uni-predição. Se a direção de predição de movimento atual é uni-predição correspondente a uma primeira lista de referências é testado no passo 830. Se a predição é bi-predição (ou seja, o caminho "Não"), os passos seguintes são ignorados. Caso contrário (isto é, o caminho "Sim"), um candidato de Fusão de acordo com um índice de Fusão apontando para o candidato de Fusão em um conjunto de candidatos de Fusão é determinado a partir do fluxo de bits codificado no passo 840. A partir do fluxo de bits codificado, um primeiro vetor de movimento é derivado de acordo com informação de movimento codificada com respeito a um preditor de vetor de movimento em um conjunto de candidatos de predição de vetor de movimento (MVP) no passo 850, em que o primeiro vetor de movimento se refere a uma primeira imagem de referência na primeira lista de referências. A decodificação compensada de movimento de bi-predição é então aplicada ao bloco atual com base no primeiro vetor de movimento e um segundo vetor de movimento do candidato de Fusão apontando para uma segunda lista de referências diferente da primeira lista de referências como mostrado no passo 860.
[0035] O fluxograma mostrado acima pretende ilustrar um exemplo de codificação de bi-predição de acordo com modalidades da presente invenção. Um especialista na técnica pode modificar cada passo, reordenar os passos, dividir um passo ou combinar os passos para praticar a presente invenção sem se afastar do espírito da presente invenção.
[0036] Conforme mostrado acima, refinamento de movimento de modo de fusão é usado para ilustrar um exemplo de codificação explícita de informação de movimento parcial a partir de um bloco vizinho e herdar a informação de movimento restante. No entanto, a presente invenção não está restrita ao modo de refinamento de fusão, em que a diferença de vetor de movimento (MVD) é explicitamente codificada e a informação de movimento restante é herdada a partir do candidato de fusão selecionado. Por exemplo, em vez de codificar toda a informação de movimento associada a um modo de AMVP (isto é, modo Inter), a informação de movimento parcial pode ser herdada de um bloco vizinho.
[0037] O modo de UMB descrito nas modalidades anteriores realiza bi-predição utilizando predição em uma direção com base no esquema de AMVP e predição na outra direção com base no esquema de fusão. No entanto, a presente invenção não se restringe ao esquema de AMVP e ao esquema de fusão. De acordo com uma outra modalidade da presente invenção, quando o decodificador recebe um fluxo de bits codificado associado a um bloco atual, o decodificador determina, a partir do fluxo de bits codificado, uma direção de predição de movimento atual para o bloco atual, onde a direção de predição de movimento atual é bi-predição ou uni- predição. Se a predição é uni-predição com uma primeira lista de referências (por exemplo, lista de referências L0), o decodificador determina uma primeira informação de movimento codificada relacionada com uma imagem de referência na primeira lista de referências a partir do fluxo de bits codificado, em que a primeira informação de movimento codificada corresponde a M tipos de informação. O decodificador também determina uma segunda informação de movimento codificada relacionada com uma imagem de referência em uma segunda lista de referências (por exemplo, lista de referências L1) a partir do fluxo de bits codificado, em que a segunda informação de movimento codificada corresponde a N tipos de informação. Nesta modalidade, M e N são números inteiros positivos, mas N é menor do que M. Por exemplo, a primeira informação de movimento codificada pode corresponder a 3 tipos de informação e a segunda informação de movimento codificada pode corresponder a um tipo de informação. O decodificador pode derivar um primeiro vetor de movimento a partir da primeira informação de movimento codificada de acordo com um esquema de Interpredição correspondente e derivar um segundo vetor de movimento a partir da segunda informação de movimento codificada com base em um outro esquema de Interpredição correspondente. Em seguida, o decodificador aplica uma decodificação compensada de movimento de bi- predição ao bloco atual com base no primeiro vetor de movimento e no segundo vetor de movimento.
[0038] A descrição acima é apresentada para permitir que uma pessoa com conhecimentos normais na técnica pratique a presente invenção como fornecido no contexto de uma aplicação particular e a sua exigência. Várias modificações às modalidades descritas serão evidentes para os especialistas na técnica e os princípios gerais aqui definidos podem ser aplicados a outras modalidades. Por conseguinte, a presente invenção não se destina a ser limitada às modalidades particulares mostradas e descritas, mas a maior extensão compatível deve ser concedida com os princípios e as novas características aqui descritas. Na descrição detalhada acima, vários detalhes específicos são ilustrados de modo a fornecer uma compreensão completa da presente invenção. No entanto, será entendido pelos especialistas na técnica que a presente invenção pode ser praticada.
[0039] Uma modalidade da presente invenção tal como descrito acima pode ser implementada em vários códigos de hardware, software ou uma combinação de ambos. Por exemplo, uma modalidade da presente invenção pode corresponder a um ou mais circuitos eletrônicos integrados em um chip de compressão de vídeo ou em um código de programa integrado em um software de compressão de vídeo para realizar o processamento aqui descrito. Uma modalidade da presente invenção pode também ser código de programa a ser executado em um Processador de Sinal Digital (DSP) para executar o processamento aqui descrito. A invenção também pode envolver um número de funções a serem realizadas por um processador de computador, um processador de sinal digital, um microprocessador, ou um conjunto de portas de campos programáveis (FPGA). Estes processadores podem ser configurados para executar tarefas particulares de acordo com a invenção, executando um código de software ou um código de firmware legível por máquina que define os métodos particulares incorporados pela invenção. O código do software ou firmware pode ser desenvolvido em diferentes linguagens de programação e em diferentes formatos ou estilos. O código de software também pode ser compilado para diferentes plataformas de destino. No entanto, diferentes formatos de código, estilos e linguagens de códigos de software e outros meios de configurar código para executar as tarefas de acordo com a invenção não se afastam do espírito e do âmbito da invenção.
[0040] A invenção pode ser concretizada em outras formas específicas sem se afastar do seu espírito ou características essenciais. Os exemplos descritos devem ser considerados em todos os aspectos apenas como ilustrativos e não restritivos. O âmbito da invenção é, portanto, indicado pelas reivindicações anexas, em vez da descrição anterior. Todas as alterações que estão dentro do significado e gama de equivalência das reivindicações devem ser incluídas dentro do seu âmbito.

Claims (9)

1. Método de decodificação de vídeo para blocos codificados no modo de Interpredição, o método compreendendo: receber (810) um fluxo de bits codificado associado com um bloco atual; determinar (820), a partir do fluxo de bits codificado, uma direção de predição de movimento atual para o bloco atual, em que a direção de predição de movimento atual ou é bi-predição ou uni-predição, e se a direção de predição de movimento atual é uni- predição com uma primeira lista de referências L0 ou L1 (830): derivar (850), a partir do fluxo de bits codificado, um primeiro vetor de movimento de acordo com informação de movimento codificada em relação a um preditor de vetor de movimento em um conjunto de candidatos de predição de vetor de movimento, MVP; caracterizado pelo fato de que: a informação de movimento codificada em relação ao preditor de vetor de movimento inclui um índice de referência apontando para uma imagem de referência na primeira lista de referências, um índice de MVP apontando para o preditor de vetor de movimento no conjunto de candidatos de MVP, e uma diferença de vetor de movimento, MVD, entre o primeiro vetor de movimento e o preditor de vetor de movimento, em que o primeiro vetor de movimento se refere à imagem de referência na primeira lista de referências; em que o método compreende ainda: determinar (840), a partir do fluxo de bits codificado, um candidato de Fusão de acordo com um índice de Fusão apontando para o candidato de Fusão em um conjunto de candidatos de Fusão (710, 720), em que um segundo vetor de movimento dos candidatos de Fusão aponta para uma imagem de referência na segunda lista de referências em outra direção de predição diferente do primeiro vetor de movimento; e aplicar (860) uma decodificação compensada de movimento de bi-predição ao bloco atual com base no primeiro vetor de movimento e um segundo vetor de movimento; em que se o primeiro vetor de movimento está apontando para uma imagem de referência na lista L0, o segundo vetor de movimento dos candidatos de Fusão está apontando para uma imagem de referência na lista L1, e em que se o primeiro vetor de movimento está apontando para uma imagem de referência na lista L1, o segundo vetor de movimento dos candidatos de Fusão está apontando para uma imagem de referência na lista L0.
2. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que o conjunto de candidatos de Fusão (710) é derivado de acordo com um processo de geração de conjunto de candidatos de Fusão para codificação de modo de Fusão.
3. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que o conjunto de candidatos de Fusão (720) é derivado a partir de um conjunto de candidatos de Fusão inicial (710) por realocar um candidato de Fusão de bi- predição a dois candidatos de uni-predição ou realocar um candidato de Fusão de uni-predição para uma entrada vazia do conjunto de candidatos de Fusão inicial (710), em que o conjunto de candidatos de Fusão inicial (710) é gerado de acordo com um processo de geração de conjunto de candidatos de Fusão para codificação em modo de Fusão.
4. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que o conjunto de candidatos de Fusão é gerado por inserir, dentro do conjunto de candidatos de Fusão, candidatos de Fusão que são diferentes dos candidatos de Fusão iniciais para conjunto de candidatos de Fusão inicial (710), em que os candidatos de Fusão inicial são inseridos dentro do conjunto de candidatos de Fusão inicial (710) de acordo com um processo de geração de conjunto de candidatos de Fusão para codificação em modo de Fusão.
5. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que o conjunto de candidatos de Fusão para a segunda lista de referências é derivado de outro conjunto de candidatos de Fusão para a primeira lista de referências.
6. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que se aplicar a decodificação compensada de movimento de bi-predição ao bloco atual é de acordo com uma bandeira explicitamente sinalizada ou implicitamente inferida.
7. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que se aplicar a decodificação compensada de movimento de bi-predição ao bloco atual é de acordo com um tamanho do bloco atual, em que o bloco atual corresponde a uma unidade de codificação, CU, ou uma unidade de predição, PU.
8. Método de codificação de vídeo para blocos codificados no modo de Interpredição, o método compreendendo: receber dados de entrada associados a um bloco atual; determinar uma direção de predição de movimento atual para o bloco atual, em que a direção de predição de movimento atual é ou bi-predição ou uni-predição; e se a direção de predição de movimento atual é uni- predição utilizando um vetor de movimento atual em uma primeira lista de referências L0 ou L1: gerar informação de movimento codificada para o vetor de movimento atual utilizando um preditor de vetor de movimento selecionado de um conjunto de candidatos de predição de vetor de movimento (MVP); caracterizado pelo fato de que: a informação de movimento codificada para o vetor de movimento atual inclui um índice de referência apontando para umaa imagem de referência na primeira lista de referências, um índice de MVP apontando para o preditor de vetor de movimento no conjunto de candidatos de MVP, e uma diferença de vetor de movimento, MVD, entre o vetor de movimento atual e o preditor de vetor de movimento, em que o vetor de movimento atual se refere à imagem de referência na primeira lista de referências; em que o método compreende ainda: gerar um índice de fusão apontando para um candidato de Fusão em um conjunto de candidatos de Fusão para determinar os candidatos de Fusão do conjunto de candidatos de Fusão (710, 720), em que um segundo vetor de movimento correspondente aos candidatos de Fusão aponta para uma imagem de referência na segunda lista de referências em outra direção de predição diferente do vetor de movimento atual; e aplicar codificação compensada de movimento de bi- predição ao bloco atual com base no vetor de movimento atual e no segundo vetor de movimento; em que se o vetor de movimento atual está apontando para uma imagem de referência na lista L0, o segundo vetor de movimento dos candidatos de Fusão está apontando para uma imagem de referência na lista L1, e em que se o vetor de movimento atual está apontando para uma imagem de referência na lista L1, o segundo vetor de movimento dos candidatos de Fusão está apontando para uma imagem de referência na lista L0.
9. Método, de acordo com reivindicação 8, caracterizado pelo fato de que o conjunto de candidatos de Fusão (710) é derivado de acordo com um processo de geração de conjunto de candidatos de Fusão para codificação de modo de Fusão.
BR112017010468-7A 2014-11-18 2015-11-04 Método de decodificação de vídeo para blocos codificados no modo de interpredição e método de codificação de vídeo para blocos codificados no modo de interpredição BR112017010468B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201462081128P 2014-11-18 2014-11-18
US62/081,128 2014-11-18
PCT/CN2015/093764 WO2016078511A1 (en) 2014-11-18 2015-11-04 Method of bi-prediction video coding based on motion vectors from uni-prediction and merge candidate

Publications (3)

Publication Number Publication Date
BR112017010468A2 BR112017010468A2 (pt) 2018-04-03
BR112017010468A8 BR112017010468A8 (pt) 2023-02-07
BR112017010468B1 true BR112017010468B1 (pt) 2024-01-02

Family

ID=56013270

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112017010468-7A BR112017010468B1 (pt) 2014-11-18 2015-11-04 Método de decodificação de vídeo para blocos codificados no modo de interpredição e método de codificação de vídeo para blocos codificados no modo de interpredição

Country Status (7)

Country Link
US (1) US10182240B2 (pt)
EP (1) EP3202143B8 (pt)
KR (1) KR101908249B1 (pt)
CN (1) CN107113424B (pt)
BR (1) BR112017010468B1 (pt)
SG (1) SG11201703454XA (pt)
WO (1) WO2016078511A1 (pt)

Families Citing this family (104)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10575011B2 (en) * 2015-09-24 2020-02-25 Lg Electronics Inc. Inter prediction method and apparatus in image coding system
US11638027B2 (en) 2016-08-08 2023-04-25 Hfi Innovation, Inc. Pattern-based motion vector derivation for video coding
US10477238B2 (en) 2016-09-07 2019-11-12 Qualcomm Incorporated Sub-PU based bi-directional motion compensation in video coding
CN116847068A (zh) 2016-10-04 2023-10-03 株式会社Kt 用于处理视频信号的方法和装置
US10582209B2 (en) * 2017-03-30 2020-03-03 Mediatek Inc. Sub-prediction unit temporal motion vector prediction (sub-PU TMVP) for video coding
KR102604775B1 (ko) * 2017-11-09 2023-11-21 삼성전자주식회사 움직임 정보의 부호화 장치 및 방법, 및 복호화 장치 및 방법
WO2020065520A2 (en) 2018-09-24 2020-04-02 Beijing Bytedance Network Technology Co., Ltd. Extended merge prediction
US11310526B2 (en) * 2018-01-26 2022-04-19 Mediatek Inc. Hardware friendly constrained motion vector refinement
CN110248188A (zh) * 2018-03-07 2019-09-17 华为技术有限公司 预测运动矢量生成方法以及相关设备
CN110324637B (zh) 2018-03-29 2023-11-17 华为技术有限公司 一种双向帧间预测方法及装置
CN111971966A (zh) 2018-03-30 2020-11-20 韩国电子通信研究院 图像编码/解码方法和设备以及存储比特流的记录介质
US11146796B2 (en) * 2018-04-06 2021-10-12 Arris Enterprises Llc Reducing motion vector information transmission in bi-directional temporal prediction
EP3780617B1 (en) 2018-04-24 2023-09-13 LG Electronics Inc. Method and apparatus for inter prediction in video coding system
EP3791581A1 (en) * 2018-05-07 2021-03-17 InterDigital VC Holdings, Inc. Data dependency in encoding/decoding
CN112166612A (zh) * 2018-05-23 2021-01-01 株式会社Kt 用于处理视频信号的方法和设备
WO2019234578A1 (en) 2018-06-05 2019-12-12 Beijing Bytedance Network Technology Co., Ltd. Asymmetric weighted bi-predictive merges
WO2019234598A1 (en) 2018-06-05 2019-12-12 Beijing Bytedance Network Technology Co., Ltd. Interaction between ibc and stmvp
MX2020012662A (es) 2018-06-08 2021-02-09 Kt Corp Método y aparato para procesar una señal de video.
US11477474B2 (en) * 2018-06-08 2022-10-18 Mediatek Inc. Methods and apparatus for multi-hypothesis mode reference and constraints
WO2019245260A1 (ko) * 2018-06-18 2019-12-26 세종대학교 산학협력단 영상 부호화/복호화 방법 및 장치
TWI723430B (zh) 2018-06-19 2021-04-01 大陸商北京字節跳動網絡技術有限公司 不同精度的多個候選
US20190387247A1 (en) * 2018-06-19 2019-12-19 Qualcomm Incorporated Signaling sub-prediction unit motion vector predictor
KR20210022617A (ko) 2018-06-21 2021-03-03 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 칼라 컴포넌트 간의 서브 블록 mv 상속
CN110636298B (zh) 2018-06-21 2022-09-13 北京字节跳动网络技术有限公司 对于Merge仿射模式和非Merge仿射模式的统一约束
CN117615128A (zh) * 2018-06-27 2024-02-27 数字洞察力有限公司 对图像进行编码/解码的方法和发送比特流的方法
CN110662074B (zh) * 2018-06-28 2021-11-23 杭州海康威视数字技术股份有限公司 一种运动矢量确定方法和设备
TWI752331B (zh) 2018-06-29 2022-01-11 大陸商北京字節跳動網絡技術有限公司 當向Merge/AMVP添加HMVP候選時的部分/完全修剪
TWI728390B (zh) 2018-06-29 2021-05-21 大陸商北京字節跳動網絡技術有限公司 查找表尺寸
KR102627814B1 (ko) 2018-06-29 2024-01-23 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 룩업 테이블의 업데이트: fifo, 제약된 fifo
CA3100986A1 (en) 2018-06-29 2020-01-02 Kt Corporation Method and apparatus for processing a video signal
CN114125450B (zh) 2018-06-29 2023-11-17 北京字节跳动网络技术有限公司 一种用于处理视频数据的方法、装置和计算机可读介质
CN114466197A (zh) 2018-06-29 2022-05-10 北京字节跳动网络技术有限公司 用于查找表更新的编码的运动信息的选择
GB2588531B (en) 2018-06-29 2023-02-01 Beijing Bytedance Network Tech Co Ltd Concept of using one or multiple look up tables to store motion information of previously coded in order and use them to code following blocks
EP3794824A1 (en) 2018-06-29 2021-03-24 Beijing Bytedance Network Technology Co. Ltd. Conditions for updating luts
KR20240007298A (ko) 2018-06-29 2024-01-16 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut에서의 모션 후보들의 검사 순서
MX2020014114A (es) * 2018-06-30 2021-05-31 Guangdong Oppo Mobile Telecommunications Corp Ltd Método y aparato de interpredicción en base al modo de fusión.
TWI719526B (zh) 2018-07-02 2021-02-21 大陸商北京字節跳動網絡技術有限公司 查找表的更新
KR20210028651A (ko) * 2018-07-17 2021-03-12 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 비디오 코딩을 위한 움직임 벡터 예측
CN117692632A (zh) * 2018-07-31 2024-03-12 寰发股份有限公司 用于视频编解码的利用运动向量差的合并方法和装置
WO2020025041A1 (en) * 2018-08-03 2020-02-06 Mediatek Inc. Method and apparatus of enhanced intra block copying mode for video coding
CN116418992A (zh) * 2018-08-26 2023-07-11 北京字节跳动网络技术有限公司 组合的基于历史的运动矢量预测符和多运动模型解码
US10924731B2 (en) 2018-08-28 2021-02-16 Tencent America LLC Complexity constraints on merge candidates list construction
CN117336483A (zh) * 2018-08-28 2024-01-02 华为技术有限公司 编码方法、解码方法以及编码装置、解码装置
TWI820211B (zh) 2018-09-12 2023-11-01 大陸商北京字節跳動網絡技術有限公司 取決於總數減去k的開始檢查hmvp候選的條件
US11997311B2 (en) 2018-09-17 2024-05-28 Hfi Innovation Inc. Methods and apparatuses of combining multiple predictors for block prediction in video coding systems
CN116546213A (zh) 2018-09-19 2023-08-04 北京字节跳动网络技术有限公司 具有自适应运动矢量分辨率的仿射模式的语法重用
WO2020061395A1 (en) * 2018-09-21 2020-03-26 Interdigital Vc Holdings, Inc. Motion vector prediction in video encoding and decoding
TWI821408B (zh) 2018-09-23 2023-11-11 大陸商北京字節跳動網絡技術有限公司 塊級別的運動向量平面模式
WO2020063599A1 (zh) * 2018-09-24 2020-04-02 华为技术有限公司 图像预测方法、装置以及相应的编码器和解码器
WO2020084475A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Utilization of refined motion vector
CN117156131A (zh) * 2018-10-23 2023-12-01 韦勒斯标准与技术协会公司 通过使用基于子块的运动补偿处理视频信号的方法和设备
CN111107354A (zh) * 2018-10-29 2020-05-05 华为技术有限公司 一种视频图像预测方法及装置
EP3854092A4 (en) * 2018-11-02 2021-11-17 Beijing Bytedance Network Technology Co. Ltd. KEEPING TABLES FOR THE STORAGE OF HMVP CANDIDATES
EP3857890A4 (en) * 2018-11-06 2021-09-22 Beijing Bytedance Network Technology Co. Ltd. SIGNALING PAGE INFORMATION FOR INTERPREDICTION WITH GEOMETRIC PARTITIONING
IL307153B1 (en) 2018-11-08 2024-06-01 Guangdong Oppo Mobile Telecommunications Corp Ltd A method for encoding/decoding an image signal and a device for it
WO2020094149A1 (en) * 2018-11-10 2020-05-14 Beijing Bytedance Network Technology Co., Ltd. Rounding in triangular prediction mode
EP3857879A4 (en) * 2018-11-12 2022-03-16 Beijing Bytedance Network Technology Co., Ltd. SIMPLIFICATION OF COMBINED INTER-INTRA PREDICTION
CN112970253B (zh) * 2018-11-13 2024-05-07 北京字节跳动网络技术有限公司 用于预测的运动候选列表构建
JP7231729B2 (ja) * 2018-11-13 2023-03-01 北京字節跳動網絡技術有限公司 イントラブロックコピーのための履歴ベース動き候補リスト構築
TWI734262B (zh) 2018-11-16 2021-07-21 聯發科技股份有限公司 用於視訊編碼之運動向量差值改良式合併方法和裝置
CN113039796B (zh) * 2018-11-17 2023-09-19 北京字节跳动网络技术有限公司 视频处理中的广义双向预测模式
CA3112373A1 (en) 2018-11-20 2020-05-28 Huawei Technologies Co., Ltd. An encoder, a decoder and corresponding methods for merge mode
KR20210091161A (ko) 2018-11-20 2021-07-21 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 부분적 위치에 기반한 차분 계산
PL3884670T3 (pl) 2018-11-22 2023-07-10 Huawei Technologies Co., Ltd. Sposób, urządzenie i program komputerowy do predykcji inter
WO2020130617A1 (ko) * 2018-12-18 2020-06-25 엘지전자 주식회사 비디오 데이터를 처리하기 위한 방법 및 장치
CN113508599A (zh) * 2018-12-21 2021-10-15 交互数字Vc控股公司 用于视频编码中运动信息信令通知的语法
CN113196747B (zh) * 2018-12-21 2023-04-14 北京字节跳动网络技术有限公司 当前图片参考模式下的信息信令通知
WO2020139040A1 (ko) * 2018-12-27 2020-07-02 인텔렉추얼디스커버리 주식회사 영상 부/복호화 방법 및 장치
CN113170166B (zh) 2018-12-30 2023-06-09 北京字节跳动网络技术有限公司 具有几何分割的帧间预测在视频处理中有条件的应用
CN116647694A (zh) * 2019-01-02 2023-08-25 北京大学 候选mv列表构建方法和装置
WO2020143643A1 (en) * 2019-01-07 2020-07-16 Beijing Bytedance Network Technology Co., Ltd. Control method for merge with mvd
WO2020143772A1 (en) 2019-01-10 2020-07-16 Beijing Bytedance Network Technology Co., Ltd. Affine based merge with mvd
JP7275286B2 (ja) 2019-01-10 2023-05-17 北京字節跳動網絡技術有限公司 Lut更新の起動
WO2020143837A1 (en) * 2019-01-12 2020-07-16 Beijing Bytedance Network Technology Co., Ltd. Mmvd improvement
CN113383554B (zh) 2019-01-13 2022-12-16 北京字节跳动网络技术有限公司 LUT和共享Merge列表之间的交互
WO2020147747A1 (en) * 2019-01-15 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Weighted prediction in video coding
WO2020147772A1 (en) 2019-01-16 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Motion candidates derivation
CN111246216B (zh) * 2019-01-17 2022-05-06 北京达佳互联信息技术有限公司 一种基于三角预测的视频编解码方法及设备
WO2020166897A1 (ko) * 2019-02-14 2020-08-20 엘지전자 주식회사 Dmvr 기반의 인터 예측 방법 및 장치
US11140406B2 (en) * 2019-02-20 2021-10-05 Qualcomm Incorporated Signalling for merge mode with motion vector differences in video coding
WO2020177665A1 (en) * 2019-03-05 2020-09-10 Mediatek Inc. Methods and apparatuses of video processing for bi-directional prediction with motion refinement in video coding systems
KR102635518B1 (ko) 2019-03-06 2024-02-07 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 변환된 단예측 후보의 사용
CN113557738B (zh) * 2019-03-11 2023-04-28 华为技术有限公司 视频图像预测方法及装置
WO2020182147A1 (en) * 2019-03-11 2020-09-17 Beijing Bytedance Network Technology Co., Ltd. Improvement on motion candidate list construction
ES2969378T3 (es) * 2019-03-12 2024-05-17 Beijing Dajia Internet Information Tech Co Ltd Codificación de vídeo para una inter predicción de división geométrica
CN111726632B (zh) * 2019-03-18 2022-08-26 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN113615193B (zh) 2019-03-22 2024-06-25 北京字节跳动网络技术有限公司 Merge列表构建和其他工具之间的交互
CN113632477A (zh) * 2019-03-24 2021-11-09 北京字节跳动网络技术有限公司 转换后的单向预测候选的推导
WO2020192726A1 (en) 2019-03-27 2020-10-01 Beijing Bytedance Network Technology Co., Ltd. History-based motion vector prediction
CN113661708B (zh) 2019-04-02 2023-12-15 北京字节跳动网络技术有限公司 基于双向光流的视频编解码和解码
US11616966B2 (en) * 2019-04-03 2023-03-28 Mediatek Inc. Interaction between core transform and secondary transform
WO2020211867A1 (en) * 2019-04-19 2020-10-22 Beijing Bytedance Network Technology Co., Ltd. Delta motion vector in prediction refinement with optical flow process
CN113728630B (zh) 2019-04-19 2023-11-17 北京字节跳动网络技术有限公司 不同运动矢量细化中的基于区域的梯度计算
WO2020248925A1 (en) * 2019-06-08 2020-12-17 Beijing Bytedance Network Technology Co., Ltd. History-based motion vector prediction with default parameters
CN114080814A (zh) * 2019-06-13 2022-02-22 Lg电子株式会社 基于运动矢量预测的图像/视频编码方法和装置
EP3975561A4 (en) * 2019-06-14 2023-03-22 LG Electronics Inc. METHOD AND DEVICE FOR IMAGE CODING BASED ON INTER PREDICTION
EP3972254A4 (en) 2019-06-14 2023-03-08 LG Electronics Inc. METHOD AND APPARATUS FOR IMAGE CODING USING A MOTION VECTOR
EP3979650A4 (en) * 2019-06-14 2023-04-12 Lg Electronics Inc. METHOD AND DEVICE FOR IMAGE CODING USING MOTION VECTOR DIFFERENCES
WO2021036982A1 (en) * 2019-08-24 2021-03-04 Beijing Bytedance Network Technology Co., Ltd. Coded representation of history-based motion vector prediction tables
CN112449180B (zh) * 2019-08-27 2023-02-28 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN113329225A (zh) * 2020-02-28 2021-08-31 北京三星通信技术研究有限公司 视频编解码方法和装置
CN113453005B (zh) * 2020-03-26 2022-11-01 杭州海康威视数字技术股份有限公司 解码方法、编码方法、装置及设备
US20230156218A1 (en) * 2021-11-18 2023-05-18 Tencent America LLC Derived motion vector with single reference signaling
KR20230147901A (ko) * 2022-04-15 2023-10-24 삼성전자주식회사 영상 부호화/복호화 방법 및 장치

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101454133B1 (ko) * 2010-09-02 2014-10-23 엘지전자 주식회사 영상 부호화 및 복호화 방법과 이를 이용한 장치
US8755437B2 (en) * 2011-03-17 2014-06-17 Mediatek Inc. Method and apparatus for derivation of spatial motion vector candidate and motion vector prediction candidate
US9288501B2 (en) 2011-03-08 2016-03-15 Qualcomm Incorporated Motion vector predictors (MVPs) for bi-predictive inter mode in video coding
US9648334B2 (en) * 2011-03-21 2017-05-09 Qualcomm Incorporated Bi-predictive merge mode based on uni-predictive neighbors in video coding
EP4213483A1 (en) * 2011-05-27 2023-07-19 Sun Patent Trust Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
SG194746A1 (en) * 2011-05-31 2013-12-30 Kaba Gmbh Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device
CN102843555B (zh) * 2011-06-24 2017-07-14 中兴通讯股份有限公司 一种帧内预测方法和系统
CN103828364B (zh) * 2011-09-29 2018-06-12 夏普株式会社 图像解码装置、图像解码方法及图像编码装置
CN108881903B (zh) * 2011-10-19 2022-01-04 太阳专利托管公司 图像编码方法及装置、图像解码方法及装置、编解码装置
JP5768662B2 (ja) * 2011-10-31 2015-08-26 富士通株式会社 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム
MX2014008483A (es) * 2012-01-19 2014-10-14 Sony Corp Dispositivo y metodo de procesamiento de imagenes.
US20130195188A1 (en) * 2012-01-26 2013-08-01 Panasonic Corporation Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
CN104885462A (zh) * 2012-12-28 2015-09-02 日本电信电话株式会社 视频编码装置和方法、视频解码装置和方法、以及其程序
WO2015006984A1 (en) * 2013-07-19 2015-01-22 Mediatek Singapore Pte. Ltd. Reference view selection for 3d video coding
US9554150B2 (en) * 2013-09-20 2017-01-24 Qualcomm Incorporated Combined bi-predictive merging candidates for 3D video coding
KR102378459B1 (ko) * 2014-06-30 2022-03-24 한국전자통신연구원 움직임 병합 모드에서 시점 합성 예측 후보의 중복성 제거 장치 및 방법

Also Published As

Publication number Publication date
EP3202143B8 (en) 2019-09-25
EP3202143B1 (en) 2019-08-21
EP3202143A1 (en) 2017-08-09
EP3202143A4 (en) 2018-04-04
US10182240B2 (en) 2019-01-15
CN107113424A (zh) 2017-08-29
CN107113424B (zh) 2019-11-22
WO2016078511A1 (en) 2016-05-26
KR101908249B1 (ko) 2018-10-15
KR20170073681A (ko) 2017-06-28
BR112017010468A2 (pt) 2018-04-03
SG11201703454XA (en) 2017-06-29
BR112017010468A8 (pt) 2023-02-07
US20170310990A1 (en) 2017-10-26

Similar Documents

Publication Publication Date Title
BR112017010468B1 (pt) Método de decodificação de vídeo para blocos codificados no modo de interpredição e método de codificação de vídeo para blocos codificados no modo de interpredição
US11509927B2 (en) Weighted prediction in video coding
US11483550B2 (en) Use of virtual candidate prediction and weighted prediction in video processing
US20210235083A1 (en) Sub-block based prediction
BR112020015246A2 (pt) refinamento de vetor de movimento restrito de hardware acessível
WO2017118411A1 (en) Method and apparatus for affine inter prediction for video coding system
BR112020023571A2 (pt) método e aparelho de codificação de vídeo usando ponderação de cu bidirecional
ES2957772T3 (es) Procedimiento de codificación predictiva, dispositivo de codificación predictiva y programa de codificación predictiva de un vector de movimiento, y procedimiento de descodificación predictiva, dispositivo de descodificación predictiva y programa de descodificación predictiva de un vector de movimiento
WO2016034058A1 (en) Method of intra picture block copy for screen content and video coding
US20200014931A1 (en) Methods and Apparatuses of Generating an Average Candidate for Inter Picture Prediction in Video Coding Systems
TWI702826B (zh) 由視訊編碼器和視訊解碼器執行的視訊編解碼方法及裝置
US11729377B2 (en) Affine mode in video coding and decoding
BR112012027263B1 (pt) Métodos e aparelhos para derivar um preditor de vetor de movimento temporal
EP3414905A1 (en) Method and apparatus of video coding with affine motion compensation
BR112013012832B1 (pt) Método e aparelho de predição de vetor de movimento espacial
JP7328337B2 (ja) ビデオ処理方法および装置
BR112013007057B1 (pt) Métodos e aparelho de derivar preditor de vetor de movimento ou candidato a preditor de vetor de movimento para codificação ou decodificação de um vetor de movimento de uma pu (unidade de predição) atual em uma imagem
BR122020002131B1 (pt) Método e dispositivo para codificar e decodificar uma sequência de imagens e meio legível por computador
JP2008182747A (ja) ダイレクトモード動きベクトルの導出方法
WO2020098653A1 (en) Method and apparatus of multi-hypothesis in video coding
BR122021006490A2 (pt) método de decodificação de imagem com base na predição de movimento afim e dispositivo usando lista de candidatos à fusão afins no sistema de codificação de imagem
TWI702831B (zh) 用於視訊編解碼系統的仿射幀間預測的方法和裝置
BR122020002130B1 (pt) Método e dispositivo para codificar e decodificar uma sequência de imagens e meio legível por computador

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B25A Requested transfer of rights approved

Owner name: HFI INNOVATION INC. (TW)

B07A Application suspended after technical examination (opinion) [chapter 7.1 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 04/11/2015, OBSERVADAS AS CONDICOES LEGAIS