BR112017019264B1 - Método de predição de imagem e dispositivo relacionado - Google Patents

Método de predição de imagem e dispositivo relacionado Download PDF

Info

Publication number
BR112017019264B1
BR112017019264B1 BR112017019264-0A BR112017019264A BR112017019264B1 BR 112017019264 B1 BR112017019264 B1 BR 112017019264B1 BR 112017019264 A BR112017019264 A BR 112017019264A BR 112017019264 B1 BR112017019264 B1 BR 112017019264B1
Authority
BR
Brazil
Prior art keywords
pixel
image block
current image
motion
motion information
Prior art date
Application number
BR112017019264-0A
Other languages
English (en)
Other versions
BR112017019264A2 (pt
Inventor
Huanbang Chen
Sixin Lin
Fan Liang
Haitao Yang
Original Assignee
Huawei Technologies Co., Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co., Ltd filed Critical Huawei Technologies Co., Ltd
Publication of BR112017019264A2 publication Critical patent/BR112017019264A2/pt
Publication of BR112017019264B1 publication Critical patent/BR112017019264B1/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/14Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Analysis (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Systems (AREA)

Abstract

Um método de previsão de imagem e um dispositivo relacionado são revelados. O método de previsão de imagem inclui: determinar duas amostras de píxeis em um bloco de imagem atual e determinar um conjunto de unidade de informação de movimento candidato correspondente a cada uma das duas amostras de píxeis; determinando uma unidade de informação de movimento combinada definida i incluindo duas unidades de informação de movimento; e prever um valor de pixel do bloco de imagem atual usando um modelo de movimento afim e o conjunto da unidade de informação de movimento combinada definida i. As soluções técnicas fornecidas pelas modalidades da presente invenção ajudam a reduzir a complexidade computacional da previsão de imagens realizada com base no modelo de movimento afim.

Description

CAMPO DA TÉCNICA
[1] A presente invenção se refere ao campo de conversão em código/decodificação de vídeo e, em particular, a um método de predição de imagem e um dispositivo relacionado.
ANTECEDENTES
[2] Com o desenvolvimento de tecnologias de aquisição fotoelétrica e as exigências crescentes por vídeos digitais de alta definição, uma quantidade de dados de vídeo está se tornando grande. Devido a larguras de banda de transmissão heterogênea limitada e aplicações de vídeo diversificadas, exigências mais elevadas são continuamente impostas na eficácia de conversão em código de vídeo. O desenvolvimento de um padrão de conversão em código de vídeo de alta eficácia (Inglês: high efficient video coding, HEVC abreviadamente) é iniciado de acordo com as exigências.
[3] Um princípio básico da conversão em código de compressão em vídeo é usar correlação entre um domínio de espaço, um domínio de tempo e uma palavra de código para remover a redundância o quanto antes. Atualmente, uma prática prevalente é usar uma estrutura de conversão em código de vídeo híbrido à base de bloco para implantar conversão em código de compressão em vídeo pela realização das etapas de predição (incluindo predição intraquadro e predição interquadro), transformação, quantização, conversão em código por entropia, e similares. Essa estrutura de conversão em código mostra alta viabilidade e, portanto, HEVC ainda usa essa estrutura de conversão em código de vídeo híbrido à base de bloco.
[4] Em várias soluções de conversão em código/decodificação de vídeo, estimativa de movimento ou compensação de movimento é uma tecnologia-chave que afeta a eficácia de conversão em código/decodificação. Em várias soluções convencionais de conversão em código/decodificação de vídeo, assume-se que o movimento de um objeto sempre é movimento translacional e que o movimento de todas as partes do objeto integral é igual. Basicamente, todos os algoritmos convencionais de compensação de movimento ou estimativa de movimento são algoritmos de compensação de movimento por bloco que são estabelecidos com base em um modelo de movimento translacional (Inglês: translational motion model). No entanto, o movimento no mundo real é diversificado, e o movimento irregular tais como redimensionamento para cima/para baixo, rotação ou movimento parabólico é ubíquo. Desde a nova década do século passado, especialistas de conversão em código de vídeo realizaram universalidade de movimento irregular, e desejaram introduzir um modelo de movimento irregular (por exemplo, um modelo de movimento afim) para aprimorar a eficácia de conversão em código de vídeo. No entanto, a complexidade computacional de predição de imagem convencional realizada com base no modelo de movimento afim é geralmente muito alta.
SUMÁRIO
[5] As modalidades da presente invenção fornecem um método de predição de imagem e um dispositivo relacionado para reduzir complexidade computacional de predição de imagem realizada com base em um modelo de movimento afim.
[6] De acordo com um primeiro aspecto, a presente invenção fornece um método de predição de imagem, que inclui:determinar duas amostras de pixel em um bloco de imagem atual, e determinar um conjunto de unidades-candidato de informações de movimento que corresponde a cada uma das duas amostras de pixel, em que o conjunto de unidades-candidato de informações de movimento corresponde a cada amostra de pixel que inclui pelo menos uma unidade-candidato de informações de movimento;determinar um conjunto mesclado de unidades de informações de movimento i que inclui duas unidades de informações de movimento, em que cada unidade de informações de movimento no conjunto mesclado de unidades de informações de movimento i é selecionada a partir de pelo menos algumas dentre unidades de informações de movimento no conjunto de unidades-candidato de informações de movimento que corresponde a cada uma das duas amostras de pixel, e a unidade de informações de movimento inclui um vetor de movimento cuja direção de predição está para frente e/ou um vetor de movimento cuja direção de predição está para trás; e prever um valor de pixel do bloco de imagem atual usando-se um modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i.
[7] Em referência ao primeiro aspecto, em uma primeira implantação possível do primeiro aspecto, a determinação de um conjunto mesclado de unidades de informações de movimento i que inclui duas unidades de informações de movimento inclui:determinar, a partir de N conjuntos mesclados de unidades- candidato de informações de movimento, em que o conjunto mesclado de unidades de informações de movimento i inclui as duas unidades de informações de movimento, em que cada unidade de informações de movimento incluída em cada um dos N conjuntos mesclados de unidades-candidato de informações de movimento é selecionado a partir de pelo menos algumas das unidades de informações de movimento de restrição-compatível no conjunto de unidades- candidato de informações de movimento que corresponde a cada uma das duas amostras de pixel, N é um número inteiro positivo, os N conjuntos mesclados de unidades-candidato de informações de movimento são diferentes uns dos outros, e cada um dos N conjuntos mesclados de unidades-candidato de informações de movimento inclui duas unidades de informações de movimento.
[8] Em referência à primeira implantação possível do primeiro aspecto, em uma segunda implantação possível do primeiro aspecto, os N conjuntos mesclados de unidades-candidato de informações de movimento cumprem pelo menos uma dentre uma primeira condição, uma segunda condição, uma terceira condição, uma quarta condição ou uma quinta condição, em quea primeira condição inclui um modo de movimento do bloco de imagem atual indicado por uma unidade de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento ser um movimento não translacional.a segunda condição inclui as direções de predição correspondentes às duas unidades de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento serem as mesmas.a terceira condição inclui os índices de quadro de referência correspondentes às duas unidades de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento serem os mesmos. a quarta condição inclui um valor absoluto de uma diferença entre componentes horizontais de vetores de movimento de duas unidades de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento ser menor ou igual a um limiar de componente horizontal, ou que um valor absoluto de uma diferença entre um componente horizontal de um vetor de movimento de uma unidade de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento e um componente horizontal de um vetor de movimento de uma amostra de pixel Z ser menor ou igual a um limiar de componente horizontal, em que a amostra de pixel Z no bloco de imagem atual é diferente de qualquer uma das duas amostras de pixel. a quinta condição inclui um valor absoluto de uma diferença entre componentes verticais de vetores de movimento de duas unidades de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento ser menor ou igual a um limiar de componente vertical, ou que um valor absoluto de uma diferença entre um componente vertical de um vetor de movimento de qualquer unidade de informações de movimento em um dos N conjuntos mesclados de unidades- candidato de informações de movimento e um componente vertical de um vetor de movimento de uma amostra de pixel Z ser menor ou igual a um limiar de componente horizontal, em que a amostra de pixel Z no bloco de imagem atual é diferente de qualquer uma das duas amostras de pixel.
[9] Com referência a qualquer um dentre o primeiro aspecto ou a primeira à segunda implantações possíveis do primeiro aspecto, em uma terceira implantação possível do primeiro aspecto, as duas amostras de pixel incluem duas amostras de pixel em uma amostra de pixel esquerda superior, uma amostra de pixel direita superior, uma amostra de pixel esquerda inferior, e uma amostra de pixel central a1 do bloco de imagem atual, em que a amostra de pixel esquerda superior do bloco de imagem atual é um vértice esquerdo superior do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e inclui um vértice esquerdo superior do bloco de imagem atual; a amostra de pixel esquerda inferior do bloco de imagem atual é um vértice esquerdo inferior do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e inclui um vértice esquerdo inferior do bloco de imagem atual; a amostra de pixel direita superior do bloco de imagem atual é um vértice direito superior do bloco de imagem atual, ou um bloco de pixel na bloco de imagem atual e inclui um vértice direito superior do bloco de imagem atual; e a amostra de pixel central a1 do bloco de imagem atual é um pixel central do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e inclui um pixel central do bloco de imagem atual.
[10] Em referência à terceira implantação possível do primeiro aspecto, em uma quarta implantação possível do primeiro aspecto, um conjunto de unidades-candidato de informações de movimento que corresponde à amostra de pixel esquerda superior do bloco de imagem atual inclui unidades de informações de movimento de x1 amostras de pixel, em que as x1 amostras de pixel incluem pelo menos uma amostra de pixel espacialmente adjacente à amostra de pixel esquerda superior do bloco de imagem atual e/ou pelo menos uma amostra de pixel temporariamente adjacente à amostra de pixel esquerda superior do bloco de imagem atual, e x1 é um número inteiro positivo, em que as x1 amostras de pixel incluem pelo menos uma dentre uma amostra de pixel que tem uma mesma localização que a amostra de pixel esquerda superior do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma borda esquerda do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma esquerda superior do bloco de imagem atual, ou uma amostra de pixel espacialmente adjacente a uma borda superior do bloco de imagem atual, em um quadro de vídeo temporalmente adjacente a um quadro de vídeo ao qual o bloco de imagem atual pertence.
[11] Em referência à terceira ou à quarta implantação possível do primeiro aspecto, em uma quinta implantação possível do primeiro aspecto, um conjunto de unidades-candidato de informações de movimento que corresponde à amostra de pixel direita superior do bloco de imagem atual inclui unidades de informações de movimento de x2 amostras de pixel, em que as x2 amostras de pixel incluem pelo menos uma amostra de pixel espacialmente adjacente à amostra de pixel direita superior do bloco de imagem atual e/ou pelo menos uma amostra de pixel temporariamente adjacente à amostra de pixel direita superior do bloco de imagem atual, e x2 é um número inteiro positivo, em que as x2 amostras de pixel incluem pelo menos uma dentre uma amostra de pixel que tem uma mesma localização que a amostra de pixel direita superior do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma borda direita do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma direita superior do bloco de imagem atual, ou uma amostra de pixel espacialmente adjacente à borda superior do bloco de imagem atual, em um quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence.
[12] Com referência a qualquer uma dentre a terceira à quinta implantações possíveis do primeiro aspecto, em uma sexta implantação possível do primeiro aspecto, um conjunto de unidades-candidato de informações de movimento que corresponde à amostra de pixel esquerda inferior do bloco de imagem atual inclui unidades de informações de movimento de x3 amostras de pixel, em que as x3 amostras de pixel incluem pelo menos uma amostra de pixel espacialmente adjacente à amostra de pixel esquerda inferior do bloco de imagem atual e/ou pelo menos uma amostra de pixel temporariamente adjacente à amostra de pixel esquerda inferior do bloco de imagem atual, e x3 é um número inteiro positivo, em queas x3 amostras de pixel incluem pelo menos uma dentre uma amostra de pixel que tem uma mesma localização que a amostra de pixel esquerda inferior do bloco de imagem atual, uma amostra de pixel espacialmente adjacente à borda esquerda do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma esquerda inferior do bloco de imagem atual, ou uma amostra de pixel espacialmente adjacente a uma borda inferior do bloco de imagem atual, em um quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence.
[13] Com referência a qualquer uma dentre a terceira à sexta implantações possíveis do primeiro aspecto, em uma sétima implantação possível do primeiro aspecto, um conjunto de unidades-candidato de informações de movimento que corresponde à amostra de pixel central a1 do bloco de imagem atual inclui unidades de informações de movimento de x5 amostras de pixel, e uma das x5 amostras de pixel é uma amostra de pixel a2, em que uma localização da amostra de pixel central a1 no quadro de vídeo ao qual o bloco de imagem atual pertence é a mesma que uma localização da amostra de pixel a2 em um quadro de vídeo adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence, e x5 é um número inteiro positivo.
[14] Com referência a qualquer um dentre o primeiro aspecto ou a primeira à sétima implantações possíveis do primeiro aspecto, em uma oitava implantação possível do primeiro aspecto, a predição de um valor de pixel do bloco de imagem atual usando- se um modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i inclui: quando um índice de quadro de referência que corresponde a um vetor de movimento cuja direção de predição é uma primeira direção de predição no conjunto mesclado de unidades de informações de movimento i é diferente de um índice de quadro de referência do bloco de imagem atual, que realiza processamento de escalonamento no conjunto mesclado de unidades de informações de movimento i, de modo que o vetor de movimento cuja direção de predição é a primeira direção de predição no conjunto mesclado de unidades de informações de movimento i seja reduzido para um quadro de referência do bloco de imagem atual, e a predição do valor de pixel do bloco de imagem atual usando-se o modelo de movimento afim e um conjunto mesclado de unidades de informações de movimento escalonado i, em que a primeira direção de predição está para frente ou para trás; ou a previsão de um valor de pixel do bloco de imagem atual usando- se um modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i inclui: quando um índice de quadro de referência correspondente a um vetor de movimento cuja direção de predição é para frente no conjunto mesclado de unidades de informações de movimento i é diferente de um índice de quadro de referência para frente do bloco de imagem atual, e um índice de quadro de referência correspondente a um vetor de movimento cuja direção de predição é para trás no conjunto mesclado de unidades de informações de movimento i é diferente de um índice de quadro de referência para trás do bloco de imagem atual, realizar processamento de redimensionamento no conjunto mesclado de unidades de informações de movimento i, para que o vetor de movimento cuja direção de predição é para frente no conjunto mesclado de unidades de informações de movimento i seja redimensionado para um quadro de referência para frente do bloco de imagem atual e que o vetor de movimento cuja direção de predição é para trás no conjunto mesclado de unidades de informações de movimento i é redimensionado para um quadro de referência para trás do bloco de imagem atual, e prever o valor de pixel do bloco de imagem atual usando-se o modelo de movimento afim e um conjunto mesclado de unidades de informações de movimento redimensionado i.
[15] Com referência a qualquer um dentre o primeiro aspecto ou a primeira à oitava implantações possíveis do primeiro aspecto, em uma nona implantação possível do primeiro aspecto, a predição de um valor de pixel do bloco de imagem atual usando- se um modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i inclui: obter um vetor de movimento de cada pixel no bloco de imagem atual através de computação usando-se o modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i, e determinar um valor de pixel predito de cada pixel no bloco de imagem atual usando-se p vetor de movimento que é de cada pixel no bloco de imagem atual e é obtido através de computação; ou obter um vetor de movimento de cada bloco de pixel no bloco de imagem atual através de computação usando-se o modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i, e determinar um valor de pixel predito de cada pixel em cada bloco de pixel no bloco de imagem atual usando-se o vetor de movimento que é de cada bloco de pixel no bloco de imagem atual e é obtido através de computação.
[16] Com referência a qualquer um dentre o primeiro aspecto ou a primeira à nona implantações possíveis do primeiro aspecto, em uma décima implantação possível do primeiro aspecto, a predição de um valor de pixel do bloco de imagem atual usando- se um modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i inclui: obter um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual usando-se uma razão de uma diferença entre componentes horizontais de vetores de movimento das duas amostras de pixel para um comprimento ou largura do bloco de imagem atual e uma razão de uma diferença entre componentes verticais dos vetores de movimento das duas amostras de pixel para o comprimento ou largura do bloco de imagem atual, em que os vetores de movimento das duas amostras de pixel são obtidos com base em vetores de movimento das duas unidades de informações de movimento no conjunto mesclado de unidades de informações de movimento i.
[17] Em referência à décima implantação possível do primeiro aspecto, em uma décima primeira implantação possível do primeiro aspecto, um coeficiente de coordenada horizontal dos componentes horizontais dos vetores de movimento das duas amostras de pixel é igual a um coeficiente de coordenada vertical dos componentes verticais dos vetores de movimento, e um coeficiente de coordenada vertical dos componentes horizontais dos vetores de movimento das duas amostras de pixel é oposto a um coeficiente de coordenada horizontal dos componentes verticais dos vetores de movimento.
[18] Com referência a qualquer um dentre o primeiro aspecto ou a primeira à décima primeira implantações possíveis do primeiro aspecto, em uma décima segunda implantação possível do primeiro aspecto, o modelo de movimento afim é um modelo de movimento afim na forma a seguir: , em que os vetores de movimento das duas amostras de pixel são e, respectivamente, vx é um componente horizontal de um vetor de movimento de uma amostra de pixel cujas coordenadas são (x, y) no bloco de imagem atual, vy é um componente vertical do vetor de movimento da amostra de pixel cujas coordenadas são (x, y) no bloco de imagem atual, e w é o comprimento ou largura do bloco de imagem atual.
[19] Com referência a qualquer um dentre o primeiro aspecto ou a primeira à décima segunda implantações possíveis do primeiro aspecto, em uma décima terceira implantação possível do primeiro aspecto, o método de predição de imagem é aplicado a um processo de conversão em código de vídeo, ou o método de predição de imagem é aplicado a um processo de decodificação de vídeo.
[20] Em referência à décima terceira implantação possível do primeiro aspecto, em uma décima quarta implantação possível do primeiro aspecto, quando o método de predição de imagem é aplicado ao processo de decodificação de vídeo, a determinação, a partir de N conjuntos mesclados de unidades-candidato de informações de movimento, do conjunto mesclado de unidades de informações de movimento i que inclui as duas unidades de informações de movimento inclui: determinar, a partir dos N conjuntos mesclados de unidades-candidato de informações de movimento, com base em um identificador que é do conjunto mesclado de unidades de informações de movimento i e é obtido a partir de um fluxo de bits de vídeo, em que o conjunto mesclado de unidades de informações de movimento i inclui as duas unidades de informações de movimento.
[21] Em referência à décima terceira implantação possível do primeiro aspecto ou à décima quarta implantação possível do primeiro aspecto, em uma décima quinta implantação possível do primeiro aspecto, quando o método de predição de imagem é aplicado ao processo de decodificação de vídeo, o método inclui adicionalmente: decodificar o fluxo de bits de vídeo para obter diferenças de vetor de movimento das duas amostras de pixel, obter os preditores de vetor de movimento das duas amostras de pixel usando-se vetores de movimento de amostras de pixel espacialmente adjacente ou temporariamente adjacente às duas amostras de pixel, e obter os vetores de movimento das duas amostras de pixel separadamente com base nos preditores de vetor de movimento das duas amostras de pixel e as diferenças de vetor de movimento das duas amostras de pixel.
[22] Em referência à décima terceira implantação possível do primeiro aspecto, em uma décima sexta implantação possível do primeiro aspecto, quando o método de predição de imagem é aplicado ao processo de conversão em código de vídeo, o método inclui adicionalmente: obter os preditores de vetor de movimento das duas amostras de pixel usando-se vetores de movimento de amostras de pixel espacialmente adjacente ou temporariamente adjacente às duas amostras de pixel, obter diferenças de vetor de movimento das duas amostras de pixel de acordo com os preditores de vetor de movimento das duas amostras de pixel, e gravar as diferenças de vetor de movimento das duas amostras de pixel em um fluxo de bits de vídeo.
[23] Em referência à décima terceira implantação possível do primeiro aspecto ou à décima sexta implantação possível do primeiro aspecto, em uma décima sétima implantação possível do primeiro aspecto, quando o método de predição de imagem é aplicado ao processo de conversão em código de vídeo, o método inclui adicionalmente: gravar um identificador do conjunto mesclado de unidades de informações de movimento i no fluxo de bits de vídeo.
[24] De acordo com um segundo aspecto, uma modalidade da presente invenção fornece um aparelho de predição de imagem, que inclui: uma primeira unidade de determinação, configurada para: determinar duas amostras de pixel em um bloco de imagem atual, e determinar um conjunto de unidades-candidato de informações de movimento que corresponde a cada uma das duas amostras de pixel, em que o conjunto de unidades-candidato de informações de movimento que corresponde a cada amostra de pixel inclui pelo menos uma unidade-candidato de informações de movimento; uma segunda unidade de determinação, configurada para determinar um conjunto mesclado de unidades de informações de movimento i que inclui duas unidades de informações de movimento, em que cada unidade de informações de movimento no conjunto mesclado de unidades de informações de movimento i é selecionada a partir de pelo menos algumas dentre unidades de informações de movimento no conjunto de unidades-candidato de informações de movimento que corresponde a cada uma das duas amostras de pixel, e a unidade de informações de movimento inclui um vetor de movimento cuja direção de predição está para frente e/ou um vetor de movimento cuja direção de predição está para trás; e uma unidade de predição, configurada para prever um valor de pixel do bloco de imagem atual usando-se um modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i.
[25] Em referência ao segundo aspecto, em uma primeira implantação possível do segundo aspecto, a segunda unidade de determinação é especificamente configurada para determinar, a partir de N conjuntos mesclados de unidades-candidato de informações de movimento, em o conjunto mesclado de unidades de informações de movimento i inclui as duas unidades de informações de movimento, em que cada unidade de informações de movimento incluída em cada um dos N conjuntos mesclados de unidades- candidato de informações de movimento é selecionada a partir de pelo menos alguma das unidades de informações de movimento de restrição-compatível no conjunto de unidades-candidato de informações de movimento que corresponde a cada uma das duas amostras de pixel, N é um número inteiro positivo, os N conjuntos mesclados de unidades-candidato de informações de movimento são diferentes entre si, e cada um dos N conjuntos mesclados de unidades-candidato de informações de movimento inclui duas unidades de informações de movimento.
[26] Em referência à primeira implantação possível do segundo aspecto, em uma segunda implantação possível do segundo aspecto, os N conjuntos mesclados de unidades-candidato de informações de movimento cumprem pelo menos uma dentre uma primeira condição, uma segunda condição, uma terceira condição, uma quarta condição ou uma quinta condição, em que a primeira condição inclui um modo de movimento do bloco de imagem atual indicado por uma unidade de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento ser um movimento não translacional. a segunda condição inclui as direções de predição correspondentes às duas unidades de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento serem as mesmas. a terceira condição inclui os índices de quadro de referência correspondentes às duas unidades de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento serem os mesmos. a quarta condição inclui um valor absoluto de uma diferença entre componentes horizontais de vetores de movimento de duas unidades de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento ser menor ou igual a um limiar de componente horizontal, ou que um valor absoluto de uma diferença entre um componente horizontal de um vetor de movimento de uma unidade de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento e um componente horizontal de um vetor de movimento de uma amostra de pixel Z ser menor ou igual a um limiar de componente horizontal, em que a amostra de pixel Z no bloco de imagem atual é diferente de qualquer uma das duas amostras de pixel. a quarta condição inclui um valor absoluto de uma diferença entre componentes verticais de vetores de movimento de duas unidades de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento ser menor ou igual a um limiar de componente vertical, ou que um valor absoluto de uma diferença entre um componente horizontal de um vetor de movimento de uma unidade de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento e um componente horizontal de um vetor de movimento de uma amostra de pixel Z ser menor ou igual a um limiar de componente horizontal, em que a amostra de pixel Z no bloco de imagem atual é diferente de qualquer uma das duas amostras de pixel.
[27] Com referência a qualquer um dentre o segundo aspecto ou a primeira à segunda implantações possíveis do segundo aspecto, em uma terceira implantação possível do segundo aspecto, as duas amostras de pixel incluem duas amostras de pixel em uma amostra de pixel esquerda superior, uma amostra de pixel direita superior, uma amostra de pixel esquerda inferior, e uma amostra de pixel central a1 do bloco de imagem atual, em que a amostra de pixel esquerda superior do bloco de imagem atual é um vértice esquerdo superior do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e inclui um vértice esquerdo superior do bloco de imagem atual; a amostra de pixel esquerda inferior do bloco de imagem atual é um vértice esquerdo inferior do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e inclui um vértice esquerdo inferior do bloco de imagem atual; a amostra de pixel direita superior do bloco de imagem atual é um vértice direito superior do bloco de imagem atual, ou um bloco de pixel na bloco de imagem atual e inclui um vértice direito superior do bloco de imagem atual; e a amostra de pixel central a1 do bloco de imagem atual é um pixel central do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e inclui um pixel central do bloco de imagem atual.
[28] Em referência à terceira implantação possível do segundo aspecto, em uma quarta implantação possível do segundo aspecto, um conjunto de unidades-candidato de informações de movimento que corresponde à amostra de pixel esquerda superior do bloco de imagem atual inclui unidades de informações de movimento de x1 amostras de pixel, em que as x1 amostras de pixel incluem pelo menos uma amostra de pixel espacialmente adjacente à amostra de pixel esquerda superior do bloco de imagem atual e/ou pelo menos uma amostra de pixel temporariamente adjacente à amostra de pixel esquerda superior do bloco de imagem atual, e x1 é um número inteiro positivo, em que as x1 amostras de pixel incluem pelo menos uma dentre uma amostra de pixel que tem uma mesma localização que a amostra de pixel esquerda superior do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma borda esquerda do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma esquerda superior do bloco de imagem atual, ou uma amostra de pixel espacialmente adjacente a uma borda superior do bloco de imagem atual, em um quadro de vídeo temporalmente adjacente a um quadro de vídeo ao qual o bloco de imagem atual pertence.
[29] Em referência à terceira ou à quarta implantação possível do segundo aspecto, em uma quinta implantação possível do segundo aspecto, um conjunto de unidades-candidato de informações de movimento que corresponde à amostra de pixel direita superior do bloco de imagem atual inclui unidades de informações de movimento de x2 amostras de pixel, em que as x2 amostras de pixel incluem pelo menos uma amostra de pixel espacialmente adjacente à amostra de pixel direita superior do bloco de imagem atual e/ou pelo menos uma amostra de pixel temporariamente adjacente à amostra de pixel direita superior do bloco de imagem atual, e x2 é um número inteiro positivo, em que as x2 amostras de pixel incluem pelo menos uma dentre uma amostra de pixel que tem uma mesma localização que a amostra de pixel direita superior do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma borda direita do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma direita superior do bloco de imagem atual, ou uma amostra de pixel espacialmente adjacente à borda superior do bloco de imagem atual, em um quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence.
[30] Com referência a qualquer uma dentre a terceira à quinta implantações possíveis do segundo aspecto, em uma sexta implantação possível do segundo aspecto, um conjunto de unidades-candidato de informações de movimento que corresponde à amostra de pixel esquerda inferior do bloco de imagem atual inclui unidades de informações de movimento de x3 amostras de pixel, em que as x3 amostras de pixel incluem pelo menos uma amostra de pixel espacialmente adjacente à amostra de pixel esquerda inferior do bloco de imagem atual e/ou pelo menos uma amostra de pixel temporariamente adjacente à amostra de pixel esquerda inferior do bloco de imagem atual, e x3 é um número inteiro positivo, em que as x3 amostras de pixel incluem pelo menos uma dentre uma amostra de pixel que tem uma mesma localização que a amostra de pixel esquerda inferior do bloco de imagem atual, uma amostra de pixel espacialmente adjacente à borda esquerda do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma esquerda inferior do bloco de imagem atual, ou uma amostra de pixel espacialmente adjacente a uma borda inferior do bloco de imagem atual, em um quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence.
[31] Com referência a qualquer uma dentre a terceira à sexta implantações possíveis do segundo aspecto, em uma sétima implantação possível do segundo aspecto, um conjunto de unidades-candidato de informações de movimento que corresponde à amostra de pixel central a1 do bloco de imagem atual inclui unidades de informações de movimento de x5 amostras de pixel, e uma das x5 amostras de pixel é uma amostra de pixel a2, em que uma localização da amostra de pixel central a1 no quadro de vídeo ao qual o bloco de imagem atual pertence é a mesma que uma localização da amostra de pixel a2 em um quadro de vídeo adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence, e x5 é um número inteiro positivo.
[32] Com referência a qualquer um dentre o segundo aspecto ou a primeira à sétima implantações possíveis do segundo aspecto, em uma oitava implantação possível do segundo aspecto, a unidade de previsão é especificamente configurada para: quando um índice de quadro de referência que corresponde a um vetor de movimento cuja direção de predição é uma primeira direção de predição no conjunto mesclado de unidades de informações de movimento i é diferente de um índice de quadro de referência do bloco de imagem atual, realizar processamento de escalonamento no conjunto mesclado de unidades de informações de movimento i, de modo que o vetor de movimento cuja direção de predição é a primeira direção de predição no conjunto mesclado de unidades de informações de movimento i seja reduzido para um quadro de referência do bloco de imagem atual, e prever o valor de pixel do bloco de imagem atual usando-se o modelo de movimento afim e um conjunto mesclado de unidades de informações de movimento escalonado i, em que a primeira direção de predição está para frente ou para trás; ou a unidade de predição é especificamente configurada para: quando um índice de quadro de referência que corresponde a um vetor de movimento cuja direção de predição está para frente no conjunto mesclado de unidades de informações de movimento i é diferente de um índice de quadro de referência para frente do bloco de imagem atual, e um índice de quadro de referência que corresponde a um vetor de movimento cuja direção de predição está para trás no conjunto mesclado de unidades de informações de movimento i é diferente de um índice de quadro de referência para trás do bloco de imagem atual, realizar processamento de escalonamento no conjunto mesclado de unidades de informações de movimento i, de modo que o vetor de movimento cuja direção de predição que está para frente no conjunto mesclado de unidades de informações de movimento i seja reduzido para um quadro de referência para frente do bloco de imagem atual e que o vetor de movimento cuja direção de predição está para trás no conjunto mesclado de unidades de informações de movimento i seja reduzido para um quadro de referência para trás do bloco de imagem atual, e prever o valor de pixel do bloco de imagem atual usando-se o modelo de movimento afim e um conjunto mesclado de unidades de informações de movimento escalonado i.
[33] Com referência a qualquer um dentre o segundo aspecto ou a primeira à oitava implantações possíveis do segundo aspecto, em uma nona implantação possível do segundo aspecto, a unidade de predição é especificamente configurada para: obter um vetor de movimento de cada pixel no bloco de imagem atual através de computação usando-se o modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i, e determinar um valor de pixel predito de cada pixel no bloco de imagem atual usando-se o vetor de movimento que é de cada pixel no bloco de imagem atual e é obtido através de computação; ou a unidade de predição é especificamente configurada para: obter um vetor de movimento de cada bloco de pixel no bloco de imagem atual através de computação usando-se o modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i, e determinar um valor de pixel predito de cada pixel em cada bloco de pixel no bloco de imagem atual usando- se o vetor de movimento que é de cada bloco de pixel no bloco de imagem atual e é obtido através de computação.
[34] Com referência a qualquer um dentre o segundo aspecto ou a primeira à nona implantações possíveis do segundo aspecto, em uma décima implantação possível do segundo aspecto, a unidade de predição é especificamente configurada para obter um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual usando-se uma razão de uma diferença entre componentes horizontais de vetores de movimento das duas amostras de pixel para um comprimento ou largura do bloco de imagem atual e uma razão de uma diferença entre componentes verticais dos vetores de movimento das duas amostras de pixel para o comprimento ou largura do bloco de imagem atual, em que os vetores de movimento das duas amostras de pixel são obtidos com base em vetores de movimento das duas unidades de informações de movimento no conjunto mesclado de unidades de informações de movimento i.
[35] Em referência à décima implantação possível do segundo aspecto, em uma décima primeira implantação possível do segundo aspecto, um coeficiente de coordenada horizontal dos componentes horizontais dos vetores de movimento das duas amostras de pixel é igual a um coeficiente de coordenada vertical dos componentes verticais dos vetores de movimento, e um coeficiente de coordenada vertical dos componentes horizontais dos vetores de movimento das duas amostras de pixel é oposto a um coeficiente de coordenada horizontal dos componentes verticais dos vetores de movimento.
[36] Com referência a qualquer um dentre o segundo aspecto ou a primeira à décima primeira implantações possíveis do segundo aspecto, em uma décima segunda implantação possível do segundo aspecto, o modelo de movimento afim é um modelo de movimento afim na forma a seguir: , em que os vetores de movimento das duas amostras de pixel são e, respectivamente, vx é um componente horizontal de um vetor de movimento de uma amostra de pixel cujas coordenadas são (x, y) no bloco de imagem atual, vy é um componente vertical do vetor de movimento da amostra de pixel cujas coordenadas são (x, y) no bloco de imagem atual, e w é o comprimento ou largura do bloco de imagem atual.
[37] Com referência a qualquer um dentre o segundo aspecto ou a primeira à décima segunda implantações possíveis do segundo aspecto, em uma décima terceira implantação possível do segundo aspecto, o aparelho de predição de imagem é aplicado a um aparelho de conversão em código de vídeo, ou o aparelho de predição de imagem é aplicado a um aparelho de decodificação de vídeo.
[38] Em referência à décima terceira implantação possível do segundo aspecto, em uma décima quarta implantação possível do segundo aspecto, quando o aparelho de predição de imagem é aplicado ao aparelho de decodificação de vídeo, a segunda unidade de determinação é especificamente configurada para determinar, a partir dos N conjuntos mesclados de unidades- candidato de informações de movimento, com base em um identificador que é do conjunto mesclado de unidades de informações de movimento i e é obtido a partir de um fluxo de bits de vídeo, em que o conjunto mesclado de unidades de informações de movimento i inclui as duas unidades de informações de movimento.
[39] Em referência à décima terceira implantação possível do segundo aspecto ou a décima quarta implantação possível do segundo aspecto, em uma décima quinta implantação possível do segundo aspecto, quando o aparelho de predição de imagem é aplicado ao aparelho de decodificação de vídeo, o aparelho inclui adicionalmente uma unidade de decodificação configurada para: decodificar o fluxo de bits de vídeo para obter diferenças de vetor de movimento das duas amostras de pixel, obter os preditores de vetor de movimento das duas amostras de pixel usando-se vetores de movimento de amostras de pixel espacialmente adjacentes ou temporariamente adjacentes às duas amostras de pixel, e obter os vetores de movimento das duas amostras de pixel separadamente com base nos preditores de vetor de movimento das duas amostras de pixel e as diferenças de vetor de movimento das duas amostras de pixel.
[40] Em referência à décima terceira implantação possível do segundo aspecto, em uma décima sexta implantação possível do segundo aspecto, quando o aparelho de predição de imagem é aplicado ao aparelho de conversão em código de vídeo, a unidade de predição é adicionalmente configurada para: obter os preditores de vetor de movimento das duas amostras de pixel usando-se vetores de movimento de amostras de pixel espacialmente adjacente ou temporariamente adjacente às duas amostras de pixel, obter diferenças de vetor de movimento das duas amostras de pixel de acordo com os preditores de vetor de movimento das duas amostras de pixel, e gravar as diferenças de vetor de movimento das duas amostras de pixel em um fluxo de bits de vídeo.
[41] Em referência à décima terceira implantação possível do segundo aspecto ou à décima sexta implantação possível do segundo aspecto, em uma décima sétima implantação possível do segundo aspecto, quando o aparelho de predição de imagem é aplicado ao aparelho de conversão em código de vídeo, o aparelho inclui adicionalmente uma unidade de codificação, configurada para gravar um identificador do conjunto mesclado de unidades de informações de movimento i no fluxo de bits de vídeo.
[42] De acordo com um terceiro aspecto, uma modalidade da presente invenção fornece um aparelho de predição de imagem, que inclui: um processador e uma memória, em que o processador invoca um código ou uma instrução armazenado na memória, de modo que o processador seja configurado para: determinar duas amostras de pixel em um bloco de imagem atual, e determinar um conjunto de unidades-candidato de informações de movimento que corresponde a cada uma das duas amostras de pixel, em que o conjunto de unidades-candidato de informações de movimento que corresponde a cada amostra de pixel inclui pelo menos uma unidade-candidato de informações de movimento; determinar um conjunto mesclado de unidades de informações de movimento i que inclui duas unidades de informações de movimento, em que cada unidade de informações de movimento no conjunto mesclado de unidades de informações de movimento i é selecionada a partir de pelo menos algumas das unidades de informações de movimento no conjunto de unidades-candidato de informações de movimento que corresponde a cada uma das duas amostras de pixel, e a unidade de informações de movimento inclui um vetor de movimento cuja direção de predição está para frente e/ou um vetor de movimento cuja direção de predição está para trás; e prever um valor de pixel do bloco de imagem atual usando-se um modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i.
[43] EM referência ao terceiro aspecto, em uma primeira possível implantação do terceiro aspecto, em um aspecto da determinação do conjunto mesclado de unidades de informações de movimento i que inclui as duas unidades de informações de movimento, o processador é configurado para determinar, a partir de N conjuntos mesclados de unidades-candidato de informações de movimento, o conjunto mesclado de unidades de informações de movimento i que inclui as duas unidades de informações de movimento, em que cada unidade de informações de movimento incluída em cada um dos N conjuntos mesclados de unidades-candidato de informações de movimento é selecionada a partir de pelo menos algumas das unidades de informações de movimento de restrição-compatível no conjunto de unidades-candidato de informações de movimento correspondente a cada uma das duas amostras de pixel, N é um número inteiro positivo, os N conjuntos mesclados de unidades- candidato de informações de movimento são diferentes entre si e cada um dos N conjuntos mesclados de unidades-candidato de informações de movimento inclui duas unidades de informações de movimento.
[44] Em referência à primeira implantação possível do terceiro aspecto, em uma segunda implantação possível do terceiro aspecto, os N conjuntos mesclados de unidades-candidato de informações de movimento cumprem pelo menos uma dentre uma primeira condição, uma segunda condição, uma terceira condição, uma quarta condição ou uma quinta condição, em que a primeira condição inclui um modo de movimento do bloco de imagem atual indicado por uma unidade de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento ser um movimento não translacional. a segunda condição inclui as direções de predição correspondentes às duas unidades de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento serem as mesmas. a terceira condição inclui os índices de quadro de referência correspondentes às duas unidades de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento serem os mesmos. a quarta condição inclui um valor absoluto de uma diferença entre componentes horizontais de vetores de movimento de duas unidades de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento ser menor ou igual a um limiar de componente horizontal, ou que um valor absoluto de uma diferença entre um componente horizontal de um vetor de movimento de uma unidade de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento e um componente horizontal de um vetor de movimento de uma amostra de pixel Z ser menor ou igual a um limiar de componente horizontal, em que a amostra de pixel Z no bloco de imagem atual é diferente de qualquer uma das duas amostras de pixel. a quinta condição inclui um valor absoluto de uma diferença entre componentes verticais de vetores de movimento de duas unidades de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento ser menor ou igual a um limiar de componente vertical, ou que um valor absoluto de uma diferença entre um componente vertical de um vetor de movimento de qualquer unidade de informações de movimento em um dos N conjuntos mesclados de unidades- candidato de informações de movimento e um componente vertical de um vetor de movimento de uma amostra de pixel Z ser menor ou igual a um limiar de componente horizontal, em que a amostra de pixel Z no bloco de imagem atual é diferente de qualquer uma das duas amostras de pixel.
[45] Com referência a qualquer um dentre o terceiro aspecto ou a primeira à segunda implantações possíveis do terceiro aspecto, em uma terceira implantação possível do terceiro aspecto, as duas amostras de pixel incluem duas amostras de pixel em uma amostra de pixel esquerda superior, uma amostra de pixel direita superior, uma amostra de pixel esquerda inferior, e uma amostra de pixel central a1 do bloco de imagem atual, em que a amostra de pixel esquerda superior do bloco de imagem atual é um vértice esquerdo superior do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e inclui um vértice esquerdo superior do bloco de imagem atual; a amostra de pixel esquerda inferior do bloco de imagem atual é um vértice esquerdo inferior do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e inclui um vértice esquerdo inferior do bloco de imagem atual; a amostra de pixel direita superior do bloco de imagem atual é um vértice direito superior do bloco de imagem atual, ou um bloco de pixel na bloco de imagem atual e inclui um vértice direito superior do bloco de imagem atual; e a amostra de pixel central a1 do bloco de imagem atual é um pixel central do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e inclui um pixel central do bloco de imagem atual.
[46] Em referência à terceira implantação possível do terceiro aspecto, em uma quarta implantação possível do terceiro aspecto, um conjunto de unidades-candidato de informações de movimento que corresponde à amostra de pixel esquerda superior do bloco de imagem atual inclui unidades de informações de movimento de x1 amostras de pixel, em que as x1 amostras de pixel incluem pelo menos uma amostra de pixel espacialmente adjacente à amostra de pixel esquerda superior do bloco de imagem atual e/ou pelo menos uma amostra de pixel temporariamente adjacente à amostra de pixel esquerda superior do bloco de imagem atual, e x1 é um número inteiro positivo, em que as x1 amostras de pixel incluem pelo menos uma dentre uma amostra de pixel que tem uma mesma localização que a amostra de pixel esquerda superior do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma borda esquerda do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma esquerda superior do bloco de imagem atual, ou uma amostra de pixel espacialmente adjacente a uma borda superior do bloco de imagem atual, em um quadro de vídeo temporalmente adjacente a um quadro de vídeo ao qual o bloco de imagem atual pertence.
[47] Em referência à terceira ou à quarta implantação possível do terceiro aspecto, em uma quinta implantação possível do terceiro aspecto, um conjunto de unidades-candidato de informações de movimento que corresponde à amostra de pixel direita superior do bloco de imagem atual inclui unidades de informações de movimento de x2 amostras de pixel, em que as x2 amostras de pixel incluem pelo menos uma amostra de pixel espacialmente adjacente à amostra de pixel direita superior do bloco de imagem atual e/ou pelo menos uma amostra de pixel temporariamente adjacente à amostra de pixel direita superior do bloco de imagem atual, e x2 é um número inteiro positivo, em que as x2 amostras de pixel incluem pelo menos uma dentre uma amostra de pixel que tem uma mesma localização que a amostra de pixel direita superior do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma borda direita do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma direita superior do bloco de imagem atual, ou uma amostra de pixel espacialmente adjacente à borda superior do bloco de imagem atual, em um quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence.
[48] Com referência a qualquer uma dentre a terceira à quinta implantações possíveis do terceiro aspecto, em uma sexta implantação possível do terceiro aspecto, um conjunto de unidades-candidato de informações de movimento que corresponde à amostra de pixel esquerda inferior do bloco de imagem atual inclui unidades de informações de movimento de x3 amostras de pixel, em que as x3 amostras de pixel incluem pelo menos uma amostra de pixel espacialmente adjacente à amostra de pixel esquerda inferior do bloco de imagem atual e/ou pelo menos uma amostra de pixel temporariamente adjacente à amostra de pixel esquerda inferior do bloco de imagem atual, e x3 é um número inteiro positivo, em que as x3 amostras de pixel incluem pelo menos uma dentre uma amostra de pixel que tem uma mesma localização que a amostra de pixel esquerda inferior do bloco de imagem atual, uma amostra de pixel espacialmente adjacente à borda esquerda do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma esquerda inferior do bloco de imagem atual, ou uma amostra de pixel espacialmente adjacente a uma borda inferior do bloco de imagem atual, em um quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence.
[49] Com referência a qualquer uma dentre a terceira à sexta implantações possíveis do terceiro aspecto, em uma sétima implantação possível do terceiro aspecto, um conjunto de unidades-candidato de informações de movimento que corresponde à amostra de pixel central a1 do bloco de imagem atual inclui unidades de informações de movimento de x5 amostras de pixel, e uma das x5 amostras de pixel é uma amostra de pixel a2, em que uma localização da amostra de pixel central a1 no quadro de vídeo ao qual o bloco de imagem atual pertence é a mesma que uma localização da amostra de pixel a2 em um quadro de vídeo adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence, e x5 é um número inteiro positivo.
[50] Com referência a qualquer um dentre o terceiro aspecto ou a primeira à sétima implantações possíveis do terceiro aspecto, em uma oitava implantação possível do terceiro aspecto, em um aspecto de prever o valor de pixel do bloco de imagem atual usando-se o modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i, o processador é configurado para: quando um índice de quadro de referência que corresponde a um vetor de movimento cuja direção de predição é uma primeira direção de predição no conjunto mesclado de unidades de informações de movimento i é diferente de um índice de quadro de referência do bloco de imagem atual, realizar processamento de escalonamento no conjunto mesclado de unidades de informações de movimento i, de modo que o vetor de movimento cuja direção de predição é a primeira direção de predição no conjunto mesclado de unidades de informações de movimento i seja reduzido para um quadro de referência do bloco de imagem atual, e prever o valor de pixel do bloco de imagem atual usando-se o modelo de movimento afim e um conjunto mesclado de unidades de informações de movimento escalonado i, em que a primeira direção de predição está para frente ou para trás; ou em um aspecto de prever o valor de pixel do bloco de imagem atual usando-se o modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i, o processador é configurado para: quando um índice de quadro de referência que corresponde a um vetor de movimento cuja direção de predição está para frente no conjunto mesclado de unidades de informações de movimento i é diferente de um índice de quadro de referência para frente do bloco de imagem atual, e um índice de quadro de referência que corresponde a um vetor de movimento cuja direção de predição está para trás no conjunto mesclado de unidades de informações de movimento i é diferente de um índice de quadro de referência para trás do bloco de imagem atual, realizar processamento de escalonamento no conjunto mesclado de unidades de informações de movimento i, de modo que o vetor de movimento cuja direção de predição está para frente no conjunto mesclado de unidades de informações de movimento i seja reduzido para um quadro de referência para frente do bloco de imagem atual e que o vetor de movimento cuja direção de predição está para trás no conjunto mesclado de unidades de informações de movimento i seja reduzido para um quadro de referência para trás do bloco de imagem atual, e prever o valor de pixel do bloco de imagem atual usando-se o modelo de movimento afim e um conjunto mesclado de unidades de informações de movimento escalonado i.
[51] Com referência a qualquer um dentre o terceiro aspecto ou a primeira à oitava implantações possíveis do terceiro aspecto, em uma nona implantação possível do terceiro aspecto, no aspecto de prever o valor de pixel do bloco de imagem atual usando-se o modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i, o processador é configurado para: obter um vetor de movimento de cada pixel no bloco de imagem atual através de computação usando-se o modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i, e determinar um valor de pixel predito de cada pixel no bloco de imagem atual usando-se o vetor de movimento que é de cada pixel no bloco de imagem atual e é obtido através de computação; ou no aspecto de prever o valor de pixel do bloco de imagem atual usando-se o modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i, o processador é configurado para: obter um vetor de movimento de cada bloco de pixel no bloco de imagem atual através de computação usando-se o modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i, e determinar um valor de pixel predito de cada pixel em cada bloco de pixel no bloco de imagem atual usando-se o vetor de movimento que é de cada bloco de pixel no bloco de imagem atual e é obtido através de computação.
[52] Com referência a qualquer um dentre o terceiro aspecto ou a primeira à nona implantações possíveis do terceiro aspecto, em uma décima implantação possível do terceiro aspecto, no aspecto de prever o valor de pixel do bloco de imagem atual usando-se o modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i, o processador é configurado para obter um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual usando- se uma razão de uma diferença entre componentes horizontais de vetores de movimento das duas amostras de pixel para um comprimento ou largura do bloco de imagem atual e uma razão de uma diferença entre componentes verticais dos vetores de movimento das duas amostras de pixel para o comprimento ou largura do bloco de imagem atual, em que os vetores de movimento das duas amostras de pixel são obtidos com base em vetores de movimento das duas unidades de informações de movimento no conjunto mesclado de unidades de informações de movimento i.
[53] Em referência à décima implantação possível do terceiro aspecto, em uma décima primeira implantação possível do terceiro aspecto, um coeficiente de coordenada horizontal dos componentes horizontais dos vetores de movimento das duas amostras de pixel é igual a um coeficiente de coordenada vertical dos componentes verticais dos vetores de movimento, e um coeficiente de coordenada vertical dos componentes horizontais dos vetores de movimento das duas amostras de pixel é oposto a um coeficiente de coordenada horizontal dos componentes verticais dos vetores de movimento.
[54] Com referência a qualquer um dentre o terceiro aspecto ou a primeira à décima primeira implantações possíveis do terceiro aspecto, em uma décima segunda implantação possível do terceiro aspecto, o modelo de movimento afim é um modelo de movimento afim na forma a seguir:, em que os vetores de movimento das duas amostras de pixel são e, respectivamente, vx é um componente horizontal de um vetor de movimento de uma amostra de pixel cujas coordenadas são (x, y) no bloco de imagem atual, vy é um componente vertical do vetor de movimento da amostra de pixel cujas coordenadas são (x, y) no bloco de imagem atual, e w é o comprimento ou largura do bloco de imagem atual.
[55] Com referência a qualquer um dentre o terceiro aspecto ou a primeira à décima segunda implantações possíveis do terceiro aspecto, em uma décima terceira implantação possível do terceiro aspecto, o aparelho de predição de imagem é aplicado a um aparelho de conversão em código de vídeo, ou o aparelho de predição de imagem é aplicado a um aparelho de decodificação de vídeo.
[56] Em referência à décima terceira implantação possível do terceiro aspecto, em uma décima quarta implantação possível do terceiro aspecto, quando o aparelho de predição de imagem é aplicado ao aparelho de decodificação de vídeo, no aspecto de determinar o conjunto mesclado de unidades de informações de movimento i que inclui as duas unidades de informações de movimento, o processador é configurado para determinar, a partir dos N conjuntos mesclados de unidades-candidato de informações de movimento, com base em um identificador que é do conjunto mesclado de unidades de informações de movimento i e é obtido a partir de um fluxo de bits de vídeo, o conjunto mesclado de unidades de informações de movimento i que inclui as duas unidades de informações de movimento.
[57] Em referência à décima terceira implantação possível do terceiro aspecto ou à décima quarta implantação possível do terceiro aspecto, em uma décima quinta implantação possível do terceiro aspecto, quando o aparelho de predição de imagem é aplicado ao aparelho de decodificação de vídeo, o processador é adicionalmente configurado para: decodificar o fluxo de bits de vídeo para obter as diferenças de vetor de movimento das duas amostras de pixel, obter os preditores de vetor de movimento das duas amostras de pixel usando-se vetores de movimento de amostras de pixel espacialmente adjacente ou temporariamente adjacente às duas amostras de pixel, e obter os vetores de movimento das duas amostras de pixel separadamente com base nos preditores de vetor de movimento das duas amostras de pixel e as diferenças de vetor de movimento das duas amostras de pixel.
[58] Em referência à décima terceira implantação possível do terceiro aspecto, em uma décima sexta implantação possível do terceiro aspecto, quando o aparelho de predição de imagem é aplicado ao aparelho de conversão em código de vídeo, o processador é adicionalmente configurado para: obter preditores de vetor de movimento das duas amostras de pixel usando-se vetores de movimento de amostras de pixel espacialmente adjacente ou temporariamente adjacente às duas amostras de pixel, obter diferenças de vetor de movimento das duas amostras de pixel de acordo com os preditores de vetor de movimento das duas amostras de pixel, e gravar as diferenças de vetor de movimento das duas amostras de pixel em um fluxo de bits de vídeo.
[59] Em referência à décima terceira implantação possível do terceiro aspecto ou à décima sexta implantação possível do terceiro aspecto, em uma décima sétima implantação possível do terceiro aspecto, quando o aparelho de predição de imagem é aplicado ao aparelho de conversão em código de vídeo, o processador é adicionalmente configurado para gravar um identificador do conjunto mesclado de unidades de informações de movimento i no fluxo de bits de vídeo.
[60] De acordo com um quarto aspecto, uma modalidade da presente invenção fornece um método de processamento de imagem, que inclui: obter uma tupla 2 de vetor de movimento de um bloco de imagem atual, em que a tupla 2 de vetor de movimento inclui vetores de movimento de duas amostras de pixel em um quadro de vídeo ao qual o bloco de imagem atual pertence; e obter um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se um modelo de movimento afim e a tupla 2 de vetor de movimento; em que o modelo de movimento afim está na forma a seguir: (x, y) são coordenadas da qualquer amostra de pixel, vx é um componente horizontal do vetor de movimento da qualquer amostra de pixel, e vy é um componente vertical do vetor de movimento da qualquer amostra de pixel; e na equação vx=ax+by, a é um coeficiente de coordenada horizontal do componente horizontal do modelo de movimento afim e b é um coeficiente de coordenada vertical do componente horizontal do modelo de movimento afim; e na equação vy=-bx+ay, a é um coeficiente de coordenada vertical do componente vertical do modelo de movimento afim, e -b é um coeficiente de coordenada horizontal do componente vertical do modelo de movimento afim.
[61] Em referência ao quarto aspecto, em uma primeira implantação possível do quarto aspecto, o modelo de movimento afim inclui adicionalmente um coeficiente de deslocamento horizontal c do componente horizontal do modelo de movimento afim e um coeficiente de deslocamento vertical d do componente vertical do modelo de movimento afim e, portanto, o modelo de movimento afim está na seguinte forma:
[62] Em referência ao quarto aspecto ou à primeira implantação possível do quarto aspecto, em uma segunda implantação possível do quarto aspecto, a obtenção de um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se um modelo de movimento afim e a tupla 2 de vetor de movimento inclui: obter valores dos coeficientes do modelo de movimento afim usando-se os vetores de movimento das duas amostras de pixel e localizações das duas amostras de pixel; e obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual usando-se o modelo de movimento afim e os valores dos coeficientes do modelo de movimento afim.
[63] Em referência ao quarto aspecto, ou à primeira ou à segunda implantação possível do quarto aspecto, em uma terceira implantação possível do quarto aspecto, obter os valores dos coeficientes do modelo de movimento afim usando-se uma razão de uma diferença entre componentes horizontais dos vetores de movimento das amostras de dois pixels para uma distância entre as amostras de dois pixels e uma razão de uma diferença entre componentes verticais dos vetores de movimento das amostras de dois pixels para a distância entre as amostras de dois pixels; e obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual usando-se o modelo de movimento afim e os valores dos coeficientes do modelo de movimento afim.
[64] Em referência ao quarto aspecto ou à primeira ou à segunda implantação possível do quarto aspecto, em uma quarta implantação possível do quarto aspecto, a obtenção de um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se um modelo de movimento afim e a tupla 2 de vetor de movimento inclui: obter os valores dos coeficientes do modelo de movimento afim usando-se uma razão de uma soma ponderada de componentes dos vetores de movimento das duas amostras de pixel para uma distância entre as duas amostras de pixel ou para um quadrado de uma distância entre as duas amostras de pixel; e obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual usando-se o modelo de movimento afim e os valores dos coeficientes do modelo de movimento afim.
[65] Com referência a qualquer um dentre o quarto aspecto, ou a primeira à terceira implantações possíveis do quarto aspecto, em uma quinta implantação possível do quarto aspecto, quando as amostras de dois pixels incluem uma amostra de pixel esquerda superior do bloco de imagem atual e uma amostra de pixel em uma região direita em um lado direito da amostra de pixel esquerda superior, o modelo de movimento afim é especificamente:, em que são um vetor de movimento da amostra de pixel esquerda superior, são um vetor de movimento da amostra de pixel na região direita, e w é uma distância entre as duas amostras de pixel.
[66] Com referência a qualquer um dentre o quarto aspecto, ou a primeira à terceira implantações possíveis do quarto aspecto, em uma sexta implantação possível do quarto aspecto, quando as amostras de dois pixels incluem uma amostra de pixel esquerda superior do bloco de imagem atual e uma amostra de pixel em uma região inferior abaixo da amostra de pixel esquerda superior, o modelo de movimento afim é especificamente: , em que são um vetor de movimento da amostra de pixel esquerda superior, são um vetor de movimento da amostra de pixel na região inferior, e h é uma distância entre as duas amostras de pixel.
[67] Com referência a qualquer um dentre o quarto aspecto, ou à primeira, à segunda ou à quarta implantação possível do quarto aspecto, em uma sétima implantação possível do quarto aspecto, quando as amostras de dois pixels incluem uma amostra de pixel esquerda superior do bloco de imagem atual e uma amostra de pixel em uma região direita inferior em um lado direito inferior da amostra de pixel esquerda superior, o modelo de movimento afim é especificamente: em que são um vetor de movimento da amostra de pixel esquerda superior, , são um vetor de movimento da amostra de pixel na região direita inferior, h1 é uma distância em uma direção vertical entre as amostras de dois pixels, w1 é uma distância em uma direção horizontal entre as amostras de dois pixels e W12 + h12 é um quadrado da distância entre as amostras de dois pixels.
[68] Com referência a qualquer um dentre o quarto aspecto, ou à primeira à sétima implantações possíveis do quarto aspecto, em uma oitava implantação possível do quarto aspecto, após a obtenção de um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se um modelo de movimento afim e a tupla 2 de vetor de movimento, o método inclui adicionalmente: que realiza conversão em código preditiva de compensação de movimento na qualquer amostra de pixel no bloco de imagem atual usando-se o vetor de movimento que é da qualquer amostra de pixel no bloco de imagem atual e é obtida através de computação.
[69] Com referência a qualquer um dentre o quarto aspecto, ou à primeira à sétima implantações possíveis do quarto aspecto, em uma nona implantação possível do quarto aspecto, após a determinação de um valor de pixel predito de um pixel da qualquer amostra de pixel no bloco de imagem atual, o método inclui adicionalmente: realizar decodificação de compensação de movimento na qualquer amostra de pixel usando-se o vetor de movimento que é da qualquer amostra de pixel no bloco de imagem atual e é obtido através de computação e obter um valor de reconstrução de pixel da qualquer amostra de pixel.
[70] De acordo com um quinto aspecto, uma modalidade da presente invenção fornece um aparelho de processamento de imagem que inclui: uma unidade de obtenção configurada para obter uma tupla 2 de vetor de movimento de um bloco de imagem atual, em que a tupla 2 de vetor de movimento inclui vetores de movimento de amostras de dois pixels em um quadro de vídeo ao qual o bloco de imagem atual pertence; e uma unidade de computação configurada para obter um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se um modelo de movimento afim e a tupla 2 de vetor de movimento obtida pela unidade de obtenção; em que o modelo de movimento afim está na forma a seguir: (x, y) são coordenadas da qualquer amostra de pixel, vx é um componente horizontal do vetor de movimento da qualquer amostra de pixel, e vy é um componente vertical do vetor de movimento da qualquer amostra de pixel; e na equação vx=ax+by, a é um coeficiente de coordenada horizontal do componente horizontal do modelo de movimento afim e b é um coeficiente de coordenada vertical do componente horizontal do modelo de movimento afim; e na equação vy=-bx+ay, a é um coeficiente de coordenada vertical do componente vertical do modelo de movimento afim, e -b é um coeficiente de coordenada horizontal do componente vertical do modelo de movimento afim.
[71] Com referência ao quinto aspecto, em uma primeira implantação possível do quinto aspecto, o modelo de movimento afim inclui adicionalmente um coeficiente de deslocamento horizontal c do componente horizontal do modelo de movimento afim e um coeficiente de deslocamento vertical d do componente vertical do modelo de movimento afim e, portanto, o modelo de movimento afim está na seguinte forma:
[72] Com referência ao quinto aspecto ou à primeira implantação possível do quinto aspecto, em uma segunda implantação possível do quinto aspecto, a unidade de computação é especificamente configurada para: obter valores dos coeficientes do modelo de movimento afim usando-se os vetores de movimento das duas amostras de pixel e localizações das duas amostras de pixel; e obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual usando-se o modelo de movimento afim e os valores dos coeficientes do modelo de movimento afim.
[73] Com referência ao quinto aspecto ou à primeira ou à segunda implantação possível do quinto aspecto, em uma terceira implantação possível do quinto aspecto, a unidade de computação é especificamente configurada para: obter os valores dos coeficientes do modelo de movimento afim usando-se uma razão de uma diferença entre componentes horizontais dos vetores de movimento das duas amostras de pixel para uma distância entre as duas amostras de pixel e uma razão de uma diferença entre componentes verticais dos vetores de movimento das duas amostras de pixel para a distância entre as duas amostras de pixel; e obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual usando-se o modelo de movimento afim e os valores dos coeficientes do modelo de movimento afim.
[74] Com referência ao quinto aspecto ou à primeira ou à segunda implantação possível do quinto aspecto, em uma quarta implantação possível do quinto aspecto, a unidade de computação é especificamente configurada para: obter os valores dos coeficientes do modelo de movimento afim usando-se uma razão de uma soma ponderada de componentes dos vetores de movimento das duas amostras de pixel para uma distância entre as duas amostras de pixel ou para um quadrado de uma distância entre as duas amostras de pixel; e obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual usando-se o modelo de movimento afim e os valores dos coeficientes do modelo de movimento afim.
[75] Com referência a qualquer um dentre o quinto aspecto, ou a primeira à terceira implantações possíveis do quinto aspecto, em uma quinta implantação possível do quinto aspecto, quando as amostras de dois pixels incluem uma amostra de pixel esquerda superior do bloco de imagem atual e uma amostra de pixel em uma região direita em um lado direito da amostra de pixel esquerda superior, o modelo de movimento afim é especificamente: , em que são são um vetor de movimento da amostra de pixel esquerda superior, são um vetor de movimento da amostra de pixel na região direita, e w é uma distância entre as duas amostras de pixel.
[76] Com referência a qualquer um dentre o quinto aspecto, ou a primeira à terceira implantações possíveis do quinto aspecto, em uma sexta implantação possível do quinto aspecto, quando as amostras de dois pixels incluem uma amostra de pixel esquerda superior do bloco de imagem atual e uma amostra de pixel em uma região inferior abaixo da amostra de pixel esquerda superior, o modelo de movimento afim é especificamente:, em que são são um vetor de movimento da amostra de pixel esquerda superior, são um vetor de movimento da amostra de pixel na região inferior e h é uma distância entre as duas amostras de pixel.
[77] Com referência a qualquer um dentre o quinto aspecto, ou à primeira, à segunda ou à quarta implantação possível do quinto aspecto, em uma sétima implantação possível do quinto aspecto, quando as amostras de dois pixels incluem uma amostra de pixel esquerda superior do bloco de imagem atual e uma amostra de pixel em uma região direita inferior em um lado direito inferior da amostra de pixel esquerda superior, o modelo de movimento afim é especificamente: em que são um vetor de movimento da amostra de pixel esquerda superior, são um vetor de movimento da amostra de pixel na região direita inferior, h1 é uma distância em uma direção vertical entre as duas amostras de pixel, w1 é uma distância em uma direção horizontal entre as duas amostras de pixel, e w12 + h12 é um quadrado da distância entre as duas amostras de pixel.
[78] Com referência a qualquer um dentre o quinto aspecto, ou a primeira à sétima implantações possíveis do quinto aspecto, em uma oitava implantação possível do quinto aspecto, quando o aparelho de processamento de imagem é aplicado a um aparelho de conversão de vídeo em código, o aparelho inclui adicionalmente uma unidade de conversão em código configurada para realizar conversão em código preditiva de compensação de movimento na qualquer amostra de pixel no bloco de imagem atual usando-se o vetor de movimento que é da qualquer amostra de pixel no bloco de imagem atual e é obtido pela unidade de computação através de computação.
[79] Com referência a qualquer um dentre o quinto aspecto, ou à primeira à sétima implantações possíveis do quinto aspecto, em uma nona implantação possível do quinto aspecto, quando o aparelho de processamento de imagem é aplicado a um aparelho de conversão de vídeo em código, o aparelho inclui adicionalmente uma unidade de decodificação configurada para realizar decodificação de compensação de movimento na qualquer amostra de pixel usando-se o vetor de movimento que é da qualquer amostra de pixel no bloco de imagem atual e é obtido pela unidade de computação através de computação, e obter um valor de reconstrução de pixel da qualquer amostra de pixel.
[80] De acordo com um sexto aspecto, uma modalidade da presente invenção fornece um aparelho de processamento de imagem que inclui: um processador e uma memória, em que o processador invoca o código ou uma instrução armazenada na memória, de forma que o processador seja configurado para: obter uma tupla 2 de vetor de movimento de um bloco de imagem atual, em que a tupla 2 de vetor de movimento inclui vetores de movimento de amostras de dois pixels em um quadro de vídeo ao qual o bloco de imagem atual pertence; e obter um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se um modelo de movimento afim e a tupla 2 de vetor de movimento; em que o modelo de movimento afim está na forma a seguir: (x, y) são coordenadas da qualquer amostra de pixel, vx é um componente horizontal do vetor de movimento da qualquer amostra de pixel, e vy é um componente vertical do vetor de movimento da qualquer amostra de pixel; e na equação vx=ax+by, a é um coeficiente de coordenada horizontal do componente horizontal do modelo de movimento afim e b é um coeficiente de coordenada vertical do componente horizontal do modelo de movimento afim; e na equação vy=-bx+ay, a é um coeficiente de coordenada vertical do componente vertical do modelo de movimento afim, e -b é um coeficiente de coordenada horizontal do componente vertical do modelo de movimento afim.
[81] Com referência ao sexto aspecto, em uma primeira implantação possível do sexto aspecto, o modelo de movimento afim inclui adicionalmente um coeficiente de deslocamento horizontal c do componente horizontal do modelo de movimento afim e um coeficiente de deslocamento vertical d do componente vertical do modelo de movimento afim e, portanto, o modelo de movimento afim está na seguinte forma:
[82] Com referência ao sexto aspecto ou à primeira implantação possível do sexto aspecto, em uma segunda implantação possível do sexto aspecto, em um aspecto de obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual através de computação usando-se o modelo de movimento afim e a tupla 2 de vetor de movimento, o processador é configurado para: obter valores dos coeficientes do modelo de movimento afim usando-se os vetores de movimento das amostras de dois pixels e locais das amostras de dois pixels; e obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual usando-se o modelo de movimento afim e os valores dos coeficientes do modelo de movimento afim.
[83] Com referência ao sexto aspecto, ou à primeira ou à segunda implantação possível do sexto aspecto, em uma terceira implantação possível do sexto aspecto, no aspecto de obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual através de computação usando-se o modelo de movimento afim e a tupla 2 de vetor de movimento, o processador é configurado para: obter os valores dos coeficientes do modelo de movimento afim usando-se uma razão de uma diferença entre componentes horizontais dos vetores de movimento das amostras de dois pixels para uma distância entre as amostras de dois pixels e uma razão de uma diferença entre componentes verticais dos vetores de movimento das amostras de dois pixels para a distância entre as amostras de dois pixels; e obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual usando-se o modelo de movimento afim e os valores dos coeficientes do modelo de movimento afim.
[84] Com referência ao sexto aspecto, ou à primeira ou à segunda implantação possível do sexto aspecto, em uma quarta implantação possível do sexto aspecto, no aspecto de obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual através de computação usando-se o modelo de movimento afim e a tupla 2 de vetor de movimento, o processador é configurado para: obter os valores dos coeficientes do modelo de movimento afim usando-se uma razão de uma soma ponderada de componentes dos vetores de movimento das amostras de dois pixels para uma distância entre as amostras de dois pixels ou para um quadrado de uma distância entre as amostras de dois pixels; e obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual usando-se o modelo de movimento afim e os valores dos coeficientes do modelo de movimento afim.
[85] Com referência a qualquer um dentre o sexto aspecto, ou a primeira à terceira implantações possíveis do sexto aspecto, em uma quinta implantação possível do sexto aspecto, quando as amostras de dois pixels incluem uma amostra de pixel esquerda superior do bloco de imagem atual e uma amostra de pixel em uma região direita em um lado direito da amostra de pixel esquerda superior, o modelo de movimento afim é especificamente:, em que são um vetor de movimento da amostra de pixel esquerda são um vetor de movimento da amostra de pixel na região direita, e w é uma distância entre as duas amostras de pixel.
[86] Com referência a qualquer um dentre o sexto aspecto, ou a primeira à terceira implantações possíveis do sexto aspecto, em uma sexta implantação possível do sexto aspecto, quando as amostras de dois pixels incluem uma amostra de pixel esquerda superior do bloco de imagem atual e uma amostra de pixel em uma região inferior abaixo da amostra de pixel esquerda superior, o modelo de movimento afim é especificamente:, em que são um vetor de movimento da amostra de pixel esquerda superior, ’ são um vetor de movimento da amostra de pixel na região inferior, e h é uma distância entre as duas amostras de pixel.
[87] Com referência a qualquer um dentre o sexto aspecto, ou à primeira, à segunda ou à quarta implantação possível do sexto aspecto, em uma sétima implantação possível do sexto aspecto, quando as amostras de dois pixels incluem uma amostra de pixel esquerda superior do bloco de imagem atual e uma amostra de pixel em uma região direita inferior em um lado direito inferior da amostra de pixel esquerda superior, o modelo de movimento afim é especificamente: em que são um vetor de movimento da amostra de pixel esquerda superior, são um vetor de movimento da amostra de pixel na região direita inferior, h1 é uma distância em uma direção vertical entre as duas amostras de pixel, w1 é uma distância em uma direção horizontal entre as duas amostras de pixel, e w12 + h12 é um quadrado da distância entre as duas amostras de pixel.
[88] Com referência a qualquer um dentre o sexto aspecto, ou à primeira à sétima implantações possíveis do sexto aspecto, em uma oitava implantação possível do sexto aspecto, quando o aparelho de processamento de imagem é aplicado a um aparelho de conversão de vídeo em código, o processador é adicionalmente configurado para: após obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual através de computação usando-se o modelo de movimento afim e a tupla 2 de vetor de movimento, realizar conversão em código preditiva de compensação de movimento na qualquer amostra de pixel no bloco de imagem atual usando-se o vetor de movimento que é da qualquer amostra de pixel no bloco de imagem atual e é obtido através de computação.
[89] Com referência a qualquer um dentre o sexto aspecto, ou à primeira à sétima implantações possíveis do sexto aspecto, em uma nona implantação possível do sexto aspecto, o processador é adicionalmente configurado para: após determinar um valor de pixel predito de um pixel da qualquer amostra de pixel no bloco de imagem atual, realizar decodificação de compensação de movimento na qualquer amostra de pixel usando-se o vetor de movimento que é da qualquer amostra de pixel no bloco de imagem atual e é obtido através de computação e obter um valor de reconstrução de pixel da qualquer amostra de pixel.
[90] De acordo com um sétimo aspecto, uma modalidade da presente invenção fornece um método de processamento de imagem que inclui: obter coeficientes de um modelo de movimento afim e obter um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se os coeficientes do modelo de movimento afim e do modelo de movimento afim; e determinar um valor de pixel predito de um pixel da qualquer amostra de pixel usando-se o vetor de movimento que é da qualquer amostra de pixel e é obtido através de computação; em que o modelo de movimento afim está na forma a seguir: (x, y) são coordenadas da qualquer amostra de pixel, vx é um componente horizontal do vetor de movimento da qualquer amostra de pixel, e vy é um componente vertical do vetor de movimento da qualquer amostra de pixel; na equação vx=ax+by, a é um coeficiente de coordenada horizontal do componente horizontal do modelo de movimento afim e b é um coeficiente de coordenada vertical do componente horizontal do modelo de movimento afim; e na equação vy=-bx+ay, a é um coeficiente de coordenada vertical do componente vertical do modelo de movimento afim, -b é um coeficiente de coordenada horizontal do componente vertical do modelo de movimento afim e os coeficientes do modelo de movimento afim incluem a e b; e. os coeficientes do modelo de movimento afim incluem adicionalmente um coeficiente de deslocamento horizontal c do componente horizontal do modelo de movimento afim e um coeficiente de deslocamento vertical d do componente vertical do modelo de movimento afim e, portanto, o modelo de movimento afim está na seguinte forma:
[91] De acordo com um oitavo aspecto, uma modalidade da presente invenção fornece um aparelho de processamento de imagem que inclui: uma unidade de obtenção configurada para obter coeficientes de um modelo de movimento afim; uma unidade de computação configurada para obter um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se os coeficientes do modelo de movimento afim que são obtidos pela unidade de obtenção e pelo modelo de movimento afim; e uma unidade de previsão configurada para determinar um valor de pixel predito de um pixel da qualquer amostra de pixel usando-se o vetor de movimento que é da qualquer amostra de pixel e é obtido pela unidade de computação através de computação; em que o modelo de movimento afim está na forma a seguir: (x, y) são coordenadas da qualquer amostra de pixel, vx é um componente horizontal do vetor de movimento da qualquer amostra de pixel, e vy é um componente vertical do vetor de movimento da qualquer amostra de pixel; na equação vx=ax+by, a é um coeficiente de coordenada horizontal do componente horizontal do modelo de movimento afim e b é um coeficiente de coordenada vertical do componente horizontal do modelo de movimento afim; e na equação vy=-bx+ay, a é um coeficiente de coordenada vertical do componente vertical do modelo de movimento afim, -b é um coeficiente de coordenada horizontal do componente vertical do modelo de movimento afim e os coeficientes do modelo de movimento afim incluem a e b; e. os coeficientes do modelo de movimento afim incluem adicionalmente um coeficiente de deslocamento horizontal c do componente horizontal do modelo de movimento afim e um coeficiente de deslocamento vertical d do componente vertical do modelo de movimento afim e, portanto, o modelo de movimento afim está na seguinte forma:
[92] Pode ser aprendido que, em soluções da técnica fornecidas por algumas modalidades da presente invenção, um valor de pixel de um bloco de imagem atual é predito usando-se um modelo de movimento afim e um conjunto de unidades de informações de movimento mescladas i, em que cada unidade de informações de movimento no conjunto de unidades de informações de movimento mescladas i é selecionada a partir de pelo menos algumas das unidades de informações de movimento em um conjunto de unidades de informações de movimento candidato que corresponde a cada uma dentre as amostras de dois pixels. Devido a uma faixa de seleção do conjunto mesclado de unidades de informações de movimento i se tornar relativamente pequena, um mecanismo usado em uma tecnologia convencional para triar unidades de informações de movimento de múltiplas amostras de pixel apenas realizando-se uma quantidade grande de computação em todos os conjuntos de unidades de informações de movimento candidato possíveis das múltiplas amostras de pixel é abandonado. Isso auxilia em melhorar a eficácia de conversão em código, assim como auxilia a reduzir a complexidade computacional de predição de imagem realizada com base no modelo de movimento afim, torna adicionalmente possível para introduzir o modelo de movimento afim em um padrão de conversão em código de vídeo, e devido ao modelo de movimento afim ser introduzido, auxilia a descrever o movimento de um objeto de modo mais preciso, e auxilia, portanto, a melhorar a precisão de predição. Além disso, devido a uma quantidade de amostras de pixel de referência poder ser dois, isso auxilia adicionalmente a reduzir a complexidade computacional de predição de imagem realizada com base no modelo de movimento afim após o modelo de movimento afim ser introduzido e também auxilia a reduzir as informações de parâmetro afim ou uma quantidade de diferenças de vetor de movimento ou semelhantes transferidas por um codificador.
BREVE DESCRIÇÃO DOS DESENHOS
[93] A fim de descrever as soluções da técnica nas modalidades da presente invenção mais claramente, o seguinte descreve rapidamente os desenhos anexos exigidos para descrever as modalidades e a técnica anterior. Aparentemente, os desenhos anexos na descrição a seguir mostram meramente algumas modalidades da presente invenção e pessoas de habilidade comum na técnica podem, ainda, derivar outros desenhos a partir desses desenhos anexos sem esforços criativos.
[94] A Figura 1-a e a Figura 1-b são diagramas esquemáticos de diversos modos de particionamento de bloco de imagem de acordo com uma modalidade da presente invenção;
[95] A Figura 1-c é um fluxograma esquemático de um método de previsão de imagem de acordo com uma modalidade da presente invenção;
[96] A Figura 1-d é um diagrama esquemático de um bloco de imagem de acordo com uma modalidade da presente invenção;
[97] A Figura 2-a é um fluxograma esquemático de outro método de previsão de imagem de acordo com uma modalidade da presente invenção;
[98] A Figura 2-b a Figura 2-d são diagramas esquemáticos de diversos métodos para determinar conjuntos de unidade de informações de movimento candidato de amostras de pixel de acordo com uma modalidade da presente invenção;
[99] A Figura 2-e é um diagrama esquemático de coordenadas de vértice de um bloco de imagem x de acordo com uma modalidade da presente invenção;
[100] A Figura 2-f e Figura 2-g são diagramas esquemáticos de um movimento afim de um pixel de acordo com uma modalidade da presente invenção;
[101] A Figura 2-h e a Figura 2-i são diagramas esquemáticos de movimento rotacional de um pixel de acordo com uma modalidade da presente invenção;
[102] A Figura 3 é um fluxograma esquemático de outro método de previsão de imagem de acordo com uma modalidade da presente invenção;
[103] A Figura 4 é um diagrama esquemático de um aparelho de previsão de imagem de acordo com uma modalidade da presente invenção;
[104] A Figura 5 é um diagrama esquemático de outro aparelho de previsão de imagem de acordo com uma modalidade da presente invenção.
[105] A Figura 6 é um fluxograma esquemático de um método de processamento de imagem de acordo com uma modalidade da presente invenção;
[106] A Figura 7 é um fluxograma esquemático de outro método de processamento de imagem de acordo com uma modalidade da presente invenção;
[107] A Figura 8 é um fluxograma esquemático de outro método de processamento de imagem de acordo com uma modalidade da presente invenção;
[108] A Figura 9 é um diagrama esquemático de um aparelho de processamento de imagem de acordo com uma modalidade da presente invenção;
[109] A Figura 10 é um diagrama esquemático de outro aparelho de processamento de imagem de acordo com uma modalidade da presente invenção;
[110] A Figura 11 é um fluxograma esquemático de outro método de processamento de imagem de acordo com uma modalidade da presente invenção;
[111] A Figura 12 é um diagrama esquemático de um aparelho de processamento de imagem de acordo com uma modalidade da presente invenção; e
[112] A Figura 13 é um diagrama esquemático de outro aparelho de processamento de imagem de acordo com uma modalidade da presente invenção.
DESCRIÇÃO DAS MODALIDADES
[113] As modalidades da presente invenção fornecem um método de previsão de imagem e um dispositivo relacionado para reduzir a complexidade computacional de previsão de imagem realizada com base em um modelo de movimento afim.
[114] Para tornar os objetivos da invenção, os recursos e as vantagens da presente invenção mais claros e mais compreensíveis, o seguinte descreve claramente as soluções da técnica nas modalidades da presente invenção com referência aos desenhos anexos nas modalidades da presente invenção. Aparentemente, as modalidades descritas no seguinte são meramente uma parte, em vezes de todas, dentre as modalidades da presente invenção. Todas as outras modalidades adquiridas pelas pessoas de habilidade comum na técnica com base nas modalidades da presente invenção sem esforços criativos devem ser abrangidas pelo escopo de proteção da presente invenção.
[115] No relatório descritivo, nas reivindicações e nos desenhos anexos da presente invenção, os termos “primeiro”, “segundo”, “terceiro”, “quarto” e assim por diante são destinados a distinguir entre objetos diferentes, mas não indicam uma ordem em particular. Além disso, os termos “que inclui”, “incluindo” ou qualquer outra variante do mesmo são destinados a cobrir uma inclusão não exclusiva. Por exemplo, um processo, um método, um sistema, um produto ou um dispositivo que inclui uma série de etapas ou unidades não é limitado às etapas ou unidades listadas, mas, opcionalmente, inclui adicionalmente uma etapa ou unidade não listada, ou, opcionalmente, inclui adicionalmente outra etapa ou unidade inerente do processo, do método, do produto ou do dispositivo.
[116] O seguinte descreve primeiro alguns conceitos que podem ser usados nas modalidades da presente invenção.
[117] Na maior parte das estruturas de conversão em código, uma sequência de vídeo inclui uma série de imagens (Inglês: picture), em que as imagens são adicionalmente divididas em fatias (Inglês: slice) e as fatias são adicionalmente divididas em blocos (Inglês: block). A conversão de vídeo em código é para realizar processamento de conversão em código da fileira da esquerda para a direita e da fileira do topo para o fundo que começa de um local de canto esquerdo superior de uma imagem usando-se um bloco como uma unidade. Em alguns novos padrões de conversão de vídeo em código, o conceito de um bloco é adicionalmente estendido. Um macrobloco (Inglês: macroblock, MB para encurtamento) é definido no padrão H.264 e o MB pode ser adicionalmente dividido em múltiplos blocos de predição (Inglês: partition) que podem ser usados para conversão em código preditiva. No padrão HEVC, conceitos básicos, tais como uma unidade de conversão em código (Inglês: coding unit, CU para encurtamento), uma unidade de previsão (Inglês: prediction unit, PU para encurtamento) e uma unidade de transformada (Inglês: transform unit, TU para encurtamento) são usadas, múltiplas unidades são classificadas de acordo com funções e uma estrutura completamente nova com base em árvore é usada para descrição. Por exemplo, a CU pode ser dividida em CUs menores de acordo com uma árvore quadrática e as CUs menores podem ser adicionalmente divididas para formar uma estrutura de árvore quadrática. A PU e a TU também têm estruturas de árvore semelhantes. Independente da possibilidade de uma unidade ser uma CU, uma PU ou uma TU, a unidade pertence ao conceito de um bloco em essência. A CU é semelhante a um macrobloco MB ou um bloco de conversão em código e é uma unidade básica para particionar e codificar uma imagem de conversão em código. A PU pode corresponder a um bloco de previsão e é uma unidade básica para conversão em código preditiva. A CU é adicionalmente dividida em múltiplas PUs de acordo com um modo de particionamento. A TU pode corresponder a um bloco de transformada e é uma unidade básica para transformar uma previsão residual. No padrão de conversão de vídeo em código de alta eficácia (Inglês: high efficiency video coding, HEVC para encurtamento), os mesmos podem ser coletivamente denominados como blocos de árvore de conversão em código (Inglês: coding tree block, CTB para encurtamento) ou semelhantes.
[118] No padrão HEVC, um tamanho de uma unidade de conversão em código pode incluir quatro níveis: 64x64, 32x32, 16x16 e 8x8. As unidades de conversão em código em cada nível podem ser divididas em unidades de previsão de tamanhos diferentes de acordo com previsão intraquadro e previsão interquadro. Por exemplo, conforme mostrado na Figura 1-a e na Figura 1-b, a Figura 1-a ilustra a título de exemplo um modo de particionamento de unidade de previsão que corresponde à previsão intraquadro. A Figura 1-b ilustra a título de exemplo diversos modos de particionamento de unidade de previsão que correspondem à previsão interquadro.
[119] Em um processo de desenvolvimento e evolução de uma tecnologia de conversão de vídeo em código, especialistas de conversão de vídeo em código constataram diversos métodos para usar correlação temporal e espacial entre blocos de conversão em código/decodificação adjacentes para tentar aperfeiçoar eficácia de conversão em código. No padrão de conversão de vídeo em código H264 ou avançada (Inglês: advanced video coding, AVC para encurtamento), um modo de omissão (skip mode) e um modo direto (direct mode) se tornam ferramentas eficazes para aperfeiçoar a eficácia de conversão em código. Os blocos dos dois modos de conversão em código usados quando uma taxa de bits é baixa podem ocupar mais de uma metade de uma sequência de conversão em código completa. Quando o modo de omissão é usado, um vetor de movimento de um bloco de imagem atual pode ser derivado usando-se vetores de movimento adjacentes apenas adicionando-se um sinalizador de modo de omissão a um fluxo de bits e um valor de um bloco de referência é diretamente copiado de acordo com o vetor de movimento como um valor de reconstrução do bloco de imagem atual. Além disso, quando o modo direto é usado, um codificador pode derivar o vetor de movimento do bloco de imagem atual usando-se os vetores de movimento adjacentes e copiar diretamente o valor do bloco de referência de acordo com o vetor de movimento como um valor predito do bloco de imagem atual e realizar conversão em código preditiva no bloco de imagem atual usando-se o valor predito no codificador. No último padrão de conversão de vídeo em código de alta eficácia (Inglês: conversão de vídeo em código de alta eficácia, HEVC para encurtamento) atual, algumas ferramentas de conversão em código novas são introduzidas para aperfeiçoar adicionalmente a eficácia de conversão de vídeo em código. Um modo de conversão em código por mescla (merge) e um modo de previsão de vetor de movimento adaptativa (Inglês: advanced vetor de movimento previsão, AMVP para encurtamento) são duas ferramentas de previsão interquadro importantes. Em conversão em código por mescla (merge), as informações de movimento (as quais podem incluir um vetor de movimento (Inglês: motion vector, MV para encurtamento), uma direção de previsão, um índice de quadro de referência e semelhantes) de blocos convertidos em código próximos a um bloco de conversão em código atual é usado para construir um conjunto-candidato de informações de movimento; por comparação, informações de movimento- candidato com eficácia de conversão em código mais alta podem ser selecionadas como informações de movimento do bloco de conversão em código atual, um valor predito do bloco de conversão em código atual é constatado a partir do quadro de referência e a conversão em código preditiva é realizada no bloco de conversão em código atual; e, ao mesmo tempo, um valor de índice que indica a partir de qual bloco convertido em código adjacente as informações de movimento são selecionadas pode ser gravado em um fluxo de bits. Quando o modo de previsão de vetor de movimento adaptativa é usado, um vetor de movimento de um bloco convertido em código adjacente é usado como um preditor de vetor de movimento do bloco de conversão em código atual. Um vetor de movimento com eficácia de conversão em código mais alta pode ser selecionado e usado para prever um vetor de movimento do bloco de conversão em código atual, e um valor de índice que indica qual vetor de movimento adjacente é selecionado pode ser gravado em um fluxo de bits de vídeo.
[120] O seguinte continua a discussão das soluções da técnica das modalidades da presente invenção.
[121] O seguinte descreve primeiro um método de predição de imagem fornecido por uma modalidade da presente invenção. O método de predição de imagem fornecido por essa modalidade da presente invenção é realizado por um aparelho de conversão em código de vídeo ou um aparelho de decodificação de vídeo. O aparelho de conversão em código de vídeo ou o aparelho de decodificação de vídeo pode ser qualquer aparelho que precise emitir ou armazenar um vídeo, por exemplo, um dispositivo, como um computador do tipo notebook, um computador do tipo tablet, um computador pessoal, um telefone móvel ou um servidor de vídeo.
[122] Em uma modalidade de um método de predição de imagem de acordo com a presente invenção, o método de predição de imagem inclui: determinar duas amostras de pixel em um bloco de imagem atual, e determinar um conjunto de unidades-candidato de informações de movimento correspondente a cada uma das amostras de pixel, em que o conjunto de unidades-candidato de informações de movimento correspondente a cada amostra de pixel inclui pelo menos uma unidade-candidato de informações de movimento; determinar um conjunto mesclado de unidades de informações de movimento i que inclui duas unidades de informações de movimento, em que cada unidade de informações de movimento no conjunto mesclado de unidades de informações de movimento i é selecionada a partir de pelo menos algumas das unidades de informações de movimento no conjunto de unidades-candidato de informações de movimento correspondente a cada uma das duas amostras de pixel, e a unidade de informações de movimento inclui um vetor de movimento cuja direção de predição é para frente e/ou um vetor de movimento cuja direção de predição é para trás; e prever um valor de pixel do bloco de imagem atual usando-se um modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i.
[123] Com referência à Figura 1-c, a Figura 1-c é um fluxograma esquemático de um método de predição de imagem de acordo com uma modalidade da presente invenção. Conforme mostrado a título de exemplo na Figura 1-c, um método de predição de imagem fornecido por uma modalidade da presente invenção pode incluir as etapas a seguir.
[124] S101. Determinar duas amostras de pixel em um bloco de imagem atual e determinar um conjunto de unidades-candidato de informações de movimento correspondente a cada uma das duas amostras de pixel.
[125] O conjunto de unidades-candidato de informações de movimento correspondente a cada amostra de pixel inclui pelo menos uma unidade-candidato de informações de movimento.
[126] A amostra de pixel mencionada em cada modalidade da presente invenção pode ser um pixel ou um bloco de pixel que inclui pelo menos dois pixels.
[127] A unidade de informações de movimento mencionada em cada modalidade da presente invenção pode incluir um vetor de movimento cuja direção de predição é para frente e/ou a vetor de movimento cuja direção de predição é para trás. Isto é, uma unidade de informações de movimento pode incluir um vetor de movimento ou pode incluir dois vetores de movimento com direções de predição diferentes.
[128] Se uma direção de predição correspondente a uma unidade de informações de movimento é para frente, a mesma indica que a unidade de informações de movimento inclui um vetor de movimento cuja direção de predição é para frente, mas não inclui um vetor de movimento cuja direção de predição é para trás. Se uma direção de predição correspondente a uma unidade de informações de movimento é para trás, a mesma indica que a unidade de informações de movimento inclui um vetor de movimento cuja direção de predição é para trás, mas não inclui um vetor de movimento cuja direção de predição é para frente. Se uma direção de predição correspondente a uma unidade de informações de movimento é unidirecional, a mesma indica que a unidade de informações de movimento inclui um vetor de movimento cuja direção de predição é para frente, mas não inclui um vetor de movimento cuja direção de predição é para trás, ou a mesma indica que a unidade de informações de movimento inclui um vetor de movimento cuja direção de predição é para trás, mas não inclui um vetor de movimento cuja direção de predição é para frente. Se uma direção de predição correspondente a uma unidade de informações de movimento é bidirecional, a mesma indica que a unidade de informações de movimento inclui um vetor de movimento cuja direção de predição é para frente e um vetor de movimento cuja direção de predição é para trás.
[129] Opcionalmente, em algumas implantações possíveis da presente invenção, as duas amostras de pixel incluem duas amostras de pixel m uma amostra de pixel esquerda superior, uma amostra de pixel direita superior, uma amostra de pixel esquerda inferior e uma amostra de pixel central a1 do bloco de imagem atual. A amostra de pixel esquerda superior do bloco de imagem atual é um vértice esquerdo superior do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e inclui um vértice esquerdo superior do bloco de imagem atual; a amostra de pixel esquerda inferior do bloco de imagem atual é um vértice esquerdo inferior do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e inclui um vértice esquerdo inferior do bloco de imagem atual; a amostra de pixel direita superior do bloco de imagem atual é um vértice direito superior do bloco de imagem atual, ou um bloco de pixel na bloco de imagem atual e inclui um vértice direito superior do bloco de imagem atual; e a amostra de pixel central a1 do bloco de imagem atual é um pixel central do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e inclui um pixel central do bloco de imagem atual.
[130] Se uma amostra de pixel é um bloco de pixel, um tamanho do bloco de pixel é, por exemplo, 2*2, 1*2, 4*2, 4*4, ou outro tamanho. O bloco de imagem pode incluir múltiplos blocos de pixel.
[131] Deve ser notado que, para um bloco de imagem de um tamanho w*w, quando w é um número ímpar (por exemplo, w é igual a 3, 5, 7 ou 11), um pixel central do bloco de imagem é único; quando w é um número par (por exemplo, w é igual a 4, 6, 8, ou 16), podem haver múltiplos pixels centrais no bloco de imagem e uma amostra de pixel central do bloco de imagem pode ser qualquer pixel central ou um pixel central especificado no bloco de imagem, ou uma amostra de pixel central do bloco de imagem pode ser um bloco de pixel que está no bloco de imagem e inclui qualquer pixel central, ou uma amostra de pixel central do bloco de imagem pode ser um bloco de pixel que está no bloco de imagem e inclui um pixel central especificado. Por exemplo, a Figura 1-d mostra, a título de exemplo, um bloco de imagem de um tamanho 4*4 e pixels centrais do bloco de imagem incluem quatro pixels: A1, A2, A3 e A4. Nesse caso, um pixel central especificado pode ser o pixel A1 (pixel central esquerdo superior), o pixel A2 (pixel central esquerdo inferior), o pixel A3 (pixel central direito superior) ou o pixel A4 (pixel central direito inferior). Outros casos podem ser deduzidos da mesma maneira.
[132] S102. Determinar um conjunto mesclado de unidades de informações de movimento i que inclui duas unidades de informações de movimento.
[133] Cada unidade de informações de movimento no conjunto mesclado de unidades de informações de movimento i é selecionada a partir de pelo menos algumas das unidades de informações de movimento no conjunto de unidades-candidato de informações de movimento correspondente a cada uma das duas amostras de pixel. A unidade de informações de movimento inclui um vetor de movimento cuja direção de predição é para frente e/ou um vetor de movimento cuja direção de predição é para trás.
[134] Por exemplo, supõe-se que as duas amostras de pixel incluem uma amostra de pixel 001 e uma amostra de pixel 002. Um conjunto de unidades-candidato de informações de movimento correspondente à amostra de pixel 001 é um conjunto de unidades-candidato de informações de movimento 011. Um conjunto de unidades-candidato de informações de movimento correspondente à amostra de pixel 002 é um conjunto de unidades-candidato de informações de movimento 022. O conjunto mesclado de unidades de informações de movimento i inclui uma unidade de informações de movimento C01 e uma unidade de informações de movimento C02. A unidade de informações de movimento C01 pode ser selecionada a partir do conjunto de unidades-candidato de informações de movimento 011, a unidade de informações de movimento C02 pode ser selecionada a partir do conjunto de unidades-candidato de informações de movimento 022, e assim por diante.
[135] Pode ser entendido que, supondo-se que o conjunto mesclado de unidades de informações de movimento i inclui a unidade de informações de movimento C01 e a unidade de informações de movimento C02, em que qualquer uma dentre a unidade de informações de movimento C01 e a unidade de informações de movimento C02 pode incluir um vetor de movimento cuja direção de predição é para frente e/ou um vetor de movimento cuja direção de predição é para trás, o conjunto mesclado de unidades de informações de movimento i pode incluir dois vetores de movimento (modos de predição correspondentes os dois vetores de movimento podem ser para frente ou para trás, ou os dois vetores de movimento podem incluir um vetor de movimento cuja direção de predição é para frente e um vetor de movimento cuja direção de predição é para trás, ou pode incluir quatro vetores de movimento (os quatro vetores de movimento podem incluir dois vetores de movimento cujas direções de predição são para frente e dois vetores de movimento cujas direções de predição são para trás), ou pode incluir três vetores de movimento (os três vetores de movimento também podem incluir um vetor de movimento cuja direção de predição é para frente e dois vetores de movimento cujas direções de predição são para trás, ou pode incluir dois vetores de movimento cujas direções de predição são para frente e um vetor de movimento cuja direção de predição é para trás).
[136] S103. Prever um valor de pixel do bloco de imagem atual usando-se um modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i.
[137] O bloco de imagem atual pode ser um bloco de conversão em código atual ou um bloco de decodificação atual.
[138] Pode ser aprendido que, na solução da técnica dessa modalidade, um valor de pixel de um bloco de imagem atual é predito usando- se um modelo de movimento afim e um conjunto mesclado de unidades de informações de movimento i, em que cada unidade de informações de movimento no conjunto mesclado de unidades de informações de movimento i é selecionada a partir de pelo menos algumas unidades de informações de movimento em um conjunto de unidades-candidato de informações de movimento correspondente a cada uma das duas amostras de pixel. Devido a uma faixa de seleção do conjunto mesclado de unidades de informações de movimento i se tornar relativamente pequena, um mecanismo usado em uma tecnologia convencional para triar unidades de informações de movimento de múltiplas amostras de pixel apenas realizando-se uma quantidade grande de computação em todos os conjuntos de unidades de informações de movimento candidato possíveis das múltiplas amostras de pixel é abandonado. Isso auxilia em melhorar a eficácia de conversão em código, assim como auxilia a reduzir a complexidade computacional de predição de imagem realizada com base no modelo de movimento afim, torna adicionalmente possível para introduzir o modelo de movimento afim em um padrão de conversão em código de vídeo, e devido ao modelo de movimento afim ser introduzido, auxilia a descrever o movimento de um objeto de modo mais preciso, e auxilia, portanto, a melhorar a precisão de predição. Além disso, devido a uma quantidade de amostras de pixel de referência poder ser dois, isso auxilia adicionalmente a reduzir a complexidade computacional de predição de imagem realizada com base no modelo de movimento afim após o modelo de movimento afim ser introduzido e também auxilia a reduzir as informações de parâmetro afim ou uma quantidade de diferenças de vetor de movimento ou semelhantes transferidas por um codificador.
[139] O método de predição de imagem fornecido por essa modalidade pode ser aplicado a um processo de conversão em código de vídeo ou pode ser aplicado a um processo de decodificação de vídeo.
[140] Em uma aplicação real, o conjunto mesclado de unidades de informações de movimento i que inclui as duas unidades de informações de movimento pode ser determinado de várias maneiras.
[141] Opcionalmente, em algumas implantações possíveis da presente invenção, a determinação de um conjunto mesclado de unidades de informações de movimento i que inclui as duas unidades de informações de movimento inclui: determinar, a partir de N conjuntos mesclados de unidades- candidato de informações de movimento, o conjunto mesclado de unidades de informações de movimento i que inclui as duas unidades de informações de movimento, em que cada unidade de informações de movimento incluída em cada um dos N conjuntos mesclados de unidades-candidato de informações de movimento é selecionada a partir de pelo menos algumas das unidades de informações de movimento de restrição-compatível no conjunto de unidades- candidato de informações de movimento correspondente a cada uma das duas amostras de pixel, N é um número inteiro positivo, os N conjuntos mesclados de unidades-candidato de informações de movimento são diferentes entre si e cada um dos N conjuntos mesclados de unidades-candidato de informações de movimento inclui duas unidades de informações de movimento.
[142] Dois conjuntos mesclados de unidades-candidato de informações de movimento serem diferentes pode significar que as unidades de informações de movimento incluídas nos conjuntos mesclados de unidades- candidato de informações de movimento não são completamente as mesmas.
[143] Duas unidades de informações de movimento serem diferentes pode significar que os vetores de movimento incluídos nas duas unidades de informações de movimento são diferentes, ou que as direções de predição correspondentes aos vetores de movimento incluídos nas duas unidades de informações de movimento são diferentes, ou que os índices de quadro de referência correspondentes aos vetores de movimento incluídos nas duas unidades de informações de movimento são diferentes. Duas unidades de informações de movimento serem as mesmas pode significar que os vetores de movimento incluídos nas duas unidades de informações de movimento são os mesmos, e que as direções de predição correspondentes aos vetores de movimento incluídos nas duas unidades de informações de movimento são os mesmos e que os índices de quadro de referência correspondentes aos vetores de movimento incluídos nas duas unidades de informações de movimento são os mesmos.
[144] Opcionalmente, em algumas implantações possíveis da presente invenção, quando o método de predição de imagem é aplicado ao processo de decodificação de vídeo, a determinação de N conjuntos mesclados de unidades-candidato de informações de movimento, o conjunto mesclado de unidades de informações de movimento i que inclui as duas unidades de informações de movimento pode incluir: determinar, a partir de N conjuntos mesclados de unidades-candidato de informações de movimento, com base em um identificador que é do conjunto mesclado de unidades de informações de movimento i e é obtido a partir de um fluxo de bits de vídeo, o conjunto mesclado de unidades de informações de movimento i que inclui as duas unidades de informações de movimento.
[145] Opcionalmente, em algumas implantações possíveis da presente invenção, quando o método de predição de imagem é aplicado ao processo de conversão em código de vídeo, o método pode incluir adicionalmente: gravar um identificador do conjunto mesclado de unidades de informações de movimento i em um fluxo de bits de vídeo. O identificador do conjunto mesclado de unidades de informações de movimento i pode ser quaisquer informações que podem identificar o conjunto mesclado de unidades de informações de movimento i. Por exemplo, o identificador do conjunto mesclado de unidades de informações de movimento i pode ser um índice do conjunto mesclado de unidades de informações de movimento i em uma lista de conjunto mesclado de unidades de informações de movimento.
[146] Opcionalmente, em algumas implantações possíveis da presente invenção, quando o método de predição de imagem é aplicado ao processo de conversão em código de vídeo, o método inclui adicionalmente: obter preditores de vetor de movimento das duas amostras de pixel usando-se vetores de movimento de amostras de pixel espacialmente adjacentes ou temporalmente adjacentes às duas amostras de pixel, obter diferenças de vetor de movimento das duas amostras de pixel de acordo com os preditores de vetor de movimento das duas amostras de pixel e gravara s diferenças de vetor de movimento das duas amostras de pixel em um fluxo de bits de vídeo.
[147] Opcionalmente, em algumas implantações possíveis da presente invenção, quando o método de predição de imagem é aplicado ao processo de decodificação de vídeo, o método inclui adicionalmente: decodificar o fluxo de bits de vídeo para obter diferenças de vetor de movimento das duas amostras de pixel, obter os preditores de vetor de movimento das duas amostras de pixel usando-se vetores de movimento de amostras de pixel espacialmente adjacente ou temporalmente adjacentes às duas amostras de pixel, e obter os vetores de movimento das duas amostras de pixel separadamente com base nos preditores de vetor de movimento das duas amostras de pixel e as diferenças de vetor de movimento das duas amostras de pixel.
[148] Opcionalmente, em algumas implantações possíveis da presente invenção, a determinação, de N conjuntos mesclados de unidades- candidato de informações de movimento, do conjunto mesclado de unidades de informações de movimento i que inclui as duas unidades de informações de movimento pode incluir: determinar, a partir dos N conjuntos mesclados de unidades-candidato de informações de movimento, com base na distorção ou um custo de distorção de taxa, o conjunto mesclado de unidades de informações de movimento i que inclui dois vetores de movimento.
[149] Opcionalmente, um custo de distorção de taxa correspondente ao conjunto mesclado de unidades de informações de movimento i é inferior ou igual a um custo de distorção de taxa correspondente a qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento exceto pelo conjunto mesclado de unidades de informações de movimento i.
[150] Opcionalmente, a distorção correspondente ao conjunto mesclado de unidades de informações de movimento i é menor ou igual à distorção correspondente a qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento exceto pelo conjunto mesclado de unidades de informações de movimento i.
[151] Um custo de distorção de taxa correspondente a um conjunto mesclado de unidades-candidato de informações de movimento nos N conjuntos mesclados de unidades-candidato de informações de movimento (por exemplo, o conjunto mesclado de unidades de informações de movimento i nos N conjuntos mesclados de unidades-candidato de informações de movimento) pode ser, por exemplo, um custo de distorção de taxa correspondente a um valor de pixel predito de um bloco de imagem (por exemplo, o bloco de imagem atual) obtido prevendo-se o valor de pixel do bloco de imagem usando-se o conjunto mesclado de unidades-candidato de informações de movimento (por exemplo, o conjunto mesclado de unidades de informações de movimento i).
[152] A distorção correspondente a um conjunto mesclado de unidades-candidato de informações de movimento nos N conjuntos mesclados de unidades-candidato de informações de movimento (por exemplo, o conjunto mesclado de unidades de informações de movimento i nos N conjuntos mesclados de unidades-candidato de informações de movimento) pode ser, por exemplo, uma distorção entre um valor de pixel original de um bloco de imagem (por exemplo, o bloco de imagem atual) e um valor de pixel predito do bloco de imagem obtido prevendo-se o valor de pixel do bloco de imagem usando-se o conjunto mesclado de unidades-candidato de informações de movimento (por exemplo, o conjunto mesclado de unidades de informações de movimento i) (a saber, a distorção entre o valor de pixel original e o valor de pixel predito do bloco de imagem).
[153] Em algumas implantações possíveis da presente invenção, a distorção entre um valor de pixel original de um bloco de imagem (por exemplo, o bloco de imagem atual) e um valor de pixel predito do bloco de imagem obtido prevendo-se o valor de pixel do bloco de imagem usando-se o conjunto mesclado de unidades-candidato de informações de movimento (por exemplo, o conjunto mesclado de unidades de informações de movimento i) pode ser especificamente, por exemplo, uma soma de diferenças quadráticas (SSD, soma de diferenças quadráticas) ou uma soma de diferenças absolutas (SAD, soma de diferenças absolutas) ou uma soma de diferenças entre o valor de pixel original do bloco de imagem (por exemplo, o bloco de imagem atual) e o valor de pixel predito do bloco de imagem obtido prevendo-se o valor de pixel do bloco de imagem usando-se o conjunto mesclado de unidades-candidato de informações de movimento (por exemplo, o conjunto mesclado de unidades de informações de movimento i) ou outro parâmetro de distorção que pode medir a distorção.
[154] N é um número inteiro positivo. Por exemplo, N pode ser, por exemplo, igual a 1, 2, 3, 4, 5, 6, 8 ou outro valor.
[155] Opcionalmente, em algumas implantações possíveis da presente invenção, unidades de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento podem ser diferentes entre si.
[156] Opcionalmente, em algumas implantações possíveis da presente invenção, os N conjuntos mesclados de unidades-candidato de informações de movimento cumprir pelo menos uma dentre uma primeira condição, uma segunda condição, uma terceira condição, uma quarta condição ou uma quinta condição.
[157] A primeira condição inclui um modo de movimento do bloco de imagem atual indicado por uma unidade de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento ser um movimento não translacional. Por exemplo, se todos os vetores de movimento correspondentes a uma primeira direção de predição em um conjunto mesclado de unidades-candidato de informações de movimento foram iguais, pode ser considerado que o modo de movimento do bloco de imagem atual indicado por uma unidade de informações de movimento no conjunto mesclado de unidades-candidato de informações de movimento é movimento translacional; de outro modo, pode ser considerado que o modo de movimento doo bloco de imagem atual indicado por uma unidade de informações de movimento no conjunto mesclado de unidades-candidato de informações de movimento é movimento não translacional, em que a primeira direção de predição é para frente ou para trás. Por outro exemplo, se todos os vetores de movimento correspondentes a uma direção de predição para frente em um conjunto mesclado de unidades-candidato de informações de movimento foram iguais, e todos os vetores de movimento correspondentes a direções de predição para trás no conjunto mesclado de unidades-candidato de informações de movimento forem iguais, pode ser considerado que o modo de movimento do bloco de imagem atual indicado por uma unidade de informações de movimento no conjunto mesclado de unidades-candidato de informações de movimento é movimento translacional; de outro modo, pode ser considerado que o modo de movimento do bloco de imagem atual indicado por uma unidade de informações de movimento no conjunto mesclado de unidades-candidato de informações de movimento é movimento não translacional.
[158] A segunda condição inclui as direções de predição correspondentes às duas unidades de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento serem as mesmas.
[159] Por exemplo, quando duas unidades de informações de movimento incluem um vetor de movimento cuja direção de predição é para frente e um vetor de movimento cuja direção de predição é para trás, as mesmas indicam que as direções de predição correspondente às duas unidades de informações de movimento são as mesmas. Por outro exemplo, quando uma unidade de informações de movimento em duas unidades de informações de movimento inclui um vetor de movimento cuja direção de predição é para frente e um vetor de movimento cuja direção de predição é para trás, e a outra unidade de informações de movimento inclui um vetor de movimento cuja direção de predição é para frente, mas não inclui um vetor de movimento cuja direção de predição é para trás, ou a outra unidade de informações de movimento inclui um vetor de movimento cuja direção de predição é para trás, mas não inclui um vetor de movimento cuja direção de predição é para frente, a mesma pode indicar que as direções de predição correspondentes às duas unidades de informações de movimento são diferentes. Por outro exemplo, quando uma unidade de informações de movimento em duas unidades de informações de movimento incluem um vetor de movimento cuja direção de predição é para frente, mas não inclui um vetor de movimento cuja direção de predição é para trás, e a outra unidade de informações de movimento inclui um vetor de movimento cuja direção de predição é para trás, mas não inclui um vetor de movimento cuja direção de predição é para frente, a mesma pode indicar que as direções de predição correspondente às duas unidades de informações de movimento são diferentes. Por outro exemplo, quando duas unidades de informações de movimento incluem um vetor de movimento cuja direção de predição é para frente, mas nenhuma das duas unidades de informações de movimento inclui um vetor de movimento cuja direção de predição é para trás, as mesmas indicam que as direções de predição correspondentes às duas unidades de informações de movimento são as mesmas. Por outro exemplo, quando duas unidades de informações de movimento incluem um vetor de movimento cuja direção de predição é para trás, mas nenhuma das duas unidades de informações de movimento inclui um vetor de movimento cuja direção de predição é para frente, as mesmas indicam que as direções de predição correspondentes às duas unidades de informações de movimento são as mesmas.
[160] A terceira condição inclui os índices de quadro de referência correspondentes às duas unidades de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento serem os mesmos.
[161] Por exemplo, quando duas unidades de informações de movimento incluem tanto um vetor de movimento cuja direção de predição é para frente quanto um vetor de movimento cuja direção de predição é para trás, e índices de quadro de referência correspondentes aos vetores de movimento cujas direções de predição são para frente nas duas unidades de informações de movimento são os mesmos, e índices de quadro de referência correspondentes aos vetores de movimento cujas direções de predição são para trás nas duas unidades de informações de movimento são os mesmos, as mesmas podem indicar que os índices de quadro de referência correspondentes às duas unidades de informações de movimento são os mesmos. Por outro exemplo, quando uma unidade de informações de movimento em duas unidades de informações de movimento inclui um vetor de movimento cuja direção de predição é para frente e um vetor de movimento cuja direção de predição é para trás, e a outra unidade de informações de movimento inclui um vetor de movimento cuja direção de predição é para frente, mas não inclui um vetor de movimento cuja direção de predição é para trás, ou a outra unidade de informações de movimento inclui um vetor de movimento cuja direção de predição é para trás, mas não inclui um vetor de movimento cuja direção de predição é para frente, a mesma indica que as direções de predição correspondentes às duas unidades de informações de movimento são diferentes, e pode indicar que os índices de quadro de referência correspondentes às duas unidades de informações de movimento são diferentes. Por outro exemplo, quando uma unidade de informações de movimento em duas unidades de informações de movimento incluem um vetor de movimento cuja direção de predição é para frente, mas não inclui um vetor de movimento cuja direção de predição é para trás, e a outra unidade de informações de movimento inclui um vetor de movimento cuja direção de predição é para trás, mas não inclui um vetor de movimento cuja direção de predição é para frente, a mesma pode indicar que índices de quadro de referência correspondentes às duas unidades de informações de movimento são diferentes. Por outro exemplo, quando uma unidade de informações de movimento em duas unidades de informações de movimento inclui um vetor de movimento cuja direção de predição é para frente, mas não inclui um vetor de movimento cuja direção de predição é para trás, e a outra unidade de informações de movimento inclui um vetor de movimento cuja direção de predição é para frente, mas não inclui um vetor de movimento cuja direção de predição é para trás, e índices de quadro de referência correspondentes aos vetores de movimento cujas direções de predição são para frente nas duas unidades de informações de movimento são os mesmos, a mesma pode indicar que índices de quadro de referência correspondentes às duas unidades de informações de movimento são diferentes. Por outro exemplo, quando uma unidade de informações de movimento em duas unidades de informações de movimento inclui um vetor de movimento cuja direção de predição é para trás, mas não inclui um vetor de movimento cuja direção de predição é para frente, e a outra unidade de informações de movimento inclui um vetor de movimento cuja direção de predição é para trás, mas não inclui um vetor de movimento cuja direção de predição é para frente, e índices de quadro de referência correspondentes aos vetores de movimento cujas direções de predição são para trás nas duas unidades de informações de movimento são os mesmos, a mesma pode indicar que índices de quadro de referência correspondentes às duas unidades de informações de movimento são diferentes.
[162] A quarta condição inclui um valor absoluto de uma diferença entre componentes horizontais de vetores de movimento de duas unidades de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento ser menor ou igual a um limiar de componente horizontal, ou que um valor absoluto de uma diferença entre um componente horizontal de um vetor de movimento de uma unidade de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento e um componente horizontal de um vetor de movimento de uma amostra de pixel Z ser menor ou igual a um limiar de componente horizontal, em que a amostra de pixel Z no bloco de imagem atual é diferente de qualquer uma das duas amostras de pixel. O limiar de componente horizontal pode ser, por exemplo, igual a 1/3 de uma largura do bloco de imagem atual, 1/2 de uma largura do bloco de imagem atual, 2/3 de uma largura do bloco de imagem atual, 3/4 de uma largura do bloco de imagem atual, ou outro valor.
[163] A quinta condição inclui um valor absoluto de uma diferença entre componentes verticais de vetores de movimento de duas unidades de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento ser menor ou igual a um limiar de componente vertical, ou que um valor absoluto de uma diferença entre um componente vertical de um vetor de movimento de qualquer unidade de informações de movimento em um dos N conjuntos mesclados de unidades- candidato de informações de movimento e um componente vertical de um vetor de movimento de uma amostra de pixel Z ser menor ou igual a um limiar de componente horizontal, em que a amostra de pixel Z no bloco de imagem atual é diferente de qualquer uma das duas amostras de pixel. O limiar de componente vertical pode ser, por exemplo, igual a 1/3 de uma altura do bloco de imagem atual, 1/2 de uma altura do bloco de imagem atual, 2/3 de uma altura do bloco de imagem atual, 3/4 de uma altura do bloco de imagem atual, ou outro valor.
[164] Supondo-se que as duas amostras de pixel são a amostra de pixel esquerda superior do bloco de imagem atual, a amostra de pixel Z pode ser a amostra de pixel esquerda inferior, ou a amostra de pixel central, ou qualquer outra amostra de pixel do bloco de imagem atual. Outros casos podem ser deduzidos da mesma maneira.
[165] Opcionalmente, em algumas implantações possíveis da presente invenção, um conjunto de unidades-candidato de informações de movimento correspondente à amostra de pixel esquerda superior do bloco de imagem atual inclui unidades de informações de movimento de x1 amostras de pixel, em que as x1 amostras de pixel incluem pelo menos uma amostra de pixel espacialmente adjacente à amostra de pixel esquerda superior do bloco de imagem atual e/ou pelo menos uma amostra de pixel temporalmente adjacente à amostra de pixel esquerda superior do bloco de imagem atual, e x1 é um número inteiro positivo. Por exemplo, as x1 amostras de pixel incluem apenas pelo menos uma amostra de pixel espacialmente adjacente à amostra de pixel esquerda superior do bloco de imagem atual e/ou pelo menos uma amostra de pixel temporalmente adjacente à amostra de pixel esquerda superior do bloco de imagem atual.
[166] Por exemplo, x1 pode ser, por exemplo, igual a 1, 2, 3, 4, 5, 6 ou outro valor.
[167] Por exemplo, as x1 amostras de pixel incluem pelo menos uma dentre uma amostra de pixel que tem uma mesma localização que a amostra de pixel esquerda superior do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma borda esquerda do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma esquerda superior do bloco de imagem atual, ou uma amostra de pixel espacialmente adjacente a uma borda superior do bloco de imagem atual, em um quadro de vídeo temporalmente adjacente a um quadro de vídeo ao qual o bloco de imagem atual pertence.
[168] Opcionalmente, em algumas implantações possíveis da presente invenção, um conjunto de unidades-candidato de informações de movimento correspondente à amostra de pixel direita superior do bloco de imagem atual inclui unidades de informações de movimento de x2 amostras de pixel, em que as x2 amostras de pixel incluem pelo menos uma amostra de pixel espacialmente adjacente à amostra de pixel direita superior do bloco de imagem atual e/ou pelo menos uma amostra de pixel temporalmente adjacente à amostra de pixel direita superior do bloco de imagem atual, e x2 é um número inteiro positivo.
[169] Por exemplo, x2 pode ser, por exemplo, igual a 1, 2, 3, 4, 5, 6 ou outro valor.
[170] Por exemplo, as x2 amostras de pixel incluem pelo menos uma dentre uma amostra de pixel que tem uma mesma localização que a amostra de pixel direita superior do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma borda direita do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma direita superior do bloco de imagem atual, ou uma amostra de pixel espacialmente adjacente à borda superior do bloco de imagem atual, em um quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence.
[171] Opcionalmente, em algumas implantações possíveis da presente invenção, um conjunto de unidades-candidato de informações de movimento correspondente à amostra de pixel esquerda inferior do bloco de imagem atual inclui unidades de informações de movimento de x3 amostras de pixel, em que as x3 amostras de pixel incluem pelo menos uma amostra de pixel espacialmente adjacente à amostra de pixel esquerda inferior do bloco de imagem atual e/ou pelo menos uma amostra de pixel temporalmente adjacente à amostra de pixel esquerda inferior do bloco de imagem atual, e x3 é um número inteiro positivo. Por exemplo, as x3 amostras de pixel incluem apenas pelo menos uma amostra de pixel espacialmente adjacente à amostra de pixel esquerda inferior do bloco de imagem atual e/ou pelo menos uma amostra de pixel temporalmente adjacente à amostra de pixel esquerda inferior do bloco de imagem atual.
[172] Por exemplo, x3 pode ser, por exemplo, igual a 1, 2, 3, 4, 5, 6 ou outro valor.
[173] Por exemplo, as x3 amostras de pixel incluem pelo menos uma dentre uma amostra de pixel que tem uma mesma localização que a amostra de pixel esquerda inferior do bloco de imagem atual, uma amostra de pixel espacialmente adjacente à borda esquerda do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma esquerda inferior do bloco de imagem atual, ou uma amostra de pixel espacialmente adjacente a uma borda inferior do bloco de imagem atual, em um quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence.
[174] Opcionalmente, em algumas implantações possíveis da presente invenção, um conjunto de unidades-candidato de informações de movimento correspondente à amostra de pixel central a1 do bloco de imagem atual inclui unidades de informações de movimento de x5 amostras de pixel, e uma das x5 amostras de pixel é uma amostra de pixel a2. Por exemplo, as x5 amostras de pixel incluem apenas a amostra de pixel a2. Uma localização da amostra de pixel central a1 no quadro de vídeo ao qual o bloco de imagem atual pertence é a mesma que uma localização da amostra de pixel a2 em um quadro de vídeo adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence, e x5 é um número inteiro positivo.
[175] Opcionalmente, em algumas implantações possíveis da presente invenção, a predição de um valor de pixel do bloco de imagem atual usando-se um modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i pode incluir: quando um índice de quadro de referência correspondente a um vetor de movimento cuja direção de predição é uma primeira direção de predição no conjunto mesclado de unidades de informações de movimento i é diferente de um índice de quadro de referência do bloco de imagem atual, realizar o processamento de redimensionamento no conjunto mesclado de unidades de informações de movimento i, para que o vetor de movimento cuja direção de predição é a primeira direção de predição no conjunto mesclado de unidades de informações de movimento i seja redimensionado até um quadro de referência do bloco de imagem atual, e prever o valor de pixel do bloco de imagem atual usando-se o modelo de movimento afim e um conjunto mesclado de unidades de informações de movimento redimensionado i, em que a primeira direção de predição é para frente ou para trás; oua previsão de um valor de pixel do bloco de imagem atual usando- se um modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i pode incluir: quando um índice de quadro de referência correspondente a um vetor de movimento cuja direção de predição é para frente no conjunto mesclado de unidades de informações de movimento i é diferente de um índice de quadro de referência para frente do bloco de imagem atual, e um índice de quadro de referência correspondente a um vetor de movimento cuja direção de predição é para trás no conjunto mesclado de unidades de informações de movimento i é diferente de um índice de quadro de referência para trás do bloco de imagem atual, realizar processamento de redimensionamento no conjunto mesclado de unidades de informações de movimento i, para que o vetor de movimento cuja direção de predição é para frente no conjunto mesclado de unidades de informações de movimento i seja redimensionado para um quadro de referência para frente do bloco de imagem atual e que o vetor de movimento cuja direção de predição é para trás no conjunto mesclado de unidades de informações de movimento i é redimensionado para um quadro de referência para trás do bloco de imagem atual, e prever o valor de pixel do bloco de imagem atual usando-se o modelo de movimento afim e um conjunto mesclado de unidades de informações de movimento redimensionado i.
[176] Opcionalmente, em algumas implantações possíveis da presente invenção, a predição do valor de pixel do bloco de imagem atual usando-se o modelo de movimento não translacional e um conjunto mesclado de unidades de informações de movimento dimensionado i pode, por exemplo, incluir: realizar o processamento de estimativa de movimento em um vetor de movimento no conjunto mesclado de unidades de informações de movimento dimensionado i para obter um conjunto mesclado de unidades de informações de movimento estimado por movimento i e prever o valor de pixel do bloco de imagem atual usando-se o modelo de movimento não translacional e o conjunto mesclado de unidades de informações de movimento estimado por movimento i.
[177] Opcionalmente, em algumas implantações possíveis da presente invenção, a predição de um valor de pixel do bloco de imagem atual usando-se um modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i includes: obter um vetor de movimento de cada pixel no bloco de imagem atual através de computação usando-se o modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i, e determinar um valor de pixel predito de cada pixel no bloco de imagem atual usando-se vetor de movimento que é de cada pixel no bloco de imagem atual e é obtido através da computação; ou obter um vetor de movimento de cada bloco de pixel no bloco de imagem atual através de computação usando- se o modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i, e determinar um valor de pixel predito de cada pixel em cada bloco de pixel no bloco de imagem atual usando-se o vetor de movimento que é de cada bloco de pixel no bloco de imagem atual e é obtido através de computação.
[178] Durante um teste, é constatado que realizar a computação de vetor de movimento usando-se um bloco de pixel no bloco de imagem atual como uma granularidade auxilia a reduzir grandemente a complexidade computacional grandemente se o vetor de movimento de cada bloco de pixel no bloco de imagem atual é obtido através de computação usando-se o modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i e, então, o valor de pixel predito de cada pixel em cada bloco de pixel no bloco de imagem atual é determinado usando-se o vetor de movimento que é de cada bloco de pixel no bloco de imagem atual e é obtido através de computação.
[179] Opcionalmente, em algumas implantações possíveis da presente invenção, a previsão de um valor de pixel do bloco de imagem atual usando-se um modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i pode incluir: realizar o processamento de estimativa de movimento em um vetor de movimento no conjunto mesclado de unidades de informações de movimento i para obter um conjunto mesclado de unidades de informações de movimento estimado por movimento i, e prever o valor de pixel do bloco de imagem atual usando-se o modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento estimado por movimento i.
[180] Opcionalmente, em algumas implantações possíveis da presente invenção, a previsão de um valor de pixel do bloco de imagem atual usando-se um modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i inclui: obter um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual usando-se uma razão entre uma diferença entre componentes horizontais de vetores de movimento das duas unidades de informações de movimento no conjunto mesclado de unidades de informações de movimento i e um comprimento ou largura do bloco de imagem atual e uma razão entre uma diferença entre componentes verticais dos vetores de movimento das duas unidades de informações de movimento no conjunto mesclado de unidades de informações de movimento i e o comprimento ou largura do bloco de imagem atual.
[181] Alternativamente, a previsão de um valor de pixel do bloco de imagem atual usando-se um modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i pode incluir: obter um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual usando-se uma razão entre uma diferença entre componentes horizontais de vetores de movimento das duas amostras de pixel e um comprimento ou largura do bloco de imagem atual e uma razão entre uma diferença entre componentes verticais dos vetores de movimento das duas amostras de pixel e o comprimento ou largura do bloco de imagem atual, em que os vetores de movimento das duas amostras de pixel são obtidos com base nos vetores de movimento das duas unidades de informações de movimento no conjunto mesclado de unidades de informações de movimento i (por exemplo, os vetores de movimento das duas amostras de pixel são os vetores de movimento das duas unidades de informações de movimento no conjunto mesclado de unidades de informações de movimento i, ou os vetores de movimento das duas amostras de pixel são obtidos com base nos vetores de movimento das duas unidades de informações de movimento no conjunto mesclado de unidades de informações de movimento i e um residual de predição).
[182] Opcionalmente, em algumas implantações possíveis da presente invenção, um coeficiente de coordenada horizontal dos componentes horizontais dos vetores de movimento das duas amostras de pixel é igual a um coeficiente de coordenada vertical dos componentes verticais dos vetores de movimento, e um coeficiente de coordenada vertical dos componentes horizontais dos vetores de movimento das duas amostras de pixel é oposto a um coeficiente de coordenada horizontal dos componentes verticais dos vetores de movimento.
[183] Opcionalmente, em algumas implantações possíveis da presente invenção, o modelo de movimento afim, por exemplo, pode ser um modelo de movimento afim na forma a seguir:, em que
[184] os vetores de movimento das duas amostras de pixel são respectivamente, vx é um componente horizontal de um vetor de movimento de uma amostra de pixel cujas coordenadas são (x, y) no bloco de imagem atual, vy é um componente vertical do vetor de movimento da amostra de pixel cujas coordenadas são (x, y) no bloco de imagem atual, e w é o comprimento ou largura do bloco de imagem atual; e são um vetor de movimento de outra amostra de pixel diferente das duas amostras de pixel no bloco de imagem atual. Por exemplo, supondo-se que as duas amostras de pixel são a amostra de pixel esquerda superior e a amostra de pixel direita superior do bloco de imagem atual, pode ser a amostra de pixel esquerda inferior ou a amostra de pixel central do bloco de imagem atual. Por outro exemplo, supondo-se que as duas amostras de pixel são a amostra de pixel esquerda superior e a amostra de pixel esquerda inferior do bloco de imagem atual,pode ser a amostra de pixel direita superior ou a amostra de pixel central do bloco de imagem atual.
[185] Quando uma amostra de pixel é um bloco de pixel que inclui múltiplos pixels, as coordenadas da amostra de pixel podem ser coordenadas de qualquer pixel na amostra de pixel, ou coordenadas da amostra de pixel podem ser coordenadas de um pixel especificado na amostra de pixel (por exemplo, as coordenadas da amostra de pixel podem ser coordenadas de um pixel esquerdo superior, ou um pixel esquerdo inferior, ou um pixel direito superior, ou um pixel central na amostra de pixel).
[186] Pode ser entendido que, para cada bloco de imagem em um quadro de vídeo atual, um valor de pixel pode ser predito em um modo similar a um modo de predição de valor de pixel correspondente ao bloco de imagem atual. Certamente, para alguns blocos de imagem no quadro de vídeo atual, um valor de pixel também pode ser predito em um modo diferente do modo de predição de valor de pixel correspondente ao bloco de imagem atual.
[187] Para um entendimento e implantação melhores da solução supracitada da modalidade da presente invenção, o seguinte usa as situações de aplicação específica para descrição adicional.
[188] Com referência à Figura 2-a, a Figura 2-a é um fluxograma esquemático de outro método de predição de imagem de acordo com outra modalidade da presente invenção. Essa modalidade é descrita principalmente usando-se um método de predição de imagem implantado em um aparelho de conversão em código de vídeo como um exemplo. Conforme mostrado a título de exemplo na Figura 2-a, outro método de predição de imagem fornecido por outra modalidade da presente invenção pode incluir as etapas a seguir.
[189] S201. Um aparelho de conversão em código de vídeo determina duas amostras de pixel em um bloco de imagem atual.
[190] Nessa modalidade, o exemplo a seguir é principalmente usado: As duas amostras de pixel incluem duas amostras de pixel em uma amostra de pixel esquerda superior, uma amostra de pixel direita superior, uma amostra de pixel esquerda inferior e uma amostra de pixel central a1 do bloco de imagem atual. Por exemplo, as duas amostras de pixel incluem a amostra de pixel esquerda superior e a amostra de pixel direita superior do bloco de imagem atual. As situações nas quais as duas amostras de pixel são outras amostras de pixel do bloco de imagem atual podem ser deduzidas da mesma maneira.
[191] A amostra de pixel esquerda superior do bloco de imagem atual pode ser um vértice esquerdo superior do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e inclui um vértice esquerdo superior do bloco de imagem atual; a amostra de pixel esquerda inferior do bloco de imagem atual é um vértice esquerdo inferior do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e inclui um vértice esquerdo inferior do bloco de imagem atual; a amostra de pixel direita superior do bloco de imagem atual é um vértice direito superior do bloco de imagem atual, ou um bloco de pixel na bloco de imagem atual e inclui um vértice direito superior do bloco de imagem atual; e a amostra de pixel central a1 do bloco de imagem atual é um pixel central do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e inclui um pixel central do bloco de imagem atual.
[192] Se uma amostra de pixel é um bloco de pixel, um tamanho do bloco de pixel é, por exemplo, 2*2, 1*2, 4*2, 4*4, ou outro tamanho.
[193] S202. O aparelho de conversão em código de vídeo determina um conjunto de unidades-candidato de informações de movimento correspondente a cada uma das duas amostras de pixel.
[194] O conjunto de unidades-candidato de informações de movimento correspondente a cada amostra de pixel inclui pelo menos uma unidade-candidato de informações de movimento.
[195] A amostra de pixel mencionada em cada modalidade da presente invenção pode ser um pixel ou um bloco de pixel que inclui pelo menos dois pixels.
[196] Por exemplo, conforme mostrado na Figura 2-b e a Figura 2- c, um conjunto de unidades-candidato de informações de movimento S1 correspondente à amostra de pixel esquerda superior do bloco de imagem atual pode incluir unidades de informações de movimento de x1 amostras de pixel. As x1 amostras de pixel incluem pelo menos uma dentre uma amostra de pixel Col- LT que tem uma mesma localização que a amostra de pixel esquerda superior LT do bloco de imagem atual, um bloco de imagem C espacialmente adjacente a uma borda esquerda do bloco de imagem atual, um bloco de imagem A espacialmente adjacente a uma esquerda superior do bloco de imagem atual, ou um bloco de imagem B espacialmente adjacente a uma borda superior do bloco de imagem atual, em um quadro de vídeo temporalmente adjacente a um quadro de vídeo ao qual o bloco de imagem atual pertence. Por exemplo, uma unidade de informações de movimento do bloco de imagem C espacialmente adjacente à borda esquerda do bloco de imagem atual, uma unidade de informações de movimento do bloco de imagem A espacialmente adjacente à esquerda superior do bloco de imagem atual, e uma unidade de informações de movimento do bloco de imagem B espacialmente adjacente à borda superior do bloco de imagem atual podem ser obtidas primeiro, e a unidade de informações de movimento obtida do bloco de imagem C espacialmente adjacente à borda esquerda do bloco de imagem atual, unidade de informações de movimento do bloco de imagem A espacialmente adjacente à esquerda superior do bloco de imagem atual e a unidade de informações de movimento do bloco de imagem B espacialmente adjacente à borda superior do bloco de imagem atual são adicionadas ao conjunto de unidades-candidato de informações de movimento correspondente à amostra de pixel esquerda superior do bloco de imagem atual. Se algumas ou todas dentre a unidade de informações de movimento do bloco de imagem C espacialmente adjacente à borda esquerda do bloco de imagem atual, a unidade de informações de movimento do bloco de imagem A espacialmente adjacente à esquerda superior do bloco de imagem atual e a unidade de informações de movimento do bloco de imagem B espacialmente adjacente à borda superior do bloco de imagem atual são as mesmas, o processo de deduplicação é adicionalmente realizado no conjunto de unidades- candidato de informações de movimento S1 (nesse caso, uma quantidade de unidades de informações de movimento no conjunto de unidades-candidato de informações de movimento S1 após o processamento de deduplicação pode ser 1 ou 2). Se uma unidade de informações de movimento da amostra de pixel Col- LT que tem a mesma localização que a amostra de pixel esquerda superior LT do bloco de imagem atual, no quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence é a mesma que uma unidade de informações de movimento no conjunto de unidades-candidato de informações de movimento S1 após o processamento de deduplicação, uma unidade de informações de movimento zero pode ser adicionada ao conjunto de unidades-candidato de informações de movimento S1 até a quantidade de unidades de informações de movimento no conjunto de unidades-candidato de informações de movimento S1 ser igual a 3. Além disso, se uma unidade de informações de movimento da amostra de pixel Col-LT que tem a mesma localização que a amostra de pixel esquerda superior LT do bloco de imagem atual, no quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence, é diferente de qualquer unidade de informações de movimento no conjunto de unidades-candidato de informações de movimento S1 após o processamento de deduplicação, a unidade de informações de movimento da amostra de pixel Col-LT que tem a mesma localização que a amostra de pixel esquerda superior LT do bloco de imagem atual, no quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence, é adicionada ao conjunto de unidades- candidato de informações de movimento S1 após o processamento de deduplicação. Se a quantidade de unidades de informações de movimento no conjunto de unidades-candidato de informações de movimento S1 ainda é menor que 3, nesse caso, uma unidade de informações de movimento zero pode ser adicionada ao conjunto de unidades-candidato de informações de movimento S1 até a quantidade de unidades de informações de movimento no conjunto de unidades-candidato de informações de movimento S1 ser igual a 3.
[197] Se o quadro de vídeo ao qual o bloco de imagem atual pertence é um quadro de predição para frente, a unidade de informações de movimento zero adicionada ao conjunto de unidades-candidato de informações de movimento S1 inclui um vetor de movimento zero cuja direção de predição é para frente, mas não inclui um vetor de movimento zero cuja direção de predição é para trás. Se o quadro de vídeo ao qual o bloco de imagem atual pertence é um quadro de predição para trás, a unidade de informações de movimento zero adicionada ao conjunto de unidades-candidato de informações de movimento S1 inclui um vetor de movimento zero cuja direção de predição é para trás, mas não inclui um vetor de movimento zero cuja direção de predição é para frente. Além disso, se o quadro de vídeo ao qual o bloco de imagem atual pertence é um quadro de predição bidirecional, a unidade de informações de movimento zero adicionada ao conjunto de unidades-candidato de informações de movimento S1 inclui um vetor de movimento zero cuja direção de predição é para frente e um vetor de movimento zero cuja direção de predição é para trás. Os índices de quadro de referência correspondentes aos vetores de movimento em unidades de informações de movimento zero diferentes adicionadas ao conjunto de unidades-candidato de informações de movimento S1 podem ser diferentes e os índices de quadro de referência correspondentes podem ser, por exemplo, 0, 1, 2, 3 ou outro valor.
[198] De modo similar, por exemplo, conforme mostrado na Figura 2-b e a Figura 2-c, um conjunto de unidades-candidato de informações de movimento S2 correspondente à amostra de pixel direita superior do bloco de imagem atual pode incluir unidades de informações de movimento de x2 blocos de imagem. Os x2 blocos de imagem podem incluir pelo menos um dentre uma amostra de pixel Col-RT que tem uma mesma localização que a amostra de pixel direita superior RT do bloco de imagem atual, um bloco de imagem E espacialmente adjacente a uma direita superior do bloco de imagem atual ou um bloco de imagem D espacialmente adjacente à borda superior do bloco de imagem atual, em um quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence. Por exemplo, uma unidade de informações de movimento do bloco de imagem E espacialmente adjacente à direita superior do bloco de imagem atual e uma unidade de informações de movimento do bloco de imagem D espacialmente adjacente à borda superior do bloco de imagem atual podem ser obtidas primeiro, e a unidade de informações de movimento obtida do bloco de imagem E espacialmente adjacente à direita superior do bloco de imagem atual e a unidade de informações de movimento do bloco de imagem D espacialmente adjacente à borda superior do bloco de imagem atual são adicionadas ao conjunto de unidades-candidato de informações de movimento S2 correspondente à amostra de pixel direita superior do bloco de imagem atual. Se a unidade de informações de movimento do bloco de imagem E espacialmente adjacente à direita superior do bloco de imagem atual é a mesma que a unidade de informações de movimento do bloco de imagem D espacialmente adjacente à borda superior do bloco de imagem atual, o processamento de deduplicação pode ser realizado no conjunto de unidades- candidato de informações de movimento S2 (nesse caso, uma quantidade de unidades de informações de movimento no conjunto de unidades-candidato de informações de movimento S2 após o processamento de deduplicação é 1). Se uma unidade de informações de movimento da amostra de pixel Col-RT que tem a mesma localização que a amostra de pixel direita superior RT do bloco de imagem atual, no quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence é a mesma que uma unidade de informações de movimento no conjunto de unidades-candidato de informações de movimento S2 após o processamento de deduplicação, uma unidade de informações de movimento zero pode ser adicionada ao conjunto de unidades- candidato de informações de movimento S2 até a quantidade de unidades de informações de movimento no conjunto de unidades-candidato de informações de movimento S2 ser igual a 2. Além disso, se uma unidade de informações de movimento da amostra de pixel Col-RT que tem a mesma localização que a amostra de pixel direita superior RT do bloco de imagem atual, no quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence, é diferente de qualquer unidade de informações de movimento no conjunto de unidades-candidato de informações de movimento S2 após o processamento de deduplicação, a unidade de informações de movimento da amostra de pixel Col-RT que tem a mesma localização que a amostra de pixel direita superior RT do bloco de imagem atual, no quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence, pode ser adicionada ao conjunto de unidades-candidato de informações de movimento S2 após o processamento de deduplicação. Se a quantidade de unidades de informações de movimento no conjunto de unidades-candidato de informações de movimento S2 ainda é menor que 3, nesse caso, uma unidade de informações de movimento zero é adicionada ao conjunto de unidades-candidato de informações de movimento S2 até a quantidade de unidades de informações de movimento no conjunto de unidades-candidato de informações de movimento S2 ser igual a 3.
[199] Se o quadro de vídeo ao qual o bloco de imagem atual pertence é um quadro de predição para frente, a unidade de informações de movimento zero adicionada ao conjunto de unidades-candidato de informações de movimento S2 inclui um vetor de movimento zero cuja direção de predição é para frente, mas não inclui um vetor de movimento zero cuja direção de predição é para trás. Se o quadro de vídeo ao qual o bloco de imagem atual pertence é um quadro de predição para trás, a unidade de informações de movimento zero adicionada ao conjunto de unidades-candidato de informações de movimento S2 inclui um vetor de movimento zero cuja direção de predição é para trás, mas não inclui um vetor de movimento zero cuja direção de predição é para frente. Além disso, se o quadro de vídeo ao qual o bloco de imagem atual pertence é um quadro de predição bidirecional, a unidade de informações de movimento zero adicionada ao conjunto de unidades-candidato de informações de movimento S2 inclui um vetor de movimento zero cuja direção de predição é para frente e um vetor de movimento zero cuja direção de predição é para trás. Os índices de quadro de referência correspondentes aos vetores de movimento em unidades de informações de movimento zero diferentes adicionadas ao conjunto de unidades-candidato de informações de movimento S2 podem ser diferentes e os índices de quadro de referência correspondentes podem ser, por exemplo, 0, 1, 2, 3 ou outro valor.
[200] De modo similar, por exemplo, conforme mostrado na Figura 2-b e a Figura 2-c, um conjunto de unidades-candidato de informações de movimento S3 correspondente à amostra de pixel esquerda inferior do bloco de imagem atual pode incluir unidades de informações de movimento de x3 blocos de imagem. Os x3 blocos de imagem podem incluir pelo menos um dentre uma amostra de pixel Col-LB que tem uma mesma localização que a amostra de pixel esquerda inferior LB do bloco de imagem atual, um bloco de imagem G espacialmente adjacente a uma esquerda inferior do bloco de imagem atual ou um bloco de imagem F espacialmente adjacente à borda esquerda do bloco de imagem atual, em um quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence. Por exemplo, a unidade de informações de movimento do bloco de imagem G espacialmente adjacente à esquerda inferior do bloco de imagem atual e uma unidade de informações de movimento do bloco de imagem F espacialmente adjacente à borda esquerda do bloco de imagem atual são obtidas primeiro, e a unidade de informações de movimento obtida do bloco de imagem G espacialmente adjacente à esquerda inferior do bloco de imagem atual e a unidade de informações de movimento do bloco de imagem F espacialmente adjacente à borda esquerda do bloco de imagem atual podem ser adicionadas ao conjunto de unidades-candidato de informações de movimento S3 correspondente à amostra de pixel esquerda inferior do bloco de imagem atual. Se a unidade de informações de movimento do bloco de imagem G espacialmente adjacente à esquerda inferior do bloco de imagem atual é a mesma que a unidade de informações de movimento do bloco de imagem F espacialmente adjacente à borda esquerda do bloco de imagem atual, o processamento de deduplicação é realizado no conjunto de unidades- candidato de informações de movimento S3 (nesse caso, uma quantidade de unidades de informações de movimento no conjunto de unidades-candidato de informações de movimento S3 após o processamento de deduplicação é 1). Se uma unidade de informações de movimento da amostra de pixel Col-LB que tem a mesma localização que a amostra de pixel esquerda inferior LB do bloco de imagem atual, no quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence é a mesma que uma unidade de informações de movimento no conjunto de unidades-candidato de informações de movimento S3 após o processamento de deduplicação, uma unidade de informações de movimento zero pode ser adicionada ao conjunto de unidades- candidato de informações de movimento S3 até a quantidade de unidades de informações de movimento no conjunto de unidades-candidato de informações de movimento S3 ser igual a 2. Além disso, se uma unidade de informações de movimento da amostra de pixel Col-LB que tem a mesma localização que a amostra de pixel esquerda inferior LB do bloco de imagem atual, no quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence, é diferente de qualquer unidade de informações de movimento no conjunto de unidades-candidato de informações de movimento S3 após o processamento de deduplicação, a unidade de informações de movimento da amostra de pixel Col-LB que tem a mesma localização que a amostra de pixel esquerda inferior LB do bloco de imagem atual, no quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence, pode ser adicionada ao conjunto de unidades-candidato de informações de movimento S3 após o processamento de deduplicação. Se a quantidade de unidades de informações de movimento no conjunto de unidades- candidato de informações de movimento S3 ainda é menor que 3, nesse caso, uma unidade de informações de movimento zero é adicionada ao conjunto de unidades-candidato de informações de movimento S3 até a quantidade de unidades de informações de movimento no conjunto de unidades-candidato de informações de movimento S3 ser igual a 3.
[201] Se o quadro de vídeo ao qual o bloco de imagem atual pertence é um quadro de predição para frente, a unidade de informações de movimento zero adicionada ao conjunto de unidades-candidato de informações de movimento S3 inclui um vetor de movimento zero cuja direção de predição é para frente, mas não inclui um vetor de movimento zero cuja direção de predição é para trás. Se o quadro de vídeo ao qual o bloco de imagem atual pertence é um quadro de predição para trás, a unidade de informações de movimento zero adicionada ao conjunto de unidades-candidato de informações de movimento S3 inclui um vetor de movimento zero cuja direção de predição é para trás, mas não inclui um vetor de movimento zero cuja direção de predição é para frente. Além disso, se o quadro de vídeo ao qual o bloco de imagem atual pertence é um quadro de predição bidirecional, a unidade de informações de movimento zero adicionada ao conjunto de unidades-candidato de informações de movimento S3 inclui um vetor de movimento zero cuja direção de predição é para frente e um vetor de movimento zero cuja direção de predição é para trás. Os índices de quadro de referência correspondentes aos vetores de movimento em unidades de informações de movimento zero diferentes adicionadas ao conjunto de unidades-candidato de informações de movimento S3 podem ser diferentes e os índices de quadro de referência correspondentes podem ser, por exemplo, 0, 1, 2, 3 ou outro valor.
[202] Duas unidades de informações de movimento serem diferentes pode significar que os vetores de movimento incluídos nas duas unidades de informações de movimento são diferentes, ou que as direções de predição correspondentes aos vetores de movimento incluídos nas duas unidades de informações de movimento são diferentes, ou que os índices de quadro de referência correspondentes aos vetores de movimento incluídos nas duas unidades de informações de movimento são diferentes. Duas unidades de informações de movimento serem as mesmas pode significar que os vetores de movimento incluídos nas duas unidades de informações de movimento são os mesmos, e que as direções de predição correspondentes aos vetores de movimento incluídos nas duas unidades de informações de movimento são os mesmos e que os índices de quadro de referência correspondentes aos vetores de movimento incluídos nas duas unidades de informações de movimento são os mesmos.
[203] Pode ser entendido que, para uma situação na qual mais amostras de pixel existem, um conjunto de unidades-candidato de informações de movimento correspondente a uma amostra de pixel pode ser obtido de maneira similar.
[204] Por exemplo, conforme mostrado na Figura 2-d, no exemplo mostrado na Figura 2-d, as duas amostras de pixel podem incluir duas amostras de pixel em uma amostra de pixel esquerda superior, uma amostra de pixel direita superior, uma amostra de pixel esquerda inferior e uma amostra de pixel central a1 do bloco de imagem atual. A amostra de pixel esquerda superior do bloco de imagem atual é um vértice esquerdo superior do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e inclui um vértice esquerdo superior do bloco de imagem atual; a amostra de pixel esquerda inferior do bloco de imagem atual é um vértice esquerdo inferior do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e inclui um vértice esquerdo inferior do bloco de imagem atual; a amostra de pixel direita superior do bloco de imagem atual é um vértice direito superior do bloco de imagem atual, ou um bloco de pixel na bloco de imagem atual e inclui um vértice direito superior do bloco de imagem atual; e a amostra de pixel central a1 do bloco de imagem atual é um pixel central do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e inclui um pixel central do bloco de imagem atual.
[205] S203. O aparelho de conversão em código de vídeo determina N conjuntos mesclados de unidades-candidato de informações de movimento com base no conjunto de unidades-candidato de informações de movimento correspondente a cada uma das duas amostras de pixel. Cada unidade de informações de movimento incluída em cada um dos N conjuntos mesclados de unidades-candidato de informações de movimento é selecionada a partir de pelo menos algumas das unidades de informações de movimento de restrição-compatível no conjunto de unidades-candidato de informações de movimento correspondente a cada uma das duas amostras de pixel. Os N conjuntos mesclados de unidades-candidato de informações de movimento são diferentes entre si, e cada um dos N conjuntos mesclados de unidades-candidato de informações de movimento inclui duas unidades de informações de movimento.
[206] Pode ser entendido que, supondo-se que um conjunto mesclado de unidades-candidato de informações de movimento é determinado com base no conjunto de unidades-candidato de informações de movimento S1 (supondo-se que três unidades de informações de movimento são incluídas) e o conjunto de unidades-candidato de informações de movimento S2 (supondo-se que duas unidades de informações de movimento são incluídas), em teoria, 3*2=6 conjuntos mesclados de unidades-candidato de informações de movimento iniciais podem ser determinados. Entretanto, para melhorar a disponibilidade, por exemplo, pelo menos uma dentre uma primeira condição, uma segunda condição, uma terceira condição, uma quarta condição ou uma quinta condição pode ser usada para triar os N conjuntos mesclados de unidades-candidato de informações de movimento a partir dos seis conjuntos mesclados de unidades-candidato de informações de movimento iniciais. Se quantidades de unidades de informações de movimento incluídas no conjunto de unidades-candidato de informações de movimento S1 e o conjunto de unidades- candidato de informações de movimento S2 não são limitados aos exemplos supracitados, uma quantidade de conjuntos mesclados de unidades-candidato de informações de movimento inicial não é necessariamente seis.
[207] Para detalhes de restrições da primeira condição, a segunda condição, a terceira condição, a quarta condição e a quinta condição referem-se às descrições de exemplos na modalidade supracitada. Os detalhes não são descritos novamente no presente documento. Certamente, os N conjuntos mesclados de unidades-candidato de informações de movimento, por exemplo, podem cumprir adicionalmente outras condições que não são ilustradas.
[208] Em um processo de implantação específico, por exemplo, pelo menos uma dentre a primeira condição, a segunda condição ou a terceira condição pode ser primeiro usada para realizar a triagem nos conjuntos mesclados de unidades-candidato de informações de movimento iniciais e N01 conjuntos mesclados de unidades-candidato de informações de movimento são triados dos conjuntos mesclados de unidades-candidato de informações de movimento iniciais, então, o processamento de redimensionamento é realizado nos N01 conjuntos mesclados de unidades-candidato de informações de movimento e, então, pelo menos uma dentre a quarta condição ou a quinta condição é usada para triar os N conjuntos mesclados de unidades-candidato de informações de movimento dos N01 conjuntos mesclados de unidades- candidato de informações de movimento. Certamente, a triagem pode ser realizada nos conjuntos mesclados de unidades-candidato de informações de movimento iniciais usando-se diretamente pelo menos uma dentre a primeira condição, a segunda condição ou a terceira condição, sem fazer referência à quarta condição e à quinta condição, e os N conjuntos mesclados de unidades- candidato de informações de movimento são triados dos conjuntos mesclados de unidades-candidato de informações de movimento iniciais.
[209] Pode ser entendido que um vetor de movimento em conversão em código ou decodificação de vídeo reflete um valor de um deslocamento de um objeto em uma direção (uma direção de predição) em relação a um mesmo tempo (o mesmo tempo corresponde a um mesmo quadro de referência). Portanto, quando unidades de informações de movimento de amostras de pixel diferentes correspondem a direções de predição diferentes e/ou correspondem a índices de quadro de referência diferentes, um deslocamento de movimento de cada pixel ou bloco de pixel do bloco de imagem atual em relação a um quadro de referência não pode ser diretamente obtido. Entretanto, quando as amostras de pixel correspondem a uma mesma direção de predição e correspondem a um mesmo índice de quadro de referência, um vetor de movimento de cada pixel ou bloco de pixel no bloco de imagem pode ser obtido usando-se uma combinação dos vetores de movimento mesclados.
[210] Portanto, quando as unidades de informações de movimento de amostras de pixel diferentes em um conjunto mesclado de unidades- candidato de informações de movimento correspondem a direções de predição diferentes e/ou correspondem a índices de quadro de referência diferentes, o processamento de redimensionamento pode ser realizado no conjunto mesclado de unidades-candidato de informações de movimento. O processamento de redimensionamento realizado no conjunto mesclado de unidades-candidato de informações de movimento pode se referir à modificação, adição e/ou deleção ou semelhantes de um vetor de movimento em uma ou mais unidades de informações de movimento no conjunto mesclado de unidades-candidato de informações de movimento.
[211] Por exemplo, em algumas implantações possíveis da presente invenção, a predição de um valor de pixel do bloco de imagem atual usando-se um modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i pode incluir: quando um índice de quadro de referência correspondente a um vetor de movimento cuja direção de predição é uma primeira direção de predição no conjunto mesclado de unidades de informações de movimento i é diferente de um índice de quadro de referência do bloco de imagem atual, realizar o processamento de redimensionamento no conjunto mesclado de unidades de informações de movimento i, para que o vetor de movimento cuja direção de predição é a primeira direção de predição no conjunto mesclado de unidades de informações de movimento i seja redimensionado até um quadro de referência do bloco de imagem atual, e prever o valor de pixel do bloco de imagem atual usando-se o modelo de movimento afim e um conjunto mesclado de unidades de informações de movimento redimensionado i, em que a primeira direção de predição é para frente ou para trás; ou a previsão de um valor de pixel do bloco de imagem atual usando- se um modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i pode incluir: quando um índice de quadro de referência correspondente a um vetor de movimento cuja direção de predição é para frente no conjunto mesclado de unidades de informações de movimento i é diferente de um índice de quadro de referência para frente do bloco de imagem atual, e um índice de quadro de referência correspondente a um vetor de movimento cuja direção de predição é para trás no conjunto mesclado de unidades de informações de movimento i é diferente de um índice de quadro de referência para trás do bloco de imagem atual, realizar processamento de redimensionamento no conjunto mesclado de unidades de informações de movimento i, para que o vetor de movimento cuja direção de predição é para frente no conjunto mesclado de unidades de informações de movimento i seja redimensionado para um quadro de referência para frente do bloco de imagem atual e que o vetor de movimento cuja direção de predição é para trás no conjunto mesclado de unidades de informações de movimento i é redimensionado para um quadro de referência para trás do bloco de imagem atual, e prever o valor de pixel do bloco de imagem atual usando-se o modelo de movimento afim e um conjunto mesclado de unidades de informações de movimento redimensionado i.
[212] S204. O aparelho de conversão em código de vídeo determina, a partir dos N conjuntos mesclados de unidades-candidato de informações de movimento, um conjunto mesclado de unidades de informações de movimento i que inclui duas unidades de informações de movimento.
[213] Opcionalmente, em algumas implantações possíveis da presente invenção, o aparelho de conversão em código de vídeo pode gravar adicionalmente um identificador do conjunto mesclado de unidades de informações de movimento i em um fluxo de bits de vídeo. De modo correspondente, a aparelho de decodificação de vídeo determines, a partir dos N conjuntos mesclados de unidades-candidato de informações de movimento, com base no identificador que é do conjunto mesclado de unidades de informações de movimento i e é obtido a partir do fluxo de bits de vídeo, sendo que o conjunto mesclado de unidades de informações de movimento i inclui as duas unidades de informações de movimento.
[214] Opcionalmente, em algumas implantações possíveis da presente invenção, o aparelho de conversão em código de vídeo que determina, a partir de N conjuntos mesclados de unidades-candidato de informações de movimento, um conjunto mesclado de unidades de informações de movimento i que inclui duas unidades de informações de movimento pode incluir: determinar, a partir dos N conjuntos mesclados de unidades-candidato de informações de movimento, com base na distorção ou um custo de distorção de taxa, o conjunto mesclado de unidades de informações de movimento i que inclui dois vetores de movimento.
[215] Opcionalmente, um custo de distorção de taxa correspondente ao conjunto mesclado de unidades de informações de movimento i é inferior ou igual a um custo de distorção de taxa correspondente a qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento exceto pelo conjunto mesclado de unidades de informações de movimento i.
[216] Opcionalmente, a distorção correspondente ao conjunto mesclado de unidades de informações de movimento i é menor ou igual à distorção correspondente a qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento exceto pelo conjunto mesclado de unidades de informações de movimento i.
[217] Um custo de distorção de taxa correspondente a um conjunto mesclado de unidades-candidato de informações de movimento nos N conjuntos mesclados de unidades-candidato de informações de movimento (por exemplo, o conjunto mesclado de unidades de informações de movimento i nos N conjuntos mesclados de unidades-candidato de informações de movimento) pode ser, por exemplo, um custo de distorção de taxa correspondente a um valor de pixel predito de um bloco de imagem (por exemplo, o bloco de imagem atual) obtido prevendo-se o valor de pixel do bloco de imagem usando-se o conjunto mesclado de unidades-candidato de informações de movimento (por exemplo, o conjunto mesclado de unidades de informações de movimento i).
[218] A distorção correspondente a um conjunto mesclado de unidades-candidato de informações de movimento nos N conjuntos mesclados de unidades-candidato de informações de movimento (por exemplo, o conjunto mesclado de unidades de informações de movimento i nos N conjuntos mesclados de unidades-candidato de informações de movimento) pode ser, por exemplo, uma distorção entre um valor de pixel original de um bloco de imagem (por exemplo, o bloco de imagem atual) e um valor de pixel predito do bloco de imagem obtido prevendo-se o valor de pixel do bloco de imagem usando-se o conjunto mesclado de unidades-candidato de informações de movimento (por exemplo, o conjunto mesclado de unidades de informações de movimento i) (a saber, a distorção entre o valor de pixel original e o valor de pixel predito do bloco de imagem).
[219] Em algumas implantações possíveis da presente invenção, a distorção entre um valor de pixel original de um bloco de imagem (por exemplo, o bloco de imagem atual) e um valor de pixel predito do bloco de imagem obtido prevendo-se o valor de pixel do bloco de imagem usando-se o conjunto mesclado de unidades-candidato de informações de movimento (por exemplo, o conjunto mesclado de unidades de informações de movimento i) pode ser especificamente, por exemplo, uma soma de diferenças quadráticas (SSD) ou uma soma de diferenças absolutas (SAD) ou uma soma de diferenças entre o valor de pixel original do bloco de imagem (por exemplo, o bloco de imagem atual) e o valor de pixel predito do bloco de imagem obtido prevendo-se o valor de pixel do bloco de imagem usando-se o conjunto mesclado de unidades- candidato de informações de movimento (por exemplo, o conjunto mesclado de unidades de informações de movimento i) ou outro parâmetro de distorção que pode medir a distorção.
[220] Adicionalmente, para reduzir adicionalmente a complexidade computacional, quando N é maior que n1, n1 conjuntos mesclados de unidades-candidato de informações de movimento podem ser triados dos N conjuntos mesclados de unidades-candidato de informações de movimento, e o conjunto mesclado de unidades de informações de movimento i que inclui as duas unidades de informações de movimento é determinado a partir dos n1 conjuntos mesclados de unidades-candidato de informações de movimento com base na distorção ou no custo de distorção de taxa. D(V) correspondente a qualquer um dos n1 conjuntos mesclados de unidades-candidato de informações de movimento é menor ou igual aos mesmos. D(V) é correspondente a qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento exceto os n1 conjuntos mesclados de unidades-candidato de informações de movimento, em que n1 é, por exemplo, igual a 3, 4, 5, 6 ou outro valor.
[221] Adicionalmente, os n1 conjuntos mesclados de unidades- candidato de informações de movimento ou identificadores dos n1 conjuntos mesclados de unidades-candidato de informações de movimento podem ser adicionados a uma lista de conjunto mesclado de unidades-candidato de informações de movimento. Se N é menor ou igual a n1, os N conjuntos mesclados de unidades-candidato de informações de movimento ou identificadores dos N conjuntos mesclados de unidades-candidato de informações de movimento podem ser adicionados à fileira de conjunto mesclado de unidades-candidato de informações de movimento. Os conjuntos mesclados de unidades-candidato de informações de movimento na fileira de conjunto mesclado de unidades-candidato de informações de movimento podem ser em ordem crescente ou ordem decrescente, por exemplo, de acordo com um valor de D(V).
[222] Por exemplo, um parâmetro de distância euclidiana D(V) de qualquer um (por exemplo, o conjunto mesclado de unidades de informações de movimento i) dos N conjuntos mesclados de unidades-candidato de informações de movimento pode ser computado da maneira a seguir:, em que indica um componente horizontal de um vetor de movimento indica componente vertical do vetor de movimento são dois vetores de movimento de duas amostras de pixel incluídas em um conjunto mesclado de unidades-candidato de informações de movimento nos N conjuntos mesclados de unidades-candidato de informações de movimento, um vetor de movimento indica um vetor de movimento de outra amostra de pixel do bloco de imagem atual e a outra amostra de pixel é diferente das duas amostras de pixel. Por exemplo, conforme mostrado na Figura 2-e, indicam os vetores de movimento da amostra de pixel esquerda superior e a amostra de pixel direita superior do bloco de imagem atual e o vetor de movimento indica um vetor de movimento da amostra de pixel esquerda inferior do bloco de imagem atual. Certamente, o vetor de movimento também pode indicar um vetor de movimento da amostra de pixel central ou qualquer outra amostra de pixel do bloco de imagem atual.
[223] Opcionalmente,, ou
[224] Adicionalmente, a fileira de conjunto mesclado de unidades- candidato de informações de movimento pode ser obtida classificando-se valores de D(V) dos N conjuntos mesclados de unidades-candidato de informações de movimento na ordem crescente ou ordem decrescente. Os conjuntos mesclados de unidade de informações de movimento na fileira de conjunto mesclado de unidades-candidato de informações de movimento são diferentes entre si, e um índice pode ser usado para indicar um conjunto mesclado de unidades de informações de movimento na fileira de conjunto mesclado de unidades-candidato de informações de movimento.
[225] S205. O aparelho de conversão em código de vídeo prevê um vetor de movimento do bloco de imagem atual usando-se um modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i.
[226] Supõe-se que um tamanho do bloco de imagem atual seja wxh, e que w é igual ou não igual a h.
[227] Supõe-se que as coordenadas das duas amostras de pixel são (0, 0) e (w, 0) . No presente documento, por exemplo, as coordenadas de um pixel em um canto esquerdo superior de uma amostra de pixel participam na computação. Com referência à Figura 2-e, a Figura 2-e mostra coordenadas de quatro vértices do bloco de imagem atual. Com referência à Figura 2-f e Figura 2-g, Figura 2-f e Figura 2-g, são mostrados diagramas esquemáticos de movimento afim.
[228] Os vetores de movimento das duas amostras de pixel sãorespectivamente. Por exemplo, as coordenadas e vetores de movimento das duas amostras de pixel são substituídas pelo modelo de movimento afim a seguir, e um vetor de movimento de qualquer pixel no bloco de imagem atual x pode ser computado:
[229] Os vetores de movimento das duas amostras de pixel sãorespectivamente, vx e vy são respectivamente um componente horizontal (vx) e um componente vertical (vy) de um vetor de movimnto de uma amostra de pixel cujas coordenadas são (x, y) no bloco de imagem atual, e w é um comprimento ou largura do bloco de imagem atual.
[230] Adicionalmente, o aparelho de conversão em código de vído pode prever um valor de pixel do bloco de imagem atual com base em um vtor d movimento computado de cada pixel ou cada bloco de pixel do bloco de imagem atual. O aparelho de conversão em código de vídeo pode obter um rsidual de predição do bloco de imagem atual usando-se um valor de pixel original do bloco de imagem atual e o valor de pixel predito do bloco de imagem atual qu é obtido prevendo-se o valor de pixel do bloco de imagem atual. O aparelho de conversão em código de vídeo pode gravar o residual de predição do bloco de imagem atual no fluxo de bits de vídeo.
[231] Pode ser aprendido que, na solução técnica dessa modalidade, um aparelho de conversão em código de vídeo prevê um valor de pixel de um bloco de imagem atual usando-se um modelo de movimento afim e um conjunto mesclado de unidades de informações de movimento i, em que cada unidad de informações de movimento no conjunto mesclado de unidades de informações de movimento i é selecionada a partir de pelo menos algumas unidades de informações de movimento em um conjunto de unidades-candidato d informações de movimento correspondente a cada uma das duas amostras d pixl. Devido a uma faixa de seleção do conjunto mesclado de unidades de informações de movimento i se tornar relativamente pequena, um mecanismo usado em uma tecnologia convencional para triar unidades de informações de movimnto de múltiplas amostras de pixel apenas realizando-se uma quantidade grande de computação em todos os conjuntos de unidades de informações de movimnto candidato possíveis das múltiplas amostras de pixel é abandonado. Isso auxilia em melhorar a eficácia de conversão em código, assim como auxilia a rduzir a complexidade computacional de predição de imagem realizada com base no modelo de movimento afim, torna adicionalmente possível para introduzir o modelo de movimento afim em um padrão de conversão em código de vídeo, e devido ao modelo de movimento afim ser introduzido, auxilia a descrever o movimento de um objeto de modo mais preciso, e auxilia, portanto, a melhorar a precisão de predição. Devido a uma quantidade de amostras de pixel de referência poder ser dois, isso auxilia adicionalmente a reduzir a complexidade computacional de predição de imagem realizada com base no modelo de movimento afim após o modelo de movimento afim ser introduzido e também auxilia a reduzir as informações de parâmetro afim ou uma quantidade de diferenças de vetor de movimento ou semelhantes transferidas por um codificador.
[232] O seguinte ilustra um processo de derivar o modelo de movimento afim mostrado na fórmula 1. Por exemplo, um modelo de movimento de rotação pode ser usado para derivar o modelo de movimento afim.
[233] Por exemplo, o movimento de rotação é mostrado por meio de exemplo na Figura 2-h ou Figura 2-i.
[234] O modelo de movimento de rotação é mostrado em uma fórmula (2), em que (x', y') são coordenadas correspondentes a um pixel cujas coordenadas são (x, y), em um quadro de referência, θ é um ângulo de rotação, e (a0, a1) são componentes translacionais. Se um coeficiente de transformada é conhecido, um vetor de movimento (vx, vy) de um pixel (x, y) pode ser obtido:
[235] Uma matriz de rotação usada é
[236] Com base na rotação, se a ampliação é realizada usando- se um coeficiente ' , o modelo de movimento afim simplificado a seguir é obtido, de modo a evitar computação triangular em movimento de rotação:
[237] Isso auxilia a reduzir a complexidade computacional e pode simplificar um processo de computação do vetor de movimento de cada pixel. Além disso, como um modelo de movimento afim geral, esse modelo pode ser aplicado a situações de movimento complexo, como rotação e dimensionamento. O modelo de movimento afim simplificado pode ser descrito em uma fórmula 3. Em comparação com o modelo de movimento afim geral, apenas quatro parâmetros podem ser exigidos para expressar o modelo de movimento afim simplificado:
[238] Para um bloco de imagem (por exemplo, CUR) cujo tamanho é w x h, uma borda direita e uma borda inferior do bloco de imagem são separadamente estendidos por uma fileira para obter vértices cujas coordenadas são (0,0) e (w,0) , e vetores de movimento de vértices cujas coordenadas são (0,0) e (w,0) são obtidos. Os dois vértices são usados como amostras de pixel (certamente, outro pixel também pode ser usado como uma amostra de pixel de referência, por exemplo, uma amostra de pixel central), as coordenadas e os vetores de movimento das amostras de pixel são substituídos na fórmula (3), e a fórmula 1 pode ser derivada:em que
[239] Os vetores de movimento das duas amostras de pixel são respectivamente, vx é um componente horizontal de um vetor de movimento de uma amostra de pixel cujas coordenadas são (x, y) no bloco de imagem atual, vy é um componente vertical do vetor de movimento da amostra de pixel cujas coordenadas são (x, y) no bloco de imagem atual, e w é um comprimento ou largura do bloco de imagem atual.
[240] Pode ser entendido que o processo de derivação supracitado mostra que a fórmula 1 tem disponibilidade relativamente alta. Durante a prática, é constatado que, devido a uma quantidade de amostras de pixel de referência poder ser dois, isso auxilia a reduzir adicionalmente a complexidade computacional de predição de imagem realizada com base no modelo de movimento afim após o modelo de movimento afim ser introduzido, e reduzir informações de parâmetro afim ou uma quantidade de diferenças de vetor de movimento transferidas durante a conversão em código.
[241] Com referência à Figura 3, a Figura 3 é um fluxograma esquemático de outro método de predição de imagem de acordo com outra modalidade da presente invenção. Essa modalidade é descrita principalmente usando-se um método de predição de imagem implantado em um aparelho de decodificação de vídeo como um exemplo. Conforme mostrado a título de exemplo na Figura 3, outro método de predição de imagem fornecido por outra modalidade da presente invenção pode incluir as etapas a seguir.
[242] S301. Um aparelho de decodificação de vídeo determina duas amostras de pixel em um bloco de imagem atual.
[243] Nessa modalidade, o exemplo a seguir é principalmente usado: As duas amostras de pixel incluem duas amostras de pixel em uma amostra de pixel esquerda superior, uma amostra de pixel direita superior, uma amostra de pixel esquerda inferior e uma amostra de pixel central a1 do bloco de imagem atual. Por exemplo, as duas amostras de pixel incluem a amostra de pixel esquerda superior e a amostra de pixel direita superior do bloco de imagem atual. As situações nas quais as duas amostras de pixel são outras amostras de pixel do bloco de imagem atual podem ser deduzidas da mesma maneira.
[244] A amostra de pixel esquerda superior do bloco de imagem atual pode ser um vértice esquerdo superior do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e inclui um vértice esquerdo superior do bloco de imagem atual; a amostra de pixel esquerda inferior do bloco de imagem atual é um vértice esquerdo inferior do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e inclui um vértice esquerdo inferior do bloco de imagem atual; a amostra de pixel direita superior do bloco de imagem atual é um vértice direito superior do bloco de imagem atual, ou um bloco de pixel na bloco de imagem atual e inclui um vértice direito superior do bloco de imagem atual; e a amostra de pixel central a1 do bloco de imagem atual é um pixel central do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e inclui um pixel central do bloco de imagem atual.
[245] Se uma amostra de pixel é um bloco de pixel, um tamanho do bloco de pixel é, por exemplo, 2*2, 1*2, 4*2, 4*4, ou outro tamanho.
[246] S302. O aparelho de decodificação de vídeo determina um conjunto de unidades-candidato de informações de movimento que corresponde a cada uma das duas amostras de pixel.
[247] O conjunto de unidades-candidato de informações de movimento correspondente a cada amostra de pixel inclui pelo menos uma unidade-candidato de informações de movimento.
[248] A amostra de pixel mencionada em cada modalidade da presente invenção pode ser um pixel ou um bloco de pixel que inclui pelo menos dois pixels.
[249] Por exemplo, conforme mostrado na Figura 2-b e a Figura 2- c, um conjunto de unidades-candidato de informações de movimento S1 correspondente à amostra de pixel esquerda superior do bloco de imagem atual pode incluir unidades de informações de movimento de x1 amostras de pixel. As x1 amostras de pixel incluem pelo menos uma dentre uma amostra de pixel Col- LT que tem uma mesma localização que a amostra de pixel esquerda superior LT do bloco de imagem atual, um bloco de imagem C espacialmente adjacente a uma borda esquerda do bloco de imagem atual, um bloco de imagem A espacialmente adjacente a uma esquerda superior do bloco de imagem atual, ou um bloco de imagem B espacialmente adjacente a uma borda superior do bloco de imagem atual, em um quadro de vídeo temporalmente adjacente a um quadro de vídeo ao qual o bloco de imagem atual pertence. Por exemplo, uma unidade de informações de movimento do bloco de imagem C espacialmente adjacente à borda esquerda do bloco de imagem atual, uma unidade de informações de movimento do bloco de imagem A espacialmente adjacente à esquerda superior do bloco de imagem atual, e uma unidade de informações de movimento do bloco de imagem B espacialmente adjacente à borda superior do bloco de imagem atual podem ser obtidas primeiro, e a unidade de informações de movimento obtida do bloco de imagem C espacialmente adjacente à borda esquerda do bloco de imagem atual, unidade de informações de movimento do bloco de imagem A espacialmente adjacente à esquerda superior do bloco de imagem atual e a unidade de informações de movimento do bloco de imagem B espacialmente adjacente à borda superior do bloco de imagem atual são adicionadas ao conjunto de unidades-candidato de informações de movimento correspondente à amostra de pixel esquerda superior do bloco de imagem atual. Se algumas ou todas dentre a unidade de informações de movimento do bloco de imagem C espacialmente adjacente à borda esquerda do bloco de imagem atual, a unidade de informações de movimento do bloco de imagem A espacialmente adjacente à esquerda superior do bloco de imagem atual e a unidade de informações de movimento do bloco de imagem B espacialmente adjacente à borda superior do bloco de imagem atual são as mesmas, o processo de deduplicação é adicionalmente realizado no conjunto de unidades- candidato de informações de movimento S1 (nesse caso, uma quantidade de unidades de informações de movimento no conjunto de unidades-candidato de informações de movimento S1 após o processamento de deduplicação pode ser 1 ou 2). Se uma unidade de informações de movimento da amostra de pixel Col- LT que tem a mesma localização que a amostra de pixel esquerda superior LT do bloco de imagem atual, no quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence é a mesma que uma unidade de informações de movimento no conjunto de unidades-candidato de informações de movimento S1 após o processamento de deduplicação, uma unidade de informações de movimento zero pode ser adicionada ao conjunto de unidades-candidato de informações de movimento S1 até a quantidade de unidades de informações de movimento no conjunto de unidades-candidato de informações de movimento S1 ser igual a 3. Além disso, se uma unidade de informações de movimento da amostra de pixel Col-LT que tem a mesma localização que a amostra de pixel esquerda superior LT do bloco de imagem atual, no quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence, é diferente de qualquer unidade de informações de movimento no conjunto de unidades-candidato de informações de movimento S1 após o processamento de deduplicação, a unidade de informações de movimento da amostra de pixel Col-LT que tem a mesma localização que a amostra de pixel esquerda superior LT do bloco de imagem atual, no quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence, é adicionada ao conjunto de unidades- candidato de informações de movimento S1 após o processamento de deduplicação. Se a quantidade de unidades de informações de movimento no conjunto de unidades-candidato de informações de movimento S1 ainda é menor que 3, nesse caso, uma unidade de informações de movimento zero pode ser adicionada ao conjunto de unidades-candidato de informações de movimento S1 até a quantidade de unidades de informações de movimento no conjunto de unidades-candidato de informações de movimento S1 ser igual a 3.
[250] Se o quadro de vídeo ao qual o bloco de imagem atual pertence é um quadro de predição para frente, a unidade de informações de movimento zero adicionada ao conjunto de unidades-candidato de informações de movimento S1 inclui um vetor de movimento zero cuja direção de predição é para frente, mas não inclui um vetor de movimento zero cuja direção de predição é para trás. Se o quadro de vídeo ao qual o bloco de imagem atual pertence é um quadro de predição para trás, a unidade de informações de movimento zero adicionada ao conjunto de unidades-candidato de informações de movimento S1 inclui um vetor de movimento zero cuja direção de predição é para trás, mas não inclui um vetor de movimento zero cuja direção de predição é para frente. Além disso, se o quadro de vídeo ao qual o bloco de imagem atual pertence é um quadro de predição bidirecional, a unidade de informações de movimento zero adicionada ao conjunto de unidades-candidato de informações de movimento S1 inclui um vetor de movimento zero cuja direção de predição é para frente e um vetor de movimento zero cuja direção de predição é para trás. Os índices de quadro de referência correspondentes aos vetores de movimento em unidades de informações de movimento zero diferentes adicionadas ao conjunto de unidades-candidato de informações de movimento S1 podem ser diferentes e os índices de quadro de referência correspondentes podem ser, por exemplo, 0, 1, 2, 3 ou outro valor.
[251] De modo similar, por exemplo, conforme mostrado na Figura 2-b e a Figura 2-c, um conjunto de unidades-candidato de informações de movimento S2 correspondente à amostra de pixel direita superior do bloco de imagem atual pode incluir unidades de informações de movimento de x2 blocos de imagem. Os x2 blocos de imagem podem incluir pelo menos um dentre uma amostra de pixel Col-RT que tem uma mesma localização que a amostra de pixel direita superior RT do bloco de imagem atual, um bloco de imagem E espacialmente adjacente a uma direita superior do bloco de imagem atual ou um bloco de imagem D espacialmente adjacente à borda superior do bloco de imagem atual, em um quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence. Por exemplo, uma unidade de informações de movimento do bloco de imagem E espacialmente adjacente à direita superior do bloco de imagem atual e uma unidade de informações de movimento do bloco de imagem D espacialmente adjacente à borda superior do bloco de imagem atual podem ser obtidas primeiro, e a unidade de informações de movimento obtida do bloco de imagem E espacialmente adjacente à direita superior do bloco de imagem atual e a unidade de informações de movimento do bloco de imagem D espacialmente adjacente à borda superior do bloco de imagem atual são adicionadas ao conjunto de unidades-candidato de informações de movimento S2 correspondente à amostra de pixel direita superior do bloco de imagem atual. Se a unidade de informações de movimento do bloco de imagem E espacialmente adjacente à direita superior do bloco de imagem atual é a mesma que a unidade de informações de movimento do bloco de imagem D espacialmente adjacente à borda superior do bloco de imagem atual, o processamento de deduplicação pode ser realizado no conjunto de unidades- candidato de informações de movimento S2 (nesse caso, uma quantidade de unidades de informações de movimento no conjunto de unidades-candidato de informações de movimento S2 após o processamento de deduplicação é 1). Se uma unidade de informações de movimento da amostra de pixel Col-RT que tem a mesma localização que a amostra de pixel direita superior RT do bloco de imagem atual, no quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence é a mesma que uma unidade de informações de movimento no conjunto de unidades-candidato de informações de movimento S2 após o processamento de deduplicação, uma unidade de informações de movimento zero pode ser adicionada ao conjunto de unidades- candidato de informações de movimento S2 até a quantidade de unidades de informações de movimento no conjunto de unidades-candidato de informações de movimento S2 ser igual a 2. Além disso, se uma unidade de informações de movimento da amostra de pixel Col-RT que tem a mesma localização que a amostra de pixel direita superior RT do bloco de imagem atual, no quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence, é diferente de qualquer unidade de informações de movimento no conjunto de unidades-candidato de informações de movimento S2 após o processamento de deduplicação, a unidade de informações de movimento da amostra de pixel Col-RT que tem a mesma localização que a amostra de pixel direita superior RT do bloco de imagem atual, no quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence, pode ser adicionada ao conjunto de unidades-candidato de informações de movimento S2 após o processamento de deduplicação. Se a quantidade de unidades de informações de movimento no conjunto de unidades-candidato de informações de movimento S2 ainda é menor que 3, nesse caso, uma unidade de informações de movimento zero é adicionada ao conjunto de unidades-candidato de informações de movimento S2 até a quantidade de unidades de informações de movimento no conjunto de unidades-candidato de informações de movimento S2 ser igual a 3.
[252] Se o quadro de vídeo ao qual o bloco de imagem atual pertence é um quadro de predição para frente, a unidade de informações de movimento zero adicionada ao conjunto de unidades-candidato de informações de movimento S2 inclui um vetor de movimento zero cuja direção de predição é para frente, mas não inclui um vetor de movimento zero cuja direção de predição é para trás. Se o quadro de vídeo ao qual o bloco de imagem atual pertence é um quadro de predição para trás, a unidade de informações de movimento zero adicionada ao conjunto de unidades-candidato de informações de movimento S2 inclui um vetor de movimento zero cuja direção de predição é para trás, mas não inclui um vetor de movimento zero cuja direção de predição é para frente. Além disso, se o quadro de vídeo ao qual o bloco de imagem atual pertence é um quadro de predição bidirecional, a unidade de informações de movimento zero adicionada ao conjunto de unidades-candidato de informações de movimento S2 inclui um vetor de movimento zero cuja direção de predição é para frente e um vetor de movimento zero cuja direção de predição é para trás. Os índices de quadro de referência correspondentes aos vetores de movimento em unidades de informações de movimento zero diferentes adicionadas ao conjunto de unidades-candidato de informações de movimento S2 podem ser diferentes e os índices de quadro de referência correspondentes podem ser, por exemplo, 0, 1, 2, 3 ou outro valor.
[253] De modo similar, por exemplo, conforme mostrado na Figura 2-b e a Figura 2-c, um conjunto de unidades-candidato de informações de movimento S3 correspondente à amostra de pixel esquerda inferior do bloco de imagem atual pode incluir unidades de informações de movimento de x3 blocos de imagem. Os x3 blocos de imagem podem incluir pelo menos um dentre uma amostra de pixel Col-LB que tem uma mesma localização que a amostra de pixel esquerda inferior LB do bloco de imagem atual, um bloco de imagem G espacialmente adjacente a uma esquerda inferior do bloco de imagem atual ou um bloco de imagem F espacialmente adjacente à borda esquerda do bloco de imagem atual, em um quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence. Por exemplo, a unidade de informações de movimento do bloco de imagem G espacialmente adjacente à esquerda inferior do bloco de imagem atual e uma unidade de informações de movimento do bloco de imagem F espacialmente adjacente à borda esquerda do bloco de imagem atual são obtidas primeiro, e a unidade de informações de movimento obtida do bloco de imagem G espacialmente adjacente à esquerda inferior do bloco de imagem atual e a unidade de informações de movimento do bloco de imagem F espacialmente adjacente à borda esquerda do bloco de imagem atual podem ser adicionadas ao conjunto de unidades-candidato de informações de movimento S3 correspondente à amostra de pixel esquerda inferior do bloco de imagem atual. Se a unidade de informações de movimento do bloco de imagem G espacialmente adjacente à esquerda inferior do bloco de imagem atual é a mesma que a unidade de informações de movimento do bloco de imagem F espacialmente adjacente à borda esquerda do bloco de imagem atual, o processamento de deduplicação é realizado no conjunto de unidades- candidato de informações de movimento S3 (nesse caso, uma quantidade de unidades de informações de movimento no conjunto de unidades-candidato de informações de movimento S3 após o processamento de deduplicação é 1). Se uma unidade de informações de movimento da amostra de pixel Col-LB que tem a mesma localização que a amostra de pixel esquerda inferior LB do bloco de imagem atual, no quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence é a mesma que uma unidade de informações de movimento no conjunto de unidades-candidato de informações de movimento S3 após o processamento de deduplicação, uma unidade de informações de movimento zero pode ser adicionada ao conjunto de unidades- candidato de informações de movimento S3 até a quantidade de unidades de informações de movimento no conjunto de unidades-candidato de informações de movimento S3 ser igual a 2. Além disso, se uma unidade de informações de movimento da amostra de pixel Col-LB que tem a mesma localização que a amostra de pixel esquerda inferior LB do bloco de imagem atual, no quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence, é diferente de qualquer unidade de informações de movimento no conjunto de unidades-candidato de informações de movimento S3 após o processamento de deduplicação, a unidade de informações de movimento da amostra de pixel Col-LB que tem a mesma localização que a amostra de pixel esquerda inferior LB do bloco de imagem atual, no quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence, pode ser adicionada ao conjunto de unidades-candidato de informações de movimento S3 após o processamento de deduplicação. Se a quantidade de unidades de informações de movimento no conjunto de unidades- candidato de informações de movimento S3 ainda é menor que 3, nesse caso, uma unidade de informações de movimento zero é adicionada ao conjunto de unidades-candidato de informações de movimento S3 até a quantidade de unidades de informações de movimento no conjunto de unidades-candidato de informações de movimento S3 ser igual a 3.
[254] Se o quadro de vídeo ao qual o bloco de imagem atual pertence é um quadro de predição para frente, a unidade de informações de movimento zero adicionada ao conjunto de unidades-candidato de informações de movimento S3 inclui um vetor de movimento zero cuja direção de predição é para frente, mas não inclui um vetor de movimento zero cuja direção de predição é para trás. Se o quadro de vídeo ao qual o bloco de imagem atual pertence é um quadro de predição para trás, a unidade de informações de movimento zero adicionada ao conjunto de unidades-candidato de informações de movimento S3 inclui um vetor de movimento zero cuja direção de predição é para trás, mas não inclui um vetor de movimento zero cuja direção de predição é para frente. Além disso, se o quadro de vídeo ao qual o bloco de imagem atual pertence é um quadro de predição bidirecional, a unidade de informações de movimento zero adicionada ao conjunto de unidades-candidato de informações de movimento S3 inclui um vetor de movimento zero cuja direção de predição é para frente e um vetor de movimento zero cuja direção de predição é para trás. Os índices de quadro de referência correspondentes aos vetores de movimento em unidades de informações de movimento zero diferentes adicionadas ao conjunto de unidades-candidato de informações de movimento S3 podem ser diferentes e os índices de quadro de referência correspondentes podem ser, por exemplo, 0, 1, 2, 3 ou outro valor.
[255] Duas unidades de informações de movimento serem diferentes pode significar que os vetores de movimento incluídos nas duas unidades de informações de movimento são diferentes, ou que as direções de predição correspondentes aos vetores de movimento incluídos nas duas unidades de informações de movimento são diferentes, ou que os índices de quadro de referência correspondentes aos vetores de movimento incluídos nas duas unidades de informações de movimento são diferentes. Duas unidades de informações de movimento serem as mesmas pode significar que os vetores de movimento incluídos nas duas unidades de informações de movimento são os mesmos, e que as direções de predição correspondentes aos vetores de movimento incluídos nas duas unidades de informações de movimento são os mesmos e que os índices de quadro de referência correspondentes aos vetores de movimento incluídos nas duas unidades de informações de movimento são os mesmos.
[256] Pode ser entendido que, para uma situação na qual mais amostras de pixel existem, um conjunto de unidades-candidato de informações de movimento correspondente a uma amostra de pixel pode ser obtido de maneira similar.
[257] Por exemplo, conforme mostrado na Figura 2-d, no exemplo mostrado na Figura 2-d, as duas amostras de pixel podem incluir duas amostras de pixel em uma amostra de pixel esquerda superior, uma amostra de pixel direita superior, uma amostra de pixel esquerda inferior e uma amostra de pixel central a1 do bloco de imagem atual. A amostra de pixel esquerda superior do bloco de imagem atual é um vértice esquerdo superior do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e inclui um vértice esquerdo superior do bloco de imagem atual; a amostra de pixel esquerda inferior do bloco de imagem atual é um vértice esquerdo inferior do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e inclui um vértice esquerdo inferior do bloco de imagem atual; a amostra de pixel direita superior do bloco de imagem atual é um vértice direito superior do bloco de imagem atual, ou um bloco de pixel na bloco de imagem atual e inclui um vértice direito superior do bloco de imagem atual; e a amostra de pixel central a1 do bloco de imagem atual é um pixel central do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e inclui um pixel central do bloco de imagem atual.
[258] S303. O aparelho de decodificação de vídeo determina N conjuntos mesclados de unidades-candidato de informações de movimento com base no conjunto de unidades-candidato de informações de movimento que corresponde a cada uma das duas amostras de pixel. Cada unidade de informações de movimento incluída em cada um dos N conjuntos mesclados de unidades-candidato de informações de movimento é selecionada a partir de pelo menos algumas das unidades de informações de movimento de restrição- compatível no conjunto de unidades-candidato de informações de movimento correspondente a cada uma das duas amostras de pixel. Os N conjuntos mesclados de unidades-candidato de informações de movimento são diferentes entre si, e cada um dos N conjuntos mesclados de unidades-candidato de informações de movimento inclui duas unidades de informações de movimento.
[259] Pode ser entendido que, supondo-se que um conjunto mesclado de unidades-candidato de informações de movimento é determinado com base no conjunto de unidades-candidato de informações de movimento S1 (supondo-se que três unidades de informações de movimento são incluídas) e o conjunto de unidades-candidato de informações de movimento S2 (supondo-se que duas unidades de informações de movimento são incluídas), em teoria, 3*2=6 conjuntos mesclados de unidades-candidato de informações de movimento iniciais podem ser determinados. Entretanto, para melhorar a disponibilidade, por exemplo, pelo menos uma dentre uma primeira condição, uma segunda condição, uma terceira condição, uma quarta condição ou uma quinta condição pode ser usada para triar os N conjuntos mesclados de unidades-candidato de informações de movimento a partir dos seis conjuntos mesclados de unidades-candidato de informações de movimento iniciais. Se quantidades de unidades de informações de movimento incluídas no conjunto de unidades-candidato de informações de movimento S1 e o conjunto de unidades- candidato de informações de movimento S2 não são limitados aos exemplos supracitados, uma quantidade de conjuntos mesclados de unidades-candidato de informações de movimento inicial não é necessariamente seis.
[260] Para detalhes de restrições da primeira condição, a segunda condição, a terceira condição, a quarta condição e a quinta condição referem-se às descrições de exemplos na modalidade supracitada. Os detalhes não são descritos novamente no presente documento. Certamente, os N conjuntos mesclados de unidades-candidato de informações de movimento, por exemplo, podem cumprir adicionalmente outras condições que não são ilustradas.
[261] Em um processo de implantação específico, por exemplo, pelo menos uma dentre a primeira condição, a segunda condição ou a terceira condição pode ser primeiro usada para realizar a triagem nos conjuntos mesclados de unidades-candidato de informações de movimento iniciais e N01 conjuntos mesclados de unidades-candidato de informações de movimento são triados dos conjuntos mesclados de unidades-candidato de informações de movimento iniciais, então, o processamento de redimensionamento é realizado nos N01 conjuntos mesclados de unidades-candidato de informações de movimento e, então, pelo menos uma dentre a quarta condição ou a quinta condição é usada para triar os N conjuntos mesclados de unidades-candidato de informações de movimento dos N01 conjuntos mesclados de unidades- candidato de informações de movimento. Certamente, a triagem pode ser realizada nos conjuntos mesclados de unidades-candidato de informações de movimento iniciais usando-se diretamente pelo menos uma dentre a primeira condição, a segunda condição ou a terceira condição, sem fazer referência à quarta condição e à quinta condição, e os N conjuntos mesclados de unidades- candidato de informações de movimento são triados dos conjuntos mesclados de unidades-candidato de informações de movimento iniciais.
[262] Pode ser entendido que um vetor de movimento em conversão em código ou decodificação de vídeo reflete um valor de um deslocamento de um objeto em uma direção (uma direção de predição) em relação a um mesmo tempo (o mesmo tempo corresponde a um mesmo quadro de referência). Portanto, quando unidades de informações de movimento de amostras de pixel diferentes correspondem a direções de predição diferentes e/ou correspondem a índices de quadro de referência diferentes, um deslocamento de movimento de cada pixel ou bloco de pixel do bloco de imagem atual em relação a um quadro de referência não pode ser diretamente obtido. Entretanto, quando as amostras de pixel correspondem a uma mesma direção de predição e correspondem a um mesmo índice de quadro de referência, um vetor de movimento de cada pixel ou bloco de pixel no bloco de imagem pode ser obtido usando-se uma combinação dos vetores de movimento mesclados.
[263] Portanto, quando as unidades de informações de movimento de amostras de pixel diferentes em um conjunto mesclado de unidades- candidato de informações de movimento correspondem a direções de predição diferentes e/ou correspondem a índices de quadro de referência diferentes, o processamento de redimensionamento pode ser realizado no conjunto mesclado de unidades-candidato de informações de movimento. O processamento de redimensionamento realizado no conjunto mesclado de unidades-candidato de informações de movimento pode se referir à modificação, adição e/ou deleção ou semelhantes de um vetor de movimento em uma ou mais unidades de informações de movimento no conjunto mesclado de unidades-candidato de informações de movimento.
[264] Por exemplo, em algumas implantações possíveis da presente invenção, a predição de um valor de pixel do bloco de imagem atual usando-se um modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i pode incluir: quando um índice de quadro de referência correspondente a um vetor de movimento cuja direção de predição é uma primeira direção de predição no conjunto mesclado de unidades de informações de movimento i é diferente de um índice de quadro de referência do bloco de imagem atual, realizar o processamento de redimensionamento no conjunto mesclado de unidades de informações de movimento i, para que o vetor de movimento cuja direção de predição é a primeira direção de predição no conjunto mesclado de unidades de informações de movimento i seja redimensionado até um quadro de referência do bloco de imagem atual, e prever o valor de pixel do bloco de imagem atual usando-se o modelo de movimento afim e um conjunto mesclado de unidades de informações de movimento redimensionado i, em que a primeira direção de predição é para frente ou para trás; oua previsão de um valor de pixel do bloco de imagem atual usando- se um modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i pode incluir: quando um índice de quadro de referência correspondente a um vetor de movimento cuja direção de predição é para frente no conjunto mesclado de unidades de informações de movimento i é diferente de um índice de quadro de referência para frente do bloco de imagem atual, e um índice de quadro de referência correspondente a um vetor de movimento cuja direção de predição é para trás no conjunto mesclado de unidades de informações de movimento i é diferente de um índice de quadro de referência para trás do bloco de imagem atual, realizar processamento de redimensionamento no conjunto mesclado de unidades de informações de movimento i, para que o vetor de movimento cuja direção de predição é para frente no conjunto mesclado de unidades de informações de movimento i seja redimensionado para um quadro de referência para frente do bloco de imagem atual e que o vetor de movimento cuja direção de predição é para trás no conjunto mesclado de unidades de informações de movimento i é redimensionado para um quadro de referência para trás do bloco de imagem atual, e prever o valor de pixel do bloco de imagem atual usando-se o modelo de movimento afim e um conjunto mesclado de unidades de informações de movimento redimensionado i.
[265] S304. O aparelho de decodificação de vídeo realiza processamento de decodificação em um fluxo de bits de vídeo para obter um identificador de um conjunto mesclado de unidades de informações de movimento i e um residual de predição do bloco de imagem atual, e determina, a partir dos N conjuntos mesclados de unidades-candidato de informações de movimento, com base no identificador do conjunto mesclado de unidades de informações de movimento i, o conjunto mesclado de unidades de informações de movimento i que inclui duas unidades de informações de movimento.
[266] De modo correspondente, um aparelho de conversão em código de vídeo pode gravar o identificador do conjunto mesclado de unidades de informações de movimento i no fluxo de bits de vídeo.
[267] S305. O aparelho de decodificação de vídeo prevê um vetor de movimento do bloco de imagem atual usando-se um modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i.
[268] Por exemplo, o aparelho de decodificação de vídeo pode realizar primeiro o processamento de estimativa de movimento em um vetor de movimento no conjunto mesclado de unidades de informações de movimento i para obter um conjunto mesclado de unidades de informações de movimento estimado por movimento i e o aparelho de decodificação de vídeo prevê o vetor de movimento do bloco de imagem atual usando-se o modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento estimado por movimento i.
[269] Supõe-se que um tamanho do bloco de imagem atual seja wxh, e que w é igual ou não igual a h.
[270] Supõe-se que as coordenadas das duas amostras de pixel sejam (0,0) e (w,0). No presente documento, por exemplo, as coordenadas de um pixel em um canto esquerdo superior de uma amostra de pixel participam na computação. Com referência à Figura 2-e, a Figura 2-e mostra coordenadas de quatro vértices do bloco de imagem atual.
[271] Os vetores de movimento das duas amostras de pixel sãorespectivamente. As coordenadas e vetores de movimento das duas amostras de pixel são substituídas pelo modelo de movimento afim a seguir, e um vetor de movimento de qualquer pixel no bloco de imagem atual x pode ser computado:
[272] Os vetores de movimento das duas amostras de pixel são respectivamente, vx e vy são respectivamente um componente horizontal (vx) e um componente vertical (vy) de um vetor de movimento de uma amostra de pixel cujas coordenadas são (x, y) no bloco de imagem atual, e w na fórmula 1 é um comprimento ou largura do bloco de imagem atual.
[273] S306. O aparelho de decodificação de vídeo prevê um valor de pixel do bloco de imagem atual com base em um vetor de movimento computado de cada pixel ou cada bloco de pixel do bloco de imagem atual para obter o valor de pixel predito do bloco de imagem atual.
[274] S307. O aparelho de decodificação de vídeo reconstrói o bloco de imagem atual usando-se o valor de pixel predito do bloco de imagem atual e o residual de predição do bloco de imagem atual.
[275] Pode ser aprendido que, na solução técnica dessa modalidade, um aparelho de decodificação de vídeo prevê um valor de pixel de um bloco de imagem atual usando-se um modelo de movimento afim e um conjunto mesclado de unidades de informações de movimento i, em que cada unidade de informações de movimento no conjunto mesclado de unidades de informações de movimento i é selecionada a partir de pelo menos algumas unidades de informações de movimento em um conjunto de unidades-candidato de informações de movimento correspondente a cada uma das duas amostras de pixel. Devido a uma faixa de seleção do conjunto mesclado de unidades de informações de movimento i se tornar relativamente pequena, um mecanismo usado em uma tecnologia convencional para triar unidades de informações de movimento de múltiplas amostras de pixel apenas realizando-se uma quantidade grande de computação em todos os conjuntos de unidades de informações de movimento candidato possíveis das múltiplas amostras de pixel é abandonado. Isso auxilia em melhorar a eficácia de conversão em código, assim como auxilia a reduzir a complexidade computacional de predição de imagem realizada com base no modelo de movimento afim, torna adicionalmente possível para introduzir o modelo de movimento afim em um padrão de conversão em código de vídeo, e devido ao modelo de movimento afim ser introduzido, auxilia a descrever o movimento de um objeto de modo mais preciso, e auxilia, portanto, a melhorar a precisão de predição. Devido a uma quantidade de amostras de pixel de referência poder ser dois, isso auxilia adicionalmente a reduzir a complexidade computacional de predição de imagem realizada com base no modelo de movimento afim após o modelo de movimento afim ser introduzido e também auxilia a reduzir as informações de parâmetro afim ou uma quantidade de diferenças de vetor de movimento ou semelhantes transferidas por um codificador.
[276] A seguir, se fornece adicionalmente aparelhos relacionados para implantar as soluções anteriormente mencionadas.
[277] Com referência à Figura 4, uma modalidade da presente invenção fornece adicionalmente um aparelho de predição de imagem 400. O aparelho pode incluir: uma primeira unidade de determinação 410 configurada para: determinar duas amostras de pixel em um bloco de imagem atual, e determinar um conjunto de unidades-candidato de informações de movimento que corresponde a cada uma das duas amostras de pixel, em que o conjunto de unidades-candidato de informações de movimento que corresponde a cada amostra de pixel inclui pelo menos uma unidade-candidato de informações de movimento; uma segunda unidade de determinação 420 configurada para determinar um conjunto mesclado de unidades de informações de movimento i que inclui duas unidades de informações de movimento, em que cada unidade de informações de movimento no conjunto mesclado de unidades de informações de movimento i é selecionada a partir de pelo menos algumas dentre unidades de informações de movimento no conjunto de unidades-candidato de informações de movimento que corresponde a cada uma das duas amostras de pixel, e a unidade de informações de movimento inclui um vetor de movimento cuja direção de predição está para frente e/ou um vetor de movimento cuja direção de predição está para trás; e uma unidade de predição 430 configurada para prever um valor de pixel do bloco de imagem atual usando-se um modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i.
[278] Opcionalmente, em algumas implantações possíveis da presente invenção, a segunda unidade de determinação 420 pode ser especificamente configurada para determinar, a partir de N conjuntos mesclados de unidades-candidato de informações de movimento, o conjunto mesclado de unidades de informações de movimento i que inclui as duas unidades de informações de movimento, em que cada unidade de informações de movimento incluída em cada um dos N conjuntos mesclados de unidades-candidato de informações de movimento é selecionada a partir de pelo menos algumas dentre as unidades de informações de movimento de restrição-compatível no conjunto de unidades-candidato de informações de movimento correspondente a cada uma das duas amostras de pixel, N é um número inteiro positivo, os N conjuntos mesclados de unidades-candidato de informações de movimento são diferentes entre si e cada um dos N conjuntos mesclados de unidades-candidato de informações de movimento inclui duas unidades de informações de movimento.
[279] Opcionalmente, em algumas implantações possíveis da presente invenção, os N conjuntos mesclados de unidades-candidato de informações de movimento cumprir pelo menos uma dentre uma primeira condição, uma segunda condição, uma terceira condição, uma quarta condição ou uma quinta condição, em que a primeira condição inclui um modo de movimento do bloco de imagem atual indicado por uma unidade de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento ser um movimento não translacional. a segunda condição inclui as direções de predição correspondentes às duas unidades de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento serem as mesmas. a terceira condição inclui os índices de quadro de referência correspondentes às duas unidades de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento serem os mesmos. a quarta condição inclui um valor absoluto de uma diferença entre componentes horizontais de vetores de movimento de duas unidades de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento ser menor ou igual a um limiar de componente horizontal, ou que um valor absoluto de uma diferença entre um componente horizontal de um vetor de movimento de uma unidade de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento e um componente horizontal de um vetor de movimento de uma amostra de pixel Z ser menor ou igual a um limiar de componente horizontal, em que a amostra de pixel Z no bloco de imagem atual é diferente de qualquer uma das duas amostras de pixel. a quinta condição inclui um valor absoluto de uma diferença entre componentes verticais de vetores de movimento de duas unidades de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento ser menor ou igual a um limiar de componente vertical, ou que um valor absoluto de uma diferença entre um componente vertical de um vetor de movimento de uma unidade de informações de movimento em qualquer um dos N conjuntos mesclados de unidades- candidato de informações de movimento e um componente vertical de um vetor de movimento de uma amostra de pixel Z ser menor ou igual a um limiar de componente horizontal, em que a amostra de pixel Z no bloco de imagem atual é diferente de qualquer uma das duas amostras de pixel.
[280] Opcionalmente, em algumas implantações possíveis da presente invenção, as duas amostras de pixel incluem duas amostras de pixel m uma amostra de pixel esquerda superior, uma amostra de pixel direita superior, uma amostra de pixel esquerda inferior e uma amostra de pixel central a1 do bloco de imagem atual, em que a amostra de pixel esquerda superior do bloco de imagem atual é um vértice esquerdo superior do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e inclui um vértice esquerdo superior do bloco de imagem atual; a amostra de pixel esquerda inferior do bloco de imagem atual é um vértice esquerdo inferior do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e inclui um vértice esquerdo inferior do bloco de imagem atual; a amostra de pixel direita superior do bloco de imagem atual é um vértice direito superior do bloco de imagem atual, ou um bloco de pixel na bloco de imagem atual e inclui um vértice direito superior do bloco de imagem atual; e a amostra de pixel central a1 do bloco de imagem atual é um pixel central do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e inclui um pixel central do bloco de imagem atual.
[281] Opcionalmente, em algumas implantações possíveis da presente invenção, um conjunto de unidades-candidato de informações de movimento correspondente à amostra de pixel esquerda superior do bloco de imagem atual inclui unidades de informações de movimento de x1 amostras de pixel, em que as x1 amostras de pixel incluem pelo menos uma amostra de pixel espacialmente adjacente à amostra de pixel esquerda superior do bloco de imagem atual e/ou pelo menos uma amostra de pixel temporalmente adjacente à amostra de pixel esquerda superior do bloco de imagem atual, e x1 é um número inteiro positivo, em que as x1 amostras de pixel incluem pelo menos uma dentre uma amostra de pixel que tem uma mesma localização que a amostra de pixel esquerda superior do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma borda esquerda do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma esquerda superior do bloco de imagem atual, ou uma amostra de pixel espacialmente adjacente a uma borda superior do bloco de imagem atual, em um quadro de vídeo temporalmente adjacente a um quadro de vídeo ao qual o bloco de imagem atual pertence.
[282] Opcionalmente, em algumas implantações possíveis da presente invenção, um conjunto de unidades-candidato de informações de movimento correspondente à amostra de pixel direita superior do bloco de imagem atual inclui unidades de informações de movimento de x2 amostras de pixel, em que as x2 amostras de pixel incluem pelo menos uma amostra de pixel espacialmente adjacente à amostra de pixel direita superior do bloco de imagem atual e/ou pelo menos uma amostra de pixel temporalmente adjacente à amostra de pixel direita superior do bloco de imagem atual, e x2 é um número inteiro positivo, em que as x2 amostras de pixel incluem pelo menos uma dentre uma amostra de pixel que tem uma mesma localização que a amostra de pixel direita superior do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma borda direita do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma direita superior do bloco de imagem atual, ou uma amostra de pixel espacialmente adjacente à borda superior do bloco de imagem atual, em um quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence.
[283] Opcionalmente, em algumas implantações possíveis da presente invenção, um conjunto de unidades-candidato de informações de movimento correspondente à amostra de pixel esquerda inferior do bloco de imagem atual inclui unidades de informações de movimento de x3 amostras de pixel, em que as x3 amostras de pixel incluem pelo menos uma amostra de pixel espacialmente adjacente à amostra de pixel esquerda inferior do bloco de imagem atual e/ou pelo menos uma amostra de pixel temporalmente adjacente à amostra de pixel esquerda inferior do bloco de imagem atual, e x3 é um número inteiro positivo, em que as x3 amostras de pixel incluem pelo menos uma dentre uma amostra de pixel que tem uma mesma localização que a amostra de pixel esquerda inferior do bloco de imagem atual, uma amostra de pixel espacialmente adjacente à borda esquerda do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma esquerda inferior do bloco de imagem atual, ou uma amostra de pixel espacialmente adjacente a uma borda inferior do bloco de imagem atual, em um quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence.
[284] Opcionalmente, em algumas implantações possíveis da presente invenção, um conjunto de unidades-candidato de informações de movimento correspondente à amostra de pixel central a1 do bloco de imagem atual inclui unidades de informações de movimento de x5 amostras de pixel, e uma das x5 amostras de pixel é uma amostra de pixel a2, em que uma localização da amostra de pixel central a1 no quadro de vídeo ao qual o bloco de imagem atual pertence é a mesma que uma localização da amostra de pixel a2 em um quadro de vídeo adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence, e x5 é um número inteiro positivo.
[285] Opcionalmente, em algumas implantações possíveis da presente invenção, a unidade de previsão 430 é especificamente configurada para: quando um índice de quadro de referência que corresponde a um vetor de movimento cuja direção de predição é uma primeira direção de predição no conjunto mesclado de unidades de informações de movimento i é diferente de um índice de quadro de referência do bloco de imagem atual, realizar processamento de escalonamento no conjunto mesclado de unidades de informações de movimento i, de modo que o vetor de movimento cuja direção de predição é a primeira direção de predição no conjunto mesclado de unidades de informações de movimento i seja reduzido para um quadro de referência do bloco de imagem atual, e prever o valor de pixel do bloco de imagem atual usando-se o modelo de movimento afim e um conjunto mesclado de unidades de informações de movimento escalonado i, em que a primeira direção de predição está para frente ou para trás; ou a unidade de predição 430 é especificamente configurada para: quando um índice de quadro de referência que corresponde a um vetor de movimento cuja direção de predição está para frente no conjunto mesclado de unidades de informações de movimento i é diferente de um índice de quadro de referência para frente do bloco de imagem atual, e um índice de quadro de referência que corresponde a um vetor de movimento cuja direção de predição está para trás no conjunto mesclado de unidades de informações de movimento i é diferente de um índice de quadro de referência para trás do bloco de imagem atual, realizar processamento de escalonamento no conjunto mesclado de unidades de informações de movimento i, de modo que o vetor de movimento cuja direção de predição que está para frente no conjunto mesclado de unidades de informações de movimento i seja reduzido para um quadro de referência para frente do bloco de imagem atual e que o vetor de movimento cuja direção de predição está para trás no conjunto mesclado de unidades de informações de movimento i seja reduzido para um quadro de referência para trás do bloco de imagem atual, e prever o valor de pixel do bloco de imagem atual usando-se o modelo de movimento afim e um conjunto mesclado de unidades de informações de movimento escalonado i.
[286] Opcionalmente, em algumas implantações possíveis da presente invenção, a unidade de predição 430 é especificamente configurada para: obter um vetor de movimento de cada pixel no bloco de imagem atual através de computação usando-se o modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i, e determinar um valor de pixel predito de cada pixel no bloco de imagem atual usando-se o vetor de movimento que é de cada pixel no bloco de imagem atual e é obtido através de computação; ou a unidade de predição 430 é especificamente configurada para: obter um vetor de movimento de cada bloco de pixel no bloco de imagem atual através de computação usando-se o modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i, e determinar um valor de pixel predito de cada pixel em cada bloco de pixel no bloco de imagem atual usando-se o vetor de movimento que é de cada bloco de pixel no bloco de imagem atual e é obtido através de computação.
[287] Opcionalmente, em algumas implantações possíveis da presente invenção, a unidade de predição 430 pode ser especificamente configurada para obter um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual usando-se uma razão de uma diferença entre componentes horizontais de vetores de movimento das duas amostras de pixel para um comprimento ou largura do bloco de imagem atual e uma razão de uma diferença entre componentes verticais dos vetores de movimento das duas amostras de pixel para o comprimento ou largura do bloco de imagem atual, em que os vetores de movimento das duas amostras de pixel são obtidos com base em vetores de movimento das duas unidades de informações de movimento no conjunto mesclado de unidades de informações de movimento i.
[288] Opcionalmente, em algumas implantações possíveis da presente invenção, um coeficiente de coordenada horizontal dos componentes horizontais dos vetores de movimento das duas amostras de pixel é igual a um coeficiente de coordenada vertical dos componentes verticais dos vetores de movimento, e um coeficiente de coordenada vertical dos componentes horizontais dos vetores de movimento das duas amostras de pixel é oposto a um coeficiente de coordenada horizontal dos componentes verticais dos vetores de movimento.
[289] Opcionalmente, em algumas implantações possíveis da presente invenção, o modelo de movimento afim pode ser um modelo de movimento afim na forma a seguir:, em que os vetores de movimento das duas amostras de pixel são e respectivamente, vx é um componente horizontal de um vetor de movimento de uma amostra de pixel cujas coordenadas são (x, y) no bloco de imagem atual, vy é um componente vertical do vetor de movimento da amostra de pixel cujas coordenadas são (x, y) no bloco de imagem atual, e w é o comprimento ou largura do bloco de imagem atual.
[290] Opcionalmente, em algumas implantações possíveis da presente invenção, o aparelho de predição de imagem é aplicado a um aparelho de conversão em código de vídeo, ou o aparelho de predição de imagem é aplicado a um aparelho de decodificação de vídeo.
[291] Opcionalmente, em algumas implantações possíveis da presente invenção, quando o aparelho de predição de imagem é aplicado ao aparelho de decodificação de vídeo, a segunda unidade de determinação 420 pode ser especificamente configurada para determinar, a partir dos N conjuntos mesclados de unidades-candidato de informações de movimento, cm base em um identificador que é do conjunto mesclado de unidades de informações de movimento i e é obtido a partir de um fluxo de bits de vídeo, o conjunto mesclado de unidades de informações de movimento i que inclui as duas unidades de informações de movimento.
[292] Opcionalmente, em algumas implantações possíveis da presente invenção, quando o aparelho de predição de imagem é aplicado ao aparelho de decodificação de vídeo,o aparelho inclui adicionalmente uma unidade de decodificação configurada para: decodificar o fluxo de bits de vídeo para obter diferenças de vetor de movimento das duas amostras de pixel, obter os preditores de vetor de movimento das duas amostras de pixel usando-se vetores de movimento de amostras de pixel espacialmente adjacentes ou temporariamente adjacentes às duas amostras de pixel, e obter os vetores de movimento das duas amostras de pixel separadamente com base nos preditores de vetor de movimento das duas amostras de pixel e as diferenças de vetor de movimento das duas amostras de pixel.
[293] Opcionalmente, em algumas implantações possíveis da presente invenção, quando o aparelho de predição de imagem é aplicado ao aparelho de conversão em código de vídeo, a unidade de predição 430 é adicionalmente configurada para: obter preditores de vetor de movimento das duas amostras de pixel usando-se vetores de movimento de amostras de pixel espacialmente adjacentes ou temporariamente adjacentes às duas amostras de pixel, obter diferenças de vetor de movimento das duas amostras de pixel de acordo com os preditores de vetor de movimento das duas amostras de pixel, e gravar as diferenças de vetor de movimento das duas amostras de pixel em um fluxo de bits de vídeo.
[294] Opcionalmente, em algumas implantações possíveis da presente invenção, quando o aparelho de predição de imagem é aplicado ao aparelho de conversão em código de vídeo, o aparelho inclui adicionalmente uma unidade de codificação configurada para gravar um identificador do conjunto mesclado de unidades de informações de movimento i no fluxo de bits de vídeo.
[295] Pode ser entendido que funções de módulos funcionais do aparelho de predição de imagem 400 nessa modalidade podem ser especificamente implantadas de acordo com o método na modalidade de método anterior. Para um processo de implantação específico da mesma, se refere à descrição relacionada na modalidade de método anterior. Os detalhes não são descritos novamente no presente documento. O aparelho de predição de imagem 400 pode ser qualquer aparelho que precisa emitir e reproduzir um vídeo, por exemplo, um dispositivo como um computador do tipo notebook, um computador do tipo tablet, um computador pessoal ou um telefone móvel.
[296] Pode ser aprendido que, na solução técnica fornecida por essa modalidade, o aparelho de predição de imagem 500 prevê um valor de pixel de um bloco de imagem atual usando-se um modelo de movimento afim e um conjunto mesclado de unidades de informações de movimento i, em que cada unidade de informações de movimento no conjunto mesclado de unidades de informações de movimento i é selecionada a partir de pelo menos algumas unidades de informações de movimento em um conjunto de unidades-candidato de informações de movimento correspondente a cada uma das duas amostras de pixel. Devido a uma faixa de seleção do conjunto mesclado de unidades de informações de movimento i se tornar relativamente pequena, um mecanismo usado em uma tecnologia convencional para triar unidades de informações de movimento de múltiplas amostras de pixel apenas realizando-se uma quantidade grande de computação em todos os conjuntos de unidades de informações de movimento candidato possíveis das múltiplas amostras de pixel é abandonado. Isso auxilia em melhorar a eficácia de conversão em código, assim como auxilia a reduzir a complexidade computacional de predição de imagem realizada com base no modelo de movimento afim, torna adicionalmente possível para introduzir o modelo de movimento afim em um padrão de conversão em código de vídeo, e devido ao modelo de movimento afim ser introduzido, auxilia a descrever o movimento de um objeto de modo mais preciso, e auxilia, portanto, a melhorar a precisão de predição. Além disso, devido a uma quantidade de amostras de pixel de referência poder ser dois, isso auxilia adicionalmente a reduzir a complexidade computacional de predição de imagem realizada com base no modelo de movimento afim após o modelo de movimento afim ser introduzido e também auxilia a reduzir as informações de parâmetro afim ou uma quantidade de diferenças de vetor de movimento ou semelhantes transferidas por um codificador.
[297] Com referência à Figura 5, a Figura 5 é um diagrama esquemático de um aparelho de predição de imagem 500, de acordo com uma modalidade da presente invenção. O aparelho de predição de imagem 500 pode incluir pelo menos um barramento 501, pelo menos um processador 502 conectado ao barramento 501 e pelo menos uma memória 503 conectada ao barramento 501.
[298] O processador 502 invoca, usando-se o barramento 501, um código ou uma instrução armazenado na memória 503, de modo que o processador 502 seja configurado para: determinar duas amostras de pixel em um bloco de imagem atual, e determinar um conjunto de unidades-candidato de informações de movimento que corresponde a cada uma das duas amostras de pixel, em que o conjunto de unidades-candidato de informações de movimento que corresponde a cada amostra de pixel inclui pelo menos uma unidade- candidato de informações de movimento; determinar um conjunto mesclado de unidades de informações de movimento i que inclui duas unidades de informações de movimento, em que cada unidade de informações de movimento no conjunto mesclado de unidades de informações de movimento i é selecionada a partir de pelo menos algumas das unidades de informações de movimento no conjunto de unidades-candidato de informações de movimento que corresponde a cada uma das duas amostras de pixel, e a unidade de informações de movimento inclui um vetor de movimento cuja direção de predição está para frente e/ou um vetor de movimento cuja direção de predição está para trás; e prever um valor de pixel do bloco de imagem atual usando-se um modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i.
[299] Opcionalmente, em algumas implantações possíveis da presente invenção, em um aspecto da determinação do conjunto mesclado de unidades de informações de movimento i que inclui as duas unidades de informações de movimento, o processador é configurado para determinar, a partir de N conjuntos mesclados de unidades-candidato de informações de movimento, o conjunto mesclado de unidades de informações de movimento i que inclui as duas unidades de informações de movimento, em que cada unidade de informações de movimento incluída em cada um dos N conjuntos mesclados de unidades-candidato de informações de movimento é selecionada a partir de pelo menos algumas das unidades de informações de movimento de restrição- compatível no conjunto de unidades-candidato de informações de movimento correspondente a cada uma das duas amostras de pixel, N é um número inteiro positivo, os N conjuntos mesclados de unidades-candidato de informações de movimento são diferentes entre si e cada um dos N conjuntos mesclados de unidades-candidato de informações de movimento inclui duas unidades de informações de movimento.
[300] Opcionalmente, em algumas implantações possíveis da presente invenção, os N conjuntos mesclados de unidades-candidato de informações de movimento cumprir pelo menos uma dentre uma primeira condição, uma segunda condição, uma terceira condição, uma quarta condição ou uma quinta condição, em que a primeira condição inclui um modo de movimento do bloco de imagem atual indicado por uma unidade de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento ser um movimento não translacional. a segunda condição inclui as direções de predição correspondentes às duas unidades de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento serem as mesmas. a terceira condição inclui os índices de quadro de referência correspondentes às duas unidades de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento serem os mesmos. a quarta condição inclui um valor absoluto de uma diferença entre componentes horizontais de vetores de movimento de duas unidades de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento ser menor ou igual a um limiar de componente horizontal, ou que um valor absoluto de uma diferença entre um componente horizontal de um vetor de movimento de uma unidade de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento e um componente horizontal de um vetor de movimento de uma amostra de pixel Z ser menor ou igual a um limiar de componente horizontal, em que a amostra de pixel Z no bloco de imagem atual é diferente de qualquer uma das duas amostras de pixel. a quinta condição inclui um valor absoluto de uma diferença entre componentes verticais de vetores de movimento de duas unidades de informações de movimento em qualquer um dos N conjuntos mesclados de unidades-candidato de informações de movimento ser menor ou igual a um limiar de componente vertical, ou que um valor absoluto de uma diferença entre um componente vertical de um vetor de movimento de uma unidade de informações de movimento em qualquer um dos N conjuntos mesclados de unidades- candidato de informações de movimento e um componente vertical de um vetor de movimento de uma amostra de pixel Z ser menor ou igual a um limiar de componente horizontal, em que a amostra de pixel Z no bloco de imagem atual é diferente de qualquer uma das duas amostras de pixel.
[301] Opcionalmente, em algumas implantações possíveis da presente invenção, as duas amostras de pixel incluem duas amostras de pixel m uma amostra de pixel esquerda superior, uma amostra de pixel direita superior, uma amostra de pixel esquerda inferior e uma amostra de pixel central a1 do bloco de imagem atual, em que a amostra de pixel esquerda superior do bloco de imagem atual é um vértice esquerdo superior do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e inclui um vértice esquerdo superior do bloco de imagem atual; a amostra de pixel esquerda inferior do bloco de imagem atual é um vértice esquerdo inferior do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e inclui um vértice esquerdo inferior do bloco de imagem atual; a amostra de pixel direita superior do bloco de imagem atual é um vértice direito superior do bloco de imagem atual, ou um bloco de pixel na bloco de imagem atual e inclui um vértice direito superior do bloco de imagem atual; e a amostra de pixel central a1 do bloco de imagem atual é um pixel central do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e inclui um pixel central do bloco de imagem atual.
[302] Opcionalmente, em algumas implantações possíveis da presente invenção, um conjunto de unidades-candidato de informações de movimento correspondente à amostra de pixel esquerda superior do bloco de imagem atual inclui unidades de informações de movimento de x1 amostras de pixel, em que as x1 amostras de pixel incluem pelo menos uma amostra de pixel espacialmente adjacente à amostra de pixel esquerda superior do bloco de imagem atual e/ou pelo menos uma amostra de pixel temporalmente adjacente à amostra de pixel esquerda superior do bloco de imagem atual, e x1 é um número inteiro positivo, em que as x1 amostras de pixel incluem pelo menos uma dentre uma amostra de pixel que tem uma mesma localização que a amostra de pixel esquerda superior do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma borda esquerda do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma esquerda superior do bloco de imagem atual, ou uma amostra de pixel espacialmente adjacente a uma borda superior do bloco de imagem atual, em um quadro de vídeo temporalmente adjacente a um quadro de vídeo ao qual o bloco de imagem atual pertence.
[303] Opcionalmente, em algumas implantações possíveis da presente invenção, um conjunto de unidades-candidato de informações de movimento correspondente à amostra de pixel direita superior do bloco de imagem atual inclui unidades de informações de movimento de x2 amostras de pixel, em que as x2 amostras de pixel incluem pelo menos uma amostra de pixel espacialmente adjacente à amostra de pixel direita superior do bloco de imagem atual e/ou pelo menos uma amostra de pixel temporalmente adjacente à amostra de pixel direita superior do bloco de imagem atual, e x2 é um número inteiro positivo, em que as x2 amostras de pixel incluem pelo menos uma dentre uma amostra de pixel que tem uma mesma localização que a amostra de pixel direita superior do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma borda direita do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma direita superior do bloco de imagem atual, ou uma amostra de pixel espacialmente adjacente à borda superior do bloco de imagem atual, em um quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence.
[304] Opcionalmente, em algumas implantações possíveis da presente invenção, um conjunto de unidades-candidato de informações de movimento correspondente à amostra de pixel esquerda inferior do bloco de imagem atual inclui unidades de informações de movimento de x3 amostras de pixel, em que as x3 amostras de pixel incluem pelo menos uma amostra de pixel espacialmente adjacente à amostra de pixel esquerda inferior do bloco de imagem atual e/ou pelo menos uma amostra de pixel temporalmente adjacente à amostra de pixel esquerda inferior do bloco de imagem atual, e x3 é um número inteiro positivo, em que as x3 amostras de pixel incluem pelo menos uma dentre uma amostra de pixel que tem uma mesma localização que a amostra de pixel esquerda inferior do bloco de imagem atual, uma amostra de pixel espacialmente adjacente à borda esquerda do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma esquerda inferior do bloco de imagem atual, ou uma amostra de pixel espacialmente adjacente a uma borda inferior do bloco de imagem atual, em um quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence.
[305] Opcionalmente, em algumas implantações possíveis da presente invenção, um conjunto de unidades-candidato de informações de movimento correspondente à amostra de pixel central a1 do bloco de imagem atual inclui unidades de informações de movimento de x5 amostras de pixel, e uma das x5 amostras de pixel é uma amostra de pixel a2, em que uma localização da amostra de pixel central a1 no quadro de vídeo ao qual o bloco de imagem atual pertence é a mesma que uma localização da amostra de pixel a2 em um quadro de vídeo adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence, e x5 é um número inteiro positivo.
[306] Opcionalmente, em algumas implantações possíveis da presente invenção, em um aspecto da previsão do valor de pixel do bloco de imagem atual usando-se o modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i, o processador 502 é configurado para: quando um índice de quadro de referência correspondente a um vetor de movimento cuja direção de predição é uma primeira direção de predição no conjunto mesclado de unidades de informações de movimento i é diferente de um índice de quadro de referência do bloco de imagem atual, realizar o processamento de redimensionamento no conjunto mesclado de unidades de informações de movimento i, para que o vetor de movimento cuja direção de predição é a primeira direção de predição no conjunto mesclado de unidades de informações de movimento i seja redimensionado até um quadro de referência do bloco de imagem atual, e prever o valor de pixel do bloco de imagem atual usando-se o modelo de movimento afim e um conjunto mesclado de unidades de informações de movimento redimensionado i, em que a primeira direção de predição é para frente ou para trás; ou em um aspecto de prever o valor de pixel do bloco de imagem atual usando-se o modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i, o processador 502 é configurado para: quando um índice de quadro de referência que corresponde a um vetor de movimento cuja direção de predição está para frente no conjunto mesclado de unidades de informações de movimento i é diferente de um índice de quadro de referência para frente do bloco de imagem atual, e um índice de quadro de referência que corresponde a um vetor de movimento cuja direção de predição está para trás no conjunto mesclado de unidades de informações de movimento i é diferente de um índice de quadro de referência para trás do bloco de imagem atual, realizar processamento de escalonamento no conjunto mesclado de unidades de informações de movimento i, de modo que o vetor de movimento cuja direção de predição está para frente no conjunto mesclado de unidades de informações de movimento i seja reduzido para um quadro de referência para frente do bloco de imagem atual e que o vetor de movimento cuja direção de predição está para trás no conjunto mesclado de unidades de informações de movimento i seja reduzido para um quadro de referência para trás do bloco de imagem atual, e prever o valor de pixel do bloco de imagem atual usando-se o modelo de movimento afim e um conjunto mesclado de unidades de informações de movimento escalonado i.
[307] Opcionalmente, em algumas implantações possíveis da presente invenção, no aspecto de prever o valor de pixel do bloco de imagem atual usando-se o modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i, o processador 502 é configurado para: obter um vetor de movimento de cada pixel no bloco de imagem atual através de computação usando-se o modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i, e determinar um valor de pixel predito de cada pixel no bloco de imagem atual usando-se o vetor de movimento que é de cada pixel no bloco de imagem atual e é obtido através de computação; ou no aspecto de prever o valor de pixel do bloco de imagem atual usando-se o modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i, o processador 502 é configurado para: obter um vetor de movimento de cada bloco de pixel no bloco de imagem atual através de computação usando-se o modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i, e determinar um valor de pixel predito de cada pixel em cada bloco de pixel no bloco de imagem atual usando-se o vetor de movimento que é de cada bloco de pixel no bloco de imagem atual e é obtido através de computação.
[308] Opcionalmente, em algumas implantações possíveis da presente invenção, no aspecto de prever o valor de pixel do bloco de imagem atual usando-se o modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i, o processador 502 é configurado para obter um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual usando-se uma razão de uma diferença entre componentes horizontais de vetores de movimento das duas amostras de pixel para um comprimento ou largura do bloco de imagem atual e uma razão de uma diferença entre componentes verticais dos vetores de movimento das duas amostras de pixel para o comprimento ou largura do bloco de imagem atual, em que os vetores de movimento das duas amostras de pixel são obtidos com base em vetores de movimento das duas unidades de informações de movimento no conjunto mesclado de unidades de informações de movimento i.
[309] Opcionalmente, em algumas implantações possíveis da presente invenção, um coeficiente de coordenada horizontal dos componentes horizontais dos vetores de movimento das duas amostras de pixel é igual a um coeficiente de coordenada vertical dos componentes verticais dos vetores de movimento, e um coeficiente de coordenada vertical dos componentes horizontais dos vetores de movimento das duas amostras de pixel é oposto a um coeficiente de coordenada horizontal dos componentes verticais dos vetores de movimento.
[310] Opcionalmente, em algumas implantações possíveis da presente invenção, o modelo de movimento afim pode ser um modelo de movimento afim na forma a seguir:, em que os vetores de movimento das duas amostras de pixel sãoe, respectivamente, vx é um componente horizontal de um vetor de movimento de uma amostra de pixel cujas coordenadas são (x, y) no bloco de imagem atual, vy é um componente vertical do vetor de movimento da amostra de pixel cujas coordenadas são (x, y) no bloco de imagem atual, e w é o comprimento ou largura do bloco de imagem atual.
[311] Opcionalmente, em algumas implantações possíveis da presente invenção, o aparelho de predição de imagem é aplicado a um aparelho de conversão em código de vídeo, ou o aparelho de predição de imagem é aplicado a um aparelho de decodificação de vídeo.
[312] Opcionalmente, em algumas implantações possíveis da presente invenção, quando o aparelho de predição de imagem é aplicado ao aparelho de decodificação de vídeo, no aspecto da determinação do conjunto mesclado de unidades de informações de movimento i que inclui as duas unidades de informações de movimento, o processador 502 é configurado para determinar, a partir dos N conjuntos mesclados de unidades-candidato de informações de movimento, com base em um identificador que é do conjunto mesclado de unidades de informações de movimento i e é obtido a partir de um fluxo de bits de vídeo, o conjunto mesclado de unidades de informações de movimento i que inclui as duas unidades de informações de movimento.
[313] Opcionalmente, em algumas implantações possíveis da presente invenção, quando o aparelho de predição de imagem é aplicado ao aparelho de decodificação de vídeo, o processador 502 é adicionalmente configurado para: decodificar o fluxo de bits de vídeo para obter diferenças de vetor de movimento das duas amostras de pixel, obter preditores de vetor de movimento das duas amostras de pixel usando-se vetores de movimento de amostras de pixel espacialmente adjacentes ou temporalmente adjacentes às duas amostras de pixel, e obter os vetores de movimento das duas amostras de pixel separadamente com base nos preditores de vetor de movimento das duas amostras de pixel e as diferenças de vetor de movimento das duas amostras de pixel.
[314] Opcionalmente, em algumas implantações possíveis da presente invenção, quando o aparelho de predição de imagem é aplicado ao aparelho de conversão em código de vídeo, o processador 502 é adicionalmente configurado para: obter preditores de vetor de movimento das duas amostras de pixel usando-se vetores de movimento de amostras de pixel espacialmente adjacentes ou temporariamente adjacentes às duas amostras de pixel, obter diferenças de vetor de movimento das duas amostras de pixel de acordo com os preditores de vetor de movimento das duas amostras de pixel, e gravar as diferenças de vetor de movimento das duas amostras de pixel em um fluxo de bits de vídeo.
[315] Opcionalmente, em algumas implantações possíveis da presente invenção, quando o aparelho de predição de imagem é aplicado ao aparelho de conversão em código de vídeo, o processador 502 é adicionalmente configurado para gravar um identificador do conjunto mesclado de unidades de informações de movimento i no fluxo de bits de vídeo.
[316] Pode ser entendido que funções de módulos funcionais do aparelho de predição de imagem 500 nessa modalidade podem ser especificamente implantadas de acordo com o método na modalidade de método anterior. Para um processo de implantação específico da mesma, se refere à descrição relacionada na modalidade de método anterior. Os detalhes não são descritos novamente no presente documento. O aparelho de predição de imagem 500 pode ser qualquer aparelho que precisa emitir e reproduzir um vídeo, por exemplo, um dispositivo como um computador do tipo notebook, um computador do tipo tablet, um computador pessoal ou um telefone móvel.
[317] Pode ser aprendido que, na solução técnica fornecida por essa modalidade, o aparelho de predição de imagem 500 prevê um valor de pixel de um bloco de imagem atual usando-se um modelo de movimento afim e um conjunto mesclado de unidades de informações de movimento i, em que cada unidade de informações de movimento no conjunto mesclado de unidades de informações de movimento i é selecionada a partir de pelo menos algumas unidades de informações de movimento em um conjunto de unidades-candidato de informações de movimento correspondente a cada uma das duas amostras de pixel. Devido a uma faixa de seleção do conjunto mesclado de unidades de informações de movimento i se tornar relativamente pequena, um mecanismo usado em uma tecnologia convencional para triar unidades de informações de movimento de múltiplas amostras de pixel apenas realizando-se uma quantidade grande de computação em todos os conjuntos de unidades de informações de movimento candidato possíveis das múltiplas amostras de pixel é abandonado. Isso auxilia em melhorar a eficácia de conversão em código, assim como auxilia a reduzir a complexidade computacional de predição de imagem realizada com base no modelo de movimento afim, torna adicionalmente possível para introduzir o modelo de movimento afim em um padrão de conversão em código de vídeo, e devido ao modelo de movimento afim ser introduzido, auxilia a descrever o movimento de um objeto de modo mais preciso, e auxilia, portanto, a melhorar a precisão de predição. Além disso, devido a uma quantidade de amostras de pixel de referência poder ser dois, isso auxilia adicionalmente a reduzir a complexidade computacional de predição de imagem realizada com base no modelo de movimento afim após o modelo de movimento afim ser introduzido e também auxilia a reduzir as informações de parâmetro afim ou uma quantidade de diferenças de vetor de movimento ou semelhantes transferidas por um codificador.
[318] Uma modalidade da presente invenção fornece adicionalmente uma mídia de armazenamento de computador. A mídia de armazenamento de computador pode armazenar um programa, e quando o programa é executado, pelo menos some ou algumas ou todas as etapas de qualquer método de predição de imagem nas modalidades de método anteriores podem ser realizadas.
[319] Com referência à Figura 6, a Figura 6 é um fluxograma esquemático de um método de processamento de imagem de acordo com uma modalidade da presente invenção. Conforme mostrado a título de exemplo na Figura 6, um método de processamento de imagem fornecido por uma modalidade da presente invenção pode incluir as etapas a seguir.
[320] S601. Obter uma tupla 2 de vetor de movimento de um bloco de imagem atual.
[321] A tupla 2 de vetor de movimento pode incluir vetores de movimento de duas amostras de pixel em um quadro de vídeo ao qual o bloco de imagem atual pertence. A amostra de pixel mencionada em cada modalidade da presente invenção pode ser um pixel ou um bloco de pixel que inclui pelo menos dois pixels.
[322] O vetor de movimento mencionado em cada modalidade da presente invenção pode ser um vetor de movimento para frente ou pode ser um vetor de movimento para trás. As direções dos vetores de movimento na tupla 2 de vetor de movimento pode ser as mesmas.
[323] O bloco de imagem atual pode ser um bloco de conversão em código atual ou um bloco de decodificação atual.
[324] A tupla 2 de vetor de movimento pode incluir os vetores de movimento das duas amostras de pixel na modalidade supracitada, ou pode incluir um vetor de movimento de cada unidade de informações de movimento no conjunto mesclado de unidades de informações de movimento i na modalidade supracitada, ou pode incluir um vetor de movimento de cada unidade de informações de movimento no conjunto mesclado de unidades de informações de movimento dimensionado i na modalidade supracitada, ou pode incluir um vetor de movimento de cada unidade de informações de movimento no conjunto mesclado de unidades de informações de movimento estimado por movimento i na modalidade supracitada, ou pode ser a tupla 2 de vetor de movimento obtida realizando-se uma atualização iterativa usando-se o vetor de movimento de cada unidade de informações de movimento no conjunto mesclado de unidades de informações de movimento i na modalidade supracitada como um valor predito. Para detalhes dos vetores de movimento das duas amostras de pixel, do conjunto mesclado de unidades de informações de movimento i, do conjunto mesclado de unidades de informações de movimento dimensionado i e do conjunto mesclado de unidades de informações de movimento estimado por movimento i, se referir à descrição detalhada na modalidade supracitada. Os detalhes não são descritos novamente no presente documento. O conjunto mesclado de unidades de informações de movimento i na modalidade supracitada pode incluir vetores de movimento, e também pode incluir direções dos vetores de movimento ou índices de quadro de referência correspondentes aos vetores de movimento, mas a tupla 2 de vetor de movimento nessa modalidade da presente invenção inclui apenas vetores de movimento.
[325] As duas amostras de pixel podem incluir duas amostras de pixel em uma amostra de pixel esquerda superior, uma amostra de pixel em uma região direita, uma amostra de pixel em uma região inferior e uma amostra de pixel em uma região direita inferior do bloco de imagem atual.
[326] A amostra de pixel esquerda superior do bloco de imagem atual pode ser um vértice esquerdo superior do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e incluir um vértice esquerdo superior do bloco de imagem atual. Em conversão em código e decodificação de vídeo, os valores de coordenada da amostra de pixel esquerda superior pode ser (0, 0) por padrão.
[327] A amostra de pixel na região inferior do bloco de imagem atual pode ser um pixel ou um bloco de pixel abaixo da amostra de pixel esquerda superior do bloco de imagem atual. Uma coordenada vertical da amostra de pixel na região inferior é maior que uma coordenada vertical da amostra de pixel esquerda superior. A amostra de pixel na região inferior pode incluir a amostra de pixel esquerda inferior na modalidade supracitada. Uma coordenada horizontal da amostra de pixel na região inferior pode ser a mesma que uma coordenada horizontal da amostra de pixel esquerda superior, ou uma diferença entre uma coordenada horizontal da amostra de pixel na região inferior e uma coordenada horizontal da amostra de pixel esquerda superior pode ser n pixels em altura, em que n é um número inteiro positivo menor que 3. Em todas as modalidades da presente invenção, as coordenadas verticais podem ser denominadas coordenadas verticais, e as coordenadas horizontais podem ser denominadas coordenadas horizontais.
[328] A amostra de pixel na região direita do bloco de imagem atual pode ser um pixel ou um bloco de pixel em um lado direito da amostra de pixel esquerda superior do bloco de imagem atual. Uma coordenada horizontal da amostra de pixel na região direita é maior que a coordenada horizontal da amostra de pixel esquerda superior. A amostra de pixel na região direita pode incluir a amostra de pixel direita superior na modalidade supracitada. Uma coordenada vertical da amostra de pixel na região direita pode ser a mesma que a coordenada vertical da amostra de pixel esquerda superior, ou uma diferença entre uma coordenada vertical da amostra de pixel na região direita e a coordenada vertical da amostra de pixel esquerda superior pode ser n pixels em largura, em que n é um número inteiro positivo menor que 3.
[329] A amostra de pixel na região direita inferior do bloco de imagem atual pode ser um pixel ou um bloco de pixel em um lado direito inferior da amostra de pixel esquerda superior do bloco de imagem atual. Uma coordenada vertical da amostra de pixel na região direita inferior é maior que a coordenada vertical da amostra de pixel esquerda superior, e uma coordenada horizontal da amostra de pixel na região direita inferior é maior que a coordenada horizontal da amostra de pixel esquerda superior. A amostra de pixel na região direita inferior pode incluir a amostra de pixel central a1 na modalidade supracitada, e pode incluir adicionalmente uma amostra de pixel direita inferior. A amostra de pixel direita inferior do bloco de imagem atual pode ser um vértice direito inferior do bloco de imagem atual, ou um bloco de pixel no bloco de imagem atual e incluindo um vértice direito inferior do bloco de imagem atual.
[330] Se uma amostra de pixel é um bloco de pixel, um tamanho do bloco de pixel é, por exemplo, 2*2, 1*2, 4*2, 4*4, ou outro tamanho.
[331] Para detalhes da amostra de pixel esquerda superior, da amostra de pixel direita superior, da amostra de pixel esquerda inferior, e da amostra de pixel central a1 do bloco de imagem atual, se referir à descrição detalhada da modalidade supracitada. Os detalhes não são descritos novamente no presente documento.
[332] As duas amostras de pixel também podem ser as duas amostras de pixel na modalidade supracitada. Para detalhes das duas amostras de pixel, se referir à descrição detalhada na modalidade supracitada. Os detalhes não são descritos novamente no presente documento.
[333] S602. Obter um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se um modelo de movimento afim e a tupla 2 de vetor de movimento.
[334] O vetor de movimento que é de qualquer amostra de pixel no bloco de imagem atual e é obtido através da computação pode ser qualquer um dentre: o vetor de movimento de cada pixel no bloco de imagem atual, o vetor de movimento de cada bloco de pixel no bloco de imagem atual, ou o vetor de movimento de qualquer amostra de pixel no bloco de imagem atual na modalidade supracitada. Para detalhes a respeito do vetor de movimento de cada pixel no bloco de imagem atual, do vetor de movimento de cada bloco de pixel no bloco de imagem atual e do vetor de movimento de qualquer amostra de pixel no bloco de imagem atual na modalidade supracitada, se referir à descrição detalhada na modalidade supracitada. Os detalhes não são descritos novamente no presente documento.
[335] O modelo de movimento afim pode estar na forma a seguir:, em que (x, y) são coordenadas da qualquer amostra de pixel, vx é um componente horizontal do vetor de movimento da qualquer amostra de pixel, e vy é um componente vertical do vetor de movimento da qualquer amostra de pixel; e na equação vx = ax + by, a é um coeficiente de coordenada horizontal do componente horizontal do modelo de movimento afim, e b é um coeficiente de coordenada vertical do componente horizontal do modelo de movimento afim; e na equação vy = -bx + ay, a é um coeficiente de coordenada vertical do componente vertical do modelo de movimento afim, e -b é um coeficiente de coordenada horizontal do componente vertical do modelo de movimento afim.
[336] Opcionalmente, em algumas implantações possíveis da presente invenção, o modelo de movimento afim inclui adicionalmente um coeficiente de deslocamento horizontal c do componente horizontal do modelo de movimento afim e um coeficiente de deslocamento vertical d do componente vertical do modelo de movimento afim e, portanto, o modelo de movimento afim está na forma a seguir:
[337] Opcionalmente, em algumas implantações possíveis da presente invenção, uma soma quadrática do coeficiente de coordenada horizontal do componente horizontal do modelo de movimento afim e do coeficiente de coordenada vertical do componente horizontal do modelo de movimento afim não é igual a 1. Alternativamente, em algumas implantações possíveis da presente invenção, uma soma quadrática do coeficiente de coordenada vertical do componente vertical do modelo de movimento afim e do coeficiente de coordenada horizontal do componente vertical do modelo de movimento afim não é igual a 1.
[338] Opcionalmente, em algumas implantações possíveis da presente invenção, a obtenção de um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se um modelo de movimento afim e a tupla 2 de vetor de movimento pode incluir: obter valores dos coeficientes do modelo de movimento afim usando-se os vetores de movimento das duas amostras de pixel e localizações das duas amostras de pixel; e obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual usando-se o modelo de movimento afim e os valores dos coeficientes do modelo de movimento afim.
[339] Opcionalmente, em algumas implantações possíveis da presente invenção, a obtenção de um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se o modelo de movimento afim e a tupla 2 de vetor de movimento pode incluir: obter os valores dos coeficientes do modelo de movimento afim usando-se uma razão de uma diferença entre componentes horizontais dos vetores de movimento das duas amostras de pixel para uma distância entre as duas amostras de pixel e uma razão de uma diferença entre componentes verticais dos vetores de movimento das duas amostras de pixel para a distância entre as duas amostras de pixel; e obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual usando-se o modelo de movimento afim e os valores dos coeficientes do modelo de movimento afim.
[340] Alternativamente, a obtenção de um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se um modelo de movimento afim e a tupla 2 de vetor de movimento pode incluir: obter os valores dos coeficientes do modelo de movimento afim usando-se uma razão entre uma soma ponderada de componentes dos vetores de movimento das duas amostras de pixel e uma distância entre as duas amostras de pixel ou um quadrado de uma distância entre as duas amostras de pixel; e obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual usando-se o modelo de movimento afim e os valores dos coeficientes do modelo de movimento afim.
[341] Opcionalmente, em algumas implantações possíveis da presente invenção, quando as duas amostras de pixel incluem a amostra de pixel esquerda superior do bloco de imagem atual e a amostra de pixel na região direita no lado direito da amostra de pixel esquerda superior, o modelo de movimento afim é especificamente: em que são um vetor de movimento da amostra de pixel esquerda superior, são um vetor de movimento da amostra de pixel na região direita, e w é uma distância entre as duas amostras de pixel, ou w pode ser uma diferença entre a coordenada horizontal da amostra de pixel na região direita e a coordenada horizontal da amostra de pixel esquerda superior.
[342] Opcionalmente, em algumas implantações possíveis da presente invenção, quando as duas amostras de pixel incluem a amostra de pixel esquerda superior do bloco de imagem atual e a amostra de pixel na região inferior abaixo da amostra de pixel esquerda superior, o modelo de movimento afim é especificamente: em que são um vetor de movimento da amostra de pixel esquerda superior,são um vetor de movimento da amostra de pixel na região inferior, e h é uma distância entre as duas amostras de pixel, ou h pode ser a diferença entre a coordenada vertical da amostra de pixel na região inferior e a coordenada vertical da amostra de pixel esquerda superior.
[343] Opcionalmente, em algumas implantações possíveis da presente invenção, quando as duas amostras de pixel incluem a amostra de pixel esquerda superior do bloco de imagem atual e a amostra de pixel na região direita inferior no lado direito inferior da amostra de pixel esquerda superior, o modelo de movimento afim é especificamente:em que são um vetor de movimento da amostra de pixel esquerda superior são um vetor de movimento da amostra de pixel na região direita inferior, h1 é uma distância em uma direção vertical entre as duas amostras de pixel, w1 é uma distância em uma direção horizontal entre as duas amostras de pixel, e w12 + h12 é um quadrado da distância entre as duas amostras de pixel.
[344] Opcionalmente, em algumas implantações possíveis da presente invenção, quando as duas amostras de pixel são quaisquer duas amostras de pixel no quadro de vídeo ao qual o bloco de imagem atual pertence, o modelo de movimento afim é especificamente: em que(x4, y4) são coordenadas de uma amostra de pixel nas duas amostras de pixel, (vx4, vy4) são um vetor de movimento da amostra de pixel cujas coordenadas são (x4, y4), (x5, y5) são coordenadas da outra amostra de pixel nas duas amostras de pixel, e (vx5, vy5) são um vetor de movimento da outra amostra de pixel cujas coordenadas são (x5, y5).
[345] Opcionalmente, em algumas implantações possíveis da presente invenção, quando o método do processamento de imagem é aplicado ao contorno de imagem, após o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual ser obtido através de computação, uma localização correspondente, correspondente a qualquer amostra de pixel, em um quadro correspondente ao vetor de movimento da qualquer amostra de pixel pode ser adicionalmente determinada usando-se a localização da qualquer amostra de pixel no bloco de imagem atual e no vetor de movimento da qualquer amostra de pixel.
[346] Adicionalmente, um bloco de imagem, correspondente ao bloco de imagem atual, no quadro correspondente, é obtido de acordo com a localização correspondente, o bloco de imagem correspondente é comparado com o bloco de imagem atual, uma soma de diferenças quadráticas ou uma soma de diferenças absolutas entre os dois blocos de imagem é computada e um erro de correspondência entre os dois blocos de imagem é medido para avaliar a precisão de contorno de imagem do bloco de imagem atual.
[347] Opcionalmente, em algumas implantações possíveis da presente invenção, quando o método do processamento de imagem é aplicado à predição de imagem, após o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual ser obtido através de computação, um valor de pixel predito de um pixel da qualquer amostra de pixel no bloco de imagem atual pode ser adicionalmente determinado usando-se o vetor de movimento que é da qualquer amostra de pixel no bloco de imagem atual e é obtido através de computação. O vetor de movimento da qualquer amostra de pixel no bloco de imagem atual pode ser um vetor de movimento de qualquer pixel no bloco de imagem atual, e o processo pode ser: determinar um valor de pixel predito de cada pixel no bloco de imagem atual usando-se o vetor de movimento que é de cada pixel no bloco de imagem atual e é obtido através de computação. O vetor de movimento da qualquer amostra de pixel no bloco de imagem atual também pode ser um vetor de movimento de qualquer pixel no bloco de imagem atual, e o processo pode ser: determinar um valor de pixel predito de cada pixel em cada bloco de pixel no bloco de imagem atual usando-se o vetor de movimento que é de cada bloco de pixel no bloco de imagem atual e é obtido através de computação.
[348] Durante um teste, é constatado que realizar a computação de vetor de movimento usando-se um bloco de pixel no bloco de imagem atual como uma granularidade auxilia a reduzir grandemente a complexidade computacional grandemente se o vetor de movimento de cada bloco de pixel no bloco de imagem atual é obtido através de computação usando-se o modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i e, então, o valor de pixel predito de cada pixel em cada bloco de pixel no bloco de imagem atual é determinado usando-se o vetor de movimento que é de cada bloco de pixel no bloco de imagem atual e é obtido através de computação.
[349] Opcionalmente, em algumas implantações possíveis da presente invenção, quando o método de predição de imagem é aplicado a um processo de conversão em código de vídeo, o método pode incluir adicionalmente: realizar conversão em código preditiva de compensação de movimento na qualquer amostra de pixel no bloco de imagem atual usando-se o vetor de movimento que é da qualquer amostra de pixel no bloco de imagem atual e é obtido através de computação.
[350] Especificamente, o processo pode ser: determinar o valor de pixel predito do pixel da qualquer amostra de pixel no bloco de imagem atual usando-se o vetor de movimento que é da qualquer amostra de pixel no bloco de imagem atual e é obtido através de computação; e realizar a predição de compensação de movimento na qualquer amostra de pixel usando-se o valor de pixel predito do pixel da qualquer amostra de pixel, de modo a obter um valor de reconstrução de pixel da qualquer amostra de pixel.
[351] Alternativamente, o processo pode ser: determinar o valor de pixel predito do pixel da qualquer amostra de pixel no bloco de imagem atual usando-se o vetor de movimento que é da qualquer amostra de pixel no bloco de imagem atual e é obtido através de computação; e realizar predição de compensação de movimento na qualquer amostra de pixel usando-se o valor de pixel predito do pixel da qualquer amostra de pixel, obter um residual de predição da qualquer amostra de pixel usando-se o valor de pixel do pixel da qualquer amostra de pixel obtida realizando-se predição de compensação de movimento e um valor de pixel real do pixel da qualquer amostra de pixel, e codificar o residual de predição da qualquer amostra de pixel em um fluxo de bits.
[352] Alternativamente, após o residual de predição da qualquer amostra de pixel ser obtido, um método similar é usado para obter residuais de predição de outras amostras de pixel exigidas por um residual de predição do bloco de imagem atual, para que o residual de predição do bloco de imagem atual seja obtido. Então, o residual de predição do bloco de imagem atual é codificado no fluxo de bits. O valor de pixel real também pode ser denominado valor de pixel original.
[353] Opcionalmente, em algumas implantações possíveis da presente invenção, quando o método de predição de imagem é aplicado a um processo de decodificação de vídeo, o método inclui adicionalmente: realizar a decodificação de compensação de movimento na qualquer amostra de pixel usando-se o vetor de movimento que é da qualquer amostra de pixel no bloco de imagem atual e é obtido através de computação, e obter um valor de reconstrução de pixel da qualquer amostra de pixel.
[354] Especificamente, o processo pode ser: determinar o valor de pixel predito do pixel da qualquer amostra de pixel no bloco de imagem atual usando-se o vetor de movimento que é da qualquer amostra de pixel no bloco de imagem atual e é obtido através de computação; e realizar a predição de compensação de movimento na qualquer amostra de pixel usando-se o valor de pixel predito do pixel da qualquer amostra de pixel, de modo a obter um valor de reconstrução de pixel da qualquer amostra de pixel.
[355] Alternativamente, o processo pode ser: determinar o valor de pixel predito do pixel da qualquer amostra de pixel no bloco de imagem atual usando-se o vetor de movimento que é da qualquer amostra de pixel no bloco de imagem atual e é obtido através de computação; e realizar a predição de compensação de movimento na qualquer amostra de pixel usando-se o valor de pixel predito do pixel da qualquer amostra de pixel, e decodificar um fluxo de bits para obter um residual de predição da qualquer amostra de pixel, ou decodificar um fluxo de bits para obter um residual de predição do bloco de imagem atual, de modo a obter um residual de predição da qualquer amostra de pixel, e obter um valor de reconstrução de pixel da qualquer amostra de pixel com referência ao valor de pixel que é do pixel da qualquer amostra de pixel e é obtido realizando-se predição de compensação de movimento.
[356] Pode ser entendido que o processamento de imagem pode ser realizado em cada bloco de imagem em um quadro de vídeo atual em um modo similar a um modo de processamento de imagem que corresponde ao bloco de imagem atual. Certamente, o processamento de imagem pode ser realizado em alguns blocos de imagem no quadro de vídeo atual em um modo diferente do modo de processamento de imagem que corresponde ao bloco de imagem atual.
[357] Na solução técnica fornecida por essa modalidade da presente invenção, um modelo de movimento afim com base em movimento de rotação e redimensionamento é construído usando-se apenas dois parâmetros. Isso não apenas reduz complexidade computacional, mas também aprimora precisão de estimativa de vetor de movimento. Após dois coeficientes de deslocamento serem introduzidos na solução técnica, estimativa de vetor de movimento pode ser realizada com base em movimento misturado de movimento de rotação, de redimensionamento e translacional de acordo com a solução técnica, de modo que a estimativa de vetor de movimento seja mais precisa.
[358] Para um entendimento e implantação melhores da solução supracitada das modalidades da presente invenção, o seguinte usa as situações de aplicação específica para descrição adicional.
[359] Com referência à Figura 7, a Figura 7 é um fluxograma esquemático de outro método de processamento de imagem de acordo com outra modalidade da presente invenção. Essa modalidade é descrita principalmente usando-se um método do processamento de imagem implantado em um aparelho de conversão em código de vídeo como um exemplo. Conforme mostrado a título de exemplo na Figura 7, outro método de processamento de imagem fornecido por outra modalidade da presente invenção pode incluir as etapas a seguir.
[360] S701. Um aparelho de conversão em código de vídeo determina duas amostras de pixel em um bloco de imagem atual.
[361] As duas amostras de pixel podem incluir duas amostras de pixel em uma amostra de pixel esquerda superior, uma amostra de pixel em uma região direita, uma amostra de pixel em uma região inferior e uma amostra de pixel em uma região direita inferior do bloco de imagem atual. Para conteúdo substantivo da amostra de pixel esquerda superior, a amostra de pixel na região direita, a amostra de pixel na região inferior e a amostra de pixel na região direita inferior do bloco de imagem atual, se refere à descrição detalhada na modalidade anterior. Os detalhes não são descritos novamente no presente documento.
[362] S702. O aparelho de conversão em código de vídeo determina um conjunto de unidades-candidato de informações de movimento correspondente a cada uma das duas amostras de pixel.
[363] O conjunto de unidades-candidato de informações de movimento correspondente a cada amostra de pixel inclui pelo menos uma unidade-candidato de informações de movimento.
[364] A amostra de pixel mencionada em cada modalidade da presente invenção pode ser um pixel ou um bloco de pixel que inclui pelo menos dois pixels.
[365] Opcionalmente, em algumas implantações possíveis da presente invenção, para detalhes de um conjunto de unidades-candidato de informações de movimento correspondente à amostra de pixel esquerda superior do bloco de imagem atual e um método para gerar o conjunto de unidades- candidato de informações de movimento correspondente, se referir à descrição detalhada na modalidade supracitada. Os detalhes não são descritos novamente no presente documento.
[366] Opcionalmente, em algumas implantações possíveis da presente invenção, um conjunto de unidades-candidato de informações de movimento correspondente à amostra de pixel na região direita do bloco de imagem atual inclui unidades de informações de movimento de x6 amostras de pixel. As x6 amostras de pixel incluem pelo menos uma amostra de pixel espacialmente adjacente à amostra de pixel na região direita do bloco de imagem atual e/ou pelo menos uma amostra de pixel temporalmente adjacente à amostra de pixel na região direita do bloco de imagem atual, e x6 é um número inteiro positivo.
[367] Por exemplo, x6 pode ser, por exemplo, igual a 1, 2, 3, 4, 5, 6 ou outro valor.
[368] Por exemplo, as x6 amostras de pixel incluem pelo menos uma dentre uma amostra de pixel que tem uma mesma localização que a amostra de pixel na região direita do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma borda direita do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma direita superior do bloco de imagem atual, ou uma amostra de pixel espacialmente adjacente a uma borda superior do bloco de imagem atual em um quadro de vídeo temporalmente adjacente a um quadro de vídeo ao qual o bloco de imagem atual pertence.
[369] Opcionalmente, em algumas implantações possíveis da presente invenção, um conjunto de unidades-candidato de informações de movimento correspondente à amostra de pixel na região inferior do bloco de imagem atual inclui unidades de informações de movimento de x7 amostras de pixel. As x7 amostras de pixel incluem pelo menos uma amostra de pixel espacialmente adjacente à amostra de pixel na região inferior do bloco de imagem atual e/ou pelo menos uma amostra de pixel temporalmente adjacente à amostra de pixel na região inferior do bloco de imagem atual, e x7 é um número inteiro positivo.
[370] Por exemplo, x7 pode ser, por exemplo, igual a 1, 2, 3, 4, 5, 6 ou outro valor.
[371] Por exemplo, as x7 amostras de pixel incluem pelo menos uma dentre uma amostra de pixel que tem uma mesma localização que a amostra de pixel na região inferior do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma borda esquerda do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma esquerda inferior do bloco de imagem atual, ou uma amostra de pixel espacialmente adjacente a uma borda inferior do bloco de imagem atual em um quadro de vídeo temporalmente adjacente ao quadro de vídeo a qual o bloco de imagem atual pertence.
[372] Opcionalmente, em algumas implantações possíveis da presente invenção, um conjunto de unidades-candidato de informações de movimento correspondente à amostra de pixel na região direita inferior do bloco de imagem atual inclui unidades de informações de movimento de x8 amostras de pixel. As x8 amostras de pixel incluem pelo menos uma amostra de pixel espacialmente adjacente à amostra de pixel na região direita inferior do bloco de imagem atual e/ou pelo menos uma amostra de pixel temporalmente adjacente à amostra de pixel na região direita inferior do bloco de imagem atual, e x8 é um número inteiro positivo.
[373] Por exemplo, x8 pode ser, por exemplo, igual a 1, 2, 3, 4, 5, 6 ou outro valor.
[374] Por exemplo, as x8 amostras de pixel incluem pelo menos uma dentre uma amostra de pixel que tem uma mesma localização que a amostra de pixel na região direita inferior do bloco de imagem atual, uma amostra de pixel espacialmente adjacente à borda direita do bloco de imagem atual, uma amostra de pixel espacialmente adjacente a uma direita inferior do bloco de imagem atual, ou uma amostra de pixel espacialmente adjacente à borda inferior do bloco de imagem atual em um quadro de vídeo temporalmente adjacente ao quadro de vídeo a qual o bloco de imagem atual pertence.
[375] Uma unidade-candidato de informações de movimento correspondente a uma amostra de pixel direita inferior incluída na amostra de pixel na região direita inferior inclui pelo menos uma amostra de pixel espacialmente adjacente à amostra de pixel direita inferior do bloco de imagem atual e/ou pelo menos uma amostra de pixel temporalmente adjacente à amostra de pixel direita inferior do bloco de imagem atual, por exemplo, pode incluir pelo menos uma dentre uma amostra de pixel que tem uma mesma localização que a amostra de pixel direita inferior doo bloco de imagem atual, uma amostra de pixel espacialmente adjacente à borda direita do bloco de imagem atual, uma amostra de pixel espacialmente adjacente à direita inferior do bloco de imagem atual, ou uma amostra de pixel espacialmente adjacente à borda inferior do bloco de imagem atual, em um quadro de vídeo temporalmente adjacente ao quadro de vídeo ao qual o bloco de imagem atual pertence.
[376] Para conjuntos de unidades de informações de movimento candidato correspondentes a uma amostra de pixel esquerda inferior, uma amostra de pixel direita superior, e uma amostra de pixel central a1 que são incluídas nas amostras de pixel e métodos para gerar os conjuntos de unidades de informações de movimento candidato correspondentes, se refere à descrição detalhada na modalidade supracitada. Os detalhes não são descritos novamente no presente documento.
[377] De modo similar, para os métodos para gerar os conjuntos de unidades de informações de movimento candidato correspondentes à amostra de pixel na região direita, à amostra de pixel na região inferior, à amostra de pixel na região direita inferior e à amostra de pixel direita inferior incluída na amostra de pixel na região direita inferior, consultar o método para gerar o conjunto de unidades-candidato de informações de movimento correspondente à amostra de pixel esquerda inferior, à amostra de pixel direita superior ou à amostra de pixel central a1. Os detalhes não são descritos novamente no presente documento.
[378] S703. O aparelho de conversão em código de vídeo determina N conjuntos mesclados de unidades-candidato de informações de movimento com base no conjunto de unidades-candidato de informações de movimento correspondente a cada uma das duas amostras de pixel.
[379] Para detalhes de S703, se referir à descrição detalhada em S203 na modalidade supracitada. Os detalhes não são descritos novamente no presente documento.
[380] S704. O aparelho de conversão em código de vídeo determina, a partir dos N conjuntos mesclados de unidades-candidato de informações de movimento, um conjunto mesclado de unidades de informações de movimento i que inclui duas unidades de informações de movimento.
[381] Opcionalmente, em algumas implantações possíveis da presente invenção, o aparelho de conversão em código de vídeo pode gravar adicionalmente um identificador do conjunto mesclado de unidades de informações de movimento i em um fluxo de bits de vídeo. De modo correspondente, a aparelho de decodificação de vídeo determines, a partir dos N conjuntos mesclados de unidades-candidato de informações de movimento, com base no identificador que é do conjunto mesclado de unidades de informações de movimento i e é obtido a partir do fluxo de bits de vídeo, sendo que o conjunto mesclado de unidades de informações de movimento i inclui as duas unidades de informações de movimento. O identificador do conjunto mesclado de unidades de informações de movimento i pode ser quaisquer informações que podem identificar o conjunto mesclado de unidades de informações de movimento i. Por exemplo, o identificador do conjunto mesclado de unidades de informações de movimento i pode ser um índice do conjunto mesclado de unidades de informações de movimento i em uma lista de conjunto mesclado de unidades de informações de movimento.
[382] Além disso, para detalhes de S704, se referir à descrição detalhada em S204 na modalidade supracitada. Os detalhes não são descritos novamente no presente documento.
[383] S705. O aparelho de conversão em código de vídeo obtém uma tupla 2 de vetor de movimento usando-se o conjunto mesclado de unidade de informações i.
[384] Opcionalmente, em algumas implantações possíveis da presente invenção, o aparelho de conversão em código de vídeo pode usar dois vetores de movimento no conjunto mesclado de unidade de informações i do bloco de imagem atual como preditores de vetor de movimento e como valores iniciais para buscar dois vetores de movimento na tupla 2 de vetor de movimento para realizar uma busca de movimento afim simplificada. O processo de busca é descrito brevemente conforme o seguinte: usar os preditores de vetor de movimento como valores iniciais e realizar uma atualização iterativa; e quando uma quantidade de atualizações iterativas alcançar uma quantidade especificada, ou um erro correspondente entre um valor predito do bloco de imagem atual que é obtido de acordo com dois vetores de movimento obtidos realizando-se uma atualização iterativa e um valor original do bloco atual ser menor que um limiar especificado, usar os dois vetores de movimento obtidos realizando-se a atualização iterativa como a tupla 2 de vetor de movimento.
[385] Opcionalmente, em algumas implantações possíveis da presente invenção, o aparelho de conversão em código de vídeo pode obter adicionalmente as diferenças de predição de vetor de movimento das duas amostras de pixel usando-se os dois vetores de movimento no conjunto mesclado de unidade de informações i do bloco de imagem atual e os dois vetores de movimento na tupla 2 de vetor de movimento, a saber, uma diferença entre um vetor de movimento correspondente a cada vetor de movimento no conjunto mesclado de unidade de informações i do bloco de imagem atual na tupla 2 de vetor de movimento e cada vetor de movimento no conjunto mesclado de unidade de informações i do bloco de imagem atual, e codificar as diferenças de predição de vetor de movimento das duas amostras de pixel.
[386] S706. O aparelho de conversão em código de vídeo obtém um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se um modelo de movimento afim e a tupla 2 de vetor de movimento.
[387] O vetor de movimento que é de qualquer amostra de pixel no bloco de imagem atual e é obtido através da computação pode ser qualquer um dentre: o vetor de movimento de cada pixel no bloco de imagem atual, o vetor de movimento de cada bloco de pixel no bloco de imagem atual, ou o vetor de movimento de qualquer amostra de pixel no bloco de imagem atual na modalidade supracitada. Para conteúdo específico a respeito do vetor de movimento de cada pixel no bloco de imagem atual, do vetor de movimento de cada bloco de pixel no bloco de imagem atual e do vetor de movimento de qualquer amostra de pixel no bloco de imagem atual na modalidade supracitada, se referir à descrição detalhada na modalidade supracitada. Os detalhes não são descritos novamente no presente documento.
[388] O modelo de movimento afim pode estar na forma a seguir:, em que (x, y) são coordenadas da qualquer amostra de pixel, vx é um componente horizontal do vetor de movimento da qualquer amostra de pixel, e vy é um componente vertical do vetor de movimento da qualquer amostra de pixel; e na equação vx = ax + by, a é um coeficiente de coordenada horizontal do componente horizontal do modelo de movimento afim, e b é um coeficiente de coordenada vertical do componente horizontal do modelo de movimento afim; e na equação vy = -bx + ay, a é um coeficiente de coordenada vertical do componente vertical do modelo de movimento afim, e -b é um coeficiente de coordenada horizontal do componente vertical do modelo de movimento afim.
[389] Opcionalmente, em algumas implantações possíveis da presente invenção, o modelo de movimento afim inclui adicionalmente um coeficiente de deslocamento horizontal c do componente horizontal do modelo de movimento afim e um coeficiente de deslocamento vertical d do componente vertical do modelo de movimento afim e, portanto, o modelo de movimento afim está na forma a seguir:
[390] Opcionalmente, em algumas implantações possíveis da presente invenção, uma soma quadrática do coeficiente de coordenada horizontal do componente horizontal do modelo de movimento afim e do coeficiente de coordenada vertical do componente horizontal do modelo de movimento afim não é igual a 1. Alternativamente, em algumas implantações possíveis da presente invenção, uma soma quadrática do coeficiente de coordenada vertical do componente vertical do modelo de movimento afim e do coeficiente de coordenada horizontal do componente vertical do modelo de movimento afim não é igual a 1.
[391] Opcionalmente, em algumas implantações possíveis da presente invenção, a obtenção de um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se um modelo de movimento afim e a tupla 2 de vetor de movimento pode incluir: obter valores dos coeficientes do modelo de movimento afim usando-se os vetores de movimento das duas amostras de pixel e localizações das duas amostras de pixel; e obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual usando-se o modelo de movimento afim e os valores dos coeficientes do modelo de movimento afim.
[392] Opcionalmente, em algumas implantações possíveis da presente invenção, a obtenção de um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se o modelo de movimento afim e a tupla 2 de vetor de movimento pode incluir: obter os valores dos coeficientes do modelo de movimento afim usando-se uma razão de uma diferença entre componentes horizontais dos vetores de movimento das duas amostras de pixel para uma distância entre as duas amostras de pixel e uma razão de uma diferença entre componentes verticais dos vetores de movimento das duas amostras de pixel para a distância entre as duas amostras de pixel; e obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual usando-se o modelo de movimento afim e os valores dos coeficientes do modelo de movimento afim.
[393] Alternativamente, a obtenção de um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se um modelo de movimento afim e a tupla 2 de vetor de movimento pode incluir: obter os valores dos coeficientes do modelo de movimento afim usando-se uma razão entre uma soma ponderada de componentes dos vetores de movimento das duas amostras de pixel e uma distância entre as duas amostras de pixel ou um quadrado de uma distância entre as duas amostras de pixel; e obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual usando-se o modelo de movimento afim e os valores dos coeficientes do modelo de movimento afim.
[394] Opcionalmente, em algumas implantações possíveis da presente invenção, quando as duas amostras de pixel incluem a amostra de pixel esquerda superior do bloco de imagem atual e a amostra de pixel na região direita no lado direito da amostra de pixel esquerda superior, o modelo de movimento afim é especificamente: são um vetor de movimento da amostra de pixel esquerda superior, são um vetor de movimento da amostra de pixel na região direita, e w é uma distância entre as duas amostras de pixel, ou w pode ser uma diferença entre a coordenada horizontal da amostra de pixel na região direita e a coordenada horizontal da amostra de pixel esquerda superior.
[395] Opcionalmente, em algumas implantações possíveis da presente invenção, quando as duas amostras de pixel incluem a amostra de pixel esquerda superior do bloco de imagem atual e a amostra de pixel na região inferior abaixo da amostra de pixel esquerda superior, o modelo de movimento afim é especificamente: em que são um vetor de movimento da amostra de pixel esquerda superior, são um vetor de movimento da amostra de pixel na região inferior, e h é uma distância entre as duas amostras de pixel, ou h pode ser a diferença entre a coordenada vertical da amostra de pixel na região inferior e a coordenada vertical da amostra de pixel esquerda superior.
[396] Opcionalmente, em algumas implantações possíveis da presente invenção, quando as duas amostras de pixel incluem a amostra de pixel esquerda superior do bloco de imagem atual e a amostra de pixel na região direita inferior no lado direito inferior da amostra de pixel esquerda superior, o modelo de movimento afim é especificamente: em que são um vetor de movimento da amostra de pixel são um vetor de movimento da amostra de pixel na região direita inferior, h1 é uma distância em uma direção vertical entre as duas amostras de pixel, w1 é uma distância em uma direção horizontal entre as duas amostras de pixel, e w12 + h12 é um quadrado da distância entre as duas amostras de pixel.
[397] Opcionalmente, em algumas implantações possíveis da presente invenção, quando as duas amostras de pixel são quaisquer duas amostras de pixel no quadro de vídeo ao qual o bloco de imagem atual pertence, o modelo de movimento afim é especificamente:, em que (x4, y4) são coordenadas de uma amostra de pixel nas duas amostras de pixel, (vx4, vy4) são um vetor de movimento da amostra de pixel cujas coordenadas são (x4, y4), (x5, y5) são coordenadas da outra amostra de pixel nas duas amostras de pixel, e (vx5, vy5) são um vetor de movimento da outra amostra de pixel cujas coordenadas são (x5, y5).
[398] Pode ser entendido que o processamento de imagem pode ser realizado em cada bloco de imagem em um quadro de vídeo atual em um modo similar a um modo de processamento de imagem que corresponde ao bloco de imagem atual. Certamente, o processamento de imagem pode ser realizado em alguns blocos de imagem no quadro de vídeo atual em um modo diferente do modo de processamento de imagem que corresponde ao bloco de imagem atual.
[399] S707. O aparelho de conversão em código de vídeo determina um valor de pixel predito de um pixel da qualquer amostra de pixel no bloco de imagem atual usando-se o vetor de movimento que é da qualquer amostra de pixel no bloco de imagem atual e é obtido através de computação.
[400] Em um processo de predição, índices de quadro de referência que correspondem aos vetores de movimento de quaisquer amostras de pixel diferentes no bloco de imagem atual podem ser os mesmos, e podem ser índices de quadro de referência que correspondem aos vetores de movimento no conjunto mesclado de unidade de informações i.
[401] Opcionalmente, em algumas implantações possíveis da presente invenção, o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual pode ser um vetor de movimento de qualquer pixel no bloco de imagem atual, e o processo pode ser: determinar um valor de pixel predito de cada pixel no bloco de imagem atual usando-se o vetor de movimento que é de cada pixel no bloco de imagem atual e é obtido através de computação.
[402] Opcionalmente, em algumas implantações possíveis da presente invenção, o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual também pode ser um vetor de movimento de qualquer bloco de pixel no bloco de imagem atual, e o processo pode ser: determinar um valor de pixel predito de cada pixel em cada bloco de pixel no bloco de imagem atual usando-se o vetor de movimento que é de cada bloco de pixel no bloco de imagem atual e é obtido através de computação.
[403] Durante um teste, é constatado que realizar a computação de vetor de movimento usando-se um bloco de pixel no bloco de imagem atual como uma granularidade auxilia a reduzir grandemente a complexidade computacional grandemente se o vetor de movimento de cada bloco de pixel no bloco de imagem atual é obtido através de computação usando-se o modelo de movimento afim e o conjunto mesclado de unidades de informações de movimento i e, então, o valor de pixel predito de cada pixel em cada bloco de pixel no bloco de imagem atual é determinado usando-se o vetor de movimento que é de cada bloco de pixel no bloco de imagem atual e é obtido através de computação.
[404] Opcionalmente, em algumas implantações possíveis da presente invenção, quando o método de processamento de imagem é aplicado a um processo de conversão em código de vídeo, o método pode incluir adicionalmente: realizar conversão em código preditiva de compensação de movimento na qualquer amostra de pixel no bloco de imagem atual usando-se o vetor de movimento que é da qualquer amostra de pixel no bloco de imagem atual e é obtido através de computação.
[405] Especificamente, o processo pode ser: determinar o valor de pixel predito do pixel da qualquer amostra de pixel no bloco de imagem atual usando-se o vetor de movimento que é da qualquer amostra de pixel no bloco de imagem atual e é obtido através de computação; e realizar predição de compensação de movimento na qualquer amostra de pixel usando-se o valor de pixel predito do pixel da qualquer amostra de pixel, de modo a obter um valor de reconstrução de pixel da qualquer amostra de pixel; ou determinar o valor de pixel predito do pixel da qualquer amostra de pixel no bloco de imagem atual usando-se o vetor de movimento que é da qualquer amostra de pixel no bloco de imagem atual e é obtido através de computação; e realizar predição de compensação de movimento na qualquer amostra de pixel usando-se o valor de pixel predito do pixel da qualquer amostra de pixel, obter um residual de predição da qualquer amostra de pixel usando-se o valor de pixel do pixel da qualquer amostra de pixel obtida realizando-se predição de compensação de movimento e um valor de pixel atual do pixel da qualquer amostra de pixel, e codificar o residual de predição em um fluxo de bits, em que o valor de pixel atual também pode ser denominado como um valor de pixel original.
[406] Pode ser entendido que o processamento de imagem pode ser realizado em cada bloco de imagem em um quadro de vídeo atual em um modo similar a um modo de processamento de imagem que corresponde ao bloco de imagem atual. Certamente, o processamento de imagem pode ser realizado em alguns blocos de imagem no quadro de vídeo atual em um modo diferente do modo de processamento de imagem que corresponde ao bloco de imagem atual.
[407] Na solução técnica fornecida por essa modalidade da presente invenção, um modelo de movimento afim com base em movimento de rotação e redimensionamento é construído usando-se apenas dois parâmetros. Isso não apenas reduz complexidade computacional, mas também aprimora precisão de estimativa de vetor de movimento. Após dois coeficientes de deslocamento serem introduzidos na solução técnica, estimativa de vetor de movimento pode ser realizada com base em movimento misturado de movimento de rotação, de redimensionamento e translacional de acordo com a solução técnica, de modo que a estimativa de vetor de movimento seja mais precisa.
[408] Com referência à Figura 8, a Figura 8 é um fluxograma esquemático de outro método de processamento de imagem de acordo com outra modalidade da presente invenção. Essa modalidade é descrita principalmente usando-se um método de processamento de imagem implantado em um aparelho de decodificação de vídeo, como um exemplo. Conforme mostrado a título de exemplo na Figura 8, outro método de processamento de imagem fornecido por outra modalidade da presente invenção pode incluir as etapas a seguir.
[409] S801. Um aparelho de decodificação de vídeo determina duas amostras de pixel em um bloco de imagem atual.
[410] As duas amostras de pixel incluem duas amostras de pixel em uma amostra de pixel esquerda superior, uma amostra de pixel em uma região direita, uma amostra de pixel em uma região inferior e uma amostra de pixel em uma região direita inferior do bloco de imagem atual. Para conteúdo substantivo da amostra de pixel esquerda superior, a amostra de pixel na região direita, a amostra de pixel na região inferior e a amostra de pixel na região direita inferior do bloco de imagem atual, se refere à descrição detalhada na modalidade anterior. Os detalhes não são descritos novamente no presente documento.
[411] S802. O aparelho de decodificação de vídeo determina um conjunto de unidades-candidato de informações de movimento que corresponde a cada uma das duas amostras de pixel.
[412] Para um processo específico no qual o aparelho de decodificação de vídeo determina o conjunto de unidades-candidato de informações de movimento que corresponde a cada uma das duas amostras de pixel em S802, se refere ao processo específico no qual o aparelho de conversão em código de vídeo determina o conjunto de unidades-candidato de informações de movimento que corresponde a cada uma das duas amostras de pixel em S702. Os detalhes não são descritos novamente no presente documento.
[413] S803. O aparelho de decodificação de vídeo determina N conjuntos mesclados de unidades-candidato de informações de movimento com base no conjunto de unidades-candidato de informações de movimento que corresponde a cada uma das duas amostras de pixel.
[414] Para um processo específico no qual o aparelho de decodificação de vídeo determina os N conjuntos mesclados de unidades- candidato de informações de movimento com base no conjunto de unidades- candidato de informações de movimento que corresponde a cada uma das duas amostras de pixel em S803, se refere ao processo específico no qual o aparelho de conversão em código de vídeo determina os N conjuntos mesclados de unidades-candidato de informações de movimento com base no conjunto de unidades-candidato de informações de movimento que corresponde a cada uma das duas amostras de pixel em S703. Os detalhes não são descritos novamente no presente documento.
[415] S804. O aparelho de decodificação de vídeo realiza processamento de decodificação em um fluxo de bits de vídeo para obter um identificador de um conjunto mesclado de unidades de informações de movimento i e um residual de predição do bloco de imagem atual, e determina, a partir dos N conjuntos mesclados de unidades-candidato de informações de movimento, com base no identificador do conjunto mesclado de unidades de informações de movimento i, o conjunto mesclado de unidades de informações de movimento i que inclui duas unidades de informações de movimento.
[416] De modo correspondente, o aparelho de conversão em código de vídeo pode gravar o identificador do conjunto mesclado de unidades de informações de movimento i no fluxo de bits de vídeo.
[417] S805. O aparelho de decodificação de vídeo obtém uma tupla 2 de vetor de movimento usando-se o conjunto mesclado de unidades de informações de movimento i.
[418] Opcionalmente, em algumas implantações possíveis da presente invenção, o aparelho de decodificação de vídeo pode usar um vetor de movimento de cada unidade de informações de movimento no conjunto mesclado de unidade de informações i do bloco de imagem atual como um valor predito do vetor de movimento, decodificar o fluxo de bits para obter diferenças de predição de vetor de movimento das duas amostras de pixel no bloco de imagem atual, e adicionar uma diferença de predição de vetor de movimento que corresponde a cada vetor de movimento em um preditor de vetor de movimento para o vetor de movimento no preditor de vetor de movimento, de modo a obter a tupla 2 de vetor de movimento que inclui os vetores de movimento das duas amostras de pixel no bloco de imagem atual.
[419] S806. O aparelho de decodificação de vídeo obtém um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se um modelo de movimento afim e a tupla 2 de vetor de movimento.
[420] Para um processo específico no qual o aparelho de decodificação de vídeo obtém o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual através de computação usando-se o modelo de movimento afim e a tupla 2 de vetor de movimento em S806, se refere ao processo específico no qual o aparelho de conversão em código de vídeo obtém o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual através de computação usando-se o modelo de movimento afim e a tupla 2 de vetor de movimento em S706. Os detalhes não são descritos novamente no presente documento.
[421] S807. O aparelho de decodificação de vídeo determina um valor de pixel predito de um pixel da qualquer amostra de pixel no bloco de imagem atual usando-se o vetor de movimento que é da qualquer amostra de pixel no bloco de imagem atual e é obtido através de computação.
[422] Em um processo de predição, índices de quadro de referência que correspondem aos vetores de movimento de quaisquer amostras de pixel diferentes no bloco de imagem atual podem ser os mesmos, e podem ser índices de quadro de referência que correspondem aos vetores de movimento no conjunto mesclado de unidade de informações i.
[423] Para um processo específico no qual o aparelho de decodificação de vídeo determina o valor de pixel predito do pixel da qualquer amostra de pixel no bloco de imagem atual usando-se o vetor de movimento que é da qualquer amostra de pixel no bloco de imagem atual e é obtido através de computação em S807, se refere ao processo específico no qual o aparelho de conversão em código de vídeo determina o valor de pixel predito do pixel da qualquer amostra de pixel no bloco de imagem atual usando-se o vetor de movimento que é da qualquer amostra de pixel no bloco de imagem atual e é obtido através de computação em S707. Os detalhes não são descritos novamente no presente documento.
[424] S808. O aparelho de decodificação de vídeo reconstrói qualquer amostra de pixel usando-se o valor de pixel predito da qualquer amostra de pixel no bloco de imagem atual e um residual de predição que é da qualquer amostra de pixel no bloco de imagem atual e é obtido a partir do fluxo de bits.
[425] Especificamente, o processo pode ser: realizar predição de compensação de movimento na qualquer amostra de pixel usando-se o valor de pixel predito do pixel da qualquer amostra de pixel, de modo a obter um valor de reconstrução de pixel da qualquer amostra de pixel; ou realizar predição de compensação de movimento na qualquer amostra de pixel usando-se o valor de pixel predito do pixel da qualquer amostra de pixel, decodificar o fluxo de bits para obter um residual de predição da qualquer amostra de pixel, e obter um valor de reconstrução de pixel da qualquer amostra de pixel em referência ao valor de pixel que é do pixel da qualquer amostra de pixel e é obtido realizando- se predição de compensação de movimento.
[426] Pode ser entendido que o processamento de imagem pode ser realizado em cada bloco de imagem em um quadro de vídeo atual em um modo similar a um modo de processamento de imagem que corresponde ao bloco de imagem atual. Certamente, o processamento de imagem pode ser realizado em alguns blocos de imagem no quadro de vídeo atual em um modo diferente do modo de processamento de imagem que corresponde ao bloco de imagem atual.
[427] Na solução técnica fornecida por essa modalidade da presente invenção, um modelo de movimento afim com base em movimento de rotação e redimensionamento é construído usando-se apenas dois parâmetros. Isso não apenas reduz complexidade computacional, mas também aprimora precisão de estimativa de vetor de movimento. Após dois coeficientes de deslocamento serem introduzidos na solução técnica, estimativa de vetor de movimento pode ser realizada com base em movimento misturado de movimento de rotação, de redimensionamento e translacional de acordo com a solução técnica, de modo que a estimativa de vetor de movimento seja mais precisa.
[428] A seguir, se fornece adicionalmente aparelhos relacionados para implantar as soluções anteriormente mencionadas.
[429] Com referência à Figura 9, uma modalidade da presente invenção fornece adicionalmente um aparelho de processamento de imagem 900. O aparelho pode incluir: uma unidade de obtenção 910, configurada para obter uma tupla 2 de vetor de movimento de um bloco de imagem atual, em que a tupla 2 de vetor de movimento inclui vetores de movimento de duas amostras de pixel em um quadro de vídeo ao qual o bloco de imagem atual pertence; e uma unidade de computação 920, configurada para obter um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se um modelo de movimento afim e a tupla 2 de vetor de movimento obtido pela unidade de obtenção 910; em que o modelo de movimento afim pode estar na forma a seguir: em que (x, y) são coordenadas da qualquer amostra de pixel, vx é um componente horizontal do vetor de movimento da qualquer amostra de pixel, e vy é um componente vertical do vetor de movimento da qualquer amostra de pixel; e na equação vx = ax + by, a é um coeficiente de coordenada horizontal do componente horizontal do modelo de movimento afim, e b é um coeficiente de coordenada vertical do componente horizontal do modelo de movimento afim; e na equação vy = -bx + ay, a é um coeficiente de coordenada vertical do componente vertical do modelo de movimento afim, e -b é um coeficiente de coordenada horizontal do componente vertical do modelo de movimento afim.
[430] Opcionalmente, em algumas implantações possíveis da presente invenção, o modelo de movimento afim inclui adicionalmente um coeficiente de deslocamento horizontal c do componente horizontal do modelo de movimento afim e um coeficiente de deslocamento vertical d do componente vertical do modelo de movimento afim e, portanto, o modelo de movimento afim está na forma a seguir:
[431] Opcionalmente, em algumas implantações possíveis da presente invenção, a unidade de computação 920 pode ser especificamente configurada para: obter valores dos coeficientes do modelo de movimento afim usando-se os vetores de movimento das duas amostras de pixel e localizações das duas amostras de pixel; e obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual usando-se o modelo de movimento afim e os valores dos coeficientes do modelo de movimento afim.
[432] Opcionalmente, em algumas implantações possíveis da presente invenção, a unidade de computação 920 pode ser especificamente configurada para: obter os valores dos coeficientes do modelo de movimento afim usando-se uma razão de uma diferença entre componentes horizontais dos vetores de movimento das duas amostras de pixel para uma distância entre as duas amostras de pixel e uma razão de uma diferença entre componentes verticais dos vetores de movimento das duas amostras de pixel para a distância entre as duas amostras de pixel; e obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual usando-se o modelo de movimento afim e os valores dos coeficientes do modelo de movimento afim.
[433] Opcionalmente, em algumas implantações possíveis da presente invenção, a unidade de computação 920 pode ser especificamente configurada para: obter os valores dos coeficientes do modelo de movimento afim usando-se uma razão de uma soma ponderada de componentes dos vetores de movimento das duas amostras de pixel para uma distância entre as duas amostras de pixel ou para um quadrado de uma distância entre as duas amostras de pixel; e obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual usando-se o modelo de movimento afim e os valores dos coeficientes do modelo de movimento afim.
[434] Opcionalmente, em algumas implantações possíveis da presente invenção, quando as duas amostras de pixel incluem uma amostra de pixel esquerda superior do bloco de imagem atual e uma amostra de pixel em uma região direita em um lado direito da amostra de pixel esquerda superior, o modelo de movimento afim é especificamente: em que são um vetor de movimento da amostra de pixel esquerda superior, são um vetor de movimento da amostra de pixel na região direita, e w é uma distância entre as duas amostras de pixel.
[435] Opcionalmente, em algumas implantações possíveis da presente invenção, quando as duas amostras de pixel incluem uma amostra de pixel esquerda superior do bloco de imagem atual e uma amostra de pixel em uma região inferior abaixo da amostra de pixel esquerda superior, o modelo de movimento afim é especificamente: em que são um vetor de movimento da amostra de pixel esquerda superior, são um vetor de movimento da amostra de pixel na região inferior, e h é uma distância entre as duas amostras de pixel.
[436] Opcionalmente, em algumas implantações possíveis da presente invenção, quando as duas amostras de pixel incluem uma amostra de pixel esquerda superior do bloco de imagem atual e uma amostra de pixel em uma região direita inferior em um lado direito inferior da amostra de pixel esquerda superior, o modelo de movimento afim é especificamente:em que são um vetor de movimento da amostra de pixel esquerda superior, são um vetor de movimento da amostra de pixel na região direita inferior, h1 é uma distância em uma direção vertical entre as duas amostras de pixel, w1 é uma distância em uma direção horizontal entre as duas amostras de pixel, e w12 + h12 é um quadrado da distância entre as duas amostras de pixel.
[437] Opcionalmente, em algumas implantações possíveis da presente invenção, o aparelho de processamento de imagem 900 é aplicado a um aparelho de conversão em código de vídeo ou o aparelho de predição de imagem é aplicado a um aparelho de decodificação de vídeo.
[438] Opcionalmente, em algumas implantações possíveis da presente invenção, quando o aparelho de processamento de imagem 900 é aplicado ao aparelho de conversão em código de vídeo, o aparelho inclui adicionalmente uma unidade de codificação, configurada para realizar conversão em código preditiva de compensação de movimento na qualquer amostra de pixel no bloco de imagem atual usando-se o vetor de movimento que é da qualquer amostra de pixel no bloco de imagem atual e é obtido pela unidade de computação 920 através de computação.
[439] Opcionalmente, em algumas implantações possíveis da presente invenção, quando o aparelho de processamento de imagem 900 é aplicado ao aparelho de conversão em código de vídeo, o aparelho inclui adicionalmente uma unidade de decodificação, configurada para realizar decodificação de compensação de movimento na qualquer amostra de pixel usando-se o vetor de movimento que é da qualquer amostra de pixel no bloco de imagem atual e é obtido pela unidade de computação 920 através de computação, e obter um valor de reconstrução de pixel da qualquer amostra de pixel.
[440] Deve ser observado que, o aparelho de processamento de imagem 900 nessa modalidade pode incluir adicionalmente unidades funcionais no aparelho de predição de imagem 400; a unidade de obtenção 910 e a unidade de computação 920 no aparelho de processamento de imagem 900 nessa modalidade podem ser aplicadas à unidade de predição 430, de modo que as funções exigidas pela unidade de predição 430 sejam implantadas. Para a descrição detalhada de cada unidade funcional no aparelho de predição de imagem 400, se refere à descrição detalhada na modalidade anterior. Os detalhes não são descritos novamente no presente documento.
[441] Pode ser entendido que, funções de unidades funcionais do aparelho de processamento de imagem 900 nessa modalidade podem ser especificamente implantadas de acordo com o método na modalidade de método anterior. Para um processo de implantação específico da mesma, se refere à descrição relacionada na modalidade de método anterior. Os detalhes não são descritos novamente no presente documento. O aparelho de processamento de imagem 900 pode ser qualquer aparelho que precisa emitir e reproduzir um vídeo, por exemplo, um dispositivo como um computador do tipo notebook, um computador do tipo tablet, um computador pessoal ou um telefone móvel.
[442] Na solução técnica fornecida por essa modalidade da presente invenção, o aparelho de processamento de imagem 900 constrói um modelo de movimento afim com base em movimento de rotação e redimensionamento usando-se apenas dois parâmetros. Isso não apenas reduz complexidade computacional, mas também aprimora precisão de estimativa de vetor de movimento. Após dois coeficientes de deslocamento serem introduzidos no aparelho de processamento de imagem 900, o aparelho de processamento de imagem 900 pode realizar estimativa de vetor de movimento com base em movimento misturado de movimento de rotação, de redimensionamento e translacional, de modo que a estimativa de vetor de movimento seja mais precisa.
[443] Com referência à Figura 10, a Figura 10 é um diagrama esquemático de a aparelho de processamento de imagem 1000 de acordo com uma modalidade da presente invenção. O aparelho de processamento de imagem 1000 pode incluir pelo menos um barramento 1001, pelo menos um processador 1002 conectado ao barramento 1001, e pelo menos uma memória 1003 conectada ao barramento 1001.
[444] O processador 1002 invoca, usando-se o barramento 1001, um código ou uma instrução armazenado na memória 1003, de modo que o processador 1002 seja configurado para: obter uma tupla 2 de vetor de movimento de um bloco de imagem atual, em que a tupla 2 de vetor de movimento inclui vetores de movimento de duas amostras de pixel em um quadro de vídeo ao qual o bloco de imagem atual pertence; e obter um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se um modelo de movimento afim e a tupla 2 de vetor de movimento.
[445] Opcionalmente, em algumas implantações possíveis dapresente invenção, o modelo de movimento afim pode estar na forma a seguir: (x, y) são coordenadas da qualquer amostra de pixel, vx é um componente horizontal do vetor de movimento da qualquer amostra de pixel, e vy é um componente vertical do vetor de movimento da qualquer amostra de pixel; e na equação vx = ax + by, a é um coeficiente de coordenada horizontal do componente horizontal do modelo de movimento afim, e b é um coeficiente de coordenada vertical do componente horizontal do modelo de movimento afim; e na equação vy = -bx + ay, a é um coeficiente de coordenada vertical do componente vertical do modelo de movimento afim, e -b é um coeficiente de coordenada horizontal do componente vertical do modelo de movimento afim.
[446] Opcionalmente, em algumas implantações possíveis da presente invenção, o modelo de movimento afim inclui adicionalmente um coeficiente de deslocamento horizontal c do componente horizontal do modelo de movimento afim e um coeficiente de deslocamento vertical d do componente vertical do modelo de movimento afim e, portanto, o modelo de movimento afim está na forma a seguir:
[447] Opcionalmente, em algumas implantações possíveis da presente invenção, em um aspecto de obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual através de computação usando-se o modelo de movimento afim e a tupla 2 de vetor de movimento, o processador 1002 pode ser configurado para: obter valores dos coeficientes do modelo de movimento afim usando-se os vetores de movimento das duas amostras de pixel e localizações das duas amostras de pixel; e obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual usando-se o modelo de movimento afim e os valores dos coeficientes do modelo de movimento afim.
[448] Opcionalmente, em algumas implantações possíveis da presente invenção, no aspecto de obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual através de computação usando-se o modelo de movimento afim e a tupla 2 de vetor de movimento, o processador 1002 pode ser configurado para: obter os valores dos coeficientes do modelo de movimento afim usando-se uma razão de uma diferença entre componentes horizontais dos vetores de movimento das duas amostras de pixel para uma distância entre as duas amostras de pixel e uma razão de uma diferença entre componentes verticais dos vetores de movimento das duas amostras de pixel para a distância entre as duas amostras de pixel; e obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual usando-se o modelo de movimento afim e os valores dos coeficientes do modelo de movimento afim.
[449] Opcionalmente, em algumas implantações possíveis da presente invenção, no aspecto de obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual através de computação usando-se o modelo de movimento afim e a tupla 2 de vetor de movimento, o processador 1002 pode ser configurado para: obter os valores dos coeficientes do modelo de movimento afim usando-se uma razão de uma soma ponderada de componentes dos vetores de movimento das duas amostras de pixel para uma distância entre as duas amostras de pixel ou para um quadrado de uma distância entre as duas amostras de pixel; e obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual usando-se o modelo de movimento afim e os valores dos coeficientes do modelo de movimento afim.
[450] Opcionalmente, em algumas implantações possíveis da presente invenção, quando as duas amostras de pixel incluem uma amostra de pixel esquerda superior do bloco de imagem atual e uma amostra de pixel em uma região direita em um lado direito da amostra de pixel esquerda superior, o modelo de movimento afim pode ser especificamente: são um vetor de movimento da amostra de pixel esquerda superior, são um vetor de movimento da amostra de pixel na região direita, e w é uma distância entre as duas amostras de pixel.
[451] Opcionalmente, em algumas implantações possíveis da presente invenção, quando as duas amostras de pixel incluem uma amostra de pixel esquerda superior do bloco de imagem atual e uma amostra de pixel em uma região inferior abaixo da amostra de pixel esquerda superior, o modelo de movimento afim pode ser especificamente: em que são um vetor de movimento da amostra de pixel esquerda superior, são um vetor de movimento da amostra de pixel na região inferior e h é uma distância entre as duas amostras de pixel.
[452] Opcionalmente, em algumas implantações possíveis da presente invenção, quando as duas amostras de pixel incluem uma amostra de pixel esquerda superior do bloco de imagem atual e uma amostra de pixel em uma região direita inferior em um lado direito inferior da amostra de pixel esquerda superior, o modelo de movimento afim pode ser especificamente: em que são um vetor de movimento da amostra de pixel esquerda Ifl\X3 1-Ti) são um vetor de movimento da amostra de pixel na região direita inferior, h1 é uma distância em uma direção vertical entre as duas amostras de pixel, w1 é uma distância em uma direção horizontal entre as duas amostras de pixel, e w12 + h12 é um quadrado da distância entre as duas amostras de pixel.
[453] Opcionalmente, em algumas implantações possíveis da presente invenção, o aparelho de processamento de imagem 1000 é aplicado a um aparelho de conversão em código de vídeo ou o aparelho de predição de imagem é aplicado a um aparelho de decodificação de vídeo.
[454] Opcionalmente, em algumas implantações possíveis da presente invenção, quando o aparelho de processamento de imagem é aplicado ao aparelho de conversão em código de vídeo, o processador 1002 é adicionalmente configurado para: após obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual através de computação usando-se o modelo de movimento afim e a tupla 2 de vetor de movimento, realizar conversão em código preditiva de compensação de movimento na qualquer amostra de pixel no bloco de imagem atual usando-se o vetor de movimento que é da qualquer amostra de pixel no bloco de imagem atual e é obtido através de computação.
[455] Opcionalmente, em algumas implantações possíveis da presente invenção, quando o aparelho de processamento de imagem é aplicado ao aparelho de decodificação de vídeo, o processador 1002 é adicionalmente configurado para: após determinar um valor de pixel predito de um pixel da qualquer amostra de pixel no bloco de imagem atual, realizar decodificação de compensação de movimento na qualquer amostra de pixel usando-se o vetor de movimento que é da qualquer amostra de pixel no bloco de imagem atual e é obtido através de computação, e obter um valor de reconstrução de pixel da qualquer amostra de pixel.
[456] Pode ser entendido que, funções de módulos funcionais do aparelho de processamento de imagem 1000 nessa modalidade podem ser especificamente implantadas de acordo com o método na modalidade de método anterior. Para um processo de implantação específico da mesma, se refere à descrição relacionada na modalidade de método anterior. Os detalhes não são descritos novamente no presente documento. O aparelho de processamento de imagem 1000 pode ser qualquer aparelho que precisa emitir e reproduzir um vídeo, por exemplo, um dispositivo como um computador do tipo notebook, um computador do tipo tablet, um computador pessoal ou um telefone móvel.
[457] Na solução técnica fornecida por essa modalidade da presente invenção, um aparelho de processamento de imagem 1000 constrói um modelo de movimento afim com base em movimento de rotação e redimensionamento usando-se apenas dois parâmetros. Isso não apenas reduz complexidade computacional, mas também aprimora precisão de estimativa de vetor de movimento. Após dois coeficientes de deslocamento serem introduzidos no aparelho de processamento de imagem 1000, o aparelho de processamento de imagem 1000 pode realizar estimativa de vetor de movimento com base em movimento misturado de movimento de rotação, de redimensionamento e translacional, de modo que a estimativa de vetor de movimento seja mais precisa.
[458] Uma modalidade da presente invenção fornece adicionalmente uma mídia de armazenamento de computador. A mídia de armazenamento de computador pode armazenar um programa, e quando o programa é executado, pelo menos some ou algumas ou todas as etapas de qualquer método de predição de imagem nas modalidades de método anteriores podem ser realizadas.
[459] Nas modalidades anteriores, a descrição de cada modalidade tem respectivos focos. Para uma parte que não é descrita em detalhes em uma modalidade, se refere a descrições relacionadas em outras modalidades.
[460] Com referência à Figura 11, a Figura 11 é um fluxograma esquemático de outro método de processamento de imagem de acordo com uma modalidade da presente invenção. Conforme mostrado a título de exemplo na Figura 11, outro método de processamento de imagem fornecido por outra modalidade da presente invenção pode incluir as etapas a seguir.
[461] S1101. Obter coeficientes de um modelo de movimento afim, e obter um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se os coeficientes do modelo de movimento afim e do modelo de movimento afim.
[462] Opcionalmente, em algumas implantações possíveis da presente invenção, o modelo de movimento afim pode estar na forma a seguir:, em que (x, y) são coordenadas da qualquer amostra de pixel, vx é um componente horizontal do vetor de movimento da qualquer amostra de pixel, e vy é um componente vertical do vetor de movimento da qualquer amostra de pixel; e na equação vx = ax + by, a é um coeficiente de coordenada horizontal do componente horizontal do modelo de movimento afim, e b é um coeficiente de coordenada vertical do componente horizontal do modelo de movimento afim; e na equação vy = -bx + ay, a é um coeficiente de coordenada vertical do componente vertical do modelo de movimento afim, -b é um coeficiente de coordenada horizontal do componente vertical do modelo de movimento afim, e os coeficientes do modelo de movimento afim pode incluir a e b.
[463] Opcionalmente, em algumas implantações possíveis da presente invenção, os coeficientes do modelo de movimento afim podem incluir adicionalmente um coeficiente de deslocamento horizontal c do componente horizontal do modelo de movimento afim e um coeficiente de deslocamento vertical d do componente vertical do modelo de movimento afim e, portanto, o modelo de movimento afim está na forma a seguir:
[464] S1102. Determinar S1102 um valor de pixel predito de um pixel da qualquer amostra de pixel usando-se o vetor de movimento que é da qualquer amostra de pixel e é obtido através de computação.
[465] Para a descrição detalhada nessa modalidade, se refere à descrição relacionada na modalidade anterior.
[466] Na solução técnica fornecida por essa modalidade da presente invenção, um modelo de movimento afim com base em movimento de rotação e redimensionamento é construído usando-se apenas dois parâmetros. Isso não apenas reduz complexidade computacional, mas também aprimora precisão de estimativa de vetor de movimento. Após dois coeficientes de deslocamento serem introduzidos na solução técnica, estimativa de vetor de movimento pode ser realizada com base em movimento misturado de movimento de rotação, de redimensionamento e translacional de acordo com a solução técnica, de modo que a estimativa de vetor de movimento seja mais precisa.
[467] Com referência à Figura 12, uma modalidade da presente invenção fornece adicionalmente um aparelho de processamento de imagem 1200. O aparelho pode incluir: uma unidade de obtenção 1210, configurada para obter coeficientes de um modelo de movimento afim; uma unidade de computação 1220, configurada para obter um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se os coeficientes do modelo de movimento afim que são obtidos pela unidade de obtenção 1210 e o modelo de movimento afim; e uma unidade de predição 1230, configurada para determinar um valor de pixel predito de um pixel da qualquer amostra de pixel usando-se o vetor de movimento que é da qualquer amostra de pixel e é obtido pela unidade de computação 1220 através de computação.
[468] Opcionalmente, em algumas implantações possíveis da presente invenção, o modelo de movimento afim pode estar na forma a seguir: (x, y) são coordenadas da qualquer amostra de pixel, vx é um componente horizontal do vetor de movimento da qualquer amostra de pixel, e vy é um componente vertical do vetor de movimento da qualquer amostra de pixel; e na equação vx = ax + by, a é um coeficiente de coordenada horizontal do componente horizontal do modelo de movimento afim, e b é um coeficiente de coordenada vertical do componente horizontal do modelo de movimento afim; e na equação vy = -bx + ay, a é um coeficiente de coordenada vertical do componente vertical do modelo de movimento afim, -b é um coeficiente de coordenada horizontal do componente vertical do modelo de movimento afim, e os coeficientes do modelo de movimento afim pode incluir a e b.
[469] Opcionalmente, em algumas implantações possíveis da presente invenção, os coeficientes do modelo de movimento afim podem incluir adicionalmente um coeficiente de deslocamento horizontal c do componente horizontal do modelo de movimento afim e um coeficiente de deslocamento vertical d do componente vertical do modelo de movimento afim e, portanto, o modelo de movimento afim está na forma a seguir:
[470] Para a descrição detalhada nessa modalidade, se refere à descrição relacionada na modalidade anterior.
[471] Pode ser entendido que, funções de módulos funcionais do aparelho de processamento de imagem 1200 nessa modalidade podem ser especificamente implantadas de acordo com o método na modalidade de método anterior. Para um processo de implantação específico da mesma, se refere à descrição relacionada na modalidade de método anterior. Os detalhes não são descritos novamente no presente documento. O aparelho de processamento de imagem 1200 pode ser qualquer aparelho que precisa emitir e reproduzir um vídeo, por exemplo, um dispositivo como um computador do tipo notebook, um computador do tipo tablet, um computador pessoal ou um telefone móvel.
[472] Na solução técnica fornecida por essa modalidade da presente invenção, o aparelho de processamento de imagem 1200 constrói um modelo de movimento afim com base em movimento de rotação e redimensionamento usando-se apenas dois parâmetros. Isso não apenas reduz complexidade computacional, mas também aprimora precisão de estimativa de vetor de movimento. Após dois coeficientes de deslocamento serem introduzidos no aparelho de processamento de imagem 1200, o aparelho de processamento de imagem 1200 pode realizar estimativa de vetor de movimento com base em movimento misturado de movimento de rotação, de redimensionamento e translacional, de modo que a estimativa de vetor de movimento seja mais precisa.
[473] Com referência à Figura 13, a Figura 13 é um diagrama esquemático de a aparelho de processamento de imagem 1300 de acordo com uma modalidade da presente invenção. O aparelho de processamento de imagem 1300 pode incluir pelo menos um barramento 1301, pelo menos um processador 1302 conectado ao barramento 1301, e pelo menos uma memória 1303 conectada ao barramento 1301.
[474] O processador 1302 invoca, usando-se o barramento 1301, código ou uma instrução armazenada na memória 1303, de modo que o processador 1302 seja configurado para: obter coeficientes de um modelo de movimento afim, e obter um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se os coeficientes do modelo de movimento afim e o modelo de movimento afim; e determinar um valor de pixel predito de um pixel da qualquer amostra de pixel usando-se o vetor de movimento que é da qualquer amostra de pixel e é obtido através de computação.
[475] Opcionalmente, em algumas implantações possíveis da presente invenção, o modelo de movimento afim pode estar na forma a seguir: (x, y) são coordenadas da qualquer amostra de pixel, vx é um componente horizontal do vetor de movimento da qualquer amostra de pixel, e vy é um componente vertical do vetor de movimento da qualquer amostra de pixel; e na equação vx = ax + by, a é um coeficiente de coordenada horizontal do componente horizontal do modelo de movimento afim, e b é um coeficiente de coordenada vertical do componente horizontal do modelo de movimento afim; e na equação vy = -bx + ay, a é um coeficiente de coordenada vertical do componente vertical do modelo de movimento afim, -b é um coeficiente de coordenada horizontal do componente vertical do modelo de movimento afim, e os coeficientes do modelo de movimento afim pode incluir a e b.
[476] Opcionalmente, em algumas implantações possíveis da presente invenção, os coeficientes do modelo de movimento afim podem incluir adicionalmente um coeficiente de deslocamento horizontal c do componente horizontal do modelo de movimento afim e um coeficiente de deslocamento vertical d do componente vertical do modelo de movimento afim e, portanto, o modelo de movimento afim está na forma a seguir:
[477] Para a descrição detalhada nessa modalidade, se refere à descrição relacionada na modalidade anterior.
[478] Pode ser entendido que, funções de módulos funcionais do aparelho de processamento de imagem 1300 nessa modalidade podem ser especificamente implantadas de acordo com o método na modalidade de método anterior. Para um processo de implantação específico da mesma, se refere à descrição relacionada na modalidade de método anterior. Os detalhes não são descritos novamente no presente documento. O aparelho de processamento de imagem 1300 pode ser qualquer aparelho que precisa emitir e reproduzir um vídeo, por exemplo, um dispositivo como um computador do tipo notebook, um computador do tipo tablet, um computador pessoal ou um telefone móvel.
[479] Na solução técnica fornecida por essa modalidade da presente invenção, o aparelho de processamento de imagem 1300 constrói um modelo de movimento afim com base em movimento de rotação e redimensionamento usando-se apenas dois parâmetros. Isso não apenas reduz complexidade computacional, mas também aprimora precisão de estimativa de vetor de movimento. Após dois coeficientes de deslocamento serem introduzidos no aparelho de processamento de imagem 1300, o aparelho de processamento de imagem 1300 pode realizar estimativa de vetor de movimento com base em movimento misturado de movimento de rotação, de redimensionamento e translacional, de modo que a estimativa de vetor de movimento seja mais precisa.
[480] Uma modalidade da presente invenção fornece adicionalmente uma mídia de armazenamento de computador. A mídia de armazenamento de computador pode armazenar um programa, e quando o programa é executado, pelo menos some ou algumas ou todas as etapas de qualquer método de predição de imagem nas modalidades de método anteriores podem ser realizadas.
[481] Nas modalidades anteriores, a descrição de cada modalidade tem respectivos focos. Para uma parte que não é descrita em detalhes em uma modalidade, se refere a descrições relacionadas em outras modalidades.
[482] Deve ser observado que, para tornar a descrição breve, as modalidades de método anteriores são expressadas como uma série de ações. No entanto, indivíduos versados na técnica devem observar que a presente invenção não é limitada à sequência de ação descrita devido ao fato de que, de acordo com a presente invenção, algumas etapas podem ser realizadas em outras sequências ou realizadas simultaneamente. Além disso, indivíduos versados na técnica também devem observar que todas as modalidades descritas no relatório descritivo são modalidades exemplificativas, e as ações e módulos relacionados não são necessariamente obrigatórios para a presente invenção.
[483] Nas diversas modalidades fornecidas no presente pedido, deve ser entendido que o aparelho revelado pode ser implantado de outras maneiras. Por exemplo, a modalidade de aparelho descrita é meramente um exemplo. Por exemplo, a divisão de unidade é meramente uma divisão de função lógica e pode ser outra divisão em uma implantação real. Por exemplo, uma pluralidade de unidades ou componentes pode ser combinada ou integrada a outro sistema, ou alguns recursos podem ser ignorados ou não realizados. Além disso, os acoplamentos mútuos ou acoplamentos diretos ou conexões de comunicação exibidos ou discutidos podem ser implementados através de algumas interfaces. Os acoplamentos indiretos ou conexões de comunicação entre os aparelhos ou unidades podem ser implantados em dispositivo eletrônico ou outras formas.
[484] As unidades descritas como partes separadas podem ou não ser fisicamente separadas e partes exibidas como unidades podem ou não ser unidades físicas, podem estar localizadas em uma localização, ou podem ser distribuídas em uma pluralidade de unidades de rede. Algumas ou todas as unidades podem ser selecionadas de acordo com exigências reais para alcançar os objetivos das soluções das modalidades.
[485] Além disso, as unidades funcionais nas modalidades da presente invenção podem ser integradas em uma unidade de processamento, ou cada uma dentre as unidades pode existir sozinha fisicamente, ou duas ou mais unidades são integradas em uma unidade. A unidade integrada pode ser implantada em uma forma de hardware, ou pode ser implantada em uma forma de uma unidade funcional de software.
[486] Quando a unidade integrada anterior é implantada na forma de uma unidade funcional de software e vendida ou usada como um produto independente, a unidade integrada pode ser armazenada em uma mídia de armazenamento legível por computador. Com base em tal compreensão, as soluções técnicas da presente invenção essencialmente, ou a parte que contribui para a técnica anterior, ou todas ou algumas soluções técnicas podem ser implantadas na forma de um produto de software. O produto de software é armazenado em uma mídia de armazenamento e inclui diversas instruções para instruir um dispositivo de computador (que pode ser um computador pessoal, um servidor ou um dispositivo de rede, e pode ser especificamente um processador em um dispositivo de computador) para realizar todas ou algumas das etapas dos métodos anteriores descritos nas modalidades da presente invenção. A mídia de armazenamento anterior inclui: qualquer mídia que pode armazenar código de programa, como uma unidade flash USB, um disco rígido removível, um disco magnético, um disco óptico, uma memória de apenas leitura (ROM, Read-Only Memory), ou uma memória de acesso aleatório (RAM, Random Access Memory).
[487] As modalidades anteriores são meramente destinadas para descrever as soluções técnicas da presente invenção, mas não para limitar a presente invenção. Embora a presente invenção seja descrita em detalhes em referência às modalidades anteriores, indivíduos de habilidade comum na técnica deve entender que os mesmos ainda podem realizar modificações às soluções técnicas descritas nas modalidades anteriores ou realizar substituições equivalentes a alguns recursos técnicos das mesmas, sem se afastar do espírito e do escopo das soluções técnicas das modalidades da presente invenção.

Claims (47)

1. Método de processamento de imagem, CARACTERIZADO pelo fato de que o método compreende: obter (S601) uma tupla 2 de vetor de movimento de um bloco de imagem atual, em que a tupla 2 de vetor de movimento compreende vetores de movimento de duas amostras de pixel em um quadro de vídeo ao qual o bloco de imagem atual pertence; e obter (S602) um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se um modelo de movimento afim e a tupla 2 de vetor de movimento; em que o modelo de movimento afim está na forma a seguir:, em que (x y) representam coordenadas da qualquer amostra de pixel, vx representa um componente horizontal do vetor de movimento da qualquer amostra de pixel e vy representa um componente vertical do vetor de movimento da qualquer amostra de pixel, c representa um coeficiente de deslocamento horizontal do componente horizontal do modelo de movimento afim, d representa um coeficiente de deslocamento vertical do componente vertical do modelo de movimento afim; e na equação , a representa um coeficiente de coordenada horizontal do componente horizontal do modelo de movimento afim, e b representa um coeficiente de coordenada vertical do componente horizontal do modelo de movimento afim; e na equação representa um coeficiente de coordenada vertical do componente vertical do modelo de movimento afim, e -b representa um coeficiente de coordenada horizontal do componente vertical do modelo de movimento afim.
2. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que c é 0, d é 0, e portanto, o modelo de movimento afim está na forma a seguir:
3. Método, de acordo com a reivindicação 1 ou 2, CARACTERIZADO pelo fato de que a obtenção de um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se um modelo de movimento afim e a tupla 2 de vetor de movimento compreende: obter valores dos coeficientes do modelo de movimento afim usando- se os vetores de movimento das duas amostras de pixel e localizações das duas amostras de pixel; e obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual usando-se o modelo de movimento afim e os valores dos coeficientes do modelo de movimento afim.
4. Método, de acordo com qualquer uma das reivindicações 1 a 3, CARACTERIZADO pelo fato de que a obtenção de um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se um modelo de movimento afim e a tupla 2 de vetor de movimento compreende: obter os valores dos coeficientes do modelo de movimento afim usando-se uma razão de uma diferença entre componentes horizontais dos vetores de movimento das duas amostras de pixel para uma distância entre as duas amostras de pixel e uma razão de uma diferença entre componentes verticais dos vetores de movimento das duas amostras de pixel para a distância entre as duas amostras de pixel; e obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual usando-se o modelo de movimento afim e os valores dos coeficientes do modelo de movimento afim.
5. Método, de acordo com a reivindicação 4, CARACTERIZADO pelo fato de que w representa a distância entre as duas amostras de pixel, e as coordenadas verticais das duas amostras de pixel são as mesmas, e o w representa uma largura do bloco de imagem atual.
6. Método, de acordo com qualquer uma das reivindicações 1 a 3, CARACTERIZADO pelo fato de que a obtenção de um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se um modelo de movimento afim e a tupla 2 de vetor de movimento compreende: obter os valores dos coeficientes do modelo de movimento afim usando-se uma razão de uma soma ponderada de componentes dos vetores de movimento das duas amostras de pixel para uma distância entre as duas amostras de pixel ou para um quadrado de uma distância entre as duas amostras de pixel; e obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual usando-se o modelo de movimento afim e os valores dos coeficientes do modelo de movimento afim.
7. Método, de acordo com qualquer uma das reivindicações 1 a 4, CARACTERIZADO pelo fato de que quando as duas amostras de pixel compreendem uma amostra de pixel esquerda superior do bloco de imagem atual e uma amostra de pixel em uma região direita em um lado direito da amostra de pixel esquerda superior, o modelo de movimento afim é especificamente: em que representa um vetor de movimento da amostra de pixel esquerda superior,representa um vetor de movimento da amostra de pixel na região direita, e w representa uma distância entre as duas amostras de pixel.
8. Método, de acordo com a reivindicação 7, CARACTERIZADO pelo fato de que w representa uma largura do bloco de imagem atual, e a coordenada vertical da amostra de pixel esquerda superior e a coordenada vertical da amostra de pixel na região direita no lado direito da amostra de pixel esquerda superior são as mesmas.
9. Método, de acordo com qualquer uma das reivindicações 1 a 4, CARACTERIZADO pelo fato de que quando as duas amostras de pixel compreendem uma amostra de pixel esquerda superior do bloco de imagem atual e uma amostra de pixel em uma região inferior abaixo da amostra de pixel esquerda superior, o modelo de movimento afim é especificamente: representa um vetor de movimento da amostra de pixel esquerda superior, representa um vetor de movimento da amostra de pixel na região inferior, e h representa uma distância entre as duas amostras de pixel.
10. Método, de acordo com qualquer uma das reivindicações 1, 2, 3 ou 6, CARACTERIZADO pelo fato de que quando as duas amostras de pixel compreendem uma amostra de pixel esquerda superior do bloco de imagem atual e uma amostra de pixel em uma região direita inferior em um lado direito inferior da amostra de pixel esquerda superior, o modelo de movimento afim é especificamente: em que representa um vetor de movimento da amostra de pixel esquerda superior,representa um vetor de movimento da amostra de pixel na região direita inferior, h1 representa uma distância em uma direção vertical entre as duas amostras de pixel, w1 representa uma distância em uma direção horizontal entre as duas amostras de pixel, e w12 + h12 representa um quadrado da distância entre as duas amostras de pixel.
11. Método, de acordo com qualquer uma das reivindicações 1 a 10, CARACTERIZADO pelo fato de que após a obtenção de um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se um modelo de movimento afim e a tupla 2 de vetor de movimento, o método compreende adicionalmente:realizar conversão em código preditiva de compensação de movimento na qualquer amostra de pixel no bloco de imagem atual usando-se o vetor de movimento que é da qualquer amostra de pixel no bloco de imagem atual e é obtido através de computação.
12. Método, de acordo com qualquer uma das reivindicações 1 a 10,CARACTERIZADO pelo fato de que após a obtenção de um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se um modelo de movimento afim e a tupla 2 de vetor de movimento, o método compreende adicionalmente:realizar decodificação de compensação de movimento na qualquer amostra de pixel usando-se o vetor de movimento que é da qualquer amostra de pixel no bloco de imagem atual para obter um valor de reconstrução de pixel da qualquer amostra de pixel.
13. Método, de acordo com qualquer uma das reivindicações 1 a 12, CARACTERIZADO pelo fato de que a qualquer amostra de pixel cujo vetor de movimento é obtido, é qualquer bloco de pixel cujo vetor de movimento é obtido.
14. Método, de acordo com a reivindicação 13, CARACTERIZADO pelo fato de que dito qualquer bloco de pixel tem o tamanho de 4 x 4.
15. Método, de acordo com a reivindicação 13 ou 14, CARACTERIZADO pelo fato de que (x, y) são coordenadas de uma amostra de centro direita inferior (A4) do qualquer bloco de pixel.
16. Aparelho de processamento de imagem (900), CARACTERIZADO pelo fato de que o aparelho (900) compreende: uma unidade de obtenção (910), configurada para obter uma tupla 2 de vetor de movimento de um bloco de imagem atual, em que a tupla 2 de vetor de movimento compreende vetores de movimento de duas amostras de pixel em um quadro de vídeo ao qual o bloco de imagem atual pertence; e uma unidade de computação (920), configurada para obter um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se um modelo de movimento afim e a tupla 2 de vetor de movimento obtida pela unidade de obtenção (910); em que o modelo de movimento afim está na forma a seguir:, em que (x y) representam coordenadas da qualquer amostra de pixel, vx representa um componente horizontal do vetor de movimento da qualquer amostra de pixel e vy representa um componente vertical do vetor de movimento da qualquer amostra de pixel, c representa um coeficiente de deslocamento horizontal do componente horizontal do modelo de movimento afim, d representa um coeficiente de deslocamento vertical do componente vertical do modelo de movimento afim; e na equação , a representa um coeficiente de coordenada horizontal do componente horizontal do modelo de movimento afim, e b representa um coeficiente de coordenada vertical do componente horizontal do modelo de movimento afim; e na equação a representa um coeficiente de coordenada vertical do componente vertical do modelo de movimento afim, e -b representa um coeficiente de coordenada horizontal do componente vertical do modelo de movimento afim.
17. Aparelho (900), de acordo com a reivindicação 16, CARACTERIZADO pelo fato de que c é 0, d é 0, e portanto, o modelo de movimento afim está na forma a seguir:
18. Aparelho (900), de acordo com a reivindicação 16 ou 17, CARACTERIZADO pelo fato de que a unidade de computação (920) é especificamente configurada para: obter valores dos coeficientes do modelo de movimento afim usando- se os vetores de movimento das duas amostras de pixel e localizações das duas amostras de pixel; e obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual usando-se o modelo de movimento afim e os valores dos coeficientes do modelo de movimento afim.
19. Aparelho (900), de acordo com qualquer uma das reivindicações 16 a 18, CARACTERIZADO pelo fato de que a unidade de computação (920) é especificamente configurada para: obter os valores dos coeficientes do modelo de movimento afim usando-se uma razão de uma diferença entre componentes horizontais dos vetores de movimento das duas amostras de pixel para uma distância entre as duas amostras de pixel e uma razão de uma diferença entre componentes verticais dos vetores de movimento das duas amostras de pixel para a distância entre as duas amostras de pixel; e obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual usando-se o modelo de movimento afim e os valores dos coeficientes do modelo de movimento afim.
20. Aparelho (900), de acordo com a reivindicação 19, CARACTERIZADO pelo fato de que w representa a distância entre as duas amostras de pixel, e as coordenadas verticais das duas amostras de pixel são as mesmas, e o w representa uma largura do bloco de imagem atual.
21. Aparelho (900), de acordo com qualquer uma das reivindicações 16 a 18, CARACTERIZADO pelo fato de que a unidade de computação (920) é especificamente configurada para: obter os valores dos coeficientes do modelo de movimento afim usando-se uma razão de uma soma ponderada de componentes dos vetores de movimento das duas amostras de pixel para uma distância entre as duas amostras de pixel ou para um quadrado de uma distância entre as duas amostras de pixel; e obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual usando-se o modelo de movimento afim e os valores dos coeficientes do modelo de movimento afim.
22. Aparelho (900), de acordo com qualquer uma das reivindicações 16 a 19, CARACTERIZADO pelo fato de que quando as duas amostras de pixel compreendem uma amostra de pixel esquerda superior do bloco de imagem atual e uma amostra de pixel em uma região direita em um lado direito da amostra de pixel esquerda superior, o modelo de movimento afim é especificamente:em que representa um vetor de movimento da amostra de pixel esquerda superior, representa um vetor de movimento da amostra de pixel na região direita, e w representa uma distância entre as duas amostras de pixel.
23. Aparelho (900), de acordo com a reivindicação 22, CARACTERIZADO pelo fato de que o w representa uma largura do bloco de imagem atual, e a coordenada vertical da amostra de pixel esquerda superior e a coordenada vertical da amostra de pixel na região direita no lado direito da amostra de pixel esquerda superior são as mesmas.
24. Aparelho (900), de acordo com qualquer uma das reivindicações 16 a 19, CARACTERIZADO pelo fato de que quando as duas amostras de pixel compreendem uma amostra de pixel esquerda superior do bloco de imagem atual e uma amostra de pixel em uma região inferior abaixo da amostra de pixel esquerda superior, o modelo de movimento afim é especificamente: em que representa um vetor de movimento da amostra de pixel esquerda superior, representa um vetor de movimento da amostra de pixel na região inferior, e h representa uma distância entre as duas amostras de pixel.
25. Aparelho (900), de acordo com qualquer uma das reivindicações 16, 17, 18 ou 22, CARACTERIZADO pelo fato de que quando as duas amostras de pixel compreendem uma amostra de pixel esquerda superior do bloco de imagem atual e uma amostra de pixel em uma região direita inferior em um lado direito inferior da amostra de pixel esquerda superior, o modelo de movimento afim é especificamente:em que representa um vetor de movimento da amostra de pixel representa um vetor de movimento da amostra de pixel na região direita inferior, h1 representa uma distância em uma direção vertical entre as duas amostras de pixel, w1 representa uma distância em uma direção horizontal entre as duas amostras de pixel, e w12 + h12 representa um quadrado da distância entre as duas amostras de pixel.
26. Aparelho (900), de acordo com qualquer uma das reivindicações 16 a 25, CARACTERIZADO pelo fato de que quando o aparelho de processamento de imagem (900) é aplicado a um aparelho de conversão em código de vídeo, o aparelho (900) compreende adicionalmente uma unidade de codificação, configurada para realizar conversão em código preditiva de compensação de movimento na qualquer amostra de pixel no bloco de imagem atual usando-se o vetor de movimento que é da qualquer amostra de pixel no bloco de imagem atual e é obtido pela unidade de computação (920) através de computação.
27. Aparelho (900), de acordo com qualquer uma das reivindicações 16 a 25, CARACTERIZADO pelo fato de que quando o aparelho de processamento de imagem (900) é aplicado a um aparelho de conversão em código de vídeo, o aparelho (900) compreende adicionalmente uma unidade de decodificação, configurada para realizar decodificação de compensação de movimento na qualquer amostra de pixel usando-se o vetor de movimento que é da qualquer amostra de pixel no bloco de imagem atual e é obtido pela unidade de computação (920) através de computação para obter um valor de reconstrução de pixel da qualquer amostra de pixel.
28. Aparelho, de acordo com qualquer uma das reivindicações 16 a 27, CARACTERIZADO pelo fato de que a qualquer amostra de pixel cujo vetor de movimento é obtido, é qualquer bloco de pixel cujo vetor de movimento é obtido.
29. Aparelho, de acordo com a reivindicação 28, CARACTERIZADO pelo fato de que o dito qualquer bloco de pixel tem o tamanho 4x4.
30. Método, de acordo com a reivindicação 28 ou 29, CARACTERIZADO pelo fato de que (x, y) são coordenadas de uma amostra de centro direita inferior (A4) do qualquer bloco de pixel.
31. Aparelho de processamento de imagem (1000), CARACTERIZADO pelo fato de que o aparelho (1000) compreende: um processador (1002) e uma memória (1003), em que o processador (1002) invoca código ou uma instrução armazenada na memória (1003), de modo que o processador (1002) seja configurado para: obter uma tupla 2 de vetor de movimento de um bloco de imagem atual, em que a tupla 2 de vetor de movimento compreende vetores de movimento de duas amostras de pixel em um quadro de vídeo ao qual o bloco de imagem atual pertence; e obter um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se um modelo de movimento afim e a tupla 2 de vetor de movimento; em que o modelo de movimento afim está na forma a seguir: em que (x y) representam coordenadas da qualquer amostra de pixel, vx representa um componente horizontal do vetor de movimento da qualquer amostra de pixel e vy representa um componente vertical do vetor de movimento da qualquer amostra de pixel, c representa um coeficiente de deslocamento horizontal do componente horizontal do modelo de movimento afim, d representa um coeficiente de deslocamento vertical do componente vertical do modelo de movimento afim; e na equação , a representa um coeficiente de coordenada horizontal do componente horizontal do modelo de movimento afim, e b representa um coeficiente de coordenada vertical do componente horizontal do modelo de movimento afim; e na equação a representa um coeficiente de coordenada vertical do componente vertical do modelo de movimento afim, e -b representa um coeficiente de coordenada horizontal do componente vertical do modelo de movimento afim.
32. Aparelho (1000), de acordo com a reivindicação 31, CARACTERIZADO pelo fato de que c é 0, d é 0, e portanto, o modelo de movimento afim está na forma a seguir:
33. Aparelho (1000), de acordo com a reivindicação 31 ou 32, CARACTERIZADO pelo fato de que em um aspecto de obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual através de computação usando-se o modelo de movimento afim e a tupla 2 de vetor de movimento, o processador (1002) é configurado para: obter valores dos coeficientes do modelo de movimento afim usando-se os vetores de movimento das duas amostras de pixel e localizações das duas amostras de pixel; e obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual usando-se o modelo de movimento afim e os valores dos coeficientes do modelo de movimento afim.
34. Aparelho (1000), de acordo com qualquer uma das reivindicações 31 a 33, CARACTERIZADO pelo fato de que no aspecto de obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual através de computação usando-se o modelo de movimento afim e a tupla 2 de vetor de movimento, o processador (1002) é configurado para: obter os valores dos coeficientes do modelo de movimento afim usando-se uma razão de uma diferença entre componentes horizontais dos vetores de movimento das duas amostras de pixel para uma distância entre as duas amostras de pixel e uma razão de uma diferença entre componentes verticais dos vetores de movimento das duas amostras de pixel para a distância entre as duas amostras de pixel; e obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual usando-se o modelo de movimento afim e os valores dos coeficientes do modelo de movimento afim.
35. Aparelho (1000), de acordo com a reivindicação 34, CARACTERIZADO pelo fato de que w representa a distância entre as duas amostras de pixel, e as coordenadas verticais das duas amostras de pixel são as mesmas, e o w representa uma largura do bloco de imagem atual.
36. Aparelho (1000), de acordo com qualquer uma das reivindicações 31 a 33, CARACTERIZADO pelo fato de que no aspecto de obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual através de computação usando-se o modelo de movimento afim e a tupla 2 de vetor de movimento, o processador (1002) é configurado para: obter os valores dos coeficientes do modelo de movimento afim usando-se uma razão de uma soma ponderada de componentes dos vetores de movimento das duas amostras de pixel para uma distância entre as duas amostras de pixel ou para um quadrado de uma distância entre as duas amostras de pixel; e obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual usando-se o modelo de movimento afim e os valores dos coeficientes do modelo de movimento afim.
37. Aparelho (1000), de acordo com qualquer uma das reivindicações 31 a 34, CARACTERIZADO pelo fato de que quando as duas amostras de pixel compreendem uma amostra de pixel esquerda superior do bloco de imagem atual e uma amostra de pixel em uma região direita em um lado direito da amostra de pixel esquerda superior, o modelo de movimento afim é especificamente:em que representa um vetor de movimento da amostra de pixel esquerda superior, representa um vetor de movimento da amostra de pixel na região direita, e w representa uma distância entre as duas amostras de pixel.
38. Aparelho (1000), de acordo com a reivindicação 37, CARACTERIZADO pelo fato de que o w representa uma largura do bloco de imagem atual, e a coordenada vertical da amostra de pixel esquerda superior e a coordenada vertical da amostra de pixel na região direita no lado direito da amostra de pixel esquerda superior são as mesmas.
39. Aparelho (1000), de acordo com qualquer uma das reivindicações 31 a 34, CARACTERIZADO pelo fato de que quando as duas amostras de pixel compreendem uma amostra de pixel esquerda superior do bloco de imagem atual e uma amostra de pixel em uma região inferior abaixo da amostra de pixel esquerda superior, o modelo de movimento afim é especificamente:, em que representa um vetor de movimento da amostra de pixel esquerda superior, representa um vetor de movimento da amostra de pixel na região inferior, e h representa uma distância entre as duas amostras de pixel.
40. Aparelho (1000), de acordo com qualquer uma das reivindicações 31, 32, 33 ou 37, CARACTERIZADO pelo fato de que quando as duas amostras de pixel compreendem uma amostra de pixel esquerda superior do bloco de imagem atual e uma amostra de pixel em uma região direita inferior em um lado direito inferior da amostra de pixel esquerda superior, o modelo de movimento afim é especificamente:em que representa um vetor de movimento da amostra de pixel finfi ITi) esquerda superior, representa um vetor de movimento da amostra de pixel na região direita inferior, h1 representa uma distância em uma direção vertical entre as duas amostras de pixel, w1 representa uma distância em uma direção horizontal entre as duas amostras de pixel, e w12 + h12 representa um quadrado da distância entre as duas amostras de pixel.
41. Aparelho (1000), de acordo com qualquer uma das reivindicações 31 a 40, CARACTERIZADO pelo fato de que quando o aparelho de processamento de imagem (1000) é aplicado a um aparelho de conversão em código de vídeo, o processador (1002) é adicionalmente configurado para: após obter o vetor de movimento da qualquer amostra de pixel no bloco de imagem atual através de computação usando-se o modelo de movimento afim e a tupla 2 de vetor de movimento, realizar conversão em código preditiva de compensação de movimento na qualquer amostra de pixel no bloco de imagem atual usando-se o vetor de movimento que é da qualquer amostra de pixel no bloco de imagem atual e é obtido através de computação.
42. Aparelho (1000), de acordo com qualquer uma das reivindicações 31 a 40, CARACTERIZADO pelo fato de que quando o aparelho de processamento de imagem (1000) é aplicado a um aparelho de decodificação de vídeo, o processador (1002) é adicionalmente configurado para: após determinar um valor de pixel predito de um pixel da qualquer amostra de pixel no bloco de imagem atual, realizar decodificação de compensação de movimento na qualquer amostra de pixel usando-se o vetor de movimento que é da qualquer amostra de pixel no bloco de imagem atual e é obtido através de computação, e obter um valor de reconstrução de pixel da qualquer amostra de pixel.
43. Aparelho, de acordo com qualquer uma das reivindicações 31 a 42, CARACTERIZADO pelo fato de que a qualquer amostra de pixel cujo vetor de movimento é obtido, é qualquer bloco de pixel cujo vetor de movimento é obtido.
44. Aparelho, de acordo com a reivindicação 43, CARACTERIZADO pelo fato de que o dito qualquer bloco de pixel tem o tamanho 4x4.
45. Aparelho, de acordo com a reivindicação 43 ou 44, CARACTERIZADO pelo fato de que (x, y) são coordenadas de uma amostra de centro direita inferior (A4) do qualquer bloco de pixel.
46. Método de processamento de imagem, CARACTERIZADO pelo fato de que o método compreende: obter (S1101) coeficientes de um modelo de movimento afim, e obter um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se os coeficientes do modelo de movimento afim e o modelo de movimento afim; e determinar (S1102) um valor de pixel predito de um pixel da qualquer amostra de pixel usando-se o vetor de movimento que é da qualquer amostra de pixel e é obtido através de computação; em que o modelo de movimento afim está na forma a seguir: em que (x y) representa coordenadas da qualquer amostra de pixel, vx representa um componente horizontal do vetor de movimento da qualquer amostra de pixel e vy representa um componente vertical do vetor de movimento da qualquer amostra de pixel, c representa um coeficiente de deslocamento horizontal do componente horizontal do modelo de movimento afim, d representa um coeficiente de deslocamento vertical do componente vertical do modelo de movimento afim; e na equação , a representa um coeficiente de coordenada horizontal do componente horizontal do modelo de movimento afim, e b representa um coeficiente de coordenada vertical do componente horizontal do modelo de movimento afim; e na equação, a representa um coeficiente de coordenada vertical do componente vertical do modelo de movimento afim, -b representa um coeficiente de coordenada horizontal do componente vertical do modelo de movimento afim.
47. Aparelho de processamento de imagem (1200), CARACTERIZADO pelo fato de que o aparelho (1200) compreende: uma unidade de obtenção (1210), configurada para obter coeficientes de um modelo de movimento afim; uma unidade de computação (1220), configurada para obter um vetor de movimento de qualquer amostra de pixel no bloco de imagem atual através de computação usando-se os coeficientes do modelo de movimento afim que são obtidos pela unidade de obtenção (1210) e o modelo de movimento afim; e uma unidade de predição (1230), configurada para determinar um valor de pixel predito de um pixel da qualquer amostra de pixel usando-se o vetor de movimento que é da qualquer amostra de pixel e é obtido pela unidade de computação (1220) através de computação; em que o modelo de movimento afim está na forma a seguir: em que (x y) representa coordenadas da qualquer amostra de pixel, vx representa um componente horizontal do vetor de movimento da qualquer amostra de pixel e vy representa um componente vertical do vetor de movimento da qualquer amostra de pixel, c representa um coeficiente de deslocamento horizontal do componente horizontal do modelo de movimento afim, d representa um coeficiente de deslocamento vertical do componente vertical do modelo de movimento afim; e na equação , a representa um coeficiente de coordenada horizontal do componente horizontal do modelo de movimento afim, e b representa um coeficiente de coordenada vertical do componente horizontal do modelo de movimento afim; e na equação , a representa um coeficiente de coordenada vertical do componente vertical do modelo de movimento afim, -b representa um coeficiente de coordenada horizontal do componente vertical do modelo de movimento afim.
BR112017019264-0A 2015-03-10 2015-03-26 Método de predição de imagem e dispositivo relacionado BR112017019264B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CNPCT/CN2015/073969 2015-03-10
CN2015073969 2015-03-10
PCT/CN2015/075094 WO2016141609A1 (zh) 2015-03-10 2015-03-26 图像预测方法和相关设备

Publications (2)

Publication Number Publication Date
BR112017019264A2 BR112017019264A2 (pt) 2018-05-02
BR112017019264B1 true BR112017019264B1 (pt) 2023-12-12

Family

ID=56878537

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112017019264-0A BR112017019264B1 (pt) 2015-03-10 2015-03-26 Método de predição de imagem e dispositivo relacionado

Country Status (14)

Country Link
US (3) US10404993B2 (pt)
EP (1) EP3264762A4 (pt)
JP (2) JP6404487B2 (pt)
KR (1) KR102081213B1 (pt)
CN (2) CN110557631B (pt)
AU (1) AU2015385634B2 (pt)
BR (1) BR112017019264B1 (pt)
CA (2) CA2979082C (pt)
HK (1) HK1243852A1 (pt)
MX (2) MX2017011558A (pt)
MY (1) MY190198A (pt)
RU (1) RU2671307C1 (pt)
SG (3) SG10201900632SA (pt)
WO (1) WO2016141609A1 (pt)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110557631B (zh) * 2015-03-10 2023-10-20 华为技术有限公司 图像预测方法和相关设备
CN117376554A (zh) * 2016-02-25 2024-01-09 株式会社Kt 用于处理视频信号的方法和设备
EP3414900A4 (en) * 2016-03-15 2019-12-11 Mediatek Inc. METHOD AND DEVICE FOR VIDEO CODING WITH AFFINE MOTION COMPENSATION
US10560712B2 (en) 2016-05-16 2020-02-11 Qualcomm Incorporated Affine motion prediction for video coding
US10448010B2 (en) * 2016-10-05 2019-10-15 Qualcomm Incorporated Motion vector prediction for affine motion models in video coding
CN108271023B (zh) 2017-01-04 2021-11-19 华为技术有限公司 图像预测方法和相关设备
WO2019002215A1 (en) 2017-06-26 2019-01-03 Interdigital Vc Holdings, Inc. MULTIPLE PREDICTION CANDIDATES FOR MOTION COMPENSATION
EP3468195A1 (en) 2017-10-05 2019-04-10 Thomson Licensing Improved predictor candidates for motion compensation
US11877001B2 (en) 2017-10-10 2024-01-16 Qualcomm Incorporated Affine prediction in video coding
WO2019117659A1 (ko) * 2017-12-14 2019-06-20 엘지전자 주식회사 움직임 벡터 도출을 기반으로 하는 영상 코딩 방법 및 그 장치
US20190208211A1 (en) * 2018-01-04 2019-07-04 Qualcomm Incorporated Generated affine motion vectors
WO2019139309A1 (ko) 2018-01-15 2019-07-18 삼성전자 주식회사 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2019147079A1 (ko) * 2018-01-25 2019-08-01 주식회사 윌러스표준기술연구소 서브블록 기반의 모션 보상을 이용한 비디오 신호 처리 방법 및 장치
CN116684638A (zh) * 2018-04-01 2023-09-01 Lg电子株式会社 图像编码/解码方法、视频数据发送方法和存储介质
TWI700922B (zh) * 2018-04-02 2020-08-01 聯發科技股份有限公司 用於視訊編解碼系統中的子塊運動補償的視訊處理方法和裝置
US11509925B2 (en) 2018-04-12 2022-11-22 Samsung Electronics Co.. Ltd. Method and device for video encoding and video decoding motion vector information
CN110536135B (zh) * 2018-05-25 2021-11-05 腾讯美国有限责任公司 用于视频编解码的方法和设备
US11178373B2 (en) 2018-07-31 2021-11-16 Intel Corporation Adaptive resolution of point cloud and viewpoint prediction for video streaming in computing environments
US11212506B2 (en) 2018-07-31 2021-12-28 Intel Corporation Reduced rendering of six-degree of freedom video
US10893299B2 (en) * 2018-07-31 2021-01-12 Intel Corporation Surface normal vector processing mechanism
US10887574B2 (en) 2018-07-31 2021-01-05 Intel Corporation Selective packing of patches for immersive video
US10762394B2 (en) 2018-07-31 2020-09-01 Intel Corporation System and method for 3D blob classification and transmission
CN116916041A (zh) * 2018-08-06 2023-10-20 Lg电子株式会社 解码方法、编码方法和数据发送方法
US11039157B2 (en) * 2018-09-21 2021-06-15 Tencent America LLC Techniques for simplified affine motion model coding with prediction offsets
WO2020076069A1 (ko) 2018-10-08 2020-04-16 엘지전자 주식회사 Atmvp 후보를 기반으로 영상 코딩을 수행하는 장치
US11057631B2 (en) 2018-10-10 2021-07-06 Intel Corporation Point cloud coding standard conformance definition in computing environments
GB2595054B (en) * 2018-10-18 2022-07-06 Canon Kk Video coding and decoding
GB2578150C (en) * 2018-10-18 2022-05-18 Canon Kk Video coding and decoding
WO2020155791A1 (zh) * 2019-02-01 2020-08-06 华为技术有限公司 帧间预测方法和装置
US11394999B2 (en) 2019-03-11 2022-07-19 Alibaba Group Holding Limited Method, device, and system for determining prediction weight for merge mode
US11153598B2 (en) * 2019-06-04 2021-10-19 Tencent America LLC Method and apparatus for video coding using a subblock-based affine motion model
CN114128285A (zh) 2019-06-14 2022-03-01 现代自动车株式会社 用于利用帧间预测来编码和解码视频的方法和装置
WO2020262901A1 (ko) 2019-06-24 2020-12-30 엘지전자 주식회사 영상 디코딩 방법 및 그 장치
US11432002B2 (en) 2019-07-08 2022-08-30 Hyundai Motor Company Method and apparatus for encoding and decoding video using inter-prediction
WO2021006614A1 (ko) 2019-07-08 2021-01-14 현대자동차주식회사 인터 예측을 이용하여 비디오를 부호화 및 복호화하는 방법 및 장치
CN111050168B (zh) * 2019-12-27 2021-07-13 浙江大华技术股份有限公司 仿射预测方法及其相关装置
US20210245047A1 (en) 2020-02-10 2021-08-12 Intel Corporation Continuum architecture for cloud gaming
CN112601081B (zh) * 2020-12-04 2022-06-24 浙江大华技术股份有限公司 一种自适应分区多次预测方法及装置
WO2024081734A1 (en) * 2022-10-13 2024-04-18 Bytedance Inc. Method, apparatus, and medium for video processing

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2586686B2 (ja) * 1990-04-19 1997-03-05 日本電気株式会社 動画像の動き情報検出装置および動画像の動き補償フレーム間予測符号化装置
US6084912A (en) * 1996-06-28 2000-07-04 Sarnoff Corporation Very low bit rate video coding/decoding method and apparatus
JPH1051766A (ja) 1996-08-05 1998-02-20 Mitsubishi Electric Corp 画像符号化データ変換装置
JP2000165648A (ja) 1998-11-27 2000-06-16 Fuji Photo Film Co Ltd 画像処理方法および装置並びに記録媒体
US6735249B1 (en) 1999-08-11 2004-05-11 Nokia Corporation Apparatus, and associated method, for forming a compressed motion vector field utilizing predictive motion coding
EP1404135B1 (en) * 2000-01-21 2016-12-14 Nokia Technologies Oy A motion estimation method and a system for a video coder
KR100359115B1 (ko) 2000-05-24 2002-11-04 삼성전자 주식회사 영상 코딩 방법
JP3681342B2 (ja) 2000-05-24 2005-08-10 三星電子株式会社 映像コーディング方法
US6537928B1 (en) * 2002-02-19 2003-03-25 Asm Japan K.K. Apparatus and method for forming low dielectric constant film
JP2003274410A (ja) 2002-03-13 2003-09-26 Hitachi Ltd 監視映像の符号化装置及び復号装置並びに符号化方法
US20070076796A1 (en) * 2005-09-27 2007-04-05 Fang Shi Frame interpolation using more accurate motion information
US8116576B2 (en) * 2006-03-03 2012-02-14 Panasonic Corporation Image processing method and image processing device for reconstructing a high-resolution picture from a captured low-resolution picture
JP4793366B2 (ja) * 2006-10-13 2011-10-12 日本ビクター株式会社 多視点画像符号化装置、多視点画像符号化方法、多視点画像符号化プログラム、多視点画像復号装置、多視点画像復号方法、及び多視点画像復号プログラム
JP2007312425A (ja) * 2007-07-30 2007-11-29 Nippon Telegr & Teleph Corp <Ntt> 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,画像符号化プログラム,画像復号プログラムおよびそれらのプログラムを記録した記録媒体
JP4544334B2 (ja) * 2008-04-15 2010-09-15 ソニー株式会社 画像処理装置および画像処理方法
FR2933565A1 (fr) 2008-07-01 2010-01-08 France Telecom Procede et dispositif de codage d'une sequence d'images mettant en oeuvre une prediction temporelle, signal, support de donnees, procede et dispositif de decodage, et produit programme d'ordinateur correspondants
CN101350928A (zh) * 2008-07-29 2009-01-21 北京中星微电子有限公司 一种运动估计方法及装置
CN101931803B (zh) * 2009-06-26 2013-01-09 华为技术有限公司 视频图像运动信息获取方法、装置及设备、模板构造方法
CN103039075B (zh) * 2010-05-21 2015-11-25 Jvc建伍株式会社 图像编码装置、图像编码方法、以及图像解码装置、图像解码方法
TR201807771T4 (tr) * 2011-01-14 2018-06-21 Ge Video Compression Llc Entropi kodlama şeması.
CN102158709B (zh) 2011-05-27 2012-07-11 山东大学 一种解码端可推导的运动补偿预测方法
US8964845B2 (en) * 2011-12-28 2015-02-24 Microsoft Corporation Merge mode for motion information prediction
US9438928B2 (en) * 2012-11-05 2016-09-06 Lifesize, Inc. Mechanism for video encoding based on estimates of statistically-popular motion vectors in frame
CN103024378B (zh) * 2012-12-06 2016-04-13 浙江大学 一种视频编解码中运动信息导出方法及装置
CN104113756A (zh) * 2013-04-22 2014-10-22 苏州派瑞雷尔智能科技有限公司 一种适用于h.264视频编解码的整像素运动估计方法
CN112087630B (zh) 2014-09-30 2022-04-08 华为技术有限公司 图像预测方法、装置、解码器及存储介质
CN104363451B (zh) * 2014-10-27 2019-01-25 华为技术有限公司 图像预测方法及相关装置
CN110557631B (zh) * 2015-03-10 2023-10-20 华为技术有限公司 图像预测方法和相关设备
CN106254878B (zh) * 2015-06-14 2020-06-12 同济大学 一种图像编码及解码方法、图像处理设备
CN104935938B (zh) * 2015-07-15 2018-03-30 哈尔滨工业大学 一种混合视频编码标准中帧间预测方法
EP3457694A4 (en) * 2016-05-24 2019-05-22 Huawei Technologies Co., Ltd. IMAGE FORECASTING METHOD AND ASSOCIATED DEVICE

Also Published As

Publication number Publication date
WO2016141609A1 (zh) 2016-09-15
CA2979082C (en) 2021-07-27
US11178419B2 (en) 2021-11-16
CA3122322A1 (en) 2016-09-15
AU2015385634A1 (en) 2017-10-19
MX2017011558A (es) 2018-03-21
EP3264762A4 (en) 2018-05-02
US20200244986A1 (en) 2020-07-30
JP6404487B2 (ja) 2018-10-10
SG11201707392RA (en) 2017-10-30
KR20170125086A (ko) 2017-11-13
MY190198A (en) 2022-04-04
RU2671307C1 (ru) 2018-10-30
US20190268616A1 (en) 2019-08-29
AU2015385634B2 (en) 2019-07-18
US20170374379A1 (en) 2017-12-28
KR102081213B1 (ko) 2020-02-25
JP2018511997A (ja) 2018-04-26
BR112017019264A2 (pt) 2018-05-02
JP2019013031A (ja) 2019-01-24
JP6689499B2 (ja) 2020-04-28
CN110557631B (zh) 2023-10-20
CN110557631A (zh) 2019-12-10
EP3264762A1 (en) 2018-01-03
CN107534770B (zh) 2019-11-05
CA2979082A1 (en) 2016-09-15
HK1243852A1 (zh) 2018-07-20
SG10201900632SA (en) 2019-02-27
US10404993B2 (en) 2019-09-03
SG10202111537RA (en) 2021-11-29
US10659803B2 (en) 2020-05-19
MX2020010515A (es) 2020-10-22
CN107534770A (zh) 2018-01-02

Similar Documents

Publication Publication Date Title
BR112017019264B1 (pt) Método de predição de imagem e dispositivo relacionado
US11172217B2 (en) Picture prediction method and related apparatus
BR112017006018B1 (pt) Método de predição de imagem e aparelho de decodificação
CN109076234A (zh) 图像预测方法和相关设备
BR122023012613B1 (pt) Método de predição de imagem e dispositivo relacionado
BR112017007399B1 (pt) Método de predição de imagem e aparelho relacionado
BR112018000085B1 (pt) Método e aparelho de previsão de imagem e meio legível por computador
BR112017006017B1 (pt) Método de predição de imagem e aparelho relacionado

Legal Events

Date Code Title Description
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B350 Update of information on the portal [chapter 15.35 patent gazette]
B154 Notification of filing of divisional application [chapter 15.50 patent gazette]

Free format text: O PEDIDO FOI DIVIDIDO NO BR122023012613-0 PROTOCOLO 870230053853 EM 22/06/2023 16:33.

B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 26/03/2015, OBSERVADAS AS CONDICOES LEGAIS