BR112014010751B1 - Dispositivo e método de codificação preditiva de vídeo e dispositivo e método de decodificação preditiva de vídeo - Google Patents

Dispositivo e método de codificação preditiva de vídeo e dispositivo e método de decodificação preditiva de vídeo Download PDF

Info

Publication number
BR112014010751B1
BR112014010751B1 BR112014010751-3A BR112014010751A BR112014010751B1 BR 112014010751 B1 BR112014010751 B1 BR 112014010751B1 BR 112014010751 A BR112014010751 A BR 112014010751A BR 112014010751 B1 BR112014010751 B1 BR 112014010751B1
Authority
BR
Brazil
Prior art keywords
motion vector
information
motion
vector predictor
number zero
Prior art date
Application number
BR112014010751-3A
Other languages
English (en)
Other versions
BR112014010751A2 (pt
BR112014010751A8 (pt
Inventor
Suzuki Yoshinori
Seng Boon Choong
Original Assignee
Ntt Docomo, Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ntt Docomo, Inc. filed Critical Ntt Docomo, Inc.
Publication of BR112014010751A2 publication Critical patent/BR112014010751A2/pt
Publication of BR112014010751A8 publication Critical patent/BR112014010751A8/pt
Publication of BR112014010751B1 publication Critical patent/BR112014010751B1/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel

Abstract

resumo patente de invenção: "dispositivo de codificação de previsão de vídeo, método de codificação de previsão de vídeo, programa de codificação de previsão de vídeo, dispositivo de decodificação de previsão de vídeo, método de decodificação de previsão de vídeo e programa de decodificação de previsão de vídeo". trata-se do desempenho aprimorado da biprevisão com uma quantidade menos de bits de codificação. uma unidade de geração de sinal previsto (103) fornecida em dispositivo de codificação preditiva de vídeo inclui: um meio (122) que estima vetor de movimento número zero, seleciona previsor de vetor de movimento número zero similar ao vetor de movimento número zero, gera informações secundárias número zero contendo índice de previsor de vetor de movimento número zero; um meio (121) que seleciona um vetor de movimento, tendo alta correlação com a região-alvo, que gera primeiras informações secundárias que contêm primeiro índice de previsor de vetor de movimento para identificar vetor de movimento como primeiro previsor de vetor de movimento e que ajusta o primeiro previsor de vetor de movimento em primeiro vetor de movimento; e um meio (123) que combina o sinal previsto número zero e o primeiro sinal previsto para gerar um sinal previsto da região-alvo.

Description

(54) Título: DISPOSITIVO E MÉTODO DE CODIFICAÇÃO PREDITIVA DE VÍDEO E DISPOSITIVO E MÉTODO DE DECODIFICAÇÃO PREDITIVA DE VÍDEO (51) Int.CI.: H04N 19/52; H04N 19/573; H04N 19/577 (30) Prioridade Unionista: 07/11/2011 JP 2011-243490 (73) Titular(es): NTT DOCOMO, INC.
(72) Inventor(es): YOSHINORI SUZUKI; CHOONG SENG BOON (85) Data do Início da Fase Nacional: 05/05/2014
1/71
DISPOSITIVO E MÉTODO DE CODIFICAÇÃO PREDITIVA DE VÍDEO E DISPOSITIVO E MÉTODO DE DECODIFICAÇÃO PREDITIVA DE VÍDEO
Campo da Técnica [001] A presente invenção refere-se a um dispositivo de codificação preditiva de vídeo, um método de codificação preditiva de vídeo, um programa de codificação preditiva de vídeo, um dispositivo de decodificação preditiva de vídeo, um método de decodificação preditiva de vídeo e um programa de decodificação preditiva de vídeo e, mais particularmente, a presente invenção se refere a um dispositivo de codificação preditiva de vídeo, um método de codificação preditiva de vídeo, um programa de codificação preditiva de vídeo, um dispositivo de decodificação preditiva de vídeo, um método de decodificação preditiva de vídeo e um programa de decodificação preditiva de vídeo para gerar um sinal predito de bloco final (sinal bipredito) através da média de dois sinais preditos.
Antecedentes da Técnica [002] As tecnologias de codificação por compressão são usadas para transmissão e armazenamento eficientes de dados de imagens estáticas e vídeo. As técnicas definidas em MPEG-1 a 4 e ITU (União Internacional de Telecomunicação) H.261 a H.264 são comumente usadas para dados de vídeo.
[003] Nessas técnicas de codificação, uma imagem como um alvo de codificação é dividida em uma pluralidade de blocos e, então, um processo de codificação e um processo de decodificação são executados com base em blocos. Em codificação preditiva intraquadro, um sinal predito é gerado com o uso de um sinal de imagem adjacente previamente reproduzido (um sinal reconstruído a partir de dados de imagem comprimidos) presente no mesmo quadro que um bloco-alvo e, então, um sinal residual obtido através da subtração do sinal predito de um sinal do bloco-alvo é codificado. Em
Petição 870180034478, de 27/04/2018, pág. 9/117
2/71 codificação preditiva interquadro, um sinal predito é gerado com compensação para movimento em referência a um sinal de imagem adjacente previamente reproduzido presente em um quadro diferente do de um bloco-alvo, e um sinal residual obtido através da subtração do sinal predito de um sinal do bloco-alvo é codificado.
[004] Por exemplo, a codificação preditiva intraquadro de H.264 emprega um método de gerar o sinal predito através da extrapolação de valores de pixel previamente produzidos adjacentes a um bloco como um alvo de codificação, em direções predeterminadas. A Figura 20 é um diagrama esquemático para explicar o método de predição intraquadro usado em ITU H.264. Na Figura 20 (A), um bloco-alvo 802 é um bloco como um alvo de codificação, e um grupo de pixels 801 que consiste em pixels de A a M adjacentes a um limite do bloco-alvo 802 é uma região adjacente, que é um sinal de imagem previamente reproduzido no processamento passado.
[005] Nesse caso, o sinal predito é gerado através da extensão descendente do grupo de pixels 801 como pixels adjacentes localizados imediatamente acima do bloco-alvo 802. Na Figura 20 (B), o sinal predito é gerado através da extensão para direita de pixels previamente reproduzidos (I a L) localizados no lado esquerdo do bloco-alvo 804. Os métodos específicos para uma geração do sinal predito são descritos, por exemplo, na Literatura de Patente 1. Uma diferença é calculada entre cada um dos nove sinais preditos gerados pelos métodos mostrados na Figura 20 (A) à (I) da maneira descrita acima e o sinal de pixel do bloco-alvo, e um com a mínima diferença é selecionado como um sinal predito ótimo. Conforme descrito acima, o sinal predito pode ser gerado através da extrapolação de pixels. Os conteúdos acima são descritos na Literatura de Patente 1 abaixo.
[006] Na codificação preditiva interquadro comum, o sinal predito é
Petição 870180034478, de 27/04/2018, pág. 10/117
3/71 gerado por um método de pesquisa de quadros previamente reproduzidos por um sinal similar ao sinal de pixel do bloco como um alvo de codificação. Então, um vetor de movimento é codificado como uma quantidade de deslocamento espacial entre o bloco-alvo e uma região composta do sinal detectado, e um sinal residual entre o sinal de pixel do bloco-alvo e o sinal predito. A técnica de pesquisa pelo vetor de movimento para cada bloco conforme descrito acima é chamada de correspondência de bloco.
[007] A Figura 19 é um diagrama esquemático para explicar um processo de correspondência de bloco. A seguir será descrito um procedimento para gerar um sinal predito para um exemplo de um bloco-alvo 702 em um quadro alvo de codificação 701. Um quadro de referência 703 é uma imagem previamente reproduzida e uma região 704 é uma região localizada espacialmente na mesma posição que o bloco-alvo 702. Na correspondência de bloco, uma faixa de pesquisa 705 que inclui a região 704 é definida e uma região 706 com a soma mínima de erros absolutos do sinal de pixel do blocoalvo 702 é detectada a partir de sinais de pixel nessa faixa de pesquisa 705. O sinal dessa região 706 é determinado como sendo um sinal predito e uma quantidade de deslocamento da região 704 para a região 706 é detectada como um vetor de movimento 707. Também é empregado muitas vezes um método de preparação de uma pluralidade de quadros de referência 703, seleção de um quadro de referência a ser aplicado à correspondência de bloco para cada bloco-alvo e detecção de informação de seleção de quadro de referência. É preparada em H.264 uma pluralidade de tipos de predição de diferentes tamanhos de bloco para codificação de vetores de movimento, a fim de se adaptar para alterações de características locais de imagens. Os tipos de predição de H.264 são descritos, por exemplo, na Literatura de Patente 2.
[008] Em codificação por compressão de dados de vídeo, uma ordem
Petição 870180034478, de 27/04/2018, pág. 11/117
4/71 de codificação de imagens (quadros ou campos) pode ser opcional. Por essa razão, existem duas técnicas a respeito da ordem de codificação em predição interquadro para gerar o sinal predito em referência a quadros previamente reproduzidos. A primeira técnica é a unipredição, que gera o sinal predito em referência a um quadro previamente reproduzido, e a segunda técnica é a bipredição, que pondera dois sinais preditos obtidos em referência a um ou dois quadros previamente reproduzidos. A técnica de unipredição inclui predição para a frente em referência a um quadro previamente reproduzido passado em uma ordem de exibição e predição para trás em referência a um quadro previamente reproduzido futuro na ordem de exibição. Esses tipos de predições interquadro são descritos, por exemplo, na Literatura de Patente 3.
[009] Em H.264, a segunda técnica interquadro (bipredição) é executada através da criação de duas listas de quadros de referência, sendo que cada uma consiste de uma pluralidade de quadros previamente reproduzidos como candidatos para imagem de referência 703. A correspondência de bloco é executada com a pluralidade de quadros de referência registrados em cada lista de imagem de referência para detectar duas regiões correspondentes à região 706 e dois sinais preditos detectados dessa forma são ponderados.
[010] Exemplos de listas de imagem de referência serão descritos em referência às Figuras 5 e 6. Na Figura 5 (A), um quadro 505 indica uma imagem alvo de codificação, e os quadros 501 a 504 indicam quadros previamente reproduzidos. Na Figura 5 (B), um quadro 510 representa um quadro alvo de codificação, e os quadros 507, 508, 509 e 511 representam quadros previamente reproduzidos. Cada imagem (quadro) é identificada por um número de quadro (frame_num). Na Figura 6, os termos List0 e List1 indicam duas listas de quadro de referência, a Figura 6 (A) mostra um exemplo de listas de quadro de referência para a Figura 5 (A), e as Figuras 6 (B) e (C) mostram
Petição 870180034478, de 27/04/2018, pág. 12/117
5/71 exemplos de listas de quadro de referência para a Figura 5 (B). Nas Figuras 6 (A) e (C), quatro quadros de referência são registrados em cada lista de quadro de referência, e na Figura 6 (B) dois quadros de referência são registrados em cada lista de quadro de referência. Cada quadro de referência é identificado por um índice de quadro de referência (ref_idx). Quaisquer imagens previamente reproduzidas que podem ser registradas nas listas de imagem de referência. No presente relatório descritivo, a fim de facilitar uma compreensão de conteúdos, por exemplo, as notações de informação de movimento de número zero e primeira informação de movimento são usadas de acordo com as listas de quadro de referência List0 e List1 supracitadas.
Listagem de Citação
Literaturas de Patente [011] Literatura de Patente 1: Patente #No. US6.765.964 [012] Literatura de Patente 2: Patente #No. US7.003.035 [013] Literatura de Patente 3: Patente #No. US6.259.739
SUMÁRIO DA INVENÇÃO
Problema da Técnica [014] Em bipredição, o ruído no sinal predito pode ser removido por um efeito de suavização com base na média de dois sinais preditos similares. Entretanto, os blocos que mais se beneficiam com o efeito de suavização são frequentemente regiões de textura ou regiões planas que incluem ruído, e quadros de referência contêm sinais similares àqueles nos blocos.
[015] Uma vez que os sinais dessas regiões têm forte aleatoriedade, vetores de movimento entre blocos adjacentes podem variar de modo significativo quando dois sinais preditos similares a um bloco-alvo nessas regiões são detectados a partir de uma pluralidade de quadros de referência. Uma vez que um vetor de movimento é codificado como uma diferença de um
Petição 870180034478, de 27/04/2018, pág. 13/117
6/71 vetor de movimento de um bloco adjacente, a variação em vetores de movimento entre blocos adjacentes pode levar a um aumento em uma quantidade de bits de codificação dos mesmos.
[016] Como uma técnica para reduzir a quantidade de bits de codificação na bipredição, existe um método de derivar dois vetores de movimento de acordo com condições de blocos adjacentes no lado de decodificação, conforme descrito no exemplo convencional. Entretanto, é difícil intensificar a similaridade de dois sinais preditos por causa de fortes restrições em sinais preditos disponíveis, falhando, dessa forma, em alcançar o efeito de suavização satisfatório.
[017] A fim de resolver o problema acima, um objetivo da presente invenção consiste em fornecer um dispositivo de codificação preditiva de vídeo, um método de codificação preditiva de vídeo, um programa de codificação preditiva de vídeo, um dispositivo de decodificação preditiva de vídeo, um método de decodificação preditiva de vídeo e um programa de decodificação preditiva de vídeo com capacidade de suprimir eficientemente o ruído do sinal predito com uma quantidade menor de bits de codificação para bipredição para codificar dois vetores de movimento, através da codificação de um vetor de movimento para gerar o sinal predito similar ao bloco-alvo e determinar seletivamente o outro vetor de movimento da informação de movimento previamente codificada.
Solução para o Problema [018] Um dispositivo de codificação preditiva de vídeo de acordo com um aspecto da presente invenção inclui um dispositivo de codificação preditiva de vídeo que compreende: meio de divisão de região que divide uma imagem de entrada em uma pluralidade de regiões; meio de geração de sinal predito que determina um vetor de movimento para derivar, a partir de uma imagem
Petição 870180034478, de 27/04/2018, pág. 14/117
7/71 previamente reproduzida, um sinal que tem uma alta correlação com uma região-alvo como um alvo de codificação, proveniente das regiões divididas pelo meio de divisão de região; meio de armazenamento de informações de movimento que armazena o vetor de movimento; meio de geração de sinal residual que gera um sinal residual entre um sinal predito da região-alvo e um sinal de pixel da região-alvo; meio de compressão de sinal residual que comprime o sinal residual gerado pelo meio de geração de sinal residual; meio de reconstrução de sinal residual que gera um sinal residual reproduzido pela reconstrução a partir de dados comprimidos do sinal residual; meio de codificação que codifica um preditor de vetor de movimento similar a um vetor de movimento da região-alvo selecionada a partir de vetores de movimento previamente reproduzidos armazenados no meio de armazenamento de informações de movimento, informações secundárias determinadas a partir do vetor de movimento da região-alvo e os dados comprimidos do sinal residual; e meio de armazenamento de imagem que adiciona o sinal predito ao sinal residual reproduzido para reconstruir um sinal de pixel da região-alvo e que armazena o sinal de pixel reconstruído como a imagem previamente reproduzida, em que o vetor de movimento inclui um vetor de movimento de número zero usado para a geração de um sinal predito de número zero e um primeiro vetor de movimento usado para a geração de um primeiro sinal predito, e em que o meio de geração de sinal predito compreende: meio de estimação de informação de movimento de número zero que estima o vetor de movimento de número zero para a derivação do sinal predito de número zero, que seleciona um preditor de vetor de movimento de número zero similar ao vetor de movimento de número zero estimado a partir de uma pluralidade de vetores de movimento armazenados no meio de armazenamento de informações de movimento, e que gera informações secundárias de número
Petição 870180034478, de 27/04/2018, pág. 15/117
8/71 zero que contêm um índice de preditor de vetor de movimento de número zero para identificar o preditor de vetor de movimento selecionado, e uma diferença de vetor de movimento determinada do vetor de movimento de número zero e o preditor de vetor de movimento de número zero; primeiro meio de estimação de informação de movimento que seleciona um vetor de movimento para a geração do primeiro sinal predito que tem uma alta correlação com a região-alvo, a partir de uma pluralidade de vetores de movimento armazenados no meio de armazenamento de informação de movimento, que gera primeiras informações secundárias que contêm um primeiro índice de preditor de vetor de movimento para identificar o vetor de movimento selecionado como um primeiro preditor de vetor de movimento, e que define o primeiro preditor de vetor de movimento para o primeiro vetor de movimento; e meio de combinação de sinal predito que combina o sinal predito de número zero e o primeiro sinal predito para gerar o sinal predito da região-alvo.
[019] O dispositivo de codificação preditiva de vídeo acima pode ser configurado em que o primeiro meio de estimação de informação de movimento inclui adicionalmente funções para estimar um segundo vetor de movimento para derivação do primeiro sinal predito, para detectar, dessa forma, o segundo vetor de movimento, para selecionar um segundo preditor de vetor de movimento similar ao segundo vetor de movimento estimado, a partir de uma pluralidade de vetores de movimento armazenados no meio de armazenamento de informação de movimento, e para gerar segundas informações secundárias que contêm um segundo índice de preditor de vetor de movimento para identificar o preditor de vetor de movimento selecionado, e uma diferença de vetor de movimento determinada a partir do segundo vetor de movimento e do segundo preditor de vetor de movimento, em que o
Petição 870180034478, de 27/04/2018, pág. 16/117
9/71 meio de geração de sinal predito gera o primeiro sinal predito com o uso do primeiro vetor de movimento quando uma pluralidade de imagens previamente reproduzida armazenadas no meio de armazenamento de imagem são todas imagens passadas em uma ordem de exibição em relação a uma imagem alvo de codificação, e o meio de geração de sinal predito gera o primeiro sinal predito com o uso do segundo vetor de movimento quando uma pluralidade de imagens previamente reproduzidas armazenadas no meio de armazenamento de imagem inclui uma imagem futura na ordem de exibição em relação à imagem alvo de codificação, e em que o meio de codificação codifica informações de indicação para indicar que as primeiras informações secundárias são codificadas, em cada quadro ou em cada fatia quando uma pluralidade de imagens previamente reproduzidas armazenadas no meio de armazenamento de imagem são todas imagens passadas na ordem de exibição em relação à imagem alvo de codificação, e o meio de codificação codifica informações de indicação para indicar que as segundas informações secundárias são codificadas, em cada quadro ou em cada fatia quando uma pluralidade de imagens previamente reproduzidas armazenadas no meio de armazenamento de imagem inclui uma imagem futura na ordem de exibição em relação à imagem alvo de codificação; e em que o meio de codificação codifica as informações secundárias de cada região-alvo, as informações secundárias de número zero, e ou as primeiras informações secundárias ou as segundas informações secundárias com base nas informações de indicação.
[020] Um dispositivo de decodificação preditiva de vídeo de acordo com um aspecto da presente invenção é um dispositivo de decodificação preditiva de vídeo que compreende: meio de decodificação que decodifica dados comprimidos dentre diversos conjuntos de dados comprimidos obtidos pela codificação de uma pluralidade de regiões divididas, em que os dados
Petição 870180034478, de 27/04/2018, pág. 17/117
10/71 comprimidos incluem informações secundárias e um sinal residual de uma região-alvo, que é um alvo a ser decodificado; meio de reconstrução de informação de movimento que reconstrói um vetor de movimento usado para gerar um sinal predito da região-alvo a partir da informação secundária; meio de armazenamento de informação de movimento que armazena o vetor de movimento; meio de compensação de movimento que gera o sinal predito da região-alvo, com base no vetor de movimento; meio de reconstrução de sinal residual que reconstrói um sinal residual reproduzido da região-alvo a partir dos dados comprimidos do sinal residual; e meio de armazenamento de imagem que adiciona o sinal predito ao sinal residual reproduzido para reconstruir um sinal de pixel da região-alvo de decodificação e que armazena o sinal de pixel reconstruído como uma imagem previamente reproduzida, em que o meio de decodificação decodifica informações secundárias de número zero e primeiras informações secundárias, em que as informações secundárias de número zero contêm uma diferença de vetor de movimento de número zero e um índice de preditor de vetor de movimento de número zero para identificar como um preditor de vetor de movimento de número zero um vetor de movimento selecionado a partir de uma pluralidade de vetores de movimento armazenados no meio de armazenamento de informação de movimento, em que as primeiras informações secundárias contêm um primeiro índice de preditor de vetor de movimento para identificar como um primeiro preditor de vetor de movimento um vetor de movimento selecionado a partir de uma pluralidade de vetores de movimento armazenados no meio de armazenamento de informação de movimento, em que o meio de reconstrução de informação de movimento compreende: meio de reconstrução de informação de movimento de número zero que gera o preditor de vetor de movimento de número zero, com base no índice de
Petição 870180034478, de 27/04/2018, pág. 18/117
11/71 preditor de vetor de movimento de número zero, e que adiciona o preditor de vetor de movimento de número zero gerado à diferença de vetor de movimento de número zero para reconstruir um vetor de movimento de número zero; e primeiro meio de reconstrução de informações de movimento que gera o primeiro preditor de vetor de movimento, com base no primeiro índice de preditor de vetor de movimento, para reconstruir o primeiro preditor de vetor de movimento gerado como um primeiro vetor de movimento, e em que o meio de compensação de movimento combina dois sinais obtidos a partir da imagem previamente reproduzida, com base no vetor de movimento de número zero e no primeiro vetor de movimento, para gerar o sinal predito da região-alvo.
[021] O dispositivo de decodificação preditiva de vídeo acima pode ser configurado em uma configuração em que o meio de decodificação decodifica adicionalmente informações de indicação para indicar se as primeiras informações secundárias contêm uma diferença de vetor de movimento, em cada quadro ou em cada fatia, em que quando as informações de indicação indicam que as primeiras informações secundárias contêm uma primeira diferença de vetor de movimento, o meio de decodificação decodifica a diferença de vetor de movimento como as primeiras informações secundárias, e em que, quando as informações de indicação indicam que as primeiras informações secundárias não contêm a primeira diferença de vetor de movimento, o primeiro meio de reconstrução de informação de movimento gera o primeiro preditor de vetor de movimento, com base no primeiro índice de preditor de vetor de movimento, e reconstrói o primeiro preditor de vetor de movimento gerado como o primeiro vetor de movimento; e em que, quando as informações de indicação indicam que as primeiras informações secundárias contêm a diferença de vetor, o primeiro meio de reconstrução de
Petição 870180034478, de 27/04/2018, pág. 19/117
12/71 informação de movimento gera o primeiro preditor de vetor de movimento, com base no primeiro índice de preditor de vetor de movimento, e adiciona o primeiro preditor de vetor de movimento gerado à diferença de vetor de movimento decodificada para gerar e reconstruir o primeiro vetor de movimento.
[022] A presente invenção também pode ser entendida como a invenção de um método de codificação preditiva de vídeo, a invenção de um método de decodificação preditiva de vídeo, a invenção de um programa de codificação preditiva de vídeo e a invenção de um programa de decodificação preditiva de vídeo, que podem ser descritas abaixo.
[023] Um método de codificação preditiva de vídeo de acordo com um aspecto da presente invenção é um método de codificação preditiva de vídeo executado por um dispositivo de codificação preditiva de vídeo, que compreende: uma etapa de divisão de região de divisão de uma imagem de entrada em uma pluralidade de regiões; uma etapa de geração de sinal predito de determinação de um vetor de movimento para derivar, a partir de uma imagem previamente reproduzida, um sinal que tem uma alta correlação com uma região-alvo como um alvo de codificação, proveniente das regiões divididas pela etapa de divisão de região; uma etapa de armazenamento de informação de movimento de armazenamento do vetor de movimento em meio de armazenamento de informação de movimento; uma etapa de geração de sinal residual de geração de um sinal residual entre um sinal predito da região-alvo e um sinal de pixel da região-alvo; uma etapa de compressão de sinal residual de compressão do sinal residual gerado pela etapa de geração de sinal residual; uma etapa de reconstrução de sinal residual de geração de um sinal residual reproduzido pela reconstrução a partir de dados comprimidos do sinal residual; uma etapa de codificação de seleção e codificação de um
Petição 870180034478, de 27/04/2018, pág. 20/117
13/71 preditor de vetor de movimento similar a um vetor de movimento da regiãoalvo, o vetor de movimento-alvo selecionado a partir de: vetores de movimento previamente reproduzidos armazenados no meio de armazenamento de informação de movimento, informações secundárias determinadas a partir do vetor de movimento da região-alvo, e os dados comprimidos do sinal residual; e uma etapa de armazenamento de imagem de adição do sinal predito ao sinal residual reproduzido para reconstruir um sinal de pixel da região-alvo e armazenamento do sinal de pixel reconstruído como a imagem previamente reproduzida em meio de armazenamento de imagem, em que o vetor de movimento inclui um vetor de movimento de número zero usado para gerar um sinal predito de número zero, e um primeiro vetor de movimento usado para gerar um primeiro sinal predito, e em que a etapa de geração de sinal predito compreende: uma etapa de estimação de informação de movimento número zero de estimação do vetor de movimento de número zero para derivação do sinal predito de número zero, selecionar um preditor de vetor de movimento de número zero similar ao vetor de movimento de número zero estimado a partir de uma pluralidade de vetores de movimento armazenados na etapa de armazenamento de informação de movimento, e gerar informações secundárias de número zero que contêm um índice de preditor de vetor de movimento de número zero para identificar o preditor de vetor de movimento selecionado, e uma diferença de vetor de movimento determinada do vetor de movimento de número zero, e o preditor de vetor de movimento de número zero; uma primeira etapa de estimação de informação de movimento de seleção, a partir de uma pluralidade de vetores de movimento armazenados na etapa de armazenamento de informação de movimento, de um vetor de movimento que tem uma alta correlação com a região-alvo para a geração do primeiro sinal predito, gerando primeira
Petição 870180034478, de 27/04/2018, pág. 21/117
14/71 informação secundária que contém um primeiro índice de preditor de vetor de movimento para identificar o vetor de movimento selecionado como um primeiro preditor de vetor de movimento, e definindo o primeiro preditor de vetor de movimento como o primeiro vetor de movimento; e uma etapa de combinação de sinal predito de combinação do sinal predito de número zero e do primeiro sinal predito para gerar o sinal predito da região-alvo.
[024] O método de codificação preditiva de vídeo acima pode ser configurado em uma configuração em que na primeira etapa de estimação de informação de movimento, o dispositivo de codificação preditiva de vídeo estima adicionalmente um segundo vetor de movimento para derivação do primeiro sinal predito, para detectar o segundo vetor de movimento, seleciona um segundo preditor de vetor de movimento similar ao segundo vetor de movimento estimado a partir de uma pluralidade de vetores de movimento armazenados na etapa de armazenamento de informação de movimento, e gera segunda informação secundária que contém um segundo índice de preditor de vetor de movimento para identificar o preditor de vetor de movimento selecionado, e uma diferença de vetor de movimento determinada a partir do segundo vetor de movimento e do segundo preditor de vetor de movimento, em que na etapa de geração de sinal predito, o dispositivo de codificação preditiva de vídeo gera o primeiro sinal predito com o uso do primeiro vetor de movimento quando uma pluralidade de imagens previamente reproduzidas armazenadas no meio de armazenamento de imagem são todas imagens passadas em uma ordem de exibição em relação a uma imagem alvo de codificação, e o dispositivo de codificação preditiva de vídeo gera o primeiro sinal predito com o uso do segundo vetor de movimento quando uma pluralidade de imagens previamente reproduzidas armazenadas no meio de armazenamento de imagem inclui uma imagem futura na ordem de
Petição 870180034478, de 27/04/2018, pág. 22/117
15/71 exibição em relação à imagem de alvo de codificação e em que, na etapa de codificação, quando uma pluralidade de imagens previamente reproduzidas armazenadas no meio de armazenamento de imagem são todas imagens passadas na ordem de exibição em relação à imagem alvo de codificação, o dispositivo de codificação preditiva de vídeo codifica informações de indicação para indicar que as primeiras informações secundárias são codificadas, em cada quadro ou em cada fatia; quando uma pluralidade de imagens previamente reproduzidas armazenadas no meio de armazenamento de imagem inclui uma imagem futura na ordem de exibição em relação à imagem alvo de codificação, o dispositivo de codificação preditiva de vídeo codifica informações de indicação para indicar que a segunda informação secundária é codificada, em cada quadro ou em cada fatia; e em que na etapa de codificação, o dispositivo de codificação preditiva de vídeo codifica as informações secundárias de cada região-alvo, as informações secundárias de número zero, e ou as primeiras informações secundárias ou as segundas informações secundárias com base nas informações de indicação.
[025] Um método de decodificação preditiva de vídeo de acordo com um aspecto da presente invenção é um método de decodificação preditiva de vídeo executado por um dispositivo de decodificação preditiva de vídeo, que compreende: uma etapa de decodificação para decodificar dados comprimidos provenientes de diversos conjuntos de dados comprimidos obtidos através da decodificação de uma pluralidade de regiões divididas, em que os dados comprimidos compreendem informações secundárias e um sinal residual de uma região-alvo de decodificação que é alvo a ser decodificado; uma etapa de reconstrução de informações de movimento de restauração de um vetor de movimento usado para gerar um sinal predito da região-alvo a partir das informações secundárias; uma etapa de armazenamento de informação de
Petição 870180034478, de 27/04/2018, pág. 23/117
16/71 movimento de armazenamento do vetor de movimento no meio de armazenamento de informação de vetor de movimento; uma etapa de compensação de movimento de geração do sinal predito da região-alvo, com base no vetor de movimento; uma etapa de reconstrução de sinal residual de restauração de um sinal residual reproduzido da região-alvo a partir dos dados comprimidos do sinal residual; e uma etapa de armazenamento de imagem de adição do sinal predito ao sinal residual reproduzido para reconstruir um sinal de pixel da região-alvo de decodificação, e armazenamento do sinal de pixel reconstruído como uma imagem previamente reproduzida, em que na etapa de decodificação, o dispositivo de decodificação preditiva de vídeo decodifica informações secundárias de número zero e primeiras informações secundárias, em que as informações secundárias de número zero contêm uma diferença de vetor de movimento de número zero e um índice de preditor de vetor de movimento de número zero para identificar como um preditor de vetor de movimento de número zero um vetor de movimento selecionado a partir de uma pluralidade de vetores de movimento armazenados na etapa de armazenamento de informação de movimento, em que as primeiras informações secundárias contêm um primeiro índice de preditor de vetor de movimento para identificar como um primeiro preditor de vetor de movimento um vetor de movimento selecionado a partir de uma pluralidade de vetores de movimento armazenados na etapa de armazenamento de informação de movimento, em que a etapa de reconstrução de informação de movimento compreende: uma etapa de reconstrução de informação de movimento número zero de geração do preditor de vetor de movimento de número zero, com base no índice de preditor de vetor de movimento de número zero ,e adição do preditor de vetor de movimento de número zero gerado à diferença de vetor de movimento de número zero para reconstruir um vetor de
Petição 870180034478, de 27/04/2018, pág. 24/117
17/71 movimento de número zero; e uma primeira etapa de reconstrução de informação de movimento de geração do primeiro preditor de vetor de movimento, com base no primeiro índice de preditor de vetor de movimento, para reconstruir o primeiro preditor de vetor de movimento gerado como um primeiro vetor de movimento, e em que na etapa de compensação de movimento, o dispositivo de decodificação preditiva de vídeo combina dois sinais adquiridos a partir da imagem previamente reproduzida, com base no vetor de movimento de número zero e no primeiro vetor de movimento, para gerar o sinal predito da região-alvo.
[026] O método de decodificação preditiva de vídeo acima pode ser configurado em uma configuração em que na etapa de decodificação, o dispositivo de decodificação preditiva de vídeo decodifica adicionalmente informações de indicação para indicar se as primeiras informações secundárias contêm uma diferença de vetor de movimento, em cada quadro ou em cada fatia, em que quando as informações de indicação indicam que as primeiras informações secundárias contêm uma primeira diferença de vetor de movimento, o dispositivo de decodificação preditiva de vídeo decodifica a diferença de vetor de movimento como as primeiras informações secundárias, e em que na primeira etapa de reconstrução de informações de movimento, quando as informações de indicação indicam que as primeiras informações secundárias não contêm a primeira diferença de vetor de movimento, o dispositivo de decodificação preditiva de vídeo gera o primeiro preditor de vetor de movimento, com base no primeiro índice de preditor de vetor de movimento, e reconstrói o primeiro preditor de vetor de movimento gerado como o primeiro vetor de movimento; e em que na primeira etapa de reconstrução de informação de movimento, quando as informações de indicação indicam que as primeiras informações secundárias contêm a primeira
Petição 870180034478, de 27/04/2018, pág. 25/117
18/71 diferença de vetor de movimento, o dispositivo de decodificação preditiva de vídeo gera o primeiro preditor de vetor de movimento, com base no primeiro índice de preditor de vetor de movimento, e adiciona o primeiro preditor de vetor de movimento gerado à diferença de vetor de movimento decodificada para gerar e reconstruir o primeiro vetor de movimento.
[027] Um programa de codificação preditiva de vídeo de acordo com um aspecto da presente invenção é um programa de codificação preditiva de vídeo para deixar um computador funcionar como: meio de divisão de região que divide uma imagem de entrada em uma pluralidade de regiões; meio de geração de sinal predito que determina um vetor de movimento para derivar a partir de uma imagem previamente reproduzida um sinal que tem uma alta correlação com uma região-alvo como um alvo de codificação, proveniente das regiões divididas pelo meio de divisão de região; meio de armazenamento de informação de movimento que armazena o vetor de movimento; meio de geração de sinal residual que gera um sinal residual entre um sinal predito da região-alvo e um sinal de pixel da região-alvo; meio de compressão de sinal residual que comprime o sinal residual gerado pelo meio de geração de sinal residual; meio de reconstrução de sinal residual que gera um sinal residual reproduzido pela reconstrução a partir de dados comprimidos do sinal residual; meio de codificação que codifica um preditor de vetor de movimento, similar a um vetor de movimento da região-alvo, selecionado a partir de: vetores de movimento previamente reproduzidos armazenados no meio de armazenamento de informação de movimento, informações secundárias determinadas a partir do vetor de movimento da região-alvo, e os dados comprimidos do sinal residual; e meio de armazenamento de imagem que adiciona o sinal predito ao sinal residual reproduzido para reconstruir um sinal de pixel da região-alvo, e que armazena o sinal de pixel reconstruído como a
Petição 870180034478, de 27/04/2018, pág. 26/117
19/71 imagem previamente reproduzida, em que o vetor de movimento inclui um vetor de movimento de número zero usado para gerar um sinal predito de número zero, e um primeiro vetor de movimento usado para gerar um primeiro sinal predito, e em que o meio de geração de sinal predito compreende: meio de estimação de informação de movimento de número zero que estima o vetor de movimento de número zero para derivação do sinal predito de número zero, que seleciona um preditor de vetor de movimento de número zero similar ao vetor de movimento de número zero estimado a partir de uma pluralidade de vetores de movimento armazenados no meio de armazenamento de informação de movimento, e que gera informações secundárias de número zero que contém um índice de preditor de vetor de movimento de número zero para identificar o preditor de vetor de movimento selecionado, e uma diferença de vetor de movimento determinada a partir do vetor de movimento de número zero e do preditor de vetor de movimento de número zero; primeiro meio de estimativa de informação de movimento que seleciona um vetor de movimento para geração do primeiro sinal predito que tem uma alta correlação com a região-alvo, a partir de uma pluralidade de vetores de movimento armazenados no meio de armazenamento de informação de movimento, que gera primeiras informações secundárias que contêm um primeiro índice de preditor de vetor de movimento para identificar o vetor de movimento selecionado como um primeiro preditor de vetor de movimento, e que define o primeiro preditor de vetor de movimento para o primeiro vetor de movimento; e meio de combinação de sinal predito que combina o sinal predito de número zero e o primeiro sinal predito para gerar o sinal predito da região-alvo.
[028] O programa de codificação preditiva de vídeo acima pode ser configurado em uma configuração em que o primeiro meio de estimativa de
Petição 870180034478, de 27/04/2018, pág. 27/117
20/71 informação de movimento tem adicionalmente uma função de estimar um segundo vetor de movimento para derivação do primeiro sinal predito, para detectar o segundo vetor de movimento, para selecionar um segundo preditor de vetor de movimento similar ao segundo vetor de movimento estimado, a partir de uma pluralidade de vetores de movimento armazenados no meio de armazenamento de informação de movimento, e para gerar segundas informações secundárias que contêm um segundo índice de preditor de vetor de movimento para identificar o preditor de vetor de movimento selecionado, e uma diferença de vetor de movimento determinada a partir do segundo vetor de movimento e do segundo preditor de vetor de movimento, em que o meio de geração de sinal predito gera o primeiro sinal predito com o uso do primeiro vetor de movimento quando uma pluralidade de imagens previamente reproduzida armazenada no meio de armazenamento de imagem são todas imagens passadas em uma ordem de exibição em relação a uma imagem alvo de codificação, e o meio de geração de sinal predito gera o primeiro sinal predito com o uso do segundo vetor de movimento quando uma pluralidade de imagens previamente reproduzidas armazenadas no meio de armazenamento de imagem inclui uma imagem futura na ordem de exibição em relação à imagem alvo de codificação, e em que o meio de codificação codifica informação de indicação para indicar que a primeira informação secundária é codificada, em cada quadro ou em cada fatia quando uma pluralidade de imagens previamente reproduzidas armazenadas no meio de armazenamento de imagem são todas imagens passadas na ordem de exibição em relação à imagem alvo de codificação, e o meio de codificação codifica informações de indicação para indicar que as segundas informações secundárias são codificadas, em cada quadro ou em cada fatia quando uma pluralidade de imagens previamente reproduzidas armazenadas no meio de
Petição 870180034478, de 27/04/2018, pág. 28/117
21/71 armazenamento de imagem inclui uma imagem futura na ordem de exibição em relação à imagem alvo de codificação; e em que o meio de codificação codifica as informações secundárias de cada região-alvo, as informações secundárias de número zero e ou as primeiras informações secundárias ou as segundas informações secundárias, com base nas informações de indicação.
[029] Um programa de decodificação preditiva de vídeo de acordo com um aspecto da presente invenção é um programa de decodificação preditiva de vídeo para fazer com que um computador funcione como: meio de decodificação que decodifica dados comprimidos provenientes de diversos conjuntos de dados comprimidos obtidos através da decodificação de uma pluralidade de regiões divididas, em que os dados comprimidos compreendem informação secundária e um sinal residual de uma região-alvo de decodificação, que é um alvo a ser decodificado; meio de reconstrução de informação de movimento que reconstrói um vetor de movimento usado para gerar um sinal predito da região-alvo a partir das informações secundárias; meio de armazenamento de informação de movimento que armazena o vetor de movimento; meio de compensação de movimento que gera o sinal predito da região-alvo, com base no vetor de movimento; meio de reconstrução de sinal residual, que reconstrói um sinal residual reproduzido da região-alvo a partir dos dados comprimidos do sinal residual; e meio de armazenamento de imagem que adiciona o sinal predito ao sinal residual reproduzido para reconstruir um sinal de pixel da região-alvo de decodificação e que armazena o sinal de pixel reconstruído como uma imagem previamente reproduzida, em que o meio de decodificação decodifica informações secundárias de número zero e primeiras informações secundárias, em que as informações secundárias de número zero contêm uma diferença de vetor de movimento de número zero e um índice de preditor de vetor de movimento de número zero para
Petição 870180034478, de 27/04/2018, pág. 29/117
22/71 identificar como um preditor de vetor de movimento de número zero um vetor de movimento selecionado a partir de uma pluralidade de vetores de movimento armazenados no meio de armazenamento de informação de movimento, em que as primeiras informações secundárias contêm um primeiro índice de preditor de vetor de movimento para identificar como um primeiro preditor de vetor de movimento um vetor de movimento selecionado a partir de uma pluralidade de vetores de movimento armazenados no meio de armazenamento de informação de movimento, em que o meio de reconstrução de informação de movimento compreende: meio de reconstrução de informação de movimento de número zero que gera o preditor de vetor de movimento de número zero, com base no índice de preditor de vetor de movimento de número zero e que adiciona o preditor de vetor de movimento de número zero gerado à diferença de vetor de movimento de número zero para reconstruir um vetor de movimento de número zero; e primeiro meio de reconstrução de informação de movimento que gera o primeiro preditor de vetor de movimento, com base no primeiro índice de preditor de vetor de movimento, para reconstruir o primeiro preditor de vetor de movimento gerado como um primeiro vetor de movimento, e em que o meio de compensação de movimento combina dois sinais adquiridos a partir da imagem previamente reproduzida, com base no vetor de movimento de número zero e no primeiro vetor de movimento, para gerar o sinal predito da região-alvo.
[030] O programa de decodificação preditiva de vídeo acima pode ser configurado em uma configuração em que o meio de decodificação decodifica adicionalmente informações de indicação para indicar se as primeiras informações secundárias contêm uma diferença de vetor de movimento, em cada quadro ou em cada fatia, em que quando as informações de indicação
Petição 870180034478, de 27/04/2018, pág. 30/117
23/71 indicam que as primeiras informações secundárias contêm uma primeira diferença de vetor de movimento, o meio de decodificação decodifica a diferença de vetor de movimento como as primeiras informações secundárias, e em que, quando as informações de indicação indicam que as primeiras informações secundárias não contêm a primeira diferença de vetor de movimento, o primeiro meio de reconstrução de informação de movimento gera o primeiro preditor de vetor de movimento, com base no primeiro índice de preditor de vetor de movimento, e reconstrói o primeiro preditor de vetor de movimento gerado como o primeiro vetor de movimento; e em que, quando as informações de indicação indicam que as primeiras informações secundárias contêm a diferença de vetor, o primeiro meio de reconstrução de informação de movimento gera o primeiro preditor de vetor de movimento, com base no primeiro índice de preditor de vetor de movimento, e adiciona o primeiro preditor de vetor de movimento gerado à diferença de vetor de movimento decodificada para gerar e reconstruir o primeiro vetor de movimento.
Efeitos da Invenção [031] O dispositivo de codificação preditiva de vídeo, o método de codificação preditiva de vídeo, o programa de codificação preditiva de vídeo, o dispositivo de decodificação preditiva de vídeo, o método de decodificação preditiva de vídeo e o programa de decodificação preditiva de vídeo, de acordo com a presente invenção, permitem a designação de um vetor de movimento efetivo para a bipredição, com base na informação de movimento previamente codificada e, dessa forma, alcançam o efeito de intensificar o desempenho da bipredição com uma quantidade menor de bits de codificação.
BREVE DESCRIÇÃO DOS DESENHOS [032] A Figura 1 é um diagrama de bloco que mostra um dispositivo de
Petição 870180034478, de 27/04/2018, pág. 31/117
24/71 codificação preditiva de vídeo de acordo com uma modalidade da presente invenção.
[033] A Figura 2 é um diagrama de bloco para ilustrar uma unidade de geração de sinal predito mostrado na Figura 1.
[034] A Figura 3 é um fluxograma para ilustrar um primeiro processo de estimação de movimento mostrado na Figura 2.
[035] A Figura 4 é um fluxograma para ilustrar um processo de estimação de movimento de número zero mostrado na Figura 2.
[036] A Figura 5 é um diagrama esquemático para ilustrar exemplos de ordens de codificação de quadros.
[037] A Figura 6 é um desenho para ilustrar exemplos de listas de quadros de referência.
[038] A Figura 7 é um desenho para ilustrar um exemplo de blocos adjacentes.
[039] A Figura 8 é um desenho para ilustrar um outro exemplo de blocos adjacentes.
[040] A Figura 9 é um fluxograma que mostra um procedimento de um método de codificação preditiva de vídeo do dispositivo de codificação preditiva de vídeo mostrado na Figura 1.
[041] A Figura 10 é um diagrama de bloco que mostra um dispositivo de decodificação preditiva de vídeo de acordo com uma modalidade da presente invenção.
[042] A Figura 11 é um diagrama de bloco para ilustrar uma unidade de reconstrução de informação de movimento mostrado na Figura 10.
[043] A Figura 12 é um fluxograma para ilustrar um primeiro processo de reconstrução de informação de movimento mostrado na Figura 11.
[044] A Figura 13 é um fluxograma para ilustrar um processo de
Petição 870180034478, de 27/04/2018, pág. 32/117
25/71 reconstrução de informação de movimento de número zero mostrado na Figura 11.
[045] A Figura 14 é um fluxograma que mostra um procedimento de um método de decodificação preditiva de vídeo do dispositivo de decodificação preditiva de vídeo mostrado na Figura 10.
[046] A Figura 15 é um diagrama de bloco que mostra um programa com capacidade de execução do método de codificação preditiva de vídeo de acordo com uma modalidade da presente invenção.
[047] A Figura 16 é um diagrama de bloco que mostra um programa com capacidade de execução do método de decodificação preditiva de vídeo de acordo com uma modalidade da presente invenção.
[048] A Figura 17 é um desenho que mostra uma configuração de hardware de um computador para executar um programa gravado em um meio de armazenamento.
[049] A Figura 18 é uma vista em perspectiva de um computador para executar um programa armazenado em um meio de armazenamento.
[050] A Figura 19 é um diagrama esquemático para ilustrar um processo de estimação de movimento em predição interquadro.
[051] A Figura 20 é um diagrama esquemático para ilustrar o método de predição intraquadro convencional.
Modalidades da Invenção [052] As modalidades da presente invenção serão descritas abaixo em detalhes em referência aos desenhos anexos. Na descrição dos desenhos, elementos idênticos ou equivalentes serão denotados pelos mesmos símbolos de referência, sem descrição redundante. Adicionalmente, quadros e imagens (501 a 511 na Figura 5) têm o mesmo significado na descrição no presente relatório descritivo.
Petição 870180034478, de 27/04/2018, pág. 33/117
26/71 [053] A Figura 1 é um diagrama de bloco que mostra um dispositivo de codificação preditiva de vídeo 100 de acordo com uma modalidade da presente invenção. Esse dispositivo de codificação preditiva de vídeo 100 é dotado de um terminal de entrada 101, uma unidade de divisão de bloco 102, uma unidade de geração de sinal predito 103, uma memória de quadro 104, uma unidade de subtração 105, uma unidade de transformada 106, uma unidade de quantização 107, uma unidade de quantização inversa 108, uma unidade de transformada inversa 109, uma unidade de adição 110, uma unidade de codificação 111, um terminal de saída 112 e uma memória de informação de movimento 113. A unidade de transformada 106 e a unidade de quantização 107 funcionam como o meio de compressão de sinal residual, a unidade de quantização inversa 108 e a unidade de transformada inversa 109 funcionam como meio de reconstrução de sinal residual, e a memória de informação de movimento funciona como meio de armazenamento de informação de movimento. A memória de informação de movimento 113 pode ser incluída na unidade de geração de sinal predito 103.
[054] O terminal de entrada 101 é um terminal que implementa entrada de um sinal de uma sequência de vídeo que consiste em uma pluralidade de imagens.
[055] A unidade de divisão de bloco 102 divide uma imagem como um alvo de codificação, que é representado por um sinal inserido pelo terminal de entrada 101, em a pluralidade de regiões (blocos-alvo ou regiões-alvo). Na presente modalidade, a imagem alvo de codificação é dividida em blocos que consistem em 8x8 pixels, mas a imagem-alvo pode ser dividida em blocos de qualquer outro tamanho ou formato. Adicionalmente, os blocos de diferentes tamanhos podem ser misturados em um quadro.
[056] A unidade de geração de sinal predito 103 detecta a informação
Petição 870180034478, de 27/04/2018, pág. 34/117
27/71 de movimento usada para gerar um sinal predito de cada bloco preditivo em um bloco-alvo e gera o sinal predito. Adicionalmente, ela gera informações secundárias usadas para a reconstrução da informação de movimento em um dispositivo de decodificação. Não existem restrições sobre um método de geração de sinal predito na presente invenção, mas os métodos aplicáveis do presente documento incluem a predição interquadro (unipredição ou bipredição) e a predição intraquadro (a predição intraquadro não é ilustrada) conforme descrito nos antecedentes da técnica.
[057] Na presente modalidade, o sinal predito é gerado pela bipredição. Um pedaço de informação de movimento na bipredição é detectado com o uso de um sinal de imagem adquirido através de L104 com a finalidade de minimizar a soma de erros absolutos entre o sinal original do bloco-alvo alimentado através de L102 e o sinal bipredito, pela correspondência de bloco mostrada na Figura 19. Então, um outro pedaço de informação de movimento é gerado com base em informação de movimento previamente codificada.
[058] Uma vez que a presente modalidade descreve a bipredição, a informação de movimento é composta de informação de movimento de número zero e primeira informação de movimento, cada uma contendo um índice de quadro de referência (ref_idx[0] ou ref_idx[1]) e um vetor de movimento (mv[0][0/1] ou mv[1][0/1]). Os quadros de referência candidatos para a informação de movimento de número zero são indicados por List0 na Figura 6, e os quadros de referência candidatos para a primeira informação de movimento são indicados por List1 na Figura 6. [0/1] no presente documento é a informação para identificar um componente horizontal e um componente vertical de cada vetor. A descrição de [0/1] será omitida posteriormente no presente documento (e também omitida de modo similar nos desenhos).
[059] As imagens reproduzidas a serem registradas nas listas de quadro
Petição 870180034478, de 27/04/2018, pág. 35/117
28/71 de referência mostradas na Figura 6 podem ser automaticamente determinadas de acordo com uma regra predeterminada, ou podem ser explicitamente codificadas em unidade de quadro ou em unidade de sequência. Nessa ocasião, o número de quadro pode ser usado para identificar cada quadro de referência, conforme mostrado na Figura 5 e na Figura 6.
[060] A informação de movimento gerada pela unidade de geração de sinal predito 103 é emitida através de L103b para a memória de informação de movimento 113.
[061] A memória de informação de movimento 113 armazena a informação de movimento inserida. A informação de movimento armazenada é alimentada através de L113 para a unidade de geração de sinal predito a ser usada para codificação de informação de movimento de um bloco subsequente.
[062] As informações secundárias geradas pela unidade de geração de sinal predito 103 são emitidas através de L103c para a unidade de codificação
111.
[063] O sinal predito gerado pela unidade de geração de sinal predito 103 é emitido através de L103a para a unidade de subtração 105 e para a unidade de adição 110.
[064] A unidade de subtração 105 subtrai o sinal predito pelo bloco-alvo alimentado através da linha L103a, a partir do sinal de pixel do bloco-alvo alimentado através da linha L102 após a divisão na unidade de divisão de bloco 102, para gerar um sinal residual. A unidade de subtração 105 emite o sinal residual obtido pela subtração, através da linha L105 para a unidade de transformada 106.
[065] A unidade de transformada 106 é uma parte que transforma o sinal residual inserido por uma transformada discreta do cosseno. Uma
Petição 870180034478, de 27/04/2018, pág. 36/117
29/71 unidade de quantização 107 é uma parte que quantiza os coeficientes de transformada obtidos pela transformada discreta do cosseno pela unidade de transformada 106.
[066] A unidade de codificação 111 codifica por entropia as informações secundárias alimentadas a partir da unidade de geração de sinal predito e os coeficientes de transformada quantizados alimentados a partir da unidade de quantização 107 e os dados codificados são emitidos através de L111 para o terminal de saída 112. Não existem restrições sobre um método da codificação por entropia, mas os métodos aplicáveis incluem codificação aritmética, codificação de comprimento variável, e outros.
[067] O terminal de saída 112 emite a informação alimentada a partir da unidade de codificação 111, junta para o exterior.
[068] A unidade de quantização inversa 108 quantiza inversamente os coeficientes de transformada quantizados. A unidade de transformada inversa 109 reconstrói um sinal residual por uma transformada discreta do cosseno inversa. A unidade de adição 110 adiciona o sinal residual reconstruído ao sinal predito alimentado através de L103a, para reproduzir um sinal do bloco-alvo de codificação, e armazena o sinal na memória de quadro 104. A presente modalidade emprega a unidade de transformada 106 e a unidade de transformada inversa 109, mas também é possível usar outro processamento de transformada o lugar dessas unidades de transformada. Também deve ser observado que a unidade de transformada 106 e a unidade de transformada inversa 109 nem sempre são essenciais. Dessa maneira, o sinal reproduzido do bloco alvo de codificação codificado dessa forma é reconstruído pelo processo inverso e armazenado na memória de quadro 104, a fim de ser usado na geração do sinal predito do bloco alvo de codificação subsequente.
[069] A seguir, a unidade de geração de sinal predito 103 será descrita
Petição 870180034478, de 27/04/2018, pág. 37/117
30/71 em detalhes. Então, primeiro, a informação de movimento, informação de movimento preditiva, e informações secundárias serão descritas.
[070] Conforme descrito acima, a informação de movimento na bipredição é composta da informação de movimento de número zero e da primeira informação de movimento, em que cada uma contém um índice de quadro de referência (ref_idx[0] ou ref_idx[1]) e um vetor de movimento (mv[0] ou mv[1]). Os candidatos a quadros de referência para a informação de movimento de número zero são indicados por List0 na Figura 6 e os candidatos a quadros de referência para a primeira informação de movimento são indicados por List1 na Figura 6.
[071] Na bipredição da presente modalidade, a unidade de geração de sinal predito 103 usa a informação de movimento previamente codificada como informação de movimento preditiva. A informação de movimento previamente codificada contém informação de movimento associada a blocos adjacentes previamente codificados e a informação de movimento previamente codificada de uma região-alvo. A informação de movimento associada aos blocos adjacentes se refere à informação de movimento usada na geração do sinal predito quando cada bloco adjacente foi um alvo de codificação, e é armazenado na memória de informação de movimento 113.
[072] A informação de movimento preditiva também é composta de informação de movimento preditiva de número zero e primeira informação de movimento preditiva, cada uma contendo um índice de quadro de referência (ref_idx[0] ou ref_idx[1]) e a vetor de movimento (mv[0] ou mv[1]). Candidatos a quadros de referência para a informação de movimento preditiva de número zero são indicados por List0 na Figura 6 e os candidatos a quadros de referência para a primeira informação de movimento preditiva são indicados por List1 na Figura 6.
Petição 870180034478, de 27/04/2018, pág. 38/117
31/71 [073] Um método de utilização específico da informação de movimento preditiva é gerar um preditor de vetor de movimento, com base na informação de movimento preditiva de número zero, em codificação delta do vetor de movimento da informação de movimento de número zero detectada pela correspondência de bloco em referência aos quadros de referência em List0. A primeira informação de movimento que usa os quadros de referência em List1 é gerada com base na primeira informação de movimento preditiva.
[074] Um exemplo da informação de movimento preditiva será descrito em referência à Figura 7. Um bloco 400 mostrado na Figura 7 é um bloco-alvo, e pedaços de informação de movimento associados a blocos 401 a 404 adjacentes a ele são candidatos para a informação de movimento preditiva. A informação de movimento de cada bloco adjacente contém a informação de movimento de número zero e a primeira informação de movimento. Ambas podem ser definidas como candidatas para a informação de movimento preditiva ou a informação de movimento preditiva pode ser limitada a uma das mesmas (por exemplo, no caso de predição da enésima informação de movimento, apenas o enésimo vetor de movimento de cada bloco adjacente é definido como um candidato).
[075] Adicionalmente, um bloco 410 representa um bloco localizado espacialmente na mesma posição que o bloco 400, (ou um bloco colocalizado) em um quadro de referência. Os pedaços de informação de movimento associados ao bloco 410 e aos blocos 411 a 415 adjacentes a ele são candidatos para a informação de movimento preditiva. n representa um número para identificar um candidato para a informação de movimento preditiva e cada candidato selecionado é indicado por um índice de preditor de vetor de movimento (mvp_idx[0] ou mvp_idx[1]). Na presente modalidade, a informação de movimento de número zero é primeiro codificada e, por essa
Petição 870180034478, de 27/04/2018, pág. 39/117
32/71 razão, a informação de movimento de número zero associada ao bloco 400 também pode ser usada como a primeira informação de movimento preditiva (n=4 no exemplo).
[076] As posições e os números dos candidatos para a informação de movimento preditiva podem ser aqueles predefinidos entre o lado codificador e o lado decodificador e não existem restrições sobre isso na presente invenção. O número de candidatos para a informação de movimento preditiva pode ser predeterminado entre o lado codificador e o lado decodificador, ou pode ser codificado e fornecido para o decodificador.
[077] Se um quadro de referência identificado por ref_idx da informação de movimento preditiva for diferente de um quadro de referência identificado por ref_idx do bloco-alvo, um processo de escalamento do vetor de movimento na informação de movimento preditiva pode ser executado com base no número de quadros do quadro alvo de codificação, e dos dois quadros de referência. Especificamente, o vetor de movimento na informação de movimento preditiva é escalado a fim de ser convertido em um vetor de movimento que designa o quadro de referência identificado por ref_idx do bloco-alvo, e o vetor de movimento convertido obtido pela conversão é usado como um preditor de vetor de movimento (pmv[0][0/1] ou pmv[1][0/1]). Nessa ocasião, o índice de quadro de referência (ref_idx[0] ou ref_idx[1]) na informação de movimento preditiva é atualizado para o índice de quadro de referência (ref_idx[0] ou ref_idx[1]) do bloco-alvo. [0/1] na presente invenção é informação para identificar um componente horizontal e um componente vertical de cada vetor. A descrição de [0/1] será omitida posteriormente no presente documento (e também omitida de modo similar nos desenhos).
[078] As informações secundárias são compostas de informações secundárias de número zero e primeiras informações secundárias. As
Petição 870180034478, de 27/04/2018, pág. 40/117
33/71 informações secundárias de número zero contêm ref_idx[0], uma diferença de vetor de movimento (mvd[0][0/1] = mv[0][0/1] - pmv[0][0/1]), e mvp_idx[0]. As primeiras informações secundárias contêm ref_idx[1] e mvp_idx[1]. Uma vez que mv[1][0/1] = pmv[1][0/1] na presente modalidade, valores de vetor de mvd[1] [0/1 ] são sempre 0. Portanto, mvd[1][0/1] pode ser reconstruído no lado do decodificador sem ser codificado e, por essa razão, não precisa ser incluído nas primeiras informações secundárias. [0/1] na presente invenção é a informação para identificar um componente horizontal e um componente vertical de cada vetor. A descrição de [0/1] será omitida posteriormente no presente documento (e também omitida de modo similar nos desenhos).
[079] A Figura 2 é um diagrama de bloco que mostra uma configuração da unidade de geração de sinal predito 103 de acordo com a presente modalidade. Essa unidade de geração de sinal predito 103 é dotada de uma primeira unidade de estimação de informação de movimento 121, uma unidade de estimação de informação de movimento de número zero 122, e uma unidade de combinação de sinal predito 123.
[080] A unidade de estimação de primeira informação de movimento 121 usa os quadros de referência em List1, inseridos através de L104, para selecionar um conjunto de uma primeira informação de movimento preditiva candidata e um índice de quadro de referência para gerar um primeiro sinal predito mais similar ao sinal original do bloco-alvo alimentado através de L102, a partir de candidatos para a primeira informação de movimento preditiva alimentada através de L113 (em que os preditores de vetores de movimento são obtidos através do escalamento de vetores de movimento de acordo com os índices de quadro de referência). A primeira unidade de estimação de informação de movimento 121 emite o primeiro sinal predito através de L121a para a unidade de combinação de sinal predito 123 e emite a primeira
Petição 870180034478, de 27/04/2018, pág. 41/117
34/71 informação de movimento gerada com base na primeira informação de movimento preditiva selecionada e no índice de quadro de referência, através de L121b e através de L103b1 para a unidade de estimação de informação de movimento de número zero 122 e para a memória de informação de movimento 113, respectivamente. Adicionalmente, isso gera primeiras informações secundárias e emite as primeiras informações secundárias através de L103c1 para a unidade de codificação 111.
[081] A unidade de estimação de informação de movimento de número zero 122 usa a primeira informação de movimento inserida através de L121b e os quadros de referência em List1 inseridos através de L104, para gerar o primeiro sinal predito. Então, a unidade de estimação de informação de movimento de número zero 122 pesquisa os quadros de referência em List0 inseridos através de L104, para um candidato para um sinal predito de número zero, e detecta informação de movimento de número zero para minimizar a soma de diferenças absolutas entre um sinal bipredito gerado a partir do primeiro sinal predito e o candidato para o sinal predito de número zero obtido pela pesquisa, e o sinal original do bloco-alvo inserido através de L102. Então, ela emite o sinal predito de número zero gerado a partir da informação de movimento de número zero detectada, através de L122 para a unidade de combinação de sinal predito 123. Ela também emite a informação de movimento de número zero através de L103b2 para a memória de informação de movimento 113. Adicionalmente, ela gera informações secundárias de número zero e emite as informações secundárias de número zero através de L103c2 para a unidade de codificação 111.
[082] Também é permissível primeiro executar o processamento pela unidade de estimação de informação de movimento de número zero 122 para derivar a informação de movimento de número zero e as informações
Petição 870180034478, de 27/04/2018, pág. 42/117
35/71 secundárias de número zero antes do sinal predito de número zero. Nesse caso, a unidade de estimação de informação de movimento de número zero 122 detecta a informação de movimento de número zero para minimizar a soma de diferenças absolutas entre um sinal predito gerado a partir do sinal predito de número zero candidato obtido pela pesquisa, e o sinal original do bloco-alvo inserido através de L102. Então, a primeira unidade de estimação de informação de movimento 121 executa o processamento, com o uso do sinal predito de número zero. A saber, a primeira unidade de estimação de informação de movimento 121 usa os quadros de referência em List1, inseridos através de L104, para gerar um candidato para o primeiro sinal predito dentre os candidatos para a primeira informação de movimento preditiva inserida através de L113 (em que os preditores de vetores de movimento são obtidos pelo escalamento de vetores de movimento de acordo com os índices de quadro de referência), e seleciona um conjunto de uma primeira informação de movimento preditiva candidata e um índice de quadro de referência de tal modo que um sinal bipredito gerado a partir do sinal predito de número zero e do primeiro sinal predito candidato mais se aproxima do, ou é similar a, o sinal original do bloco-alvo inserido através de L102. Essa modificação pode ser implementada através da alimentação da informação de movimento de número zero para a primeira unidade de estimação de informação de movimento 121.
[083] A unidade de combinação de sinal predito 123 pondera o primeiro sinal predito e o sinal predito de número zero inseridos através de L121a e L122, para gerar um sinal predito do bloco-alvo e emite o sinal predito através de L103a para a unidade de subtração 105 e a unidade de adição 110.
[084] A Figura 3 mostra um fluxograma da primeira unidade de estimação de informação de movimento 121. Primeiro, a etapa S301 é definir
Petição 870180034478, de 27/04/2018, pág. 43/117
36/71
M (M=4 na Figura 6 (A) e (C), ou M=2 na Figura 6 (B)) para o número de quadros de referência em List1 usados na predição do bloco-alvo e definir 0 para o índice de quadro de referência ref_idx[1] da List1 contido na primeira informação de movimento, para inicializar uma contagem m para o número de quadro de referência em List1 para 0. Adicionalmente, um valor de avaliação de vetor de movimento D é definido em um valor Max. A seguir, a etapa S302 é definir N para o número de candidatos para preditor de vetor de movimento (N=11 na Figura 7, desde que quando a primeira unidade de estimação de informação de movimento 121 for executada antes da unidade de estimação de informação de movimento de número zero 122, n=4 é pulado devido ao fato de que a informação de movimento de número zero do bloco 400 ainda não é determinada), e definir 0 para o índice de preditor de vetor de movimento mvp_idx[1] contido nas primeiras informações secundárias, para inicializar uma contagem n para o número de informação de movimento preditiva para 0.
[085] A seguir, a etapa S303 é derivar um vetor de movimento de preditor de vetor de movimento candidato n a partir dos vetores de movimento dos blocos adjacentes, e a etapa S304 é gerar o enésimo preditor de vetor de movimento pmv[1][m][n][0/1] (em que [0/1] é a informação para identificar um componente horizontal e um componente vertical do vetor, e a descrição de [0/1] será omitida posteriormente no presente documento bem como nos desenhos). Nessa ocasião, o vetor de movimento do bloco adjacente é escalado de acordo com uma distância entre o quadro-alvo e o quadro de referência (ou de acordo com o número de quadros identificados pelos índices de quadro de referência) para obter o preditor de vetor de movimento. Posteriormente, a etapa S305 é gerar o sinal predito do bloco-alvo, com base no m-ésimo quadro de referência e no enésimo preditor de vetor de movimento escalado (pmv[1][m][n]), e a etapa S306 é determinar se a soma de
Petição 870180034478, de 27/04/2018, pág. 44/117
37/71 diferenças absolutas de um sinal residual entre o sinal predito gerado e o sinal original do bloco-alvo é menor que o valor de avaliação de vetor de movimento D. Quando a soma de diferenças absolutas não é menor que o valor de avaliação de vetor de movimento D, o processamento prossegue para a etapa S308. Quando a soma de diferenças absolutas é menor que o valor de avaliação de vetor de movimento D, o processamento prossegue para a etapa S307 para atualizar o índice de preditor de vetor de movimento mvp_idx[1] contido nas primeiras informações secundárias, para n, atualizar o índice de quadro de referência ref_idx[1] para m, e atualizar o valor de avaliação de vetor de movimento D para a soma de diferenças absolutas do sinal residual entre o sinal predito e o sinal original do bloco-alvo calculado na etapa S306. Adicionalmente, o vetor de movimento mv[1] na primeira informação de movimento é definido para o preditor de vetor de movimento pmv[1][ref_idx[1]][mvp_idx[1]] e o índice de quadro de referência é definido para ref_idx[1]. Posteriormente, o processamento prossegue para a etapa S308.
[086] A etapa S308 é determinar se o valor de n é menor que N; quando n é menor que N, o processamento prossegue para a etapa S309; quando n alcança N, o processamento prossegue para a etapa S310. A etapa S309 é adicionar 1 ao valor de n e, então, o processamento retorna para a etapa S303. Posteriormente, as etapas de S303 a S307 são repetidamente executadas até que n alcance N. A etapa S310 é determinar se o valor de m é menor que M; quando m é menor que M, o processamento prossegue para a etapa S311 para adicionar 1 ao valor de m e, então, retorna para a etapa S302. Posteriormente, as etapas de S302 a S309 são repetidamente executadas até que m alcance M. Quando m alcança M, a etapa S312 é executada para emitir as primeiras informações secundárias (ref_idx[1], mvp_idx[1]) para a unidade de codificação
Petição 870180034478, de 27/04/2018, pág. 45/117
38/71
111, armazenar a primeira informação de movimento (ref_idx[1] e mv[1]) na memória de informação de movimento 113, e emitir a primeira informação de movimento para a unidade de estimação de informação de movimento de número zero 122, seguido pelo fim do processamento.
[087] A Figura 4 mostra um fluxograma da unidade de estimação de informação de movimento de número zero 122. Primeiro, a etapa S351 é gerar o primeiro sinal predito na bipredição, com base na primeira informação de movimento. A seguir, a etapa S352 é definir M (M=4 na Figura 6 (A) e (C) ou M=2 na Figura 6 (B)) para o número de quadros de referência em List0 usados na predição do bloco-alvo, e definir 0 para o índice de quadro de referência ref_idx[0] de List0 contido na informação de movimento de número zero, para inicializar a contagem m para o número de quadro de referência em List0 para 0. Adicionalmente, o valor de avaliação de vetor de movimento D é definido em um valor Max. A seguir, a etapa S353 é determinar o índice de preditor de vetor de movimento mvp_idx[0] para identificar um preditor de vetor de movimento usado em codificação de diferença do vetor de movimento de número zero, a partir de uma pluralidade de candidatos. Um método de seleção na presente invenção pode ser, por exemplo, a técnica mostrada nas etapas S303 a S309 na Figura 3. Então, um preditor de vetor de movimento candidato pmv[0][m][n] é gerado. Nessa ocasião, um preditor de vetor de movimento é obtido através do escalamento do vetor de movimento do bloco adjacente de acordo com uma distância entre o quadro-alvo e o quadro de referência (ou de acordo com os números de quadros identificados por índices de quadro de referência), conforme descrito na etapa S304 da Figura 3.
[088] A seguir, a etapa S354 é adquirir os quadros de referência indicados por ref_idx[0], que são armazenados na memória de quadro 104, e pesquisar pelo vetor de movimento de número zero mv[0] para minimizar a
Petição 870180034478, de 27/04/2018, pág. 46/117
39/71 soma de diferenças absolutas do sinal residual entre o sinal bipredito obtido através da média com o primeiro sinal predito, e o sinal original. Subsequentemente, a etapa S355 é gerar a diferença de vetor de movimento de número zero mvd[0] (= mv[0] - pmv[0][m][n]). Posteriormente, a etapa S356 é determinar se o total da soma de diferenças absolutas do sinal residual entre o sinal bipredito gerado e o sinal original do bloco-alvo, e um valor de avaliação de quantidade de código das informações secundárias de número zero (mvd[0] e m e n) (que é definido por À(QP) x (uma quantidade de bits de codificação de mvd, m e n), em que λ, é um valor de peso determinado pelo parâmetro QP para definir a acurácia de quantização em quantização de coeficientes de transformada obtidos por transformada de um sinal de erro de predição) é menor que o valor de avaliação de vetor de movimento D. Quando o total da soma de diferenças absolutas + o valor de avaliação de quantidade de código não é menor que o valor de avaliação de vetor de movimento D, o processamento prossegue para a etapa S358. Quando o total da soma de diferenças absolutas + o valor de avaliação de quantidade de código é menor que o valor de avaliação de vetor de movimento D, o processamento prossegue para a etapa S357 para atualizar o índice de preditor de vetor de movimento mvp_idx[0] nas informações secundárias de número zero para n, atualizar o índice de quadro de referência ref_idx[0] para m, atualizar a diferença de vetor de movimento mvd[0] para (mv[0] - pmv[0][ref_idx[1]][mvp_idx[1]]), e atualizar D para o total da soma de diferenças absolutas do sinal residual entre o sinal bipredito e o sinal original do bloco-alvo + o valor de avaliação de quantidade de código calculado na etapa S356. Adicionalmente, o vetor de movimento mv[0] na informação de movimento de número zero é atualizado. Posteriormente, o processamento prossegue para a etapa S358.
[089] A etapa S358 é determinar se o valor de m é menor que M;
Petição 870180034478, de 27/04/2018, pág. 47/117
40/71 quando m é menor que M, o processamento prossegue para a etapa S359 para adicionar 1 ao valor de m e retorna para a etapa S353. Posteriormente, as etapas de S353 a S359 são repetidamente executadas até que m alcance M. Quando m alcança M, a etapa S360 é executada para emitir as informações secundárias de número zero (ref_idx[0], mvd[0], mvp_Idx[0]) para a unidade de codificação 111 e armazenar a informação de movimento de número zero (ref_idx[0] e mv[0]) na memória de informação de movimento 113, seguido pelo fim do processamento.
[090] Observa-se que a unidade de estimação de informação de movimento de número zero 122 pode primeiro executar o processamento para primeiro determinar a informação de movimento de número zero e as informações secundárias de número zero antes do sinal predito de número zero. Nesse caso, a etapa S351 na Figura 4 é omitida e a etapa S356 é modificada para determinar a soma de diferenças absolutas do sinal residual entre o sinal predito de número zero, em vez do sinal bipredito e do sinal original. Na Figura 3, se torna possível utilizar uma informação de movimento de número zero indicada por n=4 na Figura 7, como uma candidata para a informação de movimento preditiva. Essa modificação pode ser implementada através da adição de uma etapa de gerar o sinal predito de número zero na bipredição com base na informação de movimento de número zero e modificar a etapa S306 com a finalidade de calcular a soma de diferenças absolutas do sinal residual entre o sinal bipredito gerado através da média do primeiro sinal predito e do sinal predito de número zero gerado dessa forma, e o sinal original predito.
[091] Dessa maneira, o primeiro vetor de movimento na bipredição é gerado com base na informação de movimento previamente codificada, e na informação de identificação para identificar o índice de quadro de referência e
Petição 870180034478, de 27/04/2018, pág. 48/117
41/71 a informação de movimento preditiva a partir de uma pluralidade de candidatos conforme mostrado nas Figuras 6 e 7, é codificado em vez do vetor de movimento; esse método permite que o dispositivo de codificação gere um sinal similar que é similar a um sinal de um bloco-alvo de uma região de textura com aleatoriedade alta ou uma região plana que inclui ruído, com uma quantidade menor de bits de codificação. Adicionalmente, a pesquisa é conduzida no quadro de referência para detectar e codificar o vetor de movimento de número zero para gerar o segundo sinal similar, através do que um efeito para intensificar o efeito de suavização de sinal bipredito pode ser esperado, quando comparado com o caso em que os dois vetores de movimento são obtidos a partir da informação de movimento previamente codificada.
[092] A Figura 9 é um fluxograma que mostra um procedimento de um método de codificação preditiva de vídeo no dispositivo de codificação preditiva de vídeo 100 de acordo com a presente modalidade. Primeiro, a unidade de divisão de bloco 102 divide uma imagem de entrada em blocos de codificação 8x8 (a imagem de entrada pode ser dividida em blocos de qualquer outro tamanho ou formato ou blocos de diferentes tamanhos podem ser misturados em uma imagem de entrada).
[093] Primeiro, a primeira unidade de estimação de informação de movimento 121 que forma a unidade de geração de sinal predito 103 gera o primeiro sinal predito similar a um bloco-alvo, com o uso dos quadros de referência em List1 obtidos a partir da memória de quadro 104 e os candidatos para primeira informação de movimento preditiva obtida a partir da memória de informação de movimento, e também gera a primeira informação de movimento e a primeira informação secundária usada para a geração do primeiro sinal predito (etapa S100). Os detalhes dessa etapa já foram descritos
Petição 870180034478, de 27/04/2018, pág. 49/117
42/71 na Figura 3. A seguir, a unidade de estimação de informação de movimento de número zero 122 gera o sinal predito de número zero similar ao bloco-alvo, com o uso dos quadros de referência em List0 obtidos a partir da memória de quadro 104 e os candidatos para informação de movimento preditiva de número zero obtidos a partir da memória de informação de movimento, e a primeira informação de movimento obtida a partir da primeira unidade de estimação de informação de movimento 121, e também gera a informação de movimento de número zero e as informações secundárias de número zero usadas para a geração do sinal predito de número zero (etapa S150). Os detalhes dessa etapa já foram descritos na Figura 4.
[094] A seguir, a unidade de codificação 111 codifica por entropia as informações secundárias de número zero e as primeiras informações secundárias e armazena a informação de movimento de número zero e a primeira informação de movimento na memória de informação de movimento 113 (etapa S101). Subsequentemente, na etapa S102, a unidade de combinação de sinal predito 123 que forma a unidade de geração de sinal predito 103 pondera o sinal predito de número zero e o primeiro sinal predito para gerar um sinal bipredito do bloco-alvo. Um sinal residual indicativo de uma diferença entre o sinal de pixel do bloco-alvo de codificação e o sinal predito é transformado e codificado pela unidade de transformada 106, pela unidade de quantização 107, e pela unidade de codificação 111 (etapa S103). Os dados codificados das informações secundárias e os coeficientes de transformada quantizados são emitidos através do terminal de saída 112 (etapa S104). Para a codificação preditiva de um bloco-alvo de codificação subsequente, a unidade de quantização inversa 108 e a unidade de transformada inversa 109 decodificam o sinal residual codificado após esses processos, ou em paralelo com esses processos. Então, a unidade de adição
Petição 870180034478, de 27/04/2018, pág. 50/117
43/71
110 adiciona o sinal residual decodificado ao sinal predito para reproduzir um sinal do bloco-alvo de codificação. O sinal reproduzido é armazenado como um quadro de referência na memória de quadro 104 (etapa S105). Salvo se o processamento for concluído para todos os blocos-alvo de codificação, o processamento retorna para a etapa S100 para executar o processamento para o bloco-alvo de codificação seguinte. Quando o processamento é concluído para todos os blocos-alvo de codificação, o processamento é terminado (etapa S106).
[095] A seguir, será descrito um método de decodificação preditiva de vídeo de acordo com a presente modalidade. A Figura 10 é um diagrama de bloco que mostra um dispositivo de decodificação preditiva de vídeo 200 de acordo com a presente modalidade. Esse dispositivo de decodificação preditiva de vídeo 200 é dotado de um terminal de entrada 201, uma unidade de decodificação 202, uma unidade de quantização inversa 203, uma unidade de transformada inversa 204, uma unidade de adição 205, um terminal de saída 206, uma unidade de compensação de movimento 207, uma unidade de reconstrução de informação de movimento 208, uma memória de quadro 104 e uma memória de informação de movimento 113. A unidade de quantização inversa 203 e a unidade de transformada inversa 204 funcionam como o meio de reconstrução de sinal residual, e a memória de informação de movimento 113 funciona como o meio de armazenamento de informações de movimento. O meio de decodificação pela unidade de quantização inversa 203 e pela unidade de transformada inversa 204 pode ser qualquer meio além desses. Adicionalmente, a unidade de transformada inversa 204 pode ser omitida.
[096] O terminal de entrada 201 implementa a entrada de dados comprimidos resultante de codificação por compressão pelo método de codificação preditiva de vídeo supracitado. Esses dados comprimidos contêm
Petição 870180034478, de 27/04/2018, pág. 51/117
44/71 dados codificados de informação de coeficientes de transformada quantizados obtidos pela transformação e pela quantização de sinais de erro e codificação por entropia de coeficientes de transformada, e os dados codificados das informações secundárias de número zero e as primeiras informações secundárias para a geração de sinais bipreditos de blocos, para uma pluralidade de blocos de codificação divididos.
[097] A unidade de decodificação 202 analisa os dados comprimidos inseridos a partir do terminal de entrada 201, separa os dados em dados codificados de coeficientes de transformada quantizados e os dados codificados de informações secundárias sobre cada bloco-alvo de decodificação, executa decodificação de entropia dos mesmos e emite os dados decodificados através de L202a e através de L202b para a unidade de quantização inversa 203 e para a unidade de reconstrução de informação de movimento 208, respectivamente.
[098] A unidade de reconstrução de informação de movimento 208 recebe as informações secundárias de número zero (ref_idx[0], mvd[0], mvp_idx[0]) e as primeiras informações secundárias (ref_idx[1], mvp_idx[1]) através de L202b e reconstrói a informação de movimento de número zero (ref_idx[0], mv[0]) e a primeira informação de movimento (ref_idx[1], mv[1]), com o uso da informação de movimento previamente decodificada adquirida através de L113. A informação de movimento de número zero reconstruída e a primeira informação de movimento é emitida através de L208a e através de L208b para a unidade de compensação de movimento 207 e para a memória de informação de movimento 113, respectivamente. A memória de informação de movimento armazena a informação de movimento.
[099] A unidade de compensação de movimento 207 adquire sinais previamente reproduzidos a partir da memória de quadro 104, com base nos
Petição 870180034478, de 27/04/2018, pág. 52/117
45/71 dois pedaços de informação de movimento e pondera os dois sinais preditos para gerar um sinal bipredito do bloco-alvo de decodificação. O sinal predito gerado dessa forma é emitido através de L207 para a unidade de adição 205.
[0100] Os coeficientes de transformada quantizados do sinal residual no bloco-alvo de decodificação decodificado pela unidade de decodificação 202 são emitidos através de L203 para a unidade de quantização inversa 203. A unidade de quantização inversa 203 quantiza inversamente os coeficientes quantizados do sinal residual no bloco-alvo de decodificação. A unidade de transformada inversa 204 transforma os dados inversamente quantizados por uma transformada discreta do cosseno inversa para gerar um sinal residual.
[0101] A unidade de adição 205 adiciona o sinal bipredito gerado pela unidade de compensação de movimento 207, ao sinal residual reconstruído pela unidade de quantização inversa 203 e pela unidade de transformada inversa 204 e emite um sinal de pixel reproduzido do bloco-alvo de decodificação através da linha L205 para o terminal de saída 206 e a memória de quadro 104. O terminal de saída 206 emite o sinal para o exterior (por exemplo, um visor).
[0102] A memória de quadro 104 armazena a imagem reproduzida emitida a partir da unidade de adição 205, como um quadro de referência, que é uma imagem reproduzida para referência para o processo de decodificação seguinte.
[0103] A Figura 11 é um diagrama de bloco que mostra uma configuração da unidade de reconstrução de informação de movimento 208 de acordo com a presente modalidade. Essa unidade de reconstrução de informação de movimento 208 é dotada de uma primeira unidade de reconstrução de informação de movimento 211 e uma unidade de
Petição 870180034478, de 27/04/2018, pág. 53/117
46/71 reconstrução de informação de movimento de número zero 212.
[0104] Essas primeira unidade de reconstrução de informação de movimento 211 e unidade de reconstrução de informação de movimento de número zero 212 podem operar simultaneamente.
[0105] A unidade de reconstrução de informação de movimento de número zero 212 recebe entrada das informações secundárias de número zero (ref_idx[0], mvp_idx[0], mv[0]) para gerar o preditor de vetor de movimento de número zero (pmv[0][ref_idx[0]][mvp_idx[0]]) a partir da informação de movimento do bloco adjacente obtida através de L113, adiciona o preditor de vetor de movimento à diferença de vetor de movimento (mvd[0]) nas informações secundárias para gerar o vetor de movimento na informação de movimento de número zero, restaurando por meio disso a informação de movimento de número zero. De modo similar, quando o quadro de referência identificado por ref_idx é diferente do quadro de referência identificado por ref_idx do bloco-alvo, um processo de escalamento do vetor de movimento na informação de movimento preditiva pode ser executado com base no número de quadros do quadro alvo de codificação e nos dois quadros de referência.
[0106] A primeira unidade de reconstrução de informação de movimento 211 recebe entrada das primeiras informações secundárias (ref_idx[1], mvp_idx[1]) para gerar o primeiro preditor de vetor de movimento (pmv[1][ref_idx[1]][mvp_idx[1]]) a partir da informação de movimento previamente decodificada obtida através de L113. Esse preditor de vetor de movimento é definido como o vetor de movimento na primeira informação de movimento (mv[1] = pmv[1][ref_idx[1]][mvp_idx[1]]), restaurando por meio disso a primeira informação de movimento. Nesse momento, o primeiro vetor de movimento pode ser reconstruído através da configuração da diferença de vetor de movimento mvd[1] para um vetor zero e
Petição 870180034478, de 27/04/2018, pág. 54/117
47/71 da adição da mesma ao preditor de vetor de movimento. Nessa ocasião, se o quadro de referência identificado por ref_idx for diferente do quadro de referência identificado por ref_idx do bloco-alvo, um processo de escalamento do vetor de movimento na informação de movimento preditiva pode ser executado com base no número de quadros do quadro alvo de codificação e nos dois quadros de referência. A saber, o vetor de movimento na informação de movimento preditiva é escalado para ser convertido em um vetor de movimento para o quadro de referência identificado pelo bloco-alvo e o vetor de movimento após a conversão é usado como um preditor de vetor de movimento.
[0107] A Figura 13 mostra um fluxograma da unidade de reconstrução de informação de movimento de número zero 212. Primeiro, a etapa S451 é inserir dados decodificados das informações secundárias de número zero (ref_idx[0] e mvp_idx[0] e mvd[0]). A seguir, a etapa S452 é inserir a informação de movimento indicada por mvp_idx[0], a partir da informação de movimento do blocos adjacentes conforme mostrado na Figura 7 (excluindo a informação de movimento do bloco 400 devido ao fato de ser indeterminada), com base em ref_idx[0] e mvp _idx[0] inserido dessa forma, e derivar o preditor de vetor de movimento (pmv[0][ref_idx[0]][mvp_idx[0]]). Nesse momento, se o quadro de referência identificado por ref_idx for diferente do quadro de referência identificado por ref_idx do bloco-alvo, um processo de escalamento do vetor de movimento na informação de movimento preditiva pode ser executado com base no número de quadros do quadro alvo de codificação e nos dois quadros de referência. Posteriormente, a etapa S453 é adicionar o preditor de vetor de movimento gerado à diferença de vetor de movimento para reconstruir o vetor de movimento de número zero (mv[0] = pmv[0][ref_idx[0]][mvp_idx[0]] + mvd[0]). Finalmente, a etapa S454 é
Petição 870180034478, de 27/04/2018, pág. 55/117
48/71 emitir a informação de movimento de número zero (ref_idx[0] e mv[0]) para a unidade de compensação de movimento 207 e a memória de informação de movimento 113, seguido pelo fim do processamento.
[0108] A Figura 12 mostra um fluxograma da primeira unidade de reconstrução de informação de movimento 211. Primeiro, a etapa S401 é inserir dados decodificados das primeiras informações secundárias (ref_idx[1] e mvp_idx[1]) e a etapa S402 é definir 0 para os valores de vetor da diferença de vetor de movimento (mvd[1]). A seguir, a etapa S403 é inserir a informação de movimento indicada por mvp_idx[1] a partir da informação de movimento previamente decodificada (em que n=4 pode ser incluído) conforme mostrado na Figura 7, com base em ref_idx[1] e mvp_idx[1] inseridos dessa forma, e derivar o preditor de vetor de movimento (pmv[1][ref_idx[1]][mvp_idx[1]]). Nesse momento, se o quadro de referência identificado por ref_idx é diferente do quadro de referência identificado por ref_idx do bloco-alvo, um processo de escalamento do vetor de movimento na informação de movimento preditiva pode ser executado com base no número de quadros do quadro alvo de codificação e nos dois quadros de referência. Posteriormente, a etapa S404 é adicionar o preditor de vetor de movimento gerado à diferença de vetor de movimento para reconstruir o primeiro vetor de movimento (mv[1] = pmv[1][ref_idx[1]][mvp_idx[1]] + mvd[1]). Finalmente, a etapa S405 é emitir a primeira informação de movimento (ref_idx[1] e mv[1]) para a unidade de compensação de movimento 207 e a memória de informação de movimento 113, seguido pelo fim do processamento. Uma vez que os valores de vetor de mvd[1] são 0 nesse exemplo, a etapa S402 pode ser omitida e a etapa S404 pode ser modificada com a finalidade de definir o preditor de vetor de movimento para o vetor de movimento (mv[1] = pmv[1][ref_idx[1]][mvp_idx[1]]).
Petição 870180034478, de 27/04/2018, pág. 56/117
49/71 [0109] A seguir, o método de decodificação preditiva de vídeo no dispositivo de decodificação preditiva de vídeo 200 mostrado na Figura 10 será descrito com o uso da Figura 14. Primeiro, os dados comprimidos são inseridos através do terminal de entrada 201 (etapa S201). Então, a unidade de decodificação 202 executa análise de dados dos dados comprimidos e executa decodificação de entropia dos mesmos para decodificar as informações secundárias de número zero e as primeiras informações secundárias usadas para geração dos sinais bipreditos e os coeficientes de transformada quantizados (etapa S202).
[0110] A seguir, a unidade de reconstrução de informação de movimento de número zero 212 que forma a unidade de reconstrução de informação de movimento 208 reconstrói a informação de movimento de número zero, com o uso das informações secundárias de número zero e da informação de movimento dos blocos adjacentes armazenados na memória de informação de movimento 113 (etapa S250). Os detalhes dessa etapa já foram descritos na Figura 13.
[0111] Subsequentemente, a primeira unidade de reconstrução de informação de movimento 211 que forma a unidade de reconstrução de informação de movimento 208 reconstrói a primeira informação de movimento, com o uso das primeiras informações secundárias e da informação de movimento dos blocos adjacentes armazenados na memória de informação de movimento 113 (etapa S200). Os detalhes dessa etapa já foram descritos na Figura 12.
[0112] A seguir, a unidade de compensação de movimento 207 gera o sinal bipredito do bloco-alvo de decodificação, com base na informação de movimento reconstruída, e armazena a informação de movimento na memória de informação de movimento 113 (S207).
Petição 870180034478, de 27/04/2018, pág. 57/117
50/71 [0113] A unidade de quantização inversa 203 executa a quantização inversa dos coeficientes de transformada quantizados decodificados pela unidade de decodificação 202 e a unidade de transformada inversa 204 executa a transformada inversa para gerar um sinal residual reproduzido (S208). Então, o sinal bipredito gerado é adicionado ao sinal residual reproduzido para gerar um sinal reproduzido e esse sinal reproduzido é armazenado para a reprodução do bloco-alvo de decodificação seguinte na memória de quadro 104 (etapa S209). Os processos de S202 a S209 são repetidamente executados desde que os dados comprimidos seguintes existam (S210) e todos os dados sejam processados até o fim.
[0114] A seguir, uma técnica de uso seletivo de uma pluralidade de métodos de bipredição que inclui a presente invenção será descrita. A bipredição de codificação de uma única diferença de vetor de movimento conforme descrito acima (que será chamada de bipredição tipo 2) pode ser usada adaptativamente em combinação com uma bipredição convencional de codificação de duas diferenças de vetor de movimento (que será chamada de bipredição tipo 1) e a unipredição. Esses sistemas de predição podem ser usados com uma comutação em unidade de quadro, em unidade de fatia de um grupo de blocos, ou em unidade de bloco. Os processos de comutação aplicáveis na presente invenção incluem um método de codificação de informação de comutação e um método de fazer o lado decodificador determinar a comutação com base no número de quadros dos quadros de referência.
[0115] O processo de comutação entre a bipredição tipo 1 e a bipredição tipo 2 pode ser implementado através da adição à primeira unidade de estimação de informação de movimento 121 na Figura 2, uma função de correspondência de bloco e uma função para calcular uma diferença de vetor
Petição 870180034478, de 27/04/2018, pág. 58/117
51/71 de movimento através da subtração de um vetor preditivo de um vetor de movimento detectado por pesquisa, e através da adição à primeira unidade de reconstrução de informação de movimento na Figura 11, uma função para derivar uma diferença de vetor de movimento da unidade de decodificação.
[0116] Os métodos específicos serão descritos abaixo.
(Comutação em Unidade de Quadro/Fatia e Codificação de Informação de Comutação de Tipo de Bipredição) [0117] Para a comutação entre bipredição tipo 1 e bipredição tipo 2 em unidade de quadro/fatia, a informação de comutação de tipo de bipredição (por exemplo, BiPred_type) é codificada conforme incluído em um cabeçalho de um quadro ou uma fatia.
[0118] Quando todos os quadros de referência candidatos são quadros passados na ordem de exibição em relação ao quadro alvo de codificação como na Figura 5 (A), a bipredição tipo 2 é efetiva e, dessa forma, o lado codificador seleciona o uso da bipredição tipo 2. Então, o dispositivo de codificação codifica informações de indicação para indicar bipredição tipo 2 (por exemplo, BiPred_type = 1), na informação de cabeçalho de um quadro ou uma fatia. Por outro lado, quando os quadros de referência candidatos incluem um quadro futuro na ordem de exibição em relação ao quadro alvo de codificação como na Figura 5 (B), o dispositivo de codificação seleciona a bipredição tipo 1 e codifica a informação de indicação para indicar a bipredição tipo 1 (por exemplo, BiPred_type = 0), na informação de cabeçalho de um quadro ou uma fatia.
[0119] Quando a bipredição tipo 1 é usada, um vetor de movimento mv[1] é pesquisado e mvd[1] é incluído nas primeiras informações secundárias, similares às informações secundárias de número zero (dados codificados de ref_idx[0] e mvd[0] e mvp_idx[0]), conforme codificado junto
Petição 870180034478, de 27/04/2018, pág. 59/117
52/71 com ref_idx[1] e mvpidx[1], em codificação de um bloco em um quadro ou em uma fatia. Quando a bipredição tipo 2 é usada, ref_idx[0] e mvd[0] e mvp_idx[0] são codificados como as informações secundárias de número zero, e ref_idx[1] e mvp_idx[1] são codificados como as primeiras informações secundárias.
[0120] O lado decodificador comuta o método de reconstrução de mvd[1], na decodificação de cada bloco em um quadro ou em uma fatia, com base nas informações de indicação decodificadas a partir da informação de cabeçalho do quadro ou da fatia. A saber, quando as informações de indicação indicativas de bipredição tipo 1 (por exemplo, BiPred_type = 0) são decodificadas, a primeira informação secundária é decodificada incluindo mvd[1], junto com ref_idx[1] e mvp_idx[1], na decodificação de cada bloco no quadro ou na fatia. Quando as informações de indicação indicativas de bipredição tipo 2 (por exemplo, BiPred_type = 1) são decodificadas, a primeira informação secundária é decodificada para obter ref_idx[1] e mvp_idx[1] e 0 é definido para valores de vetor horizontal e vertical de mvd[1], na decodificação de cada bloco no quadro ou na fatia. As informações secundárias de número zero são decodificadas para obter ref_idx[0] e mvd[0] e mvp_idx[0], independentemente do valor das informações de indicação.
[0121] O método de comutação entre bipredição tipo 1 e bipredição tipo 2 no lado codificador não precisa depender do método descrito na presente invenção. Por exemplo, a bipredição tipo 2 pode ser usada se todos os quadros de referência forem quadros futuros na ordem de exibição em relação ao quadro alvo de codificação. Também é possível adotar um método de verificação de eficiências de codificação na aplicação real de bipredição tipo 1 e bipredição tipo 2 (por exemplo, valores de avaliação obtidos através da conversão da soma de diferenças quadradas de um sinal de erro de
Petição 870180034478, de 27/04/2018, pág. 60/117
53/71 codificação + contagem de bits de codificação) e selecionar um tipo com uma eficiência de codificação mais alta.
[0122] Adicionalmente, no caso de um método de codificação de uso adaptativo de uma pluralidade de tamanhos de bloco conforme mostrado na Figura 8, a informação de indicação indicativa de comutação entre bipredição tipo 1 e bipredição tipo 2 pode ser individualmente enviada para cada um dos diferentes tamanhos de bloco, no cabeçalho de quadro ou fatia. Por exemplo, quando os tamanhos de bloco são 64x64, 32x32, 16x16 e 8x8, quatro pedaços de informações de indicação são codificados.
[0123] Quando tanto a unipredição quanto a bipredição são aplicadas a um método de predição de bloco, o lado codificador seleciona um tipo de predição (unipredição ou bipredição) e codifica isso conforme incluído nas informações secundárias. Então, o processo de comutação entre bipredição tipo 1 e bipredição tipo 2 é executado apenas com blocos para os quais a bipredição é selecionada. O lado decodificador executa o processo de comutação entre a bipredição tipo 1 e a bipredição tipo 2 apenas com os blocos para os quais a informação indicativa de bipredição como um tipo de predição é decodificada.
(Comutação em Unidade de Quadro/Fatia e Determinação Com base em Número de Quadros de Quadros de referência) [0124] Os quadros de referência candidatos mostrados na Figura 5 (A) e na Figura 5 (B) são iguais no lado codificador e no lado decodificador. Por essa razão, qual dentre bipredição tipo 1 e bipredição tipo 2 deve ser usada pode ser determinado com base no número de quadros dos quadros de referência candidatos e no número de quadro do quadro alvo de codificação. A saber, a bipredição tipo 2 é usada quando todos os quadros de referência candidatos são quadros passados na ordem de exibição em relação ao quadro
Petição 870180034478, de 27/04/2018, pág. 61/117
54/71 alvo de codificação; a bipredição tipo 1 é usada quando os quadros de referência candidatos incluem um quadro futuro na ordem de exibição em relação ao quadro alvo de codificação. Esse método não requer a transmissão de informações de indicação.
[0125] Também é possível aplicar bipredição tipo 2 quando todos os quadros de referência candidatos são quadros futuros na ordem de exibição em relação ao quadro alvo de codificação.
(Comutação em Unidade de bloco e Codificação de Informação de
Comutação) [0126] No caso de comutação entre bipredição tipo 1 e bipredição tipo 2 em unidade de bloco, a informação de comutação de tipo de bipredição (por exemplo, BiPred_block_type) é codificada como incluído nas informações secundárias de cada bloco.
[0127] Uma vez que a bipredição tipo 2 é efetiva quando dois quadros de referência em bipredição são quadros passados na ordem de exibição em relação ao quadro alvo de codificação, o lado codificador seleciona o uso de bipredição tipo 2. Então, o dispositivo de codificação adiciona informações de indicação indicativas de bipredição tipo 2 (por exemplo, BiPred_block_type = 1) para as informações secundárias do bloco e codifica isso junto com ref_idx[0], mvd[0] e mvp_idx[0] das informações secundárias de número zero e ref_idx[1] e mvp_idx[1] das primeiras informações secundárias. Por outro lado, quando os dois quadros de referência em bipredição incluem um quadro futuro na ordem de exibição em relação ao quadro alvo de codificação, o lado codificador seleciona bipredição tipo 1. Então, o dispositivo de codificação adiciona informações de indicação indicativas de bipredição tipo 1 (por exemplo, BiPred_block_type = 0) às informações secundárias do bloco e codifica isso junto com ref_idx[0], mvd[0], e mvp_idx[0] das informações
Petição 870180034478, de 27/04/2018, pág. 62/117
55/71 secundárias de número zero e ref_idx[1] , mvd[1] (mvd[1] é incluído nas primeiras informações secundárias), e mvp_idx[1] das primeiras informações secundárias.
[0128] O lado decodificador decodifica as informações secundárias do bloco que incluem a informação de comutação de tipo de bipredição (por exemplo, BiPred_block_type) e comuta o método de reconstrução de mvd[1], com base em um valor decodificado. Especificamente, quando as informações de indicação indicativas de bipredição tipo 1 (por exemplo, BiPred_block_type = 0) são decodificadas como as informações secundárias do bloco, o dispositivo de decodificação decodifica ref_idx[0] e mvd[0] e mvp_idx[0] como as informações secundárias de número zero e decodifica ref_idx[1] e mvd[1] e mvp_idx[1] como as primeiras informações secundárias. Por outro lado, quando as informações de indicação indicativas de bipredição tipo 2 (por exemplo, BiPred_block_type = 1) são decodificadas como as informações secundárias do bloco, o dispositivo de decodificação decodifica ref_idx[0] e mvd[0] e mvp_idx[0] como a informação secundária de número zero, decodifica ref_idx[1] e mvp_idx[1] como as primeiras informações secundárias e define 0 para valores de vetor horizontal e vertical de mvd[1].
[0129] O método de comutação entre bipredição tipo 1 e bipredição tipo 2 no lado codificador não precisa depender do método descrito na presente invenção. Por exemplo, quando ambos os dois quadros de referência são quadros futuros na ordem de exibição em relação ao quadro alvo de codificação, a bipredição tipo 2 pode ser aplicada. Também é possível adotar um método de verificação de eficiências de codificação em aplicação real de bipredição tipo 1 e bipredição tipo 2 (por exemplo, valores de avaliação obtidos através da conversão da soma de diferenças quadradas de um sinal de erro de codificação + contagem de bit de codificação) para cada bloco, e
Petição 870180034478, de 27/04/2018, pág. 63/117
56/71 selecionar um tipo com uma eficiência de codificação maior.
[0130] Quando tanto a unipredição quanto a bipredição são aplicadas ao método de predição de bloco, o lado codificador seleciona um tipo de predição (unipredição ou bipredição) e codifica isso conforme incluído nas informações secundárias. Então, o processo de comutação entre bipredição tipo 1 e bipredição tipo 2 é executado apenas com blocos para os quais a bipredição é selecionada. O lado decodificador executa o processo de comutação entre bipredição tipo 1 e bipredição tipo 2 apenas com blocos para os quais a informação indicativa de bipredição como um tipo de predição é decodificada. (Comutação em Unidade de bloco e Determinação Com Base em Número de Quadros de Quadros de Referência) [0131] Os quadros de referência candidatos mostrados na Figura 5 (A) e na Figura 5 (B) são iguais no lado codificador e no lado decodificador. Por essa razão, qual dentre bipredição tipo 1 e bipredição tipo 2 deve ser usada pode ser determinado com base no número de quadros dos dois quadros de referência usados em bipredição, que são codificados/decodificados como as informações secundárias de bloco, e o número de quadro do quadro alvo de codificação. A saber, a bipredição tipo 2 é aplicada quando os dois quadros de referência usados na bipredição são quadros passados na ordem de exibição em relação ao quadro de alvo de codificação; bipredição tipo 1 é aplicada quando um ou ambos os dois quadros de referência são quadros futuros na ordem de exibição em relação ao quadro alvo de codificação. Esse método não requer a transmissão de informação de indicação. A bipredição tipo 2 pode ser aplicada quando ambos os dois quadros de referência são quadros futuros na ordem de exibição em relação ao quadro alvo de codificação.
(Combinação de Comutação em Unidade de Quadro/Fatia e Comutação em Unidade de Bloco)
Petição 870180034478, de 27/04/2018, pág. 64/117
57/71 [0132] Em unidade de quadro/fatia, as informações de indicação para indicar se a comutação de tipo de bipredição deve ser executada em unidade de quadro/fatia ou em unidade de bloco são codificadas/decodificadas.
[0133] Quando a comutação de tipo de bipredição é executada em unidade de quadro/fatia, a informação de comutação de tipo de bipredição (por exemplo, BiPred_type) é adicionalmente codificada/decodificada conforme incluído em um cabeçalho de um quadro ou fatia, conforme descrito acima. Nessa ocasião, no caso do método de codificação de uso adaptativo de uma pluralidade de tamanhos de bloco conforme mostrado na Figura 8, as informações de indicação para indicar a comutação entre bipredição tipo 1 e bipredição tipo 2 podem ser individualmente envidas para cada um dos diferentes tamanhos de bloco, no cabeçalho de quadro ou fatia. Por exemplo, quando os tamanhos de bloco são 64x64, 32x32, 16x16, e 8x8, quatro pedaços de informações de indicação são codificados.
[0134] Quando a comutação de tipo de bipredição é executada em unidade de quadro de bloco, a informação de comutação de tipo de bipredição (por exemplo, BiPred_block_type) é adicionalmente codificada/decodificada conforme incluído nas informações secundárias de um bloco, em unidade de bloco, conforme descrito acima. Nessa ocasião, adicionalmente, no caso do método de codificação de uso adaptativo de uma pluralidade de tamanhos de bloco conforme mostrado na Figura 8, as informações de indicação para indicar se o processo de comutação entre a bipredição tipo 1 e a bipredição tipo 2 deve ser executado podem ser individualmente transmitidas para cada um dos diferentes tamanhos de bloco, no cabeçalho de quadro ou fatia. Por exemplo, quando os tamanhos de bloco são 64x64, 32x32, 16x16, e 8x8, quatro pedaços de informações de indicação são codificados.
Petição 870180034478, de 27/04/2018, pág. 65/117
58/71 [0135] Também é possível codificar/decodificar as informações de indicação para indicar a aplicação apenas de bipredição tipo 1, aplicação apenas de bipredição tipo 2 ou comutação entre os dois tipos de bipredição em cada bloco em um quadro/fatia, em unidade de quadro/fatia. Nessa ocasião, no caso do método de codificação de uso adaptativo de uma pluralidade de tamanhos de bloco conforme mostrado na Figura 8, as informações de indicação podem ser individualmente transmitidas para cada um dos diferentes tamanhos de bloco.
[0136] Em um outro método, as informações de indicação para indicar se a bipredição tipo 2 deve ser aplicada são codificadas/decodificadas em unidade de quadro/fatia. Em um quadro/fatia que usa bipredição tipo 2, a informação de indicação pode ser adicionalmente codificada/decodificada para indicar se a comutação entre bipredição tipo 1 e bipredição tipo 2 deve ser executada em cada bloco no quadro/fatia, ou para indicar se a bipredição tipo 2 é aplicada em todos os blocos no quadro/fatia. Nessa ocasião, no caso do método de codificação de uso adaptativo de uma pluralidade de tamanhos de bloco conforme mostrado na Figura 8, esses pedaços de informações de indicação podem ser individualmente transmitidos para cada um dos diferentes tamanhos de bloco, no cabeçalho de quadro ou fatia.
[0137] Na descrição acima, a informação de movimento de número zero do bloco-alvo 400 foi incluída nos candidatos para o primeiro preditor de vetor de movimento mostrado na Figura 7. Entretanto, também é possível preparar separadamente como bipredição tipo 3 um método de definição da informação de movimento de número zero como a primeira informação de movimento preditiva, escalando a informação de movimento preditiva, com base no primeiro índice de quadro de referência incluído na informação de movimento de número zero e no primeiro índice de quadro de referência
Petição 870180034478, de 27/04/2018, pág. 66/117
59/71 incluído na primeira informação de movimento e usando o resultado escalado como a primeira informação de movimento. A saber, o escalamento é executado de modo que o vetor de movimento incluído na informação de movimento de número zero se torne o vetor de movimento do quadro de referência indicado pelo índice de quadro de referência da primeira informação de movimento. Nesse caso, a informação de movimento de número zero do bloco-alvo não precisa ser incluída nos candidatos para a primeira informação de movimento preditiva em bipredição tipo 2 (n=4 na Figura 7 é excluído dos candidatos). Quando a bipredição tipo 3 é aplicada, a codificação/decodificação do primeiro índice de preditor de vetor de movimento não é executada. A saber, as primeiras informações secundárias são codificadas/decodificadas, incluindo o primeiro índice de quadro de referência (ref_idx[1]), mas não incluindo a diferença de vetor de movimento (mvd[1]) e o primeiro índice de preditor de vetor de movimento (mvp_idx[1]).
[0138] Um método de aplicação de bipredição tipo 3 pode ser para codificar/decodificar informações de indicação para indicar a comutação dentre bipredição tipo 1, bipredição tipo 2 e bipredição tipo 3, em unidade de quadro/fatia ou em unidade de bloco. Também é possível codificar/decodificar informações de indicação para indicar a comutação entre bipredição tipo 1 e bipredição tipo 3 ou a comutação entre bipredição tipo 2 e bipredição tipo 3, em unidade de quadro/fatia ou em unidade de bloco.
[0139] Também é concebível empregar um método de uso disso como um substituto para bipredição tipo 1 na descrição acima. A saber, a bipredição tipo 3 é aplicada quando a pluralidade de quadros de referência candidatos inclui um quadro futuro na ordem de exibição em relação ao quadro alvo de codificação; bipredição tipo 2 é aplicada quando a pluralidade de quadros de referência candidatos são todos quadros passados na ordem de
Petição 870180034478, de 27/04/2018, pág. 67/117
60/71 exibição em relação ao quadro alvo de codificação.
[0140] Em um outro método aplicável, quando o quadro de referência indicado pelo índice de quadro de referência na informação de movimento de número zero é diferente do quadro de referência indicado pelo índice de quadro de referência na primeira informação de movimento, a bipredição tipo 3 é aplicada em vez de bipredição tipo 2 (com nenhuma necessidade de codificação/decodificação do primeiro índice de preditor de vetor de movimento). Por outro lado, quando o quadro de referência indicado pelo índice de quadro de referência na informação de movimento de número zero é igual ao quadro de referência indicado pelo índice de quadro de referência na primeira informação de movimento, a bipredição tipo 2 é aplicada (com codificação/decodificação do primeiro índice de preditor de vetor de movimento).
[0141] A informação de comutação de tipo de bipredição não precisa ser limitada à informação de identificação tal como BiPred_type ou BiPred_block_type. Isso pode ser qualquer informação para indicar se a codificação/decodificação de diferença de vetor de movimento deve ser executada. Por exemplo, informação de marcação pode ser codificada/decodificada para indicar se mvd é incluído nas primeiras informações secundárias ou nas informações secundárias de número zero como mvd_list1_zero_flag ou mvd_list0_zero_flag. Quando a bipredição tipo 1, a bipredição tipo 2 e a bipredição tipo 3 são comutadas em unidade de quadro/fatia ou em unidade de bloco, uma marcação para indicar que mvd não é incluído nas informações secundárias é enviada na aplicação de qualquer entre bipredição tipo 2 e bipredição tipo 3. A comutação entre bipredição tipo 2 e bipredição tipo 3 pode ser executada com base nos índices de quadro de referência conforme descrito acima (bipredição tipo 2 é aplicada quando o
Petição 870180034478, de 27/04/2018, pág. 68/117
61/71 quadro de referência indicado pelo índice de quadro de referência na informação de movimento de número zero é igual ao quadro de referência indicado pelo índice de quadro de referência na primeira informação de movimento), e a informação de seleção pode ser adicionalmente codificada/decodificada.
[0142] A Figura 15 é um diagrama de bloco que mostra módulos de um programa que pode executar o método de codificação preditiva de vídeo. Conforme mostrado na Figura 15 (A), o programa de codificação preditiva de vídeo P100 é dotado de um módulo de divisão de bloco P101, um módulo de geração de sinal predito P103, um módulo de armazenamento P104, um módulo de subtração P105, um módulo de transformada P106, um módulo de quantização P107, um módulo de quantização inversa P108, um módulo de transformada inversa P109, um módulo de adição P110, um módulo de codificação P111 e um módulo de armazenamento de informação de movimento P113. Adicionalmente, conforme mostrado na Figura 15 (B), o módulo de geração de sinal predito P103 é dotado de um primeiro módulo de estimação de informação de movimento P121, um módulo de estimação de informação de movimento de número zero P122 e um módulo de combinação de sinal predito P123. As funções implementadas pela execução dos respectivos módulos acima são as mesmas funções do dispositivo de codificação preditiva de vídeo 100 descrito acima. A saber, as funções dos respectivos módulos no programa de codificação preditiva de vídeo P100 são as mesmas funções da unidade de divisão de bloco 102, da unidade de geração de sinal predito 103, da memória de quadro 104, da unidade de subtração 105, da unidade de transformada 106, da unidade de quantização 107, da unidade de quantização inversa 108, da unidade de transformada inversa 109, da unidade de adição 110, da unidade de codificação 111, da memória de
Petição 870180034478, de 27/04/2018, pág. 69/117
62/71 informação de movimento 113, da primeira unidade de estimação de informação de movimento 121, da unidade de estimação de informação de movimento de número zero 122 e da unidade de combinação de sinal predito 123.
[0143] A Figura 16 é um diagrama de bloco que mostra os módulos de um programa que pode executar o método de decodificação preditiva de vídeo. Conforme mostrado na Figura 16 (A), o programa de decodificação preditiva de vídeo P200 é dotado de um módulo de decodificação P201, um módulo de decodificação de informação de movimento P202, um módulo de compensação de movimento P203, um módulo de armazenamento de informação de movimento P204, um módulo de quantização inversa P205, um módulo de transformada inversa P206, um módulo de adição P207 e um módulo de armazenamento P104. Adicionalmente, conforme mostrado na Figura 16 (B), o módulo de decodificação de informação de movimento P202 é dotado de um primeiro módulo de reconstrução de informação de movimento P211 e um módulo de reconstrução de informação de movimento de número zero P212.
[0144] As funções implementadas pela execução dos respectivos módulos acima são as mesmas que as dos componentes do dispositivo de decodificação preditiva de vídeo 200 supracitado. A saber, as funções dos respectivos módulos no programa de decodificação preditiva de vídeo P200 são as mesmas que as funções da unidade de decodificação 202, da unidade de reconstrução de informação de movimento 208, da unidade de compensação de movimento 207, da memória de informação de movimento 113, da unidade de quantização inversa 203, da unidade de transformada inversa 204, da unidade de adição 205, da memória de quadro 104, da primeira unidade de reconstrução de informação de movimento 211 e da unidade de reconstrução
Petição 870180034478, de 27/04/2018, pág. 70/117
63/71 de informação de movimento de número zero 212.
[0145] O programa de codificação preditiva de vídeo P100 ou o programa de decodificação preditiva de vídeo P200 configurado conforme descrito acima é armazenado em um meio de armazenamento 10 descrito abaixo mostrado nas Figuras 17 e 18 e é executado por um computador descrito abaixo.
[0146] A Figura 17 é um desenho que mostra uma configuração de hardware de um computador para executar um programa gravado em um meio de armazenamento e a Figura 18 é uma vista em perspectiva de um computador para executar um programa armazenado em um meio de armazenamento. O equipamento para executar o programa armazenado no meio de armazenamento não é limitado a computadores, mas pode ser um reprodutor de DVD, um set-top box, um telefone celular ou similares, dotado de uma CPU e configurado para executar processamento e controle com base em software.
[0147] Conforme mostrado na Figura 17, o computador 30 é dotado de um dispositivo de leitura 12 tal como uma unidade de disco flexível, uma unidade de CD-ROM ou uma unidade de DVD, uma memória de trabalho (RAM) 14 na qual um sistema operacional é residente, uma memória 16 para armazenar um programa armazenado no meio de armazenamento 10, uma unidade de monitor 18 tal como um visor, um mouse 20 e um teclado 22 como dispositivos de entrada, um dispositivo de comunicação 24 para transmissão/recepção de dados e outros e uma CPU 26 para controlar a execução do programa. Quando o meio de armazenamento 10 é colocado no dispositivo de leitura 12, o computador 30 se torna acessível ao programa de codificação ou decodificação preditiva de vídeo armazenado no meio de armazenamento 10, através do dispositivo de leitura 12, e se torna capaz de
Petição 870180034478, de 27/04/2018, pág. 71/117
64/71 operar como dispositivo de codificação de vídeo ou o dispositivo de decodificação de vídeo de acordo com a presente modalidade, com base no programa de codificação ou decodificação de imagem.
[0148] Conforme mostrado na Figura 18, o programa de codificação preditiva de vídeo e o programa de decodificação preditiva de vídeo pode ser fornecido na forma de sinal de dados de computador 40 sobreposto em uma onda portadora, através de uma rede. Nesse caso, o computador 30 armazena o programa de codificação preditiva de vídeo ou o programa de decodificação preditiva de vídeo recebido através do dispositivo de comunicação 24, na memória 16 e se torna capaz de executar o programa de codificação preditiva de vídeo ou o programa de decodificação preditiva de vídeo.
[0149] Na presente invenção, é possível empregar adicionalmente modificações conforme descrito abaixo.
(1) Relação entre informações secundárias de número zero e primeiras informações secundárias [0150] Na descrição acima, as primeiras informações secundárias contêm ref_idx[1] e mvp_1dx[1] e as informações secundárias de número zero contêm ref_idx[0] e mvd[0] e mvp_idx[0]; entretanto, essa configuração pode ser invertida. Especificamente, as primeiras informações secundárias contêm ref_idx[1] e mvd[1] e mvp_idx[1] e as informações secundárias de número zero contém ref_idx[0] e mvp_idx[0]. Nesse caso, a informação de movimento preditiva de número zero é gerada a partir da informação de movimento dos blocos adjacentes, o sinal predito de número zero é gerado e, então, uma pesquisa é conduzida para a primeira informação de movimento a fim de minimizar o valor de avaliação da soma de diferenças absolutas entre o sinal bipredito e o sinal original do bloco-alvo + as informações secundárias.
Petição 870180034478, de 27/04/2018, pág. 72/117
65/71 [0151] Em um outro método disponível, as primeiras informações secundárias contêm ref_idx[1] e mvp_idx[1] e as informações secundárias de número zero contêm ref_idx[0] e mvp_idx[0]. A saber, a diferença de vetor de movimento não é codificada e o lado decodificador define 0 para valores de vetor horizontal e vertical das duas diferenças de vetor de movimento. Em um outro método, o preditor de vetor de movimento de número zero e o primeiro preditor de vetor de movimento são definidos para o vetor de movimento de número zero e o primeiro vetor de movimento, respectivamente.
(2) Quadros de referência [0152] Na descrição acima, o índice de quadro de referência é codificado/decodificado conforme incluído nas primeiras informações secundárias, mas pode ser determinado com base no índice de quadro de referência associado à informação de movimento do bloco adjacente indicado por mvp_idx (por exemplo, para os blocos adjacentes 401 a 404 na Figura 7, o índice de quadro de referência associado em List1 é usado como é e, para os blocos adjacentes 410 a 415, um processo de escalamento é aplicado a um vetor de movimento em um bloco adjacente, com base na diferença entre quadros de referência indicados pelos índices de quadro de referência do bloco-alvo e do bloco adjacente). Adicionalmente, o índice de quadro de referência da primeira informação de movimento pode ser preliminarmente determinado. Uma vez que o índice de quadro de referência pode ser unicamente reconstruído no lado decodificador nesses casos, o índice de quadro de referência ref_idx não precisa ser codificado conforme incluído nas primeiras informações secundárias.
[0153] A seleção de quadros de referência e as listas dos mesmos não são limitadas aos exemplos da Figura 5 e da Figura 6. As listas de quadro de referência podem ser codificadas em unidade de quadro/fatia e o número de
Petição 870180034478, de 27/04/2018, pág. 73/117
66/71 quadros de referência nem sempre precisa ser 4 como na Figura 5, mas a presente invenção pode ser executada com qualquer outro número.
(3) Informação de Movimento Preditiva [0154] As modalidades acima usaram vários pedaços de informação de movimento previamente codificada/previamente decodificada como candidatos para informação de movimento preditiva conforme mostrado na Figura 7, mas o número e as posições de blocos adjacentes a serem usados não são limitados a esses.
[0155] A bipredição da presente invenção também pode ser executada em uma configuração em que o vetor de movimento de número zero do bloco adjacente é incluído nos candidatos para o primeiro preditor de vetor de movimento e o primeiro vetor de movimento do bloco adjacente é incluído nos candidatos para o preditor de vetor de movimento de número zero. A informação de movimento de número zero codificada/decodificada antes pode ser adicionada aos candidatos para primeira informação de movimento preditiva.
[0156] A presente invenção não é limitada a se o processo de escalamento de vetor de movimento deve ser executado quando o índice de quadro de referência na informação de movimento previamente codificada/previamente decodificada é diferente do índice de quadro de referência na informação de movimento associada ao bloco-alvo.
[0157] Quando há apenas um candidato para preditor de vetor de movimento, o índice de preditor de vetor de movimento mvp_idx não precisa ser codificado conforme incluído nas primeiras informações secundárias.
[0158] Na presente invenção, também não existem restrições sobre o método de geração do preditor de vetor de movimento. Por exemplo, também é possível adotar como um preditor de vetor de movimento a
Petição 870180034478, de 27/04/2018, pág. 74/117
67/71 mediana de um número ímpar de candidatos para preditor de vetor de movimento. Uma vez que o preditor de vetor de movimento também é unicamente determinado no lado decodificador nesse caso, o índice de preditor de vetor de movimento mvp_idx não precisa ser codificado conforme incluído nas primeiras informações secundárias.
[0159] A bipredição da presente invenção também pode ser executada no caso do método de codificação/decodificação que usa uma pluralidade de tamanhos de bloco, conforme mostrado na Figura 8, desde que um método para determinar os candidatos para informação de movimento preditiva seja definido. Por exemplo, no exemplo da Figura 8, é possível definir os blocos 421 a 428 adjacentes ao bloco-alvo 400 como candidatos para informação preditiva, ou determinar preliminarmente um método de numeração de blocos adjacentes e definir informação de movimento de blocos adjacentes tantas quanto um número designado em unidade de quadro ou em unidade de fatia, como candidatos para preditor de vetor de movimento.
(4) Informação de movimento de número zero e informações secundárias [0160] Na presente invenção, não existem restrições sobre as configurações da informação de movimento de número zero e sobre as informações secundárias; o índice de quadro de referência e o índice de preditor de vetor de movimento podem ser definidos como valores fixos, sem ser codificados, ou podem ser derivados por um método predeterminado.
[0161] Como para a informação de movimento de número zero e para as informações secundárias, similarmente à primeira informação de movimento e às informações secundárias, o lado decodificador pode definir mv[0] = pmv[0] (ou mvd[0] = 0), sem codificar mvd[0].
(5) Número de quadros
Petição 870180034478, de 27/04/2018, pág. 75/117
68/71 [0162] Na descrição acima, o número de quadro (frame_num) é usado para identificar cada um dos quadros de referência e quadro alvo de codificação, mas qualquer outra informação pode ser usada, sem influenciar na implementação da presente invenção, desde que seja informação que permite identificação de cada quadro de referência.
(6) Reconstrução de primeira diferença de vetor de movimento mvd[1] [0163] Na bipredição descrita acima da presente invenção, os valores de vetor da primeira diferença de vetor de movimento mvd[1] são 0. Por essa razão, sem a codificação mvd[1], o lado decodificador define 0 para os valores de vetor de mvd[1] ou define o vetor de movimento mv[1] para pmv[1]. Uma outra modalidade efetiva pode ser um método que inclui mvd[1] = 0 nas primeiras informações secundárias e codificação por entropia eficiente de zeros.
[0164] Quando codificação aritmética é usada para a codificação por entropia, por exemplo, a diferença de vetor de movimento de número zero e a primeira diferença de vetor de movimento são codificadas/decodificadas por modelos de probabilidade diferentes. Por exemplo, dois modelos de probabilidade com diferentes frequências de probabilidade de valores de vetor 0 de diferença de vetor de movimento são preparados para codificação/decodificação da diferença de vetor de movimento. Então, o segundo modelo de probabilidade com a frequência mais alta de valores de vetor 0 de diferença de vetor de movimento é usado para codificação/decodificação da primeira diferença de vetor de movimento, e o outro primeiro modelo de probabilidade é usado para codificação/decodificação da diferença de vetor de movimento de número zero. Adicionalmente, diferentes modelos de probabilidade também podem ser
Petição 870180034478, de 27/04/2018, pág. 76/117
69/71 preparados para valores de vetor horizontal e vertical de diferença de vetor de movimento.
[0165] Em um outro método aplicável, o segundo modelo de probabilidade é usado apenas para a primeira diferença de vetor de movimento de cada bloco ao qual a bipredição tipo 2 é aplicada, e o primeiro modelo de probabilidade é usado para codificação/decodificação das diferenças de vetor de movimento dos outros blocos.
[0166] Quando codificação de comprimento variável é aplicada, a diferença de vetor de movimento de número zero e a primeira diferença de vetor de movimento são codificadas/decodificadas com o uso de diferentes tabelas de código de comprimento variável. Por exemplo, duas tabelas de código de comprimento variável com diferentes comprimentos de código atribuídos aos valores de vetor 0 da diferença de vetor de movimento são preparadas. Então, a segunda tabela de código de comprimento variável com um comprimento de código mais curto atribuído aos valores de vetor 0 da diferença de vetor de movimento é usada para codificação/decodificação da primeira diferença de vetor de movimento, e a outra primeira tabela de código de comprimento variável é usada para codificação/decodificação da diferença de vetor de movimento de número zero. Adicionalmente, tabelas de código de comprimento variável separadas podem ser preparadas para valores de vetor horizontal e vertical de diferença de vetor de movimento.
[0167] Em outro método aplicável, a segunda tabela de código de comprimento variável é usada apenas para a primeira diferença de vetor de movimento de cada bloco ao qual a bipredição tipo 2 é aplicada, e a primeira tabela de código de comprimento variável é usada para codificação/decodificação das diferenças de vetor de movimento dos outros blocos.
Petição 870180034478, de 27/04/2018, pág. 77/117
70/71 (7) N-predição [0168] Na descrição acima, os tipos de predição de predição interquadro são unipredição e bipredição, mas a presente invenção também pode ser aplicada a métodos de predição de combinação de três ou mais sinais preditos. Quando o sinal predito é gerado através da combinação de três ou mais sinais preditos, o número de pedaços de informações secundárias sem mvd pode ser qualquer número não menor que 1.
(8) Unidade de transformada e unidade de transformada inversa [0169] O processo de transformada de sinal residual pode ser executado em um tamanho de bloco fixo ou o processo de transformada pode ser executado em cada uma das sub-regiões obtidas através da subdivisão de uma região-alvo em sub-regiões.
(9) Sinal de cor [0170] Não há descrição específica sobre o formato de cor nas modalidades acima, mas o processo de geração de sinal predito também pode ser executado para sinal de cor ou sinal residual de cor, separadamente do sinal de luminância. Isso também pode ser executado em sincronização com o processamento de sinal de luminância.
[0171] A presente invenção foi descrita acima em detalhe com base nas modalidades da mesma. Deve, entretanto, ser observado que a presente invenção é, de forma alguma, limitada às modalidades acima. A presente invenção pode ser modificada de várias maneiras sem que se afaste do escopo e do espírito da invenção.
Listagem de Símbolos de Referência [0172] 100: dispositivo de codificação preditiva de vídeo; 101:
terminal de entrada; 102: unidade de divisão de bloco; 103: unidade de geração de sinal predito; 104: memória de quadro; 105: unidade de subtração;
Petição 870180034478, de 27/04/2018, pág. 78/117
71/71
106: unidade de transformada; 107: unidade de quantização; 108: unidade de quantização inversa; 109: unidade de transformada inversa; 110: unidade de adição; 111: unidade de codificação; 112: terminal de saída; 113: memória de informação de movimento; 121: primeira unidade de estimação de informação de movimento; 122: unidade de estimação de informação de movimento de número zero; 123: unidade de combinação de sinal predito; 201: terminal de entrada; 202: unidade de decodificação; 203: unidade de quantização inversa; 204: unidade de transformada inversa; 205: unidade de adição; 206: terminal de saída; 207: unidade de compensação de movimento; 208: unidade de reconstrução de informação de movimento; 211: primeira unidade de reconstrução de informação de movimento; 212: unidade de reconstrução de informação de movimento preditiva de número zero.
Petição 870180034478, de 27/04/2018, pág. 79/117
1/12

Claims (12)

  1. REIVINDICAÇÕES
    1. Dispositivo de codificação preditiva de vídeo caracterizado por compreender:
    meio de divisão de região que divide uma imagem de entrada em uma pluralidade de regiões;
    meio de geração de sinal predito que determina um vetor de movimento para derivar, a partir de uma imagem previamente reproduzida, um sinal que é adquirido como um alvo de codificação proveniente das regiões divididas pelo meio de divisão de região;
    meio de armazenamento de informações de movimento que armazena o vetor de movimento;
    meio de geração de sinal residual que gera um sinal residual entre um sinal predito da região-alvo e um sinal de pixel da região-alvo;
    meio de compressão de sinal residual que comprime o sinal residual gerado pelo meio de geração de sinal residual;
    meio de reconstrução de sinal residual que gera um sinal residual reproduzido por meio da reconstrução de dados comprimidos do sinal residual;
    meio de codificação que seleciona e codifica um preditor de vetor de movimento para um vetor de movimento da região-alvo, em que o preditor de vetor de movimento é selecionado a partir de: vetores de movimento previamente reproduzidos armazenados no meio de armazenamento de informações de movimento, informações secundárias determinadas a partir do vetor de movimento da região-alvo e os dados comprimidos do sinal residual; e meio de armazenamento de imagem que adiciona o sinal predito ao sinal residual reproduzido para reconstruir um sinal de pixel da região-alvo e que armazena o sinal de pixel reconstruído como a imagem previamente reproduzida;
    Petição 870180034478, de 27/04/2018, pág. 80/117
  2. 2/12 em que o vetor de movimento inclui um vetor de movimento número zero usado para gerar um sinal predito número zero e um primeiro vetor de movimento usado para gerar um primeiro sinal predito; e em que o meio de geração de sinal predito compreende:
    meio de estimação de informações de movimento número zero que estima o vetor de movimento número zero usado para gerar o sinal predito número zero, que seleciona, a partir de uma pluralidade de vetores de movimento armazenados no meio de armazenamento de informações de movimento, um preditor de vetor de movimento número zero para o vetor de movimento número zero estimado e que gera informações secundárias número zero que contêm um índice de preditor de vetor de movimento número zero para identificar o preditor de vetor de movimento número zero selecionado e uma diferença de vetor de movimento determinada do vetor de movimento número zero e do preditor de vetor de movimento número zero;
    primeiro meio de estimação de informações de movimento que seleciona, a partir de uma pluralidade de vetores de movimento armazenados no meio de armazenamento de informações de movimento, um vetor de movimento para a geração do primeiro sinal predito, que gera primeiras informações secundárias que contêm um primeiro índice de preditor de vetor de movimento para identificar o vetor de movimento selecionado como um primeiro preditor de vetor de movimento e que ajusta o primeiro preditor de vetor de movimento como o primeiro vetor de movimento; e meio de combinação de sinal predito que combina o sinal predito número zero e o primeiro sinal predito para gerar o sinal predito da região-alvo.
    2. Dispositivo de codificação preditiva de vídeo, de acordo com a reivindicação 1, caracterizado pelo fato de que:
    o primeiro meio de estimação de informações de movimento estima
    Petição 870180034478, de 27/04/2018, pág. 81/117
  3. 3/12 adicionalmente um segundo vetor de movimento para a obtenção do primeiro sinal predito, a fim de detectar, dessa forma, o segundo vetor de movimento, e o primeiro meio de estimação de informações de movimento seleciona, a partir de uma pluralidade de vetores de movimento armazenados no meio de armazenamento de informações de movimento, um segundo preditor de vetor de movimento para o segundo vetor de movimento estimado e gera segundas informações secundárias que contêm um segundo índice de preditor de vetor de movimento para identificar o preditor de vetor de movimento selecionado e uma diferença de vetor de movimento determinada do segundo vetor de movimento e do segundo preditor de vetor de movimento;
    o meio de geração de sinal predito gera o primeiro sinal predito com o uso do primeiro vetor de movimento ou do segundo vetor de movimento, sendo que o primeiro vetor de movimento é usado quando uma pluralidade de imagens previamente reproduzidas é armazenada em uma ordem de exibição no meio de armazenamento de imagem como imagens passadas em relação a uma imagem alvo de codificação e o segundo vetor de movimento é usado quando a pluralidade de imagens previamente reproduzidas armazenadas na ordem de exibição no meio de armazenamento de imagem inclui uma imagem futura em relação à imagem alvo de codificação; e o meio de codificação codifica informações de indicação para indicar que as primeiras informações secundárias são codificadas ou as segundas informações secundárias são codificadas, em que as primeiras informações secundárias são codificadas em cada quadro ou em cada fatia quando a pluralidade de imagens previamente reproduzidas armazenadas na ordem de exibição no meio de armazenamento de imagem são todas imagens passadas em relação à imagem alvo de codificação e as segundas informações secundárias são codificadas em cada quadro ou em cada fatia quando a pluralidade de imagens previamente
    Petição 870180034478, de 27/04/2018, pág. 82/117
  4. 4/12 reproduzidas armazenadas na ordem de exibição no meio de armazenamento de imagem inclui a imagem futura em relação à imagem alvo de codificação; e o meio de codificação codifica as informações secundárias de cada regiãoalvo, as informações secundárias número zero e as primeiras informações secundárias ou as segundas informações secundárias com base nas informações de indicação.
    3. Dispositivo de decodificação preditiva de vídeo caracterizado por compreender:
    meio de decodificação que decodifica informações secundárias e dados comprimidos de um sinal residual de uma região alvo, que é um alvo a ser decodificado, proveniente de diversos conjuntos de dados comprimidos obtidos codificando-se uma pluralidade de regiões divididas;
    meio de reconstrução de informações de movimento que reconstrói um vetor de movimento usado para gerar um sinal predito da região-alvo das informações secundárias;
    meio de armazenamento de informações de movimento que armazena o vetor de movimento;
    meio de compensação de movimento que gera o sinal predito da regiãoalvo, com base no vetor de movimento;
    meio de reconstrução de sinal residual que reconstrói um sinal residual reproduzido da região-alvo dos dados comprimidos que compreendem o sinal residual; e meio de armazenamento de imagem que adiciona o sinal predito ao sinal residual reproduzido para reconstruir um sinal de pixel da região-alvo e que armazena o sinal de pixel reconstruído como uma imagem previamente reproduzida;
    em que o meio de decodificação decodifica informações secundárias
    Petição 870180034478, de 27/04/2018, pág. 83/117
  5. 5/12 número zero e primeiras informações secundárias;
    em que as informações secundárias número zero contêm uma diferença de vetor de movimento número zero e um índice de preditor de vetor de movimento número zero usado para identificar, como um preditor de vetor de movimento número zero, um vetor de movimento selecionado a partir de uma pluralidade de vetores de movimento armazenados no meio de armazenamento de informações de movimento;
    em que as primeiras informações secundárias contêm um primeiro índice de preditor de vetor de movimento usado para identificar, como um primeiro preditor de vetor de movimento, um vetor de movimento selecionado a partir de uma pluralidade de vetores de movimento armazenados no meio de armazenamento de informações de movimento, em que o meio de reconstrução de informações de movimento compreende:
    meio de reconstrução de informações de movimento número zero, que gera o preditor de vetor de movimento número zero com base no índice de preditor de vetor de movimento número zero e que adiciona o preditor de vetor de movimento número zero gerado à diferença de vetor de movimento número zero para reconstruir um vetor de movimento número zero; e primeiro meio de reconstrução de informações de movimento que gera o primeiro preditor de vetor de movimento com base no primeiro índice de preditor de vetor de movimento para reconstruir o primeiro preditor de vetor de movimento gerado como um primeiro vetor de movimento; e em que o meio de compensação de movimento combina dois sinais obtidos da imagem previamente reproduzida, com base no vetor de movimento número zero e no primeiro vetor de movimento para gerar o sinal predito da região-alvo.
    4. Dispositivo de decodificação preditiva de vídeo, de acordo com a
    Petição 870180034478, de 27/04/2018, pág. 84/117
  6. 6/12 reivindicação 3, caracterizado pelo fato de que:
    o meio de decodificação decodifica adicionalmente informações de indicação para indicar se as primeiras informações secundárias contêm uma diferença de vetor de movimento em cada quadro ou em cada fatia;
    quando as informações de indicação indicam que as primeiras informações secundárias contêm uma primeira diferença de vetor de movimento, o meio de decodificação decodifica a diferença de vetor de movimento como as primeiras informações secundárias; e quando as informações de indicação indicam que as primeiras informações secundárias não contêm a primeira diferença de vetor de movimento, o primeiro meio de reconstrução de informações de movimento gera o primeiro preditor de vetor de movimento com base no primeiro índice de preditor de vetor de movimento e reconstrói o primeiro preditor de vetor de movimento gerado como o primeiro vetor de movimento; e quando as informações de indicação indicam que as primeiras informações secundárias contêm a primeira diferença de vetor de movimento, o primeiro meio de reconstrução de informações de movimento gera o primeiro preditor de vetor de movimento com base no primeiro índice de preditor de vetor de movimento e adiciona o primeiro preditor de vetor de movimento gerado à diferença de vetor de movimento decodificada para gerar e reconstruir o primeiro vetor de movimento.
    5. Método de codificação preditiva de vídeo executado por um dispositivo de codificação preditiva de vídeo caracterizado por compreender:
    uma etapa de divisão de região de divisão de uma imagem de entrada em uma pluralidade de regiões;
    uma etapa de geração de sinal predito de determinação de um vetor de movimento para a obtenção, a partir de uma imagem previamente reproduzida,
    Petição 870180034478, de 27/04/2018, pág. 85/117
  7. 7/12 de um sinal da região-alvo sendo um alvo de codificação dentre as regiões divididas na etapa de divisão de região;
    uma etapa de armazenamento de informações de movimento de armazenamento do vetor de movimento no meio de armazenamento de informações de movimento;
    uma etapa de geração de sinal residual de geração de um sinal residual entre um sinal predito da região-alvo e um sinal de pixel da região-alvo;
    uma etapa de compressão de sinal residual de compressão do sinal residual gerado pela etapa de geração de sinal residual;
    uma etapa de reconstrução de sinal residual de geração de um sinal residual reproduzido por meio de reconstrução de dados comprimidos do sinal residual;
    uma etapa de codificação de seleção e codificação de um preditor de vetor de movimento para um vetor de movimento da região-alvo, em que o preditor de vetor de movimento é selecionado a partir de vetores de movimento previamente reproduzidos armazenados no meio de armazenamento de informações de movimento, de informações secundárias determinadas do vetor de movimento da região-alvo e dos dados comprimidos do sinal residual; e uma etapa de armazenamento de imagem de adição de sinal predito ao sinal residual reproduzido para reconstruir um sinal de pixel da região-alvo e armazenar o sinal de pixel reconstruído como a imagem previamente reproduzida no meio de armazenamento de imagem;
    em que o vetor de movimento inclui um vetor de movimento número zero usado para a geração de um sinal predito número zero e um primeiro vetor de movimento usado para a geração de um primeiro sinal predito; e em que a etapa de geração de sinal predito compreende:
    uma etapa de estimação de informações de movimento número zero que inclui estimar o vetor de movimento número zero para derivação do sinal predito
    Petição 870180034478, de 27/04/2018, pág. 86/117
  8. 8/12 número zero, selecionar um preditor de vetor de movimento número zero para o vetor de movimento número zero estimado a partir de uma pluralidade de vetores de movimento armazenados na etapa de armazenamento de informações de movimento e gerar informações secundárias número zero que contêm um índice de preditor de vetor de movimento número zero que identifica o preditor de vetor de movimento selecionado e uma diferença de vetor de movimento determinada do vetor de movimento número zero e do preditor de vetor de movimento número zero;
    uma primeira etapa de estimação de informações de movimento que compreende: selecionar, a partir de uma pluralidade de vetores de movimento armazenados na etapa de armazenamento de informações de movimento, um vetor de movimento para a geração do primeiro sinal predito, gerar primeiras informações secundárias que contêm um primeiro índice de preditor de vetor de movimento para identificar o vetor de movimento selecionado como um primeiro preditor de vetor de movimento e ajustar o primeiro preditor de vetor de movimento como o primeiro vetor de movimento; e uma etapa de combinação de sinal predito de combinação do sinal predito número zero e do primeiro sinal predito para gerar o sinal predito da região-alvo.
    6. Método de codificação preditiva de vídeo, de acordo com a reivindicação 5, caracterizado pelo fato de que:
    a primeira etapa de estimação de informações de movimento compreende adicionalmente o dispositivo de codificação preditiva de vídeo que estima um segundo vetor de movimento para a obtenção do primeiro sinal predito para detectar, dessa forma, o segundo vetor de movimento, para selecionar, a partir de uma pluralidade de vetores de movimento armazenados na etapa de armazenamento de informações de movimento, um segundo preditor de vetor de movimento para o segundo vetor de movimento estimado e para gerar
    Petição 870180034478, de 27/04/2018, pág. 87/117
  9. 9/12 segundas informações secundárias que contêm um segundo índice de preditor de vetor de movimento para identificar o preditor de vetor de movimento selecionado e uma diferença de vetor de movimento determinada do segundo vetor de movimento e do segundo preditor de vetor de movimento, na etapa de geração de sinal predito, o dispositivo de codificação preditiva de vídeo gera o primeiro sinal predito com o uso do primeiro vetor de movimento ou do segundo vetor de movimento, em que o dispositivo de codificação preditiva de vídeo usa o primeiro vetor de movimento quando uma pluralidade de imagens previamente reproduzidas armazenadas no meio de armazenamento de imagem em uma ordem de exibição são todas imagens passadas em relação a uma imagem alvo de codificação e o dispositivo de codificação preditiva de vídeo usa o segundo vetor de movimento quando a pluralidade de imagens previamente reproduzidas armazenadas no meio de armazenamento de imagem em ordem de exibição inclui uma imagem futura em relação à imagem alvo de codificação; e na etapa de codificação, quando a pluralidade de imagens previamente reproduzidas armazenadas no meio de armazenamento de imagem em ordem de exibição são toda imagens passadas em relação à imagem alvo de codificação, o dispositivo de codificação preditiva de vídeo codifica informações de indicação para indicar que as primeiras informações secundárias são codificadas em cada quadro ou em cada fatia e, quando a pluralidade de imagens previamente reproduzidas armazenadas no meio de armazenamento de imagem em ordem de exibição inclui uma imagem futura em relação à imagem alvo de codificação, o dispositivo de codificação preditiva de vídeo codifica informações de indicação para indicar que as segundas informações secundárias são codificadas em cada quadro ou em cada fatia; e na etapa de codificação, o dispositivo de codificação preditiva de vídeo
    Petição 870180034478, de 27/04/2018, pág. 88/117
  10. 10/12 codifica como informações secundárias de cada região-alvo, as informações secundárias número zero e as primeiras informações secundárias ou as segundas informações secundárias com base nas informações de indicação.
    7. Método de decodificação preditiva de vídeo executado por um dispositivo de decodificação preditiva de vídeo caracterizado por compreender:
    uma etapa de decodificação para decodificar informações secundárias e dados comprimidos de um sinal residual de uma região-alvo, que é um alvo a ser decodificado, proveniente de diversos conjuntos de dados comprimidos obtidos codificando-se uma pluralidade de regiões divididas;
    uma etapa de reconstrução de informações de movimento de restabelecer um vetor de movimento usado para gerar um sinal predito da região-alvo das informações secundárias;
    uma etapa de armazenamento de informações de movimento de armazenamento do vetor de movimento no meio de armazenamento de informações de movimento;
    uma etapa de compensação de movimento de geração do sinal predito da região-alvo, com base no vetor de movimento;
    uma etapa de reconstrução de sinal residual de restabelecimento de um sinal residual reproduzido da região-alvo dos dados comprimidos que compreendem o sinal residual; e uma etapa de armazenamento de imagem de adição do sinal predito ao sinal residual reproduzido para reconstruir um sinal de pixel da região-alvo e armazenar o sinal de pixel reconstruído como uma imagem previamente reproduzida;
    em que, na etapa de decodificação, o dispositivo de decodificação preditiva de vídeo decodifica informações secundárias número zero e as primeiras informações secundárias;
    Petição 870180034478, de 27/04/2018, pág. 89/117
  11. 11/12 em que as informações secundárias número zero contêm uma diferença de vetor de movimento número zero e um índice de preditor de vetor de movimento número zero usado para identificar, como um preditor de vetor de movimento número zero, um vetor de movimento selecionado a partir de uma pluralidade de vetores de movimento armazenados na etapa de armazenamento de informações de movimento;
    em que as primeiras informações secundárias contêm um primeiro índice de preditor de vetor de movimento usado para identificar, como um primeiro preditor de vetor de movimento, um vetor de movimento selecionado a partir de uma pluralidade de vetores de movimento armazenados na etapa de armazenamento de informações de movimento;
    em que a etapa de reconstrução de informações de movimento compreende:
    uma etapa de reconstrução de informações de movimento número zero de geração do preditor de vetor de movimento número zero com base no índice de preditor de vetor de movimento número zero e de adição do preditor de vetor de movimento número zero gerado à diferença de vetor de movimento número zero para reconstruir um vetor de movimento número zero; e uma primeira etapa de reconstrução de informações de movimento de geração do primeiro preditor de vetor de movimento com base no primeiro índice de preditor de vetor de movimento para reconstruir o primeiro preditor de vetor de movimento gerado como um primeiro vetor de movimento; e em que, na etapa de compensação de movimento, o dispositivo de decodificação preditiva de vídeo combina dois sinais adquiridos da imagem previamente reproduzida, com base no vetor de movimento número zero e no primeiro vetor de movimento, para gerar o sinal predito da região-alvo.
    8. Método de decodificação preditiva de vídeo, de acordo com a
    Petição 870180034478, de 27/04/2018, pág. 90/117
  12. 12/12 reivindicação 7, caracterizado pelo fato de que:
    na etapa de decodificação, o dispositivo de decodificação preditiva de vídeo decodifica adicionalmente informações de indicação para indicar se as primeiras informações secundárias contêm uma diferença de vetor de movimento, em cada quadro ou em cada fatia;
    quando as informações de indicação indicam que as primeiras informações secundárias contêm uma primeira diferença de vetor de movimento, o dispositivo de decodificação preditiva de vídeo decodifica a diferença de vetor de movimento como as primeiras informações secundárias; e na primeira etapa de reconstrução de informações de movimento, quando as informações de indicação indicam que as primeiras informações secundárias não contêm a primeira diferença de vetor de movimento, o dispositivo de decodificação preditiva de vídeo gera o primeiro preditor de vetor de movimento, com base no primeiro índice de preditor de vetor de movimento e reconstrói o primeiro preditor de vetor de movimento gerado como o primeiro vetor de movimento; e na primeira etapa de reconstrução de informações de movimento, quando as informações de indicação indicam que as primeiras informações secundárias contêm a primeira diferença de vetor de movimento, o dispositivo de decodificação preditiva de vídeo gera o primeiro preditor de vetor de movimento, com base no primeiro índice de preditor de vetor de movimento e adiciona o primeiro preditor de vetor de movimento gerado à diferença de vetor de movimento decodificada para gerar e reconstruir o primeiro vetor de movimento.
    Petição 870180034478, de 27/04/2018, pág. 91/117
    1/20
BR112014010751-3A 2011-11-07 2012-09-25 Dispositivo e método de codificação preditiva de vídeo e dispositivo e método de decodificação preditiva de vídeo BR112014010751B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011-243490 2011-11-07
JP2011243490A JP5485969B2 (ja) 2011-11-07 2011-11-07 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
PCT/JP2012/074575 WO2013069384A1 (ja) 2011-11-07 2012-09-25 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム

Publications (3)

Publication Number Publication Date
BR112014010751A2 BR112014010751A2 (pt) 2017-04-25
BR112014010751A8 BR112014010751A8 (pt) 2017-12-12
BR112014010751B1 true BR112014010751B1 (pt) 2018-07-31

Family

ID=48289769

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112014010751-3A BR112014010751B1 (pt) 2011-11-07 2012-09-25 Dispositivo e método de codificação preditiva de vídeo e dispositivo e método de decodificação preditiva de vídeo

Country Status (20)

Country Link
US (7) US9615088B2 (pt)
EP (3) EP3301927A1 (pt)
JP (1) JP5485969B2 (pt)
KR (9) KR101833933B1 (pt)
CN (6) CN107071465B (pt)
AU (9) AU2012337138B2 (pt)
BR (1) BR112014010751B1 (pt)
CA (6) CA2977280C (pt)
ES (2) ES2662879T3 (pt)
IN (1) IN2014CN04100A (pt)
MX (3) MX2014005287A (pt)
MY (1) MY166926A (pt)
NO (1) NO3054684T3 (pt)
PL (2) PL2779650T3 (pt)
PT (2) PT3054684T (pt)
RU (9) RU2566980C1 (pt)
SG (1) SG11201402036UA (pt)
TR (1) TR201802964T4 (pt)
TW (9) TWI701943B (pt)
WO (1) WO2013069384A1 (pt)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115460409A (zh) * 2016-01-27 2022-12-09 韩国电子通信研究院 通过使用预测对视频进行编码和解码的方法和装置
US11044493B2 (en) * 2016-02-01 2021-06-22 Sharp Kabushiki Kaisha Prediction image generation device, moving image decoding device, and moving image coding device
US10271062B2 (en) * 2016-03-18 2019-04-23 Google Llc Motion vector prediction through scaling
US10462459B2 (en) * 2016-04-14 2019-10-29 Mediatek Inc. Non-local adaptive loop filter
WO2017201678A1 (zh) * 2016-05-24 2017-11-30 华为技术有限公司 图像预测方法和相关设备
KR102601732B1 (ko) 2016-05-31 2023-11-14 삼성디스플레이 주식회사 영상 부호화 방법 및 영상 복호화 방법
CN112218073A (zh) * 2016-09-30 2021-01-12 华为技术有限公司 视频编码方法、解码方法及终端
WO2019183906A1 (zh) * 2018-03-29 2019-10-03 华为技术有限公司 帧间预测的方法和装置
CN114513671B (zh) * 2018-04-02 2024-04-09 华为技术有限公司 一种视频编解码方法和装置
CN108537820B (zh) * 2018-04-18 2021-02-09 图灵人工智能研究院(南京)有限公司 动态预测方法、系统及所适用的设备
KR102542196B1 (ko) * 2018-05-16 2023-06-12 후아웨이 테크놀러지 컴퍼니 리미티드 비디오 코딩 방법 및 장치
BR112021004060A2 (pt) * 2018-09-04 2021-05-25 Huawei Technologies Co., Ltd. método e dispositivo de obtenção de quadro de referência aplicado a interpredição bidirecional, codificador / decodificador de vídeo, produto de programa de computador, meio de armazenamento legível por computador, e terminal
WO2020050283A1 (en) 2018-09-07 2020-03-12 Panasonic Intellectual Property Corporation Of America System and method for video coding
EP3764725A1 (en) * 2019-07-12 2021-01-13 Panasonic Intellectual Property Corporation of America User equipment and base station
KR20220070355A (ko) 2020-11-22 2022-05-31 고현지 피부 타입을 피지량을 통해 간접적으로 측정하기 위한 목적을 갖는 한지마스크와 제조방법
JP7036893B2 (ja) * 2020-12-14 2022-03-15 ホアウェイ・テクノロジーズ・カンパニー・リミテッド 映像符号化方法、映像復号方法、および端末

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US268967A (en) * 1882-12-12 Geoege willett
CN1155259C (zh) 1996-11-26 2004-06-23 松下电器产业株式会社 运动图象可变比特率编码装置和编码方法
US6404813B1 (en) * 1997-03-27 2002-06-11 At&T Corp. Bidirectionally predicted pictures or video object planes for efficient and flexible video coding
JP3351705B2 (ja) * 1997-04-25 2002-12-03 日本ビクター株式会社 動き補償符号化装置、動き補償符号化方法、及び記録媒体への記録方法
JP3860323B2 (ja) * 1997-10-27 2006-12-20 三菱電機株式会社 画像復号化装置、画像復号化方法
US7184482B2 (en) * 1999-04-17 2007-02-27 Altera Corporation Encoding system using motion vectors to represent frame-to-frame changes, wherein a decoder uses predictions of motion vectors in decoding
US6765964B1 (en) 2000-12-06 2004-07-20 Realnetworks, Inc. System and method for intracoding video data
US7266150B2 (en) * 2001-07-11 2007-09-04 Dolby Laboratories, Inc. Interpolation of video compression frames
US7003035B2 (en) 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
KR20040099100A (ko) * 2002-04-19 2004-11-26 마쯔시다덴기산교 가부시키가이샤 움직임 벡터 계산 방법
EP1422946A4 (en) 2002-07-26 2008-04-02 Matsushita Electric Ind Co Ltd MOVING IMAGE PROCEDURE, MOVABLE IMAGE DECODING METHOD AND RECORD MEDIUM
BR0314824A (pt) * 2002-10-01 2005-08-02 Thomson Licensing Sa Ponderação implìcita de imagens de referência em decodificador de vìdeo
US7646815B2 (en) * 2003-07-15 2010-01-12 Lsi Corporation Intra estimation chroma mode 0 sub-block dependent prediction
US20050013498A1 (en) * 2003-07-18 2005-01-20 Microsoft Corporation Coding of motion vector information
US8064520B2 (en) * 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
CN1225127C (zh) * 2003-09-12 2005-10-26 中国科学院计算技术研究所 一种用于视频编码的编码端/解码端双向预测方法
TWI274508B (en) * 2004-10-19 2007-02-21 Ali Corp Device and method for computing reference address of motion compensation in image processing
JP4247995B2 (ja) 2005-02-03 2009-04-02 富士通マイクロエレクトロニクス株式会社 固体撮像素子のデータ読出回路、撮像装置および固体撮像素子のデータ読出方法
KR100723403B1 (ko) * 2005-02-28 2007-05-30 삼성전자주식회사 컬러 성분간 단일 부호화 모드를 이용한 예측영상 생성 방법 및 장치와, 그를 이용한 영상 및 비디오 부호화/복호화방법 및 장치
CN1870748A (zh) * 2005-04-27 2006-11-29 王云川 因特网协议电视
US8457203B2 (en) * 2005-05-26 2013-06-04 Ntt Docomo, Inc. Method and apparatus for coding motion and prediction weighting parameters
RU2368095C1 (ru) * 2005-07-22 2009-09-20 Мицубиси Электрик Корпорейшн Кодер изображения и декодер изображения, способ кодирования изображения и способ декодирования изображения, программа кодирования изображения и программа декодирования изображения и компьютерно-считываемый носитель записи, на котором записана программа кодирования изображения, и компьютерно-считываемый носитель записи, на котором записана программа декодирования изображения
JP4662171B2 (ja) * 2005-10-20 2011-03-30 ソニー株式会社 符号化装置および方法、復号化装置および方法、プログラム、並びに記録媒体
BRPI0620645B8 (pt) * 2006-01-05 2022-06-14 Nippon Telegraph & Telephone Método e aparelho de codificação de vídeo, e método e aparelho de decodificação de vídeo
TW200806040A (en) * 2006-01-05 2008-01-16 Nippon Telegraph & Telephone Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media for storing the programs
CN101379835B (zh) * 2006-02-02 2011-08-24 汤姆逊许可公司 使用组合参考双向预测进行运动估计的方法和设备
RU2395174C1 (ru) * 2006-03-30 2010-07-20 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способ и устройство для декодирования/кодирования сигнала видео
AU2007244443A1 (en) * 2006-04-28 2007-11-08 Ntt Docomo, Inc. Image predictive coding device, image predictive coding method, image predictive coding program, image predictive decoding device, image predictive decoding method and image predictive decoding program
JP2007336281A (ja) 2006-06-15 2007-12-27 Sony Corp 画像記録装置、画像再生装置、画像記録方法及び画像再生方法
TWI351883B (en) * 2006-12-28 2011-11-01 Nippon Telegraph & Telephone Video encoding method and decoding method, apparat
EP2106666B1 (en) * 2007-01-08 2019-06-12 Nokia Technologies Oy Improved inter-layer prediction for extended spatial scalability in video coding
WO2008126019A2 (en) * 2007-04-12 2008-10-23 Nokia Corporation Spatially enhanced transform coding
TWI338869B (en) * 2007-08-03 2011-03-11 Via Tech Inc Method and apparatus for block-based digital encoded picture
EP2210421A4 (en) * 2007-10-16 2013-12-04 Lg Electronics Inc METHOD AND APPARATUS FOR PROCESSING A VIDEO SIGNAL
KR101505195B1 (ko) * 2008-02-20 2015-03-24 삼성전자주식회사 직접 모드 부호화 및 복호화 방법
BRPI0910477A2 (pt) * 2008-04-11 2015-09-29 Thomson Licensing método e equipamento para predição de equiparação de gabarito (tmp) na codificação e decodificação de vídeo
JP5406465B2 (ja) * 2008-04-24 2014-02-05 株式会社Nttドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
WO2009157580A1 (ja) * 2008-06-27 2009-12-30 ソニー株式会社 画像処理装置及び画像処理方法
JP5401071B2 (ja) * 2008-10-09 2014-01-29 株式会社Nttドコモ 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、動画像復号プログラム、動画像処理システムおよび動画像処理方法
JP5686499B2 (ja) * 2009-01-22 2015-03-18 株式会社Nttドコモ 画像予測符号化装置、方法及びプログラム、画像予測復号装置、方法及びプログラム、並びに、符号化・復号システム及び方法
EP3567854B1 (en) * 2009-03-23 2022-12-14 Ntt Docomo, Inc. Image predictive decoding method
US20120230405A1 (en) * 2009-10-28 2012-09-13 Media Tek Singapore Pte. Ltd. Video coding methods and video encoders and decoders with localized weighted prediction
KR101611437B1 (ko) * 2009-10-28 2016-04-26 삼성전자주식회사 복수의 프레임을 참조하여 영상을 부호화, 복호화하는 방법 및 장치
KR101441905B1 (ko) 2009-11-18 2014-09-24 에스케이텔레콤 주식회사 후보 예측 움직임 벡터 집합 선택을 이용한 움직임 벡터 부호화/복호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
BR112012023319A2 (pt) * 2010-03-16 2016-05-24 Thomson Licensing métodos e aparelhos para seleção do previsor do vetor de movimento adaptável implícito para codificação e decodificação de vídeo
WO2011146451A1 (en) 2010-05-20 2011-11-24 Thomson Licensing Methods and apparatus for adaptive motion vector candidate ordering for video encoding and decoding
AU2012277220B2 (en) * 2011-06-30 2016-08-11 Sun Patent Trust Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus

Also Published As

Publication number Publication date
PT2779650T (pt) 2017-05-24
AU2019210544B2 (en) 2020-12-17
CA2977280A1 (en) 2013-05-16
AU2015200951A1 (en) 2015-03-12
KR101717965B1 (ko) 2017-03-20
US9838708B2 (en) 2017-12-05
US20170208339A1 (en) 2017-07-20
KR20140092872A (ko) 2014-07-24
RU2607261C1 (ru) 2017-01-10
MX2014005287A (es) 2014-05-30
AU2012337138B2 (en) 2015-03-19
US20190020892A1 (en) 2019-01-17
RU2677588C1 (ru) 2019-01-17
RU2677577C1 (ru) 2019-01-17
AU2020294321B2 (en) 2022-03-10
CA2854705A1 (en) 2013-05-16
KR102124961B1 (ko) 2020-06-19
CA3082150C (en) 2021-11-09
IN2014CN04100A (pt) 2015-07-10
TW201639371A (zh) 2016-11-01
TWI650011B (zh) 2019-02-01
AU2019210544A1 (en) 2019-08-15
KR20180126635A (ko) 2018-11-27
US10484705B2 (en) 2019-11-19
PL2779650T3 (pl) 2017-07-31
TW202041029A (zh) 2020-11-01
BR112014010751A2 (pt) 2017-04-25
KR101923527B1 (ko) 2018-11-29
US10104392B2 (en) 2018-10-16
CN106851305B (zh) 2019-05-21
EP2779650A4 (en) 2015-06-24
TWI513280B (zh) 2015-12-11
KR20190120453A (ko) 2019-10-23
EP2779650B1 (en) 2017-04-26
AU2017258876B2 (en) 2019-08-08
CN106658025B (zh) 2019-07-23
US9973775B2 (en) 2018-05-15
CA2895631C (en) 2017-10-10
AU2017204898A1 (en) 2017-08-03
TWI739509B (zh) 2021-09-11
EP2779650A1 (en) 2014-09-17
TW201921949A (zh) 2019-06-01
TWI616092B (zh) 2018-02-21
AU2019210546A1 (en) 2019-08-15
RU2715011C1 (ru) 2020-02-21
TW201813397A (zh) 2018-04-01
KR20170031262A (ko) 2017-03-20
CN107071465A (zh) 2017-08-18
TW201531095A (zh) 2015-08-01
TWI597974B (zh) 2017-09-01
NO3054684T3 (pt) 2018-07-07
US20170070746A1 (en) 2017-03-09
RU2652500C1 (ru) 2018-04-26
CN103891288A (zh) 2014-06-25
CA3131475C (en) 2023-05-09
EP3301927A1 (en) 2018-04-04
KR101708733B1 (ko) 2017-02-21
CN103891288B (zh) 2016-12-21
MY166926A (en) 2018-07-24
AU2016201031B2 (en) 2017-08-17
US10104393B2 (en) 2018-10-16
PL3054684T3 (pl) 2018-05-30
AU2012337138A1 (en) 2014-07-10
CN107105283A (zh) 2017-08-29
CA2977280C (en) 2020-07-21
KR101708732B1 (ko) 2017-02-21
AU2020294321A1 (en) 2021-02-18
TR201802964T4 (tr) 2018-03-21
SG11201402036UA (en) 2014-06-27
US20140241432A1 (en) 2014-08-28
CA3193531A1 (en) 2013-05-16
CN106851305A (zh) 2017-06-13
BR112014010751A8 (pt) 2017-12-12
RU2615676C1 (ru) 2017-04-06
CN107071465B (zh) 2019-01-29
KR101553933B1 (ko) 2015-09-17
ES2662879T3 (es) 2018-04-10
AU2016201031A1 (en) 2016-03-10
AU2019210545B2 (en) 2021-01-28
CA2895631A1 (en) 2013-05-16
CA3131475A1 (en) 2013-05-16
WO2013069384A1 (ja) 2013-05-16
CA3082150A1 (en) 2013-05-16
CN107105283B (zh) 2019-07-30
PT3054684T (pt) 2018-03-09
AU2019210546B2 (en) 2021-01-28
TWI739483B (zh) 2021-09-11
CN106658025A (zh) 2017-05-10
KR102036771B1 (ko) 2019-10-25
EP3054684A1 (en) 2016-08-10
TW201735644A (zh) 2017-10-01
TWI699997B (zh) 2020-07-21
US9615088B2 (en) 2017-04-04
TWI551123B (zh) 2016-09-21
CN107071466A (zh) 2017-08-18
JP2013102266A (ja) 2013-05-23
TWI701943B (zh) 2020-08-11
MX351064B (es) 2017-09-29
CA2854705C (en) 2016-04-26
TW202042558A (zh) 2020-11-16
MX337949B (es) 2016-03-29
AU2017258876A1 (en) 2017-11-30
KR101628800B1 (ko) 2016-06-21
JP5485969B2 (ja) 2014-05-07
KR20150079989A (ko) 2015-07-08
TW201322776A (zh) 2013-06-01
RU2678489C1 (ru) 2019-01-29
US20180220150A1 (en) 2018-08-02
CN107071466B (zh) 2018-09-14
RU2703957C1 (ru) 2019-10-22
AU2017204898B2 (en) 2019-07-11
EP3054684B1 (en) 2018-02-07
KR20180023055A (ko) 2018-03-06
AU2015200951B2 (en) 2015-11-26
AU2019210545A1 (en) 2019-08-15
RU2566980C1 (ru) 2015-10-27
US20170208340A1 (en) 2017-07-20
US9788005B2 (en) 2017-10-10
TW201909639A (zh) 2019-03-01
ES2625514T3 (es) 2017-07-19
US20180070101A1 (en) 2018-03-08
KR20160075772A (ko) 2016-06-29
KR20160075774A (ko) 2016-06-29
KR101833933B1 (ko) 2018-03-02
KR20160075773A (ko) 2016-06-29

Similar Documents

Publication Publication Date Title
BR112014010751B1 (pt) Dispositivo e método de codificação preditiva de vídeo e dispositivo e método de decodificação preditiva de vídeo
ES2929824T3 (es) Método de decodificación bipredictiva de imágenes
JP5668169B2 (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JP2015039246A (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JP2014112940A (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム

Legal Events

Date Code Title Description
B15K Others concerning applications: alteration of classification

Free format text: A CLASSIFICACAO ANTERIOR ERA: H04N 7/32

Ipc: H04N 19/52 (2014.01), H04N 19/573 (2014.01), H04N

Ipc: H04N 19/52 (2014.01), H04N 19/573 (2014.01), H04N

B06A Patent application procedure suspended [chapter 6.1 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]