BR112021000616A2 - Codificador, decodificador, método de codificação e método de decodificação - Google Patents

Codificador, decodificador, método de codificação e método de decodificação Download PDF

Info

Publication number
BR112021000616A2
BR112021000616A2 BR112021000616-8A BR112021000616A BR112021000616A2 BR 112021000616 A2 BR112021000616 A2 BR 112021000616A2 BR 112021000616 A BR112021000616 A BR 112021000616A BR 112021000616 A2 BR112021000616 A2 BR 112021000616A2
Authority
BR
Brazil
Prior art keywords
block
image
forecast
sub
filter
Prior art date
Application number
BR112021000616-8A
Other languages
English (en)
Inventor
Kiyofumi Abe
Takahiro Nishi
Tadamasa Toma
Original Assignee
Panasonic Intellectual Property Corporation Of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corporation Of America filed Critical Panasonic Intellectual Property Corporation Of America
Publication of BR112021000616A2 publication Critical patent/BR112021000616A2/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

"codificador, decodificador, método de codificação e método de decodificação". apresente invenção refere-se a um codificador (100), que codifica um vídeo, inclui o conjunto de circuitos (a1) e a memória (a2) conectada ao conjunto de circuitos (a1). em operação, o conjunto de circuitos (a1): gera uma imagem de previsão utilizando um modo de sub-bloco que gera a imagem de previsão de um bloco com base em sub-bloco e transforma o bloco com base em bloco; e aplica um filtro de desbloqueio a pelo menos parte de um limite do sub-bloco localizado dentro do bloco.

Description

Relatório Descritivo da Patente de Invenção para "CODIFICADOR, DECODIFICADOR, MÉTODO DE CODIFICAÇÃO E MÉTODO DE DECODIFICAÇÃO". Campo Técnico
[0001] A presente invenção refere-se, por exemplo, a um codifica- dor que codifica um vídeo incluindo imagens. Técnica Antecedente
[0002] Como um padrão de codificação de um vídeo, existe, convencionalmente, H.265, que também é referido como codificação de vídeo de alta eficiência (HEVC) (Literatura de Não Patente 1). Lista de Citação Literatura de Não Patente
[0003] NPL 1: H.265 (ISO/IEC 23008-2 HEVC)/HEVC (High Efficiency Video Coding) Sumário da Invenção Problemas Técnicos
[0004] Tem havido uma demanda para que tal método de codifi- cação e método de decodificação envolva novas etapas de aperfeiçoa- mento na eficiência de processamento, aperfeiçoamento de qualidade de imagem, uma redução no tamanho do circuito, etc.
[0005] Cada uma das configurações ou métodos descritos nas modalidades, ou em parte das modalidades na presente descrição, pode contribuir para pelo menos um dentre, por exemplo, o aperfeiçoamento na eficiência de codificação, uma redução na quanti- dade de codificação/decodificação, uma redução no tamanho do circuito, aceleração da codificação/decodificação, seleção adequada de elementos constituintes/operações, tal como filtros, blocos, tamanho, vetores de movimento, imagens de referência, e blocos de referência, na codificação e na decodificação.
[0006] Deve-se notar que a presente descrição inclui configurações ou métodos que podem produzir benefícios além dos citados acima. Exemplos dos mesmos incluem uma configuração ou um método que aperfeiçoa a eficiência de codificação enquanto suprime um aumento na quantidade de processamento. Solução para os Problemas
[0007] Um codificador, de acordo com um aspecto da presente descrição, inclui um conjunto de circuitos e uma memória conectada ao conjunto de circuitos. Durante a operação, o conjunto de circuitos: gera uma imagem de previsão utilizando um modo de sub-bloco que gera a imagem de previsão de um bloco com base em sub-bloco e transforma o bloco com base em bloco; e aplica um filtro de desbloqueio a pelo menos parte de um limite de um sub-bloco localizado dentro do bloco.
[0008] Deve-se notar que esses aspectos gerais ou específicos podem ser implementados por um sistema, um dispositivo, um método, um circuito integrado, um programa de computador, ou um meio de gravação legível por computador não transitório, tal como uma memória de leitura apenas em disco compacto (CD-ROM), ou por qualquer combinação de sistemas, dispositivos, métodos, circuitos integrados, programas de computador ou meio de gravação. Efeito Vantajoso da Invenção
[0009] A presente descrição fornece um dispositivo de codificação, um dispositivo de decodificação, um método de codificação ou um método de decodificação que pode contribuir para pelo menos um dentre, por exemplo, o aperfeiçoamento na eficiência de codificação, uma redução na quantidade de codificação/decodificação, uma redução no tamanho do circuito, uma aceleração da codificação/decodificação, a seleção adequada de elementos constituintes/operações, tal como filtros, blocos, tamanho, vetores de movimento, imagens de referência, e blocos de referência, na codificação e decodificação. Por exemplo, quando um processo de previsão com base em sub-bloco, como em um modo de previsão de vetor de movimento temporal avançado (ATMVP), etc., é realizado, é possível se evitar a ocorrência de distorção de limite em um bloco atual em uma imagem de previsão.
[0010] Benefícios e vantagens adicionais das modalidades descri- tas se tornarão aparentes a partir da especificação e dos desenhos. Os benefícios e/ou vantagens podem ser obtidos individualmente por várias modalidades e características da especificação e dos desenhos, nem todos os quais precisam ser fornecidos a fim de se obter um ou mais dos benefícios e/ou vantagens. Breve Descrição dos Desenhos
[0011] A figura 1 é um diagrama em bloco ilustrando uma configuração funcional de um codificador, de acordo com uma modalidade; A figura 2 é um fluxograma indicando um exemplo de um processo de codificação geral realizado pelo codificador; A figura 3 é um diagrama conceitual ilustrando um exemplo de divisão de bloco; A figura 4A é um diagrama conceitual ilustrando um exemplo de uma configuração de fatia; A figura 4B é um diagrama conceitual ilustrando um exemplo de uma configuração de tile; A figura 5A é um gráfico indicando as funções base de transformação para vários tipos de transformação; A figura 5B é um diagrama conceitual ilustrando transfor- mações espacialmente variáveis ilustrativas (SVT); A figura 6A é um diagrama conceitual ilustrando um exemplo de um formato de filtro utilizado em um filtro de circuito adaptativo (ALF); A figura 6B é um diagrama conceitual ilustrando outro exemplo de um formato de filtro utilizado em um ALF; A figura 6C é um diagrama conceitual ilustrando outro exemplo de um formato de filtro utilizado em um ALF; A figura 7 é um diagrama em bloco indicando um exemplo de uma configuração específica de um filtro de circuito que funciona como um filtro de desbloqueio (DBF); A figura 8 é um diagrama conceitual indicando um exemplo de um filtro de desbloqueio possuindo uma característica de filtragem simétrica com relação a um limite de bloco; A figura 9 é um diagrama conceitual para ilustrar um limite de bloco no qual um processo de filtro de desbloqueio é realizado; A figura 10 é um diagrama conceitual indicando exemplos de valores de Bs; A figura 11 é um fluxograma ilustrando um exemplo de um processo realizado por um processador de previsão do codificador; A figura 12 é um fluxograma ilustrando outro exemplo de um processo realizado pelo processador de previsão do codificador; A figura 13 é um fluxograma ilustrando outro exemplo de um processo realizado pelo processador de previsão do codificador; A figura 14 é um diagrama conceitual ilustrando sessenta e sete modos de intraprevisão utilizados na intraprevisão em uma modalidade; A figura 15 é um fluxograma ilustrando um fluxo de processamento básico ilustrativo de interprevisão; A figura 16 é um fluxograma ilustrando um exemplo de derivação de vetores de movimento; A figura 17 é um fluxograma ilustrando outro exemplo de derivação de vetores de movimento; A figura 18 é um fluxograma ilustrando outro exemplo de derivação de vetores de movimento; A figura 19 é um fluxograma ilustrando um exemplo de interprevisão no intermodo normal;
A figura 20 é um fluxograma ilustrando um exemplo de interprevisão no modo de mistura; A figura 21 é um diagrama conceitual para ilustrar um exemplo de um processo de derivação de vetor de movimento no modo de mistura; A figura 22 é um fluxograma ilustrando um exemplo do processo de conversão ascendente de taxa de quadro (FRUC); A figura 23 é um diagrama conceitual para ilustrar um exemplo de combinação de padrão (combinação bilateral) entre dois blocos ao longo de uma trajetória de movimento; A figura 24 é um diagrama conceitual para ilustrar um exemplo da combinação de padrão (combinação de gabarito) entre um gabarito em uma imagem atual e um bloco em uma imagem de referência; A figura 25A é um diagrama conceitual para ilustrar um exemplo de derivação de um vetor de movimento de cada sub-bloco com base nos vetores de movimento de uma pluralidade de blocos vizinhos; A figura 25B é um diagrama conceitual para ilustrar um exemplo de derivação de um vetor de movimento de cada sub-bloco no modo afim no qual três pontos de controle são utilizados; A figura 26A é um diagrama conceitual para ilustrar um modo de mistura afim; A figura 26B é um diagrama conceitual para ilustrar um modo de mistura afim no qual dois pontos de controle são utilizados; A figura 26C é um diagrama conceitual para ilustrar um modo de mistura afim no qual três pontos de controle são utilizados; A figura 27 é um fluxograma ilustrando um exemplo de um processo no modo de mistura afim; A figura 28A é um diagrama conceitual para ilustrar um intermodo afim no qual dois pontos de controle são utilizados; A figura 28B é um diagrama conceitual para ilustrar um intermodo afim no qual três pontos de controle são utilizados; A figura 29 é um fluxograma ilustrando um exemplo de um processo no intermodo afim; A figura 30A é um diagrama conceitual para ilustrar um intermodo afim no qual um bloco atual possui três pontos de controle e um bloco vizinho possui dois pontos de controle; A figura 30B é um diagrama conceitual para ilustrar um intermodo afim no qual um bloco atual possui dois pontos de controle e um bloco vizinho possui três pontos de controle; A figura 31A é um fluxograma ilustrando um processo de modo de mistura incluindo o refinamento do vetor de movimento do decodificador (DMVR); A figura 31B é um diagrama conceitual para ilustrar um exemplo de um processo DMVR; A figura 32 é um fluxograma ilustrando um exemplo de geração de uma imagem de previsão; A figura 33 é um fluxograma ilustrando outro exemplo de geração de uma imagem de previsão; A figura 34 é um fluxograma ilustrando outro exemplo de geração de uma imagem de previsão; A figura 35 é um fluxograma ilustrando um exemplo de um processo de correção de imagem de previsão realizado por um processo de compensação de movimento de bloco sobreposto (OBMC); A figura 36 é um diagrama conceitual para ilustrar um exemplo de um processo de correção de imagem de previsão realizado por um processo OBMC; A figura 37 é um diagrama conceitual para ilustrar a geração de duas imagens de previsão triangulares;
A figura 38 é um diagrama conceitual para ilustrar um modelo assumindo o movimento linear uniforme; A figura 39 é um diagrama conceitual para ilustrar um exemplo de um método de geração de imagem de previsão utilizando um processo de correção de luminescência realizado por um processo de compensação de luminescência local (LIC); A figura 40 é um diagrama em bloco ilustrando um exemplo de montagem do codificador; A figura 41 é um diagrama em bloco ilustrando uma configuração funcional de um decodificador, de acordo com uma modalidade; A figura 42 é um fluxograma ilustrando um exemplo de um processo de decodificação geral realizado pelo decodificador; A figura 43 é um fluxograma ilustrando um exemplo de um processo realizado por um processador de previsão do decodificador; A figura 44 é um fluxograma ilustrando outro exemplo de um processo realizado pelo processador de previsão do decodificador; A figura 45 é um fluxograma ilustrando um exemplo de interprevisão no intermodo normal no decodificador; A figura 46 é um diagrama em bloco ilustrando um exemplo de montagem do decodificador; A figura 47 é um diagrama ilustrando um modo de previsão de vetor de movimento temporal avançado (ATMVP); A figura 48 é um diagrama ilustrando um problema com o modo ATMVP; A figura 49 é um diagrama ilustrando o primeiro exemplo do modo ATMVP, de acordo com uma modalidade; A figura 50 é um diagrama ilustrando um exemplo de um método de seleção de um vetor de movimento correspondendo a um sub-bloco em uma posição específica dentro de um bloco de referência de vetor de movimento temporal, de acordo com a modalidade; A figura 51 é um diagrama ilustrando o segundo exemplo do modo ATMVP, de acordo com a modalidade; A figura 52 é um diagrama ilustrando um exemplo de um método de suavização, utilizando vetores de movimento dos sub-blocos circundantes, um vetor de movimento correspondendo a cada sub-bloco dentro de um bloco de referência de vetor de movimento temporal, de acordo com a modalidade; A figura 53 é um fluxograma ilustrando o terceiro exemplo do modo ATMVP, de acordo com a modalidade; A figura 54 é um fluxograma ilustrando um exemplo de uma aplicação de um processo de filtro de desbloqueio ao limite de um sub- bloco, de acordo com a modalidade; A figura 55 é um fluxograma ilustrando um exemplo das operações realizadas por um codificador, de acordo com a modalidade; A figura 56 é um fluxograma ilustrando um exemplo das operações realizadas por um decodificador, de acordo com a modalidade; A figura 57 é um diagrama em bloco ilustrando uma configuração geral de um sistema de fornecimento de conteúdo para implementar um serviço de distribuição de conteúdo; A figura 58 é um diagrama em bloco ilustrando um exemplo de uma estrutura de codificação na codificação escalonável; A figura 59 é um diagrama conceitual ilustrando um exemplo de uma estrutura de codificação na codificação escalonável; A figura 60 é um diagrama conceitual ilustrando um exemplo de uma tela de exibição de uma página da rede; A figura 61 é um diagrama conceitual ilustrando um exemplo de uma tela de exibição de uma página da rede; A figura 62 é um diagrama em bloco ilustrando um exemplo de um smartphone; A figura 63 é um diagrama em bloco ilustrando um exemplo de uma configuração de um smartphone; Descrição das Modalidades Ilustrativas (Conhecimento Subjacente que Forma a Base da Presente Descrição)
[0012] Por exemplo, quando um codificador, etc. realiza um processo de previsão utilizando um modo de mistura, o codificador, etc. seleciona um vetor de movimento a partir de uma lista de candidatos a vetor de movimento criada por referência a um bloco processado, para determinar um vetor de movimento de um bloco atual a ser processado. No modo de mistura, o codificador, etc. pode realizar o processo com base em sub-bloco. Por exemplo, um dos modos de mistura aplicados com base em sub-bloco é um modo de previsão de vetor de movimento temporal avançado (ATMVP). No entanto, quando o decodificador, etc. realiza um processo de previsão com base em sub-bloco, como no modo ATMVP, etc., no caso no qual uma posição limítrofe de um objeto em movimento dentro de um bloco de referência de vetor de movimento temporal, e uma posição limítrofe do objeto em movimento dentro de um bloco atual a ser processado, não combinam, existe uma possibilidade de distorção de limite ocorrer no limite de um sub-bloco incluído em uma imagem atual a ser processada.
[0013] Em vista disso, por exemplo, um codificador, de acordo com um aspecto da presente descrição, inclui um conjunto de circuitos e uma memória conectada ao conjunto de circuitos. Durante a operação, o conjunto de circuitos gera uma imagem de previsão utilizando o modo de sub-bloco que gera a imagem de previsão de um bloco com base em sub-bloco e transforma o bloco com base em bloco; e aplica um filtro de desbloqueio a pelo menos parte de um limite de um sub-bloco localizado dentro do bloco.
[0014] Com isso, o codificador pode reduzir a ocorrência de distorção de limite dentro de um bloco atual a ser processado em uma imagem de previsão. De acordo, o codificador pode aperfeiçoar a qualidade de imagem de uma imagem reconstruída depois da codificação.
[0015] Ademais, por exemplo, no codificador de acordo com um aspecto da presente descrição, o conjunto de circuitos aplica o filtro de desbloqueio a um limite de uma região de 8 x 8 pixels incluída no limite do sub-bloco.
[0016] Com isso, o codificador pode realizar um processo de filtro de desbloqueio em um limite em uma localização específica.
[0017] Ademais, por exemplo, no codificador de acordo com um aspecto da presente descrição, o modo de sub-bloco é um modo de previsão de vetor de movimento temporal avançado (ATMVP).
[0018] Com isso, o codificador pode determinar o modo de sub- bloco como o modo ATMVP.
[0019] Ademais, por exemplo, no codificador de acordo com um aspecto da presente descrição, quando o modo de sub-bloco é um modo de previsão de vetor de movimento temporal avançado (ATMVP), o conjunto de circuitos configura o sub-bloco para estar em uma região de 8 x 8 pixels.
[0020] Com isso, no modo ATMVP, o codificador pode realizar o processamento ou gerenciamento utilizando o tamanho de bloco de 8 x
8. De acordo, o codificador pode realizar o processamento utilizando um tamanho de bloco superior ao menor tamanho de bloco e promover a eficiência do processamento.
[0021] Ademais, por exemplo, no codificador de acordo com um aspecto da presente descrição, o conjunto de circuitos aplica, a partir de um primeiro filtro e de um segundo filtro, mais forte do que o primeiro filtro, o segundo filtro como o filtro de desbloqueio a pelo menos parte do limite do sub-bloco.
[0022] Com isso, o codificador pode aplicar um processo de filtro de desbloqueio a doze pixels distantes de um limite de bloco por dois pixels em uma imagem reconstruída. De acordo, o codificador pode reduzir, efetivamente, a ocorrência de distorção de limite na imagem reconstruída.
[0023] Por exemplo, um decodificador de acordo com um aspecto da presente descrição, inclui um conjunto de circuitos e uma memória conectada ao conjunto de circuitos. Durante a operação, o conjunto de circuitos gera uma imagem de previsão utilizando um modo de sub- bloco que gera a imagem de previsão de um bloco com base em sub- bloco e transforma o bloco com base em bloco; e aplica um filtro de desbloqueio a pelo menos parte de um limite de um sub-bloco localizado dentro do bloco.
[0024] Com isso, o decodificador pode reduzir a ocorrência de distorção de limite dentro de um bloco atual a ser processado em uma imagem de previsão. De acordo, o decodificador pode aperfeiçoar a qualidade de imagem de uma imagem reconstruída após a decodificação.
[0025] Ademais, por exemplo, no decodificador de acordo com um aspecto da presente descrição, o conjunto de circuitos aplica o filtro de desbloqueio a um limite de uma região de 8 x 8 pixels, incluída no limite do sub-blocos.
[0026] Com isso, o decodificador pode realizar um processo de filtro de desbloqueio em um limite em uma localização específica.
[0027] Ademais, por exemplo, no decodificador de acordo com um aspecto da presente descrição, o modo de sub-bloco é um modo de previsão de vetor de movimento temporal avançado (ATMVP).
[0028] Com isso, o decodificador pode mudar o modo de sub-bloco no modo ATMVP.
[0029] Ademais, por exemplo, no decodificador de acordo com um aspecto da presente descrição, quando o modo de sub-bloco é um modo de previsão de vetor de movimento temporal avançado (ATMVP), o conjunto de circuitos configura o sub-bloco para estar em uma região de 8 x 8 pixels.
[0030] Com isso, o decodificador pode realizar o processamento ou gerenciamento utilizando o tamanho de bloco de 8 x 8. De acordo, o decodificador pode realizar o processamento utilizando um tamanho de bloco maior do que o menor tamanho de bloco, e promover a eficiência do processamento.
[0031] Ademais, por exemplo, no decodificador de acordo com um aspecto da presente descrição, o conjunto de circuito aplica, a partir de um primeiro filtro e um segundo filtro mais forte do que o primeiro filtro, o segundo filtro como o filtro de desbloqueio a pelo menos parte do limite do sub-bloco.
[0032] Com isso, o decodificador pode aplicar um processo de filtro de desbloqueio a doze pixels longe de um limite de bloco por dois pixels em uma imagem reconstruída. De acordo, o decodificador pode, efetivamente, reduzir a ocorrência da distorção de limite na imagem reconstruída.
[0033] Por exemplo, um método de codificação, de acordo com um aspecto da presente descrição, inclui gerar uma imagem de previsão utilizando um modo de sub-bloco que gera a imagem de previsão de um bloco com base em sub-bloco e transforma o bloco com base em bloco; e aplicar um filtro de desbloqueio a pelo menos parte de um limite de um sub-bloco localizado dentro do bloco.
[0034] Com isso, o método de codificação produz os mesmos efeitos vantajosos que o codificador descrito acima.
[0035] Por exemplo, um método de decodificação de acordo com um aspecto da presente descrição inclui gerar uma imagem de previsão utilizando um modo de sub-bloco que gera a imagem de previsão de um bloco com base em sub-bloco e transformar o bloco com base em bloco; e aplicar um filtro de desbloqueio a pelo menos parte de um limite de um sub-bloco localizado dentro do bloco.
[0036] Com isso, o método de decodificação produz os mesmos efeitos vantajosos que o codificador descrito acima.
[0037] Por exemplo, um codificador de acordo com um aspecto da presente descrição pode incluir um divisor, um intraprevisor, um interprevisor, um filtro de circuito, um transformador, um quantizador e um codificador por entropia.
[0038] O divisor pode dividir uma imagem em blocos. O intraprevisor pode realizar a intraprevisão em um bloco incluído nos blocos. O interprevisor pode realizar a interprevisão no bloco. O transformador pode transformar um erro de previsão entre uma imagem de previsão obtida pela intraprevisão ou a interprevisão e uma imagem original, para gerar um coeficiente de transformação. O quantizador pode quantizar o coeficiente de transformação para gerar um coeficiente de quantização. O codificador por entropia pode codificar o coeficiente de quantização para gerar uma sequência de bits codificados. O filtro de circuito pode aplicar um filtro a uma imagem reconstruída do bloco.
[0039] Ademais, por exemplo, o codificador pode codificar um vídeo incluindo imagens.
[0040] O filtro de circuito pode gerar uma imagem de previsão utilizando um modo de sub-bloco que gera a imagem de previsão de um bloco com base em sub-bloco e transforma o bloco com base em bloco, e aplica um filtro de desbloqueio a pelo menos parte de um limite de um sub-bloco localizado dentro do bloco.
[0041] Por exemplo, um decodificador, de acordo com um aspecto da presente descrição, pode incluir um decodificador por entropia, um quantizador inverso, um transformador inverso, um intraprevisor, um interprevisor, e um filtro de circuito.
[0042] O decodificador por entropia pode decodificar, a partir de uma sequência de bits codificada, um coeficiente de quantização de um bloco em uma imagem. O quantizador inverso pode quantizar de forma inversa o coeficiente de quantização para obter um coeficiente de transformação. O transformador inverso pode transformar de forma inversa o coeficiente de transformação para obter um erro de previsão. O intraprevisor pode realizar a intraprevisão no bloco. O interprevisor pode realizar a interprevisão no bloco. O filtro de circuito pode aplicar um filtro a uma imagem reconstruída gerada utilizando uma imagem de previsão obtida pela intraprevisão ou interprevisão, e o erro de previsão.
[0043] Ademais, por exemplo, o decodificador pode decodificar um vídeo incluindo imagens.
[0044] O filtro de circuito pode gerar uma imagem de previsão utilizando um modo de sub-bloco que gera a imagem de previsão de um bloco com base em sub-bloco e transforma o bloco com base em bloco, e aplicar um filtro de desbloqueio a pelo menos parte de um limite de um sub-bloco localizado dentro do bloco.
[0045] Adicionalmente, esses aspectos gerais ou específicos podem ser implementados por um sistema, um dispositivo, um método, um circuito integrado, um programa de computador ou um meio de gravação legível por computador não transitório, tal como uma memória de leitura apenas de disco compacto (CD-ROM), ou por qualquer combinação de sistemas, dispositivos, métodos, circuitos integrados, programas de computador ou mídia de gravação.
[0046] Doravante, as modalidades serão descritas em detalhes com referência aos desenhos. Deve-se notar que as modalidades descritas abaixo ilustram, cada uma, um exemplo geral ou especifico. Os valores numéricos, formatos, materiais, componentes, a disposição e conexão dos componentes, etapas, a relação e ordem das etapas, etc., indicados nas modalidades a seguir, são meros exemplos, e, portanto, não devem limitar o escopo das reivindicações.
[0047] As modalidades de um codificador e de um decodificador serão descritas abaixo. As modalidades são exemplos de um codifi- cador e de um decodificador aos quais os processos e/ou configu- rações, apresentados na descrição dos aspectos da presente descrição, são aplicáveis. Os processos e/ou configurações podem ser imple- mentados também em um codificador e um decodificador diferentes dos de acordo com as modalidades. Por exemplo, com referência aos processos e/ou configurações, como aplicados às modalidades, qualquer um dos seguintes pode ser implementado:
[0048] (1) Qualquer um dos componentes do codificador ou do decodificador, de acordo com as modalidades apresentadas na descrição dos aspectos da presente descrição, pode ser substituído ou combinado com outro componente apresentado em qualquer local na descrição dos aspectos da presente descrição.
[0049] (2) No codificador ou no decodificador, de acordo com as modalidades, mudanças discricionárias podem ser realizadas às funções ou processos realizados por um ou mais componentes do codificador ou do decodificador, tal como adição, substituição, remoção, etc., das funções ou processos. Por exemplo, qualquer função ou processo pode ser substituído ou combinado com outra função ou processo apresentado em outro local na descrição dos aspectos da presente descrição.
[0050] (3) Nos métodos implementados pelo codificador ou pelo decodificador, de acordo com as modalidades, mudanças discri- cionárias podem ser realizadas, tal como adição, substituição e remoção de um ou mais dos processos incluídos no método. Por exemplo, qualquer processo no método pode ser substituído ou combinado com outro processo apresentado em qualquer outro local na descrição dos aspectos da presente descrição.
[0051] (4) Um ou mais componentes incluídos no codificador ou no decodificador, de acordo com as modalidades, podem ser combinados com um componente apresentado em qualquer outro local na descrição dos aspectos da presente descrição, podem ser combinados com um componente incluindo uma ou mais funções apresentadas em outro local na descrição dos aspectos da presente descrição e podem ser combinados com um componente que implementa um ou mais processos implementados por um componente apresentado na descrição dos aspectos da presente descrição.
[0052] (5) Um componente incluindo uma ou mais funções do codificador ou do decodificador, de acordo com as modalidades, ou um componente que implementa um ou mais processos do codificador ou do decodificador, de acordo com as modalidades, pode ser combinado ou substituído por um componente apresentado em qualquer lugar na descrição de aspectos da presente descrição, com um componente incluindo uma ou mais funções apresentadas em qualquer local na descrição de aspectos da presente descrição, ou com um componente que implementa um ou mais processos apresentados em qualquer lugar na descrição dos aspectos da presente descrição.
[0053] (6) Nos métodos implementados pelo codificador ou pelo decodificador, de acordo com as modalidades, qualquer um dos processos incluídos no método pode ser substituído ou combinado com um processo apresentado em qualquer local na descrição dos aspectos da presente descrição ou com qualquer processo correspondente ou equivalente.
[0054] (7) Um ou mais processos incluídos nos métodos implemen- tados pelo codificador ou pelo decodificador, de acordo com as modalidades, podem ser combinados com um processo apresentado em qualquer lugar na descrição de aspectos da presente descrição.
[0055] (8) A implementação dos processos e/ou configurações apresentados na descrição dos aspectos da presente descrição não está limitada ao codificador ou ao decodificador, de acordo com as modalidades. Por exemplo, os processos e/ou configurações podem ser implementados em um dispositivo utilizado para uma finalidade diferente do codificador de imagem em movimento ou do decodificador de imagem em movimento descritos nas modalidades. Modalidade 1 Codificador
[0056] Primeiro, um codificador, de acordo com uma modalidade, será descrito. A figura 1 é um diagrama em bloco ilustrando uma configuração funcional do codificador 100 de acordo com a modalidade. O codificador 100 é um codificador de vídeo que codifica um vídeo em unidades de um bloco.
[0057] Como ilustrado na figura 1, o codificador 100 é um aparelho que codifica uma imagem em unidades de um bloco, e inclui o divisor 102, o subtraidor 104, o transformador 106, o quantizador 108, o codificador por entropia 110, o quantizador inverso 112, o transformador inverso 114, o somador 116, a memória em bloco 118, o filtro de circuito 120, a memória de quadro 122, o intraprevisor 124, o interprevisor 126, e o controlador de previsão 128.
[0058] O codificador 100 é implementado como, por exemplo, um processador genérico e uma memória. Nesse caso, quando um programa de software, armazenado na memória, é executado pelo processador, o processador funciona como o divisor 102, o subtraidor 104, o transformador 106, o quantizador 108, o codificador por entropia 110, o quantizador inverso 112, o transformador inverso 114, o somador 116, o filtro de circuito 120, o intraprevisor 124, o interprevisor 126 e o controlador de previsão 128. Alternativamente, o codificador 100 pode ser implementado como um ou mais circuitos eletrônicos dedicados correspondendo ao divisor 102, subtraidor 104, transformador 106,
quantizador 108, codificador por entropia 110, quantizador inverso 112, transformador inverso 114, somador 116, filtro de circuito 120, intraprevisor 124, interprevisor 126 e controlador de previsão 128.
[0059] Doravante, um fluxo geral de processos realizado pelo codifi- cador 100 é descrito, e, então, cada um dos elementos constituintes incluídos no codificador 100 será descrito. Fluxo Geral do Processo de Codificação
[0060] A figura 2 é um fluxograma indicando um exemplo de um processo de codificação geral realizado pelo codificador 100.
[0061] Primeiro, o divisor 102 do codificador 100 divide cada uma das imagens incluídas em uma imagem de entrada, que é um vídeo, em uma pluralidade de blocos possuindo um tamanho fixo (por exemplo, 128 x 128 pixels) (Etapa Sa_1). O divisor 102, então, seleciona um padrão de divisão para o bloco de tamanho fixo (também referido como um formato de bloco) (Etapa Sa_2). Em outras palavras, o divisor 102 divide adicionalmente o bloco de tamanho fixo em uma pluralidade de blocos que formam o padrão de divisão selecionado. O codificador 100 realiza, para cada um dentre a pluralidade de blocos, as Etapas Sa_3 a Sa_9 para o bloco (isso é, um bloco atual a ser codificado).
[0062] Em outras palavras, um processador de previsão, que inclui todos ou parte de intraprevisor 124, interprevisor 126, e controlador de previsão 128, gera um sinal de previsão (também referido como um bloco de previsão) do bloco atual a ser codificado (também referido como um bloco atual) (Etapa Sa_3).
[0063] A seguir, o subtraidor 104 gera uma diferença entre o bloco atual e um bloco de previsão como um residual de previsão (também referido como bloco de diferença) (Etapa Sa_4).
[0064] A seguir, o transformador 106 transforma o bloco de diferença e o quantizador 108 quantiza o resultado, para gerar uma pluralidade de coeficientes quantizados (Etapa Sa_5). Deve-se notar que o bloco possuindo a pluralidade de coeficientes quantizados também é referido como um bloco de coeficiente.
[0065] A seguir, o codificador por entropia 110 codifica (especifi- camente, codifica por entropia) o bloco de coeficiente e um parâmetro de previsão relacionado com a geração de um sinal de previsão para gerar um sinal codificado (Etapa Sa_6). Deve-se notar que o sinal codificado também é referido como uma sequência de bits codificada, uma sequência de bits comprimida ou uma sequência.
[0066] A seguir, o quantizador inverso 112 realiza a quantização inversa do bloco de coeficiente e o transformador inverso 114 realiza a transformação inversa do resultado, para restaurar uma pluralidade de residuais de previsão (isso é, um bloco de diferença) (Etapa Sa_7).
[0067] A seguir, o somador 116 adiciona o bloco de previsão ao bloco de diferença restaurado para reconstruir o bloco atual como uma imagem reconstruída (também referida como um bloco reconstruído ou um bloco de imagem decodificada) (Etapa Sa_8). Dessa forma, a imagem reconstruída é gerada.
[0068] Quando a imagem reconstruída é gerada, o filtro de circuito 120 realiza a filtragem da imagem reconstruída como necessário (Etapa Sa_9).
[0069] O codificador 100, então, determina se a codificação de toda a imagem foi terminada (Etapa Sa_10). Quando da determinação de que a codificação ainda não foi terminada (Não na Etapa Sa_10), os processos da Etapa Sa_2 são executados repetidamente.
[0070] Apesar de o codificador 100 selecionar um padrão de divisão para um bloco de tamanho fixo e codificar cada bloco de acordo com o padrão de divisão no exemplo descrito acima, deve-se notar que cada bloco pode ser codificado de acordo com um padrão correspondente dentre a pluralidade de padrões de divisão. Nesse caso, o codificador 100 pode avaliar um custo para cada um dentre a pluralidade de padrões de divisão e, por exemplo, pode selecionar o sinal codificado obtenível pela codificação de acordo com o padrão de divisão que resulta no custo mais baixo como um sinal codificado que é enviado.
[0071] Como ilustrado, os processos nas Etapas Sa_1 a Sa_10 são realizados sequencialmente pelo codificador 100. Alternativamente, dois ou mais dos processos podem ser realizados em paralelo, os processos podem ser reordenados, etc. Divisor
[0072] O divisor 102 divide cada uma das imagens incluídas em um vídeo de entrada em uma pluralidade de blocos, e envia cada bloco para o subtraidor 104. Por exemplo, o divisor 102 primeiro divide uma imagem em blocos de um tamanho fixo (por exemplo, 128 x 128). Outros tamanhos de bloco fixo podem ser empregados. O bloco de tamanho fixo é referido também como uma unidade de árvore de codificação (CTU). O divisor 102, então, divide cada bloco de tamanho fixo em blocos de tamanhos variáveis (por exemplo, de 64 x 64 ou menores), com base na divisão de bloco quadtree e/ou de árvore binária recursiva. Em outras palavras, o divisor 102 seleciona um padrão de divisão. O bloco de tamanho variável também é referido como uma unidade de codificação (CU), uma unidade de previsão (PU), ou uma unidade de transformação (TU). Deve-se notar que, em vários tipos de exemplos de processamento, não há necessidade de se diferenciar entre CU, PU e TU; todos ou alguns dos blocos em uma imagem podem ser processados em unidades de uma CU, uma PU ou uma TU.
[0073] A figura 3 é um diagrama conceitual ilustrando um exemplo de divisão de bloco de acordo com uma modalidade. Na figura 3, as linhas sólidas representam os limites de bloco dos blocos divididos pela divisão de bloco quadtree, e as linhas tracejadas representam os limites de bloco dos blocos divididos pela divisão de bloco de árvore binária.
[0074] Aqui, o bloco 10 é um bloco quadrado possuindo 128 x 128 pixels (bloco de 128 x 128). Esse bloco de 128 x 128 10 é primeiramente dividido em quatro blocos quadrados de 64 x 64 (divisão de bloco quadtree).
[0075] O bloco superior esquerdo de 64 x 64 é adicionalmente dividido verticalmente em dois blocos retangulares de 32 x 64, e o bloco esquerdo de 32 x 64 é adicionalmente dividido verticalmente em dois blocos retangulares de 16 x 64 (divisão de bloco de árvore binária). Como resultado disso, o bloco superior esquerdo de 64 x 64 é dividido em dois blocos de 16 x 64 11 e 12 e um bloco de 32 x 64 13.
[0076] O bloco superior direito de 64 x 64 é dividido horizontalmente em dois blocos retangulares de 64 x 32 14 e 15 (divisão de bloco de árvore binária).
[0077] O bloco inferior esquerdo de 64 x 64 é primeiramente dividido em quatro blocos quadrados de 32 x 32 (divisão de bloco quadtree). O bloco superior esquerdo e o bloco inferior direito, dentre os quatro blocos de 32 x 32, são divididos adicionalmente. O bloco superior esquerdo de 32 x 32 é dividido verticalmente em dois blocos retangulares de 16 x 32, e o bloco direito de 16 x 32 é adicionalmente dividido horizontalmente em dois blocos de 16 x 16 (divisão de bloco de árvore binária). O bloco inferior direito de 32 x 32 é dividido horizontalmente em dois blocos de 32 x 16 (divisão de bloco de árvore binária). Como resultado disso, o bloco inferior esquerdo de 64 x 64 é dividido em um bloco de 16 x 32 16, dois blocos de 16 x 16 17 e 18, dois blocos de 32 x 32 19 e 20, e dois blocos de 32 x 16 21 e 22.
[0078] O bloco inferior direito de 64 x 64 não é dividido.
[0079] Como descrito acima, na figura 3, o bloco 10 é dividido em treze blocos de tamanho variável de 11 a 23 com base na divisão de bloco quadtree e de árvore binária recursiva. Esse tipo de divisão também é referido como divisão quadtree mais árvore binária (QTBT).
[0080] Deve-se notar que, na figura 3, um bloco é dividido em quatro ou dois blocos (divisão de bloco quadtree ou de árvore binária), mas a divisão não está limitada a esses exemplos. Por exemplo, um bloco pode ser dividido em três blocos (divisão de bloco ternária). A divisão incluindo tal divisão de bloco ternária também é referida como uma divisão de árvore de múltiplos tipos (MBT). Estrutura de Imagem: Fatia/Tile
[0081] Uma imagem pode ser configurada em unidades de uma ou mais fatias ou tiles a fim de decodificar a imagem em paralelo. A imagem configurada em unidades de uma ou mais fatias ou tiles pode ser configurada pelo divisor 102.
[0082] As fatias são unidades de codificação básica incluídas em uma imagem. Uma imagem pode incluir, por exemplo, uma ou mais fatias. Adicionalmente, uma fatia inclui uma ou mais unidades de árvore de codificação sucessivas (CTU).
[0083] A figura 4A é um diagrama conceitual ilustrando um exemplo de uma configuração de fatia. Por exemplo, uma imagem inclui 11 x 8 CTUs e é dividida em quatro fatias (fatias de 1 a 4). A fatia 1 inclui dezesseis CTUs, a fatia 2 inclui vinte e uma CTUs, a fatia 3 inclui vinte e nove CTUs, e a fatia 4 inclui vinte e duas CTUs. Aqui, cada CTU na imagem pertence a uma das fatias. O formato de cada fatia é um formato obtenível pela divisão da imagem horizontalmente. Um limite de cada fatia não precisa coincidir com o final de uma imagem e pode coincidir com qualquer um dos limites entre as CTUs na imagem. A ordem de processamento das CTUs em uma fatia (uma ordem de codificação ou uma ordem de decodificação) é, por exemplo, uma ordem de digitalização raster. Uma fatia inclui informação de cabeçalho e dados codificados. As características da fatia podem ser descritas na informação de cabeçalho. As características incluem um endereço CTU e uma CT superior na fatia, um tipo de fatia, etc.
[0084] Um tile é uma unidade de uma região retangular incluída em uma imagem. Cada um dos tiles pode receber um número referido como TileId na ordem de digitalização raster.
[0085] A figura 4B é um diagrama conceitual indicando um exemplo de uma configuração de tile. Por exemplo, uma imagem inclui 11 x 8 CTUs e é dividida em quatro tiles de regiões retangulares (tiles de 1 a 4). Quando os tiles são utilizados, a ordem de processamento das CTUs é alterada da ordem de processamento no caso no qual nenhum tile é utilizado. Quando nenhum tile é utilizado, as CTUs em uma imagem são processadas na ordem de digitalização raster. Quando os tiles são utilizados, pelo menos uma CTU em cada um dos tiles é processada na ordem de digitalização raster. Por exemplo, como ilustrado na figura 4B, a ordem de processamento das CTUs incluídas no tile 1 é a ordem que começa da extremidade esquerda da primeira fileira do tile 1 na direção da extremidade direita da primeira fileira do tile 1 e, então, começa na extremidade esquerda da segunda fileira do tile 1 na direção da extremidade direita da segunda fileira do tile 1.
[0086] Deve-se notar que um tile pode incluir uma ou mais fatias, e uma fatia pode incluir um ou mais tiles. Subtraidor
[0087] O subtraidor 104 subtrai um sinal de previsão (amostra de previsão que é registrada a partir do controlador de previsão 128 indicado abaixo) a partir de um sinal original (amostra original) em unidades de um bloco registrado a partir do divisor 102 e dividido pelo divisor 102. Em outras palavras, o subtraidor 104 calcula os erros de previsão (também referidos como residuais) de um bloco a ser codificado (doravante também referido como um bloco atual). O subtraidor 104, então, envia os erros de previsão calculados (residuais) para o transformador 106.
[0088] O sinal original é um sinal que foi registrado no codificador 100 e representa uma imagem de cada imagem incluída em um vídeo
(por exemplo, um sinal de luminescência e dois sinais de crominância). Doravante, um sinal que representa uma imagem também é referido como uma amostra. Transformador
[0089] O transformador 106 transforma os erros de previsão em domínio espacial em coeficientes de transformação em domínio de frequência, e envia os coeficientes de transformação para o quantizador
108. Mais especificamente, o transformador 106 aplica, por exemplo, uma transformação de cosseno discreto definida (DCT) ou transformação de seno discreta (DST) aos erros de previsão no domínio espacial. A DCT ou DST definida pode ser predefinida.
[0090] Deve-se notar que o transformador 106 pode selecionar de forma adaptativa um tipo de transformação, dentre uma pluralidade de tipos de transformação, e transformar os erros de previsão em coeficientes de transformação pela utilização de uma função de base de transformação correspondente ao tipo de transformação selecionado. Esse tipo de transformação também é referido como transformação de múltiplos núcleos explícita (EMT) ou transformação múltipla adaptativa (AMT).
[0091] Os tipos de transformação incluem, por exemplo, DCT-II, DCT-V, DCT-VIII, DST-I e DST-VII. A figura 5A é um gráfico indicando as funções base de transformação, por exemplo, os tipos de transformação. Na figura 5A, N indica o número de pixels de entrada. Por exemplo, a seleção de um tipo de transformação, dentre a pluralidade de tipos de transformação, pode depender de um tipo de previsão (uma dentre a intraprevisão e a interprevisão), e pode depender de um modo de intraprevisão.
[0092] A informação que indica se aplica tal EMT ou AMT (referida, por exemplo, como um indicador EMT ou um indicador AMT) e a informação que indica o tipo de transformação selecionado é normalmente sinalizada no nível de CU. Deve-se notar que a sinalização de tal informação não precisa, necessariamente, ser realizada no nível de CU, e pode ser realizada em outro nível (por exemplo, no nível de sequência de bits, nível de imagem, nível de fatia, nível de tile ou nível de CTU).
[0093] Adicionalmente, o transformador 106 pode transformar novamente os coeficientes de transformação (resultado da transfor- mação). Tal nova transformação também é referida como transforma- ção secundária adaptativa (AST) ou transformação secundária não separável (NSST). Por exemplo, o transformador 106 realiza a nova transformação em unidades de um sub-bloco (por exemplo, o sub-bloco de 4 x 4) incluído em um bloco de coeficientes de transformação que corresponde a um erro de intraprevisão. A informação que indica se aplica NSST e a informação relacionada a uma matriz de transformação para uso em NSST são normalmente sinalizadas no nível de CU. Deve- se notar que a sinalização de tal informação não precisa, necessariamente, ser realizada no nível de CU, e pode ser realizada em outro nível (por exemplo, no nível de sequência, nível de imagem, nível de fatia, nível de tile ou nível de CTU).
[0094] O transformador 106 pode empregar uma transformação separável e uma transformação não separável. Uma transformação separável é um método no qual uma transformação é realizada várias vezes pela realização, em separado, de uma transformação para cada uma dentre as várias direções, de acordo com o número de dimensões das entradas. Uma transformação não separável é um método de realização de uma transformação coletiva na qual duas ou mais dimensões nas entradas multidimensionais são coletivamente consideradas uma única dimensão.
[0095] Em um exemplo de uma transformação não separável, quando uma entrada é um bloco de 4 x 4, o bloco de 4 x 4 é considerado um único conjunto incluindo dezesseis elementos, e a transformação aplica uma matriz de transformação de 16 x 16 ao conjunto.
[0096] Em outro exemplo de uma transformação não separável, um bloco de entrada de 4 x 4 é considerado um único conjunto incluindo dezesseis elementos, e, então, uma transformação (transformação givens de hipercubo), na qual a revolução givens é realizada no conjunto várias vezes, pode ser realizada.
[0097] Na transformação, no transformador 106, os tipos de bases a serem transformadas em domínio de frequência, de acordo com as regiões em uma CU, podem ser comutados. Exemplos incluem transformações de variação espacial (SVT). Em SVT, como ilustrado na figura 5B, as CUs são divididas em duas regiões iguais, horizontalmente ou verticalmente, e apenas uma das regiões é transformada em domínio de frequência. Um tipo de base de transformação pode ser determinado para cada região. Por exemplo, DST7 e DST8 são utilizadas. Nesse exemplo, apenas uma dessas duas regiões na CU é transformada e a outra não é transformada. No entanto, ambas essas duas regiões podem ser transformadas. Adicionalmente, o método de divisão não está limitado à divisão em duas regiões iguais e pode ser mais flexível. Por exemplo, a CU pode ser dividida em quatro regiões iguais, ou a informação indicando a divisão pode ser codificada separadamente e pode ser sinalizada da mesma forma que a divisão CU. Deve-se notar que SVT também é referida como transformação de sub-bloco (SBT). Quantizador
[0098] O quantizador 108 quantiza os coeficientes de transforma- ção enviados a partir do transformador 106. Mais especificamente, o quantizador 108 digitaliza, em uma ordem de digitalização determinada, os coeficientes de transformação do bloco atual, e quantiza os coeficientes de transformação digitalizados com base em parâmetros de quantização (QP) correspondendo aos coeficientes de transformação.
O quantizador 108, então, envia os coeficientes de transformação quantizados (doravante também referidos como coeficientes quanti- zados) do bloco atual para o codificador por entropia 110 e o quantizador inverso 112. A ordem de digitalização determinada pode ser predeterminada.
[0099] Uma ordem de digitalização determinada é uma ordem de quantização/quantização inversa dos coeficientes de transformação. Por exemplo, uma ordem de digitalização determinada pode ser definida como a ordem ascendente de frequência (da frequência baixa para alta) ou ordem descendente de frequência (da frequência alta para baixa).
[0100] Um parâmetro de quantização (QP) é um parâmetro que define uma etapa de quantização (largura de quantização). Por exemplo, quando o valor do parâmetro de quantização aumenta, a etapa de quantização também aumenta. Em outras palavras, quando o valor do parâmetro de quantização aumenta, o erro de quantização aumenta.
[0101] Adicionalmente, uma matriz de quantização pode ser utilizada para quantização. Por exemplo, vários tipos de matrizes de quantização podem ser utilizados de forma correspondente aos tamanhos de transformação de frequência, tal como 4 x 4 e 8 x 8, modos de previsão, tal como intraprevisão e interprevisão, e componentes de pixel, tal como componentes de pixel de luminescência e crominância. Deve-se notar que quantização significa valores de digitalização amostrados em intervalos determinados de forma correspondente aos níveis determinados. Nesse campo técnico, a quantização pode ser referida utilizando-se outras expressões, tal como arredondamento e escalonamento, e pode empregar o arredondamento e o escalona- mento. Os intervalos e níveis determinados podem ser predetermi- nados.
[0102] Métodos utilizando as matrizes de quantização incluem um método que utiliza uma matriz de quantização que foi configurada diretamente no lado do codificador e um método utilizando uma matriz de quantização que foi configurada como um padrão (matriz padrão). No lado do codificador, uma matriz de quantização adequada para as características de uma imagem pode ser configurada pela configuração direta de uma matriz de quantização. Esse caso, no entanto, apresenta uma desvantagem de aumentar uma quantidade de codificação para codificar a matriz de quantização.
[0103] Existe um método de quantização de um coeficiente de alta frequência e de um coeficiente de baixa frequência sem utilizar uma matriz de quantização. Deve-se notar que esse método é equivalente a um método que utiliza uma matriz de quantização (matriz plana) cujos coeficientes apresentam o mesmo valor.
[0104] A matriz de quantização pode ser especificada utilizando-se, por exemplo, um conjunto de parâmetros de sequência (SPS) ou um conjunto de parâmetros de imagem (PPS). O SPS inclui um parâmetro que é utilizado para uma sequência, e o PPS inclui um parâmetro que é utilizado para uma imagem. Cada um dentre SPS e PPS pode ser simplesmente referido como um conjunto de parâmetros. Codificador por Entropia
[0105] O codificador por entropia 110 gera um sinal codificado (sequência de bits codificados) com base nos coeficientes quantizados que foram registrados a partir do quantizador 108. Mais especifica- mente, o codificador por entropia 110, por exemplo, binariza os coeficientes quantizados, e codifica aritmeticamente o sinal binário e envia uma sequência de bits comprimidos. Quantizador Inverso
[0106] O quantizador inverso 112 quantiza de forma inversa os coeficientes quantizados que foram registrados a partir do quantizador
108. Mais especificamente, o quantizador inverso 112 quantiza de forma inversa, em uma ordem de digitalização determinada, os coeficientes quantizados do bloco atual. O quantizador inverso 112, então, envia os coeficientes de transformação quantizados de forma inversa do bloco atual para o transformador inverso 114. A ordem de digitalização determinada pode ser predeterminada. Transformador Inverso
[0107] O transformador inverso 114 restaura os erros de previsão (residuais) pela transformação inversa dos coeficientes de transformação que foram registrados a partir do quantizador inverso
112. Mais especificamente, o transformador inverso 114 restaura os erros de previsão do bloco atual pela aplicação de uma transformação inversa que corresponde à transformação aplicada pelo transformador 106 nos coeficientes de transformação. O transformador inverso 114, então, envia os erros de previsão restaurados para o somador 116.
[0108] Deve-se notar que visto que a informação é perdida na quantização, os erros de previsão restaurados não combinam com os erros de previsão calculados pelo subtraidor 104. Em outras palavras, os erros de previsão restaurados normalmente incluem erros de quantização. Somador
[0109] O somador 116 reconstrói o bloco atual pela adição de erros de previsão que foram registrados a partir do transformador inverso 114 e amostras de previsão que foram registradas a partir do controlador de previsão 128. O somador 116, então, envia o bloco reconstruído para a memória de bloco 118 e o filtro de circuito 120. Um bloco reconstruído também é referido como um bloco decodificado local. Memória de Bloco
[0110] A memória de bloco 118 é, por exemplo, o armazenador para armazenar blocos em uma imagem a ser codificada (doravante referida como uma imagem atual) que é referida na intraprevisão. Mais especifi- camente, a memória de bloco 118 armazena os blocos reconstruídos enviados a partir do somador 116. Memória de Quadro
[0111] A memória de quadro 122 é, por exemplo, o armazenador para armazenar imagens de referência para uso na interprevisão, e também é referida como um armazenador de quadro. Mais especifi- camente, a memória de quadro 122 armazena os blocos reconstruídos filtrados pelo filtro de circuito 120. Filtro de Circuito
[0112] O filtro de circuito 120 aplica um filtro de circuito para blocos reconstruídos pelo somador 116, e envia os blocos reconstruídos filtrados para a memória de quadro 122. Um filtro de circuito é um filtro utilizado em um circuito de codificação (filtro em circuito), e inclui, por exemplo, um filtro de desbloqueio (DF ou DBF), um desvio adaptativo de amostra (SAO), e um filtro de circuito adaptativo (ALF).
[0113] Em um ALF, um filtro de erro de quadrado médio para remover os artefatos de compressão é aplicado. Por exemplo, um filtro, selecionado dentre uma pluralidade de filtros, com base na direção e atividade dos gradientes locais, é aplicado a cada um dos sub-blocos de 2 x 2 no bloco atual.
[0114] Mais especificamente, primeiro, cada sub-bloco (por exem- plo, cada sub-bloco de 2 x 2) é categorizado em uma dentre uma pluralidade de classes (por exemplo, quinze ou vinte e cinco classes). A classificação do sub-bloco é baseada na direcionalidade e atividade de gradiente. Por exemplo, o índice de classificação C (por exemplo, C = 5D + A) é derivado com base na direcionalidade de gradiente D (por exemplo, 0 a 2 ou de 0 a 4) e atividade de gradiente A (por exemplo, de 0 a 4). Então, com base no índice de classificação C, cada sub-bloco é categorizado em uma dentre uma pluralidade de classes.
[0115] Por exemplo, a direcionalidade do gradiente D é calculada pela comparação dos gradientes de uma pluralidade de direções (por exemplo, direções horizontal, vertical e duas diagonais). Ademais, por exemplo, a atividade de gradiente A é calculada pela adição dos gradientes dentre uma pluralidade de direções e quantização do resultado da adição.
[0116] O filtro a ser utilizado para cada sub-bloco é determinado dentre a pluralidade de filtros com base no resultado de tal categorização.
[0117] O formato de filtro a ser utilizado em um ALF, por exemplo, é um formato de filtro simétrico circular. As figuras de 6A a 6C ilustram exemplos de formatos de filtro utilizados em ALFs. A figura 6A ilustra um filtro em formato de diamante de 5 x 5, a figura 5B ilustra um filtro em formato de diamante de 7 x 7, e a figura 6C ilustra um filtro em formato de diamante de 9 x 9. A informação que indica o formato de filtro é normalmente sinalizado no nível de imagem. Deve-se notar que a sinalização de tal informação, que indica o formato de filtro, não precisa, necessariamente, ser realizada no nível de imagem, e pode ser realizada em outro nível (por exemplo, no nível de sequência, nível de fatia, nível de tile, nível de CTU ou nível de CU).
[0118] O LIGAR ou DESLIGAR do ALF é determinado, por exemplo, no nível de imagem ou nível de CU. Por exemplo, a decisão de se aplica o ALF à luminescência pode ser tomada no nível de CU, e a decisão de se aplica ALF à crominância pode ser tomada no nível de imagem. A informação indicando LIGADO ou DESLIGADO do ALF é normalmente sinalizada no nível de imagem ou nível de CU. Deve-se notar que a sinalização da informação que indica LIGADO ou DESLIGADO do ALF não precisa, necessariamente, ser realizada no nível de imagem ou nível de CU e pode ser realizada em outro nível (por exemplo, no nível de sequência, nível de fatia, nível de tile ou nível de CTU).
[0119] O conjunto de coeficientes para a pluralidade de filtros selecionáveis (por exemplo, quinze ou até vinte e cinco filtros) é normalmente sinalizado no nível de imagem. Deve-se notar que a sinalização do conjunto de coeficientes não precisa, necessariamente, ser realizada no nível da imagem, e pode ser realizada em outro nível (por exemplo, no nível de sequência, nível de fatia, nível de tile, nível de CTU, nível de CU, ou nível de sub-bloco). Filtro de Circuito > Filtro de Desbloqueio
[0120] Em um filtro de desbloqueio, o filtro de circuito 120 realiza um processo de filtro em um limite de bloco em uma imagem reconstruída de modo a reduzir a distorção que ocorre no limite de bloco.
[0121] A figura 7 é um diagrama em bloco ilustrando um exemplo de uma configuração específica do filtro de circuito 120 que funciona como um filtro de desbloqueio.
[0122] O filtro de circuito 120 inclui o determinador de limite 1201; o determinador de filtro 1203; o executor de filtragem 1205; o determi- nador de processo 1208; o determinador de característica de filtro 1207; e comutadores 1202, 1204 e 1206.
[0123] O determinador de limite 1201 determina se um pixel a ser filtrado por desbloqueio (isso é, um pixel atual) está presente em torno de um limite de bloco. O determinador de limite 1201, então, envia o resultado da determinação para o comutador 1202 e o determinador de processamento 1208.
[0124] No caso no qual o determinador de limite 1201 determinou que um pixel atual está presente em torno de um limite de bloco, o comutador 1202 envia uma imagem não filtrada para o comutador 1204. No caso oposto, no qual o determinador de limite 1201 determinou que nenhum pixel está presente em torno de um limite de bloco, o comutador 1202 envia uma imagem não filtrada para o comutador 1206.
[0125] O determinador de filtro 1203 determina se realiza a filtragem de desbloqueio do pixel atual, com base no valor de pixel de pelo menos um pixel circundante localizado em torno do pixel atual. O determinador de filtro 1203, então, envia o resultado da determinação para o comu- tador 1204 e o determinador de processamento 1208.
[0126] No caso no qual o determinador de filtro 1203 determinou a realização da filtragem de desbloqueio do pixel atual, o comutador 1204 envia a imagem não filtrada obtida através do comutador 1202 para o executor de filtragem 1205. No caso oposto, no qual o determinador de filtro 1203 determinou a não realização da filtragem de desbloqueio do pixel atual, o comutador 1204 envia a imagem não filtrada obtida através do comutador 1202 para o comutador 1206.
[0127] Quando da obtenção da imagem não filtrada através dos comutadores 1202 e 1204, o executor de filtragem 1205 executa, para o pixel atual, a filtragem de desbloqueio com a característica de filtro determinada pelo determinador de característica de filtro 1207. O executor de filtragem 1205, então, envia o pixel filtrado para o comu- tador 1206.
[0128] Sob o controle pelo determinador de processamento 1208, o comutador 1206 envia, seletivamente, um pixel que não foi filtrado por desbloqueio e um pixel que foi filtrado por desbloqueio pelo executor de filtragem 1205.
[0129] O determinador de processamento 1208 controla o comu- tador 1206 com base nos resultados das determinações realizadas pelo determinador de limite 1201 e determinador de filtro 1203. Em outras palavras, o determinador de processamento 1208 faz com que o comutador 1206 envie o pixel que foi filtrado por desbloqueio quando o determinador de limite 1201 determinou que o pixel atual está presente em torno do limite de bloco e determinador de filtro 1203 determinou a realização da filtragem de desbloqueio do pixel atual. Adicionalmente, outros além do caso acima, o determinador de processamento 1208 faz com que o comutador 1206 envie o pixel que não foi filtrado por desbloqueio. Uma imagem filtrada é enviada a partir do comutador 1206 pela repetição da saída de um pixel dessa forma.
[0130] A figura 8 é um diagrama conceitual indicando um exemplo de um filtro de desbloqueio possuindo uma característica de filtragem simétrica com relação a um limite de bloco.
[0131] Em um processo de filtro de desbloqueio, um dos dois filtros de desbloqueio, possuindo diferentes características, isso é, um filtro forte e um filtro fraco, é selecionado utilizando-se valores de pixel e parâmetros de quantização. No caso do filtro forte, os pixels de P0 a P2 e os pixels de q0 a q2 estão presentes através de um limite de bloco como ilustrado na figura 8, os valores de pixel, do pixel respectivo de q0 a q2, são alterados para os valores de pixel de q'0 a q'2 pela realização, por exemplo, de computações de acordo com as expressões abaixo.
[0132] q'0 = (p1 + 2 x p0 + 2 x q0 + 2 x q1 + q2 + 4)/8 q'1 = (p0 +q0 + q1 + q2 + 2)/4 q'2 = (p0 + q0 + q1 + 3 x q2 + 2 x q3 + 4)/8
[0133] Deve-se notar que, nas expressões acima, p0 a p2 e q0 a q2 são os valores de pixel, dos pixels respectivos p0 a p2 e pixels de q0 a q2. Adicionalmente, q3 é o valor de pixel do pixel vizinho q3 localizado no lado oposto do pixel q2 com relação ao limite de bloco. Adicional- mente, no lado direito de cada uma das expressões, os coeficientes que são multiplicados com valores de pixel respectivos dos pixels a serem utilizados para a filtragem de desbloqueio são coeficientes de filtro.
[0134] Adicionalmente, na filtragem de desbloqueio, a fixação pode ser realizada de modo que os valores de pixel calculados não sejam configurados acima de um valor limite. No processo de fixação, os valores de pixel calculados, de acordo com as expressões acima, são fixados em um valor obtido de acordo com "um valor de pixel de computação +/- 2 x a do valor limite" utilizando um valor limite determi- nado com base em um parâmetro de quantização. Dessa forma, é possível se evitar a suavização excessiva.
[0135] A figura 9 é um diagrama conceitual para ilustrar um limite de bloco no qual um processo de filtro de desbloqueio é realizado. A figura 10 é um diagrama conceitual indicando exemplos de valores Bs.
[0136] O limite de bloco no qual o processo de filtro de desbloqueio é realizado é, por exemplo, um limite entre as unidades de previsão (PU) possuindo blocos de pixel de 8 x 8, como ilustrado na figura 9, ou um limite entre as unidades de transformação (TU). O processo de filtro de desbloqueio pode ser realizado em unidades de quatro fileiras ou quatro colunas. Primeiro, os valores de resistência de limite (BS) são determinados como indicado na figura 10 para o bloco P e bloco Q, ilustrados na figura 9.
[0137] De acordo com os valores BS na figura 10, se se realiza os processos de filtro de desbloqueio dos limites de bloco pertencentes à mesma imagem utilizando resistências diferentes, é determinado. O processo de filtro de desbloqueio para um sinal de crominância é realizado quando um valor Bs é igual a 2. O processo de filtro de desbloqueio para um sinal de luminescência é realizado quando um valor Bs é igual a 1 ou mais e uma condição determinada é satisfeita. A condição determinada pode ser predeterminada. Deve-se notar que as condições para se determinar os valores Bs não estão limitadas às indicadas na figura 10, e um valor Bs pode ser determinado com base em outro parâmetro. Processador de Previsão (Intraprevisor, Interprevisor, Controlador de Previsão)
[0138] A figura 11 é um fluxograma ilustrando um exemplo de um processo realizado pelo processador de previsão do codificador 100. Deve-se notar que o processador de previsão inclui todos ou parte dos seguintes elementos constituintes: intraprevisor 124; interprevisor 126; e controlador de previsão 128.
[0139] O processador de previsão gera uma imagem de previsão de um bloco atual (Etapa Sb_1). Essa imagem de previsão também é referida como um sinal de previsão ou um bloco de previsão. Deve-se notar que o sinal de previsão é, por exemplo, um sinal de intraprevisão ou um sinal de interprevisão. Especificamente, o processador de previsão gera a imagem de previsão do bloco atual utilizando uma imagem reconstruída que já foi obtida através da geração de um bloco de previsão, geração de um bloco de diferença, geração de um bloco de coeficientes, restauração de um bloco de diferença, e geração de um bloco de imagem decodificada.
[0140] A imagem reconstruída pode ser, por exemplo, uma imagem em uma imagem de referência, ou uma imagem de um bloco codificado em uma imagem de referência que é a imagem que inclui o bloco atual. O bloco codificado na imagem atual é, por exemplo, um bloco vizinho do bloco atual.
[0141] A figura 12 é um fluxograma ilustrando outro exemplo de um processo realizado pelo processador de previsão do codificador 100.
[0142] O processador de previsão gera uma imagem de previsão utilizando um primeiro método (Etapa Sc_1a), gera uma imagem de previsão utilizando um segundo método (Etapa Sc_1b), e gera uma imagem de previsão utilizando um terceiro método (Etapa Sc_1c). O primeiro método, o segundo método e o terceiro métodos podem ser métodos mutuamente diferentes para gerar uma imagem de previsão. Cada um dos primeiro a terceiro métodos pode ser um método de interprevisão, um método de intraprevisão, ou outro método de previsão. A imagem reconstruída descrita acima pode ser utilizada nesses métodos de previsão.
[0143] A seguir, o processador de previsão seleciona qualquer um dentre uma pluralidade de métodos de previsão gerados nas Etapas Sc_1a, Sc_1b, Sc_1c (Etapa Sc_2). A seleção da imagem de previsão,
que é a seleção de um método ou um modo para obter uma imagem de previsão final, pode ser realizada pelo cálculo de um custo para cada uma das imagens de previsão geradas e com base no custo. Alternati- vamente, a seleção da imagem de previsão pode ser feita com base em um parâmetro que é utilizado em um processo de codificação. O codificador 100 pode transformar a informação de identificação de uma imagem de previsão selecionada, um método ou um modo em um sinal codificado (também referido como sequência de bits codificados). A informação pode ser, por exemplo, um indicador ou similar. Dessa forma, o decodificador pode gerar uma imagem de previsão de acordo com o método ou modo selecionado com base na informação no codificador 100. Deve-se notar que, no exemplo ilustrado na figura 12, o processador de previsão seleciona qualquer uma das imagens de previsão depois que as imagens de previsão são geradas utilizando-se os métodos respectivos. No entanto, o processador de previsão pode selecionar um método ou um modo com base em um parâmetro para uso no processo de codificação descrito acima antes de gerar imagens de previsão, e pode gerar uma imagem de previsão de acordo com o método ou modo selecionado.
[0144] Por exemplo, o primeiro método e o segundo método podem ser intraprevisão e interprevisão, respectivamente, e o processador de previsão pode selecionar uma imagem de previsão final para um bloco atual a partir das imagens de previsão geradas de acordo com os métodos de previsão.
[0145] A figura 13 é um fluxograma ilustrando outro exemplo de um processo realizado pelo processador de previsão do codificador 100.
[0146] Primeiro, o processador de previsão gera uma imagem de previsão utilizando a intraprevisão (Etapa Sd_1a), e gera uma imagem de previsão utilizando a interprevisão (Etapa Sd_1b). Deve-se notar que a imagem de previsão gerada pela intraprevisão também é referida como uma imagem de intraprevisão, e a imagem de previsão gerada pela interprevisão também é referida como uma imagem de interprevisão.
[0147] A seguir, o processador de previsão avalia cada uma dentre a imagem de intraprevisão e a imagem de interprevisão (Etapa Sd_2). Um custo pode ser utilizado na avaliação. Em outras palavras, o processador de previsão calcula o custo C para cada uma dentre a imagem de intraprevisão e a imagem de interprevisão. O custo C pode ser calculado de acordo com uma expressão de um modelo de otimização R-D, por exemplo, C = D +  x R. Nessa expressão, D indica uma distorção de codificação de uma imagem de previsão, e é repre- sentado como, por exemplo, uma soma das diferenças absolutas entre o valor de pixel de um bloco atual e o valor de pixel de uma imagem de previsão. Adicionalmente, R indica uma quantidade de codificação prevista de uma imagem de previsão, especificamente, a quantidade de codificação necessária para se codificar a informação de movimento para gerar uma imagem de previsão, etc. Adicionalmente,  indica, por exemplo, um multiplicador de acordo com o método do multiplicador Lagrange.
[0148] O processador de previsão, então, seleciona a imagem de previsão para a qual o menor custo C foi calculado dentre a imagem de intraprevisão e a imagem de interprevisão, como a imagem de previsão final para o bloco atual (Etapa Sd_3). Em outras palavras, o método de previsão ou o modo de geração da imagem de previsão para o bloco atual é selecionado. Intraprevisor
[0149] O intraprevisor 124 gera um sinal de previsão (sinal de intraprevisão) pela realização da intraprevisão (também referida como previsão de intraquadro) do bloco atual por referência a um bloco ou blocos na imagem atual e armazenados na memória de bloco 118. Mais especificamente, o intraprevisor 124 gera um sinal de intraprevisão pela realização da intraprevisão por referência às amostras (por exemplo, valores de luminescência e/ou crominância) de um bloco ou blocos vizinhos do bloco atual, e, então, envia o sinal de intraprevisão para o controlador de previsão 128.
[0150] Por exemplo, o intraprevisor 124 realiza a intraprevisão pela utilização de um modo, dentre uma pluralidade de modos de intraprevisão, que foram definidos. Os modos de intraprevisão incluem um ou mais modos de previsão não direcional e uma pluralidade de modos de previsão direcional. Os modos definidos podem ser predefinidos.
[0151] Os um ou mais modos de previsão não direcional incluem, por exemplo, o modo de previsão plana e o modo de previsão DC definido no padrão H.265/codificação de vídeo de alta eficiência (HEVC).
[0152] A pluralidade de modos de previsão direcional inclui, por exemplo, os trinta e três modos de previsão direcional definidos no padrão H.265/HEVC. Deve-se notar que a pluralidade de modos de previsão direcional pode incluir adicionalmente trinta e dois modos de previsão direcional em adição aos trinta e três modos de previsão direcional (para um total de sessenta e cinco modos de previsão direcional). A figura 14 é um diagrama conceitual ilustrando sessenta e sete modos de intraprevisão no total que podem ser utilizados na intraprevisão (dois modos de previsão não direcional e sessenta e cinco modos de previsão direcional). As setas sólidas representam as trinta e três direções definidas no padrão H.265/HEVC, e as setas tracejadas representam as trinta e duas direções adicionais (os dois modos de previsão não direcional não são ilustrados na figura 14).
[0153] Em vários tipos de exemplos de processamento, um bloco de luminescência pode ser referido na intraprevisão de um bloco de crominância. Em outras palavras, um componente de crominância do bloco atual pode ser previsto com base em um componente de luminescência do bloco atual. Tal intraprevisão também é referida como uma previsão de modelo linear de componente cruzado (CCLM). O modo de intraprevisão para um bloco de crominância, no qual tal bloco de luminescência é referido (também referido, por exemplo, como um modo CCLM), pode ser adicionado como um dos modos de intraprevisão para blocos de crominância.
[0154] O intraprevisor 124 pode corrigir os valores de pixel intraprevistos com base nos gradientes de pixel de referência horizontal/vertical. A intraprevisão acompanhada por esse tipo de correção também é referida como uma combinação de intraprevisão dependente de posição (PDPC). A informação que indica se aplica PDPC (referida, por exemplo, como um indicador PDPC) é normalmente sinalizada no nível de CU. Deve-se notar que a sinalização de tal informação não precisa, necessariamente, ser realizada no nível de CU, e pode ser realizada em outro nível (por exemplo, no nível de sequência, nível de imagem, nível de fatia, nível de tile, ou nível de CTU). Interprevisor
[0155] O interprevisor 126 gera um sinal de previsão (sinal de interprevisão) pela realização da interprevisão (também referida como previsão interquadro) do bloco atual por referência a um bloco ou blocos em uma imagem de referência, que é diferente da imagem atual e é armazenada na memória de quadro 122. A interprevisão é realizada em unidades de um bloco atual ou um sub-bloco atual (por exemplo, um bloco de 4 x 4) no bloco atual. Por exemplo, o interprevisor 126 realiza a estimativa de movimento em uma imagem de referência para o bloco atual o sub-bloco atual, e descobre um bloco de referência ou um sub- bloco que melhor combine com o bloco atual ou sub-bloco atual. O interprevisor 126, então, obtém a informação de movimento (por exemplo, um vetor de movimento que compensa um movimento ou uma mudança do bloco de referência ou sub-bloco para o bloco atual ou sub- bloco atual. O interprevisor 126 gera um sinal de interprevisão do bloco atual ou sub-bloco pela realização da compensação de movimento (ou previsão de movimento) com base na informação de movimento. O interprevisor 126 envia o sinal de interprevisão gerado para o controla- dor de previsão 128.
[0156] A informação de movimento utilizada na compensação de movimento pode ser sinalizada como sinais de interprevisão de várias formas. Por exemplo, um vetor de movimento pode ser sinalizado. Como outro exemplo, a diferença entre um vetor de movimento e um previsor de vetor de movimento pode ser sinalizada. Fluxo Básico de Interprevisão
[0157] A figura 15 é um fluxograma ilustrando um fluxo de processamento básico ilustrativo de interprevisão.
[0158] Primeiro, o interprevisor 126 gera um sinal de previsão (Etapas Se_1 a Se_3). A seguir, o subtraidor 104 gera a diferença entre um bloco atual e uma imagem de previsão como um residual de previsão (Etapa Se_4).
[0159] Aqui, na geração da imagem de previsão, o interprevisor 126 gera a imagem de previsão através da determinação de um vetor de movimento (MV) do bloco atual (Etapas Se_1 e Se_2) e compensação de movimento (Etapa Se_3). Adicionalmente, na determinação de um MV, o interprevisor 126 determina o MV através da seleção de um candidato a vetor de movimento (candidato a MV) (Etapa Se_1) e derivação de um MV (Etapa Se_2). A seleção do candidato a MV é feita, por exemplo, pela seleção de pelo menos um candidato a MV a partir de uma lista de candidatos a MV. Alternativamente, na derivação de um MV, o interprevisor 126 pode selecionar adicionalmente pelo menos um candidato a MV a partir de pelo menos um candidato a MV, e determinar o pelo menos um candidato a MV selecionado como o MV para o bloco atual. Alternativamente, o interprevisor 126 pode determinar o MV para o bloco atual pela realização da estimativa em uma região de imagem de referência especificada por cada um dos pelo menos um candidato a MV selecionado. Deve-se notar que a estimativa em uma região de imagem de referência pode ser referida como estimativa de movimento.
[0160] Adicionalmente, apesar de as Etapas Se_1 a Se_3 serem realizadas pelo interprevisor 126 no exemplo descrito acima, um processo que é, por exemplo, a Etapa Se_1, Etapa Se_2 ou similar, pode ser realizado por outro elemento constituinte incluído no codificador 100. Fluxo de Derivação de Vetor de Movimento
[0161] A figura 16 é um fluxograma ilustrando um exemplo de derivação de vetores de movimento.
[0162] O interprevisor 126 deriva um MV de um bloco atual em um modo para codificar a informação de movimento (por exemplo, um MV). Nesse caso, por exemplo, a informação de movimento é codificada como um parâmetro de previsão e é sinalizada. Em outras palavras, a informação de movimento codificada é incluída em um sinal codificado (também referido como uma sequência de bits codificados).
[0163] Alternativamente, o interprevisor 126 deriva um MV em um modo no qual a informação de movimento não está codificada. Nesse caso, nenhuma informação de movimento está incluída em um sinal codificado.
[0164] Aqui, os modos de derivação de MV podem incluir um intermodo normal, um modo de mistura, um modo FRUC, um modo afim, etc. que serão descritos posteriormente. Os modos nos quais a informação de movimento é codificada, dentre os modos, incluem o intermodo normal, o modo de mistura, o modo afim (especificamente, um intermodo afim e um modo de mistura afim), etc. Deve-se notar que a informação de movimento pode incluir não apenas um MV, mas também a informação de seleção de previsor de vetor de movimento que será descrita posteriormente. Os modos nos quais nenhuma informação de movimento é codificada incluem o modo FRUC, etc. O interprevisor 126 seleciona um modo para derivar um MV do bloco atual a partir da pluralidade de modos, e deriva o MV do bloco atual utilizando o modo selecionado.
[0165] A figura 17 é um fluxograma ilustrando outro exemplo de derivação de vetores de movimento.
[0166] O interprevisor 126 deriva um MV de um bloco atual em um modo no qual uma diferença de MV é codificada. Nesse caso, por exemplo, a diferença de MV é codificada como um parâmetro de previsão, e é sinalizada. Em outras palavras, a diferença de MV codificada é incluída em um sinal codificado. A diferença de MV é a diferença entre o MV do bloco atual e o previsor de MV.
[0167] Alternativamente, o interprevisor 126 deriva um MV em um modo no qual nenhuma diferença de MV é codificada. Nesse caso, nenhuma diferença de MV codificada é incluída em um sinal codificado.
[0168] Aqui, como descrito acima, os modos de derivação de MV incluem o intermodo normal, o modo de mistura, o modo FRUC, o modo afim, etc. que serão descritos posteriormente. Os modos nos quais uma diferença de MV é codificada entre os modos inclui o intermodo normal, o modo afim (especialmente, o intermodo afim), etc. Os modos nos quais nenhuma diferença de MV é codificada incluem o modo FRUC, o modo de mistura, o modo afim (especificamente, o modo de mistura afim), etc. O interprevisor 126 seleciona um modo de derivação de um MV do bloco atual a partir da pluralidade de modos e deriva o MV do bloco atual utilizando o modo selecionado. Fluxo de Derivação de Vetor de Movimento
[0169] A figura 18 é um fluxograma ilustrando outro exemplo de derivação de vetores de movimento. Os modos de derivação de MV, que são modos de interprevisão, incluem uma pluralidade de modos e são divididos, aproximadamente, em modos nos quais uma diferença de MV é codificada e modos nos quais nenhuma diferença de vetor de movimento é codificada. Os modos nos quais nenhuma diferença de MV é codificada incluem o modo de mistura, o modo FRUC, o modo afim (especificamente, o modo de mistura afim), etc. Esses modos são descritos em detalhes posteriormente. Simplesmente, o modo de mistura é um modo para derivar um MV de um bloco atual pela seleção de um vetor de movimento a partir de um bloco circundante codificado, e o modo FRUC é um modo para derivar um MV a partir de um bloco atual pela realização da estimativa entre regiões codificadas. O modo afim é um modo para derivar, como um MV de um bloco atual, um vetor de movimento de cada um dentre uma pluralidade de sub-blocos incluídos no bloco atual, considerando a transformação afim.
[0170] Mais especificamente, como ilustrado quando a informação do modo de interprevisão indica 0 (0 em Sf_1), o interprevisor 126 deriva um vetor de movimento utilizando o modo de mistura (Sf_2). Quando a informação do modo de interprevisão indica 1 (1 em Sf_1), o interprevisor 126 deriva um vetor de movimento utilizando o modo FRUC (Sf_3). Quando a informação de modo de interprevisão indica 2 (2 em Sf_1), o interprevisor 126 deriva um vetor de movimento utilizando o modo afim (especificamente, o modo de mistura afim) (Sf_4). Quando a informação de modo de interprevisão indica 3 (3 em Sf_1), o interprevisor 126 deriva um vetor de movimento utilizando um modo no qual uma diferença de MV é codificada (por exemplo, um intermodo normal (Sf_5)). Derivação de MV > Intermodo Normal
[0171] O intermodo normal é um modo de interprevisão para derivar um MV de um bloco atual com base em um bloco similar à imagem do bloco atual a partir de uma região de imagem de referência especificada por um candidato a MV. Nesse intermodo normal, uma diferença de MV é codificada.
[0172] A figura 19 é um fluxograma ilustrando um exemplo de interprevisão no intermodo normal.
[0173] Primeiro, o interprevisor 126 obtém uma pluralidade de candidatos a MV para um bloco atual com base na informação, tal como MVs de uma pluralidade de blocos codificados que cercam, de forma temporal ou espacial, o bloco atual (Etapa Sg_1). Em outras palavras, o interprevisor 126 gera uma lista de candidatos a MV.
[0174] A seguir, o interprevisor 126 extrai N (um inteiro igual a 2 ou mais) candidatos a MV a partir da pluralidade de candidatos a MV obtidos na Etapa Sg_1, como os candidatos a previsor de vetor de movimento (também referidos como candidatos a previsor de MV) de acordo com uma ordem de prioridade determinada (Etapa Sg_2). Deve- se notar que a ordem de prioridade pode ser determinada antecipada- mente para cada um dos N candidatos a MV.
[0175] A seguir, o interprevisor 126 seleciona um candidato a previsor de vetor de movimento a partir dos N candidatos a previsor de vetor de movimento, como o previsor de vetor de movimento (também referido como um previsor de MV) do bloco atual (Etapa Sg_3). Nesse momento, o interprevisor 126 codifica, em uma sequência, a informação de seleção de previsor de vetor de movimento para identificar o previsor de vetor de movimento selecionado. Deve-se notar que a sequência é um sinal codificado ou uma sequência de bits codificados como descrito acima.
[0176] A seguir, o interprevisor 126 deriva um MV de um bloco atual por referência a uma imagem de referência codificada (Etapa Sg_4). Nesse momento, o interprevisor 126 codifica adicionalmente, na sequência, o valor de diferença entre o MV derivado e o previsor de vetor de movimento como uma diferença de MV. Deve-se notar que a imagem de referência codificada é uma imagem incluindo uma pluralidade de blocos que foram reconstruídos depois de serem codificados.
[0177] Por fim, o interprevisor 126 gera uma imagem de previsão para o bloco atual pela realização da compensação de movimento do bloco atual utilizando o MV derivado e a imagem de referência codificada (Etapa Sg_5). Deve-se notar que a imagem de previsão é um sinal de interprevisão como descrito acima.
[0178] Adicionalmente, a informação que indica o modo de interprevisão (intermodo normal no exemplo acima) utilizado para gerar a imagem de previsão é, por exemplo, codificada como um parâmetro de previsão.
[0179] Deve-se notar que a lista de candidatos a MV também pode ser utilizada como uma lista para uso em outro modo. Adicionalmente, os processos relacionados à lista de candidatos a MV podem ser aplicados aos processos relacionados à lista para uso em outro modo. Os processos relacionados à lista de candidatos a MV incluem, por exemplo, extração ou seleção de um candidato a MV a partir da lista de candidatos a MV, reordenação dos candidatos a MV ou eliminação de um candidato a MV. Derivação de MV > Modo de Mistura
[0180] O modo de mistura é um modo de interprevisão para selecionar um candidato a MV a partir de uma lista de candidatos a MV como um MV de um bloco atual, derivando, assim, o MV.
[0181] A figura 20 é um fluxograma ilustrando um exemplo de interprevisão no modo de mistura.
[0182] Primeiro, o interprevisor 126 obtém uma pluralidade de candidatos a MV para um bloco atual com base na informação, tal como MVs de uma pluralidade de blocos codificados, que cercam, de forma temporal ou espacial, o bloco atual (Etapa Sh_1). Em outras palavras, o interprevisor 126 gera uma lista de candidatos a MV.
[0183] A seguir, o interprevisor 126 seleciona um candidato a MV dentre a pluralidade de candidatos a MV obtidos na Etapa Sh_1, derivando, assim, um MV do bloco atual (Etapa Sh_2). Nesse momento, o interprevisor 126 codifica, em uma sequência, a informação de seleção de MV para identificar o candidato a MV selecionado.
[0184] Por fim, o interprevisor 126 gera uma imagem de previsão para o bloco atual pela realização da compensação de movimento do bloco atual utilizando o MV derivado e a imagem de referência codifi- cada (Etapa Sh_3).
[0185] Adicionalmente, a informação que indica o modo de interprevisão (modo de mistura no exemplo acima) utilizado para gerar a imagem de previsão e incluída no sinal codificado é, por exemplo, codificada como um parâmetro de previsão.
[0186] A figura 21 é um diagrama conceitual para ilustrar um exem- plo de um processo de derivação de vetor de movimento de uma imagem atual no modo de mistura.
[0187] Primeiro, uma lista de candidatos a MV, na qual os candidatos a previsor de MV são registrados, é gerada. Exemplos dos candidatos a previsor de MV incluem previsores de MV espacialmente vizinhos que são MVs dentre uma pluralidade de blocos codificados localizados espacialmente cercando um bloco atual; previsores de MV temporalmente vizinhos que são MVs de blocos circundantes nos quais a posição de um bloco atual em uma imagem de referência codificada é projetada; previsores de MV combinados que são MVs gerados pela combinação do valor de MV de um previsor de MV espacialmente vizinho e o MV de um previsor de MV temporalmente vizinho; e um previsor de MV zero que é um MV possuindo um valor igual a zero.
[0188] A seguir, um previsor de MV é selecionado a partir de uma pluralidade de previsores de MV registrados em uma lista de previsores de MV, e o previsor de MV selecionado é determinado como o MV de um bloco atual.
[0189] Adicionalmente, o codificador de comprimento variável descreve e codifica, em uma sequência, merge_idx que é um sinal que indica qual previsor de MV foi selecionado.
[0190] Deve-se notar que os previsores de MV registrados na lista de previsores de MV descrita na figura 21 são exemplos. O número de previsores de MV pode ser diferente do número de previsores de MV no diagrama, a lista de previsores de MV pode ser configurada de tal forma que alguns dos tipos de previsores de MV no diagrama possam não ser incluídos, ou que um ou mais previsores de MV, além dos tipos de previsores de MV no diagrama, sejam incluídos.
[0191] Um MV final pode ser determinado pela realização de um processo de refinamento de vetor de movimento de decodificador (DMVR), a ser descrito posteriormente utilizando o MV do bloco atual, derivado no modo de mistura.
[0192] Deve-se notar que os candidatos a previsor de MV são candidatos a MV descritos acima, e a lista de previsores de MV é a lista de candidatos a MV descrita acima. Deve-se notar que a lista de candidatos a MV pode ser referida como uma lista de candidatos. Adicionalmente, merge_idx é a informação de seleção de MV. Derivação de MV > Modo FRUC
[0193] A informação de movimento pode ser derivada no lado do decodificador sem ser sinalizada a partir do lado do codificador. Deve- se notar que, como descrito acima, o modo de mistura definido no padrão H.265/HEVC pode ser utilizado. Adicionalmente, por exemplo, a informação de movimento pode ser derivada pela realização da estimativa de movimento no lado do decodificador. Em uma modalidade, no lado do decodificador, a estimativa de movimento é realizada sem a utilização de um valor de pixel em um bloco atual.
[0194] Aqui, um modo para realizar a estimativa de movimento no lado do decodificador é descrito. O modo para realizar a estimativa de movimento no lado do decodificador pode ser referido como um modo de derivação de vetor de movimento de padrão combinado (PMMVD), ou um modo de conversão ascendente de taxa de quadro (FRUC).
[0195] Um exemplo de um processo FRUC na forma de um fluxograma é ilustrado na figura 22. Primeiro, uma lista de uma plurali- dade de candidatos, cada um possuindo um previsor de vetor de movimento (MV) (isso e, uma lista de candidatos a MV que também pode ser utilizada como uma lista de mistura), é gerada por referência a um vetor de movimento em um bloco codificado, que é espacial ou temporalmente vizinho de um bloco atual (Etapa Si_1). A seguir, um melhor candidato a MV é selecionado a partir da pluralidade de candidatos a MV registrados na lista de candidatos a MV (Etapa Si_2). Por exemplo, os valores de avaliação dos candidatos a MV respectivos incluídos na lista de candidatos a MV são calculados, e um candidato a MV é selecionado com base nos valores de avaliação. Com base nos candidatos a vetor de movimento selecionados, um vetor de movimento para o bloco atual é, então, derivado (Etapa Si_4). Mais especifica- mente, por exemplo, o candidato a vetor de movimento selecionado (melhor candidato a MV) é derivado diretamente como o vetor de movimento para o bloco atual. Adicionalmente, por exemplo, o vetor de movimento para o bloco atual pode ser derivado utilizando-se a combinação de padrão em uma região circundante de uma posição em uma imagem de referência, onde a posição na imagem de referência corresponde ao segundo candidato a vetor de movimento. Em outras palavras, a estimativa utilizando a combinação de padrões e os valores de avaliação pode ser realizada na região circundante do melhor candidato a MV, e quando houver um MV que resulta em um melhor valor de avaliação, o melhor candidato a MV pode ser atualizado para o MV que resulta no melhor valor de avaliação, e o MV atualizado pode ser determinado como o MV final para o bloco atual. Uma configuração na qual nenhum processo como esse, para atualização do melhor candidato a MV para o MV possuindo um melhor valor de avaliação é realizado, também é possível.
[0196] Por fim, o interprevisor 126 gera uma imagem de previsão para o bloco atual pela realização da compensação de movimento do bloco atual utilizando o MV derivado e a imagem de referência codifi- cada (Etapa Si_5).
[0197] Um processo similar pode ser realizado em unidades de um sub-bloco.
[0198] Os valores de avaliação podem ser calculados de acordo com vários tipos de métodos. Por exemplo, uma comparação é feita entre uma imagem reconstruída em uma região em uma imagem de referência correspondente a um vetor de movimento e uma imagem reconstruída em uma região determinada (a região pode ser, por exemplo, uma região em outra imagem de referência ou uma região em um bloco vizinho de uma imagem atual, como indicado abaixo). A região determinada pode ser predeterminada. A diferença entre os valores de pixel das duas imagens reconstruídas pode ser utilizada para um valor de avaliação dos vetores de movimento. É notado que um valor de avaliação pode ser calculado utilizando-se informação além do valor de diferença.
[0199] A seguir, um exemplo da combinação de padrão é descrito em detalhes. Primeiro, um candidato a MV incluído em uma lista de candidatos a MV (por exemplo, uma lista de mistura) é selecionado como um ponto de partida da estimativa pela combinação de padrão. Por exemplo, como a combinação de padrão, uma primeira combinação de padrão ou uma segunda combinação de padrão pode ser utilizada.
A primeira combinação de padrão e a segunda combinação de padrão também são referidas como combinação bilateral e combinação de gabarito, respectivamente. Derivação de MV > FRUC > Combinação Bilateral
[0200] Na primeira combinação de padrão, a combinação de padrão é realizada entre dois blocos ao longo de uma trajetória de movimento de um bloco atual que são dois blocos em duas imagens de referência diferentes. De acordo, na primeira combinação de padrão, uma região em outra imagem de referência, ao longo da trajetória de movimento do bloco atual é utilizada como uma região determinada para se calcular o valor de avaliação do candidato descrito acima. A região determinada pode ser predeterminada.
[0201] A figura 23 é um diagrama conceitual para ilustrar um exemplo da primeira combinação de padrão (combinação bilateral) entre os dois blocos nas duas imagens de referência ao longo da trajetória de movimento. Como ilustrado na figura 23, na primeira combinação de padrão, dois vetores de movimento (MV0, MV1) são derivados pela estimativa de um par que melhor combina dentre os pares nos dois blocos nas duas imagens de referência diferentes (Ref0, Ref1), que são os dois blocos ao longo da trajetória de movimento do bloco atual (Cur block). Mais especificamente, uma diferença entre a imagem reconstruída em um local especificado na primeira imagem de referência codificada (Ref0), especificada por um candidato a MV, e a imagem reconstruída em um local especificado na segunda imagem de referência codificada (Ref1), especificada por um MV simétrico obtido pelo escalonamento do candidato a MV em um intervalo de tempo de exibição, é derivada para o bloco atual, e um valor de avaliação é calculado utilizando-se o valor da diferença obtida. É possível se selecionar, como o MV final, o candidato a MV que resulte no melhor valor de avaliação dentre a pluralidade de candidatos a MV, e que tenha maiores chances de produzir bons resultados.
[0202] Considerando-se uma trajetória de movimento contínuo, os vetores de movimento (MV0, MV1), que especificam os dois blocos de referência, são proporcionais às distâncias temporais (TD0, TD1) entre a imagem atual (Cur Pic) e as duas imagens de referência (Ref0, Ref1). Por exemplo, quando a imagem atual é localizada temporalmente entre as duas imagens de referência, e as distâncias temporais a partir da imagem atual para as duas imagens de referência respectivas são iguais uma à outra, os vetores de movimento bidirecionais simétricos e espelhados são derivados na primeira combinação de padrão. Derivação de MV > FRUC > Combinação de Gabarito
[0203] Na segunda combinação de padrão (combinação de gabarito), a combinação de padrão é realizada entre um bloco em uma imagem de referência e um gabarito na imagem atual (o gabarito é um bloco vizinho ao bloco atual na imagem atual (o bloco vizinho é, por exemplo, um bloco vizinho superior e/ou esquerdo)). De acordo, na segunda combinação de padrão, o bloco vizinho ao bloco atual na imagem atual é utilizado como a região determinada para se calcular o valor de avaliação do candidato descrito acima.
[0204] A figura 24 é um diagrama conceitual para ilustrar um exemplo de combinação de padrão (combinação de gabarito) entre um gabarito em uma imagem atual e um bloco em uma imagem de referência. Como ilustrado na figura 24, na segunda combinação de padrão, o vetor de movimento do bloco atual (Cur block) é derivado por estimativa, na imagem de referência (Ref0), o bloco que melhor combina com o bloco vizinho do bloco atual na imagem atual (Cur Pic). Mais especificamente, é possível que a diferença entre uma imagem recons- truída em uma região codificada, que é vizinha pelo lado esquerdo e por cima, ou pelo lado esquerdo ou acima, e uma imagem reconstruída, que está em uma região correspondente na imagem de referência codificada
(Ref0) e é especificada por um candidato a MV, seja derivada, um valor de avaliação seja calculado utilizando-se o valor da diferença obtida, e o candidato a MV que resulta no melhor valor de avaliação dentre uma pluralidade de candidatos a MV seja selecionado como o melhor candidato a MV.
[0205] Tal informação indicando se se aplica o modo FRUC, ou não, (referido, por exemplo, como um indicador FRUC) pode ser sinalizada no nível de CU. Adicionalmente, quando o modo FRUC é aplicado (por exemplo, quando um indicador FRUC é verdadeiro), a informação indicando um método de combinação de padrão aplicável (a primeira combinação de padrão ou a segunda combinação de padrão) pode ser sinalizado no nível de CU. Deve-se notar que a sinalização de tal informação não precisa, necessariamente, ser realizada no nível de CU, e pode ser realizada em outro nível (por exemplo, no nível de sequência, no nível de imagem, no nível de fatia, no nível de tile, no nível de CTU ou no nível de sub-bloco). Derivação de MV > Modo Afim
[0206] A seguir, o modo afim para derivar um vetor de movimento em unidades de um sub-bloco, com base nos vetores de movimento, dentre uma pluralidade de blocos vizinhos, é descrito. Esse modo também é referido como um modo de previsão de compensação de movimento afim.
[0207] A figura 25A é um diagrama conceitual para ilustrar um exemplo de derivação de um vetor de movimento de cada sub-bloco com base nos vetores de movimento de uma pluralidade de blocos vizinhos. Na figura 25A, o bloco atual inclui dezesseis sub-blocos de 4 x 4. Aqui, o vetor de movimento v0 em um ponto de controle do canto superior esquerdo no bloco atual é derivado com base em um vetor de movimento de um bloco vizinho e, da mesma forma, o vetor de movi- mento v1 em um ponto de controle do canto superior direito no bloco atual é derivado com base em um vetor de movimento de um sub-bloco vizinho. Os dois vetores de movimento v0 e v1 podem ser projetados de acordo com uma expressão (1A) indicada abaixo, e os vetores de movimento (vx, vy) para os sub-blocos respectivos no bloco atual podem ser derivados. Matemática 1
[0208] Aqui, x e y indicam a posição horizontal e a posição vertical do sub-bloco, respectivamente, e w indica um coeficiente de pondera- ção determinado. O coeficiente de ponderação determinado pode ser predeterminado.
[0209] Tal informação indicando o modo afim (por exemplo, referido como um indicador afim) pode ser sinalizada no nível de CU. Deve-se notar que a sinalização da informação indicando o modo afim não precisa, necessariamente, ser realizada no nível de CU, e pode ser realizada em outro nível (por exemplo, no nível de sequência, nível de imagem, nível de fatia, nível de tile, nível de CTU ou nível de sub-bloco).
[0210] Adicionalmente, o modo afim pode incluir vários modos para métodos diferentes para derivar os vetores de movimento nos pontos de controle de canto superior esquerdo e superior direito. Por exemplo, os modos afim incluem dois modos que são o intermodo afim (também referido como intermodo normal afim) e o modo de mistura afim. Derivação de MV > Modo Afim
[0211] A figura 25B é um diagrama conceitual para ilustrar um exemplo de derivação de um vetor de movimento de cada sub-bloco no modo afim, onde três pontos de controle são utilizados. Na figura 25B, o bloco atual inclui dezesseis blocos de 4 x 4. Aqui, o vetor de movimento v0, no ponto de controle do canto superior esquerdo para o bloco atual, é derivado com base em um vetor de movimento de um bloco vizinho, e, da mesma forma, o vetor de movimento v1 no ponto de controle do canto superior direito para o bloco atual é derivado com base em um vetor de movimento de um bloco vizinho, e o vetor de movimento v2, no ponto de controle do canto inferior esquerdo para o bloco atual, é derivado com base em um vetor de movimento de um bloco vizinho. Três vetores de movimento v0, v1 e v2 podem ser projetados de acordo com uma expressão (1B) indicada abaixo, e os vetores de movimento (vx, vy) para os sub-blocos respectivos no bloco atual podem ser derivados.
[0212] Matemática 2
[0213] Aqui, x e y indicam a posição horizontal e a posição vertical do centro do sub-bloco, respectivamente, w indica a largura do bloco atual, e h indica a altura do bloco atual.
[0214] Os modos afim, nos quais diferentes números de pontos de controle (por exemplo, dois e três pontos de controle) são utilizados, podem ser comutados e sinalizados no nível de CU. Deve-se notar que a informação indicando o número de pontos de controle no modo afim, utilizados no nível de CU, pode ser sinalizada em outro nível (por exemplo, nível de sequência, nível de imagem, nível de fatia, nível de tile, nível de CTU ou nível de sub-bloco).
[0215] Adicionalmente, tal modo afim, no qual três pontos de contro- le são utilizados, pode incluir diferentes métodos para se derivar os vetores de movimento nos pontos de controle de canto superior esquerdo, superior direito e inferior esquerdo. Por exemplo, os modos afim incluem dois modos que são o intermodo afim (também referido como o intermodo normal afim) e o modo de mistura afim.
Derivação de MV > Modo de Mistura Afim
[0216] As figuras 26A, 26B e 26C são diagramas conceituais para ilustrar o modo de mistura afim.
[0217] Como ilustrado na figura 26A, no modo de mistura afim, por exemplo, os previsores de vetor de movimento, em pontos de controle respectivos de um bloco atual, são calculados com base em uma pluralidade de vetores de movimento correspondentes aos blocos codificados de acordo com o modo afim dentre o bloco A codificado (esquerdo), o bloco B (superior), o bloco C (superior direito), o bloco D (inferior esquerdo) e o bloco E (superior esquerdo), que são vizinhos do bloco atual. Mais especificamente, o bloco A codificado (esquerdo), o bloco B (superior), o bloco C (superior direito), o bloco D (inferior esquerdo) e o bloco E (superior esquerdo) são verificados na ordem listada, e o primeiro bloco efetivo codificado de acordo com o modo afim é identificado. Os previsores de vetor de movimento nos pontos de controle do bloco atual são calculados com base em uma pluralidade de vetores de movimento que correspondem ao bloco identificado.
[0218] Por exemplo, como ilustrado na figura 26B, quando o bloco A, que é vizinho pelo lado esquerdo do bloco atual, foi codificado de acordo com um modo afim, no qual dois pontos de controle são utilizados, os vetores de movimento v3 e v4, projetados na posição de canto superior esquerdo e na posição de canto superior direito do bloco codificado, incluindo o bloco A, são derivados. O previsor de vetor de movimento v0 no ponto de controle do canto superior esquerdo do bloco atual, e o previsor de vetor de movimento v1 no ponto de controle do canto superior direito do bloco atual são, então, calculados a partir dos vetores de movimento derivados v3 e v4.
[0219] Por exemplo, como ilustrado na figura 26C, quando o bloco A, que é vizinho pelo lado esquerdo do bloco atual, foi codificado de acordo com um modo afim, no qual três pontos de controle são utilizados, os vetores de movimento v3, v4 e v5, projetados na posição de canto superior esquerdo, na posição de canto superior direito e na posição de canto inferior esquerdo do bloco codificado, incluindo o bloco A, são derivados. O previsor de vetor de movimento v0 no ponto de controle do canto superior esquerdo do bloco atual, o previsor de vetor de movimento v1 no ponto de controle do canto superior direito do bloco atual, e o previsor de vetor de movimento v2 no ponto de controle do canto inferior esquerdo do bloco atual são, então, calculados a partir de vetores de movimento derivados v3, v4 e v5.
[0220] Deve-se notar que esse método para derivar os previsores de vetor de movimento pode ser utilizado para derivar os previsores de vetor de movimento dos pontos de controle respectivos do bloco atual na Etapa Sj_1 na figura 29 descrita posteriormente.
[0221] A figura 27 é um fluxograma ilustrando um exemplo do modo de mistura afim.
[0222] No modo de mistura afim como ilustrado, primeiro, o interprevisor 126 deriva os previsores de MV dos pontos de controle respectivos de um bloco atual (Etapa Sk_1). Os pontos de controle são um ponto de canto superior esquerdo do bloco atual e um ponto de canto superior direito do bloco atual, como ilustrado na figura 25A, ou um ponto de canto superior esquerdo do bloco atual, um ponto de canto superior direito do bloco atual, e um ponto de canto inferior esquerdo do bloco atual, como ilustrado na figura 25B.
[0223] Em outras palavras, como ilustrado na figura 26A, o interprevisor 126 verifica o bloco codificado A (esquerdo), o bloco B (superior), o bloco C (superior direito), o bloco D (inferior esquerdo) e o bloco E (superior esquerdo) na ordem listada, e identifica o primeiro bloco efetivo codificado de acordo com o modo afim.
[0224] Quando o bloco A é identificado e o bloco A possui dois pontos de controle, como ilustrado na figura 26B, o interprevisor 126 calcula o vetor de movimento v0 no ponto de controle do canto superior esquerdo do bloco atual e o vetor de movimento v1 no ponto de controle do canto superior direito do bloco atual a partir dos vetores de movimento v3 e v4 no canto superior esquerdo e no canto superior direito do bloco codificado, incluindo o bloco A. Por exemplo, o interprevisor 126 calcula o vetor de movimento v0 no ponto de controle do canto superior esquerdo do bloco atual, e o vetor de movimento v1 no ponto de controle do canto superior direito do bloco atual, pela projeção dos vetores de movimento v3 e v4 no canto superior esquerdo e no canto superior direito do bloco codificado no bloco atual.
[0225] Alternativamente, quando o bloco A é identificado e o bloco A possui três pontos de controle, como ilustrado na figura 26C, o interprevisor 126 calcula o vetor de movimento v0 no ponto de controle do canto superior esquerdo do bloco atual, o vetor de movimento v1 no ponto de controle do canto superior direito do bloco atual, e o vetor de movimento v2 no ponto de controle do canto inferior esquerdo do bloco atual a partir dos vetores de movimento v3, v4 e v5 no canto superior esquerdo, no canto superior direito e no canto inferior esquerdo do bloco codificado, incluindo o bloco A. Por exemplo, o interprevisor 126 calcula o vetor de movimento v0 no ponto de controle do canto superior esquerdo do bloco atual, o vetor de movimento v1 no ponto de controle do canto superior direito do bloco atual e o vetor de movimento v2 no ponto de controle do canto inferior esquerdo do bloco atual pela projeção dos vetores de movimento v3, v4 e v5 no canto superior esquerdo, canto superior direito, e canto inferior esquerdo do bloco codificado no bloco atual.
[0226] A seguir, o interprevisor 126 realiza a compensação de movimento de cada um dentre uma pluralidade de sub-blocos incluídos no bloco atual. Em outras palavras, o interprevisor 126 calcula, para cada um dentre a pluralidade de sub-blocos, um vetor de movimento do sub-bloco como um MV afim, pela utilização de (i) dois previsores de vetor de movimento v0 e v1 e a expressão (1A) descrita acima ou (ii) três previsores de vetor de movimento v0, v1 e v2, e a expressão (1B) descrita acima (Etapa Sk_2). O interprevisor 126, então, realiza a compensação de movimento dos sub-blocos utilizando esses MVs afim e imagens de referência codificadas (Etapa Sk_3). Como resultado, a compensação de movimento do bloco atual é realizada para gerar uma imagem de previsão do bloco atual. Derivação de MV > Intermodo Afim
[0227] A figura 28A é um diagrama conceitual para ilustrar um intermodo afim no qual dois pontos de controle são utilizados.
[0228] No intermodo afim, como ilustrado na figura 28A, um vetor de movimento selecionado a partir de vetores de movimento do bloco codificado A, bloco B, e bloco C, que são vizinhos do bloco atual, é utilizado como o previsor de vetor de movimento v0 no ponto de controle do canto superior esquerdo do bloco atual. Da mesma forma, um vetor de movimento selecionado a partir dos vetores de movimento do Bloco D e bloco E codificados, que são vizinhos do bloco atual, é utilizado como o previsor de vetor de movimento v1 no ponto de controle do canto superior direito do bloco atual.
[0229] A figura 28B é um diagrama conceitual para ilustrar um intermodo afim no qual três pontos de controle são utilizados.
[0230] No intermodo afim, como ilustrado na figura 28B, um vetor de movimento selecionado a partir dos vetores de movimento do bloco A, bloco B e bloco C codificados, que são vizinhos do bloco atual, é utilizado como o previsor do vetor de movimento v0 no ponto de controle do canto superior esquerdo do bloco atual. Da mesma forma, um vetor de movimento selecionado a partir dos vetores de movimento do bloco D e bloco E codificados, que são vizinhos do bloco atual, é utilizado como o previsor de vetor de movimento v1 no ponto de controle do canto superior direito do bloco atual. Adicionalmente, um vetor de movimento selecionado a partir dos vetores de movimento do bloco F e bloco G codificados, que são vizinhos do bloco atual, é utilizado como o previsor de vetor de movimento v2 no ponto de controle do canto inferior esquerdo do bloco atual.
[0231] A figura 29 é um fluxograma ilustrando um exemplo de um intermodo afim.
[0232] No intermodo afim, como ilustrado, primeiro, o interprevisor 126 deriva os previsores de MV (v0, v1) ou (v0, v1, v2) dos respectivos dois ou três pontos de controle de um bloco atual (Etapa Sj_1). Os pontos de controle são um ponto de canto superior esquerdo do bloco atual e um ponto de canto superior direito do bloco atual, como ilustrado na figura 25A, ou um ponto de canto superior esquerdo do bloco atual, um ponto de canto superior direito do bloco atual, e um ponto de canto inferior esquerdo do bloco atual como ilustrado na figura 25B.
[0233] Em outras palavras, o interprevisor 126 deriva os previsores de vetor de movimento (v0, v1) ou (v0, v1, v2) dos respectivos dois ou três pontos de controle do bloco atual pela seleção de vetores de movimento de qualquer um dos blocos, dentre os blocos codificados nas proximidades dos pontos de controle respectivos do bloco atual, ilustrados na figura 28A ou na figura 28B. Nesse momento, o interprevisor 126 codifica, em uma sequência, a informação de seleção de previsor de vetor de movimento para identificar os dois vetores de movimento selecionados.
[0234] Por exemplo, o interprevisor 126 pode determinar, utilizando uma avaliação de custo ou similar, o bloco a partir do qual um vetor de movimento, como um previsor de vetor de movimento em um ponto de controle, é selecionado dentre os blocos codificados vizinhos do bloco atual, e pode descrever, em uma sequência de bits, um indicador indicando que previsor de vetor de movimento foi selecionado.
[0235] A seguir, o interprevisor 126 realiza a estimativa de movi- mento (Etapa Sj_3 e Sj_4) enquanto atualiza um previsor de vetor de movimento selecionado ou derivado na Etapa Sj_1 (Etapa Sj_2). Em outras palavras, o interprevisor 126 calcula, como um MV afim, um vetor de movimento de cada um dos sub-blocos que correspondem a um previsor de vetor de movimento atualizado, utilizando a expressão (1A) ou a expressão (1B) descritas acima (Etapa Sj_3). O interprevisor 126, então, realiza a compensação de movimento dos sub-blocos utilizando esses MVs afim e as imagens de referência codificadas (Etapa Sj_4). Como resultado disso, por exemplo, o interprevisor 126 determina o previsor de vetor de movimento que resulta no menor custo como um vetor de movimento em um ponto de controle em um circuito de estimativa de movimento (Etapa Sj_5). Nesse momento, o interprevisor 126 codifica, adicionalmente, na sequência, o valor de diferença entre o MV determinado e o previsor de vetor de movimento como uma diferença de MV.
[0236] Por fim, o interprevisor 126 gera uma imagem de previsão para o bloco atual pela realização da compensação de movimento do bloco atual utilizando um MV determinado e a imagem de referência codificada (Etapa Sj_6). Derivação de MV > Intermodo Afim
[0237] Quando os modos afim, nos quais os números diferentes de pontos de controle (por exemplo, dois ou três pontos de controle) são utilizados podem ser comutados e sinalizados no nível de CU, o número de pontos de controle em um bloco codificado e o número de pontos de controle em um bloco atual podem ser diferentes um do outro. As figuras 30A e 30B são diagramas conceituais para ilustrar os métodos para derivar os previsores de vetor de movimento nos pontos de controle quando o número de pontos de controle em um bloco codificado, e o número de pontos de controle em um bloco atual, são diferentes um do outro.
[0238] Por exemplo, como ilustrado na figura 30A, quando um bloco atual possui três pontos de controle no canto superior esquerdo, no canto superior direito e no canto inferior esquerdo, e o bloco A, que é vizinho pelo lado esquerdo do bloco atual, foi codificado de acordo com um modo afim, no qual dois pontos de controle são utilizados, os vetores de movimento v3 e v4, projetados na posição do canto superior esquerdo e na posição do canto superior direito no bloco codificado, incluindo o bloco A, são derivados. O previsor de vetor de movimento v0 no ponto de controle do canto superior esquerdo do bloco atual e o previsor de vetor de movimento v1 no ponto de controle do canto superior direito do bloco atual são, então, calculados a partir dos vetores de movimento derivados v3 e v4. Adicionalmente, o previsor de vetor de movimento v2 no ponto de controle do canto inferior esquerdo é calculado a partir dos vetores de movimento derivados v0 e v1.
[0239] Por exemplo, como ilustrado na figura 30B, quando um bloco atual possui dois pontos de controle no canto superior esquerdo e no canto superior direito, e o bloco A, que é vizinho pelo lado esquerdo do bloco atual, foi codificado de acordo com o modo afim, no qual três pontos de controle são utilizados, os vetores de movimento v3, v4 e v5, projetados na posição do canto superior esquerdo, na posição do canto superior direito e na posição de canto inferior esquerdo no bloco codificado, incluindo o bloco A, são derivados. O previsor de vetor de movimento v0 no ponto de controle do canto superior esquerdo do bloco atual e o previsor de vetor de movimento v1 no ponto de controle do canto superior direito do bloco atual são, então, calculados a partir dos vetores de movimento derivado v3, v4 e v5.
[0240] Deve-se notar que esse método de derivação de previsores de vetor de movimento pode ser utilizado para derivar os previsores de vetor de movimento dos pontos de controle respectivos do bloco atual na Etapa Sj_1 na figura 29. Derivação de MV > DMVR
[0241] A figura 31A é um fluxograma ilustrando uma relação entre o modo de mistura e DMVR.
[0242] O interprevisor 126 deriva um vetor de movimento de um bloco atual de acordo com o modo de mistura (Etapa Sl_1). A seguir, o interprevisor 126 determina se realiza a estimativa de um vetor de movimento, isso é, a estimativa de movimento (Etapa Sl_2). Aqui, quando se determina a não realização da estimativa de movimento (Não, na Etapa Sl_2), o interprevisor 126 determina o vetor de movi- mento derivado na Etapa Sl_1 como o vetor de movimento final para o bloco atual (Etapa Sl_4). Em outras palavras, nesse caso, o vetor de movimento do bloco atual é determinado de acordo com o modo de mistura.
[0243] Quando da determinação da realização da estimativa de movimento na Etapa Sl_1 (Sim na Etapa Sl_2), o interprevisor 126 deriva o vetor de movimento final para o bloco atual pela estimativa de uma região circundante da imagem de referência especificada pelo vetor de movimento derivado na Etapa Sl_1 (Etapa Sl_3). Em outras palavras, nesse caso, o vetor de movimento do bloco atual é determi- nado de acordo com DMVR.
[0244] A figura 31B é um diagrama conceitual para ilustrar um exemplo de um processo DMVR para determinar um MV.
[0245] Primeiro, (por exemplo, no modo de mistura), o melhor MVP, que foi configurado para o bloco atual, é determinado como sendo um candidato a MV. Um pixel de referência é identificado a partir de uma primeira imagem de referência (L0) que é uma imagem codificada na direção L0, de acordo com um candidato a MV (L0). Da mesma forma, um pixel de referência é identificado a partir de uma segunda imagem de referência (L1) que é uma imagem codificada na direção L1 de acordo com um candidato a MV (L1). Um gabarito é gerado pelo cálculo de uma média desses pixels de referência.
[0246] A seguir, cada uma das regiões circundantes dos candidatos a MV da primeira imagem de referência (L0) e da segunda imagem de referência (L1) é estimada, e o MV que resulta no menor custo é determinado como sendo o MV final. Deve-se notar que o valor de custo pode ser calculado, por exemplo, utilizando-se um valor de diferença entre cada um dos valores de pixel no gabarito e um valor corres- pondente dos valores de pixel na região de estimativa, os valores dos candidatos a MV, etc.
[0247] Deve-se notar que os processos, configurações, e opera- ções descritos aqui são, tipicamente, basicamente comuns entre o codificador e um decodificador a ser descrito posteriormente.
[0248] Os processos ilustrativos, exatamente iguais aos descritos aqui, nem sempre precisam ser realizados. Qualquer processo para permitir a derivação do MV final pela estimativa em regiões circundantes dos candidatos a MV pode ser utilizado. Compensação de Movimento > BIO/OBMC
[0249] A compensação de movimento envolve um modo de gerar uma imagem de previsão, e correção da imagem de previsão. O modo, por exemplo, é BIO e OBMC a serem descritos posteriormente.
[0250] A figura 32 é um fluxograma ilustrando um exemplo de geração de uma imagem de previsão.
[0251] O interprevisor 126 gera uma imagem de previsão (Etapa Sm_1) e corrige a imagem de previsão, por exemplo, de acordo com qualquer um dos modos descritos acima (Etapa Sm_2).
[0252] A figura 33 é um fluxograma ilustrando outro exemplo de geração de uma imagem de previsão.
[0253] O interprevisor 126 determina um vetor de movimento de um bloco atual (Etapa Sn_1). A seguir, o interprevisor 126 gera uma imagem de previsão (Etapa Sn_2), e determina se realiza um processo de correção (Etapa Sn_3). Aqui, quando da determinação da realização de um processo de correção (Sim na Etapa Sn_3), o interprevisor 126 gera a imagem de previsão final pela correção da imagem de previsão (Etapa Sn_4). Quando da determinação da não realização de um processo de correção (Não na Etapa Sn_3), o interprevisor 126 envia a imagem de previsão como a imagem de previsão final sem corrigir a imagem de previsão (Etapa Sn_5).
[0254] Adicionalmente, a compensação de movimento envolve um modo de correção de uma luminescência de uma imagem de previsão quando da geração da imagem de previsão. O modo, por exemplo, é LIC a ser descrito posteriormente.
[0255] A figura 34 é um fluxograma ilustrando outro exemplo de geração de uma imagem de previsão.
[0256] O interprevisor 126 deriva um vetor de movimento de um bloco atual (Etapa So_1). A seguir, o interprevisor 126 determina se realiza um processo de correção de luminescência (Etapa So_2). Aqui, quando da determinação da realização de um processo de correção de luminescência (Sim na Etapa So_2), o interprevisor 126 gera a imagem de previsão enquanto realiza um processo de correção de lumines- cência (Etapa So_3). Em outras palavras, a imagem de previsão é gerada utilizando-se LIC. Quando da determinação da não realização de um processo de correção de luminescência (Não, na Etapa So_2), o interprevisor 126 gera uma imagem de previsão pela realização da compensação de movimento normal sem realizar um processo de correção de luminescência (Etapa So_4). Compensação de Movimento > OBMC
[0257] Deve-se notar que um sinal de interprevisão pode ser gerado utilizando-se a informação de movimento para um bloco vizinho, em adição à informação de movimento para o bloco atual obtida a partir da estimativa de movimento. Mais especificamente, o sinal de interprevisão pode ser gerado em unidades de um sub-bloco no bloco atual pela realização de uma adição ponderada de um sinal de previsão com base na informação de movimento obtida a partir da estimativa de movimento (na imagem de referência) e um sinal de previsão baseado na informa- ção de movimento para um bloco vizinho (na imagem atual). Tal interprevisão (compensação de movimento) também é referida como compensação de movimento de bloco sobreposto (OBMC).
[0258] No modo OBMC, a informação que indica um tamanho de sub-bloco para OBMC (referida como, por exemplo, um tamanho de bloco OBMC) pode ser sinalizada no nível de sequência. Ademais, a informação que indica se se aplica o modo OBMC, ou não, (referida, por exemplo, como um indicador OBMC) pode ser sinalizada no nível de CU. Deve-se notar que a sinalização de tal informação não precisa, necessariamente, ser realizada no nível de sequência e no nível de CU, e pode ser realizada em outro nível (por exemplo, no nível de imagem, nível de fatia, nível de tile, nível de CTU ou nível de sub-bloco).
[0259] Exemplos do modo OBMC serão descritos em maiores detalhes. As figuras 35 e 36 são um fluxograma e um diagrama concei- tual para ilustrar linhas gerais de um processo de correção de imagem de previsão realizado por um processo OBMC.
[0260] Primeiro, como ilustrado na figura 36, uma imagem de previ- são (Pred) é obtida através da compensação de movimento normal utilizando um vetor de movimento (MV) designado para o bloco alvo de processamento (atual). Na figura 36, a seta "MV" aponta para uma imagem de referência, e indica a que o bloco atual da imagem atual se refere a fim de obter uma imagem de previsão.
[0261] A seguir, uma imagem de previsão (Pred_L) é obtida pela aplicação de um vetor de movimento (MV_L) que já foi derivado para o bloco codificado, vizinho pelo lado esquerdo do bloco atual, ao bloco atual (reutilizando o vetor de movimento para o bloco atual). O vetor de movimento (MV_L) é indicado por uma seta "MV_L" indicando uma imagem de referência a partir de um bloco atual. Uma primeira correção de uma imagem de previsão é realizada pela sobreposição de duas imagens de previsão Pred e Pred_L. Isso fornece um efeito de mistura do limite entre os blocos vizinhos.
[0262] Da mesma forma, uma imagem de previsão (Pred_U) é obtida pela aplicação de um vetor de movimento (MV_U) que já foi derivado para o bloco codificado, vizinho pelo lado de cima do bloco atual, ao bloco atual (reutilizando o vetor de movimento para o bloco atual). O vetor de movimento (MV_U) é indicado por uma seta "MV_U" indicando uma imagem de referência a partir de um bloco atual. Uma segunda correção de uma imagem de previsão é realizada pela sobreposição da imagem de previsão Pred_U às imagens de previsão (por exemplo, Pred e Pred_L) nas quais a primeira correção foi realizada. Isso fornece um efeito de mistura do limite entre os blocos vizinhos. A imagem de previsão obtida pela segunda correção é uma na qual o limite entre os blocos vizinhos foi misturado (suavizado) e, dessa forma, é a imagem de previsão final do bloco atual.
[0263] Apesar de o exemplo acima ser um método de correção de dois percursos utilizando os blocos vizinhos da esquerda e de cima, deve-se notar que o método de correção pode ser o método de correção de três ou mais percursos, utilizando também o bloco vizinho da direita e/ou o bloco vizinho inferior.
[0264] Deve-se notar que a região na qual tal sobreposição é realizada pode ser apenas parte de uma região perto de um limite de bloco em vez da região de pixel de todo o bloco.
[0265] Deve-se notar que o processo de correção de imagem de previsão, de acordo com OBMC, para obtenção de uma imagem de previsão Pred a partir de uma imagem de referência, pela sobreposição da imagem de previsão adicional Pred_L e Pred_U, foi descrito acima. No entanto, quando uma imagem de previsão é corrigida com base em uma pluralidade de imagens de referência, um processo similar pode ser aplicado a cada uma dentre a pluralidade de imagens de referência. Em tal caso, depois de as imagens de previsão corrigidas serem obtidas a partir das imagens de referência respectivas, pela realização da correção de imagem OBMC, com base na pluralidade de imagens de referência, as imagens de previsão corrigidas obtidas são adicional- mente sobrepostas para se obter a imagem de previsão final.
[0266] Deve-se notar que, em OBMC, a unidade de um bloco atual pode ser a unidade de um bloco de previsão ou a unidade de um sub- bloco obtido pela divisão adicional do bloco de previsão.
[0267] Um exemplo de um método de determinação de se aplica, ou não, um processo OBMC é um método para utilizar um obmc_flag que é um sinal que indica se aplica um processo OBMC, ou não. Como um exemplo específico, um codificador determina se o bloco atual pertence a uma região possuindo movimento complicado. O codificador configura obmc_flag para um valor "1" quando o bloco pertence a uma região possuindo movimento complicado e aplica um processo OBMC quando da codificação, e configura o obmc_flag para um valor "0" quando o bloco não pertence a uma região possuindo movimento complicado e codifica o bloco sem aplicar um processo OBMC. O decodificador comuta entre a aplicação e não aplicação de um processo OBMC pela decodificação do obmc_flag escrito na sequência (por exemplo, uma sequência comprimida) e decodificação do bloco pela comutação entre a aplicação e não aplicação do processo OBMC de acordo com o valor do indicador.
[0268] O interprevisor 126 gera uma imagem de previsão retangular para um bloco atual retangular no exemplo acima. No entanto, o interprevisor 126 pode gerar uma pluralidade de imagens de previsão,
cada uma possuindo um formato diferente de um retângulo, para o bloco atual retangular, e pode combinar a pluralidade de imagens de previsão para gerar a imagem de previsão retangular final. O formato diferente de um retângulo pode ser, por exemplo, um triângulo.
[0269] A figura 37 é um diagrama conceitual para ilustrar a geração de duas imagens de previsão triangulares.
[0270] O interprevisor 126 gera uma imagem de previsão triangular pela realização da compensação de movimento de uma primeira partição possuindo um formato triangular em um bloco atual pela utilização de um primeiro MV da primeira partição, para gerar uma imagem de previsão triangular. Da mesma forma, o interprevisor 126 gera uma imagem de previsão triangular pela realização da compen- sação de movimento de uma segunda partição possuindo um formato triangular em um bloco atual pela utilização de um segundo MV da segunda partição, para gerar uma imagem de previsão triangular. O interprevisor 126, então, gera uma imagem de previsão possuindo o mesmo formato retangular que o formato retangular do bloco atual pela combinação dessas imagens de previsão.
[0271] Deve-se notar que, apesar de a primeira partição e a segun- da partição serem triângulos no exemplo ilustrado na figura 37, a primeira partição e a segunda partição podem ser trapezoides, ou apresentar outros formatos diferentes um do outro. Adicionalmente, apesar de o bloco atual incluir duas partições no exemplo ilustrado na figura 37, o bloco atual pode incluir três ou mais partições.
[0272] Adicionalmente, a primeira partição e a segunda partição podem se sobrepor uma à outra. Em outras palavras, a primeira partição e a segunda partição podem incluir a mesma região de pixel. Nesse caso, uma imagem de previsão para um bloco atual pode ser gerada utilizando-se uma imagem de previsão na primeira partição e uma imagem de previsão na segunda partição.
[0273] Adicionalmente, apesar de um exemplo, no qual uma imagem de previsão é gerada para cada uma das duas partições utilizando interprevisão, uma imagem de previsão pode ser gerada para pelo menos uma partição utilizando a intraprevisão. Compensação de Movimento > BIO
[0274] A seguir, um método para derivar um vetor de movimento é descrito. Primeiro, um modo para derivar um vetor de movimento com base em um modelo assumindo o movimento linear uniforme será descrito. Esse modo também é referido como um modo de fluxo ótico bidirecional (BIO).
[0275] A figura 38 é um diagrama conceitual para ilustrar um modelo assumindo-se o movimento linear uniforme. Na figura 38, (vx, vy) indica um vetor de velocidade, e 0 e 1 indicam distâncias temporais entre uma imagem atual (Cur Pic) e duas imagens de referência (Ref0, Ref1). (MVx0, MVy0) indicam vetores de movimento correspondendo à imagem de referência Ref0, e (MVx1, MVy1) indicam vetores de movimento correspondentes à imagem de referência Ref1.
[0276] Aqui, considerando-se o movimento linear uniforme exibido pelos vetores de velocidade (vx, vy), (MVx0, MVy0) e (MVx1, MVy1) são representados como (vx0, vy0) e (-vx1, -vy1), respectivamente, e a seguinte equação de fluxo ótico (2) pode ser empregada. Matemática 3
[0277] I(k)/t + vxI(k)/x + vyI(k)/y = 0. (2)
[0278] Aqui, I(k) indica um valor de luminescência de movimento compensado da imagem de referência k (k = 0, 1). Essa equação de fluxo ótico ilustra que a soma de (i) a derivação de tempo do valor de luminescência, (ii) o produto da velocidade horizontal e do componente horizontal do gradiente espacial de uma imagem de referência e (iii) o produto da velocidade vertical e do componente vertical do gradiente espacial de uma imagem de referência é igual a zero. Um vetor de movimento de cada bloco obtido, por exemplo, a partir de uma lista de mistura pode ser corrigido em unidades de um pixel, com base em uma combinação da equação de fluxo ótico e interpolação Hermite.
[0279] Deve-se notar que um vetor de movimento pode ser derivado no lado do decodificador utilizando um método além da derivação de um vetor de movimento com base em um modelo, assumindo-se o movimento linear uniforme. Por exemplo, um vetor de movimento pode ser derivado em unidades de um sub-bloco com base nos vetores de movimento dos blocos vizinhos. Compensação de Movimento > LIC
[0280] A seguir, um exemplo de um modo, no qual uma imagem de previsão (prediction) é gerada pela utilização de um processo de compensação de iluminação local (LIC), será descrito.
[0281] A figura 39 é um diagrama conceitual para ilustrar um exemplo de um método de geração de imagem de previsão utilizando um processo de correção de luminescência realizado por um processo LIC.
[0282] Primeiro, um MV é derivado de uma imagem de referência codificada, e uma imagem de referência correspondente ao bloco atual é obtida.
[0283] A seguir, a informação que indica como o valor de lumines- cência alterou entre a imagem de referência e a imagem atual é extraída para o bloco atual. Essa extração é realizada com base nos valores de pixel de luminescência para a região de referência vizinha pelo lado esquerdo e codificada (região de referência circundante) e a região de referência vizinha superior codificada (região de referência circundante), e o valor de pixel de luminescência na posição correspondente na imagem de referência especificada pelo MV derivado. Um parâmetro de correção de luminescência é calculado pela utilização da informação que indica como o valor de luminescência mudou.
[0284] A imagem de previsão para o bloco atual é gerada pela realização de um processo de correção de luminescência no qual o parâmetro de correção de luminescência é aplicado à imagem de referência na imagem de referência especificada pelo MV.
[0285] Deve-se notar que o formato da região de referência circun- dante ilustrada na figura 39 é apenas um exemplo; a região de referência circundante pode ter um formato diferente.
[0286] Ademais, apesar de o processo no qual uma imagem de previsão é gerada a partir de uma imagem de referência singular ter sido descrito aqui, casos nos quais uma imagem de previsão é gerada a partir de uma pluralidade de imagens de referência podem ser descritos da mesma forma. A imagem de previsão pode ser gerada depois da realização de um processo de correção de luminescência das imagens de referência obtidas a partir das imagens de referência, da mesma forma que a descrita acima.
[0287] Um exemplo de um método para determinar se se aplica, ou não, um processo LIC, é um método para utilizar um lic_flag, que é um sinal indicando se aplica o processo LIC, ou não. Como um exemplo específico, o codificador determina se o bloco atual pertence a uma região possuindo uma mudança de luminescência. O codificador configura lic_flag para um valor de "1" quando o bloco pertence a uma região possuindo uma mudança de luminescência e aplica um processo LIC quando da codificação, e configura lic_flag para um valor igual a "0" quando o bloco não pertence a uma região possuindo uma mudança de luminescência e codifica o bloco atual sem aplicar um processo LIC. O decodificador pode decodificar lic_flag, escrito na sequência, e decodificar o bloco atual pela comutação entre a aplicação e a não aplicação de um processo LIC, de acordo com o valor de indicador.
[0288] Um exemplo de um método diferente de determinação de se aplica um processo LIC, ou não, é um método de determinação de acordo com o fato de se um processo LIC foi aplicado a um bloco circundante. Em um exemplo específico, quando o modo de mistura é utilizado no bloco atual, se um processo LIC foi aplicado na codificação do bloco codificado circundante selecionado depois da derivação do MV no processo de modo de mistura, é determinado. De acordo com o resultado, a codificação é realizada pela comutação entre a aplicação e a não aplicação de um processo LIC. Deve-se notar que, também nesse exemplo, os mesmos processos são aplicados aos processos no lado do decodificador.
[0289] Uma modalidade do processo de correção de luminescência (LIC), descrita com referência à figura 39, é descrita em detalhes abaixo.
[0290] Primeiro, o interprevisor 126 deriva um vetor de movimento para obter uma imagem de referência que corresponde a um bloco atual a ser codificado a partir de uma imagem de referência que é uma imagem codificada.
[0291] A seguir, o interprevisor 126 extrai informação indicando como o valor de luminescência da imagem de referência foi alterado para o valor de luminescência da imagem atual, utilizando o valor de pixel de luminescência de uma região de referência circundante codificada, que é vizinha pelo lado esquerdo ou por cima do bloco atual, e o valor de luminescência na posição correspondente na imagem de referência especificada por um vetor de movimento, e calcula um parâmetro de correção de luminescência. Por exemplo, assume-se que o valor de pixel de luminescência de um determinado pixel na região de referência circundante na imagem atual seja p0, e que o valor de pixel de luminescência do pixel correspondente ao pixel determinado na região de referência circundante na imagem de referência seja p1. O interprevisor 126 calcula os coeficientes A e B para otimizar A x p1 + B = p0 como o parâmetro de correção de luminescência para uma pluralidade de pixels na região de referência circundante.
[0292] A seguir, o interprevisor 126 realiza um processo de correção de luminescência utilizando o parâmetro de correção de luminescência para a imagem de referência, na imagem de referência especificada pelo vetor de movimento, para gerar uma imagem de previsão para o bloco atual. Por exemplo, assume-se que o valor de pixel de lumines- cência na imagem de referência seja p2, e que o valor de pixel de luminescência, com luminescência corrigida, da imagem de previsão seja p3. O interprevisor 126 gera a imagem de previsão depois de ter sido submetido ao processo de correção de luminescência pelo cálculo A x p2 + B = p3 para cada um dos pixels na imagem de referência.
[0293] Deve-se notar que o formato da região de referência circundante ilustrada na figura 39 é um exemplo; um formato diferente, além do formato da região de referência circundante, pode ser utilizado. Adicionalmente, parte da região de referência circundante ilustrada na figura 39 pode ser utilizada. Por exemplo, uma região possuindo um número determinado de pixels extraídos de cada um dentre um pixel vizinho superior e um pixel vizinho da esquerda pode ser utilizada como uma região de referência circundante. O número determinado de pixels pode ser predeterminado. Por exemplo, uma região possuindo um número determinado de pixels extraídos de cada um dentre um pixel vizinho superior e um pixel vizinho pelo lado esquerdo pode ser utilizada como uma região de referência circundante. O número determinado de pixels pode ser predeterminado. Adicionalmente, a região de referência circundante não está limitada a uma região vizinha do bloco atual, e pode ser uma região que não é vizinha do bloco atual. No exemplo ilustrado na figura 39, a região de referência circundante na imagem de referência é uma região especificada por um vetor de movimento em uma imagem atual, a partir de uma região de referência circundante na imagem atual. No entanto, uma região especificada por outro vetor de movimento também é possível. Por exemplo, o outro vetor de movimento pode ser um vetor de movimento em uma região de referência circundante na imagem atual.
[0294] Apesar de as operações realizadas pelo codificador 100 terem sido descritas aqui, deve-se notar que o decodificador 200 realiza, tipicamente, operações similares.
[0295] Deve-se notar que o processo LIC pode ser aplicado não apenas à luminescência, mas também à crominância. Nesse momento, o parâmetro de correção pode ser derivado individualmente para cada um de Y, Cb e Cr, ou um parâmetro de correção comum pode ser utilizado para qualquer um de Y, Cb e Cr.
[0296] Adicionalmente, o processo LIC pode ser aplicado em unidades de um sub-bloco. Por exemplo, um parâmetro de correção pode ser derivado utilizando-se uma região de referência circundante em um sub-bloco atual e uma região de referência circundante em um sub-bloco de referência em uma imagem de referência especificada por um MV do sub-bloco atual. Controlador de Previsão
[0297] O interprevisor 128 seleciona um dentre um sinal de intraprevisão (um sinal enviado a partir do intraprevisor 124) e um sinal de interprevisão (um sinal enviado a partir do interprevisor 126), e envia o sinal selecionado para o subtraidor 104 e somador 116 como um sinal de previsão.
[0298] Como ilustrado na figura 1, em vários tipos de exemplos de codificador, o controlador de previsão 128 pode enviar um parâmetro de previsão, que é registrado no codificador por entropia 110. O codificador por entropia 110 pode gerar uma sequência de bits codificada (ou uma sequência), com base no parâmetro de previsão que é registrado a partir do controlador de previsão 128 e coeficientes quantizados que são registrados a partir do quantizador 108. O parâmetro de previsão pode ser utilizado em um decodificador. O decodificador pode receber e decodificar a sequência de bits codificada, e realizar os mesmos processos que os processos de previsão realizados pelo intraprevisor 124, interprevisor 126, e controlador de previsão 128. O parâmetro de previsão pode incluir (i) um sinal de previsão de seleção (por exemplo, um vetor de movimento, um tipo de previsão, ou um modo de previsão utilizado pelo intraprevisor 124 ou interprevisor 126), ou (ii) um índice opcional, um indicador, ou um valor que seja baseado em um processo de previsão realizado em cada um dentre o intraprevisor 124, interprevisor 126, e controlador de previsão 128, ou que indique o processo de previsão. Exemplo de Montagem do Codificador
[0299] A figura 40 é um diagrama em bloco ilustrando um exemplo de montagem do codificador 100. O codificador 100 inclui o processador a1 e a memória a2. Por exemplo, a pluralidade de elementos constituintes do codificador 100, ilustrado na figura 1, é montada no processador a1 e na memória a2, ilustrados na figura 40.
[0300] O processador a1 é um conjunto de circuitos que realiza o processamento de informação e é acessível à memória a2. Por exemplo, o processador a1 é um conjunto de circuitos eletrônicos dedicados ou gerais que codifica um vídeo. O processador a1 pode ser um processador, tal como uma CPU. Adicionalmente, o processador a1 pode ser um agregado dentre uma pluralidade de circuitos eletrônicos. Adicionalmente, por exemplo, o processador a1, pode assumir os papeis de dois ou mais elementos constituintes dentre a pluralidade de elementos constituintes do codificador 100 ilustrados na figura 1, etc.
[0301] A memória a2 é uma memória dedicada ou geral para armazenar informação que é utilizada pelo processador a1 para codificar um vídeo. A memória a2 pode ser um conjunto de circuitos eletrônicos, e pode ser conectada ao processador a1. Adicionalmente, a memória a2 pode ser incluída no processador a1. Adicionalmente, a memória a2 pode ser um agregado de uma pluralidade de circuitos eletrônicos. Adicionalmente, a memória a2 pode ser um disco magnético, um disco ótico, ou similar, ou pode ser representada como um armazenador, um meio de gravação ou similar. Adicionalmente, a memória a2 pode ser memória não volátil, ou memória volátil.
[0302] Por exemplo, a memória a2 pode armazenar um vídeo a ser codificado ou uma sequência de bits correspondendo a um vídeo codificado. Adicionalmente, a memória a2 pode armazenar um progra- ma para fazer com que o processador a1 codifique um vídeo.
[0303] Adicionalmente, por exemplo, a memória a2 pode assumir os papeis de dois ou mais elementos constituintes para armazenar a informação a partir da pluralidade de elementos constituintes do codificador 100 ilustrado na figura 1, etc. Por exemplo, a memória a2 pode assumir os papeis da memória de bloco 118 e memória de quadro 122 ilustradas na figura 1. Mais especificamente, a memória a2 pode armazenar um bloco reconstruído, uma imagem reconstruída, etc.
[0304] Deve-se notar que, no codificador 100, toda a pluralidade de elementos constituintes indicados na figura 1, etc. pode não ser implementada, e todos os processos descritos acima podem não ser realizados. Parte dos elementos constituintes indicados na figura 1, etc. pode ser incluída em outro dispositivo, ou parte dos processos descritos acima pode ser realizada por outro dispositivo. Decodificador
[0305] A seguir, um decodificador capaz de decodificar um sinal codificado (sequência de bits codificada) enviado, por exemplo, a partir do codificador 100 descrito acima será descrito. A figura 41 é um diagrama em bloco ilustrando uma configuração funcional do decodifi- cador 200 de acordo com uma modalidade. O decodificador 200 é um decodificador de vídeo que decodifica um vídeo em unidades de um bloco.
[0306] Como ilustrado na figura 41, o decodificador 200 inclui o decodificador por entropia 202, o quantizador inverso 204, o transformador inverso 206, o somador 208, a memória de bloco 210, o filtro de circuito 212, a memória de quadro 214, o intraprevisor 216, o interprevisor 218 e o controlador de previsão 220.
[0307] O decodificador 200 é implementado como, por exemplo, um processador genérico e uma memória. Nesse caso, quando um programa de software armazenado na memória é executado pelo processador, o processador funciona como o decodificador por entropia 202, o quantizador inverso 204, o transformador inverso 206, o somador 208, o filtro de circuito 212, o intraprevisor 216, o interprevisor 218 e o controlador de previsão 220. Alternativamente, o decodificador 200 pode ser implementado como um ou mais circuitos eletrônicos dedicados correspondendo ao decodificador por entropia 202, quantizador inverso 204, transformador inverso 206, somador 208, filtro de circuito 212, intraprevisor 216, interprevisor 218 e controlador de previsão 220.
[0308] Doravante, um fluxo geral de processos realizados pelo decodificador 200 é descrito e, então, cada um dos elementos consti- tuintes incluídos no decodificador 200 será descrito. Fluxo Geral do Processo de Decodificação
[0309] A figura 42 é um fluxograma ilustrando um exemplo de um processo de decodificação geral realizado pelo decodificador 200.
[0310] Primeiro, o decodificador por entropia 202 do decodificador 200 identifica um padrão de divisão de um bloco possuindo um tamanho fixo (por exemplo, 128, x 128 pixels) (Etapa Sp_1). Esse padrão de divisão é um padrão de divisão selecionado pelo codificador 100. O decodificador 200, então, realiza os processos da Etapa Sp_2 a Sp_6 para cada um dentre uma pluralidade de blocos do padrão de divisão.
[0311] Em outras palavras, o decodificador por entropia 202 decodifica (especificamente, decodifica por entropia) os coeficientes quantizados codificados e um parâmetro de previsão de um bloco atual a ser decodificado (também referido como um bloco atual) (Etapa Sp_2).
[0312] A seguir, o quantizador inverso 204 realiza a quantização inversa da pluralidade de coeficientes quantizados e o transformador inverso 206 realiza a transformação inversa do resultado, para restaurar uma pluralidade de residuais de previsão (isso é, um bloco de diferença) (Etapa Sp_3).
[0313] A seguir, o processador de previsão, incluindo todos ou parte de intraprevisor 216, interprevisor 218, e controlador de previsão 220 gera um sinal de previsão (também referido como um bloco de previsão) do bloco atual (Etapa Sp_4).
[0314] A seguir, o somador 208 adiciona o bloco de previsão ao bloco de diferença para gerar uma imagem reconstruída (também referida como um bloco de imagem decodificada) do bloco atual (Etapa Sp_5).
[0315] Quando a imagem reconstruída é gerada, o filtro de circuito 212 realiza a filtragem da imagem reconstruída (Etapa Sp_6).
[0316] O decodificador 200, então, determina se a decodificação de toda a imagem foi terminada (Etapa Sp_7). Quando da determinação de que a decodificação ainda não foi terminada (Não na Etapa Sp_7), o decodificador 200 executa repetidamente os processos começando com a Etapa Sp_1.
[0317] Como ilustrado, os processos das Etapas Sp_1 a Sp_7 são realizados sequencialmente pelo decodificador 200. Alternativamente, dois ou mais dos processos podem ser realizados em paralelo, a ordem de processamento dos dois ou mais processos pode ser modificada, etc. Decodificador por Entropia
[0318] O decodificador por entropia 202 decodifica por entropia uma sequência de bits codificada. Mais especificamente, por exemplo, o decodificador por entropia 202 decodifica aritmeticamente uma sequên- cia de bits codificada em um sinal binário. O decodificador por entropia 202, então, desbinariza o sinal binário. Com isso, o decodificador por entropia 202 envia os coeficientes quantizados de cada bloco para o quantizador inverso 204. O decodificador por entropia 202 pode enviar um parâmetro de previsão incluído em uma sequência de bits codificada (ver figura 1) para o intraprevisor 216, o interprevisor 218, e o controlador de previsão 220. O intraprevisor 216, o interprevisor 218 e o controlador de previsão 220 em uma modalidade são capazes de executar os mesmos processos de previsão que os realizados pelo intraprevisor 124, o interprevisor 126 e o controlador de previsão 128 no lado do codificador. Quantizador Inverso
[0319] O quantizador inverso 204 quantiza de forma inversa os coeficientes quantizados de um bloco a ser decodificado (doravante referido como um bloco atual) que são registrados a partir do decodificador por entropia 202. Mais especificamente, o quantizador inverso 204 quantiza de forma inversa os coeficientes quantizados do bloco atual, com base nos parâmetros de quantização que correspon- dem aos coeficientes quantizados. O quantizador inverso 204, então, envia os coeficientes de transformação quantizados de forma inversa do bloco atual para o transformador inverso 206. Transformador Inverso
[0320] O transformador inverso 206 restaura os erros de previsão pela transformação inversa dos coeficientes de transformação que são registrados a partir do quantizador inverso 204.
[0321] Por exemplo, quando a informação analisada a partir de uma sequência de bits codificados indica que EMT ou AMT deve ser aplicado (por exemplo, quando um indicador AMT é verdadeiro), o transformador inverso 206 transforma de forma inversa os coeficientes de transformação do bloco atual com base na informação indicando o tipo de transformação analisado.
[0322] Ademais, por exemplo, quando a informação analisada a partir de uma sequência de bits codificada indicar que NSST deve ser aplicado, o transformador inverso 206 aplica uma transformação inversa secundária aos coeficientes de transformação. Somador
[0323] O somador 208 reconstrói o bloco atual pela adição de erros de previsão que são registrados a partir do transformador inverso 206 e amostras de previsão que são registradas a partir do controlador de previsão 220. O somador 208, então, envia o bloco reconstruído para a memória de bloco 210 e filtro de circuito 212. Memória de Bloco
[0324] A memória de bloco 210 é o armazenador para armazenar os blocos em uma imagem a ser decodificada (doravante referida como uma imagem atual) e a ser referida na intraprevisão. Mais especifica- mente, a memória de bloco 210 armazena os blocos reconstruídos enviados a partir do somador 208. Filtro de Circuito
[0325] O filtro de circuito 212 aplica um filtro de circuito aos blocos reconstruídos pelo somador 208, e envia os blocos reconstruídos filtrados para a memória de quadro 214, dispositivo de exibição, etc.
[0326] Quando a informação que indica o LIGAR ou DESLIGAR de um ALF analisado a partir de uma sequência de bits codificados indicar que um ALF está LIGADO, um filtro dentre uma pluralidade de filtros é selecionado com base na direção e atividade dos gradientes locais, e o filtro selecionado é aplicado ao bloco reconstruído. Memória de Quadro
[0327] A memória de quadro 214 é, por exemplo, o armazenador para armazenar imagens de referência para uso na interprevisão e também é referida como um armazenador de quadro. Mais especifi- camente, a memória de quadro 214 armazena um bloco reconstruído filtrado pelo filtro de circuito 212. Processador de Previsão (Intraprevisor, Interprevisor, Controlador de Previsão)
[0328] A figura 43 é um fluxograma ilustrando um exemplo de um processo realizado por um processador de previsão do decodificador
200. Deve-se notar que o processador de previsão inclui todos ou parte dos elementos constituintes a seguir: intraprevisor 216; interprevisor 218 e controlador de previsão 220.
[0329] O processador de previsão gera uma imagem de previsão de um bloco atual (Etapa Sq_1). Essa imagem de previsão também é referida como um sinal de previsão ou um bloco de previsão. Deve-se notar que o sinal de previsão é, por exemplo, um sinal de intraprevisão ou um sinal de interprevisão. Especificamente, o processador de previsão gera a imagem de previsão do bloco atual utilizando uma imagem reconstruída que já foi obtida através da geração de um bloco de previsão, geração de um bloco de diferença, geração de um bloco de coeficiente, restauração de um bloco de diferença, e geração de um bloco de imagem decodificada.
[0330] A imagem reconstruída pode ser, por exemplo, uma imagem em uma imagem de referência, ou uma imagem de um bloco decodi- ficado em uma imagem atual que é a imagem que inclui o bloco atual. O bloco decodificado na imagem atual é, por exemplo, um bloco vizinho do bloco atual.
[0331] A figura 44 é um fluxograma ilustrando outro exemplo de um processo realizado pelo processador de previsão do decodificador 200.
[0332] O processador de previsão determina um método ou um modo para gerar uma imagem de previsão (Etapa Sr_1). Por exemplo, o método ou modo pode ser determinado com base, por exemplo, em um parâmetro de previsão, etc.
[0333] Quando da determinação de um primeiro método como um modo de geração de uma imagem de previsão, o processador de previsão gera uma imagem de previsão de acordo com o primeiro método (Etapa Sr_2a). Quando da determinação de um segundo método como um modo para gerar uma imagem de previsão, o proces- sador de previsão gera uma imagem de previsão de acordo com o segundo método (Etapa Sr_2b). Quando da determinação de um terceiro método como um modo de geração de uma imagem de previsão, o processador de previsão gera uma imagem de previsão de acordo com o terceiro método (Etapa Sr_2c).
[0334] O primeiro método, o segundo método e o terceiro método podem ser métodos mutuamente diferentes para gerar uma imagem de previsão. Cada um dos primeiro ao terceiro métodos pode ser um método de interprevisão, um método de intraprevisão ou outro método de previsão. A imagem reconstruída descrita acima pode ser utilizada nesses métodos de previsão. Intraprevisor
[0335] O intraprevisor 216 gera um sinal de previsão (sinal de intraprevisão) pela realização da intraprevisão por referência a um bloco ou blocos na imagem atual armazenada na memória de bloco 210, com base no modo de intraprevisão analisado a partir da sequência de bits codificada. Mais especificamente, o intraprevisor 216 gera um sinal de intraprevisão pela realização da intraprevisão por referência às amostras (por exemplo, valores de luminescência e/ou crominância) de um bloco ou blocos vizinhos ao bloco atual, e, então, envia o sinal de intraprevisão para o controlador de previsão 220.
[0336] É notado que quando um modo de intraprevisão, no qual um bloco de luminescência é referido na intraprevisão de um bloco de crominância, é selecionado, o intraprevisor 216 pode prever o componente de crominância do bloco atual com base no componente de luminescência do bloco atual.
[0337] Ademais, quando a informação analisada a partir de uma sequência de bits codificados indica que PDPC deve ser aplicado, o intraprevisor 216 corrige os valores de pixel intraprevistos com base nos gradientes de pixel de referência horizontal/vertical. Interprevisor
[0338] O interprevisor 218 prevê o bloco atual por referência a uma imagem de referência armazenada na memória do quadro 214. A interprevisão é realizada em unidades de um bloco atual ou um sub- bloco (por exemplo, um bloco de 4 x 4) no bloco atual. Por exemplo, o interprevisor 218 gera um sinal de interprevisão do bloco atual ou do sub-bloco pela realização da compensação de movimento pela utilização da informação de movimento (por exemplo, um vetor de movimento) analisada a partir de uma sequência de bits codificados (por exemplo, um parâmetro de previsão enviado a partir do decodificador por entropia 202), e envia o sinal de interprevisão para o controlador de previsão 220.
[0339] Deve-se notar que quando a informação analisada a partir da sequência de bits codificados indica que o modo OBMC deve ser aplicado, o interprevisor 218 gera o sinal de interprevisão utilizando a informação de movimento de um bloco vizinho em adição à informação de movimento do bloco atual obtida a partir da estimativa de movimento.
[0340] Ademais, quando a informação analisada a partir da sequên- cia de bits codificada indica que o modo FRUC deve ser aplicado, o interprevisor 218 deriva a informação de movimento pela realização da estimativa de movimento, de acordo com o método de combinação de padrão (combinação bilateral ou combinação de gabarito) analisado a partir da sequência de bits codificados. O interprevisor 218, então, realiza a compensação de movimento (previsão) utilizando a informação de movimento derivada.
[0341] Ademais, quando o modo BIO deve ser aplicado, o interprevisor 218 deriva um vetor de movimento com base em um modelo assumindo o movimento linear uniforme. Ademais, quando a informação analisada a partir da sequência de bits codificados indicar que o modo de previsão de compensação de movimento afim deve ser aplicado, o interprevisor 218 deriva um vetor de movimento de cada sub- bloco com base nos vetores de movimento dos blocos vizinhos. Derivação de MV > Intermodo Normal
[0342] Quando a informação analisada a partir de uma sequência de bits codificados indicar que o intermodo normal deve ser aplicado, o interprevisor 218 deriva um MV com base na informação analisada a partir da sequência de bits codificados e realiza a compensação de movimento (previsão) utilizando o MV.
[0343] A figura 45 é um fluxograma ilustrando um exemplo de interprevisão no intermodo normal no decodificador 200.
[0344] O interprevisor 218 do decodificador 200 realiza a compen- sação de movimento para cada bloco. O interprevisor 218 obtém uma pluralidade de candidatos a MV para um bloco atual, com base na informação, tal como MVs de uma pluralidade de blocos decodificados que cercam de forma temporal ou espacial o bloco atual (Etapa Ss_1). Em outras palavras, o interprevisor 218 gera uma lista de candidatos a MV.
[0345] A seguir, o interprevisor 218 extrai N (um inteiro igual a 2 ou mais) candidatos a MV a partir da pluralidade de candidatos a MV obtidos na Etapa Ss_1, como candidatos ao previsor de vetor de movimento (também referidos como candidatos a previsor de MV), de acordo com uma ordem de prioridade determinada (Etapa Ss_2). Deve- se notar que a ordem de prioridade pode ser determinada antecipada- mente para cada um dos N candidatos a previsor de MV.
[0346] A seguir, o interprevisor 218 decodifica a informação de seleção de previsor de vetor de movimento a partir de uma sequência de entrada (isso é, uma sequência de bits codificados), e seleciona um candidato a previsor de MV a partir dos N candidatos a previsor de MV utilizando a informação de seleção de previsor de vetor de movimento decodificada, como um vetor de movimento (também referido como um previsor de MV) do bloco atual (Etapa Ss_3).
[0347] A seguir, o interprevisor 218 decodifica uma diferença de MV a partir da sequência de entrada, e deriva um MV para um bloco atual pela adição de um valor de diferença que é a diferença de MV decodi- ficada e um previsor de vetor de movimento selecionado (Etapa Ss_4).
[0348] Por fim, o interprevisor 218 gera uma imagem de previsão para o bloco atual pela realização da compensação de movimento do bloco atual utilizando o MV derivado e a imagem de referência decodificada (Etapa Ss_5). Controlador de Previsão
[0349] O controlador de previsão 220 seleciona o sinal de intraprevisão ou o sinal de interprevisão, e envia o sinal de previsão selecionado para o somador 208. Como um todo, as configurações, funções e processos do controlador de previsão 220, do intraprevisor 216 e do interprevisor 218 no lado do decodificador podem corresponder às configurações, funções e processos do controlador de previsão 128, intraprevisor 124 e interprevisor 126 no lado do codificador. Exemplo de Montagem do Decodificador
[0350] A figura 46 é um diagrama em bloco ilustrando um exemplo de montagem do decodificador 200. O decodificador 200 inclui o processador b1 e a memória b2. Por exemplo, a pluralidade de elemen- tos constituintes do decodificador 200 ilustrado na figura 41 pode ser montada no processador b1 e na memória b2 ilustrados na figura 46.
[0351] O processador b1 é o conjunto de circuitos que realiza o processamento de informação e é acessível à memória b2. Por exemplo, o processador b1 é um conjunto de circuitos dedicado ou geral que decodifica um vídeo (isso é, uma sequência de bits codificados). O processador b1 pode ser um processador, tal como uma CPU. Adicionalmente, o processador b1 pode ser um agregado de uma pluralidade de circuitos eletrônicos. Adicionalmente, por exemplo, o processador b1 pode assumir os papeis de dois ou mais elementos constituintes dentre a pluralidade de elementos constituintes do decodificador 200 ilustrado na figura 41, etc.
[0352] A memória b2 é uma memória dedicada ou geral para armazenar informação que é utilizada pelo processador b1 para decodificar uma sequência de bits codificados. A memória b2 pode ser um conjunto de circuitos eletrônicos, e pode ser conectada ao processador b1. Adicionalmente, a memória b2 pode ser incluída no processador b1. Adicionalmente, a memória b2 pode ser um agregado de uma pluralidade de circuitos eletrônicos. Adicionalmente, a memória b2 pode ser um disco magnético, um disco ótico, ou similares, ou pode ser representada como um armazenador, um meio de gravação, ou similares. Adicionalmente, a memória b2 pode ser uma memória não volátil, ou uma memória volátil.
[0353] Por exemplo, a memória b2 pode armazenar um vídeo ou uma sequência de bits. Adicionalmente, a memória b2 pode armazenar um programa para fazer com que o processador b1 decodifique uma sequência de bits codificados.
[0354] Adicionalmente, por exemplo, a memória b2 pode assumir os papeis de dois ou mais elementos constituintes para armazenar informação a partir da pluralidade de elementos constituintes do decodificador 200 ilustrado na figura 41, etc. Especificamente, a memória b2 pode assumir os papeis da memória de bloco 210 e da memória de quadro 214 ilustradas na figura 41. Mais especificamente,
a memória b2 pode armazenar um bloco reconstruído, uma imagem reconstruída, etc.
[0355] Deve-se notar que, no decodificador 200, todos dentre a pluralidade de elementos constituintes ilustrados na figura 41, etc. podem não ser implementados, e todos os processos descritos acima podem não ser realizados. Parte dos elementos constituintes indicados na figura 41, etc. podem ser incluídos em outro dispositivo, ou parte dos processos descritos acima pode ser realizada por outro dispositivo. Definições dos Termos
[0356] Os termos respectivos podem ser definidos como indicado abaixo como exemplos.
[0357] Uma imagem é um conjunto de amostras de luminescência no formato monocromático ou um conjunto de amostras de luminescência e dois conjuntos correspondentes de amostras de crominância em formato colorido de 4:2:0, 4:2:2 e 4:4:4. Uma imagem pode ser um quadro ou um campo.
[0358] Um quadro é a composição de um campo superior e um campo inferior onde fileiras de amostras 0, 2, 4,... se originam do campo superior e as fileiras de amostras 1, 3, 5,...se originam do campo inferior.
[0359] Uma fatia é um número inteiro de unidades de árvore de codificação contidas em um segmento de fatia independente e todos os segmentos de fatia dependentes subsequentes (se algum) que precedem o próximo segmento de fatia independente (se algum) dentro da mesma unidade de acesso.
[0360] Um tile é uma região retangular dos blocos de árvore de codificação dentro de uma coluna de tile particular e uma fileira de tile particular em uma imagem. Um tile pode ser uma região retangular do quadro que deve poder ser decodificada e codificada independente- mente, apesar de a filtragem em circuito através das bordas de tile ainda poder ser aplicada.
[0361] Um bloco é um conjunto de amostras M x N (M colunas por N fileiras), ou um conjunto M x N de coeficientes de transformação. Um bloco pode ser uma região quadrada ou retangular de pixels incluindo uma matriz de Luminescência e duas matrizes de Crominância.
[0362] Uma unidade de árvore de codificação (CTU) pode ser um bloco de árvore de codificação de amostras de luminescência de uma imagem que possui três conjuntos de amostras, ou outros blocos de árvore de codificação correspondentes de amostras de crominância. Alternativamente, uma CTU pode ser um bloco de árvore de codificação de amostras de uma dentre uma imagem monocromática e uma imagem que é codificada utilizando-se três planos de cores separados e estruturas de sintaxe utilizadas para codificar as amostras.
[0363] Um super bloco pode ser um bloco quadrado de 64 x 64 pixels que consiste de 1 ou 2 blocos de informação de modo ou é recursivamente dividido em quatro blocos de 32 x 32, que podem, os mesmos, ser adicionalmente divididos. Descrição do Modelo ATMVP
[0364] A figura 47 é um diagrama ilustrando um modo de previsão de vetor de movimento temporal avançado (ATMVP). O modo ATMVP é um dos modos incluídos em um modo de sub-bloco que gera uma imagem de previsão com base em sub-bloco e realiza a transformação ortogonal e quantização com base em bloco. No modo ATMVP, primei- ro, o codificador 100 se refere a um vetor de movimento (MV0) correspondendo a um bloco (bloco de referência de vetor de movimento circundante) adjacente à lado esquerdo de um bloco atual, a ser processado, em uma imagem atual, a ser processada, utilizando uma imagem alvo de vetor de movimento temporal. A seguir, o codificador 100 identifica um bloco de referência de vetor de movimento temporal associado ao bloco atual, em uma imagem de referência de vetor de movimento temporal codificada, especificada pelo vetor de movimento
(MV0). Então, o codificador 100 identifica, para cada sub-bloco dentro do bloco atual, um vetor de movimento utilizado para codificação, em uma região a ser codificada no bloco de referência de vetor de movimento temporal. Depois disso, o codificador 100 realiza o escalona- mento por referência ao vetor de movimento, de acordo com um intervalo de tempo entre a imagem de referência de vetor de movimento temporal e a imagem atual, para obter o vetor de movimento que corresponde a cada sub-bloco na imagem atual.
[0365] A seguir, o codificador 100 realiza a compensação de movimento para cada sub-bloco da imagem atual utilizando o vetor de movimento, para gerar uma imagem de previsão. Então, o codificador 100 gera uma imagem de diferença entre a imagem de previsão e uma imagem de entrada. Subsequentemente, o codificador 100 realiza a transformação ortogonal e a quantização na imagem de diferença entre um bloco atual com base em bloco atual.
[0366] Deve-se notar que apesar de o bloco adjacente à parte inferior esquerda do bloco atual ser utilizado como um bloco para fazer referência a MV0 na figura 47, um bloco para fazer referência a MV0 não está limitado a esse. Por exemplo, um bloco para fazer referência a MV0 pode ser um bloco adjacente ao lado superior esquerdo do bloco atual, ou pode ser um bloco adjacente ao canto superior direito do bloco atual. Além disso, um bloco para fazer referência a MV0 pode ser um bloco adjacente ao canto inferior direito do bloco atual.
[0367] O codificador 100 pode determinar o tamanho de um sub- bloco como sendo igual a 4 x 4 ou 8 x 8. Adicionalmente, o codificador 100 pode determinar o tamanho de um sub-bloco para um tamanho diferente do acima, ou pode tornar o tamanho de um sub-bloco comutável com base em fatia ou com base em imagem, etc.
[0368] O que é ilustrado na figura 47 foi descrito como as opera- ções, etc. do codificador 100, e o decodificador 200 realiza as mesmas operações.
[0369] A figura 48 é um diagrama ilustrando um problema com o modo ATMVP. Quando o bloco de referência de vetor de movimento temporal, especificado pelo vetor de movimento (MV0) ilustrado na figura 47, inclui o limite do objeto em movimento que é diferente, dentro do movimento, de outra região em um bloco de referência, os vetores de movimento significativamente diferentes de uma média são designados para os sub-blocos incluídos no bloco atual. Por exemplo, no exemplo ilustrado na figura 48, diferentes vetores de movimento são designados para cinco sub-blocos superiores esquerdos e onze outros sub-blocos dentro do bloco atual. Em outras palavras, os vetores de movimento, cujas diferenças com relação aos vetores de movimento designados para os cinco sub-blocos superiores esquerdos são superiores a uma média de diferenças entre os vetores de movimento designados para os sub-blocos incluídos no bloco atual, são designados para onze outros sub-blocos.
[0370] Quando a posição do limite do objeto em movimento dentro do bloco de referência de vetor de movimento temporal e a posição do limite real do objeto em movimento dentro do bloco atual, combinam, a distorção de limite tem menos chances de ocorrer em uma imagem de previsão. No entanto, quando a posição do limite do objeto em movimento dentro do bloco de referência de vetor de movimento temporal e a posição do limite real do objeto em movimento dentro do bloco atual não combinam, existe uma possibilidade de um deslocamento ser causado entre a posição do limite real do objeto em movimento e a posição de um limite ao longo de uma direção do vetor de movimento designado para cada sub-bloco, incluído no bloco atual, e a distorção de limite ocorre em uma imagem de previsão.
[0371] Adicionalmente, a transformação ortogonal ou quantização é aplicada a uma imagem de diferença gerada a partir da imagem de previsão, não com base em sub-bloco, mas com base em bloco atual. Por essa razão, é difícil se corrigir suficientemente a distorção de limite na imagem de previsão quando a imagem de diferença é reconstruída, e existe uma possibilidade de a distorção de limite ocorrer de forma muito intensa em uma imagem reconstruída após a decodificação. Primeiro Exemplo do Modo ATMVP na Presente Descrição
[0372] A figura 49 é um diagrama ilustrando o primeiro exemplo do modo ATMVP, de acordo com a presente modalidade. A seguir são descritas as diferenças do modo ATMVP ilustrado na figura 47. No método ilustrado na figura 47, o vetor de movimento correspondente a cada sub-bloco, dentro do bloco de referência de vetor de movimento temporal, que é especificado por MV0, que é o vetor de movimento que corresponde ao bloco de referência de vetor de movimento circundante, é designado como o vetor de movimento que corresponde a cada sub- bloco dentro do bloco atual. Em contraste, em um método descrito no primeiro exemplo do modo ATMVP, ilustrado na figura 49, um vetor de movimento correspondendo a um sub-bloco em uma posição específica dentro de um bloco de referência de vetor de movimento temporal, especificado por MV0, é designado como um vetor de movimento com base em bloco em um bloco atual a ser processado. Em outras palavras, no método descrito no primeiro exemplo do modo ATMVP ilustrado na figura 49, no bloco atual, o vetor de movimento que corresponde a um sub-bloco dentro do bloco de referência de vetor de movimento temporal é selecionado e aplicado como um vetor de movimento que corresponde a uma região do bloco atual.
[0373] Como resultado disso, mesmo quando o modo ATMVP é aplicado ao bloco atual, o codificador 100 gera uma imagem de previsão pela realização da compensação de movimento com base em bloco atual, e aplica, adicionalmente, a transformação ortogonal e a quantização com base em bloco atual a uma imagem de diferença gerada.
[0374] Com isso, o modo ATMVP permite que o codificador 100 selecione um vetor de movimento mais adequado e evite uma situação na qual a distorção de limite inadequada ocorre dentro do bloco atual na imagem de previsão. De acordo, quando o decodificador 200 decodifica uma imagem reconstruída, reconstruída pelo codificador 100, o codificador 100 pode aperfeiçoar a qualidade de imagem da imagem reconstruída decodificada.
[0375] Deve-se notar que apesar de o que é ilustrado na figura 49 ter sido descrito como as operações do codificador 100, o decodificador 200 pode realizar as mesmas operações.
[0376] A figura 50 é um diagrama ilustrando um exemplo de um método de seleção de um vetor de movimento que corresponde a um sub-bloco em uma posição específica dentro de um bloco de referência do vetor de movimento temporal, de acordo com a presente modalidade.
[0377] Deve-se notar que apesar de um bloco de referência de vetor de movimento temporal quadrado, incluindo os sub-blocos dispostos nas quatro fileiras e quatro colunas, ser utilizado na descrição da figura 50, o tamanho ou magnitude de um bloco de referência de vetor de movimento temporal não está limitado a isso. Um bloco de referência de vetor de movimento temporal pode ser retangular. O método de processamento descrito abaixo é aplicado a um bloco de referência de vetor de movimento temporal e a um bloco atual a ser processado, independentemente do tamanho ou formato do bloco de referência de vetor de movimento temporal.
[0378] Em um exemplo de (1) ilustrado na figura 50, o codificador 100 seleciona um vetor de movimento correspondente a um sub-bloco na parte inferior direita de um bloco de referência de vetor de movimento temporal, dentre os sub-blocos, incluindo os sub-blocos localizados no centro de uma coluna de sub-blocos, e o centro de uma fileira de sub-
blocos dentro do bloco de referência de vetor de movimento temporal. Por exemplo, tal sub-bloco é o sub-bloco tracejado ilustrado em (1) na figura 50. Com isso, o codificador 100 pode selecionar o vetor de movimento correspondente ao sub-bloco localizado aproximadamente no centro do bloco de referência do vetor de movimento temporal. De acordo, o codificador 100 possui a possibilidade de obter um vetor de movimento adequado para uma região mais larga no bloco atual.
[0379] Em um exemplo de (2) ilustrado na figura 50, o codificador 100 seleciona um vetor de movimento que corresponde a um sub-bloco localizado na parte superior esquerda de um bloco de referência de vetor de movimento temporal. Por exemplo, tal sub-bloco é o sub-bloco tracejado ilustrado em (2) na figura 50. Com isso, um processo de derivação da posição do sub-bloco selecionado pelo codificador 100 é simplificado. De acordo, o codificador 100 pode reduzir a quantidade de processamento.
[0380] Em um exemplo de (3) ilustrado na figura 50, o codificador 100 seleciona um vetor de movimento que corresponde a um sub-bloco localizado na parte inferior direita de um bloco de referência de vetor de movimento temporal. Por exemplo, tal sub-bloco é o sub-bloco tracejado ilustrado em (3) na figura 50. Existe uma alta possibilidade de outros vetores de movimento selecionados no processamento do modo de mistura serem vetores de movimento adequados para um sub-bloco localizado na parte esquerda ou superior de um bloco atual a ser processado. Por essa razão, o codificador 100 pode registrar, como um candidato a vetor de movimento possuindo características distintas das características desses vetores de movimento, um candidato a vetor de movimento possuindo características adequadas para o sub-bloco localizado na parte inferior direita do bloco atual. De acordo, o codifi- cador 100 tem a possibilidade de aperfeiçoar a eficiência de codificação para uma imagem atual a ser processada.
[0381] Em um exemplo de (4) ilustrado na figura 50, o codificador 100 seleciona um vetor de movimento que corresponde a um sub-bloco adjacente ao lado inferior direito de um bloco de referência de vetor de movimento temporal. Por exemplo, tal sub-bloco é o sub-bloco tracejado ilustrado em (4) na figura 50. Com isso, o codificador 100 pode derivar a posição do sub-bloco para fazer referência ao vetor de movimento utilizando o mesmo processamento que um candidato a vetor de movimento adjacente temporal que é um outro dentre os candidatos a vetor de movimento para uso no modo de mistura. Além disso, o vetor de movimento selecionado pelo método acima apresenta as mesmas características que o vetor de movimento selecionado pelo método ilustrado no exemplo (3). No método ilustrado no exemplo (4), o codifi- cador 100 tem a possibilidade de compartilhar o procedimento com outros processos, etc. do modo de mistura quando da seleção do vetor de movimento.
[0382] Deve-se notar que apesar de o processo de derivação do vetor de movimento, a ser designado para o bloco atual a partir do vetor de movimento de um sub-bloco dentro do bloco de referência de vetor de movimento temporal, ter sido descrito aqui, um vetor de movimento a ser designado para um bloco atual a ser processado pode ser derivado não a partir de um sub-bloco, mas a partir de sub-blocos. O vetor de movimento a ser designado para o bloco atual pode ser derivado pelo cálculo de um valor médio de vetores de movimento que correspondem a todos os sub-blocos dentro de um bloco de referência de vetor de movimento temporal. Ademais, o vetor de movimento a ser designado para o bloco atual pode ser derivado pelo cálculo de um valor médio de vetores de movimento que correspondem aos sub-blocos nas proximidades do centro do bloco de referência de vetor de movimento temporal. Adicionalmente, o vetor de movimento a ser designado para o bloco atual pode ser derivado pelo cálculo de um valor médio dos vetores de movimento com referência a uma imagem específica dentre os vetores de movimento que correspondem a todos os sub-blocos dentro do bloco de referência de vetor de movimento temporal.
[0383] Deve-se notar que quando um vetor de movimento, corres- pondente a um ou mais sub-blocos dentro de um bloco de referência de vetor de movimento temporal selecionado, não podem ser referidos, o uso do modo ATMVP em um bloco atual a ser processado pode ser proibido, ou um vetor de movimento predefinido pode ser designado para o bloco atual. Por exemplo, o vetor de movimento predefinido pode ser um vetor de movimento possuindo um valor igual a 0. Aqui, o caso no qual o vetor de movimento, que corresponde a um ou mais sub- blocos dentro do bloco de referência de vetor de movimento temporal, não pode ser referido é, por exemplo, um caso no qual um bloco de referência de vetor de movimento temporal é um bloco no qual o intraprocessamento foi realizado, um caso no qual um bloco de referência de vetor de movimento temporal está localizado fora de uma imagem de referência, ou um caso no qual um bloco de referência de vetor de movimento temporal está localizado fora de uma fatia ou tile a ser referido.
[0384] Deve-se notar que em um método de conversão de um vetor de movimento, obtido pelo codificador 100, com referência a um sub- bloco, dentro de um bloco de referência de vetor de movimento temporal, em um vetor de movimento utilizado para realização, de fato, da compensação de movimento em um bloco atual a ser processado, por exemplo, o vetor de movimento obtido pelo codificador 100 pode ser utilizado como o vetor de movimento para realizar a compensação de movimento. Ademais, no método acima, o vetor de movimento obtido pelo codificador 100 pode ser utilizado como um vetor de movimento sujeito ao escalonamento de acordo com um intervalo de tempo de uma imagem de referência e utilizado para realizar a compensação de movimento. Adicionalmente, no método acima, o codificador 100 pode derivar o vetor de movimento para realização da compensação de movimento, utilizando o mesmo método que um método utilizado na derivação de um previsor de vetor de movimento adjacente temporal normal no modo de mistura.
[0385] Deve-se notar que no modo de mistura, o codificador 100 pode registrar apenas um candidato a vetor de movimento ou candi- datos a vetor de movimento derivados no modo ATMVP em uma lista de candidatos a vetor de movimento. Quando o codificador 100 registra os candidatos a vetor de movimento derivados no modo ATMVP, o codificador 100 pode alterar um método de extração de um vetor de movimento a ser referido a partir de um sub-bloco dentro de um bloco de referência de vetor de movimento temporal, entre o primeiro candidato a vetor de movimento a ser registrado e o segundo candidato a vetor de movimento a ser registrado.
[0386] Deve-se notar que no modo de mistura, quando um candidato a vetor de movimento, possuindo a mesma informação que um candidato a vetor de movimento derivado no modo ATMVP, já está registrado na lista de candidatos a vetor de movimento, o candidato a vetor de movimento derivado no modo ATMVP não precisa ser registrado na lista de candidatos a vetor de movimento.
[0387] Deve-se notar que o que é ilustrado na figura 50 se aplica a ambos o codificador 100 e ao decodificador 200. Efeitos Vantajosos do Primeiro Exemplo do Modo ATMVP na Presente Descrição
[0388] Com as configurações ilustradas na figura 49 e na figura 50, o codificador 100 ou o decodificador 200 seleciona um vetor de movimento mais adequado utilizando o modo ATMVP, e evita a ocorrência de uma distorção inadequada de limite dentro do bloco atual na imagem de previsão. De acordo, isso aumenta a possibilidade de o codificador 100 ou de o decodificador 200 contribuir para o aperfeiçoamento da qualidade de imagem de uma imagem reconstruída depois da decodificação. Segundo Exemplo do Modo ATMVP na Presente Descrição
[0389] A figura 51 é um diagrama ilustrando o segundo exemplo do modo ATMVP de acordo com a presente modalidade, A seguir são descritas as diferenças do modo ATMVP ilustrado na figura 47. No modo ilustrado na figura 47, um vetor de movimento que corresponde a cada sub-bloco dentro de um bloco de referência de vetor de movimento temporal, especificado por MV0, é designado como um vetor de movimento que corresponde a cada sub-bloco de um bloco atual a ser processado. Em contraste, em um método ilustrado na figura 51, um vetor de movimento suavizado utilizando um vetor de movimento que corresponde a cada sub-bloco dentro de um bloco de referência de vetor de movimento temporal, especificado por MV0, e vetores de movimento que correspondem aos sub-blocos circundantes, é designado como um vetor de movimento que corresponde a cada sub-bloco de um bloco atual a ser processado. Por exemplo, como ilustrado na figura 51, um vetor de movimento que corresponde ao sub-bloco de traços e pontos no bloco de referência de vetor de movimento temporal, que corres- ponde ao sub-bloco tracejado no bloco atual, é suavizado utilizando-se vetores de movimento que correspondem aos sub-blocos circundantes (sub-blocos com tracejado cruzado) do sub-bloco de traços e pontos. Então, o vetor de movimento suavizado é determinado como um vetor de movimento que corresponde ao sub-bloco tracejado no bloco atual.
[0390] Com isso, o codificador 100 designa um vetor de movimento para cada sub-bloco do bloco atual, de modo que um limite que possui uma diferença maior entre os vetores de movimento que correspondem aos sub-blocos, dentro do bloco de referência de vetor de movimento temporal, do que uma diferença predeterminada, seja substituído por um limite que possui uma diferença menor, entre os vetores de movimento correspondendo aos sub-blocos dentro do bloco de referência de vetor de movimento temporal, do que a diferença predeterminada. Em outras palavras, o codificador 100 designa um vetor de movimento para cada sub-bloco do bloco atual, de modo que um limite, que apresenta uma diferença grande entre os vetores de movimento correspondentes aos sub-blocos, dentro do bloco de referência de vetor de movimento temporal, seja substituído por um limite no qual os vetores de movimento, que correspondem aos sub- blocos dentro do bloco de referência de vetor de movimento temporal, mudem suavemente. Por essa razão, o codificador 100 pode reduzir a ocorrência da distorção de limite em uma imagem de previsão. Adicionalmente, isso aumenta a possibilidade de o codificador 100 contribuir para aperfeiçoar a qualidade de imagem de uma imagem reconstruída depois da decodificação. Deve-se notar que o que é ilustrado na figura 51 se aplica a ambos o codificador 100 e ao decodificador 200.
[0391] A figura 52 é um diagrama ilustrando um exemplo de um método de suavização de um vetor de movimento utilizando um vetor de movimento que corresponde a cada sub-bloco dentro de um bloco de referência de vetor de movimento temporal de acordo com a presente modalidade. Deve-se notar que apesar de um bloco de referência de vetor de movimento temporal quadrado, incluindo os sub-blocos dispostos em quatro fileiras e quatro colunas, ser utilizado na descrição da figura 52, o tamanho ou a magnitude de um bloco de referência de vetor de movimento temporal não está limitado a isso. Um bloco de referência de vetor de movimento temporal pode ser retangular. O método de processamento descrito abaixo é aplicado a um bloco de referência de vetor de movimento temporal e a um bloco atual a ser processado, independentemente do tamanho ou do formato do bloco de referência de vetor de movimento temporal.
[0392] Em um exemplo de (1), ilustrado na figura 52, na posição A e na posição B no bloco de referência de vetor de movimento temporal, o codificador 100 suaviza os vetores de movimento correspondentes à posição A e à posição B utilizando os vetores de movimento que correspondem a quatro sub-blocos tracejados adjacentes aos lados esquerdo, direito, superior e inferior de cada um dos sub-blocos na posição A e na posição B. Com isso, o codificador 100 tem a possibili- dade de realizar a suavização adequada mesmo quando um limite possuindo uma maior diferença entre os vetores de movimento, correspondendo aos sub-blocos no bloco de referência de vetor de movimento temporal, está localizado em qualquer direção com relação a um sub-bloco a ser suavizado.
[0393] Em um exemplo de (2), ilustrado na figura 52, na posição A e na posição B, o codificador 100 suaviza os vetores de movimento correspondentes à posição A e à posição B utilizando vetores de movimento que correspondem aos dois sub-blocos tracejados adjacen- tes ao lado esquerdo e superior de cada um dos sub-blocos na posição A e na posição B. Com isso, o codificador 100 pode suavizar os vetores de movimento correspondentes à posição A e à posição B sem utilizar os sub-blocos adjacentes ao lado direito e inferior de cada um dos sub- blocos na posição A e na posição B no bloco de referência de vetor de movimento temporal. De acordo, o codificador 100 tem a possibilidade de simplificar o controle de processo no processo de suavização ilustrado na figura 52.
[0394] Em um exemplo de (3) ilustrado na figura 52, na posição A e na posição B, o codificador 100 suaviza os vetores de movimento correspondentes à posição A e à posição B utilizando vetores de movimento que correspondem aos dois sub-blocos tracejados adjacen- tes ao lado direito e ao fundo de cada um dos sub-blocos na posição A e na posição B. Com isso, o codificador 100 pode suavizar os vetores de movimento correspondentes à posição A e à posição B sem utilizar os sub-blocos adjacentes ao lado esquerdo e superior de cada um dos sub-blocos na posição A e na posição B no bloco de referência de vetor de movimento temporal. De acordo, o codificador 100 tem a possibili- dade de simplificar o controle de processamento no processo de suavização ilustrado na figura 52.
[0395] Em um exemplo de (4) ilustrado na figura 52, o codificador 100 suaviza os vetores de movimento correspondentes à posição A e à posição B utilizando os vetores de movimento correspondentes aos sub- blocos adjacentes diferentes entre a posição A e a posição B. Por exemplo, na posição A, o codificador 100 suaviza um vetor de movimento correspondente à posição A utilizando vetores de movimen- to correspondentes aos dois sub-blocos tracejados adjacentes ao lado direito e inferior do sub-bloco na posição A. Além disso, na posição B, o codificador 100 suaviza um vetor de movimento correspondente à posição B utilizando vetores de movimento correspondentes aos dois sub-blocos tracejados adjacentes ao lado esquerdo e superior do sub- bloco na posição A. Em outras palavras, na posição A e na posição B, o codificador 100 suaviza os vetores de movimento correspondentes à posição A e à posição B sempre utilizando apenas os sub-blocos dentro do bloco de referência de vetor de movimento temporal. Com isso, o codificador 100 pode realizar a suavização sem referência aos sub- blocos localizados fora do bloco de referência de vetor de movimento temporal. De acordo, o codificador 100 tem a possibilidade de simplificar o controle de processamento no processo de suavização ilustrado na figura 52.
[0396] Deve-se notar que as posições dos sub-blocos adjacentes aos sub-blocos a serem suavizados, que são utilizados no processo de suavização ilustrado na figura 52, são um exemplo, e o codificador 100 pode utilizar, no processo de suavização, posições e o número de sub- blocos além das posições e do número de sub-blocos ilustrados na figura 52.
[0397] Deve-se notar que quando os vetores de movimento, que correspondem aos sub-blocos adjacentes a um sub-bloco a ser suavizado, e que são utilizados para o processo de suavização, não podem ser referidos, o processo de suavização pode ser realizado sem se utilizar o vetor de movimento do sub-bloco adjacente, ou o processo de suavização pode ser realizado utilizando-se um vetor de movimento predefinido. Por exemplo, o vetor de movimento predefinido pode ser um vetor de movimento possuindo um valor igual a 0. Aqui, o caso no qual os vetores de movimento, que correspondem aos sub-blocos adjacentes ao sub-bloco a ser suavizado, e que são utilizados para o processo de suavização, não podem ser referidos é, por exemplo, um caso no qual um bloco de referência de vetor de movimento temporal é um bloco no qual o intraprocessamento foi realizado, um caso no qual um bloco de referência de vetor de movimento temporal está localizado fora de uma imagem de referência, ou um caso no qual um bloco de referência de vetor de movimento temporal está localizado fora de uma fatia ou tile a ser referido.
[0398] Deve-se notar que suavização significa, por exemplo, cálculo de um valor médio de valores de vetores de movimento. Aqui, o valor médio pode ser calculado utilizando-se o método de média ponderada. Por exemplo, o codificador 100 pode aumentar o peso de um vetor de movimento correspondente a um sub-bloco a ser suavizado, e reduzir o peso dos vetores de movimento dos sub-blocos adjacentes ao sub- bloco a ser suavizado.
[0399] Deve-se notar que o que é ilustrado na figura 52 se aplica a ambos o codificador 100 e ao decodificador 200. Efeitos Vantajosos do Segundo Exemplo do Modo ATMVP na Presente
Descrição
[0400] Com as configurações ilustradas nas figuras 51 e 52, o codificador 100 ou o decodificador 200 designa um vetor de movimento para cada sub-bloco do bloco atual, de modo que um limite possuindo uma diferença maior entre os vetores de movimento correspondentes aos sub-blocos, dentro do bloco de referência de vetor de movimento temporal, do que uma diferença predeterminada, seja substituído por um limite que possui uma diferença menor entre os vetores de movimento correspondentes aos sub-blocos, dentro do bloco de referência de vetor de movimento temporal, do que a diferença predeterminada. Em outras palavras, o codificador 100 e o decodificador 200 designam um vetor de movimento para cada sub-bloco do bloco atual de modo que um limite possuindo uma grande diferença entre os vetores de movimento correspondentes aos sub-blocos, dentro do bloco de referência de vetor de movimento temporal, seja substituído por um limite no qual os vetores de movimento, correspondentes aos sub- blocos dentro do bloco de referência de vetor de movimento temporal, mudem suavemente. Por essa razão, o codificador 100 ou o decodifi- cador 200 podem reduzir a ocorrência de distorção de limite em uma imagem de previsão. Adicionalmente, isso aumenta a possibilidade de o codificador 100 ou o decodificador 200 contribuir para o aperfeiçoamento da qualidade de imagem de uma imagem reconstruída depois da decodificação. Terceiro Exemplo do Modo ATMVP na Presente Descrição
[0401] Com referência a um processo de geração de uma imagem de previsão por um codificador, um método descrito no terceiro exemplo do modo ATMVP é igual ao exemplo do modo ATMVP ilustrado na figura
47. O método, no entanto, difere de outros exemplos na realização de um processo de filtro de desbloqueio no limite de um sub-bloco. A figura 53 é um diagrama ilustrando o terceiro exemplo do modo ATMVP de acordo com a presente modalidade.
[0402] Como ilustrado na figura 53, em um processo de filtro de desbloqueio para um bloco atual a ser processado, primeiro, é determi- nado se o limite de um sub-bloco, ao qual um filtro de desbloqueio deve ser aplicado, é o limite de um sub-bloco dentro de um bloco a ser processado utilizando-se o modo ATMVP (etapa S1000).
[0403] Quando o codificador 100 determina que o limite de um bloco ao qual o filtro de desbloqueio deve ser aplicado não é o limite do sub- bloco dentro do bloco a ser processado, utilizando-se o modo ATMVP (Não na etapa S1000), o codificador 100 determina um valor Bs para o limite do bloco da mesma forma que um processo de filtro de desbloqueio normal (etapa S1001). Aqui, o valor Bs é um valor para controlar a intensidade do filtro de desbloqueio.
[0404] A seguir, o codificador 100 seleciona, como o filtro de desbloqueio a ser aplicado ao limite do bloco, um dentre um filtro fraco e um filtro forte (etapa S1002).
[0405] Quando o codificador 100 determina que o limite do sub- bloco ao qual o filtro de desbloqueio deve ser aplicado é o limite do sub- bloco dentro do bloco a ser processado, utilizando o modo ATMVP (Sim em S1000), o codificador 100 determina um valor Bs para o limite do sub-bloco. O valor Bs pode ser sempre, por exemplo, igual a 2 (etapa S1003).
[0406] Então, o codificador 100 seleciona um tipo de filtro de desbloqueio a ser aplicado ao limite do sub-bloco. Por exemplo, um filtro forte pode ser sempre selecionado como o filtro de desbloqueio a ser aplicado (etapa S1004).
[0407] Depois da etapa S1002 ou etapa S1004, o codificador 100 realiza um processo de filtragem no limite do bloco a ser processado, utilizando o filtro de desbloqueio selecionado (etapa S1005). Aqui, o processo de filtragem é o processo de filtro de desbloqueio.
[0408] Deve-se notar que o valor Bs determinado na etapa S1003 não precisa ser igual a 2. O valor Bs determinado na etapa S1003 pode ser um valor além de 2 desde que o valor seja diferente de um valor Bs, indicando que um filtro de desbloqueio, não deve ser aplicado a uma região alvo ou um limite alvo ou pode ser selecionado dentre os valores.
[0409] Deve-se notar que a aplicação do filtro de desbloqueio ao limite do sub-bloco significa a aplicação do filtro de desbloqueio aos pixels que cercam o limite do sub-bloco.
[0410] Deve-se notar que o codificador 100 pode aplicar o filtro de desbloqueio ao limite de uma região de 8 x 8 pixels incluída no limite do sub-bloco.
[0411] Deve-se notar que o tamanho do sub-bloco ilustrado na figura 53 pode ser equivalente à região de 8 x 8 pixels.
[0412] Com isso, mesmo quando o limite de um bloco, possuindo uma diferença maior entre os vetores de movimento correspondentes aos sub-blocos do que um valor predeterminado, estiver presente dentro do bloco de referência de vetor de movimento temporal, um filtro de desbloqueio, possuindo uma grande intensidade, é aplicado ao limite do bloco. A aplicação do filtro de desbloqueio possuindo grande intensi- dade ao limite do bloco permite que o codificador 100 reduza a ocorrência da distorção de limite na imagem de previsão. De acordo, isso aumenta a possibilidade de o codificador 100 contribuir para o aperfeiçoamento da qualidade de imagem de uma imagem reconstruída depois da decodificação.
[0413] Deve-se notar que o fluxograma ilustrado na figura 53 é um exemplo, e parte dos processos ilustrados na figura 53 pode ser removida, ou um processo ou determinação de uma condição não ilustrada na figura 53 pode ser adicionado.
[0414] Deve-se notar que apesar de a figura 53 ilustrar o exemplo no qual o codificador 100 seleciona o controle de ambos o valor Bs,
indicando a grande intensidade e o forte filtro para realização de um processo forte, o codificador 100 pode selecionar um dentre o valor Bs e o filtro forte, utilizando o outro dentre o valor Bs e o filtro forte como um valor fixo. Aqui, selecionar controle significa selecionar um parâmetro de controle.
[0415] Por exemplo, o codificador 100 pode sempre selecionar 2 como o valor Bs, e, então, selecionar a aplicação do filtro fraco ou aplicação do filtro forte.
[0416] Ademais, por exemplo, o codificador 100 pode sempre selecionar a aplicação do filtro forte, e realizar um processo de determinação normal para o valor Bs.
[0417] Deve-se notar que o processo de filtro de desbloqueio pode ser aplicado aos limites dos sub-blocos em uma fileira ou uma coluna possuindo um número de linha que é um múltiplo de 8 e incluindo posições de pixel dentre as posições de pixel de um limite vertical e um limite horizontal, no bloco atual ou no bloco de referência de vetor de movimento temporal. A figura 54 ilustra um exemplo de aplicação de um processo de filtro de desbloqueio ao limite de um sub-bloco de acordo com a presente modalidade. A figura 54 é um diagrama ilustrando um exemplo de aplicação de um processo de filtro de desbloqueio ao limite de um sub-bloco de acordo com a presente modalidade.
[0418] Primeiro, o codificador 100 determina se as posições de pixel de um limite a ser processado são limites de sub-blocos em uma fileira ou uma coluna possuindo um número de linhas que é um múltiplo de 8 (etapa S2000).
[0419] Quando o codificador 100 determina que as posições de pixel do limite a ser processado são os limites dos sub-blocos na fileira ou coluna possuindo o número de linha que é o múltiplo de 8 (Sim na etapa S2000), o codificador 100 aplica um filtro de desbloqueio ao limite a ser processado (etapa S2001). Aqui, o codificador 100 encerra o processamento ilustrado na figura 54.
[0420] Quando o codificador 100 determina que as posições de pixel do limite a ser processado não são os limites dos sub-blocos na fileira ou coluna possuindo o número de linha que é o múltiplo de 8 (não na Etapa S2000), o codificador 100 encerra o processamento ilustrado na figura 54.
[0421] Como mencionado anteriormente, o tamanho do sub-bloco pode ser, por exemplo, 8 x 8 ou 4 x 4. No exemplo acima, quando o tamanho é de 8 x 8, o filtro de desbloqueio é aplicado aos limites de todos os sub-blocos, e quanto o tamanho é de 4 x 4, em vez de se realizar o processo de filtro de desbloqueio nos limites de todos os sub- blocos, o processo de desbloqueio é aplicado apenas aos limites dos sub-blocos, que são incluídos nos limites dos sub-blocos, em uma fileira ou uma coluna possuindo um número de linha que é um múltiplo de 8.
[0422] Ademais, o tamanho dos sub-blocos pode ser fixado em 8 x 8, e o filtro de desbloqueio pode ser aplicado aos limites de todos os sub-blocos dentro do bloco atual ou bloco de referência de vetor de movimento temporal.
[0423] Deve-se notar que apesar de o modo ATMVP ser ilustrado na figura 53, o mesmo processamento pode ser utilizado para um modo de sub-bloco, que é diferente do modo ATMVP, e que gera uma imagem de previsão com base em sub-bloco e realiza a transformação ortogonal e a quantização com base em bloco. Por exemplo, em um modo afim, o tamanho dos sub-blocos pode ser fixado em 8 x 8. Adicionalmente, no modo afim, o codificador 100 pode fixar o tamanho dos sub-blocos em 8 x 8, e aplicar um filtro de desbloqueio aos limites de todos os sub- blocos dentro de um bloco atual a ser processado ou um bloco de referência de vetor de movimento temporal.
[0424] Deve-se notar que o codificador 100 pode realizar o proces- samento utilizando uma combinação de método ilustrado na figura 53 e os métodos ilustrados nas figuras de 49 a 52. Por exemplo, o codificador 100 pode suavizar um vetor de movimento de cada sub-bloco dentro de um bloco de referência de vetor de movimento temporal e realizar um processo de previsão, utilizando o método descrito no segundo exemplo ilustrado nas figuras 51 e 52 e, então, aplicar o processo de filtro de desbloqueio descrito no terceiro exemplo ilustrado na figura 53 ao limite de um sub-bloco dentro de um bloco atual a ser processado.
[0425] Deve-se notar que apesar de o processamento ilustrado na figura 53 poder ser descrito como o processamento realizado pelo codificador 100, o decodificador 200 realiza o mesmo processamento que o codificador 100. Efeitos Vantajosos do Terceiro Exemplo do Modo ATMVP na Presente Descrição
[0426] Com a configuração do codificador 100 ou decodificador 200 ilustrada na figura 53, mesmo quando o limite de um sub-bloco, possuindo uma diferença maior entre os vetores de movimento que correspondem aos sub-blocos dentro de um bloco de referência de vetor de movimento temporal do que um valor predeterminado, está presente, o codificador 100 ou o decodificador 200 aplica um filtro de desbloqueio forte ao limite do sub-bloco. De acordo, o codificador 100 ou o decodi- ficador 200 pode reduzir a ocorrência da distorção de limite em uma imagem de previsão, o que aumenta a possibilidade de o codificador 100 ou o decodificador 200 contribuir para o aperfeiçoamento da qualidade de imagem de uma imagem reconstruída após a decodifi- cação. Implementação
[0427] A figura 55 é um fluxograma ilustrando um exemplo de operações realizadas por um codificador, de acordo com a presente modalidade. Por exemplo, o codificador 100 ilustrado na figura 40 realiza as operações ilustradas na figura 55. Especificamente, o processador a1 realiza as operações a seguir utilizando a memória a2.
[0428] Primeiro, o codificador 100 gera uma imagem de previsão utilizando um modo de sub-bloco que gera a imagem de previsão de um bloco com base em sub-bloco e transforma o bloco com base em bloco (etapa S3000).
[0429] A seguir, o codificador 100 aplica um filtro de desbloqueio a pelo menos parte de um limite de um sub-bloco localizado dentro do bloco (etapa S3001).
[0430] Ademais, o processador a1 pode aplicar o filtro de desbloqueio a um limite de uma região de 8 x 8 pixels incluída no limite do sub-bloco.
[0431] Ademais, o modo de sub-bloco pode ser um modo de previsão de vetor de movimento temporal avançado (ATMVP).
[0432] Ademais, quando o modo de sub-bloco é um modo de previsão de vetor de movimento temporal avançado (ATMVP), o processador a1 pode configurar o sub-bloco para estar em uma região de 8 x 8 pixels.
[0433] Ademais, o processador a1 pode aplicar, a partir de um primeiro filtro e de um segundo filtro, mais forte do que o primeiro filtro, o segundo filtro como o filtro de desbloqueio a pelo menos parte do limite do sub-bloco.
[0434] Deve-se notar que o processador a1 é um exemplo específico do conjunto de circuitos.
[0435] A figura 56 é um fluxograma ilustrando um exemplo das operações realizadas por um decodificador de acordo com a presente modalidade. Por exemplo, o decodificador 200 ilustrado na figura 46 realiza as operações ilustradas na figura 56. Especificamente, o processador b1 realiza as seguintes operações utilizando a memória b2.
[0436] Primeiro, o decodificador 200 gera uma imagem de previsão utilizando um modo de sub-bloco que gera a imagem de previsão de um bloco com base no sub-bloco e transforma o bloco com base em bloco (etapa S4000).
[0437] A seguir, o decodificador 200 aplica um filtro de desbloqueio a pelo menos parte de um limite de um sub-bloco localizado dentro do bloco (etapa S4001).
[0438] Ademais, o processador b1 pode aplicar o filtro de desbloqueio a um limite de um a região de 8 x 8 pixels incluída no limite do sub-bloco.
[0439] Ademais, o modo de sub-bloco pode ser um modo de previsão de vetor de movimento temporal avançado (ATMVP).
[0440] Ademais, quando o modo de sub-bloco está em um modo de previsão de vetor de movimento temporal avançado (ATMVP), o processador b1 pode configurar o sub-bloco para estar em uma região de 8 x 8 pixels.
[0441] Ademais, o processador b1 pode aplicar, a partir de um primeiro filtro e um segundo filtro, mais forte do que o primeiro filtro, o segundo filtro como o filtro de desbloqueio a pelo menos parte do limite do sub-bloco.
[0442] Deve-se notar que o processador b1 é um exemplo específico do conjunto de circuitos. Informação Suplementar
[0443] O codificador 100 e o decodificador 200, de acordo com a presente modalidade, podem ser utilizados como um codificador de imagem e um decodificador de imagem, ou podem ser utilizados como um codificador de vídeo e um decodificador de vídeo.
[0444] Na presente modalidade, cada um dos elementos constituin- tes pode ser configurado na forma de um produto de hardware exclu- sivo, ou pode ser implementado pela execução de um programa de software adequado para o elemento constituinte. Cada um dos elementos constituintes pode ser implementado por meio de uma unidade de execução de programa, tal como uma CPU ou um proces- sador, lendo e executando um programa de software gravado em um meio de gravação, tal como um disco rígido ou uma memória semicondutora.
[0445] Especificamente, o codificador 100 e o decodificador 200 podem, cada um, incluir um conjunto de circuitos de processamento e um armazenador eletricamente conectado ao conjunto de circuitos de processamento e acessível a partir do conjunto de circuitos de processamento. Por exemplo, o conjunto de circuitos de processamento é equivalente ao conjunto de circuitos a1 ou b1, e o armazenador é equivalente à memória a2 ou b2.
[0446] O conjunto de circuitos de processamento inclui pelo menos um dentre um produto de hardware exclusivo ou uma unidade de execução de programa, e realiza o processamento utilizando o armazenador. Quando o conjunto de circuitos de processamento inclui uma unidade de execução de programa, o armazenador armazena um programa de software executado pela unidade de execução de programa.
[0447] Aqui, o software para se implementar, por exemplo, o codifi- cador 100 ou o decodificador 200 de acordo com a presente modalidade inclui um programa como indicado abaixo.
[0448] Especificamente, o programa pode fazer com que um computador gere uma imagem de previsão utilizando um modo de sub- bloco que gera a imagem de previsão de um bloco com base em sub- bloco e transforma o bloco com base em bloco, e aplique um filtro de desbloqueio a pelo menos parte de um limite de um sub-bloco localizado dentro do bloco.
[0449] Alternativamente, o programa pode fazer com que um computador gere uma imagem de previsão utilizando um modo de sub- bloco que gera a imagem de previsão de um bloco com base em sub-
bloco e transforma o bloco com base em bloco, e aplique um filtro de desbloqueio a pelo menos parte de um limite de um sub-bloco localizado dentro do bloco.
[0450] Os elementos constituintes podem ser circuitos como descrito acima. Os circuitos podem constituir conjuntos de circuitos como um todo, ou podem ser circuitos individuais. Cada elemento constituinte pode ser implementado por um processador geral, ou pode ser implementado por um processador exclusivo.
[0451] Ademais, o processamento executado por um elemento constituinte em particular pode ser executado por outro elemento cons- tituinte. A ordem de execução do processamento pode ser modificada, ou uma pluralidade de processos pode ser executada em paralelo. Adicionalmente, um dispositivo de codificação e decodificação pode incluir o codificador 100 e o decodificador 200.
[0452] Os números ordinais, tal como "primeiro" e "segundo", utiliza- dos na descrição, podem ser alterados como adequado. Um novo número ordinal pode ser fornecido aos elementos constituintes, etc., ou os números ordinais dos elementos constituintes podem ser removidos.
[0453] Apesar de alguns aspectos do codificador 100 e do decodi- ficador 200 terem sido descritos acima com base na modalidade, os aspectos do codificador 100 e do decodificador 200 não estão limitados a essa modalidade. Várias modificações à presente modalidade que são concebíveis dos versados na técnica, além das modalidades resultantes das combinações de elementos constituintes em diferentes modali- dades, podem ser incluídas no escopo dos aspectos do codificador 100 e do decodificador 200, desde que não se distanciem da essência da presente descrição.
[0454] Um ou mais dos aspectos descritos aqui podem ser realiza- dos pela combinação de pelo menos parte de outros aspectos na presente descrição. Adicionalmente, um ou mais dos aspectos descritos aqui podem ser realizados pela combinação, com outros aspectos, de parte dos processos indicados em qualquer um dos fluxogramas de acordo com os aspectos, parte da configuração de qualquer um dos dispositivos, parte das sintaxes, etc. Implementações e Aplicações
[0455] Como descrito em cada uma das modalidades acima, cada bloco funcional ou operacional pode ser tipicamente realizado como uma MPU (unidade de microprocessamento) e memória, por exemplo. Ademais, os processos realizados por cada um dos blocos funcionais podem ser realizados como uma unidade de execução de programa, tal como um processador que lê e executa software (um programa) gravado em um meio de gravação tal como ROM. O software pode ser distribuído. O software pode ser gravado em uma variedade de meios de gravação, tal como a memória semicondutora. Note-se que cada bloco funcional também pode ser realizado como hardware (circuito dedicado). Várias combinações de hardware e software podem ser empregadas.
[0456] O processamento descrito em cada uma das modalidades pode ser realizado através do processamento integrado utilizando um aparelho singular (sistema) e, alternativamente, pode ser realizado através do processamento descentralizado utilizando uma pluralidade de aparelhos. Ademais, o processador que executa o programa descrito acima pode ser um processador singular ou uma pluralidade de processadores. Em outras palavras, o processamento integrado pode ser realizado e, alternativamente, o processamento descentralizado pode ser realizado.
[0457] As modalidades da presente descrição não estão limitadas às modalidades ilustrativas; várias modificações podem ser realizadas às modalidades ilustrativas, os resultados dos quais também estão incluídos no escopo das modalidades da presente descrição.
[0458] A seguir, os exemplos de aplicação do método de codifi- cação de imagem em movimento (método de codificação de imagem) e o método de decodificação de imagem em movimento (método de decodificação de imagem) descritos em cada uma das modalidades acima serão descritos, além de vários sistemas que implementam os exemplos de aplicação. Tal sistema pode ser caracterizado como incluindo um codificador de imagem que emprega o método de codificação de imagem, um decodificador de imagem que emprega o método de decodificação de imagem, ou um codificador-decodificador de imagem que inclui ambos o codificador de imagem e decodificador de imagem. Outras configurações de tal sistema podem ser modificadas caso a caso. Exemplos de Utilização
[0459] A figura 57 ilustra uma configuração geral do sistema de fornecimento de conteúdo ex100 adequado para a implementação de um serviço de distribuição de conteúdo. A área na qual o serviço de comunicação é fornecido é dividida em células de tamanhos desejados, e estações base ex106, ex107, ex108, ex109 e ex110, que são estações sem fio fixas no exemplo ilustrado, estão localizadas nas células respectivas.
[0460] No sistema de fornecimento de conteúdo ex100, os disposi- tivos que incluem o computador ex111, o dispositivo de jogos ex112, a câmera ex113, o eletrodoméstico ex114 e o smartphone ex115 são conectados à Internet ex101 através do provedor de serviço de Internet ex102 ou rede de comunicações ex104 e estações base ex106 a ex110. O sistema de fornecimento de conteúdo ex100 pode combinar e conectar qualquer combinação dos dispositivos acima. Em várias implementações, os dispositivos podem ser direta ou indiretamente conectados juntos através de uma rede de telefonia ou comunicação de campo próximo, em vez de através das estações base ex106 a ex110.
Adicionalmente, o servidor de transmissão ex103 pode ser conectado aos dispositivos incluindo o computador ex111, dispositivo de jogos ex112, câmera ex113, eletrodoméstico ex114, e smartphone ex115 através, por exemplo, da Internet ex101. O servidor de transmissão ex103 também pode ser conectado, por exemplo, a um terminal em um hotspot na aeronave ex117 através do satélite ex116.
[0461] Note-se que ao invés das estações base ex106 a ex110, pontos de acesso sem fio ou hotspots podem ser utilizados. O servidor de transmissão ex103 pode ser conectado à rede de comunicações ex104 diretamente em vez de através da Internet ex101 ou do provedor de serviços de Internet ex102, e pode ser conectado à aeronave ex117 diretamente em vez de através de satélite ex116.
[0462] A câmera ex113 é um dispositivo capaz de capturar imagens estáticas e vídeo, tal como uma câmera digital. O smartphone ex115 é um dispositivo smartphone, um telefone celular, ou um telefone do sistema de handyphone pessoal (PHS) que pode operar sob os padrões do sistema de comunicações móveis dos sistemas 2G, 3G, 3.9G e 4G, além do sistema 5G de próxima geração.
[0463] Eletrodomésticos ex114 são, por exemplo um refrigerador ou um dispositivo incluído em um sistema de geração conjunta de célula de combustível doméstica.
[0464] No sistema de fornecimento de conteúdo ex100, um terminal que inclui uma função de captura de imagem e/ou vídeo pode, por exemplo, transmitir ao vivo por meio da conexão ao servidor de trans- missão ex103, através, por exemplo, da estação base ex106. Quando da transmissão ao vivo, um terminal (por exemplo, computador ex111, dispositivo de jogos ex112, câmera ex113, eletrodoméstico ex114, smartphone ex115, ou um terminal na aeronave ex117) pode realizar o processamento de codificação descrito nas modalidades acima no conteúdo de imagem estática ou vídeo capturado por um usuário através do terminal, pode multiplexar os dados de vídeo obtidos através da codificação e os dados de áudio obtidos pela codificação de áudio correspondente ao vídeo, e pode transmitir os dados obtidos para o servidor de transmissão ex103. Em outras palavras, o terminal funciona como o codificador de imagem de acordo com um aspecto da presente descrição.
[0465] O servidor de transmissão ex103 transmite os dados de conteúdo transmitidos para os clientes que solicitam a transmissão. Os exemplos de cliente incluem o computador ex111, o dispositivo de jogos ex112, a câmera ex113, o eletrodoméstico ex114, o smartphone ex115 e os terminais dentro da aeronave ex117, que podem decodificar os dados codificados descritos acima. Os dispositivos que recebem os dados transmitidos podem decodificar e reproduzir os dados recebidos. Em outras palavras, os dispositivos podem funcionar, cada um, como o decodificador de imagem, de acordo com um aspecto da presente descrição. Processo Descentralizado
[0466] O servidor de transmissão ex103 pode ser realizado como uma pluralidade de servidores ou computadores entre os quais as tarefas, tal como processamento, gravação e transmissão de dados são divididas. Por exemplo, o servidor de transmissão ex103 pode ser realizado como uma rede de distribuição de conteúdo (CDN) que transmite o conteúdo através de uma rede que conecta os servidores de múltiplas bordas localizados por todo o mundo. Em uma CDN, um servidor de borda fisicamente próximo do cliente pode ser dinâmica- mente designada para o cliente. O conteúdo é armazenado temporaria- mente e transmitido para o servidor de borda para reduzir os tempos de carga. No caso, por exemplo, de algum tipo de erro ou mudança na conectividade, decorrente, por exemplo, de um pico no tráfego, é possível se transmitir os dados de forma estável em altas velocidades,
visto que é possível se evitar partes afetadas da rede, por exemplo, pela divisão do processamento entre uma pluralidade de servidores de borda, ou comutação das tarefas de transmissão para um servidor de borda diferente e dando sequência à transmissão.
[0467] A descentralização não está limitada apenas à divisão do processamento para transmissão; a codificação dos dados capturados pode ser dividida entre e realizada pelos terminais, no lado do servidor, ou ambos. Em um exemplo, na codificação típica, o processamento é realizado em dois circuitos. O primeiro circuito serve para detectar o quão complicada a imagem é, quadro a quadro, ou cena a cena, ou detectar a carga de codificação. O segundo circuito é para o processamento que mantém a qualidade de imagem e aperfeiçoa a eficiência da codificação. Por exemplo, é possível se reduzir a carga de processamento dos terminais e aperfeiçoar a qualidade e eficiência da codificação do conteúdo fazendo com que os terminais realizem o primeiro circuito de codificação e fazendo com que o lado de servidor, que recebeu o conteúdo, realize o segundo circuito da codificação. Em tal caso, depois do recebimento de uma solicitação de decodificação, é possível que os dados codificados resultantes do primeiro circuito realizado por um terminal sejam recebidos e reproduzidos em outro terminal quase que em tempo real. Isso possibilita a realização de uma transmissão suave em tempo real.
[0468] Em outro exemplo, a câmera ex113 ou similar extrai uma quantidade de característica (uma quantidade de características) de uma imagem, comprime os dados relacionados à quantidade de características como metadados, e transmite os metadados comprimi- dos para um servidor. Por exemplo, o servidor determina a significância de um objeto com base na quantidade de características e mudanças na precisão de quantização, de acordo, para realizar a compressão adequada para o significado (ou significância de conteúdo) da imagem.
Os dados de quantidade de características é particularmente eficiente no fornecimento de precisão e eficiência de previsão de vetor de movimento durante a segunda passagem de compressão realizada pelo servidor. Ademais, a codificação que possui uma carga de processa- mento relativamente baixa, tal como a codificação de comprimento variável (VLC), pode ser manuseada pelo terminal, e a codificação que possui uma carga de processamento relativamente alta, tal como a codificação aritmética binária adaptativa de contexto (CABAC), pode ser manuseada pelo servidor.
[0469] Em outro exemplo, existem casos nos quais uma pluralidade de vídeos aproximadamente da mesma cena é capturada por uma pluralidade de terminais, por exemplo, em um estádio, shopping center, ou fábrica. Em tal caso, por exemplo, a codificação pode ser descen- tralizada pela divisão de tarefas de processamento entre a pluralidade de terminais que capturaram os vídeos e, se necessário, outros terminais que não capturaram os vídeos, e o servidor, com base em unidade. As unidades podem ser, por exemplo, grupos de imagens (GOP), imagens, ou tiles resultando da divisão de uma imagem. Isso possibilita a redução dos tempos de carga e a obtenção da transmissão que mais se aproxima do tempo real.
[0470] Visto que os vídeos são aproximadamente da mesma cena, o gerenciamento e/ou instruções podem ser realizados pelo servidor, de modo que os vídeos capturados pelos terminais possam ter referência cruzada. Ademais, o servidor pode receber dados codificados dos terminais, alterar a relação de referência entre os itens de dados, ou corrigir ou substituir as imagens propriamente ditas, e, então, realizar a codificação. Isso possibilita a geração de uma transmissão com qualidade e eficiência aumentadas para os itens individuais de dados.
[0471] Adicionalmente, o servidor pode transmitir dados de vídeo depois da realização da transcodificação para converter o formato de codificação dos dados de vídeo. Por exemplo, o servidor pode converter o formato de codificação de MPEG para VP (por exemplo, VP9), pode converter H.264 a H.265, etc.
[0472] Dessa forma, a codificação pode ser realizada por um terminal ou um ou mais servidores. De acordo, apesar de o dispositivo que realiza a codificação ser referido como um "servidor" ou "terminal" na descrição a seguir, alguns ou todos os processos realizados pelo servidor podem ser realizados pelo terminal, e, da mesma forma, alguns ou todos os processos realizados pelo terminal podem ser realizados pelo servidor. Isso também se aplica aos processos de decodificação. 3D, Múltiplos Ângulos
[0473] Tem havido um aumento na utilização de imagens ou vídeos combinados a partir de imagens ou vídeos de cenas diferentes capturadas simultaneamente, ou da mesma cena capturada a partir de diferentes ângulos, por uma pluralidade de terminais, tal como a câmera ex113 e/ou o smartphone ex115. Os vídeos capturados pelos terminais podem ser combinados com base, por exemplo, na relação de posição relativa obtida separadamente entre os terminais, ou regiões em um vídeo que apresentam pontos de características coincidentes.
[0474] Em adição à codificação das imagens em movimento bidimensionais, o servidor pode codificar uma imagem estática com base na análise de cena de uma imagem em movimento, automati- camente ou em um momento especificado pelo usuário, e transmitir a imagem estática codificada para um terminal de recepção. Adicional- mente, quando o servidor pode obter a relação de posição relativa entre os terminais de captura de vídeo, em adição às imagens em movimento bidimensionais, o servidor pode gerar a geometria tridimensional de uma cena com base no vídeo da mesma cena capturada a partir de ângulos diferentes. O servidor pode codificar, separadamente, os dados tridimensionais gerados, por exemplo, a partir de uma nuvem de pontos e, com base em um resultado de reconhecimento ou rastreamento de uma pessoa ou objeto utilizando os dados tridimensionais, pode selecionar ou reconstruir e gerar um vídeo a ser transmitido para um terminal de recepção, a partir dos vídeos capturados por uma pluralidade de terminais.
[0475] Isso permite que o usuário aproveite uma cena pela seleção livre de vídeos que correspondem aos terminais de captura de vídeo, e permite que o usuário aproveite o conteúdo obtido pela extração de um vídeo em um ponto de vista selecionado a partir de dados tridimen- sionais reconstruídos a partir de uma pluralidade de imagens ou vídeos. Adicionalmente, como com o vídeo, o som pode ser gravado a partir de ângulos relativamente diferentes, e o servidor pode multiplexar o áudio a partir de um ângulo específico ou espaço com o vídeo correspondente, e transmitir o vídeo e o áudio multiplexados.
[0476] Recentemente, o conteúdo, que é um composto do mundo real e de um mundo virtual, tal como o conteúdo de realidade virtual (VR) e realidade aumentada (AR), também tem se tornado popular. No caso de imagens VR, o servidor pode criar imagens a partir de pontos de vista de ambos os olhos esquerdo e direito, e realizar a codificação que tolera a referência entre as imagens dos dois pontos de vista, tal como a codificação de múltiplas visualizações (MVC), e, alternativa- mente, pode codificar as imagens como sequências separadas sem referência. Quando as imagens são codificadas como sequências sepa- radas, as sequências podem ser sincronizadas quando reproduzidas, de modo a recriar um espaço tridimensional virtual de acordo com o ponto de vista do usuário.
[0477] No caso de imagens AR, o servidor pode sobrepor a informação sobre o objeto virtual existente em um espaço virtual à informação de câmera que representa um espaço no mundo real, com base em uma posição tridimensional ou movimento da perspectiva do usuário. O decodificador pode obter ou armazenar a informação sobre o objeto virtual e os dados tridimensionais, gerar imagens bidimen- sionais com base no movimento da perspectiva do usuário, e, então, gerar os dados sobrepostos pela conexão contínua das imagens. Alternativamente, o decodificador pode transmitir, para o servidor, o movimento da perspectiva do usuário em adição a uma solicitação por informação sobre o objeto virtual. O servidor pode gerar dados sobrepostos com base nos dados tridimensionais armazenados no servidor de acordo com o movimento recebido, e codificar e transmitir os dados sobrepostos gerados para o decodificador. Note-se que os dados sobrepostos incluem, tipicamente, em adição aos valores RGB, um valor  que indica transparência, e o servidor configura o valor  para seções além do objeto gerado a partir de dados tridimensionais, por exemplo, para 0, e pode realizar a codificação enquanto essas seções estão transparentes. Alternativamente, o servidor pode configu- rar o fundo para um valor RGB determinado, tal como uma chave de crominância, e gerar dados nos quais as áreas além do objeto são configuradas como fundo. O valor RGB determinado pode ser predeter- minado.
[0478] A decodificação de dados transmitidos de forma similar pode ser realizada pelo cliente (por exemplo, os terminais) no lado do servidor ou divididos entre os mesmos. Em um exemplo, um terminal pode transmitir uma solicitação de recepção para um servidor, o conteúdo solicitado pode ser recebido e decodificado por outro terminal, e um sinal decodificado pode ser transmitido para um dispositivo possuindo um monitor. É possível se reproduzir dados de alta qualidade de imagem pela descentralização do processamento e seleção adequada de conteúdo independentemente da capacidade de processamento do terminal de comunicações propriamente dito. Em outro exemplo, enquanto uma TV, por exemplo, está recebendo dados de imagem de grandes dimensões, uma região de uma imagem, tal como um tile obtido pela divisão da imagem, pode ser decodificada e exibida em um terminal ou terminais pessoais de um espectador ou espectadores da TV. Isso possibilita que os espectadores compartilhem uma visão ampliada da imagem além de possibilitar que cada espectador verifique sua área designada, ou inspecione uma região em maiores detalhes.
[0479] Em situações nas quais uma pluralidade de conexões sem fio são possíveis através de distâncias curtas, intermediárias e grandes, internamente ou externamente, pode ser possível se receber conteúdo de forma contínua utilizando-se um padrão de sistema de transmissão, tal como MPEG-DASH. O usuário pode comutar entre dados em tempo real enquanto seleciona livremente um decodificador ou aparelho de exibição incluindo o terminal do usuário, monitores dispostos internamente ou externamente, etc. Ademais, utilizando-se, por exemplo, a informação sobre a posição do usuário, a decodificação pode ser realizada enquanto se comuta o terminal que manuseia a decodificação e o terminal de manuseia a exibição do conteúdo. Isso possibilita o mapeamento e exibição da informação, enquanto o usuário está em movimento para um destino, na parede de um edifício próximo no qual um dispositivo capaz de exibir conteúdo é embutido, ou em parte do chão. Ademais, é possível também se comutar a taxa de bit dos dados recebidos com base na acessibilidade aos dados codificados em uma rede, tal como quando os dados codificados são armazenados temporariamente em um servidor rapidamente acessível a partir do terminal de recepção, ou quando os dados codificados são copiados em um servidor de borda em um serviço de distribuição de conteúdo. Codificação Escalonável
[0480] A comutação de conteúdo será descrita com referência a uma transmissão escalonável, ilustrada na figura 58, que é codificada por compressão através da implementação do método de codificação de imagem em movimento descrito nas modalidades acima. O servidor pode ter uma configuração na qual o conteúdo é comutado enquanto faz uso da capacidade de escalonamento temporal e/ou espacial de uma sequência, que é alcançada pela divisão e codificação de cama- das, como ilustrado na figura 57. Note-se que pode haver uma pluralidade de sequências individuais que possuem o mesmo conteúdo, mas qualidade diferente. Em outras palavras, pela determinação de que camada decodificar, com base em fatores internos, tal como capacidade de processamento no lado do decodificador, e fatores externos, tal como largura de banda de comunicação, o lado do decodificador pode comutar livremente entre o conteúdo de baixa resolução e o conteúdo de alta resolução enquanto codifica. Por exemplo, em um caso no qual o usuário deseja continuar a assistir, por exemplo, em casa em um dispositivo, tal como a TV conectada à Internet, a um vídeo que estava assistindo previamente no smartphone ex115 enquanto estava em movimento, o dispositivo pode simplesmente decodificar a mesma transmissão até uma camada diferente, o que reduz a carga no lado do servidor.
[0481] Adicionalmente, em adição à configuração descrita acima, na qual a capacidade de escalonamento é alcançada como resultado das imagens sendo codificadas por camada, com a camada de aperfeiçoamento estando acima da camada de base, a camada de aperfeiçoamento pode incluir metadados com base, por exemplo, na informação estatística na imagem. O lado do decodificador pode gerar conteúdo de alta qualidade de imagem pela realização da criação de imagem de super resolução em uma imagem na cada de base com base nos metadados. A criação de imagem de super resolução pode aperfeiçoar a razão de SN enquanto mantém a resolução e/ou aumenta a resolução. Os metadados incluem informação para identificar um coeficiente de filtro linear ou não linear, como utilizado no processamento de super resolução ou informação identificando um valor de parâmetro no processamento de filtro, aprendizado de máquina ou um método de quadrados médios utilizado no processamento de super resolução.
[0482] Alternativamente, uma configuração pode ser fornecida, na qual uma imagem é dividida, por exemplo, em tiles de acordo com, por exemplo, o significado de um objeto na imagem. No lado do decodi- ficador, apenas uma região parcial é decodificada pela seleção de um tile a ser decodificado. Adicionalmente, pelo armazenamento de um atributo do objeto (pessoa, carro, bola, etc.) e uma posição do objeto no vídeo (coordenadas em imagens idênticas) como metadados, o lado do decodificador pode identificar a posição de um objeto desejado com base nos metadados e determinar qual tile ou tiles incluem esse objeto. Por exemplo, como ilustrado na figura 59, os metadados podem ser armazenados utilizando uma estrutura de armazenamento de dados diferente dos dados de pixel, tal como uma mensagem SEI (informação de aperfeiçoamento suplementar) em HEVC. Esses metadados indi- cam, por exemplo, a posição, o tamanho, ou a cor do objeto principal.
[0483] Os metadados podem ser armazenados em unidades dentre uma pluralidade de imagens, tal como sequência ou unidades de acesso randômico. O lado do decodificador pode obter, por exemplo, o momento no qual uma pessoa específica aparece no vídeo, e pelo encaixe da informação de horário com a informação de unidade de imagem, pode identificar uma imagem na qual o objeto está presente, e pode determinar a posição do objeto na imagem. Otimização de Página de Rede
[0484] A figura 60 ilustra um exemplo de uma tela de exibição de uma página de rede no computador ex111, por exemplo. A figura 61 ilustra um exemplo de uma tela de exibição de uma página de rede no smartphone ex115, por exemplo. Como ilustrado na figura 60 e na figura
61, uma página de rede pode incluir uma pluralidade de links de imagem que são links para o conteúdo de imagem, e a aparência da página de rede pode diferir dependendo do dispositivo utilizado para se visualizar a página de rede. Quando uma pluralidade de links de imagem é visualizável na tela, até que o usuário selecione explicitamente um link de imagem, ou até que o link de imagem esteja no centro aproximado da tela ou todo o link de imagem encaixe na tela, o aparelho de exibição (decodificador) pode exibir, como os links de imagem, imagens estáticas incluídas no conteúdo ou imagens I; pode exibir vídeo, tal como um gif animado utilizando uma pluralidade de imagens estáticas ou imagens I; ou pode receber apenas a camada de base, e decodificar e exibir o vídeo.
[0485] Quando um link de imagem é selecionado pelo usuário, o aparelho de exibição realiza a decodificação, por exemplo, enquanto fornece maior prioridade à camada de base. Note-se que se houver informação no código HTML sobre a página de rede indicando que o conteúdo é escalonável, o aparelho de exibição pode decodificar até a camada de aperfeiçoamento. Adicionalmente, a fim de se garantir a reprodução em tempo real, antes de uma seleção ser realizada ou quando a largura de banda é seriamente limitada, o aparelho de exibição pode reduzir o retardo entre o momento no qual a imagem dianteira é decodificada e o momento no qual a imagem decodificada é exibida (isso é, o retardo entre o início da decodificação do conteúdo até a exibição do conteúdo) pela decodificação e exibição apenas das imagens de referência de avanço (imagem I, imagem P, imagem B de referência de avanço). Adicionalmente ainda, o aparelho de exibição pode ignorar propositalmente a relação de referência entre as imagens, e decodificar de forma bruta todas as imagens B e P como imagens de referência de avanço, e, então, realizar a decodificação normal à medida que o número de imagens recebidas com o tempo aumenta.
Direção Autônoma
[0486] Quando da transmissão e recepção de dados de imagem estática ou vídeo, tal como informação de mapa bidimensional ou tridimensional para a direção autônoma ou direção assistida de um automóvel, o terminal de recepção pode receber, em adição aos dados de imagem pertencentes a uma ou mais camadas, a informação, por exemplo, sobre o clima ou construções de estrada como metadados, e associar os metadados aos dados de imagem depois da decodificação. Note-se que os metadados podem ser designados por camada e, alternativamente, podem simplesmente ser multiplexados com dados de imagem.
[0487] Em tal caso, visto que o automóvel, drone, aeronave, etc., contendo o terminal de recepção, é móvel, o terminal de recepção pode receber continuamente e realizar a decodificação enquanto comuta entre as estações base dentre as estações base ex106 a ex110, pela transmissão da informação que indica a posição do terminal de recepção. Ademais, de acordo com a seleção feita pelo usuário, a situação do usuário e/ou a largura de banda de conexão, o terminal de recepção pode selecionar dinamicamente até que ponto os metadados são recebidos, ou até que ponto a informação de mapa, por exemplo, está atualizada.
[0488] No sistema de fornecimento de conteúdo ex100, o cliente pode receber, decodificar e reproduzir, em tempo real, a informação codificada transmitida pelo usuário. Transmissão de Conteúdo Individual
[0489] No sistema de fornecimento de conteúdo ex100, em adição à alta qualidade de imagem, o conteúdo grande distribuído por uma entidade de distribuição de vídeo, transmissão de unidifusão ou multidifusão de baixa qualidade de imagem, e conteúdo curto de um indivíduo também são possíveis. Tal conteúdo de indivíduos tem chances de aumentar ainda mais em termos de popularidade. O servidor pode realizar, primeiramente, o processamento de edição no conteúdo antes do processamento de codificação, a fim de refinar o conteúdo individual. Isso pode ser alcançado utilizando-se a configu- ração a seguir, por exemplo.
[0490] Em tempo real, enquanto captura conteúdo de vídeo ou imagem, ou depois de o conteúdo ter sido capturado e acumulado, o servidor realiza o processamento de reconhecimento com base nos dados brutos ou dados codificados, tal como o processamento de erro de captura, processamento de busca por cena, análise de significado e/ou processamento de detecção de objeto. Então, com base no resultado do processamento de reconhecimento, o servidor – quando avisado ou automaticamente – edita o conteúdo, exemplos dos quais incluem: correção, tal como foco e/ou correção de manchas de movimento; remoção de cenas de baixa prioridade, tal como cenas que apresentam baixo brilho em comparação com outras imagens, ou que estão fora de foco; ajuste de borda de objeto; e ajuste de tom de cor. O servidor codifica os dados editados com base no resultado da edição. É sabido que vídeos excessivamente longos tendem a receber menos visualizações. De acordo, a fim de manter o conteúdo dentro de um comprimento específico que escalona com o comprimento do vídeo original, o servidor pode, em adição às cenas de baixa prioridade descritas acima, remover automaticamente cenas com baixo movimen- to, com base em um resultado do processamento de imagem. Alternati- vamente, o servidor pode gerar e codificar um resumo do vídeo com base em um resultado de uma análise do significado de uma cena.
[0491] Pode haver casos nos quais o conteúdo individual pode incluir conteúdo que infringe um direito autoral, um direito moral, direitos de imagem, etc. Tal caso pode resultar em uma situação desfavorável para o criador, tal como quando o conteúdo é compartilhado além do escopo pretendido pelo criador. De acordo, antes da codificação, o servidor pode, por exemplo, editar imagens de modo a desfocar os rostos das pessoas na periferia da tela ou desfocar o interior de uma casa, por exemplo. Adicionalmente, o servidor pode ser configurado para reconhecer os rostos das pessoas além de uma pessoa registrada nas imagens a serem codificadas, e quando tais rostos aparecem em uma imagem, pode aplicar um filtro tipo mosaico, por exemplo, ao rosto da pessoa. Alternativamente, como o pré ou pós-processamento para codificação, o usuário pode especificar, por motivos de direito autoral, uma região de uma imagem incluindo uma pessoa ou uma região do fundo a ser processado. O servidor pode processar a região especifi- cada, por exemplo, pela substituição da região por uma imagem dife- rente, ou desfocando a região. Se a região incluir uma pessoa, a pessoa pode ser rastreada na imagem em movimento, e a região da cabeça da pessoa pode ser substituída por outra imagem à medida que a pessoa se move.
[0492] Visto que existe uma demanda por visualização em tempo real de conteúdo produzido por indivíduos, que tende a ser pequeno em tamanho de dados, o decodificador pode, primeiro, receber a camada de base como a prioridade mais alta e realizar a decodificação e reprodução, apesar de isso poder diferir dependendo da largura de banda. Quando o conteúdo é reproduzido duas ou mais vezes, tal como quando o decodificador recebe a camada de aperfeiçoamento durante a decodificação e reprodução da camada de base, e cria um circuito de reprodução, o decodificador pode reproduzir um vídeo com alta qualidade de imagem incluindo a camada de aperfeiçoamento. Se a transmissão for codificada utilizando tal codificação escalonável, o vídeo pode ter baixa qualidade quando em um estado não selecionado ou no início do vídeo, mas pode oferecer uma experiência na qual a qualidade de imagem da transmissão aumenta progressivamente de uma forma inteligente. Isso não está limitado à codificação escalonável apenas; a mesma experiência pode ser oferecida pela configuração de uma única transmissão a partir de uma transmissão de baixa qualidade reprodu- zida pela primeira vez e uma segunda transmissão codificada utilizando- se a primeira transmissão como uma referência. Outras Implementações e Aplicações Ilustrativas
[0493] A codificação e decodificação podem ser realizadas por LSI (conjunto de circuitos de integração de grande escala) ex500 (ver figura 56), que é tipicamente incluída em cada terminal. LSI ex500 pode ser configurada a partir de um único chip ou uma pluralidade de chips. O software para codificar e decodificar imagens em movimento pode ser integrado a algum tipo de meio de gravação (tal como um CD-ROM, um disco flexível, ou um disco rígido) que seja legível, por exemplo, por um computador ex111, e a codificação e decodificação podem ser realiza- das utilizando-se software. Adicionalmente, quando o smartphone ex115 é equipado com uma câmera, os dados de vídeo obtidos pela câmera podem ser transmitidos. Nesse caso, os dados de vídeo podem ser codificados por LSI ex500 incluída no smartphone ex115.
[0494] Note-se que LSI ex500 pode ser configurada para descar- regar e ativar um aplicativo. Em tal caso, o terminal primeiro determina se é compatível com o esquema utilizado para codificar o conteúdo, ou se é capaz de executar um serviço específico. Quando o terminal não é compatível com o esquema de codificação do conteúdo, ou quando o terminal não pode executar um serviço específico, o terminal pode primeiro descarregar um codec ou software de aplicativo e, então, obter e reproduzir o conteúdo.
[0495] Além do exemplo do sistema de fornecimento de conteúdo ex100, que utiliza a Internet ex101, pelo menos o codificador de imagem em movimento (codificador de imagem) ou o decodificador de imagem em movimento (decodificador de imagem) descritos nas modalidades acima pode ser implementado em um sistema de difusão digital. O mesmo processamento de codificação, e processamento de decodifi- cação podem ser aplicados para transmitir e receber as ondas de rádio difundidas sobrepostas com dados de áudio e vídeo multiplexados utilizando, por exemplo, um satélite, apesar de isso se direcionar para a multidifusão, ao passo que a unidifusão é mais fácil com o sistema de fornecimento de conteúdo ex100. Configuração de Hardware
[0496] A figura 62 ilustra detalhes adicionais de smartphone ex115 ilustrado na figura 56. A figura 63 ilustra um exemplo de configuração do smartphone ex115. O smartphone ex115 inclui a antena ex450 para transmitir e receber ondas de rádio para e da estação base ex110, câmera ex465 capaz de capturar vídeo e imagens estáticas e monitor ex458 que exibe os dados decodificados, tal como o vídeo capturado pela câmera ex465 e o vídeo recebido pela antena ex450. O smartphone ex115 inclui adicionalmente a interface de usuário ex466, tal como o painel de toque, a unidade de envio de áudio ex457, tal como um alto falante para enviar fala ou outro áudio, unidade de entrada de áudio ex456, tal como um microfone para a entrada do áudio, memória ex467 capaz de armazenar os dados decodificados, tal como o vídeo ou imagens estáticas capturados, áudio gravado, vídeo ou imagens estáticas recebidos, e correio, além de dados decodificados, e a partição ex464 que é uma interface para SIM ex468 para autorizar o acesso a uma rede e vários dados. Note-se que a memória externa pode ser utilizada no lugar da memória ex467.
[0497] O controlador principal ex460, que pode controlar de forma profunda o monitor ex458 e a interface de usuário ex466, o circuito de suprimento de energia ex461, o controlador de entrada de interface de usuário ex462, o processador de sinal de vídeo ex455, a interface de câmera ex463, o controlador de exibição ex459, o modulador/demodulador ex452, o multiplexador/desmultiplexador ex453, o processador de sinal de áudio ex454, a partição ex464, e a memória ex467 são conectados através do barramento ex470.
[0498] Quando o usuário liga o botão de energia do circuito de suprimento de energia ex461, o smartphone ex115 é energizado para um estado operacional, e cada componente é suprido com energia a partir de um pacote de bateria.
[0499] O smartphone ex115 realiza o processamento, por exemplo, para chamadas e transmissão de dados, com base no controle realizado pelo controlador principal ex460, que inclui uma CPU, ROM e RAM. Quando realiza chamadas, um sinal de áudio gravado pela unidade de entrada de áudio ex456 é convertido em um sinal de áudio digital pelo processador de sinal de áudio ex454, ao qual o processamento de espectro de espalhamento é aplicado pelo modulador/demodulador ex452 e conversão digital-analógica, e o processamento de conversão de frequência é aplicado pelo transmissor/receptor ex451, e o sinal resultante é transmitido através da antena ex450. Os dados recebidos são amplificados, convertidos em frequência, e convertidos de analógicos para digitais, o espectro de espalhamento inverso processado pelo modulador/demodulador ex452, convertido em um sinal de áudio analógico pelo processador de sinal de áudio ex454, e, então, enviado a partir da unidade de saída de áudio ex457. No modo de transmissão de dados, dados de texto, imagem estática ou de vídeo podem ser transmitidos sob o controle do controlador principal ex460 através do controlador de entrada de interface de usuário ex462 com base na operação da interface de usuário ex466 do corpo principal, por exemplo. O processamento de transmissão e recepção similar é realizado. No modo de transmissão de dados, quando do envio de um vídeo, imagem estática ou vídeo e áudio, o processador de sinal de vídeo ex455 codifica por compressão, através do método de codificação de imagem em movimento descrito nas modalidades acima, um sinal de vídeo armazenado na memória ex467 ou um sinal de vídeo registrado a partir da câmera ex465, e transmite os dados de vídeo codificados para o multiplexador/desmultiplexador ex453. O processador de sinal de áudio ex454 codifica um sinal de áudio gravado pela unidade de entrada de áudio ex456 enquanto a câmera ex465 está capturando um vídeo ou imagem estática, e transmite os dados de áudio codificados para o multiplexador/desmultiplexador ex453. O multiplexador/desmultiplexa- dor ex453 multiplexa os dados de vídeo codificados e os dados de áudio codificados utilizando um esquema determinado, modula e converte os dados utilizando o modulador/demodulador (circuito modulador/demo- dulador) ex452 e transmissor/receptor ex451, e transmite o resultado através da antena ex450. O esquema determinado pode ser predetermi- nado.
[0500] Quando o vídeo anexado a um e-mail ou a um chat, ou um vídeo com link de uma página de rede, é recebido, por exemplo, a fim de decodificar os dados multiplexados recebidos através da antena ex450, o multiplexador/desmultiplexador ex453 desmultiplexa os dados multiplexados para dividir os dados multiplexados em uma sequência de bits de dados de vídeo e uma sequência de bits de dados de áudio, supre os dados de vídeo codificados para o processador de sinal de vídeo ex455 através do barramento sincronizado ex470, e supre os dados de áudio codificados para o processador de sinal de áudio ex454 através do barramento sincronizado ex470. O processador de sinal de vídeo ex455 decodifica o sinal de vídeo utilizando um método de decodificação de imagem em movimento que corresponde ao método de codificação de imagem em movimento descrito nas modalidades acima, e o vídeo ou uma imagem estática incluído no arquivo de imagem em movimento com link é exibido no monitor ex458 através do controlador de exibição ex459. O processador de sinal de áudio ex454 decodifica o sinal de áudio e envia o áudio a partir da unidade de envio de áudio ex457. Visto que a transmissão em tempo real está se tornando cada vez mais popular, pode haver casos nos quais a reprodu- ção do áudio pode ser socialmente inadequada, dependendo do ambiente do usuário. De acordo, como um valor inicial, uma configura- ção na qual apenas os dados de vídeo são reproduzidos, isso é, o sinal de áudio não é reproduzido, pode ser preferível, o áudio pode ser sincronizado e reproduzido apenas quando uma entrada, tal como quando o usuário clica nos dados de vídeo, é recebida.
[0501] Apesar de o smartphone ex115 ter sido utilizado no exemplo acima, outras implementações são concebíveis: um terminal transceptor incluindo ambos um codificador e um decodificador; um terminal transmissor incluindo apenas um codificador; e um terminal receptor incluindo apenas um decodificador. Na descrição do sistema de difusão digital, um exemplo é fornecido no qual os dados multiplexados obtidos como resultado dos dados de vídeo sendo multiplexados com dados de áudio são recebidos ou transmitidos. Os dados multiplexados, no entanto, podem ser dados de vídeo multiplexados com dados além dos dados de áudio, tal como dados de texto relacionados com o vídeo. Adicionalmente, os dados de vídeo propriamente ditos, em vez dos dados multiplexados, podem ser recebidos ou transmitidos.
[0502] Apesar de o controlador principal ex460, incluindo uma CPU, ser descrito como controlando os processos de codificação ou decodificação, vários terminais incluem frequentemente GPUs. De acordo, uma configuração é aceitável na qual uma grande área é processada de uma vez fazendo uso da capacidade de desempenho da GPU através da memória compartilhada pela CPU e GPU, ou memória incluindo um endereço que é gerenciado de modo a permitir a utilização comum pela CPU e GPU. Isso possibilita a redução do tempo de codificação, a manutenção da natureza em tempo real da transmissão e a redução do retardo. Em particular, o processamento relacionado com a estimativa de movimento, filtragem de desbloqueio, desvio adaptativo de amostra (SAO), e transformação/quantização podem ser efetivamente realizados pela GPU, em vez de pela CPU, nas unidades de imagens, por exemplo, tudo de uma vez. Aplicabilidade Industrial
[0503] A presente descrição é aplicável, por exemplo, a receptores de televisão, gravadores de vídeo digital, sistemas de navegação de carro, telefones móveis, câmeras digitais, câmeras de vídeo digitais, sistemas de teleconferência, espelhos eletrônicos, etc. Referências Numéricas nos Desenhos 100 codificador 102 divisor 104 subtraidor 106 transformador 108 quantizador 110 codificador por entropia 112,204 quantizador inverso 114,206 transformador inverso 116,208 somador 118,210 memória de bloco 120,212 filtro de circuito 122,214 memória de quadro 124,216 intraprevisor 126,218 interprevisor 128,220 controlador de previsão 200 decodificador 202 decodificador por entropia 1201 determinador de limite 1202,1024
1206 comutador 1203 determinador de filtro 1205 executor de filtragem 1207 determinador de característica de filtro 1208 determinador de processamento a1,b1 processador a2,b2 memória

Claims (12)

REIVINDICAÇÕES
1. Codificador, caracterizado pelo fato de compreender: um conjunto de circuitos; e uma memória conectada ao conjunto de circuitos; em que, em operação, o conjunto de circuitos pode: gerar uma imagem de previsão utilizando um modo de sub-bloco que gera a imagem de previsão de um bloco com base em sub-bloco e transforma o bloco com base em bloco; e aplicar um filtro de desbloqueio a pelo menos parte de um limite de um sub-bloco localizado dentro do bloco.
2. Codificador, de acordo com a reivindicação 1, caracteri- zado pelo fato de: o conjunto de circuitos aplicar o filtro de desbloqueio a um limite de uma região de 8 x 8 pixels incluída no limite do sub-bloco.
3. Codificador, de acordo com a reivindicação 1 ou 2, caracterizado pelo fato de: o modo de sub-bloco ser um modo de previsão de vetor de movimento temporal avançado (ATMVP).
4. Codificador, de acordo com qualquer uma das reivindi- cações de 1 a 3, caracterizado pelo fato de: quando o modo de sub-bloco é um modo de previsão de vetor de movimento temporal avançado (ATMVP), o conjunto de circuitos configurar o sub-bloco para que esteja em uma região de 8 x 8 pixels.
5. Codificador, de acordo com qualquer uma das reivindica- ções de 1 a 4, caracterizado pelo fato de: o conjunto de circuitos aplicar, a partir de um primeiro filtro e um segundo filtro mais forte do que o primeiro filtro, o segundo filtro como o filtro de desbloqueio a pelo menos parte do limite do sub-bloco.
6. Decodificador, caracterizado pelo fato de compreender:
o conjunto de circuitos; e uma memória conectada ao conjunto de circuitos; em que, durante a operação, o conjunto de circuitos pode: gerar uma imagem de previsão utilizando um modo de sub-bloco que gera a imagem de previsão de um bloco com base em sub-bloco e transforma o bloco com base em bloco; e aplicar um filtro de desbloqueio a pelo menos parte de um limite de um sub-bloco localizado dentro do bloco.
7. Decodificador, de acordo com a reivindicação 6, caracteri- zado pelo fato de: o conjunto de circuitos aplicar o filtro de desbloqueio a um limite de uma região de 8 x 8 pixels incluída no limite do sub-bloco.
8. Decodificador, de acordo com a reivindicação 6 ou 7, caracterizado pelo fato de: o modo de sub-bloco ser um modo de previsão de vetor de movimento temporal avançado (ATMVP).
9. Decodificador, de acordo com qualquer uma das reivindi- cações de 6 a 8, caracterizado pelo fato de: quando o modo de sub-bloco é um modo de previsão de vetor de movimento temporal avançado (ATMVP), o conjunto de circui- tos configura o sub-bloco para estar em uma região de 8 x 8 pixels.
10. Decodificador, de acordo com qualquer uma das reivindi- cações de 6 a 9, caracterizado pelo fato de: o conjunto de circuitos aplicar, a partir de um primeiro filtro e um segundo filtro mais forte do que o primeiro filtro, o segundo filtro como o filtro de desbloqueio a pelo menos parte do limite do sub-bloco.
11. Método de codificação, caracterizado pelo fato de compreender: gerar uma imagem de previsão utilizando um modo de sub- bloco que gera a imagem de previsão de um bloco com base em sub-
bloco e transforma o bloco com base em bloco; e aplicar um filtro de desbloqueio a pelo menos parte de um limite de um sub-bloco localizado dentro do bloco.
12. Método de decodificação, caracterizado pelo fato de compreender: gerar uma imagem de previsão utilizando um modo de sub- bloco que gera a imagem de previsão de um bloco com base em sub- bloco e transforma o bloco com base em bloco; e aplicar um filtro de desbloqueio a pelo menos parte de um limite de um sub-bloco localizado dentro do bloco.
Petição 870210004499, de 14/01/2021, pág. 9/218 Codificador Divisor Transformador Quantizador por entropia
Quantizador inverso 1/59
Transformador inverso
Controlador de previsão Memória Intraprevisor de bloco
Memória Filtro de Interprevisor de quadro circuito
Parâmetro de previsão
Iniciar processo de codificação
Dividir bloco
Selecionar padrão de divisão
Gerar bloco de previsão
Gerar bloco de diferença
Gerar bloco de coeficiente
Codificar coeficiente/parâmetro de previsão
Restaurar bloco de diferença
Gerar bloco de imagem decodificada
Filtragem
Codificação de toda a imagem está Não terminada?
Sim Encerrar processo de codificação
Ordem de codificação/ordem de decodificação
Fatia 1
Fatia 2
Fatia 3
Fatia 4
Ordem de codificação/ordem de decodificação
Fatia 1 Fatia 2
Fatia 3 Fatia 4
Tipo de transformação Função básica
Onde
Onde
Direção: vertical Direção: vertical Localização: 0 Localização: 1
Direção: horizontal Direção: horizontal Localização: 0 Localização: 1
Petição 870210004499, de 14/01/2021, pág. 16/218 Imagem a ser filtrada Determinador de limite Não Determinação
DESLIGADA 8/59 Sim Executor Determinador Determinação de filtragem de filtro LIGADA Determinador de processo Determinador de característica de filtro Imagem filtrada
Bloco P Bloco Q
Bloco Q
Condições para os blocos P e Q localizados através Valores do limite para o qual o valor Bs deve ser determinado Bs
Pelo menos um dos blocos é bloco de intraprevisão Pelo menos um dos blocos inclui coeficiente de transformação diferente de zero e possui um lado que coincide com o limite TU O valor absoluto da diferença entre vetores de movimento dos dois blocos através do limite corresponde a um ou mais pixels
As imagens de referência para compensação de movimento dos dois blocos através do limite ou os números de vetores de movimento dos dois blocos são diferentes
Outros
Início
Gerar imagem de previsão
Fim
Início
Gerar imagem Gerar imagem Gerar imagem de previsão utilizando de previsão utilizando de previsão utilizando primeiro método segundo método terceiro método
Selecionar imagem de previsão
Fim
Início
Gerar imagem Gerar imagem de previsão de previsão utilizando utilizando interprevisão intraprevisão
Avaliação
Selecionar imagem de previsão
Fim
0: plano
Início
Selecionar candidato a MV Determinar vetor de movimento Derivar MV Gerar imagem de previsão Compensação de Gerar imagem movimento (previsão de previsão de movimento compensado)
Gerar residual de previsão Gerar residual de previsão
Fim
Início
Derivar MV Derivar MV no modo no modo no qual no qual a informação a informação de de movimento não movimento é codificada é codificada
Inter normal, mistura, afim Fim
Início
Derivar MV no modo Derivar MV no modo no qual a diferença no qual a diferença de MV é codificada de MV não é codificada
Inter normal, inter afim FRUC, mistura, Fim mistura afim
Petição 870210004499, de 14/01/2021, pág. 24/218 Início
Informação de modo de interprevisão Método no qual Método no qual a diferença de MV a diferença de 16/59 não é codificada MV é codificada
Derivar MV Derivar MV Derivar MV Derivar MV utilizando o no modo no modo no modo método de codificação de mistura FRUC afim de diferença de MV
Fim
<Informação Início <Saída de transmissão> de referência> Iniciar circuito para cada bloco
MV Obter candidato a MV do bloco (gerar lista de candidatos a MV) codificado Extrair candidatos a previsor de MV Informação Selecionar previsor de MV de seleção de previsor de MV Imagem de referência Derivar MV codificada Diferença de MV Processo de compensação de movimento Encerrar circuito para cada bloco Fim
<Informação Início <Saída de transmissão> de referência>
Iniciar circuito para cada bloco
MV do Obter candidato a MV (gerar bloco lista de candidatos a MV) codificado
Selecionar MV Informação de seleção de MV Imagem de referência Processo de compensação codificada de movimento
Encerrar circuito para cada bloco
Fim
Imagem de Imagem atual referência codificada
Petição 870210004499, de 14/01/2021, pág. 27/218 19/59
Misturar lista de Previsor de MV Previsor de MV Previsor de MV Previsor de MV Previsor Previsor Previsor candidatos espacialmente espacialmente espacialmente espacialmente de MV de MV de MV a previsor vizinho 1 vizinho 2 vizinho 3 vizinho 4 combinado 5 combinado 6 zero 7 de MV
Selecionar um previsor de MV a partir da lista de previsores de MV e designar como MV para o bloco atual
<Informação Início <Saída de transmissão> de referência>
Iniciar circuito para cada bloco
MV do Obter candidato a MV bloco (gerar lista de candidatos a MV) codificado
Selecionar melhor candidato a MV
Imagem Estimativa na região que cerca de referência o melhor candidato a MV codificada
Processo de compensação de movimento
Encerrar circuito para cada bloco
Fim de movimento Trajetória
Imagem atual Bloco atual
Gabarito
Bloco atual Imagem atual
Bloco codificado
Bloco atual
Bloco codificado Bloco atual
Bloco codificado Bloco atual
<Informação <Saída de transmissão> de referência> Início
Iniciar circuito para cada bloco
MV Informação de bloco Derivar previsor de MV no ponto de controle de seleção de codificado previsor de MV
Realizar o circuito para cada sub-bloco
Imagem de referência Calcular MV afim codificada
Compensação de movimento afim
Realizar circuito para cada sub-bloco
Encerrar circuito para cada bloco
Fim
Bloco codificado
Bloco atual
Bloco codificado
Bloco atual
<Informação <Saída de transmissão> de referência> Início
Iniciar o circuito para cada bloco
MV Informação Derivar o previsor de MV do bloco de seleção de no ponto de controle codificado previsor de MV
Circuito de estimativa de movimento
Atualizar previsor de MV
Realizar circuito para cada sub-bloco
Imagem de referência Calcular MV afim codificada
Compensação de movimento afim
Realizar circuito para cada sub-bloco
Circuito de estimativa de movimento
Determinar MV no ponto de controle Diferença de MV Processo de compensação de movimento
Encerrar circuito para cada bloco
Fim
Bloco codificado Bloco atual
Bloco codificado Bloco atual
Início Derivar MV no modo de mistura
A estimativa de MV Não foi realizada? Sim Derivar MV final pela Determinar MV estimativa da região circundante do MV derivado como derivado MV final Fim
Petição 870210004499, de 14/01/2021, pág. 39/218 Gabarito gerado com base no pixel de referência do candidato a MV (L0) e pixel de referência do candidato a MV (L1) 31/59
Candidato a MV (L0) Candidato a MV (L1)
Bloco atual
Primeira imagem Imagem atual Segunda imagem de referência de referência (L1)
Início Gerar imagem de previsão Corrigir imagem de previsão Fim Início Derivar MV Gerar imagem de previsão
O processo Não de correção é realizado? Sim Enviar imagem Corrigir a imagem de previsão não de previsão para gerar corrigida como imagem de previsão final imagem de previsão final Fim
Início Derivar MV
O processo de correção Não de luminescência é realizado? Sim Gerar imagem Gerar imagem de previsão pela de previsão sem realizar realização da correção a correção de luminescência de luminescência Fim
Início
Obter MV a partir do bloco vizinho esquerdo
Obter imagem de previsão por MV_L
Corrigir imagem de previsão pela sobreposição ponderada de Pred_L
Obter MV do bloco superior vizinho
Obter imagem de previsão por MV_U
Corrigir imagem de previsão pela sobreposição ponderada de Pred_U
Fim
Petição 870210004499, de 14/01/2021, pág. 43/218 Imagem de referência Imagem atual
Bloco vizinho superior
Bloco atual 35/59
Bloco vizinho esquerdo
Imagem de previsão final
Primeira partição Primeiro MV
Segundo MV
Segunda partição
Bloco atual
Imagem atual (imagem B)
Imagem de referência Imagem atual
Bloco atual
Regiões de referência circundantes para correção de luminescência
Calcular parâmetro de correção de luminescência
Processamento de correção de luminescência
Imagem de referência Imagem de previsão
Codificador
Processador
Memória
Petição 870210004499, de 14/01/2021, pág. 48/218 Decodificador Quantizador Transformador Filtro de por entropia inverso inverso circuito 40/59
Controlador de previsão Memória Intraprevisor de bloco
Memória Interprevisor de quadro
Parâmetro de previsão
Iniciar processo de decodificação Identificar divisão de padrão Decodificar coeficiente/parâmetro de previsão Restaurar bloco de diferença Gerar bloco de previsão Gerar bloco de imagem decodificada Filtragem
A Não decodificação de toda a imagem foi encerrada? Sim Encerrar o processo de decodificação
Início
Gerar imagem de previsão
Fim
Início
Que Primeiro método modo é Terceiro método determinado?
Segundo método
Gerar imagem de Gerar imagem Gerar a imagem previsão utilizando de previsão utilizando de previsão utilizando o primeiro método o segundo método o terceiro método
Fim
<Informação > <Entrada de transmissão> de referência Início
Iniciar circuito para cada bloco
MV Obter candidato a MV do bloco (gerar lista de candidatos a MV) decodificado
Extrair candidatos a previsor de MV
Selecionar candidato Informação a previsor de MV de seleção de previsor de MV
Derivar MV Diferença de MV
Imagem de referência Processo de compensação de movimento decodificada
Encerrar circuito para cada bloco
Fim
Decodificador
Processador
Memória
Petição 870210004499, de 14/01/2021, pág. 53/218 Bloco de referência de vetor de movimento temporal
Bloco atual a ser processado 45/59
Bloco de referência de vetor de movimento circundante
Imagem de referência de vetor Imagem atual a ser de movimento temporal processada
Petição 870210004499, de 14/01/2021, pág. 54/218 Bloco de referência de vetor de movimento temporal
Bloco atual a ser processado 46/59
Distorção limítrofe de imagem de previsão
Imagem de referência de vetor Imagem atual a ser de movimento temporal processada
Petição 870210004499, de 14/01/2021, pág. 55/218 Bloco de referência de vetor de movimento temporal
Bloco atual a ser processado 47/59
Bloco de referência de vetor de movimento circundante
Imagem de referência de vetor Imagem atual a ser de movimento temporal processada
Bloco de referência de Bloco de referência de vetor de movimento vetor de movimento temporal temporal
Petição 870210004499, de 14/01/2021, pág. 56/218 48/59
Bloco de referência de Bloco de referência de vetor de movimento vetor de movimento temporal temporal
Petição 870210004499, de 14/01/2021, pág. 57/218 Bloco de referência de vetor de movimento temporal
Bloco atual a ser processado 49/59
Bloco de referência de vetor de movimento circundante
Imagem de referência de vetor Imagem atual a ser de movimento temporal processada
Bloco de referência de Bloco de referência de vetor de movimento vetor de movimento temporal temporal
Petição 870210004499, de 14/01/2021, pág. 58/218 50/59
Bloco de referência de Bloco de referência de vetor de movimento vetor de movimento temporal temporal
Início
Limite do Não sub-bloco no bloco no Sim qual o processo ATMVP deve ser realizado?
Determinar valor Bs Selecionar Bs = 2
Selecionar um Selecionar filtro dentre o filtro fraco forte e o filtro forte
Processo de filtragem
Fim
Início
Limite do Não sub-bloco na fileira ou coluna Sim possuindo número de linha que é um múltiplo de 8
Aplicar filtro de desbloqueio
Fim
Início
Gerar imagem de previsão utilizando modo de sub-bloco
Aplicar filtro de desbloqueio a pelo menos parte do limite de sub-bloco
Fim
Início
Gerar imagem de previsão utilizando modo de sub-bloco
Aplicar filtro de desbloqueio a pelo menos parte do limite de sub-bloco
Fim
Aeronave
Petição 870210004499, de 14/01/2021, pág. 61/218 Satélite
Servidor de transmissão
Computador 53/59
Dispositivo de jogos
Internet Rede de comunicações Câmera
Eletrodoméstico
Smartphone Provedor de serviços de Internet aperfeiçoamento
Camada de base Camada de temporal Camada
Petição 870210004499, de 14/01/2021, pág. 63/218 Camada Unidade de acesso temporal Fatia Camada de aperfeiçoamento 55/59
Camada de base
Petição 870210004499, de 14/01/2021, pág. 67/218 Controlador Monitor Circuito de suprimento Para cada de monitor de energia componente
Controlador Transmissor/ Modulador/ receptor demodulador principal 59/59
Memória Partição Multiplexador/ desmultiplexador Interface Processador Câmera de câmera de sinal de vídeo Unidade de entrada de áudio Controlador Interface Processador de entrada de sinal de interface de Unidade de de áudio saída de áudio de usuário usuário
BR112021000616-8A 2018-09-05 2019-09-03 Codificador, decodificador, método de codificação e método de decodificação BR112021000616A2 (pt)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862727281P 2018-09-05 2018-09-05
US62/727,281 2018-09-05
US201862729775P 2018-09-11 2018-09-11
US62/729,775 2018-09-11
PCT/JP2019/034653 WO2020050279A1 (ja) 2018-09-05 2019-09-03 符号化装置、復号装置、符号化方法および復号方法

Publications (1)

Publication Number Publication Date
BR112021000616A2 true BR112021000616A2 (pt) 2021-04-13

Family

ID=69722385

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112021000616-8A BR112021000616A2 (pt) 2018-09-05 2019-09-03 Codificador, decodificador, método de codificação e método de decodificação

Country Status (8)

Country Link
US (2) US11849139B2 (pt)
EP (1) EP3849196A4 (pt)
JP (2) JP7148618B2 (pt)
KR (1) KR20210055044A (pt)
CN (1) CN112640469A (pt)
BR (1) BR112021000616A2 (pt)
MX (1) MX2021002464A (pt)
WO (1) WO2020050279A1 (pt)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4005206A4 (en) * 2019-08-23 2022-09-21 Beijing Bytedance Network Technology Co., Ltd. UNLOCKING FILTERING AT CODING BLOCK OR SUB-BLOCK BOUNDARIES

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AR092786A1 (es) 2012-01-09 2015-05-06 Jang Min Metodos para eliminar artefactos de bloque
US9667996B2 (en) 2013-09-26 2017-05-30 Qualcomm Incorporated Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC
US9762927B2 (en) * 2013-09-26 2017-09-12 Qualcomm Incorporated Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC
JP6545796B2 (ja) * 2014-10-08 2019-07-17 エルジー エレクトロニクス インコーポレイティド ビデオコーディングにおけるデプスピクチャコーディング方法及び装置
US20180167615A1 (en) * 2015-06-07 2018-06-14 Sharp Kabushiki Kaisha Systems and methods for optimizing video coding based on a luminance transfer function or video color component values
US10506259B2 (en) * 2015-06-16 2019-12-10 Lg Electronics Inc. Method for encoding/decoding image, and device therefor
US20170339405A1 (en) 2016-05-20 2017-11-23 Arris Enterprises Llc System and method for intra coding
US10735725B2 (en) * 2016-09-14 2020-08-04 Microsoft Technology Licensing, Llc Boundary-intersection-based deblock filtering
EP3520402A4 (en) * 2016-10-03 2019-09-18 Sharp Kabushiki Kaisha SYSTEMS AND METHOD FOR APPLYING DEFLECTION FILTERS IN RECONSTRUCTED VIDEO DATA
WO2018097077A1 (ja) * 2016-11-22 2018-05-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法

Also Published As

Publication number Publication date
JPWO2020050279A1 (ja) 2021-08-30
JP2022171983A (ja) 2022-11-11
CN112640469A (zh) 2021-04-09
WO2020050279A1 (ja) 2020-03-12
US11849139B2 (en) 2023-12-19
JP7148618B2 (ja) 2022-10-05
US20200228826A1 (en) 2020-07-16
EP3849196A4 (en) 2021-10-27
MX2021002464A (es) 2021-04-29
EP3849196A1 (en) 2021-07-14
KR20210055044A (ko) 2021-05-14
US20240073441A1 (en) 2024-02-29

Similar Documents

Publication Publication Date Title
US11876992B2 (en) Image decoder and decoding method
US11490076B2 (en) Encoder, decoder, encoding method, and decoding method
BR112020002254A2 (pt) codificador de imagem, decodificador de imagem, método de codificação de imagem e método de decodificação de imagem
BR112020002205A2 (pt) codificador de imagem, decodificador de imagem, método de codificação de imagem e método de decodificação de imagem
BR112020026686A2 (pt) Sistema e método para codificação de vídeo
BR112021001156A2 (pt) sistema e método para codificação de vídeo
BR112020010935A2 (pt) dispositivo de codificação de imagem, dispositivo de decodificação de imagem, método de codificação de imagem, e método de decodificação de imagem
BR112020025664A2 (pt) dispositivo codificador, dispositivo decodificador, método de codificação e método de decodificação
BR112021004822A2 (pt) codificador, decodificador, método de codificação e método de decodificação
BR112021014711A2 (pt) Codificador, decodificador, método de codificação e método de decodificação
BR112020000876A2 (pt) dispositivo codificador, dispositivo decodificador, método de codificação, e método de decodificação
US20200404272A1 (en) Encoder, decoder, encoding method, and decoding method
US20210037243A1 (en) Encoder, decoder, encoding method, and decoding method
BR112020001579A2 (pt) codificador, decodificador, método de codificação, método de decodificação
BR112020000219A2 (pt) codificação, método de codificação, decodificador e método de decodificação
US20220078472A1 (en) Encoder, decoder, encoding method, and decoding method
BR112021005443A2 (pt) codificador, decodificador, método de codificação, e método de decodificação
CN113678442A (zh) 用于视频编码的系统和方法
BR112020021718A2 (pt) codificador, decodificador, método de codificação e método de decodificação
BR112021009596A2 (pt) codificador, decodificador, método de codificação, e método de decodificação
US20240073441A1 (en) Encoder, decoder, encoding method, and decoding method
BR112021001890A2 (pt) codificador, decodificador, método de codificação e método de decodificação
BR112021011019A2 (pt) Codificador, decodificador, método de codificação e método de decodificação
BR112021012769A2 (pt) Codificador, decodificador, método de codificação e método de decodificação
BR122021025014A2 (pt) Codificador, decodificador e mídia legível por computador não transitória