BRPI0904534A2 - método para decodificar vìdeos - Google Patents

método para decodificar vìdeos Download PDF

Info

Publication number
BRPI0904534A2
BRPI0904534A2 BRPI0904534-1A BRPI0904534A BRPI0904534A2 BR PI0904534 A2 BRPI0904534 A2 BR PI0904534A2 BR PI0904534 A BRPI0904534 A BR PI0904534A BR PI0904534 A2 BRPI0904534 A2 BR PI0904534A2
Authority
BR
Brazil
Prior art keywords
decoding
image
objective
area
interpolation
Prior art date
Application number
BRPI0904534-1A
Other languages
English (en)
Inventor
Shohei Saito
Masashi Takahashi
Muneaki Yamaguchi
Hiroaki Ito
Koichi Hamada
Original Assignee
Hitachi Consumer Electronics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Consumer Electronics filed Critical Hitachi Consumer Electronics
Publication of BRPI0904534A2 publication Critical patent/BRPI0904534A2/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

MéTODO PARA DECODIFICAR VìDEOS Um método para decodificar vídeos compreende as etapas de efetuar, em relação a uma área objetiva de decodificação (501) do quadro objetivo de decodificação (500 502), uma busca de movimento usando imagens de diversos quadros terminados com decodificação e decidir, com base no resultado da busca de movimento, se uma imagem da área objetiva de decodificação (501) deve ser gerada através de um processo de interpolação ou uma imagem decodificada deve ser gerada através de compensação de movimento usando dados incluídos em um fluxo de codificação.

Description

"MÉTODO PARA DECODIFICAR VÍDEOS"
FUNDAMENTOS DA INVENÇÃO
A presente invenção relaciona-se a técnicas de codificação edecodificação de dados de vídeo.
Em conexão com técnicas de codificação e decodificação paracomprimir e transmitir dados de vídeo, um padrão de codificação padronizadointernacionalmente conforme tipificado pelo padrão MPEG (Grupo deEspecialistas de Imagens Móveis) tem estado disponível até então. Entre ospadrões de codificação padronizados internacionalmente, o padrãoH.264/AVC (Codificação de Vídeo Avançada), por exemplo, especialmentetem grandes eficiências de codificação e tem sido amplamente utilizado comoum padrão para compressão de imagem móvel na radiodifusão digitalterrestre, câmera de vídeo digital, meios de codificação de próxima geração,telefones celulares e assim por diante. Os dados então comprimidospertencentes ao padrão acima são decodificados em um receptor de televisão,um reprodutor de DVD e similar e os dados de vídeo então decodificados sãoexibidos em uma tela.
Então, JP-A-2003-333540 descreve a conversão de taxa dequadro a ser executada utilizando uma quantidade de movimento (vetor demovimento) obtida decodificando um fluxo de codificação e a imagemdecodificada, bem como no sentido de eliminar um borrão na imagem móvele um movimento não natural que ocorre ao exibir os dados de vídeodecodificados.
Na técnica descrita no Documento de Patente anteriormentemencionado, um processo de conversão de taxa de quadro é aplicado aosciados de vídeo decodificados. O processo de conversão de taxa de quadro,entretanto, pressupõe que um vetor de movimento e uma imagem de diferençasão transmitidos do lado de codificação para o lado de decodificação e deixade contribuir para redução da quantidade de dados de transmissão, surgindoum problema de que os melhoramentos na taxa de compressão de dados são insuficientes.
SUMÁRIO DA INVENÇÃO
A presente invenção tem sido construída à luz do problemaacima e seu objetivo é melhorar a taxa de compressão de dados.
Para alcançar o objetivo acima, realizações da presenteinvenção podem ser construídas conforme citado, por exemplo, nasreivindicações anexas.
Então, de acordo com a presente invenção, é possível melhorara taxa de compressão de dados.
Outros objetivos, características e vantagens da invençãotornar-se-ão aparentes a partir da descrição a seguir das realizações dainvenção, consideradas em conjunto com os desenhos que a acompanham.
BREVE DESCRIÇÃO DOS DESENHOS
Figura 1 é um diagrama esquemático mostrando aconfiguração de um aparelho de codificação de vídeo de acordo com arealização 1 da invenção.
Figura 2 é um diagrama em blocos mostrando a construção deuma unidade de codificação na Figura 1.
Figura 3 é um diagrama em blocos mostrando a construção deuma unidade de geração de imagem de interpolação na Figura 1.
Figura 4 é um diagrama mostrando um exemplo onde quadrosde interpolação e quadros de codificação são determinados de acordo com otipo de imagem na realização 1.
Figura 5 é um diagrama mostrando um exemplo de um métodopara busca de movimento por meio de um buscador de movimento narealização 1.
Figura 6 é um diagrama mostrando a construção do buscadorde movimento.Figura 7 é um fluxograma de operação na unidade de geraçãode imagem de interpolação na Figura 1.
Figuras 8A, 8B, 8C e 8D mostram um exemplo de dados aserem armazenados em uma unidade de memória de dados codificados.
Figuras 9A, 9B e 9C mostram exemplos de vetores de prediçãode movimento.
Figura 10 é um diagrama em blocos esquemático mostrando aconfiguração de um aparelho de decodificação de vídeo na realização 1.
Figura 11 é um diagrama em blocos mostrando a construçãode uma unidade de geração de imagem de interpolação na Figura 10.
Figura 12 é um fluxograma mostrando a operação no aparelhode decodificação de vídeo na realização 1.
Figura 13 é um diagrama em blocos mostrando a construçãode uma unidade de seleção de modo de acordo com a realização 2 dainvenção.
Figuras 14A e 14B são diagramas mostrando um exemplo dedados a serem armazenados na unidade de memória de dados codificados narealização 2.
Figura 15 é um fluxograma mostrando operação em umaparelho de decodificação de vídeo na realização 2.
Figura 16 é um diagrama mostrando um exemplo ondequadros de interpolação e quadros de codificação são determinados de acordocom o tipo de imagem na realização 3.
Figura 17 é um diagrama mostrando um exemplo de ummétodo de busca de movimento em um buscador de movimento na realização 3.
Figura 18 é um diagrama em blocos mostrando a construçãode uma unidade de decisão de direção de interpolação na realização 3.
Figuras 19A e 19B são diagramas mostrando um exemplo dedados a serem armazenados na unidade de memória de dados codificados narealização 3.
Figura 20 é um diagrama em blocos mostrando a construçãode uma unidade de busca de movimento no aparelho de decodificação devídeo na realização 3.
Figura 21 é um fluxograma de operação no aparelho dedecodificação de vídeo na realização 3.
Figuras 22A e 22B são diagramas mostrando um exemplo dedados a serem armazenados na unidade de memória de dados decodificadosna realização 4.
Figura 23 é um fluxograma mostrando operação do aparelhode decodificação de vídeo na realização 4.
Figuras 24A e 24B são diagramas mostrando um exemplo dedados a serem armazenados na unidade de memória de dados codificados narealização 5.
Figuras 25A e 25B são diagramas mostrando um exemplo dedados a serem armazenados na unidade de memória de dados codificados narealização 6.
Figura 26 é um diagrama mostrando uma primeiramodificação de um método de geração de imagem de interpolação.
Figuras 27A, 27B e 27C são diagramas mostrando umexemplo de uma segunda modificação do método de geração de imagem deinterpolação.
Figura 28 é um diagrama mostrando um exemplo de uma tamodificação do método de geração de imagem de interpolação.
DESCRIÇÃO DETALHADA DAS REALIZAÇÕES
Realizações da presente invenção serão agora descritas comreferência aos desenhos que a acompanham.
("Realização 1]Referindo-se primeiramente à Figura 1, é ilustrado umexemplo de um aparelho de decodificação de vídeo de acordo com arealização 1 da invenção. O aparelho de decodificação de vídeo de acordocom a realização 1 compreende, por exemplo, uma unidade de entrada devídeo 101 para entrada de vídeos, uma unidade de divisão de área 102 paradividir um vídeo de entrada em áreas objetivas de codificação, uma unidadede codificação 103 para codificar dados de vídeo de entrada divididos pelaunidade de divisão de área e decodificar localmente os dados, uma unidade degeração de imagem de interpolação 104 (o termo "interpolação" sendo usadoem geral para significar interpolação de per si e extrapolação inclusive,excetuando o caso onde as duas são usadas distintamente como será descritomais tarde) para decimação de imagens (imagens codificadas) localmentedecodificadas pela unidade de codificação 103 na direção do tempo e gerarimagens de interpolação adaptadas para interpolar as imagens decimadas, umaunidade de seleção de modo 105 para selecionar uma imagem codificada euma imagem interpolada, uma unidade de memória de dados codificados 106para gravar dados de imagem codificados e dados de marcação, e umaunidade de codificação de extensão variável 107 para codificar dadosarmazenados na unidade de memória de dados codificados 106 de um modode extensão variável e emitir um fluxo de codificação. Detalhes de operaçãonas unidades de processamento individual do aparelho de codificação devídeo de acordo com a realização 1 serão descritos abaixo.
Primeiramente, a unidade de entrada de vídeo 101 rearranjavídeos de entrada na ordem de sua codificação. No rearranjo de ordem, aordem de visualização é rearranjada para a ordem de codificação, de acordocom o tipo de imagem. A seguir, na unidade de divisão de área 102, umquadro objetivo de codificação é dividido em áreas objetivas de codificação.O tamanho da área divisional pode ser em uma unidade de bloco, tal comouma área quadrada ou retangular ou alternativamente pode estar em umaunidade de objeto extraído usando um método do processo de Watershed.Vídeos divididos na unidade de divisão de área 102 são transmitidos àunidade de codificação 103.
Então, a construção da unidade de codificação 103 é ilustradaem detalhe na Figura 2. A unidade de codificação 103 inclui, por exemplo,um subtrator 201 para calcular a diferença entre uma imagem como resultadoda divisão pela unidade de divisão de área 102 e uma imagem preditivaselecionada por um seletor de imagem preditiva na tela/entre tela 208, umconversor/quantizador de freqüência 202 para conversão em freqüência equantização dos dados de diferença gerados pelo subtrator 201, umquantizador inverso/conversor de freqüência inversa 203 para quantizaçãoinversa e conversão de freqüência inversa de dados emitidos a partir doconversor/quantizador de freqüência 202, um somador 204 para adicionar osdados decodificados pelo quantizador inverso/conversor de freqüência inversa203 para a imagem preditiva selecionada pelo seletor de imagem preditiva natela/entre tela 208, uma memória de imagem decodificada 205 para armazenara imagem soma a partir do somador 204, um preditor em tela 206 para geraruma imagem preditiva com base nos pixéis periféricos da área objetiva dedecodificação, um preditor inter tela 207 para detectar uma imagem (imagemde referência) próxima à área objetiva de decodificação, a partir de uma áreapertencendo a um quadro diferente da área objetiva de codificação, de talmodo que a imagem detectada pode ser gerada como uma imagem preditiva, eo seletor de imagem preditiva na tela/entre tela 208 para selecionar uma dasimagens preditiva em tela e preditiva inter tela que possui uma eficiência decodificação mais alta.
Detalhes de operação nos processadores individuais naunidade de codificação 103 serão agora descritos. No conversor/quantizadorde freqüência 202, a imagem de diferença é convertida em freqüência usandouma DCT (Transformada de Co-seno Discreta) e uma conversão de ondapequena (método de compressão) e então um coeficiente após a conversão defreqüência é quantizado. Dados após quantização são transmitidos à unidadede seleção de modo 105 e quantizador inverso/conversor de freqüênciainversa 203. No quantizador inverso/conversor de freqüência inversa 203, umprocesso inverso ao realizado no conversor/quantizador de freqüência 202 éconduzido. A seguir, o somador 204 adiciona uma imagem preditivaselecionada pelo seletor de imagem preditiva na tela/entre tela 208 a umaimagem de diferença gerada através de quantização inversa/conversão defreqüência inversa por meio do quantizador inverso/conversor de freqüênciainversa 203, gerando uma imagem decodificada. A imagem decodificadaentão gerada é armazenada na memória de imagem decodificada 205. Nopreditor em tela 206, uma imagem preditiva é gerada usando pixéis de áreasperiféricas terminados pela decodificação que tenham sido armazenados namemória de imagem decodificada 205. Adicionalmente, no preditor inter tela207, uma imagem preditiva é gerada através de um processo de coincidênciaentre dados dentro do quadro terminado pela decodificação, que foramarmazenados na memória de imagem decodificada 205 e imagem de entrada.A memória de imagem decodificada 205 então transmite a imagemdecodificada à unidade de geração de imagem de interpolação 104.
Retornando agora à Figura 3, detalhes de construção daunidade de geração de imagem de interpolação 104 são ilustrados. A unidadede geração de imagem de interpolação 104 inclui, por exemplo, um decisor dequadro de interpolação 301, um buscador de movimento 302 e um gerador depixel de interpolação 303. No decisor de quadro de interpolação 301, umquadro a ser interpolado (quadro de interpolação) e um quadro a sernormalmente codificado sem se submeter a interpolação (quadro decodificação) são determinados em uma unidade de quadro com base, porexemplo, no tipo de imagem.
Será feita agora referência à Figura 4, mostrando um exemploespecificado de determinação de quadro de interpolação por meio do decisorde quadro de interpolação 301 na unidade de geração de imagem deinterpolação 104. Na Figura 4, a abscissa representa a ordem de inserção deimagens durante a codificação e a ordem de visualização de imagens durantea decodificação. Ao contrário, a ordem do processo de codificação durante acodificação e a ordem do processo de decodificação durante a decodificaçãosão mostradas na Figura 4. Mais particularmente, uma imagem B suporta oprocesso de codificação e o processo de decodificação após uma imagem Pcuja ordem de visualização é posterior à da imagem B.
Como será descrito mais tarde com referência à Figura 5, ogerador de pixel de interpolação 303 na realização 1 gera, com base emdiversas imagens a serem submetidas a um processo de codificaçãoanteriormente (durante a decodificação, submetidas a um processo dedecodificação anteriormente) pixéis de quadros representando imagens, cadauma das quais interfere entre as diversas imagens na ordem de visualização. Asaber, o processo de geração de pixéis de interpolação pelo gerador de pixelde interpolação 303 de acordo com a realização 1, é um processo adequadopara a imagem B que é precedida e sucedida na ordem de visualização pelasrespectivas imagens terminadas pela codificação ou decodificação durante oprocesso de codificação ou processo de decodificação. No exemplo da Figura4, no instante do processo de codificação ou processo de decodificação daimagem B 402, a imagem I 401 da ordem precedente de visualização e aimagem P 403 da ordem que se sucede na visualização já foram terminadascom codificação ou decodificação. Adicionalmente, no instante do processode codificação ou processo de decodificação da imagem B 404, a imagem P403 da ordem precedente de visualização e a imagem P 405 da ordem quesucede na visualização já foram terminadas com codificação oudecodificação.
Conseqüentemente, o decisor de quadro de interpolação 301determina, por exemplo, a imagem B como um quadro de interpolação e aimagem I e imagem P como quadros objetivos de codificação, conformemostrado na Figura 4. Então, é possível para o gerador de pixel deinterpolação 303 para gerar um valor de posição de pixel em termos decoordenadas de elemento de matriz (posteriormente, simplesmente referidocomo um valor de pixel) da imagem B com base na imagem I e imagem P quesão mais próximas para diante ou para trás da imagem B, respectivamente.
Embora na Figura 4, exemplo de uma estrutura de imagem sejaconfigurado no qual uma única folha de imagem B é inserida entre a imagemI e a imagem P e entre a imagem P e imagem Ρ, o número de folhas deimagens B a serem inseridas entre imagens I ou P pode ser aumentado quandouma diferença de brilho ou cor entre quadros é calculada e a diferença épequena, apresentando uma alta correlação entre os quadros. Neste caso,também, as imagens B podem ser quadros de interpolação e a imagem I eimagem P podem ser quadros objetivos de codificação. Então, o gerador depixel de interpolação 303 pode gerar um valor de pixel de cada imagem Batravés do processo de interpolação, com base na imagem I e imagem P quesão mais próximas para diante e para trás da imagem B.
A seguir, fazendo referência à Figura 6, a construção dobuscador de movimento 302 será descrita em detalhe. Conforme mostrado naFigura 6, o buscador de movimento 302 possui um calculador de erropreditivo 601 e um decisor de vetor de movimento 602. Após o decisor dequadro de interpolação 301 ter determinado um quadro de interpolação, obuscador de movimento 302 efetua uma busca para um movimento necessáriopara calcular o valor de pixel do quadro de interpolação. Como um método debusca de movimento, um método de coincidência de área amplamente usadoem geral pode ser utilizado.
A seguir, fazendo referência à Figura 5, detalhes do processopara geração de um pixel de um quadro de interpolação por meio docalculador de erro preditivo 601 e decisor de vetor de movimento 602incluídos no buscador de movimento 302 e gerador de pixel de interpolação303, como será descrito.
Em conexão com a Figura 5, o calculador de erro preditivo601 determina primeiro, em relação a um pixel objetivo de interpolação 501do quadro de interpolação n, uma soma de valor absoluto de erro preditivoSADn (.χ, y) indicado pela equação (1), usando um valor de pixel fn_i (x-dx, y-dy) de um pixel 500 dentro de um quadro objetivo de codificação n-1 queprecede o quadro de interpolação η na ordem de visualização e um valor depixel fn+I (x+dx, y+dy) de um pixel 502 dentro de um quadro objetivo decodificação n+1 que sucede o quadro de interpolação η na ordem devisualização. Aqui, os pixéis 500 e 502 são assim determinados de modo apermanecer na mesma linha reta que o pixel objetivo de interpolação 501 (x,y) em um quadro de espaço e tempo. Na equação (1), R representa o tamanhode uma área de imagem à qual o pixel objetivo de interpolação pertence, ηrepresenta o número de quadro, x, y representa coordenadas de pixel, dx, dy,i, j representam diferenças inter pixel e a, b representam número de área deimagem a que o pixel objetivo de interpolação pertence.
<formula>formula see original document page 11</formula>
A seguir, o decisor de vetor de movimento 602 determina umacombinação (dxo, dyo) de valores pelos quais a soma de valor absoluto deerro preditivo SADn (x, y) na equação (1) é minimizada e calcula um vetor demovimento conectando um pixel de coordenadas (x-dxo, y-dy0) dentro doquadro objetivo de codificação n-1 que precede o quadro de interpolação η naordem de visualização e um pixel (x+dx0, y+dy0) dentro do quadro objetivode codificação n+1 que sucede o quadro de interpolação η na ordem devisualização.Após conclusão do cálculo do vetor de movimento, o geradorde pixel de interpolação 303 calcula uma média do valor fn_] (x-dxo, y-dyo) dopixel dentro do quadro objetivo de codificação precedendo o quadro deinterpolação e o valor de pixel fn+i (x+dx0, y+dy0) do pixel dentro do quadroobjetivo de codificação sucedendo o quadro de interpolação, para gerar umvalor de pixel fn (x, y) do pixel objetivo de interpolação (x, y) usando aequação (2).
<formula>formula see original document page 12</formula>
De acordo com o processo de geração de pixel para quadro deinterpolação descrito acima com referência à Figura 5, um pixel do quadro deinterpolação pode ser gerado a partir de valores de pixel dentro dos quadrosobjetivos de codificação que são posicionados antes e depois do quadroobjetivo de interpolação na ordem de visualização, respectivamente.
No exemplo pertencente à equação (2), o valor de pixel deinterpolação é calculado a partir do valor médio simples, porém o método decálculo de pixel de interpolação de acordo com a presente invenção não estálimitado a aquele baseado no valor de média simples. Por exemplo, se adistância no tempo entre o quadro objetivo de codificação n-1 e o quadro deinterpolação η não é igual à distância no tempo entre o quadro de interpolaçãoη e o quadro objetivo de codificação n+1, os respectivos valores de pixelpodem ser multiplicados por coeficientes de ponderação conformes àsrespectivas distâncias no tempo e, posteriormente, os produtos resultantespodem ser adicionados. Em outras palavras, qualquer método pode serempregado, desde que o valor de pixel possa ser calculado a partir de umafunção tendo uma variável representada pelo valor de pixel fn_i (x-dx0, y-dy0)no quadro objetivo de codificação n-1 e uma variável representada pelo valorde pixel fn+1 (x+dx0, y+dyo) no quadro objetivo de codificação n+1.Retornando agora à Figura 7, detalhes do processo de seleçãode modo pela unidade de seleção de modo 105 serão descritos. A respeito deáreas individuais de áreas divisionais diversas do quadro de interpolação, aunidade de seleção de modo 105 toma uma decisão de qual imagem objetivade codificação a unidade de codificação 103 gera e qual imagem deinterpolação formada do pixel de interpolação que a unidade de geração deimagem de interpolação 104 gera deve ser selecionada.
Primeiramente, a respeito da área de gravação objetiva, aunidade de seleção de modo 105 calcula, por exemplo, em relação àequação (3), uma diferença f (SADn(a,b)) entre um erro preditivo calculadopelo buscador de movimento 302 e um erro preditivo de uma área periféricada área objetiva de codificação (S701). Na equação (3), η representa númerode quadro, a, b representa número de área de imagem à qual o pixel deinterpolação objetivo pertence e k, 1 representa uma variável significando adiferença em número entre a imagem de área periférica e a área de imagem aque o pixel objetivo de interpolação pertence.
<formula>formula see original document page 13</formula>
Subseqüentemente, é decidido se o valor absoluto de erropreditivo mínimo SADn(a,b) determinado na equação (1) por meio dobuscador de movimento 302 é menor que um valor limite Si ou é decidido sea soma de valor absoluto de diferença de erro preditivo f (SADn(a,b))indicada pela equação (3) é maior que um valor limite S2 (S702). Esta decisãoé necessária porque quando a soma de valor absoluto de diferença de erropreditivo f (SADn(a,b)) é pequena, a confiabilidade dos resultados dadetecção de movimento durante a geração da imagem de interpolação éconsiderada alta e, além disso, quando a soma de valor absoluto de diferençade erro preditivo f (SADn(a,b)) é grande, muitas variáveis de codificação sãogeradas para uma imagem objetiva de codificação normal, porém uma ligeiradegradação na qualidade de imagem de uma área de configuração complicadaé fortemente percebida visualmente e portanto a seleção da imagem deinterpolação é considerada vantajosa.
Se a condição é satisfeita na etapa 702, a imagem deinterpolação é selecionada (S703). Neste instante, o processo termina sememitir informação de cabeçalho indicativa do tipo de área de predição, vetorde movimento e dados de erro preditivo (S705). Por outro lado, se a condiçãonão é satisfeita na etapa S702, imagem objetiva de codificação é selecionada(S704). Naquele instante, a informação de cabeçalho indicativa da espécie deárea de predição, vetor de movimento e dados de erro preditivo são emitidospara a unidade de memória de dados codificados 106 e então o processotermina.
Em outras palavras, com a imagem objetiva de codificaçãoselecionada, a informação de cabeçalho indicativa do tipo de área de predição,vetor de movimento e dados de erro preditivo são incluídos em um fluxo decodificação, como no caso da técnica de codificação normal. Contrariamentea isto, com a imagem de interpolação selecionada, uma imagem decodificadapode ser gerada sem recorrer aos dados acima, através do processo deinterpolação explicado em conexão com a Figura 15 e portanto, estas peças dedados não estão incluídas no fluxo de codificação. Pela razão acima, quando aimagem de interpolação é selecionada, a quantidade de dados de codificaçãopode ser reduzida, realizando melhoramentos na taxa de compressão.
Embora no precedente a seleção de modo para a imagemobjetiva de codificação e imagem de interpolação tenha sido descrita por meiode exemplo de seleção em uma unidade de quadro. Entretanto, da imagem Bselecionada como quadro de interpolação, uma área parcial pode serselecionada para uma imagem de codificação e a outra área pode serselecionada para uma imagem de interpolação. A área correspondente podeser em uma unidade de bloco, por exemplo.
A seguir, com referência às Figuras 8A, 8B, 8C e 8D, umexemplo de comparação da quantidade de dados codificados de um quadrocodificado com base na técnica de codificação da técnica anterior com a deum quadro codificado por meio do aparelho de codificação de vídeo e métodode acordo com a realização 1, será descrito. Nas Figuras 8A, 8B, 8C e 8Duma área sombreada indica uma área na qual a imagem objetiva decodificação é selecionada e uma área não sombreada indica uma área na qualuma imagem de interpolação é selecionada.
Um quadro codificado de acordo com a técnica de codificaçãoconvencional é ilustrado na Figura 8A. Uma vez que nenhuma área deimagem de interpolação existe na técnica de codificação convencional, todasas áreas provêem imagens objetivas de codificação. No exemplo da Figura8A, todas as 24 áreas são dedicadas a imagens de codificação. Então, natécnica de codificação convencional, informação de cabeçalho indicativa dotipo de área de predição e informação tal com vetor de movimento e dados deerro preditivo são armazenadas, em relação a todos os quadros na Figura 8A,como uma regra, em um fluxo de codificação. Aqui, o fluxo de codificaçãopara quadros codificados com a técnica de codificação convencional éilustrado conforme mostrado na Figura 8B. No exemplo da Figura 8B, comrespeito a todas as áreas de 24 imagens objetivas de codificação, a informaçãode cabeçalho indicativa do tipo de área de predição e informação tal comovetor de movimento e dados de erro preditivo são armazenadas no fluxo decodificação.
Contrariamente, um exemplo de um quadro codificado deacordo com o aparelho de codificação de vídeo e método de acordo com arealização 1 é mostrado na Figura 8C. No exemplo da Figura 8C, imagensobjetivas de codificação são selecionadas em somente 8 das 24 áreas eimagens de interpolação são selecionadas nas 16 áreas restantes. Então, umfluxo de codificação correspondente ao exemplo da Figura 8C é formadoconforme ilustrado na Figura 8D. A saber, no processo de codificaçãobaseado no aparelho de codificação de vídeo e método de acordo com arealização 1, não há necessidade de prover para o lado de codificação ainformação de cabeçalho indicativa do tipo de área preditiva e a informaçãotal como vetor de movimento e dados de erro preditivo em relação a áreaspara as quais a informação de interpolação é selecionada e estas áreas não sãoincluídas no fluxo de codificação. No exemplo da Figura 8D, a informação decabeçalho indicativa do tipo de área de predição e a informação tal comovetor de movimento e dados de erro preditivo são incluídas em um fluxo decodificação a cada 8 áreas representando áreas objetivas de codificação.
Então, no aparelho de codificação de vídeo e método deacordo com a realização 1, a quantidade de dados de codificação a seremincluídas no fluxo de codificação pode ser reduzida, se comparada à datécnica de codificação convencional, materializando deste modomelhoramentos na taxa de compressão de codificação.
Referindo-se agora às Figuras 9A, 9B e 9C e Figuras 8A, 8B,8 C e 8D, um processo para codificar um vetor de movimento executado naunidade de codificação de extensão variável 107 do aparelho de codificaçãode vídeo de acordo com a realização 1 da invenção, será descrito.
Primeiramente, em um processo para codificar um vetor demovimento em uma área objetiva de codificação pertencente ao padrão H.264cobrindo a técnica de codificação convencional, um vetor preditivo demovimento é calculado a partir de uma mediana de vetores de movimento emáreas periféricas da área objetiva de codificação e somente uma diferençaentre o vetor de movimento na área objetiva de codificação e o vetor preditivode movimento é processada como dados de codificação, reduzindo então aquantidade de dados.
Na unidade de codificação de extensão variável 107 de acordocom a realização 1, também é calculado um vetor de movimento preditivo(PMV), um vetor de diferença (DMV) entre um vetor de movimento (MV) naárea objetiva de codificação e o vetor de movimento preditivo (PMV) écalculado, e o vetor de diferença (DMV) é tratado como dados de codificação.Entretanto, em um quadro a ser codificado de acordo com o aparelho decodificação de vídeo e método de acordo com a realização 1, áreas de imagemobjetiva de codificação e áreas de imagem de interpolação coexistem,conforme mostrado na Figura 8C, e portanto, para cálculo do vetor demovimento preditivo (PMV) um método diferente da técnica de codificaçãoconvencional sob o padrão H.264 é adotado.
Um exemplo especificado na técnica baseada no padrão H.264convencional será descrita primeiramente com referência à Figura 9A. Nopadrão H.264, um vetor de movimento preditivo (PMV) para uma áreaobjetiva de codificação X é calculado usando uma mediana de vetores demovimento usados para processos de codificação nas áreas A, B e C que estãopróximas à área objetiva de codificação X e que tenham sido codificadasantecipadamente à área objetiva de codificação X. Para cálculo do vetor demovimento preditivo, um processo comum aos processos de codificação edecodificação necessita ser executado.
Aqui, os processos para codificar o vetor de movimento narealização 1 da invenção serão descritos. O processo de codificação de vetorde movimento na realização 1 da invenção é um processo a ser aplicadosomente a uma área de imagem objetiva de codificação fora da área deimagem objetiva de codificação e área de imagem de interpolação. Para a áreade imagem de interpolação, uma busca de movimento é realizada paraimagem de interpolação no lado de decodificação e portanto, o processo decodificação de vetor de movimento é desnecessário.
Aqui, no processo de codificação de vetor de movimento narealização 1 da invenção, dependendo dos blocos A, B, C e D próximos à áreaobjetiva de codificação X mostrada nas Figuras 9A, 9B e 9C serem áreas deimagem objetivas de codificação, respectivamente, ou áreas de imagem deinterpolação, respectivamente, um processo para cálculo de um vetorpreditivo usado para processo de codificação de vetor de movimento émodificado. O processo detalhado para os respectivos casos será descritoabaixo.
Primeiramente, quando qualquer das áreas periféricas A, B e Csão áreas de imagem objetiva de codificação, um vetor de movimentopreditivo é calculado, usando uma mediana de vetores de movimento (MVA,MVb, MVc) usados para o processo de codificação nas áreas periféricas A, Be C como no caso do padrão H.264 convencional.
A seguir, será descrita uma instância na qual áreas de imagemde interpolação está incluídas em áreas periféricas da área objetiva decodificação X, conforme mostrado nas Figuras 9B e 9C. Conforme descritopreviamente, o vetor de movimento não é codificado para a área de imagemde interpolação, isto é, o vetor de movimento usado no processo decodificação não é transmitido ao lado de decodificação. Isto é responsávelpelo fato de que, com o vetor de movimento usado no processo de codificaçãoutilizado para cálculo de um vetor de movimento preditivo (PMV), o cálculodo vetor de movimento preditivo (PMV) não pode ser realizado nadecodificação. Portanto, o cálculo de um vetor de movimento preditivo(PMV) é executado na realização 1, conforme abaixo.
Primeiramente, em uma instância onde áreas periféricas daárea objetiva de codificação X são todas ocupadas por áreas de imagem deinterpolação conforme mostrado na Figura 9B, um vetor de movimento usadono processo de geração de imagem de interpolação, isto é, os vetores demovimento (MVCA, MVCb, MVCc) calculados pelo buscador de movimento302 da unidade de geração de imagem de interpolação 104 são usados. Se abusca de movimento no buscador de movimento 302 é realizada em umaunidade de pixel, diversos vetores de movimento existem em cada área eassim o vetor de movimento preditivo (PMV) é calculado usando um valormédio dos diversos vetores de movimento. Então, uma mediana dos vetoresde movimento (MVCA, MVCb, MVCc) é calculada como um vetor demovimento preditivo (PMV).
A seguir, em uma instância em que as áreas A, B e Cperiféricas da área objetiva de codificação X são áreas de imagem objetivasde codificação parcial e parcialmente uma área de imagem de interpolaçãoconforme mostrado na Figura 9C, um vetor de movimento (MV) usado noprocesso de codificação é usado para a área de imagem de codificação e umvetor de movimento MVC usado no processo de geração de imagem deinterpolação é usado para a área de imagem de interpolação e uma medianadestes vetores de movimento é calculada como um vetor de movimentopreditivo (PMV).
A saber, no exemplo da Figura 9C, as áreas periféricas AeCsão áreas de imagem objetivas de codificação e a área periférica B é uma áreade imagem de interpolação. Neste caso, conforme mostrado em (1) na Figura9C, uma mediana dos vetores de movimento (MVA, MVb, MVc) é calculadacomo um vetor de movimento preditivo (PMV).
Como um exemplo modificado de cálculo de um vetor demovimento preditivo (PMV) no caso em que as áreas periféricas A, B e C daárea objetiva de codificação X são áreas de imagens objetivas de codificaçãoparcial e parcialmente uma área de imagem de interpolação conformemostrada na Figura 9C, um vetor de movimento da área de imagem decodificação pode ser selecionado preferencialmente e usado. Por exemplo,quando uma área periférica D posicionada acima à esquerda da área objetivade codificação X é uma área de imagem de codificação no exemplo da Figura9C, o MVCb da área periférica B representando a área de imagem deinterpolação não é usado, porém um vetor de movimento MVd usado noprocesso de codificação da área periférica D é usado. Então, uma mediana dosvetores de movimento (MVa, MVb, MVc) é calculada como um vetor demovimento preditivo (PMV).
Se duas das áreas periféricas A, B, C e D são áreas de imagensobjetivas de codificação, um valor médio dos vetor de movimento (MV) dasduas áreas pode ser usado como um vetor de movimento preditivo (PMV). Seuma das áreas periféricas A, B, C e D for uma área de imagem objetiva decodificação, um vetor de movimento (MV) pode ser usado por si própriocomo um vetor de movimento preditivo (PMV).
Selecionando preferencialmente um vetor de movimento deuma área de imagem objetiva de codificação desta maneira, uma influência doerro na busca entre a busca de movimento no processo de geração de imagemde interpolação no lado de codificação e a busca de movimento no processode geração de imagem de interpolação no lado de decodificação pode serreduzido.
Conforme descrito acima, de acordo com o aparelho decodificação de vídeo e método de acordo com a realização 1, a taxa decompressão de dados pode ser melhorada.
Será agora feita referência à Figura 1 para descrever umaparelho de decodificação de vídeo de acordo com a realização 1. O aparelhode decodificação de vídeo de acordo com a realização 1 compreende, porexemplo, uma unidade de decodificação de extensão variável 1001 paradecodificar dados codificados transmitidos a partir do lado de codificação,uma unidade de análise 1002 para analisar dados submetidos a decodificaçãode extensão variável, uma unidade de decisão de modo 1009 para tomar umadecisão, com base no resultado da análise, por meio da unidade de análise1002 e o resultado do cálculo de erro preditivo por meio de uma unidade degeração de imagem de interpolação, como se um processo de decodificaçãoou um processo de geração de imagem de interpolação fosse ser realizado,uma unidade de quantização inversa/conversão de freqüência inversa 1003para fazer com que dados transmitidos da unidade de análise 1002 sejamaplicados com quantização inversa/conversão de freqüência inversa, umsomador 1004 para adicionar dados emitidos a partir da unidade dequantização inversa/conversão de freqüência inversa 1003 a uma imagempreditiva gerada por uma unidade de compensação de movimento 1006, umaunidade de memória de imagem decodificada 1005 para armazenar dadosemitidos a partir do somador 1004, a unidade de compensação de movimento1006 sendo operativa para compensar mutuamente peças de dadosarmazenadas na unidade de memória de imagem decodificada 1005 quanto aseus movimentos, a unidade de geração de imagem de interpolação 1007sendo operativa para executar um processo de busca de movimento e umprocesso de geração de pixel de interpolação, usando as peças de dadosobtidas a partir da unidade de análise 1002 e unidade de memória de imagemdecodificada 1005, para gerar deste modo uma imagem de interpolação e umaunidade de saída 1008 para emitir a uma unidade de visualização de vídeo aimagem de interpolação gerada pela unidade de geração de imagem deinterpolação 1007 e a imagem decodificada fornecida além do somador 1004.
Detalhes da operação nas unidades de processamentoindividuais no aparelho de decodificação de vídeo de acordo com a realização1, serão descritos abaixo.
Primeiramente, fazendo referência à Figura 11, detalhes daunidade de geração de imagem de interpolação 1007 serão descritos. Aunidade de geração de imagem de interpolação 1007 inclui um buscador demovimento 1101 e um gerador de pixel de interpolação 1102. O buscador demovimento 1101 executa um processo similar ao do buscador de movimento302 na Figura 3 e o gerador de pixel de interpolação 1102 executa umprocesso similar ao do gerador de pixel de interpolação 303 na Figura 3.Como o buscador de movimento 302, o buscador de movimento 1101 tem umcalculador de erro preditivo 601 e um decisor de vetor de movimento 602 ecomo no decurso do processo de decodificação, executa um processo decálculo de erro preditivo e um processo de cálculo de vetor de movimento. Oprocesso de cálculo de erro preditivo e processo de cálculo de vetor demovimento e processo de geração de imagem de interpolação por meio dobuscador de movimento 302 e gerador de pixel de interpolação 303 são osmesmos daqueles já descritos previamente em conexão com a Figura 5 e nãoserão descritos aqui.
Retornando agora à Figura 12, o fluxo do processo no métodode decodificação de vídeo conduzido com o aparelho de decodificação devídeo de acordo com a realização 1, será descrito. O processo avança porexemplo, em relação a cada área. Primeiramente, o fluxo de codificação édecodificado por meio da unidade de decodificação de extensão variável 1001e é então enviado à unidade de análise 1002 (SI201). Subseqüentemente, naunidade de análise 1002, os dados de fluxo decodificados são classificados naanálise e os dados codificados são transmitidos à unidade de quantizaçãoinversa/conversão de freqüência inversa 1003 e unidade de geração deimagem de interpolação 1007 (SI202). Posteriormente, na unidade de análise1002, o tipo de imagem do quadro objetivo de codificação é decidido paratomar uma decisão quanto ao quadro objetivo de codificação ser um quadrode codificação ou um quadro de interpolação (S1203). Se o quadro objetivode codificação é um quadro de interpolação, a unidade de geração de imagemde interpolação 1007 executa um processo de busca de movimento em rela auma área objetiva de decodificação, usando várias áreas de imagemdecodificadas que precedem e antecedem o quadro objetivo na ordem doinstante de visualização (SI204). Através de um processo similar ao efetuadopelo buscador de movimento 302 na Figura 3, o buscador de movimento 1101calcula uma soma de valor absoluto de erro preditivo mínima SADn(a,b) edetermina o vetor de movimento. A seguir, o decisor de modo 1009 calculauma soma de valor absoluto de diferença de erro preditivo f (SADn(a,b))entre a soma de valor absoluto de erro preditivo calculada pelo buscador demovimento IlOle uma soma de valor absoluto de erro preditivo periférico naárea objetiva de decodificação (SI205). Subseqüentemente, o decisor demodo 1009 decide se a soma de valor absoluto de erro preditivo mínimaSADn(a,b) calculada pelo buscador de movimento 1101 é menor que um valorlimite Si ou se a diferença f (SADn(a,b)) a partir da soma de valor absolutode erro preditivo periférico é maior que um valor limite S2 (SI206). Com asoma de valor absoluto de erro preditivo SADn(a,b) determinada como sendomenor que o valor limite Sj ou com a soma de valor absoluto de diferença deerro preditivo f (SADn(a,b)) determinada como sendo maior que o valorlimite S2, a área objetiva de codificação é determinada para ser uma área deimagem de interpolação. No outro caso, a área objetiva de decodificação édeterminada como uma área que foi codificada como uma área de imagemobjetiva de codificação.
Agora, quando a área objetiva de decodificação é determinadacomo uma área de imagem de interpolação, por meio do decisor de modo1009, o gerador de pixel de interpolação 1102 da unidade de geração deimagem de interpolação 1007 gera um pixel de interpolação, e uma imagem égerada através de um processo para geração de uma imagem de interpolação earmazenada na unidade de geração de imagem de interpolação 1007 (S1207).
Por outro lado, se o quadro objetivo de codificação não é umquadro de interpolação (como sendo um quadro de codificação) ou no caso daunidade de decisão de modo 1009 determinar que a área objetiva dedecodificação é uma área codificada como uma área de imagem objetiva decodificação, a unidade de quantização inversa/conversão de freqüênciainversa 1003 aplica um processo de quantização inversa/conversão defreqüência inversa aos dados codificados obtidos a partir da unidade deanálise 1002 e decodifica dados de diferença (SI208). Posteriormente, aunidade de compensação de movimento 1006 conduz um processo decompensação de movimento por informação de cabeçalho obtida a partir daunidade de análise 1002 e vetor de movimento, gerando uma imagempreditiva (SI209).
Subseqüentemente, o somador 1004 adiciona a imagempreditiva gerada pela unidade de compensação de movimento 1006 e os dadosde diferença emitidos a partir da unidade de quantização inversa/conversão defreqüência inversa 1003 para gerar uma imagem decodificada que éarmazenada por sua vez na unidade de memória de imagem decodificada1005 (S1210). Finalmente, a unidade de saída 1008 emite a imagem deinterpolação gerada na etapa 1207 ou a imagem decodificada gerada na etapa1210 (S1211) finalizando o processo.
Para adicionar, se a área objetiva de codificação é baseada napredição inter-tela na etapa 1209, a unidade de compensação de movimento1006 calcula um vetor de movimento preditivo (PMV) com base nos vetoresde movimento de áreas periféricas da área objetiva de decodificação,adiciona-o a um vetor de diferença (DMV) a ser armazenado nos dados decodificação, para gerar desta forma um vetor de movimento (MV) da áreaobjetiva de decodificação e executa um processo de compensação demovimento com base no vetor de movimento (MV). E notado que o processode cálculo para o vetor de movimento preditivo (PMV) pode ser executadoatravés de um processo similar ao processo de cálculo para o vetor demovimento preditivo (PMV) no lado de codificação, como foi explicado emconexão com as Figuras 9A a 9C e não será descrito aqui.
De acordo com o aparelho de decodificação de vídeo e métododa realização 1 descritos previamente, dados codificados através do métodode codificação capaz de melhorar a taxa de compressão de dados secomparada ao aparelho e método de codificação convencional podem serdecodificados adequadamente.De acordo com o aparelho de codificação de vídeo e métododa realização 1 descrito anteriormente, dados codificados melhorados na taxade compressão de dados podem ser gerados e dados codificados podem serdecodificados preferivelmente.
("Realização 2]
A seguir, a realização 2 da presente invenção será descrita. Arealização 2 da invenção difere da realização 1 em que dados de marcaçãoindicando se uma imagem objetiva de codificação é selecionada ou umaimagem de interpolação é selecionada em relação a cada área objetiva decodificação no lado de codificação é incluída em um fluxo de decodificação.Isto habilita o lado de decodificação a tomar facilmente uma decisão se umaimagem de codificação ou uma imagem de interpolação é selecionada em relaà área objetiva de decodificação. Como resultado, o processo durante adecodificação pode ser simplificado, reduzindo a quantidade deprocessamento. A realização 2 será descrita em mais detalhe posteriormente.
Em um aparelho de codificação de vídeo de acordo com arealização 2, a unidade de seleção de modo 105 na Figura 1 no aparelho decodificação de vídeo da realização 1 é substituída por uma unidade de seleçãode modo 1304 na Figura 13. A construção e operação dos componentesrestantes são as mesmas da realização 1 e não serão descritas aqui.
Primeiramente, na unidade de seleção de modo 1304, umcalculador de valor absoluto de diferença 1301 calcula uma diferença entreum vídeo de entrada dividida pela unidade de divisão de área 102 e umaimagem de interpolação gerada pela unidade de geração de imagem deinterpolação 104. Similarmente, um calculador de valor absoluto de diferença1302 calcula uma diferença entre o vídeo de entrada dividido pela unidade dedivisão de área 102 e uma imagem objetiva de codificação gerada pelaunidade de codificação 103. A seguir, em um decisor 1303 um menor dosvalores de valores absolutos de diferença calculado pelos calculadores devalor absoluto de diferença 1301 e 1302 é selecionado, de tal modo que umamarcação de decisão (marcação de decisão de modo) é emitida. Por exemplo,a marcação de decisão de modo pode ser "0" quando a imagem objetiva decodificação é selecionada e "1" quando a imagem de interpolação éselecionada.
Um exemplo de dados armazenados na unidade de memória dedados codificados 106 do aparelho de codificação de vídeo na realização 2, éilustrado nas Figuras 14A e 14B. Como será visto a partir das Figuras 14A e14B, dados de marcação de 1 bit indicando que a imagem objetiva decodificação e a imagem de interpolação é selecionada em relação a cada áreaobjetiva de codificação, são adicionados. Mais particularmente, no fluxo decodificação emitido a partir do aparelho de codificação de vídeo da realização2, os dados de marcação indicando que a imagem objetiva de codificação e aimagem de interpolação são selecionadas em relação a cada área objetiva decodificação são incluídos. Através disto, sem recorrer ao processo de cálculoe processos de comparação efetuado no lado de decodificação com respeito àsoma de valor absoluto de erro preditivo SADn(a,b) e diferença de erropreditivo f (SADn(a,b)) como no caso da realização 1, é possível decidir se aárea objetiva de decodificação é uma área para a qual uma imagem objetivade codificação é selecionada ou uma imagem de interpolação é selecionada.Conseqüentemente, o processo durante a decodificação pode ser simplificadoe a quantidade de processamento pode ser reduzida.
De acordo com o aparelho de codificação de vídeo e métodona realização 2 descrita acima, sendo diferente da realização 1, os dados demarcação indicando que a imagem de codificação e a imagem de interpolaçãoé selecionada em relação a cada área objetiva de codificação, é incluída nofluxo de codificação de saída. Isto habilita o lado de decodificação a decidirfacilmente em relação à área objetiva de decodificação, se a área de imagemobjetiva de codificação é selecionada ou a área de imagem de interpolação éselecionada. Conseqüentemente, o processo durante a decodificação pode sersimplificado e a quantidade de processamento pode ser reduzida.
A seguir, um aparelho de decodificação de vídeo de acordocom a realização 2 será descrito. O aparelho de decodificação da realização 2é construído similarmente ao mostrado na Figura 10 em conexão com arealização 1 e portanto, não será descrito aqui.
O fluxo do processo no aparelho de decodificação de vídeo narealização 2 será descrito abaixo com referência à Figura 15.
Em um fluxo de codificação, dados de marcação indicando seuma imagem objetiva de codificação ou uma imagem de interpolação éselecionada com respeito a cada área objetiva de codificação, são incluídosconforme mostrado nas Figuras 14A e 14B, e o fluxo de codificação éinserido no aparelho de decodificação de vídeo de acordo com a realização 2.Primeiramente, o fluxo de codificação é decodificado por meio da unidade dedecodificação de extensão variável 1001 e enviado à unidade de análise 1002(SI501). Subseqüentemente, na unidade de análise 1002, os dados de fluxodecodificados são classificados na análise e informação de cabeçalho e umamarcação de decisão de modo são transmitidos à unidade de decisão de modo1009, enquanto os dados codificados são transmitidos à unidade dequantização inversa/conversão de freqüência inversa 1003 (SI 502).Posteriormente, na unidade de análise 1002 ou unidade de decisão de modo1009, o quadro objetivo de codificação é decidido, de acordo com o tipo deimagem do quadro objetivo de codificação, como para um quadro decodificação ou um quadro de interpolação (SI503).
Aqui, se o quadro objetivo de codificação é um quadro deinterpolação, a unidade de decisão de modo 1009 decide a respeito de umaárea objetiva de decodificação se a marcação de decisão de modo transmitidaa partir da unidade de análise 1002 é 1 ou 0 (SI504). Com a marcação dedecisão de modo sendo 1 (indicativa de uma área para a qual uma imagem deinterpolação é selecionada), a área objetiva de decodificação é determinadapara corresponder a uma área de imagem de interpolação. Quando a marcaçãode decisão de modo é 0 (indicando uma área para a qual uma imagem dedecodifícação é selecionada), a área objetiva de decodificação é determinadapara corresponder a uma área que foi codificada como uma área de imagemobjetiva de codificação.
Então, como a unidade de decisão de modo 1009 determinaque a área objetiva de decodifícação é uma área de imagem de interpolação, obuscador de movimento 1101 da unidade de geração de imagem deinterpolação 1007 efetua uma busca de movimento (SI 505).Subseqüentemente, com base em um resultado da busca de movimento pormeio do buscador de movimento 1101, o gerador de pixel de interpolação1102 gera um pixel de interpolação e uma imagem é gerada através de umprocesso para geração de uma imagem de interpolação e armazenado naunidade de memória de imagem decodificada 1005 (SI506).
Por outro lado, no caso em que o quadro objetivo dedecodificação não é um quadro de interpolação (ao invés disso, um quadroobjetivo de codificação) ou a unidade de decisão de modo 1009 determina quea área objetiva de decodificação corresponde a uma área codificada comouma área de imagem objetiva de codificação, a unidade de quantizaçãoinversa/conversão de freqüência inversa 1003 aplica um processo dequantização inversa/conversão de freqüência inversa aos dados codificadosadquiridos a partir da unidade de análise 1002 e decodifica dados de diferença(SI507). A seguir, a unidade de compensação de movimento 1006 executaum processo de compensação de movimento, usando a informação decabeçalho capturada a partir da unidade de análise 1002 e do vetor demovimento, e cria uma imagem preditiva (SI508). A seguir, o somador 1004adiciona a imagem preditiva gerada pela unidade de compensação demovimento 1006 e os dados de diferença fornecidos a partir da unidade dequantização inversa/conversão de freqüência inversa 1003, gerando umaimagem que, por sua vez, é armazenada na unidade de memória de imagemdecodificada 1005 (SI509). Finalmente, a unidade de saída 1008 emite aimagem de interpolação gerada na etapa S1207 ou a imagem decodificadagerada na etapa S1210 (S1510), terminando o processo.
Conforme relatado até então, de acordo com o aparelho emétodo de decodificação de vídeo na realização 2, em adição à obtenção dosefeitos atribuíveis à realização 1, é possível obter tal vantagem que, semrecorrer ao processo de cálculo e processo de comparação para a soma devalor absoluto de erro preditivo SADn(a,b) e soma de valor absoluto dediferença de erro preditivo f (SADn(a,b)) conforme efetuado na realização 1,a área objetiva de decodificação pode ser decidida quanto a corresponder auma área para a qual a imagem de decodificação é selecionada ou uma áreapara a qual a imagem de interpolação é selecionada. Conseqüentemente, oprocesso durante a decodificação pode ser simplificado e a quantidade deprocessamento pode ser reduzida.
Conforme relatado até então, de acordo com o aparelho emétodo de codificação de vídeo e aparelho e método de decodificação devídeo na realização 2, dados codificados melhorados na taxa de compressãode dados podem ser gerados e os dados codificados podem ser decodificadospreferivelmente.
[Realização 31
A seguir, a realização 3 da presente invenção será descrita. Narealização 1 da invenção, com base em diversas imagens que suportam oprocesso de codificação antecipadamente (durante a decodificação, o processode decodificação é realizado antecipadamente), a unidade de geração deimagem de interpolação 104 gera um pixel de um quadro representando umaimagem precedendo e sucedendo as diversas imagens, na ordem de exibição,é gerado através do processo de interpolação (particularmente significandointerpolação de per si).
Contrariamente, na realização 3 da invenção, um processo deinterpolação discriminando a partir da interpolação de per si (posteriormentereferida como extrapolação) é adicionada, através da qual, com base emdiversas imagens que suportam antecipadamente o processo de decodificação(durante a decodificação, o processo de decodificação é realizadoantecipadamente), um pixel de um quadro representando uma imagemprecedendo ou sucedendo as diversas imagens na ordem de visualização, égerado através do processo de extrapolação.
Uma descrição da construção detalhada e operação serão dadasem relação ao aparelho de codificação de vídeo na realização 3,posteriormente.
Estruturalmente, o aparelho de codificação de vídeo de acordocom a realização 3 é construído adicionando, à unidade de geração de imagemde interpolação 104 do aparelho de codificação de vídeo da realização 1,operação de processo de geração de imagem de interpolação com base naextrapolação reversa e uma unidade de decisão de direção de extrapolação1805 (ver Figura 18) é assim adicionado de modo a seguir a unidade degeração de imagem de interpolação 104. A construção e operação doscomponentes restantes são similares às da realização 1 e não serão descritasaqui.
O processo de extrapolação a ser adicionado aqui éclassificado em dois tipos, a saber, um processo de extrapolação direto e umprocesso de extrapolação reverso. Com respeito aos respectivos tipos, aoperação na unidade de geração de imagem de interpolação 104 do aparelhode codificação de vídeo será descrito.
Primeiramente, o processo de extrapolação direto será descrito.Aqui, será descrito um exemplo no qual um vídeo de entrada conformemostrado em (a) na Figura 16, uma imagem de extrapolação de um quadroobjetivo de extrapolação 1603 (imagem B) é gerada usando dois quadros decodificação 1601 e 1602 o que precede o quadro objetivo de extrapolação1603 na ordem de visualização.
Neste caso, para a finalidade de determinar um pixel do quadroobjetivo de extrapolação, uma busca de movimento a ser descrita abaixo érealizada no buscador de movimento 302. Conforme mostrado em (a) naFigura 17, usando valores de pixel de dois quadros objetivos de codificação(1601, 1602) exibidos anteriormente ao quadro objetivo de extrapolação1603, uma soma de valor absoluto de erro preditivo SADn(a,b) indicada naequação (4) é determinada. Especificamente, um valor de pixel fn.2(x-2dx, y-2dy) de um pixel 1700 no quadro de codificação 1601 e um valor de pixel fn_i(x-dx, y-dy) de um pixel 1701 no quadro de codificação 1602 são usados.Aqui, R representa o tamanho de uma área objetiva à qual o pixel objetivo deinterpolação pertence. Então, o pixel 1700 no quadro de codificação 1601 e opixel 1701 no quadro de codificação 1602 são assim determinados de modo apermanecer na mesma linha reta que o pixel objetivo de extrapolação 1702 noquadro objetivo de extrapolação 1603 em um quadro de espaço e tempo.
<formula>formula see original document page 31</formula>
A seguir, uma posição (dx, dy) na qual a soma de valorabsoluto de erro preditivo indicada pela equação (4) é minimizada, édeterminada, e através de um processo similar ao da unidade de geração depixel de interpolação 303 descrita em conexão com a realização 1, um pixelobjetivo de extrapolação é gerado.
Conforme descrito acima, a geração de um pixel objetivo deextrapolação com base no processo de extrapolação direto pode ser realizada.
O processo de extrapolação direto acima descrito pode seraplicável, desde que os dois quadros de codificação precedentes na ordem devisualização sejam codificados/decodificados antecipadamente e, portanto,pode também ser aplicado ao caso do quadro objetivo de extrapolação 1603(imagem P) conforme mostrado em (b) na Figura 16.
A seguir, um processo de extrapolação reverso será descrito.
Aqui, será descrito um exemplo no qual o vídeo de entradamostrado em (a) na Figura 16, uma imagem de extrapolação de um quadroobjetivo de extrapolação 1603 é gerada usando dois quadros de codificação1604 e 1605 que sucedem o quadro objetivo de extrapolação 1603 na ordemde visualização.
Neste caso, para a finalidade de determinar um pixel no quadroobjetivo de extrapolação, uma busca de movimento a ser descrita abaixo érealizada no buscador de movimento 302. Conforme mostrado em (b) naFigura 17, usando pixéis dentro dos dois quadros de codificação (1604, 1605)exibidos reversamente do quadro objetivo de extrapolação 1603, uma soma devalor absoluto de erro preditivo SADn(a,b) indicada na equação (5) édeterminada. Especificamente, um valor de pixel fn+2(x+dx, y+dy) de umpixel 1711 no quadro de codificação 1604 e um valor de pixel fn+2(x+2dx,y+2dy) de um pixel 1712 no quadro de codificação 1605 são usados. Aqui, Rrepresenta o tamanho de uma área objetiva à qual o pixel objetivo deextrapolação pertence.
Aqui, o pixel 1711 no quadro de codificação 1604 e o pixel1712 no quadro de codificação 1605 são assim determinados de modo apermanecer na mesma linha reta que o pixel objetivo de extrapolação 1710 noquadro objetivo de extrapolação 1603 em um quadro de espaço e tempo.
<formula>formula see original document page 32</formula>
A seguir, uma posição (dx, dy) na qual a soma de valorabsoluto de erro preditivo indicada pela equação (4) é minimizada, édeterminada, e através de um processo similar ao da unidade de geração depixel de interpolação 303 descrita em conexão com a realização 1, um pixelobjetivo de extrapolação é gerado.
Conforme descrito acima, a geração de um pixel objetivo deextrapolação com base no processo de extrapolação reverso pode serrealizada.
Na unidade de geração de imagem de interpolação 104, asduas espécies de processo de extrapolação anteriormente mencionadas e oprocesso de interpolação similar ao da realização 1 são realizados, gerandotrês espécies de imagens de interpolação.
A seguir, na unidade de decisão de direção de interpolação1805 mostrada na Figura 18, um método de busca de movimento é decidido.O processo na unidade de decisão de direção de interpolação 1805 serádescrito. Primeiramente, um valor absoluto de diferença entre a imagem deinterpolação gerada efetuando uma busca de movimento bidirecional descritana realização 1, e uma imagem de entrada é calculada por meio de umcalculador de valor absoluto de diferença 1801. Subseqüentemente, um valorabsoluto de diferença entre uma imagem de interpolação gerada efetuandouma busca de movimento direta descrita na presente realização e a imagem deentrada é calculada por meio de um calculador de valor absoluto de diferença1802. Também, um valor absoluto de diferença entre uma imagem deinterpolação gerada efetuando uma busca de movimento reversa e a imagemde entrada é calculada por meio de um calculador de valor absoluto dediferença 1803. Posteriormente, um decisor de direção de busca demovimento 1804 seleciona uma imagem de interpolação para a qual adiferença entre a imagem de entrada e a imagem de interpolação é pequena eemite o resultado selecionado como uma marcação de decisão de direção debusca de movimento. Por exemplo, a marcação de decisão de direção debusca de movimento pode prover dados de 2 bits incluindo 00 indicativo debidireção, 01 indicativo de direção direta e 10 indicativo de direção reversa. Amarcação de decisão de direção de busca de movimento então gerada étransmitida à unidade de memória de dados codificados 106.
Nas Figuras 19A e 19B é ilustrado um exemplo de dados aserem armazenados na unidade de memória de dados codificados 106.
Conforme mostrado nas Figuras 19A e 19B, dados de marcação para decidirde qual direção a imagem de interpolação é gerada, é adicionada em uma áreade pixel de interpolação. Em outras palavras, em um fluxo de comunicaçãoemitido a partir do aparelho de codificação de vídeo da realização 3, os dadosde marcação indicativos da direção de interpolação na qual a imagem deinterpolação é gerada em relação a uma área para a qual a imagem deinterpolação é selecionada, é incluída.
Desta maneira, os tipos de métodos de geração de imagem deinterpolação podem ser aumentados e em adição a uma imagem B, umaimagem P pode também ser tornada um quadro objetivo de interpolação,diminuindo então os dados.
Adicionalmente, no caso da imagem B, em adição àinterpolação bidirecional baseada em quadros precedendo e sucedendorespectivamente o quadro objetivo de interpolação, a extrapolação direta paragerar uma imagem de interpolação a partir de dois quadros objetivos decodificação direta e a extrapolação reversa para gerar uma imagem deinterpolação a partir de dois quadros objetivos de codificação reversa,igualmente podem ser executadas e melhoramentos na qualidade de imagempodem ser portanto, esperados.
Especialmente, no caso de uma imagem que se movediferentemente no segundo plano e no plano principal, a qualidade da imagemé degradada consideravelmente em uma área na qual, quando a imagem deinterpolação é gerada somente de forma bidirecional, o segundo plano éencoberto pelo plano principal e não pode ser visto (área de oclusão) masatravés da extrapolação direta ou reversa, o problema de degradação dequalidade pode ser resolvido.
Conforme descrito acima, diferindo da realização 1, o aparelhoe método de codificação de vídeo de acordo com a realização 3 inclui osdados de marcação indicativos da direção de interpolação, para geração deuma imagem de interpolação no fluxo de codificação de saída. Isto asseguraque os tipos de processos de interpolação executados no lado dedecodificação podem ser aumentados e em adição à imagem B, a imagem Ppode também ser um quadro objetivo de interpolação, tornando possívelreduzir mais os dados. Adicionalmente, a alta qualidade de imagem daimagem de interpolação da imagem B pode ser obtida.
A seguir, um aparelho de decodificação de vídeo de acordocom a realização 3 será descrito. Estruturalmente, um aparelho dedecodificação da realização 3, o buscador de movimento 1101 mostrado naFigura 11 na realização 1 é substituído por um buscador de movimento 2005na Figura 20 e os componentes restantes são similares aos da realização 1 enão será dada uma descrição destes.
A unidade de busca de movimento 2005 no aparelho dedecodificação da realização 3 inclui um decisor de método de busca demovimento 2001, um buscador de movimento 2002, um calculador de erropreditivo 2003 e um decisor de vetor de movimento 2004. O decisor demétodo de busca de movimento 2001 determina um método de busca dedireção bidirecional, direta ou movimento de direção reversa de acordo cominformação de uma marcação de decisão de direção de busca de movimentoenviada a partir da unidade de análise 1002. Após um método de busca demovimento ter sido determinado, busca de movimento, cálculo de erropreditivo e decisão de vetor de movimento são realizados no buscador demovimento 2002, calculador de erro preditivo 2003 e decisor de vetor demovimento 2004, respectivamente. A busca bidirecional pode ser conduzidasimilarmente à da realização Iea busca de direção direta e busca de direçãoreversa pode ser processada similarmente às do aparelho de codificação devídeo da presente realização.
A seguir, o fluxo do processo no aparelho de decodificação devídeo na realização 3 será descrito com referência à Figura 21.
Primeiramente, a unidade de decodificação de extensãovariável 1001 decodifica um fluxo de codificação de forma de extensãovariável e o envia à unidade de análise 1002 (S2101). A seguir, a unidade deanálise 1002 classifica dados de fluxo decodificados na análise e transmitedados codificados à unidade de quantização inversa/conversão de freqüênciainversa 1003 e unidade de geração de imagem de interpolação 1007 (S2102).Subseqüentemente, a unidade de quantização inversa/conversão de freqüênciainversa 1003 decide o tipo de imagem do quadro objetivo codificado (S2102).Se o quadro objetivo codificado é um quadro de interpolação, o decisor demétodo de busca de movimento 2001 decide um método de busca demovimento usando uma das direções de busca de movimento de bidireção,direção direta e direção reversa, com base em uma marcação de decisão dedireção de busca de movimento transmita a partir da unidade de análise 1002(S2104). Após o método de busca de movimento ter sido determinado, umabusca de movimento é realizada no buscador de movimento 2005 (S2105). Obuscador de movimento 2005 calcula uma soma de valor absoluto de erropreditivo e um vetor de movimento e além disso, através de um processosimilar ao executado pelo buscador de movimento 1101 da realização 1,calcula uma soma de valor absoluto de diferença de erro preditivo (S2106).Posteriormente, quando a soma de valor absoluto de erro preditivo é menorque um valor limite Si ou a soma de valor absoluto de diferença de erropreditivo é maior que um valor limite S2, o gerador de pixel de interpolação1102 gera um pixel de interpolação através de um processo similar ao darealização 1 (S2108). Por outro lado, quando o quadro objetivo de codificaçãonão é um quadro de interpolação e a condição em S2107 não é satisfeita, aunidade de quantização inversa/conversão de freqüência inversa 1003 realizaquantização inversa/conversão de freqüência inversa, o resultado é adicionadocom dados a partir da unidade de compensação de movimento 1006 e osdados de soma resultantes são armazenados na unidade de memória deimagem decodificada 1005. Subseqüentemente, usando os dados armazenadosna unidade de memória de imagem decodificada 1005, a unidade decompensação de movimento 1006 realiza compensação de movimento(S2109). Usando a imagem decodificada armazenada na unidade de memóriade imagem decodificada 1005 e o vetor de movimento transmitido a partir daunidade de análise 1002, a unidade de compensação de movimento 1006efetua uma compensação de movimento, gera uma imagem decodificada e aarmazena na unidade de memória de imagem decodificada 1005 (S2111). Aimagem decodificada ou a imagem de interpolação gerada através do métodoacima é emitida para a unidade de saída 1008 (S2111), terminando então oprocesso.
Conforme descrito acima, de acordo com o aparelho e métodode decodificação de vídeo na realização 3, diversas espécies de processos deinterpolação podem ser empregadas adaptivamente, executando o processoutilizando a marcação de decisão de direção de busca de movimento incluídano fluxo de codificação. Adicionalmente, é suficiente executar o processo debusca de movimento no lado de decodificação somente uma vez em relação àsdiversas espécies de processos de interpolação, e portanto, a quantidade deprocessamento pode ser diminuída em grande extensão.
De acordo com o aparelho e método de codificação de vídeo eaparelho e método de decodificação de vídeo da realização 3 descrito atéentão, dados de codificação melhorados na taxa de compressão podem sergerados e os dados de codificação podem ser decodificados adequadamente.
[Realização 4]
A seguir, um aparelho de codificação de vídeo de acordo coma realização 4 da invenção será descrito. O aparelho de codificação de vídeoda realização 4 adiciona ao aparelho de codificação de vídeo da realização 1 aunidade de seleção de modo 1304 da realização 2 e o buscador de movimento302 e unidade de decisão de direção de interpolação 1805 da realização 3. Asaber, o aparelho de codificação de vídeo da realização 4 emite um fluxo decodificação incluindo uma marcação de decisão de modo e uma marcação dedecisão de busca de movimento.
Constituintes individuais e conteúdos de processos individuaissão similares aos descritos em conexão com as realizações 1, 2 e 3 e não serãodescritos aqui.
Um exemplo de dados a serem armazenados na unidade dememória de dados codificados 106 na realização 4 é ilustrado nas Figuras22A e 22B. conforme mostrado nas Figuras 22A e 22B, em cada áreadivisional, uma marcação de decisão de modo para decidir se a área é umaárea de imagem de codificação ou uma área de imagem de interpolação, éadicionada e adicionalmente, na área de imagem de interpolação, umamarcação de decisão de direção de busca de movimento é adicionada, a qualtoma uma decisão quanto ao método de busca de movimento bidirecional,direto ou reverso ser executado.
Desta maneira, o aparelho e método de codificação de vídeopode ser realizado, o qual obtém simplificação de processo e redução daquantidade de processamento durante a decodificação, isto é, os efeitos darealização 2 e tornando a imagem B bem como a imagem P um quadroobjetivo de interpolação para reduzir mais a quantidade de dados e melhorar aqualidade de imagem da imagem B, isto é, os efeitos da realização 3.
A seguir, um aparelho de decodificação de vídeo da realização4 será descrito. A construção do aparelho de decodificação de vídeo darealização 4 é similar ao da realização 3 e não será descrito aqui.
Retornando agora à Figura 23, o fluxo do processo na imagemde área objetiva de decodificação no aparelho da realização 4 será descrito.Primeiramente, o fluxo de codificação é decodificado por meio da unidade dedecodificação de extensão variável 1001 e é então enviado à unidade deanálise 1002 (S2301). Subseqüentemente, na unidade de análise 1002, osdados de fluxo decodificados são classificados na análise e uma marcação dedecisão de modo, uma marcação de decisão de direção de busca demovimento e dados codificados são transmitidos à unidade de quantizaçãoinversa/conversão de freqüência inversa 1003 e unidade de geração deimagem de interpolação 1007 (S2302). Posteriormente, na unidade de análise1002, o quadro objetivo de codificação é decidido, com base no tipo deimagem do quadro objetivo de codificação, quanto a ser um quadro decodificação ou um quadro de interpolação (S2303). Se o quadro objetivo decodificação é um quadro de interpolação, é decidido a respeito de uma áreaobjetiva de decodificação se a marcação de decisão de modo transmitida apartir da unidade de análise 1002 é 1 (indicativa da área objetiva dedecodificação sendo uma imagem de interpolação) ou não (S2304). Com amarcação de decisão de modo sendo 1, o decisor de método de busca demovimento 2001 decide uma direção de busca de movimento para o processode interpolação, com base na marcação de decisão de direção de busca demovimento transmitida a partir da unidade de análise 1002 (S2305), obuscador de movimento 2002, calculador de erro preditivo 2003 e decisor devetor de movimento 2004 determinam busca de movimento, cálculo de erropreditivo e vetor de movimento, respectivamente (S2306) e o gerador de pixelde interpolação 1102 gera um pixel de interpolação, usando o vetor demovimento determinado, gerando então uma imagem de interpolação(S2307).
Por outro lado, quando o quadro objetivo de codificação não éum quadro de interpolação e a condição em S2107 não é satisfeita, a unidadede quantização inversa/conversão de freqüência inversa 1003 realizaquantização inversa/conversão de freqüência inversa, adiciona dados a partirda unidade de compensação de movimento 1006 e armazena os dadosresultantes na unidade de memória de imagem decodificada 1005.Subseqüentemente, usando os dados armazenados na unidade de memória deimagem decodificada 1005, a unidade de compensação de movimento 1006realiza compensação de movimento (S2309). Usando a imagem decodificadaarmazenada na unidade de memória de imagem decodificada 1005 e o vetorde movimento transmitido a partir da unidade de análise 1002, a unidade decompensação de movimento 1006 realiza compensação de movimento, gerauma imagem decodificada e armazena-a na unidade de memória de imagemdecodificada 1005 (S2310). A imagem decodificada ou a imagem deinterpolação gerada através do método acima é emitida para a unidade desaída 1008 (S2311), terminando então o processo.
Conforme descrito acima, de acordo com o aparelho e métodode decodificação de vídeo na realização 4, um aparelho e mensagem de textoeletrônica de decodificação de vídeo pode ser realizado, o qual pode alcançarsimplificação do processo durante a decodificação e reduzir a quantidade deprocessamento, isto é, os efeitos da realização 2 e pode conviver com diversasespécies de processos de interpolação, executando o processo usando amarcação de decisão de direção de busca de movimento incluída no fluxo decodificação, de tal modo que é suficiente executar o processo de busca demovimento apenas uma vez no lado de decodificação, com respeito a diversasespécies de processos de interpolação e portanto, a quantidade deprocessamento pode ser diminuída de uma grande extensão, conformerepresentado pelos efeitos da realização 3.
De acordo com o aparelho e método de codificação de vídeo eaparelho e método de decodificação de vídeo da realização 4 descritos atéentão, dados codificados melhorados na taxa de compressão de dados podemser gerados e os dados codificados podem ser decodificados adequadamente.[Realização 51
A seguir, um aparelho de codificação de vídeo de acordo coma realização 5 da invenção será descrito. O aparelho de codificação de vídeode acordo com a realização 5 é construído similarmente ao aparelho decodificação de vídeo da realização 2, mas enquanto na realização 2 a unidadede seleção de modo 1304 gera uma marcação de decisão de modo em relaçãoa cada bloco de imagem, uma unidade de seleção de modo 1304 na realização5 gera, quando diversos blocos nos quais a área objetiva de decodificação é deuma imagem de interpolação (bloco de modo de imagem de interpolação)estão em sucessão, uma marcação indicativa do número de sucessão dosblocos do modo de imagem de interpolação (marcação do número de bloco desucessão de modo de imagem de interpolação) e emite um fluxo decodificação incluindo uma única marcação de número de bloco de sucessãode modo de imagem de interpolação em relação aos diversos blocos de modode imagem de interpolação sucessivos. Constituintes e conteúdos individuaisde processos individuais no aparelho de codificação de vídeo de acordo coma realização 5, são similares aos descritos em conexão com as realizações 1 e2 e não serão descritos aqui.
Em relação a um bloco no qual a área objetiva dedecodificação corresponde a uma imagem objetiva de codificação, umamarcação de modo excepcional de modo de imagem de interpolaçãoindicando que o bloco é de um modo diferente do modo de imagem deinterpolação, é gerada e emitida. A marcação de modo excepcional de modode imagem de interpolação pode simplesmente indicar um modo diferente domodo de imagem de interpolação, mas alternativamente, pode indicar aespécie per si do modo de codificação (tipo de macro bloco e similar).
Agora, um exemplo de dados na unidade de memória de dadoscodificados 106 no aparelho de codificação de vídeo da realização 5 éilustrado nas Figuras 24A e 24B. Os dados gerados pelo aparelho decodificação de vídeo na realização 2 são ilustrados em (a) na Figura 24B e osdados gerados pelo aparelho de codificação de vídeo na realização 5 sãoilustrados em (b) na Figura 24B.
Nos dados na realização 2 em (a) na Figura 24B há muitasmarcações de decisão de modo sucessivas. Contrário a isto, nos dados narealização 5 em (b) na Figura 24B, somente uma marcação de número debloco de sucessão de modo de imagem de interpolação é inserida em umaporção onde os blocos de modo de imagem de interpolação estão emsucessão. Em (b) na Figura 24B, um número numérico designado por seta emcorrespondência com a marcação de número de bloco de sucessão de modo deimagem de interpolação mostra um exemplo do número de blocos de modo deimagem de interpolação sucessivos indicados pela marcação de número debloco de sucessão de modo de imagem de interpolação. Mais especificamenteno exemplo em (b) na Figura 24B, uma marcação de número de bloco desucessão de modo de imagem de interpolação 2401 indica um númeronumérico "4" que demonstra que quatro blocos a, b, c e d estão em sucessãopara constituir um bloco de modo de imagem de interpolação. Similarmente,uma marcação de número de bloco de sucessão de modo de imagem deinterpolação 2402 indica um número numérico "1" que demonstra que umbloco "e" sozinho constitui um bloco de modo de imagem de interpolação.Novamente de modo similar, uma marcação de número de bloco de sucessãode modo de imagem de interpolação 2403 indicando "5" demonstra que cincoblocos f, g, h, i e j em sucessão constituem um bloco de modo de imagem deinterpolação. Usando a marcação de número de bloco de sucessão de modo deimagem de interpolação desta maneira, dados na realização 5 mostrados em(b) na Figura 24B podem ser reduzidos na quantidade de dados, secomparados aos dados na realização 2 mostrada em (a) na Figura 24B, na quala marcação de decisão de modo é adicionada a cada bloco. Para cada um dosblocos nos quais a área objetiva de decodificação corresponde a uma imagemobjetiva de codificação, a marcação de modo excepcional de modo deimagem de interpolação é inserida.
Conforme descrito acima, de acordo com o aparelho e métodode codificação de vídeo na realização 5, em adição a simplificar o processodurante a decodificação e reduzir a quantidade de processamento, isto é, osefeitos da realização 2, o modo de diversos blocos pode ser indicado por umaúnica marcação, usando a marcação de número de bloco de sucessão de modode imagem de interpolação e a quantidade de dados codificados pode serreduzida.
A seguir, um aparelho de codificação de vídeo de acordo coma realização 5 da invenção será descrito. A construção do aparelho dedecodificação de vídeo de acordo com a realização 5, é similar à do aparelhode decodificação de vídeo da realização 2 e não será descrita aqui. Porém, ofluxo do processo no aparelho de decodificação de vídeo de acordo com arealização 5 da invenção difere daquele do processo mostrado na Figura 15 noaparelho de decodificação de vídeo da realização 2 nos seguintes pontos. Osoutros pontos são similares aos do fluxo mostrado na Figura 15 e não serãodescritos com referência ao desenho. Mais particularmente, quando narealização 2 a marcação de decisão de modo é "1" em S1504 na Figura 15, oprocesso de geração de imagem de interpolação em seguida a S1505 érealizado, porém com a marcação de decisão de modo sendo "0", o processode decodificação de vídeo em seguida a S1507 é realizado.
Contrariamente, na realização 5, é detectada uma marcação emS1504 na Figura 15, de modo a ser decidido quanto a ser uma marcação denúmero de bloco de sucessão de modo de imagem de interpolação ou umamarcação de modo excepcional de modo de imagem de interpolação. Se amarcação detectada é a marcação de número de bloco de sucessão de modo deimagem de interpolação, o processo de geração de imagem de interpolaçãoem seguida a S1505 é realizado em relação a blocos consecutivos do númeroindicado pela marcação de número de bloco de sucessão de modo de imagemde interpolação. Se a marcação é a marcação de modo excepcional de modode imagem de interpolação, o processo de decodificação de vídeo em seguidaa S1507 é realizado em relação a um bloco ao qual a marcação corresponde.
Então, quando a marcação é a marcação de número de bloco de sucessão demodo de imagem de interpolação e indica um valor numérico de 2 ou mais, oprocesso de geração de imagem pode ser determinado para os diversos blocos,através de um processo de decisão.
Desta maneira, no aparelho de decodificação de vídeo deacordo com a realização 5, o processo durante a decodificação pode ser maissimplificado que na realização 2, reduzindo a quantidade de processamento.
De acordo com o aparelho de decodificação de vídeo e métodona realização 5 descrita acima, o processo de geração de imagem pode serdeterminado em relação a diversos blocos, através do processo de decisãoúnico, fazendo correspondência com a marcação de número de bloco desucessão de modo de imagem de interpolação incluída no fluxo decodificação. Vantajosamente, isto pode assegurar que a simplificação doprocesso durante a decodificação e redução na quantidade de processamentopode ser obtida mais extensivamente que aqueles na realização 2.
[Realização 6]
A seguir, um aparelho de codificação de vídeo de acordo coma realização 6 da invenção será descrito. A construção do aparelho decodificação de vídeo de acordo com a realização 6 é similar à do aparelho decodificação de vídeo da realização 4, mas enquanto na realização 4 a unidadede seleção de modo 1304 gera uma marcação de decisão de modo e umamarcação de decisão de direção de busca de movimento em relação a cadabloco de imagem, uma unidade de seleção de modo 1304 na realização 6 gera,como na realização 5, uma marcação de número de bloco de sucessão demodo de imagem de interpolação ou uma marcação de modo excepcional demodo de imagem de interpolação e gera, em relação a uma marcação denúmero de bloco de sucessão de modo de imagem de interpolação, umamarcação de decisão de direção de busca de movimento. Uma descriçãodetalhada da marcação de decisão de direção de busca de movimento é amesma das realizações 3 e 4 e não será apresentada aqui. Também, umadescrição detalhada da marcação de número de bloco de sucessão de modo deimagem de interpolação ou uma marcação de modo excepcional de modo deimagem de interpolação é a mesma da realização 5 e não será apresentadaaqui. Constituintes individuais e conteúdos de processos individuais noaparelho de codificação de vídeo de acordo com a realização 6 são similaresaos descritos em conexão com as realizações 1 a 5 e não serão descritos aqui.
Um exemplo de dados a serem armazenados na unidade dememória de dados codificados 106 do aparelho de codificação de vídeo narealização 6 é ilustrado nas Figuras 25A e 25B. Os dados gerados peloaparelho de codificação de vídeo na realização 4 são ilustrados em (a) naFigura 25B e os dados gerados pelo aparelho de codificação de vídeo narealização 6 são ilustrados em (b) na Figura 25B. Similarmente à ilustraçãoem (b) na Figura 24B, um número numérico designado por seta mostrado em(b) na Figura 25B, em correspondência com a marcação de número de blocode sucessão de modo de imagem de interpolação mostra um exemplo donúmero de blocos de modo de imagem de interpolação sucessivos indicadospela marcação de número de bloco de sucessão de modo de imagem deinterpolação. Mais especificamente no exemplo em (b) na Figura 25B, umamarcação de número de bloco de sucessão de modo de imagem deinterpolação 2401 indica um número numérico "4" que demonstra que quatroblocos a, b, c e d estão em sucessão para constituir um bloco de modo deimagem de interpolação. Isto lembra a realização 5. Na realização 6, amarcação de decisão de direção de busca de movimento é gerada a cadamarcação de número de bloco de sucessão de modo de imagem deinterpolação e, portanto, seguindo o número de bloco de sucessão de modo deimagem de interpolação 2501, uma marcação de decisão de direção de buscade movimento 2502 é inserida. Aqui, para quatro blocos a, b, c e d que sãoindicados como um bloco de modo de imagem de interpolação consecutivopela número de bloco de sucessão de modo de imagem de interpolação 2501,uma imagem de interpolação é gerada através de um método de busca demovimento determinado por uma direção de busca de movimento indicadapor uma marcação de decisão de direção de busca de movimento 2502acompanhando o número de bloco de sucessão de modo de imagem deinterpolação 2501.
No caso de dados na realização 5 mostrada em (b) na Figura25B, usando a marcação de número de bloco de sucessão de modo de imagemde interpolação desta maneira, a marcação de decisão de direção de busca demovimento é inserida nos dados de codificação com respeito a cada númerode bloco de sucessão de modo de imagem de interpolação. Neste caso, aquantidade de dados pode ser mais reduzida que nos dados na realização 4mostrada em (a) na Figura 25B, na qual a marcação de decisão de modo e amarcação de decisão de direção de busca de movimento são adicionadas acada bloco. A realização 6 é similar à realização 5, em que a marcação demodo excepcional de modo de imagem de interpolação é inserida pararespectivos blocos nos quais a área objetiva de decodificação corresponde auma imagem codificada.
De acordo com o aparelho de codificação de vídeo e métodona realização 6 conforme descrito acima, em adição a simplificar o processo ereduzir a quantidade de processamento durante a decodificação, e além dissoreduzir mais a quantidade de dados tornando a imagem P, em adição àimagem B, um quadro objetivo de interpolação e melhorando a qualidade deimagem da imagem B, isto é, os efeitos da realização 4, a direção de busca demodo e movimento de vários blocos pode ser indicada por uma únicamarcação, usando o número de bloco de sucessão de modo de imagem deinterpolação e a quantidade de dados de codificação pode ser reduzida.
A seguir, um aparelho de decodificação de vídeo de acordocom a realização 6 da invenção será descrito. A construção do aparelho dedecodificação de vídeo de acordo com a realização 6 da invenção é similar àdo aparelho de decodificação de vídeo da realização 4, e não será descritaaqui. Porém, o fluxo do processo no aparelho de decodificação de vídeo deacordo com a realização 6 da invenção difere daquele do processo no aparelhode decodificação de vídeo da realização 4 mostrado na Figura 23 nosseguintes pontos. Os outros pontos são similares aos do fluxo mostrado naFigura 23 e não serão descritos com referência ao desenho. Maisparticularmente, quando na realização 4 a marcação de decisão de modo é "1"em S2304 na Figura 23, o processo de geração de imagem de interpolação emseguida a S2305 é realizado e naquele instante, em S2305, um método édeterminado para cada bloco, com base em uma marcação de decisão dedireção de busca de movimento e uma busca de movimento em S2306 érealizado. Porém, com a marcação de decisão de modo sendo "0" em S2304 oprocesso de decodificação de vídeo em seguida a S2308 é realizado.
Contrariamente, na realização 6, é detectada uma marcação emS2304 na Figura 23, de modo a ser decidido quanto a ser uma marcação denúmero de bloco de sucessão de modo de imagem de interpolação ou umamarcação de modo excepcional de modo de imagem de interpolação. Se amarcação detectada é a marcação de número de bloco de sucessão de modo deimagem de interpolação, o processo de geração de imagem de interpolaçãoem seguida a S2305 é realizado em relação a blocos consecutivos do númeroindicado pela marcação de número de bloco de sucessão de modo de imagemde interpolação. Naquele instante, em S2305, com base em uma marcação dedecisão de direção de busca de movimento acompanhando a marcação denúmero de bloco de sucessão de modo de imagem de interpolação, o métodode busca de movimento na geração de imagem de interpolação para osdiversos blocos consecutivos é determinado. Em S2306, a busca demovimento é conduzida através do método de busca de movimentodeterminado para os diversos blocos consecutivos. Em S2307, é gerada umaimagem de interpolação com base no resultado da busca. Se, em S2304, amarcação é a marcação de modo excepcional de modo de imagem deinterpolação, o processo de decodificação de vídeo em seguida a S1507 érealizado em relação a um bloco ao qual a marcação corresponde.
No fluxo acima, enquanto convive com diversas espécies deprocessos de interpolação através do processo usando a marcação de decisãode direção de busca de movimento, o processo de geração de imagem podeser determinado para os diversos blocos, através do processo de decisãoúnico, quando a marcação é a marcação de número de bloco de sucessão demodo de imagem de interpolação e indica um número numérico de 2 ou mais.
O aparelho de decodificação de vídeo de acordo com arealização 6 pode simplificar mais o processo e reduzir a quantidade deprocessamento durante a decodificação do que na realização 4, em adição aconviver com várias espécies de processos de interpolação, isto é, o efeito darealização 4.
De acordo com o aparelho de decodificação de vídeo e métodona realização 6 descrita acima, diversos processos de geração de imagempodem ser determinados em relação a diversos blocos, através de um únicoprocesso de decisão, convivendo com várias espécies de processos deinterpolação e com a marcação de número de bloco de sucessão de modo deimagem de interpolação incluída no fluxo de codificação. Vantajosamente,isto pode assegurar que a simplificação do processo e redução na quantidadede processamento durante a decodificação pode ser obtida maisextensivamente do que na realização 4.
Será verificado que uma realização pode ser trabalhadamodificando os métodos de geração de imagem de interpolação nasrealizações individuais precedentes, na primeira e terceira modificações,conforme abaixo.
A primeira modificação será descrita fazendo referência àFigura 26. Um método de geração de imagem de interpolação é ilustrado naFigura 26 na primeira modificação. Na primeira modificação, o quadroobjetivo de codificação/decodificação é um única imagem B existente entrequadros de referência. Na Figura 26, fn representa um quadro objetivo decodificação/decodificação, fn.i um quadro de referência terminado comcodificação/decodificação, que precede na ordem de visualização e estáposicionado mais próximo ao quadro objetivo de codificação/decodificação, efn+i representa um quadro de referência terminado comcodificação/decodificação que sucede na ordem de visualização e estáposicionado mais próximo ao quadro objetivo de codificação/decodificação.
Na primeira modificação, buscar um vetor de movimento MV(u,v) e calcular um valor de pixel de interpolação fn(x,y) são materializadosatravés dos métodos a seguir.
A busca de movimento na primeira modificação é realizada emuma unidade de bloco. Por exemplo, a busca de movimento é iniciada a partirda extremidade esquerda acima no quadro fn.i e a partir da extremidadeabaixo à direita no quadro fn+i de modo a efetuar uma busca de modosimétrico esquerda/direita e acima/abaixo. Um total de somas de erro absoluto(SAD) dos dois blocos é calculado, e uma combinação de blocos para os quaisa SAD é mínima e o MY é também mínimo. Aqui, a busca de movimento érealizada, por exemplo, em um plano de precisão de 1/4 pixel. No plano deprecisão de 1/4 pixel, o tamanho de bloco para busca de movimento éajustado para 64x64 pixéis e pulando 4 pixéis, 16 pixéis são usados comopontos de amostragem. A faixa de busca de movimento é referenciada aocentro do bloco objetivo de codificação.Para cálculo de um valor de pixel de interpolação fn(x, y)dentro do quadro objetivo de codificação/decodificação na primeiramodificação, um vetor de movimento MV(u,v) entre o quadro fn_i e o quadrofn+1 é usado e o cálculo é executado conforme equação (6).
<formula>formula see original document page 50</formula>
Na equação (6), o fn(x,y) é calculado em termos de um valormédio de pixéis nos quadros de referência fn_i e fn+1 representando os pontosde início e fim de MV(u,v), respectivamente. A razão para isto é que aprimeira modificação no quadro objetivo de codificação/decodificação é umaúnica imagem B posicionada centralmente dos diversos quadros de referênciae é temporalmente eqüidistante dos dois quadros de referência. Se há umapolarização entre as distâncias temporais de ambos quadros de referência, ocoeficiente 1/2 pelo qual u e ν são multiplicados na equação (6) pode sermodificado de acordo com a polarização. Neste caso, quanto menor adistância temporal para o quadro de referência, mais o coeficiente se tornapequeno. Em tal instância, os valores de pixel em quadros de referênciaindividuais fn.i e fn+i podem ser multiplicados por coeficientes conformes apolarizações de distância temporal respectivas. Então, quanto mais próximo adistância temporal do quadro de referência, maior se torna o coeficiente.
O vetor de movimento MV(u,v) e o valor de pixel deinterpolação fn(x, y) na primeira modificação, podem ser obtidos através dométodo de busca e método de cálculo descritos conforme acima,respectivamente.
A seguir, uma segunda modificação será descrita comreferência às Figuras 27A, 27B e 27C. Na segunda modificação, o quadroobjetivo de codificação/decodificação é qualquer de duas imagens Bexistentes entre quadros de referência. Neste caso, a busca de movimento érealizada somente uma vez para as duas imagens B existentes. Na Figura 27A,fn representa um primeiro quadro objetivo de codificação/decodificação, fn+irepresenta um segundo quadro objetivo de codificação/decodifícação, fn_irepresenta um quadro de referência terminado com codificação/decodifícação,que precede o quadro objetivo de codificação/decodifícação na ordem devisualização e é posicionado mais próximo a este, fn+2 representa um quadrode referência terminado com codificação/decodifícação que sucede o quadroobjetivo de codificação/decodifícação e é posicionado mais próximo a este, efc representa uma imagem central virtual.
Na segunda modificação, buscar um vetor de movimentoMV(u,v) e calcular um valor de pixel de interpolação fn(x, y) do primeiroquadro objetivo de codificação/decodifícação e um valor de pixel deinterpolação fn+i(x, y) do segundo quadro objetivo decodificação/decodifícação são materializados através dos métodos a seguir.
Primeiramente, para a busca de movimento na segundamodificação, o centro da faixa de busca de movimento é definido de modo aser centrado em uma posição de bloco objetivo de codificação/decodifícação(x,y) da imagem central virtual fc. Os detalhes restantes de cálculo do vetor demovimento MV(u,v) são similares aos da primeira modificação e não serãodescritos aqui.
Um valor de pixel de interpolação fn(x, y) do primeiro quadroobjetivo de codificação/decodifícação e um valor de pixel de interpolaçãofn+i(x> y) do segundo quadro objetivo de codificação/decodifícação podem sercalculados usando o vetor de movimento MV(u,v) entre os quadros fn_i e fn+2 apartir das equações (7) e (8), respectivamente.
<formula>formula see original document page 51</formula>
O método de cálculo correspondente à equação (7) serádescrito com referência à Figura 27B. Em um exemplo da Figura 27B, ailustração na Figura 27A é mostrada de forma plana. No exemplo, o cálculode um valor de pixel na posição (x, y) do primeiro quadro objetivo decodificação/decodificação fn é realizada através de busca de movimentoreferenciada à posição (x, y) da imagem central virtual. No exemplo na Figura27B, o primeiro quadro objetivo de codificação/decodificação fn está distantedo quadro de referência fn_! de 1/3 da distância temporal entre o quadro dereferência fn.i e o quadro de referência fn+2 e está distante do quadro dereferência fn+2 de 2/3 desta. Conseqüentemente, na equação (7), o valor depixel do primeiro quadro objetivo de codificação/decodificação fn é calculadoreferenciando a posição (x, y) do primeiro quadro objetivo decodificação/decodificação fn e multiplicando, por coeficientes de pesoconformes às distâncias temporais para os quadros de referência individuais,respectivamente, um valor de pixel de pixel no quadro de referência fn.1}indicado usando 1/3 MV resultante da multiplicação do vetor de movimentoMV por 1/3, e um valor de pixel do pixel no quadro de referência fn+2indicado usando 2/3W resultante da multiplicação do vetor de movimentoMV por 2/3 e somando os valores de produto resultantes. Aqui, como adistância temporal para o quadro de referência torna-se mais curta, ocoeficiente de peso pode tornar-se maior proporcionalmente e, no exemplo daFigura 27B, o valor de pixel do pixel no quadro de referência fn.i émultiplicado por 2/3 e o valor de pixel do pixel no quadro de referência f„+i émultiplicado por 1/3.
O método de cálculo correspondente à equação (8) serádescrito com referência à Figura 27C. O método de cálculo correspondente àequação (8) é similar ao pertencente à equação (7) em que o vetor demovimento MV(u,v) é usado, a posição (x, y) do segundo quadro objetivo decodificação/decodificação fn+1 é referenciada, um pixel no quadro dereferência é selecionado usando um vetor de movimento resultante damultiplicação do vetor de movimento MV(u,v) por um coeficiente de acordocom a distância temporal a partir do quadro objetivo decodificação/decodificação para o quadro de referência, e que os valores depixel selecionados são multiplicados por coeficientes de peso conformes àsdistâncias temporais para o quadro de referência e adicionados. Figura 27Cdifere da Figura 27B somente em que a relação da distância temporal doquadro objetivo de codificação/decodificação para os respectivos quadros dereferência difere, e o coeficiente pelo qual o vetor de movimento MV(u,v) émultiplicado é diferente, e assim uma descrição detalhada será omitida.
Quando, mesmo no caso de duas imagens B existentes entre osquadros de referência como no caso da segunda modificação, a posiçãotemporal das imagens B individuais não é posicionada a 1/3 eqüidistante dosquadros de referência respectivos, o coeficiente pode ser mudado de acordocom a distância temporal para o quadro de referência.
O método anteriormente mencionado para buscar o vetor demovimento MV(u,v) e o método para cálculo do valor de pixel deinterpolação fn(x, y) do primeiro quadro objetivo decodificação/decodificação e o valor de pixel de interpolação fn+i(x, y) dosegundo quadro objetivo de codificação/decodificação são empregados nasegunda modificação.
A saber, de acordo com a segunda modificação, valores depixel de interpolação podem ser calculados através de uma busca demovimento com respeito aos pixéis individuais na mesma posição dos doisquadros objetivos de codificação/decodificação, respectivamente, que estãoposicionados entre os quadros de referência.
A seguir, uma terceira modificação será descrita comreferência à Figura 28. Na terceira modificação, a primeira e segundamodificações são generalizadas, indicando uma instância onde m folhas de Bimagens existem entre dois quadros de referência. Na Figura 28, m B imagensde fi (primeira imagem B) até fm (m-ésima imagem B) são inseridas entrequadros de referência fA e fB. Aqui, fc representa uma imagem central virtualque provê a referência como no caso da segunda modificação, ao calcular umvetor de movimento MV(u,v).
Na terceira modificação, quando uma k-ésima imagem B fkmostrada na Figura 28 é um quadro objetivo de codificação/decodificação,um valor de pixel de interpolação fk(x, y) pode ser calculado a partir daequação (9).
<formula>formula see original document page 54</formula>
O método de cálculo pertencente à equação (9) é tambémsimilar a aquele pertencente a equação (7) ou (8) em que o vetor demovimento MV(u,v) é usado, a posição (x, y) do quadro objetivo decodificação/decodificação fk é referenciada, um pixel do quadro de referênciaé selecionado usando um vetor de movimento resultante da multiplicação dovetor de movimento MV(u,v) por um coeficiente, de acordo com a distânciatemporal do quadro objetivo de codificação/decodificação para o quadro dereferência e o valor de pixel selecionado é multiplicado por coeficientes depeso conformes às distâncias . temporais para os quadros de referência eadicionados juntos.
O método para calcular o valor de pixel de interpolação fk(x, y)dos quadros objetivos de codificação/decodificação conforme acima, éempregado na terceira modificação.
A saber, de acordo com a terceira modificação, um valor depixel de interpolação pode ser calculado através de uma busca de movimentoem relação a pixéis individuais na mesma posição em m quadros objetivos decodificação/decodificação posicionados entre os quadros de referência.
Em qualquer quadro de imagem de interpolação, área deimagem de interpolação, modo de imagem de interpolação e bloco de modode imagem de interpolação descrito em conexão com as realizaçõesprecedentes, uma imagem de interpolação é gerada através do processo deinterpolação, com base na predição de movimento entre as imagens dereferência e portanto, estes podem ser expressos como um quadro preditivo deimagem inter-referência, uma área preditiva de movimento de imagem inter-referência, um modo preditivo de movimento de imagem inter-referência eum bloco de modo preditivo de movimento de imagem inter-referência,respectivamente.
A técnica de codificação/decodificação de vídeo usando aimagem de interpolação, a saber, técnica de codificação/decodificação deimagem baseada na predição de movimento de imagem inter-referênciadescrita em conexão com as realizações precedentes, é vantajosa em relação àtécnica convencional, como será descrito abaixo.
Mais particularmente, na predição de compensação demovimento bidirecional no H.264/AVC, o modo saltado e o modo direto parageração preditiva de informação de movimento a partir de informação demovimento de um bloco codificado, é adotada. O modo saltado e o mododireto não necessitam transmissão de informação de movimento e portanto,esta é uma técnica efetiva para reduzir a quantidade de codificação. No modosaltado e no modo direto, entretanto, a precisão da predição da informação demovimento por vezes será degradada. Por exemplo, no modo de tempo diretoutilizando a correlação de informação de movimento na direção do tempo, umvetor de movimento de um bloco (bloco âncora) na mesma posição de umbloco objetivo de codificação dentro de uma imagem de referência sucedendoimediatamente uma imagem objetiva de codificação no sentido devisualização e no caso de uma imagem na qual o bloco âncora é codificadodentro da tela, nenhuma informação de movimento pode ser adquirida,degradando então a precisão de predição. Também, no modo de espaço diretoutilizando a correlação de informação de movimento na direção espacial, novetor de movimento de um bloco periférico de um bloco objetivo decodificação, e no caso de imagens nas quais blocos periféricos individuais semovem diferentemente, a correlação espacial da informação de movimentodiminui, degradando então a precisão de predição.
Contrário a isto, na técnica de codificação/decodificação deimagem usando a imagem de interpolação descrita em conexão com asrealizações individuais precedentes, técnica de codificação/decodificação deimagem com base já predição de movimento de imagem inter referência, umbloco possuindo uma alta correlação com uma imagem de referência direta euma imagem de referência reversa, é detectada e seu vetor de movimentodetectado é usado. Conseqüentemente, mesmo em uma imagem sujeita a serdegradada na precisão preditiva no modo de salto e modo direto, isto é, emuma imagem na qual o bloco objetivo de codificação é uma imagem móvel eo bloco âncora é de uma imagem codificada dentro da tela, a degradação naprecisão de predição pode ser suprimida.
Também, de modo similar, na técnica decodificação/decodificação usando uma imagem de interpolação usada emconexão com as realizações precedentes, um vetor de movimento é previstosem usar um vetor de movimento de um bloco periférico de um blocoobjetivo de codificação. Portanto, mesmo em uma imagem sujeita a serdegradada na precisão de predição no modo saltado e modo diretóo, isto é,uma imagem cujos blocos periféricos se movem diferentemente, a degradaçãona precisão de predição pode ser suprimida.
Em outras palavras, na técnica de codificação/decodificação devídeo de acordo com as realizações individuais da presente invenção,melhoramentos na taxa de compressão de dados podem ser realizados maispreferencialmente que no modo saltado convencional e modo direto.
Deveria ser adicionalmente entendido por aqueles especialistasna técnica que, embora a descrição precedente tenha sido feita sobrerealizações da invenção, a invenção não está limitada a isto e várias mudançase modificações podem ser feitas sem se afastar do espírito da invenção eescopo das reivindicações anexas.

Claims (20)

1. Método para decodificar vídeos, caracterizado pelo fato decompreender as etapas de:buscar, (S1204), com respeito a uma área objetiva dedecodificação de um quadro objetivo de decodificação, um movimentousando imagens de diversos quadros terminados com decodificação; edecidir (S1206) com base no resultado da citada busca demovimento, se uma imagem da citada área objetiva de decodificação deve sergerada através de um processo de interpolação ou uma imagem decodificadadeve ser gerada através de compensação de movimento, usando dadosincluídos em um fluxo de codificação.
2. Método para decodificar vídeos de acordo com areivindicação 1, caracterizado pelo fato de compreender adicionalmente aetapa de:quando, na citada etapa de decisão (SI206), uma imagemdecodificada é assim determinada de modo a ser gerada executandocompensação de movimento (SI209) para uma imagem da citada áreaobjetiva de decodificação, através do uso de dados incluídos no fluxo decodificação, gerar a imagem decodificada mudando um método para cálculodo vetor preditivo e executando uma compensação de movimento,dependendo das diversas áreas de imagens individuais adjacentes a uma áreaobjetiva de decodificação do citado quadro objetivo de decodificação, sãoáreas que foram processadas como áreas objetivas de codificação durante acodificação, ou áreas que foram processadas como áreas de imagem deinterpolação durante a codificação.
3. Método para decodificar vídeos de acordo com areivindicação 1, caracterizado pelo fato de compreender adicionalmente aetapa de:quando, na citada etapa de decisão (SI206), uma imagem dacita área objetiva de decodificação é determinada de modo a ser gerada comouma imagem decodificada através de compensação de movimento (SI209)usando dados incluídos no fluxo de codificação e qualquer dentre diversasáreas de imagens individuais adjacentes a uma área objetiva de decodificaçãodo citado quadro objetivo de decodificação, são áreas que foram processadascomo áreas de imagem de interpolação durante a codificação, gerando umaimagem decodificada (S1210) calculando um vetor preditivo com base em umvetor de movimento usado em um processo de interpolação durante adecodificação das citadas diversas áreas de imagens adjacentes, e efetuandouma compensação de movimento através do uso do citado vetor preditivo.
4. Método para decodificar vídeos de acordo com areivindicação 1, caracterizado pelo fato de compreender adicionalmente aetapa de:quando, na citada etapa de decisão (SI206), uma imagem dacitada área objetiva de decodificação é determinada de modo a ser geradacomo uma imagem decodificada através de compensação de movimento(S1209) usando dados incluídos no fluxo de codificação e qualquer dentrediversas áreas de imagens individuais adjacentes a uma área objetiva dedecodificação do citado quadro objetivo de decodificação, são áreas queforam processadas como áreas de imagem de interpolação durante acodificação, gerando uma imagem decodificada (S1210) calculando como umvetor preditivo um vetor mediano de vetores de movimento usados noprocesso de interpolação, durante a decodificação das citadas diversas áreasde imagens adjacentes, e efetuando uma compensação de movimento atravésdo uso do citado vetor preditivo.
5. Método para decodificar vídeos de acordo com areivindicação 1, caracterizado pelo fato de compreender adicionalmente aetapa de:quando, na citada etapa de decisão (SI206), uma imagem dacitada área objetiva de decodificação é determinada de modo a ser geradacomo uma imagem decodificada através de compensação de movimentousando dados incluídos no fluxo de codificação, parte de diversas áreas deimagens adjacentes a uma área objetiva de decodificação do citado quadroobjetivo de decodificação, são áreas que foram processadas como áreas deimagem objetivas de codificação durante a codificação no restante das citadasdiversas áreas de imagens adjacentes, são áreas que foram processadas comoáreas de imagem de interpolação durante a codificação, gerando uma imagemdecodificada (S1210) calculando um vetor preditivo com base em um vetor demovimento usado na compensação de movimento (SI206) durante adecodificação na área que foi processada como a área de imagem objetiva decodificação e um vetor de movimento usado no processo de interpolação,durante decodificação na área que foi processada como a área de imagem deinterpolação, durante a codificação, e executando uma compensação demovimento através do uso do citado vetor preditivo.
6. Método para decodificar vídeos de acordo com areivindicação 1, caracterizado pelo fato de compreender adicionalmente aetapa de:quando, na citada etapa de decisão (SI206), uma imagem dacitada área objetiva de decodificação é determinada de modo a ser geradacomo uma imagem decodificada através de compensação de movimento(S1210) usando dados incluídos no fluxo de codificação, parte de diversasáreas de imagens adjacentes a uma área objetiva de decodificação do citadoquadro objetivo de decodificação, são áreas que foram processadas comoáreas de imagem objetivas de codificação durante a codificação, e o restantedas citadas diversas áreas de imagens adjacentes são áreas que foramprocessadas como áreas de imagem de interpolação durante a codificação,gerando uma imagem decodificada (S1210) calculando como um vetorpreditivo um vetor mediano de vetores de movimento usados na compensaçãode movimento durante a decodificação, na área que foi processada como aárea de imagem objetiva de codificação e um vetor de movimento usado noprocesso de interpolação durante a decodificação, na área que foi processadacomo a área de imagem de interpolação, durante a codificação e efetuandouma compensação de movimento através do uso do citado vetor preditivo.
7. Método para decodificar vídeos de acordo com areivindicação 1, caracterizado pelo fato de compreender adicionalmente aetapa de:quando, na citada etapa de decisão (SI206), uma imagem dacitada área objetiva de decodificação é determinada de modo a ser geradaatravés de um processo de interpolação, gerar uma imagem de interpolação(SI207) da citada área objetiva de decodificação calculando um valor de pixelna imagem da citada área objetiva de decodificação através do uso de valoresde pixel em imagens dos diversos quadros terminados com decodificação, queforam usados na citada etapa de busca de movimento.
8. Método para decodificar vídeos de acordo com areivindicação 1, caracterizado pelo fato de que, na citada etapa de busca demovimento (SI505), as diferenças em valores absolutos de valores de pixelsão calculadas entre um pixel objetivo incluído na citada área objetiva dedecodificação e cada um de diversos pixéis posicionados em imagens dediversos quadros decodificados, citados diversos pixéis sendo posicionados namesma linha reta em um quadro de espaço e tempo como citado pixelobjetivo, uma soma de diferença absoluta dos citados valores de pixel écalculada em relação ao citado pixel incluído na citada área objetiva dedecodificação, e um vetor de movimento para o qual a soma de diferençaabsoluta é minimizada e citada soma de valor absoluto mínimo, são obtidoscomo o resultado da busca de vetor de movimento, e onde, na citada etapa dedecisão (SI505), citada soma de valor absoluto mínimo é comparada a umvalor pré-determinado, para decidir se a imagem da citada área objetiva dedecodificação deve ser gerada através de um processo de interpolação ou não.
9. Método para decodificar vídeos de acordo com areivindicação 1, caracterizado pelo fato de que, na citada etapa de busca demovimento (SI505), as diferenças em valores de pixel são calculadas entreum pixel objetivo incluído na citada área objetiva de decodificação e cada umde diversos pixéis posicionados em diversas imagens terminadas comodecodificação, citados diversos pixéis sendo posicionados na mesma linhareta em um quadro de espaço e tempo como citado pixel objetivo, uma somade diferença absoluta dos citados valores de pixel é calculada em relação aocitado pixel incluído na citada área objetiva de decodificação, e um vetor demovimento para o qual citada soma de diferença absoluta é minimizada édeterminado, uma diferença entre citada soma de valor absoluto mínimo euma soma de valor absoluto de valores de pixel de áreas periféricas da citadaárea objetiva de decodificação é calculada, e citado vetor de movimento,citada soma de valor absoluto mínimo e a diferença na soma de valor absolutodas áreas periféricas da citada área objetiva de decodificação são obtidoscomo o resultado da busca de vetor de movimento e onde, na citada etapa dedecisão (S1504), a soma de valor absoluto da diferença entre citada soma devalor absoluto mínimo e a soma de valor absoluto das áreas periféricas dacitada área objetiva de decodificação é comparada com um valor pre-determinado, para decidir se uma imagem da citada área objetiva dedecodificação deve ser gerada através do processo de interpolação ou não.
10. Método para decodificar vídeos de acordo com areivindicação 1, caracterizado pelo fato de que, na citada etapa de busca demovimento (SI505), uma direção no tempo da busca de movimento édeterminada com base em uma marcação de decisão de direção de busca demovimento incluída no fluxo de codificação.
11. Método para decodificar vídeos, caracterizado pelo fato decompreender as etapas de:decidir (SI504), com base em uma marcação de decisão demodo incluída em um fluxo de codificação, se uma imagem de uma áreaobjetiva de decodificação deve ser gerada através de um processo deinterpolação, usando uma imagem terminada com decodificação ou através deum processo de compensação de movimento usando dados incluídos no fluxode decodificação; egerar um imagem decodificada (S1210) por comutação, deacordo com o resultado da decisão na citada etapa de decisão (SI504), a partirde um processo de interpolação usando uma imagem terminada comdecodificação para um processo de compensação de movimento usando dadosincluídos no fluxo de codificação e vice-versa.
12. Método para decodificar vídeos de acordo com areivindicação 11, caracterizado pelo fato de que, quando, na citada etapa dedecisão (S1206), uma imagem decodificada da citada área objetiva dedecodificação é determinada para ser gerada através de compensação demovimento usando os dados incluídos no fluxo de codificação, a imagemdecodificada é gerada modificando, na citada etapa de geração de imagem,um método para cálculo de um vetor preditivo, dependendo das diversas áreasde imagens individuais adjacentes a uma área objetiva de decodificação docitado quadro objetivo de decodificação são áreas que foram processadascomo área de imagem de codificação durante a codificação, ou foramprocessadas como áreas de imagem de interpolação durante a codificação, eefetuando uma compensação de movimento.
13. Método de decodificação de vídeo de acordo com areivindicação 11, caracterizado pelo fato de que quando, na citada etapa dedecisão (SI206), uma imagem decodificada da citada área objetiva dedecodificação é determinada para ser gerada através de compensação demovimento usando os dados incluídos no fluxo de codificação, e diversasáreas de imagem individuais adjacentes a uma área objetiva de decodificaçãodo citado quadro objetivo de decodificação são áreas que foram processadascomo áreas de imagem de interpolação durante codificação, a imagemdecodificada é gerada (S1210) na citada etapa de geração de imagem,calculando um vetor preditivo com base nos vetores de movimento usados emum processo de interpolação, durante a decodificação das citadas diversasáreas de imagem adjacentes, e efetuando uma compensação de movimentousando citado vetor preditivo.
14. Método para decodificar vídeos de acordo com areivindicação 11, caracterizado pelo fato de que, quando, na citada etapa dedecisão (SI206), uma imagem decodificada da citada área objetiva dedecodificação é determinada para ser gerada através de compensação demovimento usando os dados incluídos no fluxo de codificação, parte dascitadas diversas áreas de imagem adjacentes a uma área objetiva dedecodificação do citado quadro objetivo de decodificação são áreas que foramprocessadas como áreas de imagem objetivas de codificação durante acodificação, e o restante das diversas áreas de imagens adjacentes são áreasque foram processadas como áreas de imagem de interpolação durante acodificação, a imagem decodificada é gerada (S1210), na citada etapa degeração de imagem, calculando um vetor preditivo com base em um vetor demovimento usado na compensação de movimento, durante a decodificação naárea que foi processada como a área de imagem objetiva de codificação, e umvetor de movimento usado no processo de interpolação durante adecodificação na área que foi processada como a área de imagem deinterpolação durante a codificação, e efetuando uma compensação demovimento através do uso do citado vetor preditivo.
15. Método para decodificar vídeos de acordo com areivindicação 11, caracterizado pelo fato de que, quando, na citada etapa dedecisão (SI206), uma imagem da citada área objetiva de decodificação édeterminada para ser gerada através de um processo de interpolação usandouma imagem terminada com decodificação, um método de busca demovimento é determinado, a imagem de interpolação é gerada determinandoum método de busca de movimento na base de uma marcação de decisão demétodo de busca de movimento incluída no fluxo de codificação, efetuandouma busca de movimento usando imagens de diversos quadros terminadoscom decodificação com base no método de busca de movimento determinado,e calculando um valor de pixel do pixel objetivo de interpolação, com basenos valores de pixel de pixéis nos citados diversos quadros terminados comdecodificação, que foram indicados pelo vetor de movimento determinadopela busca de movimento.
16. Método para decodificar vídeos usando um fluxo decodificação, incluindo uma primeira marcação indicativa do número de blocosde imagem consecutivos a serem gerados através de um processo deinterpolação usando imagens terminadas com decodificação em uma áreaobjetiva de decodificação e uma segunda marcação indicando que umaimagem decodificada deve ser gerada (SI206) em relação a um bloco deimagem da área objetiva de decodificação através de um processo decompensação de movimento usando dados incluídos no fluxo de codificação,caracterizado pelo fato de compreender as etapas de:detectar uma marcação a partir do citado fluxo de codificaçãopara decidir a marcação detectada quanto a ser a primeira marcação ou asegunda marcação; egerar uma imagem decodificada (SI206) por comutação, deacordo com o resultado da decisão na citada etapa de decisão, um processo deinterpolação usando uma imagem terminada com decodificação e aplicado adiversos blocos de imagem correspondentes à primeira marcação para umprocesso de compensação de movimento usando dados incluídos no fluxo dedecodificação e aplicados a um bloco de imagem correspondente à segundamarcação.
17. Método para decodificar vídeos de acordo com areivindicação 1, caracterizado pelo fato de que, quando uma única imagem Bé posicionada entre diversos quadros terminados com decodificação e citadaimagem B é o quadro objetivo de decodificação e uma imagem da citada áreaobjetiva de decodificação é assim determinada, na citada etapa de decisão(SI206), como para ser gerada através de processo de interpolação, uma etapade geração de imagem de interpolação é provida, na qual um valor médio devários valores de pixel em imagens dos citados diversos quadros terminadoscom decodificação, que foram usados na citada etapa de busca de movimento,ou um valor obtido multiplicando cada um dos diversos valores de pixel porum coeficiente correspondente a uma distância do citado quadro objetivo dedecodificação para cada um dos citados diversos quadros terminados comdecodificação, é usado para calcular um valor de pixel na imagem da citadaárea objetiva de decodificação para gerar deste modo uma imagem deinterpolação da citada área objetiva de decodificação.
18. Método para decodificar vídeos de acordo com areivindicação 1, caracterizado pelo fato de que, quando uma imagem B estáposicionada entre diversos quadros terminados com decodificação e uma dascitadas m imagens B é o quadro objetivo de decodificação e uma imagem dacitada área objetiva de decodificação é assim determinada, na citada etapa dedecisão (SI206), como para ser gerada através de um processo deinterpolação, uma etapa de geração de imagem de interpolação é provida, naqual um valor obtido multiplicando cada um dos diversos valores de pixel noscitados diversos quadros terminados com decodificação, que foram usados nacitada etapa de busca de movimento, por um coeficiente correspondente auma distância do citado quadro objetivo de decodificação para cada um doscitados diversos quadros terminados com decodificação, é usado para calcularum valor de pixel na imagem da citada área objetiva de decodificação paragerar deste modo uma imagem de interpolação da citada área objetiva dedecodificação.
19. Método para decodificar vídeos de acordo com areivindicação 11, caracterizado pelo fato de que, quando uma única imagem Bé posicionada entre diversos quadros terminados com decodificação e citadaimagem B é o quadro objetivo de decodificação e uma imagem da citada áreaobjetiva de decodificação é assim determinada, na citada etapa de decisão(SI206), como para ser gerada através de processo de interpolação, uma etapade geração de imagem de interpolação é provida, na qual um valor médio devários valores de pixel em imagens dos citados diversos quadros terminadoscom decodificação, que foram usados na citada etapa de busca de movimento,ou um valor obtido multiplicando cada um dos diversos valores de pixel porum coeficiente correspondente a uma distância do citado quadro objetivo dedecodificação para cada um dos citados diversos quadros terminados comdecodificação, é usado para calcular um valor de pixel na imagem da citadaárea objetiva de decodificação para gerar deste modo uma imagem deinterpolação da citada área objetiva de decodificação.
20. Método para decodificar vídeos de acordo com areivindicação 11, caracterizado pelo fato de que, quando m imagens B sãoposicionadas entre diversos quadros terminados com decodificação e uma dascitadas m imagens B é citado quadro objetivo de decodificação e uma imagemda citada área objetiva de decodificação é assim determinada, na citada etapade decisão (SI206), como para ser gerada através de um processo deinterpolação, uma etapa de geração de imagem de interpolação (SI506) éprovida, na qual um valor obtido multiplicando cada um dos diversos valoresde pixel nos citados diversos quadros terminados com decodificação, queforam usados na citada etapa de busca de movimento, por um coeficientecorrespondente a uma distância do citado quadro objetivo de decodificaçãopara cada um dos citados diversos quadros terminados com decodificação, éusado para calcular um valor de pixel na imagem da citada área objetiva dedecodificação para gerar deste modo uma imagem de interpolação da citadaárea objetiva de decodificação.
BRPI0904534-1A 2008-11-26 2009-11-25 método para decodificar vìdeos BRPI0904534A2 (pt)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008300342 2008-11-26
JP2009089678A JP5325638B2 (ja) 2008-11-26 2009-04-02 画像復号化方法

Publications (1)

Publication Number Publication Date
BRPI0904534A2 true BRPI0904534A2 (pt) 2011-02-08

Family

ID=41820402

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI0904534-1A BRPI0904534A2 (pt) 2008-11-26 2009-11-25 método para decodificar vìdeos

Country Status (5)

Country Link
US (1) US8798153B2 (pt)
EP (2) EP2466893A1 (pt)
JP (1) JP5325638B2 (pt)
CN (1) CN101742331B (pt)
BR (1) BRPI0904534A2 (pt)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4518111B2 (ja) * 2007-07-13 2010-08-04 ソニー株式会社 映像処理装置、映像処理方法、及びプログラム
EP3913923A1 (en) * 2010-01-19 2021-11-24 Samsung Electronics Co., Ltd. Method and apparatus for encoding/decoding images using a motion vector of a previous block as a motion vector for the current block
WO2011142221A1 (ja) * 2010-05-11 2011-11-17 シャープ株式会社 符号化装置、および、復号装置
US10034012B2 (en) * 2010-05-13 2018-07-24 Sharp Kabushiki Kaisha Prediction image generation device, moving image decoding device, and moving image coding device
JPWO2012128242A1 (ja) * 2011-03-18 2014-07-24 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
US9350972B2 (en) * 2011-04-28 2016-05-24 Sony Corporation Encoding device and encoding method, and decoding device and decoding method
TW201345262A (zh) * 2012-04-20 2013-11-01 Novatek Microelectronics Corp 影像處理電路及影像處理方法
CN103634606B (zh) * 2012-08-21 2015-04-08 腾讯科技(深圳)有限公司 视频编码方法和装置
US9524008B1 (en) * 2012-09-11 2016-12-20 Pixelworks, Inc. Variable frame rate timing controller for display devices
JP2014082541A (ja) * 2012-10-12 2014-05-08 National Institute Of Information & Communication Technology 互いに類似した情報を含む複数画像のデータサイズを低減する方法、プログラムおよび装置
WO2018142596A1 (ja) * 2017-02-03 2018-08-09 三菱電機株式会社 符号化装置、符号化方法および符号化プログラム
US11032541B2 (en) * 2018-10-22 2021-06-08 Tencent America LLC Method and apparatus for video coding
CN112738527A (zh) * 2020-12-29 2021-04-30 深圳市天视通视觉有限公司 一种视频解码检测方法、装置、电子设备及存储介质
CN119815026A (zh) * 2023-10-09 2025-04-11 浙江大学 基于插帧的视频编解码方法及装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6907073B2 (en) 1999-12-20 2005-06-14 Sarnoff Corporation Tweening-based codec for scaleable encoders and decoders with varying motion computation capability
US6816552B2 (en) 2001-07-11 2004-11-09 Dolby Laboratories Licensing Corporation Interpolation of video compression frames
JP2004007379A (ja) * 2002-04-10 2004-01-08 Toshiba Corp 動画像符号化方法及び動画像復号化方法
DK1486065T3 (en) 2002-03-15 2016-02-29 Nokia Technologies Oy PROCEDURE FOR CODING MOVEMENT IN A VIDEO SEQUENCE
JP2003333540A (ja) 2002-05-13 2003-11-21 Hitachi Ltd フレームレート変換装置及びそれを用いた映像表示装置、テレビジョン放送受信装置
JP2004023458A (ja) 2002-06-17 2004-01-22 Toshiba Corp 動画像符号化/復号化方法及び装置
CN100438609C (zh) * 2002-10-22 2008-11-26 皇家飞利浦电子股份有限公司 带有降质的图像处理单元
JP4685636B2 (ja) * 2004-02-03 2011-05-18 パナソニック株式会社 復号化装置、符号化装置、補間フレーム生成システム、集積回路装置、復号化プログラムおよび符号化プログラム
EP1867171A1 (en) 2005-04-06 2007-12-19 Thomson Licensing Method and apparatus for encoding enhancement layer video data
JP2007082030A (ja) 2005-09-16 2007-03-29 Hitachi Ltd 映像表示装置
US8750387B2 (en) * 2006-04-04 2014-06-10 Qualcomm Incorporated Adaptive encoder-assisted frame rate up conversion
JP2008135980A (ja) 2006-11-28 2008-06-12 Toshiba Corp 補間フレーム作成方法および補間フレーム作成装置
JP2008277932A (ja) 2007-04-26 2008-11-13 Hitachi Ltd 画像符号化方法及びその装置
US20080285656A1 (en) * 2007-05-17 2008-11-20 The Hong Kong University Of Science And Technology Three-loop temporal interpolation for error concealment of multiple description coding
JP2009071809A (ja) * 2007-08-20 2009-04-02 Panasonic Corp 映像表示装置ならびに補間画像生成回路および方法

Also Published As

Publication number Publication date
JP5325638B2 (ja) 2013-10-23
CN101742331B (zh) 2013-01-16
EP2466893A1 (en) 2012-06-20
JP2010154490A (ja) 2010-07-08
CN101742331A (zh) 2010-06-16
EP2192782A2 (en) 2010-06-02
EP2192782A3 (en) 2011-01-12
US8798153B2 (en) 2014-08-05
US20100128792A1 (en) 2010-05-27

Similar Documents

Publication Publication Date Title
BRPI0904534A2 (pt) método para decodificar vìdeos
TWI616092B (zh) 動態影像預測解碼裝置及動態影像預測解碼方法
JP5880743B2 (ja) 動画像の予測画像生成方法
TWI572196B (zh) 用於次世代視訊編碼之投射式內插預測產生之技術
TWI571108B (zh) 動畫像編碼裝置、動畫像解碼裝置、動畫像編碼方法及動畫像解碼方法
KR100739281B1 (ko) 움직임 추정 방법 및 장치
CN118055253A (zh) 用于视频代码化中的运动补偿预测的光流估计
KR100246167B1 (ko) 듀얼프라임 움직임 추정시스템 및 방법
JP2008278547A (ja) 順方向予測インターレース映像フレームのフィールド用の動きベクトルの予測
US9036918B2 (en) Image processing apparatus and image processing method
WO2012098845A1 (ja) 画像符号化方法、画像符号化装置、画像復号方法及び画像復号装置
JP2006279917A (ja) 動画像符号化装置、動画像復号装置及び動画像伝送システム
CN113891089B (zh) 一种运动信息候选列表的构建方法、装置及其设备
JP5750191B2 (ja) 画像復号化方法
HK40064078A (en) Method, device and equipment for constructing motion information candidate list
HK40064078B (en) Method, device and equipment for constructing motion information candidate list
JP6872412B2 (ja) 映像符号化装置及びプログラム
JP5946980B1 (ja) 画像復号化方法
TW202518903A (zh) 視訊編解碼方法和裝置
JP5911982B2 (ja) 画像復号化方法
JP2022145499A (ja) 符号化装置及び方法
JP2016158306A (ja) 画像復号化方法
JP2016119726A (ja) 画像復号化方法

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B08F Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette]

Free format text: REFERENTE A 6A ANUIDADE.

B08K Patent lapsed as no evidence of payment of the annual fee has been furnished to inpi [chapter 8.11 patent gazette]

Free format text: EM VIRTUDE DO ARQUIVAMENTO PUBLICADO NA RPI 2343 DE 01-12-2015 E CONSIDERANDO AUSENCIA DE MANIFESTACAO DENTRO DOS PRAZOS LEGAIS, INFORMO QUE CABE SER MANTIDO O ARQUIVAMENTO DO PEDIDO DE PATENTE, CONFORME O DISPOSTO NO ARTIGO 12, DA RESOLUCAO 113/2013.