PT2009927E - Processo para o cálculo do vectores de movimento em modo directo - Google Patents

Processo para o cálculo do vectores de movimento em modo directo Download PDF

Info

Publication number
PT2009927E
PT2009927E PT08016893T PT08016893T PT2009927E PT 2009927 E PT2009927 E PT 2009927E PT 08016893 T PT08016893 T PT 08016893T PT 08016893 T PT08016893 T PT 08016893T PT 2009927 E PT2009927 E PT 2009927E
Authority
PT
Portugal
Prior art keywords
list
image
direct mode
frame
tdd
Prior art date
Application number
PT08016893T
Other languages
English (en)
Inventor
Byeong Moon Jeon
Original Assignee
Lg Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lg Electronics Inc filed Critical Lg Electronics Inc
Publication of PT2009927E publication Critical patent/PT2009927E/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search

Description

DESCRIÇÃO
Processo para o cálculo do vectores de movimento em modo directo
Antecedentes da invenção Campo da invenção A presente invenção refere-se a um processo de codificação de uma imagem em movimento, e mais particularmente a uma técnica para obter vectores de movimento de modo directo de imagens B (bi-predictiva) definidas na técnica de compressão da próxima geração de imagem em movimento.
Descrição da técnica relacionada 0 documento "Text of Final Committee Draft of Joint Video Specification (ITU-T RECH H-264 ISO/IEC 14496-10 AVC" de Julho de 2002 fornece uma visão global da tecnologia antes da data de prioridade do presente requerimento. O documento revela as características do preâmbulo da reivindicação 1, na sub-cláusula 10.3.3.2.
Uma imagem B convencional apresenta cinco tipos de modos de previsão tais como modo de avanço, modo do recuo, modo bidireccional, modo directo e modo intra. No modo de avanço, modo de recuo e modo bidireccional, as direcções dos vectores 1 de movimento podem ser reconhecidas dos nomes do modo porque as informações de direcção encontram-se envolvidas nos nomes do modo. No modo directo, dois vectores de movimento em ambas as direcções são derivados de um movimento de um bloco co-localizado numa imagem vizinha com base numa caracteristica de redundância temporal de que a continuidade do movimento é constantemente mantida entre duas imagens contíguas. Este modo directo apresenta uma vantagem em termos de eficiência de codificação porque a informação do movimento não é enviada para um descodificador.
Por outro lado, uma imagem B proposta numa técnica de compressão da próxima geração de imagem em movimento, tal como H.264 ou MPEG-4 parte 10, é caracterizada por ser permitido que a imagem B seja utilizada como uma imagem de referência porque pode ser armazenada numa memória tampão de referência de imagem. Esta imagem B é adicionalmente caracterizada por apresentar cinco tipos de modos de previsão, tais como modo da lista 0, modo da lista 1, modo de bi-predictiva, modo directo e modo intra. 0 modo da lista 0 é semelhante ao modo de avanço convencional, e a informação do movimento, tal como um índice de imagem de referência e diferença de vector de movimento encontram-se assinaladas respectivamente com ref_idx 1.0 e mvd_10. O modo da lista 1 é também semelhante ao modo de recuo convencional, sendo que a informação do movimento tal como um índice de imagem de referência e diferença de vector de 2 movimento encontram-se assinalados respectivamente pela referência ref_idx 11 e mvd_ll. O modo de bi-predictiva apresenta duas imagens de referência, podendo ambas estar localizadas temporariamente antes ou após a imagem B, ou as quais podem estar localizadas temporariamente antes e após a imagem B, respectivamente. Neste caso, dois índices de imagem de referência e duas diferenças de vector de movimento encontram-se assinalados respectivamente com ref_idx 10, ref_idx 11, mvd_10 e mvd_ll, sendo que cada imagem de referência apresenta dados de contagem de ordem de imagem (COI) que é a informação de localização temporal.
No modo directo, os vectores de movimento são obtidos seleccionando qualquer uma das técnicas espaciais e técnicas temporais. A técnica de modo directo espacial é a de obter os índices da lista 0 e da lista 1 de imagem de referência, e vectores de movimento de blocos contíguos de um macrobloco a ser codificado. A técnica de modo directo temporal é a de obter um vector de movimento da lista 0 MVF e vector de movimento da lista 1 MVb multiplicando um vector de movimento da lista 0 de um bloco co-localizado numa imagem de referência da lista 1 para modo directo, que é semelhante à imagem B convencional. Aqui, a imagem de referência da lista 1 para modo directo é uma imagem em que um índice para uma predição da lista 1 é O, sendo uma imagem de referência da lista 0 para modo directo uma imagem de referência da lista 0 apontada por um vector de 3 movimento de um bloco co-localizado na imagem de referência da lista 1 para modo directo.
As figuras la a lc apresentam os indices por defeito para a previsão da lista 0, indices por defeito para a previsão da lista 1 e imagens de referência da lista 2 para modo directo das respectivas imagens B num padrão IBBBP quando o número de imagens de referência da lista 0 e lista 1 disponíveis (ou a dimensão de uma memória tampão de curto prazo) é 6, respectivamente. Aqui, os índices por defeito para a previsão da lista 0 e índices por defeito para a previsão da lista 1 são dependentes de uma ordem de saída, ou valor POC, de uma imagem de referência previamente descodificada, independentemente de uma ordem de descodificação. Na figura 1, todas as imagens B utilizam uma imagem P temporária seguinte como a imagem de referência da lista 1 para modo directo.
As figuras 2a a 2c apresentam os índices por defeito para a previsão da lista 0, indices por defeito para a previsão da lista 1 e imagens de referência da lista 1 para modo directo das respectivas imagens B num padrão IBBB utilizando somente as imagens B, respectivamente. Na figura 2a, quando uma imagem B a ser codificada é B8, um B5 temporariamente precedente com um indice O da lista 1 é uma imagem de referência da lista 1 para o modo directo. Tal como apresentado na figura 2b, uma imagem de referência da lista 1 para modo directo de B7 a ser subsequentemente descodificada é a temporariamente seguinte B8. Por fim, tal como apresentada na figura 2c, uma imagem de 4 referência da lista 1 para modo directo de B9 a ser subsequentemente descodificada é a temporariamente precedente B7.
Em conclusão, tal como se pode verificar das figuras la a 2c, uma imagem de referência da lista 1 para modo directo pode ser uma imagem P ou B que segue temporariamente uma imagem B a ser codificada, ou uma imagem B que a precede temporariamente.
As figuras 3a a 3h apresentam os modos que um bloco co-localizado numa imagem de referência da lista 1 para modo directo pode apresentar quando a imagem de referência da lista 1 segue temporariamente uma imagem B. Neste caso, dado que imagem de referência da lista 1 pode ser uma imagem P ou imagem B, o bloco co-localizado da mesma apresenta um ou dois vectores de movimento, ou o modo intra. A técnica de compressão de imagem em movimento da próxima geração, tal como H.264 ou MPEG-4 parte 10, permite o reordenamento dos indices de imagem de referência num nivel de fatia, de modo que pode ser atribuído um indice 0 para a previsão da lista 1 a uma imagem logo após uma imagem B. Quer dizer, dado que a imagem de referência da lista 1 pode existir logo após uma imagem B, um vector de movimento do bloco co-localizado pode ser direccionado para a frente ou para trás.
As figuras 4a a 4h apresentam modos que um bloco co-localizado numa imagem de referência da lista 1 para modo directo pode apresentar quando a imagem de referência da lista 1 precede temporariamente a imagem B. Neste caso, o bloco co- 5 localizado apresenta um ou dois vectores de movimento, ou o modo intra, tal como descrito acima. Outras imagens de referência podem estar presentes entre a imagem de referência da lista 1 e a imagem B, de modo que um vector de movimento do bloco co-localizado pode apontar para uma direcção temporariamente para a frente ou para trás.
Tal como se pode ver das figuras 3a a 4h, a imagem de referência da lista 1 para modo directo pode apresentar vários modos de previsão, resultando numa necessidade de explorar um processo para calcular os vectores de movimento de modo directo em consideração com os tais vários casos.
Sumário da invenção
Por isso, a presente invenção foi realizada tendo em consideração os problemas acima mencionados, sendo um objectivo da presente invenção proporcionar um processo para calcular os vectores de movimento de modo directo de uma imagem B (bi-predictiva) definida numa técnica de compressão de imagem em movimento da próxima geração, em que é proposta uma técnica para obter os vectores de movimento de modo directo da imagem B para erguer a probabilidade de o modo directo ser seleccionado como o modo de previsão de um macrobloco, de modo a melhorar a eficiência de codificação da imagem B. 0 objectivo acima é resolvido pela combinação da caracteristica da reivindicação independente 1. 6
Um processo para calcular os vectores de movimento de modo directo de uma imagem B (bi-predictiva) num sistema de codificação de imagem em movimento para extrair os vectores de movimento de modo directo da imagem B, compreende o passo de, se um bloco co-localizado na imagem de referência da lista 1 para modo directo apresentar dois vectores de movimento, seleccionar qualquer um dos dois vectores de movimento (um vector de movimento da lista 0 ou um vector de movimento da lista 1) dos dois vectores de movimento, e obter os vectores de movimento de modo directo da imagem B do vector de movimento seleccionado.
De preferência, o passo acima pode compreender o passo de seleccionar um dos vectores de movimento da lista 0 e lista 1, que aponta para uma imagem temporariamente mais próxima à imagem de referência da lista 1 para modo directo, como um vector de movimento para obtenção dos vectores de movimento de modo directo, seleccionando o vector de movimento da lista 0 como o vector de movimento para obtenção dos vectores de movimento de modo directo se os dois vectores de movimento apontarem para a mesma imagem de referência, determinando uma imagem de referência apontada pelo vector de movimento seleccionado como uma imagem de referência da lista 0 para modo directo, e obtendo os vectores de movimento de modo directo da imagem B. Alternativamente, o passo acima pode compreender o passo de seleccionar incondicionalmente o vector de movimento da lista 0 como um vector de movimento para obtenção dos 7 vectores de movimento de modo directo independentemente de uma distância temporal, determinando uma imagem de referência que aponta para o vector de movimento da lista 0 como imagem de referência da lista 0 para modo directo, e obtendo os vectores de movimento de modo directo como a imagem B.
De acordo com um outro aspecto da presente invenção, é proporcionado um processo para calcular os vectores de movimento de modo directo de uma imagem B (bi-predictiva) num sistema de codificação de imagem em movimento para extrair os vectores de movimento de modo directo da imagem B, compreendendo o passo de seleccionar qualquer um dos vectores de movimento de um bloco co-localizado numa imagem de referência da lista 1 para modo directo como um vector de movimento para obtenção dos vectores de movimento de modo directo independentemente dos modos (um modo da lista 0 e/ou um modo da lista 1) dos vectores de movimento do bloco co-localizado, determinar uma imagem de referência apontada pelo vector de movimento seleccionado como uma imagem de referência da lista 0 para modo directo, e calcular os vectores de movimento de modo directo da imagem B. Foi proposto um processo convencional para obter os vectores de movimento de modo directo de um vector de movimento da lista 0 de um bloco co-localizado. Se este processo convencional for aplicado a um caso onde um bloco co-localizado numa imagem de referência da lista 1 apresenta somente um vector de movimento da lista 1, todos os vectores de movimento de modo directo tornam-se 0 8 porque o vector de movimento da lista 0 é 0. Contudo, o presente processo pode ultrapassar este problema.
De acordo com um aspecto adicional da presente invenção, é proporcionado um processo para calcular os vectores de movimento de modo directo de uma imagem B (bi-predictiva) num sistema de codificação de imagem em movimento para extrair os vectores de movimento de modo directo da imagem B, compreendendo o passo de, se um bloco co-localizado numa imagem de referência da lista 1 para modo directo apresentar somente um vector de movimento da lista 1, considerando que o bloco co-localizado apresenta um movimento 0, determinar uma imagem descodificada localizada temporariamente pouco antes da imagem B como uma imagem de referência da lista 0 para modo directo, e obter os vectores de movimento de modo directo da imagem B.
De acordo com um aspecto adicional da presente invenção, é proporcionado um processo para calcular os vectores de movimento de modo directo de uma imagem B (bi-predictiva) num sistema de codificação de imagem em movimento para extrair os vectores de movimento de modo directo da imagem B, compreendendo o passo de, se o bloco co-localizado na imagem de referência da lista 1 para modo directo apresentar somente um vector de movimento da lista 1, utilizando o vector de movimento da lista 1 do bloco co-localizado como vector de movimento para obtenção dos vectores de movimento de modo directo, determinar uma imagem descodificada localizada temporariamente pouco antes da imagem B como uma imagem de 9 referência da lista 0 para modo directo, e obter os vectores de movimento de modo directo da imagem B.
De acordo com um aspecto adicional da presente invenção, é proporcionado um processo para calcular os vectores de movimento de modo directo de uma imagem B (bi-predictiva) num sistema de codificação de imagem em movimento para extrair os vectores de movimento de modo directo da imagem B, compreendendo o passo de, se um bloco co-localizado numa imagem de referência da lista 1 para modo directo apresentar somente um vector de movimento da lista 1, utilizando o vector de movimento da lista 1 do bloco co-localizado como um vector de movimento para obtenção dos vectores de movimento de modo directo, determinar uma imagem de referência apontada pelo vector de movimento da lista 1 do bloco co-localizado como uma imagem de referência da lista 0 para modo directo, e obter os vectores de movimento de modo directo da imagem B.
De acordo com um aspecto adicional da presente invenção, é proporcionado um processo para calcular os vectores de movimento de modo directo de uma imagem B (bi-predictiva) num sistema de codificação de imagem em movimento para extrair os vectores de movimento de modo directo da imagem B, compreendendo o passo de ajustar a última imagem descodificada como imagem de referência da lista 1 para modo directo, escalar um vector de movimento de um bloco co-localizado na imagem de referência da lista 1 para modo directo para obter um vector de movimento da lista 0 MVF e um vector de movimento da lista 1 10 MVb, e calcular os vectores de movimento de modo directo da imagem B. Num processo convencional, uma imagem que apresenta um indice 0 para a previsão da lista 1 encontra-se definida como imagem da referência da lista 1 para modo directo. Quando uma imagem diferente é descodificada entre a imagem B e a imagem com o índice 0, a informação do movimento e informação da imagem de referência da imagem do índice 0 tem que ser mantida, resultando em utilização adicional da memória. Contudo, o presente processo pode economizar a utilização adicional da memória.
De acordo com um aspecto adicional da presente invenção, é proporcionado um processo para calcular os vectores de movimento de modo directo da imagem B (bi-predictiva) num sistema de codificação de imagem em movimento para extrair os vectores de movimento de modo directo da imagem B, compreendendo o passo de, se a imagem de referência da lista 1 para modo directo preceder temporariamente a imagem B, desmultiplicar um vector de movimento de um bloco co-localizado na imagem de referência da lista 1 para modo directo para obter um vector de movimento da lista 0 MVF e um vector de movimento da lista 1 MVB, e calcular os vectores de movimento de modo directo da imagem B.
De preferência, o passo acima pode compreender o passo de, se ambos uma imagem B de macrobloco e um macrobloco co-localizado da imagem de referência da lista 1 se encontrarem em modo de trama e uma imagem de referência da lista 0 para modo 11 directo preceder temporariamente a imagem de referência da lista 1, o cálculo dos vectores de movimento de modo directo MVf e MVb da imagem B é efectuado do seguinte modo: MVf = TDb x MV / TDd MVb = (TDb - TDd) x MV / TDd ou Z = TDb x 256 / TDd MVf =( Z X MV + 128) » 8 w = z - 2 5 6 MVb = ( W X MV + 128)» 8 em que TDB representa uma distância temporal entre uma trama B actual e uma trama de referência da lista 0, TDd representa uma distância temporal entre uma trama de referência da lista 1 e a trama de referência da lista 0, e MV representa um vector de movimento do bloco co-localizado na imagem de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se ambos um macrobloco da imagem B e um macrobloco co-localizado da imagem de referência da lista 1 se encontrarem num modo de trama e uma imagem de referência da lista 0 para modo directo seguir temporariamente a imagem de referência da lista 1, o cálculo dos vectores de movimento de modo directo MVf e MVb da imagem B é efectuado do seguinte modo: 12 (TDb + TDd) x MV / TDd MVf = - TDb x MV / TDdMVb = -
Ou z = -TDb x 256 / TDd MVF =( Z x MV + 128) » 8 w = Z - 2 5 6 MVb = ( W x MV + 12 8) » 8 em que TDb representa uma distância temporal entre uma trama actual e uma trama de referência da lista 0, TDd representa uma distância temporal entre uma trama de referência da lista 1 e uma trama de referência da lista 0, e MV representa um vector de movimento do bloco co-localizado na imagem de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se ambos um macrobloco da imagem B e um macrobloco co-localizado da imagem de referência da lista 1 se encontrarem em modo de campo e uma imagem de referência da lista 0 para modo directo preceder temporariamente a imagem de referência da lista 1, o cálculo dos vectores de movimento de modo directo MVf,í, e MVb,í para cada campo i da trama B é efectuado seguinte modo: MVf,í= TDb, í x MVi / TDd,í MVb, 1 = (TDB,i - TDd,i) x MVi / TDd,í ou Z = TDb, i x 256 / TDd ,i MVF,i = (ZxMVí + 128) > > 8 W = Z - 256 MVb,í = ( WxMVi + 12 8) > > 8 13 em que TDb,í representa uma distância temporal entre um campo B actual e um campo de referência da lista 0, tdd,i representa uma distância temporal entre um campo de referência da lista 1 e o campo de referência da lista 0 e MVi representa um vector de movimento de um bloco co-localizado no campo de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se ambos um macrobloco da imagem B e um macrobloco co-localizado da imagem de referência da lista 1 se encontrarem em modo de campo e uma imagem de referência da lista 0 para modo directo seguir temporariamente a imagem de referência da lista 1, o cálculo dos vectores de movimento de modo directo MVf,i e MVB,j para cada campo i de uma trama B é efectuado do seguinte modo: MVFí1 = - TDb, í x MV, / TDd,± MVb,í = - ( T Db,í + TDd,í) x MVi / TDd,!
OU Z = - TDb, í X 256 / TDB, i II H 4 (Z x MVi + 128) » 8 W = Z - 256 MVBíi = (W x MVi + 128) » 8 em que TDb,í representa uma distância temporal entre um campo B actual e um campo de referência da lista 0, TDb,i representa uma distância temporal entre um campo de referência da lista 1 e campo de referência da lista 0, e MV representa um vector de movimento de um bloco co-localizado num campo de referência da lista 1 para modo directo. 14
Adicionalmente, o passo acima pode compreender o passo de, se um macrobloco da imagem B se encontrar em modo de campo, um macrobloco co-localizado da imagem de referência da lista 1 encontra-se em modo de trama e uma imagem de referência da lista 0 para modo directo precede temporariamente a imagem de referência da lista 1, calculando os vectores de movimento de modo directa MVFfi e MVB(i para cada campo i de uma trama B do seguinte modo: MVf,í = TDb,í x MV / TDdMVb,í = (TDb,í - TDd) x MV / TDd ou Z = - TDb, í x 256 / TDd MVF,i = (Z x MV + 128) »8 W = Z - 256 MVb,í = (W x MV + 128) » 8 em que TDb,í representa uma distância temporal entre um campo B actual e um campo de referência da lista 0, TDd representa uma distância temporal entre uma trama de referência da lista 1 e uma trama de referência da lista 0, e MV representa um vector de movimento de um bloco co-localizado num campo de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se um macrobloco da imagem B se encontrar em um modo de campo, um macrobloco co-localizado da imagem de referência da lista 1 encontra-se num modo de trama, seguindo uma imagem de 15 referência da lista 0 para modo directo temporariamente a imagem de referência da lista 1, calculando os vectores de movimento de modo directo MVf,í e MVb,í para cada campo i de uma trama B do seguinte modo: MVFí1 = TDBfi x MV / TDdMVb,í = - (TDB,i - TDd) x MV / TDd ou Z = - TDB,i X 256 / TDd MVf,± = (Z x MV + 128) » 8 W = Z - 256 MVb,í = (W x MV + 128) »8 em que TDB;i representa uma distância temporal entre um campo B actual e um campo de referência da lista 0, TDd representa uma distância temporal entre uma trama de referência da lista 1 e uma trama de referência da lista 0, e MV representa um vector de movimento de um bloco co-localizado numa trama de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se um macrobloco da imagem B se encontrar num modo de trama, um macrobloco co-localizado da imagem de referência da lista 1 encontra-se em modo de campo, precedendo uma imagem de referência da lista 0 para modo directo temporariamente a imagem de referência da lista 1, calculando os vectores de movimento de modo directo MVF e MVB de uma trama B da equação seguinte onde a informação do movimento de um bloco co- 16 localizado num campo 1 na trama de referência da lista 1 é utilizado para cálculo dos vectores de movimento de modo directo: MVf = TDb x MVi / TDd,i MVb = (TDb _ TDd, 1) X MVi / TDd,i
Ou Z = TDb x 2 5 6 / TDd,i MVf = (Z xMVi + 128) » 8 W = Z - 256 MVb = (W x MVX + 128) » 8 em que TDB representa uma distância temporal entre uma trama B actual e uma trama de referência da lista 0, tdDí1 representa uma distância temporal entre um campo 1 da trama de referência da lista 1 e um campo de referência da lista 0, e MVi representa um vector de movimento de um bloco co-localizado no campo 1 da trama de referência da lista 1 para modo directo.
Além disso, o passo acima pode compreender o passo de, se ambos um macrobloco da imagem B e um macrobloco co-localizado da imagem de referência da lista 1 se encontrarem em modo de trama e a imagem de referência da lista 0 para modo directo temporariamente seguir a imagem de referência da lista 1, o cálculo dos vectores de movimento de modo directo MVF e MVB da imagem B é efectuado do seguinte modo, em que a informação de movimento de um bloco co-localizado num campo 1 de uma trama de 17 referência é usado para cálculo dos vectores de movimento em modo directo: MVp — - TDg X MVi / TDd, i MVb = -(TDb - TDd,i) X MVi / TDd,i
Ou Z = -TDb x 2 5 6 / TDM MVF (Z x MVX + 128) » 8 W = Z - 256 MVb = (W x MVi + 128) » 8 em que TDB representa uma distância temporal entre uma trama B actual e uma trama de referência da lista 0, TDd representa uma distância temporal entre uma trama de referência da lista 1 e a trama de referência da lista 0, e MV representa um vector de movimento do bloco co-localizado no campo 1 da imagem de referência da lista 1 para modo directo.
De acordo com outro aspecto da presente invenção, é proporcionado um processo para calcular os vectores de movimento de modo directo de uma imagem B (bi-predictiva) num sistema de codificação de imagem em movimento para extrair os vectores de movimento de modo directo da imagem B, compreendendo o passo de, se ambas uma imagem de referência da lista 0 e imagem de referência da lista 1 para modo directo seguirem temporariamente a imagem B, desmultiplicar um vector de movimento de um bloco co-localizado na imagem de referência da lista 1 para modo directo para obter um vector de movimento 18 da lista 0 MVF e um vector de movimento da lista 1 MVB, e calcular os vectores de movimento de modo directo da imagem B.
De preferência, o passo acima pode compreender o passo de, se ambos um macrobloco da imagem B e um macrobloco co-localizado da imagem de referência da lista 1 se encontrarem em modo de trama e a imagem de referência da lista 0 para modo directo temporariamente seguir a imagem de referência da lista 1, o cálculo dos vectores de movimento de modo directo MVF e MVB da imagem B é efectuado do seguinte modo: MVf = TDb X MV / TDd MVb = (TDb - TDd) x MV / TDd
Ou Z = TDb x 2 5 6 / TDd MVf = (Z x MV + 128) » 8 W = Z - 256 MVb = (W x MV + 128) » 8 em que TDB representa uma distância temporal entre uma trama B actual e uma trama de referência da lista 0, TDd representa uma distância temporal entre uma trama de referência da lista 1 e a trama de referência da lista 0, e MV representa um vector de movimento do bloco co-localizado no campo 1 da imagem de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se ambos um macrobloco da imagem B e um macrobloco co- 19 localizado da imagem de referência da lista 1 se encontrarem no moda de trama e a imagem de referência da lista 0 para modo directo preceder temporariamente a imagem da referência da lista 1, o cálculo dos vectores de movimento de modo directo MVp e MVb da imagem B é efectuado do seguinte modo: MVf = - TDb x MV / TDd MVb = - (TDb + TDd) x MV / TDd ou Z = -TDb x 2 5 6 / TDd,i MVf = (Z X MV + 128) » 8 W = Z - 256 MVb = (W x MV + 128) » 8 em que TDB representa uma distância temporal entre uma trama B actual e uma trama de referência da lista 0, TDd representa uma distância temporal entre uma trama de referência da lista 1 e a trama de referência da lista 0, e MV representa um vector de movimento do bloco co-localizado na trama de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se ambos um macrobloco da imagem B e um macrobloco co-localizado da imagem de referência da lista 1 se encontrarem num modo de campo e a imagem de referência da lista 0 para modo directo seguir temporariamente a imagem de referência da lista 1, o cálculo dos vectores de movimento de modo directo MVF;1 e 20 MVb,í para cada campo i de uma trama B é efectuado do seguinte modo: MVf,í = TDb, ί X MVi / TD D, i MVb,i = (TDb ,i - TDd,í) x MVi / TDd,í ou Z = TDB,i X 2 5 6 / TDd,i MVFí1 = (Z X MVi + 128) » 8 W = Z - 256 MVb,i = (W x MVi + 128) » 8 em que TDb,í representa uma distância temporal entre um campo B actual e um campo de referência da lista 0, TDd,í representa uma distância temporal entre uma trama de referência da lista 1 e a trama de referência da lista 0, e MVF representa um vector de movimento de um bloco co-localizado num campo de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se um macrobloco da imagem B se encontrar num modo de campo, um macrobloco co-localizado da imagem de referência da lista 1 encontra-se num modo de trama e a imagem de referência da lista 0 para o modo directo precede temporariamente a imagem de referência da lista 1, calculando os vectores de movimento de modo directo MVF;1 e MVb,í para cada campo i uma trama B do seguinte modo: MVF(i =
TD B,i
x MVi / TD D,i 21 MVb,í = (TDBfl + TDd,í) x MV / TDd,í
OU Z = TDB,i x 2 5 6 / TDd,i MVf,í = (Z X MVi + 128) » 8 W = Z - 256 MV,b,í = (W x MVi + 128) » 8 em que TDb,í representa uma distância temporal entre um campo B actual e um campo de referência da lista 0, TDd,í representa uma distância temporal entre um campo de referência da lista 1 e um campo de referência da lista 0, e MV± representa um vector de movimento do bloco co-localizado numa trama de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se um macro bloco da imagem B se encontrar num modo de campo, um macrobloco co-localizado da imagem de referência da lista 1 se encontrar num modo de quadro e a imagem de referência da lista 0 para modo directo preceder temporariamente a imagem de referência da lista 1, calcular os vectores de movimento de modo directo MVF(i e MVb,í para cada campo i do quadro B do seguinte modo: MVf,í = TDB(1 x MV / TDd MVb,í = (TDBfl - TDd) x MV / TDd ou 22 Ζ = TDB,i X 2 5 6 / TDd,i MVf,í = (Z x MV + 128) »8 W = Z - 256 MV,b,í = (W x MV + 128) » 8 em que TDb,í representa uma distância temporal entre um campo B actual e um campo de referência da lista 0, TDd representa uma distância temporal entre um quadro de referência da lista 1 e um quadro de referência da lista 0, e MV representa um vector de movimento de um bloco co-localizado numa trama de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se um macro bloco da imagem B se encontrar num modo de campo, um macrobloco co-localizado da imagem de referência da lista 1 se encontrar num modo de quadro e a imagem de referência da lista 0 para modo directo preceder temporariamente a imagem de referência da lista 1, calcular os vectores de movimento de modo directo MVP,i e MVB;i para cada campo i do quadro B do seguinte modo: MVF,i = -TDB,i X MV / TDd MVb, í = - (TDb, í - TDd) X MV / TDd ou Z = -TDb,í x 2 5 6 / TDd MVf,í = (Z x MV + 128) » 8 W = Z - 256 MV,b,í = (W x MV + 128) » 8 23 em que TDb,í representa uma distância temporal entre um campo B actual e um campo de referência da lista 0, tdd representa uma distância temporal entre um quadro de referência da lista 1 e um quadro de referência da lista 0, e MV representa um vector de movimento de um bloco co-localizado numa trama de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se um macrobloco da imagem B se encontrar num modo de trama, um macrobloco co-localizado da imagem de referência da lista 1 encontra-se num modo de campo e a imagem de referência da lista 0 para modo directo precede temporariamente a imagem de referência da lista 1, o cálculo dos vectores de movimento de modo directo MVF;i e MVb,í para cada campo i de uma trama B é como segue da equação seguinte onde a informação do movimento de um bloco co-localizado num campo O de uma trama de referência da lista 1 é utilizado para o cálculo dos vectores de movimento de modo directo: MVf = TDb x MV0 / TDd,0 MVB = (TDb - TDd,0) x MV0 / TDd,0 ou Z = TDb x 2 5 6 / TDd,i MVf,í = (Z x MV0 + 128) » 8 W = Z - 256 MV,b,í = (W x MV0 + 128) » 8 24 em que TDB representa uma distância temporal entre uma trama B actual e uma trama de referência da lista 0, TDd,0 representa uma distância temporal entre um campo O da trama de referência da lista 1 e uma trama de referência da lista 0, e mv0 representa um vector de movimento de um bloco co-localizado no campo 0 da trama de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se um macrobloco da imagem B se encontrar num modo de trama, um macrobloco co-localizado da imagem de referência da lista 1 encontra-se num modo de campo, precedendo a imagem de referência da lista 0 para o modo directo temporariamente a imagem de referência da lista 1, calculando os vectores de movimento de modo directo MVF(i e MVb,i de uma trama B da equação seguinte onde a informação do movimento de um bloco co-localizado num campo O de uma trama de referência da lista 1 é utilizado para o cálculo dos vectores de movimento de modo directo: MVF = - TDb x MV / TDd, o mvb = - (TDb + TDd,0) x MVo / TDd, o o u Z = -TDb X 2 5 6 O Q Q H MVf (Z x MV0 + 128) » W = Z - 256 MV,b = (W X MV0 + 128) » 8 em que TDB representa uma distância temporal entre uma trama B actual e uma trama de referência da lista 0, TDd,0 representa 25 uma distância temporal entre um campo 0 da trama de referência da lista 1 e uma trama de referência da lista 0, e MV0 representa um vector de movimento de um bloco co-localizado num campo 0 da trama de referência da lista 1 para modo directo.
De acordo com outro aspecto a presente invenção, é proporcionado um processo para calcular os vectores de movimento de modo directo de uma imagem B (bi-predictiva) no sistema de codificação de imagem em movimento para extrair os vectores de movimento de modo directo da imagem B, compreendendo o passo de atribuir um sinal a um valor de distância temporal entre imagens, desmultiplicar um vector de movimento de um bloco co-localizado numa imagem de referência da lista 1 para modo directo independentemente dos locais das imagens de referência da lista 0 e lista 1 para modo directo para obter um vector de movimento da lista 0 MVF e um vector de movimento da lista 1 MVB e calcular os vectores de movimento de modo directo da imagem B.
De preferência, o passo acima pode incluir o passo de, se ambos um macrobloco da imagem B e um macrobloco co-localizado da imagem de referência da lista 1 se encontrarem em modo de trama, calcular os vectores de movimento de modo directo MVF e MVb da imagem B do seguinte modo: MVf = TDb x MV / TDd MVb = (TDB - TDd) X MV / TDd 26 ou Z = TDb x 2 5 6 / TDd,í MVf,í = (Z x MVi + 128) » 8 W = Z - 256 MV,b,í = (W x MVi + 128) » 8 em que TDB representa uma distância temporal entre uma trama B actual e uma trama de referência da lista 0, ao qual se encontra atribuído um sinal positivo (+) se for medido da trama B e um sinal negativo (-) se for medido da trama de referência da lista 0, TDd representa uma distância temporal entre a trama de referência da lista 1 e uma trama de referência da lista 0, ao qual se encontra atribuido um sinal positivo ( + ) se for medido da trama de referência da lista 1 e um sinal negativo (-) se for medido da trama de referência da lista 0, e MV representa um vector de movimento do bloco co-localizado na imagem de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se ambos um macrobloco da imagem B e um macrobloco co-localizado da imagem da referência da lista 1 se encontrarem num modo de campo, o cálculo dos vectores de movimento de modo directo MVf,í e MVb,i para cada campo i de uma trama B é efectuado do seguinte modo: MVF,F = TDb,í x MVi / TDd,í MVb,í = (TDb, í TDd,í) x MVí / TDD(1 27 ou Z = TDB,i x 2 5 6 / TDd, i MVf,í = (Z x MVf + 128) » 8 W = Z - 256 MV,b,í = (W x MVi + 128) » 8 em que, TDB, i representa uma distância temporal entre um campo B actual e um campo de referência da lista 0, ao qual se encontra atribuído um sinal positivo ( + ) se for medido do campo B e um sinal negativo (-) se for medido do campo de referência da lista 0, TDd,í representa uma distância temporal entre um campo de referência da lista 1 e o campo de referência da lista 0, ao qual se encontra atribuído um sinal positivo (+) se for medido do campo de referência da lista 1 e um sinal negativo (-) se for medido do campo de referência da lista 0, representando, MVi um vector de movimento de um bloco co-localizado num campo de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se um macrobloco da imagem B se encontrar em modo de campo e um macrobloco co-localizado da imagem de referência da lista 1 se encontrar num modo de trama, calcular os vectores de movimento de modo directo MVF, i e MVB, i para cada campo 1 de uma trama B é efectuado do seguinte modo: MVF,i = TDB,i x MV / TDd MVB, i = (TDb,í - TDd) x MV / TDd ou 28 ζ TDB, i X 2 5 6 / TDd MVFí1 (Z x MV + 128) »8 W = Z - 256 MVíB,í = (W x MV + 128) » 8 em que TDb,í representa uma distância temporal entre um campo B actual e um campo de referência da lista 0 ao qual se encontra atribuído um sinal positivo ( + ) se for medido do campo B e um sinal negativo (-) se for medido do campo de referência da lista 0, TDD representa uma distância temporal entre a trama de referência da lista 1 e a trama de referência da lista 0, ao qual se encontra atribuído um sinal positivo (+) se for medido da trama de referência da lista 1 e um sinal negativo (-) se for medido da trama de referência da lista 0, representando MV um vector de movimento de um bloco co-localizado num campo de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se um macrobloco da imagem B se encontrar num modo de trama, um macrobloco co-localizado da imagem de referência da lista 1 encontra-se num modo de campo, seguindo a imagem de referência da lista 1 temporariamente a imagem B, calcular os vectores de movimento de modo directo MVF e MVB de uma trama B da equação seguinte onde a informação do movimento de um bloco co-localizado num campo O de uma trama de referência da lista 1 é utilizada para cálculo dos vectores de movimento de modo directo: 29 MVf = TDb x MVo / TDd, o MVb = (TDb - TDDío) x MVq / TDd,o
Ou Z = TDb x 256 / TDd,o MVf = (Z x MV0 + 128) » 8 W = Z - 256 MVb = (W x MV0 + 128) » 8 em que TDb representa uma distância temporal entre uma trama B actual e uma trama de referência da lista 0, ao qual se encontra atribuído um sinal positivo (+) se for medido da trama B e um sinal negativo (-) se for medido da trama de referência da lista 0, TDd,0 representa uma distância temporal entre um campo 0 da trama de referência da lista 1 e uma trama de referência da lista 0 ao qual se encontra atribuído um sinal positivo (+) se for medido do campo 0 da trama de referência da lista 1 e um sinal negativo (-) se for medido do campo de referência da lista 0, representando MV0 um vector de movimento de um bloco co-localizado no campo 0 da trama de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se um macrobloco da imagem B se encontrar em modo de trama, um macrobloco co-localizado da imagem de referência da lista 1 30 encontra-se em modo de campo e a imagem de referência da lista 1 precede temporariamente a imagem B, calcular os vectores de movimento de modo directo MVF e MVB de uma trama B da equação seguinte onde a informação do movimento de um bloco co-localizado num campo 1 da trama de referência da lista 1 é utilizada para cálculo dos vectores de movimento de modo directo: MVf — TDb x MVi / TDBí iMVb — (TDb — TD^i) x MVi / TDFíi
OU Z = TDB x 256 / TDd,i MVf = (Z x MVi + 128) »8 W = Z - 256 MVb = (W x MVi + 128) » 8 em que TDB representa uma distância temporal entre uma trama B actual e uma trama de referência da lista 0 ao qual se encontra atribuído um sinal positivo ( + ) se for medido da trama B e um sinal negativo (-) se for medido da trama de referência da lista 0, TDD;i representa uma distância temporal entre a trama 1 da trama de referência da lista 1 e uma trama de referência da lista 0, ao qual se encontra atribuído um sinal positivo (+) se for medido do campo 1 da trama de referência da lista 1 e um sinal negativo (-) se for medido da trama de referência da lista 0, representando MVi um vector de movimento de um bloco 31 co-localizado no campo 1 da trama de referência da lista 1 para modo directo.
De acordo ainda com outro aspecto da presente invenção, é proporcionado um processo para o cálculo de vectores de movimento de modo directo de uma imagem B (bi-predictiva) no sistema de codificação de imagem em movimento para extrair os vectores de movimento de modo directo da imagem B, compreendendo o passo de, se um macrobloco co-localizado numa imagem de referência da lista 1 para modo directo se encontrar num modo intra, prever e calcular as imagens de referência da lista 0 e lista 1 e vectores de movimento de blocos contíguos de um macrobloco da imagem B a ser codificada, com base numa redundância espacial e calcular os vectores de movimento de modo directo da imagem B.
De preferência, o passo acima pode incluir o passo de, se os blocos A, B e C contíguos do macrobloco a serem codificados se referirem a diferentes imagens de referência, seleccionar uma imagem de referência com um índice o mais pequeno possível como uma imagem da referência para cada lista.
Adicionalmente, o passo acima pode compreender o passo de, se dois ou mais blocos contíguos dos macroblocos a serem codificados se referirem a uma imagem de referência com o mesmo índice, seleccionar essa imagem de referência como imagem de referência para cada lista.
Adicionalmente, o passo acima pode incluir o passo de, ajustar os seus vectores de movimento da lista 0 e lista 1 para 32 0 se qualquer dos blocos contíguos A, B e C do macrobloco a ser codificado se encontrar no modo intra, seleccionar o vector de movimento que apresenta a mesma direcção que aquele de um local temporal da imagem de referência para cada lista de um bloco vizinho, e obter o vector de movimento para cada lista através de uma operação mediana, ou seleccionar somente um de dois vectores de movimento daquele bloco se um bloco vizinho apresentar dois vectores de movimento com as mesmas direcções e obter o vector de movimento para cada lista através da operação mediana incluindo o vector de movimento seleccionado.
Adicionalmente, o passo acima pode incluir o passo de, se não puder ser obtido nenhum índice de imagem de referência efectivo para cada modo da lista, ajustar os índices de imagem de referência da lista 0 e lista 1 para 0 e ajustar o vector de movimento para cada modo da lista para 0.
Breve descrição dos desenhos. O objectivo acima e outros objectivos, características e outras vantagens da presente invenção serão mais claramente compreendidos da seguinte descrição pormenorizada obtida em conjunção com os desenhos anexos, em que :
As Figuras la a lc são imagens de referência da lista 1 para modo directo num padrão IBBBP geral; 33
As Figuras 2a a 2c são imagens de referência da lista 1 para modo directo num padrão IBBBP geral;
As Figuras 3a a 3h é uma vista ilustrando casos em que a imagem de referência da lista 1 para modo directo segue temporariamente uma imagem B (LO MV: vector de movimento da lista 0 e Ll MV: vector de movimento da lista 1);
As Figuras 4a a 4h é uma vista ilustrando casos onde uma imagem de referência da lista 1 para modo directo precede temporariamente uma imagem B (LO MV: vector de movimento da lista 0 e Ll MV: vector de movimento da lista 1); A Figura 5 é uma vista ilustrando a previsão do vector de movimento de um bloco E utilizando vectores de movimento de blocos contíguos A, B e C em consideração de uma redundância espacial geral;
As Figuras 6a a 6c são vistas ilustrando casos onde ambos um macrobloco de uma imagem B e um macrobloco co-localizado numa imagem de referência da lista 1 para modo directo se encontram num modo de trama, seguindo a imagem de referência da lista 1 temporariamente a imagem B;
As Figuras 7a a 7d são vistas ilustrando casos onde ambos um macrobloco de uma imagem B e um macrobloco co-localizado numa imagem de referência da lista 1 para modo directo se encontram num modo de campo e a imagem de referência da lista 1 segue temporariamente a imagem B;
As Figuras 8a a 8c são vistas ilustrando casos onde um macrobloco de uma imagem B se encontra um modo de campo, 34 um macrobloco co-localizado numa imagem de referência da lista 1 para modo directo se encontra no modo de trama, e a imagem de referência da lista 1 segue temporariamente a imagem B;
As Figuras 9a a 9c são vistas ilustrando casos onde um macrobloco de uma imagem B se encontra num modo de trama, um macrobloco co-localizado numa imagem de referência da lista 1 para modo directo se encontra no modo de campo, e a imagem de referência da lista 1 segue temporariamente a imagem B;
As Figuras 10a e 10b são vistas ilustrando casos onde ambos um macrobloco de uma imagem B e um macrobloco co-localizado numa imagem de referência da lista 1 para modo directo se encontram em modo de trama, precedendo a imagem de referência da lista 1 temporariamente a imagem B;
As Figuras 11a a lld são vistas ilustrando casos onde ambos um macrobloco de uma imagem B e um macrobloco co-localizado numa imagem de referência da lista 1 para modo directo se encontram no modo de campo, precedendo a imagem de referência da lista 1 temporariamente a imagem B;
As Figuras 12a e 12b são vistas ilustrando casos onde o macrobloco de uma imagem B se encontra no modo de campo e o macrobloco co-localizado numa imagem de referência da lista 1 para o modo directo geral se encontra no modo de trama, precedendo a imagem de referência da lista 1 temporariamente a imagem B; e 35
As Figuras 13a e 13b são vistas ilustrando casos onde o macrobloco de uma imagem B se encontra no modo de trama, um macrobloco co-localizado numa imagem de referência da lista 1 para um modo directo geral se encontra no modo de campo, precedendo a imagem de referência da lista 1 temporariamente a imagem B.
Descrição das formas de realização preferidas A presente invenção propõe um processo para obter vectores de movimento de modo directo quando um macrobloco co-localizado numa imagem de referência da lista 1 para modo directo se encontra no modo intra, e um processo para obter os vectores de movimento de modo directo num caso onde a imagem de referência da lista 1 segue temporariamente uma imagem B e num caso onde a imagem de referência da lista 1 precede temporariamente a imagem B. A presente invenção propõe adicionalmente um processo para calcular os vectores de movimento de modo directo independentemente da localização das imagens de referência da lista 0 e lista 1 para modo directo para atribuir um sinal a um valor de distância temporal entre a imagem para simplificar os algoritmos utilizados para cálculo dos vectores de movimento de modo directo.
Por outro lado, um modo de trama e um modo de campo são comutados a um nível de imagem, de modo que a imagem B e imagem 36 de referência da lista 1 podem ser codificadas em modo de trama e modo de campo. Como resultado, um macrobloco da imagem B ou um macrobloco co-localizado da imagem de referência da lista 1 apresentam guatro tipos de combinações codificadas por trama/campo.
[1] Caso onde um macrobloco co-localizado da imagem de referencia da lista 1 se encontra em modo intra.
Tal como apresentado nas figuras 3f e 4f, um macrobloco co-localizado numa imagem de referência da lista 1 para modo directo pode estar no modo intra independentemente de uma localização temporal da imagem de referência. Dado que o macrobloco neste modo não apresenta qualquer informação do movimento, um processo convencional coloca simplesmente vectores de movimento de modo directo a 0 e define uma imagem de referência da lista 0 a ser a última imagem descodificada. Contudo, o processo convencional não pode garantir uma elevada eficiência de codificação. Por isso, a presente invenção prevê e calcula as imagens de referência da lista 0 e lista 1 e vectores de movimento dos blocos contíguos de um macrobloco de uma Imagem B a ser codificada, com base numa redundância espacial.
Um índice de imagem de referência para cada modo da lista é obtido do seguinte modo. A figura 5 é uma ilustração da previsão do vector de movimento de um bloco E utilizando 37 vectores de movimento de blocos A, B e C contíguos em consideração de uma redundância espacial geral. se os blocos A, B e C contíguos apresentarem diferentes índices de imagem de referência, o índice de imagem de referência menor é determinado como sendo um índice de imagem de referência para o modo directo. - se dois dos blocos contíguos apresentarem o mesmo índice de imagem de referência, este índice é determinado como sendo um índice de imagem de referência para o modo directo.- se todos os blocos contíguos apresentarem o mesmo índice de imagem de referência, este índice é determinado como sendo um índice de imagem de referência para o modo directo.
Também, um vector de movimento para cada modo da lista é obtido através da seguinte previsão de vector de movimento. Neste momento, se qualquer dos blocos contíguos A, B e C se encontrar no modo intra, os seus vectores de movimento da lista 0 e lista 1 são colocados a 0 - um vector de movimento que apresenta a mesma direcção que uma localização temporal da imagem de referência acima obtida para cada modo da lista é seleccionado de um bloco vizinho e um vector de movimento para cada modo da lista é obtido através da operação mediana.- se um 38 bloco vizinho apresentar dois vectores de movimento com a mesma direcção, somente um dos dois vectores de movimento é seleccionado neste bloco incluído na operação mediana.
Por outro lado, se nenhum dos índices de imagem de referência efectivos da lista 0 e lista 1 puderem ser derivados de um bloco vizinho, eles são colocados a 0 e um vector de movimento para cada modo da lista é colocado a 0.
[ 2 ] Caso onde a imagem de referência da lista 1 para modo directo segue temporariamente uma imagem BCaso 1: Ambos um macrobloco de uma imagem B e macrobloco co-localizado da imagem de referência da lista 1 encontram-se em modo de trama
Como se pode ver nas figuras 3a a 3h, o bloco co-localizado na imagem da referência da lista 1 pode apresentar um vector de movimento ou dois vectores de movimento. Na presente invenção, se o bloco co-localizado apresentar dois vectores de movimento, é seleccionado um (LO MV ou LI MV de dois vectores de movimento, sendo vectores de movimento de modo directo obtidos do vector de movimento de modo seleccionado [tal irá ser descrito na presente com base no caso onde LO MV (vector de movimento da lista 0) é seleccionado].
Sendo assim, as figuras 3a e 3c podem ser simplesmente ilustradas respectivamente como figuras 6a, figuras 3b, 3d e 3e como figura 6c e as figuras 3g e 3h como figura 6b. 39
Se a imagem de referência da lista 0 e imagem de referência da lista 1 para modo directo se encontrarem localizadas temporariamente respectivamente antes e após cL imagem B, ( ;figura 6a) , ou ambas as imagens de referência da lista 0 e lista 1 para o modo directo se encontraram localizados temporariamente após a imagem B e a imagem de referência da lista 0 seguir temporariamente a imagem da referência da lista 1 (figura 6b), os vectores de movimento de modo directo MVF e MVB são calculados do seguinte modo: MVf = TDb X MV / TDd MVb = (TDb - TDd) x MV / TDd em que TDB representa uma distância temporal entre uma trama B actual e uma trama de referência da lista 0, e TDd representa uma distância temporal entre uma trama de referência da lista 1 e a trama de referência da lista 0.
Ao aplicar uma operação de Bit ao cálculo dos vectores de movimento de modo directo MVF e MVB para a conferência do mesmo, a equação acima pode ser expressa do seguinte modo: Z = TDB x 256 / TDd <í II (Z x MV + 128) » 8 W = Z - 256 MVB = (W x MV + 128) » 8
Se ambas as imagens de referência da lista 0 e lista 1 para o modo directo se encontrarem localizadas temporariamente 40 após a imagem B e a imagem de referência da lista 0 temporariamente preceder a imagem de referência da lista 1 (figura 6c), os vectores de movimento de modo directo MVF e MVb são calculados do seguinte modo: MVfi = - TDB X MV / TDd MVb = - (TDb + TDd) X MV / TDd
Esta equação pode ser expressa do seguinte modo: Z = - TDB x 2 5 6 / TDd MVf = (Z x MV + 128) » 8 W = Z - 256 MVb = (W x MV + 128) » 8
Caso 2: Os dois macroblocos da imagem B e macrobloco co-localizado da imagem de referência da lista 1 encontram-se em modo de campo
As figuras 7a a 7d apresentam casos onde ambos o macrobloco da imagem B e o macrobloco co-localizado da imagem de referência da lista 1 se encontram em modo de campo. Cada vector de movimento do macrobloco da imagem B é obtido de um vector de movimento de um bloco co-localizado num campo de referência da lista 1 da mesma paridade.
Se as imagens de referência da lista 0 e lista 1 para o modo directo se encontrarem localizadas respectivamente temporariamente antes e após a imagem B, (figura 7a), ou se ambas as imagens da referência da lista 0 e lista 1 para o modo directo se encontrarem localizadas temporariamente após a 41 imagem B e a imagem de referência da lista 0 segue temporariamente a imagem de referência da lista 1 (figura 7b), os vectores de movimento da lista 0 e lista 1 de modo directo MVF;; e MVf,í para cada campo i de uma trama B (i = 0 significa um primeiro campo i = 1 significa um segundo campo) são calculados do seguinte modo: MVF,i = TDb, í X MVi / TDd,íMVb,í = (TDb, i + TDd,í) X MVi / TDd,± em que MVi representa um vector de movimento de um bloco co-localizado de um campo i numa trama de referência da lista 1, TDB;1 representa uma distância temporal entre um campo B actual e um campo de referência da lista 0, representando TDd,i uma distância temporal entre um campo de referência da lista 1 e o campo de referência da lista 0. A equação acima pode ser expressa do seguinte modo: Z = T DB,i X 256 / TDd,í MVf,í = (Z x MVí + 128) » 8 W = Z - 256 MVb,i (W x MVi + 128) » 8
Se, dado que o bloco co-localizado do campo i da trama de referência da lista 1 apresenta um vector de movimento que aponta para um campo numa trama que segue temporariamente a imagem B, ambas as imagens de referência da lista 0 e lista 1 para o modo directo se encontram localizadas temporariamente após a imagem B e a imagem de referência da lista 0 precede 42 temporariamente a imagem de referência da lista 1 (figuras 7c e 7d), os vectores de movimento da lista 0 e lista 1 de modo directo MVf,í e MVf,í são calculados do seguinte modo: MVf, í = - TDb, í X MVi / TDD(1 MVb,í = _ (TDb,í + TDd,í) X MVi / TDd,í A equação acima pode ser expressa do seguinte modo: Z = - TDb,í X 256 / TDd,í MVF, i - (z x MVi + 128) » 8 W = Z - 256 MVBíi = (W x MVi + 128) » 8
Caso 3: O macrobloco da imagem B encontra-se em modo de campo e o macrobloco co-localizado da imagem de referência da lista 1 encontra-se em modo de trama
As figuras 8a a 8c apresentam casos onde o macrobloco da imagem B se encontra em modo de campo e o macrobloco co-localizado da imagem de referência da lista 1 se encontra em modo de trama. Aqui, ao deixar a coordenada vertical do macrobloco actual ser yactuai e a coordenada vertical do macrobloco co-localizado em imagem de referência da lista 1 ser
Yco-localizado, Θ eStâbeleCÍda â relâÇãO de Yco-localizada — 2 X Yactual entre as duas coordenadas. Também, os campos de referência da lista 0 e lista 1 encontram-se presentes nas mesmas paridades 43 dos quadros da referência da lista 0 e lista 1, respectivamente.
Se as imagens de referência da lista 0 e lista 1 para o modo directo se encontrarem localizados temporariamente respectivamente antes e após a imagem B, (figura 8a), ou se ambas as imagens de referência da lista 0 e lista 1 para o modo directo se encontrarem localizadas temporariamente após a imagem B e a imagem de referência da lista 0 seguir temporariamente a imagem da referência da lista 1 (Figura 8b), os vectores de movimento da lista 0 e lista 1 de modo directo MVb,i e MVB, i para cada campo i da trama B são calculados do seguinte modo: MVp, i = TDb,i X MV / TDcMVb,i = (TDb,i — TDd) X MV / TDd a equação acima pode ser expressa do seguinte modo: Z = TDb,í, X 256 / TDJMVp,! = (Z x MV + 128) » 8W = Z - 256 MVb,í = (W x MV + 128) » 8
Se, dado que o bloco co-localizado na trama de referência da lista 1 apresenta um vector de movimento que aponta para uma trama que segue temporariamente a imagem B, ambas as imagens de referência da lista 0 e lista 1 para o modo directo se encontram temporariamente após a imagem B e a imagem de 44 referência da lista 0 precede temporariamente a imagem de referência da lista 1 (figura 8c), os vectores de movimento de modo directo da lista 0 e lista 1 MVb,í e MVB/i para cada campo i da trama B são calculados do seguinte modo: MVF,i = - TDB,i x MV / TDdMVb,í = - (TDb,í + TDd) X MV / TDd A equação acima pode ser expressa do seguinte modo: Z = - TDB(i x 256 / TDd MVf,í = (Z x MV + 128) » 8 W = Z - 256 MVB,i = (W x MVi + 128) » 8 em que TDb,í representa uma distância temporal entre o campo B actual e o campo de referência da lista 0, TDd representa uma distância temporal entre a trama de referência da lista 1 e a trama de referência da lista 0, e MV representa um vector de movimento do bloco co-localizado na trama de referência da lista 1 para o modo directo.
Caso 4: Macrobloco da imagem B encontra-se em modo de trama e o macrobloco co-localizado da imagem de referência da lista 1 encontra-se em modo de campo
As figuras 9a a 9c apresentam casos onde o macrobloco da imagem B se encontra em modo de trama e o macrobloco co localizado da imagem de referência da lista 1 se encontra em modo de campo. Aqui, ao deixar a coordenada vertical do 45 macrobloco actual ser yactuai e a coordenada vertical do macrobloco co-localizado da imagem de referência da lista 1 ser fco-iocaiizador e estabelecida a relação Yco-iocaiízado = Yactuai /2 entre as duas coordenadas. Também, dado que o campo 0 da trama de referência da lista 1 se encontra temporariamente mais próximo da trama B do que o campo 1 do mesmo, a informação do movimento de um bloco co-localizado do campo O é utilizada para cálculo dos vectores de movimento de modo directo.
Se as imagens de referência da lista 0 e lista 1 para o modo directo se encontrarem localizadas temporariamente respectivamente antes e após a imagem B, (figura 9a), ou se ambas as imagens de referência da lista 0 e lista 1 para o modo directo se encontrarem localizadas temporariamente após a imagem B e a imagem de referência da lista 0 seguir temporariamente a imagem de referência da lista 1 (figura 9b), os vectores de movimento da lista 0 e lista 1 para modo directo MVF e MVB da trama B são calculados do seguinte modo: MVf = TDb x MV0 / TDd, o MVb = (TDb - TDd,o) x MVo / TDd,o A equação acima pode ser expressa do seguinte modo Z = TDb x 256 / TDd,0 MVf = (Z x MV0 + 128) » 8 W = Z - 256 MVb = (W x MV0 + 128) » 8 46
Se, dado que o bloco co-localizado da trama de referência do campo 0 do quadro de referência da lista 1 apresenta um vector de movimento que aponta para um campo de uma trama que segue temporariamente a imagem 3, ambas as imagens de referência da lista 0 e lista 1 para o modo directo se encontram localizadas temporariamente após a imagem B e a imagem de referência da lista 0 procede temporariamente a imagem de referência da lista 1 (9c), os vectores de movimento da lista 0 e lista 1 de modo directo MVF e MVB são calculados do seguinte modo: MVp — - TDb x MVo / TDB(o MVb = - (TDb - TDDí0) x MV0 / TDd,0 A equação acima pode ser expressa do seguinte modo: Z — TDb X 256 / TDBío II pui 1 (Z x MV0 + 128) » 8 W = Z - 256 MVb = (W x MV0 + 128) » 8 em que TDB representa uma distância temporal entre a trama B actual e a trama de referência da lista 0, TDd,0 representa uma distância temporal entre um campo 0 da trama de referência da lista 1 e o campo de referência da lista 0, e MV0 representa um vector de movimento do bloco co-localizado no campo 0 da trama de referência da lista 1 para modo directo. 47
[3] Caso em que a imagem da referência da lista 1 para modo directo precede temporariamente uma imagem B
Neste caso, ambas as imagens de referência da lista 0 e lista 1 encontram-se sempre localizadas temporariamente antes da imagem B.
Caso 1: Ambos um macrobloco da imagem B e macrobloco co-localizado da imagem de referência da lista 1 se encontram em modo de trama
Tal como se pode verificar nas figuras 4a a 4h, o bloco co-localizado na imagem de referência da lista 1 pode apresentar um vector de movimento ou dois vectores de movimento. Na presente invenção, se o bloco co-localizado apresentar dois vectores de movimento, um (LO MV ou LI MV) dos dois vectores de movimento é seleccionado, sendo obtidos vectores de movimento de modo directo do vector de movimento seleccionado [isto irá ser descrito na presente com base no caso em que LO MV (vector de movimento da lista 0) é seleccionado].
Sendo assim, as figuras 4a, 4c, 4e, 4g e 4h podem ser simplesmente ilustradas como figuras 10a, e as figuras 4b e 4d respectivamente como figuras 10b.
Se a imagem da referência da lista 0 para modo directo preceder temporariamente a imagem de referência da lista 1 para modo directo, os vectores de movimento de modo directo MVF e MVB são calculados do seguinte modo (figura 10a): 48 MVf = TDb x MV / TDd MVb = (TDb - TDd) x MV / TDd
em que TDB representa uma distância temporal entre uma trama B actual e uma trama de referência da lista 0, TDd representa uma distância temporal entre uma trama de referência da lista 1 e a trama de referência da lista 0, e MV representa um vector de movimento do bloco co-localizado na trama de referência da lista 1 para modo directo. A equação acima pode ser expressa do seguinte modo Z = TDb x 256 / TDd MVf = (Z x MV + 128) » 8 W = Z - 256 MVB = (W x MV + 128) » 8
Se a imagem de referência da lista 0 seguir temporariamente a imagem da referência da lista 1, os vectores de movimento de modo directo MVF e MVB são calculados do seguinte modo (figura 10b): MVF = - TDb x MV / TDd MVb = - (TDb + TDd) x MV / TDd
Esta equação pode ser expressa do seguinte modo: TDb x 256 / TDd MVf = (Z x MV + 128) » 8 Z - 256 MVb = (W x MV + 128) » 8 49 em que TDB representa uma distância temporal entre a trama B actual e a trama de referência da lista 0, tdd representa uma distância temporal entre a trama de referência da lista 1 e a trama referência da lista 0, e MV representa um vector de movimento do bloco co-localizado na imagem de referência da lista 1 para modo directo.
Caso 2: Ambos um macrobloco da imagem B e o macrobloco co-localizado da imagem de referência da lista 1 se encontram em modo de campo
Se a imagem de referência da lista 0 para modo directo preceder temporariamente a imagem de referência da lista 1 para modo directo, os vectores de movimento da lista 0 e lista 1 para modo directo MVf,í e MVb,í para cada campo i de uma trama B, são calculados do seguinte modo (figuras 11a e 11b) : MVF(i =TDb, i x MVi / TDd,i MVb,í = (TDb,í - TDb,í) x MVí / TDb,i A equação acima pode ser expressa do seguinte modo: Z = TDB,i X 2 5 6 / TDd,í II -H pn-i 1 (Z x MVí + 128) » 8W = Z - 256 MVb,í = (W x MVí + 128) » 8 em que TDb,í representa uma distância temporal entre um campo B actual e um campo de referência da lista 0, TDb,í representa uma 50 distância temporal entre um campo de referência da lista 1 e o campo de referência da lista 0, e MVi representa um vector de movimento de um bloco co-localizado num campo de referência da lista 1 para modo directo.
Se, dado que o bloco co-localizado do campo i na trama de referência da lista 1 apresenta um vector de movimento que aponta para um campo numa trama que o segue temporariamente, a imagem de referência da lista 0 preceder temporariamente a imagem de referência da lista 1, os vectores de movimento da lista 0 e lista 1 de modo directo MVf,í e MVb,í são calculados do seguinte modo (figuras 11c e lld): MVf,í = - TDb, i x MVi / TDd, ,MVBf; = - (TDb,í + TDDfi) x MVi / TDB(i A equação acima pode ser expressa do seguinte modo: Z = - TDB,i x 256 / TDd mvFí1 = (Z x MVi + 128) » 8W - 256 mvb,f = (W x MVi + 128) » 8 em que TDb,í representa uma distância temporal entre o campo B actual e o campo de referência da lista 0, TDb,í representa uma distância temporal entre um campo de referência da lista 1 e o campo de referência da lista 0, e MVB representa um vector de movimento do bloco co-localizado no campo de referência da lista 1 para modo directo. 51
Caso 3: O macrobloco da figura B encontra-se em modo de campo e o macrobloco co-localizado da imagem de referência da lista 1 encontra-se em modo de trama
Se a imagem de referência da lista 0 para modo directo preceder temporariamente a imagem de referência da lista 1 para modo directo, os vectores de movimento da lista 0 e lista 1 para modo directo MVF,F e MVBíi para cada campo i da trama B são calculados do seguinte modo (figura 12a): MVf,i = TDb,í x MV / TDdMVb,í = (TDB(i - TDd) x MV / TDd A equação acima pode ser expressa do seguinte modo: Z = TDB(i x 256 / TDd MVf,í = (Z x MV + 128) » 8 W = Z - 256 MVb,í = (W x MV + 128) » 8 em que TDb,i representa uma distância temporal entre o campo B actual e o campo de referência da lista 0, TDD representa uma distância temporal entre a trama de referência da lista 1 e a trama de referência da lista 0, e MV representa um vector de movimento do bloco co-localizado na trama de referência da lista 1 para modo directo.
Se, dado que o bloco co-localizado na trama de referência da lista 1 apresenta um vector de movimento que aponta para uma trama que segue temporariamente, a imagem de referência da lista 0 seguir temporariamente a imagem de referência da lista 52 1, os vectores de movimento da lista 0 e lista 1 de modo directo mvFíF e MVb,í para cada campo i da trama B são calculados do seguinte modo (figura 12b): mvf,í = - tdb,í x mv / tdd MVb,í = - (TDb,í + TDd) x MV / TDf A equação acima pode ser expressa do seguinte modo: Z = - TDb,í x 256 / TDd MVf,í = (Z x MV + 128) » 8 W = Z - 256 MVb,í = (W x MV + 128) » 8 em que TDb,i representa uma distância temporal entre o campo B actual e o campo de referência da lista 0, TDD representa uma distância temporal entre a trama de referência da lista 1 e a trama de referência da lista 0, e MV representa um vector de movimento do bloco co-localizado na trama de referência da lista 1 para modo directo.
Caso 4: O macrobloco da imagem B encontra-se em modo de trama e o macrobloco co-localizado da imagem de referência da lista 1 encontra-se em modo de campo
Dado que o campo 1 fl da trama de referência da lista 1 se encontra temporariamente mais próximo da imagem B do que o campo O fO do mesmo, a informação do movimento de um bloco co-localizado do campo 1 fl é utilizado para cálculo dos vectores de movimento de modo directo. 53
Se a imagem de referência da lista 0 para modo directo preceder temporariamente a imagem de referência da lista 1 e para modo directo, os vectores de movimento da lista 0 lista 1 para modo directo mvf e MVB para cada campo i da trama B são calculados do seguinte modo (figura 13a): MVf = TDb X MVi / TDd,iMVb = (TDB - TD^) X MVX / TDDfl A equação acima pode ser expressa do seguinte modo: Z = TDB x 256 / TDd,i MVf = (Z X MVi + 128) » 8W = Z 256 MVb = (W X MVi f 128) » 8 em que TDB representa uma distância temporal entre a trama B actual e a trama de referência da lista 0, TDD;i representa uma distância temporal entre um campo 1 da trama de referência da lista 1 e o campo de referência da lista 0, e MVi representa um vector de movimento do bloco co-localizado no campo 1 numa trama de referência da lista 1 para modo directo.
Se, dado que o bloco co-localizado do campo 1 fl da trama de referência da lista 1 apresentar um vector de movimento que aponta para um campo de uma trama que segue temporariamente, a imagem de referência da lista 0 segue temporariamente a imagem de referência da lista 1, sendo os vectores de movimento da lista 0 e lista 1 de modo directo MVF e MVB calculados do seguinte modo (figura 13b): 54 MVf = - TDb x MVi / TDd, i MVb = - (TDB + TDd,i) X MVi / TDd,i A equação acima pode ser expressa do seguinte modo: Z = - TDb X 256 / TDd,i MVf = (Z x MVi + 128) » 8W = Z - 256 MVb = (w x MVi + 128) » 8 em que TDB representa uma distância temporal entre a trama B actual e a trama de referência da lista 0, TDD;i representa uma distância temporal entre o campo 1 da trama de referência da lista 1 e o campo de referência da lista 0, e MVi representa um vector de movimento do bloco co-localizado do campo 1 da trama de referência da lista 1 para modo directo.
[4] Caso, onde os vectores de movimento de modo directo são calculados atribuindo sinais a valores de distância temporais entre imagens
No caso em que a imagem de referência da lista 1 para modo directo se encontra localizada temporariamente antes ou após a imagem B, são dados dois tipos de algoritmos para cada caso. Tais algoritmos podem ser simplesmente expressos atribuindo um sinal a um valor de distância temporal inter-imagem, do seguinte modo. 55
Caso 1: Ambos o macrobloco da imagem B e macrobloco co-localizado da imagem de referência da lista 1 se encontram em modo de trama
Se ambos o macrobloco da imagem B e macrobloco co-localizado da imagem de referência da lista 1 se encontrarem em modo de trama, os vectores de movimento de modo directo MVF e MVb da imagem B podem ser calculados do seguinte modo: MVf = TDb x MV / TDdMVb = (TDB - TDd) x MV / TDd o u Z = TDb X 256 / TDd MVf = (Z x MV + 128) » 8 W = Z - 256 MVb = (W x MV + 128) » 8 em que T DB representa uma distância temporal entre uma actual e uma trama de referência da lista 0, ao qual se encontra atribuído um sinal positivo (+) se for medido da trama B e um sinal negativo (-) se for medido da trama de referência da lista 0, TDd representa uma distância temporal entre uma trama de referência da lista 1 e a trama de referência da lista 0, ao qual se encontra atribuído um sinal positivo ( + ) se for medido da trama de referência da lista 1 e um sinal negativo (-) se for medida da trama de referência da lista 0, e MV representa um vector de movimento do bloco co-localizado na imagem da referência da lista 1 para modo directo. 56
Caso 2: Ambos um macrobloco da imagem B e o macrobloco co-localizado da imagem de referência da lista 1 se encontram em modo de campo
Se ambos, o macrobloco da imagem B e o macrobloco co-localizado da imagem de referência da lista 1 se encontram em modo de campo, os vectores de movimento de modo directo MVFfi e MVb,í para cada campo i da trama B, podem ser calculados do seguinte modo: mvF(Í = TDb,í x MVi / TDd,i MVb,í = (TDB,i - TDd,í) x MVi / TDd,í ou Z = TDB,i x 2 5 6 / TDd,í MVf,í = (Z x MVi + 12 8) » 8 W = Z - 256 MVb,í = (W x MVi + 128) » 8 em que TDBí1 representa uma distância temporal entre um campo B actual e um campo de referência da lista 0, ao qual se encontra atribuído um sinal positivo ( + ) se for medido do campo B e um sinal negativo (-) se for medido da trama de referência da lista 0, TDd,í representa uma distância temporal entre uma trama de referência da lista 1 e a trama de referência da lista 0, ao qual se encontra atribuído um sinal positivo (+) se for medido da trama de referência da lista 1 e um sinal negativo (-) se for medido da trama de referência da lista 0, e MVf representa 57 um vector de movimento de um bloco co-localizado num campo de referência da lista 1 para modo directo.
Caso 3: O macrobloco da imagem B encontra-se em modo de campo e o macrobloco co-localizado da imagem de referência da lista 1 encontra-se em modo de trama
Se o macrobloco da imagem B se encontrar em modo de campo e o macrobloco co-localizado da imagem da referência da lista 1 se encontrar em modo de trama, os vectores de movimenta de modo directo MVF(i e MVb,í para cada campo i da trama B podem ser calculados do seguinte modo:
ou Z = TDB,i x 2 5 6 / TDd W = Z - 256 MVf,í = ( Z x MV + 12 8) » 8 MVb,í = (W x MV + 128) » 8 em que TDb,í representa uma distância temporal entre o campo B actual e o campo de referência da lista 0, ao qual se encontra atribuído um sinal positivo ( + ) se for medido do campo B e um sinal negativo (-) se for medido do campo de referência da lista 0, TDd representa uma distância temporal entre o campo de referência da lista 1 e o campo de referência da lista 0, ao qual se encontra atribuído um sinal positivo (+) se for medido da trama de referência da lista 1 e um sinal negativo (-) se 58 for medido da trama de referência da lista 0, e MV representa um vector de movimento do bloco co-localizado da trama de referência da lista 1 para modo directo.
Caso 4: O macrobloco da imagem B encontra-se em modo de trama e o macrobloco co-localizado da imagem de referência da lista 1 encontra-se em modo de campo
Se o macrobloco da imagem B se encontrar em modo de trama, o macrobloco co-localizado da imagem de referência da lista 1 encontra-se em modo de campo, seguindo a trama de referência da lista 1 temporariamente a imagem B, encontrando-se o campo 0 da trama de referência da lista 1 temporariamente mais próximo da imagem B do que o campo 1 do mesmo, de modo que a informação do movimento de um bloco co-localizado do campo 0 é utilizado para cálculo dos vectores de movimento de modo directo. Como resultado, os vectores de movimento de modo directo MVF e MVB da trama B podem ser obtidos da equação seguinte onde a informação do movimento do bloco co-localizado no campo 0 da trama de referência da lista 1 é utilizado para o cálculo dos vectores de movimento de modo directo: MVF = TDb x MVo / TDD( o MVb = (TDb - TDd,0) x MV0 / TDd,0
Ou Z = TDB x 256 / TDd,o MVf = (Z x MV0 + 128) » 8 59 W = Ζ - 256 MVB = (W x MVq + 128) » 8 em que TDB representa uma distância temporal entre a trama B actual e a trama de referência da lista 0, ao qual se encontra atribuido um sinal positivo (-) se for medido da trama B e um sinal negativo (-) se for medido da trama de referência da lista 0, TDd,0 representa uma distância temporal entre um campo 0 da trama de referência da lista 1 e a trama de referência da lista 0, ao qual se encontra atribuido um sinal positivo (+) se for medido da trama de referência da lista 1 e um sinal negativo (-) se for medido da trama de referência da lista 0, e MV0 representa um vector de movimento do bloco co-localizado no campo 0 da trama de referência da lista 1 para modo directo.
Se a imagem de referência da lista 1 preceder temporariamente a imagem B, o campo 1 da trama de referência da lista 1 encontra-se temporariamente mais próximo da trama B do que o campo 0 do mesmo, de modo que é utilizada a informação do movimento de um bloco co-localizado do campo 1 para cálculo dos vectores de movimento de modo directo. Como resultado, os vectores de movimento de modo directo MVF e MVB da trama B podem ser obtidos da equação seguinte onde a informação do movimento do bloco localizado no campo 1 da trama de referência da lista 1 é utilizada para cálculo dos vectores de movimento de modo directo: MVf = TDb x MVi / TDd,i 60 MVb = (TDB - TDDfl) x MV! / TDd,!
OU Z = TDB X 256 / TDd,i MVf = (Z x MVi + 128) » 8 W = Z - 256 MVb = (W x MVX + 128) » 8 em que TDB representa uma distância temporal entre a trama B actual e a trama de referência da lista 0, ao qual se encontra atribuído um sinal positivo (+) ser for medido da trama B e um sinal negativo (-) se for medido da trama de referência da lista 0, TDd,i representa uma distância temporal entre um campo 1 da trama de referência da lista 1 e o campo de referência da lista 0, ao qual se encontra atribuído um sinal positivo (+) se for medido do campo 1 da trama de referência da lista 1 e um sinal negativo (-) se for medido da trama de referência da lista 0, representando MVi um vector de movimento do bloco co-localizado do campo 1 da trama de referência da lista 0 para modo directo.
Tal como é visível da descrição acima, a presente invenção proporciona um processo para calcular os vectores de movimento de modo directo de uma imagem B (bi-predictiva) definida numa técnica de compressão de imagem e movimento da próxima geração. É proposta uma técnica para extrair os vectores de movimento de modo directo da imagem B para aumentar a probabilidade de um modo directo ser seleccionado como um modo de previsão de um 61 macrobloco, melhorando deste modo a eficiência de codificação de imagem B.
Lisboa, 21 de Dezembro de 2010. 62

Claims (2)

  1. REIVINDICAÇÕES 1. Processo para extrair vectores de movimento de modo directo de um macrobloco actual numa imagem B no processamento de imagem em movimento, compreendendo: determinar um bloco co-localizado para o macrobloco actual numa imagem de referência da lista 1; seleccionar um vector de movimento do bloco co-localizado na imagem de referência da lista 1; derivar os vectores de movimento do macrobloco actual na imagem B a partir do vector de movimento seleccionado; em que o passo de derivar os vectores de movimento do macrobloco actual na imagem B a partir do vector de movimento seleccionado compreende a aplicação de um deslocamento aritmético para a direita de 8 bits para o vector de movimento do macrobloco corrente; e as ditas lista 0 e lista 1 estão respectivamente de acordo com a norma H.264/ MPEG-4 parte 10; caracterizado por o passo de selecção do vector de movimento do bloco co-localizado na imagem de referência da lista 1 ser executado seleccionando o vector de movimento a partir de um vector de movimento da lista 0 e um vector de 1 movimento da lista 1 do bloco co-localizado na imagem de referência da lista 1; e o vector de movimento da lista 1 do bloco co-localizado na imagem de referência da lista 1 para modo directo é seleccionado como o vector de movimento para derivação dos ditos vectores de movimento para modo directo se o bloco co-localizado na imagem de referência da lista 1 só tiver o vector de movimento da lista 1.
  2. 2. Processo de acordo com a reivindicação 1, compreendendo ainda o passo de determinação de uma imagem de referência apontada por um vector de movimento do bloco co-localizado na imagem de referência da lista 1 como a imagem de referência da lista 0 para modo directo. Lisboa, 21 de Dezembro de 2010. 2
PT08016893T 2002-10-04 2003-01-07 Processo para o cálculo do vectores de movimento em modo directo PT2009927E (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR20020060742 2002-10-04
KR20020061243 2002-10-08
KR10-2002-0071226A KR100506864B1 (ko) 2002-10-04 2002-11-15 모션벡터 결정방법

Publications (1)

Publication Number Publication Date
PT2009927E true PT2009927E (pt) 2010-12-29

Family

ID=35871226

Family Applications (10)

Application Number Title Priority Date Filing Date
PT07003015T PT1821547E (pt) 2002-10-04 2003-01-07 Processo para o cálculo do vectores de movimento em modo directo para imagem
PT08016888T PT2015585E (pt) 2002-10-04 2003-01-07 Processo para o cálculo do vectores de movimento em modo directo
PT05018606T PT1603344E (pt) 2002-10-04 2003-01-07 Processo para o cálculo do vector de movimento em modo directo para imagem b
PT07003014T PT1809048E (pt) 2002-10-04 2003-01-07 Processo para o cálculo do vectores de movimento de imagem b
PT03000209T PT1406453E (pt) 2002-10-04 2003-01-07 Processo para o cálculo do vector de movimento em modo directo para imagens do tipo b
PT08016890T PT2003899E (pt) 2002-10-04 2003-01-07 Processo para o cálculo do vectores de movimento em modo directo
PT08016895T PT2009928E (pt) 2002-10-04 2003-01-07 Processo para o cálculo do vectores de movimento em modo directo
PT08016891T PT2003900E (pt) 2002-10-04 2003-01-07 Processo para o cálculo do vectores de movimento em modo directo
PT08016893T PT2009927E (pt) 2002-10-04 2003-01-07 Processo para o cálculo do vectores de movimento em modo directo
PT07003016T PT1796396E (pt) 2002-10-04 2003-01-07 Processo para o cálculo do vector de movimento em modo directo para imagem b

Family Applications Before (8)

Application Number Title Priority Date Filing Date
PT07003015T PT1821547E (pt) 2002-10-04 2003-01-07 Processo para o cálculo do vectores de movimento em modo directo para imagem
PT08016888T PT2015585E (pt) 2002-10-04 2003-01-07 Processo para o cálculo do vectores de movimento em modo directo
PT05018606T PT1603344E (pt) 2002-10-04 2003-01-07 Processo para o cálculo do vector de movimento em modo directo para imagem b
PT07003014T PT1809048E (pt) 2002-10-04 2003-01-07 Processo para o cálculo do vectores de movimento de imagem b
PT03000209T PT1406453E (pt) 2002-10-04 2003-01-07 Processo para o cálculo do vector de movimento em modo directo para imagens do tipo b
PT08016890T PT2003899E (pt) 2002-10-04 2003-01-07 Processo para o cálculo do vectores de movimento em modo directo
PT08016895T PT2009928E (pt) 2002-10-04 2003-01-07 Processo para o cálculo do vectores de movimento em modo directo
PT08016891T PT2003900E (pt) 2002-10-04 2003-01-07 Processo para o cálculo do vectores de movimento em modo directo

Family Applications After (1)

Application Number Title Priority Date Filing Date
PT07003016T PT1796396E (pt) 2002-10-04 2003-01-07 Processo para o cálculo do vector de movimento em modo directo para imagem b

Country Status (15)

Country Link
US (31) US7233621B2 (pt)
EP (21) EP2003899B1 (pt)
JP (19) JP4020789B2 (pt)
KR (1) KR100506864B1 (pt)
CN (3) CN100473170C (pt)
AT (10) ATE488964T1 (pt)
CY (10) CY1106351T1 (pt)
DE (13) DE60335046D1 (pt)
DK (10) DK2009928T3 (pt)
ES (1) ES2281573T3 (pt)
GB (4) GB2406460B (pt)
HK (5) HK1073556A1 (pt)
NL (3) NL1022333C2 (pt)
PT (10) PT1821547E (pt)
SI (10) SI2015585T1 (pt)

Families Citing this family (145)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6499060B1 (en) 1999-03-12 2002-12-24 Microsoft Corporation Media coding for loss recovery with remotely predicted data units
EP2148512A3 (en) * 2001-11-06 2010-07-28 Panasonic Corporation Moving image coding method, and moving image decoding method
US20030099294A1 (en) * 2001-11-27 2003-05-29 Limin Wang Picture level adaptive frame/field coding for digital video content
US7003035B2 (en) 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
JP2004088722A (ja) 2002-03-04 2004-03-18 Matsushita Electric Ind Co Ltd 動画像符号化方法および動画像復号化方法
KR100931750B1 (ko) 2002-04-19 2009-12-14 파나소닉 주식회사 움직임 벡터 계산방법
US20040001546A1 (en) 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
US7088776B2 (en) 2002-07-15 2006-08-08 Apple Computer, Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
US7154952B2 (en) 2002-07-19 2006-12-26 Microsoft Corporation Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures
US6728315B2 (en) 2002-07-24 2004-04-27 Apple Computer, Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US8254461B2 (en) 2002-07-24 2012-08-28 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
KR100506864B1 (ko) 2002-10-04 2005-08-05 엘지전자 주식회사 모션벡터 결정방법
US7499493B2 (en) * 2003-06-20 2009-03-03 Lsi Corporation Dual block motion vector storage in compressed form
US20050013498A1 (en) 2003-07-18 2005-01-20 Microsoft Corporation Coding of motion vector information
US7609763B2 (en) * 2003-07-18 2009-10-27 Microsoft Corporation Advanced bi-directional predictive coding of video frames
US7724827B2 (en) 2003-09-07 2010-05-25 Microsoft Corporation Multi-layer run level encoding and decoding
US8064520B2 (en) * 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
US7620106B2 (en) * 2003-09-07 2009-11-17 Microsoft Corporation Joint coding and decoding of a reference field selection and differential motion vector information
US7567617B2 (en) 2003-09-07 2009-07-28 Microsoft Corporation Predicting motion vectors for fields of forward-predicted interlaced video frames
US7616692B2 (en) * 2003-09-07 2009-11-10 Microsoft Corporation Hybrid motion vector prediction for interlaced forward-predicted fields
US8085844B2 (en) * 2003-09-07 2011-12-27 Microsoft Corporation Signaling reference frame distances
US7577198B2 (en) 2003-09-07 2009-08-18 Microsoft Corporation Number of reference fields for an interlaced forward-predicted field
US7623574B2 (en) * 2003-09-07 2009-11-24 Microsoft Corporation Selecting between dominant and non-dominant motion vector predictor polarities
FR2860678A1 (fr) * 2003-10-01 2005-04-08 Thomson Licensing Sa Procede de codage differentiel
US7400681B2 (en) * 2003-11-28 2008-07-15 Scientific-Atlanta, Inc. Low-complexity motion vector prediction for video codec with two lists of reference pictures
CN1225128C (zh) * 2003-12-31 2005-10-26 中国科学院计算技术研究所 直接编码模式下确定参考图像块的方法
CN1321534C (zh) * 2003-12-31 2007-06-13 中国科学院计算技术研究所 固定参考帧数编码方式下获取图像参考块的方法
US8036271B2 (en) * 2004-02-24 2011-10-11 Lsi Corporation Method and apparatus for determining a second picture for temporal direct-mode block prediction
KR100584603B1 (ko) * 2004-08-03 2006-05-30 학교법인 대양학원 다시점 영상의 다이렉트 모드 움직임 예측 방법 및 장치
BRPI0515723A (pt) * 2004-11-04 2008-08-05 Thomson Licensing método e aparelho para a decisão de modo rápido de b-quadros em um codificador de vìdeo
US8634413B2 (en) 2004-12-30 2014-01-21 Microsoft Corporation Use of frame caching to improve packet loss recovery
JP2006352238A (ja) * 2005-06-13 2006-12-28 Sony Corp 画像処理装置、画像処理方法及びプログラム
KR100746006B1 (ko) * 2005-07-19 2007-08-06 삼성전자주식회사 계층적 구조에 적합하게 시간적 다이렉트 모드로인코딩하며, 디코딩하는 방법 및 장치
JP2007028393A (ja) * 2005-07-20 2007-02-01 Matsushita Electric Ind Co Ltd 双方向予測符号化ピクチャの直接モードブロックの動きベクトルを求める方法
US8498520B2 (en) * 2005-07-27 2013-07-30 Vbrick Systems, Inc. Video encoding and transmission technique for efficient, multi-speed fast forward and reverse playback
FR2891685B1 (fr) * 2005-10-03 2008-04-18 Envivio France Entpr Uniperson Procede et dispositif d'estimation de mouvement a references multiples, procede et dispositif de codage, produits programme d'ordinateur et moyens de stockage correspondants.
JP4702943B2 (ja) * 2005-10-19 2011-06-15 キヤノン株式会社 画像処理装置及びその方法
JP4879558B2 (ja) * 2005-11-02 2012-02-22 パナソニック株式会社 動きベクトル検出装置
JP5020829B2 (ja) * 2005-12-27 2012-09-05 シャープ株式会社 動画像復号装置および動画像符号化装置
EP1806930A1 (en) * 2006-01-10 2007-07-11 Thomson Licensing Method and apparatus for constructing reference picture lists for scalable video
US20070171977A1 (en) * 2006-01-25 2007-07-26 Shintaro Kudo Moving picture coding method and moving picture coding device
FR2897213A1 (fr) * 2006-02-08 2007-08-10 Thomson Licensing Sas Procede de codage par blocs d'images d'une sequence d'images video
JP4527677B2 (ja) * 2006-03-15 2010-08-18 富士通株式会社 動画像符号化方法、動画像符号化装置、動画像符号化プログラム
US8270492B2 (en) * 2006-05-12 2012-09-18 Panasonic Corporation Moving picture decoding device
AU2007311476C1 (en) * 2006-10-16 2013-01-17 Nokia Technologies Oy System and method for implementing efficient decoded buffer management in multi-view video coding
CN101227601B (zh) * 2007-01-15 2011-09-14 飞思卡尔半导体公司 在视频再现中进行几何变换的方法和设备
KR100955396B1 (ko) * 2007-06-15 2010-04-29 성균관대학교산학협력단 양-예측 부호화 방법 및 장치, 양-예측 복호화 방법 및장치 및 기록매체
WO2008153262A1 (en) * 2007-06-15 2008-12-18 Sungkyunkwan University Foundation For Corporate Collaboration Bi-prediction coding method and apparatus, bi-prediction decoding method and apparatus, and recording midium
US8254455B2 (en) 2007-06-30 2012-08-28 Microsoft Corporation Computing collocated macroblock information for direct mode macroblocks
CN101119493B (zh) * 2007-08-30 2010-12-01 威盛电子股份有限公司 区块式数字编码图像的译码方法及装置
BRPI0818344A2 (pt) * 2007-10-12 2015-04-22 Thomson Licensing Métodos e aparelhos para codificação e decodificação de vídeo de partições de modo bi-preditivo geometricamente particionadas
US8743952B2 (en) * 2007-12-18 2014-06-03 Vixs Systems, Inc Direct mode module with motion flag precoding and methods for use therewith
KR101505195B1 (ko) * 2008-02-20 2015-03-24 삼성전자주식회사 직접 모드 부호화 및 복호화 방법
WO2009148412A1 (en) * 2008-06-06 2009-12-10 Agency For Science, Technology And Research Methods and devices for estimating motion in a plurality of frames
JP5578775B2 (ja) 2008-09-02 2014-08-27 富士通株式会社 符号化装置および復号装置
CN102160382A (zh) * 2008-09-24 2011-08-17 索尼公司 图像处理设备和图像处理方法
US8189666B2 (en) 2009-02-02 2012-05-29 Microsoft Corporation Local picture identifier and computation of co-located information
TWI405469B (zh) * 2009-02-20 2013-08-11 Sony Corp Image processing apparatus and method
CN103826127B (zh) * 2009-06-18 2017-03-01 株式会社东芝 运动图像编码装置和运动图像编码方法
BRPI0924908B1 (pt) * 2009-06-18 2021-05-11 Kabushiki Kaisha Toshiba aparelhos de codificação e decodificação de vídeo, métodos para codificação e decodificação de vídeo
CN103888778B (zh) * 2009-06-18 2017-12-08 株式会社东芝 运动图像解码装置
CN103826126B (zh) * 2009-06-18 2017-09-29 株式会社东芝 运动图像编码装置和运动图像编码方法
US9628794B2 (en) 2009-06-18 2017-04-18 Kabushiki Kaisha Toshiba Video encoding apparatus and a video decoding apparatus
KR20110008653A (ko) * 2009-07-20 2011-01-27 삼성전자주식회사 움직임 벡터 예측 방법과 이를 이용한 영상 부호화/복호화 장치 및 방법
US9060176B2 (en) * 2009-10-01 2015-06-16 Ntt Docomo, Inc. Motion vector prediction in video coding
US8594200B2 (en) * 2009-11-11 2013-11-26 Mediatek Inc. Method of storing motion vector information and video decoding apparatus
WO2011070730A1 (ja) * 2009-12-07 2011-06-16 日本電気株式会社 映像符号化装置および映像復号装置
KR101348613B1 (ko) 2009-12-23 2014-01-10 한국전자통신연구원 영상의 부호화/복호화 장치 및 그 방법
KR101522850B1 (ko) * 2010-01-14 2015-05-26 삼성전자주식회사 움직임 벡터를 부호화, 복호화하는 방법 및 장치
CN102823248B (zh) 2010-04-08 2015-06-24 株式会社东芝 图像编码方法以及图像编码装置
KR101752418B1 (ko) * 2010-04-09 2017-06-29 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
KR102344855B1 (ko) * 2010-05-26 2021-12-28 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
WO2011155171A1 (ja) * 2010-06-09 2011-12-15 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、ならびに動画像復号装置、動画像復号方法及び動画像復号プログラム
JP2011259230A (ja) * 2010-06-09 2011-12-22 Jvc Kenwood Corp 動画像復号装置、動画像復号方法及び動画像復号プログラム
JP2011259229A (ja) * 2010-06-09 2011-12-22 Jvc Kenwood Corp 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム
US9124898B2 (en) * 2010-07-12 2015-09-01 Mediatek Inc. Method and apparatus of temporal motion vector prediction
KR20120016991A (ko) * 2010-08-17 2012-02-27 오수미 인터 프리딕션 방법
WO2012042719A1 (ja) * 2010-09-30 2012-04-05 三菱電機株式会社 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法
PT3001686T (pt) * 2010-10-06 2020-03-26 Ntt Docomo Inc Dispositivo de descodificação de imagem de previsão dupla, método e programa
US9300961B2 (en) * 2010-11-24 2016-03-29 Panasonic Intellectual Property Corporation Of America Motion vector calculation method, picture coding method, picture decoding method, motion vector calculation apparatus, and picture coding and decoding apparatus
US9137544B2 (en) * 2010-11-29 2015-09-15 Mediatek Inc. Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes
WO2012073481A1 (ja) * 2010-11-29 2012-06-07 パナソニック株式会社 動画像符号化方法および動画像復号化方法
US8711940B2 (en) 2010-11-29 2014-04-29 Mediatek Inc. Method and apparatus of motion vector prediction with extended motion vector predictor
EP2661080A4 (en) * 2010-12-31 2016-06-29 Korea Electronics Telecomm METHOD FOR CODING VIDEO INFORMATION AND METHOD FOR DECODING VIDEO INFORMATION AND DEVICE THEREFOR
KR101820997B1 (ko) * 2011-01-12 2018-01-22 선 페이턴트 트러스트 동화상 부호화 방법 및 동화상 복호화 방법
US9300963B2 (en) * 2011-01-19 2016-03-29 Mediatek Inc. Method and apparatus for parsing error robustness of temporal motion vector prediction
US9008181B2 (en) 2011-01-24 2015-04-14 Qualcomm Incorporated Single reference picture list utilization for interprediction video coding
WO2012102021A1 (ja) 2011-01-25 2012-08-02 パナソニック株式会社 動画像符号化方法および動画像復号化方法
ES2398095B1 (es) * 2011-01-31 2014-01-27 Universidad Politécnica De Valencia Instalación para simular las condiciones de presión y temperatura del aire aspirado por un motor de combustión interna alternativo.
US20130322535A1 (en) * 2011-02-21 2013-12-05 Electronics And Telecommunications Research Institute Method for encoding and decoding images using plurality of reference images and device using method
WO2012114694A1 (ja) 2011-02-22 2012-08-30 パナソニック株式会社 動画像符号化方法、動画像符号化装置、動画像復号方法、および、動画像復号装置
US10171813B2 (en) 2011-02-24 2019-01-01 Qualcomm Incorporated Hierarchy of motion prediction video blocks
MX2013009864A (es) 2011-03-03 2013-10-25 Panasonic Corp Metodo de codificacion de imagenes en movimiento, metodo de decodificacion de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, aparato de decodificacion de imagenes en movimiento y aparato de codificacion y decodificacion de imagenes en movimiento.
US9288501B2 (en) 2011-03-08 2016-03-15 Qualcomm Incorporated Motion vector predictors (MVPs) for bi-predictive inter mode in video coding
BR112013022646B1 (pt) * 2011-03-09 2022-09-13 Kabushiki Kaisha Toshiba Método para codificação e decodificação de imagem e a realização de interpredição nos blocos de pixels divididos
AU2011362447B2 (en) * 2011-03-14 2015-09-24 Hfi Innovation Inc. Method and apparatus for deriving temporal motion vector prediction
RU2719308C2 (ru) 2011-04-12 2020-04-17 Сан Пэтент Траст Способ кодирования движущихся изображений, устройство кодирования движущихся изображений, способ декодирования движущихся изображений, устройство декодирования движущихся изображений и устройство кодирования и декодирования движущихся изображений
WO2012160803A1 (ja) 2011-05-24 2012-11-29 パナソニック株式会社 画像符号化方法、画像符号化装置、画像復号方法、画像復号装置、および、画像符号化復号装置
US9485518B2 (en) 2011-05-27 2016-11-01 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
PL2717575T3 (pl) 2011-05-27 2019-03-29 Sun Patent Trust Sposób dekodowania obrazów i urządzenie do dekodowania obrazów
CN103548351B (zh) 2011-05-31 2017-07-11 太阳专利托管公司 运动图像解码方法及运动图像解码装置
SG194746A1 (en) 2011-05-31 2013-12-30 Kaba Gmbh Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device
TWI530161B (zh) * 2011-06-07 2016-04-11 Sony Corp Image processing apparatus and method
US9282338B2 (en) * 2011-06-20 2016-03-08 Qualcomm Incorporated Unified merge mode and adaptive motion vector prediction mode candidates selection
KR20120140592A (ko) 2011-06-21 2012-12-31 한국전자통신연구원 움직임 보상의 계산 복잡도 감소 및 부호화 효율을 증가시키는 방법 및 장치
WO2012177052A2 (ko) 2011-06-21 2012-12-27 한국전자통신연구원 인터 예측 방법 및 그 장치
ES2715613T3 (es) 2011-06-28 2019-06-05 Lg Electronics Inc Método para fijar una lista de vectores de movimiento
MX2013013029A (es) 2011-06-30 2013-12-02 Panasonic Corp Metodo de decodificacion de imagenes, metodo de codificacion de imagenes, dispositivo de decodificacion de imagenes, dispositivo de codificacion de imagenes y dispositivo de codificacion/decodifi cacion de imagenes.
KR20140034292A (ko) * 2011-07-01 2014-03-19 모토로라 모빌리티 엘엘씨 움직임 벡터 예측 설계 간소화
MX2014000159A (es) * 2011-07-02 2014-02-19 Samsung Electronics Co Ltd Metodo y aparato para la codificacion de video, y metodo y aparato para la decodificacion de video acompañada por inter prediccion utilizando imagen co-localizada.
EP3487178A1 (en) 2011-08-03 2019-05-22 Sun Patent Trust Video encoding method, video encoding apparatus, video decoding method, video decoding apparatus, and video encoding/decoding apparatus
KR101999869B1 (ko) 2011-10-19 2019-07-12 선 페이턴트 트러스트 화상 부호화 방법, 화상 부호화 장치, 화상 복호 방법, 및, 화상 복호 장치
AU2011379313A1 (en) * 2011-10-21 2014-05-22 Nokia Technologies Oy Method for video coding and an apparatus
TWI597973B (zh) 2011-10-31 2017-09-01 Jvc Kenwood Corp Video encoding device, video encoding method and recording medium
WO2013067440A1 (en) 2011-11-04 2013-05-10 General Instrument Corporation Motion vector scaling for non-uniform motion vector grid
CN107483944B (zh) 2011-11-08 2020-06-05 株式会社Kt 利用解码装置对视频信号进行解码的方法
AU2012336572B2 (en) 2011-11-08 2015-09-17 Samsung Electronics Co., Ltd. Method and device for determining motion vector for video coding or video decoding
JP5364219B1 (ja) * 2011-12-16 2013-12-11 パナソニック株式会社 動画像符号化方法、および動画像符号化装置
HUE047995T2 (hu) * 2011-12-16 2020-05-28 Jvc Kenwood Corp Dinamikus képkódoló készülék, dinamikus képkódoló eljárás, dinamikus képkódoló program
EP2797325A4 (en) 2011-12-23 2015-09-16 Korea Electronics Telecomm METHOD AND DEVICE FOR DETERMINING A REFERENCE FILE INDEX OF A TIMELY COMBINATION CANDIDATE
JP6094760B2 (ja) * 2012-02-07 2017-03-15 パナソニックIpマネジメント株式会社 画像処理装置および画像処理方法
US9426463B2 (en) 2012-02-08 2016-08-23 Qualcomm Incorporated Restriction of prediction units in B slices to uni-directional inter prediction
US9451277B2 (en) 2012-02-08 2016-09-20 Qualcomm Incorporated Restriction of prediction units in B slices to uni-directional inter prediction
EP3833022B1 (en) * 2012-04-12 2022-03-30 JVCKENWOOD Corporation Merge candidate list construction
KR20130116216A (ko) * 2012-04-15 2013-10-23 삼성전자주식회사 인터 예측의 참조영상을 결정하는 방법과 그 장치
US9172970B1 (en) 2012-05-29 2015-10-27 Google Inc. Inter frame candidate selection for a video encoder
US11317101B2 (en) 2012-06-12 2022-04-26 Google Inc. Inter frame candidate selection for a video encoder
US9672584B2 (en) * 2012-09-06 2017-06-06 Imagination Technologies Limited Systems and methods of partial frame buffer updating
US9503746B2 (en) 2012-10-08 2016-11-22 Google Inc. Determine reference motion vectors
US9485515B2 (en) 2013-08-23 2016-11-01 Google Inc. Video coding using reference motion vectors
US9628790B1 (en) 2013-01-03 2017-04-18 Google Inc. Adaptive composite intra prediction for image and video compression
WO2015008339A1 (ja) * 2013-07-16 2015-01-22 富士通株式会社 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法
US9609343B1 (en) 2013-12-20 2017-03-28 Google Inc. Video coding using compound prediction
WO2015172348A1 (en) * 2014-05-15 2015-11-19 The Procter & Gamble Company Dentifrice compositions having dental plaque mitigation or improved fluoride uptake
RU2615677C1 (ru) * 2015-10-30 2017-04-06 Кабусики Кайся Тосиба Способ кодирования изображений и способ декодирования изображений
CN106658019B (zh) * 2015-10-31 2019-11-12 华为技术有限公司 参考帧编解码的方法与装置
WO2018132150A1 (en) 2017-01-13 2018-07-19 Google Llc Compound prediction for video coding
US10412410B2 (en) 2017-08-14 2019-09-10 Google Llc Compound motion-compensated prediction
US10880573B2 (en) 2017-08-15 2020-12-29 Google Llc Dynamic motion vector referencing for video coding
US10284869B2 (en) 2017-09-28 2019-05-07 Google Llc Constrained motion field estimation for hardware efficiency
RU2666275C1 (ru) * 2017-11-13 2018-09-06 ДжейВиСи КЕНВУД КОРПОРЕЙШН Устройство и способ кодирования движущегося изображения, долговременный считываемый компьютером носитель записи, на который записана программа кодирования изображения
US10779002B2 (en) * 2018-04-17 2020-09-15 Qualcomm Incorporated Limitation of the MVP derivation based on decoder-side motion vector derivation
CN108985279B (zh) * 2018-08-28 2020-11-03 上海仁童电子科技有限公司 多功能车辆总线mvb波形的故障诊断方法及装置
WO2020140242A1 (zh) * 2019-01-03 2020-07-09 北京大学 视频处理方法和装置
CN114128292A (zh) * 2019-07-01 2022-03-01 三星电子株式会社 用邻近运动信息对运动信息进行编码和解码的装置和方法

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US136461A (en) * 1873-03-04 Improvement in sash-balances
JPS58138655A (ja) * 1982-02-12 1983-08-17 Toshiba Corp 文書印刷制御装置
TW224553B (en) 1993-03-01 1994-06-01 Sony Co Ltd Method and apparatus for inverse discrete consine transform and coding/decoding of moving picture
SE519541C2 (sv) 1996-10-02 2003-03-11 Ericsson Telefon Ab L M Förfarande och anordning för transformering av en reell digital bredbandig bandpassignal till en uppsättning digitala basbandssignaler med I- och Q-komponenter
US6542642B2 (en) * 1996-02-29 2003-04-01 Canon Kabushiki Kaisha Image coding process and motion detecting process using bidirectional prediction
US5991447A (en) 1997-03-07 1999-11-23 General Instrument Corporation Prediction and coding of bi-directionally predicted video object planes for interlaced digital video
CN1297147C (zh) * 1997-03-07 2007-01-24 通用仪器公司 对交错数字视频的双向预测的视频目标平面的预测和编码
US6404813B1 (en) * 1997-03-27 2002-06-11 At&T Corp. Bidirectionally predicted pictures or video object planes for efficient and flexible video coding
KR100252342B1 (ko) 1997-08-12 2000-04-15 전주범 움직임 벡터 부호화 방법 및 그 장치
KR100257191B1 (ko) 1997-12-31 2000-05-15 구자홍 움직임 벡터 디코더
JPH11215502A (ja) 1998-01-27 1999-08-06 Sanyo Electric Co Ltd 動きベクトル検出装置及び方法
KR100280871B1 (ko) 1998-07-13 2001-03-02 김남영 커플라인과 슬릿으로 구성된 마이크로 스트립 링 공진기
DE19840735C2 (de) 1998-09-07 2001-06-07 Bosch Gmbh Robert Blockbasierte Bewegungsschätzung bei der Bewegtbildkodierung
KR20010101329A (ko) * 1999-10-29 2001-11-14 요트.게.아. 롤페즈 비디오 인코딩 방법
WO2001058166A1 (en) * 2000-02-01 2001-08-09 Koninklijke Philips Electronics N.V. Video encoding with a two step motion estimation for p-frames
US6446118B1 (en) 2000-02-29 2002-09-03 Designtech International, Inc. E-mail notification device
KR100708091B1 (ko) * 2000-06-13 2007-04-16 삼성전자주식회사 양방향 움직임 벡터를 이용한 프레임 레이트 변환 장치 및그 방법
RU2182727C2 (ru) 2000-07-20 2002-05-20 Дворкович Александр Викторович Способ поиска векторов движения деталей в динамических изображениях
US6834293B2 (en) 2001-06-15 2004-12-21 Hitachi, Ltd. Vector scaling system for G.728 annex G
US20030099294A1 (en) * 2001-11-27 2003-05-29 Limin Wang Picture level adaptive frame/field coding for digital video content
US7003035B2 (en) * 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
JP2004088722A (ja) * 2002-03-04 2004-03-18 Matsushita Electric Ind Co Ltd 動画像符号化方法および動画像復号化方法
US7321626B2 (en) * 2002-03-08 2008-01-22 Sharp Laboratories Of America, Inc. System and method for predictive motion estimation using a global motion predictor
KR100931750B1 (ko) 2002-04-19 2009-12-14 파나소닉 주식회사 움직임 벡터 계산방법
JP2004208258A (ja) 2002-04-19 2004-07-22 Matsushita Electric Ind Co Ltd 動きベクトル計算方法
US20040001546A1 (en) * 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
US7515634B2 (en) * 2002-06-28 2009-04-07 Qualcomm Incorporated Computationally constrained video encoding
WO2004012459A1 (ja) * 2002-07-26 2004-02-05 Matsushita Electric Industrial Co., Ltd. 動画像符号化方法、動画像復号化方法および記録媒体
KR100506864B1 (ko) * 2002-10-04 2005-08-05 엘지전자 주식회사 모션벡터 결정방법
US7463686B2 (en) * 2002-10-16 2008-12-09 Lg Electronics Inc. Method for determining motion vector and macroblock type
DE10311497B3 (de) 2003-03-15 2004-10-07 Atlas Elektronik Gmbh Verfahren zur synthetischen Generierung von Sonardaten
US7523330B2 (en) * 2004-06-30 2009-04-21 Sun Microsystems, Inc. Thread-based clock enabling in a multi-threaded processor

Also Published As

Publication number Publication date
EP2015586A3 (en) 2009-01-21
CY1111026T1 (el) 2015-06-11
US7634007B2 (en) 2009-12-15
CY1111024T1 (el) 2015-06-11
JP4625103B2 (ja) 2011-02-02
EP2046058A2 (en) 2009-04-08
JP2008182742A (ja) 2008-08-07
SI1809048T1 (sl) 2011-02-28
EP2046060A2 (en) 2009-04-08
DE60335046D1 (de) 2010-12-30
ATE482574T1 (de) 2010-10-15
EP2046057A3 (en) 2009-05-06
HK1073556A1 (en) 2005-10-07
JP2008182746A (ja) 2008-08-07
CN1812586A (zh) 2006-08-02
JP2008182747A (ja) 2008-08-07
GB2413721A (en) 2005-11-02
JP4709241B2 (ja) 2011-06-22
JP2009135994A (ja) 2009-06-18
EP2003899A2 (en) 2008-12-17
EP2046059A3 (en) 2009-05-06
EP1406453B1 (en) 2007-02-14
DE60334338D1 (de) 2010-11-04
PT2009928E (pt) 2010-12-29
US20130215967A1 (en) 2013-08-22
NL1029485A1 (nl) 2005-10-07
DK1821547T3 (da) 2011-02-28
EP2046059A2 (en) 2009-04-08
EP2009926A2 (en) 2008-12-31
US20080037640A1 (en) 2008-02-14
NL1022333A1 (nl) 2004-04-06
JP4709292B2 (ja) 2011-06-22
EP2046054A3 (en) 2009-05-06
DE10300533B4 (de) 2005-11-17
US8396128B2 (en) 2013-03-12
DE60311720T2 (de) 2007-09-13
EP2003900A3 (en) 2009-01-21
US7558321B2 (en) 2009-07-07
SI1603344T1 (sl) 2011-04-29
EP2009925A2 (en) 2008-12-31
KR20040031556A (ko) 2004-04-13
CN1812585B (zh) 2010-08-18
EP1603344A1 (en) 2005-12-07
HK1073555A1 (en) 2005-10-07
US20140098872A1 (en) 2014-04-10
EP2009928A3 (en) 2009-01-21
EP2059054B1 (en) 2013-07-03
US20090067497A1 (en) 2009-03-12
JP2008182740A (ja) 2008-08-07
US20090074064A1 (en) 2009-03-19
HK1082625A1 (en) 2006-06-09
NL1029486A1 (nl) 2005-10-07
JP2009135993A (ja) 2009-06-18
US20090074063A1 (en) 2009-03-19
US20080037639A1 (en) 2008-02-14
PT2003900E (pt) 2010-12-29
US20090074062A1 (en) 2009-03-19
EP2046058A3 (en) 2009-05-06
US8891624B2 (en) 2014-11-18
US20150264394A1 (en) 2015-09-17
US20090067499A1 (en) 2009-03-12
DK2003900T3 (da) 2011-01-24
EP2009925A3 (en) 2009-01-21
DE10362106B3 (de) 2011-09-22
CN1487748A (zh) 2004-04-07
DE60334336D1 (de) 2010-11-04
DE20321473U1 (de) 2007-07-05
DK2009928T3 (da) 2011-01-24
US8638856B2 (en) 2014-01-28
JP2008182739A (ja) 2008-08-07
GB0300288D0 (en) 2003-02-05
JP4625100B2 (ja) 2011-02-02
GB0426713D0 (en) 2005-01-12
US8416853B2 (en) 2013-04-09
ATE482573T1 (de) 2010-10-15
US8351503B2 (en) 2013-01-08
EP2015586A2 (en) 2009-01-14
PT1406453E (pt) 2007-05-31
JP2009135991A (ja) 2009-06-18
US20090074069A1 (en) 2009-03-19
US20050129118A1 (en) 2005-06-16
US20080031343A1 (en) 2008-02-07
DE60335034D1 (de) 2010-12-30
CY1111539T1 (el) 2015-08-05
EP2015585A2 (en) 2009-01-14
CY1111198T1 (el) 2015-06-11
CN1269361C (zh) 2006-08-09
ATE482572T1 (de) 2010-10-15
GB2406460B (en) 2005-10-19
JP4709291B2 (ja) 2011-06-22
EP2015586B1 (en) 2013-07-03
US9066106B2 (en) 2015-06-23
EP2003899A3 (en) 2009-01-21
US8411748B2 (en) 2013-04-02
JP4709242B2 (ja) 2011-06-22
ATE354259T1 (de) 2007-03-15
EP1809048A1 (en) 2007-07-18
US7570691B2 (en) 2009-08-04
EP2009925B1 (en) 2013-07-03
US20040066848A1 (en) 2004-04-08
EP1796396B8 (en) 2011-02-02
KR100506864B1 (ko) 2005-08-05
EP1821547A2 (en) 2007-08-22
EP2015585A3 (en) 2009-01-21
CN100473170C (zh) 2009-03-25
DE60311720T9 (de) 2008-02-14
CY1111077T1 (el) 2015-06-11
DK1603344T3 (da) 2011-03-07
US20090074065A1 (en) 2009-03-19
DK2009927T3 (da) 2011-01-24
EP2059054A1 (en) 2009-05-13
ATE488964T1 (de) 2010-12-15
US20140098874A1 (en) 2014-04-10
JP2008182743A (ja) 2008-08-07
US9042451B2 (en) 2015-05-26
ATE484156T1 (de) 2010-10-15
EP2046056A3 (en) 2009-05-06
EP2009927A3 (en) 2009-01-21
JP2009135989A (ja) 2009-06-18
US7643557B2 (en) 2010-01-05
EP2046056B1 (en) 2013-07-03
EP2046054A2 (en) 2009-04-08
JP2004129191A (ja) 2004-04-22
GB2406459A (en) 2005-03-30
DK2015585T3 (da) 2011-01-31
EP2003899B1 (en) 2010-09-22
PT2015585E (pt) 2010-12-28
US7233621B2 (en) 2007-06-19
JP2008182741A (ja) 2008-08-07
EP1821547B1 (en) 2010-11-10
EP2009928B1 (en) 2010-09-22
JP4625131B2 (ja) 2011-02-02
ATE488097T1 (de) 2010-11-15
US20050129119A1 (en) 2005-06-16
EP2046059B1 (en) 2013-07-03
EP1406453A1 (en) 2004-04-07
EP2003900B1 (en) 2010-09-22
US20140098871A1 (en) 2014-04-10
US20080037644A1 (en) 2008-02-14
EP2009926B1 (en) 2013-07-03
JP4216852B2 (ja) 2009-01-28
US8428134B2 (en) 2013-04-23
EP1821547A3 (en) 2007-09-05
JP2008182744A (ja) 2008-08-07
EP1603344B1 (en) 2010-11-17
EP1809048B1 (en) 2010-09-22
EP2046056A2 (en) 2009-04-08
US8351507B2 (en) 2013-01-08
US20090074066A1 (en) 2009-03-19
SI2015585T1 (sl) 2011-04-29
EP1796396B1 (en) 2010-11-17
PT2003899E (pt) 2010-12-28
PT1821547E (pt) 2011-02-14
EP2009927B1 (en) 2010-09-22
EP2046054B1 (en) 2013-07-03
DE60311720D1 (de) 2007-03-29
JP2009135992A (ja) 2009-06-18
GB2393873A (en) 2004-04-07
ATE482575T1 (de) 2010-10-15
US8416854B2 (en) 2013-04-09
DE10300533A1 (de) 2004-04-15
EP1796396A1 (en) 2007-06-13
CN1812585A (zh) 2006-08-02
CY1106351T1 (el) 2011-10-12
CY1111025T1 (el) 2015-06-11
US8351504B2 (en) 2013-01-08
JP2008182748A (ja) 2008-08-07
US20090074068A1 (en) 2009-03-19
DE60334330D1 (de) 2010-11-04
NL1029486C2 (nl) 2006-05-23
US9743108B2 (en) 2017-08-22
NL1029485C2 (nl) 2006-05-23
DE60334337D1 (de) 2010-11-04
GB2406459B (en) 2005-09-28
US8351505B2 (en) 2013-01-08
EP2046060B1 (en) 2013-07-03
JP4625104B2 (ja) 2011-02-02
US20090074067A1 (en) 2009-03-19
ATE488963T1 (de) 2010-12-15
JP4625101B2 (ja) 2011-02-02
US8345758B2 (en) 2013-01-01
JP4020789B2 (ja) 2007-12-12
EP2003900A2 (en) 2008-12-17
EP2046060A3 (en) 2009-05-06
US20080031342A1 (en) 2008-02-07
SI1796396T1 (sl) 2011-04-29
SI2009927T1 (sl) 2011-03-31
GB2393873B (en) 2005-05-18
DE60334941D1 (de) 2010-12-23
DK1796396T3 (da) 2011-03-07
PT1809048E (pt) 2010-12-28
US20090067500A1 (en) 2009-03-12
EP2009927A2 (en) 2008-12-31
EP2009926A3 (en) 2009-01-21
US20140098873A1 (en) 2014-04-10
US8432969B2 (en) 2013-04-30
US20140098870A1 (en) 2014-04-10
SI1406453T1 (sl) 2007-08-31
GB0513436D0 (en) 2005-08-10
US8891623B2 (en) 2014-11-18
EP2046055A2 (en) 2009-04-08
EP2015585B1 (en) 2010-10-06
US9042453B2 (en) 2015-05-26
HK1095457A1 (en) 2007-05-04
JP2008182745A (ja) 2008-08-07
JP2008182738A (ja) 2008-08-07
US8345757B2 (en) 2013-01-01
US20090067498A1 (en) 2009-03-12
SI2003900T1 (sl) 2011-03-31
US7627035B2 (en) 2009-12-01
CY1111027T1 (el) 2015-06-11
US7606307B2 (en) 2009-10-20
US8351506B2 (en) 2013-01-08
JP4625132B2 (ja) 2011-02-02
SI2003899T1 (sl) 2011-02-28
EP2046057B1 (en) 2013-07-03
DK1809048T3 (da) 2011-01-24
DK1406453T3 (da) 2007-06-11
US8385417B2 (en) 2013-02-26
EP2009928A2 (en) 2008-12-31
CY1111204T1 (el) 2015-06-11
EP2046057A2 (en) 2009-04-08
US9042452B2 (en) 2015-05-26
JP2006191652A (ja) 2006-07-20
US20140098875A1 (en) 2014-04-10
CY1111023T1 (el) 2015-06-11
JP4625102B2 (ja) 2011-02-02
SI1821547T1 (sl) 2011-04-29
PT1603344E (pt) 2011-02-14
PT1796396E (pt) 2011-02-14
DE10300533A9 (de) 2004-10-28
EP2046055A3 (en) 2009-05-06
US20080031332A1 (en) 2008-02-07
EP2046058B1 (en) 2013-07-03
US20080031341A1 (en) 2008-02-07
US7643556B2 (en) 2010-01-05
US20050129120A1 (en) 2005-06-16
DE60334505D1 (de) 2010-11-18
ES2281573T3 (es) 2007-10-01
HK1095458A1 (en) 2007-05-04
DK2003899T3 (da) 2011-01-24
ATE482571T1 (de) 2010-10-15
SI2009928T1 (sl) 2011-02-28
JP2009135988A (ja) 2009-06-18
DE60334339D1 (de) 2010-11-04
US8422556B2 (en) 2013-04-16
GB0426712D0 (en) 2005-01-12
NL1022333C2 (nl) 2005-07-25
GB2413721B (en) 2006-11-22
GB2406460A (en) 2005-03-30

Similar Documents

Publication Publication Date Title
PT2009927E (pt) Processo para o cálculo do vectores de movimento em modo directo
CN112840645A (zh) 视频编码系统中组合多个预测子用于块预测的方法及装置
Itani et al. Adaptive direct vector derivation for video coding