PT2009927E - Processo para o cálculo do vectores de movimento em modo directo - Google Patents
Processo para o cálculo do vectores de movimento em modo directo Download PDFInfo
- Publication number
- PT2009927E PT2009927E PT08016893T PT08016893T PT2009927E PT 2009927 E PT2009927 E PT 2009927E PT 08016893 T PT08016893 T PT 08016893T PT 08016893 T PT08016893 T PT 08016893T PT 2009927 E PT2009927 E PT 2009927E
- Authority
- PT
- Portugal
- Prior art keywords
- list
- image
- direct mode
- frame
- tdd
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/521—Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/56—Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Gyroscopes (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Color Television Systems (AREA)
- Processing Or Creating Images (AREA)
Description
DESCRIÇÃO
Processo para o cálculo do vectores de movimento em modo directo
Antecedentes da invenção Campo da invenção A presente invenção refere-se a um processo de codificação de uma imagem em movimento, e mais particularmente a uma técnica para obter vectores de movimento de modo directo de imagens B (bi-predictiva) definidas na técnica de compressão da próxima geração de imagem em movimento.
Descrição da técnica relacionada 0 documento "Text of Final Committee Draft of Joint Video Specification (ITU-T RECH H-264 ISO/IEC 14496-10 AVC" de Julho de 2002 fornece uma visão global da tecnologia antes da data de prioridade do presente requerimento. O documento revela as características do preâmbulo da reivindicação 1, na sub-cláusula 10.3.3.2.
Uma imagem B convencional apresenta cinco tipos de modos de previsão tais como modo de avanço, modo do recuo, modo bidireccional, modo directo e modo intra. No modo de avanço, modo de recuo e modo bidireccional, as direcções dos vectores 1 de movimento podem ser reconhecidas dos nomes do modo porque as informações de direcção encontram-se envolvidas nos nomes do modo. No modo directo, dois vectores de movimento em ambas as direcções são derivados de um movimento de um bloco co-localizado numa imagem vizinha com base numa caracteristica de redundância temporal de que a continuidade do movimento é constantemente mantida entre duas imagens contíguas. Este modo directo apresenta uma vantagem em termos de eficiência de codificação porque a informação do movimento não é enviada para um descodificador.
Por outro lado, uma imagem B proposta numa técnica de compressão da próxima geração de imagem em movimento, tal como H.264 ou MPEG-4 parte 10, é caracterizada por ser permitido que a imagem B seja utilizada como uma imagem de referência porque pode ser armazenada numa memória tampão de referência de imagem. Esta imagem B é adicionalmente caracterizada por apresentar cinco tipos de modos de previsão, tais como modo da lista 0, modo da lista 1, modo de bi-predictiva, modo directo e modo intra. 0 modo da lista 0 é semelhante ao modo de avanço convencional, e a informação do movimento, tal como um índice de imagem de referência e diferença de vector de movimento encontram-se assinaladas respectivamente com ref_idx 1.0 e mvd_10. O modo da lista 1 é também semelhante ao modo de recuo convencional, sendo que a informação do movimento tal como um índice de imagem de referência e diferença de vector de 2 movimento encontram-se assinalados respectivamente pela referência ref_idx 11 e mvd_ll. O modo de bi-predictiva apresenta duas imagens de referência, podendo ambas estar localizadas temporariamente antes ou após a imagem B, ou as quais podem estar localizadas temporariamente antes e após a imagem B, respectivamente. Neste caso, dois índices de imagem de referência e duas diferenças de vector de movimento encontram-se assinalados respectivamente com ref_idx 10, ref_idx 11, mvd_10 e mvd_ll, sendo que cada imagem de referência apresenta dados de contagem de ordem de imagem (COI) que é a informação de localização temporal.
No modo directo, os vectores de movimento são obtidos seleccionando qualquer uma das técnicas espaciais e técnicas temporais. A técnica de modo directo espacial é a de obter os índices da lista 0 e da lista 1 de imagem de referência, e vectores de movimento de blocos contíguos de um macrobloco a ser codificado. A técnica de modo directo temporal é a de obter um vector de movimento da lista 0 MVF e vector de movimento da lista 1 MVb multiplicando um vector de movimento da lista 0 de um bloco co-localizado numa imagem de referência da lista 1 para modo directo, que é semelhante à imagem B convencional. Aqui, a imagem de referência da lista 1 para modo directo é uma imagem em que um índice para uma predição da lista 1 é O, sendo uma imagem de referência da lista 0 para modo directo uma imagem de referência da lista 0 apontada por um vector de 3 movimento de um bloco co-localizado na imagem de referência da lista 1 para modo directo.
As figuras la a lc apresentam os indices por defeito para a previsão da lista 0, indices por defeito para a previsão da lista 1 e imagens de referência da lista 2 para modo directo das respectivas imagens B num padrão IBBBP quando o número de imagens de referência da lista 0 e lista 1 disponíveis (ou a dimensão de uma memória tampão de curto prazo) é 6, respectivamente. Aqui, os índices por defeito para a previsão da lista 0 e índices por defeito para a previsão da lista 1 são dependentes de uma ordem de saída, ou valor POC, de uma imagem de referência previamente descodificada, independentemente de uma ordem de descodificação. Na figura 1, todas as imagens B utilizam uma imagem P temporária seguinte como a imagem de referência da lista 1 para modo directo.
As figuras 2a a 2c apresentam os índices por defeito para a previsão da lista 0, indices por defeito para a previsão da lista 1 e imagens de referência da lista 1 para modo directo das respectivas imagens B num padrão IBBB utilizando somente as imagens B, respectivamente. Na figura 2a, quando uma imagem B a ser codificada é B8, um B5 temporariamente precedente com um indice O da lista 1 é uma imagem de referência da lista 1 para o modo directo. Tal como apresentado na figura 2b, uma imagem de referência da lista 1 para modo directo de B7 a ser subsequentemente descodificada é a temporariamente seguinte B8. Por fim, tal como apresentada na figura 2c, uma imagem de 4 referência da lista 1 para modo directo de B9 a ser subsequentemente descodificada é a temporariamente precedente B7.
Em conclusão, tal como se pode verificar das figuras la a 2c, uma imagem de referência da lista 1 para modo directo pode ser uma imagem P ou B que segue temporariamente uma imagem B a ser codificada, ou uma imagem B que a precede temporariamente.
As figuras 3a a 3h apresentam os modos que um bloco co-localizado numa imagem de referência da lista 1 para modo directo pode apresentar quando a imagem de referência da lista 1 segue temporariamente uma imagem B. Neste caso, dado que imagem de referência da lista 1 pode ser uma imagem P ou imagem B, o bloco co-localizado da mesma apresenta um ou dois vectores de movimento, ou o modo intra. A técnica de compressão de imagem em movimento da próxima geração, tal como H.264 ou MPEG-4 parte 10, permite o reordenamento dos indices de imagem de referência num nivel de fatia, de modo que pode ser atribuído um indice 0 para a previsão da lista 1 a uma imagem logo após uma imagem B. Quer dizer, dado que a imagem de referência da lista 1 pode existir logo após uma imagem B, um vector de movimento do bloco co-localizado pode ser direccionado para a frente ou para trás.
As figuras 4a a 4h apresentam modos que um bloco co-localizado numa imagem de referência da lista 1 para modo directo pode apresentar quando a imagem de referência da lista 1 precede temporariamente a imagem B. Neste caso, o bloco co- 5 localizado apresenta um ou dois vectores de movimento, ou o modo intra, tal como descrito acima. Outras imagens de referência podem estar presentes entre a imagem de referência da lista 1 e a imagem B, de modo que um vector de movimento do bloco co-localizado pode apontar para uma direcção temporariamente para a frente ou para trás.
Tal como se pode ver das figuras 3a a 4h, a imagem de referência da lista 1 para modo directo pode apresentar vários modos de previsão, resultando numa necessidade de explorar um processo para calcular os vectores de movimento de modo directo em consideração com os tais vários casos.
Sumário da invenção
Por isso, a presente invenção foi realizada tendo em consideração os problemas acima mencionados, sendo um objectivo da presente invenção proporcionar um processo para calcular os vectores de movimento de modo directo de uma imagem B (bi-predictiva) definida numa técnica de compressão de imagem em movimento da próxima geração, em que é proposta uma técnica para obter os vectores de movimento de modo directo da imagem B para erguer a probabilidade de o modo directo ser seleccionado como o modo de previsão de um macrobloco, de modo a melhorar a eficiência de codificação da imagem B. 0 objectivo acima é resolvido pela combinação da caracteristica da reivindicação independente 1. 6
Um processo para calcular os vectores de movimento de modo directo de uma imagem B (bi-predictiva) num sistema de codificação de imagem em movimento para extrair os vectores de movimento de modo directo da imagem B, compreende o passo de, se um bloco co-localizado na imagem de referência da lista 1 para modo directo apresentar dois vectores de movimento, seleccionar qualquer um dos dois vectores de movimento (um vector de movimento da lista 0 ou um vector de movimento da lista 1) dos dois vectores de movimento, e obter os vectores de movimento de modo directo da imagem B do vector de movimento seleccionado.
De preferência, o passo acima pode compreender o passo de seleccionar um dos vectores de movimento da lista 0 e lista 1, que aponta para uma imagem temporariamente mais próxima à imagem de referência da lista 1 para modo directo, como um vector de movimento para obtenção dos vectores de movimento de modo directo, seleccionando o vector de movimento da lista 0 como o vector de movimento para obtenção dos vectores de movimento de modo directo se os dois vectores de movimento apontarem para a mesma imagem de referência, determinando uma imagem de referência apontada pelo vector de movimento seleccionado como uma imagem de referência da lista 0 para modo directo, e obtendo os vectores de movimento de modo directo da imagem B. Alternativamente, o passo acima pode compreender o passo de seleccionar incondicionalmente o vector de movimento da lista 0 como um vector de movimento para obtenção dos 7 vectores de movimento de modo directo independentemente de uma distância temporal, determinando uma imagem de referência que aponta para o vector de movimento da lista 0 como imagem de referência da lista 0 para modo directo, e obtendo os vectores de movimento de modo directo como a imagem B.
De acordo com um outro aspecto da presente invenção, é proporcionado um processo para calcular os vectores de movimento de modo directo de uma imagem B (bi-predictiva) num sistema de codificação de imagem em movimento para extrair os vectores de movimento de modo directo da imagem B, compreendendo o passo de seleccionar qualquer um dos vectores de movimento de um bloco co-localizado numa imagem de referência da lista 1 para modo directo como um vector de movimento para obtenção dos vectores de movimento de modo directo independentemente dos modos (um modo da lista 0 e/ou um modo da lista 1) dos vectores de movimento do bloco co-localizado, determinar uma imagem de referência apontada pelo vector de movimento seleccionado como uma imagem de referência da lista 0 para modo directo, e calcular os vectores de movimento de modo directo da imagem B. Foi proposto um processo convencional para obter os vectores de movimento de modo directo de um vector de movimento da lista 0 de um bloco co-localizado. Se este processo convencional for aplicado a um caso onde um bloco co-localizado numa imagem de referência da lista 1 apresenta somente um vector de movimento da lista 1, todos os vectores de movimento de modo directo tornam-se 0 8 porque o vector de movimento da lista 0 é 0. Contudo, o presente processo pode ultrapassar este problema.
De acordo com um aspecto adicional da presente invenção, é proporcionado um processo para calcular os vectores de movimento de modo directo de uma imagem B (bi-predictiva) num sistema de codificação de imagem em movimento para extrair os vectores de movimento de modo directo da imagem B, compreendendo o passo de, se um bloco co-localizado numa imagem de referência da lista 1 para modo directo apresentar somente um vector de movimento da lista 1, considerando que o bloco co-localizado apresenta um movimento 0, determinar uma imagem descodificada localizada temporariamente pouco antes da imagem B como uma imagem de referência da lista 0 para modo directo, e obter os vectores de movimento de modo directo da imagem B.
De acordo com um aspecto adicional da presente invenção, é proporcionado um processo para calcular os vectores de movimento de modo directo de uma imagem B (bi-predictiva) num sistema de codificação de imagem em movimento para extrair os vectores de movimento de modo directo da imagem B, compreendendo o passo de, se o bloco co-localizado na imagem de referência da lista 1 para modo directo apresentar somente um vector de movimento da lista 1, utilizando o vector de movimento da lista 1 do bloco co-localizado como vector de movimento para obtenção dos vectores de movimento de modo directo, determinar uma imagem descodificada localizada temporariamente pouco antes da imagem B como uma imagem de 9 referência da lista 0 para modo directo, e obter os vectores de movimento de modo directo da imagem B.
De acordo com um aspecto adicional da presente invenção, é proporcionado um processo para calcular os vectores de movimento de modo directo de uma imagem B (bi-predictiva) num sistema de codificação de imagem em movimento para extrair os vectores de movimento de modo directo da imagem B, compreendendo o passo de, se um bloco co-localizado numa imagem de referência da lista 1 para modo directo apresentar somente um vector de movimento da lista 1, utilizando o vector de movimento da lista 1 do bloco co-localizado como um vector de movimento para obtenção dos vectores de movimento de modo directo, determinar uma imagem de referência apontada pelo vector de movimento da lista 1 do bloco co-localizado como uma imagem de referência da lista 0 para modo directo, e obter os vectores de movimento de modo directo da imagem B.
De acordo com um aspecto adicional da presente invenção, é proporcionado um processo para calcular os vectores de movimento de modo directo de uma imagem B (bi-predictiva) num sistema de codificação de imagem em movimento para extrair os vectores de movimento de modo directo da imagem B, compreendendo o passo de ajustar a última imagem descodificada como imagem de referência da lista 1 para modo directo, escalar um vector de movimento de um bloco co-localizado na imagem de referência da lista 1 para modo directo para obter um vector de movimento da lista 0 MVF e um vector de movimento da lista 1 10 MVb, e calcular os vectores de movimento de modo directo da imagem B. Num processo convencional, uma imagem que apresenta um indice 0 para a previsão da lista 1 encontra-se definida como imagem da referência da lista 1 para modo directo. Quando uma imagem diferente é descodificada entre a imagem B e a imagem com o índice 0, a informação do movimento e informação da imagem de referência da imagem do índice 0 tem que ser mantida, resultando em utilização adicional da memória. Contudo, o presente processo pode economizar a utilização adicional da memória.
De acordo com um aspecto adicional da presente invenção, é proporcionado um processo para calcular os vectores de movimento de modo directo da imagem B (bi-predictiva) num sistema de codificação de imagem em movimento para extrair os vectores de movimento de modo directo da imagem B, compreendendo o passo de, se a imagem de referência da lista 1 para modo directo preceder temporariamente a imagem B, desmultiplicar um vector de movimento de um bloco co-localizado na imagem de referência da lista 1 para modo directo para obter um vector de movimento da lista 0 MVF e um vector de movimento da lista 1 MVB, e calcular os vectores de movimento de modo directo da imagem B.
De preferência, o passo acima pode compreender o passo de, se ambos uma imagem B de macrobloco e um macrobloco co-localizado da imagem de referência da lista 1 se encontrarem em modo de trama e uma imagem de referência da lista 0 para modo 11 directo preceder temporariamente a imagem de referência da lista 1, o cálculo dos vectores de movimento de modo directo MVf e MVb da imagem B é efectuado do seguinte modo: MVf = TDb x MV / TDd MVb = (TDb - TDd) x MV / TDd ou Z = TDb x 256 / TDd MVf =( Z X MV + 128) » 8 w = z - 2 5 6 MVb = ( W X MV + 128)» 8 em que TDB representa uma distância temporal entre uma trama B actual e uma trama de referência da lista 0, TDd representa uma distância temporal entre uma trama de referência da lista 1 e a trama de referência da lista 0, e MV representa um vector de movimento do bloco co-localizado na imagem de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se ambos um macrobloco da imagem B e um macrobloco co-localizado da imagem de referência da lista 1 se encontrarem num modo de trama e uma imagem de referência da lista 0 para modo directo seguir temporariamente a imagem de referência da lista 1, o cálculo dos vectores de movimento de modo directo MVf e MVb da imagem B é efectuado do seguinte modo: 12 (TDb + TDd) x MV / TDd MVf = - TDb x MV / TDdMVb = -
Ou z = -TDb x 256 / TDd MVF =( Z x MV + 128) » 8 w = Z - 2 5 6 MVb = ( W x MV + 12 8) » 8 em que TDb representa uma distância temporal entre uma trama actual e uma trama de referência da lista 0, TDd representa uma distância temporal entre uma trama de referência da lista 1 e uma trama de referência da lista 0, e MV representa um vector de movimento do bloco co-localizado na imagem de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se ambos um macrobloco da imagem B e um macrobloco co-localizado da imagem de referência da lista 1 se encontrarem em modo de campo e uma imagem de referência da lista 0 para modo directo preceder temporariamente a imagem de referência da lista 1, o cálculo dos vectores de movimento de modo directo MVf,í, e MVb,í para cada campo i da trama B é efectuado seguinte modo: MVf,í= TDb, í x MVi / TDd,í MVb, 1 = (TDB,i - TDd,i) x MVi / TDd,í ou Z = TDb, i x 256 / TDd ,i MVF,i = (ZxMVí + 128) > > 8 W = Z - 256 MVb,í = ( WxMVi + 12 8) > > 8 13 em que TDb,í representa uma distância temporal entre um campo B actual e um campo de referência da lista 0, tdd,i representa uma distância temporal entre um campo de referência da lista 1 e o campo de referência da lista 0 e MVi representa um vector de movimento de um bloco co-localizado no campo de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se ambos um macrobloco da imagem B e um macrobloco co-localizado da imagem de referência da lista 1 se encontrarem em modo de campo e uma imagem de referência da lista 0 para modo directo seguir temporariamente a imagem de referência da lista 1, o cálculo dos vectores de movimento de modo directo MVf,i e MVB,j para cada campo i de uma trama B é efectuado do seguinte modo: MVFí1 = - TDb, í x MV, / TDd,± MVb,í = - ( T Db,í + TDd,í) x MVi / TDd,!
OU Z = - TDb, í X 256 / TDB, i II H 4 (Z x MVi + 128) » 8 W = Z - 256 MVBíi = (W x MVi + 128) » 8 em que TDb,í representa uma distância temporal entre um campo B actual e um campo de referência da lista 0, TDb,i representa uma distância temporal entre um campo de referência da lista 1 e campo de referência da lista 0, e MV representa um vector de movimento de um bloco co-localizado num campo de referência da lista 1 para modo directo. 14
Adicionalmente, o passo acima pode compreender o passo de, se um macrobloco da imagem B se encontrar em modo de campo, um macrobloco co-localizado da imagem de referência da lista 1 encontra-se em modo de trama e uma imagem de referência da lista 0 para modo directo precede temporariamente a imagem de referência da lista 1, calculando os vectores de movimento de modo directa MVFfi e MVB(i para cada campo i de uma trama B do seguinte modo: MVf,í = TDb,í x MV / TDdMVb,í = (TDb,í - TDd) x MV / TDd ou Z = - TDb, í x 256 / TDd MVF,i = (Z x MV + 128) »8 W = Z - 256 MVb,í = (W x MV + 128) » 8 em que TDb,í representa uma distância temporal entre um campo B actual e um campo de referência da lista 0, TDd representa uma distância temporal entre uma trama de referência da lista 1 e uma trama de referência da lista 0, e MV representa um vector de movimento de um bloco co-localizado num campo de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se um macrobloco da imagem B se encontrar em um modo de campo, um macrobloco co-localizado da imagem de referência da lista 1 encontra-se num modo de trama, seguindo uma imagem de 15 referência da lista 0 para modo directo temporariamente a imagem de referência da lista 1, calculando os vectores de movimento de modo directo MVf,í e MVb,í para cada campo i de uma trama B do seguinte modo: MVFí1 = TDBfi x MV / TDdMVb,í = - (TDB,i - TDd) x MV / TDd ou Z = - TDB,i X 256 / TDd MVf,± = (Z x MV + 128) » 8 W = Z - 256 MVb,í = (W x MV + 128) »8 em que TDB;i representa uma distância temporal entre um campo B actual e um campo de referência da lista 0, TDd representa uma distância temporal entre uma trama de referência da lista 1 e uma trama de referência da lista 0, e MV representa um vector de movimento de um bloco co-localizado numa trama de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se um macrobloco da imagem B se encontrar num modo de trama, um macrobloco co-localizado da imagem de referência da lista 1 encontra-se em modo de campo, precedendo uma imagem de referência da lista 0 para modo directo temporariamente a imagem de referência da lista 1, calculando os vectores de movimento de modo directo MVF e MVB de uma trama B da equação seguinte onde a informação do movimento de um bloco co- 16 localizado num campo 1 na trama de referência da lista 1 é utilizado para cálculo dos vectores de movimento de modo directo: MVf = TDb x MVi / TDd,i MVb = (TDb _ TDd, 1) X MVi / TDd,i
Ou Z = TDb x 2 5 6 / TDd,i MVf = (Z xMVi + 128) » 8 W = Z - 256 MVb = (W x MVX + 128) » 8 em que TDB representa uma distância temporal entre uma trama B actual e uma trama de referência da lista 0, tdDí1 representa uma distância temporal entre um campo 1 da trama de referência da lista 1 e um campo de referência da lista 0, e MVi representa um vector de movimento de um bloco co-localizado no campo 1 da trama de referência da lista 1 para modo directo.
Além disso, o passo acima pode compreender o passo de, se ambos um macrobloco da imagem B e um macrobloco co-localizado da imagem de referência da lista 1 se encontrarem em modo de trama e a imagem de referência da lista 0 para modo directo temporariamente seguir a imagem de referência da lista 1, o cálculo dos vectores de movimento de modo directo MVF e MVB da imagem B é efectuado do seguinte modo, em que a informação de movimento de um bloco co-localizado num campo 1 de uma trama de 17 referência é usado para cálculo dos vectores de movimento em modo directo: MVp — - TDg X MVi / TDd, i MVb = -(TDb - TDd,i) X MVi / TDd,i
Ou Z = -TDb x 2 5 6 / TDM MVF (Z x MVX + 128) » 8 W = Z - 256 MVb = (W x MVi + 128) » 8 em que TDB representa uma distância temporal entre uma trama B actual e uma trama de referência da lista 0, TDd representa uma distância temporal entre uma trama de referência da lista 1 e a trama de referência da lista 0, e MV representa um vector de movimento do bloco co-localizado no campo 1 da imagem de referência da lista 1 para modo directo.
De acordo com outro aspecto da presente invenção, é proporcionado um processo para calcular os vectores de movimento de modo directo de uma imagem B (bi-predictiva) num sistema de codificação de imagem em movimento para extrair os vectores de movimento de modo directo da imagem B, compreendendo o passo de, se ambas uma imagem de referência da lista 0 e imagem de referência da lista 1 para modo directo seguirem temporariamente a imagem B, desmultiplicar um vector de movimento de um bloco co-localizado na imagem de referência da lista 1 para modo directo para obter um vector de movimento 18 da lista 0 MVF e um vector de movimento da lista 1 MVB, e calcular os vectores de movimento de modo directo da imagem B.
De preferência, o passo acima pode compreender o passo de, se ambos um macrobloco da imagem B e um macrobloco co-localizado da imagem de referência da lista 1 se encontrarem em modo de trama e a imagem de referência da lista 0 para modo directo temporariamente seguir a imagem de referência da lista 1, o cálculo dos vectores de movimento de modo directo MVF e MVB da imagem B é efectuado do seguinte modo: MVf = TDb X MV / TDd MVb = (TDb - TDd) x MV / TDd
Ou Z = TDb x 2 5 6 / TDd MVf = (Z x MV + 128) » 8 W = Z - 256 MVb = (W x MV + 128) » 8 em que TDB representa uma distância temporal entre uma trama B actual e uma trama de referência da lista 0, TDd representa uma distância temporal entre uma trama de referência da lista 1 e a trama de referência da lista 0, e MV representa um vector de movimento do bloco co-localizado no campo 1 da imagem de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se ambos um macrobloco da imagem B e um macrobloco co- 19 localizado da imagem de referência da lista 1 se encontrarem no moda de trama e a imagem de referência da lista 0 para modo directo preceder temporariamente a imagem da referência da lista 1, o cálculo dos vectores de movimento de modo directo MVp e MVb da imagem B é efectuado do seguinte modo: MVf = - TDb x MV / TDd MVb = - (TDb + TDd) x MV / TDd ou Z = -TDb x 2 5 6 / TDd,i MVf = (Z X MV + 128) » 8 W = Z - 256 MVb = (W x MV + 128) » 8 em que TDB representa uma distância temporal entre uma trama B actual e uma trama de referência da lista 0, TDd representa uma distância temporal entre uma trama de referência da lista 1 e a trama de referência da lista 0, e MV representa um vector de movimento do bloco co-localizado na trama de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se ambos um macrobloco da imagem B e um macrobloco co-localizado da imagem de referência da lista 1 se encontrarem num modo de campo e a imagem de referência da lista 0 para modo directo seguir temporariamente a imagem de referência da lista 1, o cálculo dos vectores de movimento de modo directo MVF;1 e 20 MVb,í para cada campo i de uma trama B é efectuado do seguinte modo: MVf,í = TDb, ί X MVi / TD D, i MVb,i = (TDb ,i - TDd,í) x MVi / TDd,í ou Z = TDB,i X 2 5 6 / TDd,i MVFí1 = (Z X MVi + 128) » 8 W = Z - 256 MVb,i = (W x MVi + 128) » 8 em que TDb,í representa uma distância temporal entre um campo B actual e um campo de referência da lista 0, TDd,í representa uma distância temporal entre uma trama de referência da lista 1 e a trama de referência da lista 0, e MVF representa um vector de movimento de um bloco co-localizado num campo de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se um macrobloco da imagem B se encontrar num modo de campo, um macrobloco co-localizado da imagem de referência da lista 1 encontra-se num modo de trama e a imagem de referência da lista 0 para o modo directo precede temporariamente a imagem de referência da lista 1, calculando os vectores de movimento de modo directo MVF;1 e MVb,í para cada campo i uma trama B do seguinte modo: MVF(i =
TD B,i
x MVi / TD D,i 21 MVb,í = (TDBfl + TDd,í) x MV / TDd,í
OU Z = TDB,i x 2 5 6 / TDd,i MVf,í = (Z X MVi + 128) » 8 W = Z - 256 MV,b,í = (W x MVi + 128) » 8 em que TDb,í representa uma distância temporal entre um campo B actual e um campo de referência da lista 0, TDd,í representa uma distância temporal entre um campo de referência da lista 1 e um campo de referência da lista 0, e MV± representa um vector de movimento do bloco co-localizado numa trama de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se um macro bloco da imagem B se encontrar num modo de campo, um macrobloco co-localizado da imagem de referência da lista 1 se encontrar num modo de quadro e a imagem de referência da lista 0 para modo directo preceder temporariamente a imagem de referência da lista 1, calcular os vectores de movimento de modo directo MVF(i e MVb,í para cada campo i do quadro B do seguinte modo: MVf,í = TDB(1 x MV / TDd MVb,í = (TDBfl - TDd) x MV / TDd ou 22 Ζ = TDB,i X 2 5 6 / TDd,i MVf,í = (Z x MV + 128) »8 W = Z - 256 MV,b,í = (W x MV + 128) » 8 em que TDb,í representa uma distância temporal entre um campo B actual e um campo de referência da lista 0, TDd representa uma distância temporal entre um quadro de referência da lista 1 e um quadro de referência da lista 0, e MV representa um vector de movimento de um bloco co-localizado numa trama de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se um macro bloco da imagem B se encontrar num modo de campo, um macrobloco co-localizado da imagem de referência da lista 1 se encontrar num modo de quadro e a imagem de referência da lista 0 para modo directo preceder temporariamente a imagem de referência da lista 1, calcular os vectores de movimento de modo directo MVP,i e MVB;i para cada campo i do quadro B do seguinte modo: MVF,i = -TDB,i X MV / TDd MVb, í = - (TDb, í - TDd) X MV / TDd ou Z = -TDb,í x 2 5 6 / TDd MVf,í = (Z x MV + 128) » 8 W = Z - 256 MV,b,í = (W x MV + 128) » 8 23 em que TDb,í representa uma distância temporal entre um campo B actual e um campo de referência da lista 0, tdd representa uma distância temporal entre um quadro de referência da lista 1 e um quadro de referência da lista 0, e MV representa um vector de movimento de um bloco co-localizado numa trama de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se um macrobloco da imagem B se encontrar num modo de trama, um macrobloco co-localizado da imagem de referência da lista 1 encontra-se num modo de campo e a imagem de referência da lista 0 para modo directo precede temporariamente a imagem de referência da lista 1, o cálculo dos vectores de movimento de modo directo MVF;i e MVb,í para cada campo i de uma trama B é como segue da equação seguinte onde a informação do movimento de um bloco co-localizado num campo O de uma trama de referência da lista 1 é utilizado para o cálculo dos vectores de movimento de modo directo: MVf = TDb x MV0 / TDd,0 MVB = (TDb - TDd,0) x MV0 / TDd,0 ou Z = TDb x 2 5 6 / TDd,i MVf,í = (Z x MV0 + 128) » 8 W = Z - 256 MV,b,í = (W x MV0 + 128) » 8 24 em que TDB representa uma distância temporal entre uma trama B actual e uma trama de referência da lista 0, TDd,0 representa uma distância temporal entre um campo O da trama de referência da lista 1 e uma trama de referência da lista 0, e mv0 representa um vector de movimento de um bloco co-localizado no campo 0 da trama de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se um macrobloco da imagem B se encontrar num modo de trama, um macrobloco co-localizado da imagem de referência da lista 1 encontra-se num modo de campo, precedendo a imagem de referência da lista 0 para o modo directo temporariamente a imagem de referência da lista 1, calculando os vectores de movimento de modo directo MVF(i e MVb,i de uma trama B da equação seguinte onde a informação do movimento de um bloco co-localizado num campo O de uma trama de referência da lista 1 é utilizado para o cálculo dos vectores de movimento de modo directo: MVF = - TDb x MV / TDd, o mvb = - (TDb + TDd,0) x MVo / TDd, o o u Z = -TDb X 2 5 6 O Q Q H MVf (Z x MV0 + 128) » W = Z - 256 MV,b = (W X MV0 + 128) » 8 em que TDB representa uma distância temporal entre uma trama B actual e uma trama de referência da lista 0, TDd,0 representa 25 uma distância temporal entre um campo 0 da trama de referência da lista 1 e uma trama de referência da lista 0, e MV0 representa um vector de movimento de um bloco co-localizado num campo 0 da trama de referência da lista 1 para modo directo.
De acordo com outro aspecto a presente invenção, é proporcionado um processo para calcular os vectores de movimento de modo directo de uma imagem B (bi-predictiva) no sistema de codificação de imagem em movimento para extrair os vectores de movimento de modo directo da imagem B, compreendendo o passo de atribuir um sinal a um valor de distância temporal entre imagens, desmultiplicar um vector de movimento de um bloco co-localizado numa imagem de referência da lista 1 para modo directo independentemente dos locais das imagens de referência da lista 0 e lista 1 para modo directo para obter um vector de movimento da lista 0 MVF e um vector de movimento da lista 1 MVB e calcular os vectores de movimento de modo directo da imagem B.
De preferência, o passo acima pode incluir o passo de, se ambos um macrobloco da imagem B e um macrobloco co-localizado da imagem de referência da lista 1 se encontrarem em modo de trama, calcular os vectores de movimento de modo directo MVF e MVb da imagem B do seguinte modo: MVf = TDb x MV / TDd MVb = (TDB - TDd) X MV / TDd 26 ou Z = TDb x 2 5 6 / TDd,í MVf,í = (Z x MVi + 128) » 8 W = Z - 256 MV,b,í = (W x MVi + 128) » 8 em que TDB representa uma distância temporal entre uma trama B actual e uma trama de referência da lista 0, ao qual se encontra atribuído um sinal positivo (+) se for medido da trama B e um sinal negativo (-) se for medido da trama de referência da lista 0, TDd representa uma distância temporal entre a trama de referência da lista 1 e uma trama de referência da lista 0, ao qual se encontra atribuido um sinal positivo ( + ) se for medido da trama de referência da lista 1 e um sinal negativo (-) se for medido da trama de referência da lista 0, e MV representa um vector de movimento do bloco co-localizado na imagem de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se ambos um macrobloco da imagem B e um macrobloco co-localizado da imagem da referência da lista 1 se encontrarem num modo de campo, o cálculo dos vectores de movimento de modo directo MVf,í e MVb,i para cada campo i de uma trama B é efectuado do seguinte modo: MVF,F = TDb,í x MVi / TDd,í MVb,í = (TDb, í TDd,í) x MVí / TDD(1 27 ou Z = TDB,i x 2 5 6 / TDd, i MVf,í = (Z x MVf + 128) » 8 W = Z - 256 MV,b,í = (W x MVi + 128) » 8 em que, TDB, i representa uma distância temporal entre um campo B actual e um campo de referência da lista 0, ao qual se encontra atribuído um sinal positivo ( + ) se for medido do campo B e um sinal negativo (-) se for medido do campo de referência da lista 0, TDd,í representa uma distância temporal entre um campo de referência da lista 1 e o campo de referência da lista 0, ao qual se encontra atribuído um sinal positivo (+) se for medido do campo de referência da lista 1 e um sinal negativo (-) se for medido do campo de referência da lista 0, representando, MVi um vector de movimento de um bloco co-localizado num campo de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se um macrobloco da imagem B se encontrar em modo de campo e um macrobloco co-localizado da imagem de referência da lista 1 se encontrar num modo de trama, calcular os vectores de movimento de modo directo MVF, i e MVB, i para cada campo 1 de uma trama B é efectuado do seguinte modo: MVF,i = TDB,i x MV / TDd MVB, i = (TDb,í - TDd) x MV / TDd ou 28 ζ TDB, i X 2 5 6 / TDd MVFí1 (Z x MV + 128) »8 W = Z - 256 MVíB,í = (W x MV + 128) » 8 em que TDb,í representa uma distância temporal entre um campo B actual e um campo de referência da lista 0 ao qual se encontra atribuído um sinal positivo ( + ) se for medido do campo B e um sinal negativo (-) se for medido do campo de referência da lista 0, TDD representa uma distância temporal entre a trama de referência da lista 1 e a trama de referência da lista 0, ao qual se encontra atribuído um sinal positivo (+) se for medido da trama de referência da lista 1 e um sinal negativo (-) se for medido da trama de referência da lista 0, representando MV um vector de movimento de um bloco co-localizado num campo de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se um macrobloco da imagem B se encontrar num modo de trama, um macrobloco co-localizado da imagem de referência da lista 1 encontra-se num modo de campo, seguindo a imagem de referência da lista 1 temporariamente a imagem B, calcular os vectores de movimento de modo directo MVF e MVB de uma trama B da equação seguinte onde a informação do movimento de um bloco co-localizado num campo O de uma trama de referência da lista 1 é utilizada para cálculo dos vectores de movimento de modo directo: 29 MVf = TDb x MVo / TDd, o MVb = (TDb - TDDío) x MVq / TDd,o
Ou Z = TDb x 256 / TDd,o MVf = (Z x MV0 + 128) » 8 W = Z - 256 MVb = (W x MV0 + 128) » 8 em que TDb representa uma distância temporal entre uma trama B actual e uma trama de referência da lista 0, ao qual se encontra atribuído um sinal positivo (+) se for medido da trama B e um sinal negativo (-) se for medido da trama de referência da lista 0, TDd,0 representa uma distância temporal entre um campo 0 da trama de referência da lista 1 e uma trama de referência da lista 0 ao qual se encontra atribuído um sinal positivo (+) se for medido do campo 0 da trama de referência da lista 1 e um sinal negativo (-) se for medido do campo de referência da lista 0, representando MV0 um vector de movimento de um bloco co-localizado no campo 0 da trama de referência da lista 1 para modo directo.
Adicionalmente, o passo acima pode compreender o passo de, se um macrobloco da imagem B se encontrar em modo de trama, um macrobloco co-localizado da imagem de referência da lista 1 30 encontra-se em modo de campo e a imagem de referência da lista 1 precede temporariamente a imagem B, calcular os vectores de movimento de modo directo MVF e MVB de uma trama B da equação seguinte onde a informação do movimento de um bloco co-localizado num campo 1 da trama de referência da lista 1 é utilizada para cálculo dos vectores de movimento de modo directo: MVf — TDb x MVi / TDBí iMVb — (TDb — TD^i) x MVi / TDFíi
OU Z = TDB x 256 / TDd,i MVf = (Z x MVi + 128) »8 W = Z - 256 MVb = (W x MVi + 128) » 8 em que TDB representa uma distância temporal entre uma trama B actual e uma trama de referência da lista 0 ao qual se encontra atribuído um sinal positivo ( + ) se for medido da trama B e um sinal negativo (-) se for medido da trama de referência da lista 0, TDD;i representa uma distância temporal entre a trama 1 da trama de referência da lista 1 e uma trama de referência da lista 0, ao qual se encontra atribuído um sinal positivo (+) se for medido do campo 1 da trama de referência da lista 1 e um sinal negativo (-) se for medido da trama de referência da lista 0, representando MVi um vector de movimento de um bloco 31 co-localizado no campo 1 da trama de referência da lista 1 para modo directo.
De acordo ainda com outro aspecto da presente invenção, é proporcionado um processo para o cálculo de vectores de movimento de modo directo de uma imagem B (bi-predictiva) no sistema de codificação de imagem em movimento para extrair os vectores de movimento de modo directo da imagem B, compreendendo o passo de, se um macrobloco co-localizado numa imagem de referência da lista 1 para modo directo se encontrar num modo intra, prever e calcular as imagens de referência da lista 0 e lista 1 e vectores de movimento de blocos contíguos de um macrobloco da imagem B a ser codificada, com base numa redundância espacial e calcular os vectores de movimento de modo directo da imagem B.
De preferência, o passo acima pode incluir o passo de, se os blocos A, B e C contíguos do macrobloco a serem codificados se referirem a diferentes imagens de referência, seleccionar uma imagem de referência com um índice o mais pequeno possível como uma imagem da referência para cada lista.
Adicionalmente, o passo acima pode compreender o passo de, se dois ou mais blocos contíguos dos macroblocos a serem codificados se referirem a uma imagem de referência com o mesmo índice, seleccionar essa imagem de referência como imagem de referência para cada lista.
Adicionalmente, o passo acima pode incluir o passo de, ajustar os seus vectores de movimento da lista 0 e lista 1 para 32 0 se qualquer dos blocos contíguos A, B e C do macrobloco a ser codificado se encontrar no modo intra, seleccionar o vector de movimento que apresenta a mesma direcção que aquele de um local temporal da imagem de referência para cada lista de um bloco vizinho, e obter o vector de movimento para cada lista através de uma operação mediana, ou seleccionar somente um de dois vectores de movimento daquele bloco se um bloco vizinho apresentar dois vectores de movimento com as mesmas direcções e obter o vector de movimento para cada lista através da operação mediana incluindo o vector de movimento seleccionado.
Adicionalmente, o passo acima pode incluir o passo de, se não puder ser obtido nenhum índice de imagem de referência efectivo para cada modo da lista, ajustar os índices de imagem de referência da lista 0 e lista 1 para 0 e ajustar o vector de movimento para cada modo da lista para 0.
Breve descrição dos desenhos. O objectivo acima e outros objectivos, características e outras vantagens da presente invenção serão mais claramente compreendidos da seguinte descrição pormenorizada obtida em conjunção com os desenhos anexos, em que :
As Figuras la a lc são imagens de referência da lista 1 para modo directo num padrão IBBBP geral; 33
As Figuras 2a a 2c são imagens de referência da lista 1 para modo directo num padrão IBBBP geral;
As Figuras 3a a 3h é uma vista ilustrando casos em que a imagem de referência da lista 1 para modo directo segue temporariamente uma imagem B (LO MV: vector de movimento da lista 0 e Ll MV: vector de movimento da lista 1);
As Figuras 4a a 4h é uma vista ilustrando casos onde uma imagem de referência da lista 1 para modo directo precede temporariamente uma imagem B (LO MV: vector de movimento da lista 0 e Ll MV: vector de movimento da lista 1); A Figura 5 é uma vista ilustrando a previsão do vector de movimento de um bloco E utilizando vectores de movimento de blocos contíguos A, B e C em consideração de uma redundância espacial geral;
As Figuras 6a a 6c são vistas ilustrando casos onde ambos um macrobloco de uma imagem B e um macrobloco co-localizado numa imagem de referência da lista 1 para modo directo se encontram num modo de trama, seguindo a imagem de referência da lista 1 temporariamente a imagem B;
As Figuras 7a a 7d são vistas ilustrando casos onde ambos um macrobloco de uma imagem B e um macrobloco co-localizado numa imagem de referência da lista 1 para modo directo se encontram num modo de campo e a imagem de referência da lista 1 segue temporariamente a imagem B;
As Figuras 8a a 8c são vistas ilustrando casos onde um macrobloco de uma imagem B se encontra um modo de campo, 34 um macrobloco co-localizado numa imagem de referência da lista 1 para modo directo se encontra no modo de trama, e a imagem de referência da lista 1 segue temporariamente a imagem B;
As Figuras 9a a 9c são vistas ilustrando casos onde um macrobloco de uma imagem B se encontra num modo de trama, um macrobloco co-localizado numa imagem de referência da lista 1 para modo directo se encontra no modo de campo, e a imagem de referência da lista 1 segue temporariamente a imagem B;
As Figuras 10a e 10b são vistas ilustrando casos onde ambos um macrobloco de uma imagem B e um macrobloco co-localizado numa imagem de referência da lista 1 para modo directo se encontram em modo de trama, precedendo a imagem de referência da lista 1 temporariamente a imagem B;
As Figuras 11a a lld são vistas ilustrando casos onde ambos um macrobloco de uma imagem B e um macrobloco co-localizado numa imagem de referência da lista 1 para modo directo se encontram no modo de campo, precedendo a imagem de referência da lista 1 temporariamente a imagem B;
As Figuras 12a e 12b são vistas ilustrando casos onde o macrobloco de uma imagem B se encontra no modo de campo e o macrobloco co-localizado numa imagem de referência da lista 1 para o modo directo geral se encontra no modo de trama, precedendo a imagem de referência da lista 1 temporariamente a imagem B; e 35
As Figuras 13a e 13b são vistas ilustrando casos onde o macrobloco de uma imagem B se encontra no modo de trama, um macrobloco co-localizado numa imagem de referência da lista 1 para um modo directo geral se encontra no modo de campo, precedendo a imagem de referência da lista 1 temporariamente a imagem B.
Descrição das formas de realização preferidas A presente invenção propõe um processo para obter vectores de movimento de modo directo quando um macrobloco co-localizado numa imagem de referência da lista 1 para modo directo se encontra no modo intra, e um processo para obter os vectores de movimento de modo directo num caso onde a imagem de referência da lista 1 segue temporariamente uma imagem B e num caso onde a imagem de referência da lista 1 precede temporariamente a imagem B. A presente invenção propõe adicionalmente um processo para calcular os vectores de movimento de modo directo independentemente da localização das imagens de referência da lista 0 e lista 1 para modo directo para atribuir um sinal a um valor de distância temporal entre a imagem para simplificar os algoritmos utilizados para cálculo dos vectores de movimento de modo directo.
Por outro lado, um modo de trama e um modo de campo são comutados a um nível de imagem, de modo que a imagem B e imagem 36 de referência da lista 1 podem ser codificadas em modo de trama e modo de campo. Como resultado, um macrobloco da imagem B ou um macrobloco co-localizado da imagem de referência da lista 1 apresentam guatro tipos de combinações codificadas por trama/campo.
[1] Caso onde um macrobloco co-localizado da imagem de referencia da lista 1 se encontra em modo intra.
Tal como apresentado nas figuras 3f e 4f, um macrobloco co-localizado numa imagem de referência da lista 1 para modo directo pode estar no modo intra independentemente de uma localização temporal da imagem de referência. Dado que o macrobloco neste modo não apresenta qualquer informação do movimento, um processo convencional coloca simplesmente vectores de movimento de modo directo a 0 e define uma imagem de referência da lista 0 a ser a última imagem descodificada. Contudo, o processo convencional não pode garantir uma elevada eficiência de codificação. Por isso, a presente invenção prevê e calcula as imagens de referência da lista 0 e lista 1 e vectores de movimento dos blocos contíguos de um macrobloco de uma Imagem B a ser codificada, com base numa redundância espacial.
Um índice de imagem de referência para cada modo da lista é obtido do seguinte modo. A figura 5 é uma ilustração da previsão do vector de movimento de um bloco E utilizando 37 vectores de movimento de blocos A, B e C contíguos em consideração de uma redundância espacial geral. se os blocos A, B e C contíguos apresentarem diferentes índices de imagem de referência, o índice de imagem de referência menor é determinado como sendo um índice de imagem de referência para o modo directo. - se dois dos blocos contíguos apresentarem o mesmo índice de imagem de referência, este índice é determinado como sendo um índice de imagem de referência para o modo directo.- se todos os blocos contíguos apresentarem o mesmo índice de imagem de referência, este índice é determinado como sendo um índice de imagem de referência para o modo directo.
Também, um vector de movimento para cada modo da lista é obtido através da seguinte previsão de vector de movimento. Neste momento, se qualquer dos blocos contíguos A, B e C se encontrar no modo intra, os seus vectores de movimento da lista 0 e lista 1 são colocados a 0 - um vector de movimento que apresenta a mesma direcção que uma localização temporal da imagem de referência acima obtida para cada modo da lista é seleccionado de um bloco vizinho e um vector de movimento para cada modo da lista é obtido através da operação mediana.- se um 38 bloco vizinho apresentar dois vectores de movimento com a mesma direcção, somente um dos dois vectores de movimento é seleccionado neste bloco incluído na operação mediana.
Por outro lado, se nenhum dos índices de imagem de referência efectivos da lista 0 e lista 1 puderem ser derivados de um bloco vizinho, eles são colocados a 0 e um vector de movimento para cada modo da lista é colocado a 0.
[ 2 ] Caso onde a imagem de referência da lista 1 para modo directo segue temporariamente uma imagem BCaso 1: Ambos um macrobloco de uma imagem B e macrobloco co-localizado da imagem de referência da lista 1 encontram-se em modo de trama
Como se pode ver nas figuras 3a a 3h, o bloco co-localizado na imagem da referência da lista 1 pode apresentar um vector de movimento ou dois vectores de movimento. Na presente invenção, se o bloco co-localizado apresentar dois vectores de movimento, é seleccionado um (LO MV ou LI MV de dois vectores de movimento, sendo vectores de movimento de modo directo obtidos do vector de movimento de modo seleccionado [tal irá ser descrito na presente com base no caso onde LO MV (vector de movimento da lista 0) é seleccionado].
Sendo assim, as figuras 3a e 3c podem ser simplesmente ilustradas respectivamente como figuras 6a, figuras 3b, 3d e 3e como figura 6c e as figuras 3g e 3h como figura 6b. 39
Se a imagem de referência da lista 0 e imagem de referência da lista 1 para modo directo se encontrarem localizadas temporariamente respectivamente antes e após cL imagem B, ( ;figura 6a) , ou ambas as imagens de referência da lista 0 e lista 1 para o modo directo se encontraram localizados temporariamente após a imagem B e a imagem de referência da lista 0 seguir temporariamente a imagem da referência da lista 1 (figura 6b), os vectores de movimento de modo directo MVF e MVB são calculados do seguinte modo: MVf = TDb X MV / TDd MVb = (TDb - TDd) x MV / TDd em que TDB representa uma distância temporal entre uma trama B actual e uma trama de referência da lista 0, e TDd representa uma distância temporal entre uma trama de referência da lista 1 e a trama de referência da lista 0.
Ao aplicar uma operação de Bit ao cálculo dos vectores de movimento de modo directo MVF e MVB para a conferência do mesmo, a equação acima pode ser expressa do seguinte modo: Z = TDB x 256 / TDd <í II (Z x MV + 128) » 8 W = Z - 256 MVB = (W x MV + 128) » 8
Se ambas as imagens de referência da lista 0 e lista 1 para o modo directo se encontrarem localizadas temporariamente 40 após a imagem B e a imagem de referência da lista 0 temporariamente preceder a imagem de referência da lista 1 (figura 6c), os vectores de movimento de modo directo MVF e MVb são calculados do seguinte modo: MVfi = - TDB X MV / TDd MVb = - (TDb + TDd) X MV / TDd
Esta equação pode ser expressa do seguinte modo: Z = - TDB x 2 5 6 / TDd MVf = (Z x MV + 128) » 8 W = Z - 256 MVb = (W x MV + 128) » 8
Caso 2: Os dois macroblocos da imagem B e macrobloco co-localizado da imagem de referência da lista 1 encontram-se em modo de campo
As figuras 7a a 7d apresentam casos onde ambos o macrobloco da imagem B e o macrobloco co-localizado da imagem de referência da lista 1 se encontram em modo de campo. Cada vector de movimento do macrobloco da imagem B é obtido de um vector de movimento de um bloco co-localizado num campo de referência da lista 1 da mesma paridade.
Se as imagens de referência da lista 0 e lista 1 para o modo directo se encontrarem localizadas respectivamente temporariamente antes e após a imagem B, (figura 7a), ou se ambas as imagens da referência da lista 0 e lista 1 para o modo directo se encontrarem localizadas temporariamente após a 41 imagem B e a imagem de referência da lista 0 segue temporariamente a imagem de referência da lista 1 (figura 7b), os vectores de movimento da lista 0 e lista 1 de modo directo MVF;; e MVf,í para cada campo i de uma trama B (i = 0 significa um primeiro campo i = 1 significa um segundo campo) são calculados do seguinte modo: MVF,i = TDb, í X MVi / TDd,íMVb,í = (TDb, i + TDd,í) X MVi / TDd,± em que MVi representa um vector de movimento de um bloco co-localizado de um campo i numa trama de referência da lista 1, TDB;1 representa uma distância temporal entre um campo B actual e um campo de referência da lista 0, representando TDd,i uma distância temporal entre um campo de referência da lista 1 e o campo de referência da lista 0. A equação acima pode ser expressa do seguinte modo: Z = T DB,i X 256 / TDd,í MVf,í = (Z x MVí + 128) » 8 W = Z - 256 MVb,i (W x MVi + 128) » 8
Se, dado que o bloco co-localizado do campo i da trama de referência da lista 1 apresenta um vector de movimento que aponta para um campo numa trama que segue temporariamente a imagem B, ambas as imagens de referência da lista 0 e lista 1 para o modo directo se encontram localizadas temporariamente após a imagem B e a imagem de referência da lista 0 precede 42 temporariamente a imagem de referência da lista 1 (figuras 7c e 7d), os vectores de movimento da lista 0 e lista 1 de modo directo MVf,í e MVf,í são calculados do seguinte modo: MVf, í = - TDb, í X MVi / TDD(1 MVb,í = _ (TDb,í + TDd,í) X MVi / TDd,í A equação acima pode ser expressa do seguinte modo: Z = - TDb,í X 256 / TDd,í MVF, i - (z x MVi + 128) » 8 W = Z - 256 MVBíi = (W x MVi + 128) » 8
Caso 3: O macrobloco da imagem B encontra-se em modo de campo e o macrobloco co-localizado da imagem de referência da lista 1 encontra-se em modo de trama
As figuras 8a a 8c apresentam casos onde o macrobloco da imagem B se encontra em modo de campo e o macrobloco co-localizado da imagem de referência da lista 1 se encontra em modo de trama. Aqui, ao deixar a coordenada vertical do macrobloco actual ser yactuai e a coordenada vertical do macrobloco co-localizado em imagem de referência da lista 1 ser
Yco-localizado, Θ eStâbeleCÍda â relâÇãO de Yco-localizada — 2 X Yactual entre as duas coordenadas. Também, os campos de referência da lista 0 e lista 1 encontram-se presentes nas mesmas paridades 43 dos quadros da referência da lista 0 e lista 1, respectivamente.
Se as imagens de referência da lista 0 e lista 1 para o modo directo se encontrarem localizados temporariamente respectivamente antes e após a imagem B, (figura 8a), ou se ambas as imagens de referência da lista 0 e lista 1 para o modo directo se encontrarem localizadas temporariamente após a imagem B e a imagem de referência da lista 0 seguir temporariamente a imagem da referência da lista 1 (Figura 8b), os vectores de movimento da lista 0 e lista 1 de modo directo MVb,i e MVB, i para cada campo i da trama B são calculados do seguinte modo: MVp, i = TDb,i X MV / TDcMVb,i = (TDb,i — TDd) X MV / TDd a equação acima pode ser expressa do seguinte modo: Z = TDb,í, X 256 / TDJMVp,! = (Z x MV + 128) » 8W = Z - 256 MVb,í = (W x MV + 128) » 8
Se, dado que o bloco co-localizado na trama de referência da lista 1 apresenta um vector de movimento que aponta para uma trama que segue temporariamente a imagem B, ambas as imagens de referência da lista 0 e lista 1 para o modo directo se encontram temporariamente após a imagem B e a imagem de 44 referência da lista 0 precede temporariamente a imagem de referência da lista 1 (figura 8c), os vectores de movimento de modo directo da lista 0 e lista 1 MVb,í e MVB/i para cada campo i da trama B são calculados do seguinte modo: MVF,i = - TDB,i x MV / TDdMVb,í = - (TDb,í + TDd) X MV / TDd A equação acima pode ser expressa do seguinte modo: Z = - TDB(i x 256 / TDd MVf,í = (Z x MV + 128) » 8 W = Z - 256 MVB,i = (W x MVi + 128) » 8 em que TDb,í representa uma distância temporal entre o campo B actual e o campo de referência da lista 0, TDd representa uma distância temporal entre a trama de referência da lista 1 e a trama de referência da lista 0, e MV representa um vector de movimento do bloco co-localizado na trama de referência da lista 1 para o modo directo.
Caso 4: Macrobloco da imagem B encontra-se em modo de trama e o macrobloco co-localizado da imagem de referência da lista 1 encontra-se em modo de campo
As figuras 9a a 9c apresentam casos onde o macrobloco da imagem B se encontra em modo de trama e o macrobloco co localizado da imagem de referência da lista 1 se encontra em modo de campo. Aqui, ao deixar a coordenada vertical do 45 macrobloco actual ser yactuai e a coordenada vertical do macrobloco co-localizado da imagem de referência da lista 1 ser fco-iocaiizador e estabelecida a relação Yco-iocaiízado = Yactuai /2 entre as duas coordenadas. Também, dado que o campo 0 da trama de referência da lista 1 se encontra temporariamente mais próximo da trama B do que o campo 1 do mesmo, a informação do movimento de um bloco co-localizado do campo O é utilizada para cálculo dos vectores de movimento de modo directo.
Se as imagens de referência da lista 0 e lista 1 para o modo directo se encontrarem localizadas temporariamente respectivamente antes e após a imagem B, (figura 9a), ou se ambas as imagens de referência da lista 0 e lista 1 para o modo directo se encontrarem localizadas temporariamente após a imagem B e a imagem de referência da lista 0 seguir temporariamente a imagem de referência da lista 1 (figura 9b), os vectores de movimento da lista 0 e lista 1 para modo directo MVF e MVB da trama B são calculados do seguinte modo: MVf = TDb x MV0 / TDd, o MVb = (TDb - TDd,o) x MVo / TDd,o A equação acima pode ser expressa do seguinte modo Z = TDb x 256 / TDd,0 MVf = (Z x MV0 + 128) » 8 W = Z - 256 MVb = (W x MV0 + 128) » 8 46
Se, dado que o bloco co-localizado da trama de referência do campo 0 do quadro de referência da lista 1 apresenta um vector de movimento que aponta para um campo de uma trama que segue temporariamente a imagem 3, ambas as imagens de referência da lista 0 e lista 1 para o modo directo se encontram localizadas temporariamente após a imagem B e a imagem de referência da lista 0 procede temporariamente a imagem de referência da lista 1 (9c), os vectores de movimento da lista 0 e lista 1 de modo directo MVF e MVB são calculados do seguinte modo: MVp — - TDb x MVo / TDB(o MVb = - (TDb - TDDí0) x MV0 / TDd,0 A equação acima pode ser expressa do seguinte modo: Z — TDb X 256 / TDBío II pui 1 (Z x MV0 + 128) » 8 W = Z - 256 MVb = (W x MV0 + 128) » 8 em que TDB representa uma distância temporal entre a trama B actual e a trama de referência da lista 0, TDd,0 representa uma distância temporal entre um campo 0 da trama de referência da lista 1 e o campo de referência da lista 0, e MV0 representa um vector de movimento do bloco co-localizado no campo 0 da trama de referência da lista 1 para modo directo. 47
[3] Caso em que a imagem da referência da lista 1 para modo directo precede temporariamente uma imagem B
Neste caso, ambas as imagens de referência da lista 0 e lista 1 encontram-se sempre localizadas temporariamente antes da imagem B.
Caso 1: Ambos um macrobloco da imagem B e macrobloco co-localizado da imagem de referência da lista 1 se encontram em modo de trama
Tal como se pode verificar nas figuras 4a a 4h, o bloco co-localizado na imagem de referência da lista 1 pode apresentar um vector de movimento ou dois vectores de movimento. Na presente invenção, se o bloco co-localizado apresentar dois vectores de movimento, um (LO MV ou LI MV) dos dois vectores de movimento é seleccionado, sendo obtidos vectores de movimento de modo directo do vector de movimento seleccionado [isto irá ser descrito na presente com base no caso em que LO MV (vector de movimento da lista 0) é seleccionado].
Sendo assim, as figuras 4a, 4c, 4e, 4g e 4h podem ser simplesmente ilustradas como figuras 10a, e as figuras 4b e 4d respectivamente como figuras 10b.
Se a imagem da referência da lista 0 para modo directo preceder temporariamente a imagem de referência da lista 1 para modo directo, os vectores de movimento de modo directo MVF e MVB são calculados do seguinte modo (figura 10a): 48 MVf = TDb x MV / TDd MVb = (TDb - TDd) x MV / TDd
em que TDB representa uma distância temporal entre uma trama B actual e uma trama de referência da lista 0, TDd representa uma distância temporal entre uma trama de referência da lista 1 e a trama de referência da lista 0, e MV representa um vector de movimento do bloco co-localizado na trama de referência da lista 1 para modo directo. A equação acima pode ser expressa do seguinte modo Z = TDb x 256 / TDd MVf = (Z x MV + 128) » 8 W = Z - 256 MVB = (W x MV + 128) » 8
Se a imagem de referência da lista 0 seguir temporariamente a imagem da referência da lista 1, os vectores de movimento de modo directo MVF e MVB são calculados do seguinte modo (figura 10b): MVF = - TDb x MV / TDd MVb = - (TDb + TDd) x MV / TDd
Esta equação pode ser expressa do seguinte modo: TDb x 256 / TDd MVf = (Z x MV + 128) » 8 Z - 256 MVb = (W x MV + 128) » 8 49 em que TDB representa uma distância temporal entre a trama B actual e a trama de referência da lista 0, tdd representa uma distância temporal entre a trama de referência da lista 1 e a trama referência da lista 0, e MV representa um vector de movimento do bloco co-localizado na imagem de referência da lista 1 para modo directo.
Caso 2: Ambos um macrobloco da imagem B e o macrobloco co-localizado da imagem de referência da lista 1 se encontram em modo de campo
Se a imagem de referência da lista 0 para modo directo preceder temporariamente a imagem de referência da lista 1 para modo directo, os vectores de movimento da lista 0 e lista 1 para modo directo MVf,í e MVb,í para cada campo i de uma trama B, são calculados do seguinte modo (figuras 11a e 11b) : MVF(i =TDb, i x MVi / TDd,i MVb,í = (TDb,í - TDb,í) x MVí / TDb,i A equação acima pode ser expressa do seguinte modo: Z = TDB,i X 2 5 6 / TDd,í II -H pn-i 1 (Z x MVí + 128) » 8W = Z - 256 MVb,í = (W x MVí + 128) » 8 em que TDb,í representa uma distância temporal entre um campo B actual e um campo de referência da lista 0, TDb,í representa uma 50 distância temporal entre um campo de referência da lista 1 e o campo de referência da lista 0, e MVi representa um vector de movimento de um bloco co-localizado num campo de referência da lista 1 para modo directo.
Se, dado que o bloco co-localizado do campo i na trama de referência da lista 1 apresenta um vector de movimento que aponta para um campo numa trama que o segue temporariamente, a imagem de referência da lista 0 preceder temporariamente a imagem de referência da lista 1, os vectores de movimento da lista 0 e lista 1 de modo directo MVf,í e MVb,í são calculados do seguinte modo (figuras 11c e lld): MVf,í = - TDb, i x MVi / TDd, ,MVBf; = - (TDb,í + TDDfi) x MVi / TDB(i A equação acima pode ser expressa do seguinte modo: Z = - TDB,i x 256 / TDd mvFí1 = (Z x MVi + 128) » 8W - 256 mvb,f = (W x MVi + 128) » 8 em que TDb,í representa uma distância temporal entre o campo B actual e o campo de referência da lista 0, TDb,í representa uma distância temporal entre um campo de referência da lista 1 e o campo de referência da lista 0, e MVB representa um vector de movimento do bloco co-localizado no campo de referência da lista 1 para modo directo. 51
Caso 3: O macrobloco da figura B encontra-se em modo de campo e o macrobloco co-localizado da imagem de referência da lista 1 encontra-se em modo de trama
Se a imagem de referência da lista 0 para modo directo preceder temporariamente a imagem de referência da lista 1 para modo directo, os vectores de movimento da lista 0 e lista 1 para modo directo MVF,F e MVBíi para cada campo i da trama B são calculados do seguinte modo (figura 12a): MVf,i = TDb,í x MV / TDdMVb,í = (TDB(i - TDd) x MV / TDd A equação acima pode ser expressa do seguinte modo: Z = TDB(i x 256 / TDd MVf,í = (Z x MV + 128) » 8 W = Z - 256 MVb,í = (W x MV + 128) » 8 em que TDb,i representa uma distância temporal entre o campo B actual e o campo de referência da lista 0, TDD representa uma distância temporal entre a trama de referência da lista 1 e a trama de referência da lista 0, e MV representa um vector de movimento do bloco co-localizado na trama de referência da lista 1 para modo directo.
Se, dado que o bloco co-localizado na trama de referência da lista 1 apresenta um vector de movimento que aponta para uma trama que segue temporariamente, a imagem de referência da lista 0 seguir temporariamente a imagem de referência da lista 52 1, os vectores de movimento da lista 0 e lista 1 de modo directo mvFíF e MVb,í para cada campo i da trama B são calculados do seguinte modo (figura 12b): mvf,í = - tdb,í x mv / tdd MVb,í = - (TDb,í + TDd) x MV / TDf A equação acima pode ser expressa do seguinte modo: Z = - TDb,í x 256 / TDd MVf,í = (Z x MV + 128) » 8 W = Z - 256 MVb,í = (W x MV + 128) » 8 em que TDb,i representa uma distância temporal entre o campo B actual e o campo de referência da lista 0, TDD representa uma distância temporal entre a trama de referência da lista 1 e a trama de referência da lista 0, e MV representa um vector de movimento do bloco co-localizado na trama de referência da lista 1 para modo directo.
Caso 4: O macrobloco da imagem B encontra-se em modo de trama e o macrobloco co-localizado da imagem de referência da lista 1 encontra-se em modo de campo
Dado que o campo 1 fl da trama de referência da lista 1 se encontra temporariamente mais próximo da imagem B do que o campo O fO do mesmo, a informação do movimento de um bloco co-localizado do campo 1 fl é utilizado para cálculo dos vectores de movimento de modo directo. 53
Se a imagem de referência da lista 0 para modo directo preceder temporariamente a imagem de referência da lista 1 e para modo directo, os vectores de movimento da lista 0 lista 1 para modo directo mvf e MVB para cada campo i da trama B são calculados do seguinte modo (figura 13a): MVf = TDb X MVi / TDd,iMVb = (TDB - TD^) X MVX / TDDfl A equação acima pode ser expressa do seguinte modo: Z = TDB x 256 / TDd,i MVf = (Z X MVi + 128) » 8W = Z 256 MVb = (W X MVi f 128) » 8 em que TDB representa uma distância temporal entre a trama B actual e a trama de referência da lista 0, TDD;i representa uma distância temporal entre um campo 1 da trama de referência da lista 1 e o campo de referência da lista 0, e MVi representa um vector de movimento do bloco co-localizado no campo 1 numa trama de referência da lista 1 para modo directo.
Se, dado que o bloco co-localizado do campo 1 fl da trama de referência da lista 1 apresentar um vector de movimento que aponta para um campo de uma trama que segue temporariamente, a imagem de referência da lista 0 segue temporariamente a imagem de referência da lista 1, sendo os vectores de movimento da lista 0 e lista 1 de modo directo MVF e MVB calculados do seguinte modo (figura 13b): 54 MVf = - TDb x MVi / TDd, i MVb = - (TDB + TDd,i) X MVi / TDd,i A equação acima pode ser expressa do seguinte modo: Z = - TDb X 256 / TDd,i MVf = (Z x MVi + 128) » 8W = Z - 256 MVb = (w x MVi + 128) » 8 em que TDB representa uma distância temporal entre a trama B actual e a trama de referência da lista 0, TDD;i representa uma distância temporal entre o campo 1 da trama de referência da lista 1 e o campo de referência da lista 0, e MVi representa um vector de movimento do bloco co-localizado do campo 1 da trama de referência da lista 1 para modo directo.
[4] Caso, onde os vectores de movimento de modo directo são calculados atribuindo sinais a valores de distância temporais entre imagens
No caso em que a imagem de referência da lista 1 para modo directo se encontra localizada temporariamente antes ou após a imagem B, são dados dois tipos de algoritmos para cada caso. Tais algoritmos podem ser simplesmente expressos atribuindo um sinal a um valor de distância temporal inter-imagem, do seguinte modo. 55
Caso 1: Ambos o macrobloco da imagem B e macrobloco co-localizado da imagem de referência da lista 1 se encontram em modo de trama
Se ambos o macrobloco da imagem B e macrobloco co-localizado da imagem de referência da lista 1 se encontrarem em modo de trama, os vectores de movimento de modo directo MVF e MVb da imagem B podem ser calculados do seguinte modo: MVf = TDb x MV / TDdMVb = (TDB - TDd) x MV / TDd o u Z = TDb X 256 / TDd MVf = (Z x MV + 128) » 8 W = Z - 256 MVb = (W x MV + 128) » 8 em que T DB representa uma distância temporal entre uma actual e uma trama de referência da lista 0, ao qual se encontra atribuído um sinal positivo (+) se for medido da trama B e um sinal negativo (-) se for medido da trama de referência da lista 0, TDd representa uma distância temporal entre uma trama de referência da lista 1 e a trama de referência da lista 0, ao qual se encontra atribuído um sinal positivo ( + ) se for medido da trama de referência da lista 1 e um sinal negativo (-) se for medida da trama de referência da lista 0, e MV representa um vector de movimento do bloco co-localizado na imagem da referência da lista 1 para modo directo. 56
Caso 2: Ambos um macrobloco da imagem B e o macrobloco co-localizado da imagem de referência da lista 1 se encontram em modo de campo
Se ambos, o macrobloco da imagem B e o macrobloco co-localizado da imagem de referência da lista 1 se encontram em modo de campo, os vectores de movimento de modo directo MVFfi e MVb,í para cada campo i da trama B, podem ser calculados do seguinte modo: mvF(Í = TDb,í x MVi / TDd,i MVb,í = (TDB,i - TDd,í) x MVi / TDd,í ou Z = TDB,i x 2 5 6 / TDd,í MVf,í = (Z x MVi + 12 8) » 8 W = Z - 256 MVb,í = (W x MVi + 128) » 8 em que TDBí1 representa uma distância temporal entre um campo B actual e um campo de referência da lista 0, ao qual se encontra atribuído um sinal positivo ( + ) se for medido do campo B e um sinal negativo (-) se for medido da trama de referência da lista 0, TDd,í representa uma distância temporal entre uma trama de referência da lista 1 e a trama de referência da lista 0, ao qual se encontra atribuído um sinal positivo (+) se for medido da trama de referência da lista 1 e um sinal negativo (-) se for medido da trama de referência da lista 0, e MVf representa 57 um vector de movimento de um bloco co-localizado num campo de referência da lista 1 para modo directo.
Caso 3: O macrobloco da imagem B encontra-se em modo de campo e o macrobloco co-localizado da imagem de referência da lista 1 encontra-se em modo de trama
Se o macrobloco da imagem B se encontrar em modo de campo e o macrobloco co-localizado da imagem da referência da lista 1 se encontrar em modo de trama, os vectores de movimenta de modo directo MVF(i e MVb,í para cada campo i da trama B podem ser calculados do seguinte modo:
ou Z = TDB,i x 2 5 6 / TDd W = Z - 256 MVf,í = ( Z x MV + 12 8) » 8 MVb,í = (W x MV + 128) » 8 em que TDb,í representa uma distância temporal entre o campo B actual e o campo de referência da lista 0, ao qual se encontra atribuído um sinal positivo ( + ) se for medido do campo B e um sinal negativo (-) se for medido do campo de referência da lista 0, TDd representa uma distância temporal entre o campo de referência da lista 1 e o campo de referência da lista 0, ao qual se encontra atribuído um sinal positivo (+) se for medido da trama de referência da lista 1 e um sinal negativo (-) se 58 for medido da trama de referência da lista 0, e MV representa um vector de movimento do bloco co-localizado da trama de referência da lista 1 para modo directo.
Caso 4: O macrobloco da imagem B encontra-se em modo de trama e o macrobloco co-localizado da imagem de referência da lista 1 encontra-se em modo de campo
Se o macrobloco da imagem B se encontrar em modo de trama, o macrobloco co-localizado da imagem de referência da lista 1 encontra-se em modo de campo, seguindo a trama de referência da lista 1 temporariamente a imagem B, encontrando-se o campo 0 da trama de referência da lista 1 temporariamente mais próximo da imagem B do que o campo 1 do mesmo, de modo que a informação do movimento de um bloco co-localizado do campo 0 é utilizado para cálculo dos vectores de movimento de modo directo. Como resultado, os vectores de movimento de modo directo MVF e MVB da trama B podem ser obtidos da equação seguinte onde a informação do movimento do bloco co-localizado no campo 0 da trama de referência da lista 1 é utilizado para o cálculo dos vectores de movimento de modo directo: MVF = TDb x MVo / TDD( o MVb = (TDb - TDd,0) x MV0 / TDd,0
Ou Z = TDB x 256 / TDd,o MVf = (Z x MV0 + 128) » 8 59 W = Ζ - 256 MVB = (W x MVq + 128) » 8 em que TDB representa uma distância temporal entre a trama B actual e a trama de referência da lista 0, ao qual se encontra atribuido um sinal positivo (-) se for medido da trama B e um sinal negativo (-) se for medido da trama de referência da lista 0, TDd,0 representa uma distância temporal entre um campo 0 da trama de referência da lista 1 e a trama de referência da lista 0, ao qual se encontra atribuido um sinal positivo (+) se for medido da trama de referência da lista 1 e um sinal negativo (-) se for medido da trama de referência da lista 0, e MV0 representa um vector de movimento do bloco co-localizado no campo 0 da trama de referência da lista 1 para modo directo.
Se a imagem de referência da lista 1 preceder temporariamente a imagem B, o campo 1 da trama de referência da lista 1 encontra-se temporariamente mais próximo da trama B do que o campo 0 do mesmo, de modo que é utilizada a informação do movimento de um bloco co-localizado do campo 1 para cálculo dos vectores de movimento de modo directo. Como resultado, os vectores de movimento de modo directo MVF e MVB da trama B podem ser obtidos da equação seguinte onde a informação do movimento do bloco localizado no campo 1 da trama de referência da lista 1 é utilizada para cálculo dos vectores de movimento de modo directo: MVf = TDb x MVi / TDd,i 60 MVb = (TDB - TDDfl) x MV! / TDd,!
OU Z = TDB X 256 / TDd,i MVf = (Z x MVi + 128) » 8 W = Z - 256 MVb = (W x MVX + 128) » 8 em que TDB representa uma distância temporal entre a trama B actual e a trama de referência da lista 0, ao qual se encontra atribuído um sinal positivo (+) ser for medido da trama B e um sinal negativo (-) se for medido da trama de referência da lista 0, TDd,i representa uma distância temporal entre um campo 1 da trama de referência da lista 1 e o campo de referência da lista 0, ao qual se encontra atribuído um sinal positivo (+) se for medido do campo 1 da trama de referência da lista 1 e um sinal negativo (-) se for medido da trama de referência da lista 0, representando MVi um vector de movimento do bloco co-localizado do campo 1 da trama de referência da lista 0 para modo directo.
Tal como é visível da descrição acima, a presente invenção proporciona um processo para calcular os vectores de movimento de modo directo de uma imagem B (bi-predictiva) definida numa técnica de compressão de imagem e movimento da próxima geração. É proposta uma técnica para extrair os vectores de movimento de modo directo da imagem B para aumentar a probabilidade de um modo directo ser seleccionado como um modo de previsão de um 61 macrobloco, melhorando deste modo a eficiência de codificação de imagem B.
Lisboa, 21 de Dezembro de 2010. 62
Claims (2)
- REIVINDICAÇÕES 1. Processo para extrair vectores de movimento de modo directo de um macrobloco actual numa imagem B no processamento de imagem em movimento, compreendendo: determinar um bloco co-localizado para o macrobloco actual numa imagem de referência da lista 1; seleccionar um vector de movimento do bloco co-localizado na imagem de referência da lista 1; derivar os vectores de movimento do macrobloco actual na imagem B a partir do vector de movimento seleccionado; em que o passo de derivar os vectores de movimento do macrobloco actual na imagem B a partir do vector de movimento seleccionado compreende a aplicação de um deslocamento aritmético para a direita de 8 bits para o vector de movimento do macrobloco corrente; e as ditas lista 0 e lista 1 estão respectivamente de acordo com a norma H.264/ MPEG-4 parte 10; caracterizado por o passo de selecção do vector de movimento do bloco co-localizado na imagem de referência da lista 1 ser executado seleccionando o vector de movimento a partir de um vector de movimento da lista 0 e um vector de 1 movimento da lista 1 do bloco co-localizado na imagem de referência da lista 1; e o vector de movimento da lista 1 do bloco co-localizado na imagem de referência da lista 1 para modo directo é seleccionado como o vector de movimento para derivação dos ditos vectores de movimento para modo directo se o bloco co-localizado na imagem de referência da lista 1 só tiver o vector de movimento da lista 1.
- 2. Processo de acordo com a reivindicação 1, compreendendo ainda o passo de determinação de uma imagem de referência apontada por um vector de movimento do bloco co-localizado na imagem de referência da lista 1 como a imagem de referência da lista 0 para modo directo. Lisboa, 21 de Dezembro de 2010. 2
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20020060742 | 2002-10-04 | ||
KR20020061243 | 2002-10-08 | ||
KR10-2002-0071226A KR100506864B1 (ko) | 2002-10-04 | 2002-11-15 | 모션벡터 결정방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
PT2009927E true PT2009927E (pt) | 2010-12-29 |
Family
ID=35871226
Family Applications (10)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PT07003016T PT1796396E (pt) | 2002-10-04 | 2003-01-07 | Processo para o cálculo do vector de movimento em modo directo para imagem b |
PT05018606T PT1603344E (pt) | 2002-10-04 | 2003-01-07 | Processo para o cálculo do vector de movimento em modo directo para imagem b |
PT08016890T PT2003899E (pt) | 2002-10-04 | 2003-01-07 | Processo para o cálculo do vectores de movimento em modo directo |
PT08016895T PT2009928E (pt) | 2002-10-04 | 2003-01-07 | Processo para o cálculo do vectores de movimento em modo directo |
PT03000209T PT1406453E (pt) | 2002-10-04 | 2003-01-07 | Processo para o cálculo do vector de movimento em modo directo para imagens do tipo b |
PT07003015T PT1821547E (pt) | 2002-10-04 | 2003-01-07 | Processo para o cálculo do vectores de movimento em modo directo para imagem |
PT08016891T PT2003900E (pt) | 2002-10-04 | 2003-01-07 | Processo para o cálculo do vectores de movimento em modo directo |
PT08016888T PT2015585E (pt) | 2002-10-04 | 2003-01-07 | Processo para o cálculo do vectores de movimento em modo directo |
PT07003014T PT1809048E (pt) | 2002-10-04 | 2003-01-07 | Processo para o cálculo do vectores de movimento de imagem b |
PT08016893T PT2009927E (pt) | 2002-10-04 | 2003-01-07 | Processo para o cálculo do vectores de movimento em modo directo |
Family Applications Before (9)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PT07003016T PT1796396E (pt) | 2002-10-04 | 2003-01-07 | Processo para o cálculo do vector de movimento em modo directo para imagem b |
PT05018606T PT1603344E (pt) | 2002-10-04 | 2003-01-07 | Processo para o cálculo do vector de movimento em modo directo para imagem b |
PT08016890T PT2003899E (pt) | 2002-10-04 | 2003-01-07 | Processo para o cálculo do vectores de movimento em modo directo |
PT08016895T PT2009928E (pt) | 2002-10-04 | 2003-01-07 | Processo para o cálculo do vectores de movimento em modo directo |
PT03000209T PT1406453E (pt) | 2002-10-04 | 2003-01-07 | Processo para o cálculo do vector de movimento em modo directo para imagens do tipo b |
PT07003015T PT1821547E (pt) | 2002-10-04 | 2003-01-07 | Processo para o cálculo do vectores de movimento em modo directo para imagem |
PT08016891T PT2003900E (pt) | 2002-10-04 | 2003-01-07 | Processo para o cálculo do vectores de movimento em modo directo |
PT08016888T PT2015585E (pt) | 2002-10-04 | 2003-01-07 | Processo para o cálculo do vectores de movimento em modo directo |
PT07003014T PT1809048E (pt) | 2002-10-04 | 2003-01-07 | Processo para o cálculo do vectores de movimento de imagem b |
Country Status (15)
Country | Link |
---|---|
US (31) | US7233621B2 (pt) |
EP (21) | EP2003899B1 (pt) |
JP (19) | JP4020789B2 (pt) |
KR (1) | KR100506864B1 (pt) |
CN (3) | CN1269361C (pt) |
AT (10) | ATE354259T1 (pt) |
CY (10) | CY1106351T1 (pt) |
DE (13) | DE60334337D1 (pt) |
DK (10) | DK1406453T3 (pt) |
ES (1) | ES2281573T3 (pt) |
GB (4) | GB2406460B (pt) |
HK (5) | HK1073556A1 (pt) |
NL (3) | NL1022333C2 (pt) |
PT (10) | PT1796396E (pt) |
SI (10) | SI2009928T1 (pt) |
Families Citing this family (146)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6499060B1 (en) | 1999-03-12 | 2002-12-24 | Microsoft Corporation | Media coding for loss recovery with remotely predicted data units |
ES2602575T3 (es) * | 2001-11-06 | 2017-02-21 | Panasonic Intellectual Property Corporation Of America | Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento |
US20030099294A1 (en) * | 2001-11-27 | 2003-05-29 | Limin Wang | Picture level adaptive frame/field coding for digital video content |
US7003035B2 (en) | 2002-01-25 | 2006-02-21 | Microsoft Corporation | Video coding methods and apparatuses |
JP2004088722A (ja) | 2002-03-04 | 2004-03-18 | Matsushita Electric Ind Co Ltd | 動画像符号化方法および動画像復号化方法 |
KR100931750B1 (ko) | 2002-04-19 | 2009-12-14 | 파나소닉 주식회사 | 움직임 벡터 계산방법 |
US20040001546A1 (en) | 2002-06-03 | 2004-01-01 | Alexandros Tourapis | Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation |
US7088776B2 (en) | 2002-07-15 | 2006-08-08 | Apple Computer, Inc. | Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding |
US7154952B2 (en) | 2002-07-19 | 2006-12-26 | Microsoft Corporation | Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures |
US8254461B2 (en) | 2002-07-24 | 2012-08-28 | Apple Inc. | Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations |
US6728315B2 (en) | 2002-07-24 | 2004-04-27 | Apple Computer, Inc. | Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations |
KR100506864B1 (ko) | 2002-10-04 | 2005-08-05 | 엘지전자 주식회사 | 모션벡터 결정방법 |
US7499493B2 (en) * | 2003-06-20 | 2009-03-03 | Lsi Corporation | Dual block motion vector storage in compressed form |
US7609763B2 (en) * | 2003-07-18 | 2009-10-27 | Microsoft Corporation | Advanced bi-directional predictive coding of video frames |
US20050013498A1 (en) | 2003-07-18 | 2005-01-20 | Microsoft Corporation | Coding of motion vector information |
US8064520B2 (en) | 2003-09-07 | 2011-11-22 | Microsoft Corporation | Advanced bi-directional predictive coding of interlaced video |
US7724827B2 (en) | 2003-09-07 | 2010-05-25 | Microsoft Corporation | Multi-layer run level encoding and decoding |
US7623574B2 (en) * | 2003-09-07 | 2009-11-24 | Microsoft Corporation | Selecting between dominant and non-dominant motion vector predictor polarities |
US7616692B2 (en) * | 2003-09-07 | 2009-11-10 | Microsoft Corporation | Hybrid motion vector prediction for interlaced forward-predicted fields |
US8085844B2 (en) * | 2003-09-07 | 2011-12-27 | Microsoft Corporation | Signaling reference frame distances |
US7567617B2 (en) | 2003-09-07 | 2009-07-28 | Microsoft Corporation | Predicting motion vectors for fields of forward-predicted interlaced video frames |
US7577198B2 (en) | 2003-09-07 | 2009-08-18 | Microsoft Corporation | Number of reference fields for an interlaced forward-predicted field |
US7620106B2 (en) * | 2003-09-07 | 2009-11-17 | Microsoft Corporation | Joint coding and decoding of a reference field selection and differential motion vector information |
FR2860678A1 (fr) * | 2003-10-01 | 2005-04-08 | Thomson Licensing Sa | Procede de codage differentiel |
US7400681B2 (en) * | 2003-11-28 | 2008-07-15 | Scientific-Atlanta, Inc. | Low-complexity motion vector prediction for video codec with two lists of reference pictures |
CN1225128C (zh) * | 2003-12-31 | 2005-10-26 | 中国科学院计算技术研究所 | 直接编码模式下确定参考图像块的方法 |
CN1321534C (zh) * | 2003-12-31 | 2007-06-13 | 中国科学院计算技术研究所 | 固定参考帧数编码方式下获取图像参考块的方法 |
US8036271B2 (en) * | 2004-02-24 | 2011-10-11 | Lsi Corporation | Method and apparatus for determining a second picture for temporal direct-mode block prediction |
KR100584603B1 (ko) * | 2004-08-03 | 2006-05-30 | 학교법인 대양학원 | 다시점 영상의 다이렉트 모드 움직임 예측 방법 및 장치 |
CN101099394B (zh) * | 2004-11-04 | 2010-08-18 | 汤姆森特许公司 | 用于视频编码器中b帧的快速模式决策的方法和装置 |
US8634413B2 (en) | 2004-12-30 | 2014-01-21 | Microsoft Corporation | Use of frame caching to improve packet loss recovery |
JP2006352238A (ja) * | 2005-06-13 | 2006-12-28 | Sony Corp | 画像処理装置、画像処理方法及びプログラム |
KR100746006B1 (ko) | 2005-07-19 | 2007-08-06 | 삼성전자주식회사 | 계층적 구조에 적합하게 시간적 다이렉트 모드로인코딩하며, 디코딩하는 방법 및 장치 |
JP2007028393A (ja) * | 2005-07-20 | 2007-02-01 | Matsushita Electric Ind Co Ltd | 双方向予測符号化ピクチャの直接モードブロックの動きベクトルを求める方法 |
US8498520B2 (en) * | 2005-07-27 | 2013-07-30 | Vbrick Systems, Inc. | Video encoding and transmission technique for efficient, multi-speed fast forward and reverse playback |
FR2891685B1 (fr) * | 2005-10-03 | 2008-04-18 | Envivio France Entpr Uniperson | Procede et dispositif d'estimation de mouvement a references multiples, procede et dispositif de codage, produits programme d'ordinateur et moyens de stockage correspondants. |
JP4702943B2 (ja) * | 2005-10-19 | 2011-06-15 | キヤノン株式会社 | 画像処理装置及びその方法 |
JP4879558B2 (ja) * | 2005-11-02 | 2012-02-22 | パナソニック株式会社 | 動きベクトル検出装置 |
JP5020829B2 (ja) * | 2005-12-27 | 2012-09-05 | シャープ株式会社 | 動画像復号装置および動画像符号化装置 |
EP1806930A1 (en) * | 2006-01-10 | 2007-07-11 | Thomson Licensing | Method and apparatus for constructing reference picture lists for scalable video |
US20070171977A1 (en) * | 2006-01-25 | 2007-07-26 | Shintaro Kudo | Moving picture coding method and moving picture coding device |
FR2897213A1 (fr) * | 2006-02-08 | 2007-08-10 | Thomson Licensing Sas | Procede de codage par blocs d'images d'une sequence d'images video |
JP4527677B2 (ja) * | 2006-03-15 | 2010-08-18 | 富士通株式会社 | 動画像符号化方法、動画像符号化装置、動画像符号化プログラム |
WO2007132647A1 (ja) * | 2006-05-12 | 2007-11-22 | Panasonic Corporation | 動画像復号化装置 |
BRPI0718206B1 (pt) * | 2006-10-16 | 2020-10-27 | Nokia Technologies Oy | método para codificar uma pluralidade de visões de uma cena; método de codificação de uma sequência de bits de vídeo codificada e aparelho |
CN101227601B (zh) * | 2007-01-15 | 2011-09-14 | 飞思卡尔半导体公司 | 在视频再现中进行几何变换的方法和设备 |
KR100955396B1 (ko) * | 2007-06-15 | 2010-04-29 | 성균관대학교산학협력단 | 양-예측 부호화 방법 및 장치, 양-예측 복호화 방법 및장치 및 기록매체 |
WO2008153262A1 (en) | 2007-06-15 | 2008-12-18 | Sungkyunkwan University Foundation For Corporate Collaboration | Bi-prediction coding method and apparatus, bi-prediction decoding method and apparatus, and recording midium |
US8254455B2 (en) | 2007-06-30 | 2012-08-28 | Microsoft Corporation | Computing collocated macroblock information for direct mode macroblocks |
CN101119493B (zh) * | 2007-08-30 | 2010-12-01 | 威盛电子股份有限公司 | 区块式数字编码图像的译码方法及装置 |
EP2208350A2 (en) * | 2007-10-12 | 2010-07-21 | Thomson Licensing | Methods and apparatus for video encoding and decoding geometrically partitioned bi-predictive mode partitions |
US8743952B2 (en) * | 2007-12-18 | 2014-06-03 | Vixs Systems, Inc | Direct mode module with motion flag precoding and methods for use therewith |
KR101505195B1 (ko) * | 2008-02-20 | 2015-03-24 | 삼성전자주식회사 | 직접 모드 부호화 및 복호화 방법 |
WO2009148412A1 (en) * | 2008-06-06 | 2009-12-10 | Agency For Science, Technology And Research | Methods and devices for estimating motion in a plurality of frames |
JP5578775B2 (ja) | 2008-09-02 | 2014-08-27 | 富士通株式会社 | 符号化装置および復号装置 |
US20110170605A1 (en) * | 2008-09-24 | 2011-07-14 | Kazushi Sato | Image processing apparatus and image processing method |
US8189666B2 (en) | 2009-02-02 | 2012-05-29 | Microsoft Corporation | Local picture identifier and computation of co-located information |
TWI405469B (zh) * | 2009-02-20 | 2013-08-11 | Sony Corp | Image processing apparatus and method |
CN103826127B (zh) * | 2009-06-18 | 2017-03-01 | 株式会社东芝 | 运动图像编码装置和运动图像编码方法 |
CN103888778B (zh) * | 2009-06-18 | 2017-12-08 | 株式会社东芝 | 运动图像解码装置 |
US9628794B2 (en) | 2009-06-18 | 2017-04-18 | Kabushiki Kaisha Toshiba | Video encoding apparatus and a video decoding apparatus |
CN103826126B (zh) * | 2009-06-18 | 2017-09-29 | 株式会社东芝 | 运动图像编码装置和运动图像编码方法 |
MX2011013707A (es) | 2009-06-18 | 2012-02-28 | Toshiba Kk | Dispositivo de codificacion de imagenes dinamicas y dispositivo de decodificacion de imagenes dinamicas. |
KR20110008653A (ko) * | 2009-07-20 | 2011-01-27 | 삼성전자주식회사 | 움직임 벡터 예측 방법과 이를 이용한 영상 부호화/복호화 장치 및 방법 |
US9060176B2 (en) * | 2009-10-01 | 2015-06-16 | Ntt Docomo, Inc. | Motion vector prediction in video coding |
US8594200B2 (en) * | 2009-11-11 | 2013-11-26 | Mediatek Inc. | Method of storing motion vector information and video decoding apparatus |
WO2011070730A1 (ja) * | 2009-12-07 | 2011-06-16 | 日本電気株式会社 | 映像符号化装置および映像復号装置 |
KR101348613B1 (ko) | 2009-12-23 | 2014-01-10 | 한국전자통신연구원 | 영상의 부호화/복호화 장치 및 그 방법 |
KR101522850B1 (ko) * | 2010-01-14 | 2015-05-26 | 삼성전자주식회사 | 움직임 벡터를 부호화, 복호화하는 방법 및 장치 |
WO2011125211A1 (ja) | 2010-04-08 | 2011-10-13 | 株式会社 東芝 | 画像符号化方法及び画像復号化方法 |
KR101752418B1 (ko) | 2010-04-09 | 2017-06-29 | 엘지전자 주식회사 | 비디오 신호 처리 방법 및 장치 |
KR102233820B1 (ko) * | 2010-05-26 | 2021-03-29 | 엘지전자 주식회사 | 비디오 신호의 처리 방법 및 장치 |
JP2011259230A (ja) * | 2010-06-09 | 2011-12-22 | Jvc Kenwood Corp | 動画像復号装置、動画像復号方法及び動画像復号プログラム |
WO2011155171A1 (ja) * | 2010-06-09 | 2011-12-15 | 株式会社Jvcケンウッド | 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、ならびに動画像復号装置、動画像復号方法及び動画像復号プログラム |
JP2011259229A (ja) * | 2010-06-09 | 2011-12-22 | Jvc Kenwood Corp | 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム |
US9124898B2 (en) | 2010-07-12 | 2015-09-01 | Mediatek Inc. | Method and apparatus of temporal motion vector prediction |
KR20120016991A (ko) * | 2010-08-17 | 2012-02-27 | 오수미 | 인터 프리딕션 방법 |
KR101914018B1 (ko) * | 2010-09-30 | 2018-10-31 | 미쓰비시덴키 가부시키가이샤 | 동화상 복호 장치, 동화상 복호 방법, 동화상 부호화 장치, 동화상 부호화 방법 및 기록 매체 |
CN106210737B (zh) * | 2010-10-06 | 2019-05-21 | 株式会社Ntt都科摩 | 图像预测解码装置、图像预测解码方法 |
US9300961B2 (en) * | 2010-11-24 | 2016-03-29 | Panasonic Intellectual Property Corporation Of America | Motion vector calculation method, picture coding method, picture decoding method, motion vector calculation apparatus, and picture coding and decoding apparatus |
US9137544B2 (en) * | 2010-11-29 | 2015-09-15 | Mediatek Inc. | Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes |
US8711940B2 (en) | 2010-11-29 | 2014-04-29 | Mediatek Inc. | Method and apparatus of motion vector prediction with extended motion vector predictor |
WO2012073481A1 (ja) * | 2010-11-29 | 2012-06-07 | パナソニック株式会社 | 動画像符号化方法および動画像復号化方法 |
US9955155B2 (en) * | 2010-12-31 | 2018-04-24 | Electronics And Telecommunications Research Institute | Method for encoding video information and method for decoding video information, and apparatus using same |
CN106878742B (zh) * | 2011-01-12 | 2020-01-07 | 太阳专利托管公司 | 动态图像编解码装置 |
CN107071464A (zh) * | 2011-01-19 | 2017-08-18 | 寰发股份有限公司 | 为当前块的运动矢量导出运动矢量预测子的方法及装置 |
US9749657B2 (en) * | 2011-01-21 | 2017-08-29 | Sharp Kabushiki Kaisha | Buffer compression for motion vector competition |
US9008181B2 (en) | 2011-01-24 | 2015-04-14 | Qualcomm Incorporated | Single reference picture list utilization for interprediction video coding |
WO2012102021A1 (ja) | 2011-01-25 | 2012-08-02 | パナソニック株式会社 | 動画像符号化方法および動画像復号化方法 |
ES2398095B1 (es) * | 2011-01-31 | 2014-01-27 | Universidad Politécnica De Valencia | Instalación para simular las condiciones de presión y temperatura del aire aspirado por un motor de combustión interna alternativo. |
US20130322535A1 (en) * | 2011-02-21 | 2013-12-05 | Electronics And Telecommunications Research Institute | Method for encoding and decoding images using plurality of reference images and device using method |
US10404998B2 (en) | 2011-02-22 | 2019-09-03 | Sun Patent Trust | Moving picture coding method, moving picture coding apparatus, moving picture decoding method, and moving picture decoding apparatus |
US10171813B2 (en) | 2011-02-24 | 2019-01-01 | Qualcomm Incorporated | Hierarchy of motion prediction video blocks |
KR101878008B1 (ko) | 2011-03-03 | 2018-07-13 | 선 페이턴트 트러스트 | 동화상 부호화 방법, 동화상 복호 방법, 동화상 부호화 장치, 동화상 복호 장치 및 동화상 부호화 복호 장치 |
US9288501B2 (en) | 2011-03-08 | 2016-03-15 | Qualcomm Incorporated | Motion vector predictors (MVPs) for bi-predictive inter mode in video coding |
JP5563148B2 (ja) | 2011-03-09 | 2014-07-30 | 株式会社東芝 | 動画像符号化方法及び動画像復号化方法 |
EP3139611A1 (en) * | 2011-03-14 | 2017-03-08 | HFI Innovation Inc. | Method and apparatus for deriving temporal motion vector prediction |
ES2685945T3 (es) | 2011-04-12 | 2018-10-15 | Sun Patent Trust | Procedimiento de codificación de video de movimiento, y aparato de codificación de video de movimiento |
PL3751854T3 (pl) | 2011-05-24 | 2023-08-28 | Sun Patent Trust | Sposób kodowania obrazu, urządzenie do kodowania obrazu, sposób dekodowania obrazu, urządzenie do dekodowania obrazu oraz urządzenie do kodowania/dekodowania obrazu |
US9485518B2 (en) | 2011-05-27 | 2016-11-01 | Sun Patent Trust | Decoding method and apparatus with candidate motion vectors |
EP4007276B1 (en) | 2011-05-27 | 2023-07-05 | Sun Patent Trust | Apparatus, method and program for coding moving pictures |
CN103548351B (zh) | 2011-05-31 | 2017-07-11 | 太阳专利托管公司 | 运动图像解码方法及运动图像解码装置 |
SG194746A1 (en) | 2011-05-31 | 2013-12-30 | Kaba Gmbh | Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device |
TWI530161B (zh) * | 2011-06-07 | 2016-04-11 | Sony Corp | Image processing apparatus and method |
US9282338B2 (en) * | 2011-06-20 | 2016-03-08 | Qualcomm Incorporated | Unified merge mode and adaptive motion vector prediction mode candidates selection |
WO2012177052A2 (ko) | 2011-06-21 | 2012-12-27 | 한국전자통신연구원 | 인터 예측 방법 및 그 장치 |
KR20120140592A (ko) | 2011-06-21 | 2012-12-31 | 한국전자통신연구원 | 움직임 보상의 계산 복잡도 감소 및 부호화 효율을 증가시키는 방법 및 장치 |
EP3481066B1 (en) | 2011-06-28 | 2021-05-19 | LG Electronics Inc. | Method for deriving a motion vector predictor |
PL2728878T3 (pl) | 2011-06-30 | 2020-06-15 | Sun Patent Trust | Sposób dekodowania obrazów, sposób kodowania obrazów, urządzenie do dekodowania obrazów, urządzenie do kodowania obrazów oraz urządzenie do kodowania/dekodowania obrazów |
JP2014523708A (ja) * | 2011-07-01 | 2014-09-11 | モトローラ モビリティ エルエルシー | 動きベクトル予測設計の簡易化 |
MX2014000159A (es) * | 2011-07-02 | 2014-02-19 | Samsung Electronics Co Ltd | Metodo y aparato para la codificacion de video, y metodo y aparato para la decodificacion de video acompañada por inter prediccion utilizando imagen co-localizada. |
EP2741499A4 (en) | 2011-08-03 | 2014-12-10 | Panasonic Ip Corp America | VIDEO CODING METHOD, VIDEO CODING METHOD, VIDEO CODING DEVICE, VIDEO ENCODING DEVICE AND VIDEO ENCODING / DECODING DEVICE |
IN2014CN02602A (pt) | 2011-10-19 | 2015-08-07 | Panasonic Corp | |
RU2577181C2 (ru) | 2011-10-21 | 2016-03-10 | Нокиа Текнолоджиз Ой | Способ и устройство для кодирования видеосигналов |
TWI613911B (zh) | 2011-10-31 | 2018-02-01 | Jvc Kenwood Corp | 動態影像解碼裝置及動態影像解碼方法 |
KR101616010B1 (ko) | 2011-11-04 | 2016-05-17 | 구글 테크놀로지 홀딩스 엘엘씨 | 비균일 움직임 벡터 그리드에 대한 움직임 벡터 스케일링 |
CN107396100B (zh) | 2011-11-08 | 2020-05-05 | 株式会社Kt | 利用解码装置对视频信号进行解码的方法 |
BR112014010966A2 (pt) | 2011-11-08 | 2017-06-06 | Samsung Electronics Co Ltd | método para determinar vetor de movimento para previsão inter, aparelho determinador de vetor de movimento para previsão inter, e mídia de gravação legível por computador |
RU2628226C2 (ru) | 2011-12-16 | 2017-08-15 | Сан Пэтент Траст | Способ кодирования видеоизображений, устройство кодирования видеоизображений, способ декодирования видеоизображений, устройство декодирования видеоизображений и устройство кодирования/декодирования видеоизображений |
HUE055993T2 (hu) | 2011-12-16 | 2022-01-28 | Jvc Kenwood Corp | Dinamikus képkódoló készülék, dinamikus képkódoló eljárás, dinamikus képkódoló program, dinamikus képdekódoló készülék, dinamikus képdekódoló eljárás és dinamikus képdekódoló program |
CN107566835B (zh) | 2011-12-23 | 2020-02-28 | 韩国电子通信研究院 | 图像解码方法、图像编码方法和记录介质 |
WO2013118216A1 (ja) * | 2012-02-07 | 2013-08-15 | パナソニック株式会社 | 画像処理装置および画像処理方法 |
US9451277B2 (en) | 2012-02-08 | 2016-09-20 | Qualcomm Incorporated | Restriction of prediction units in B slices to uni-directional inter prediction |
US9426463B2 (en) | 2012-02-08 | 2016-08-23 | Qualcomm Incorporated | Restriction of prediction units in B slices to uni-directional inter prediction |
PL3716621T3 (pl) | 2012-04-12 | 2022-01-24 | Jvckenwood Corporation | Urządzenie do kodowania ruchomych obrazów, sposób kodowania ruchomych obrazów, program kodujący ruchome obrazy oraz urządzenie do dekodowania ruchomych obrazów, sposób dekodowania ruchomych obrazów, program dekodujący ruchome obrazy |
CA2870529C (en) * | 2012-04-15 | 2018-09-18 | Tammy Lee | Method and apparatus for determining reference images for inter prediction |
US9172970B1 (en) | 2012-05-29 | 2015-10-27 | Google Inc. | Inter frame candidate selection for a video encoder |
US11317101B2 (en) | 2012-06-12 | 2022-04-26 | Google Inc. | Inter frame candidate selection for a video encoder |
US9672584B2 (en) * | 2012-09-06 | 2017-06-06 | Imagination Technologies Limited | Systems and methods of partial frame buffer updating |
US9485515B2 (en) | 2013-08-23 | 2016-11-01 | Google Inc. | Video coding using reference motion vectors |
US9503746B2 (en) | 2012-10-08 | 2016-11-22 | Google Inc. | Determine reference motion vectors |
US9628790B1 (en) | 2013-01-03 | 2017-04-18 | Google Inc. | Adaptive composite intra prediction for image and video compression |
JP6032367B2 (ja) * | 2013-07-16 | 2016-11-24 | 富士通株式会社 | 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法 |
US9609343B1 (en) | 2013-12-20 | 2017-03-28 | Google Inc. | Video coding using compound prediction |
WO2015172348A1 (en) * | 2014-05-15 | 2015-11-19 | The Procter & Gamble Company | Dentifrice compositions having dental plaque mitigation or improved fluoride uptake |
RU2615677C1 (ru) * | 2015-10-30 | 2017-04-06 | Кабусики Кайся Тосиба | Способ кодирования изображений и способ декодирования изображений |
CN106658019B (zh) * | 2015-10-31 | 2019-11-12 | 华为技术有限公司 | 参考帧编解码的方法与装置 |
WO2018132150A1 (en) | 2017-01-13 | 2018-07-19 | Google Llc | Compound prediction for video coding |
US10412410B2 (en) * | 2017-08-14 | 2019-09-10 | Google Llc | Compound motion-compensated prediction |
US10284869B2 (en) | 2017-09-28 | 2019-05-07 | Google Llc | Constrained motion field estimation for hardware efficiency |
US10880573B2 (en) | 2017-08-15 | 2020-12-29 | Google Llc | Dynamic motion vector referencing for video coding |
RU2666275C1 (ru) * | 2017-11-13 | 2018-09-06 | ДжейВиСи КЕНВУД КОРПОРЕЙШН | Устройство и способ кодирования движущегося изображения, долговременный считываемый компьютером носитель записи, на который записана программа кодирования изображения |
US10779002B2 (en) * | 2018-04-17 | 2020-09-15 | Qualcomm Incorporated | Limitation of the MVP derivation based on decoder-side motion vector derivation |
CN108985279B (zh) * | 2018-08-28 | 2020-11-03 | 上海仁童电子科技有限公司 | 多功能车辆总线mvb波形的故障诊断方法及装置 |
WO2020140242A1 (zh) * | 2019-01-03 | 2020-07-09 | 北京大学 | 视频处理方法和装置 |
EP3996371A4 (en) * | 2019-07-01 | 2023-08-02 | Samsung Electronics Co., Ltd. | DEVICE AND METHOD FOR CODING AND DECODING MOTION INFORMATION USING NEIGHBORING MOTION INFORMATION |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US136461A (en) * | 1873-03-04 | Improvement in sash-balances | ||
JPS58138655A (ja) * | 1982-02-12 | 1983-08-17 | Toshiba Corp | 文書印刷制御装置 |
TW224553B (en) | 1993-03-01 | 1994-06-01 | Sony Co Ltd | Method and apparatus for inverse discrete consine transform and coding/decoding of moving picture |
SE519541C2 (sv) | 1996-10-02 | 2003-03-11 | Ericsson Telefon Ab L M | Förfarande och anordning för transformering av en reell digital bredbandig bandpassignal till en uppsättning digitala basbandssignaler med I- och Q-komponenter |
US6542642B2 (en) * | 1996-02-29 | 2003-04-01 | Canon Kabushiki Kaisha | Image coding process and motion detecting process using bidirectional prediction |
CN1297147C (zh) * | 1997-03-07 | 2007-01-24 | 通用仪器公司 | 对交错数字视频的双向预测的视频目标平面的预测和编码 |
US5991447A (en) | 1997-03-07 | 1999-11-23 | General Instrument Corporation | Prediction and coding of bi-directionally predicted video object planes for interlaced digital video |
US6404813B1 (en) | 1997-03-27 | 2002-06-11 | At&T Corp. | Bidirectionally predicted pictures or video object planes for efficient and flexible video coding |
KR100252342B1 (ko) | 1997-08-12 | 2000-04-15 | 전주범 | 움직임 벡터 부호화 방법 및 그 장치 |
KR100257191B1 (ko) * | 1997-12-31 | 2000-05-15 | 구자홍 | 움직임 벡터 디코더 |
JPH11215502A (ja) | 1998-01-27 | 1999-08-06 | Sanyo Electric Co Ltd | 動きベクトル検出装置及び方法 |
KR100280871B1 (ko) | 1998-07-13 | 2001-03-02 | 김남영 | 커플라인과 슬릿으로 구성된 마이크로 스트립 링 공진기 |
DE19840735C2 (de) | 1998-09-07 | 2001-06-07 | Bosch Gmbh Robert | Blockbasierte Bewegungsschätzung bei der Bewegtbildkodierung |
CN1182726C (zh) * | 1999-10-29 | 2004-12-29 | 皇家菲利浦电子有限公司 | 视频编码方法 |
JP2003522486A (ja) * | 2000-02-01 | 2003-07-22 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Pフレームに対する2ステップ動き推定を伴なうビデオ符号化 |
US6446118B1 (en) | 2000-02-29 | 2002-09-03 | Designtech International, Inc. | E-mail notification device |
KR100708091B1 (ko) * | 2000-06-13 | 2007-04-16 | 삼성전자주식회사 | 양방향 움직임 벡터를 이용한 프레임 레이트 변환 장치 및그 방법 |
RU2182727C2 (ru) | 2000-07-20 | 2002-05-20 | Дворкович Александр Викторович | Способ поиска векторов движения деталей в динамических изображениях |
US6834293B2 (en) | 2001-06-15 | 2004-12-21 | Hitachi, Ltd. | Vector scaling system for G.728 annex G |
US20030099294A1 (en) * | 2001-11-27 | 2003-05-29 | Limin Wang | Picture level adaptive frame/field coding for digital video content |
US7003035B2 (en) * | 2002-01-25 | 2006-02-21 | Microsoft Corporation | Video coding methods and apparatuses |
JP2004088722A (ja) * | 2002-03-04 | 2004-03-18 | Matsushita Electric Ind Co Ltd | 動画像符号化方法および動画像復号化方法 |
US7321626B2 (en) * | 2002-03-08 | 2008-01-22 | Sharp Laboratories Of America, Inc. | System and method for predictive motion estimation using a global motion predictor |
JP2004208258A (ja) | 2002-04-19 | 2004-07-22 | Matsushita Electric Ind Co Ltd | 動きベクトル計算方法 |
KR100931750B1 (ko) * | 2002-04-19 | 2009-12-14 | 파나소닉 주식회사 | 움직임 벡터 계산방법 |
US20040001546A1 (en) * | 2002-06-03 | 2004-01-01 | Alexandros Tourapis | Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation |
US7515634B2 (en) | 2002-06-28 | 2009-04-07 | Qualcomm Incorporated | Computationally constrained video encoding |
WO2004012459A1 (ja) * | 2002-07-26 | 2004-02-05 | Matsushita Electric Industrial Co., Ltd. | 動画像符号化方法、動画像復号化方法および記録媒体 |
KR100506864B1 (ko) * | 2002-10-04 | 2005-08-05 | 엘지전자 주식회사 | 모션벡터 결정방법 |
US7463686B2 (en) * | 2002-10-16 | 2008-12-09 | Lg Electronics Inc. | Method for determining motion vector and macroblock type |
DE10311497B3 (de) | 2003-03-15 | 2004-10-07 | Atlas Elektronik Gmbh | Verfahren zur synthetischen Generierung von Sonardaten |
US7523330B2 (en) * | 2004-06-30 | 2009-04-21 | Sun Microsystems, Inc. | Thread-based clock enabling in a multi-threaded processor |
-
2002
- 2002-11-15 KR KR10-2002-0071226A patent/KR100506864B1/ko active IP Right Grant
-
2003
- 2003-01-06 US US10/338,283 patent/US7233621B2/en active Active
- 2003-01-07 PT PT07003016T patent/PT1796396E/pt unknown
- 2003-01-07 PT PT05018606T patent/PT1603344E/pt unknown
- 2003-01-07 DE DE60334337T patent/DE60334337D1/de not_active Expired - Lifetime
- 2003-01-07 PT PT08016890T patent/PT2003899E/pt unknown
- 2003-01-07 AT AT03000209T patent/ATE354259T1/de active
- 2003-01-07 EP EP20080016890 patent/EP2003899B1/en not_active Expired - Lifetime
- 2003-01-07 DK DK03000209T patent/DK1406453T3/da active
- 2003-01-07 GB GB0426713A patent/GB2406460B/en not_active Expired - Lifetime
- 2003-01-07 PT PT08016895T patent/PT2009928E/pt unknown
- 2003-01-07 DE DE2003611720 patent/DE60311720T9/de active Active
- 2003-01-07 EP EP20080016891 patent/EP2003900B1/en not_active Expired - Lifetime
- 2003-01-07 DK DK08016895T patent/DK2009928T3/da active
- 2003-01-07 EP EP20090000888 patent/EP2046060B1/en not_active Expired - Lifetime
- 2003-01-07 EP EP20080016888 patent/EP2015585B1/en not_active Expired - Lifetime
- 2003-01-07 AT AT07003014T patent/ATE482571T1/de active
- 2003-01-07 EP EP20050018606 patent/EP1603344B1/en not_active Expired - Lifetime
- 2003-01-07 DK DK08016890T patent/DK2003899T3/da active
- 2003-01-07 EP EP20070003015 patent/EP1821547B1/en not_active Expired - Lifetime
- 2003-01-07 SI SI200331917T patent/SI2009928T1/sl unknown
- 2003-01-07 PT PT03000209T patent/PT1406453E/pt unknown
- 2003-01-07 DE DE60334941T patent/DE60334941D1/de not_active Expired - Lifetime
- 2003-01-07 AT AT07003015T patent/ATE488097T1/de active
- 2003-01-07 DK DK07003015T patent/DK1821547T3/da active
- 2003-01-07 EP EP20070003016 patent/EP1796396B8/en not_active Expired - Lifetime
- 2003-01-07 SI SI200331923T patent/SI2015585T1/sl unknown
- 2003-01-07 EP EP20080016892 patent/EP2009926B1/en not_active Expired - Lifetime
- 2003-01-07 GB GB0300288A patent/GB2393873B/en not_active Expired - Lifetime
- 2003-01-07 EP EP20090000865 patent/EP2046054B1/en not_active Expired - Lifetime
- 2003-01-07 EP EP20090000887 patent/EP2046059B1/en not_active Expired - Lifetime
- 2003-01-07 DE DE60334505T patent/DE60334505D1/de not_active Expired - Lifetime
- 2003-01-07 SI SI200331943T patent/SI1603344T1/sl unknown
- 2003-01-07 GB GB0426712A patent/GB2406459B/en not_active Expired - Lifetime
- 2003-01-07 SI SI200331947T patent/SI1796396T1/sl unknown
- 2003-01-07 DE DE60334336T patent/DE60334336D1/de not_active Expired - Lifetime
- 2003-01-07 SI SI200331919T patent/SI2003900T1/sl unknown
- 2003-01-07 DK DK08016891T patent/DK2003900T3/da active
- 2003-01-07 DE DE60335034T patent/DE60335034D1/de not_active Expired - Lifetime
- 2003-01-07 GB GB0513436A patent/GB2413721B/en not_active Expired - Lifetime
- 2003-01-07 SI SI200331914T patent/SI1809048T1/sl unknown
- 2003-01-07 PT PT07003015T patent/PT1821547E/pt unknown
- 2003-01-07 AT AT05018606T patent/ATE488963T1/de active
- 2003-01-07 EP EP20090000886 patent/EP2046058B1/en not_active Expired - Lifetime
- 2003-01-07 EP EP20080016894 patent/EP2015586B1/en not_active Expired - Lifetime
- 2003-01-07 AT AT07003016T patent/ATE488964T1/de active
- 2003-01-07 DK DK07003016T patent/DK1796396T3/da active
- 2003-01-07 PT PT08016891T patent/PT2003900E/pt unknown
- 2003-01-07 PT PT08016888T patent/PT2015585E/pt unknown
- 2003-01-07 EP EP20080016889 patent/EP2009925B1/en not_active Expired - Lifetime
- 2003-01-07 EP EP20070003014 patent/EP1809048B1/en not_active Expired - Lifetime
- 2003-01-07 DK DK05018606T patent/DK1603344T3/da active
- 2003-01-07 EP EP20090000883 patent/EP2046055A3/en not_active Ceased
- 2003-01-07 DK DK08016888T patent/DK2015585T3/da active
- 2003-01-07 DE DE2003221473 patent/DE20321473U1/de not_active Expired - Lifetime
- 2003-01-07 SI SI200331908T patent/SI2003899T1/sl unknown
- 2003-01-07 EP EP20090000884 patent/EP2046056B1/en not_active Expired - Lifetime
- 2003-01-07 AT AT08016895T patent/ATE482575T1/de active
- 2003-01-07 DE DE60334339T patent/DE60334339D1/de not_active Expired - Lifetime
- 2003-01-07 EP EP20080016893 patent/EP2009927B1/en not_active Expired - Lifetime
- 2003-01-07 DE DE60335046T patent/DE60335046D1/de not_active Expired - Lifetime
- 2003-01-07 SI SI200331939T patent/SI1821547T1/sl unknown
- 2003-01-07 DE DE60334338T patent/DE60334338D1/de not_active Expired - Lifetime
- 2003-01-07 DK DK08016893T patent/DK2009927T3/da active
- 2003-01-07 PT PT07003014T patent/PT1809048E/pt unknown
- 2003-01-07 AT AT08016888T patent/ATE484156T1/de active
- 2003-01-07 ES ES03000209T patent/ES2281573T3/es not_active Expired - Lifetime
- 2003-01-07 SI SI200331918T patent/SI2009927T1/sl unknown
- 2003-01-07 PT PT08016893T patent/PT2009927E/pt unknown
- 2003-01-07 EP EP20090000885 patent/EP2046057B1/en not_active Expired - Lifetime
- 2003-01-07 AT AT08016893T patent/ATE482574T1/de active
- 2003-01-07 EP EP20090000866 patent/EP2059054B1/en not_active Expired - Lifetime
- 2003-01-07 AT AT08016891T patent/ATE482573T1/de active
- 2003-01-07 AT AT08016890T patent/ATE482572T1/de active
- 2003-01-07 DE DE60334330T patent/DE60334330D1/de not_active Expired - Lifetime
- 2003-01-07 SI SI200330780T patent/SI1406453T1/sl unknown
- 2003-01-07 EP EP20080016895 patent/EP2009928B1/en not_active Expired - Lifetime
- 2003-01-07 DK DK07003014T patent/DK1809048T3/da active
- 2003-01-07 EP EP20030000209 patent/EP1406453B1/en not_active Expired - Lifetime
- 2003-01-08 JP JP2003002599A patent/JP4020789B2/ja not_active Expired - Lifetime
- 2003-01-09 NL NL1022333A patent/NL1022333C2/nl not_active IP Right Cessation
- 2003-01-09 DE DE2003100533 patent/DE10300533B4/de not_active Expired - Lifetime
- 2003-01-09 DE DE2003162106 patent/DE10362106B3/de not_active Expired - Lifetime
- 2003-01-10 CN CNB031016235A patent/CN1269361C/zh not_active Expired - Lifetime
- 2003-01-10 CN CNB2005100488548A patent/CN100473170C/zh not_active Expired - Lifetime
- 2003-01-10 CN CN2005100488533A patent/CN1812585B/zh not_active Expired - Lifetime
-
2005
- 2005-01-28 US US11/044,004 patent/US7627035B2/en active Active
- 2005-01-28 US US11/044,001 patent/US7570691B2/en active Active
- 2005-01-28 US US11/044,002 patent/US7606307B2/en active Active
- 2005-07-11 NL NL1029486A patent/NL1029486C2/nl not_active IP Right Cessation
- 2005-07-11 NL NL1029485A patent/NL1029485C2/nl not_active IP Right Cessation
- 2005-08-16 HK HK05107058A patent/HK1073556A1/xx not_active IP Right Cessation
- 2005-08-16 HK HK05107057A patent/HK1073555A1/xx not_active IP Right Cessation
-
2006
- 2006-01-19 JP JP2006011202A patent/JP4216852B2/ja not_active Expired - Lifetime
- 2006-04-24 HK HK06104873A patent/HK1082625A1/xx not_active IP Right Cessation
-
2007
- 2007-01-12 HK HK07100436A patent/HK1095457A1/xx not_active IP Right Cessation
- 2007-01-12 HK HK07100437A patent/HK1095458A1/xx not_active IP Right Cessation
- 2007-03-01 CY CY20071100300T patent/CY1106351T1/el unknown
- 2007-10-09 US US11/907,074 patent/US7643556B2/en not_active Expired - Lifetime
- 2007-10-09 US US11/907,079 patent/US7643557B2/en not_active Expired - Lifetime
- 2007-10-09 US US11/907,075 patent/US8351503B2/en active Active
- 2007-10-09 US US11/907,078 patent/US8351504B2/en active Active
- 2007-10-09 US US11/907,076 patent/US8345757B2/en active Active
- 2007-10-09 US US11/907,073 patent/US7558321B2/en not_active Expired - Lifetime
- 2007-10-09 US US11/907,080 patent/US7634007B2/en not_active Expired - Lifetime
-
2008
- 2008-03-11 JP JP2008060935A patent/JP2008182738A/ja active Pending
- 2008-03-11 JP JP2008060955A patent/JP4625101B2/ja not_active Expired - Lifetime
- 2008-03-11 JP JP2008061455A patent/JP2008182747A/ja active Pending
- 2008-03-11 JP JP2008060950A patent/JP4625100B2/ja not_active Expired - Lifetime
- 2008-03-11 JP JP2008061096A patent/JP4625103B2/ja not_active Expired - Lifetime
- 2008-03-11 JP JP2008061142A patent/JP4709242B2/ja not_active Expired - Lifetime
- 2008-03-11 JP JP2008060987A patent/JP2008182742A/ja active Pending
- 2008-03-11 JP JP2008061567A patent/JP4625104B2/ja not_active Expired - Lifetime
- 2008-03-11 JP JP2008061116A patent/JP4709241B2/ja not_active Expired - Lifetime
- 2008-03-11 JP JP2008061152A patent/JP2008182746A/ja active Pending
- 2008-03-11 JP JP2008060962A patent/JP4625102B2/ja not_active Expired - Lifetime
- 2008-10-08 US US12/285,552 patent/US8422556B2/en active Active
- 2008-10-08 US US12/285,546 patent/US8351505B2/en active Active
- 2008-10-08 US US12/285,545 patent/US8345758B2/en active Active
- 2008-10-08 US US12/285,553 patent/US8432969B2/en active Active
- 2008-10-09 US US12/285,627 patent/US8428134B2/en active Active
- 2008-10-09 US US12/285,626 patent/US8416853B2/en active Active
- 2008-10-09 US US12/285,628 patent/US8385417B2/en active Active
- 2008-10-09 US US12/285,624 patent/US8351507B2/en active Active
- 2008-10-10 US US12/285,664 patent/US8411748B2/en active Active
- 2008-10-10 US US12/285,667 patent/US8351506B2/en active Active
- 2008-10-10 US US12/285,665 patent/US8416854B2/en active Active
- 2008-10-10 US US12/285,668 patent/US8396128B2/en active Active
-
2009
- 2009-03-17 JP JP2009065198A patent/JP2009135994A/ja active Pending
- 2009-03-17 JP JP2009065000A patent/JP2009135989A/ja active Pending
- 2009-03-17 JP JP2009065130A patent/JP4709292B2/ja not_active Expired - Lifetime
- 2009-03-17 JP JP2009065104A patent/JP4625132B2/ja not_active Expired - Lifetime
- 2009-03-17 JP JP2009065025A patent/JP4709291B2/ja not_active Expired - Lifetime
- 2009-03-17 JP JP2009064940A patent/JP4625131B2/ja not_active Expired - Lifetime
-
2010
- 2010-12-22 CY CY20101101181T patent/CY1111026T1/el unknown
- 2010-12-22 CY CY20101101177T patent/CY1111023T1/el unknown
- 2010-12-22 CY CY20101101182T patent/CY1111027T1/el unknown
- 2010-12-22 CY CY20101101179T patent/CY1111025T1/el unknown
- 2010-12-22 CY CY20101101178T patent/CY1111024T1/el unknown
-
2011
- 2011-01-04 CY CY20111100014T patent/CY1111077T1/el unknown
- 2011-02-07 CY CY20111100139T patent/CY1111539T1/el unknown
- 2011-02-14 CY CY20111100181T patent/CY1111198T1/el unknown
- 2011-02-14 CY CY20111100180T patent/CY1111204T1/el unknown
-
2013
- 2013-03-26 US US13/850,332 patent/US8638856B2/en not_active Expired - Lifetime
- 2013-12-11 US US14/103,380 patent/US9042451B2/en not_active Expired - Lifetime
- 2013-12-11 US US14/103,403 patent/US9042452B2/en not_active Expired - Lifetime
- 2013-12-11 US US14/103,414 patent/US8891624B2/en not_active Expired - Lifetime
- 2013-12-11 US US14/103,450 patent/US9066106B2/en not_active Expired - Lifetime
- 2013-12-11 US US14/103,413 patent/US9042453B2/en not_active Expired - Lifetime
- 2013-12-11 US US14/103,393 patent/US8891623B2/en not_active Expired - Lifetime
-
2015
- 2015-04-28 US US14/698,410 patent/US9743108B2/en not_active Expired - Lifetime
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
PT2009927E (pt) | Processo para o cálculo do vectores de movimento em modo directo |