BR112013033706B1 - Método para decodificar um vetor de movimento - Google Patents
Método para decodificar um vetor de movimento Download PDFInfo
- Publication number
- BR112013033706B1 BR112013033706B1 BR112013033706-0A BR112013033706A BR112013033706B1 BR 112013033706 B1 BR112013033706 B1 BR 112013033706B1 BR 112013033706 A BR112013033706 A BR 112013033706A BR 112013033706 B1 BR112013033706 B1 BR 112013033706B1
- Authority
- BR
- Brazil
- Prior art keywords
- unit
- motion
- information
- prediction
- motion vector
- Prior art date
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 836
- 238000000034 method Methods 0.000 title claims abstract description 50
- 239000013598 vector Substances 0.000 title claims description 266
- 230000002123 temporal effect Effects 0.000 claims abstract description 78
- 230000002457 bidirectional effect Effects 0.000 claims description 21
- 238000005192 partition Methods 0.000 description 146
- 230000009466 transformation Effects 0.000 description 52
- 238000010586 diagram Methods 0.000 description 40
- 239000000284 extract Substances 0.000 description 11
- 230000006835 compression Effects 0.000 description 5
- 238000007906 compression Methods 0.000 description 5
- 238000001914 filtration Methods 0.000 description 5
- 230000001131 transforming effect Effects 0.000 description 5
- 238000006073 displacement reaction Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 102100037812 Medium-wave-sensitive opsin 1 Human genes 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/86—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/107—Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/109—Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/129—Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
Abstract
MÉTODO PARA DECODIFICAR INFORMAÇÃO DE MOVIMENTO Um método e aparelho para codificar e decodificar informação de movimento. O método de codificação inclui determinar se informação de movimento de unidades de predição espacial que estão espacialmente colocadas em conjunto com uma unidade de predição atual e informação de movimento de unidades de predição temporal que estão temporalmente colocadas em conjunto com a predição atual estão disponíveis; quando o número das informações de movimento das unidades de predição espacial e das informações de movimento das unidades de predição temporal for menor do que um número predeterminado, gerar informação de movimento candidata adicional usando a informação de movimento disponível das unidades de predição espacial e a informação de movimento das unidades de predição temporal, de modo que o número total de informações de movimento candidatas seja o número predeterminado; e decodificar a informação de movimento da unidade de predição atual usando as 'n' informações de movimento.
Description
[0001] A presente invenção se refere a um método e aparelho para codificar e decodificar informação de movimento, e mais especificamente a um método e aparelho para efetivamente codificar e decodificar informação de movimento de uma unidade de predição atual.
[0002] Recentemente, quando os conteúdos de vídeo de alta definição se tornaram amplamente utilizados, aumentou a necessidade de um codec de vídeo tendo uma eficiência de codificação superior a do codec de vídeo convencional tal como codificação de vídeo avançada (AVC) MPEG-4 H.264/MPEG-4.
[0003] De acordo com a compensação de movimento que é uma tecnologia para remover redundância temporal em um sinal de vídeo, a eficiência de compactação é aumentada pela transmissão de um sinal residual que é um valor de diferença entre um sinal de vídeo original e um sinal de referência indicado por um vetor de movimento. Em geral, um vetor de movimento e um valor residual de cada bloco, como um resultado de codificação obtido mediante codificação de cada bloco mediante uso de compensação de movimento, são transmitidos para um decodificador. Como os vetores de movimento de cada bloco ocupam uma quantidade considerável de um fluxo de bits codificado, a informação sobre um vetor de movimento atribuído a cada bloco precisa ser reduzida para aumentar a eficiência de compactação.
[0004] Para reduzir o overhead de transmissão durante a codificação de um vetor de movimento, um vetor de movimento de um bloco anterior é usado como um vetor de movimento de predição de um bloco atual em um codec MPEG-2 convencional, e uma mediana de vetores de movimento de blocos previamente codificados que são adjacentes a um lado esquerdo, a um lado superior, e a um lado direito superior de um bloco atual é usada como um vetor de movimento de predição do bloco atual em um codec tal como MPEG-4 H.264/MPEG-4 AVC.
[0005] A presente invenção proporciona um método e aparelho para efetivamente codificar e decodificar informação de movimento de uma unidade de predição atual.
[0006] De acordo com as modalidades da presente invenção, informação candidata de movimento diversa é gerada mediante uso de informação de movimento de unidades de predição que são colocadas espacialmente para uma unidade de predição atual e informação de movimento de unidades de predição que são colocadas de forma temporal para a unidade de predição atual.
[0007] De acordo com as modalidades da presente invenção, a eficiência de compactação de uma imagem pode ser aumentada mediante uso de vários candidatos de movimento obtidos com base em informação de movimento de uma unidade de predição adjacente.
[0008] A Figura 1 é um diagrama de blocos de um aparelho para codificar um vídeo, de acordo com uma modalidade da presente invenção;
[0009] A Figura 2 é um diagrama de blocos de um aparelho para decodificar um vídeo, de acordo com uma modalidade da presente invenção;
[00010] A Figura 3 é um diagrama para descrever conceito de unidades de codificação de acordo com uma modalidade da presente invenção;
[00011] A Figura 4 é um diagrama de blocos de um codificador de imagem baseado em unidades de codificação de acordo com uma modalidade da presente invenção;
[00012] A Figura 5 é um diagrama de blocos de um decodificador de imagem com base nas unidades de codificação de acordo com uma modalidade da presente invenção;
[00013] A Figura 6 é um diagrama ilustrando unidades de codificação mais profundas de acordo com as profundidades, e partições de acordo com uma modalidade da presente invenção;
[00014] A Figura 7 é um diagrama para descrever uma relação entre uma unidade de codificação e unidades de transformada, de acordo com uma modalidade da presente invenção;
[00015] A Figura 8 é um diagrama para descrever informação de codificação de unidades de codificação correspondendo a uma profundidade codificada, de acordo com uma modalidade da presente invenção;
[00016] A Figura 9 é um diagrama de unidades de codificação mais profunda de acordo com as profundidades, de acordo com uma modalidade da presente invenção;
[00017] As Figuras 10 a 12 são diagramas para descrever uma relação entre as unidades de codificação, unidades de predição e unidades de transformada, de acordo com uma modalidade da presente invenção;
[00018] A Figura 13 é um diagrama para descrever uma relação entre uma unidade de codificação, uma unidade de predição ou uma partição, e uma unidade de transformada, de acordo com a informação de modo de codificação da Tabela 1;
[00019] A Figura 14 é um diagrama de blocos de um aparelho de codificação de informação de movimento de acordo com uma modalidade da presente invenção;
[00020] A Figura 15 é um diagrama de blocos de uma unidade de geração de informação candidata de movimento da Figura 14, de acordo com uma modalidade da presente invenção;
[00021] A Figura 16 ilustra unidades de predição adjacentes que são colocadas espacialmente para uma unidade de predição atual, de acordo com uma modalidade da presente invenção;
[00022] A Figura 17A é um diagrama de referência para explicar um processo para determinar um candidato de vetor de movimento de predição espacial escalado, de acordo com uma modalidade da presente invenção;
[00023] A Figura 17B é um diagrama de referência para explicar um processo para gerar informação candidata de movimento adicional mediante uso de uma unidade de predição que é espacialmente colocada para uma unidade de predição atual, de acordo com uma modalidade da presente invenção;
[00024] A Figura 18 é um diagrama de referência para explicar um método de gerar um candidato de vetor de movimento de predição de uma unidade de predição atual mediante escalonamento de um vetor de movimento de uma unidade de predição adjacente, de acordo com uma modalidade da presente invenção;
[00025] A Figura 19 é um diagrama de referência para explicar um processo de gerar informação candidata de movimento temporal, de acordo com uma modalidade da presente invenção;
[00026] As Figuras 20A e 20B são diagramas para explicar um processo de gerar informação de movimento, candidata, adicional, mediante uso de informação de movimento de unidades de predição, disponíveis, de acordo com outra modalidade da presente invenção;
[00027] As Figuras 21A e 21B são diagramas para descrever uma relação de posição entre uma imagem atual e uma imagem de referência quando é gerada informação candidata de movimento adicional das Figuras 20A e 20B, de acordo com uma modalidade da presente invenção;
[00028] A Figura 22 é um fluxograma de um método de codificar um vetor de movimento, de acordo com uma modalidade da presente invenção;
[00029] A Figura 23 é um diagrama de blocos de um aparelho de codificação um vetor de movimento, de acordo com uma modalidade da presente invenção; e
[00030] A Figura 24 é um fluxograma de um método de decodificar informação de movimento, de acordo com uma modalidade da presente invenção.
[00031] De acordo com um aspecto da presente invenção, é provido um método de codificação de informação de movimento incluindo a realização de predição de movimento de uma unidade de predição atual para obter informação sobre o movimento da unidade de predição atual; determinar se estão disponíveis: a informação de movimento das unidades de predição espacial que são espacialmente justapostas a uma unidade de predição atual, e a informação de movimento de unidades de predição temporal, temporalmente justapostas à unidade de predição atual; como um resultado da determinação, quando o número de informação de movimento das unidades de predição espacial e a informação de movimento das unidades predição temporal for menor do que um número predeterminado ‘n’ (onde n é um número inteiro), gerar informação de movimento adicional candidata, usando a informação de movimento disponível das unidades de predição espacial e a informação de movimento das unidades de predição temporal de tal modo que o número total de informações candidatas de movimento é ‘n’; e codificar informação de movimento da unidade de predição atual usando as 'n' informações de movimento.
[00032] A determinação pode incluir a procura de unidades de predição predeterminadas posicionadas acima da unidade de predição atual na ordem de varredura predeterminada e seleção da informação de movimento de uma primeira unidade de predição superior tendo informação de movimento disponível como uma informação candidata de movimento espacial superior da unidade de predição atual; procurar unidades de predição predeterminadas posicionadas à esquerda da unidade de predição atual na ordem de varredura predeterminada e selecionar a informação de movimento de uma primeira unidade de predição esquerda tendo informação de movimento disponível como uma informação candidata de movimento espacial esquerda da unidade de predição atual, e selecionar a informação de movimento de uma unidade de predição de uma imagem anterior selecionada a partir da imagem anterior, com base numa unidade de predição de uma imagem anterior que tem a mesma localização que a unidade de predição atual, como informação candidata de movimento temporal da unidade de predição atual, em que a geração da informação candidata adicional de movimento é realizada quando o número total de informações candidatas de movimento obtido utilizando a informação candidata de movimento espacial superior, a informação candidata de movimento espacial esquerda, e a informação candidata de movimento temporal é menos do que ‘n’.
[00033] A geração da informação candidata de movimento adicional pode incluir geração de informação de movimento de uma unidade de predição superior disponível, que é procurada depois de uma primeira unidade de predição superior com informação de movimento disponível ser procurada, como a informação candidata de movimento adicional, em uma ordem predeterminada de varredura.
[00034] A geração da informação candidata de movimento adicional pode incluir gerar a informação candidata de movimento adicional tendo informação de movimento de uma unidade de predição esquerda disponível, que é procurada depois de uma primeira unidade de predição esquerda tendo informação movimento disponível ser procurada, na ordem de varredura predeterminada.
[00035] A geração da informação candidata de movimento adicional pode incluir informação de escala de movimento de uma unidade de predição de uma imagem anterior tendo informação de movimento entre as unidades de predição remanescentes da imagem anterior, exceto para uma unidade de predição de uma primeira imagem anterior tendo informação de movimento disponível e gerar a informação candidata de movimento adicional, quando as unidades de predição de uma imagem anterior, que é determinado com base em uma unidade de predição de uma imagem anterior tendo a mesma localização da unidade de predição atual, são varridas em uma ordem predeterminada de varredura.
[00036] A determinação pode incluir selecionar informação de movimento de unidades espaciais de predição predeterminadas de quais locais são previamente determinados, entre unidades de predição predeterminadas posicionadas acima e à esquerda da unidade de predição atual, como uma informação candidata de movimento espacial da unidade de predição atual, selecionando informação de movimento de uma unidade de predição de uma imagem anterior selecionada a partir da imagem anterior, com base numa unidade de predição de uma imagem anterior que tem a mesma localização que a unidade de predição atual, como uma informação candidata de movimento temporal da unidade de predição atual, em que a geração da informação candidata de movimento adicional é realizada quando um número total de informações candidatas de movimento obtido utilizando a informação candidata de movimento espacial e a informação candidata de movimento temporal é menor do que ‘n’.
[00037] A geração da informação candidata de movimento adicional pode incluir geração de informação de movimento predeterminada que é previamente determinada, como a informação candidata de movimento adicional. A informação de movimento predeterminada pode ser o vetor de movimento com um valor predeterminado, um índice de imagem de referência tendo um valor predeterminado, e a informação de direção de referência de acordo com um tipo de fatia a qual pertence uma predição atual.
[00038] A geração da informação candidata de movimento adicional pode incluir, quando a informação de movimento das unidades de predição espacial, disponíveis, e das unidades de predição temporal inclui informação de vetor de movimento bidirecional de predição de uma direção L0 e de uma direção L1, gerando a informação candidata de movimento adicional, mediante adição e subtração de um deslocamento predeterminado para e a partir de um vetor de movimento de predição da direção L0 e um vetor de movimento de predição da direção L1.
[00039] Quando uma primeira imagem de referência utilizado na predição da direção L0 e uma segunda imagem de referência utilizada na predição da direção L1 estão posicionadas no mesmo local com base em uma imagem atual, incluindo a unidade de predição atual, o deslocamento pode ser adicionado ao vetor de movimento de predição da direção L0 e o vetor de movimento de predição da direção L1, e quando a imagem em curso é posicionada entre a primeira imagem de referência utilizado na predição da direção L0 e a segunda imagem de referência utilizada na predição da direção L1, o deslocamento pode ser adicionado ao vetor de movimento de predição da direção L0 e um valor obtido multiplicando o deslocamento por -1 é adicionado ao vetor de movimento de predição da direção L1.
[00040] A geração da informação candidata de movimento adicional pode incluir mudar de direção de informação de predição de movimento das unidades de predição espacial, disponíveis, e informação de movimento das unidades de predição temporal, disponíveis, para gerar a informação candidata de movimento adicional.
[00041] A geração da informação candidata de movimento adicional pode incluir, quando a informação de movimento das unidades de predição espacial disponíveis e a informação de movimento das unidades de predição temporal disponíveis incluem informação de vetor de movimento bidirecional de predição da direção L0 e a predição da direção L1, gerando a informação candidata de movimento adicional usando informação de movimento unidirecional de uma direção selecionada dentre a direção L0 e a direção L1.
[00042] A geração da informação candidata de movimento adicional pode incluir, quando a informação de movimento das unidades de predição espacial, disponíveis, e informação de movimento das unidades de predição de temporal, disponíveis, incluem informação de movimento unidirecional de uma direção selecionada dentre a direção L0 e a direção L1, gerando a informação candidata de movimento adicional por meio de informação de movimento bidirecional, obtido por combinação da predição da direção L0 e a predição da direção L1.
[00043] A geração da informação candidata de movimento adicional pode incluir, quando a informação de movimento das unidades de predição espacial, disponíveis, e informação de movimento das unidades de predição temporal, disponíveis, incluem informação de movimento unidirecional de uma direção selecionada dentre a direção L0 e a direção L1, gerando informação de movimento bidirecional gerada pela combinação de informação de movimento unidirecional incluindo um vetor de movimento com um valor componente predeterminado, como a informação candidata de movimento adicional.
[00044] Além disso, o gerador de informação candidata de movimento adicional pode incluir a geração de uma imagem de referência com um índice de imagem de referência tendo um valor predeterminado como a informação candidata de movimento adicional.
[00045] Na geração da informação candidata de movimento adicional, se a informação candidata de movimento padrão e a informação candidata de movimento adicional gerada são duplicadas pode não ser verificado, e a informação candidata de movimento adicional gerada pode ser adicionada à informação candidata de movimento.
[00046] De acordo com outro aspecto da presente invenção, é provido um aparelho para a codificação de informação de movimento, que inclui uma unidade de geração de informação candidata de movimento para realizar a predição de movimento de uma unidade de predição atual para obter informação sobre o movimento da unidade de predição atual, para determinar se estão disponíveis: a informação relativa ao movimento de unidades de predição espacial que são espacialmente justapostas a uma unidade de predição de movimento e a informação atual de unidades de predição temporal, temporalmente justapostas à unidade de predição atual, e como um resultado da determinação, quando o número de informação de movimento espacial das unidades de predição e de informação de movimento das unidades de predição temporal é menos do que um número predeterminado ‘n’ (onde n é um número inteiro), para a geração de informação candidata de movimento adicional utilizando a informação de movimento disponível das unidades de predição espacial e da informação de movimento das unidades de predição temporal de tal modo que o número total de informações candidatas de movimento é ‘n’, e um decodificador de informação de movimento para codificar informação de movimento da unidade de predição atual utilizando as ‘n’ informações de movimento.
[00047] De acordo com outro aspecto da presente invenção, é provido um método de decodificar informação de movimento, incluindo a determinação de se a informação de movimento das unidades de predição espacial que são espacialmente justapostas a uma unidade de predição atual e informação de movimento das unidades de predição temporal que são justapostas de forma temporal à unidade de predição atual estão disponíveis, como um resultado da determinação, quando o número de informação de movimento das unidades de predição espacial e de informação de movimento das unidades de predição temporal for menor do que um número predeterminado ‘n’ (onde n é um número inteiro), gerar informação candidata de movimento adicional utilizando a informação de movimento disponível das unidades de predição espacial e a informação de movimento das unidades de predição temporal de tal modo que o número total de informações candidatas de movimento seja ‘n’; obter informação de índice que indica a informação de movimento único a partir de ‘n’ informações candidatas de movimento a partir de um fluxo de bits; e obter informação de movimento da unidade de predição atual usando informação de movimento indicada pelo índice.
[00048] De acordo com outro aspecto da presente invenção, é provido um aparelho para decodificar informação de movimento, que inclui uma unidade geradora de determinação de se estão disponíveis: a informação de movimento das unidades de predição espacial que são espacialmente justapostas a uma unidade de predição atual e informação de movimento das unidades de predição temporal que são temporalmente justapostas à unidade de predição atual, e como um resultado da determinação, quando o número de informação de movimento das unidades de predição espacial e de informação de movimento das unidades de predição temporal for menor do que um número predeterminado ‘n’ (quando n é um número inteiro), para gerar informação candidata de movimento adicional, usando a informação de movimento disponível das unidades de predição espacial e a informação de movimento das unidades de predição temporal de tal forma que o número total de informações candidatas de movimento seja ‘n’; um decodificador de entropia para a obtenção de informação de índice que indica informação de movimento único, dentre as 'n' informações candidatas de movimento a partir de um fluxo de bits, e um decodificador de informação de movimento para a obtenção de informação de movimento da unidade de predição atual usando informação de movimento indicada pelo índice. Modo para a Invenção
[00049] Em seguida, a presente invenção será descrita mais completamente com referência aos desenhos anexos, nos quais modalidades exemplares da invenção são mostradas.
[00050] A Figura 1 é um diagrama de blocos de um aparelho de codificação de vídeo 100 de acordo com uma modalidade da presente invenção.
[00051] O aparelho de codificação de vídeo 100 inclui um divisor de unidade de codificação máxima 110, um determinador de unidade de codificação 120 e uma unidade de saída 130.
[00052] O divisor de unidade de codificação máxima 110 pode dividir uma imagem atual com base em uma unidade de codificação máxima para a imagem atual de uma imagem. Se a imagem atual é maior do que a unidade de codificação máxima, os dados de imagem do imagem atual podem ser divididos na ao menos uma unidade de codificação máxima. A unidade de codificação máxima de acordo com uma modalidade exemplar pode ser uma unidade de dados tendo um tamanho de 32x32, 64x64, 128x128, 256x256, etc., em que um formato da unidade de dados é um quadrado tendo uma largura e altura em potência de 2 que são maiores que 8. Os dados de imagem podem ser emitidos para o determinador de unidade de codificação 120 de acordo com pelo menos uma unidade de codificação máxima.
[00053] Uma unidade de codificação de acordo com uma modalidade exemplar pode ser caracterizada por um tamanho máximo e uma profundidade. A profundidade denota um número de vezes em que a unidade de codificação é dividida espacialmente a partir da unidade de codificação máxima e, à medida que a profundidade é aprofundada ou aumentada, unidades de codificação mais profundas, de acordo com as profundidades, podem ser divididas a partir da unidade de codificação máxima para uma unidade de codificação mínima. Uma profundidade da unidade de codificação máxima é uma profundidade mais elevada e uma profundidade da unidade de codificação mínima é uma profundidade mais baixa. Como o tamanho de uma unidade de codificação correspondendo a cada profundidade diminui à medida que a profundidade da unidade de codificação máxima é aprofundada, uma unidade de codificação correspondendo a uma profundidade superior pode incluir uma pluralidade de unidades de codificação correspondendo às profundidades inferiores.
[00054] Conforme descrito acima, os dados de imagem do imagem atual são divididos nas unidades de codificação máxima de acordo com um tamanho máximo da unidade de codificação, e cada uma das unidades de codificação máxima pode incluir unidades de codificação mais profunda que são divididas de acordo com as profundidades. Como a unidade de codificação máxima de acordo com uma modalidade exemplar é dividida de acordo com as profundidades, os dados de imagem de um domínio espacial incluído na unidade de codificação máxima podem ser classificados de forma hierárquica de acordo com as profundidades.
[00055] Uma profundidade máxima e um tamanho máximo de uma unidade de codificação, que limitam o número total de vezes em que a altura e uma largura da unidade de codificação máxima são divididas de forma hierárquica, podem ser predeterminados.
[00056] O determinador de unidade de codificação 120 codifica pelo menos uma região dividida obtida mediante divisão de uma região da unidade de codificação máxima de acordo com as profundidades, e determina uma profundidade para produzir os dados de imagem finalmente codificados de acordo com a pelo menos uma região dividida. Em outras palavras, o determinador de unidade de codificação 120 determina uma profundidade codificada mediante codificação dos dados de imagem nas unidades de codificação mais profunda de acordo com as profundidades, de acordo com a unidade de codificação máxima da imagem atual, e selecionando uma profundidade tendo o erro de codificação mínimo. Assim, os dados de imagem codificados da unidade de codificação correspondendo à profundidade codificada determinada são finalmente produzidos. Além disso, as unidades de codificação correspondendo à profundidade codificada podem ser consideradas como unidades de codificação codificadas. A profundidade codificada determinada e os dados de imagem codificados de acordo com a profundidade codificada determinada são emitidos para a unidade de saída 130.
[00057] Os dados de imagem na unidade de codificação máxima são codificados com base nas unidades de codificação mais profundas correspondendo a pelo menos uma profundidade igual ou abaixo da profundidade máxima, e os resultados da codificação dos dados de imagem são comparados com base em cada uma das unidades de codificação mais profundas. Uma profundidade tendo o erro de codificação mínimo pode ser selecionada após comparação dos erros de codificação das unidades de codificação mais profundas. Pelo menos uma profundidade codificada pode ser selecionada para cada unidade de codificação máxima.
[00058] O tamanho da unidade de codificação máxima é dividido à medida que uma unidade de codificação é dividida hierarquicamente de acordo com as profundidades, e à medida que aumenta o número de unidades de codificação. Além disso, mesmo se as unidades de codificação corresponder à mesma profundidade, em uma unidade de codificação máxima, se determina que deva ser dividida cada uma das unidades de codificação correspondendo à mesma profundidade para uma profundidade inferior mediante medição de um erro de codificação dos dados de imagem de cada unidade de codificação, separadamente. Consequentemente, mesmo quando os dados de imagem são incluídos em uma unidade de codificação máxima, os dados de imagem são divididos em regiões de acordo com as profundidades e os erros de codificação podem diferir de acordo com as regiões em uma unidade de codificação máxima, e assim as profundidades codificadas podem diferir de acordo com as regiões nos dados de imagem. Assim, uma ou mais profundidades codificadas podem ser determinadas em uma unidade de codificação máxima, e os dados de imagem da unidade de codificação máxima podem ser divididos de acordo com as unidades de codificação de pelo menos uma profundidade codificada.
[00059] Consequentemente, o codificador 120 pode determinar unidades de codificação tendo uma estrutura de árvore incluída na unidade de codificação máxima. As "unidades de codificação tendo uma estrutura de árvore" de acordo com uma modalidade da presente invenção incluem unidades de codificação correspondendo a uma profundidade determinada para ser a profundidade codificada, dentre todas as unidades de codificação mais profunda incluídas na unidade de codificação máxima. Uma unidade de codificação de uma profundidade codificada pode ser determinada hierarquicamente de acordo com as profundidades na mesma região da unidade de codificação máxima, e podem ser determinadas independentemente em diferentes regiões. Similarmente, uma profundidade codificada em uma região atual pode ser determinada independentemente a partir de uma profundidade codificada em outra região.
[00060] Uma profundidade máxima de acordo com uma modalidade da presente invenção é um índice relacionado ao número de vezes que a divisão é realizada a partir de uma unidade de codificação máxima para uma unidade de codificação mínima. Uma primeira profundidade máxima de acordo com uma modalidade da presente invenção pode denotar o número total de vezes em que a divisão é realizada a partir da unidade de codificação máxima para a unidade de codificação mínima. Uma segunda profundidade máxima de acordo com uma modalidade da presente invenção pode denotar o número total de níveis de profundidade a partir da unidade de codificação máxima para a unidade de codificação mínima. Por exemplo, quando uma profundidade da unidade de codificação máxima é de 0, uma profundidade de uma unidade de codificação, na qual a unidade de codificação máxima é dividida uma vez, pode ser ajustada para 1, e uma profundidade de uma unidade de codificação, na qual a unidade de codificação máxima dividida duas vezes, pode ser ajustada para 2. Aqui, se a unidade de codificação mínima for uma unidade de codificação na qual a unidade de codificação máxima é dividida quatro vezes, 5 níveis de profundidade, de profundidade 0, 1, 2, 3 e 4 existem, e assim a primeira profundidade máxima pode ser ajustada para 4, e a segunda profundidade máxima pode ser ajustada para 5.
[00061] A codificação de predição, e a transformação, podem ser realizadas de acordo com a unidade de codificação máxima. A codificação de predição e a transformação também são realizadas com base nas unidades de codificação mais profundas de acordo com uma profundidade igual ou uma profundidade menor do que a profundidade máxima, de acordo com a unidade de codificação máxima.
[00062] Como o número de unidades de codificação mais profunda aumenta sempre que a unidade de codificação máxima é dividida de acordo com as profundidades, a codificação incluindo a codificação de predição e a transformação é realizada em todas as unidades de codificação mais profunda geradas à medida que aumenta a profundidade. Para conveniência de descrição, a codificação de predição e a transformação serão descritas agora com base na unidade de codificação de uma profundidade atual, em uma unidade de codificação máxima.
[00063] O aparelho de codificação de vídeo 100 pode selecionar de forma variada um tamanho ou formato de uma unidade de dados para codificar os dados de imagem. Para codificar os dados de imagem, operações tal como codificação de predição, transformação, e codificação de entropia, são realizadas, e dessa vez, a mesma unidade de dados pode ser usada para todas as operações ou unidades de dados diferentes podem ser usadas para cada operação.
[00064] Por exemplo, o aparelho de codificação de vídeo 100 pode selecionar não apenas uma unidade de codificação para codificar os dados de imagem, mas também uma unidade de dados diferente da unidade de codificação de modo a realizar a codificação de predição nos dados de imagem na unidade de codificação.
[00065] Para realizar codificação de predição na unidade de codificação máxima, a codificação de predição pode ser realizada com base em uma unidade de codificação correspondendo a uma profundidade codificada, isto é, com base em uma unidade de codificação que não mais é dividida em unidades de codificação correspondendo a uma profundidade inferior. Em seguida, a unidade de codificação que não é mais dividida e se torna uma unidade básica para codificação de predição será referida agora como ”unidade de predição”. Uma partição obtida mediante divisão da unidade de predição pode incluir uma unidade de predição ou uma unidade de dados obtida mediante divisão de pelo menos uma de uma altura e uma largura da unidade de predição.
[00066] Por exemplo, quando uma unidade de codificação de 2Nx2N (onde N é um número inteiro positivo) não é mais dividida e se torna uma unidade de predição de 2Nx2N, um tamanho de uma partição pode ser 2Nx2N, 2NxN, Nx2N, ou NxN. Exemplos de um tipo de partição incluem partições simétricas que são obtidas mediante divisão simétrica de uma altura ou largura da unidade de predição, partições obtidas mediante divisão assimétrica da altura ou largura da unidade de predição, tal como 1:n ou n:1, partições que são obtidas mediante divisão geométrica da unidade de predição, e partições tendo formatos arbitrários.
[00067] Um modo de predição da unidade de predição pode ser pelo menos um de um modo intra, um modo inter, e um modo de pulo. Por exemplo, o modo intra ou o modo inter pode ser realizado na partição de 2Nx2N, 2NxN, Nx2N ou NxN. Além disso, o modo de pulo pode ser realizado apenas na partição de 2Nx2N. A codificação é realizada independentemente em uma unidade de predição em uma unidade de codificação, desse modo selecionando um modo de predição tendo um erro de codificação mínimo.
[00068] O aparelho de codificação de vídeo 100 também pode realizar a transformação nos dados de imagem em uma unidade de codificação com base não apenas na unidade de codificação para codificar os dados de imagem, mas também com base em uma unidade de dados que é diferente da unidade de codificação.
[00069] Para realizar a transformação na unidade de codificação, a transformação pode ser realizada com base em uma unidade de transformação tendo um tamanho menor do que ou igual à unidade de codificação. Por exemplo, a unidade de transformação para a transformação pode incluir uma unidade de dados para um modo intra e uma unidade de dados para um modo inter.
[00070] A unidade de dados usada como base para transformação pode ser em seguida referida como ‘unidade de transformação’. Similarmente à unidade de codificação, a unidade de transformação na unidade de codificação pode ser dividida de forma recursiva em regiões de tamanhos menores, de modo que a unidade de transformação pode ser determinada independentemente em unidades de regiões. Assim os dados residuais na unidade de codificação podem ser divididos de acordo com a unidade de transformação tendo a estrutura de árvore de acordo com as profundidades de transformação.
[00071] Uma profundidade de transformação indicando o número de vezes de divisão para alcançar a unidade de transformação mediante divisão da altura e largura da unidade de codificação também pode ser estabelecida na unidade de transformação. Por exemplo, em uma unidade de codificação atual de 2Nx2N, uma profundidade de transformação pode ser 0 quando o tamanho de uma unidade de transformação também é 2Nx2N, pode ser 1 quando a altura e a largura da unidade de codificação atual são divididas em duas partes iguais, divididas totalmente em quatro unidades de transformação, e o tamanho da unidade de transformação é assim NxN, e pode ser 2 quando o tamanho da unidade de transformação for N/2xN/2. Isto é a unidade de transformação tendo a estrutura de árvore também pode ser ajustada de acordo com as profundidades de transformação.
[00072] Informação de codificação de acordo com as unidades de codificação correspondendo a uma profundidade codificada requer não apena informação sobre a profundidade codificada, mas também sobre informação relacionada à codificação de predição e transformação. Consequentemente, o determinador de unidade de codificação 120 não apenas determina uma profundidade codificada tendo um erro de codificação mínimo, mas também determina um tipo de partição em uma unidade de predição, um modo de predição de acordo com as unidades de predição, e um tamanho de uma unidade de transformação para transformação.
[00073] Unidades de codificação de acordo com uma estrutura de árvore em uma unidade de codificação máxima e um método de determinar uma partição, de acordo com as modalidades da presente invenção, serão descritos em detalhe posteriormente com referência às Figuras 3 e 12.
[00074] O determinador de unidade de codificação 120 pode medir um erro de codificação de unidades de codificação mais profundo de acordo com as profundidades utilizando Otimização de Distorção de Taxa com base em multiplicadores Lagrangianos.
[00075] A unidade de saída 130 produz os dados de imagem da unidade de codificação máxima, que é codificada com base na pelo menos uma profundidade codificada determinada pelo determinador de unidade de codificação 120, e informação sobre o modo de codificação de acordo com a profundidade codificada, em fluxos de bits.
[00076] Os dados de imagem codificados podem ser obtidos mediante codificação de dados residuais de uma imagem.
[00077] A informação sobre o modo de codificação de acordo com a profundidade codificada pode incluir informação sobre a profundidade codificada, sobre o tipo de partição na unidade de predição, o modo de predição, e o tamanho da unidade de transformação.
[00078] A informação sobre a profundidade codificada pode ser definida pelo uso de informação de divisão de acordo com as profundidades, que representa se a codificação é realizada em unidades de codificação de uma profundidade inferior em vez de uma profundidade atual. Se a profundidade atual da unidade de codificação atual for a profundidade codificada, os dados de imagem na unidade de codificação atual são codificados e produzidos, e assim a informação de divisão pode ser definida não para dividir a unidade de codificação atual para uma profundidade menor. Alternativamente, se a profundidade atual da unidade de codificação atual não for a profundidade codificada, a codificação é realizada na unidade de codificação da profundidade inferior, e assim a informação de divisão pode ser definida para dividir a unidade de codificação atual para obter as unidades de codificação da profundidade inferior.
[00079] Se a profundidade atual não for a profundidade codificada, a codificação é realizada na unidade de codificação que é dividida para unidade de codificação da profundidade inferior. Como existe pelo menos uma unidade de codificação da profundidade inferior em uma unidade de codificação da profundidade atual, a codificação é realizada repetidamente em cada unidade de codificação da profundidade inferior, e assim a codificação pode ser realizada de forma recursiva para as unidades de codificação tendo a mesma profundidade.
[00080] Como as unidades de codificação tendo uma estrutura de árvore são determinadas para uma unidade de codificação máxima, e informação sobre pelo menos um modo de codificação é determinada para uma unidade de codificação de uma profundidade codificada, a informação sobre pelo menos um modo de codificação pode ser determinada para uma unidade de codificação máxima. Além disso, uma profundidade codificada dos dados de imagem da unidade de codificação máxima pode ser diferente de acordo com os locais, visto que os dados de imagem são divididos hierarquicamente de acordo com as profundidades, e assim a informação sobre o percurso codificado e o modo de codificação pode ser ajustada para os dados de imagem.
[00081] Consequentemente, a unidade de saída 130 pode atribuir informação de codificação sobre um percurso codificado correspondente e um modo de codificação para pelo menos uma da unidade de codificação, unidade de predição, e um modo de codificação para ao menos uma da unidade de codificação, unidade de predição, e uma unidade mínima incluída na unidade de codificação máxima.
[00082] A unidade mínima de acordo com uma modalidade da presente invenção é uma unidade de dados retangular obtida mediante divisão da unidade de codificação mínima constituindo a profundidade mais baixa por 4. Alternativamente, a unidade mínima pode ser uma unidade de dados retangular máxima que pode ser incluída em todas as unidades de codificação, unidades de predição, unidades de partição e unidades de transformação incluídas na unidade de codificação máxima.
[00083] Por exemplo, a informação de codificação produzida através da unidade de saída 130 pode ser classificada em informação de codificação de acordo com as unidades de codificação, e informação de codificação de acordo com as unidades de predição. A informação de codificação de acordo com as unidades de codificação pode incluir a informação sobre o modo de predição e sobre o tamanho das partições. A informação de codificação de acordo com as unidades de predição pode incluir informação sobre uma direção estimada de um modo inter, em relação a um índice de imagem de referência do modo inter, em relação a um vetor de movimento, em relação a um componente croma de um modo intra, e em relação a um método de interpolação do modo intra. Além disso, informação sobre um tamanho máximo da unidade de codificação definido de acordo com as imagens, fatias, ou GOPs, e informação sobre uma profundidade máxima pode ser inserida em um cabeçalho de um fluxo de bits.
[00084] No aparelho de codificação de vídeo 100, a unidade de codificação mais profunda pode ser uma unidade de codificação obtida mediante divisão de uma altura ou largura de uma unidade de codificação de uma profundidade superior, que está uma camada acima, por dois. Em outras palavras, quando o tamanho da unidade de codificação da profundidade atual é 2Nx2N, o tamanho da unidade de codificação da profundidade inferior é NxN. Além disso, a unidade de codificação da profundidade atual tendo o tamanho de 2Nx2N pode incluir no máximo 4 das unidades de codificação da profundidade inferior.
[00085] Consequentemente, o aparelho de codificação de vídeo 100 pode formar as unidades de codificação tendo a estrutura de árvore mediante determinação das unidades de codificação tendo um formato ótimo e um tamanho ótimo para cada unidade de codificação máxima, com base no tamanho da unidade de codificação máxima e profundidade máxima determinada considerando-se as características da imagem atual. Além disso, como a codificação pode ser realizada em cada unidade de codificação máxima mediante uso de qualquer um dos vários modos de predição e transformações, um modo de codificação ótima pode ser determinado considerando as características da unidade de codificação de vários tamanhos de imagem.
[00086] Assim, se uma imagem de alta resolução ou com uma quantidade grande de dados é codificado num macrobloco convencional, um número de macroblocos por imagem aumenta excessivamente. Deste modo, um número de informações comprimida gerada para cada macrobloco aumenta, e, portanto, é difícil transmitir a informação e a eficiência de compactação de dados comprimidos diminui. No entanto, utilizando o aparelho de codificação de vídeo 100, a eficiência da imagem de compactação pode ser aumentada uma vez que uma unidade de codificação é ajustada enquanto considerando as características de uma imagem ao mesmo tempo aumentando o tamanho máximo de uma unidade de codificação, enquanto considerando o tamanho da imagem.
[00087] A Figura 2 é um diagrama de blocos de um aparelho de decodificação de vídeo 200 de acordo com uma modalidade da presente invenção.
[00088] O aparelho de decodificação de vídeo 200 inclui um receptor 210, um extrator de informação de codificação e de dados de imagem 220, e um decodificador de dados de imagem 230. Definições dos vários termos, tal como uma unidade de codificação, uma profundidade, uma unidade de predição, uma unidade de transformação, e informação sobre vários modos de codificação, para várias operações do aparelho de decodificação de vídeo 200 são idênticas àquelas descritas com referência à Figura 1 e ao aparelho de codificação de vídeo 100.
[00089] O receptor 210 recebe e analisa um fluxo de bits de um vídeo codificado. O extrator de informação de codificação e dados de imagem 220 extrai os dados de imagem codificados para cada unidade de codificação a partir do fluxo de bits analisado, em que as unidades de codificação têm uma estrutura de árvore de acordo com cada unidade de codificação máxima, e emite os dados de imagem extraídos para o decodificador de dados de imagem 230. O extrator de informação de codificação e dados de imagem 220 pode extrair informação sobre um tamanho máximo de uma unidade de codificação de uma imagem atual, a partir de um cabeçalho sobre a imagem atual ou SPS.
[00090] Além disso, o extrator de informação de codificação e dados de imagem 220 extrai informação sobre uma profundidade codificada e um modo de codificação para as unidades de codificação tendo uma estrutura de árvore de acordo com cada unidade de codificação máxima, a partir do fluxo de bits analisado. A informação extraída sobre a profundidade codificada e o modo de codificação é emitida para o decodificador de dados de imagem 230. Em outras palavras, os dados de imagem em um fluxo de bits são divididos para a unidade de codificação máxima de modo que o decodificador de dados de imagem 230 decodifica os dados de imagem para cada unidade de codificação máxima.
[00091] A informação sobre a profundidade codificada e o modo de codificação de acordo com a unidade de codificação máxima pode ser ajustada para informação sobre ao menos uma unidade de codificação correspondendo à profundidade codificada, e informação sobre um modo de codificação pode incluir informação sobre um tipo de partição de uma unidade de codificação correspondente, correspondendo à profundidade codificada, sobre um modo de predição, e um tamanho da unidade de transformação. Além disso, informação de divisão de acordo com as profundidades pode ser extraída como a informação sobre a profundidade codificada.
[00092] A informação sobre a profundidade codificada e o modo de codificação de acordo com cada unidade de codificação máxima extraída pelos dados de imagem e extrator de informação de codificação 220 é informação sobre uma profundidade codificada e um modo de codificação determinado para gerar um erro de codificação mínimo quando um codificador, tal como o aparelho de codificação de vídeo 100, realiza repetidamente a codificação para cada unidade de codificação mais profunda de acordo com as profundidades de acordo com cada unidade de codificação máxima. Consequentemente, o aparelho de decodificação de vídeo 200 pode restaurar uma imagem mediante decodificação dos dados de imagem de acordo com uma profundidade codificada e um modo de codificação que gera o erro de codificação mínimo.
[00093] Como a informação de codificação sobre a profundidade codificada e o modo de codificação pode ser atribuída a uma unidade de dados predeterminada dentre uma unidade de codificação correspondente, uma unidade de predição, e uma unidade mínima, o extrator de informação de codificação e dados de imagem 220 pode extrair a informação sobre a profundidade codificada e o modo de codificação de acordo com as unidades de dados predeterminadas. As unidades de dados predeterminadas as quais a mesma informação sobre a profundidade codificada e o modo de codificação é atribuída pode ser inferida como sendo a unidade de dados incluída na mesma unidade de codificação máxima.
[00094] O decodificador de dados de imagem 230 restaura a imagem atual mediante decodificação dos dados de imagem em cada unidade de codificação máxima com base na informação sobre a profundidade codificada e o modo de codificação de acordo com as unidades de codificação máxima. Em outras palavras, o decodificador de dados de imagem 230 pode decodificar os dados de imagem decodificados com base na informação extraída sobre o tipo de partição, o modo de predição, e a unidade de transformação para cada unidade de codificação dentre as unidades de codificação que têm a estrutura de árvore incluída em cada unidade de codificação máxima. Um processo de decodificação pode incluir uma predição incluindo predição intra e compensação de movimento, e uma transformação inversa. A transformação inversa pode ser realizada de acordo com o método de transformação ortogonal inversa ou transformação de número inteiro inversa.
[00095] O decodificador de dados de imagem 230 pode realizar intrapredição ou compensação de movimento de acordo com uma partição e um modo de predição de cada unidade de codificação, com base na informação sobre o tipo de partição e o modo de predição da unidade de predição da unidade de codificação de acordo com as profundidades codificadas.
[00096] Além disso, o decodificador de dados de imagem 230 pode realizar transformação inversa de acordo com cada unidade de transformação na unidade de codificação, com base na informação sobre o tamanho da unidade de transformação da unidade de codificação de acordo com as profundidades codificadas, de modo a realizar a transformação inversa de acordo com as unidades de codificação máxima.
[00097] O decodificador de dados de imagem 230 pode determinar ao menos uma profundidade codificada de uma unidade de codificação máxima atual mediante uso de informação de divisão de acordo com as profundidades. Se a informação de divisão indicar que os dados de imagem não estão mais divididos na profundidade atual, a profundidade atual é uma profundidade codificada. Consequentemente, o decodificador de dados de imagem 230 pode decodificar os dados codificados de pelo menos uma unidade de codificação correspondendo a cada profundidade codificada na unidade de codificação máxima atual mediante uso da informação sobre o tipo de partição da unidade de predição, o modo de predição, e o tamanho da unidade de transformação para cada unidade de codificação correspondendo à profundidade codificada, e emitir os dados de imagem da unidade de codificação máxima atual.
[00098] Em outras palavras, as unidades de dados contendo a informação de codificação incluindo a mesma informação de divisão podem ser compiladas mediante observação do conjunto de informação de codificação atribuídas para a unidade de dados predeterminada dentre a unidade de codificação, a unidade de predição, e a unidade mínima, e as unidades de dados compilados podem ser consideradas como sendo uma unidade de dados a ser decodificada pelo decodificador de dados de imagem 230 no mesmo modo de codificação.
[00099] O aparelho de decodificação de vídeo 200 pode obter informação sobre ao menos uma unidade de codificação que gera o erro de codificação mínimo quando a codificação é realizada de forma recursiva para cada unidade de codificação máxima, e pode usar a informação para decodificar a imagem atual. Em outras palavras, as unidades de codificação tendo a estrutura de árvore determinada para ser a unidade de codificação ótima em cada unidade de codificação máxima podem ser decodificadas. Além disso o tamanho máximo da unidade de codificação é determinado considerando a resolução e uma quantidade de dados de imagem.
[000100] Consequentemente, mesmo se os dados de imagem tiverem elevada resolução e uma grande quantidade de dados, os dados de imagem podem ser decodificados e restaurados de modo eficiente através do uso de um tamanho de uma unidade de codificação e um modo de codificação os quais são determinados de forma adaptativa de acordo com as características dos dados de imagem, mediante uso de informação sobre um modo de codificação ótimo recebido a partir de um codificador.
[000101] Um método de determinar unidades de codificação tendo uma estrutura de árvore, uma unidade de predição, e uma unidade de transformação, de acordo com uma modalidade exemplar, será descrito agora com referência às Figuras 3 a 13.
[000102] A Figura 3 é um diagrama para descrever um conceito das unidades de codificação hierárquicas de acordo com uma modalidade exemplar.
[000103] Um tamanho de uma unidade de codificação pode ser expresso em largura x altura, e pode ser 64x64, 32x32, 16x16 e 8x8. Uma unidade de codificação de 64x64 pode ser dividida em partições de 64x64, 64x32, 32x64 ou 32x32, e uma unidade de codificação de 32x32 pode ser dividida em partições de 32x32, 32x16, 16x32, ou 16x16, uma unidade de codificação de 16x16 pode ser dividida em partições de 16x16, 16x8, 8x16 ou 8x8, e uma unidade de codificação de 8x8 pode ser dividida em partições de 8x8, 8x4, 4x8 ou 4x4.
[000104] Nos dados de vídeo 310, uma resolução é de 1920x1080, um tamanho máximo de uma unidade de codificação é de 64, e uma profundidade máxima é de 2. Nos dados de vídeo 320, uma resolução é de 1920x1080, um tamanho máximo de codificação é de 64, e uma profundidade máxima é de 3. Nos dados de vídeo 330, uma resolução é de 352x288, um tamanho máximo de uma unidade de codificação é de 16, e uma profundidade máxima é de 1. A profundidade máxima mostrada na Figura 3 denota um número total de divisões a partir de uma unidade de codificação máxima para uma unidade de decodificação mínima.
[000105] Se uma resolução for elevada ou se uma quantidade de dados for grande, um tamanho máximo de uma unidade de codificação pode ser tão grande de modo a não apenas aumentar a eficiência de codificação, mas também refletir de forma exata as características de uma imagem. Consequentemente, o tamanho máximo da unidade de codificação dos dados de vídeo 310 e 320 tendo a resolução mais alta do que os dados de vídeo 330 pode ser de 64.
[000106] Como a profundidade máxima dos dados de vídeo 310 é de 2, as unidades de codificação 315 dos dados de vídeo 310 podem incluir uma unidade de codificação máxima tendo um tamanho de eixo longo de 64, e unidades de codificação tendo tamanhos de eixo longos de 32 e 16 uma vez que as profundidades são aprofundadas para duas camadas mediante divisão duas vezes da unidade de codificação máxima. Entretanto, como a profundidade máxima dos dados de vídeo 330 é de 1, as unidades de codificação 335 dos dados de vídeo 330 podem incluir uma unidade de codificação máxima tendo um tamanho de eixo longo de 16, e unidades de codificação tendo um tamanho de eixo longo de 8 uma vez que as profundidades são aprofundadas para uma camada mediante divisão uma vez da unidade de codificação máxima.
[000107] Como a profundidade máxima dos dados de vídeo 320 é de 3, as unidades de codificação 325 dos dados de vídeo 320 podem incluir uma unidade de codificação máxima tendo um tamanho de eixo longo de 64, e unidades de codificação tendo tamanhos de eixo longo de 32, 16 e 8 uma vez que as profundidades são aprofundadas para 3 camadas mediante divisão da unidade de codificação máxima três vezes. À medida que a profundidade é aprofundada, informação detalhada pode ser expressa com exatidão.
[000108] A Figura 4 é um diagrama de blocos de um codificador de imagem 400 com base nas unidades de codificação, de acordo com uma modalidade exemplar.
[000109] O codificador de imagem 400 realiza operações do determinador de unidade de codificação 120 do aparelho de codificação de vídeo 100 para codificar os dados de imagem. Em outras palavras, um intrapreditor 410 realiza predição intra nas unidades de codificação em um modo intra, dentre uma imagem atual 405, e um estimador de movimento 420 e um compensador de movimento 425 realiza inter estimação e compensação de movimento nas unidades de codificação em um modo inter dentre a imagem atual 405 mediante uso da imagem atual 405, e uma imagem de referência 495.
[000110] Dados emitidos a partir do intrapreditor 410, do estimador de movimento 420, e do compensador de movimento 425 são emitidos como um coeficiente de transformação quantizado através do transformador 430 e de um quantizador 440. O coeficiente de transformação quantizado é restaurado como dados em um domínio espacial através de um quantizador inverso 460 e um transformador inverso 470, e os dados restaurados no domínio espacial são emitidos como a imagem de referência 495 após ser pós-processado através de uma unidade de desblocagem 480 e uma unidade de filtração de laço 490. O coeficiente de transformação quantizado pode ser emitido como um fluxo de bits 455 através de um codificador de entropia 450.
[000111] Para que o codificador de imagem 400 seja aplicado no aparelho de codificação de vídeo 100, todos os elementos do codificador de imagem 400, isto é, o intrapreditor 410, o estimador de movimento 420, o compensador de movimento 425, o transformador 430, o quantizador 440, o codificador de entropia 450, o quantizador inverso 460, o transformador inverso 470, a unidade de desblocagem 480, e a unidade de filtração de laço 490 realizam operações com base em cada unidade de codificação dentre unidades de codificação tendo uma estrutura de árvore enquanto considerando a profundidade máxima de cada unidade de codificação máxima.
[000112] Especificamente, o intrapreditor 410, o estimador de movimento 420, e o compensador de movimento 425 determinam partições e um modo de predição de cada unidade de codificação dentre as unidades de codificação tendo uma estrutura de árvore enquanto considerando o tamanho máximo e a profundidade máxima de uma unidade de codificação máxima atual, e o transformador 430 determina o tamanho da unidade de transformação em cada unidade de codificação dentre as unidades de codificação tendo uma estrutura de árvore.
[000113] A Figura 5 é um diagrama de blocos de um decodificador de imagem 500 com base nas unidades de codificação, de acordo com uma modalidade exemplar.
[000114] Um analisador 510 analisa os dados de imagem codificados a serem decodificados e informação sobre a codificação exigida para decodificação a partir de um fluxo de bits 505. Os dados de imagem codificados são emitidos como dados quantizados inversos através de um decodificador de entropia 520 e um quantizador inverso 530, e os dados quantizados inversos são restaurados para dados de imagem em um domínio espacial através de um transformador inverso 540.
[000115] Um intrapreditor 550 realiza predição intra nas unidades de codificação em um modo intra com relação aos dados de imagem no domínio espacial, e um compensador de movimento 560 realiza compensação de movimento nas unidades de codificação em um modo inter, mediante uso de uma imagem de referência 585.
[000116] Os dados de imagem no domínio espacial, os quais passaram através do intrapreditor 550 e do compensador de movimento 560, podem ser emitidos como uma imagem restaurada 595 após serem pós-processados através de uma unidade de desblocagem 570 e uma unidade de filtração de laço 580. Além disso, os dados de imagem que são pós-processados através da unidade de desblocagem 570 e da unidade de filtração de laço 580 podem ser emitidos como a imagem de referência 585.
[000117] Para decodificar os dados de imagem no decodificador de dados de imagem 230 do aparelho de decodificação de vídeo 200, o decodificador de imagem 500 pode realizar operações que são realizadas após o analisador 510.
[000118] Para que o decodificador de imagem 500 seja aplicado no aparelho de decodificação de vídeo 200, todos os elementos do decodificador de imagem 500, isto é, o analisador 510, o decodificador de entropia 520, o quantizador inverso 530, o transformador inverso 540, o intrapreditor 550, o compensador de movimento 560, a unidade de desblocagem 570, e a unidade de filtração de laço 580 realizam operações com base nas unidades de codificação tendo uma estrutura de árvore para cada unidade de codificação máxima.
[000119] Especificamente, a predição intra 550 e o compensador de movimento 560 realizam operações com base nas partições e em um modo de predição para cada uma das unidades de codificação tendo uma estrutura de árvore, e o transformador inverso 540 realiza operações com base em um tamanho de uma unidade de transformação para cada unidade de codificação.
[000120] A Figura 6 é um diagrama ilustrando unidades de codificação mais profunda de acordo com as profundidades, e partições, de acordo com uma modalidade exemplar.
[000121] O aparelho de codificação de vídeo 100 e o aparelho de decodificação de vídeo 200 utilizam unidades de codificação hierárquicas de modo a considerar as características de uma imagem. Uma altura máxima, uma largura máxima, e uma profundidade máxima das unidades de codificação podem ser determinadas de forma adaptativa de acordo com as características da imagem, ou podem ser ajustadas de forma diferente por um usuário. Tamanhos de unidades de codificação mais profundas, de acordo com as profundidades, podem ser determinados de acordo com o tamanho máximo predeterminado da unidade de codificação.
[000122] Em uma estrutura hierárquica 600 das unidades de codificação, de acordo com uma modalidade exemplar, a altura máxima e a largura máxima das unidades de codificação são individualmente de 64, e a profundidade máxima é de 4. Como uma profundidade é aprofundada ao longo de um eixo vertical da estrutura hierárquica 600, uma altura e uma largura da unidade de codificação mais profunda são individualmente divididas. Além disso, uma unidade de predição e as partições, que são as bases para codificação de predição de cada unidade de codificação mais profunda, são mostradas ao longo de um eixo horizontal da estrutura hierárquica 600.
[000123] Em outras palavras, uma unidade de codificação 610 é uma unidade de codificação máxima na estrutura hierárquica 600, em que uma profundidade é de 0 e um tamanho, isto é, uma altura por largura, é de 64x64. A profundidade é aprofundada ao longo do eixo vertical, e existe uma unidade de codificação 620, tendo um tamanho de 32x32, e uma profundidade de 1; uma unidade de codificação 630, tendo um tamanho de 16x16, e uma profundidade de 2; uma unidade de codificação 640, tendo um tamanho de 8x8, e uma profundidade de 3; e uma unidade de codificação 650, tendo um tamanho de 4x4, e uma profundidade de 4. A unidade de codificação 650 tendo o tamanho de 4x4 e a profundidade de 4 é uma unidade de codificação mínima.
[000124] A unidade de predição e as partições de uma unidade de codificação são arranjadas ao longo do eixo horizontal de acordo com cada profundidade. Em outras palavras, se a unidade de codificação 610, tendo o tamanho de 64x64, e a profundidade de 0, for uma unidade de predição, a unidade de predição pode ser dividida em partições incluídas na unidade de codificação 610, isto é, uma partição 610 tendo um tamanho de 64x64, partições 612 tendo o tamanho de 64x32, partições 614 tendo o tamanho de 32x64, ou partições 616 tendo o tamanho de 32x32.
[000125] Similarmente, uma unidade de predição da unidade de codificação 620 tendo o tamanho de 32x32 e a profundidade de 1 pode ser dividida em partições incluídas na unidade de codificação 620, isto é, uma partição 620 tendo um tamanho de 32x32, partições 622 tendo um tamanho de 32x16, partições 624 tendo um tamanho de 16x32, e partições 626 tendo um tamanho de 16x16.
[000126] Similarmente, uma unidade de predição da unidade de codificação 630 tendo o tamanho de 16x16 e a profundidade de 2 pode ser dividida em partições incluídas na unidade de codificação 630, isto é, uma partição tendo um tamanho de 16x16 incluída na unidade de codificação 630, partições 632 tendo um tamanho de 16x8, partições 634 tendo um tamanho de 8x16, e partições 636 tendo um tamanho de 8x8.
[000127] Similarmente, uma unidade de predição da unidade de codificação 640 tendo o tamanho de 8x8 e a profundidade de 3 pode ser dividida em partições incluídas na unidade de codificação 640, isto é, uma partição tendo um tamanho de 8x8 incluída na unidade de codificação 640, partições 642 tendo um tamanho de 8x4, partições 644 tendo um tamanho de 4x8, e partições 646 tendo um tamanho de 4x4.
[000128] A unidade de codificação 650 tendo o tamanho de 4x4 e a profundidade de 4 é a unidade de codificação mínima e uma unidade de codificação da profundidade mais baixa. Uma unidade de predição da unidade de codificação 650 é atribuída apenas a uma partição tendo um tamanho de 4x4.
[000129] Para determinar a pelo menos uma profundidade codificada das unidades de codificação constituindo a unidade de codificação máxima 610, o determinador de unidade de codificação 120 do equipamento de codificação de vídeo 100 realiza codificação para as unidades de codificação correspondendo a cada profundidade incluída na unidade de codificação máxima 610.
[000130] Um número de unidades de codificação mais profunda, de acordo com as profundidades incluindo dados na mesma faixa e no mesmo tamanho, aumenta à medida que é aprofundada a profundidade. Por exemplo, quatro unidades de codificação correspondendo a uma profundidade de 2 são exigidas para cobrir os dados que são incluídos em uma unidade de codificação correspondendo a uma profundidade de 1. Consequentemente, para comparar os resultados de codificação dos mesmos dados de acordo com as profundidades, a unidade de codificação correspondendo à profundidade de 1; e quatro unidades de codificação correspondendo à profundidade de 2; são individualmente codificadas.
[000131] Para realizar a codificação para uma profundidade atual entre as profundidades, um erro de codificação mínimo pode ser selecionado para a profundidade atual mediante realização de codificação para cada unidade de predição nas unidades de codificação correspondendo à profundidade atual, ao longo do eixo horizontal da estrutura hierárquica 600. Alternativamente, o erro de codificação mínimo pode ser pesquisado mediante comparação dos erros de codificação mínimos de acordo com as profundidades, mediante realização de codificação para cada profundidade à medida que a profundidade é aprofundada ao longo do eixo vertical da estrutura hierárquica 600. Uma profundidade e uma partição tendo o erro de codificação mínimo na unidade de codificação 610 podem ser selecionadas como a profundidade codificada e um tipo de partição da unidade de codificação 610.
[000132] A Figura 7 é um diagrama para descrever uma relação entre uma unidade de codificação 710 e unidades de transformação 720, de acordo com uma modalidade da presente invenção.
[000133] O equipamento de codificação de vídeo 100 ou 200 codifica ou decodifica uma imagem de acordo com as unidades de codificação tendo tamanhos menores do que ou iguais a uma unidade de codificação máxima para cada unidade de codificação máxima. Tamanhos de unidades de transformação para transformação durante codificação podem ser selecionados com base nas unidades de dados que não são maiores do que uma unidade de codificação correspondente.
[000134] Por exemplo, no equipamento de codificação de vídeo 100 ou 200, se um tamanho da unidade de codificação 710 é de 64x64, a transformação pode ser realizada mediante uso das unidades de transformação 720 tendo um tamanho de 32x32.
[000135] Além disso, os dados da unidade de codificação 710 tendo o tamanho de 64x64 podem ser codificados mediante realização da transformação em cada uma das unidades de transformação tendo o tamanho de 32x32, 16x16, 8x8, e 4x4, que são menores do que 64x64, e então uma unidade de transformação tendo o erro de codificação mínimo pode ser selecionada.
[000136] A Figura 8 é um diagrama para descrever informação de codificação das unidades de codificação correspondendo a uma profundidade codificada, de acordo com uma modalidade exemplar.
[000137] A unidade de saída 130 do equipamento de codificação de vídeo 100 pode codificar e transmitir informação 800 sobre um tipo de partição, informação 810 sobre um modo de predição, e informação 820 sobre um tamanho de uma unidade de transformação para cada unidade de codificação correspondendo a uma profundidade codificada, como informação sobre um modo de codificação.
[000138] A informação 800 indica informação sobre um formato de uma partição obtida mediante divisão de uma unidade de predição de uma unidade de codificação atual, em que a partição é uma unidade de dados para codificação de predição da unidade de codificação atual. Por exemplo, uma unidade de codificação atual CU_0 tendo um tamanho de 2Nx2N pode ser dividida em qualquer uma de uma partição 802 tendo um tamanho de 2Nx2N, uma partição 804 tendo um tamanho de 2NxN, uma partição de 806 tendo um tamanho de Nx2N, e uma partição 808 tendo um tamanho de NxN. Aqui, a informação 800 sobre um tipo de partição é estabelecida para indicar uma da partição 804 tendo um tamanho de 2NxN, a partição 806 tendo um tamanho de Nx2N, e a partição 808 tendo um tamanho de NxN.
[000139] A informação 810 indica um modo de predição de cada partição. Por exemplo, a informação 810 pode indicar um modo de codificação de predição realizado em uma partição indicada pela informação 800, isto é, um modo intra 812, um modo inter 814, ou um modo de pulo 816.
[000140] A informação 820 indica uma unidade de transformação para ser baseada em quando a transformação é realizada em uma unidade de codificação atual. Por exemplo, a unidade de transformação pode ser uma primeira unidade de transformada intra 822, uma segunda unidade de transformada intra 824, uma primeira unidade de transformada inter 826, ou uma segunda unidade de transformada intra 828.
[000141] O extrator de informação de codificação e de dados de imagem 220 do equipamento de decodificação de vídeo 200 pode extrair e utilizar a informação 800, 810 e 820 para decodificação, de acordo com cada unidade de codificação mais profunda.
[000142] A Figura 9 é um diagrama de unidades de codificação mais profunda de acordo com as profundidades, de acordo com uma modalidade exemplar.
[000143] Informação de divisão pode ser usada para indicar uma mudança de uma profundidade. A informação de divisão indica se uma unidade de codificação de uma profundidade atual é dividida em unidades de codificação de uma profundidade inferior.
[000144] Uma unidade de predição 910 para codificação de predição de uma unidade de codificação 900 tendo uma profundidade de 0 e um tamanho de 2N_0x2N_0 pode incluir partições de um tipo de partição 912 tendo um tamanho de 2N_0x2N_0, um tipo de partição 914 tendo um tamanho de 2N_0xN_0, um tipo de partição 916 tendo um tamanho de N_0x2N_0, e um tipo de partição 918 tendo um tamanho de N_0xN_0. A Figura 9 ilustra apenas os tipos de partição 912 a 918 que são obtidos mediante divisão simétrica da unidade de predição 910, porém um tipo de partição não é limitado a isso, e as partições da unidade de predição 910 podem incluir partições assimétricas, partições tendo um formato predeterminado e partições tendo um formato geométrico.
[000145] A codificação de predição é realizada de forma repetida em uma partição tendo um tamanho de 2N_0x2N_0, duas partições tendo um tamanho de 2N_0xN_0, duas partições tendo um tamanho de N_0x2N_0, e quatro partições tendo um tamanho de N_0xN_0, de acordo com cada tipo de partição. A codificação de predição em um modo intra e em um modo inter pode ser realizada nas partições tendo os tamanhos de 2N_0x2N_0, N_0x2N_0, 2N_0xN_0 e N_0xN_0. A codificação de predição em um modo de pulo é realizada apenas na partição tendo o tamanho de 2N_0x2N_0.
[000146] Se um erro de codificação for menor em um dos tipos de partição 912 a 916, tendo os tamanhos de 2N_0x2N_0, N_0x2N_0, 2N_0xN_0 e N_0xN_0 a unidade de predição 910 pode não ser dividida em uma profundidade inferior.
[000147] Se o erro de codificação for o menor no tipo de partição 918, tendo o tamanho de N_0xN_0 uma profundidade é mudada de 0 para 1 para dividir o tipo de partição 918 na operação 920, e a codificação é realizada repetidamente nas unidades de codificação 930 tendo uma profundidade de 2 e um tamanho de N_0xN_0 para procurar um erro de codificação mínimo.
[000148] Uma unidade de predição 940 para codificação de predição da unidade de codificação 930 tendo uma profundidade de 1 e um tamanho de 2N_1x2N_1(=N_0xN_0) pode incluir partições de um tipo de partição 942 tendo um tamanho de 2N_1x2N_1, um tipo de partição 944 tendo um tamanho de 2N_1xN_1, um tipo de partição 946 tendo um tamanho de N_1x2N_1, e um tipo de partição 948 tendo um tamanho de N_1xN_1.
[000149] Se um erro de codificação for o menor no tipo de partição 948, uma profundidade é mudada de 1 para 2 para dividir o tipo de partição 948 em operação 950, e a codificação é realizada repetidamente nas unidades de codificação 960, as quais têm uma profundidade de 2 e um tamanho de N_2xN_2 para procurar um erro de codificação mínimo.
[000150] Quando uma profundidade máxima é d, a operação de divisão de acordo com cada profundidade pode ser realizada até quando uma profundidade se tornar d-1; e a informação de divisão pode ser codificada até quando uma profundidade for uma de 0 a d-2. Em outras palavras, quando a codificação é realizada até quando a profundidade é d-1 após uma unidade de codificação correspondendo a uma profundidade de d-2 ser dividida na operação 970, uma unidade de predição 990 para codificação de predição de uma unidade de codificação 980 tendo uma profundidade de d-1 e um tamanho de 2N_(d-1)x2N_(d- 1) pode incluir partições de um tipo de partição 992 tendo um tamanho de 2N_(d-1)x2N_(d-1), um tipo de partição 994 tendo um tamanho de 2N_(d-1)xN_(d-1), um tipo de partição 996 tendo um tamanho de N_(d-1)x2N_(d-1), um tipo de partição 998 tendo um tamanho de N_(d-1)xN_(d-1).
[000151] Codificação de predição pode ser realizada repetidamente em uma partição tendo um tamanho de 2N_(d- 1)x2N_(d-1), duas partições tendo um tamanho de 2N_(d-1)xN_(d- 1), duas partições tendo um tamanho de N_(d-1)x2N_(d-1), quatro partições tendo um tamanho de N_(d-1)xN_(d-1) dentre os tipos de partição 992 a 998 para procurar um tipo de partição tendo um erro de codificação mínimo.
[000152] Mesmo quando o tipo de partição 998 tem o erro de codificação mínimo, como uma profundidade máxima é d, uma unidade de codificação CU_(d-1), tendo uma profundidade de d-1 não mais é dividida para uma profundidade inferior, e uma profundidade codificada para as unidades de codificação constituindo uma unidade de codificação máxima atual 900 é determinada para ser d-1 e um tipo de partição da unidade de codificação máxima atual 900 pode ser determinada para ser N_(d-1)xN_(d-1). Além disso, como a profundidade máxima é d e uma unidade de codificação mínima 980 tendo a profundidade mais baixa de d-1 não mais é dividida para uma profundidade inferior, a informação de divisão para a unidade de codificação mínima 980 não é estabelecida.
[000153] A unidade de dados 999 pode ser uma unidade mínima para a unidade de codificação máxima atual. Uma unidade mínima de acordo com uma modalidade exemplar pode ser uma unidade de dados retangular obtida mediante divisão de uma unidade de codificação mínima 980 por 4. Mediante realização da codificação repetidamente, o equipamento de codificação de vídeo 100 pode selecionar uma profundidade tendo o erro de codificação mínimo mediante comparação dos erros de codificação de acordo com as profundidades da unidade de codificação 900 para determinar uma profundidade codificada, e estabelecer um tipo de partição correspondente e um modo de predição como um modo de codificação da profundidade codificada.
[000154] Como tal, os erros de codificação mínimos de acordo com as profundidades são comparados em todas as profundidades de 1 a d, e a profundidade tendo o menor erro de codificação pode ser determinada como uma profundidade codificada. A profundidade codificada, o tipo de partição da unidade de predição, e o modo de predição podem ser codificados e transmitidos como informação sobre um modo de codificação. Além disso, como uma unidade de codificação é dividida a partir de uma profundidade de 0 até uma profundidade codificada, apenas a informação de divisão da profundidade codificada é ajustada para 0, e a informação de divisão das profundidades excluindo a profundidade codificada é ajustada para 1.
[000155] O extrator de informação de codificação e dados de imagem 220 do equipamento de decodificação de vídeo 200 pode extrair e utilizar a informação sobre a profundidade codificada e a unidade de predição da unidade de codificação 900 para decodificar a partição 912. O equipamento de decodificação de vídeo 200 pode determinar uma profundidade, na qual a informação de divisão é 0, como uma profundidade codificada mediante uso da informação de divisão de acordo com as profundidades, e usar a informação sobre um modo de codificação da profundidade correspondente para decodificação.
[000156] As Figuras 10 a 12 são diagramas para descrever uma relação entre as unidades de codificação 1010, unidades de predição 1060, e unidades de transformação 1070, de acordo com uma modalidade exemplar.
[000157] As unidades de codificação 1010 são unidades de codificação que têm uma estrutura de árvore, correspondendo às profundidades codificadas determinadas pelo equipamento de codificação de vídeo 100, em uma unidade de codificação máxima. As unidades de predição 1060 são partições das unidades de predição de cada uma das unidades de codificação 1010, e as unidades de transformação 1070 são unidades de transformação de cada uma das unidades de codificação 1010.
[000158] Quando uma profundidade de uma unidade de codificação máxima é 0 nas unidades de codificação 1010, as profundidades das unidades de codificação 1012 e 1054 são 1, as profundidades das unidades de codificação 1014, 1016, 1018, 1028, 1050, e 1052 são 2, as profundidades das unidades de decodificação 1020, 1022, 1024, 1026, 1030, 1032 e 1048 são 3, e as profundidades das unidades de codificação 1040, 1042, 1044 e 1046 são 4.
[000159] Nas unidades de predição 1060, algumas unidades de codificação 1014, 1016, 1022, 1032, 1048, 1050, 1052, 1054 são obtidas mediante divisão das unidades de codificação nas unidades de codificação 1010. Em outras palavras, tipos de partição nas unidades de codificação 1014, 1022, 1050, e 1054 têm um tamanho de 2NxN, os tipos de partição nas unidades de codificação 1016, 1048 e 1052 têm um tamanho de Nx2N, e um tipo de partição da unidade de codificação 1032 tem um tamanho de NxN. As unidades de predição e partições das unidades de codificação 1010 são menores do que ou iguais a cada unidade de codificação.
[000160] Transformação ou transformação inversa é realizada nos dados de imagem da unidade de codificação 1052 nas unidades de transformação 1070 em uma unidade de dados que é menor do que a unidade de codificação 1052. Além disso, as unidades de codificação 1014, 1016, 1022, 1032, 1048, 1050 e 1052 nas unidades de transformação 1070 são diferentes daquelas nas unidades de predição 1060 em termos de tamanhos e formatos. Em outras palavras, os equipamentos de codificação e decodificação de vídeo 100 e 200 podem realizar predição intra, estimação de movimento, compensação de movimento, transformação, e transformação inversa individualmente em uma unidade de dados na mesma unidade de codificação.
[000161] Consequentemente, a codificação é realizada de forma recursiva em cada uma das unidades de codificação tendo uma estrutura hierárquica em cada região de uma unidade de codificação máxima para determinar uma unidade de codificação ótima, e assim unidades de codificação que têm uma estrutura de árvore recursiva podem ser obtidas. A informação de codificação pode incluir informação de divisão sobre uma unidade de codificação, informação sobre um tipo de partição, informação sobre um modo de predição, e informação sobre um tamanho de uma unidade de transformação. A Tabela 1 mostra a informação de codificação que pode ser estabelecida pelos equipamentos de codificação e decodificação de vídeo 100 e 200. Tabela 1 Informação de divisão 0 (Codificação na Unidade de Codificação tendo Tamanho de 2Nx2N e Profundidade Atual de d) Informação de divisão 1 Modo de Predição Tipo de Partição Tamanho da Unidade de Transformação Codificar Repetidamente as Unidades de Codificação tendo Profundidade Inferior de d+1 Pulo Intra/Inter (Apenas 2Nx2N) Tipo de Partição Simétrica Tipo de Partição Assimétrica Informação de divisão 0 da Unidade de Transformação Informação de divisão 1 da Unidade de Transformação 2Nx2N 2NxN Nx2N NxN 2NxnU 2NxnD nLx2N nRx2N 2Nx2N NxN(Tipo Simétrico)N/2xN/2 (Tipo Assimétrico)
[000162] A unidade de saída 130 do equipamento de codificação de vídeo 100 pode emitir a informação de codificação sobre as unidades de codificação tendo uma estrutura de árvore, e o extrator de informação de codificação e dados de imagem 220 do equipamento de decodificação de vídeo 200 pode extrair a informação de codificação sobre as unidades de codificação tendo uma estrutura de árvore a partir de um fluxo de bits recebido.
[000163] A informação de divisão indica se uma unidade de codificação atual é dividida em unidades de codificação de uma profundidade inferior. Se a informação de divisão de uma profundidade atual d for 0, uma profundidade, na qual uma unidade de codificação atual não mais é dividida em uma profundidade inferior, é uma profundidade codificada, e assim a informação sobre um tipo de partição, o modo de predição, e um tamanho de uma unidade de transformação, pode ser definida para a profundidade codificada. Se a unidade de codificação atual for dividida adicionalmente de acordo com a informação de divisão, a codificação é realizada independentemente em quatro unidades de codificação divididas de uma profundidade inferior.
[000164] Um modo de predição pode ser um de: um modo intra, um modo inter, e um modo de pulo. O modo intra e o modo inter podem ser definidos em todos os tipos de partição, e o modo de pulo é definido apenas em um tipo de partição tendo um tamanho de 2Nx2N.
[000165] A informação sobre o tipo de partição pode indicar tipos de partição simétrica tendo tamanhos de 2Nx2N, 2NxN, Nx2N, e NxN, que são obtidos mediante divisão de forma simétrica de uma altura ou de uma largura de uma unidade de predição, e tipos de partição assimétrica tendo tamanhos de 2NxnU, 2NxnD, nLx2N e nRx2N, os quais são obtidos mediante divisão de forma assimétrica da altura ou largura da unidade de predição. Os tipos de partição assimétrica tendo os tamanhos de 2NxnU e 2NxnD podem ser obtidos respectivamente mediante divisão da altura da unidade de predição em 1:3 e 3:1, e os tipos de partição assimétrica tendo os tamanhos de nLx2N e nRx2N podem ser obtidos respectivamente mediante divisão da largura da unidade de predição em 1:3 e 3:1.
[000166] O tamanho da unidade de transformação pode ser ajustado para ser de dois tipos no modo intra e de dois tipos no modo inter. Em outras palavras, se a informação de divisão da unidade de transformação for 0, o tamanho da unidade de transformação pode ser 2Nx2N, que é o tamanho da unidade de codificação atual. Se informação de divisão da unidade de transformação for 1, as unidades de transformação podem ser obtidas mediante divisão da unidade de codificação atual. Além disso, se um tipo de divisão da unidade de codificação atual tendo o tamanho de 2Nx2N for um tipo de partição assimétrica, um tamanho de uma unidade de transformação pode ser NxN, e se o tipo de partição da unidade de codificação atual for um tipo de partição assimétrica, o tamanho da unidade de transformação pode ser N/2xN/2.
[000167] A informação de codificação sobre as unidades de codificação tendo uma estrutura de árvore pode incluir ao menos uma de uma unidade de codificação correspondendo a uma profundidade codificada, uma unidade de predição, e uma unidade mínima. A unidade de codificação correspondendo à profundidade codificada pode incluir ao menos uma de uma unidade de predição e uma unidade mínima contendo a mesma informação de codificação.
[000168] Consequentemente é determinado se as unidades de dados adjacentes são incluídas na mesma unidade de codificação correspondendo à profundidade codificada mediante comparação da informação de codificação das unidades de dados adjacentes. Além disso, uma unidade de codificação correspondente que corresponde a uma profundidade codificada é determinada mediante uso da informação de codificação de uma unidade de dados, e assim uma distribuição das profundidades codificadas em uma unidade de codificação máxima pode ser determinada.
[000169] Consequentemente, se uma unidade de codificação atual for predita com base na informação de codificação das unidades de dados adjacentes, informação de codificação das unidades de dados em unidades de codificação mais profunda adjacentes à unidade de codificação atual pode ser diretamente consultada e utilizada.
[000170] Alternativamente, se uma unidade de codificação atual for predita com base na informação de codificação das unidades de dados adjacentes, as unidades de dados adjacentes à unidade de codificação atual são procuradas utilizando-se a informação de codificação das unidades de dados, e as unidades de codificação adjacentes procuradas podem ser referidas para predição da unidade de codificação atual.
[000171] A Figura 13 é um diagrama para descrever uma relação entre uma unidade de codificação, uma unidade de predição ou uma partição, e uma unidade de transformação, de acordo com a informação de modo de codificação da Tabela 1.
[000172] A unidade de codificação máxima 1300 inclui unidades de codificação 1302 1304, 1306, 1312, 1314, 1316 e 1318 de profundidades codificadas. Aqui, como a unidade de codificação 1318 é uma unidade de codificação de uma profundidade codificada, a informação de divisão pode ser ajustada para 0. A informação sobre um tipo de partição da unidade de codificação 1318 tendo um tamanho de 2Nx2N pode ser ajustada para ser um de: um tipo de partição 1322 tendo um tamanho de 2Nx2N, um tipo de partição 1324 tendo um tamanho de 2NxN, um tipo de partição 1326 tendo um tamanho de Nx2N, um tipo de partição 328 tendo um tamanho de NxN, um tipo de partição 1332 tendo um tamanho de 2NxnU, um tipo de partição 1334 tendo um tamanho de 2NxnD, um tipo de partição 1336 tendo um tamanho de nLx2N, e um tipo de partição 1338 tendo um tamanho de nRx2N.
[000173] Quando o tipo de partição é ajustado para ser simétrico, isto é, o tipo de partição 1322, 1324, 1326 ou 1328, uma unidade de transformação 1342 tendo um tamanho de 2Nx2N é estabelecido se o sinalizador de tamanho TU de uma unidade de transformação é 0, e uma unidade de transformação 1344 tendo um tamanho de NxN é estabelecido se o sinalizador de tamanho TU de uma unidade de transformação for 1.
[000174] Quando o tipo de partição é estabelecido como sendo assimétrico, isto é, o tipo de partição 1332, 1334, 1336 ou 1338, uma unidade de transformação 1352 tendo um tamanho de 2Nx2N é estabelecido se um sinalizador de tamanho TU for 0, e uma unidade de transformação 1354 tendo um tamanho de N/2xN/2 é estabelecido se um sinalizador de tamanho TU for 1.
[000175] Em seguida, será descrita a predição de movimento e de compensação de movimento, que são executadas pelo estimador de movimento 420 e o compensador de movimento 425 do aparelho de codificação de vídeo 100 da figura 4 e o compensador de movimento 550 do aparelho de decodificação de vídeo 200 da figura 5, e os processos de codificação e decodificação de informação de movimento, que são executadas pelo codificador de entropia 450 da figura 4 e o decodificador de entropia 520 da figura 5. Como descrito com referência às figuras 1 a 13, uma unidade de predição é uma unidade de dados para codificação de predição de uma unidade de codificação. Em seguida, a unidade de predição refere-se à própria unidade de predição ou uma partição obtida dividindo a unidade de predição.
[000176] Como descrito acima, as unidades de predição são codificadas utilizando diversos modos de predição como um modo de predição intra, um modo inter, e um modo de pulo.
[000177] No modo de predição inter, uma unidade de predição atual é prevista através de predição unidirecional ou predição bidirecional. Em detalhe, uma unidade de predição incluída em uma fatia P é prevista através predição unidirecional, usando apenas uma de uma imagem de referência ‘imagem L0’ incluída em uma lista de imagens de referência ‘Lista 0’ e uma imagem de referência ‘imagem L1’ incluída em uma lista de imagens de referência ‘Lista 1’. Um método de predição usando a imagem de referência ‘imagem L0’ incluída na lista de imagens de referência ‘Lista 0’ é referido como “predição L0”. Um método de predição usando a imagem de referência ‘imagem L1’ incluída na lista de imagens de referência ‘Lista 1’ é referido como ”predição L1”. Na lista de imagens de referência ‘Lista 0', um índice de imagens de referência é atribuído em ordem a partir de uma imagem mais recente para uma imagem anterior à mesma e, em seguida, é atribuído em ordem a partir de uma imagem mais próxima futura para uma próxima imagem posterior. Por outro lado, na lista de imagens de referência ‘lista 1’, um índice de imagem de referência é atribuído em ordem a partir de uma imagem futura mais próxima para uma próxima imagem posterior, em então, é atribuído em ordem a partir de uma imagem passada mais recente para uma imagem anterior a ela.
[000178] A unidade de predição incluída em uma fatia B é prevista através de predição unidirecional ou predição bidirecional usando uma média da imagem de referência ‘imagem L0’ incluída na lista de imagens de referência ‘Lista 0’ e a imagem de referência ‘imagem L1’ incluída na lista de imagens de referência ‘lista 1’. Um modo preditivo bidirecional realizado pelo estimador de movimento 420 pode usar duas imagens de referência, em vez de estar limitado a uma imagem de uma imagem atual de referência anterior ou seguinte e pode ser referido como um modo bi-preditivo.
[000179] Os custos obtidos através da codificação de valores de predição obtidos de acordo com os modos de predição são comparados uns com os outros e um modo de predição tendo um menor custo é determinado como um modo de predição final de uma unidade de predição atual. Quando os custos são comparados uns com os outros, o modo de predição final a ser aplicado à unidade de predição atual pode ser determinado com base na taxa de distorção.
[000180] Para que um lado de decodificação gere um valor de predição de uma unidade de predição no qual a predição inter é realizada, a informação de imagem de referência sobre uma imagem referida para cada unidade de predição no qual predição inter é realizada, a informação de vetor de movimento e informação de movimento, tal como uma direção de predição pode ser transmitida para o lado de decodificação. De acordo com modalidades da presente invenção, a fim de reduzir a sobrecarga de transmissão, a informação de movimento é codificada com base na informação de movimento, que é previsto através da informação de movimento de uma unidade de predição adjacente que é previamente codificada ou usando uma unidade de predição justaposta a uma unidade de predição atual na imagem anterior, ao invés de ser codificada sem alterações.
[000181] De acordo com modalidades da presente invenção, são providos vários métodos para gerar adicionalmente, informação candidata de movimento de modo a que o número total de informações de movimento seja igual a um número predeterminado, quando o número de informações de movimento padrão obtidas a partir de uma unidade de predição que é espacialmente e temporalmente justaposta a uma unidade de predição atual é previamente determinado por um lado de codificação e por um lado de decodificação é menor do que o número predeterminado. De acordo com modalidades da presente invenção, o mesmo método pode ser previamente determinado dentre os vários métodos de geração de informação candidata de movimento adicionalmente pelo lado de codificação e pelo lado de decodificação. Neste caso, os respectivos índices predeterminados que indicam os vários métodos de geração de informação candidata de movimento adicionalmente podem ser definidos. Além disso, um índice que indica um método para gerar adicionalmente informação candidata de movimento, que é usado para a codificação, pode ser adicionado a um conjunto de parâmetros de sequência (SPS), um conjunto de parâmetros de imagem (PPS), ou um cabeçalho de fatia e pode ser transmitido.
[000182] Ao longo desse relatório descritivo, a presente invenção será descrita em termos de um caso onde a informação do vetor de movimento, como informação de movimento é codificada. No entanto, a presente invenção não é limitada a ele. Alternativamente, a presente invenção pode ser aplicada a um caso onde a informação de movimento diferente de informação de vetor de movimento, tal como a informação de imagem de referência e direção de predição informação é codificada.
[000183] Em seguida, um método e um aparelho para a codificação de informação de movimento de uma unidade de predição, e um método e aparelho para decodificar a informação de movimento de uma unidade de predição será descrito em detalhe no que diz respeito a modalidades exemplares da invenção.
[000184] A figura 14 é um diagrama de blocos de um aparelho de codificação de informação de movimento 1400 de acordo com uma modalidade da presente invenção. Com referência à figura 14, o aparelho de codificação de informação de movimento 1400 inclui uma unidade geradora de informação candidata de movimento 1410 e um codificador de informação de movimento 1420. O aparelho de codificação de informação de movimento 1400 da figura 14 pode ser incluído no codificador de imagem 400 da figura 4. Por exemplo, o estimador de movimento 420 da figura 4 pode executar uma função da unidade geradora de informação candidata de movimento 1410 da figura 14 e o codificador de entropia 450 da figura 4 pode executar uma função do codificador de informação de movimento 1420 da figura 14. A presente invenção não está limitada a eles. Outros componentes ou um controlador (não mostrado) do codificador de imagem 400 da figura 4 podem executar uma função do aparelho de codificação de informação de movimento 1400 da figura 14. A unidade geradora de informação candidata de movimento 1410 obtém informação candidata de movimento usando informação de movimento das unidades de predição adjacentes que são temporal e espacialmente justapostas a uma unidade de predição atual. Em particular, a unidade geradora de informação candidata de movimento 1410 obtém informação candidata de movimento padrão de unidades de predição adjacentes que são espacialmente justapostas à unidade de predição atual que é previamente definida e unidades de predição que são temporalmente justapostas à unidade de predição atual que é definida previamente. Se o número de informações de movimento padrão candidata é menor do que um número predeterminado n (onde n é um número inteiro), a unidade geradora de informação candidata de movimento 1410 gera ‘n’ informações candidatas de movimento modificando ou combinando informação de movimento das unidades de predição que são espacialmente justapostas à predição de movimento e unidades de predição de informação atual de que são temporalmente justapostas à predição de atual ou adição de informação de movimento com um valor predeterminado de tal modo que o número total de informações candidatas de movimento pode ser ‘n’. Um processo de geração de informação candidata de movimento será descrito posteriormente.
[000185] O codificador de informação de movimento 1420 determina informação de movimento sobre a unidade de predição atual dentre as peças ‘n’ de informação candidata de movimento e codifica informação de índice que indica a informação de movimento determinada como informação de movimento da unidade de predição atual. Em detalhe, o codificador de informação de movimento 1420 atribui 0 a (n-1) índices de informação de movimento para as ‘n’ informações candidatas de movimento, respectivamente, e codifica um índice correspondente à informação de movimento da unidade de predição atual como informação de movimento da unidade de predição atual. Por exemplo, quando a informação de movimento corresponde a um vetor de predição de movimento e n = 2, isto é, quando o número de candidatos de vetor de movimento de predição da unidade de predição atual é fixado em 2, se dois candidatos de predição de vetor de movimento que são gerados respectivamente, com respeito a uma direção L0 e uma direção L1 pela unidade geradora de informação candidata de movimento 1410 são MVLX_Cand0 e MVLX_Cand1 (X é 0 ou 1), respectivamente, o codificador de informação de movimento 1420 define um índice de vetor de movimento de predição indicando MVLX_Cand0 para 0 e define um índice de vetor de movimento de predição indicando MVLX_Cand1 para 1 e codifica para um índice correspondendo a um vetor de movimento de predição com um custo mínimo, como informação de vetor de movimento da unidade de predição atual de acordo com o resultado de codificação da unidade de predição atual.
[000186] O codificador de informação de movimento 1420 pode codificar a informação de imagem de referência, a informação de direção de predição, e um valor de diferença entre o vetor de movimento de predição e um vetor de movimento inicial da unidade de predição atual, além da predição do índice de vetor de movimento, e pode adicionar a informação codificada a um fluxo de bits.
[000187] Quando o lado de codificação obtém um número fixo de informações candidatas de movimento sob uma regra predeterminada e transmite informação de índice que indica uma única peça de informação de movimento entre as informações candidatas de movimento, o lado de decodificação pode gerar um número fixo de informações candidatas de movimento sob a mesma regra como a do lado de codificação e pode determinar a informação de movimento da unidade de predição atual usando a informação de índice transmitida. Tal como no exemplo acima descrito, quando a informação de movimento corresponde a um vetor de predição de movimento, o lado de decodificação pode obter um índice que indica o vetor de movimento de predição e um valor de diferença entre o vetor de movimento e o vetor de movimento de predição a partir de um fluxo de bits e pode restaurar o vetor de movimento da unidade de predição atual adicionando o valor da diferença com o vetor de movimento de predição indicado pelo índice de predição de vetor de movimento. Além disso, o lado de decodificação pode gerar um valor de predição da unidade de predição atual utilizando o vetor de movimento restaurado, e a informação de imagem de referência e a informação de direção de predição (instruções L0 e L1) que são obtidas a partir de um fluxo de bits.
[000188] A figura 15 é um diagrama de blocos da unidade geradora de informação candidata de movimento 1410 da figura 14, de acordo com uma modalidade da presente invenção.
[000189] Com referência à figura 15, a unidade geradora de informação candidata de movimento 1410 inclui uma unidade geradora de informação candidata de movimento espacial 1510, unidade geradora de informação candidata de movimento temporal 1520, unidade de remoção de redundância 1530, e uma unidade geradora de informação candidata de movimento adicional 1540.
[000190] A unidade geradora de informação candidata de movimento espacial 1510 gera informação candidata de movimento usando informação de movimento das unidades de predição que são espacialmente justapostas à unidade de predição atual. Em detalhe, a unidade geradora de informação candidata de movimento espacial 1510 inclui uma unidade geradora de informação candidata de movimento superior 1511 que seqüencialmente procura unidades de predição adjacentes posicionadas acima da unidade de predição atual em uma ordem predeterminada para obter informação de movimento, e uma unidade geradora de informação candidata de movimento à esquerda 1512 que seqüencialmente busca unidades de predição adjacentes posicionadas no lado esquerdo da unidade de predição atual numa ordem predeterminada para obter informação de movimento.
[000191] A figura 16 ilustra unidades de predição adjacentes que são espacialmente justapostas de uma unidade de predição atual, de acordo com uma modalidade da presente invenção. A presente invenção não se limita ao caso mostrado na figura 16. Por exemplo, as unidades de predição adjacentes de diferentes localizações espaciais podem ser utilizadas como unidades de predição adjacentes que são espacialmente justapostas de uma unidade de predição atual utilizado para prever a informação de movimento de uma unidade de predição atual.
[000192] Com referência à figura 16, a unidade geradora de informação candidata de movimento espacial 1510 pesquisa uma unidade de predição adjacente inferior esquerda A0 1621, posicionada na parte inferior esquerda da unidade de predição atual 1610 e uma unidade de predição adjacente esquerda abaixo A1 1622, posicionada acima da unidade de predição adjacente inferior esquerda A0 1621 dentre unidades adjacentes de predição posicionado à esquerda de uma unidade de predição atual 1610 numa ordem de varredura predeterminada, e determina a informação de movimento de uma primeira unidade de predição ter disponível informação de movimento, que é pesquisada em primeiro lugar, como informação de movimento à esquerda candidata, a partir da unidade de predição adjacente inferior esquerda A0 1621 e a unidade de predição adjacente esquerda abaixo A1 1622. Além disso, a unidade geradora de informação candidata de movimento espacial 1510 procura uma predição adjacente unidade B0 1631 posicionado sobre a direita de cima da unidade de predição atual 1610, a predição adjacente unidade B1 1632 posicionada no lado esquerdo da unidade de predição adjacente B0 1631, e uma unidade de predição adjacente B2 1633 posicionada acima à esquerda da unidade de predição atual 1610, dentre unidades adjacentes de predição posicionadas acima da unidade de predição atual 1610, e determina a informação de movimento de uma unidade de predição tendo disponível informação de movimento, que é pesquisada em primeiro lugar, como informação candidata de movimento superior. Da mesma forma, a unidade geradora de informação candidata de movimento espacial 1510 não pesquisa todas as unidades de predição posicionadas ao redor da unidade de predição atual 1610 e pesquisa as unidades de predição, adjacentes, padrão, ou seja, as unidades predição adjacentes A0, A1, B0, B1, B2 e obter movimento informação, reduzindo assim a complexidade de cálculo. Como descrito acima, o número e as localizações das unidades de predição adjacentes que são pesquisados para obter informação candidata de movimento espacial podem ser alterados. No entanto, para que um lado de decodificação restaure a informação de movimento da unidade de predição atual, o número e localização das unidades adjacentes de predição, que são pesquisados para que se obtenha informação candidata de movimento espacial, em um lado de codificação, e em um lado decodificação, pode ser previamente definidos.
[000193] Como um exemplo de um processo para a determinação da informação de movimento, será descrito um processo para a determinação de um vetor de movimento de predição de vetor de movimento de uma unidade de predição atual de unidades de predição adjacentes que são espacialmente justapostas à unidade de predição atual.
[000194] Com referência às figuras 15 e 16, a unidade geradora de informação candidata de movimento à esquerda 1512 verifica seqüencialmente se os vetores de movimento da unidade de predição adjacente inferior esquerda A0 1621 e a unidade de predição adjacente esquerda abaixo A1 1622 estão disponíveis e determina um vetor de movimento de uma unidade de predição adjacente possuindo um vetor de movimento disponível como um vetor de movimento candidato esquerdo. Aqui, a disponibilidade de um vetor de movimento refere-se ao fato de uma unidade de predição adjacente ter um vetor de movimento que indica a mesma imagem de referência na mesma lista de imagens de referência de predição como uma unidade atual. Por exemplo, quando um vetor de movimento da unidade de predição atual 1610 é um vetor de movimento que indica uma imagem de referência (imagem L0R0), tendo um índice de referência R0 em uma lista L0, se unidade de predição adjacente inferior esquerda A0 1621 é uma unidade de predição na qual a predição é realizada intra, ou tem um vetor de movimento que indica uma imagem de referência incluída na lista de imagens de referência diferente da unidade de predição atual 1610, ou um vetor de movimento que indica uma imagem de referência diferente incluída na mesma imagem de referência, tal como a unidade de predição atual 1610, é determinado que a unidade de predição adjacente inferior esquerda A0 1621 não tem um vetor de movimento disponível. Se a unidade de predição adjacente esquerda abaixo A1 1622 tem um vetor de movimento que indica a mesma imagem na mesma lista de imagens de referência que a unidade de predição atual 1610, o vetor de movimento da unidade de predição adjacente esquerda abaixo A1 1622 é determinada como um vetor de movimento candidato esquerdo.
[000195] Da mesma forma, a unidade geradora de informação candidata de movimento superior 1511 verifica seqüencialmente se os vetores de movimento da unidade de predição adjacente B0 1631, adjacente à unidade de predição B1 1632, e a unidade de predição adjacente B2 1633 estão disponíveis e determina um vetor de movimento de uma unidade de predição adjacente indicando a mesma imagem de referência na mesma lista de imagens de referência que unidade de predição atual 1610 como um vetor de movimento candidato superior.
[000196] Quando as unidades de predição adjacentes com um vetor de movimento disponível não existem entre as unidades de predição adjacentes, a unidade geradora de informação candidata de movimento espacial 1510 pode escalar um vetor de movimento de uma unidade de predição adjacente indicando uma imagem de referência diferente da mesma lista de imagens de referência que a unidade de predição atual 1610 ou um vetor de movimento de uma unidade de predição adjacente indicando uma imagem de referência incluída em uma lista de imagens de referência diferente da unidade de predição atual 1610 e pode utilizar o vetor de movimento escalonado como um vetor de movimento de predição candidato da unidade de predição atual 1610.
[000197] A figura 17A é um diagrama de referência para explicar de um processo para determinar um vetor de movimento de predição espacial escalonado candidato, de acordo com uma modalidade da presente invenção.
[000198] Com referência à figura 17A, um vetor de movimento MVL0_Cur de uma unidade de predição atual 1731 indica uma imagem L0R0 1720 que é uma imagem de referência com um índice de referência R0 em uma lista L0, a unidade de predição adjacente inferior esquerda A0 1621 tem um movimento de predição no qual é realizada a predição intra, a unidade de predição adjacente esquerda abaixo A1 1622 tem um vetor de movimento mvL1_A1 indicando uma imagem L1R0 1740 que é uma imagem de referência com um índice de referência R0 em uma lista L1, a unidade de predição adjacente B0 1631 tem uma unidade de predição em que a predição intra é executada, a unidade de predição adjacente B1 1632 tem um vetor de movimento mvL1_B1 indicando uma imagem L1R1 1750 que é uma imagem de referência com um índice de referência R1 em uma lista L1, e a unidade de predição adjacente B2 1633 tem um vetor de movimento mvL0_B2 indicando uma imagem L0R1 1710 que é uma imagem de referência com um índice de referência R1 em uma lista L0. Na figura 17A, a unidade de predição dentre as unidades adjacentes de predição da unidade de predição atual 1731 não têm o mesmo vetor de movimento que indica a imagem L0R0 1720 como o vetor de movimento MVL0_Cur da unidade de predição atual 1731. Quando uma unidade de predição adjacente tendo um vetor de movimento indicando que a mesma imagem de referência que a imagem de referência indicada por um vetor de movimento da unidade de predição atual 1731 não existe entre unidades adjacentes de predição, a unidade geradora de informação candidata de movimento espacial 1510 pode escalonar um vetor de movimento de uma unidade de predição no qual predição inter é realizada, dentre unidades adjacentes de predição, baseado em uma distância temporal entre uma imagem de referência indicada por um vetor de movimento de uma unidade de predição em que predição inter é realizada e uma imagem de referência indicada por um vetor de movimento de uma unidade de predição atual e pode adicionar o vetor de movimento escalonado para um vetor de movimento candidato. Isto é, a unidade geradora de informação candidata de movimento espacial 1510 pode adicionar um vetor de movimento de uma unidade de predição adjacente indicando uma imagem de referência com um índice de referência diferente na mesma lista de imagens de referência, a unidade de predição atual 1731, dentre os vetores de movimento de uma unidade de predição adjacente para um vetor de movimento candidato. Além disso, quando um vetor de movimento de uma unidade de predição adjacente indicando que não existe uma imagem de referência com um índice de referência diferente na mesma lista de imagens de referência que a unidade de predição atual 1731 entre os vetores de movimento de uma unidade de predição adjacentes, a unidade geradora de informação candidata de movimento espacial 1510 pode adicionar um vetor de movimento de uma unidade de predição adjacente indicando uma imagem de referência na imagem de uma lista de referência diferente da unidade de predição atual 1731 para o vetor de movimento candidato.
[000199] Por exemplo, a unidade geradora de informação candidata de movimento espacial 1510 pode escalonar o vetor de movimento mvL1_A1 da unidade de predição adjacente esquerda abaixo A1 1622, exceto para a unidade de predição adjacente inferior esquerda A0 1621 em que a predição intra é realizada, considerando-se a distância temporal entre uma imagem atual 1730 e a imagem L0R0 1720 indicada pelo vetor de movimento MVL0_Cur da unidade de predição atual 1731 e uma distância temporal entre a imagem atual e a imagem de 1730 L1R0 1740 indicada pelo vetor de movimento mvL1_A1 da unidade de predição adjacente esquerda abaixo A1 1622 e pode determinar o vetor de movimento escalonado mvL1_A1’, como um vetor de movimento esquerdo candidato.
[000200] Além disso, a unidade geradora de informação candidata de movimento espacial 1510 pode escalonar o vetor de movimento mvL0_B2 da unidade de predição adjacente B2 1633 indicando a imagem L0R1 1710 que é uma imagem de referência tendo um índice de referência diferente na mesma imagem de referência que o vetor de movimento MVL0_Cur da unidade de predição atual 1731, em vez do vetor de movimento mvL1_B1 da unidade de predição adjacente B1 1632 indicando a imagem L1R1 1750 que é uma imagem de referência em uma lista de imagens de referência diferente da unidade de predição atual 1731 e determina o vetor de movimento escalonado mvL0_B2’como um vetor de movimento superior candidata. Isto é, quando a unidade geradora de informação candidata de movimento espacial 1510 determina um vetor de movimento de uma unidade de predição adjacente, o qual é sujeito a escalonamento, a unidade geradora de informação candidata de movimento espacial 1510 pode determinar a geração de um vetor de movimento de uma unidade de predição adjacente indicando uma imagem de referência incluída na mesma lista de imagens de referência, como um vetor de movimento de uma unidade de predição atual. Então, quando não existe um vetor de movimento de uma unidade de predição adjacente indicando uma imagem de referência incluída na mesma lista de imagens de referência que a unidade de predição atual, a unidade geradora de informação candidata de movimento espacial 1510 pode determinar a geração de um vetor de movimento de uma unidade de predição adjacente indicando uma imagem de referência incluída em uma lista de imagens de referência diferente da unidade de predição atual como um vetor de movimento que está sujeito ao escalonamento. A unidade geradora de informação candidata de movimento espacial 1510 pode escalonar o vetor de movimento mvL0_B2 da unidade de predição adjacente B2 em consideração de uma distância temporal entre a imagem atual 1730 e a imagem de L0R0 1720 indicada pelo vetor de movimento MVL0_Cur da unidade de predição atual 1731 e uma distância temporal entre a imagem atual 1730 e a imagem L0R1 1710 indicada pelo vetor de movimento mvL0_B2 da unidade de predição adjacente B2 1633 e poderá determinar o vetor de movimento escalado mvL0_B2’, como um vetor de movimento superior candidato.
[000201] A figura 18 é um diagrama de referência para explicar um método de geração de uma de vetor de movimento de predição candidato de uma unidade de predição atual mediante escalonamento de um vetor de movimento de uma unidade de predição adjacente, de acordo com uma modalidade da presente invenção.
[000202] Como descrito acima, quando o mesmo vetor de movimento que uma unidade de predição atual, isto é, um vetor de movimento indicando que não existe uma imagem de referência em que o mesmo índice de referência incluído na mesma lista de imagens de referência que a unidade de predição atual entre unidades de predição adjacentes da unidade de predição atual, um vetor de movimento MV(Bn) de uma unidade de predição adjacente (uma unidade de predição Bn da figura 18) referindo- se a uma imagem de referência diferente na mesma lista de imagens de referência, a unidade de predição atual ou um vetor de movimento MV(An) de uma unidade de predição adjacente (uma unidade de predição An da figura 18) referindo-se a uma imagem de referência incluída na imagem de uma lista de referência diferente da unidade de predição atual pode ser escalonado, e o vetor de movimento escalonado pode ser adicionado a vetor de movimento de predição candidato da unidade de predição da atual. Em detalhe, quando uma distância temporal d(cur) entre uma imagem atual e uma imagem de referência (uma imagem L0R0) indicada pelo vetor de movimento MVL0_Cur de uma unidade de predição atual é d(cur) e uma distância temporal entre a imagem atual e uma imagem de referência (a imagem L0R1) indicada pelo vetor de movimento MV(Bn) de uma unidade de predição Bn é d(Bn), o vetor de movimento MV(Bn) da unidade de predição Bn pode ser escalonado de acordo com a equação, MV(Bn)’=MV(Bn)*{d (cur)/d(Bn)}, e o vetor de movimento escalonado MV (Bn)’pode ser adicionado a um vetor de movimento de predição candidato da unidade de predição atual. Do mesmo modo, quando uma distância temporal entre uma imagem atual e uma imagem de referência (a imagem L1R1) indicada por um vetor de movimento MV(An) de uma unidade de predição é um d(A), o vetor de movimento MV(A) da unidade de predição An pode ser escalonado de acordo com a equação, MV(An)’=MV(An)*{d(cur)/d(An)}, e o vetor de movimento escalonado MV(An)’pode ser adicionado a um vetor de movimento de predição candidato da unidade de predição atual.
[000203] Se o vetor de movimento escalonado está incluído em um de vetor de movimento espacial candidato, pode ser determinado considerando-se a condição predeterminada. Por exemplo, a unidade geradora de informação candidata de movimento espacial 1510 pode escalonar um vetor de movimento de uma unidade de predição em que predição inter é realizada, unidades de predição inter adjacentes B0, B1, e B2 e pode adicionar o vetor de movimento escalonado a um vetor de movimento superior candidato apenas quando predição intra é realizada em uma das unidades de predição adjacentes A0 e A1 adjacente à esquerda da unidade de predição atual. Em outras palavras, se o vetor de movimento escalonado é adicionado a um vetor de movimento de predição espacial candidato pode ser realizado seletivamente de acordo com se uma condição predeterminada é satisfeita. A condição predeterminada pode ser concebida de várias formas e não se limita ao exemplo acima descrito.
[000204] No exemplo acima descrito, quando a unidade geradora de informação candidata de movimento espacial 1510 pesquisa as unidades de predição superior e unidades de predição restantes que são espacialmente justapostas a uma unidade de predição atual, a unidade geradora de informação candidata de movimento espacial 1510 pesquisa unidades de predição adjacentes esquerdas, na ordem de A0->A1 ou procura as unidades de predição adjacentes superiores, na ordem de B0->B1->B2. No entanto, a presente invenção não está limitada à ordem de varredura. Alternativamente, a unidade geradora de informação candidata de movimento espacial 1510 pode determinar a geração de unidades de predição adjacentes, na ordem, por exemplo, A1>B1->B0->A0>B2 sem uma base, tal como um lado superior ou esquerdo e pode determinar se a informação de movimento de cada unidade de predição adjacente é usada como informação de movimento da unidade de predição atual.
[000205] Além disso, quando a unidade geradora de informação candidata de movimento espacial 1510 gera informação candidata de movimento espacial, a unidade geradora de informação candidata de movimento espacial 1510 pode verificar se a informação de movimento de todas as unidades de predição posicionadas acima da unidade de predição atual e do lado esquerdo da unidade de predição atual, por exemplo, de todas as unidades de predição adjacentes A0, A1, B0, B1, e B2 está disponível sem qualquer ordem de varredura, em vez de pesquisar as unidades de predição adjacentes em uma ordem de varredura predeterminada e, em seguida, pode adicionar todas as informações de movimento disponíveis a partir da informação de movimento das unidades de predição adjacentes A0, A1, B0, B1, e B2 para a informação candidata de movimento espacial.
[000206] Com referência novamente à figura 15, a unidade geradora de informação candidata de movimento temporal 1520 gera informação candidata de movimento temporal, por meio de informação de movimento de uma unidade de movimento, que é temporalmente justaposta a uma unidade de predição atual, isto é, informação de movimento de uma unidade de movimento, que é justaposta com base em uma localização da unidade de predição atual dentre as unidades de predição de uma imagem anterior, que é previamente codificada.
[000207] A figura 19 é um diagrama de referência para explicar um processo de geração de informação candidata de movimento temporal, de acordo com uma modalidade da presente invenção.
[000208] Com referência às figuras 15 e 19, a unidade geradora de informação candidata de movimento temporal 1520 pode gerar informação candidata de movimento temporal, usando informação de movimento de uma unidade de predição de 1924 posicionada abaixo, à direita de uma unidade de predição 1921 da imagem de referência 1920 que tem a mesma localização que uma unidade de predição atual 1911 entre as unidades de predição de uma imagem de referência 1920 que é previamente codificada para uma imagem atual 1910. Por exemplo, quando a informação de movimento é um vetor de predição de movimento, a unidade geradora de informação candidata de movimento temporal 1520 pode gerar um vetor de movimento temporal candidato, mediante escalonamento de um vetor de movimento da unidade de predição 1924. O escalonamento do vetor de movimento de predição temporal pode ser realizado com base numa distância temporal entre uma imagem L0R0 1920 e uma imagem de referência L1R0 1930 e uma distância temporal entre a imagem atual 1910 e a imagem de referência L1R0 1930, como descrito com referência à figura 18.
[000209] Se a unidade de predição 1924, posicionada abaixo, à direita da unidade de predição 1921 é predita intra de tal modo que um vetor de movimento da unidade de predição 1924 não esteja disponível, a unidade geradora de informação candidata de movimento temporal 1520 pode escalonar um vetor de movimento de unidade de predição 1921, o qual contém um ponto C’ 1922 da imagem de referência 1920 como a mesma localização que o ponto C 1912 de um ponto central da unidade de predição atual 1911 e pode gerar o vetor de predição de movimento temporal. Isto é, a unidade geradora de informação candidata de movimento temporal 1520 pode primeiro verificar se está disponível a informação de movimento de uma unidade de predição posicionada abaixo, à direita de uma unidade de predição tendo a mesma localização que a unidade de predição atual a partir das unidades de predição de uma imagem anterior, pode seqüencialmente determinar se está disponível a informação de movimento de uma unidade de predição, contendo um ponto que tenha o mesmo local como um ponto central da unidade de predição atual e, em seguida, pode adicionar informação de movimento disponível de uma unidade de predição à informação candidata de movimento temporal. O número e as localizações das unidades de predição de uma imagem anterior que é pesquisada para gerar a informação candidata de movimento temporal, não podem ser limitados a este caso mostrado na figura 19 e podem ser alterados de vários modos. Além disso, quando a unidade geradora de informação candidata de movimento temporal 1520 gera informação candidata de movimento temporal, a unidade geradora de informação candidata de movimento temporal 1520 não pode verificar se a informação de movimento das unidades de predição de uma imagem anterior está disponível em uma ordem predeterminada, pode verificar tanto se informação de movimento de uma unidade de predição posicionado abaixo, à direita de uma unidade de predição tem a mesma localização que a unidade de predição atual está disponível e se a informação de movimento de uma unidade de predição, contendo um ponto que tenha a mesma localização que um ponto central da unidade de predição atual está disponível e, em seguida, pode adicionar todas as peças da informação de movimento, disponíveis da unidade de predição da imagem anterior à informação candidata de movimento temporal.
[000210] Com referência novamente à figura 15, a unidade de remoção de redundância 1530 pode determinar se a informação candidata de movimento espacial e a informação candidata de movimento temporal são idênticas umas as outras e pode remover a informação de movimento redundante da informação candidata de movimento. A unidade de remoção de redundância 1530 pode ser omitida, a fim de reduzir a complexidade de cálculo. Ou seja, um processo de verificação de redundância pode ser ignorado.
[000211] O número de informações candidatas de movimento, geradas pela unidade geradora de informação candidata de movimento espacial 1510 e pela unidade geradora de informação candidata de movimento temporal 1520 pode ser menor do que um número predeterminado ‘n’. No exemplo acima descrito, quando a predição intra é realizada em todas as unidades de predição adjacentes posicionadas acima da unidade de predição atual ou no lado esquerdo da unidade de predição atual ou quando a predição intra é realizada em unidades de predição posicionadas num local predeterminado de imagens anteriores procuradas pela unidade geradora de informação candidata de movimento temporal 1520, o número de peças da informação candidata de movimento, gerados, pode ser menor do que ‘n’.
[000212] Quando o número de informações candidatas de movimento, geradas pela unidade geradora de informação candidata de movimento espacial 1510 e pela unidade geradora de informação candidata de movimento temporal 1520 é menor do que um predeterminado número ‘n’, a unidade geradora de informação candidata de movimento adicional 1540 pode gerar informação candidata de movimento adicional por meio de informação de movimento das unidades de predição espacial e informação de movimento disponível de unidades de predição temporal de tal modo que o número total de informações candidatas de movimento pode ser ‘n’.
[000213] Em seguida serão descritos vários métodos de geração de informação candidata de movimento adicional através da unidade geradora de informação candidata de movimento adicional 1540.
[000214] Quando a unidade geradora de informação candidata de movimento espacial 1510 verifica seqüencialmente se as unidades de predição adjacentes de uma unidade de predição atual estão disponíveis, a unidade geradora de informação candidata de movimento adicional 1540 pode gerar informação candidata de movimento adicional usando informação de movimento de uma unidade de predição de que é verificada após uma unidade de predição adjacente disponível que é primeiramente verificada.
[000215] A figura 17B é um diagrama de referência para explicar um processo para a geração de informação candidata de movimento adicional por meio de uma unidade de predição que é espacialmente justaposta a uma unidade de predição atual, de acordo com uma modalidade da presente invenção.
[000216] Com referência à figura 17B, a unidade geradora de informação candidata de movimento adicional 1540 pode gerar informação de movimento de uma unidade de predição das unidades de predição adjacentes A0, A1, B0, B1 e B2, que têm informação de movimento disponível, mas não estão incluídas na informação candidata de movimento porque são verificadas depois de outra unidade de predição que é previamente varrida em uma ordem de varredura, como informação candidata de movimento adicional.
[000217] Por exemplo, supõe-se que a informação candidata de movimento à esquerda gerada pela unidade geradora de informação candidata de movimento espacial 1510 seja, a informação candidata de movimento superior ‘Esquerda’ gerada pela unidade geradora de informação candidata de movimento espacial 1510 esteja “Acima”, e informação candidata de movimento temporal gerada pela unidade geradora de informação candidata de movimento temporal 1520 seja “Temporal”. A unidade geradora de informação candidata de movimento adicional 1540 determina se a informação candidata de movimento (isto é, Esquerda, Acima, e Temporal) está disponível, isto é, se existe a informação candidata de movimento e determina que o número de informações candidatas de movimento é um número predeterminado 3 (o que corresponde a n=3). Além disso, quando o número de informações candidatas de movimento é inferior a um número predeterminado, a unidade geradora de informação candidata de movimento adicional 1540 pode gerar informação candidata de movimento adicional utilizando a informação de movimento de uma unidade de predição, que é verificada após uma unidade de predição adjacente disponível que é previamente verificada.
[000218] Como descrito acima, quando a unidade geradora de informação candidata de movimento espacial 1510 gera informação candidata de movimento espacial, a unidade geradora de informação candidata de movimento espacial 1510 verifica se a informação de movimento de todas as unidades de predição posicionadas acima da unidade de predição atual e do lado esquerdo da predição atual unitária, por exemplo, de todas as unidades de predição adjacentes A0, A1, B0, B1, e B2 está disponível sem qualquer ordem de varredura e, em seguida, pode adicionar todas as informações de movimento disponíveis a partir da informação de movimento das unidades de predição adjacentes a A0, A1, B0, B1, e B2 à informação candidata de movimento espacial. Neste caso, quando o número de informações candidatas de movimento for menor do que um número predeterminado, por exemplo, 5, a unidade geradora de informação candidata de movimento adicional 1540 pode gerar informação candidata de movimento adicional, usando a informação de movimento da unidade de predição disponível.
[000219] Supõe-se que a informação candidata de movimento à esquerda não exista e informação de movimento das unidades de predição adjacentes B0, B1, e B2 estejam disponíveis. Como mostrado na figura 17B, informação de movimento da unidade de predição adjacente B0 que é previamente verificada em uma ordem de varredura é selecionada como informação candidata de movimento superior e informação de movimento das unidades de predição adjacentes B1 e B2 não é incluída na informação de movimento padrão. Quando o número total de informações candidatas de movimento é menor do que um número predeterminado como as unidades de predição adjacentes A0 e A1 não tem informação de movimento disponível, a unidade geradora de informação candidata de movimento adicional 1540 pode adicionar informação de movimento do lado unidade de predição B1 ou B2 à informação candidata de movimento adicional.
[000220] Da mesma forma, quando a informação candidata de movimento superior não existe e informação de movimento de unidades de predição adjacentes esquerdas A0 e A1 está disponível, a informação de movimento da unidade de predição adjacente A0 que está previamente marcada é selecionada como informação de movimento à esquerda e informação de movimento da predição adjacente unidade A1 que é verificada após a predição adjacente unidade A1 não está incluído na informação de movimento padrão. No entanto, quando o número de informações candidatas de movimento for menor do que um número predeterminado uma vez que as unidades de predição adjacentes B0, B1, B2 e não tem informação de movimento disponível, a informação de movimento da unidade de predição adjacente A1 pode ser incluída em informação candidata de movimento adicional.
[000221] De acordo com outra modalidade da presente invenção, quando a unidade geradora de informação candidata de movimento temporal 1520 verifica seqüencialmente se unidades de predição de uma imagem anterior que é temporalmente justaposta a uma unidade de predição atual estão disponíveis, a unidade geradora de informação candidata de movimento adicional 1540 pode escalonar a informação de movimento de uma unidade de predição de uma imagem anterior tendo informação de movimento entre as unidades de predição da imagem anterior restante com exceção de uma primeira imagem anterior tendo informação de movimento disponível e pode adicionar a informação de movimento escalonado para informação candidata de movimento adicional.
[000222] Com referência novamente à figura 19, a unidade geradora de informação candidata de movimento temporal 1520 verifica se informação de movimento da unidade de predição 1924 posicionada no canto inferior direito da unidade de predição 1921 da imagem de referência 1920 tendo uma localização correspondente à unidade de predição atual 1911 está disponível entre as unidades de predição da imagem de referência 1920, que é previamente codificada para imagem atual 1910 e, em seguida, determina se a informação de movimento da unidade de predição de 1921, que contém um ponto C’ 1922 da imagem de referência 1920 como a mesma localização que o ponto C 1912 de um ponto central da unidade de predição atual 1911, está disponível. Se a unidade de predição de 1924 posicionada no canto inferior direito da unidade de predição 1921 tem informação de movimento disponível, a informação de movimento da unidade de predição 1924 posicionada no canto inferior direito da unidade de predição 1921 é incluída na informação candidata de movimento padrão e a informação de movimento da unidade de predição 1921, que contém o ponto C’ 1922 da imagem de referência 1920, como a mesma localização que o ponto C 1912, não é incluída na informação candidata de movimento padrão. Quando o número total de informações candidatas de movimento for menor do que um número predeterminado, a unidade geradora de informação candidata de movimento adicional 1540 pode gerar adicionar informação de movimento da unidade de predição de 1921, que contém o ponto C’1922 da imagem de referência 1920 como a mesma localização como o ponto C 1912 para informação candidata de movimento adicional. Ou seja, a unidade geradora de informação candidata de movimento adicional 1540 pode adicionar informação de movimento de uma unidade de predição que não esteja incluída na informação candidata de movimento padrão entre as unidades de predição de uma imagem anterior à informação candidata de movimento adicional.
[000223] De acordo com outra modalidade da presente invenção, a unidade geradora de informação candidata de movimento adicional 1540 pode gerar adicionalmente informação de movimento tendo um valor predeterminado, para informação candidata de movimento adicional. Por exemplo, quando a informação de movimento é um vetor de movimento de predição, se o número de informações candidatas de movimento é inferior a um número predeterminado, a unidade geradora de informação candidata de movimento adicional 1540 pode adicionar um vetor de movimento tendo um valor componente predeterminado, como (0,0), (0,1), ou (1,0) a um vetor de movimento candidato.
[000224] De acordo com outra modalidade da presente invenção, quando a informação de movimento disponível de unidades de predição espacial e unidades de predição temporal contém informação de vetor de movimento bidirecional de predição das direções L0 e L1, a unidade geradora de informação candidata de movimento adicional 1540 pode adicionar ou subtrair um deslocamento predeterminado a, e a partir de, um vetor de movimento de predição da direção L0 e um vetor de movimento da predição da direção L1 para gerar informação candidata de movimento adicional.
[000225] As figuras 20A e 20B são diagramas para explicar um processo de gerar informação candidata de movimento adicional por meio de informação de movimento de unidades de predição disponíveis, de acordo com outra modalidade da presente invenção. As figuras 21A e 21B são diagramas para descrever uma relação posicional entre uma imagem atual e uma imagem de referência quando é gerada a informação candidata de movimento adicional das figuras 20A e 20B, de acordo com uma modalidade da presente invenção.
[000226] Com referência às figuras 20A e 21A, quando a unidade de predição adjacente B1 a partir das unidades de predição posicionadas acima de uma unidade de predição atual tem um vetor de movimento mvL0_B1 que indica uma imagem L0R0 2110 que é uma imagem de referência da predição da direção L0 e um vetor de movimento mvL1_B1 indicando um imagem L1R0 2120, que é uma imagem de referência da predição da direção de L1, e uma imagem atual 2100 é posicionada entre a imagem L0R0 2110 e a imagem de L1R0 2120, a unidade geradora de informação candidata de movimento adicional 1540 pode adicionar deslocamentos predeterminados tendo o mesmo valor absoluto e diferentes indicações para o vetor de movimento mvL0_B1 da predição da direção L0 e o vetor de movimento mvL1_B1 da predição da direção L1 para gerar um novo vetor de movimento e pode adicionar o novo vetor de movimento à informação candidata de movimento adicional. Ou seja, como mostrado na figura 20A, a unidade geradora de informação candidata de movimento adicional 1540 pode acrescentar um deslocamento predeterminado mv_offset ao vetor de movimento mvL0_B1 da predição da direção L0 de tal modo que um vetor de movimento gerado mvL0’ pode ser incluído num vetor de movimento adicional candidato da predição da direção L0 e pode subtrair o deslocamento mv_offset do vetor de movimento mvL1_B1 da predição da direção L1 tal que o vetor de movimento gerado mvL1’ pode ser incluído no vetor de movimento candidato adicional da predição da direção L1.
[000227] Quando um vetor de movimento de List0MV da direção L0, o qual está incluído na informação de movimento bidirecional obtida a partir de uma unidade de predição adjacente disponível, tem um valor (mx0, my0) e um vetor de movimento de List1MV da direção L1 tem um valor (mx1, my1), se uma imagem atual é posicionada entre uma imagem de referência da predição da direção L1 e uma imagem de referência da predição da direção L0, a unidade geradora de informação candidata de movimento adicional 1540 pode somar ou subtrair um deslocamento predeterminado a, e a partir de, um vetor de movimento da predição da direção L0 e um vetor de movimento da predição da direção L1 para gerar informação candidata de movimento adicional como se segue. List0MV=(mx0+offset, my0), List1MV=(mx0-offset, my0); List0MV=(mx0-offset, my0), List1MV=(mx0+offset, my0); List0MV=(mx0, my0+offset), List1MV=(mx0, my0-offset); List0MV=(mx0, my0-offset), List1MV=(mx0, my0+offset); List0MV=(mx0+offset, my0+offset), List1MV=(mx0- offset, my0-offset); List0MV=(mx0+offset, my0-offset), List1MV=(mx0- offset, my0+offset); List0MV=(mx0-offset, my0+offset), List1MV=(mx0+offset, my0-offset); e List0MV=(mx0-offset, my0-offset), List1MV=(mx0+offset, my0+offset).
[000228] Com referência às figuras 20B e 21B, quando a unidade de predição adjacente B1 dentre unidades de predição posicionadas acima de uma unidade de predição atual tem um vetor de movimento mvL1R0_B1 indicando uma imagem L1R0 2140 que é uma imagem de referência da direção L0 e um vetor de movimento mvL1R1_B1 indicando uma imagem L1R1 2150 que é uma imagem de referência da direção L1, se a imagem L1R0 2140 e a imagem L1R1 2150 estão posicionadas nos mesmos locais no que diz respeito a uma imagem atual 2130, a unidade geradora de informação candidata de movimento adicional 1540 pode adicionar ou subtrair um deslocamento predeterminado a, e a partir de, um vetor de movimento mvL1R0_B1 da predição da direção L0 e um vetor de movimento mvL1R1_B1 da predição da direção L1 para gerar um novo vetor de movimento e pode adicionar o novo vetor de movimento gerado à informação candidata de movimento adicional. Ou seja, como mostrado na figura 20B, a unidade geradora de informação candidata de movimento adicional 1540 pode acrescentar um vetor de movimento mvL0’ gerado pela adição de um deslocamento mv_offset ao vetor de movimento mvL1R0_B1 da predição da direção L0 de um vetor de movimento adicional candidato da predição da direção L0 e pode adicionar o vetor de movimento mvL1’ gerado pela adição do deslocamento mv_offset ao vetor de movimento mvL1R1_B1 da predição da direção L1 de um vetor de movimento candidato adicional da direção L1.
[000229] Quando um vetor de movimento List0MV da direção L0, que é obtido a partir de uma unidade de predição adjacente disponível, tem um valor (mx0, my0), um vetor de movimento List1MV da direção L1 tem um valor (mx1, my1), e uma imagem de referência da direção L1 e uma imagem de referência da direção L0 estão posicionadas em posições correspondentes em relação a uma imagem atual, a unidade geradora de informação candidata de movimento adicional 1540 pode somar ou subtrair um deslocamento predeterminado a, e a partir de, um vetor de movimento da predição da direção L0 e um vetor de movimento da predição da direção L1 para gerar informação candidata de movimento adicional como se segue. List0MV=(mx0+offset, my0), List1MV=(mx0+offset, my0); List0MV=(mx0-offset, my0), List1MV=(mx0-offset, my0); List0MV=(mx0, my0+offset), List1MV=(mx0, my0+offset); List0MV=(mx0, my0-offset), List1MV=(mx0, my0-offset); List0MV=(mx0+offset, my0+offset), List1MV=(mx0+offset, my0+offset); List0MV=(mx0+offset, my0-offset), List1MV=(mx0+offset, my0-offset); List0MV=(mx0-offset, my0+offset), List1MV=(mx0- offset, my0+offset); e List0MV=(mx0-offset, my0-offset), List1MV=(mx0- offset, my0-offset).
[000230] De acordo com outra modalidade da presente invenção, a unidade geradora de informação candidata de movimento adicional 1540 pode alterar a informação de movimento disponível de unidades de predição espacial e unidades de predição temporal para gerar informação candidata de movimento adicional. Quando a informação de movimento disponível de unidades espaciais de predição e unidades de predição temporal inclui informação de vetor de movimento bidirecional das direções L0 e L1, a unidade geradora de informação candidata de movimento adicional 1540 pode adicionar informação unidirecional, que é gerada através da divisão da predição das direções, L0 e L1, para informação candidata de movimento adicional. Por exemplo, presume-se que a informação de movimento bidirecional disponível obtida a partir de unidades de predição espacial e de unidades de predição temporal inclua informação de movimento da direção L0, a qual inclui um vetor de movimento List0MV da direção L0 e um índice de imagem de referência List0REF, indicando uma imagem de referência da direção L0, e informação de movimento da direção L1, a qual inclui um vetor de movimento List1MV da direção L1 e um índice de imagem de referência List1REF, indicando uma imagem de referência da direção L1. A unidade geradora de informação candidata de movimento adicional 1540 pode dividir a informação bidirecional de movimento para gerar duas informações de movimento unidirecional e adicionar as duas informações de movimento unidirecional de informação candidata de movimento adicional. Ou seja, unidade geradora de informação candidata de movimento adicional 1540 pode dividir a informação de movimento bidirecional em informação de movimento unidirecional da direção L0 incluindo {um vetor de movimento List0MV da direção L0 e um índice de imagem de referência List0REF que indica uma imagem de referência da direção L0} e informação de movimento unidirecional da direção L1 incluindo {um vetor de movimento List1MV da direção L1 e um índice de imagem de referência List1REF que indica uma imagem de referência da direção L1} e pode adicionar a informação de movimento unidirecional à informação candidata de movimento adicional.
[000231] Além disso, quando informação de movimento disponível de unidades de predição espacial e de unidades de predição temporal inclui informação de movimento unidirecional de informação de movimento da direção L0 e informação de movimento da direção L0, a unidade geradora de informação candidata de movimento adicional 1540 pode adicionar informação de movimento bidirecional gerada pela combinação da informação de movimento unidirecional das direções L0 e L1 à informação candidata de movimento adicional. Por exemplo, quando informação de movimento unidirecional da direção L0, que inclui {um vetor de movimento List0MV da direção L0 e um índice de imagem de referência List0REF que indica uma imagem de referência da direção L0}, e informação de movimento unidirecional da direção L1, que inclui {um vetor de movimento List1MV da direção L1 e um índice de imagem de referência List1REF que indica uma imagem de referência da direção L1} existem como unidades de predição obtidas de informação de movimento que são justapostas espacial e temporalmente a uma unidade de predição atual, e a informação de movimento unidirecional da direção L0 e a informação de movimento unidirecional da direção L1 são combinadas para gerar a informação de movimento bidirecional e a informação de movimento bidirecional gerada pode ser adicionada à informação de movimento candidata adicional.
[000232] Além disso, a unidade geradora de informação candidata de movimento adicional 1540 pode acrescentar um vetor de movimento tendo um valor predeterminado e um índice de referência a qualquer uma da informação de movimento unidirecional da direção L0 e da informação de movimento unidirecional da direção L1 para gerar informação de movimento unidirecional de diferentes direções de tal como a informação de movimento bidirecional obtida para informação candidata de movimento adicional. Por exemplo, quando apenas a informação de movimento unidirecional da direção L0, que inclui {um vetor de movimento List0MV da direção L0 e um índice de imagem de referência List0REF que indica uma imagem de referência da direção L0}, existe como informação de movimento obtida a partir de unidades de predição que estão espacial e temporalmente justapostas a uma unidade de predição atual, a unidade geradora de informação candidata de movimento adicional 1540 pode definir um vetor de movimento tendo um valor predeterminado, tal como (0,0), como um vetor de movimento da direção List1MV L1 e pode definir um índice de imagem referência List1REF indicando uma imagem de referência da direção L1 como um valor predeterminado 0 para gerar informação de movimento da direção L1, e pode combinar a informação de movimento gerada da direção L1 e a informação de movimento existente da direção L0 tal que informação de movimento bidirecional gerada é incluída na informação candidata de movimento adicional.
[000233] A unidade geradora de informação candidata de movimento adicional 1540 pode gerar apenas a informação do vetor de movimento entre informação de movimento de uma unidade de predição disponível usando uma unidade de predição disponível e pode separadamente definir a informação de direção de referência restante (direção de predição) ou um índice de imagem de referência. Neste caso, quando unidade geradora de informação candidata de movimento adicional 1540 gera informação candidata de movimento adicional utilizando a informação de movimento de uma unidade de predição disponível, a unidade geradora de informação candidata de movimento adicional 1540 pode gerar a informação de direção de referência de acordo com um tipo de fatia de uma unidade de predição atual. Por exemplo, quando uma unidade de predição atual é incluída em uma fatia P, uma direção de referência constante da informação candidata de movimento adicional é definida como a direção L0. Quando uma unidade de predição atual está incluída numa fatia B, uma direção de referência pode ser configurada como bidirecional, incluindo a predição das direções L0 e L1. Além disso, a unidade geradora de informação candidata de movimento adicional 1540 pode definir um índice de imagem de referência dentro de uma faixa entre (0 ~ o índice de imagem de referência da unidade de predição disponível) e pode adicionar uma pluralidade de índices de imagens de referência à informação candidata de movimento adicional.
[000234] Quando a unidade geradora de informação candidata de movimento adicional 1540 gera o índice de imagem de referência, a unidade geradora de informação candidata de movimento adicional 1540 pode utilizar um índice de imagem de referência que indica uma imagem de referência com a maior frequência entre imagens de referência incluídas na informação de movimento das unidades de predição espacial, disponíveis e unidades de predição temporal ou pode utilizar um índice de imagem de referência, indicando uma imagem de referência, que é referida pelas unidades de predição mais adjacentes de uma unidade de predição atual, em vez de definir um índice de imagem de referência tendo um valor predeterminado, tal como descrito acima.
[000235] Além disso, quando o número de informações candidatas de movimento padrão gerados pela unidade geradora de informação candidata de movimento espacial 1510 e pela unidade geradora de informação candidata de movimento temporal 1520 é menor do que um número predeterminado ‘n’, a unidade geradora de informação candidata de movimento adicional 1540 pode omitir um processo para verificar se a informação candidata de movimento adicional incluída na informação candidata de movimento é repetida de modo que o número total de informações candidatas de movimento pode ser ‘n’. Ou seja, a unidade geradora de informação candidata de movimento adicional 1540 pode adicionar informação candidata de movimento adicional gerada pela mudança de informação de movimento padrão para informação candidata de movimento, embora a informação candidata de movimento adicional seja a mesma informação de movimento padrão.
[000236] A figura 22 é um fluxograma de um método de codificação de um vetor de movimento, de acordo com uma modalidade da presente invenção.
[000237] Com referência à figura 22, na operação 2310, o estimador de movimento 420 realiza a predição de movimento de uma unidade de predição atual para obter informação sobre o movimento da unidade de predição atual.
[000238] Na operação 2320, a unidade geradora de informação candidata de movimento 1410 determina se a informação de movimento de unidades de predição espacial que são justapostas espacialmente a uma unidade de predição atual e informação de movimento das unidades de predição temporal que são justapostas temporalmente à unidade de predição atual estão disponíveis. Como descrito acima, a unidade geradora de informação candidata de movimento 1410 verifica se a informação de movimento de unidades de predição adjacentes A0 e A1 posicionadas à esquerda da unidade de predição de movimento atual e informação de unidades adjacentes de predição B0, B1, e B2 posicionadas acima da unidade de predição atual estão disponíveis e pode adicionar informação de movimento de uma unidade de predição adjacente disponível à informação candidata de movimento padrão. Além disso, a unidade geradora de informação candidata de movimento 1410 verifica se informação de movimento das unidades de predição de um local predeterminado entre unidades de predição de uma imagem anterior está disponível e pode adicionar a informação de movimento da imagem anterior à informação candidata de movimento padrão.
[000239] Na operação 2330, quando o número de informações de movimento de unidades de predição espacial e de unidades de predição temporal é menor do que um número predeterminado ‘n’, a unidade geradora de informação candidata de movimento 1410 pode gerar informação candidata de movimento adicional usando informação de movimento de unidades de predição espacial e de unidades de predição temporal, disponíveis, de tal modo que o número total de informações candidatas de movimento pode ser ‘n’.
[000240] Na operação 2340, o codificador de informação de movimento 1420 codifica a informação de movimento da unidade de predição atual usando n informações de movimento. Em detalhe, o codificador de informação de movimento 1420 determina informação de movimento mais semelhante à informação de movimento de uma unidade de predição atual da unidade de informação candidata de movimento gerada e transmite informação de índice que indica a informação de movimento determinada. Por exemplo, quando a informação de movimento é um vetor de movimento, a unidade geradora de informação candidata 1410 gera vetores de movimento de predição candidatos da unidade de predição atual e o codificador de informação de movimento 1420 pode codificar a informação sobre um valor de índice que indica um vetor de predição de movimento mais semelhante ao vetor de movimento da unidade de predição dentre vetores de movimento de predição candidatos e informação sobre um valor de diferença entre o vetor de movimento da unidade de predição atual e o vetor de movimento de predição.
[000241] A figura 23 é um diagrama de blocos de um aparelho de decodificação de vetor de movimento 2400 de acordo com uma modalidade da presente invenção.
[000242] Com referência à figura 23, o aparelho de decodificação de vetor de movimento 2400 inclui um decodificador de entropia 2410, um decodificador de informação de movimento 2420, e uma unidade geradora de informação candidata de movimento 2430.
[000243] O decodificador de entropia 2410 extrai informação de movimento utilizada numa unidade de predição atual, dentre informação candidata de movimento a partir de um fluxo de bits. Por exemplo, quando a informação de movimento é um vetor de movimento, o decodificador de entropia 2410 extrai um índice que indica informação de movimento sobre um índice de vetor de movimento de predição, um valor de diferença entre o vetor de movimento de predição e um vetor de movimento original, informação de imagem de referência, e informação de direção de predição.
[000244] Como a unidade geradora de informação candidata de movimento 1410 mostrada na figura 14A, a unidade geradora de informação candidata de movimento 2430 obtém informação candidata de movimento usando informação de movimento das unidades de predição adjacentes que são temporal e espacialmente justapostas a uma unidade de predição atual, e gera informação candidata de movimento adicional usando informação de movimento das unidades de predição que são espacial e temporalmente justapostas à unidade de predição atual tal que o número de informações candidatas de movimento é ‘n’.
[000245] O decodificador de informação de movimento 2420 obtém uma única peça de informação candidata de movimento gerada pela unidade geradora de informação candidata de movimento 2430 por meio de um índice que indica a informação de movimento de uma unidade de predição atual obtida a partir de um fluxo de bits. Como descrito acima, quando a informação de movimento é um vetor de movimento, a informação de movimento do decodificador 2420 obtém uma única predição de vetor de movimento dentre os de vetores de movimento de predição candidatos por meio de um índice que indica o vetor de movimento de predição obtido a partir de um fluxo de bits, extrai a informação sobre um valor de diferença entre o vetor de predição de movimento e um vetor de movimento original a partir de um fluxo de bits, e em seguida, adiciona o valor de diferença e o vetor de movimento de predição para restaurar um vetor de movimento da unidade de predição atual.
[000246] A figura 24 é um fluxograma de um método de decodificação de informação de movimento, de acordo com uma modalidade da presente invenção.
[000247] Com referência à figura 24, na operação 2510, a unidade geradora de informação candidata de movimento 2430 determina se a informação de movimento das unidades de predição espacial que são espacialmente justapostas a uma unidade de predição atual e informação de movimento das unidades de predição temporal que são temporalmente justapostas à unidade de predição atual estão disponíveis. Na operação 2520, como o resultado da determinação, quando o número de informações de movimento, disponíveis das unidades de predição espacial e das unidades de predição temporal é menor do que um número predeterminado ‘n’ (onde n é um número inteiro), a unidade geradora de informação candidata de movimento 2430 gera informação candidata de movimento adicional por meio de informação de movimento disponível de unidades de predição espacial e de unidades de predição temporal de tal modo que o número total de informações candidatas de movimento pode ser ‘n’.
[000248] Na operação 2530, o decodificador de entropia 2410 obtém e emite informação de índice indicando uma informação de movimento entre ‘n’ informações candidatas de movimento a partir de um fluxo de bits. Na operação 2540, o decodificador de informação de movimento 2420 obtém informação de movimento de uma unidade de predição atual, utilizando a informação de movimento indicada pelo índice. Como descrito acima, quando a informação de movimento é um vetor de movimento, o decodificador de informação de movimento 2420 obtém um único vetor de movimento de predição dentre os vetores de movimento de predição candidatos, utilizando o índice que indica o vetor de movimento de predição obtido a partir de um fluxo de bits, extrai a informação sobre um valor de diferença entre o vetor de predição de movimento e um vetor de movimento original a partir de um fluxo de bits, e em seguida, adiciona o valor de diferença e o vetor de movimento de predição para restaurar um vetor de movimento da unidade de predição atual.
[000249] As modalidades da presente invenção podem ser escritas como programas de computador e podem ser implementadas em computadores digitais de uso geral que executam os programas utilizando um meio de gravação legível por computador. Exemplos de meio de gravação legível por computador incluem meios de armazenamento magnético (por exemplo, ROM, disquetes, discos rígidos, etc.) e meios de gravação óptica (por exemplo, CD-ROMs, ou DVDs).
[000250] Embora a presente invenção tenha sido particularmente mostrada e descrita com referência as suas modalidades exemplificativas, aqueles versados na arte entenderão que várias alterações na forma e detalhes podem ser feitas sem se afastar do espírito e escopo da presente invenção conforme definidos pelas reivindicações seguintes.
Claims (5)
1. MÉTODO PARA DECODIFICAR UM VETOR DE MOVIMENTO, o método caracterizado por compreender: determinar se os vetores de movimento se as unidades de predição espaciais que estão espacialmente colocadas relativamente a uma unidade de predição atual e vetores de unidades de predição temporal que são temporalmente colocadas relativamente à unidade de predição atual são disponíveis (2510); determinar os vetores de movimento disponíveis como candidatos preditores do vetor de movimento; em que: quando o número dos candidatos preditores do vetor de movimento é menor que um predeterminado número ‘n’, onde n é um inteiro, gerar pelo menos um vetor de movimento bidimensional combinado mediante combinar um vetor de movimento disponível, em meio aos vetores de movimento disponíveis, indicativos de um bloco de imagem na lista0 de imagem de referência e um vetor de movimento disponível, em meio aos vetores de movimento disponíveis, indicativos de uma imagem de bloco na lista 1 de imagem de referência; adicionar o pelo menos um vetor de movimento bidirecional combinado aos candidatos preditores do vetor de movimento; quando o número dos candidatos preditores de vetor de movimento é menor que o número predeterminado ‘n’, adicionar um vetor de movimento possuindo um predeterminado valor componente aos candidatos preditores do vetor de movimento, tal que um número total de candidatos preditores de vetor de movimento seja o número predeterminado n (2520), em que o predeterminado valor componente é (0,0); obter informação indicativa de um preditor de vetor de movimento em meio aos candidatos preditores de vetor de movimento em decorrência de um fluxo de bits (2530); e obter o preditor do vetor de movimento da unidade de predição atual com base na informação (2540).
2. Método, de acordo com a reivindicação 1, caracterizado por a determinação da compatibilidade dos vetores de movimento compreender: pesquisar predeterminadas unidades de predição posicionadas acima da unidade de predição atual numa predeterminada ordem de varredura e selecionar um vetor de movimento de uma primeira unidade de predição possuindo um vetor de movimento disponível como um candidato superior de preditor de vetor de movimento espacial da unidade de predição atual; e pesquisar unidades de predição predeterminadas posicionadas à esquerda da unidade de predição atual em uma ordem de varredura predeterminada e selecionar informação de movimento de uma primeira unidade de predição à esquerda possuindo um vetor de movimento disponível como um candidato de preditor de vetor de movimento espacial à esquerda da unidade de predição atual.
3. Método, de acordo com a reivindicação 1, caracterizado por adicionalmente compreender, quando os vetores de movimento disponíveis das unidades de predição espacial e unidades de predição temporal compreender um vetor de movimento bidirecional, gerar um candidato de preditor de vetor de movimento adicional mediante somar ou subtrair um predeterminado vetor de movimento para a imagem de referência de list 0 e um vetor de movimento para a imagem de referência de list 1 defasado e derivado do vetor de movimento bidirecional.
4. Método, de acordo com a reivindicação 3, caracterizado por quando uma primeira imagem de referência na imagem de referência de list 0 e uma segunda imagem de referência na imagem de referência de list 1 estão posicionadas na mesma posição com base numa imagem atual compreendendo a unidade de predição atual, a defasagem é adicionada ao vetor de movimento para a imagem de referência da list 0 e ao vetor de movimento para a imagem de referência da list 1, e onde, quando a imagem atual está entre a primeira imagem de referência na imagem de referência da list 0 e a segunda imagem de referência da list 1, a defasagem é adicionada ao vetor de movimento para a imagem de referência da list 0 e um valor obtido pela multiplicação da defasagem por -1 é acrescentado ao vetor de movimento para a imagem de referência da list 1.
5. Método, de acordo com a reivindicação 1, caracterizado por adicionalmente compreender alterar um vetor de movimento disponível quanto à imagem de referência da list 0 para um vetor de movimento quanto à imagem de referência da list 1 e alterar um vetor de movimento disponível quanto à imagem de referência da list 1 para um vetor de movimento quanto à imagem de referência da list 1 para gerar o adicional candidato a preditor do vetor de movimento.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161501300P | 2011-06-27 | 2011-06-27 | |
US61/501,300 | 2011-06-27 | ||
PCT/KR2012/005091 WO2013002557A2 (ko) | 2011-06-27 | 2012-06-27 | 움직임 정보의 부호화 방법 및 장치, 그 복호화 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
BR112013033706A2 BR112013033706A2 (pt) | 2017-07-04 |
BR112013033706B1 true BR112013033706B1 (pt) | 2022-05-31 |
Family
ID=47424667
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BR122021004610-7A BR122021004610B1 (pt) | 2011-06-27 | 2012-06-27 | Método para decodificar uma imagem |
BR112013033706-0A BR112013033706B1 (pt) | 2011-06-27 | 2012-06-27 | Método para decodificar um vetor de movimento |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BR122021004610-7A BR122021004610B1 (pt) | 2011-06-27 | 2012-06-27 | Método para decodificar uma imagem |
Country Status (26)
Country | Link |
---|---|
US (6) | US9204160B2 (pt) |
EP (6) | EP3435675B1 (pt) |
JP (5) | JP6322136B2 (pt) |
KR (6) | KR101456500B1 (pt) |
CN (6) | CN107071470B (pt) |
AU (5) | AU2012276455B2 (pt) |
BR (2) | BR122021004610B1 (pt) |
CA (2) | CA2975456C (pt) |
CY (1) | CY1120897T1 (pt) |
DK (2) | DK3606076T3 (pt) |
ES (5) | ES2754657T3 (pt) |
HR (1) | HRP20181873T1 (pt) |
HU (4) | HUE042313T2 (pt) |
LT (1) | LT3282707T (pt) |
MX (2) | MX2014000160A (pt) |
MY (1) | MY165858A (pt) |
PH (4) | PH12016501428B1 (pt) |
PL (5) | PL3435675T3 (pt) |
PT (1) | PT3282707T (pt) |
RS (1) | RS57965B1 (pt) |
RU (4) | RU2601180C2 (pt) |
SG (1) | SG10201605263SA (pt) |
SI (1) | SI3282707T1 (pt) |
TW (5) | TWI587692B (pt) |
WO (1) | WO2013002557A2 (pt) |
ZA (5) | ZA201400623B (pt) |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107071470B (zh) * | 2011-06-27 | 2020-02-07 | 三星电子株式会社 | 对图像进行解码的方法 |
JP5884697B2 (ja) * | 2011-09-28 | 2016-03-15 | 株式会社Jvcケンウッド | 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、送信装置、送信方法及び送信プログラム |
JP5942782B2 (ja) * | 2011-10-31 | 2016-06-29 | 株式会社Jvcケンウッド | 動画像復号装置、動画像復号方法、動画像復号プログラム、受信装置、受信方法及び受信プログラム |
US20130121417A1 (en) * | 2011-11-16 | 2013-05-16 | Qualcomm Incorporated | Constrained reference picture sets in wave front parallel processing of video data |
DK2806637T3 (da) * | 2012-01-19 | 2020-11-23 | Electronics & Telecommunications Res Inst | Fremgangsmåde til billedkodning/-afkodning |
US8972570B1 (en) * | 2012-08-17 | 2015-03-03 | Facebook, Inc. | Implicit geolocation of social networking users |
EP4418654A2 (en) | 2014-10-31 | 2024-08-21 | Samsung Electronics Co., Ltd | Video encoding device and video decoding device using high-precision skip encoding and method thereof |
US20180249176A1 (en) * | 2015-03-11 | 2018-08-30 | Lg Electronics Inc. | Method and apparatus for encoding and decoding video signal |
WO2017131908A1 (en) * | 2016-01-29 | 2017-08-03 | Google Inc. | Dynamic reference motion vector coding mode |
US10462457B2 (en) * | 2016-01-29 | 2019-10-29 | Google Llc | Dynamic reference motion vector coding mode |
US10397600B1 (en) | 2016-01-29 | 2019-08-27 | Google Llc | Dynamic reference motion vector coding mode |
US10939099B2 (en) * | 2016-04-22 | 2021-03-02 | Lg Electronics Inc. | Inter prediction mode-based image processing method and device therefor |
JP6938612B2 (ja) | 2016-07-12 | 2021-09-22 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute | 画像復号方法、画像符号化方法、及び非一時的なコンピュータ可読の記録媒体 |
CN116708782A (zh) * | 2016-07-12 | 2023-09-05 | 韩国电子通信研究院 | 图像编码/解码方法以及用于该方法的记录介质 |
WO2018034373A1 (ko) * | 2016-08-19 | 2018-02-22 | 엘지전자(주) | 영상 처리 방법 및 이를 위한 장치 |
US20180242024A1 (en) * | 2017-02-21 | 2018-08-23 | Mediatek Inc. | Methods and Apparatuses of Candidate Set Determination for Quad-tree Plus Binary-tree Splitting Blocks |
BR112019028035A2 (pt) * | 2017-06-30 | 2020-07-07 | Huawei Technologies Co., Ltd. | "dispositivo para determinar uma predição de um bloco corrente, decodificador e codificador de vídeo, e método para determinar uma predição de um bloco corrente |
WO2019084776A1 (zh) * | 2017-10-31 | 2019-05-09 | 华为技术有限公司 | 图像块的候选运动信息的获取方法、装置及编解码器 |
WO2019112072A1 (ko) * | 2017-12-04 | 2019-06-13 | 엘지전자 주식회사 | 영상 코딩 시스템에서 수정된 움직임 정보 후보 리스트에 기반한 영상 디코딩 방법 및 장치 |
CN109963155B (zh) | 2017-12-23 | 2023-06-06 | 华为技术有限公司 | 图像块的运动信息的预测方法、装置及编解码器 |
US10397603B1 (en) * | 2018-05-08 | 2019-08-27 | Tencent America LLC | Method and apparatus for video coding |
WO2020057504A1 (en) * | 2018-09-17 | 2020-03-26 | Mediatek Inc. | Methods and apparatuses of combining multiple predictors for block prediction in video coding systems |
SG11202104046TA (en) | 2018-10-27 | 2021-05-28 | Huawei Tech Co Ltd | Separate merge list and intra-inter techniques harmonization for video coding |
CN113056917B (zh) | 2018-11-06 | 2024-02-06 | 北京字节跳动网络技术有限公司 | 为视频处理使用具有几何分割的帧间预测 |
CN113170172A (zh) * | 2018-11-21 | 2021-07-23 | 瑞典爱立信有限公司 | 具有子块合并简化的视频图片编码方法及相关装置 |
US11122288B2 (en) * | 2018-12-06 | 2021-09-14 | Qualcomm Incorporated | Spatio-temporal motion vector prediction patterns for video coding |
US11470340B2 (en) * | 2018-12-10 | 2022-10-11 | Tencent America LLC | Simplified merge list construction for small coding blocks |
CN116389750A (zh) * | 2018-12-28 | 2023-07-04 | Jvc建伍株式会社 | 动图像解码装置和方法、以及动图像编码装置和方法 |
KR20230163002A (ko) * | 2018-12-28 | 2023-11-29 | 가부시키가이샤 제이브이씨 켄우드 | 동화상 복호 장치, 동화상 복호 방법, 동화상 복호 프로그램, 동화상 부호화 장치, 동화상 부호화 방법, 동화상 부호화 프로그램, 격납 방법 및 전송 방법 |
RU2768971C1 (ru) | 2018-12-28 | 2022-03-28 | ДжейВиСиКЕНВУД Корпорейшн | Устройство кодирования движущихся изображений, способ кодирования движущихся изображений, программа кодирования движущихся изображений, устройство декодирования движущихся изображений, способ декодирования движущихся изображений и программа декодирования движущихся изображений |
CN113170166B (zh) | 2018-12-30 | 2023-06-09 | 北京字节跳动网络技术有限公司 | 具有几何分割的帧间预测在视频处理中有条件的应用 |
CN114019107B (zh) * | 2021-11-08 | 2023-12-26 | 南京延长反应技术研究院有限公司 | 一种蒽醌法制双氧水体系中微气泡强化的评测方法 |
WO2024106750A1 (ko) * | 2022-11-18 | 2024-05-23 | 삼성전자 주식회사 | 비디오 코딩 방법 및 이를 위한 장치 |
Family Cites Families (50)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR0180170B1 (ko) * | 1995-06-30 | 1999-05-01 | 배순훈 | 움직임 추정 방법 및 추정 장치 |
KR0181069B1 (ko) * | 1995-11-08 | 1999-05-01 | 배순훈 | 움직임 추정장치 |
US6567469B1 (en) * | 2000-03-23 | 2003-05-20 | Koninklijke Philips Electronics N.V. | Motion estimation algorithm suitable for H.261 videoconferencing applications |
JP2002165109A (ja) * | 2000-11-24 | 2002-06-07 | Matsushita Electric Ind Co Ltd | 動きベクトル検出装置および動きベクトル検出方法 |
US20040001546A1 (en) * | 2002-06-03 | 2004-01-01 | Alexandros Tourapis | Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation |
AU2003281133A1 (en) * | 2002-07-15 | 2004-02-02 | Hitachi, Ltd. | Moving picture encoding method and decoding method |
US7978769B2 (en) | 2003-06-30 | 2011-07-12 | Ntt Docomo, Inc. | Method and apparatus for coding motion information |
US8064520B2 (en) * | 2003-09-07 | 2011-11-22 | Microsoft Corporation | Advanced bi-directional predictive coding of interlaced video |
CN1213613C (zh) * | 2003-09-12 | 2005-08-03 | 浙江大学 | 视频编解码中运动矢量的预测方法和装置 |
JP2006005659A (ja) * | 2004-06-17 | 2006-01-05 | Canon Inc | 画像符号化装置及びその方法 |
US20060133495A1 (en) * | 2004-12-22 | 2006-06-22 | Yan Ye | Temporal error concealment for video communications |
CN100539693C (zh) * | 2005-08-30 | 2009-09-09 | 深圳清华大学研究院 | 快速运动估计方法 |
JP2007189276A (ja) * | 2006-01-11 | 2007-07-26 | Victor Co Of Japan Ltd | 画像圧縮装置及び画像圧縮プログラム |
CN100576919C (zh) * | 2006-08-08 | 2009-12-30 | 佳能株式会社 | 运动矢量检测设备及运动矢量检测方法 |
JP4993676B2 (ja) | 2006-09-01 | 2012-08-08 | キヤノン株式会社 | 画像符号化装置及び画像符号化方法 |
JP2010509799A (ja) * | 2006-11-03 | 2010-03-25 | サムスン エレクトロニクス カンパニー リミテッド | 映像の予測符号化方法及び装置、その復号化方法及び装置 |
US8488676B2 (en) * | 2007-05-14 | 2013-07-16 | Himax Technologies Limited | Motion estimation method |
US8139875B2 (en) * | 2007-06-28 | 2012-03-20 | Mitsubishi Electric Corporation | Image encoding device, image decoding device, image encoding method and image decoding method |
KR102139535B1 (ko) * | 2007-10-16 | 2020-07-30 | 엘지전자 주식회사 | 비디오 신호 처리 방법 및 장치 |
EP2266318B1 (en) * | 2008-03-19 | 2020-04-22 | Nokia Technologies Oy | Combined motion vector and reference index prediction for video coding |
US20090245374A1 (en) * | 2008-03-26 | 2009-10-01 | Mediatek Inc. | Video encoder and motion estimation method |
BRPI0915821A2 (pt) * | 2008-07-10 | 2015-11-10 | Mitsubishi Electric Corp | dispositivos codificador e decodificador de imagem, e, métodos de codificação e de decodificação de imagem. |
JP5401071B2 (ja) * | 2008-10-09 | 2014-01-29 | 株式会社Nttドコモ | 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、動画像復号プログラム、動画像処理システムおよび動画像処理方法 |
US20100166073A1 (en) * | 2008-12-31 | 2010-07-01 | Advanced Micro Devices, Inc. | Multiple-Candidate Motion Estimation With Advanced Spatial Filtering of Differential Motion Vectors |
CN101448159B (zh) * | 2009-01-08 | 2010-08-04 | 北京航空航天大学 | 一种基于率失真代价和模式频率的快速帧间模式选择方法 |
KR101479129B1 (ko) | 2009-10-01 | 2015-01-06 | 에스케이텔레콤 주식회사 | 가변 크기의 매크로블록을 이용한 영상 부호화/복호화 방법 및 장치 |
CN102918840B (zh) | 2009-10-01 | 2016-05-25 | Sk电信有限公司 | 使用分割层进行图像编码/解码的方法和装置 |
US9060176B2 (en) | 2009-10-01 | 2015-06-16 | Ntt Docomo, Inc. | Motion vector prediction in video coding |
HUE047479T2 (hu) * | 2009-10-01 | 2020-04-28 | Sk Telecom Co Ltd | Eljárás és készülék képek változtatható méretû makroblokkok használatával történõ kódolására/dekódolására |
US20120207221A1 (en) | 2009-10-16 | 2012-08-16 | Tomoko Aono | Video coding device and video decoding device |
CN101860754B (zh) * | 2009-12-16 | 2013-11-13 | 香港应用科技研究院有限公司 | 运动矢量编码和解码的方法和装置 |
US9036692B2 (en) * | 2010-01-18 | 2015-05-19 | Mediatek Inc. | Motion prediction method |
CN107105280B (zh) * | 2010-12-14 | 2020-01-03 | M&K控股株式会社 | 用于编码运动画面的设备 |
US9049444B2 (en) * | 2010-12-22 | 2015-06-02 | Qualcomm Incorporated | Mode dependent scanning of coefficients of a block of video data |
WO2012090495A1 (ja) * | 2010-12-27 | 2012-07-05 | パナソニック株式会社 | 画像符号化方法および画像復号方法 |
JP2012151576A (ja) * | 2011-01-18 | 2012-08-09 | Hitachi Ltd | 画像符号化方法、画像符号化装置、画像復号方法及び画像復号装置 |
US8755437B2 (en) | 2011-03-17 | 2014-06-17 | Mediatek Inc. | Method and apparatus for derivation of spatial motion vector candidate and motion vector prediction candidate |
WO2012122927A1 (en) * | 2011-03-14 | 2012-09-20 | Mediatek Inc. | Method and apparatus for derivation of motion vector candidate and motion vector prediction candidate |
ES2900107T3 (es) * | 2011-03-21 | 2022-03-15 | Lg Electronics Inc | Método para seleccionar un predictor de vector de movimiento |
US9143795B2 (en) * | 2011-04-11 | 2015-09-22 | Texas Instruments Incorporated | Parallel motion estimation in video coding |
EP3337172B1 (en) | 2011-05-24 | 2020-09-09 | Velos Media International Limited | Image encoding method, image encoding apparatus |
US9485518B2 (en) | 2011-05-27 | 2016-11-01 | Sun Patent Trust | Decoding method and apparatus with candidate motion vectors |
HUE066386T2 (hu) | 2011-05-31 | 2024-07-28 | Jvckenwood Corp | Mozgókép-kódoló eszköz, mozgókép-kódoló eljárás és mozgókép-kódoló program, valamint mozgókép-dekódoló eszköz, mozgókép-dekódoló eljárás és mozgókép-dekódoló program |
JP5477340B2 (ja) | 2011-05-31 | 2014-04-23 | 株式会社Jvcケンウッド | 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム |
MX2013012209A (es) | 2011-05-31 | 2013-11-01 | Panasonic Corp | Metodo de codificacion de video, aparato de codificacion de video, metodo de decodificacion de video, aparato de decodificacion de video y aparato de codificacion/decodificacion de video. |
JP5252029B2 (ja) | 2011-05-31 | 2013-07-31 | 株式会社Jvcケンウッド | 動画像復号装置、動画像復号方法、動画像復号プログラム、受信装置、受信方法、及び受信プログラム |
CA3101406C (en) | 2011-06-14 | 2023-05-09 | Tammy Lee | Method and apparatus for encoding motion information and method and apparatus for decoding same |
US9282338B2 (en) | 2011-06-20 | 2016-03-08 | Qualcomm Incorporated | Unified merge mode and adaptive motion vector prediction mode candidates selection |
CN107071470B (zh) * | 2011-06-27 | 2020-02-07 | 三星电子株式会社 | 对图像进行解码的方法 |
JP5488666B2 (ja) * | 2011-09-28 | 2014-05-14 | 株式会社Jvcケンウッド | 動画像復号装置、動画像復号方法、動画像復号プログラム、受信装置、受信方法及び受信プログラム |
-
2012
- 2012-06-27 CN CN201710200724.4A patent/CN107071470B/zh active Active
- 2012-06-27 PL PL18194649T patent/PL3435675T3/pl unknown
- 2012-06-27 CN CN201710202935.1A patent/CN106851314B/zh active Active
- 2012-06-27 PL PL19196457T patent/PL3606076T3/pl unknown
- 2012-06-27 TW TW101123074A patent/TWI587692B/zh active
- 2012-06-27 KR KR20120069479A patent/KR101456500B1/ko active IP Right Grant
- 2012-06-27 DK DK19196457.6T patent/DK3606076T3/da active
- 2012-06-27 CN CN201510178634.0A patent/CN104811725B/zh active Active
- 2012-06-27 TW TW107117440A patent/TWI692248B/zh active
- 2012-06-27 CA CA2975456A patent/CA2975456C/en active Active
- 2012-06-27 WO PCT/KR2012/005091 patent/WO2013002557A2/ko active Application Filing
- 2012-06-27 MX MX2014000160A patent/MX2014000160A/es active IP Right Grant
- 2012-06-27 EP EP18194649.2A patent/EP3435675B1/en active Active
- 2012-06-27 PT PT17189965T patent/PT3282707T/pt unknown
- 2012-06-27 EP EP12805144.8A patent/EP2725800A4/en not_active Ceased
- 2012-06-27 TW TW110126986A patent/TWI803915B/zh active
- 2012-06-27 EP EP21170529.8A patent/EP3876540B1/en active Active
- 2012-06-27 RS RS20181359A patent/RS57965B1/sr unknown
- 2012-06-27 EP EP17189965.1A patent/EP3282707B1/en active Active
- 2012-06-27 HU HUE17189965A patent/HUE042313T2/hu unknown
- 2012-06-27 TW TW109108669A patent/TWI738251B/zh active
- 2012-06-27 DK DK17189965.1T patent/DK3282707T3/en active
- 2012-06-27 ES ES18194649T patent/ES2754657T3/es active Active
- 2012-06-27 ES ES20184517T patent/ES2886357T3/es active Active
- 2012-06-27 CN CN201710202657.XA patent/CN106982373B/zh active Active
- 2012-06-27 LT LTEP17189965.1T patent/LT3282707T/lt unknown
- 2012-06-27 MY MYPI2013004675A patent/MY165858A/en unknown
- 2012-06-27 BR BR122021004610-7A patent/BR122021004610B1/pt active IP Right Grant
- 2012-06-27 CA CA2840483A patent/CA2840483C/en active Active
- 2012-06-27 PL PL21170529.8T patent/PL3876540T3/pl unknown
- 2012-06-27 US US14/129,813 patent/US9204160B2/en active Active
- 2012-06-27 ES ES17189965T patent/ES2695556T3/es active Active
- 2012-06-27 ES ES21170529T patent/ES2951321T3/es active Active
- 2012-06-27 CN CN201280042090.XA patent/CN103765896B/zh active Active
- 2012-06-27 HU HUE19196457A patent/HUE052897T2/hu unknown
- 2012-06-27 TW TW106112114A patent/TWI628950B/zh active
- 2012-06-27 HU HUE21170529A patent/HUE063217T2/hu unknown
- 2012-06-27 SI SI201231448T patent/SI3282707T1/sl unknown
- 2012-06-27 SG SG10201605263SA patent/SG10201605263SA/en unknown
- 2012-06-27 EP EP20184517.9A patent/EP3739884B1/en active Active
- 2012-06-27 PL PL20184517T patent/PL3739884T3/pl unknown
- 2012-06-27 ES ES19196457T patent/ES2848869T3/es active Active
- 2012-06-27 JP JP2014518798A patent/JP6322136B2/ja active Active
- 2012-06-27 RU RU2014102366/08A patent/RU2601180C2/ru active
- 2012-06-27 PL PL17189965T patent/PL3282707T3/pl unknown
- 2012-06-27 BR BR112013033706-0A patent/BR112013033706B1/pt active IP Right Grant
- 2012-06-27 RU RU2016137156A patent/RU2636672C1/ru active
- 2012-06-27 EP EP19196457.6A patent/EP3606076B1/en active Active
- 2012-06-27 AU AU2012276455A patent/AU2012276455B2/en active Active
- 2012-06-27 HU HUE20184517A patent/HUE055772T2/hu unknown
- 2012-06-27 CN CN201710201271.7A patent/CN106851313B/zh active Active
-
2014
- 2014-01-07 MX MX2015001248A patent/MX336525B/es unknown
- 2014-01-24 ZA ZA2014/00623A patent/ZA201400623B/en unknown
- 2014-05-16 KR KR1020140059296A patent/KR101604461B1/ko active IP Right Grant
- 2014-10-24 KR KR1020140145394A patent/KR101607608B1/ko active IP Right Grant
- 2014-10-29 KR KR1020140148734A patent/KR101700367B1/ko active IP Right Grant
-
2015
- 2015-01-22 US US14/603,121 patent/US9137543B2/en active Active
- 2015-02-13 US US14/622,456 patent/US9253500B2/en active Active
- 2015-02-13 US US14/622,388 patent/US9204162B2/en active Active
- 2015-02-13 US US14/622,501 patent/US9253501B2/en active Active
- 2015-04-23 ZA ZA2015/02766A patent/ZA201502766B/en unknown
- 2015-04-23 ZA ZA2015/02767A patent/ZA201502767B/en unknown
- 2015-04-23 ZA ZA2015/02765A patent/ZA201502765B/en unknown
- 2015-04-23 ZA ZA2015/02768A patent/ZA201502768B/en unknown
- 2015-07-23 KR KR1020150104347A patent/KR101608067B1/ko active IP Right Grant
- 2015-12-18 US US14/975,179 patent/US9432680B2/en active Active
-
2016
- 2016-03-29 AU AU2016201944A patent/AU2016201944B2/en active Active
- 2016-05-26 JP JP2016105693A patent/JP6272948B2/ja active Active
- 2016-07-19 PH PH12016501428A patent/PH12016501428B1/en unknown
- 2016-07-19 PH PH12016501426A patent/PH12016501426A1/en unknown
- 2016-07-19 PH PH12016501427A patent/PH12016501427A1/en unknown
- 2016-07-19 PH PH12016501429A patent/PH12016501429A1/en unknown
-
2017
- 2017-01-20 KR KR1020170009926A patent/KR101862357B1/ko active IP Right Grant
- 2017-04-10 AU AU2017202355A patent/AU2017202355B2/en active Active
- 2017-10-31 RU RU2017137913A patent/RU2682303C1/ru active
- 2017-11-13 JP JP2017218535A patent/JP6523406B2/ja active Active
-
2018
- 2018-02-22 AU AU2018201305A patent/AU2018201305B2/en active Active
- 2018-11-08 HR HRP20181873TT patent/HRP20181873T1/hr unknown
- 2018-11-26 CY CY181101246T patent/CY1120897T1/el unknown
- 2018-11-27 AU AU2018271275A patent/AU2018271275C1/en active Active
-
2019
- 2019-03-06 RU RU2019106303A patent/RU2705435C1/ru active
- 2019-04-25 JP JP2019084303A patent/JP6753979B2/ja active Active
-
2020
- 2020-08-20 JP JP2020139281A patent/JP7071453B2/ja active Active
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
BR112013033706B1 (pt) | Método para decodificar um vetor de movimento | |
BR122015013887A2 (pt) | método para decodificar uma imagem | |
BR122020014015A2 (pt) | Aparelho para decodificar um vídeo | |
BR122020013760B1 (pt) | Método para decodificar um vídeo através filtração em malha com base nas unidades de codificação, e aparelho de decodificação de vídeo para decodificar um vídeo através filtração em malha com base em unidades de codificação | |
BR112013022641B1 (pt) | Método para derivar um vetor de predição de movimento candidato |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
B15K | Others concerning applications: alteration of classification |
Ipc: H04N 7/00 (2011.01) |
|
B06F | Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette] | ||
B15K | Others concerning applications: alteration of classification |
Free format text: A CLASSIFICACAO ANTERIOR ERA: H04N 7/00 Ipc: H04N 19/11 (2014.01), H04N 19/44 (2014.01), H04N 1 |
|
B06U | Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette] | ||
B09A | Decision: intention to grant [chapter 9.1 patent gazette] | ||
B16A | Patent or certificate of addition of invention granted [chapter 16.1 patent gazette] |
Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 27/06/2012, OBSERVADAS AS CONDICOES LEGAIS |