ES2670325T3 - Procedimiento de codificación de un modo de intra predicción - Google Patents

Procedimiento de codificación de un modo de intra predicción Download PDF

Info

Publication number
ES2670325T3
ES2670325T3 ES16184568.0T ES16184568T ES2670325T3 ES 2670325 T3 ES2670325 T3 ES 2670325T3 ES 16184568 T ES16184568 T ES 16184568T ES 2670325 T3 ES2670325 T3 ES 2670325T3
Authority
ES
Spain
Prior art keywords
intra prediction
mode
unit
modes
prediction modes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16184568.0T
Other languages
English (en)
Inventor
Soo Mi Oh
Moonock Yang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
M&K Holdings Inc
Original Assignee
M&K Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=45605532&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2670325(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Priority claimed from KR1020110064301A external-priority patent/KR20120058384A/ko
Application filed by M&K Holdings Inc filed Critical M&K Holdings Inc
Application granted granted Critical
Publication of ES2670325T3 publication Critical patent/ES2670325T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Error Detection And Correction (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

Un procedimiento de codificación de un modo de intra predicción, que comprende: determinar un modo de intra predicción de una unidad de predicción actual; generar un primer grupo de modos de intra predicción usando unos modos de intra predicción disponibles de una unidad de predicción izquierda y una unidad de predicción de arriba vecina de la unidad de predicción actual, en el que el número de modos de intra predicción que pertenecen al primer grupo de modos de intra predicción se fija en tres; generar un segundo grupo de modos de intra predicción usando unos modos de intra predicción que no sean los modos de intra predicción que pertenecen al primer grupo de modos de intra predicción; codificar un indicador de primer grupo de modos de intra predicción y un índice que se corresponde con el modo de intra predicción de la unidad de predicción actual en el primer grupo de modos de intra predicción cuando el modo de intra predicción de la unidad de predicción actual está incluido en el primer grupo de modos de intra predicción; y codificar un indicador de segundo grupo de modos de intra predicción y un índice que se corresponde con el modo de intra predicción de la unidad de predicción actual en el segundo grupo de modos de intra predicción cuando el modo de intra predicción de la unidad de predicción actual no pertenece al primer grupo de modos de intra predicción, en el que, cuando solo se encuentra disponible un modo de intra predicción de entre los modos de intra predicción de la unidad de intra predicción izquierda y la unidad de intra predicción de arriba, el primer grupo de modos de intra predicción incluye el modo de intra predicción disponible de las respectivas unidades de predicción y dos modos de intra predicción adicionales que se determinan de tal manera que, cuando el modo de intra predicción disponible es un modo de intra predicción no direccional, los dos modos de intra predicción adicionales incluyen otro modo de intra predicción no direccional y un modo vertical.

Description

5
10
15
20
25
30
35
40
45
50
DESCRIPCIÓN
Procedimiento de codificación de un modo de intra predicción Campo técnico
La presente invención se refiere a un procedimiento de descodificación de intra predicción, y más en concreto, a un procedimiento de restablecimiento de un modo de intra predicción, generar un bloque de predicción muy similar a un bloque original, descodificar un bloque residual y generar un bloque reconstruido usando el bloque de predicción y el bloque residual.
Técnica antecedente
En procedimientos de compresión de imagen tales como Grupo de Expertos de Imágenes en Movimiento (MPEG-1, MPEG-2, MPEG-4 y H.264/MPEG-4, Codificación Avanzada de Audio (AVC, una imagen se divide en macrobloques para codificar una imagen. A continuación, los macrobloques respectivos se codifican usando inter predicción o intra predicción.
En la intra predicción, un bloque actual de una imagen se codifica no con el uso de una imagen de referencia, sino con el uso de los valores de píxeles espacialmente adyacentes al bloque actual. Un modo de intra predicción con poca distorsión se selecciona mediante la comparación, con un macrobloque original, de un bloque de predicción que se genera usando los valores de píxeles adyacentes. A continuación, usando el modo de intra predicción seleccionado y los valores de píxeles adyacentes, se calculan valores de predicción del bloque actual. Las diferencias entre los valores de predicción y los valores de píxeles del bloque actual original se calculan y, a continuación, se codifican a través de codificación de transformada, cuantificación y codificación por entropía. El modo de intra predicción también se codifica.
En la intra predicción convencional de 4 * 4, hay nueve modos de un modo vertical, un modo horizontal, un modo de CC, un modo descendente - izquierdo diagonal, un modo descendente - derecho diagonal, un modo derecho vertical, un modo izquierdo vertical, un modo ascendente - horizontal y un modo descendente - horizontal.
De acuerdo con la norma H.264, un modo se selecciona de entre los nueve modos de generación de un bloque de predicción del bloque actual. De acuerdo con la norma HEVC en desarrollo, hay 17 o 34 modos de intra predicción.
No obstante, cuando algunos o todos los valores de píxeles adyacentes al bloque actual no existen o no se han codificado aún, es imposible aplicar algunos o la totalidad de los modos de intra predicción al bloque actual. En el presente caso, si se realiza una intra predicción mediante la selección de un modo de intra predicción de entre los modos de intra predicción disponibles, la distorsión entre un bloque de predicción y un bloque original se vuelve grande. Por lo tanto, la eficiencia de codificación se deteriora.
Asimismo, a medida que aumenta el número de modos de intra predicción, se requieren un nuevo procedimiento de codificación del modo de intra predicción más eficaz que el procedimiento convencional, y un procedimiento más eficaz de descodificación del modo de intra predicción y de generación de un bloque reconstruido.
El documento WO 03/105070 divulga un procedimiento eficaz, de este tipo, de codificación del modo de intra predicción. El documento WO 03/105070 divulga, de forma específica, generar dos grupos de modos de intra predicción en los que el primer grupo consiste en los modos de intra predicción más probables y el segundo grupo consiste en los modos de intra predicción restantes. La probabilidad de cada modo de intra predicción se determina de forma adaptativa de acuerdo con los modos de intra predicción de los bloques vecinos. A continuación, se señaliza si el modo de intra predicción seleccionado pertenece al primer o al segundo grupo de modos de intra predicción.
Divulgación
Problema técnico
La presente invención se refiere a un procedimiento de generación de un bloque de predicción muy similar a un bloque original de acuerdo con un modo de intra predicción, generar un bloque residual mediante la descodificación de una señal residual y generar un bloque reconstruido usando el bloque de predicción y el bloque residual.
Solución técnica
Un aspecto de la presente invención proporciona un procedimiento de descodificación de una intra predicción, que comprende: desmultiplexar una información de intra predicción y una señal residual, restablecer un modo de intra predicción de una unidad de predicción actual usando la información de intra predicción y los modos de intra predicción de las unidades de predicción adyacentes a la unidad de predicción actual, generar unos píxeles de referencia usando uno o más píxeles de referencia disponibles si existen píxeles de referencia no disponibles de la unidad de predicción, filtrar de forma adaptativa los píxeles de referencia sobre la base del modo de intra predicción restablecido, generar un bloque de predicción usando el modo de intra predicción restablecido y los píxeles de
5
10
15
20
25
30
35
40
45
50
referencia, descodificar la señal residual que se ha desmultiplexado para generar un bloque residual y generar un bloque reconstruido usando el bloque de predicción y el bloque residual.
Efectos ventajosos
Un procedimiento de acuerdo con la presente invención restablece un modo de intra predicción de la unidad de predicción actual, y filtra de forma adaptativa los píxeles de referencia de acuerdo con el modo de intra predicción restablecido con el fin de generar un bloque de predicción que reduce al mínimo la diferencia entre un bloque de predicción y un bloque original. El bloque residual se genera mediante la descodificación, de forma adaptativa, de la señal residual de acuerdo con el modo de intra predicción. Y, el bloque restablecido se genera mediante la combinación del bloque de predicción muy similar a un bloque original y el bloque residual. Por lo tanto, puede ser posible proporcionar un procedimiento de descodificación de un modo de predicción que se corresponde con un procedimiento de codificación de un modo de predicción que puede disminuir de forma eficaz la cantidad adicional de bits de acuerdo con un número aumentado de modos de intra predicción y que se requiere para codificar el bloque residual se reduce al mínimo. Asimismo, puede ser posible obtener un alto rendimiento de compresión y una alta eficiencia de reproducción mediante la provisión de un procedimiento de descodificación que se corresponde con un procedimiento de codificación que puede disminuir la cantidad de bits que se requiere para codificar mediante la generación de un bloque de predicción similar a una imagen original.
Descripción de los dibujos
La figura 1 es un diagrama de bloques de un aparato de codificación de imágenes en movimiento de acuerdo con la presente invención.
La figura 2 es un diagrama de bloques de una unidad de intra predicción de un aparato de codificación de imágenes en movimiento de acuerdo con la presente invención.
La figura 3 es un diagrama conceptual que muestra unas posiciones de píxeles de referencia que se usan para una intra predicción de acuerdo con la presente invención.
La figura 4 es un diagrama conceptual que ilustra unos modos de intra predicción direccionales de acuerdo con la presente invención.
La figura 5 es un diagrama de bloques de un aparato de descodificación de imágenes en movimiento de acuerdo con la presente invención.
La figura 6 es un diagrama de bloques de una unidad de intra predicción de un aparato de descodificación de imágenes en movimiento de acuerdo con la presente invención.
La figura 7 es un diagrama de flujo que ilustra un procedimiento de descodificación en un modo de intra predicción de acuerdo con la presente invención.
La figura 8 es un diagrama de flujo que ilustra un procedimiento de restablecimiento de un modo de intra predicción de acuerdo con la presente invención cuando el número de modos de predicción en un primer grupo de modos de intra predicción es variable.
La figura 9 es un diagrama de flujo que ilustra otro procedimiento de restablecimiento de un modo de intra predicción de acuerdo con la presente invención cuando el número de modos de predicción en un primer grupo de modos de intra predicción está fijado.
Modo de la invención
En lo sucesivo en el presente documento, se describirán en detalle diversas realizaciones de la presente invención con referencia a los dibujos adjuntos. No obstante, la presente invención no está limitada a las realizaciones a modo de ejemplo que se dan a conocer a continuación, sino que se puede implementar en diversos tipos. Por lo tanto, son posibles muchas otras modificaciones y variaciones de la presente invención y se debe entender que, dentro del ámbito del concepto que se da a conocer, la presente invención se puede poner en práctica de una forma que no sea la que se ha descrito específicamente.
La figura 1 es un diagrama de bloques de un aparato de codificación de imágenes en movimiento de acuerdo con la presente invención.
Haciendo referencia a la figura 1, un aparato de codificación de imágenes en movimiento 100 de acuerdo con la presente invención incluye una unidad de división de imagen 110, una unidad de transformada 120, una unidad de cuantificación 130, una unidad de exploración 131, una unidad de codificación por entropía 140, una unidad de intra predicción 150, una unidad de inter predicción 160, una unidad de cuantificación inversa 135, una unidad de transformada inversa 125, una unidad de post procesamiento 170, una unidad de almacenamiento de imágenes 180, un sustractor 190 y un sumador 195.
5
10
15
20
25
30
35
40
45
50
55
60
La unidad de división de imagen 110 analiza una señal de vídeo de entrada para dividir cada unidad de codificación más grande (LCU, largest coding unit) de una imagen en una o más unidades de codificación, cada una de las cuales tiene un tamaño previamente determinado, determina el modo de predicción de cada unidad de codificación, y determina el tamaño de la unidad de predicción por cada unidad de codificación. La unidad de división de imagen 110 envía la unidad de predicción que se va a codificar a la unidad de intra predicción 150 o la unidad de inter predicción 160 de acuerdo con el modo de predicción. Asimismo, la unidad de división de imagen 110 envía las unidades de predicción que se van a codificar al sustractor 190.
La unidad de transformada 120 transforma los bloques residuales entre un bloque original de una unidad de predicción y un bloque de predicción que se genera mediante la unidad de intra predicción 150 o la unidad de inter predicción 160. El bloque residual está compuesto por una unidad de codificación. El bloque residual se puede dividir en unas unidades de transformada óptimas y transformarse. Un tipo de matriz de transformada se puede determinar de forma adaptativa de acuerdo con un modo de predicción (intra o inter). Debido a que las señales residuales de un modo de intra predicción tienen directividades de acuerdo con los modos de intra predicción, el tipo de matriz de transformada se puede determinar de forma adaptativa de acuerdo con un modo de intra predicción. La unidad de transformada se puede transformar mediante unas matrices de transformada unidimensionales (1D) horizontal y vertical. En la inter predicción, se aplica un tipo de matriz de transformada previamente determinado. En la intra predicción, hay una alta posibilidad de que los bloques residuales tengan una directividad vertical cuando el modo de intra predicción de la unidad de predicción actual sea horizontal. Por lo tanto, una matriz de números enteros basada en la transformada discreta del coseno (DCT) se aplica a la dirección vertical, y una matriz de números enteros basada en la transformada discreta del seno (DST) o en la transformada de Karhunen Loeve (KLT) se aplica a la dirección horizontal. Cuando el modo de intra predicción es vertical, una matriz de números enteros basada en DST o en KTL se aplica a la dirección vertical, y una matriz de números enteros basada en DCT se aplica a la dirección horizontal. Asimismo, en la intra predicción, la matriz de transformada se puede determinar de forma adaptativa de acuerdo con un tamaño de las unidades de transformada.
La unidad de cuantificación 130 determina un tamaño de paso de cuantificación para cuantificar los coeficientes de transformada del bloque residual para cada unidad de codificación. El tamaño de paso de cuantificación se determina por unidad de codificación que tenga un tamaño igual a o más grande que un tamaño previamente determinado. El tamaño previamente determinado puede ser de 8 * 8 o de 16 * 16. Usando el tamaño de paso de cuantificación determinado y una matriz de cuantificación que se determina de acuerdo con un modo de predicción, los coeficientes de transformada se cuantifican. La unidad de cuantificación 130 usa los tamaños de paso de cuantificación de una o más unidades de codificación adyacentes a la unidad de codificación actual para generar un predictor de tamaño de paso de cuantificación de la unidad de codificación actual.
La unidad de cuantificación 130 recupera de forma secuencial las unidades de codificación en el siguiente orden de exploración; 1) una unidad de codificación izquierda de la unidad de codificación actual, 2) una unidad de codificación de arriba de la unidad de codificación actual, y 3) una unidad de codificación izquierda de arriba de la unidad de codificación actual. Y la unidad de cuantificación genera el predictor de tamaño de paso de cuantificación de la unidad de codificación actual usando uno o dos tamaños de paso de cuantificación válidos. Por ejemplo, el primer tamaño de paso de cuantificación válido que es encontrado en el orden de exploración se puede determinar como el predictor de tamaño de paso de cuantificación. Un promedio de los primeros dos tamaños de paso de cuantificación válidos que se recuperan en el orden de exploración se puede determinar como el predictor de tamaño de paso de cuantificación, y un tamaño de paso de cuantificación válido se determina como el predictor de tamaño de paso de cuantificación cuando solo es válido un tamaño de paso de cuantificación. Cuando se determina el predictor de tamaño de paso de cuantificación, una diferencia entre el tamaño de paso de cuantificación y el predictor de tamaño de paso de cuantificación se transmite a la unidad de codificación por entropía 140.
Puede que no haya ninguna de una unidad de codificación izquierda, una unidad de codificación de arriba y una unidad de codificación izquierda de arriba de la unidad de codificación actual. Por otro lado, puede haber una unidad de codificación previa de la unidad de codificación actual en el orden de codificación de la LCU. Por lo tanto, para unidades de codificación adyacentes a la unidad de codificación actual y la LCU, la unidad de codificación previa de la unidad de codificación actual en el orden de codificación pueden ser candidatas. En el presente caso, el orden de exploración anterior se puede cambiar al siguiente orden de exploración; 1) la unidad de codificación izquierda de la unidad de codificación actual, 2) la unidad de codificación de arriba de la unidad de codificación actual, 3) la unidad de codificación izquierda de arriba de la unidad de codificación actual y 4) la unidad de codificación previa de la unidad de codificación actual. El orden de exploración puede variar, o la unidad de codificación izquierda de arriba se puede omitir en el orden de exploración. El bloque de transformada cuantificado se proporciona a la unidad de cuantificación inversa 135 y la unidad de exploración 131.
La unidad de exploración 131 explora los coeficientes de transformada cuantificados del bloque de transformada cuantificado, convirtiendo de ese modo los coeficientes de transformada cuantificados en unos coeficientes de transformada cuantificados 1D. Un patrón de exploración se determina de acuerdo con el modo de intra predicción debido a que la distribución de los coeficientes de transformada cuantificados depende del modo de intra predicción. El patrón de exploración también se puede determinar de acuerdo con el tamaño de la unidad de transformada. El patrón de exploración se puede determinar dependiendo del modo de intra predicción direccional. Los coeficientes de transformada cuantificados se exploran en el sentido inverso.
5
10
15
20
25
30
35
40
45
50
55
Cuando los coeficientes de transformada cuantificados se dividen en una pluralidad de subconjuntos, se aplica el mismo patrón de exploración a cada subconjunto. La pluralidad de subconjuntos consiste en un subconjunto principal y uno o más subconjuntos restantes. El subconjunto principal está situado en un lado izquierdo superior e incluye un coeficiente de CC. Los uno o más subconjuntos residuales cubren una región que no sea el subconjunto principal.
Se puede aplicar una exploración en zigzag para explorar los subconjuntos. Los subconjuntos se pueden explorar comenzando con el subconjunto principal para los subconjuntos residuales en una dirección hacia delante, o se pueden explorar en el sentido inverso. Un patrón de exploración para explorar los subconjuntos se puede establecer como el mismo que un patrón de exploración para explorar los coeficientes de transformada cuantificados en los subconjuntos. En el presente caso, el patrón de exploración para explorar los subconjuntos se determina de acuerdo con el modo de intra predicción. El codificador transmite una información que es capaz de indicar una posición del último coeficiente cuantificado no nulo de la unidad de transformada a un descodificador. El codificador también transmite una información que es capaz de indicar una posición del último coeficiente cuantificado no nulo de cada subconjunto al descodificador.
La unidad de cuantificación inversa 135 cuantifica de forma inversa los coeficientes de transformada cuantificados. La unidad de transformada inversa 125 restablece los bloques residuales del dominio espacial a partir de los coeficientes de transformada cuantificados de forma inversa. El sumador 195 genera un bloque reconstruido mediante la suma del bloque residual que es reconstruido por la unidad de transformada inversa 125 y el bloque de predicción a partir de la unidad de intra predicción 150 o la unidad de inter predicción 160.
La unidad de post procesamiento 170 realiza un proceso de filtrado de desbloqueo para eliminar los artefactos de bloqueo que se generan en una imagen reconstruida, un proceso de aplicación de desplazamiento adaptativo para complementar una diferencia entre la imagen reconstruida y la imagen original por píxel, y un proceso de filtro de lazo adaptativo (ALF) para complementar una diferencia entre la imagen reconstruida y la imagen original con una unidad de codificación.
El proceso de filtrado de desbloqueo se puede aplicar a un límite entre unidades de predicción que tienen un tamaño previamente determinado o más y entre unidades de transformada. El tamaño previamente determinado puede ser de 8 x 8. El proceso de filtrado de desbloqueo incluye una etapa de determinación de un límite a filtrar, una etapa de determinación de la intensidad de filtrado de límite a aplicar al límite, una etapa de determinación de si aplicar, o no, un filtro de desbloqueo, y una etapa de selección de un filtro a aplicar al límite cuando se determina la aplicación del filtro de desbloqueo.
Si aplicar, o no, el filtro de desbloqueo se determina de acuerdo con i) si la intensidad de filtrado de límite es, o no, más grande que 0 y ii) si un valor que indica la diferencia entre píxeles de límite del bloque P y el bloque Q que se encuentran adyacentes al límite a filtrar es, o no, más pequeño que un primer valor de referencia que se determina de acuerdo con un parámetro de cuantificación.
Pueden existir dos o más filtros. Cuando el valor absoluto de una diferencia entre dos píxeles adyacentes al límite de bloque es igual a o más grande que un segundo valor de referencia, se selecciona un filtro débil. El segundo valor de referencia se determina mediante el parámetro de cuantificación y la intensidad de filtrado de límite.
El proceso de aplicación de desplazamiento adaptativo tiene por objeto reducir una diferencia (distorsión) entre un píxel que se somete al filtro de desbloqueo y el píxel original. Se puede determinar si realizar, o no, el proceso de aplicación de desplazamiento adaptativo en la unidad de una imagen o un fragmento. Una imagen o fragmento se puede dividir en una pluralidad de regiones de desplazamiento, y un modo de desplazamiento se puede determinar según la región de desplazamiento. Puede haber un número previamente determinado de modos de desplazamiento de borde (por ejemplo, cuatro modos de desplazamiento de borde), dos modos de desplazamiento de banda. En el caso del modo de desplazamiento de borde, se determina un modo de borde al que pertenece cada píxel y se aplica un desplazamiento que se corresponde con el modo de borde determinado. El modo de borde se determina sobre la base de una distribución de valores de píxel de dos píxeles adyacentes al píxel actual.
El proceso de filtro de lazo adaptativo se puede realizar en función de un valor que se obtiene mediante la comparación de una imagen original y una imagen reconstruida a la que se aplica el proceso de filtrado de desbloqueo o el proceso de aplicación de desplazamiento adaptativo. El aLf determinado se puede aplicar a todos los píxeles que se incluyen en un bloque de 4 x 4 o un bloque de 8 x 8. Si aplicar, o no, un ALF se puede determinar para cada unidad de codificación. El tamaño y los coeficientes de un filtro de lazo pueden variar de acuerdo con cada unidad de codificación. La información que indica si se aplica un ALF a cada unidad de codificación se puede incluir en un encabezamiento de fragmento. En el caso de una señal de crominancia, si aplicar, o no, el ALF se puede determinar para cada unidad de imagen. A diferencia de la luminancia, el filtro de lazo puede tener una forma rectangular.
El proceso de filtro de lazo adaptativo se realiza en función del fragmento. Por lo tanto, la información que indica si el proceso de filtro de lazo adaptativo se aplica, o no, a un fragmento actual, se incluye en un encabezamiento de fragmento o un encabezamiento de imagen. Si el proceso de filtro de lazo adaptativo se aplica al fragmento actual, el
5
10
15
20
25
30
35
40
45
50
55
encabezamiento de fragmento o la imagen incluye una información que indica una longitud de filtro horizontal y/o una longitud de filtro vertical de las componentes de luminancia que se usa en el proceso de filtro de lazo adaptativo. En el caso de usar un procedimiento de predicción, el encabezamiento de fragmento o la imagen incluye unos coeficientes de filtro predichos.
Las componentes de crominancia también se pueden filtrar de forma adaptativa. El encabezamiento de fragmento o el encabezamiento de imagen puede incluir una información acerca de si se filtra, o no, cada componente de crominancia. Para reducir la cantidad de bits, la información que indica si se filtra la componente de Cr y la información que indica si se filtra la componente de Cb se pueden codificar de forma conjunta. Un índice lo más bajo se asigna al caso en el que no se filtra ninguna de las componentes de Cr y de Cb debido a que la probabilidad de que ninguna de las componentes de Cr y de Cb no se haya filtrado con el fin de reducir la complejidad es alta y se realiza la codificación por entropía. Un índice lo más alto se asigna al caso en el que se filtran ambas de las componentes de Cr y de Cb.
La unidad de almacenamiento de imágenes 180 recibe una imagen post procesada a partir de la unidad de post procesamiento 160, y almacena la imagen restablecida en unidades de imagen. Una imagen puede ser una imagen en una trama o un campo. La unidad de almacenamiento de imágenes 180 tiene una memoria intermedia (que no se muestra) que es capaz de almacenar una pluralidad de imágenes.
La unidad de inter predicción 160 realiza una estimación de movimiento usando una o más imágenes de referencia que están almacenadas en la unidad de almacenamiento de imágenes 180, y determina uno o más índices de imagen de referencia que indican las imágenes de referencia y uno o más vectores de movimiento. De acuerdo con el índice de imagen de referencia y el vector de movimiento, la unidad de inter predicción 160 extrae un bloque de predicción que se corresponde con una unidad de predicción que se va a codificar a partir de una imagen de referencia que se selecciona de entre una pluralidad de imágenes de referencia que están almacenadas en la unidad de almacenamiento de imágenes 180 y emite el bloque de predicción extraído.
La unidad de intra predicción 150 realiza una intra predicción usando píxeles de referencia reconstruidos en una imagen que incluye una unidad de predicción actual. La unidad de intra predicción 150 recibe la unidad de predicción actual que se va a codificar de forma predictiva, selecciona uno de un número previamente determinado de modos de intra predicción, y realiza una intra predicción. El número previamente determinado de modos de intra predicción depende de un tamaño de la unidad de predicción actual. La unidad de intra predicción filtra de forma adaptativa los píxeles de referencia para generar el bloque de intra predicción. Cuando algunos de los píxeles de referencia no se encuentran disponibles, es posible generar los píxeles de referencia en las posiciones no disponibles usando píxeles de referencia disponibles.
La unidad de codificación por entropía 140 codifica por entropía los coeficientes de transformada cuantificados que son cuantificados por la unidad de cuantificación 130, la información de intra predicción que se recibe a partir de la unidad de intra predicción 150, una información de movimiento que se recibe a partir de la unidad de inter predicción 160, y así sucesivamente.
La figura 2 es un diagrama de bloques de la unidad de intra predicción 150 de una unidad de codificación de imágenes en movimiento 100 de acuerdo con la presente invención.
Haciendo referencia a la figura 2, la unidad de intra predicción 150 incluye una unidad de generación de píxeles de referencia 151, una unidad de filtrado de píxeles de referencia 152, una unidad de generación de bloques de predicción 153, una unidad de determinación de modo de predicción 154 y una unidad de codificación de modo de predicción 155.
La unidad de generación de píxeles de referencia 151 determina que es necesario generar píxeles de referencia para una intra predicción y genera píxeles de referencia si es necesario generar los píxeles de referencia.
La figura 3 es un diagrama conceptual que muestra unas posiciones de píxeles de referencia que se usan para una intra predicción de acuerdo con la presente invención. Tal como se muestra en la figura 3, los píxeles de referencia de la predicción actual consisten en unos píxeles de referencia de arriba, unos píxeles de referencia izquierdos y un píxel de referencia de esquina. Los píxeles de referencia de arriba de la unidad de predicción actual son unos píxeles (las regiones C y D) que se encuentran presentes a lo largo del doble de la anchura de la unidad de predicción actual, y los píxeles de referencia izquierdos de la unidad de predicción actual son unos píxeles (las regiones A y B) que se encuentran presentes a lo largo del doble de la altura de la unidad de predicción actual. El píxel de referencia de esquina está situado en (x = -1, y = -1).
La unidad de generación de píxeles de referencia 151 determina si los píxeles de referencia se encuentran, o no, disponibles. Si uno o más píxeles de referencia no se encuentran disponibles, la unidad de generación de píxeles de referencia 151 genera píxeles de referencia en las posiciones no disponibles usando píxeles de referencia disponibles.
5
10
15
20
25
30
35
40
45
50
55
Cuando la unidad de predicción actual está situada en el límite superior de una imagen o un fragmento, los píxeles de referencia de arriba (las regiones C y D) y el píxel de referencia de esquina de la unidad de predicción actual no existen. Cuando la unidad de predicción actual está situada en el límite izquierdo de una imagen o un fragmento, los píxeles de referencia izquierdos (las regiones A y B) y el píxel de referencia de esquina no existen. En esos casos, los píxeles de referencia se generan al copiar el valor de un píxel disponible lo más cerca del píxel no disponible. Es decir, cuando la unidad de predicción actual está situada en el límite superior de una imagen o un fragmento, los píxeles de referencia de arriba se pueden generar al copiar el píxel de referencia izquierdo de más arriba (es decir, un píxel de referencia que está situado en la posición de más arriba de la región A). Cuando la unidad de predicción actual está situada en el límite izquierdo de una imagen o un fragmento, los píxeles de referencia izquierdos se pueden generar al copiar el píxel de referencia de arriba más a la izquierda (es decir, un píxel de referencia que está situado en la posición más a la izquierda de la región C).
A continuación, se describirá un caso en el que algunos de los píxeles de referencia en unos píxeles de referencia de arriba o izquierdos de una unidad de predicción actual que se va a codificar se encuentran no disponibles. Hay dos casos en los que 1) se encuentran presentes píxeles de referencia disponibles en solo una dirección con respecto a los píxeles de referencia no disponibles, y 2) se encuentran presentes píxeles de referencia disponibles en ambas direcciones con respecto a los píxeles de referencia no disponibles.
En primer lugar, se describirá un caso en el que se encuentran presentes píxeles de referencia disponibles en solo una dirección con respecto a los píxeles de referencia no disponibles.
Puede ser posible que los píxeles de referencia adyacentes al límite de arriba de la unidad de predicción actual (la región C) se encuentren disponibles, pero los píxeles de referencia de arriba izquierdos (la región D) pueden no encontrarse disponibles. Cuando la unidad de predicción actual está situada en el límite derecho de un fragmento o una LCU, los píxeles de referencia en la región D no se encuentran disponibles. En el presente caso, los píxeles de referencia de arriba izquierdos (la región D) se generan usando uno o más píxeles de referencia de arriba disponibles. Los píxeles de referencia de arriba izquierdos se generan al copiar un píxel de arriba más a la derecha o mediante el uso de dos o más píxeles de referencia de arriba disponibles.
Cuando los píxeles de referencia (la región A) adyacentes al lado izquierdo del bloque de predicción actual se encuentran disponibles, pero los píxeles de referencia de debajo izquierdos (la región B) pueden no encontrarse disponibles. Cuando la unidad de predicción actual está situada en el límite de debajo de un fragmento o una LCU, los píxeles de referencia en la región B no se encuentran disponibles. En el presente caso, los píxeles de referencia de debajo izquierdos (la región B) se generan usando uno o más píxeles de referencia izquierdos disponibles. Los píxeles de referencia de debajo izquierdos se generan al copiar un píxel más bajo izquierdo o mediante el uso de dos o más píxeles de referencia izquierdos disponibles.
Tal como se ha descrito en lo que antecede, si el píxel de referencia disponible existe en solo una dirección a partir de los píxeles no disponibles, el píxel de referencia se genera al copiar el valor de un píxel disponible lo más cerca del píxel no disponible. Como alternativa, los píxeles de referencia se pueden generar usando dos o más píxeles disponibles lo más cerca del píxel no disponible.
A continuación, se describirá un caso en el que se encuentran presentes píxeles de referencia disponibles en ambas direcciones con respecto a los píxeles de referencia no disponibles.
Por ejemplo, cuando la unidad de predicción actual está situada en el límite superior de un fragmento y la unidad de predicción de arriba derecha de la unidad de predicción actual se encuentra disponible, los píxeles de referencia que se corresponden con la región C de la unidad de predicción actual no se encuentran disponibles, pero los píxeles de referencia que están situados en las regiones A y D se encuentran disponibles. En el presente caso en el que se encuentran disponibles píxeles de referencia que se encuentran presentes en ambas direcciones, los píxeles de referencia se generan mediante la selección de los píxeles de referencia disponibles lo más cerca de cada dirección y mediante el uso de los mismos (es decir, el píxel de referencia más hacia arriba en la región A y el píxel de referencia más hacia la izquierda en la región D).
Los píxeles de referencia se generan mediante el redondeo del promedio de los píxeles de referencia que se han mencionado en lo que antecede (es decir, los píxeles lo más cerca de cada dirección). Sin embargo, se puede usar una interpolación lineal para generar los píxeles de referencia debido a que la diferencia entre los valores de los píxeles de referencia que se han mencionado en lo que antecede puede ser grande. Con el fin de concretar, puede ser posible generar unos píxeles de referencia no disponibles de la ubicación actual al considerar la ubicación frente a los dos píxeles de referencia disponibles.
La unidad de filtrado de píxeles de referencia 152 filtra de forma adaptativa los píxeles de referencia de la unidad de predicción actual.
Haciendo referencia a la figura 4, se describe el funcionamiento de la unidad de filtrado de píxeles de referencia 152. La figura 4 es un diagrama conceptual que ilustra unos modos de intra predicción direccionales de acuerdo con la presente invención.
5
10
15
20
25
30
35
40
45
50
55
La unidad de filtrado de píxeles de referencia 152 filtra de forma adaptativa los píxeles de referencia de acuerdo con el modo de intra predicción y la posición del píxel de referencia.
En el modo vertical (el modo 0), el modo horizontal (el modo 1) y el modo de CC (el modo 2), los píxeles de referencia no se filtran. Sin embargo, en los modos de intra predicción direccionales que no sean los modos 0, 1 y 2, los píxeles de referencia se filtran de forma adaptativa. El píxel más a la derecha de los píxeles de referencia de arriba que están situados en (x = 2 N - 1, y = -1) y el píxel más bajo de los píxeles de referencia izquierdos que están situados en (x = -1, y = 2 N - 1) no se filtran. Los otros píxeles de referencia se filtran usando dos píxeles de referencia adyacentes.
Se aplica un filtro de paso bajo para suavizar las diferencias entre los píxeles de referencia adyacentes. El filtro de paso bajo puede ser un filtro de 3 coeficientes [1, 2, 1] o un filtro de 5 coeficientes [1, 2, 4, 2, 1].
La aplicación del filtro de paso bajo se determina mediante un tamaño de la unidad de predicción actual y el modo de intra predicción.
Un filtro se aplica de forma adaptativa a los píxeles de referencia en los modos de intra predicción direccionales 3, 6 y 9 que tienen una dirección de 45° con referencia a la dirección horizontal o vertical de acuerdo con el tamaño de la unidad de predicción. Si el tamaño de la unidad de predicción es más pequeño que un tamaño previamente determinado, se aplica un primer filtro. Si el tamaño de la unidad de predicción es igual a o más grande que el tamaño previamente determinado, se puede aplicar un segundo filtro más fuerte que el primer filtro. El tamaño previamente determinado puede ser de 16 * 16.
En los modos de intra predicción direccionales que existen entre el modo de intra predicción 3, 6 o 9 y el modo de intra predicción horizontal o vertical, el filtro se puede aplicar de forma adaptativa a los píxeles de referencia de acuerdo con el tamaño de la unidad de predicción. El filtro se puede aplicar en un número previamente determinado de modos de intra predicción adyacentes al modo 3, 6 o 9. Para las unidades de predicción que tienen el mismo número de modos de intra predicción direccionales, el número previamente determinado se puede aumentar a medida que aumenta el tamaño del bloque de predicción. Por ejemplo, el filtro se aplica a un primer número de modos de intra predicción adyacentes al modo 3, 6 o 9 para las unidades de predicción de 8 * 8, a un segundo número de modos de intra predicción adyacentes al modo 3, 6 o 9 para la unidad de predicción de 16 * 16, y a un tercer número de modos de intra predicción adyacentes al modo 3, 6 o 9 para la unidad de predicción de 32 * 32. El primer número es igual a o más pequeño que el segundo número, y el segundo número es igual a o más pequeño que el tercer número.
La unidad de generación de bloques de predicción 153 genera un bloque de predicción que se corresponde con el modo de intra predicción.
En el modo de CC, el bloque de predicción consiste en unos promedios de los píxeles de referencia, y puede tener lugar una diferencia de paso entre píxeles en un bloque de predicción adyacente a los píxeles de referencia. Por lo tanto, los píxeles de predicción de la línea superior y la línea izquierda que se encuentran adyacentes a los píxeles de referencia se filtran usando los píxeles de referencia. El píxel de predicción superior izquierdo adyacente a dos píxeles de referencia (el píxel de referencia superior y el píxel de referencia izquierdo) se filtra mediante un filtro de 3 coeficientes. Los otros píxeles de predicción (los píxeles de la línea superior y los píxeles de la línea izquierda en el bloque de predicción) y adyacentes a un píxel de referencia se filtran mediante un filtro de 2 coeficientes.
En el modo planar, los píxeles de predicción se generan usando un píxel de referencia de esquina, unos píxeles de referencia izquierdos y unos píxeles de referencia de arriba. Un píxel de predicción que está situado en (a, b) se genera usando un píxel de referencia de esquina que está situado en (x = -1, y = -1), un píxel de referencia de arriba que está situado en (x = a, y = -1) y un píxel de referencia izquierdo que está situado en (x = -1, y = b). En el modo planar, los píxeles de predicción no se filtran mediante un píxel de referencia.
Cuando se generan pixeles de predicción copiando un correspondiente píxel de referencia de arriba en el modo vertical (modo 0), una correlación entre un píxel de referencia izquierdo en el bloque de predicción y un píxel de predicción adyacente al píxel de referencia izquierdo disminuye a medida que la posición del píxel de predicción se desplaza hacia abajo. Cuando se generan píxeles de predicción copiando un correspondiente píxel de referencia izquierdo en el modo horizontal (modo 1), una correlación entre un píxel de referencia de arriba en el bloque de predicción y un píxel de predicción adyacente al píxel de referencia de arriba disminuye a medida que la posición del píxel de predicción se desplaza hacia la derecha. Por este motivo, en el modo vertical, la diferencia entre el bloque de predicción y una unidad de predicción original aumenta a medida que la posición del píxel de predicción se desplaza hacia abajo.
Por lo tanto, en el modo vertical, los píxeles izquierdos en el bloque de predicción pueden filtrarse usando píxeles de referencia izquierdos no usados al generar el bloque de predicción con el fin de disminuir la diferencia. En el modo horizontal, los píxeles de arriba en el bloque de predicción pueden filtrarse usando píxeles de referencia de arriba no usados al generar el bloque de predicción.
5
10
15
20
25
30
35
40
45
50
55
En los modos de intra predicción direccionales (números de modo 22, 12, 23, 5, 24, 13 y 25) que existen entre el modo 0 y el modo 6, y el modo 6, al generar el bloque de predicción usando solamente píxeles de referencia de arriba de la unidad de predicción actual, la diferencia entre un píxel de referencia y píxeles en una línea izquierda del bloque de predicción generado y adyacentes al píxel de referencia aumenta a medida que la posición del píxel de predicción se desplaza hacia abajo.
En los modos de intra predicción direccionales (números de modo 30, 16, 31, 8, 32, 17, 33) que existen entre el modo 1 y el modo 9, y el modo 9, al generar el bloque de predicción usando solamente píxeles de referencia izquierdos de la unidad de predicción actual, la diferencia entre un píxel de referencia y píxeles en una línea superior del bloque de predicción generado y adyacentes al píxel de referencia aumenta a medida que la posición del píxel de predicción se desplaza hacia la derecha.
Por lo tanto, algunos píxeles del bloque de predicción pueden filtrarse de forma adaptativa para el modo de intra predicción direccional a excepción del modo de CC con el fin de compensar la diferencia. De lo contrario, para compensar la diferencia, el bloque de predicción puede generarse usando píxeles de referencia tanto de arriba como izquierdos.
En primer lugar se describirá un procedimiento para filtrar algunos píxeles del bloque de predicción.
En el modo 6, el bloque de predicción se genera usando píxeles de referencia de arriba y píxeles de predicción izquierdos adyacentes a un píxel de referencia. El área de píxeles en el bloque de predicción que han de filtrarse puede variar de acuerdo con un tamaño de la unidad de predicción. Es decir, el número de líneas y la proporción de píxeles en una línea que han de filtrarse pueden variar en función del tamaño de la unidad de predicción. El número de líneas puede aumentar o mantenerse igual o la proporción puede disminuir a medida que aumenta el tamaño de la unidad de predicción. Asimismo, la intensidad de filtrado puede disminuir a medida que aumenta la distancia respecto al píxel de referencia.
Por ejemplo, los píxeles de la primera línea izquierda (x=0, y=0,-,3) en el bloque de predicción generado se filtran para una unidad de predicción de 4 * 4. Todos los píxeles de predicción de la primera línea izquierda y algunos píxeles de predicción de la segunda línea se filtran para una unidad de predicción de 8 * 8. Los algunos píxeles de predicción pueden estar ubicados en (x=1, y=4,-,7). Todos los píxeles de predicción de la primera línea izquierda, una primera cantidad de píxeles de predicción de la segunda línea y una segunda cantidad de píxeles de predicción de la tercera línea se filtran para una unidad de predicción de 16 * 16. La primera cantidad de píxeles de predicción pueden estar ubicados en (x=1, y=4,-,7) y la segunda cantidad de píxeles de predicción pueden estar ubicados en (x=2, y=8,-,15). Todos los píxeles de predicción de la primera línea izquierda, una primera cantidad de píxeles de predicción de la segunda línea, una segunda cantidad de píxeles de predicción de la tercera línea y una tercera cantidad de píxeles de predicción de la cuarta línea se filtran para una unidad de predicción de 32 * 32. La tercera cantidad de píxeles de predicción pueden estar ubicados en (x=3, y=16,-,31).
En un número predeterminado de modos de intra predicción más próximos al modo 6 y existentes entre el modo 0 y el modo 6, los píxeles de predicción pueden filtrarse usando el mismo procedimiento que en el modo 6. La cantidad de píxeles de predicción que van a filtrarse puede disminuir o mantenerse igual a medida que la dirección del modo de intra predicción se aleja de la dirección del modo 6. En un número predeterminado de modos de intra predicción más próximos al modo 0 y existentes entre el modo 0 y el modo 6, los píxeles de predicción pueden filtrarse usando el mismo procedimiento que en el modo vertical.
En el modo 9, los píxeles de predicción pueden filtrarse usando el mismo procedimiento que en el modo 6. En los modos de intra predicción existentes entre el modo 1 y el modo 9, los píxeles de predicción pueden filtrarse usando el mismo procedimiento que en los modos de intra predicción existentes entre el modo 0 y el modo 6.
Mientras tanto, en el modo 6 y un número predeterminado de los modos de intra predicción adyacentes al modo 6, el bloque de predicción puede generarse usando todos los píxeles de referencia de arriba e izquierdos, sin usar el procedimiento anteriormente mencionado que filtra algunos píxeles en el bloque de predicción. En el modo 9 y un número predeterminado de los modos de intra predicción adyacentes al modo 9, se aplica el mismo procedimiento.
La unidad de determinación de modo de intra predicción 154 determina el modo de intra predicción de la unidad de predicción actual. La unidad de determinación de modo de intra predicción 154 selecciona un modo de intra predicción en el que la cantidad de bits de codificación de un bloque residual se reduce al mínimo para cada modo de intra predicción como el modo de intra predicción de la unidad de predicción actual.
La unidad de codificación de modo de intra predicción 155 codifica el modo de intra predicción de la unidad de predicción actual que se determina mediante la unidad de determinación de modo de intra predicción 154. La unidad de codificación de modo de intra predicción 155 se puede integrar en la unidad de intra predicción 150 o en la unidad de codificación por entropía 140.
La unidad de codificación de modo de intra predicción 155 codifica el modo de intra predicción de la unidad de predicción actual usando los modos de intra predicción de las unidades de predicción adyacentes a la unidad de predicción actual. La unidad de codificación de modo de intra predicción 155 clasifica los modos de intra predicción
5
10
15
20
25
30
35
40
45
50
55
(por ejemplo, 35 modos) admisibles para la unidad de predicción actual en una pluralidad de grupos de modos de intra predicción, codifica un índice que se corresponde con un grupo al que pertenece el modo de intra predicción actual y un índice que se corresponde con el modo de intra predicción de la unidad de predicción actual en el grupo al que pertenece el modo de intra predicción actual. Cada grupo incluye al menos un modo de intra predicción. Preferentemente, el número de los grupos de modos de intra predicción es de 2 o 3.
En lo sucesivo en el presente documento, se describirá un caso en el que el número de los grupos de modos de intra predicción es 2.
En primer lugar, se obtienen los modos de intra predicción de las unidades de predicción adyacentes a la unidad de predicción actual. Los modos de intra predicción pueden ser unos modos de intra predicción de una unidad de predicción izquierda y una unidad de predicción de arriba de la unidad de predicción actual. Cuando existe una pluralidad de unidades de predicción de arriba de la unidad de predicción actual, la pluralidad de unidades de predicción de arriba se exploran en una dirección previamente determinada (por ejemplo, de derecha a izquierda) para determinar el modo de intra predicción de una primera unidad de predicción disponible como un modo de intra predicción de arriba. Asimismo, cuando existe una pluralidad de unidades de predicción izquierda de la unidad de predicción actual, la pluralidad de unidades de predicción izquierda se exploran en una dirección previamente determinada (por ejemplo, de abajo arriba) para determinar el modo de intra predicción de una primera unidad de predicción disponible como un modo de intra predicción izquierda. Como alternativa, de entre una pluralidad de unidades de predicción disponibles, el modo de intra predicción de una unidad de predicción disponible que tiene el número de modo de intra predicción más bajo se puede establecer como un modo de intra predicción de arriba.
A continuación, el modo de intra predicción obtenido se puede convertir en uno de los modos admisibles para la unidad de predicción actual cuando el número de modo de intra predicción obtenido es igual a o más grande que el número de modos de intra predicción admisibles para la unidad de predicción actual.
A continuación, un primer grupo de modos de intra predicción se construye usando el modo de intra predicción obtenido o convertido.
Los modos de intra predicción obtenidos o convertidos y uno o más candidatos de modo de intra predicción que se determinan en un orden previamente determinado por los modos de intra predicción obtenidos o convertidos se usan para construir el primer grupo de modos de intra predicción. Cuando el modo de intra predicción obtenido o convertido es un modo direccional, los candidatos de modo de intra predicción pueden ser uno o más modos de intra predicción direccionales lo más cerca del modo de intra predicción obtenido o convertido.
A continuación, se determina si el modo de intra predicción de la unidad de predicción actual pertenece, o no, al primer grupo de modos de intra predicción.
Cuando el modo de intra predicción de la unidad de predicción actual pertenece al primer grupo de modos de intra predicción, se codifican una información que indica el primer grupo de modos de intra predicción y un índice que se corresponde con el modo de intra predicción de la unidad de predicción actual en el primer grupo de modos de intra predicción.
Sin embargo, cuando el modo de intra predicción de la unidad de predicción actual no pertenece al primer grupo de modos de intra predicción, se codifican una información que indica un segundo grupo de modos de intra predicción y un índice que se corresponde con el modo de intra predicción de la unidad de codificación actual en el segundo grupo de modos de intra predicción. El segundo grupo de modos de intra predicción incluye los modos de intra predicción que no sean los modos de intra predicción que pertenecen al primer grupo de modos de intra predicción.
Cuando no se encuentra disponible ninguno del modo de intra predicción de arriba y el modo de intra predicción izquierda, se añaden uno o más modos de intra predicción al primer grupo de modos de intra predicción. Por ejemplo, se puede añadir un modo de CC o un modo planar cuando se añade un modo de intra predicción. Se pueden añadir un modo de CC y un modo planar o vertical cuando se añaden dos modos de intra predicción. Un modo de CC, un modo planar y uno del modo vertical y el modo horizontal se pueden añadir cuando se añaden tres modos de intra predicción.
Cuando se encuentra disponible uno del modo de intra predicción de arriba y el modo de intra predicción izquierda o cuando el modo de intra predicción de arriba y el modo de intra predicción izquierda son el mismo, se puede añadir uno o dos modos de intra predicción al primer grupo de modos de intra predicción. Por ejemplo, se puede añadir un modo de CC o un modo planar cuando se añade un modo de intra predicción. Cuando se añaden dos modos de intra predicción, los modos de intra predicción que se van a añadir varían de acuerdo con si el modo de intra predicción disponible es, o no, un modo de intra predicción direccional. Si el modo de intra predicción disponible es uno de los modos de intra predicción no direccional (es decir, un modo de CC y un modo planar), se pueden añadir un modo vertical y un modo horizontal o se pueden añadir el otro modo de intra predicción direccional y un modo vertical. Si el modo de intra predicción disponible es un modo de intra predicción direccional, se pueden añadir dos modos de intra predicción lo más cerca del modo de intra predicción direccional en ambos lados. Sin embargo, si existe el modo de intra predicción adyacente en solo un lado del modo de intra predicción disponible (es decir, el modo de intra predicción disponible es el modo 6 o 9), el modo de intra predicción adyacente (el modo 25 o 33) y se
5
10
15
20
25
30
35
40
45
50
55
puede añadir uno de un modo de CC o un modo planar.
Cuando el modo de intra predicción de la unidad de predicción actual pertenece al segundo grupo de modos de intra predicción, el índice se corresponde con un número reordenado del modo de intra predicción de la unidad de codificación actual en el segundo grupo de modos de intra predicción. En el presente caso, se puede usar una tabla de VLC.
Se presenta el caso en el que el número de los grupos de modos de intra predicción es de 2, pero el número de los grupos de modos de intra predicción puede ser de 3. Cuando el número de los grupos de modos de intra predicción es de 3, si el modo de intra predicción de la unidad de predicción actual no pertenece al primer grupo de modos de intra predicción, se determina si el modo de intra predicción de la unidad de predicción actual pertenece al segundo grupo de modos de intra predicción. Si el modo de intra predicción de la unidad de predicción actual pertenece al segundo grupo de modos de intra predicción, se codifican una información que indica el segundo grupo de modos de intra predicción y un índice que se corresponde con el modo de intra predicción de la unidad de codificación actual en el segundo grupo de modos de intra predicción. Si el modo de intra predicción de la unidad de predicción actual no pertenece al segundo grupo de modos de intra predicción, se codifican una información que indica el tercer grupo de modos de intra predicción y un índice que se corresponde con el modo de intra predicción de la unidad de codificación actual en el tercer grupo de modos de intra predicción. El segundo grupo de modos de intra predicción se genera sobre la base de los modos de intra predicción de la unidad de predicción izquierda y la unidad de predicción de arriba de la unidad de predicción actual.
Como alternativa, la unidad de codificación de modo de predicción 155 puede codificar el modo de intra predicción del modo de predicción actual tal como sigue. En primer lugar, se determina si el modo de intra predicción de la unidad de predicción actual es igual a uno de los modos de intra predicción del bloque previo adyacente a las unidades de predicción actual. Si el modo de intra predicción de la unidad de predicción actual es igual a uno de los modos de intra predicción del bloque previo adyacente a las unidades de predicción actual, una etiqueta que indica esto (pred_flag) se establece en 1 y el modo de intra predicción de la unidad de predicción actual se codifica usando el modo de intra predicción izquierda o de arriba disponible. De lo contrario, la etiqueta (pred_flag) se establece en 0 y se codifica un índice que indica el número ordenado del modo de intra predicción de la unidad de codificación actual de entre los modos de intra predicción que no sean los modos de intra predicción izquierda y de arriba.
Mientras tanto, los modos de intra predicción de componente de crominancia pueden incluir un modo que usa el modo de intra predicción correspondiente de la componente de luminancia. En el presente caso, tal información se puede incluir en un conjunto de parámetros de secuencia (SPS), un conjunto de parámetros de imagen (PPS) o un encabezamiento de fragmento. El número de modos de intra predicción de componente de crominancia puede variar de acuerdo con un tamaño de la unidad de predicción. Los modos de intra predicción de componente de crominancia se pueden codificar usando los modos de intra predicción del bloque adyacente. En el presente caso, el procedimiento de codificación es el mismo que se ha descrito en lo que antecede. De lo contrario, los modos de intra predicción de componente de crominancia se pueden codificar sin usar información de modo de intra predicción del bloque adyacente. En el presente caso, se puede usar una tabla de VLC.
La unidad de transmisión de bloques de predicción 156 transmite el bloque de predicción generado que se corresponde con el modo de intra predicción al sustractor 190.
La figura 5 es un diagrama de bloques de un aparato de descodificación de imágenes en movimiento de acuerdo con la presente invención.
El aparato de descodificación de imágenes en movimiento de acuerdo con la presente invención incluye una unidad de descodificación por entropía 210, una unidad de exploración inversa 220, una unidad de cuantificación inversa 230, una unidad de transformada inversa 240, una unidad de intra predicción 250, una unidad de inter predicción 260, una unidad de post procesamiento 270, una unidad de almacenamiento de imágenes 280, un sumador 290 y un conmutador de cambio de intra/inter 295.
La unidad de descodificación por entropía 210 extrae la información de intra predicción, una información de inter predicción y una información de coeficientes cuantificados a partir de un flujo de bits recibido. La unidad de descodificación por entropía 210 transmite la información de inter predicción a la unidad de inter predicción 260, la información de intra predicción a la unidad de intra predicción 250 y la información de coeficientes cuantificados a la unidad de exploración inversa 220.
La unidad de exploración inversa 220 convierte la información de coeficientes cuantificados en un bloque de transformada cuantificado bidimensional. Uno de una pluralidad de patrones de exploración inversa se selecciona para la conversión. El patrón de exploración inversa se selecciona sobre la base del modo de intra predicción. Si un tamaño de una unidad de transformada que se va a descodificar es más grande que el tamaño de referencia previamente determinado, una unidad de transformada cuantificada se genera mediante la exploración, de forma inversa, de los coeficientes de transformada cuantificados en la unidad de un tamaño previamente determinado del subconjunto. Si el tamaño de una unidad de transformada que se va a descodificar es igual al tamaño de referencia previamente determinado, la unidad de transformada cuantificada se genera mediante la exploración, de forma
5
10
15
20
25
30
35
40
45
50
55
inversa, de los coeficientes de transformada cuantificados en la unidad de la unidad de transformada. Si los coeficientes de transformada cuantificados se exploran de forma inversa en la unidad del subconjunto, un mismo patrón de exploración inversa se aplica a los coeficientes de transformada cuantificados en cada subconjunto. La pluralidad de subconjuntos consiste en un subconjunto principal y uno o más subconjuntos restantes. El subconjunto principal está situado en un lado izquierdo superior e incluye un coeficiente de CC, y los uno o más subconjuntos restantes cubren una región que no sea el subconjunto principal.
Un patrón de exploración a aplicar a los subconjuntos puede ser una exploración en zigzag. Los subconjuntos se pueden explorar de forma inversa comenzando con el subconjunto principal para los subconjuntos residuales en una dirección hacia delante, o se pueden explorar en el sentido inverso. Un patrón de exploración inversa para explorar los subconjuntos se puede establecer como el mismo que un patrón de exploración inversa para explorar los coeficientes de transformada cuantificados. La unidad de exploración inversa 220 realiza un procedimiento de exploración inversa usando una información que indica una posición del último coeficiente cuantificado no nulo de la unidad de transformada.
La unidad de cuantificación inversa 230 determina un predictor de tamaño de paso de cuantificación de una unidad de codificación actual. La operación para determinar el predictor de tamaño de paso de cuantificación es la misma que la del procedimiento de la unidad de cuantificación 130 de la figura 1. La unidad de cuantificación inversa suma el predictor de tamaño de paso de cuantificación determinado y un tamaño de paso de cuantificación residual recibido para generar un tamaño de paso de cuantificación de la unidad de codificación actual. La unidad de cuantificación inversa 230 restablece los coeficientes cuantificados de forma inversa usando una matriz de cuantificación que se determina mediante el tamaño de paso de cuantificación. La matriz de cuantificación varía de acuerdo con el tamaño del bloque actual que se va a restablecer. La matriz de cuantificación se puede seleccionar para un bloque que tiene el mismo tamaño en función de al menos uno de un modo de predicción y un modo de intra predicción del bloque actual.
La unidad de cuantificación inversa 230 determina un predictor de tamaño de paso de cuantificación de una unidad de codificación actual. La operación de determinación del predictor de tamaño de paso de cuantificación es la misma que la operación de la unidad de cuantificación 130 de la figura 1. La unidad de cuantificación inversa suma el predictor de tamaño de paso de cuantificación determinado y un tamaño de paso de cuantificación residual recibido para generar un tamaño de paso de cuantificación de la unidad de codificación actual. La unidad de cuantificación inversa 230 restablece los coeficientes cuantificados de forma inversa usando una matriz de cuantificación que se determina mediante el tamaño de paso de cuantificación. La matriz de cuantificación varía de acuerdo con el tamaño del bloque actual o la matriz de cuantificación varía para un bloque de acuerdo con al menos uno del modo de predicción y el modo de intra predicción.
La unidad de transformada inversa 240 transforma de forma inversa el bloque cuantificado de forma inversa de restablecimiento de un bloque residual. La matriz de transformada inversa a aplicar al bloque cuantificado de forma inversa se determina de forma adaptativa de acuerdo con el modo de predicción (intra o inter) y el modo de intra predicción. El procedimiento de determinación de la matriz de transformada inversa es el mismo que el procedimiento en la unidad de transformada 120 de la figura 1.
El sumador 290 suma el bloque residual restablecido que es restablecido por la unidad de transformada inversa 240 y un bloque de predicción que se genera mediante la unidad de intra predicción 250 o la unidad de inter predicción 260 para generar un bloque de imagen reconstruido.
La unidad de intra predicción 250 restablece el modo de intra predicción del bloque actual sobre la base de la información de intra predicción que se recibe a partir de la unidad de descodificación por entropía 210 y genera un bloque de predicción de acuerdo con el modo de intra predicción restablecido.
La unidad de inter predicción 260 restablece los índices de imagen de referencia y los vectores de movimiento sobre la base de la información de inter predicción que se recibe a partir de la unidad de descodificación por entropía 210 y genera un bloque de predicción usando los índices de imagen de referencia y los vectores de movimiento. Cuando se aplica una compensación de movimiento con una precisión fraccionaria, el bloque de predicción se genera usando un filtro de interpolación.
La unidad de post procesamiento 270 opera del mismo modo que la unidad de post procesamiento 160 de la figura 3.
La unidad de almacenamiento de imágenes 280 almacena la imagen reconstruida post procesada mediante la unidad de post procesamiento 270.
La figura 6 es un diagrama de bloques de la unidad de intra predicción 250 de un aparato de descodificación de imágenes en movimiento 200 de acuerdo con la presente invención.
La unidad de intra predicción 250 de acuerdo con la presente invención incluye una unidad de descodificación de modos de intra predicción 251, una unidad de generación de píxeles de referencia 252, una unidad de filtrado de píxeles de referencia 253, una unidad de generación de bloques de predicción 254 y una unidad de transmisión de
5
10
15
20
25
30
35
40
45
50
55
bloques de predicción 255.
La unidad de descodificación de modos de intra predicción 251 recibe la información de intra predicción a partir de la unidad de descodificación por entropía 210 y restablece el modo de intra predicción de la unidad de predicción actual. La información de intra predicción incluye una información que indica el grupo de modos de intra predicción al cual pertenece la unidad de predicción actual que se va a descodificar, y el índice de modos de intra predicción.
La unidad de descodificación de modos de intra predicción 251 obtiene los modos de intra predicción de las unidades de predicción adyacentes a la unidad de predicción actual. Los modos de intra predicción pueden ser el modo de intra predicción de una unidad de intra predicción izquierda y una unidad de intra predicción de arriba de la unidad de predicción actual. Cuando existe una pluralidad de unidades de predicción de arriba de la unidad de predicción actual, la pluralidad de unidades de predicción de arriba se exploran en una dirección previamente determinada (por ejemplo, de derecha a izquierda) para determinar el modo de intra predicción de una primera unidad de predicción disponible como un modo de intra predicción de arriba. Asimismo, cuando existe una pluralidad de unidades de predicción izquierda de la unidad de predicción actual, la pluralidad de unidades de predicción izquierda se exploran en una dirección previamente determinada (por ejemplo, de abajo arriba) para determinar el modo de intra predicción de una primera unidad de predicción disponible como un modo de intra predicción izquierda. Como alternativa, de entre una pluralidad de unidades de predicción disponibles, el modo de intra predicción de una unidad de predicción disponible que tiene el número de modo de intra predicción más bajo se puede establecer como un modo de intra predicción de arriba.
El modo de intra predicción de arriba o el modo de intra predicción izquierda se convierte en uno de los modos admisibles cuando el número de modos de intra predicción de arriba o el número de modos de intra predicción izquierda es igual a o más grande que el número de modos de intra predicción admisibles para la unidad de predicción actual.
Un primer grupo de modos de intra predicción se construye usando el modo de intra predicción obtenido o convertido. Los modos de intra predicción obtenidos o convertidos y uno o más candidatos de modo de intra predicción que se determinan en un orden previamente determinado por los modos de intra predicción obtenidos o convertidos se pueden incluir en el primer grupo de modos de intra predicción. Cuando el modo de intra predicción obtenido o convertido es un modo direccional, los uno o más candidatos de modo de intra predicción pueden ser al menos un modo de intra predicción direccional lo más cerca del modo de intra predicción obtenido o convertido.
La unidad de descodificación de modos de intra predicción 251 determina si la información que indica el grupo de modos de intra predicción indica, o no, el primer grupo de modos de intra predicción.
Si la información que indica el grupo de modos de intra predicción indica el primer grupo de modos de intra predicción, el modo de intra predicción que se corresponde con el índice de modo de intra predicción recibido se selecciona de entre el primer grupo de modos de intra predicción, y el modo de intra predicción seleccionado se establece como el modo de intra predicción de la unidad de predicción actual.
Si la información que indica el grupo de modos de intra predicción indica el segundo grupo de modos de intra predicción, el modo de intra predicción que se corresponde con el índice de modo de intra predicción recibido se selecciona de entre el segundo grupo de modos de intra predicción, y el modo de intra predicción seleccionado se establece como el modo de intra predicción de la unidad de predicción actual. El segundo grupo de modos de intra predicción incluye unos modos de intra predicción que no sean los modos de intra predicción que pertenecen al primer grupo de modos de intra predicción. Los modos de intra predicción del segundo modo de intra predicción se pueden reordenar con referencia al índice de modo de intra predicción. Asimismo, los modos de intra predicción del segundo modo de intra predicción se pueden reordenar con referencia al modo de intra predicción de la unidad de predicción de arriba e izquierda de la unidad de predicción actual así como el índice de modo de intra predicción.
Cuando no se encuentra disponible ninguno del modo de intra predicción de arriba y el modo de intra predicción izquierda, se añaden uno o más modos de intra predicción al primer grupo de modos de intra predicción. Por ejemplo, se puede añadir un modo de CC o un modo planar cuando se añade un modo de intra predicción. Se pueden añadir un modo de CC y un modo planar o vertical cuando se añaden dos modos de intra predicción. Un modo de CC, un modo planar, y uno del modo vertical y el modo horizontal se pueden añadir cuando se añaden tres modos de intra predicción.
Cuando se encuentra disponible uno del modo de intra predicción de arriba y el modo de intra predicción izquierda o cuando el modo de intra predicción de arriba y el modo de intra predicción izquierda son el mismo, se puede añadir uno o dos modos de intra predicción al primer grupo de modos de intra predicción. Por ejemplo, se puede añadir un modo de CC o un modo planar cuando se añade un modo de intra predicción. Cuando se añaden dos modos de intra predicción, los modos de intra predicción que se van a añadir varían de acuerdo con si el modo de intra predicción disponible es, o no, un modo de intra predicción direccional. Si el modo de intra predicción disponible es uno de los modos de intra predicción no direccional (es decir, un modo de CC o un modo planar), se pueden añadir un modo vertical y un modo horizontal o se pueden añadir el otro modo de intra predicción no direccional (es decir, un modo planar o un modo de CC) y un modo vertical. Si el modo de intra predicción disponible es un modo de intra
5
10
15
20
25
30
35
40
45
50
55
predicción direccional, se pueden añadir dos modos de intra predicción lo más cerca del modo de intra predicción disponible en ambos lados. Sin embargo, para un cierto modo (por ejemplo, el modo 6 o el modo 9) que tiene el modo de intra predicción adyacente en solo un lado del modo de intra predicción disponible, el modo de intra predicción adyacente (el modo 25 o el modo 33) y se puede añadir uno de un modo de CC y un modo planar.
Como alternativa, la unidad de descodificación de modo de predicción 251 puede descodificar el modo de intra predicción del modo de predicción actual tal como sigue. En primer lugar, se analiza sintácticamente una etiqueta (pred_flag) que indica si el modo de intra predicción de la unidad de predicción actual es igual a uno de los modos de intra predicción de las unidades de intra predicción previas (por ejemplo, las unidades de predicción de arriba e izquierda). Si la etiqueta (pred_flag) es 1, el modo de intra predicción de la unidad de predicción actual se determina usando el modo de intra predicción izquierda disponible y el modo de intra predicción de arriba disponible. Si la etiqueta (pred_flag) es 0, el modo de intra predicción de la unidad de predicción actual se determina usando la información de modo de predicción restante (rem_pred_mode). La información de modo de predicción restante (rem_pred_mode) indica el orden de los modos de intra predicción de la unidad de intra predicción actual de entre los modos de intra predicción disponibles que no sean el modo de intra predicción izquierda disponible y el modo de intra predicción de arriba disponible.
La unidad de generación de píxeles de referencia 252 genera píxeles de referencia usando el mismo procedimiento que se describe en la unidad de generación de píxeles de referencia 151 del aparato de codificación 100. Sin embargo, la unidad de generación de píxeles de referencia 252 puede generar de forma adaptativa los píxeles de referencia de acuerdo con el modo de intra predicción restablecido solo cuando los píxeles de referencia que se usan para generar un bloque de predicción y que se determinan mediante el modo de intra predicción no se encuentran disponibles.
La unidad de filtrado de píxeles de referencia 253 filtra de forma adaptativa los píxeles de referencia sobre la base del modo de intra predicción restablecido y un tamaño de la unidad de predicción actual. El procedimiento y la condición de filtrado y son los mismos que los de la unidad de filtrado de píxeles de referencia 152 del aparato de codificación 100.
La unidad de generación de bloques de predicción 254 genera un bloque de predicción usando los píxeles de referencia sobre la base del modo de intra predicción restablecido. Un procedimiento de generación del bloque de predicción es el mismo procedimiento que se usa en la unidad de generación de bloques de predicción 154 del aparato de codificación 100.
La unidad de transmisión de bloques de predicción 255 transmite el bloque de predicción que se recibe a partir del generador de bloques de predicción 254 al sumador 290.
La figura 7 es un diagrama de flujo que ilustra un procedimiento de descodificación en un modo de intra predicción de acuerdo con la presente invención.
En primer lugar, la información de intra predicción y las señales residuales se desmultiplexan a partir de un flujo de bits recibido en la etapa S100. La etapa S100 se realiza en la unidad de una unidad de codificación. La información de intra predicción se extrae a partir de una sintaxis de unidad de predicción en la unidad de codificación. Las señales residuales se extraen a partir de una sintaxis de unidad de transformada en la unidad de codificación.
El modo de intra predicción de una unidad de predicción actual se restablece usando la información de intra predicción que se obtiene a partir de la sintaxis de unidad de predicción en la etapa S110. La información de intra predicción incluye el indicador de grupo de modos de intra predicción (pred_mode) y el índice de modo de intra predicción. Si la información de intra predicción no incluye el índice de modo de intra predicción, la información de intra predicción se establece en 0. El indicador de grupo de modos de intra predicción indica el grupo de modos de intra predicción al cual pertenece el modo de intra predicción de la unidad de predicción actual. Si el número de los grupos de modos de intra predicción es de 2, el indicador de grupo de modos de intra predicción (pred_mode) puede ser una etiqueta de un bit. El número de los grupos de modos de intra predicción puede ser de 2 o 3.
La figura 8 es un diagrama de flujo que ilustra un procedimiento de restablecimiento de un modo de intra predicción de acuerdo con la presente invención. El número de modos de intra predicción que pertenecen al primer grupo de modos de intra predicción varía. Se describirá un caso en el que el número de los grupos de modos de intra predicción es de 2.
En primer lugar, un primer grupo de modos de intra predicción se construye usando los modos de intra predicción de las unidades de predicción adyacentes a la unidad de predicción actual en la etapa S111.
Por ejemplo, el primer grupo de modos de intra predicción está compuesto por los modos de intra predicción disponibles de las unidades de intra predicción de arriba y las de izquierda de la unidad de predicción actual. Si ambos de los modos de intra predicción de las unidades de intra predicción de arriba y las de izquierda se encuentran no disponibles, se puede añadir un modo de CC o un modo planar al primer grupo de modos de intra predicción. El primer grupo de modos de intra predicción puede incluir al menos un modo de intra predicción adicional que es un primer modo de intra predicción disponible que es encontrado cuando se recupera un modo de
5
10
15
20
25
30
35
40
45
50
intra predicción derecha de arriba, un modo de intra predicción izquierda de debajo, un modo de intra predicción izquierda de arriba de la unidad de predicción actual.
Cuando existe una pluralidad de unidades de predicción de arriba de la unidad de predicción actual, la pluralidad de unidades de predicción de arriba se exploran en una dirección previamente determinada (por ejemplo, de izquierda a derecha) para determinar el modo de intra predicción de una primera unidad de predicción disponible como un modo de intra predicción de arriba. Asimismo, cuando existe una pluralidad de unidades de predicción izquierda de la unidad de predicción actual, la pluralidad de unidades de predicción izquierda se exploran en una dirección previamente determinada (por ejemplo, de arriba abajo) para determinar el modo de intra predicción de una primera unidad de predicción disponible como un modo de intra predicción izquierda.
Si el modo de intra predicción disponible no es igual a uno de los modos de intra predicción admisibles de la unidad de predicción actual, el modo de intra predicción disponible se convierte en uno de los modos de intra predicción admisibles de la unidad de predicción actual.
Se determina si el modo de intra predicción de la unidad de predicción actual pertenece, o no, al primer grupo de modos de intra predicción, sobre la base del indicador de grupo de modos de intra predicción en la etapa S112.
Si el modo de intra predicción de la unidad de predicción actual pertenece al primer grupo de modos de intra predicción, se determina si el índice de modo de intra predicción existe, o no, en la etapa S113.
Si el índice de modo de intra predicción existe, el modo de intra predicción del primer grupo de modos de intra predicción que se corresponde con el índice de modo de intra predicción se determina como el modo de intra predicción de la unidad de predicción actual en la etapa S114.
Si el índice de modo de intra predicción no existe, el índice de modo de intra predicción se establece en 0 y el modo de intra predicción del primer grupo de modos de intra predicción que se corresponde con el índice de modo de intra predicción 0 se determina como el modo de intra predicción de la unidad de predicción actual en la etapa S115. Es decir, si el índice de modo de intra predicción no existe, solo se incluye un modo de intra predicción en el primer grupo de modos de intra predicción.
Si el modo de intra predicción de la unidad de predicción actual no pertenece al primer grupo de modos de intra predicción, el modo de intra predicción del segundo grupo de modos de intra predicción que se corresponde con el índice de modo de intra predicción se determina como el modo de intra predicción de la unidad de predicción actual en la etapa S116. El segundo grupo de modos de intra predicción incluye la totalidad de los modos de intra predicción que no sean los modos de intra predicción que pertenecen al primer grupo de modos de intra predicción. El índice de modo de intra predicción se puede asignar en el orden del número de modo del modo de intra predicción del segundo grupo de modos de intra predicción.
La figura 9 es un diagrama de flujo que ilustra otro procedimiento de restablecimiento del modo de intra predicción de acuerdo con la presente invención. El número de modos de intra predicción que pertenecen a un primer grupo de modos de intra predicción está fijado.
En primer lugar, un primer grupo de modos de intra predicción se construye usando los modos de intra predicción de las unidades de predicción adyacentes a la unidad de predicción actual en la etapa S211.
Cuando el primer grupo de modos de intra predicción incluye dos modos de intra predicción, el primer grupo de modos de intra predicción se construye tal como sigue.
Se determina si los modos de intra predicción de las unidades de intra predicción de arriba y las de izquierda de la unidad de predicción actual se encuentran, o no, disponibles. Si el modo de intra predicción disponible no es uno de los modos de intra predicción admisibles de la unidad de predicción actual, el modo de intra predicción disponible se convierte en uno de los modos de intra predicción admisibles. Cuando se encuentran disponibles ambos de los modos de intra predicción de las unidades de intra predicción de arriba y las de izquierda y no son el mismo, el primer grupo de modos de intra predicción está compuesto por los modos de intra predicción de las unidades de intra predicción de arriba y las de izquierda. Cuando solo se encuentra disponible uno de los modos de intra predicción de las unidades de intra predicción de arriba y las de izquierda o cuando los modos de intra predicción de las unidades de intra predicción de arriba y las de izquierda son el mismo, el primer grupo de modos de intra predicción está compuesto por el modo de intra predicción disponible y un modo de intra predicción adicional. Si el modo de intra predicción disponible no es un modo de CC, el modo de intra predicción adicional puede ser un modo de CC. Si el modo de intra predicción disponible es un modo de CC, el modo de intra predicción adicional puede ser un modo planar o un modo vertical.
Cuando el primer grupo de modos de intra predicción incluye tres modos de intra predicción, el primer grupo de modos de intra predicción se construye tal como sigue.
5
10
15
20
25
30
35
40
45
50
55
Se determina si los modos de intra predicción de las unidades de intra predicción de arriba y las de izquierda de la unidad de predicción actual se encuentran, o no, disponibles. Si el modo de intra predicción disponible no es uno de los modos de intra predicción admisibles de la unidad de predicción actual, el modo de intra predicción disponible se puede convertir en uno de los modos de intra predicción admisibles.
Cuando ambos de los modos de intra predicción de las unidades de intra predicción de arriba y las de izquierda se encuentran disponibles y no son el mismo uno que otro, el primer grupo de modos de intra predicción está compuesto por los dos modos de intra predicción disponibles y un modo de intra predicción adicional. El modo de intra predicción adicional es diferente de los dos modos de intra predicción disponibles y es uno de un modo vertical, un modo horizontal y un modo de CC. El modo de intra predicción adicional es el primer modo de intra predicción que se puede añadir en el orden del modo de CC, el modo vertical y el modo horizontal.
Cuando solo se encuentra disponible uno de los modos de intra predicción de las unidades de intra predicción de arriba y las de izquierda o cuando los modos de intra predicción de las unidades de intra predicción de arriba y las de izquierda son el mismo, el primer grupo de modos de intra predicción está compuesto por el modo de intra predicción disponible y dos modos de intra predicción adicionales. Los dos modos de intra predicción adicionales se determinan de forma adaptativa de acuerdo con los modos de intra predicción disponibles y un tamaño de la unidad de predicción. Si el tamaño de la unidad de predicción es igual a o más pequeño que un tamaño previamente determinado y el modo de intra predicción disponible es un modo direccional, dos modos de intra predicción que tienen una dirección lo más cerca de la dirección del modo de intra predicción disponible se seleccionan como los dos modos de intra predicción adicionales. Sin embargo, si el modo de intra predicción disponible es el modo 6 o 9, el modo 6 o 9 se selecciona como el otro modo de intra predicción adicional. Si el modo de intra predicción disponible es un modo de intra predicción no direccional, los dos modos de intra predicción adicionales son un modo vertical y un modo horizontal, o el otro modo de intra predicción no direccional y un modo vertical.
Cuando la totalidad de los modos de intra predicción de las unidades de intra predicción de arriba y las de izquierda se encuentran no disponibles, el primer grupo de modos de intra predicción está compuesto por tres modos de intra predicción adicionales. Los tres modos de intra predicción adicionales pueden ser un modo de CC, un modo vertical y un modo horizontal, o un modo de CC, un modo planar y un modo vertical.
Cuando existe una pluralidad de unidades de predicción de arriba de la unidad de predicción actual, la pluralidad de unidades de predicción de arriba se exploran en una dirección previamente determinada (por ejemplo, de izquierda a derecha) para determinar el modo de intra predicción de una primera unidad de predicción disponible como un modo de intra predicción de arriba. Asimismo, cuando existe una pluralidad de unidades de predicción izquierda de la unidad de predicción actual, la pluralidad de unidades de predicción izquierda se exploran en una dirección previamente determinada (por ejemplo, de arriba abajo) para determinar el modo de intra predicción de una primera unidad de predicción disponible como un modo de intra predicción izquierda.
A continuación, se determina si el modo de intra predicción de la unidad de predicción actual pertenece, o no, al primer grupo de modos de intra predicción, sobre la base del indicador de grupo de modos de intra predicción en la etapa S212.
Si el modo de intra predicción de la unidad de predicción actual pertenece al primer grupo de modos de intra predicción, el modo de intra predicción del primer grupo de modos de intra predicción que se corresponde con el índice de modo de intra predicción se determina como el modo de intra predicción de la unidad de predicción actual en la etapa S213.
Si el modo de intra predicción de la unidad de predicción actual no pertenece al primer grupo de modos de intra predicción, el modo de intra predicción del segundo grupo de modos de intra predicción que se corresponde con el índice de modo de intra predicción se determina como el modo de intra predicción de la unidad de predicción actual en la etapa S214. El segundo grupo de modos de intra predicción incluye la totalidad de los modos de intra predicción que no sean los modos de intra predicción que pertenecen al primer grupo de modos de intra predicción.
El índice del candidato de modo de intra predicción en el segundo grupo de modos de intra predicción se asigna en el orden del número de modo del modo de intra predicción del segundo grupo de modos de intra predicción.
A continuación, los píxeles de referencia se generan de forma adaptativa sobre la base del modo de intra predicción restablecido de la unidad de predicción actual en la etapa S120.
Cuando hay píxeles de referencia disponibles en solo un lado de la posición del píxel de referencia no disponible, los píxeles de referencia se generan al copiar el valor de un píxel disponible lo más cerca del píxel no disponible. Como alternativa, los píxeles de referencia se generan usando dos píxeles disponibles lo más cerca del píxel no disponible. Cuando el píxel de referencia no disponible existe entre los píxeles disponibles, el píxel de referencia se genera usando dos píxeles de referencia disponibles lo más cerca del píxel no disponible en ambos lados. El valor del píxel de referencia generado puede ser un promedio de los dos píxeles de referencia disponibles lo más cerca del píxel no disponible en ambos lados. Se puede usar un procedimiento de interpolación lineal para generar los píxeles de referencia cuando una diferencia entre los dos píxeles de referencia disponibles es grande.
5
10
15
20
25
30
35
40
45
50
55
A continuación, los píxeles de referencia se filtran de forma adaptativa sobre la base del modo de intra predicción restablecido (S130). Cuando el modo de intra predicción restablecido es un modo vertical (el modo 0), un modo horizontal (el modo 1) o un modo de CC (el modo 2), los píxeles de referencia no se filtran. En un modo de intra predicción direccional que no sea el modo vertical y el modo horizontal, los píxeles de referencia se filtran de forma adaptativa. El píxel de referencia más a la derecha de los píxeles de referencia de arriba que están situados en (x = 2 N - 1, y = -1) y el píxel de referencia más bajo de los píxeles de referencia izquierdos que están situados en (x = -1, y = 2 N - 1) no se filtran. Los píxeles de referencia restantes se filtran usando dos píxeles de referencia adyacentes.
Se aplica un filtro de paso bajo para suavizar la diferencia entre píxeles de referencia adyacentes. El filtro de paso bajo puede ser un filtro de 3 coeficientes [1,2, 1] o un filtro de 5 coeficientes [1, 2, 4, 2, 1].
Un filtro se aplica de forma adaptativa a los píxeles de referencia de acuerdo con el tamaño de la unidad de predicción en los modos de intra predicción direccionales que existen entre un modo horizontal o vertical y el modo de intra predicción que tiene una dirección de 45° con referencia a la dirección horizontal o vertical. El filtro se puede aplicar de forma adaptativa a los modos que existen entre el modo horizontal y los modos que tienen una dirección de 45° con referencia al modo horizontal, o los modos que existen entre el modo vertical y los modos que tienen una dirección de 45° con referencia al modo vertical de acuerdo con el tamaño de la unidad de predicción. El número previamente determinado se puede aumentar a medida que aumenta el tamaño de la unidad de predicción. Por ejemplo, el filtro se aplica al modo de predicción que tiene una dirección de 45° con referencia a la dirección horizontal o vertical y un primer número de modos de intra predicción lo más cerca del modo de predicción que tiene una dirección de 45° con referencia a la dirección horizontal o vertical para una unidad de predicción de 8 * 8. Y el filtro se aplica al modo de predicción que tiene una dirección de 45° con referencia a la dirección horizontal o vertical y un segundo número de modos de intra predicción lo más cerca del modo de predicción que tiene una dirección de 45° con referencia a la dirección horizontal o vertical para una unidad de predicción de 16 * 16. Y el filtro se aplica al modo de predicción que tiene una dirección de 45° con referencia a la dirección horizontal o vertical y un tercer número de modos de intra predicción lo más cerca del modo de predicción que tiene una dirección de 45° con referencia a la dirección horizontal o vertical para una unidad de predicción de 32 * 32. El primer número es igual a o más pequeño que el segundo número, y el segundo número es igual a o más pequeño que el tercer número.
A continuación, un bloque de predicción se genera usando los píxeles de referencia de acuerdo con el modo de intra predicción restablecido en la etapa S140. El procedimiento de generación de un bloque de predicción es el mismo que el de la unidad de generación de bloques de intra predicción 254 de la figura 6.
Las señales residuales se descodifican por entropía en la etapa S150.
Las señales residuales se exploran de forma inversa en la etapa S160. Es decir, las señales residuales se convierten en un bloque de transformada cuantificado bidimensional. Un patrón de exploración inversa se selecciona de entre una pluralidad de patrones de exploración inversa para esta conversión. El patrón de exploración inversa se determina de acuerdo con el modo de intra predicción. Si el tamaño de la unidad de transformada es más grande que un tamaño previamente determinado, las señales residuales se exploran de forma inversa en la unidad del subconjunto y se genera una unidad de transformada cuantificada. Si el tamaño de la unidad de transformada es igual al tamaño previamente determinado, las señales residuales se exploran de forma inversa en la unidad de la unidad de transformada y se genera una unidad de transformada cuantificada.
El bloque de transformada cuantificado bidimensional se cuantifica de forma inversa en la etapa S170. El predictor de tamaño de paso de cuantificación de la unidad de codificación actual se determina para la cuantificación inversa. El predictor de tamaño de paso de cuantificación se determina usando el mismo procedimiento que el de la unidad de cuantificación inversa 230 de la figura 5. El predictor de tamaño de paso de cuantificación determinado y un tamaño de paso de cuantificación residual recibido se suman para generar un tamaño de paso de cuantificación a aplicar al bloque de transformada. Y los coeficientes de cuantificación inversa se restablecen usando la matriz de cuantificación que se determina mediante el tamaño de paso de cuantificación.
A continuación, el bloque cuantificado de forma inversa se transforma de forma inversa en la etapa S180. Una matriz de transformada inversa se puede determinar de forma adaptativa de acuerdo con el modo de intra predicción restablecido. La unidad de transformada se puede transformar de forma inversa mediante unas matrices de transformada unidimensionales (1D) horizontal y vertical. En la intra predicción, hay una alta posibilidad de que las señales residuales tengan una directividad vertical cuando el modo de intra predicción sea horizontal. Por lo tanto, la matriz de números enteros basada en DCT se aplica a la dirección vertical, y la matriz de números enteros basada en DST o en KTL se aplica a la dirección horizontal. Cuando el modo de intra predicción es vertical, una matriz de números enteros basada en DST o en KTL inversa se aplica a la dirección vertical, y una matriz de números enteros basada en DCT inversa se aplica a la dirección horizontal. Cuando el modo de intra predicción es un modo de CC, una matriz de números enteros basada en DCT inversa se aplica en ambas de las direcciones.
El bloque de predicción generado y el bloque transformado de forma inversa se suman para generar una imagen reconstruida en la etapa S190. Las señales residuales restablecidas y las señales de predicción restablecidas se pueden sumar en la unidad de la unidad de codificación.
Aunque la invención se ha mostrado y descrito con referencia a determinadas realizaciones a modo de ejemplo de la misma, los expertos en la técnica entenderán que pueden realizarse en las mismas diversos cambios en forma y detalles sin apartarse del alcance de la invención, tal como se define en las reivindicaciones adjuntas.

Claims (4)

  1. 5
    10
    15
    20
    25
    30
    REIVINDICACIONES
    1. Un procedimiento de codificación de un modo de intra predicción, que comprende: determinar un modo de intra predicción de una unidad de predicción actual;
    generar un primer grupo de modos de intra predicción usando unos modos de intra predicción disponibles de una unidad de predicción izquierda y una unidad de predicción de arriba vecina de la unidad de predicción actual, en el que el número de modos de intra predicción que pertenecen al primer grupo de modos de intra predicción se fija en tres;
    generar un segundo grupo de modos de intra predicción usando unos modos de intra predicción que no sean los modos de intra predicción que pertenecen al primer grupo de modos de intra predicción;
    codificar un indicador de primer grupo de modos de intra predicción y un índice que se corresponde con el modo de intra predicción de la unidad de predicción actual en el primer grupo de modos de intra predicción cuando el modo de intra predicción de la unidad de predicción actual está incluido en el primer grupo de modos de intra predicción; y
    codificar un indicador de segundo grupo de modos de intra predicción y un índice que se corresponde con el modo de intra predicción de la unidad de predicción actual en el segundo grupo de modos de intra predicción cuando el modo de intra predicción de la unidad de predicción actual no pertenece al primer grupo de modos de intra predicción,
    en el que, cuando solo se encuentra disponible un modo de intra predicción de entre los modos de intra predicción de la unidad de intra predicción izquierda y la unidad de intra predicción de arriba, el primer grupo de modos de intra predicción incluye el modo de intra predicción disponible de las respectivas unidades de predicción y dos modos de intra predicción adicionales que se determinan de tal manera que, cuando el modo de intra predicción disponible es un modo de intra predicción no direccional, los dos modos de intra predicción adicionales incluyen otro modo de intra predicción no direccional y un modo vertical.
  2. 2. El procedimiento de la reivindicación 1, en el que, cuando el modo de intra predicción disponible es un modo de CC, los dos modos de intra predicción adicionales incluyen un modo planar y el modo vertical.
  3. 3. El procedimiento de la reivindicación 1, en el que, cuando el modo de intra predicción disponible es un modo planar, los dos modos de intra predicción adicionales incluyen un modo de CC y el modo vertical.
  4. 4. El procedimiento de la reivindicación 1, en el que el segundo grupo de modos de intra predicción incluye unos modos de intra predicción distintos de los modos de intra predicción que pertenecen al primer grupo de modos de intra predicción.
ES16184568.0T 2010-08-17 2011-08-12 Procedimiento de codificación de un modo de intra predicción Active ES2670325T3 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20100079529 2010-08-17
KR20100079529 2010-08-17
KR1020110064301A KR20120058384A (ko) 2010-08-17 2011-06-30 인트라 프리딕션 방법
KR20110064301 2011-06-30

Publications (1)

Publication Number Publication Date
ES2670325T3 true ES2670325T3 (es) 2018-05-30

Family

ID=45605532

Family Applications (11)

Application Number Title Priority Date Filing Date
ES16184557.3T Active ES2670324T3 (es) 2010-08-17 2011-08-12 Procedimiento de restablecimiento de un modo de intra predicción
ES16184568.0T Active ES2670325T3 (es) 2010-08-17 2011-08-12 Procedimiento de codificación de un modo de intra predicción
ES16184582.1T Active ES2693903T3 (es) 2010-08-17 2011-08-12 Aparato para descodificar un modo de intrapredicción
ES16184616.7T Active ES2670327T3 (es) 2010-08-17 2011-08-12 Procedimiento de restablecimiento de un modo de intra predicción
ES16184586.2T Active ES2693905T3 (es) 2010-08-17 2011-08-12 Aparato para descodificar un modo de intrapredicción
ES16184578T Active ES2696931T3 (es) 2010-08-17 2011-08-12 Procedimiento para codificar un modo de intrapredicción
ES16184569.8T Active ES2685668T3 (es) 2010-08-17 2011-08-12 Aparato para codificar un modo de intrapredicción
ES16184572.2T Active ES2670326T3 (es) 2010-08-17 2011-08-12 Procedimiento de codificación de un modo de intra predicción
ES16184574T Active ES2696898T3 (es) 2010-08-17 2011-08-12 Procedimiento para codificar un modo de intrapredicción
ES11818362.3T Active ES2602779T3 (es) 2010-08-17 2011-08-12 Procedimiento de descodificación de intra-predicciones
ES16184577.1T Active ES2685669T3 (es) 2010-08-17 2011-08-12 Aparato para codificar un modo de intrapredicción

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES16184557.3T Active ES2670324T3 (es) 2010-08-17 2011-08-12 Procedimiento de restablecimiento de un modo de intra predicción

Family Applications After (9)

Application Number Title Priority Date Filing Date
ES16184582.1T Active ES2693903T3 (es) 2010-08-17 2011-08-12 Aparato para descodificar un modo de intrapredicción
ES16184616.7T Active ES2670327T3 (es) 2010-08-17 2011-08-12 Procedimiento de restablecimiento de un modo de intra predicción
ES16184586.2T Active ES2693905T3 (es) 2010-08-17 2011-08-12 Aparato para descodificar un modo de intrapredicción
ES16184578T Active ES2696931T3 (es) 2010-08-17 2011-08-12 Procedimiento para codificar un modo de intrapredicción
ES16184569.8T Active ES2685668T3 (es) 2010-08-17 2011-08-12 Aparato para codificar un modo de intrapredicción
ES16184572.2T Active ES2670326T3 (es) 2010-08-17 2011-08-12 Procedimiento de codificación de un modo de intra predicción
ES16184574T Active ES2696898T3 (es) 2010-08-17 2011-08-12 Procedimiento para codificar un modo de intrapredicción
ES11818362.3T Active ES2602779T3 (es) 2010-08-17 2011-08-12 Procedimiento de descodificación de intra-predicciones
ES16184577.1T Active ES2685669T3 (es) 2010-08-17 2011-08-12 Aparato para codificar un modo de intrapredicción

Country Status (19)

Country Link
US (4) US9491478B2 (es)
EP (11) EP3125561B1 (es)
JP (12) JP5982612B2 (es)
KR (16) KR20180039754A (es)
CN (12) CN106851284B (es)
CY (5) CY1118382T1 (es)
DK (5) DK3125553T3 (es)
ES (11) ES2670324T3 (es)
HR (5) HRP20170053T1 (es)
HU (9) HUE040604T2 (es)
LT (5) LT2608541T (es)
NO (1) NO3125552T3 (es)
PL (11) PL2608541T3 (es)
PT (5) PT3125561T (es)
RS (5) RS57166B1 (es)
SI (5) SI3125561T1 (es)
SM (1) SMT201600449B (es)
TR (2) TR201807094T4 (es)
WO (1) WO2012023762A2 (es)

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110113561A (ko) 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
EP2947878B1 (en) * 2010-04-23 2017-02-15 M&K Holdings Inc. Apparatus for encoding an image
US11284072B2 (en) 2010-08-17 2022-03-22 M&K Holdings Inc. Apparatus for decoding an image
HUE040604T2 (hu) * 2010-08-17 2019-03-28 M&K Holdings Inc Berendezés intra predikció mód dekódolására
US9008175B2 (en) 2010-10-01 2015-04-14 Qualcomm Incorporated Intra smoothing filter for video coding
KR102427824B1 (ko) * 2010-12-08 2022-08-02 엘지전자 주식회사 인트라 예측 방법과 이를 이용한 부호화 장치 및 복호화 장치
US20120163457A1 (en) * 2010-12-28 2012-06-28 Viktor Wahadaniah Moving picture decoding method, moving picture coding method, moving picture decoding apparatus, moving picture coding apparatus, and moving picture coding and decoding apparatus
CN102595124B (zh) * 2011-01-14 2014-07-16 华为技术有限公司 图像编码解码方法、处理图像数据方法及其设备
CN102595118B (zh) * 2011-01-14 2015-04-08 华为技术有限公司 一种编解码中的预测方法和预测器
WO2012134046A2 (ko) * 2011-04-01 2012-10-04 주식회사 아이벡스피티홀딩스 동영상의 부호화 방법
PT3471412T (pt) * 2011-04-25 2021-01-27 Lg Electronics Inc Processo de intra-predição para descodificação de vídeo e codificação de vídeo
KR101383775B1 (ko) 2011-05-20 2014-04-14 주식회사 케이티 화면 내 예측 방법 및 장치
HUE038712T2 (hu) * 2011-06-28 2018-11-28 Samsung Electronics Co Ltd Eljárás video dekódolására intra predikcióval
GB2494468B (en) * 2011-09-12 2014-01-15 Canon Kk Method and device for encoding or decoding information representing prediction modes
HUE060005T2 (hu) 2011-10-24 2023-01-28 Gensquare Llc Képdekódoló berendezés
WO2013062194A1 (ko) 2011-10-24 2013-05-02 (주)인터앱 복원 블록을 생성하는 방법 및 장치
EP2942954B1 (en) * 2011-10-24 2020-06-03 Innotive Ltd Image decoding apparatus
KR20130049524A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
US9154796B2 (en) * 2011-11-04 2015-10-06 Qualcomm Incorporated Intra-mode video coding
CN109413429B (zh) 2012-01-20 2022-05-17 杜比实验室特许公司 解码方法、视频解码设备及编码方法
US9210438B2 (en) 2012-01-20 2015-12-08 Sony Corporation Logical intra mode naming in HEVC video coding
GB2501535A (en) * 2012-04-26 2013-10-30 Sony Corp Chrominance Processing in High Efficiency Video Codecs
JP5972687B2 (ja) * 2012-07-02 2016-08-17 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
EP2870755A1 (en) * 2012-07-05 2015-05-13 Thomson Licensing Video coding and decoding method with adaptation of coding modes
JP5798539B2 (ja) * 2012-09-24 2015-10-21 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
JP2014082639A (ja) * 2012-10-16 2014-05-08 Canon Inc 画像符号化装置およびその方法
US9426473B2 (en) * 2013-02-01 2016-08-23 Qualcomm Incorporated Mode decision simplification for intra prediction
JP6212890B2 (ja) * 2013-03-22 2017-10-18 富士通株式会社 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム
KR102294830B1 (ko) 2014-01-03 2021-08-31 삼성전자주식회사 디스플레이 구동 장치 및 이미지 데이터 처리 장치의 동작 방법
CN105338365B (zh) * 2014-05-27 2018-11-20 富士通株式会社 视频编码方法和视频编码装置
US10856009B2 (en) 2014-09-04 2020-12-01 Mediatek Inc. Method of block vector clipping and coding for screen content coding and video coding
CN106797475B (zh) * 2014-10-08 2019-12-10 联发科技股份有限公司 视频编码方法
CN106375768B (zh) * 2015-07-23 2019-05-17 中国科学院信息工程研究所 基于帧内预测模式校准的视频隐写分析方法
JP5933086B2 (ja) * 2015-08-21 2016-06-08 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
CN105354526B (zh) * 2015-09-28 2018-03-20 西安中颖电子有限公司 提高一维条码解码效率的方法以及一维条码的解码系统
JP6088689B2 (ja) * 2016-04-28 2017-03-01 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
JP6740534B2 (ja) * 2016-07-04 2020-08-19 日本放送協会 符号化装置、復号装置及びプログラム
CN109565591B (zh) 2016-08-03 2023-07-18 株式会社Kt 用于对视频进行编码和解码的方法和装置
EP3509299B1 (en) * 2016-09-05 2024-05-01 Rosedale Dynamics LLC Image encoding/decoding method and device therefor
WO2018068744A1 (en) * 2016-10-14 2018-04-19 Mediatek Inc. Method and apparatus of smoothing filter for ringing artefact removal
US20200092550A1 (en) * 2016-12-27 2020-03-19 Samsung Electronics Co., Ltd. Method and device for filtering reference sample in intra-prediction
US10863198B2 (en) 2017-01-03 2020-12-08 Lg Electronics Inc. Intra-prediction method and device in image coding system for 360-degree video
JP6242517B2 (ja) * 2017-02-03 2017-12-06 株式会社Nttドコモ 動画像予測復号装置及び動画像予測復号方法
JP7128580B2 (ja) 2017-07-10 2022-08-31 フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン ビットプレーン符号化
JP6408681B2 (ja) * 2017-11-07 2018-10-17 株式会社Nttドコモ 動画像予測復号方法
CN116405673A (zh) * 2017-12-22 2023-07-07 数码士有限公司 视频信号处理方法和设备
WO2019199093A1 (ko) * 2018-04-11 2019-10-17 엘지전자 주식회사 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
CN118018725A (zh) 2018-05-10 2024-05-10 三星电子株式会社 视频编码方法和设备以及视频解码方法和设备
CN110650337B (zh) * 2018-06-26 2022-04-01 中兴通讯股份有限公司 一种图像编码方法、解码方法、编码器、解码器及存储介质
CN110876057B (zh) * 2018-08-29 2023-04-18 华为技术有限公司 一种帧间预测的方法及装置
EP3850840A1 (en) 2018-09-13 2021-07-21 FRAUNHOFER-GESELLSCHAFT zur Förderung der angewandten Forschung e.V. Affine linear weighted intra predictions
JP6602931B2 (ja) * 2018-09-20 2019-11-06 株式会社Nttドコモ 動画像予測復号方法
CN112887719B (zh) 2018-09-28 2022-03-15 Jvc建伍株式会社 图像解码装置、图像解码方法以及图像解码程序
WO2020066702A1 (ja) 2018-09-28 2020-04-02 株式会社Jvcケンウッド 画像復号装置、画像復号方法、及び画像復号プログラム
EP3874747A4 (en) * 2018-11-26 2021-12-29 Huawei Technologies Co., Ltd. Method of intra predicting a block of a picture
EP3697094A1 (en) * 2019-02-13 2020-08-19 InterDigital VC Holdings, Inc. Intra prediction mode extension
CN111193934A (zh) * 2020-04-10 2020-05-22 杭州雄迈集成电路技术股份有限公司 一种帧内预测方法、系统、计算机设备及可读存储介质
JP7104101B2 (ja) * 2020-06-24 2022-07-20 日本放送協会 符号化装置、復号装置及びプログラム
CN114466238B (zh) * 2020-11-09 2023-09-29 华为技术有限公司 帧解复用方法、电子设备及存储介质
CN114554195B (zh) * 2020-11-25 2024-06-25 腾讯科技(深圳)有限公司 图像处理方法、设备及存储介质
WO2024080706A1 (ko) * 2022-10-10 2024-04-18 엘지전자 주식회사 영상 인코딩/디코딩 방법 및 장치, 그리고 비트스트림을 저장한 기록 매체

Family Cites Families (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3835207B2 (ja) * 2001-06-27 2006-10-18 ソニー株式会社 試着画像提供システム及び試着画像提供方法、試着画像生成装置及び試着画像生成方法
US7236524B2 (en) * 2002-05-28 2007-06-26 Sharp Laboratories Of America, Inc. Methods and systems for image intra-prediction mode communication
US7289672B2 (en) * 2002-05-28 2007-10-30 Sharp Laboratories Of America, Inc. Methods and systems for image intra-prediction mode estimation
US20030231795A1 (en) * 2002-06-12 2003-12-18 Nokia Corporation Spatial prediction based intra-coding
WO2003105070A1 (en) * 2002-06-01 2003-12-18 Nokia Corporation Spatial prediction based intra coding
KR100750110B1 (ko) * 2003-04-22 2007-08-17 삼성전자주식회사 4×4인트라 휘도 예측 모드 결정방법 및 장치
KR100579542B1 (ko) * 2003-07-29 2006-05-15 삼성전자주식회사 블럭 간의 상관성을 고려한 움직임 추정 장치 및 방법
KR100982514B1 (ko) * 2003-11-14 2010-09-16 삼성전자주식회사 영상의 인트라 예측 부호화 방법 및 그 장치
KR20050121627A (ko) 2004-06-22 2005-12-27 삼성전자주식회사 동영상 코덱의 필터링 방법 및 필터링 장치
CA2573990A1 (en) * 2004-07-15 2006-02-23 Qualcomm Incorporated H.264 spatial error concealment based on the intra-prediction direction
CN100455021C (zh) * 2004-09-30 2009-01-21 华为技术有限公司 帧内预测模式的选择方法
BRPI0517069A (pt) * 2004-11-04 2008-09-30 Thomson Licensing previsão rápida intra modo para um codificador de vìdeo
KR100679025B1 (ko) * 2004-11-12 2007-02-05 삼성전자주식회사 다 계층 기반의 인트라 예측 방법, 및 그 방법을 이용한비디오 코딩 방법 및 장치
TWI266539B (en) * 2005-01-13 2006-11-11 Via Tech Inc Decoding device with multi-buffers
JP2006246431A (ja) * 2005-02-07 2006-09-14 Matsushita Electric Ind Co Ltd 画像符号化装置および画像符号化方法
CN100348051C (zh) * 2005-03-31 2007-11-07 华中科技大学 一种增强型帧内预测模式编码方法
DE602006020556D1 (de) * 2005-04-01 2011-04-21 Panasonic Corp Bilddecodierungsvorrichtung und bilddecodierungsverfahren
KR100739714B1 (ko) * 2005-07-06 2007-07-13 삼성전자주식회사 인트라 예측 모드 결정 방법 및 장치
US20080137744A1 (en) * 2005-07-22 2008-06-12 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program
US20080123947A1 (en) * 2005-07-22 2008-05-29 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method, image decoding method, image encoding program, image decoding program, computer readable recording medium having image encoding program recorded therein
US20080130989A1 (en) * 2005-07-22 2008-06-05 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program
US20080130990A1 (en) * 2005-07-22 2008-06-05 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program
US20090123066A1 (en) * 2005-07-22 2009-05-14 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method, image decoding method, image encoding program, image decoding program, computer readable recording medium having image encoding program recorded therein,
US20080165849A1 (en) * 2005-07-22 2008-07-10 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program
KR100727990B1 (ko) * 2005-10-01 2007-06-13 삼성전자주식회사 영상의 인트라 예측 부호화 방법 및 그 방법을 사용하는부호화 장치
KR100739790B1 (ko) * 2006-02-02 2007-07-13 삼성전자주식회사 인트라 예측 모드 결정 방법 및 장치
CN101385356B (zh) * 2006-02-17 2011-01-19 汤姆森许可贸易公司 采用帧内预测模式的图像编码方法
KR20060027842A (ko) 2006-02-24 2006-03-28 삼성전자주식회사 4×4인트라 휘도 예측 모드 결정방법 및 장치
US8000390B2 (en) * 2006-04-28 2011-08-16 Sharp Laboratories Of America, Inc. Methods and systems for efficient prediction-mode selection
WO2008012918A1 (fr) * 2006-07-28 2008-01-31 Kabushiki Kaisha Toshiba Procédé et appareil de codage et de décodage d'image
US8976870B1 (en) * 2006-08-30 2015-03-10 Geo Semiconductor Inc. Block and mode reordering to facilitate parallel intra prediction and motion vector prediction
US20090268810A1 (en) * 2006-09-29 2009-10-29 Congxia Dai Geometric intra prediction
US8355438B2 (en) * 2006-10-30 2013-01-15 Nippon Telegraph And Telephone Corporation Predicted reference information generating method, video encoding and decoding methods, apparatuses therefor, programs therefor, and storage media which store the programs
KR100856392B1 (ko) * 2006-11-08 2008-09-04 한국전자통신연구원 현재 영상의 복원영역을 참조하는 동영상 부호화/복호화장치 및 그 방법
EP2136564A1 (en) * 2007-01-09 2009-12-23 Kabushiki Kaisha Toshiba Image encoding and decoding method and device
JP4254867B2 (ja) 2007-01-31 2009-04-15 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体
WO2008130367A1 (en) * 2007-04-19 2008-10-30 Thomson Licensing Adaptive reference picture data generation for intra prediction
CN107105257B (zh) * 2007-06-29 2020-08-28 威勒斯媒体国际有限公司 图像编码装置、图像编码方法、图像译码装置、图像译码方法
KR101479263B1 (ko) * 2007-07-09 2015-01-06 삼성전자주식회사 이동 통신 시스템에서 적응적 피어투피어 통신 선택 방법 및 장치
TW200910971A (en) * 2007-08-22 2009-03-01 Univ Nat Cheng Kung Direction detection algorithms for H.264 intra prediction
JP2009081576A (ja) * 2007-09-25 2009-04-16 Toshiba Corp 動画像復号装置、および動画像復号方法
KR102139535B1 (ko) * 2007-10-16 2020-07-30 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
US8670488B2 (en) * 2007-12-21 2014-03-11 Telefonaktiebolaget Lm Ericsson (Publ) Adaptive intra mode selection
EP2081386A1 (en) * 2008-01-18 2009-07-22 Panasonic Corporation High precision edge prediction for intracoding
CN101500161B (zh) * 2008-01-31 2012-03-21 华为技术有限公司 基于自适应块变换的帧内预测方法及装置
KR20090095316A (ko) * 2008-03-05 2009-09-09 삼성전자주식회사 영상 인트라 예측 방법 및 장치
US20090274211A1 (en) * 2008-04-30 2009-11-05 Omnivision Technologies, Inc. Apparatus and method for high quality intra mode prediction in a video coder
PL2288163T3 (pl) * 2008-05-07 2015-11-30 Lg Electronics Inc Sposób i urządzenie do dekodowania sygnału wideo
US8761253B2 (en) * 2008-05-28 2014-06-24 Nvidia Corporation Intra prediction mode search scheme
JP2009302776A (ja) * 2008-06-11 2009-12-24 Canon Inc 画像符号化装置、その制御方法、及びコンピュータプログラム
CN101605255B (zh) * 2008-06-12 2011-05-04 华为技术有限公司 一种视频编解码的方法及装置
CN101350927B (zh) * 2008-07-29 2011-07-13 北京中星微电子有限公司 帧内预测选择最优预测模式的方法及装置
US8724697B2 (en) * 2008-09-26 2014-05-13 Qualcomm Incorporated Locating motion vectors for video data units
JP5238523B2 (ja) 2009-01-13 2013-07-17 株式会社日立国際電気 動画像符号化装置、動画像復号化装置、および、動画像復号化方法
JPWO2010087157A1 (ja) * 2009-01-29 2012-08-02 パナソニック株式会社 画像符号化方法及び画像復号方法
CN101854540B (zh) * 2009-04-01 2014-07-02 辉达公司 用于应用h.264视频编码标准的帧内预测方法及装置
KR101033769B1 (ko) * 2009-05-11 2011-05-09 선문대학교 산학협력단 영상 데이터의 인트라 예측 모드 결정 방법
KR101527085B1 (ko) * 2009-06-30 2015-06-10 한국전자통신연구원 인트라 부호화/복호화 방법 및 장치
KR101702553B1 (ko) * 2009-07-04 2017-02-03 에스케이 텔레콤주식회사 영상 부호화/복호화 방법 및 장치
CN101605263B (zh) * 2009-07-09 2012-06-27 杭州士兰微电子股份有限公司 帧内预测的方法和装置
KR101510108B1 (ko) * 2009-08-17 2015-04-10 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US8477845B2 (en) * 2009-10-16 2013-07-02 Futurewei Technologies, Inc. Predictive adaptive scan ordering for video coding
US20110274162A1 (en) * 2010-05-04 2011-11-10 Minhua Zhou Coding Unit Quantization Parameters in Video Coding
US8588303B2 (en) * 2010-03-31 2013-11-19 Futurewei Technologies, Inc. Multiple predictor sets for intra-frame coding
US8463059B2 (en) * 2010-04-23 2013-06-11 Futurewei Technologies, Inc. Two-layer prediction method for multiple predictor-set intra coding
KR101772459B1 (ko) * 2010-05-17 2017-08-30 엘지전자 주식회사 신규한 인트라 예측 모드
US8902978B2 (en) * 2010-05-30 2014-12-02 Lg Electronics Inc. Enhanced intra prediction mode signaling
HUE040604T2 (hu) * 2010-08-17 2019-03-28 M&K Holdings Inc Berendezés intra predikció mód dekódolására
CN103392341A (zh) 2010-12-23 2013-11-13 三星电子株式会社 用于对图像预测单元的帧内预测模式进行编码的方法和装置,以及用于对图像预测单元的帧内预测模式进行解码的方法和装置
PL3139596T3 (pl) * 2011-09-13 2020-03-31 Hfi Innovation Inc. Sposób i urządzenie do kodowania wewnątrzklatkowego w HEVC
PL2945380T3 (pl) 2011-10-24 2022-05-09 Innotive Ltd Sposób i aparat do dekodowania trybu intra-predykcji
CN105338347B (zh) * 2011-10-24 2018-11-13 英孚布瑞智有限私人贸易公司 用于图像解码的方法和装置
EP2942954B1 (en) 2011-10-24 2020-06-03 Innotive Ltd Image decoding apparatus
KR20130049522A (ko) 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
KR20130049524A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
JP6481365B2 (ja) * 2014-12-26 2019-03-13 井関農機株式会社 苗移植機
JP2016123333A (ja) * 2014-12-26 2016-07-11 味の素株式会社 新規調味料用組成物
JP2016123340A (ja) * 2014-12-26 2016-07-11 株式会社エバンス 膵癌治療感受性の診断方法及び膵癌治療感受性の増強剤
JP6441072B2 (ja) * 2014-12-26 2018-12-19 ミヨシ油脂株式会社 食用油脂中のクロロプロパノール類を低減する方法
JP2016123336A (ja) * 2014-12-26 2016-07-11 大日本印刷株式会社 細胞培養容器
JP6447125B2 (ja) * 2014-12-26 2019-01-09 大日本印刷株式会社 細胞培養容器
JP6472242B2 (ja) * 2014-12-26 2019-02-20 亀田製菓株式会社 焼き菓子
JP2016123339A (ja) * 2014-12-26 2016-07-11 ユニーテック株式会社 多能性幹細胞の品質診断方法及び診断キット、抗がん剤並びに疾患モデル動物
JP6320911B2 (ja) * 2014-12-26 2018-05-09 サントリーホールディングス株式会社 食物繊維
JP6694635B2 (ja) * 2014-12-26 2020-05-20 国立大学法人大阪大学 マイクロrnaにおけるメチル化修飾部位を計測する方法

Also Published As

Publication number Publication date
ES2685669T3 (es) 2018-10-10
PL3125554T3 (pl) 2019-02-28
ES2670326T3 (es) 2018-05-30
US20160301928A1 (en) 2016-10-13
HRP20180834T1 (hr) 2018-07-13
PT3125552T (pt) 2018-06-04
US20170272747A9 (en) 2017-09-21
PL2608541T3 (pl) 2017-06-30
JP2016213854A (ja) 2016-12-15
LT3125561T (lt) 2018-05-25
EP3125552B1 (en) 2018-04-11
CN106851285A (zh) 2017-06-13
EP2608541B1 (en) 2016-10-12
DK3125553T3 (en) 2018-06-18
ES2670324T3 (es) 2018-05-30
EP3125553B1 (en) 2018-04-18
EP3125555A1 (en) 2017-02-01
ES2602779T3 (es) 2017-02-22
HUE038963T2 (hu) 2018-12-28
HUE040410T2 (hu) 2019-03-28
EP3125555B1 (en) 2018-04-18
KR20140057674A (ko) 2014-05-13
KR20180039752A (ko) 2018-04-18
KR20180039754A (ko) 2018-04-18
HUE039207T2 (hu) 2018-12-28
EP3125558A1 (en) 2017-02-01
JP6322230B2 (ja) 2018-05-09
PL3125561T3 (pl) 2018-09-28
ES2696931T3 (es) 2019-01-18
EP3125553A1 (en) 2017-02-01
CY1120795T1 (el) 2019-12-11
JP2016213853A (ja) 2016-12-15
US9924187B2 (en) 2018-03-20
JP2016187212A (ja) 2016-10-27
EP3125560A1 (en) 2017-02-01
LT2608541T (lt) 2017-01-10
DK3125561T3 (en) 2018-06-14
SI2608541T1 (sl) 2017-01-31
CY1120813T1 (el) 2019-12-11
CY1120190T1 (el) 2018-12-12
CN104602005B (zh) 2017-10-20
PT3125561T (pt) 2018-05-08
US20130016780A1 (en) 2013-01-17
EP3125556B1 (en) 2018-10-17
CN106851286B (zh) 2019-11-01
LT3125552T (lt) 2018-07-10
US20160309166A1 (en) 2016-10-20
KR20180039755A (ko) 2018-04-18
KR20140071507A (ko) 2014-06-11
JP6371795B2 (ja) 2018-08-08
PL3125558T3 (pl) 2019-04-30
EP3125554B1 (en) 2018-08-01
KR101854489B1 (ko) 2018-05-03
EP2608541A4 (en) 2014-05-14
RS55325B1 (sr) 2017-03-31
CN103168472B (zh) 2016-11-09
KR20140057673A (ko) 2014-05-13
ES2693905T3 (es) 2018-12-14
ES2693903T3 (es) 2018-12-14
RS57165B1 (sr) 2018-07-31
PT3125555T (pt) 2018-05-28
EP3125558B1 (en) 2018-10-17
EP3125560B1 (en) 2018-08-08
CN106851287B (zh) 2019-07-12
CN107105234B (zh) 2019-11-01
ES2670327T3 (es) 2018-05-30
JP6371796B2 (ja) 2018-08-08
JP2016213855A (ja) 2016-12-15
CN104602005A (zh) 2015-05-06
CN107071426B (zh) 2019-07-12
PL3125559T3 (pl) 2019-01-31
RS57166B1 (sr) 2018-07-31
CN106231308B (zh) 2019-04-12
JP5982612B2 (ja) 2016-08-31
JP2016187211A (ja) 2016-10-27
CN106851285B (zh) 2019-10-11
KR20180039750A (ko) 2018-04-18
CN107071426A (zh) 2017-08-18
CN106851284A (zh) 2017-06-13
KR20140057672A (ko) 2014-05-13
CN106851284B (zh) 2019-05-10
JP2016197881A (ja) 2016-11-24
CN104602004A (zh) 2015-05-06
US20170302947A9 (en) 2017-10-19
DK3125555T3 (en) 2018-06-18
US9491478B2 (en) 2016-11-08
US9924186B2 (en) 2018-03-20
KR20180039757A (ko) 2018-04-18
NO3125552T3 (es) 2018-09-08
HUE039248T2 (hu) 2018-12-28
PT2608541T (pt) 2016-12-20
EP3125556A1 (en) 2017-02-01
TR201806128T4 (tr) 2018-06-21
CN104602004B (zh) 2016-05-11
CN107071425A (zh) 2017-08-18
HRP20181098T1 (hr) 2018-09-07
EP3125552A1 (en) 2017-02-01
PL3125556T3 (pl) 2019-03-29
WO2012023762A2 (ko) 2012-02-23
SI3125552T1 (en) 2018-07-31
JP6371797B2 (ja) 2018-08-08
JP2016213851A (ja) 2016-12-15
PL3125555T3 (pl) 2018-09-28
JP2016197880A (ja) 2016-11-24
KR20140075020A (ko) 2014-06-18
LT3125553T (lt) 2018-07-25
DK2608541T3 (en) 2017-01-23
LT3125555T (lt) 2018-07-25
SI3125553T1 (en) 2018-07-31
KR20180039751A (ko) 2018-04-18
WO2012023762A3 (ko) 2012-04-12
EP3125557B1 (en) 2018-08-01
HRP20181145T1 (hr) 2018-09-21
SI3125561T1 (en) 2018-06-29
CN107071425B (zh) 2019-07-12
SMT201600449B (it) 2017-01-10
CN106851286A (zh) 2017-06-13
JP6322232B2 (ja) 2018-05-09
JP2016213852A (ja) 2016-12-15
JP6371794B2 (ja) 2018-08-08
KR101474987B1 (ko) 2014-12-24
JP6371798B2 (ja) 2018-08-08
JP6371800B2 (ja) 2018-08-08
HRP20181147T1 (hr) 2018-09-21
RS57233B1 (sr) 2018-07-31
CN107105250B (zh) 2019-07-12
US20170302948A9 (en) 2017-10-19
DK3125552T3 (en) 2018-06-14
HUE040601T2 (hu) 2019-03-28
HUE039205T2 (hu) 2018-12-28
EP2608541A2 (en) 2013-06-26
RS57112B1 (sr) 2018-06-29
ES2685668T3 (es) 2018-10-10
PT3125553T (pt) 2018-06-06
CN103168472A (zh) 2013-06-19
EP3125559A1 (en) 2017-02-01
HUE040604T2 (hu) 2019-03-28
US20160301929A1 (en) 2016-10-13
EP3125561B1 (en) 2018-03-28
KR101373819B1 (ko) 2014-03-17
JP6371799B2 (ja) 2018-08-08
SI3125555T1 (en) 2018-07-31
KR20130051443A (ko) 2013-05-20
CN107105234A (zh) 2017-08-29
CY1120815T1 (el) 2019-12-11
US9918087B2 (en) 2018-03-13
HUE031186T2 (hu) 2017-07-28
JP6371801B2 (ja) 2018-08-08
EP3125561A1 (en) 2017-02-01
KR20180039753A (ko) 2018-04-18
KR20130091800A (ko) 2013-08-19
PL3125553T3 (pl) 2018-09-28
JP6322231B2 (ja) 2018-05-09
JP2016213850A (ja) 2016-12-15
TR201807094T4 (tr) 2018-06-21
HRP20170053T1 (hr) 2017-03-10
ES2696898T3 (es) 2019-01-18
EP3125557A1 (en) 2017-02-01
KR20180039756A (ko) 2018-04-18
JP2013537771A (ja) 2013-10-03
CY1118382T1 (el) 2017-06-28
KR20130091799A (ko) 2013-08-19
CN106851287A (zh) 2017-06-13
CN106231308A (zh) 2016-12-14
CN107105250A (zh) 2017-08-29
JP2016213856A (ja) 2016-12-15
EP3125559B1 (en) 2018-08-08
PL3125552T3 (pl) 2018-09-28
EP3125554A1 (en) 2017-02-01
HUE042510T2 (hu) 2019-07-29
PL3125560T3 (pl) 2019-01-31
PL3125557T3 (pl) 2019-03-29

Similar Documents

Publication Publication Date Title
ES2670325T3 (es) Procedimiento de codificación de un modo de intra predicción
ES2575381T3 (es) Dispositivo de decodificación de intra-predicción
JP6360947B2 (ja) 映像データを復号化する方法
ES2954979T3 (es) Aparato para codificar un fotograma en movimiento
ES2720652T3 (es) Aparato para codificar una imagen