ES2696931T3 - Procedimiento para codificar un modo de intrapredicción - Google Patents

Procedimiento para codificar un modo de intrapredicción Download PDF

Info

Publication number
ES2696931T3
ES2696931T3 ES16184578T ES16184578T ES2696931T3 ES 2696931 T3 ES2696931 T3 ES 2696931T3 ES 16184578 T ES16184578 T ES 16184578T ES 16184578 T ES16184578 T ES 16184578T ES 2696931 T3 ES2696931 T3 ES 2696931T3
Authority
ES
Spain
Prior art keywords
prediction
intra
mode
unit
modes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16184578T
Other languages
English (en)
Inventor
Soo Mi Oh
Moonock Yang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
M&K Holdings Inc
Original Assignee
M&K Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=45605532&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2696931(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Priority claimed from KR1020110064301A external-priority patent/KR20120058384A/ko
Application filed by M&K Holdings Inc filed Critical M&K Holdings Inc
Application granted granted Critical
Publication of ES2696931T3 publication Critical patent/ES2696931T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder

Abstract

Un procedimiento de codificación de un modo de intrapredicción, que comprende: determinar un modo de intrapredicción de una unidad de predicción actual; generar un grupo de modo de intrapredicción que usa los modos de intrapredicción disponibles de una unidad de predicción izquierda y una unidad de predicción superior cerca de la unidad de predicción actual, en el que el número de modos de intrapredicción que pertenecen al grupo de modo de intrapredicción se fija en tres y codificar un indicador de grupo de modo de intrapredicción y un índice que corresponde al modo de intrapredicción de la unidad de predicción actual en el grupo de modo de intrapredicción cuando el modo de intrapredicción de la unidad de predicción actual está incluido en el grupo de modo de intrapredicción, en el que, cuando solo un modo de intrapredicción de los modos de intrapredicción de la unidad de predicción izquierda y la unidad de predicción superior está disponible, el grupo de modo de intrapredicción incluye el un modo de intrapredicción disponible de las respectivas unidades de predicción y dos modos de intrapredicción adicionales que se determinan de tal manera que cuando el un modo de intrapredicción disponible es un modo de intrapredicción no direccional, los dos modos de intrapredicción adicionales incluyen otro modo de intrapredicción no direccional y un modo vertical.

Description

DESCRIPCIÓN
Procedimiento para codificar un modo de intrapredicción
Campo técnico
La presente invención se refiere a un procedimiento de descodificación de intrapredicción, y más en concreto, a un procedimiento para restablecer un modo de intrapredicción, generar un bloque de predicción muy similar a un bloque original, codificar un bloque residual y generar un bloque reconstruido usando el bloque de predicción y el bloque residual.
Técnica anteriorEn procedimientos de compresión de imagen tales como Grupo de Expertos de Imágenes en Movimiento (MPEG, Motion Picture Experts Group)-1, MPEG-2, MPEG-4 y H.264/MPEG-4, Codificación Avanzada de Audio (AVC, Advanced Video Coding), una imagen se divide en macrobloques para codificar una imagen. A continuación, los macrobloques respectivos se codifican usando inter predicción o intrapredicción.
En la intrapredicción, un bloque actual de una imagen se codifica no con el uso de una imagen de referencia, sino con el uso de los valores de píxeles espacialmente adyacentes al bloque actual. Un modo de intrapredicción con poca distorsión se selecciona mediante la comparación, con un macrobloque original, de un bloque de predicción que se genera usando los valores de píxeles adyacentes. A continuación, usando el modo de intrapredicción seleccionado y los valores de píxeles adyacentes, se calculan valores de predicción del bloque actual. Las diferencias entre los valores de predicción y los valores de píxeles del bloque actual original se calculan y, a continuación, se codifican a través de codificación de transformada, cuantificación y codificación por entropía. El modo de intrapredicción también se codifica.
En la intrapredicción convencional de 4 * 4 , hay nueve modos de un modo vertical, un modo horizontal, un modo DC, un modo descendente - izquierdo diagonal, un modo descendente - derecho diagonal, un modo derecho vertical, un modo izquierdo vertical, un modo ascendente - horizontal y un modo descendente - horizontal.
De acuerdo con la norma H.264, un modo se selecciona de entre los nueve modos para generar un bloque de predicción del bloque actual. De acuerdo con la norma HEVC en desarrollo, hay 17 o 34 modos de intrapredicción.
No obstante, cuando algunos o todos los valores de píxeles adyacentes al bloque actual no existen o no se han codificado aún, es imposible aplicar algunos o la totalidad de los modos de intrapredicción al bloque actual. En el presente caso, si se realiza una intrapredicción mediante la selección de un modo de intrapredicción de entre los modos de intrapredicción disponibles, la distorsión entre un bloque de predicción y un bloque original se vuelve grande. Por lo tanto, la eficiencia de codificación se deteriora.
Asimismo, a medida que aumenta el número de modos de intrapredicción, se requieren un nuevo procedimiento de codificación del modo de intrapredicción más eficaz que el procedimiento convencional, y un procedimiento más eficaz de descodificación del modo de intrapredicción y de generación de un bloque reconstruido.
El documento WO 03/105070 divulga un procedimiento eficaz, de este tipo, de codificación del modo de intrapredicción. El documento WO 03/105070 divulga, de forma específica, generar dos grupos de modos de intrapredicción en los que el primer grupo consiste en los modos de intrapredicción más probables y el segundo grupo consiste en los modos de intrapredicción restantes. La probabilidad de cada modo de intrapredicción se determina de forma adaptativa de acuerdo con los modos de intrapredicción de los bloques vecinos. A continuación, se señaliza si el modo de intrapredicción seleccionado pertenece al primer o al segundo grupo de modos de intrapredicción.
Divulgación
Problema técnico
La presente invención se refiere a un procedimiento para generar un bloque de predicción muy similar a un bloque original de acuerdo con un modo de intrapredicción, generar un bloque residual mediante la descodificación de una señal residual y generar un bloque reconstruido usando el bloque de predicción y el bloque residual.
Solución técnica
Un aspecto de la presente invención proporciona un procedimiento de descodificación de una intrapredicción, que comprende: demultiplexar una información de intrapredicción y una señal residual, restablecer un modo de intrapredicción de una unidad de predicción actual usando la información de intrapredicción y los modos de intrapredicción de las unidades de predicción adyacentes a la unidad de predicción actual, generar unos píxeles de referencia usando uno o más píxeles de referencia disponibles si existen píxeles de referencia no disponibles de la unidad de predicción, filtrar de forma adaptativa los píxeles de referencia sobre la base del modo de intrapredicción restablecido, generar un bloque de predicción usando el modo de intrapredicción restablecido y los píxeles de referencia, descodificar la señal residual que se ha demultiplexado para generar un bloque residual y generar un bloque reconstruido usando el bloque de predicción y el bloque residual.
Efectos ventajosos
Un procedimiento de acuerdo con la presente invención restablece un modo de intrapredicción de la unidad de predicción actual, y filtra de forma adaptativa los píxeles de referencia de acuerdo con el modo de intrapredicción restablecido con el fin de generar un bloque de predicción que reduce al mínimo la diferencia entre un bloque de predicción y un bloque original. El bloque residual se genera mediante la descodificación, de forma adaptativa, de la señal residual de acuerdo con el modo de intrapredicción. Y, el bloque restablecido se genera mediante la combinación del bloque de predicción muy similar a un bloque original y el bloque residual. Por lo tanto, puede ser posible proporcionar un procedimiento de descodificación de un modo de predicción que se corresponde con un procedimiento de codificación de un modo de predicción que puede disminuir de forma eficaz la cantidad adicional de bits de acuerdo con un número aumentado de modos de intrapredicción y que se requiere para codificar el bloque residual se reduce al mínimo. Asimismo, puede ser posible obtener un alto rendimiento de compresión y una alta eficiencia de reproducción mediante la provisión de un procedimiento de descodificación que se corresponde con un procedimiento de codificación que puede disminuir la cantidad de bits que se requiere para codificar mediante la generación de un bloque de predicción similar a una imagen original.
Descripción de los dibujos
La figura 1 es un diagrama de bloques de un aparato de codificación de imágenes en movimiento de acuerdo con la presente invención.
La figura 2 es un diagrama de bloques de una unidad de intrapredicción de un aparato de codificación de imágenes en movimiento de acuerdo con la presente invención.
La figura 3 es un diagrama conceptual que muestra unas posiciones de píxeles de referencia que se usan para una intrapredicción de acuerdo con la presente invención.
La figura 4 es un diagrama conceptual que ilustra unos modos de intrapredicción direccionales de acuerdo con la presente invención.
La figura 5 es un diagrama de bloques de un aparato de descodificación de imágenes en movimiento de acuerdo con la presente invención.
La figura 6 es un diagrama de bloques de una unidad de intrapredicción de un aparato de descodificación de imágenes en movimiento de acuerdo con la presente invención.
La figura 7 es un diagrama de flujo que ilustra un procedimiento de descodificación en un modo de intrapredicción de acuerdo con la presente invención.
La figura 8 es un diagrama de flujo que ilustra un procedimiento de restablecimiento de un modo de intrapredicción de acuerdo con la presente invención cuando el número de modos de predicción en un primer grupo de modos de intrapredicción es variable.
La figura 9 es un diagrama de flujo que ilustra otro procedimiento de restablecimiento de un modo de intrapredicción de acuerdo con la presente invención cuando el número de modos de predicción en un primer grupo de modos de intrapredicción está fijado.
Modo de la invención
En lo sucesivo en el presente documento, se describirán en detalle diversas realizaciones de la presente invención con referencia a los dibujos adjuntos. No obstante, la presente invención no está limitada a las realizaciones a modo de ejemplo que se dan a conocer a continuación, sino que se puede implementar en diversos tipos. Por lo tanto, son posibles muchas otras modificaciones y variaciones de la presente invención y se debe entender que, dentro del ámbito del concepto que se da a conocer, la presente invención se puede poner en práctica de una forma que no sea la que se ha descrito específicamente.
La figura 1 es un diagrama de bloques de un aparato de codificación de imágenes en movimiento de acuerdo con la presente invención.
Haciendo referencia a la figura 1, un aparato de codificación de imágenes en movimiento 100 de acuerdo con la presente invención incluye una unidad de división de imagen 110, una unidad de transformada 120, una unidad de cuantificación 130, una unidad de exploración 131, una unidad de codificación por entropía 140, una unidad de intrapredicción 150, una unidad de inter predicción 160, una unidad de cuantificación inversa 135, una unidad de transformada inversa 125, una unidad de post procesamiento 170, una unidad de almacenamiento de imágenes 180, un sustractor 190 y un sumador 195.
La unidad de división de imagen 110 analiza una señal de vídeo de entrada para dividir cada unidad de codificación más grande (LCU, largest coding unit) de una imagen en una o más unidades de codificación, cada una de las cuales tiene un tamaño previamente determinado, determina el modo de predicción de cada unidad de codificación, y determina el tamaño de la unidad de predicción por cada unidad de codificación. La unidad de división de imagen 110 envía la unidad de predicción que se va a codificar a la unidad de intrapredicción 150 o la unidad de inter predicción 160 de acuerdo con el modo de predicción. Asimismo, la unidad de división de imagen 110 envía las unidades de predicción que se van a codificar al sustractor 190.
La unidad de transformada 120 transforma los bloques residuales entre un bloque original de una unidad de predicción y un bloque de predicción que se genera mediante la unidad de intrapredicción 150 o la unidad de inter predicción 160. El bloque residual está compuesto por una unidad de codificación. El bloque residual se puede dividir en unas unidades de transformada óptimas y transformarse. Un tipo de matriz de transformada se puede determinar de forma adaptativa de acuerdo con un modo de predicción (intra o inter). Debido a que las señales residuales de un modo de intrapredicción tienen directividades de acuerdo con los modos de intrapredicción, el tipo de matriz de transformada se puede determinar de forma adaptativa de acuerdo con un modo de intrapredicción. La unidad de transformada se puede transformar mediante unas matrices de transformada unidimensionales (1D) horizontal y vertical. En la inter predicción, se aplica un tipo de matriz de transformada previamente determinado. En la intrapredicción, hay una alta posibilidad de que los bloques residuales tengan una directividad vertical cuando el modo de intrapredicción de la unidad de predicción actual sea horizontal. Por lo tanto, una matriz de números enteros basada en la transformada discreta del coseno (DCT, discrete cosine transform) se aplica a la dirección vertical, y una matriz de números enteros basada en la transformada discreta del seno (DST, discrete sine transform) o en la transformada de Karhunen Loeve (KLT, Karhunen Loeve transform) se aplica a la dirección horizontal. Cuando el modo de intrapredicción es vertical, una matriz de números enteros basada en DST o en KTL se aplica a la dirección vertical, y una matriz de números enteros basada en DCT se aplica a la dirección horizontal. Asimismo, en la intrapredicción, la matriz de transformada se puede determinar de forma adaptativa de acuerdo con un tamaño de las unidades de transformada.
La unidad de cuantificación 130 determina un tamaño de paso de cuantificación para cuantificar los coeficientes de transformada del bloque residual para cada unidad de codificación. El tamaño de paso de cuantificación se determina por unidad de codificación que tenga un tamaño igual a o más grande que un tamaño previamente determinado. El tamaño previamente determinado puede ser de 8 * 8 o de 16*16. Usando el tamaño de paso de cuantificación determinado y una matriz de cuantificación que se determina de acuerdo con un modo de predicción, los coeficientes de transformada se cuantifican. La unidad de cuantificación 130 usa los tamaños de paso de cuantificación de una o más unidades de codificación adyacentes a la unidad de codificación actual para generar un predictor de tamaño de paso de cuantificación de la unidad de codificación actual.
La unidad de cuantificación 130 recupera de forma secuencial las unidades de codificación en el siguiente orden de exploración; 1) una unidad de codificación izquierda de la unidad de codificación actual, 2) una unidad de codificación de arriba de la unidad de codificación actual, y 3) una unidad de codificación izquierda de arriba de la unidad de codificación actual. Y la unidad de cuantificación genera el predictor de tamaño de paso de cuantificación de la unidad de codificación actual usando uno o dos tamaños de paso de cuantificación válidos. Por ejemplo, el primer tamaño de paso de cuantificación válido que es encontrado en el orden de exploración se puede determinar como el predictor de tamaño de paso de cuantificación. Un promedio de los primeros dos tamaños de paso de cuantificación válidos que se recuperan en el orden de exploración se puede determinar como el predictor de tamaño de paso de cuantificación, y un tamaño de paso de cuantificación válido se determina como el predictor de tamaño de paso de cuantificación cuando solo es válido un tamaño de paso de cuantificación. Cuando se determina el predictor de tamaño de paso de cuantificación, una diferencia entre el tamaño de paso de cuantificación y el predictor de tamaño de paso de cuantificación se transmite a la unidad de codificación por entropía 140.
Puede que no haya ninguna de una unidad de codificación izquierda, una unidad de codificación de arriba y una unidad de codificación izquierda de arriba de la unidad de codificación actual. Por otro lado, puede haber una unidad de codificación previa de la unidad de codificación actual en el orden de codificación de la LCU. Por lo tanto, para unidades de codificación adyacentes a la unidad de codificación actual y la LCU, la unidad de codificación previa de la unidad de codificación actual en el orden de codificación pueden ser candidatas. En el presente caso, el orden de exploración anterior se puede cambiar al siguiente orden de exploración; 1) la unidad de codificación izquierda de la unidad de codificación actual, 2) la unidad de codificación de arriba de la unidad de codificación actual, 3) la unidad de codificación izquierda de arriba de la unidad de codificación actual y 4) la unidad de codificación previa de la unidad de codificación actual. El orden de exploración puede variar, o la unidad de codificación izquierda de arriba se puede omitir en el orden de exploración. El bloque de transformada cuantificado se proporciona a la unidad de cuantificación inversa 135 y la unidad de exploración 131.
La unidad de exploración 131 explora los coeficientes de transformada cuantificados del bloque de transformada cuantificado, convirtiendo de ese modo los coeficientes de transformada cuantificados en unos coeficientes de transformada cuantificados 1D. Un patrón de exploración se determina de acuerdo con el modo de intrapredicción debido a que la distribución de los coeficientes de transformada cuantificados depende del modo de intrapredicción. El patrón de exploración también se puede determinar de acuerdo con el tamaño de la unidad de transformada. El patrón de exploración se puede determinar dependiendo del modo de intrapredicción direccional. Los coeficientes de transformada cuantificados se exploran en el sentido inverso.
Cuando los coeficientes de transformada cuantificados se dividen en una pluralidad de subconjuntos, se aplica el mismo patrón de exploración a cada subconjunto. La pluralidad de subconjuntos consiste en un subconjunto principal y uno o más subconjuntos restantes. El subconjunto principal está situado en un lado izquierdo superior e incluye un coeficiente de DC. Los uno o más subconjuntos residuales cubren una región que no sea el subconjunto principal.
Se puede aplicar una exploración en zigzag para explorar los subconjuntos. Los subconjuntos se pueden explorar comenzando con el subconjunto principal para los subconjuntos residuales en una dirección hacia delante, o se pueden explorar en el sentido inverso. Un patrón de exploración para explorar los subconjuntos se puede establecer como el mismo que un patrón de exploración para explorar los coeficientes de transformada cuantificados en los subconjuntos. En el presente caso, el patrón de exploración para explorar los subconjuntos se determina de acuerdo con el modo de intrapredicción. El codificador transmite una información que es capaz de indicar una posición del último coeficiente cuantificado no nulo de la unidad de transformada a un descodificador. El codificador también transmite una información que es capaz de indicar una posición del último coeficiente cuantificado no nulo de cada subconjunto al descodificador.
La unidad de cuantificación inversa 135 cuantifica de forma inversa los coeficientes de transformada cuantificados. La unidad de transformada inversa 125 restablece los bloques residuales del dominio espacial a partir de los coeficientes de transformada cuantificados de forma inversa. El sumador 195 genera un bloque reconstruido mediante la suma del bloque residual que es reconstruido por la unidad de transformada inversa 125 y el bloque de predicción a partir de la unidad de intrapredicción 150 o la unidad de inter predicción 160.
La unidad de post procesamiento 170 realiza un proceso de filtrado de desbloqueo para eliminar los artefactos de bloqueo que se generan en una imagen reconstruida, un proceso de aplicación de desplazamiento adaptativo para complementar una diferencia entre la imagen reconstruida y la imagen original por píxel, y un proceso de filtro de lazo adaptativo (ALF, adaptive loop filter) para complementar una diferencia entre la imagen reconstruida y la imagen original en una unidad de codificación.
El proceso de filtrado de desbloqueo se puede aplicar a un límite entre unidades de predicción que tienen un tamaño previamente determinado o más y entre unidades de transformada. El tamaño previamente determinado puede ser de 8 * 8. El proceso de filtrado de desbloqueo incluye una etapa de determinación de un límite a filtrar, una etapa de determinación de la intensidad de filtrado de límite a aplicar al límite, una etapa de determinación de si aplicar, o no, un filtro de desbloqueo, y una etapa de selección de un filtro a aplicar al límite cuando se determina la aplicación del filtro de desbloqueo.
Si aplicar, o no, el filtro de desbloqueo se determina de acuerdo con i) si la intensidad de filtrado de límite es, o no, más grande que 0 y ii) si un valor que indica la diferencia entre píxeles de límite del bloque P y el bloque Q que se encuentran adyacentes al límite a filtrar es, o no, más pequeño que un primer valor de referencia que se determina de acuerdo con un parámetro de cuantificación.
Pueden existir dos o más filtros. Cuando el valor absoluto de una diferencia entre dos píxeles adyacentes al límite de bloque es igual a o más grande que un segundo valor de referencia, se selecciona un filtro débil. El segundo valor de referencia se determina mediante el parámetro de cuantificación y la intensidad de filtrado de límite.
El proceso de aplicación de desplazamiento adaptativo tiene por objeto reducir una diferencia (distorsión) entre un píxel que se somete al filtro de desbloqueo y el píxel original. Se puede determinar si realizar, o no, el proceso de aplicación de desplazamiento adaptativo en la unidad de una imagen o un fragmento. Una imagen o fragmento se puede dividir en una pluralidad de regiones de desplazamiento, y un modo de desplazamiento se puede determinar según la región de desplazamiento. Puede haber un número previamente determinado de modos de desplazamiento de borde (por ejemplo, cuatro modos de desplazamiento de borde), dos modos de desplazamiento de banda. En el caso del modo de desplazamiento de borde, se determina un modo de borde al que pertenece cada píxel y se aplica un desplazamiento que se corresponde con el modo de borde determinado. El modo de borde se determina sobre la base de una distribución de valores de píxel de dos píxeles adyacentes al píxel actual.
El proceso de filtro de lazo adaptativo se puede realizar en función de un valor que se obtiene mediante la comparación de una imagen original y una imagen reconstruida a la que se aplica el proceso de filtrado de desbloqueo o el proceso de aplicación de desplazamiento adaptativo. El ALF determinado se puede aplicar a todos los píxeles que se incluyen en un bloque de 4 * 4 o un bloque de 8 * 8. Si aplicar, o no, un ALF se puede determinar para cada unidad de codificación. El tamaño y los coeficientes de un filtro de lazo pueden variar de acuerdo con cada unidad de codificación. La información que indica si se aplica un ALF a cada unidad de codificación se puede incluir en un encabezamiento de fragmento. En el caso de una señal de crominancia, si aplicar, o no, el ALF se puede determinar para cada unidad de imagen. A diferencia de la luminancia, el filtro de lazo puede tener una forma rectangular.
El proceso de filtro de lazo adaptativo se realiza en función del fragmento. Por lo tanto, la información que indica si el proceso de filtro de lazo adaptativo se aplica, o no, a un fragmento actual, se incluye en un encabezamiento de fragmento o un encabezamiento de imagen. Si el proceso de filtro de lazo adaptativo se aplica al fragmento actual, el encabezamiento de fragmento o la imagen incluye una información que indica una longitud de filtro horizontal y/o una longitud de filtro vertical de las componentes de luminancia que se usa en el proceso de filtro de lazo adaptativo. En el caso de usar un procedimiento de predicción, el encabezamiento de fragmento o la imagen incluye unos coeficientes de filtro predichos.
Las componentes de crominancia también se pueden filtrar de forma adaptativa. El encabezamiento de fragmento o el encabezamiento de imagen puede incluir una información acerca de si se filtra, o no, cada componente de crominancia. Para reducir la cantidad de bits, la información que indica si se filtra la componente de Cr y la información que indica si se filtra la componente de Cb se pueden codificar de forma conjunta. Un índice lo más bajo se asigna al caso en el que no se filtra ninguna de las componentes de Cr y de Cb debido a que la probabilidad de que ninguna de las componentes de Cr y de Cb no se haya filtrado con el fin de reducir la complejidad es alta y se realiza la codificación por entropía. Un índice lo más alto se asigna al caso en el que se filtran ambas de las componentes de Cr y de Cb.
La unidad de almacenamiento de imágenes 180 recibe una imagen post procesada a partir de la unidad de post procesamiento 160, y almacena la imagen restablecida en unidades de imagen. Una imagen puede ser una imagen en una trama o un campo. La unidad de almacenamiento de imágenes 180 tiene una memoria intermedia (que no se muestra) que es capaz de almacenar una pluralidad de imágenes.
La unidad de inter predicción 160 realiza una estimación de movimiento usando una o más imágenes de referencia que están almacenadas en la unidad de almacenamiento de imágenes 180, y determina uno o más índices de imagen de referencia que indican las imágenes de referencia y uno o más vectores de movimiento. De acuerdo con el índice de imagen de referencia y el vector de movimiento, la unidad de inter predicción 160 extrae un bloque de predicción que se corresponde con una unidad de predicción que se va a codificar a partir de una imagen de referencia que se selecciona de entre una pluralidad de imágenes de referencia que están almacenadas en la unidad de almacenamiento de imágenes 180 y emite el bloque de predicción extraído.
La unidad de intrapredicción 150 realiza una intrapredicción usando píxeles de referencia reconstruidos en una imagen que incluye una unidad de predicción actual. La unidad de intrapredicción 150 recibe la unidad de predicción actual que se va a codificar de forma predictiva, selecciona uno de un número previamente determinado de modos de intrapredicción, y realiza una intrapredicción. El número previamente determinado de modos de intrapredicción depende de un tamaño de la unidad de predicción actual. La unidad de intrapredicción filtra de forma adaptativa los píxeles de referencia para generar el bloque de intrapredicción. Cuando algunos de los píxeles de referencia no se encuentran disponibles, es posible generar los píxeles de referencia en las posiciones no disponibles usando píxeles de referencia disponibles.
La unidad de codificación por entropía 140 codifica por entropía los coeficientes de transformada cuantificados que son cuantificados por la unidad de cuantificación 130, la información de intrapredicción que se recibe a partir de la unidad de intrapredicción 150, una información de movimiento que se recibe a partir de la unidad de inter predicción 160, y así sucesivamente.
La figura 2 es un diagrama de bloques de la unidad de intrapredicción 150 de una unidad de codificación de imágenes en movimiento 100 de acuerdo con la presente invención.
Haciendo referencia a la figura 2, la unidad de intrapredicción 150 incluye una unidad de generación de píxeles de referencia 151, una unidad de filtrado de píxeles de referencia 152, una unidad de generación de bloques de predicción 153, una unidad de determinación de modo de predicción 154 y una unidad de codificación de modo de predicción 155.
La unidad de generación de píxeles de referencia 151 determina que es necesario generar píxeles de referencia para una intrapredicción y genera píxeles de referencia si es necesario generar los píxeles de referencia.
La figura 3 es un diagrama conceptual que muestra unas posiciones de píxeles de referencia que se usan para una intrapredicción de acuerdo con la presente invención. Tal como se muestra en la figura 3, los píxeles de referencia de la predicción actual consisten en unos píxeles de referencia de arriba, unos píxeles de referencia izquierdos y un píxel de referencia de esquina. Los píxeles de referencia de arriba de la unidad de predicción actual son unos píxeles (las regiones C y D) que se encuentran presentes a lo largo del doble de la anchura de la unidad de predicción actual, y los píxeles de referencia izquierdos de la unidad de predicción actual son unos píxeles (las regiones A y B) que se encuentran presentes a lo largo del doble de la altura de la unidad de predicción actual. El píxel de referencia de esquina está situado en (x = -1, y = -1).
La unidad de generación de píxeles de referencia 151 determina si los píxeles de referencia se encuentran, o no, disponibles. Si uno o más píxeles de referencia no se encuentran disponibles, la unidad de generación de píxeles de referencia 151 genera píxeles de referencia en las posiciones no disponibles usando píxeles de referencia disponibles.
Cuando la unidad de predicción actual está situada en el límite superior de una imagen o un fragmento, los píxeles de referencia de arriba (las regiones C y D) y el píxel de referencia de esquina de la unidad de predicción actual no existen. Cuando la unidad de predicción actual está situada en el límite izquierdo de una imagen o un fragmento, los píxeles de referencia izquierdos (las regiones A y B) y el píxel de referencia de esquina no existen. En esos casos, los píxeles de referencia se generan al copiar el valor de un píxel disponible lo más cerca del píxel no disponible. Es decir, cuando la unidad de predicción actual está situada en el límite superior de una imagen o un fragmento, los píxeles de referencia de arriba se pueden generar al copiar el píxel de referencia izquierdo de más arriba (es decir, un píxel de referencia que está situado en la posición de más arriba de la región A). Cuando la unidad de predicción actual está situada en el límite izquierdo de una imagen o un fragmento, los píxeles de referencia izquierdos se pueden generar al copiar el píxel de referencia de arriba más a la izquierda (es decir, un píxel de referencia que está situado en la posición más a la izquierda de la región C).
A continuación, se describirá un caso en el que algunos de los píxeles de referencia en unos píxeles de referencia de arriba o izquierdos de una unidad de predicción actual que se va a codificar se encuentran no disponibles. Hay dos casos en los que 1) se encuentran presentes píxeles de referencia disponibles en solo una dirección con respecto a los píxeles de referencia no disponibles, y 2) se encuentran presentes píxeles de referencia disponibles en ambas direcciones con respecto a los píxeles de referencia no disponibles.
En primer lugar, se describirá un caso en el que se encuentran presentes píxeles de referencia disponibles en solo una dirección con respecto a los píxeles de referencia no disponibles.
Puede ser posible que los píxeles de referencia adyacentes al límite de arriba de la unidad de predicción actual (la región C) se encuentren disponibles, pero los píxeles de referencia de arriba izquierdos (la región D) pueden no encontrarse disponibles. Cuando la unidad de predicción actual está situada en el límite derecho de un fragmento o una LCU, los píxeles de referencia en la región D no se encuentran disponibles. En el presente caso, los píxeles de referencia de arriba izquierdos (la región D) se generan usando uno o más píxeles de referencia de arriba disponibles. Los píxeles de referencia de arriba izquierdos se generan al copiar un píxel de arriba más a la derecha o mediante el uso de dos o más píxeles de referencia de arriba disponibles.
Cuando los píxeles de referencia (la región A) adyacentes al lado izquierdo del bloque de predicción actual se encuentran disponibles, pero los píxeles de referencia de debajo izquierdos (la región B) pueden no encontrarse disponibles. Cuando la unidad de predicción actual está situada en el límite de debajo de un fragmento o una LCU, los píxeles de referencia en la región B no se encuentran disponibles. En el presente caso, los píxeles de referencia de debajo izquierdos (la región B) se generan usando uno o más píxeles de referencia izquierdos disponibles. Los píxeles de referencia de debajo izquierdos se generan al copiar un píxel más bajo izquierdo o mediante el uso de dos o más píxeles de referencia izquierdos disponibles.
Tal como se ha descrito en lo que antecede, si el píxel de referencia disponible existe en solo una dirección a partir de los píxeles no disponibles, el píxel de referencia se genera al copiar el valor de un píxel disponible lo más cerca del píxel no disponible. Como alternativa, los píxeles de referencia se pueden generar usando dos o más píxeles disponibles lo más cerca del píxel no disponible.
A continuación, se describirá un caso en el que se encuentran presentes píxeles de referencia disponibles en ambas direcciones con respecto a los píxeles de referencia no disponibles.
Por ejemplo, cuando la unidad de predicción actual está situada en el límite superior de un fragmento y la unidad de predicción de arriba derecha de la unidad de predicción actual se encuentra disponible, los píxeles de referencia que se corresponden con la región C de la unidad de predicción actual no se encuentran disponibles, pero los píxeles de referencia que están situados en las regiones A y D se encuentran disponibles. En el presente caso en el que se encuentran disponibles píxeles de referencia que se encuentran presentes en ambas direcciones, los píxeles de referencia se generan mediante la selección de los píxeles de referencia disponibles lo más cerca de cada dirección y mediante el uso de los mismos (es decir, el píxel de referencia más hacia arriba en la región A y el píxel de referencia más hacia la izquierda en la región D).
Los píxeles de referencia se generan mediante el redondeo del promedio de los píxeles de referencia que se han mencionado en lo que antecede (es decir, los píxeles lo más cerca de cada dirección). Sin embargo, se puede usar una interpolación lineal para generar los píxeles de referencia debido a que la diferencia entre los valores de los píxeles de referencia que se han mencionado en lo que antecede puede ser grande. Con el fin de concretar, puede ser posible generar unos píxeles de referencia no disponibles de la ubicación actual al considerar la ubicación frente a los dos píxeles de referencia disponibles.
La unidad de filtrado de píxeles de referencia 152 filtra de forma adaptativa los píxeles de referencia de la unidad de predicción actual.
Haciendo referencia a la figura 4, se describe el funcionamiento de la unidad de filtrado de píxeles de referencia 152. La figura 4 es un diagrama conceptual que ilustra unos modos de intrapredicción direccionales de acuerdo con la presente invención.
La unidad de filtrado de píxeles de referencia 152 filtra de forma adaptativa los píxeles de referencia de acuerdo con el modo de intrapredicción y la posición del píxel de referencia.
En el modo vertical (el modo 0), el modo horizontal (el modo 1) y el modo DC (el modo 2), los píxeles de referencia no se filtran. Sin embargo, en los modos de intrapredicción direccionales que no sean los modos 0, 1 y 2, los píxeles de referencia se filtran de forma adaptativa. El píxel más a la derecha de los píxeles de referencia de arriba que están situados en (x = 2 N -1, y = -1) y el píxel más bajo de los píxeles de referencia izquierdos que están situados en (x = -1, y = 2 N - 1 ) no se filtran. Los otros píxeles de referencia se filtran usando dos píxeles de referencia adyacentes.
Se aplica un filtro de paso bajo para suavizar las diferencias entre los píxeles de referencia adyacentes. El filtro de paso bajo puede ser un filtro de 3 coeficientes [1,2, 1] o un filtro de 5 coeficientes [1, 2, 4, 2, 1].
La aplicación del filtro de paso bajo se determina mediante un tamaño de la unidad de predicción actual y el modo de intrapredicción.
Un filtro se aplica de forma adaptativa a los píxeles de referencia en los modos de intrapredicción direccionales 3, 6 y 9 que tienen una dirección de 45° con referencia a la dirección horizontal o vertical de acuerdo con el tamaño de la unidad de predicción. Si el tamaño de la unidad de predicción es más pequeño que un tamaño previamente determinado, se aplica un primer filtro. Si el tamaño de la unidad de predicción es igual a o más grande que el tamaño previamente determinado, se puede aplicar un segundo filtro más fuerte que el primer filtro. El tamaño previamente determinado puede ser de 16 * 16.
En los modos de intrapredicción direccionales que existen entre el modo de intrapredicción 3, 6 o 9 y el modo de intrapredicción horizontal o vertical, el filtro se puede aplicar de forma adaptativa a los píxeles de referencia de acuerdo con el tamaño de la unidad de predicción. El filtro se puede aplicar en un número previamente determinado de modos de intrapredicción adyacentes al modo 3, 6 o 9. Para las unidades de predicción que tienen el mismo número de modos de intrapredicción direccionales, el número previamente determinado se puede aumentar a medida que aumenta el tamaño del bloque de predicción. Por ejemplo, el filtro se aplica a un primer número de modos de intrapredicción adyacentes al modo 3, 6 o 9 para las unidades de predicción de 8 * 8 , a un segundo número de modos de intrapredicción adyacentes al modo 3, 6 o 9 para la unidad de predicción de 16 * 16, y a un tercer número de modos de intrapredicción adyacentes al modo 3, 6 o 9 para la unidad de predicción de 32 * 32. El primer número es igual a o más pequeño que el segundo número, y el segundo número es igual a o más pequeño que el tercer número.
La unidad de generación de bloques de predicción 153 genera un bloque de predicción que se corresponde con el modo de intrapredicción.
En el modo DC, el bloque de predicción consiste en unos promedios de los píxeles de referencia, y puede tener lugar una diferencia de paso entre píxeles en un bloque de predicción adyacente a los píxeles de referencia. Por lo tanto, los píxeles de predicción de la línea superior y la línea izquierda que se encuentran adyacentes a los píxeles de referencia se filtran usando los píxeles de referencia. El píxel de predicción superior izquierdo adyacente a dos píxeles de referencia (el píxel de referencia superior y el píxel de referencia izquierdo) se filtra mediante un filtro de 3 coeficientes. Los otros píxeles de predicción (los píxeles de la línea superior y los píxeles de la línea izquierda en el bloque de predicción) y adyacentes a un píxel de referencia se filtran mediante un filtro de 2 coeficientes.
En el modo plano, los píxeles de predicción se generan usando un píxel de referencia de esquina, unos píxeles de referencia izquierdos y unos píxeles de referencia de arriba. Un píxel de predicción que está situado en (a, b) se genera usando un píxel de referencia de esquina que está situado en (x = -1, y = -1), un píxel de referencia de arriba que está situado en (x = a, y = -1) y un píxel de referencia izquierdo que está situado en (x = -1, y = b). En el modo plano, los píxeles de predicción no se filtran mediante un píxel de referencia.
Cuando se generan los píxeles de predicción copiando un píxel de referencia anterior correspondiente en el modo vertical (modo 0), una correlación entre un píxel de referencia izquierdo en el bloque de predicción y un píxel adyacente al píxel de referencia izquierdo disminuye conforme la posición del píxel de predicción va hacia debajo. Cuando los píxeles de predicción se generan copiando un píxel de referencia izquierdo correspondiente en el modo horizontal (modo 1), una correlación entre un píxel de referencia superior en el bloque de predicción y un píxel de predicción adyacente al píxel de referencia superior disminuye conforme la posición del píxel de predicción va a la derecha. Por esta razón, en el modo vertical, la diferencia entre el bloque de predicción y una unidad de predicción original aumenta conforme la posición del píxel va hacia debajo.
Por lo tanto, en el modo vertical, los píxeles izquierdos en el bloque de predicción pueden filtrarse usando píxeles de referencia izquierdos no usados cuando el bloque de predicción se genera con el fin de disminuir la diferencia. En el modo horizontal, los píxeles superiores en el bloque de predicción pueden filtrarse usando los píxeles de referencia superiores no usados cuando se genera el bloque de predicción.
En los modos de intrapredicción direccional (números de modo 22, 12, 23, 5, 24, 13 y 25) existentes entre el modo 0 y el modo 6 y, el modo 6, cuando el bloque de predicción se genera usando solo los píxeles de referencia superiores de la unidad de predicción actual, la diferencia entre un píxel y los píxeles en una línea izquierda del bloque de predicción generado y adyacente al píxel de referencia aumenta conforme la posición del píxel de predicción va hacia debajo.
En los modos de intrapredicción direccional (números de modo 30, 16, 31, 8, 32, 17, 33) existentes entre el modo 1 y el modo 9, y el modo 9, cuando el bloque de predicción se genera usando solo los píxeles de referencia izquierdos de la unidad de predicción actual, la diferencia entre un píxel de referencia y los píxeles en una línea superior del bloque de predicción generado y adyacente al píxel de referencia aumenta conforme la posición del píxel de predicción va hacia la derecha.
Por lo tanto, algunos píxeles del bloque de predicción pueden filtrarse de manera adaptativa para el modo de intrapredicción direccional, excepto el modo DC, con el fin de compensar la diferencia. Por otro lado, para compensar la diferencia, el bloque de predicción puede generarse usando tanto los píxeles de referencia superior como izquierdo.
Primero, se describirá un procedimiento para filtrar algunos píxeles del bloque de predicción.
En el modo 6, el bloque de predicción se genera usando los píxeles de referencia superiores y los píxeles de predicción izquierdos adyacente a un píxel de referencia se filtran. El área de píxeles en el bloque de predicción a filtrar puede variar de acuerdo con un tamaño de la unidad de predicción. Es decir, el número de líneas y la relación de píxeles en una línea a filtrar puede variar de acuerdo con el tamaño de la unidad de predicción. El número de líneas puede aumentar o permanecer sin alterar o, la relación puede disminuir conforme el tamaño de la unidad de predicción disminuye. Y, la resistencia del filtro puede disminuir conforme una distancia desde el píxel de referencia aumenta.
Por ejemplo, los píxeles de la primera línea izquierda (x=0, y=0, ..., 3), en el bloque de predicción se filtran en unidad de predicción 4x4. Todos los píxeles de predicción de la primera línea izquierda y algunos píxeles de predicción de la segunda línea se filtran en unidad de predicción 8x8. Los algunos píxeles de predicción pueden ubicarse en (x=1, y=4, ..., 7). Todos los píxeles de predicción de la primera línea izquierda, un primer número de píxeles de predicción de la segunda línea y un segundo número de píxeles de predicción de la tercera línea se filtran en unidad de predicción 16x16. El primer número de píxeles de predicción puede ubicarse en (x=1, y=4, ..., 15). Todos los píxeles de predicción de la primera línea izquierda, un primer número de píxeles de predicción de la segunda línea, un segundo número de píxeles de predicción de la tercera línea y un tercer número de píxeles de predicción de la cuarta línea se filtran en unidad de predicción 32x32. El tercer número de píxeles de predicción puede ubicarse en (x=3, y=16, ..., 31).
En un número predeterminado de modos de intrapredicción más cercano al modo 6 y que existe entre el modo 0 y el modo 6, los píxeles de predicción pueden filtrarse usando el mismo procedimiento que en el modo 6. Un número de píxeles de predicción a filtrar puede disminuir o permanecer sin alterar conforme una dirección del modo de intrapredicción va más allá de la dirección del modo 6. En un número predeterminado de modos de intrapredicción más cerca al modo 0 y que existe entre el modo de predicción 0 y el modo de predicción 6, los píxeles de predicción pueden filtrarse usando el mismo procedimiento que en el modo vertical.
En el modo 9, los píxeles de predicción pueden filtrarse usando el mismo procedimiento que en el modo 6. En los modos de intrapredicción que existen entre el modo 1 y el modo 9, los píxeles de predicción pueden filtrarse usando el mismo procedimiento que en los modos de intrapredicción que existen entre el modo 0 y el modo 6.
Mientras tanto, en el modo 6 y un número de modos de intrapredicción adyacentes al modo 6, el bloque de predicción puede generarse usando todos los píxeles de referencia superiores e izquierdos, no usando el procedimiento anteriormente mencionado que filtra algunos píxeles en el bloque de predicción. En el modo 9 y un número predeterminado de modos de intrapredicción adyacentes al modo 9, se aplica el mismo procedimiento.
La unidad de determinación de modo de intrapredicción 154 determina el modo de intrapredicción de la unidad de predicción actual. La unidad de determinación de modo de intrapredicción 154 selecciona un modo de intrapredicción en el que la cantidad de bits de codificación de un bloque residual se reduce al mínimo para cada modo de intrapredicción como el modo de intrapredicción de la unidad de predicción actual.
La unidad de codificación de modo de intrapredicción 155 codifica el modo de intrapredicción de la unidad de predicción actual que se determina mediante la unidad de determinación de modo de intrapredicción 154. La unidad de codificación de modo de intrapredicción 155 se puede integrar en la unidad de intrapredicción 150 o en la unidad de codificación por entropía 140.
La unidad de codificación de modo de intrapredicción 155 codifica el modo de intrapredicción de la unidad de predicción actual usando los modos de intrapredicción de las unidades de predicción adyacentes a la unidad de predicción actual. La unidad de codificación de modo de intrapredicción 155 clasifica los modos de intrapredicción (por ejemplo, 35 modos) admisibles para la unidad de predicción actual en una pluralidad de grupos de modos de intrapredicción, codifica un índice que se corresponde con un grupo al que pertenece el modo de intrapredicción actual y un índice que se corresponde con el modo de intrapredicción de la unidad de predicción actual en el grupo al que pertenece el modo de intrapredicción actual. Cada grupo incluye al menos un modo de intrapredicción. Preferentemente, el número de los grupos de modos de intrapredicción es de 2 o 3.
En lo sucesivo en el presente documento, se describirá un caso en el que el número de los grupos de modos de intrapredicción es 2.
En primer lugar, se obtienen los modos de intrapredicción de las unidades de predicción adyacentes a la unidad de predicción actual. Los modos de intrapredicción pueden ser unos modos de intrapredicción de una unidad de predicción izquierda y una unidad de predicción de arriba de la unidad de predicción actual. Cuando existe una pluralidad de unidades de predicción de arriba de la unidad de predicción actual, la pluralidad de unidades de predicción de arriba se explora en una dirección previamente determinada (por ejemplo, de derecha a izquierda) para determinar el modo de intrapredicción de una primera unidad de predicción disponible como un modo de intrapredicción de arriba. Asimismo, cuando existe una pluralidad de unidades de predicción izquierda de la unidad de predicción actual, la pluralidad de unidades de predicción izquierda se explora en una dirección previamente determinada (por ejemplo, de abajo arriba) para determinar el modo de intrapredicción de una primera unidad de predicción disponible como un modo de intrapredicción izquierda. Como alternativa, de entre una pluralidad de unidades de predicción disponibles, el modo de intrapredicción de una unidad de predicción disponible que tiene el número de modo de intrapredicción más bajo se puede establecer como un modo de intrapredicción de arriba.
A continuación, el modo de intrapredicción obtenido se puede convertir en uno de los modos admisibles para la unidad de predicción actual cuando el número de modo de intrapredicción obtenido es igual a o más grande que el número de modos de intrapredicción admisibles para la unidad de predicción actual.
A continuación, un primer grupo de modos de intrapredicción se construye usando el modo de intrapredicción obtenido o convertido.
Los modos de intrapredicción obtenidos o convertidos y uno o más candidatos de modo de intrapredicción que se determinan en un orden previamente determinado por los modos de intrapredicción obtenidos o convertidos se usan para construir el primer grupo de modos de intrapredicción. Cuando el modo de intrapredicción obtenido o convertido es un modo direccional, los candidatos de modo de intrapredicción pueden ser uno o más modos de intrapredicción direccionales lo más cerca del modo de intrapredicción obtenido o convertido.
A continuación, se determina si el modo de intrapredicción de la unidad de predicción actual pertenece, o no, al primer grupo de modos de intrapredicción.
Cuando el modo de intrapredicción de la unidad de predicción actual pertenece al primer grupo de modos de intrapredicción, se codifican una información que indica el primer grupo de modos de intrapredicción y un índice que se corresponde con el modo de intrapredicción de la unidad de predicción actual en el primer grupo de modos de intrapredicción.
Sin embargo, cuando el modo de intrapredicción de la unidad de predicción actual no pertenece al primer grupo de modos de intrapredicción, se codifican una información que indica un segundo grupo de modos de intrapredicción y un índice que se corresponde con el modo de intrapredicción de la unidad de codificación actual en el segundo grupo de modos de intrapredicción. El segundo grupo de modos de intrapredicción incluye los modos de intrapredicción que no sean los modos de intrapredicción que pertenecen al primer grupo de modos de intrapredicción.
Cuando no se encuentra disponible ninguno del modo de intrapredicción de arriba y el modo de intrapredicción izquierda, se añaden uno o más modos de intrapredicción al primer grupo de modos de intrapredicción. Por ejemplo, se puede añadir un modo DC o un modo plano cuando se añade un modo de intrapredicción. Se pueden añadir un modo DC y un modo plano o vertical cuando se añaden dos modos de intrapredicción. Un modo DC, un modo plano y uno del modo vertical y el modo horizontal se pueden añadir cuando se añaden tres modos de intrapredicción.
Cuando se encuentra disponible uno del modo de intrapredicción de arriba y el modo de intrapredicción izquierda o cuando el modo de intrapredicción de arriba y el modo de intrapredicción izquierda son el mismo, se puede añadir uno o dos modos de intrapredicción al primer grupo de modos de intrapredicción. Por ejemplo, se puede añadir un modo DC o un modo plano cuando se añade un modo de intrapredicción. Cuando se añaden dos modos de intrapredicción, los modos de intrapredicción que se van a añadir varían de acuerdo con si el modo de intrapredicción disponible es, o no, un modo de intrapredicción direccional. Si el modo de intrapredicción disponible es uno de los modos de intrapredicción no direccional (es decir, un modo DC y un modo plano), se pueden añadir un modo vertical y un modo horizontal o se pueden añadir el otro modo de intrapredicción direccional y un modo vertical. Si el modo de intrapredicción disponible es un modo de intrapredicción direccional, se pueden añadir dos modos de intrapredicción lo más cerca del modo de intrapredicción direccional en ambos lados. Sin embargo, si existe el modo de intrapredicción adyacente en solo un lado del modo de intrapredicción disponible (es decir, el modo de intrapredicción disponible es el modo 6 o 9), el modo de intrapredicción adyacente (el modo 25 o 33) y se puede añadir uno de un modo DC o un modo plano.
Cuando el modo de intrapredicción de la unidad de predicción actual pertenece al segundo grupo de modos de intrapredicción, el índice se corresponde con un número reordenado del modo de intrapredicción de la unidad de codificación actual en el segundo grupo de modos de intrapredicción. En el presente caso, se puede usar una tabla de VLC.
Se presenta el caso en el que el número de los grupos de modos de intrapredicción es de 2, pero el número de los grupos de modos de intrapredicción puede ser de 3. Cuando el número de los grupos de modos de intrapredicción es de 3, si el modo de intrapredicción de la unidad de predicción actual no pertenece al primer grupo de modos de intrapredicción, se determina si el modo de intrapredicción de la unidad de predicción actual pertenece al segundo grupo de modos de intrapredicción. Si el modo de intrapredicción de la unidad de predicción actual pertenece al segundo grupo de modos de intrapredicción, se codifican una información que indica el segundo grupo de modos de intrapredicción y un índice que se corresponde con el modo de intrapredicción de la unidad de codificación actual en el segundo grupo de modos de intrapredicción. Si el modo de intrapredicción de la unidad de predicción actual no pertenece al segundo grupo de modos de intrapredicción, se codifican una información que indica el tercer grupo de modos de intrapredicción y un índice que se corresponde con el modo de intrapredicción de la unidad de codificación actual en el tercer grupo de modos de intrapredicción. El segundo grupo de modos de intrapredicción se genera sobre la base de los modos de intrapredicción de la unidad de predicción izquierda y la unidad de predicción de arriba de la unidad de predicción actual.
Como alternativa, la unidad de codificación de modo de predicción 155 puede codificar el modo de intrapredicción del modo de predicción actual tal como sigue. En primer lugar, se determina si el modo de intrapredicción de la unidad de predicción actual es igual a uno de los modos de intrapredicción del bloque previo adyacente a las unidades de predicción actual. Si el modo de intrapredicción de la unidad de predicción actual es igual a uno de los modos de intrapredicción del bloque previo adyacente a las unidades de predicción actual, una etiqueta que indica esto (pred_flag) se establece en 1 y el modo de intrapredicción de la unidad de predicción actual se codifica usando el modo de intrapredicción izquierda o de arriba disponible. De lo contrario, la etiqueta (pred_flag) se establece en 0 y se codifica un índice que indica el número ordenado del modo de intrapredicción de la unidad de codificación actual de entre los modos de intrapredicción que no sean los modos de intrapredicción izquierda y de arriba.
Mientras tanto, los modos de intrapredicción de componente de crominancia pueden incluir un modo que usa el modo de intrapredicción correspondiente de la componente de luminancia. En el presente caso, tal información se puede incluir en un conjunto de parámetros de secuencia (SPS, sequence parameter set), un conjunto de parámetros de imagen (PPS, picture parameter set) o un encabezamiento de fragmento. El número de modos de intrapredicción de componente de crominancia puede variar de acuerdo con un tamaño de la unidad de predicción. Los modos de intrapredicción de componente de crominancia se pueden codificar usando los modos de intrapredicción del bloque adyacente. En el presente caso, el procedimiento de codificación es el mismo que se ha descrito en lo que antecede. De lo contrario, los modos de intrapredicción de componente de crominancia se pueden codificar sin usar información de modo de intrapredicción del bloque adyacente. En el presente caso, se puede usar una tabla de VLC.
La unidad de transmisión de bloques de predicción 156 transmite el bloque de predicción generado que se corresponde con el modo de intrapredicción al sustractor 190.
La figura 5 es un diagrama de bloques de un aparato de descodificación de imágenes en movimiento de acuerdo con la presente invención.
El aparato de descodificación de imágenes en movimiento de acuerdo con la presente invención incluye una unidad de descodificación por entropía 210, una unidad de exploración inversa 220, una unidad de cuantificación inversa 230, una unidad de transformada inversa 240, una unidad de intrapredicción 250, una unidad de inter predicción 260, una unidad de post procesamiento 270, una unidad de almacenamiento de imágenes 280, un sumador 290 y un conmutador de cambio de intra/inter 295.
La unidad de descodificación por entropía 210 extrae la información de intrapredicción, una información de inter predicción y una información de coeficientes cuantificados a partir de un flujo de bits recibido. La unidad de descodificación por entropía 210 transmite la información de inter predicción a la unidad de inter predicción 260, la información de intrapredicción a la unidad de intrapredicción 250 y la información de coeficientes cuantificados a la unidad de exploración inversa 220.
La unidad de exploración inversa 220 convierte la información de coeficientes cuantificados en un bloque de transformada cuantificado bidimensional. Uno de una pluralidad de patrones de exploración inversa se selecciona para la conversión. El patrón de exploración inversa se selecciona sobre la base del modo de intrapredicción. Si un tamaño de una unidad de transformada que se va a descodificar es más grande que el tamaño de referencia previamente determinado, una unidad de transformada cuantificada se genera mediante la exploración, de forma inversa, de los coeficientes de transformada cuantificados en la unidad de un tamaño previamente determinado del subconjunto. Si el tamaño de una unidad de transformada que se va a descodificar es igual al tamaño de referencia previamente determinado, la unidad de transformada cuantificada se genera mediante la exploración, de forma inversa, de los coeficientes de transformada cuantificados en la unidad de la unidad de transformada. Si los coeficientes de transformada cuantificados se exploran de forma inversa en la unidad del subconjunto, un mismo patrón de exploración inversa se aplica a los coeficientes de transformada cuantificados en cada subconjunto. La pluralidad de subconjuntos consiste en un subconjunto principal y uno o más subconjuntos restantes. El subconjunto principal está situado en un lado izquierdo superior e incluye un coeficiente de DC, y los uno o más subconjuntos restantes cubren una región que no sea el subconjunto principal.
Un patrón de exploración a aplicar a los subconjuntos puede ser una exploración en zigzag. Los subconjuntos se pueden explorar de forma inversa comenzando con el subconjunto principal para los subconjuntos residuales en una dirección hacia delante, o se pueden explorar en el sentido inverso. Un patrón de exploración inversa para explorar los subconjuntos se puede establecer como el mismo que un patrón de exploración inversa para explorar los coeficientes de transformada cuantificados. La unidad de exploración inversa 220 realiza un procedimiento de exploración inversa usando una información que indica una posición del último coeficiente cuantificado no nulo de la unidad de transformada.
La unidad de cuantificación inversa 230 determina un predictor de tamaño de paso de cuantificación de una unidad de codificación actual. La operación para determinar el predictor de tamaño de paso de cuantificación es la misma que la del procedimiento de la unidad de cuantificación 130 de la figura 1. La unidad de cuantificación inversa suma el predictor de tamaño de paso de cuantificación determinado y un tamaño de paso de cuantificación residual recibido para generar un tamaño de paso de cuantificación de la unidad de codificación actual. La unidad de cuantificación inversa 230 restablece los coeficientes cuantificados de forma inversa usando una matriz de cuantificación que se determina mediante el tamaño de paso de cuantificación. La matriz de cuantificación varía de acuerdo con el tamaño del bloque actual que se va a restablecer. La matriz de cuantificación se puede seleccionar para un bloque que tiene el mismo tamaño en función de al menos uno de un modo de predicción y un modo de intrapredicción del bloque actual.
La unidad de cuantificación inversa 230 determina un predictor de tamaño de paso de cuantificación de una unidad de codificación actual. La operación de determinación del predictor de tamaño de paso de cuantificación es la misma que la operación de la unidad de cuantificación 130 de la figura 1. La unidad de cuantificación inversa suma el predictor de tamaño de paso de cuantificación determinado y un tamaño de paso de cuantificación residual recibido para generar un tamaño de paso de cuantificación de la unidad de codificación actual. La unidad de cuantificación inversa 230 restablece los coeficientes cuantificados de forma inversa usando una matriz de cuantificación que se determina mediante el tamaño de paso de cuantificación. La matriz de cuantificación varía de acuerdo con el tamaño del bloque actual o la matriz de cuantificación varía para un bloque de acuerdo con al menos uno del modo de predicción y el modo de intrapredicción.
La unidad de transformada inversa 240 transforma de forma inversa el bloque cuantificado de forma inversa para restablecer un bloque residual. La matriz de transformada inversa a aplicar al bloque cuantificado de forma inversa se determina de forma adaptativa de acuerdo con el modo de predicción (intra o inter) y el modo de intrapredicción. El procedimiento de determinación de la matriz de transformada inversa es el mismo que el procedimiento en la unidad de transformada 120 de la figura 1.
El sumador 290 suma el bloque residual restablecido que es restablecido por la unidad de transformada inversa 240 y un bloque de predicción que se genera mediante la unidad de intrapredicción 250 o la unidad de inter predicción 260 para generar un bloque de imagen reconstruido.
La unidad de intrapredicción 250 restablece el modo de intrapredicción del bloque actual sobre la base de la información de intrapredicción que se recibe a partir de la unidad de descodificación por entropía 210 y genera un bloque de predicción de acuerdo con el modo de intrapredicción restablecido.
La unidad de inter predicción 260 restablece los índices de imagen de referencia y los vectores de movimiento sobre la base de la información de inter predicción que se recibe a partir de la unidad de descodificación por entropía 210 y genera un bloque de predicción usando los índices de imagen de referencia y los vectores de movimiento. Cuando se aplica una compensación de movimiento con una precisión fraccionaria, el bloque de predicción se genera usando un filtro de interpolación.
La unidad de post procesamiento 270 opera del mismo modo que la unidad de post procesamiento 160 de la figura 3.
La unidad de almacenamiento de imágenes 280 almacena la imagen reconstruida post procesada mediante la unidad de post procesamiento 270.
La figura 6 es un diagrama de bloques de la unidad de intrapredicción 250 de un aparato de descodificación de imágenes en movimiento 200 de acuerdo con la presente invención.
La unidad de intrapredicción 250 de acuerdo con la presente invención incluye una unidad de descodificación de modos de intrapredicción 251, una unidad de generación de píxeles de referencia 252, una unidad de filtrado de píxeles de referencia 253, una unidad de generación de bloques de predicción 254 y una unidad de transmisión de bloques de predicción 255.
La unidad de descodificación de modos de intrapredicción 251 recibe la información de intrapredicción a partir de la unidad de descodificación por entropía 210 y restablece el modo de intrapredicción de la unidad de predicción actual. La información de intrapredicción incluye una información que indica el grupo de modos de intrapredicción al cual pertenece la unidad de predicción actual que se va a descodificar, y el índice de modos de intrapredicción.
La unidad de descodificación de modos de intrapredicción 251 obtiene los modos de intrapredicción de las unidades de predicción adyacentes a la unidad de predicción actual. Los modos de intrapredicción pueden ser el modo de intrapredicción de una unidad de intrapredicción izquierda y una unidad de intrapredicción de arriba de la unidad de predicción actual. Cuando existe una pluralidad de unidades de predicción de arriba de la unidad de predicción actual, la pluralidad de unidades de predicción de arriba se explora en una dirección previamente determinada (por ejemplo, de derecha a izquierda) para determinar el modo de intrapredicción de una primera unidad de predicción disponible como un modo de intrapredicción de arriba. Asimismo, cuando existe una pluralidad de unidades de predicción izquierda de la unidad de predicción actual, la pluralidad de unidades de predicción izquierda se explora en una dirección previamente determinada (por ejemplo, de abajo arriba) para determinar el modo de intrapredicción de una primera unidad de predicción disponible como un modo de intrapredicción izquierda. Como alternativa, de entre una pluralidad de unidades de predicción disponibles, el modo de intrapredicción de una unidad de predicción disponible que tiene el número de modo de intrapredicción más bajo se puede establecer como un modo de intrapredicción de arriba.
El modo de intrapredicción de arriba o el modo de intrapredicción izquierda se convierte en uno de los modos admisibles cuando el número de modos de intrapredicción de arriba o el número de modos de intrapredicción izquierda es igual a o más grande que el número de modos de intrapredicción admisibles para la unidad de predicción actual.
Un primer grupo de modos de intrapredicción se construye usando el modo de intrapredicción obtenido o convertido. Los modos de intrapredicción obtenidos o convertidos y uno o más candidatos de modo de intrapredicción que se determinan en un orden previamente determinado por los modos de intrapredicción obtenidos o convertidos se pueden incluir en el primer grupo de modos de intrapredicción. Cuando el modo de intrapredicción obtenido o convertido es un modo direccional, los uno o más candidatos de modo de intrapredicción pueden ser al menos un modo de intrapredicción direccional lo más cerca del modo de intrapredicción obtenido o convertido.
La unidad de descodificación de modos de intrapredicción 251 determina si la información que indica el grupo de modos de intrapredicción indica, o no, el primer grupo de modos de intrapredicción.
Si la información que indica el grupo de modos de intrapredicción indica el primer grupo de modos de intrapredicción, el modo de intrapredicción que se corresponde con el índice de modo de intrapredicción recibido se selecciona de entre el primer grupo de modos de intrapredicción, y el modo de intrapredicción seleccionado se establece como el modo de intrapredicción de la unidad de predicción actual.
Si la información que indica el grupo de modos de intrapredicción indica el segundo grupo de modos de intrapredicción, el modo de intrapredicción que se corresponde con el índice de modo de intrapredicción recibido se selecciona de entre el segundo grupo de modos de intrapredicción, y el modo de intrapredicción seleccionado se establece como el modo de intrapredicción de la unidad de predicción actual. El segundo grupo de modos de intrapredicción incluye unos modos de intrapredicción que no sean los modos de intrapredicción que pertenecen al primer grupo de modos de intrapredicción. Los modos de intrapredicción del segundo modo de intrapredicción se pueden reordenar con referencia al índice de modo de intrapredicción. Asimismo, los modos de intrapredicción del segundo modo de intrapredicción se pueden reordenar con referencia al modo de intrapredicción de la unidad de predicción de arriba e izquierda de la unidad de predicción actual, así como el índice de modo de intrapredicción.
Cuando no se encuentra disponible ninguno del modo de intrapredicción de arriba y el modo de intrapredicción izquierda, se añaden uno o más modos de intrapredicción al primer grupo de modos de intrapredicción. Por ejemplo, se puede añadir un modo DC o un modo plano cuando se añade un modo de intrapredicción. Se pueden añadir un modo DC y un modo plano o vertical cuando se añaden dos modos de intrapredicción. Un modo DC, un modo plano, y uno del modo vertical y el modo horizontal se pueden añadir cuando se añaden tres modos de intrapredicción.
Cuando se encuentra disponible uno del modo de intrapredicción de arriba y el modo de intrapredicción izquierda o cuando el modo de intrapredicción de arriba y el modo de intrapredicción izquierda son el mismo, se puede añadir uno o dos modos de intrapredicción al primer grupo de modos de intrapredicción. Por ejemplo, se puede añadir un modo DC o un modo plano cuando se añade un modo de intrapredicción. Cuando se añaden dos modos de intrapredicción, los modos de intrapredicción que se van a añadir varían de acuerdo con si el modo de intrapredicción disponible es, o no, un modo de intrapredicción direccional. Si el modo de intrapredicción disponible es uno de los modos de intrapredicción no direccional (es decir, un modo DC o un modo plano), se pueden añadir un modo vertical y un modo horizontal o se pueden añadir el otro modo de intrapredicción no direccional (es decir, un modo plano o un modo DC) y un modo vertical. Si el modo de intrapredicción disponible es un modo de intrapredicción direccional, se pueden añadir dos modos de intrapredicción lo más cerca del modo de intrapredicción disponible en ambos lados. Sin embargo, para un cierto modo (por ejemplo, el modo 6 o el modo 9) que tiene el modo de intrapredicción adyacente en solo un lado del modo de intrapredicción disponible, el modo de intrapredicción adyacente (el modo 25 o el modo 33) y se puede añadir uno de un modo DC y un modo plano.
Como alternativa, la unidad de descodificación de modo de predicción 251 puede descodificar el modo de intrapredicción del modo de predicción actual tal como sigue. En primer lugar, se analiza sintácticamente una etiqueta (pred_flag) que indica si el modo de intrapredicción de la unidad de predicción actual es igual a uno de los modos de intrapredicción de las unidades de intrapredicción previas (por ejemplo, las unidades de predicción de arriba e izquierda). Si la etiqueta (pred_flag) es 1, el modo de intrapredicción de la unidad de predicción actual se determina usando el modo de intrapredicción izquierda disponible y el modo de intrapredicción de arriba disponible. Si la etiqueta (pred_flag) es 0, el modo de intrapredicción de la unidad de predicción actual se determina usando la información de modo de predicción restante (rem_pred_mode). La información de modo de predicción restante (rem_pred_mode) indica el orden de los modos de intrapredicción de la unidad de intrapredicción actual de entre los modos de intrapredicción disponibles que no sean el modo de intrapredicción izquierda disponible y el modo de intrapredicción de arriba disponible.
La unidad de generación de píxeles de referencia 252 genera píxeles de referencia usando el mismo procedimiento que se describe en la unidad de generación de píxeles de referencia 151 del aparato de codificación 100. Sin embargo, la unidad de generación de píxeles de referencia 252 puede generar de forma adaptativa los píxeles de referencia de acuerdo con el modo de intrapredicción restablecido solo cuando los píxeles de referencia que se usan para generar un bloque de predicción y que se determinan mediante el modo de intrapredicción no se encuentran disponibles.
La unidad de filtrado de píxeles de referencia 253 filtra de forma adaptativa los píxeles de referencia sobre la base del modo de intrapredicción restablecido y un tamaño de la unidad de predicción actual. El procedimiento y la condición de filtrado y son los mismos que los de la unidad de filtrado de píxeles de referencia 152 del aparato de codificación 100.
La unidad de generación de bloques de predicción 254 genera un bloque de predicción usando los píxeles de referencia sobre la base del modo de intrapredicción restablecido. Un procedimiento para generar el bloque de predicción es el mismo procedimiento que se usa en la unidad de generación de bloques de predicción 154 del aparato de codificación 100.
La unidad de transmisión de bloques de predicción 255 transmite el bloque de predicción que se recibe a partir del generador de bloques de predicción 254 al sumador 290.
La figura 7 es un diagrama de flujo que ilustra un procedimiento de descodificación en un modo de intrapredicción de acuerdo con la presente invención.
En primer lugar, la información de intrapredicción y las señales residuales se demultiplexan a partir de un flujo de bits recibido en la etapa S100. La etapa S100 se realiza en la unidad de una unidad de codificación. La información de intrapredicción se extrae a partir de una sintaxis de unidad de predicción en la unidad de codificación. Las señales residuales se extraen a partir de una sintaxis de unidad de transformada en la unidad de codificación.
El modo de intrapredicción de una unidad de predicción actual se restablece usando la información de intrapredicción que se obtiene a partir de la sintaxis de unidad de predicción en la etapa S110. La información de intrapredicción incluye el indicador de grupo de modos de intrapredicción (pred_mode) y el índice de modo de intrapredicción. Si la información de intrapredicción no incluye el índice de modo de intrapredicción, la información de intrapredicción se establece en 0. El indicador de grupo de modos de intrapredicción indica el grupo de modos de intrapredicción al cual pertenece el modo de intrapredicción de la unidad de predicción actual. Si el número de los grupos de modos de intrapredicción es de 2, el indicador de grupo de modos de intrapredicción (pred_mode) puede ser una etiqueta de un bit. El número de los grupos de modos de intrapredicción puede ser de 2 o 3.
La figura 8 es un diagrama de flujo que ilustra un procedimiento de restablecimiento de un modo de intrapredicción de acuerdo con la presente invención. El número de modos de intrapredicción que pertenecen al primer grupo de modos de intrapredicción varía. Se describirá un caso en el que el número de los grupos de modos de intrapredicción es de 2.
En primer lugar, un primer grupo de modos de intrapredicción se construye usando los modos de intrapredicción de las unidades de predicción adyacentes a la unidad de predicción actual en la etapa S111.
Por ejemplo, el primer grupo de modos de intrapredicción está compuesto por los modos de intrapredicción disponibles de las unidades de intrapredicción de arriba y las de izquierda de la unidad de predicción actual. Si ambos de los modos de intrapredicción de las unidades de intrapredicción de arriba y las de izquierda se encuentran no disponibles, se puede añadir un modo DC o un modo plano al primer grupo de modos de intrapredicción. El primer grupo de modos de intrapredicción puede incluir al menos un modo de intrapredicción adicional que es un primer modo de intrapredicción disponible que es encontrado cuando se recupera un modo de intrapredicción derecha de arriba, un modo de intrapredicción izquierda de debajo, un modo de intrapredicción izquierda de arriba de la unidad de predicción actual.
Cuando existe una pluralidad de unidades de predicción de arriba de la unidad de predicción actual, la pluralidad de unidades de predicción de arriba se explora en una dirección previamente determinada (por ejemplo, de izquierda a derecha) para determinar el modo de intrapredicción de una primera unidad de predicción disponible como un modo de intrapredicción de arriba. Asimismo, cuando existe una pluralidad de unidades de predicción izquierda de la unidad de predicción actual, la pluralidad de unidades de predicción izquierda se explora en una dirección previamente determinada (por ejemplo, de arriba abajo) para determinar el modo de intrapredicción de una primera unidad de predicción disponible como un modo de intrapredicción izquierda.
Si el modo de intrapredicción disponible no es igual a uno de los modos de intrapredicción admisibles de la unidad de predicción actual, el modo de intrapredicción disponible se convierte en uno de los modos de intrapredicción admisibles de la unidad de predicción actual. Se determina si el modo de intrapredicción de la unidad de predicción actual pertenece, o no, al primer grupo de modos de intrapredicción, sobre la base del indicador de grupo de modos de intrapredicción en la etapa S112.
Si el modo de intrapredicción de la unidad de predicción actual pertenece al primer grupo de modos de intrapredicción, se determina si el índice de modo de intrapredicción existe, o no, en la etapa S113.
Si el índice de modo de intrapredicción existe, el modo de intrapredicción del primer grupo de modos de intrapredicción que se corresponde con el índice de modo de intrapredicción se determina como el modo de intrapredicción de la unidad de predicción actual en la etapa S114.
Si el índice de modo de intrapredicción no existe, el índice de modo de intrapredicción se establece en 0 y el modo de intrapredicción del primer grupo de modos de intrapredicción que se corresponde con el índice de modo de intrapredicción 0 se determina como el modo de intrapredicción de la unidad de predicción actual en la etapa S115. Es decir, si el índice de modo de intrapredicción no existe, solo se incluye un modo de intrapredicción en el primer grupo de modos de intrapredicción.
Si el modo de intrapredicción de la unidad de predicción actual no pertenece al primer grupo de modos de intrapredicción, el modo de intrapredicción del segundo grupo de modos de intrapredicción que se corresponde con el índice de modo de intrapredicción se determina como el modo de intrapredicción de la unidad de predicción actual en la etapa S116. El segundo grupo de modos de intrapredicción incluye la totalidad de los modos de intrapredicción que no sean los modos de intrapredicción que pertenecen al primer grupo de modos de intrapredicción. El índice de modo de intrapredicción se puede asignar en el orden del número de modo del modo de intrapredicción del segundo grupo de modos de intrapredicción.
La figura 9 es un diagrama de flujo que ilustra otro procedimiento de restablecimiento del modo de intrapredicción de acuerdo con la presente invención. El número de modos de intrapredicción que pertenecen a un primer grupo de modos de intrapredicción está fijado.
En primer lugar, un primer grupo de modos de intrapredicción se construye usando los modos de intrapredicción de las unidades de predicción adyacentes a la unidad de predicción actual en la etapa S211.
Cuando el primer grupo de modos de intrapredicción incluye dos modos de intrapredicción, el primer grupo de modos de intrapredicción se construye tal como sigue.
Se determina si los modos de intrapredicción de las unidades de intrapredicción de arriba y las de izquierda de la unidad de predicción actual se encuentran, o no, disponibles. Si el modo de intrapredicción disponible no es uno de los modos de intrapredicción admisibles de la unidad de predicción actual, el modo de intrapredicción disponible se convierte en uno de los modos de intrapredicción admisibles. Cuando se encuentran disponibles ambos de los modos de intrapredicción de las unidades de intrapredicción de arriba y las de izquierda y no son el mismo, el primer grupo de modos de intrapredicción está compuesto por los modos de intrapredicción de las unidades de intrapredicción de arriba y las de izquierda. Cuando solo se encuentra disponible uno de los modos de intrapredicción de las unidades de intrapredicción de arriba y las de izquierda o cuando los modos de intrapredicción de las unidades de intrapredicción de arriba y las de izquierda son el mismo, el primer grupo de modos de intrapredicción está compuesto por el modo de intrapredicción disponible y un modo de intrapredicción adicional. Si el modo de intrapredicción disponible no es un modo DC, el modo de intrapredicción adicional puede ser un modo DC. Si el modo de intrapredicción disponible es un modo DC, el modo de intrapredicción adicional puede ser un modo plano o un modo vertical.
Cuando el primer grupo de modos de intrapredicción incluye tres modos de intrapredicción, el primer grupo de modos de intrapredicción se construye tal como sigue.
Se determina si los modos de intrapredicción de las unidades de intrapredicción de arriba y las de izquierda de la unidad de predicción actual se encuentran, o no, disponibles. Si el modo de intrapredicción disponible no es uno de los modos de intrapredicción admisibles de la unidad de predicción actual, el modo de intrapredicción disponible se puede convertir en uno de los modos de intrapredicción admisibles.
Cuando ambos de los modos de intrapredicción de las unidades de intrapredicción de arriba y las de izquierda se encuentran disponibles y no son el mismo uno que otro, el primer grupo de modos de intrapredicción está compuesto por los dos modos de intrapredicción disponibles y un modo de intrapredicción adicional. El modo de intrapredicción adicional es diferente de los dos modos de intrapredicción disponibles y es uno de un modo vertical, un modo horizontal y un modo DC. El modo de intrapredicción adicional es el primer modo de intrapredicción que se puede añadir en el orden del modo DC, el modo vertical y el modo horizontal.
Cuando solo se encuentra disponible uno de los modos de intrapredicción de las unidades de intrapredicción de arriba y las de izquierda o cuando los modos de intrapredicción de las unidades de intrapredicción de arriba y las de izquierda son el mismo, el primer grupo de modos de intrapredicción está compuesto por el modo de intrapredicción disponible y dos modos de intrapredicción adicionales. Los dos modos de intrapredicción adicionales se determinan de forma adaptativa de acuerdo con los modos de intrapredicción disponibles y un tamaño de la unidad de predicción. Si el tamaño de la unidad de predicción es igual a o más pequeño que un tamaño previamente determinado y el modo de intrapredicción disponible es un modo direccional, dos modos de intrapredicción que tienen una dirección lo más cerca de la dirección del modo de intrapredicción disponible se seleccionan como los dos modos de intrapredicción adicionales. Sin embargo, si el modo de intrapredicción disponible es el modo 6 o 9, el modo 6 o 9 se selecciona como el otro modo de intrapredicción adicional. Si el modo de intrapredicción disponible es un modo de intrapredicción no direccional, los dos modos de intrapredicción adicionales son un modo vertical y un modo horizontal, o el otro modo de intrapredicción no direccional y un modo vertical.
Cuando la totalidad de los modos de intrapredicción de las unidades de intrapredicción de arriba y las de izquierda se encuentran no disponibles, el primer grupo de modos de intrapredicción está compuesto por tres modos de intrapredicción adicionales. Los tres modos de intrapredicción adicionales pueden ser un modo DC, un modo vertical y un modo horizontal, o un modo DC, un modo plano y un modo vertical.
Cuando existe una pluralidad de unidades de predicción de arriba de la unidad de predicción actual, la pluralidad de unidades de predicción de arriba se explora en una dirección previamente determinada (por ejemplo, de izquierda a derecha) para determinar el modo de intrapredicción de una primera unidad de predicción disponible como un modo de intrapredicción de arriba. Asimismo, cuando existe una pluralidad de unidades de predicción izquierda de la unidad de predicción actual, la pluralidad de unidades de predicción izquierda se explora en una dirección previamente determinada (por ejemplo, de arriba abajo) para determinar el modo de intrapredicción de una primera unidad de predicción disponible como un modo de intrapredicción izquierda.
A continuación, se determina si el modo de intrapredicción de la unidad de predicción actual pertenece, o no, al primer grupo de modos de intrapredicción, sobre la base del indicador de grupo de modos de intrapredicción en la etapa S212.
Si el modo de intrapredicción de la unidad de predicción actual pertenece al primer grupo de modos de intrapredicción, el modo de intrapredicción del primer grupo de modos de intrapredicción que se corresponde con el índice de modo de intrapredicción se determina como el modo de intrapredicción de la unidad de predicción actual en la etapa S213.
Si el modo de intrapredicción de la unidad de predicción actual no pertenece al primer grupo de modos de intrapredicción, el modo de intrapredicción del segundo grupo de modos de intrapredicción que se corresponde con el índice de modo de intrapredicción se determina como el modo de intrapredicción de la unidad de predicción actual en la etapa S214. El segundo grupo de modos de intrapredicción incluye la totalidad de los modos de intrapredicción que no sean los modos de intrapredicción que pertenecen al primer grupo de modos de intrapredicción.
El índice del candidato de modo de intrapredicción en el segundo grupo de modos de intrapredicción se asigna en el orden del número de modo del modo de intrapredicción del segundo grupo de modos de intrapredicción.
A continuación, los píxeles de referencia se generan de forma adaptativa sobre la base del modo de intrapredicción restablecido de la unidad de predicción actual en la etapa S120.
Cuando hay píxeles de referencia disponibles en solo un lado de la posición del píxel de referencia no disponible, los píxeles de referencia se generan al copiar el valor de un píxel disponible lo más cerca del píxel no disponible. Como alternativa, los píxeles de referencia se generan usando dos píxeles disponibles lo más cerca del píxel no disponible. Cuando el píxel de referencia no disponible existe entre los píxeles disponibles, el píxel de referencia se genera usando dos píxeles de referencia disponibles lo más cerca del píxel no disponible en ambos lados. El valor del píxel de referencia generado puede ser un promedio de los dos píxeles de referencia disponibles lo más cerca del píxel no disponible en ambos lados. Se puede usar un procedimiento de interpolación lineal para generar los píxeles de referencia cuando una diferencia entre los dos píxeles de referencia disponibles es grande.
A continuación, los píxeles de referencia se filtran de forma adaptativa sobre la base del modo de intrapredicción restablecido (S130). Cuando el modo de intrapredicción restablecido es un modo vertical (el modo 0), un modo horizontal (el modo 1) o un modo DC (el modo 2), los píxeles de referencia no se filtran. En un modo de intrapredicción direccional que no sea el modo vertical y el modo horizontal, los píxeles de referencia se filtran de forma adaptativa. El píxel de referencia más a la derecha de los píxeles de referencia de arriba que están situados en (x = 2 N -1, y = -1) y el píxel de referencia más bajo de los píxeles de referencia izquierdos que están situados en (x = -1, y = 2 N - 1 ) no se filtran. Los píxeles de referencia restantes se filtran usando dos píxeles de referencia adyacentes.
Se aplica un filtro de paso bajo para suavizar la diferencia entre píxeles de referencia adyacentes. El filtro de paso bajo puede ser un filtro de 3 coeficientes [1, 2, 1] o un filtro de 5 coeficientes [1, 2, 4, 2, 1].
Un filtro se aplica de forma adaptativa a los píxeles de referencia de acuerdo con el tamaño de la unidad de predicción en los modos de intrapredicción direccionales que existen entre un modo horizontal o vertical y el modo de intrapredicción que tiene una dirección de 45° con referencia a la dirección horizontal o vertical. El filtro se puede aplicar de forma adaptativa a los modos que existen entre el modo horizontal y los modos que tienen una dirección de 45° con referencia al modo horizontal, o los modos que existen entre el modo vertical y los modos que tienen una dirección de 45° con referencia al modo vertical de acuerdo con el tamaño de la unidad de predicción. El número previamente determinado se puede aumentar a medida que aumenta el tamaño de la unidad de predicción. Por ejemplo, el filtro se aplica al modo de predicción que tiene una dirección de 45° con referencia a la dirección horizontal o vertical y un primer número de modos de intrapredicción lo más cerca del modo de predicción que tiene una dirección de 45° con referencia a la dirección horizontal o vertical para una unidad de predicción de 8 * 8. Y el filtro se aplica al modo de predicción que tiene una dirección de 45° con referencia a la dirección horizontal o vertical y un segundo número de modos de intrapredicción lo más cerca del modo de predicción que tiene una dirección de 45° con referencia a la dirección horizontal o vertical para una unidad de predicción de 16 * 16. Y el filtro se aplica al modo de predicción que tiene una dirección de 45° con referencia a la dirección horizontal o vertical y un tercer número de modos de intrapredicción lo más cerca del modo de predicción que tiene una dirección de 45° con referencia a la dirección horizontal o vertical para una unidad de predicción de 32 * 32. El primer número es igual a o más pequeño que el segundo número, y el segundo número es igual a o más pequeño que el tercer número.
A continuación, un bloque de predicción se genera usando los píxeles de referencia de acuerdo con el modo de intrapredicción restablecido en la etapa S140. El procedimiento de generación de un bloque de predicción es el mismo que el de la unidad de generación de bloques de intrapredicción de la figura 6.
Las señales residuales se descodifican por entropía en la etapa S150.
Las señales residuales se exploran de forma inversa en la etapa S160. Es decir, las señales residuales se convierten en un bloque de transformada cuantificado bidimensional. Un patrón de exploración inversa se selecciona de entre una pluralidad de patrones de exploración inversa para esta conversión. El patrón de exploración inversa se determina de acuerdo con el modo de intrapredicción. Si el tamaño de la unidad de transformada es más grande que un tamaño previamente determinado, las señales residuales se exploran de forma inversa en la unidad del subconjunto y se genera una unidad de transformada cuantificado. Si el tamaño de la unidad de transformada es igual al tamaño previamente determinado, las señales residuales se exploran de forma inversa en la unidad de la unidad de transformada y se genera una unidad de transformada cuantificado.
El bloque de transformada cuantificado bidimensional se cuantifica de forma inversa en la etapa S170. El predictor de tamaño de paso de cuantificación de la unidad de codificación actual se determina para la cuantificación inversa. El predictor de tamaño de paso de cuantificación se determina usando el mismo procedimiento que el de la unidad de cuantificación inversa 230 de la figura 5. El predictor de tamaño de paso de cuantificación determinado y un tamaño de paso de cuantificación residual recibido se suman para generar un tamaño de paso de cuantificación a aplicar al bloque de transformada. Y los coeficientes de cuantificación inversa se restablecen usando la matriz de cuantificación que se determina mediante el tamaño de paso de cuantificación.
A continuación, el bloque cuantificado de forma inversa se transforma de forma inversa en la etapa S180. Una matriz de transformada inversa se puede determinar de forma adaptativa de acuerdo con el modo de intrapredicción restablecido. La unidad de transformada se puede transformar de forma inversa mediante unas matrices de transformada unidimensionales (1D) horizontal y vertical. En la intrapredicción, hay una alta posibilidad de que las señales residuales tengan una directividad vertical cuando el modo de intrapredicción sea horizontal. Por lo tanto, la matriz de números enteros basada en DCT se aplica a la dirección vertical, y la matriz de números enteros basada en DST o en KTL se aplica a la dirección horizontal. Cuando el modo de intrapredicción es vertical, una matriz de números enteros basada en DST o en KTL inversa se aplica a la dirección vertical, y una matriz de números enteros basada en DCT inversa se aplica a la dirección horizontal. Cuando el modo de intrapredicción es un modo DC, una matriz de números enteros basada en DCT inversa se aplica en ambas de las direcciones.
El bloque de predicción generado y el bloque transformado de forma inversa se suman para generar una imagen reconstruida en la etapa S190. Las señales residuales restablecidas y las señales de predicción restablecidas se pueden sumar en la unidad de la unidad de codificación.
Mientras que la invención se ha mostrado y descrito con referencia a ciertas realizaciones ejemplares de la misma, se entenderá por aquellos expertos en la materia que diversos cambios en la forma y en los detalles pueden realizarse en la misma sin alejarse del alcance de la invención según se define en las reivindicaciones adjuntas.

Claims (3)

REIVINDICACIONES
1. Un procedimiento de codificación de un modo de intrapredicción, que comprende:
determinar un modo de intrapredicción de una unidad de predicción actual;
generar un grupo de modo de intrapredicción que usa los modos de intrapredicción disponibles de una unidad de predicción izquierda y una unidad de predicción superior cerca de la unidad de predicción actual, en el que el número de modos de intrapredicción que pertenecen al grupo de modo de intrapredicción se fija en tres y codificar un indicador de grupo de modo de intrapredicción y un índice que corresponde al modo de intrapredicción de la unidad de predicción actual en el grupo de modo de intrapredicción cuando el modo de intrapredicción de la unidad de predicción actual está incluido en el grupo de modo de intrapredicción,
en el que, cuando solo un modo de intrapredicción de los modos de intrapredicción de la unidad de predicción izquierda y la unidad de predicción superior está disponible, el grupo de modo de intrapredicción incluye el un modo de intrapredicción disponible de las respectivas unidades de predicción y dos modos de intrapredicción adicionales que se determinan de tal manera que cuando el un modo de intrapredicción disponible es un modo de intrapredicción no direccional, los dos modos de intrapredicción adicionales incluyen otro modo de intrapredicción no direccional y un modo vertical.
2. El procedimiento de la reivindicación 1, en el que, cuando el un modo de intrapredicción disponible es un modo DC, los dos modos de intrapredicción adicionales incluyen un modo plano y el modo vertical.
3. El procedimiento de la reivindicación 1, en el que, cuando el un modo de intrapredicción disponible es un modo plano, los dos modos de intrapredicción adicionales incluyen un modo DC y el modo vertical.
ES16184578T 2010-08-17 2011-08-12 Procedimiento para codificar un modo de intrapredicción Active ES2696931T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20100079529 2010-08-17
KR1020110064301A KR20120058384A (ko) 2010-08-17 2011-06-30 인트라 프리딕션 방법

Publications (1)

Publication Number Publication Date
ES2696931T3 true ES2696931T3 (es) 2019-01-18

Family

ID=45605532

Family Applications (11)

Application Number Title Priority Date Filing Date
ES16184586.2T Active ES2693905T3 (es) 2010-08-17 2011-08-12 Aparato para descodificar un modo de intrapredicción
ES16184572.2T Active ES2670326T3 (es) 2010-08-17 2011-08-12 Procedimiento de codificación de un modo de intra predicción
ES16184582.1T Active ES2693903T3 (es) 2010-08-17 2011-08-12 Aparato para descodificar un modo de intrapredicción
ES16184616.7T Active ES2670327T3 (es) 2010-08-17 2011-08-12 Procedimiento de restablecimiento de un modo de intra predicción
ES16184569.8T Active ES2685668T3 (es) 2010-08-17 2011-08-12 Aparato para codificar un modo de intrapredicción
ES11818362.3T Active ES2602779T3 (es) 2010-08-17 2011-08-12 Procedimiento de descodificación de intra-predicciones
ES16184574T Active ES2696898T3 (es) 2010-08-17 2011-08-12 Procedimiento para codificar un modo de intrapredicción
ES16184577.1T Active ES2685669T3 (es) 2010-08-17 2011-08-12 Aparato para codificar un modo de intrapredicción
ES16184557.3T Active ES2670324T3 (es) 2010-08-17 2011-08-12 Procedimiento de restablecimiento de un modo de intra predicción
ES16184578T Active ES2696931T3 (es) 2010-08-17 2011-08-12 Procedimiento para codificar un modo de intrapredicción
ES16184568.0T Active ES2670325T3 (es) 2010-08-17 2011-08-12 Procedimiento de codificación de un modo de intra predicción

Family Applications Before (9)

Application Number Title Priority Date Filing Date
ES16184586.2T Active ES2693905T3 (es) 2010-08-17 2011-08-12 Aparato para descodificar un modo de intrapredicción
ES16184572.2T Active ES2670326T3 (es) 2010-08-17 2011-08-12 Procedimiento de codificación de un modo de intra predicción
ES16184582.1T Active ES2693903T3 (es) 2010-08-17 2011-08-12 Aparato para descodificar un modo de intrapredicción
ES16184616.7T Active ES2670327T3 (es) 2010-08-17 2011-08-12 Procedimiento de restablecimiento de un modo de intra predicción
ES16184569.8T Active ES2685668T3 (es) 2010-08-17 2011-08-12 Aparato para codificar un modo de intrapredicción
ES11818362.3T Active ES2602779T3 (es) 2010-08-17 2011-08-12 Procedimiento de descodificación de intra-predicciones
ES16184574T Active ES2696898T3 (es) 2010-08-17 2011-08-12 Procedimiento para codificar un modo de intrapredicción
ES16184577.1T Active ES2685669T3 (es) 2010-08-17 2011-08-12 Aparato para codificar un modo de intrapredicción
ES16184557.3T Active ES2670324T3 (es) 2010-08-17 2011-08-12 Procedimiento de restablecimiento de un modo de intra predicción

Family Applications After (1)

Application Number Title Priority Date Filing Date
ES16184568.0T Active ES2670325T3 (es) 2010-08-17 2011-08-12 Procedimiento de codificación de un modo de intra predicción

Country Status (19)

Country Link
US (4) US9491478B2 (es)
EP (11) EP3125559B1 (es)
JP (12) JP5982612B2 (es)
KR (16) KR20180039757A (es)
CN (12) CN106851284B (es)
CY (5) CY1118382T1 (es)
DK (5) DK3125555T3 (es)
ES (11) ES2693905T3 (es)
HR (5) HRP20170053T1 (es)
HU (9) HUE042510T2 (es)
LT (5) LT3125552T (es)
NO (1) NO3125552T3 (es)
PL (11) PL3125561T3 (es)
PT (5) PT3125552T (es)
RS (5) RS57166B1 (es)
SI (5) SI3125561T1 (es)
SM (1) SMT201600449B (es)
TR (2) TR201806128T4 (es)
WO (1) WO2012023762A2 (es)

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110113561A (ko) 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
PT2945382T (pt) * 2010-04-23 2017-07-11 M&K Holdings Inc Aparelho e método de codificação de imagem
HUE042510T2 (hu) * 2010-08-17 2019-07-29 M&K Holdings Inc Eljárás intra predikció mód kódolására
US11284072B2 (en) 2010-08-17 2022-03-22 M&K Holdings Inc. Apparatus for decoding an image
US9008175B2 (en) 2010-10-01 2015-04-14 Qualcomm Incorporated Intra smoothing filter for video coding
CN107197257B (zh) * 2010-12-08 2020-09-08 Lg 电子株式会社 由编码装置和解码装置执行的内预测方法
US20120163457A1 (en) * 2010-12-28 2012-06-28 Viktor Wahadaniah Moving picture decoding method, moving picture coding method, moving picture decoding apparatus, moving picture coding apparatus, and moving picture coding and decoding apparatus
CN102595124B (zh) 2011-01-14 2014-07-16 华为技术有限公司 图像编码解码方法、处理图像数据方法及其设备
CN102595118B (zh) * 2011-01-14 2015-04-08 华为技术有限公司 一种编解码中的预测方法和预测器
WO2012134046A2 (ko) * 2011-04-01 2012-10-04 주식회사 아이벡스피티홀딩스 동영상의 부호화 방법
CN106851270B (zh) 2011-04-25 2020-08-28 Lg电子株式会社 执行帧内预测的编码设备和解码设备
KR101383775B1 (ko) 2011-05-20 2014-04-14 주식회사 케이티 화면 내 예측 방법 및 장치
MY192608A (en) * 2011-06-28 2022-08-29 Samsung Electronics Co Ltd Method and apparatus for coding video and method and apparatus for decoding video, accompanied with intra prediction
GB2494468B (en) 2011-09-12 2014-01-15 Canon Kk Method and device for encoding or decoding information representing prediction modes
CN104935932B (zh) * 2011-10-24 2018-05-04 英孚布瑞智有限私人贸易公司 图像解码设备
PT3402201T (pt) 2011-10-24 2022-09-23 Gensquare Llc Método de descodificação de imagens
US9961343B2 (en) 2011-10-24 2018-05-01 Infobridge Pte. Ltd. Method and apparatus for generating reconstructed block
US9154796B2 (en) * 2011-11-04 2015-10-06 Qualcomm Incorporated Intra-mode video coding
KR20130049524A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
US9210438B2 (en) * 2012-01-20 2015-12-08 Sony Corporation Logical intra mode naming in HEVC video coding
CN109194961B (zh) * 2012-01-20 2022-05-17 杜比实验室特许公司 解码方法、视频解码设备及编码方法
GB2501535A (en) * 2012-04-26 2013-10-30 Sony Corp Chrominance Processing in High Efficiency Video Codecs
JP5972687B2 (ja) * 2012-07-02 2016-08-17 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
EP2870755A1 (en) * 2012-07-05 2015-05-13 Thomson Licensing Video coding and decoding method with adaptation of coding modes
JP5798539B2 (ja) * 2012-09-24 2015-10-21 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
JP2014082639A (ja) * 2012-10-16 2014-05-08 Canon Inc 画像符号化装置およびその方法
US9426473B2 (en) * 2013-02-01 2016-08-23 Qualcomm Incorporated Mode decision simplification for intra prediction
JP6212890B2 (ja) * 2013-03-22 2017-10-18 富士通株式会社 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム
KR102294830B1 (ko) 2014-01-03 2021-08-31 삼성전자주식회사 디스플레이 구동 장치 및 이미지 데이터 처리 장치의 동작 방법
CN105338365B (zh) * 2014-05-27 2018-11-20 富士通株式会社 视频编码方法和视频编码装置
US10856009B2 (en) 2014-09-04 2020-12-01 Mediatek Inc. Method of block vector clipping and coding for screen content coding and video coding
CN110719468B (zh) * 2014-10-08 2021-06-25 联发科技股份有限公司 视频编码方法
CN106375768B (zh) * 2015-07-23 2019-05-17 中国科学院信息工程研究所 基于帧内预测模式校准的视频隐写分析方法
JP5933086B2 (ja) * 2015-08-21 2016-06-08 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
CN105354526B (zh) * 2015-09-28 2018-03-20 西安中颖电子有限公司 提高一维条码解码效率的方法以及一维条码的解码系统
JP6088689B2 (ja) * 2016-04-28 2017-03-01 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
JP6740534B2 (ja) * 2016-07-04 2020-08-19 日本放送協会 符号化装置、復号装置及びプログラム
CN116634139A (zh) * 2016-08-03 2023-08-22 株式会社Kt 用于对视频进行编码和解码的方法和装置
KR20220129685A (ko) * 2016-09-05 2022-09-23 엘지전자 주식회사 영상 부호화/복호화 방법 및 이를 위한 장치
CN113518221B (zh) * 2016-10-14 2024-03-01 联发科技股份有限公司 视频编码或解码方法及相应装置
KR20190092382A (ko) * 2016-12-27 2019-08-07 삼성전자주식회사 인트라 예측에서 참조 샘플을 필터링하는 방법 및 장치
US10863198B2 (en) 2017-01-03 2020-12-08 Lg Electronics Inc. Intra-prediction method and device in image coding system for 360-degree video
JP6242517B2 (ja) * 2017-02-03 2017-12-06 株式会社Nttドコモ 動画像予測復号装置及び動画像予測復号方法
WO2019011484A1 (en) * 2017-07-10 2019-01-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. BINARY PLAN CODING
JP6408681B2 (ja) * 2017-11-07 2018-10-17 株式会社Nttドコモ 動画像予測復号方法
WO2019199093A1 (ko) * 2018-04-11 2019-10-17 엘지전자 주식회사 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
SG11202009345QA (en) 2018-05-10 2020-10-29 Samsung Electronics Co Ltd Video encoding method and apparatus, and video decoding method and apparatus
CN110650337B (zh) 2018-06-26 2022-04-01 中兴通讯股份有限公司 一种图像编码方法、解码方法、编码器、解码器及存储介质
CN110876057B (zh) * 2018-08-29 2023-04-18 华为技术有限公司 一种帧间预测的方法及装置
JP2022500916A (ja) * 2018-09-13 2022-01-04 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. アフィン線形加重イントラ予測
JP6602931B2 (ja) * 2018-09-20 2019-11-06 株式会社Nttドコモ 動画像予測復号方法
JP6874804B2 (ja) 2018-09-28 2021-05-19 株式会社Jvcケンウッド 画像復号装置、画像復号方法、及び画像復号プログラム
RU2768956C1 (ru) 2018-09-28 2022-03-25 ДжейВиСиКЕНВУД Корпорейшн Устройство декодирования изображения, способ декодирования изображения, устройство кодирования изображения и способ кодирования изображения
CN115695783A (zh) * 2018-11-26 2023-02-03 华为技术有限公司 对图像的块进行解码的方法和设备,解码设备,和计算机可读介质
CN111193934A (zh) * 2020-04-10 2020-05-22 杭州雄迈集成电路技术股份有限公司 一种帧内预测方法、系统、计算机设备及可读存储介质
JP7104101B2 (ja) * 2020-06-24 2022-07-20 日本放送協会 符号化装置、復号装置及びプログラム
CN114466238B (zh) * 2020-11-09 2023-09-29 华为技术有限公司 帧解复用方法、电子设备及存储介质
WO2024080706A1 (ko) * 2022-10-10 2024-04-18 엘지전자 주식회사 영상 인코딩/디코딩 방법 및 장치, 그리고 비트스트림을 저장한 기록 매체

Family Cites Families (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3835207B2 (ja) * 2001-06-27 2006-10-18 ソニー株式会社 試着画像提供システム及び試着画像提供方法、試着画像生成装置及び試着画像生成方法
US7289672B2 (en) * 2002-05-28 2007-10-30 Sharp Laboratories Of America, Inc. Methods and systems for image intra-prediction mode estimation
US7236524B2 (en) * 2002-05-28 2007-06-26 Sharp Laboratories Of America, Inc. Methods and systems for image intra-prediction mode communication
WO2003105070A1 (en) * 2002-06-01 2003-12-18 Nokia Corporation Spatial prediction based intra coding
US20030231795A1 (en) * 2002-06-12 2003-12-18 Nokia Corporation Spatial prediction based intra-coding
KR100750110B1 (ko) * 2003-04-22 2007-08-17 삼성전자주식회사 4×4인트라 휘도 예측 모드 결정방법 및 장치
KR100579542B1 (ko) * 2003-07-29 2006-05-15 삼성전자주식회사 블럭 간의 상관성을 고려한 움직임 추정 장치 및 방법
KR100982514B1 (ko) * 2003-11-14 2010-09-16 삼성전자주식회사 영상의 인트라 예측 부호화 방법 및 그 장치
KR20050121627A (ko) 2004-06-22 2005-12-27 삼성전자주식회사 동영상 코덱의 필터링 방법 및 필터링 장치
WO2006020019A1 (en) * 2004-07-15 2006-02-23 Qualcomm Incorporated H.264 spatial error concealment based on the intra-prediction direction
CN100455021C (zh) * 2004-09-30 2009-01-21 华为技术有限公司 帧内预测模式的选择方法
EP1808024B1 (en) * 2004-11-04 2013-04-17 Thomson Licensing Fast intra mode prediction for a video encoder
KR100679025B1 (ko) * 2004-11-12 2007-02-05 삼성전자주식회사 다 계층 기반의 인트라 예측 방법, 및 그 방법을 이용한비디오 코딩 방법 및 장치
TWI266539B (en) * 2005-01-13 2006-11-11 Via Tech Inc Decoding device with multi-buffers
JP2006246431A (ja) * 2005-02-07 2006-09-14 Matsushita Electric Ind Co Ltd 画像符号化装置および画像符号化方法
CN100348051C (zh) * 2005-03-31 2007-11-07 华中科技大学 一种增强型帧内预测模式编码方法
US8885707B2 (en) * 2005-04-01 2014-11-11 Panasonic Corporation Image decoding apparatus and image decoding method
KR100739714B1 (ko) * 2005-07-06 2007-07-13 삼성전자주식회사 인트라 예측 모드 결정 방법 및 장치
US20080130990A1 (en) * 2005-07-22 2008-06-05 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program
US20080165849A1 (en) * 2005-07-22 2008-07-10 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program
US20090123066A1 (en) * 2005-07-22 2009-05-14 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method, image decoding method, image encoding program, image decoding program, computer readable recording medium having image encoding program recorded therein,
US20080123947A1 (en) * 2005-07-22 2008-05-29 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method, image decoding method, image encoding program, image decoding program, computer readable recording medium having image encoding program recorded therein
US20080137744A1 (en) * 2005-07-22 2008-06-12 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program
US20080130989A1 (en) * 2005-07-22 2008-06-05 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program
KR100727990B1 (ko) * 2005-10-01 2007-06-13 삼성전자주식회사 영상의 인트라 예측 부호화 방법 및 그 방법을 사용하는부호화 장치
KR100739790B1 (ko) * 2006-02-02 2007-07-13 삼성전자주식회사 인트라 예측 모드 결정 방법 및 장치
US20100232505A1 (en) * 2006-02-17 2010-09-16 Thomson Licensing Process for Coding Images Using Intra Prediction Mode
KR20060027842A (ko) 2006-02-24 2006-03-28 삼성전자주식회사 4×4인트라 휘도 예측 모드 결정방법 및 장치
US8000390B2 (en) * 2006-04-28 2011-08-16 Sharp Laboratories Of America, Inc. Methods and systems for efficient prediction-mode selection
EP2056606A1 (en) * 2006-07-28 2009-05-06 Kabushiki Kaisha Toshiba Image encoding and decoding method and apparatus
US8976870B1 (en) * 2006-08-30 2015-03-10 Geo Semiconductor Inc. Block and mode reordering to facilitate parallel intra prediction and motion vector prediction
KR20090074164A (ko) * 2006-09-29 2009-07-06 톰슨 라이센싱 기하학적 인트라 예측
EP2079242A4 (en) * 2006-10-30 2010-11-03 Nippon Telegraph & Telephone METHOD FOR GENERATING PREDICTIVE REFERENCE INFORMATION, DYNAMIC IMAGE ENCODING AND DECODING METHOD, DEVICE THEREOF, PROGRAM THEREOF, AND STORAGE MEDIUM CONTAINING THE PROGRAM
KR100856392B1 (ko) * 2006-11-08 2008-09-04 한국전자통신연구원 현재 영상의 복원영역을 참조하는 동영상 부호화/복호화장치 및 그 방법
WO2008084817A1 (ja) * 2007-01-09 2008-07-17 Kabushiki Kaisha Toshiba 画像符号化と復号化の方法及び装置
JP4254867B2 (ja) 2007-01-31 2009-04-15 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体
EP2145482A1 (en) * 2007-04-19 2010-01-20 Thomson Licensing Adaptive reference picture data generation for intra prediction
ES2711203T3 (es) * 2007-06-29 2019-04-30 Velos Media Int Ltd Dispositivo de codificación de imágenes y dispositivo de decodificación de imágenes
KR101479263B1 (ko) * 2007-07-09 2015-01-06 삼성전자주식회사 이동 통신 시스템에서 적응적 피어투피어 통신 선택 방법 및 장치
TW200910971A (en) * 2007-08-22 2009-03-01 Univ Nat Cheng Kung Direction detection algorithms for H.264 intra prediction
JP2009081576A (ja) * 2007-09-25 2009-04-16 Toshiba Corp 動画像復号装置、および動画像復号方法
KR102139535B1 (ko) * 2007-10-16 2020-07-30 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
EP2223527A1 (en) * 2007-12-21 2010-09-01 Telefonaktiebolaget LM Ericsson (publ) Adaptive intra mode selection
EP2081386A1 (en) * 2008-01-18 2009-07-22 Panasonic Corporation High precision edge prediction for intracoding
CN101500161B (zh) * 2008-01-31 2012-03-21 华为技术有限公司 基于自适应块变换的帧内预测方法及装置
KR20090095316A (ko) * 2008-03-05 2009-09-09 삼성전자주식회사 영상 인트라 예측 방법 및 장치
US20090274211A1 (en) * 2008-04-30 2009-11-05 Omnivision Technologies, Inc. Apparatus and method for high quality intra mode prediction in a video coder
WO2009136743A2 (ko) * 2008-05-07 2009-11-12 Lg전자 비디오 신호의 디코딩 방법 및 장치
US8761253B2 (en) * 2008-05-28 2014-06-24 Nvidia Corporation Intra prediction mode search scheme
JP2009302776A (ja) * 2008-06-11 2009-12-24 Canon Inc 画像符号化装置、その制御方法、及びコンピュータプログラム
CN101605255B (zh) * 2008-06-12 2011-05-04 华为技术有限公司 一种视频编解码的方法及装置
CN101350927B (zh) * 2008-07-29 2011-07-13 北京中星微电子有限公司 帧内预测选择最优预测模式的方法及装置
US8724697B2 (en) * 2008-09-26 2014-05-13 Qualcomm Incorporated Locating motion vectors for video data units
JP5238523B2 (ja) 2009-01-13 2013-07-17 株式会社日立国際電気 動画像符号化装置、動画像復号化装置、および、動画像復号化方法
KR20110118641A (ko) * 2009-01-29 2011-10-31 파나소닉 주식회사 화상 부호화 방법 및 화상 복호 방법
CN101854540B (zh) * 2009-04-01 2014-07-02 辉达公司 用于应用h.264视频编码标准的帧内预测方法及装置
KR101033769B1 (ko) * 2009-05-11 2011-05-09 선문대학교 산학협력단 영상 데이터의 인트라 예측 모드 결정 방법
KR101527085B1 (ko) * 2009-06-30 2015-06-10 한국전자통신연구원 인트라 부호화/복호화 방법 및 장치
KR101702553B1 (ko) * 2009-07-04 2017-02-03 에스케이 텔레콤주식회사 영상 부호화/복호화 방법 및 장치
CN101605263B (zh) * 2009-07-09 2012-06-27 杭州士兰微电子股份有限公司 帧内预测的方法和装置
KR101510108B1 (ko) * 2009-08-17 2015-04-10 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US8477845B2 (en) * 2009-10-16 2013-07-02 Futurewei Technologies, Inc. Predictive adaptive scan ordering for video coding
US20110274162A1 (en) * 2010-05-04 2011-11-10 Minhua Zhou Coding Unit Quantization Parameters in Video Coding
US8588303B2 (en) * 2010-03-31 2013-11-19 Futurewei Technologies, Inc. Multiple predictor sets for intra-frame coding
US8463059B2 (en) * 2010-04-23 2013-06-11 Futurewei Technologies, Inc. Two-layer prediction method for multiple predictor-set intra coding
EP2388999B1 (en) * 2010-05-17 2021-02-24 Lg Electronics Inc. New intra prediction modes
US8902978B2 (en) * 2010-05-30 2014-12-02 Lg Electronics Inc. Enhanced intra prediction mode signaling
HUE042510T2 (hu) * 2010-08-17 2019-07-29 M&K Holdings Inc Eljárás intra predikció mód kódolására
MY195713A (en) 2010-12-23 2023-02-07 Samsung Electronics Co Ltd Method and Device for Encoding Intra Prediction Mode for Image Prediction Unit, and Method and Device for Decoding Intra Prediction Mode for Image Prediction Unit
DK3139596T3 (da) * 2011-09-13 2020-01-06 Hfi Innovation Inc Fremgangsmåde og apparat til intra-modus-kodning i hevc
ES2901774T3 (es) * 2011-10-24 2022-03-23 Innotive Ltd Método y aparato para decodificar modo de intra-predicción
ES2828734T3 (es) * 2011-10-24 2021-05-27 Innotive Ltd Procedimiento y aparatos para decodificación de imágenes
CN104935932B (zh) 2011-10-24 2018-05-04 英孚布瑞智有限私人贸易公司 图像解码设备
KR20130049522A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
KR20130049524A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
JP6481365B2 (ja) * 2014-12-26 2019-03-13 井関農機株式会社 苗移植機
JP6447125B2 (ja) * 2014-12-26 2019-01-09 大日本印刷株式会社 細胞培養容器
JP2016123340A (ja) * 2014-12-26 2016-07-11 株式会社エバンス 膵癌治療感受性の診断方法及び膵癌治療感受性の増強剤
JP6441072B2 (ja) * 2014-12-26 2018-12-19 ミヨシ油脂株式会社 食用油脂中のクロロプロパノール類を低減する方法
JP6694635B2 (ja) * 2014-12-26 2020-05-20 国立大学法人大阪大学 マイクロrnaにおけるメチル化修飾部位を計測する方法
JP2016123339A (ja) * 2014-12-26 2016-07-11 ユニーテック株式会社 多能性幹細胞の品質診断方法及び診断キット、抗がん剤並びに疾患モデル動物
JP2016123333A (ja) * 2014-12-26 2016-07-11 味の素株式会社 新規調味料用組成物
JP6320911B2 (ja) * 2014-12-26 2018-05-09 サントリーホールディングス株式会社 食物繊維
JP2016123336A (ja) * 2014-12-26 2016-07-11 大日本印刷株式会社 細胞培養容器
JP6472242B2 (ja) * 2014-12-26 2019-02-20 亀田製菓株式会社 焼き菓子

Also Published As

Publication number Publication date
RS55325B1 (sr) 2017-03-31
HUE039205T2 (hu) 2018-12-28
PL2608541T3 (pl) 2017-06-30
CN106851284A (zh) 2017-06-13
KR20130091799A (ko) 2013-08-19
ES2670324T3 (es) 2018-05-30
PT3125555T (pt) 2018-05-28
JP6371797B2 (ja) 2018-08-08
EP3125561A1 (en) 2017-02-01
CN104602005A (zh) 2015-05-06
PL3125552T3 (pl) 2018-09-28
TR201806128T4 (tr) 2018-06-21
US20170302948A9 (en) 2017-10-19
CY1120813T1 (el) 2019-12-11
US9918087B2 (en) 2018-03-13
HRP20181145T1 (hr) 2018-09-21
DK2608541T3 (en) 2017-01-23
KR20180039753A (ko) 2018-04-18
EP3125557A1 (en) 2017-02-01
KR20180039754A (ko) 2018-04-18
CY1120815T1 (el) 2019-12-11
LT3125555T (lt) 2018-07-25
KR20180039752A (ko) 2018-04-18
RS57233B1 (sr) 2018-07-31
PT3125561T (pt) 2018-05-08
EP2608541A4 (en) 2014-05-14
CN106851285A (zh) 2017-06-13
DK3125552T3 (en) 2018-06-14
ES2670326T3 (es) 2018-05-30
HUE040601T2 (hu) 2019-03-28
LT3125553T (lt) 2018-07-25
JP2016213852A (ja) 2016-12-15
DK3125555T3 (en) 2018-06-18
ES2685668T3 (es) 2018-10-10
ES2602779T3 (es) 2017-02-22
KR20140075020A (ko) 2014-06-18
PT2608541T (pt) 2016-12-20
EP3125561B1 (en) 2018-03-28
SI3125552T1 (en) 2018-07-31
CY1120190T1 (el) 2018-12-12
EP2608541B1 (en) 2016-10-12
KR20140057672A (ko) 2014-05-13
WO2012023762A2 (ko) 2012-02-23
EP3125553B1 (en) 2018-04-18
CN107071425A (zh) 2017-08-18
CN106851287A (zh) 2017-06-13
CN107071426A (zh) 2017-08-18
HUE039248T2 (hu) 2018-12-28
CN104602004B (zh) 2016-05-11
EP3125556A1 (en) 2017-02-01
KR20130091800A (ko) 2013-08-19
PL3125553T3 (pl) 2018-09-28
ES2670325T3 (es) 2018-05-30
TR201807094T4 (tr) 2018-06-21
JP6371800B2 (ja) 2018-08-08
DK3125553T3 (en) 2018-06-18
HUE040604T2 (hu) 2019-03-28
KR20140071507A (ko) 2014-06-11
KR20180039751A (ko) 2018-04-18
NO3125552T3 (es) 2018-09-08
CN106851285B (zh) 2019-10-11
KR101854489B1 (ko) 2018-05-03
CN106231308A (zh) 2016-12-14
RS57165B1 (sr) 2018-07-31
US20160301929A1 (en) 2016-10-13
JP6371795B2 (ja) 2018-08-08
RS57112B1 (sr) 2018-06-29
DK3125561T3 (en) 2018-06-14
ES2670327T3 (es) 2018-05-30
CN106231308B (zh) 2019-04-12
JP2016213855A (ja) 2016-12-15
HUE031186T2 (hu) 2017-07-28
JP2016187211A (ja) 2016-10-27
EP3125558A1 (en) 2017-02-01
LT2608541T (lt) 2017-01-10
EP3125552A1 (en) 2017-02-01
JP6371801B2 (ja) 2018-08-08
CN104602005B (zh) 2017-10-20
JP6371794B2 (ja) 2018-08-08
EP3125558B1 (en) 2018-10-17
KR20140057674A (ko) 2014-05-13
EP2608541A2 (en) 2013-06-26
US20170302947A9 (en) 2017-10-19
RS57166B1 (sr) 2018-07-31
JP2016187212A (ja) 2016-10-27
US20160301928A1 (en) 2016-10-13
HUE040410T2 (hu) 2019-03-28
KR20140057673A (ko) 2014-05-13
PT3125553T (pt) 2018-06-06
EP3125556B1 (en) 2018-10-17
PL3125555T3 (pl) 2018-09-28
CN103168472B (zh) 2016-11-09
CN106851286A (zh) 2017-06-13
JP2013537771A (ja) 2013-10-03
PL3125557T3 (pl) 2019-03-29
JP2016213850A (ja) 2016-12-15
EP3125555A1 (en) 2017-02-01
CN107105250A (zh) 2017-08-29
JP2016197881A (ja) 2016-11-24
KR101474987B1 (ko) 2014-12-24
EP3125554B1 (en) 2018-08-01
PL3125561T3 (pl) 2018-09-28
LT3125561T (lt) 2018-05-25
ES2693903T3 (es) 2018-12-14
HRP20180834T1 (hr) 2018-07-13
CN106851286B (zh) 2019-11-01
CY1120795T1 (el) 2019-12-11
EP3125559A1 (en) 2017-02-01
SI3125553T1 (en) 2018-07-31
EP3125554A1 (en) 2017-02-01
HUE042510T2 (hu) 2019-07-29
CN104602004A (zh) 2015-05-06
PL3125560T3 (pl) 2019-01-31
CN106851287B (zh) 2019-07-12
KR20180039755A (ko) 2018-04-18
EP3125560A1 (en) 2017-02-01
CN103168472A (zh) 2013-06-19
US9924186B2 (en) 2018-03-20
CN107105250B (zh) 2019-07-12
ES2693905T3 (es) 2018-12-14
KR20180039756A (ko) 2018-04-18
KR20180039750A (ko) 2018-04-18
CN107105234A (zh) 2017-08-29
PL3125556T3 (pl) 2019-03-29
SMT201600449B (it) 2017-01-10
KR20180039757A (ko) 2018-04-18
HUE038963T2 (hu) 2018-12-28
CN107071425B (zh) 2019-07-12
PL3125554T3 (pl) 2019-02-28
JP6371796B2 (ja) 2018-08-08
CN107105234B (zh) 2019-11-01
HRP20170053T1 (hr) 2017-03-10
EP3125559B1 (en) 2018-08-08
JP2016213853A (ja) 2016-12-15
PT3125552T (pt) 2018-06-04
SI3125561T1 (en) 2018-06-29
US9491478B2 (en) 2016-11-08
JP5982612B2 (ja) 2016-08-31
JP2016197880A (ja) 2016-11-24
EP3125555B1 (en) 2018-04-18
JP6371798B2 (ja) 2018-08-08
EP3125552B1 (en) 2018-04-11
KR101373819B1 (ko) 2014-03-17
CN107071426B (zh) 2019-07-12
CY1118382T1 (el) 2017-06-28
JP6322231B2 (ja) 2018-05-09
US20130016780A1 (en) 2013-01-17
JP6322232B2 (ja) 2018-05-09
JP2016213856A (ja) 2016-12-15
EP3125553A1 (en) 2017-02-01
HRP20181147T1 (hr) 2018-09-21
JP6371799B2 (ja) 2018-08-08
SI3125555T1 (en) 2018-07-31
EP3125557B1 (en) 2018-08-01
LT3125552T (lt) 2018-07-10
US20160309166A1 (en) 2016-10-20
EP3125560B1 (en) 2018-08-08
PL3125558T3 (pl) 2019-04-30
US20170272747A9 (en) 2017-09-21
JP2016213851A (ja) 2016-12-15
ES2696898T3 (es) 2019-01-18
KR20130051443A (ko) 2013-05-20
US9924187B2 (en) 2018-03-20
HRP20181098T1 (hr) 2018-09-07
ES2685669T3 (es) 2018-10-10
WO2012023762A3 (ko) 2012-04-12
CN106851284B (zh) 2019-05-10
PL3125559T3 (pl) 2019-01-31
SI2608541T1 (sl) 2017-01-31
JP6322230B2 (ja) 2018-05-09
HUE039207T2 (hu) 2018-12-28
JP2016213854A (ja) 2016-12-15

Similar Documents

Publication Publication Date Title
ES2696931T3 (es) Procedimiento para codificar un modo de intrapredicción
ES2952358T3 (es) Aparato para decodificar un fotograma en movimiento
ES2692842T3 (es) Aparato para codificar una imagen
ES2733115T3 (es) Aparato para codificar una imagen