ES2720652T3 - Aparato para codificar una imagen - Google Patents

Aparato para codificar una imagen Download PDF

Info

Publication number
ES2720652T3
ES2720652T3 ES17160963T ES17160963T ES2720652T3 ES 2720652 T3 ES2720652 T3 ES 2720652T3 ES 17160963 T ES17160963 T ES 17160963T ES 17160963 T ES17160963 T ES 17160963T ES 2720652 T3 ES2720652 T3 ES 2720652T3
Authority
ES
Spain
Prior art keywords
block
unit
intra prediction
prediction mode
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17160963T
Other languages
English (en)
Inventor
Soo Mi Oh
Moonock Yang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
M&K Holdings Inc
Original Assignee
M&K Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=45559906&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2720652(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by M&K Holdings Inc filed Critical M&K Holdings Inc
Application granted granted Critical
Publication of ES2720652T3 publication Critical patent/ES2720652T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Abstract

Un aparato para codificar una imagen, comprendiendo el aparato: una unidad de intra predicción (150) configurada para generar un bloque de predicción correspondiente a un bloque actual de acuerdo con un modo de intra predicción seleccionado de entre una pluralidad de modos de intra predicción; una unidad (120) de transformación configurada para transformar un bloque residual obtenido calculando una diferencia entre un bloque original del bloque actual y el bloque de predicción para generar un bloque de transformación; una unidad de cuantificación (130) configurada para cuantificar el bloque de transformación para generar un bloque de transformación cuantificado usando un tamaño de paso de cuantificación; una unidad de exploración (131) configurada para explorar los coeficientes de transformación cuantificados del bloque de transformación cuantificado para generar unos coeficientes de transformación cuantificados unidimensionales (1D) ; y una unidad de codificación por entropía (140) configurada para la codificación entrópica de los coeficientes de transformación cuantificados 1D, en el que, cuando un tamaño del bloque de transformación es más grande que 4 x 4, la unidad de exploración (131) divide los coeficientes de transformación cuantificados en una pluralidad de sub-bloques y explora la pluralidad de sub-bloques y los coeficientes de transformación cuantificados de cada sub-bloque usando un patrón de exploración determinado de acuerdo con el modo de intra predicción seleccionado, en el que, cuando el modo de intra predicción seleccionado es un modo horizontal, el patrón de exploración es una exploración vertical, en el que la información que indica una posición del último coeficiente no cero del bloque de transformación se transmite a un decodificador, y en el que la unidad de intra predicción (150) incluye: una unidad de generación de píxeles de referencia (151) configurada para generar píxeles de referencia usando píxeles de referencia disponibles del bloque actual cuando existen píxeles de referencia no disponibles; una unidad de filtrado de píxeles de referencia (152) configurada para filtrar de manera adaptativa los píxeles de referencia adyacentes al bloque actual en base al modo de intra predicción seleccionado y a un tamaño del bloque actual; una unidad de generación de bloques de predicción (153) configurada para generar un bloque de predicción del bloque actual de acuerdo con el modo de intra predicción seleccionado; una unidad de filtrado de bloques de predicción (154) configurada para filtrar de manera adaptativa algunos píxeles de predicción del bloque de predicción en base al modo de intra predicción seleccionado y al tamaño del bloque actual; y una unidad de codificación del modo de predicción (156) configurada para codificar el modo de intra predicción seleccionado del bloque actual usando un modo de intra predicción anterior de un bloque anterior vecino del bloque actual y un modo de intra predicción izquierdo de un bloque izquierdo vecino del bloque actual, en el que cuando el modo de intra predicción anterior o el modo de intra predicción izquierdo no está disponible, la unidad de codificación del modo de predicción establece un modo DC como el modo de intra predicción anterior o el modo de intra predicción izquierdo.

Description

DESCRIPCIÓN
Aparato para codificar una imagen
Campo técnico
La presente invención se refiere a un aparato para codificar una imagen, y más particularmente, a un aparato para codificar una imagen capaz de minimizar la cantidad de bits de codificación de un bloque residual.
Antecedentes de la técnica
En los procedimientos de compresión de imágenes tales como el grupo de expertos de imágenes en movimiento (MPEG)-1, MPEG-2, MPEG-4 y la codificación de video avanzada (AVC) H.264/MPEG-4, una imagen se divide en macrobloques para codificar una imagen. A continuación, los MB respectivos se codifican usando una inter predicción o una intra predicción.
En la intra predicción, un bloque actual de una imagen actual se codifica no usando una imagen de referencia, sino usando valores de los píxeles espacialmente adyacentes al bloque actual. Un modo de intra predicción con poca distorsión se selecciona comparando con un bloque de predicción generando que usa los valores de píxeles adyacentes con el MB original. A continuación, usando el modo seleccionado de intra predicción y los valores de píxeles adyacentes, se calculan los valores de predicción del bloque actual. Se calculan las diferencias entre los valores de predicción y los valores de los píxeles del bloque actual original y a continuación se codifican a través de una codificación de transformación, una cuantificación y una codificación por entropía. El modo de intra predicción se codifica también.
Los modos de intra predicción se clasifican, en general, en un modo de intra predicción de 4 x 4, un modo de intra predicción de 8 x 8 y un modo de intra predicción de 16 x 16 para los componentes de luminancia y los componentes de crominancia.
En el modo de intra predicción de 16 x 16 de acuerdo con la técnica anterior, hay cuatro modos, un modo vertical, un modo horizontal, un modo de corriente continua (Direct Current, DC) y un modo plano.
En el modo de intra predicción de 4 x 4 de acuerdo con la técnica anterior hay nueve modos, un modo vertical, un modo horizontal, un modo DC, un modo inferior-izquierda diagonal, un modo inferior-derecha diagonal, un modo derecho vertical, un modo izquierdo vertical, un modo horizontal-arriba y un modo horizontal-inferior.
Cada modo de predicción se indexa de acuerdo con la frecuencia de uso de los modos respectivos. El modo vertical, cuyo número de modo es el 0, muestra la posibilidad más alta de que se use lo más frecuentemente para realizar la intra predicción en un bloque objetivo, y el modo horizontal-arriba cuyo número de modo es el 8 muestra la posibilidad más alta de que se use lo más infrecuentemente.
De acuerdo con las normas H.264, un bloque actual se codifica usando un total de 13 modos, es decir, 4 modos del modo de intra predicción de 4 x 4 y 9 modos del modo de intra predicción de 16 x 16. Se genera un flujo de bits del bloque actual de acuerdo con un modo optimo entre estos modos.
Sin embargo, cuando algunos o todos los valores de los píxeles adyacentes al bloque actual no existen o no están ya codificados, es imposible aplicar algunos o todos los modos de intra predicción al bloque actual. Además, cuando se realiza la intra predicción seleccionando un modo de predicción entre el modo intra aplicable se hace grande una señal residual entre un bloque de predicción y un bloque actual. Por lo tanto, la eficiencia de codificación se degrada. El documento TUNG NGUYEN Y COL.: "Improved Context Modeling for Coding Quantized Transform Coefficients in Video Compression", SIMPOSIO DE CODIFICACIÓN DE IMÁGENES 2010; NAGOYA, (2010-23-08), XP030082008, divulga la partición de bloques de coeficientes de transformación mayores que 4 x 4 en sub-bloques 4 x 4 con el fin de mejorar la codificación por entropía. Los sub-bloques se procesan en un orden de exploración en zigzag y los coeficientes de cada sub-bloque se exploran en una exploración en zigzag inversa.
El documento YEO C Y COL.: "Mode-Dependent Coefficient Scanning for Intra Prediction Residual Coding", 95. MPED MEETING; DAEGU; n.° m18796, (2011-01-21), XP030047366, divulga un orden de exploración de modo dependiente para la codificación residual de intra predicción. Para cada modo intra y para cada tamaño de bloque de transformación se asigna uno de los cuatro órdenes de exploración predeterminados teniendo en cuenta la dirección de predicción.
El documento KAZUO SUGIMOTO U COL.: “LUT-based adaptative filtering on intra prediction samples” 4. JCT-VC Meeting; 24-1-2001 - 28-1-2011; DAEGU (JOINT COLLABORATIVE TEAM ON VIDEO CODING OF ISO/IEC JTC1/SC29/WG11 AND ITU-T SG. 16), n.° JCTVC-D109, 14 de enero de 2001, divulga la adaptación de filtrado en muestras de intra predicción para mejorar el rendimiento de codificación. En el esquema propuesto, las muestras de predicción generadas por intra predicción unificada se filtran justo antes de generar muestras residuales según el tamaño de la unidad de predicción y el modo de intra predicción.
La presente invención se refiere a un aparato para codificar una imagen similar a una imagen original.
Un aspecto de la presente invención proporciona un aparato que incluye: una unidad (150) de intra predicción configurada para generar un bloque de predicción correspondiente a un bloque actual de acuerdo con un modo de intra predicción seleccionado de una pluralidad de modos de intra predicción; una unidad (120) de transformación configurada para transformar un bloque residual obtenido al calcular una diferencia entre un bloque original del bloque actual y el bloque de predicción para generar un bloque de transformación; una unidad (130) de cuantificación configurada para cuantificar el bloque de transformación para generar un bloque de transformación cuantificado utilizando un tamaño de paso de cuantificación; una unidad (131) de exploración configurada para explorar los coeficientes de transformación cuantificados del bloque de transformación cuantificado para generar coeficientes de transformación cuantificados unidimensionales (1D); y una unidad (140) de codificación de entropía configurada para codificar por entropía los coeficientes de transformación cuantificados 1D, en donde, cuando el tamaño del bloque de transformación es mayor que 4 x 4, la unidad (131) de exploración divide los coeficientes de transformación cuantificados en una pluralidad de sub-bloques y explora la pluralidad de sub-bloques y los coeficientes de transformación cuantificados de cada sub-bloque utilizando un patrón de escaneo determinado de acuerdo con el modo de predicción intra seleccionado, en el que, cuando el modo de intra predicción seleccionado es un modo horizontal, el patrón de exploración es exploración vertical, en el que la información que indica una posición del último coeficiente distinto de cero en cada sub-bloque se transmite a un decodificador, y en el que la unidad (150) de intra predicción incluye: una unidad (151) de generación de píxeles de referencia configurada para generar píxeles de referencia utilizando píxeles de referencia disponibles del bloque actual cuando existen píxeles de referencia no disponibles; una unidad (152) de filtrado de píxeles de referencia configurada para filtrar adaptativamente los píxeles de referencia adyacentes al bloque actual en función del modo de intra predicción seleccionado y el tamaño del bloque actual; una unidad (153) de generación de bloque de predicción configurada para generar un bloque de predicción del bloque actual de acuerdo con el modo de intra predicción seleccionado; una unidad (154) de filtrado de bloque de predicción configurada para filtrar de manera adaptativa algunos píxeles de predicción del bloque de predicción en función del modo de intra predicción seleccionado y el tamaño del bloque actual; y una unidad (156) de codificación de modo de predicción configurada para codificar el modo de predicción intra seleccionado del bloque actual utilizando un modo de predicción intra anterior de un bloque anterior vecino al bloque actual y un modo de predicción izquierda de un bloque izquierdo vecino al bloque actual, en donde, cuando el modo de predicción intra anterior o el modo de predicción intra izquierda no está disponible, la unidad de codificación del modo de predicción establece un modo dC como el modo de predicción intra anterior o el modo de predicción izquierda izquierdo.
Un aspecto proporciona un aparato que incluye: una unidad de decodificación de modo de intra predicción configurada para restaurar un modo de intra predicción de una unidad de predicción actual utilizando información adicional incluida en un contenedor de información adicional recibida e información candidata disponible de modo de intra predicción de la unidad de predicción actual; una unidad de generación de píxeles de referencia configurada para generar píxeles de referencia utilizando los píxeles de referencia disponibles; una unidad de filtro de píxeles de referencia configurada para filtrar de manera adaptativa los píxeles de referencia en función del modo de intra predicción restaurado de la unidad de predicción actual y un tamaño de la unidad de predicción actual; y una unidad de generación de bloque de predicción configurada para generar un bloque de predicción de la unidad de predicción actual utilizando los píxeles de referencia correspondientes al modo de intra predicción restaurado.
Un aparato genera píxeles de referencia y filtra de forma adaptativa los píxeles de referencia para generar un bloque de predicción que minimice la diferencia entre el bloque de predicción y un bloque original. Además, al filtrar de forma adaptativa el bloque de predicción según el modo de predicción intra, las señales residuales se vuelven más pequeñas y, por lo tanto, se puede mejorar la compresión de la imagen.
La figura 1 es un diagrama de bloques que ilustra un aparato de codificación de imágenes en movimiento.
La figura 2 es un diagrama de flujo que ilustra un funcionamiento de una unidad de exploración.
La figura 3 es un diagrama de bloques que ilustra un aparato de decodificación de imágenes en movimiento.
La figura 4 es un diagrama de bloques que ilustra una unidad de intra predicción.
La figura 5 es un diagrama conceptual que muestra las posiciones de los píxeles de referencia usados para la intra predicción.
La figura 6 es un diagrama de flujo que ilustra un procedimiento de generación de píxeles de referencia.
La figura 7 es un diagrama de bloques que ilustra una unidad de intra predicción de un aparato decodificador de imágenes en movimiento.
En lo sucesivo en el presente documento, las diversas realizaciones de la presente invención se describirán en detalle con referencia a los dibujos adjuntos. Sin embargo, la presente invención no se limita a las realizaciones a modo de ejemplos divulgadas a continuación, sino que se puede implementar de varias maneras. Por lo tanto, muchas otras modificaciones y variaciones de la presente invención son posibles, y deben entenderse que, dentro del alcance del concepto divulgado en las reivindicaciones adjuntas, la presente invención se puede practicar de otra manera de la que se descrito específicamente.
Para la codificación de imágenes, cada imagen consiste en una pluralidad de segmentos (slices), y cada segmento se compone de una pluralidad de unidades de codificación. Ya que una imagen de un grado de alta definición (HD) o superior tiene muchas regiones uniformes, puede mejorarse una compresión de la imagen codificando la imagen con unas unidades de codificación mayores que un MB cuyo tamaño es 16 x 16.
Un tamaño de la unidad de codificación de acuerdo con la presente invención puede ser 16 x 16, 32 x 32 o 64 x 64. Un tamaño de la unidad de codificación también puede ser de 8 x 8 o menos. Una unidad de codificación del tamaño más grande se conoce como un super macrobloque (SMB). Un tamaño de SMB está indicado por un tamaño más pequeño de la unidad de codificación y la información de profundidad. La información de profundidad indica un valor de diferencia entre el tamaño del SMB y el tamaño más pequeño de la unidad de codificación.
Por lo tanto, las unidades de codificación que se usaran para codificar las imágenes pueden ser un SMB o un sub­ bloque de un SMB. Las unidades de codificación se ajustan al valor por defecto o se indican en un encabezado de secuencia.
Un SMB consiste en una o más unidades de codificación. El SMB tiene una forma de un árbol de codificación recursivo con el fin de incluir las unidades de codificación y una estructura de división de las unidades de codificación. Cuando el SMB no está dividido en cuatro unidades de sub-codificación, el árbol de codificación puede consistir en una información que indica que el SMB no está dividido y una unidad de codificación. Cuando el SMB esta divido en cuatro unidades de sub-codificación, el árbol de codificación puede consistir en una información que indica que el SMB está dividido y cuatro árboles de sub-codificación. Del mismo modo, cada árbol de sub­ codificación tiene la misma estructura que el SMB. Sin embargo, una unidad de codificación del tamaño de la unidad de codificación más pequeña (Smallest Coding Unit, SCU) no se divide en unidades de sub-codificación.
Mientras tanto, cada unidad de codificación en el árbol de codificación se somete a una intra predicción o a una inter predicción en unidades de la propia unidad de codificación o un sub-bloque. Una unidad en la que se realiza la intra predicción o la inter predicción se denomina una unidad de predicción. Un tamaño de la unidad de predicción puede ser 2N x 2N o N x N para la intra predicción. Un tamaño de la unidad de predicción puede ser 2N x 2N, 2N x N, N x 2N o N x N para la inter predicción. En el presente documento, 2N indica las longitudes horizontales y verticales de una unidad de codificación.
Una unidad de codificación incluye un modo de predicción de la unidad de predicción y la información de tamaño (modo_parte) en la unidad de predicción. Para mejorar la eficiencia de codificación, el modo de predicción y la información de tamaño pueden combinarse y codificarse conjuntamente. En este caso, cada unidad de codificación incluye un tipo de predicción codificada conjuntamente (tipo_pred).
Una unidad de codificación incluye uno o más contenedores de información adicional. Cada contenedor de información adicional contiene la información adicional necesaria para generar un bloque de predicción de cada unidad de predicción. En la intra predicción, la información adicional incluye la información de intra predicción codificada. En la inter predicción, la información adicional incluye la información de movimiento codificada. La información de movimiento incluye un vector de movimiento y un índice de imagen de referencia.
Una unidad de codificación también incluye un contenedor de señal residual para señales residuales de la unidad de codificación. El contenedor de señal residual contiene un árbol de transformación, un contenedor de señal residual de luminancia y dos contenedores de señal residual de crominancia. El árbol de transformación indica si existen o no las señales residuales de las unidades de transformación en el contenedor de señal residual. El contenedor de señales residuales consiste en una estructura de árbol recursiva. El contenedor de señal residual para la unidad de codificación es un ejemplo. Si la unidad de codificación no está dividida en cuatro unidades de sub-codificación, el contenedor de señal residual contiene la información de cuantificación (un parámetro de cuantificación residual) y una señal residual codificada. Si la unidad de codificación se divide en cuatro unidades de sub-codificación, el contenedor de señales residuales contiene la información de cuantificación y cuatro sub-contenedores de señal residual. Cada sub-contenedor de señal residual tiene la misma estructura del contenedor de señal residual de la unidad de codificación, pero no contiene la información de cuantificación.
Mientras tanto, se describe un solo caso en el que la unidad de codificación se divide igualmente en unidades de predicción. Sin embargo, cuando se usa la división igual descrita anteriormente para una imagen que tiene un límite en una dirección específica o en una posición específica de acuerdo con una característica, se usan diferentes unidades de predicción para piezas de datos similares en el límite y una señal residual no puede reducirse eficazmente.
En este caso, para comprimir una señal residual, puede ser más eficaz dividir un SMB o un MB en una dirección específica de acuerdo con una forma del límite de la imagen y realizar una intra o inter predicción.
El modo de adaptación más simple es dividir una unidad de codificación en dos bloques usando una línea recta con el fin de extraer la dependencia estadística de una región de predicción de la topografía local. Un límite de una imagen se corresponde con la línea recta y se divide. En este caso, las direcciones divisibles pueden estar limitadas a un número predeterminado. Por ejemplo, un procedimiento de dividir un bloque puede estar limitado a cuatro direcciones de las direcciones horizontal, vertical, diagonal hacia arriba y diagonal hacia abajo. Además, la división puede estar limitada a solo las direcciones horizontal y vertical. El número de direcciones divisibles puede ser de tres, cinco, siete y así sucesivamente. El número de direcciones divisibles puede variar de acuerdo con un tamaño del bloque de codificación. Por ejemplo, para una unidad de codificación de un tamaño grande, el número de direcciones divisibles puede aumentarse de manera relativa.
En una inter predicción, cuando una unidad de codificación se divide en dos unidades de predicción para una predicción de adaptación más, la estimación de movimiento y la compensación de movimiento deberían realizarse en cada una de las unidades de predicción. Se obtiene la información de movimiento para cada unidad de predicción y se codifica una señal residual entre un bloque de predicción obtenido de la información de movimiento para cada unidad de predicción.
Después de obtener las señales residuales para los dos bloques de predicción respectivos divididos de una unidad de codificación, las dos señales residuales pueden añadirse para generar una señal residual para una unidad de codificación. La señal residual para una unidad de codificación se transforma y se codifica. En este caso, existe una alta posibilidad de que haya una diferencia entre las distribuciones globales de las señales residuales de los dos bloques de predicción respectivos con el centro del límite y, por lo tanto, puede generarse una señal residual de una unidad de codificación multiplicando un valor de una región cualquiera por un valor predeterminado. Además, puede hacerse que la región límite de las dos señales residuales se superponga, y puede realizarse el suavizado en la región límite superpuesta para generar una señal residual.
En otro procedimiento, puede generarse un bloque realizando un relleno de acuerdo con las regiones de división respectivas del bloque, y codificarse. En otras palabras, cuando una región de división actual se codifica entre las dos regiones de división, un bloque puede configurarse rellenando otra región de división que constituye el bloque con un valor de la región de división actual y a continuación se somete a una codificación de transformación bidimensional (2D).
La figura 1 es un diagrama de bloques que ilustra un aparato de codificación de imágenes en movimiento de acuerdo con la presente invención.
Haciendo referencia a la figura 1, un aparato 100 de codificación de imágenes en movimiento de acuerdo con la presente invención incluye una unidad 110 de división de imágenes, una unidad 120 de transformación, una unidad de cuantificación 130, una unidad 131 de exploración, una unidad 140 de codificación por entropía, una unidad de intra predicción 150, una unidad de inter predicción 160, una unidad 135 de cuantificación inversa, una unidad 125 de transformación inversa, una unidad 170 de procesamiento posterior, una unidad 180 de almacenamiento de imágenes, un restador 190 y un sumador 195.
La unidad 110 de división de imágenes analiza una señal de video de entrada para dividir cada unidad de codificación más grande (Largest Coding Unit, LCU) de una imagen en unidades de codificación cada una de las cuales tiene un tamaño predeterminado, determina el modo de predicción de cada unidad de codificación, y determina el tamaño de la unidad de predicción por cada unidad de codificación. La unidad 110 de división de imágenes envía la unidad de predicción a codificar a la unidad de intra predicción 150 o a la unidad de inter predicción 160 de acuerdo con el modo de predicción. Además, la unidad 110 de división de imágenes envía las unidades de predicción a codificar al restador 190.
La unidad de transformación 120 transforma un bloque residual. El bloque residual consiste en una señal residual entre un bloque original introducido y un bloque de predicción generado por la unidad de intra predicción 150 o la unidad de inter predicción 160. El bloque residual puede consistir en una unidad de codificación. El bloque residual que consiste en una unidad de codificación se divide en unidades de transformación optimas y se transforma. Un tipo de matriz de transformación puede determinarse de manera adaptativa de acuerdo con el modo de predicción (intra o inter). Además, una señal residual de intra predicción tiene directividad de acuerdo con un modo de intra predicción y, por lo tanto, una matriz de transformación puede determinarse de manera adaptativa de acuerdo con el modo de intra predicción. La unidad de transformación puede transformarse por dos matrices de transformación (horizontal y vertical) unidimensionales (1D). En la inter predicción, se determina un tipo de matriz de transformación predeterminado. En la intra predicción, existe una alta posibilidad de que el bloque residual tenga directividad vertical cuando el modo de intra predicción es horizontal. Por lo tanto, se aplica una matriz de enteros basada en la transformación discreta de coseno (Discrete Cosine Transform, DCT) a la dirección vertical, y se aplica una transformación discreta de seno (Discrete Sine Transform, DST) o una matriz de enteros basada en la transformación de Karhunen Loeve (KLT) a la dirección horizontal. Cuando el modo de intra predicción es vertical, se aplica una matriz de enteros basada en DST o KLT a la dirección vertical, y se aplica una matriz de enteros basada en DCT a la dirección horizontal. Además, en la intra predicción, la matriz de transformación puede determinarse de manera adaptativa de acuerdo con un tamaño de las unidades de transformación.
La unidad de cuantificación 130 determina un tamaño de tamaño de paso de cuantificación para cuantificar los coeficientes del bloque residual transformado. El tamaño de paso de cuantificación se determina por unidad de codificación de un tamaño predeterminado o más. El tamaño predeterminado puede ser 8 x 8 o 16 x 16. Usando el tamaño de paso de cuantificación determinado y una matriz de cuantificación determinada por un modo de predicción, se cuantifican los coeficientes del bloque de transformación. La unidad de cuantificación 130 usa los tamaños de paso de cuantificación de las unidades de codificación adyacentes a una unidad de codificación actual como un predictor de tamaño de paso de cuantificación de la unidad de codificación actual. La unidad de cuantificación 130 recupera secuencialmente las unidades de codificación en el siguiente orden de exploración; una unidad de codificación izquierda de la unidad de codificación actual, una unidad de codificación superior de la unidad de codificación actual y una unidad de codificación superior izquierda de la unidad de codificación actual. A continuación, la unidad de cuantificación 130 genera el predictor de tamaño de paso de cuantificación de la unidad de codificación actual usando uno o dos tamaños de paso de cuantificación válidos. Por ejemplo, el primer tamaño de paso de cuantificación valido descubierto en el orden de exploración puede determinarse como el predictor de tamaño de paso de cuantificación. Puede determinarse un promedio de dos tamaños de paso de cuantificación validos recuperados en el orden de exploración como el predictor del tamaño de paso de cuantificación y se determina como el predictor del tamaño de paso de cuantificación cuando solo es válido un tamaño de paso de cuantificación. Cuando se determina el predictor del tamaño de paso de cuantificación, se transmite una diferencia entre el tamaño de paso de cuantificación y el predictor del tamaño de paso de cuantificación a la unidad 140 de codificación por entropía.
Cuando un segmento se divide en unidades de codificación, no puede haber ninguna de una unidad de codificación izquierda, una unidad de codificación superior y una unidad de codificación superior izquierda de la unidad de codificación actual. Pero, puede haber una unidad de codificación previa de la unidad de codificación actual en el orden de codificación en la unidad de codificación máxima. Por lo tanto, las unidades de codificación adyacentes a la unidad de codificación actual y a la unidad de codificación previa de la unidad de codificación actual en el orden de codificación en la unidad de codificación máxima pueden ser candidatas. En este caso, el orden de exploración anterior puede cambiarse al siguiente orden de exploración; 1) la unidad de codificación izquierda de la unidad de codificación actual, 2) la unidad de codificación superior de la unidad de codificación actual, 3) la unidad de codificación superior izquierda de la unidad de codificación actual y 4) la unidad de codificación anterior de la unidad de codificación actual. El orden de exploración puede cambiarse, o la unidad de codificación superior izquierda puede omitirse en el orden de exploración.
El bloque de transformación cuantificado se proporciona a la unidad de cuantificación inversa 135 y a la unidad de exploración 131.
La unidad de exploración 131 explora los coeficientes del bloque de transformación cuantificado, convirtiendo de este modo los coeficientes en coeficientes cuantificados de 1D. Ya que la distribución de los coeficientes del bloque de transformación después de la cuantificación puede depender de un modo de intra predicción, se determina un patrón de exploración de coeficientes de acuerdo con el modo de intra predicción. El patrón de exploración de coeficientes también puede determinarse de acuerdo con el tamaño de la unidad de transformación.
La unidad de cuantificación inversa 135 cuantifica inversamente los coeficientes cuantificados. La unidad 125 de transformación inversa restablece un bloque residual del dominio espacial a partir de los coeficientes de transformación inversamente cuantificados. El sumador 195 genera un bloque reconstruido añadiendo el bloque residual reconstruido por la unidad de transformación inversa 125 y el bloque de predicción de la unidad de intra predicción 150 o la unidad de inter predicción 160.
La unidad de procesamiento posterior 170 realiza un procedimiento de filtrado de desbloqueo para eliminar la perturbación de bloqueo generada en una imagen reconstruida, un procedimiento de aplicación de compensación adaptativo para complementar una diferencia entre la imagen reconstruida y la imagen original por píxel y un procedimiento de filtro de bucle adaptativo para complementar una diferencia entre la imagen reconstruida y la imagen original en una unidad de codificación.
El procedimiento de filtrado de desbloqueo puede aplicarse a un límite entre unidades de predicción que tienen un tamaño predeterminado o más y un límite entre las unidades de transformación. El tamaño predeterminado puede ser 8 x 8. El procedimiento de filtrado de desbloqueo incluye una etapa de determinar un límite a filtrar, una etapa de determinar la resistencia de filtrado de límite a aplicar al límite, una etapa de determinar si se aplica o no un filtro de desbloqueo, y una etapa de seleccionar un filtro a aplicar al límite cuando se determina que se aplica el filtro de desbloqueo.
Aplicar o no el filtro de desbloqueo se determina de acuerdo con i) si la resistencia de filtrado de límite es o no mayor que 0 y ii) si un valor que indica la diferencia entre los píxeles límite del bloque P y del bloque Q es menor o no que un primer valor de referencia determinado de acuerdo con un parámetro de cuantificación.
Pueden existir dos o más filtros. Cuando un valor absoluto de una diferencia entre dos píxeles adyacentes al límite del bloque es igual a o mayor que un segundo valor de referencia, se selecciona un filtro débil. El segundo valor de referencia se determina por el parámetro de cuantificación y por la resistencia de filtrado de límite.
El procedimiento de aplicación de compensación adaptativo está destinado a reducir una diferencia (distorsión) entre un píxel sometido al filtro de desbloqueo y al píxel original. Puede determinarse si se realiza o no el procedimiento de aplicación de compensación adaptativo de acuerdo con imágenes o segmentos. Una imagen o segmento puede estar dividida en una pluralidad de regiones de compensación, y puede determinarse un modo de compensación por la región de compensación. Puede haber cuatro modos de compensación de borde y dos modos de compensación de banda. En el caso de un tipo de compensación de borde, se determina un tipo de borde al que pertenece cada píxel y se aplica una compensación correspondiente al tipo de borde. El tipo de borde se determina en base a la distribución de dos valores de píxeles adyacentes a un píxel actual.
El procedimiento de filtro de bucle adaptativo puede realizarse en base a un valor obtenido comparando una imagen original y una imagen reconstruida a la que se aplica el procedimiento de filtrado de desbloqueo o el procedimiento de aplicación de compensación adaptativo. Un filtro de bucle adaptativo (ALF) se detecta a través de un valor de actividad Laplaciano en base a un bloque de 4 x 4. El ALF determinado puede aplicarse a todos los píxeles incluidos en un bloque de 4 x 4 o en un bloque de 8 x 8. El aplicar o no un ALF puede determinarse de acuerdo con cada unidad de codificación. El tamaño y los coeficientes de un filtro de bucle pueden variar de acuerdo con cada unidad de codificación. Una cabecera de segmento puede incluir información que indica si aplicar o no el ALF a cada unidad de codificación, la información de coeficiente de filtro y la información de forma del filtro, y así sucesivamente. En el caso de componentes de crominancia, puede determinarse si se aplica o no el ALF en unidades de imagen. A diferencia de la luminancia, el filtro de bucle puede tener una forma rectangular.
La unidad 180 de almacenamiento de imágenes recibe datos de imagen de procesamiento posterior procedentes de la unidad 160 de procesamiento posterior y almacena la imagen en unidades de imagen. Una imagen puede ser una imagen en una trama o un campo. La unidad 180 de almacenamiento de imágenes tiene una memoria intermedia (no mostrada) capaz de almacenar una pluralidad de imágenes.
La unidad de inter predicción 160 realiza la estimación de movimiento usando una o más imágenes de referencia almacenadas en la unidad 180 de almacenamiento de imágenes y determina los índices de imágenes de referencia que indican las imágenes de referencia y los vectores de movimiento. De acuerdo con el índice de imágenes de referencia y el vector de movimiento, la unidad de inter predicción 160 extrae un bloque de predicción correspondiente a una unidad de predicción a codificar a partir de una imagen de referencia seleccionada entre una pluralidad de imágenes de referencia almacenadas en la unidad 180 de almacenamiento de imágenes y se emite el bloque de predicción extraído.
La unidad de intra predicción 150 realiza la intra predicción usando los valores de píxel reconstruidos dentro de una imagen actual. La unidad de intra predicción 150 recibe la unidad de predicción actual a codificarse de manera predictiva, selecciona uno de un número predeterminado de modos de intra predicción y realiza una intra predicción. El número predeterminado de modos de intra predicción puede depender del tamaño de la unidad de predicción actual. La unidad de intra predicción filtra de manera adaptativa los píxeles de referencia para generar el bloque de intra predicción. Cuando algunos de los píxeles de referencia no están disponibles, es posible generar los píxeles de referencia en las posiciones no disponibles usando uno o más píxeles de referencia disponibles.
La unidad 140 de codificación por entropía codifica por entropía los coeficientes cuantificados que son cuantificados por la unidad de cuantificación 130, la información de intra predicción recibida de la unidad de intra predicción 150, la información de movimiento recibida de la unidad de inter predicción 160, y así sucesivamente.
La figura 2 es un diagrama de flujo que ilustra un funcionamiento de la unidad de exploración 131 de acuerdo con la presente invención.
Se determina si el bloque de coeficientes cuantificados actual está dividido en una pluralidad de subconjuntos (S110). La determinación se basa en un tamaño de la unidad de transformación actual. Si el tamaño de la unidad de transformación actual es mayor que un primer tamaño de referencia, los coeficientes cuantificados codificados se dividen en una pluralidad de subconjuntos. El primer tamaño de referencia puede ser 4 x 4 o 8 x 8. El primer tamaño de referencia puede transmitirse a un decodificador mediante una cabecera de imagen o una cabecera de segmento.
Cuando el bloque de coeficientes cuantificados no se divide en una pluralidad de subconjuntos, se determina un patrón de exploración a aplicar al bloque de coeficientes cuantificados (S120). La etapa S120 puede realizarse antes de la etapa S110 o independientemente de la etapa S110.
Los coeficientes cuantificados del bloque de coeficientes cuantificados se exploran de acuerdo con el patrón de exploración determinado (S130). El patrón de exploración se determina de manera adaptativa de acuerdo con el modo de predicción y el modo de intra predicción. En el modo de inter predicción, solo puede aplicarse un patrón de exploración predeterminado (por ejemplo, la exploración en zigzag). En el modo de intra predicción, puede aplicarse un patrón de exploración determinado de acuerdo con el modo de intra predicción. Además, puede seleccionarse un número predeterminado de patrones de exploración para explorar los coeficientes, y la información de patrón de exploración puede transmitirse al decodificador. En el modo de intra predicción, puede aplicarse un patrón de exploración determinado de acuerdo con el modo de intra predicción. Por ejemplo, se aplica una exploración horizontal a un modo de intra predicción vertical y un número predeterminado de modos de intra predicción adyacentes al modo de intra predicción vertical. Se aplica una exploración vertical a un modo de intra predicción horizontal y un número predeterminado de modos de intra predicción adyacentes al modo de intra predicción horizontal. El número predeterminado vana de acuerdo con un número de modos de predicción permitidos de una unidad de predicción (o un número de modos de intra predicción direccionales) o un tamaño de un bloque de predicción. Por ejemplo, si el número de modos de predicción permitidos en la unidad de predicción actual es 16, el número predeterminado puede ser dos en cada una de ambas direcciones en base al modo de intra predicción horizontal o vertical. Si el número de modos de predicción direccionales permitidos es 33, el número predeterminado puede ser cuatro en cada una de ambas direcciones en base al modo de intra predicción horizontal o vertical. Mientras tanto, la exploración en zigzag se aplica a modos no direccionales. Un modo no direccional puede ser un modo actual directo (DC) o un modo plano.
Si se determina que el bloque de coeficientes cuantificados se divide en una pluralidad de subconjuntos, el bloque de coeficientes cuantificados se divide en una pluralidad de subconjuntos (Sl40). La pluralidad de subconjuntos consiste en un subconjunto principal y uno o más subconjuntos restantes. El subconjunto principal se localiza en un lado superior izquierdo y cubre un coeficiente DC, y uno o más subconjuntos restantes cubren una región diferente que el subconjunto principal.
Se determina un patrón de exploración a aplicar a los subconjuntos (S150). El patrón de exploración determinado se aplica a todos los subconjuntos. El patrón de exploración se determina de manera adaptativa de acuerdo con el modo de predicción y el modo de intra predicción. La etapa S150 puede realizarse antes de la etapa S110 o independientemente de la etapa S110.
Cuando el tamaño del bloque de coeficientes cuantificados (es decir, el tamaño de la unidad de transformación) es mayor que un segundo tamaño de referencia, el patrón de exploración en zigzag puede aplicarse al bloque de coeficientes cuantificados. El segundo tamaño de referencia es, por ejemplo, 8 x 8. Por lo tanto, la etapa S150 se realiza cuando el primer tamaño de referencia es menor que el segundo tamaño de referencia.
En el modo de inter predicción, solo puede aplicarse un patrón de exploración predeterminado (por ejemplo, la exploración en zigzag) a cada subconjunto. En el modo de intra predicción, el patrón de exploración se determina de manera adaptativa igual que en la etapa S120.
Los coeficientes cuantificados en los subconjuntos pueden explorarse en una dirección inversa. En otras palabras, de acuerdo con el patrón de exploración, los coeficientes cuantificados distintos de 0 pueden explorarse y codificarse por entropía en la dirección inversa comenzando con el último coeficiente cuantificado distinto de 0 en los subconjuntos.
A continuación, los coeficientes cuantificados de cada subconjunto se exploran de acuerdo con el patrón de exploración (S160). Los coeficientes cuantificados en cada subconjunto se exploran en la dirección inversa. Es decir, los coeficientes de transformación cuantificados se exploran desde un último coeficiente distinto de cero a otros coeficientes distintos de cero de acuerdo con el patrón de exploración, y por codificación por entropía.
La exploración en zigzag puede aplicarse para explorar los subconjuntos. Los subconjuntos pueden explorarse comenzando con el subconjunto principal a los subconjuntos restantes en una dirección hacia delante, o pueden explorarse en la dirección inversa. Un patrón de exploración para explorar los subconjuntos puede establecerse igual que un patrón de exploración para explorar los coeficientes cuantificados en los subconjuntos.
El aparato 100 de codificación de imágenes en movimiento de acuerdo con la presente invención transmite la información capaz de indicar una posición del ultimo coeficiente cuantificado no nulo de la unidad de transformación a un decodificador. El aparato 100 de codificación de imágenes en movimiento también transmite la información capaz de indicar una posición del ultimo coeficiente cuantificado no nulo en cada subconjunto al decodificador. La figura 3 es un diagrama de bloques que ilustra un aparato de decodificación de imágenes en movimiento.
El aparato de decodificación de imágenes en movimiento incluye una unidad 210 de decodificación por entropía, una unidad 220 de exploración inversa, una unidad 230 de cuantificación inversa, una unidad 240 de transformación inversa, una unidad 250 de intra predicción, una unidad 260 de inter predicción, una unidad 270 de procesamiento, una unidad 280 de almacenamiento de imágenes, un sumador 290 y un conmutador 295.
La unidad 210 de decodificación por entropía extrae la información de intra predicción, la información de inter predicción y la información de coeficientes cuantificados de un flujo de bits recibido. La unidad 210 de decodificación por entropía transmite la información de inter predicción a la unidad 260 de inter predicción, la información de intra predicción a la unidad 250 de intra predicción y a la unidad 240 de transformación inversa y la información de coeficientes cuantificados inversos a la unidad 220 de exploración inversa.
La unidad 220 de exploración inversa convierte la información de coeficientes cuantificados en un bloque de transformación cuantificado bidimensional. Uno de una pluralidad de patrones de exploración inversa se selecciona para la conversión. El patrón de exploración inversa se selecciona en base a al menos uno de entre el modo de predicción y el modo de intra predicción. El funcionamiento de la unidad 220 de exploración inversa es el mismo que el funcionamiento inverso de la unidad de exploración 131 de la figura 1. Por ejemplo, si un tamaño de una unidad de transformación actual a descodificar es mayor que el primer tamaño de referencia, cada subconjunto se explora de manera inversa de acuerdo con el patrón de exploración inversa seleccionado y se genera un bloque cuantificado inverso que tiene el tamaño de la unidad de transformación que usa la pluralidad de subconjuntos explorados de manera inversa.
La unidad 230 de cuantificación inversa determina un predictor de tamaño de paso de cuantificación de la unidad de codificación actual. El funcionamiento para determinar el predictor de tamaño de paso de cuantificación es igual que el procedimiento de la unidad de cuantificación 130 de la figura 1. La unidad de cuantificación inversa añade el predictor de tamaño de paso de cuantificación determinado y un tamaño de tamaño de paso de cuantificación residual recibido para generar un tamaño de paso de cuantificación de la unidad de codificación actual. La unidad 230 de cuantificación inversa restablece los coeficientes cuantificados inversos usando una matriz de cuantificación determinada por el tamaño de paso de cuantificación. La matriz de cuantificación vana de acuerdo con el tamaño del bloque actual a restablecer. La matriz de cuantificación puede seleccionarse para un bloque que tenga el mismo tamaño en base a al menos uno de un modo de predicción y un modo de intra predicción del bloque actual.
La unidad 240 de transformación inversa transforma inversamente el bloque cuantificado inverso para restablecer un bloque residual. La matriz de transformación inversa que se aplica al bloque cuantificado inverso se determina de manera adaptativa de acuerdo con el modo de predicción (intra o inter) y el modo de intra predicción. El procedimiento de determinación de la matriz de transformación inversa es el mismo que el procedimiento en la unidad 120 de transformación de la figura 1.
El sumador 290 añade el bloque residual restablecido que ha sido restablecido por la unidad de transformación inversa 240 y un bloque de predicción generado por la unidad de intra predicción 250 o la unidad de inter predicción 260 para generar un bloque de imagen reconstruida.
La unidad de intra predicción 250 restablece el modo de intra predicción del bloque actual en base a la información de intra predicción recibida de la unidad de decodificación por entropía 210, y genera un bloque de predicción de acuerdo con el modo de intra predicción restablecido.
La unidad de inter predicción 260 restablece los índices de imágenes de referencia y los vectores de movimiento en base a la información de inter predicción recibida de la unidad de decodificación por entropía 210, y genera un bloque de predicción usando los índices de imágenes de referencia y los vectores de movimiento. Cuando se aplica la compensación de movimiento con una precisión fraccionaria, se genera el bloque de predicción usando un filtro de interpolación.
La unidad de procesamiento posterior 270 funciona igual que la unidad de procesamiento posterior 160 de la figura 1.
La unidad de almacenamiento de imágenes 280 almacena la imagen reconstruida por procesamiento posterior por la unidad de procesamiento posterior 270.
La figura 4 es un diagrama de bloques que ilustra la unidad de intra predicción 150 de una unidad de codificación de imágenes en movimiento 100 de acuerdo con la presente invención.
Haciendo referencia a la figura 4, la unidad de intra predicción 150 incluye una unidad de generación de píxeles de referencia 151, una unidad de filtrado de píxel de referencia 152, una unidad de generación de bloques 153, una unidad de filtrado de bloque de predicción 154, una unidad de determinación de modo de predicción 155 y una unidad de codificación de modo de predicción 156 156 y una unidad de transmisión de bloque de predicción 157. La unidad de generación de píxeles de referencia 151 determina que es necesario generar los píxeles de referencia para la intra predicción, y genera los píxeles de referencia si es necesario para generar los píxeles de referencia. La figura 5 es un diagrama conceptual que muestra las posiciones de los píxeles de referencia usados para la intra predicción de acuerdo con la presente invención. Como se muestra en la figura 5, los píxeles de referencia consisten en los píxeles de referencia superior, los píxeles de referencia de izquierda y un píxel de referencia de esquina de la unidad de predicción actual. Los píxeles de referencia superior de la unidad de predicción actual son píxeles (regiones C y D) presentes a lo largo del doble de la anchura de la unidad de predicción actual y los píxeles de referencia de izquierda de la unidad de predicción actual son píxeles (regiones A y B) presentes a lo largo del doble de la altura de la unidad de predicción actual.
La unidad de generación de píxeles de referencia 151 determina si los píxeles de referencia están disponibles o no. Si uno o más píxeles de referencia no están disponibles, la unidad de generación de píxeles de referencia genera los píxeles de referencia 151 en las posiciones no disponibles usando un píxel de referencia disponible.
En primer lugar, se describirá un caso en el que todos los píxeles de referencia en cualquiera de las regiones superior e izquierda de una unidad de predicción actual a codificar no están disponibles.
Por ejemplo, cuando la unidad de predicción actual se localiza en el límite superior de una imagen o un segmento, no existen los píxeles de referencia superior (regiones C y D) y el píxel de referencia de esquina de la unidad de predicción actual. Cuando la unidad de predicción actual se localiza en el límite izquierdo de una imagen o un segmento, no existen los píxeles de referencia de izquierda (regiones A y B) y el píxel de referencia de esquina. En esos casos, los píxeles de referencia se generan copiando el valor de un píxel disponible más cercano al píxel no disponible. Es decir, cuando la unidad de predicción actual se localiza en el límite superior de una imagen o un segmento, los píxeles de referencia superior pueden generarse copiando el píxel de referencia de izquierda más superior (es decir, un píxel de referencia localizado en la posición más alta de la región A). Cuando la unidad de predicción actual se localiza en el límite izquierdo de una imagen o un segmento, los píxeles de referencia de izquierda pueden generarse copiando el píxel de referencia superior más a la izquierda (es decir, un píxel de referencia localizado en la posición más a la izquierda de la región de C). El procedimiento mencionado anteriormente se aplica por defecto, pero el procedimiento puede variar por secuencia, imagen o segmento si es necesario.
A continuación, se describirá un caso en el que algunos de los píxeles de referencia superior o de izquierda de una unidad de predicción actual a codificar no están disponibles. Existen dos casos en los que 1) los píxeles de referencia disponibles están presentes en una sola dirección con respecto a los píxeles de referencia no disponibles, y 2) los píxeles de referencia disponibles están presentes en ambas direcciones con respecto a los píxeles de referencia no disponibles.
Se describirá el caso 1).
Por ejemplo, cuando el bloque actual se localiza en el límite derecho de una imagen o un segmento o una LCU, los píxeles de referencia que cubren la zona D no están disponibles. Además, cuando el bloque actual se localiza en el límite inferior de una imagen o de un segmento o una LCU, los píxeles de referencia que cubren la zona B no están disponibles. En este caso, los píxeles de referencia se generan copiando los valores de los píxeles disponibles más cercanos al píxel no disponible. Además, los píxeles de referencia se generan usando dos o más píxeles disponibles más cercanos al píxel no disponible.
Se describirá el caso 2).
Por ejemplo, cuando el bloque actual se localiza en el límite superior de un segmento y el bloque superior izquierdo del bloque actual está disponible, los píxeles de referencia que cubren la zona C no están disponibles, pero los píxeles de referencia que cubren las zonas A y D están disponibles. Cuando los píxeles de referencia disponibles están por lo tanto presentes en ambas direcciones, se selecciona un píxel de referencia disponible presente en la posición más cercana en cada dirección, y los píxeles de referencia en las posiciones no disponibles se generan usando los píxeles de referencia seleccionados (es decir, el píxel de referencia más alto en la región A y el píxel de referencia más a la izquierda en la región D).
Un valor obtenido redondeando un promedio de los dos píxeles de referencia (píxeles presentes en las posiciones más cercanas en las direcciones respectivas) puede generarse como un valor de píxel de referencia. Sin embargo, cuando una región de píxel de referencia no disponible es grande, existe una alta posibilidad de que se produzca una diferencia de paso entre un píxel disponible y un píxel generado, y por lo tanto es útil para generar los píxeles de referencia usando la interpolación lineal. Específicamente, en consideración de una posición con respecto a dos píxeles de referencia disponibles, puede generarse un píxel de referencia disponible en la posición actual.
A continuación, se describirá un caso en el que todos los píxeles de referencia en los lados superior e izquierdo de una unidad de predicción actual a codificar no están disponibles. Por ejemplo, cuando una unidad de predicción actual es adyacente a un límite superior izquierdo de una imagen o un segmento, no hay píxeles de referencia disponibles.
En este caso, algunos o todos los píxeles de referencia pueden generarse usando dos o más píxeles presentes en la unidad de predicción actual. El número de píxeles que están presentes en la unidad de predicción actual y que se usan para generar los píxeles de referencia pueden ser dos o tres.
La figura 6 es un diagrama de flujo que ilustra un procedimiento de generación de píxeles de referencia de acuerdo con la presente invención.
Haciendo referencia a la figura 6, el procedimiento de generación de píxeles de referencia que usa dos píxeles es de la siguiente manera. Pueden usarse un píxel superior izquierdo o y uno de un píxel superior derecho □, un píxel inferior izquierdo Δ y un píxel inferior derecho V de la unidad de predicción actual. Cuando se usan el píxel superior izquierdo o y el píxel superior derecho □ de la unidad de predicción actual, el píxel superior izquierdo y el píxel superior derecho se copian en las posiciones correspondientes en un lado superior y el píxel superior derecho y los píxeles de referencia copiados se usan para generar los píxeles de referencia que cubren la zona C. Los píxeles de referencia se generan usando una interpolación promedio o lineal. Los píxeles de referencia que cubren D se generan copiando el píxel superior derecho □ o usando una pluralidad de los píxeles superior generados. Cuando se usan el píxel superior izquierdo o y el píxel inferior izquierdo Ade la unidad de predicción actual, se aplica el mismo procedimiento. Cuando se usan el píxel superior izquierdo oy el píxel inferior derecho V, el píxel inferior derecho V se copia en la posición de píxel de referencia correspondiente en la dirección horizontal y en la dirección vertical y a continuación se generan los píxeles de referencia residuales de la misma manera como se ha descrito anteriormente.
El procedimiento de generación de píxeles de referencia que usa tres píxeles es de la siguiente manera. Pueden usarse un píxel superior izquierdo o, un píxel superior derecho □, y un píxel inferior izquierdo A de la unidad de predicción actual. Los píxeles se copian en la posición de píxel de referencia correspondiente y a continuación, se generan los píxeles de referencia residuales usando los píxeles copiados. Los píxeles de referencia residuales se generan de la misma manera como se ha descrito anteriormente.
Mientras tanto, cuando se usa un procedimiento como se ha descrito anteriormente, los valores de los píxeles usados para generar los píxeles de referencia se transmiten al decodificador. Para minimizar la cantidad de bits a transmitir, el valor del píxel superior izquierdo o, y la diferencia entre el valor del píxel superior izquierdo o, y los valores de otros píxeles. El valor del píxel superior izquierdo puede ser un valor cuantificado o codificarse por entropía.
Cuando un tipo de segmento es intra (I), es más eficaz generar los píxeles de referencia usando dos o más píxeles. Se describirá otro procedimiento de generación de píxeles de referencia cuando todos los píxeles de referencia en los lados superior e izquierdo de una unidad de predicción actual a codificar no están disponibles. Este procedimiento es eficaz cuando un tipo de segmento no es intra (I).
En primer lugar, se determina si los píxeles están presentes en las mismas posiciones que los píxeles de referencia de una unidad de predicción actual en una imagen de referencia codificada anteriormente para un bloque actual. Cuando los píxeles están presentes, los píxeles de la imagen de referencia se copian para generar los píxeles de referencia de la unidad de predicción actual.
Cuando los píxeles no están presentes, se determina si los píxeles están presentes en las posiciones más cercanas (a 1 píxel de distancia) para hacer referencia a los píxeles de la unidad de predicción actual. Cuando los píxeles están presentes, los píxeles se copian y se usan como los píxeles de referencia de la unidad de predicción actual. La unidad de filtrado de píxel de referencia 152 filtra de manera adaptativa los píxeles de referencia de la unidad de predicción actual. Se aplica un filtro de paso bajo para suavizar una varianza de los valores de píxel entre los píxeles de referencia. El filtro de paso bajo puede ser un filtro de 3 derivaciones (3-tap filter) [1, 2, 1] o un filtro de 5 derivaciones (5-tap filter) [1,2, 4, 2, 1].
El filtro puede aplicarse de manera adaptativa de acuerdo con un tamaño del bloque actual. Si el tamaño del bloque actual es igual a o menor que un tamaño predeterminado, el filtro no puede aplicarse. El tamaño predeterminado puede ser de 4 x 4.
El filtro también puede aplicarse de manera adaptativa de acuerdo con un tamaño del bloque actual y el modo de intra predicción.
Si el modo de intra predicción es el modo horizontal o el modo vertical, se generan los píxeles de un bloque de predicción usando un píxel de referencia. Por lo tanto, no se aplica un filtro en el modo horizontal y en el modo vertical. En el modo DC, se genera un píxel de predicción usando la media de los píxeles de referencia. Por lo tanto, no se aplica un filtro en el modo DC debido a que el píxel de predicción no se ve afectado por la diferencia entre los píxeles de referencia.
En el modo de intra predicción 3, 6 o 9 que tiene una dirección de 45° con respecto a la dirección horizontal o vertical, se aplica un filtro, independientemente del tamaño de la unidad de predicción o se aplica cuando el bloque actual es mayor que una unidad de predicción más pequeña. Un primer filtro puede aplicarse a una unidad de predicción que tiene un tamaño más pequeño que un tamaño predeterminado, y puede aplicarse un segundo filtro más fuerte que el primer filtro a una unidad de predicción que tiene un tamaño igual a o mayor que el tamaño predeterminado. El tamaño predeterminado puede ser 16 x 16.
En los modos de intra predicción diferentes del modo vertical, el modo horizontal, el modo DC y el modo de intra predicción 3, 6 y 9, puede aplicarse un filtro de manera adaptativa de acuerdo con el tamaño de la unidad de predicción actual y el modo de intra predicción. Sin embargo, en el modo plano, puede realizarse el filtrado de los píxeles de referencia.
Además, el filtro no puede aplicarse a algunos o a todos los píxeles de referencia generados a través de la combinación lineal.
La unidad de generación de bloques de predicción 153 genera un bloque de predicción correspondiente al modo de intra predicción. El bloque de predicción se genera usando los píxeles de referencia o una combinación lineal de los píxeles de referencia en base al modo de intra predicción. Los píxeles de referencia que se usan para generar el bloque de predicción pueden filtrarse por la unidad de filtrado de píxel de referencia 152.
La unidad de filtrado de bloque de predicción 154 filtra de manera adaptativa el bloque de predicción generado de acuerdo con el modo de intra predicción para minimizar la señal residual entre el bloque de predicción y el bloque actual a codificar. La diferencia entre un píxel de referencia y un píxel de predicción adyacente al píxel de referencia vana de acuerdo con el modo de intra predicción. Por lo tanto, el filtrado del píxel de predicción adyacente al píxel de referencia permite que se disminuya la diferencia.
En el modo DC, el bloque de predicción consiste en las medias de los píxeles de referencia, y puede producirse una diferencia de paso entre los píxeles en un bloque de predicción adyacente a los píxeles de referencia. Por lo tanto, los píxeles de predicción de la línea superior y de la línea izquierda que son adyacentes a los píxeles de referencia se filtran usando los píxeles de referencia. El píxel de predicción superior izquierdo adyacente a dos píxeles de referencia (el píxel de referencia superior y el píxel de referencia izquierdo) se filtra por un filtro de 3 derivaciones. Los otros píxeles de predicción (los píxeles de la línea superior y los píxeles de la línea izquierda en el bloque de predicción) y adyacentes a un píxel de referencia se filtran por el filtro de 2 derivaciones.
La unidad de bloque de filtrado de predicción 154 puede estar integrada en la unidad de generación de bloques de predicción 153. Además, puede generarse un bloque de predicción para producir efectos del filtrado de bloque de predicción. En este caso, el bloque de predicción se genera usando la combinación del funcionamiento de generación y del funcionamiento de filtrado.
La unidad de determinación de modo de intra predicción 155 155 determina el modo de intra predicción de una unidad de predicción actual usando los píxeles de referencia. La unidad de determinación de modo de intra predicción 155155 selecciona un modo de intra predicción en el que la cantidad de bits de codificación de un bloque residual se minimiza como el modo de intra predicción de la unidad de predicción actual. Para generar un bloque residual, se genera un bloque de predicción de acuerdo con cada modo de intra predicción. El bloque de predicción puede generarse usando los píxeles de referencia filtrados por la unidad de filtrado de píxeles de referencia 152 o puede ser un bloque filtrado por la unidad de filtrado de bloques de predicción 154.
La unidad de transmisión de bloques de predicción 157 transmite el bloque de predicción generado en base al modo de intra predicción por la unidad de determinación de modo de intra predicción 155 al restador 190.
La unidad de codificación de modo de predicción 156 codifica el modo de intra predicción de la unidad de predicción actual determinado por la unidad de determinación de modo de intra predicción 155. La unidad de codificación de modo de predicción 156 puede estar integrada en la unidad de intra predicción 150 o en la unidad de codificación por entropía 140.
La unidad de codificación de modo de predicción 156 codifica el modo de intra predicción de la unidad de predicción actual usando un modo de intra predicción superior de la unidad de predicción actual y un modo de intra predicción izquierdo de la unidad de predicción actual.
En primer lugar, se obtienen el modo de intra predicción superior y el modo de intra predicción izquierdo de la unidad de predicción actual. Cuando existe una pluralidad de unidades de predicción superior de la unidad de predicción actual, la pluralidad de unidades de predicción anteriores se explora en una dirección predeterminada (por ejemplo, de derecha a izquierda) para determinar el modo de intra predicción de una primera unidad de predicción disponible como un modo de intra predicción superior. Además, cuando existe una pluralidad de unidades de predicción izquierdas de la unidad de predicción actual, la pluralidad de unidades de predicción izquierdas se explora en una dirección predeterminada (por ejemplo, de abajo hacia arriba) para determinar el modo de intra predicción de una primera unidad de predicción disponible como un modo de intra predicción izquierdo. Como alternativa, entre una pluralidad de unidades de predicción disponibles, el modo de intra predicción de una unidad de predicción disponible que tiene el número de modo de predicción más bajo puede establecerse como un modo de intra predicción superior.
Cuando el modo de intra predicción superior o el modo de intra predicción izquierdo no están disponibles, el modo DC (modo 2) puede establecerse como el modo de intra predicción superior o como el modo de intra predicción izquierdo. El modo de intra predicción superior o el modo de intra predicción izquierdo se trata como no disponible cuando no existe una unidad de predicción correspondiente.
A continuación, el modo de intra predicción superior o el modo de intra predicción izquierdo se convierte en uno del número predeterminado de los modos de intra predicción cuando el número de modo de intra predicción superior o el número de modo de intra predicción izquierdo es igual a o mayor que el número de modos de intra predicción permisibles para la unidad de predicción actual. El número predeterminado puede variar de acuerdo con un tamaño de la unidad de predicción actual. Por ejemplo, cuando el tamaño de la unidad de predicción actual es 4 x 4, el modo de intra predicción se convierte en uno de los nueve modos (modo 0 a modo 8), y cuando el tamaño de la unidad de predicción actual es 64 x 64, el modo de intra predicción se mapea en uno de tres modos (modo 0 a modo 2). El modo de intra predicción puede convertirse en uno de los modos de intra predicción permisibles para la unidad de predicción actual.
A continuación, si el modo de intra predicción de la unidad de predicción actual es el mismo que uno cualquiera de los modos de intra predicción superior e izquierdo, se transmiten al decodificador una señalización que indica que el modo de intra predicción de la unidad de predicción actual es el mismo que uno cualquiera los modos de intra predicción superior e izquierdo y una señalización que indica uno de los modos de intra predicción superior e izquierdo. En este caso, si los modos de intra predicción superior e izquierdo son los mismos, puede omitirse la señalización que indica uno de los modos de intra predicción superior e izquierdo. Además, si solo uno de los modos de intra predicción superior e izquierdo esta disponible y el modo de intra predicción disponible es el mismo que el modo de intra predicción del bloque de predicción actual, puede omitirse la señalización que indica uno de los modos de intra predicción superior e izquierdo.
Pero, si el modo de intra predicción de la unidad de predicción actual no es el mismo que uno cualquiera de los modos de intra predicción superior e izquierdo, el número de modo de intra predicción de la unidad de predicción actual se compara con el número de modo de intra predicción superior y con el número de modo de intra predicción izquierdo. El número de casos en los que los números de modo de intra predicción izquierdo o superior es no mayor que el número de modo de intra predicción de la unidad de predicción actual se calcula, y el valor obtenido restando el número de casos del número de modo de intra predicción de la unidad de predicción actual se determina como un número de modo de intra predicción final de la unidad de predicción actual a transmitir. En este caso, cuando los números de modo de intra predicción izquierdo y superior son idénticos, los modos de intra predicción superior e izquierdo se consideran como uno.
De acuerdo con si los modos de intra predicción superior e izquierdo son idénticos o no, se determina una tabla para la codificación por entropía del modo de intra predicción final determinado.
La figura 7 es un diagrama de bloques que ilustra la unidad de intra predicción 250 de un aparato de descodificación de imágenes en movimiento 200.
La unidad de intra predicción 250 incluye una unidad de decodificación de modo de predicción 251, una unidad de generación de píxeles de referencia 252, una unidad de filtrado de píxeles de referencia 253, una unidad de generación de bloques de predicción 254, una unidad de filtrado de bloques de predicción 255 y una unidad de transmisión de bloques de predicción 256.
La unidad de decodificación de modo de predicción 251 restablece el modo de intra predicción de una unidad de predicción actual de la siguiente manera.
En primer lugar, la unidad de decodificación de modo de predicción 251 recibe la información adicional incluida en el contenedor de información adicional para generar un bloque de predicción. La información adicional incluye una señalización de predicción y la información de predicción residual. La señalización de predicción indica si el modo de intra predicción de la unidad de predicción actual es el mismo que uno de los modos de intra predicción de las unidades de predicción adyacentes. La información de predicción residual incluye la información determinada por la señalización de predicción. Si la señalización (flag) de predicción es 1, la información de predicción residual puede incluir un índice del modo de intra predicción candidato. El índice del modo de intra predicción designa el modo de intra predicción candidato. Si la señalización de predicción es 0, la información residual puede incluir el número de modo de intra predicción residual.
Se obtienen los modos de intra predicción candidatos de la unidad de predicción actual. Los modos de intra predicción candidatos se obtienen usando los modos de intra predicción de las unidades de predicción adyacentes. Por conveniencia, se describirá un caso en el que el modo de intra predicción candidato de la unidad de predicción actual se limita a los modos de intra predicción superior e izquierdo. Cuando existe una pluralidad de unidades de predicción superiores o una pluralidad de unidades de predicción izquierdas, el modo de intra predicción de la unidad de predicción superior o izquierda se determina del mismo como se ha descrito en el funcionamiento de la unidad de codificación de modo de intra predicción 156 del aparato de codificación 100. Además, cuando el número de modo de un modo de intra predicción candidato disponible es igual a o mayor que el número de modos de intra predicción permisibles para la unidad de predicción actual, el modo de intra predicción candidato disponible se convierte en uno de los modos permisibles para la unidad de predicción actual como se ha descrito en la unidad de codificación de modo de intra predicción 156.
A continuación, cuando la señalización de predicción recibida indica que la unidad de predicción actual tiene el mismo modo de intra predicción que una unidad de predicción adyacente, y existe el índice de modo de predicción candidato, se determina un modo de predicción indicado por el índice de modo de predicción candidato como el modo de intra predicción de la unidad de predicción actual.
Si la señalización de predicción recibida indica que la unidad de predicción actual tiene el mismo modo de intra predicción que una unidad de predicción adyacente, pero no existe un índice de modo de predicción candidato y un modo de intra predicción disponible de la unidad de predicción adyacente, se restablece el modo de intra predicción disponible al modo de intra predicción de la unidad de predicción actual.
Si la señalización de predicción recibida indica que la unidad de predicción actual no tiene el mismo modo de intra predicción que una unidad de predicción adyacente, se compara un valor de modo de intra predicción residual recibido con los números de modo de intra predicción de los modos de intra predicción disponibles candidatos para restablecer el modo de intra predicción de la unidad de predicción actual.
La unidad de generación de píxeles de referencia 252 genera los píxeles de referencia usando el mismo procedimiento que el descrito en la unidad de generación de píxeles de referencia 151 del aparato de codificación 100. Sin embargo, la unidad de generación de píxeles de referencia 252 es diferente del generador 151 de píxeles de referencia del aparato de codificación 100 en que se generan de manera adaptativa los píxeles de referencia de acuerdo con el modo de intra predicción restablecido por el decodificador de modo de predicción 251. Es decir, la unidad de generación de píxeles de referencia 252 puede generar los píxeles de referencia solo cuando los píxeles de referencia usados para generar un bloque de predicción y determinados por el modo de intra predicción no están disponibles.
La unidad de filtrado de píxeles de referencia 253 filtra de manera adaptativa los píxeles de referencia en base al modo de intra predicción restablecido por la unidad 251 de decodificación de modo de predicción y un tamaño de bloque de predicción. La condición de filtrado y un filtro son los mismos que los de la unidad de filtrado de píxeles de referencia 152 del aparato de codificación 100.
La unidad de generación de bloques de predicción 254 genera un bloque de predicción usando los píxeles de referencia de acuerdo con el modo de intra predicción restablecido por la unidad de decodificación de modo de predicción 251.
La unidad de filtrado de bloques de predicción 255 filtra de manera adaptativa el bloque de predicción de acuerdo con el modo de intra predicción restablecido por la unidad de decodificación de modo de predicción 251. El funcionamiento de filtrado es el mismo que el de la unidad de filtrado de bloques de predicción 154 del aparato de codificación 100.
La unidad de transmisión de bloques de predicción 256 transmite el bloque de predicción recibido del generador de bloques de predicción 254 o de la unidad de filtrado de bloques de predicción 255 al sumador 290.

Claims (3)

REIVINDICACIONES
1. Un aparato para codificar una imagen, comprendiendo el aparato:
una unidad de intra predicción (150) configurada para generar un bloque de predicción correspondiente a un bloque actual de acuerdo con un modo de intra predicción seleccionado de entre una pluralidad de modos de intra predicción;
una unidad (120) de transformación configurada para transformar un bloque residual obtenido calculando una diferencia entre un bloque original del bloque actual y el bloque de predicción para generar un bloque de transformación;
una unidad de cuantificación (130) configurada para cuantificar el bloque de transformación para generar un bloque de transformación cuantificado usando un tamaño de paso de cuantificación;
una unidad de exploración (131) configurada para explorar los coeficientes de transformación cuantificados del bloque de transformación cuantificado para generar unos coeficientes de transformación cuantificados unidimensionales (1D) ; y
una unidad de codificación por entropía (140) configurada para la codificación entrópica de los coeficientes de transformación cuantificados 1D,
en el que, cuando un tamaño del bloque de transformación es más grande que 4 x 4, la unidad de exploración (131) divide los coeficientes de transformación cuantificados en una pluralidad de sub-bloques y explora la pluralidad de sub-bloques y los coeficientes de transformación cuantificados de cada sub-bloque usando un patrón de exploración determinado de acuerdo con el modo de intra predicción seleccionado,
en el que, cuando el modo de intra predicción seleccionado es un modo horizontal, el patrón de exploración es una exploración vertical,
en el que la información que indica una posición del último coeficiente no cero del bloque de transformación se transmite a un decodificador, y
en el que la unidad de intra predicción (150) incluye:
una unidad de generación de píxeles de referencia (151) configurada para generar píxeles de referencia usando píxeles de referencia disponibles del bloque actual cuando existen píxeles de referencia no disponibles;
una unidad de filtrado de píxeles de referencia (152) configurada para filtrar de manera adaptativa los píxeles de referencia adyacentes al bloque actual en base al modo de intra predicción seleccionado y a un tamaño del bloque actual;
una unidad de generación de bloques de predicción (153) configurada para generar un bloque de predicción del bloque actual de acuerdo con el modo de intra predicción seleccionado;
una unidad de filtrado de bloques de predicción (154) configurada para filtrar de manera adaptativa algunos píxeles de predicción del bloque de predicción en base al modo de intra predicción seleccionado y al tamaño del bloque actual; y
una unidad de codificación del modo de predicción (156) configurada para codificar el modo de intra predicción seleccionado del bloque actual usando un modo de intra predicción anterior de un bloque anterior vecino del bloque actual y un modo de intra predicción izquierdo de un bloque izquierdo vecino del bloque actual,
en el que cuando el modo de intra predicción anterior o el modo de intra predicción izquierdo no está disponible, la unidad de codificación del modo de predicción establece un modo DC como el modo de intra predicción anterior o el modo de intra predicción izquierdo.
2. El aparato de la reivindicación 1, en el que la unidad de cuantificación (130) determina un promedio de dos tamaños de paso de cuantificación válidos de un tamaño de paso de cuantificación de una unidad de cuantificación izquierda de una unidad de codificación actual, un tamaño de paso de cuantificación de una unidad de codificación anterior de la unidad de codificación actual y un tamaño de paso de cuantificación de una unidad de codificación previa de la unidad de codificación actual como un predictor del tamaño de paso de cuantificación, y transmite una diferencia entre el tamaño de paso de cuantificación y el predictor del tamaño de paso de cuantificación a la unidad de codificación de entropía (140).
3. El aparato de la reivindicación 1, en el que la pluralidad de sub-bloques se exploran en una dirección inversa.
ES17160963T 2010-07-31 2011-07-29 Aparato para codificar una imagen Active ES2720652T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20100074462 2010-07-31
KR1020110062603A KR101373814B1 (ko) 2010-07-31 2011-06-28 예측 블록 생성 장치

Publications (1)

Publication Number Publication Date
ES2720652T3 true ES2720652T3 (es) 2019-07-23

Family

ID=45559906

Family Applications (6)

Application Number Title Priority Date Filing Date
ES17160963T Active ES2720652T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES17160949T Active ES2733115T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES15187283.5T Active ES2634819T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES17160956T Active ES2721768T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES17160965T Active ES2700621T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen
ES17160967T Active ES2701700T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen

Family Applications After (5)

Application Number Title Priority Date Filing Date
ES17160949T Active ES2733115T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES15187283.5T Active ES2634819T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES17160956T Active ES2721768T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES17160965T Active ES2700621T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen
ES17160967T Active ES2701700T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen

Country Status (17)

Country Link
US (11) US9319715B2 (es)
EP (7) EP2600614A4 (es)
JP (8) JP5928957B2 (es)
KR (1) KR101373814B1 (es)
CN (11) CN104602006B (es)
CY (5) CY1119258T1 (es)
DK (5) DK3214838T3 (es)
ES (6) ES2720652T3 (es)
HR (5) HRP20171277T1 (es)
HU (5) HUE041268T2 (es)
LT (5) LT3211898T (es)
PL (6) PL3197160T3 (es)
PT (5) PT3214838T (es)
RS (5) RS56109B1 (es)
SI (5) SI3197160T1 (es)
TR (1) TR201815076T4 (es)
WO (1) WO2012018198A2 (es)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8867854B2 (en) * 2008-10-01 2014-10-21 Electronics And Telecommunications Research Institute Image encoder and decoder using undirectional prediction
KR20110113561A (ko) 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
HUE034476T2 (en) * 2010-04-23 2018-02-28 M&K Holdings Inc Equipment for image coding
KR101373814B1 (ko) * 2010-07-31 2014-03-18 엠앤케이홀딩스 주식회사 예측 블록 생성 장치
CN102595118B (zh) * 2011-01-14 2015-04-08 华为技术有限公司 一种编解码中的预测方法和预测器
WO2012134046A2 (ko) 2011-04-01 2012-10-04 주식회사 아이벡스피티홀딩스 동영상의 부호화 방법
CA2838214C (en) * 2011-06-13 2019-02-12 Panasonic Corporation Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus
KR20120140181A (ko) * 2011-06-20 2012-12-28 한국전자통신연구원 화면내 예측 블록 경계 필터링을 이용한 부호화/복호화 방법 및 그 장치
MX343471B (es) 2011-08-29 2016-11-07 Ibex Pt Holdings Co Ltd Metodo para generar un bloque de prediccion en modo de prediccion de vector de movimiento avanzada (amvp).
KR20130049523A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 장치
KR20130049524A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
KR20130049526A (ko) * 2011-11-04 2013-05-14 오수미 복원 블록 생성 방법
ES2961654T3 (es) 2012-06-29 2024-03-13 Electronics & Telecommunications Res Inst Método y dispositivo para codificar/decodificar imágenes
JP5798539B2 (ja) * 2012-09-24 2015-10-21 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
JP6171627B2 (ja) * 2013-06-28 2017-08-02 株式会社Jvcケンウッド 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法および画像復号プログラム
JP6352141B2 (ja) * 2014-09-30 2018-07-04 Kddi株式会社 動画像符号化装置、動画像復号装置、動画像圧縮伝送システム、動画像符号化方法、動画像復号方法、およびプログラム
CN105812823B (zh) * 2014-12-31 2019-04-05 扬智科技股份有限公司 Hevc中帧内预测的参考像素替换方法与装置
CA2986613C (en) 2015-05-21 2020-04-28 Huawei Technologies Co., Ltd. Apparatus and method for video motion compensation
CN108353193B (zh) * 2015-08-19 2022-07-15 Lg 电子株式会社 基于多个基于图的模型处理视频数据的方法和设备
JP5933086B2 (ja) * 2015-08-21 2016-06-08 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
ES2677193B1 (es) 2015-08-28 2019-06-19 Kt Corp Procedimiento y dispositivo para procesar señales de vídeo
KR20180040515A (ko) * 2015-09-10 2018-04-20 삼성전자주식회사 부호화 장치, 복호화 장치, 그 부호화 및 복호화 방법
JP6088689B2 (ja) * 2016-04-28 2017-03-01 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
WO2017222334A1 (ko) 2016-06-24 2017-12-28 한국전자통신연구원 변환 기반의 영상 부호화/복호화 방법 및 장치
CN109479138B (zh) * 2016-07-13 2023-11-03 韩国电子通信研究院 图像编码/解码方法和装置
KR102447450B1 (ko) * 2016-09-05 2022-09-26 엘지전자 주식회사 영상 부호화/복호화 방법 및 이를 위한 장치
US10694202B2 (en) * 2016-12-01 2020-06-23 Qualcomm Incorporated Indication of bilateral filter usage in video coding
JP6242517B2 (ja) * 2017-02-03 2017-12-06 株式会社Nttドコモ 動画像予測復号装置及び動画像予測復号方法
EP3410708A1 (en) * 2017-05-31 2018-12-05 Thomson Licensing Method and apparatus for intra prediction with interpolation
WO2018221554A1 (ja) 2017-06-01 2018-12-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、符号化方法、復号装置及び復号方法
WO2019009620A1 (ko) * 2017-07-04 2019-01-10 엘지전자 주식회사 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
KR102651878B1 (ko) 2017-07-06 2024-03-28 삼성전자주식회사 영상을 부호화 또는 복호화하는 방법 및 장치
CN109429064B (zh) * 2017-08-22 2021-03-30 华为技术有限公司 一种视频数据的编解码方法、装置和介质
KR102454936B1 (ko) * 2017-10-13 2022-10-17 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 블록 단위의 화상 코딩을 위한 인트라 예측 모드 개념
JP6408681B2 (ja) * 2017-11-07 2018-10-17 株式会社Nttドコモ 動画像予測復号方法
CN117834917A (zh) * 2018-01-17 2024-04-05 英迪股份有限公司 对视频进行解码或编码的方法和用于发送比特流的方法
KR20240024300A (ko) 2018-03-16 2024-02-23 엘지전자 주식회사 인트라 예측 기반 영상/비디오 코딩 방법 및 그 장치
KR20200108076A (ko) * 2018-05-10 2020-09-16 삼성전자주식회사 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
CN112740670A (zh) 2018-06-25 2021-04-30 Oppo广东移动通信有限公司 帧内预测方法和装置
CN110650337B (zh) * 2018-06-26 2022-04-01 中兴通讯股份有限公司 一种图像编码方法、解码方法、编码器、解码器及存储介质
TW202247652A (zh) 2018-06-29 2022-12-01 弗勞恩霍夫爾協會 擴充參考圖像內預測技術
JP6602931B2 (ja) * 2018-09-20 2019-11-06 株式会社Nttドコモ 動画像予測復号方法
US11102513B2 (en) * 2018-12-06 2021-08-24 Tencent America LLC One-level transform split and adaptive sub-block transform
CN110166773B (zh) * 2019-06-25 2021-08-31 浙江大华技术股份有限公司 帧内预测方法、视频编码方法、视频处理装置、存储介质
MX2021011036A (es) 2019-09-24 2021-10-13 Guangdong Oppo Mobile Telecommunications Corp Ltd Procedimientos de determinacion del valor de prediccion, codificador, decodificador y medio de almacenamiento informatico.

Family Cites Families (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100242635B1 (ko) * 1996-01-25 2000-02-01 윤종용 가변장 부호화 및 가변장 복호화 시스템
DE69709835T2 (de) * 1996-05-28 2002-08-22 Matsushita Electric Ind Co Ltd Vorrichtung zur bildvorhersage und decodierung
CN100539695C (zh) * 1996-05-28 2009-09-09 松下电器产业株式会社 图像预测编码/解码装置和方法以及记录媒体
CN1738429A (zh) * 2001-09-12 2006-02-22 松下电器产业株式会社 图像解码方法
KR100798446B1 (ko) 2001-09-26 2008-01-28 에스케이 텔레콤주식회사 적응적 더블 스캔 방법
DE10158658A1 (de) * 2001-11-30 2003-06-12 Bosch Gmbh Robert Verfahren zur gerichteten Prädiktion eines Bildblockes
CN101448162B (zh) * 2001-12-17 2013-01-02 微软公司 处理视频图像的方法
MXPA04012133A (es) 2002-06-11 2005-04-19 Nokia Corp Prediccion espacial basada en intra-codificacion.
KR100846778B1 (ko) 2002-07-16 2008-07-16 삼성전자주식회사 복수개의 주사 패턴을 이용한 부호화 방법, 복호화 방법,및 그 장치
US7227901B2 (en) * 2002-11-21 2007-06-05 Ub Video Inc. Low-complexity deblocking filter
JP2004180064A (ja) 2002-11-28 2004-06-24 Ricoh Co Ltd 情報圧縮装置および方法、ならびにそのプログラム
US7289562B2 (en) * 2003-08-01 2007-10-30 Polycom, Inc. Adaptive filter to improve H-264 video quality
US8064520B2 (en) * 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
CN100542262C (zh) * 2004-01-30 2009-09-16 松下电器产业株式会社 逆量化方法图像解码方法和设备及处理器
US7869503B2 (en) * 2004-02-06 2011-01-11 Apple Inc. Rate and quality controller for H.264/AVC video coder and scene analyzer therefor
JP2006054846A (ja) 2004-07-12 2006-02-23 Sony Corp 符号化方法、符号化装置、復号方法、復号装置およびそれらのプログラム
CN1633180A (zh) * 2004-12-24 2005-06-29 海信集团有限公司 基于变换和数据融合的多描述视频编码方法
CN1665301A (zh) 2005-03-07 2005-09-07 清华大学 一种视频编解码中的自适应的扫描方法
KR100716999B1 (ko) * 2005-06-03 2007-05-10 삼성전자주식회사 영상의 대칭성을 이용한 인트라 예측 방법, 이를 이용한영상의 복호화, 부호화 방법 및 장치
KR100739714B1 (ko) 2005-07-06 2007-07-13 삼성전자주식회사 인트라 예측 모드 결정 방법 및 장치
KR100727990B1 (ko) * 2005-10-01 2007-06-13 삼성전자주식회사 영상의 인트라 예측 부호화 방법 및 그 방법을 사용하는부호화 장치
EP2733952A1 (en) 2005-10-21 2014-05-21 Electronics and Telecommunications Research Institute Method for encoding moving picture using adaptive scanning
JP4114885B2 (ja) 2005-10-31 2008-07-09 松下電器産業株式会社 画像符号化装置、方法、及びプログラム
KR100750138B1 (ko) * 2005-11-16 2007-08-21 삼성전자주식회사 인간의 시각 특성을 이용한 영상의 부호화, 복호화 방법 및장치
RU2369038C1 (ru) 2005-11-30 2009-09-27 Кабусики Кайся Тосиба Способ кодирования изображения/декодирования изображения, устройство кодирования изображения/декодирования изображения
EP1985124B1 (en) * 2006-02-17 2010-09-01 Thomson Licensing Process for coding images using intra prediction mode
JP2007300389A (ja) 2006-04-28 2007-11-15 Victor Co Of Japan Ltd 画像符号化装置および画像符号化プログラム
KR100882949B1 (ko) * 2006-08-17 2009-02-10 한국전자통신연구원 화소 유사성에 따라 적응적인 이산 코사인 변환 계수스캐닝을 이용한 부호화/복호화 장치 및 그 방법
CN101137047B (zh) * 2006-08-29 2010-09-15 昆山杰得微电子有限公司 一种通过有效残差系数分析提高编码效率的方法
JP4999859B2 (ja) * 2006-10-30 2012-08-15 日本電信電話株式会社 予測参照情報生成方法、動画像符号化及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体
BRPI0720806B1 (pt) * 2007-01-18 2023-03-28 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Corrente de dados de vídeo de qualidade escalonável
JP4254867B2 (ja) 2007-01-31 2009-04-15 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体
ES2369214T3 (es) * 2007-03-14 2011-11-28 Nippon Telegraph And Telephone Corporation Método y dispositivo de estimación de la cantidad de código, su programa y medio de almacenamiento.
JP4939273B2 (ja) * 2007-03-29 2012-05-23 キヤノン株式会社 画像符号化装置及び画像符号化方法
WO2008130367A1 (en) * 2007-04-19 2008-10-30 Thomson Licensing Adaptive reference picture data generation for intra prediction
CN100496127C (zh) * 2007-06-05 2009-06-03 南京大学 Mpeg-2到h.264码的快速转换方法
US8488668B2 (en) * 2007-06-15 2013-07-16 Qualcomm Incorporated Adaptive coefficient scanning for video coding
JP2009027541A (ja) 2007-07-20 2009-02-05 Ntt Docomo Inc 画像符号化装置、方法及びプログラム、並びに、画像復号装置、方法及びプログラム
KR100907707B1 (ko) * 2007-09-06 2009-07-14 동국대학교 산학협력단 H.264/avc 압축 영역에서의 썸네일 영상의 고속 추출방법, 그 장치 및 이를 기록한 기록매체
KR100919572B1 (ko) * 2007-09-11 2009-10-01 주식회사 부시파워 디지털 조속기의 속도제어를 위한 속도형 신경망 제어기
CN101389031A (zh) * 2007-09-14 2009-03-18 浙江大学 一种对变换系数的处理方法及装置
US8848787B2 (en) * 2007-10-15 2014-09-30 Qualcomm Incorporated Enhancement layer coding for scalable video coding
WO2009080133A1 (en) 2007-12-21 2009-07-02 Telefonaktiebolaget Lm Ericsson (Publ) Adaptive intra mode selection
US8891615B2 (en) * 2008-01-08 2014-11-18 Qualcomm Incorporated Quantization based on rate-distortion modeling for CABAC coders
CN101257630B (zh) * 2008-03-25 2012-06-06 浙江大学 结合三维滤波的视频编码方法和装置
JP2009284298A (ja) * 2008-05-23 2009-12-03 Hitachi Ltd 動画像符号化装置、動画像復号化装置、動画像符号化方法及び動画像復号化方法
JP2009302776A (ja) 2008-06-11 2009-12-24 Canon Inc 画像符号化装置、その制御方法、及びコンピュータプログラム
KR101483497B1 (ko) * 2008-09-25 2015-01-20 에스케이텔레콤 주식회사 임펄스 신호를 고려한 영상 부호화/복호화 장치 및 방법
US9479786B2 (en) * 2008-09-26 2016-10-25 Dolby Laboratories Licensing Corporation Complexity allocation for video and image coding applications
CN101383972A (zh) * 2008-09-28 2009-03-11 北京航空航天大学 基于空间预测与变换的遥感图像压缩方法
KR101458471B1 (ko) 2008-10-01 2014-11-10 에스케이텔레콤 주식회사 영상 부호화/복호화 방법 및 장치
US20100098156A1 (en) * 2008-10-16 2010-04-22 Qualcomm Incorporated Weighted prediction based on vectorized entropy coding
EP2182732A1 (en) * 2008-10-28 2010-05-05 Panasonic Corporation Switching between scans in image coding
EP2192780A1 (en) * 2008-11-28 2010-06-02 Thomson Licensing Method for video decoding supported by Graphics Processing Unit
WO2010063881A1 (en) * 2008-12-03 2010-06-10 Nokia Corporation Flexible interpolation filter structures for video coding
US8514942B2 (en) * 2008-12-31 2013-08-20 Entropic Communications, Inc. Low-resolution video coding content extraction
KR101538704B1 (ko) * 2009-01-28 2015-07-28 삼성전자주식회사 보간 필터를 적응적으로 사용하여 영상을 부호화 및 복호화하는 방법 및 장치
JP5169978B2 (ja) * 2009-04-24 2013-03-27 ソニー株式会社 画像処理装置および方法
KR101712351B1 (ko) * 2009-06-26 2017-03-06 에스케이 텔레콤주식회사 다차원 정수 변환을 이용한 영상 부호화/복호화 장치 및 방법
US8477845B2 (en) * 2009-10-16 2013-07-02 Futurewei Technologies, Inc. Predictive adaptive scan ordering for video coding
US8588303B2 (en) 2010-03-31 2013-11-19 Futurewei Technologies, Inc. Multiple predictor sets for intra-frame coding
KR20110113561A (ko) * 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
US20110249734A1 (en) * 2010-04-09 2011-10-13 Segall Christopher A Methods and Systems for Intra Prediction
US8644375B2 (en) * 2010-04-09 2014-02-04 Sharp Laboratories Of America, Inc. Methods and systems for intra prediction
NO2559244T3 (es) 2010-04-13 2017-12-30
CN101841713B (zh) * 2010-04-30 2012-12-05 西安电子科技大学 降低编码码率的视频编码方法及系统
KR101373814B1 (ko) * 2010-07-31 2014-03-18 엠앤케이홀딩스 주식회사 예측 블록 생성 장치
US9049444B2 (en) * 2010-12-22 2015-06-02 Qualcomm Incorporated Mode dependent scanning of coefficients of a block of video data
KR101643121B1 (ko) * 2011-01-12 2016-07-26 미쓰비시덴키 가부시키가이샤 화상 부호화 장치, 화상 복호 장치, 화상 부호화 방법, 화상 복호 방법 및 기억 매체
EP2684355B1 (en) * 2011-03-10 2014-11-12 Telefonaktiebolaget L M Ericsson (PUBL) Decoding of transforms with curved basis functions

Also Published As

Publication number Publication date
EP2988501B1 (en) 2017-05-24
HUE041268T2 (hu) 2019-05-28
JP2016165126A (ja) 2016-09-08
EP3214838B1 (en) 2019-02-27
PT3211899T (pt) 2019-05-31
CN106878721B (zh) 2019-11-01
JP6084731B2 (ja) 2017-02-22
US20160198182A1 (en) 2016-07-07
US9319715B2 (en) 2016-04-19
PL3197160T3 (pl) 2019-02-28
HUE036014T2 (hu) 2018-06-28
US20160198185A1 (en) 2016-07-07
CN104602003B (zh) 2017-11-10
CN103081473B (zh) 2016-11-09
LT3197160T (lt) 2018-11-12
CY1121935T1 (el) 2020-10-14
RS56109B1 (sr) 2017-10-31
US9584827B2 (en) 2017-02-28
EP3197160B1 (en) 2018-09-12
EP3211898B1 (en) 2019-04-03
PL3211899T3 (pl) 2019-09-30
US20130016773A1 (en) 2013-01-17
CY1119258T1 (el) 2018-02-14
LT3211898T (lt) 2019-04-25
US9609360B2 (en) 2017-03-28
JP6084732B2 (ja) 2017-02-22
EP3197161B1 (en) 2018-09-12
US9584828B2 (en) 2017-02-28
RS58605B1 (sr) 2019-05-31
CN106878718B (zh) 2019-11-01
JP2016165128A (ja) 2016-09-08
CN106878721A (zh) 2017-06-20
PT3211898T (pt) 2019-06-11
ES2701700T3 (es) 2019-02-25
CN107087176B (zh) 2020-01-14
CN107087175B (zh) 2020-03-06
EP3197160A1 (en) 2017-07-26
SI2988501T1 (sl) 2017-08-31
SI3211898T1 (sl) 2019-06-28
LT2988501T (lt) 2017-09-11
CY1121682T1 (el) 2020-07-31
ES2700621T3 (es) 2019-02-18
JP5928957B2 (ja) 2016-06-01
JP2013535919A (ja) 2013-09-12
RS58484B1 (sr) 2019-04-30
CN104602006A (zh) 2015-05-06
US20160198187A1 (en) 2016-07-07
JP2016165130A (ja) 2016-09-08
CN107071427A (zh) 2017-08-18
JP6084735B2 (ja) 2017-02-22
JP2016165131A (ja) 2016-09-08
US20160198181A1 (en) 2016-07-07
EP3211899A1 (en) 2017-08-30
PL2988501T3 (pl) 2017-10-31
US20160198183A1 (en) 2016-07-07
US20160198180A1 (en) 2016-07-07
WO2012018198A3 (ko) 2012-04-12
US20160198186A1 (en) 2016-07-07
DK3197160T3 (da) 2019-01-02
EP2600614A2 (en) 2013-06-05
EP2600614A4 (en) 2014-09-10
DK3211898T3 (da) 2019-07-01
CN106878719A (zh) 2017-06-20
DK3214838T3 (da) 2019-05-27
EP3211898A1 (en) 2017-08-30
LT3211899T (lt) 2019-03-12
CN106878719B (zh) 2019-08-30
PL3214838T3 (pl) 2019-08-30
SI3214838T1 (sl) 2019-05-31
HRP20190708T1 (hr) 2019-07-12
JP6149137B2 (ja) 2017-06-14
CN104602006B (zh) 2017-11-10
CN106878720B (zh) 2019-08-30
HUE044306T2 (hu) 2019-10-28
EP2988501A3 (en) 2016-03-16
PL3197161T3 (pl) 2019-02-28
CN107071427B (zh) 2020-01-14
US20160198188A1 (en) 2016-07-07
CN104602003A (zh) 2015-05-06
ES2733115T3 (es) 2019-11-27
CY1121755T1 (el) 2020-07-31
LT3214838T (lt) 2019-03-25
EP3197161A1 (en) 2017-07-26
CN107087175A (zh) 2017-08-22
JP6084733B2 (ja) 2017-02-22
PT3214838T (pt) 2019-06-07
US9584826B2 (en) 2017-02-28
EP2988501A2 (en) 2016-02-24
JP6084734B2 (ja) 2017-02-22
EP3214838A1 (en) 2017-09-06
ES2721768T3 (es) 2019-08-05
CN107087176A (zh) 2017-08-22
US9584829B2 (en) 2017-02-28
USRE48564E1 (en) 2021-05-18
KR101373814B1 (ko) 2014-03-18
EP3211899B1 (en) 2019-02-20
DK2988501T3 (en) 2017-08-07
JP6149138B2 (ja) 2017-06-14
HRP20190709T1 (hr) 2019-07-12
US9584830B2 (en) 2017-02-28
PT3197160T (pt) 2018-12-19
CN106878720A (zh) 2017-06-20
HRP20171277T1 (hr) 2017-10-20
RS58769B1 (sr) 2019-06-28
US20160198184A1 (en) 2016-07-07
JP2016165132A (ja) 2016-09-08
CN106878718A (zh) 2017-06-20
PT2988501T (pt) 2017-06-26
ES2634819T3 (es) 2017-09-29
US9609359B2 (en) 2017-03-28
US9554154B2 (en) 2017-01-24
HRP20182099T1 (hr) 2019-02-08
CY1120798T1 (el) 2019-12-11
CN107105241A (zh) 2017-08-29
PL3211898T3 (pl) 2019-09-30
US9578349B2 (en) 2017-02-21
HRP20190770T1 (hr) 2019-06-28
SI3211899T1 (sl) 2019-06-28
WO2012018198A2 (ko) 2012-02-09
RS58060B1 (sr) 2019-02-28
JP2016165129A (ja) 2016-09-08
HUE045031T2 (hu) 2019-12-30
DK3211899T3 (da) 2019-05-13
SI3197160T1 (sl) 2018-11-30
CN107105241B (zh) 2020-04-28
CN103081473A (zh) 2013-05-01
KR20120012383A (ko) 2012-02-09
TR201815076T4 (tr) 2018-11-21
JP2016165127A (ja) 2016-09-08
CN103081473B8 (zh) 2017-03-15
HUE044599T2 (hu) 2019-11-28

Similar Documents

Publication Publication Date Title
ES2720652T3 (es) Aparato para codificar una imagen
ES2691195T3 (es) Aparato para codificar una imagen
ES2696931T3 (es) Procedimiento para codificar un modo de intrapredicción